JP2007164564A - System and device of vehicle sensing for traffic-actuated control - Google Patents

System and device of vehicle sensing for traffic-actuated control Download PDF

Info

Publication number
JP2007164564A
JP2007164564A JP2005361393A JP2005361393A JP2007164564A JP 2007164564 A JP2007164564 A JP 2007164564A JP 2005361393 A JP2005361393 A JP 2005361393A JP 2005361393 A JP2005361393 A JP 2005361393A JP 2007164564 A JP2007164564 A JP 2007164564A
Authority
JP
Japan
Prior art keywords
vehicle
sensitive
background image
image data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005361393A
Other languages
Japanese (ja)
Inventor
Masanori Aoki
正憲 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2005361393A priority Critical patent/JP2007164564A/en
Publication of JP2007164564A publication Critical patent/JP2007164564A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system and a device of vehicle sensing for traffic-actuated control which highly precisely detect the presence of a vehicle necessary for accurate traffic-actuated control, and generate a high precision traffic-actuated control signal enabling a signal controller to perform traffic-actuated control at appropriate timing. <P>SOLUTION: The system includes an imaging means for periodically acquiring image data including an area near by a stop line for every prescribed period; a data processing means for detecting a vehicle on the basis of the image data; and an output means for outputting a responding signal in response to the detection of the detected vehicle. The data processing means measures a stoppage time period of the vehicle to determine that the vehicle is in parking when the stoppage time period exceeds a threshold, and the output means stops the output of the responding signal corresponding to the vehicle when the data processing means determines that the vehicle is in parking. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、信号交差点における感応式信号制御に用いる感応制御用車両感知システムおよび装置に関する。   The present invention relates to a vehicle control system and apparatus for sensitive control used for sensitive signal control at signalized intersections.

従来、感応式の信号制御方法(以下、「感応制御」と称する。)には、指定された流入車線を走行する車両若しくは二輪車(以下、これを「車両等」と称する。)の存在を検知して信号灯器を赤から青に切り変える制御方法(以下、これを「リコール感応制御」と称する。)や右折車線に存在する車両等を検知して信号灯器の右折矢表示を延長する機能、あるいは車両等が存在しないときは右折矢表示を短縮する機能を持つ制御方法(以下、これを「右折感応制御」と称する。)等、種々の方法が知られている。これら感応式の信号制御方法に用いられるセンサとして超音波式車両感知器が利用されてきた。
また、本明細書では、リコール感応制御や右折感応制御の対象となる領域に存在する車両等を検知したことを示す信号を「感応信号」と称することとし、感応信号を生成するための領域を「感応領域」と称することとする。
Conventionally, a sensitive signal control method (hereinafter referred to as “sensitive control”) detects the presence of a vehicle or a two-wheeled vehicle (hereinafter referred to as “vehicle or the like”) traveling in a specified inflow lane. And a function for extending the right turn arrow display of the signal light device by detecting a vehicle or the like existing in the right turn lane or a control method for switching the signal light device from red to blue (hereinafter referred to as “recall sensitive control”), Alternatively, various methods such as a control method having a function of shortening the right turn arrow display when a vehicle or the like does not exist (hereinafter referred to as “right turn sensitive control”) are known. As a sensor used in these sensitive signal control methods, an ultrasonic vehicle sensor has been used.
Further, in this specification, a signal indicating that a vehicle or the like existing in a region subject to recall sensitive control or right turn sensitive control is referred to as a “sensitive signal”, and a region for generating a sensitive signal is referred to as a “sensitive signal”. It will be referred to as a “sensitive area”.

超音波式車両感知器は停止線付近の車線直上に車両検知部を設置する。車両検知部から道路面に向けて超音波を送信し、路面あるいは該当車線を通過する車両等の検出対象(以下、単に「検出対象」と称する。)に当たって反射される超音波を受信する。超音波の送信から受信までの時間を計測することにより検出対象の存在を検知する。   The ultrasonic vehicle detector has a vehicle detection unit directly above the lane near the stop line. An ultrasonic wave is transmitted from the vehicle detection unit toward the road surface, and an ultrasonic wave reflected upon a detection target (hereinafter simply referred to as “detection target”) such as a vehicle passing the road surface or the corresponding lane is received. The presence of a detection target is detected by measuring the time from transmission to reception of ultrasonic waves.

一方、車両等の検出には画像式車両感知器も使用されている。画像式車両感知器は路側にカメラを設置して道路を撮影する。撮影された画像において、道路面の車線幅と車線方向の任意の距離で定まる矩形領域(以下、これを「計測領域」と称する。)を検出対象の計測範囲とする。この計測領域を含んだ画像を、カメラから一定時刻毎に周期的に取得する。取得された現在時刻の画像に対して予め設定された計測領域内の複数の画素(サンプル点)を抽出し、サンプル点の輝度を決定する。   On the other hand, an image type vehicle sensor is also used for detecting a vehicle or the like. The image-type vehicle detector takes a picture of the road by installing a camera on the roadside. In the photographed image, a rectangular area (hereinafter referred to as “measurement area”) determined by an arbitrary distance in the lane width of the road surface and the lane direction is set as a measurement range of the detection target. An image including the measurement area is periodically acquired from the camera at regular time intervals. A plurality of pixels (sample points) in a measurement region set in advance with respect to the acquired image at the current time are extracted, and the luminance of the sample points is determined.

サンプル点の輝度からなる現在時刻の画像データと、予めメモリに記憶させている比較用の計測領域の画像データ(以下、「背景画像データ」と称する。)を比較し、画像データから検出対象を抽出する。さらに抽出した検出対象の特徴量として二値化したエッジ部分を抽出する。この二値化したエッジ部分を基に検出対象の車両先頭(以下、「車頭」と称する。)位置と車幅を推定する。さらに、車幅に対応付けられた車長情報から車両等が存在する領域(以下、単に「存在領域」と称する。)を推定する。この存在領域に対して現在の時刻より一周期前の時刻に取得された画像データを基に決定された車頭位置及び存在領域と、現在の時刻に取得された画像データを基に決定された車頭位置及び存在領域との対応づけを時系列的に行って車両等の追跡をすることにより車両等の検知と交通流の計測を行う。対応づけは、一般に画像処理により抽出された特徴量(例えば、エッジ)のパターン・マッチングにより行われる。   The image data at the current time consisting of the brightness of the sample points is compared with the image data of the measurement area for comparison (hereinafter referred to as “background image data”) stored in advance in the memory, and the detection target is detected from the image data. Extract. Further, a binarized edge portion is extracted as the extracted feature quantity of the detection target. Based on the binarized edge portion, the position and width of the vehicle head (hereinafter referred to as “vehicle head”) to be detected are estimated. Further, a region where a vehicle or the like exists (hereinafter simply referred to as “existing region”) is estimated from vehicle length information associated with the vehicle width. The vehicle position determined based on the image position acquired based on the image data acquired at the current time and the vehicle head position and the existing region determined based on the image data acquired at a time one cycle before the current time with respect to the existing region The vehicle and the like are detected and the traffic flow is measured by tracking the vehicle and the like by associating the position and the existence region in time series. The association is generally performed by pattern matching of feature amounts (for example, edges) extracted by image processing.

また、前記の画像式車両感知器を感応制御に利用することも行われている。画像式車両感知器のカメラから取得された画像の計測領域に検出対象が存在している場合は検出対象の存在を検知できるので、この検出対象の存在を検知したことを示す信号(以下、「存在検知信号」と称する。)をそのまま感応信号として利用することが行われている。   In addition, the image type vehicle sensor is also used for sensitive control. Since the presence of the detection target can be detected when the detection target exists in the measurement region of the image acquired from the camera of the image type vehicle sensor, a signal (hereinafter, “ The presence detection signal ") is used as it is as a sensitive signal.

特開平5−307695号公報JP-A-5-307695

しかし、超音波式車両感知器は車両検知部の検知領域が1.2m程度と狭いため、検出対象の走行位置が検知領域から外れる、あるいは信号待ちの際に車両検知部からの送信波が車両等と車両等の間の路面に当たるなどした時に検出漏れを生じるという問題があった。さらに、検出対象が走行する車線の真上に車両検知部を設置する必要があるため、路側の柱から長いアームを取付け、ここに車両検知部を設置する必要がある。設置場所によっては工事が困難であり、設置後の街の景観を損ねるという問題もあった。   However, since the detection area of the vehicle detection unit is as narrow as about 1.2 m in the ultrasonic vehicle detector, the traveling position of the detection target deviates from the detection region, or a transmission wave from the vehicle detection unit is generated when waiting for a signal. There is a problem that a detection omission occurs when it hits the road surface between the vehicle and the like. Furthermore, since it is necessary to install a vehicle detection unit directly above the lane in which the detection target travels, it is necessary to install a long arm from the roadside pillar and install the vehicle detection unit here. Depending on the installation location, construction is difficult, and there is also a problem that the cityscape after installation is damaged.

また、従来の画像式車両感知器を感応制御に利用した場合は、検知した存在検知信号をそのまま感応信号として利用していた。そのため、例えば、感応領域内の路側に検出対象が駐車した場合、検出対象の存在が検知され続けることになる。この場合、存在検知信号を受信した信号制御機は感知器を異常と判断して、以降は感応制御ができなくなるという問題があった。   Further, when a conventional image type vehicle detector is used for sensitive control, the detected presence detection signal is used as it is as a sensitive signal. Therefore, for example, when the detection target is parked on the road side in the sensitive area, the presence of the detection target is continuously detected. In this case, there has been a problem that the signal controller that has received the presence detection signal determines that the sensor is abnormal and thereafter cannot perform sensitive control.

本発明の目的は、このような従来方式及び装置の問題点に鑑み、正確な感応制御を行う上で必要な、車両等の存在を高精度に検出できる感応制御用車両感知システムおよび装置を提供することにある。
本発明の他の目的は、信号制御機が適切なタイミングで感応制御できるよう高精度な感応信号を生成する感応制御用車両感知システムおよび装置を提供することにある。
An object of the present invention is to provide a vehicle sensing system and device for sensitive control that can detect the presence of a vehicle or the like with high accuracy, which is necessary for accurate sensitive control, in view of the problems of such conventional methods and devices. There is to do.
Another object of the present invention is to provide a vehicle sensing system and apparatus for sensitive control that generates a highly accurate sensitive signal so that the signal controller can perform sensitive control at an appropriate timing.

前記の課題を解決するため、停止線近傍の領域を含む画像データを一定時刻毎に周期的に取得する撮像手段と、画像データに基づいて車両等を検出するデータ処理手段と、車両等の検出に対応して感応信号を出力する出力手段とを含む感応制御用車両感知システムであって、データ処理手段は検出した車両等の停止時間を計測し、停止時間が閾値を越えた場合に駐車と判断し、出力手段は、データ処理手段が駐車と判断した場合に、車両等に対応する感応信号の出力を中止する(請求項1)。   In order to solve the above-described problem, an image pickup unit that periodically acquires image data including an area near the stop line at a predetermined time, a data processing unit that detects a vehicle or the like based on the image data, and a detection of the vehicle or the like A sensor control vehicle sensing system including an output means for outputting a sense signal corresponding to the data processing means, wherein the data processing means measures a stop time of the detected vehicle or the like, and parks when the stop time exceeds a threshold value. If the data processing means determines that the vehicle is parked, the output means stops outputting the sensitive signal corresponding to the vehicle or the like (claim 1).

これにより、感応領域内に駐車車両等を検出したときに感応信号をOFFとできるので、感応領域内に車両等が駐車した場合でも信号制御機が感知器異常と判断することがなくなる。また、駐車車両等以外の検出対象が進入してきた場合には新たに感応信号をONとすることができるので、感応領域内に駐車車両等が存在した場合で、他の車両等が走行する場合でも適切な感応制御が実現できる。   Thereby, since a sensitive signal can be turned off when a parked vehicle or the like is detected in the sensitive area, the signal controller does not determine that the sensor is abnormal even when the vehicle or the like is parked in the sensitive area. In addition, when a detection target other than a parked vehicle or the like enters, the sensitive signal can be turned on anew, so that when a parked vehicle or the like exists in the sensitive area and another vehicle or the like travels However, appropriate sensitive control can be realized.

さらにデータ処理手段は、予め車両等が感応領域に存在しない時刻に生成された背景画像データを記憶する背景画像記憶手段をさらに含み、撮像手段が前記画像データを取得する周期に従って前記背景画像データを更新する背景画像更新手段をさらに含み、背景画像更新手段は、データ処理手段が前記車両等の駐車と判断しなかった場合は、撮像手段が一定周期毎に取得した異なる時刻の画像データのうち最新時刻の画像データにおける当該車両等の存在領域を含む所定の領域を更新し、データ処理手段が車両等の駐車と判断した場合は、背景画像記憶手段に記憶された背景画像データにおける当該車両等の存在領域を含む所定の領域の更新は行わない(請求項2)。   The data processing means further includes background image storage means for storing background image data generated in advance at a time when a vehicle or the like does not exist in the sensitive area, and the background image data is acquired according to a period in which the imaging means acquires the image data. A background image update means for updating, and the background image update means is the latest of the image data at different times acquired by the imaging means at regular intervals when the data processing means does not determine that the vehicle or the like is parked. When a predetermined area including the existence area of the vehicle or the like in the image data at the time is updated and the data processing means determines that the vehicle or the like is parked, the vehicle or the like in the background image data stored in the background image storage means The predetermined area including the existing area is not updated (Claim 2).

これにより、感応領域内に駐車車両等を検出した時、存在領域における背景画像の更新は行わず、駐車車両等が再び発進した際には追跡処理結果に基づいて存在領域の背景画像の更新を再開できるので、常に安定した背景画像を保持・更新することができる。   Thus, when a parked vehicle or the like is detected in the sensitive area, the background image in the existing area is not updated, and when the parked vehicle or the like starts again, the background image of the existing area is updated based on the tracking processing result. Since it can be resumed, a stable background image can always be held and updated.

さらに請求項1または請求項2に記載の感応制御用車両感知システムを一つの筺体内に収納した感応制御用車両感知装置を提供する(請求項3)。   Furthermore, there is provided a vehicle sensing device for sensitivity control in which the vehicle sensing system for sensitivity control according to claim 1 or 2 is housed in one casing (claim 3).

これにより、請求項1または請求項2に記載の感応制御用車両感知システムを一つの筺体内に収納することにより、設置の容易な感応制御用車両感知装置を実現できる。   Thus, by accommodating the sensitive control vehicle sensing system according to claim 1 or 2 in a single housing, a sensitive control vehicle sensing device that is easy to install can be realized.

本発明によれば、感応制御を正確に動作させる上で必要な車両等の存在を高精度に検出できる。これにより正確な感応信号を生成し、信号制御機に伝達できるので最適な感応制御を行うことができる。   According to the present invention, it is possible to accurately detect the presence of a vehicle or the like necessary for accurately operating the sensitive control. As a result, an accurate sensitive signal can be generated and transmitted to the signal controller, so that optimum sensitive control can be performed.

図1は、右折感応制御用に設置されたズーム式カメラ一体型画像式車両感知器1の設置概念図を示す。交差点流出部の信号灯器の上部付近にズーム式カメラ2を内蔵した画像式車両感知器が備えられている。ズーム式カメラ2はその視野が交差点流入部の停止線15を含む流入車線を見渡すように設置される。ズーム式カメラ2より入力された映像に対して、感応信号を生成するための感応領域13は、停止線15から30mの矩形領域として設定される。   FIG. 1 shows an installation conceptual diagram of a zoom camera-integrated image type vehicle sensor 1 installed for right turn sensitive control. An image type vehicle detector incorporating a zoom camera 2 is provided near the upper part of the signal lamp at the intersection outflow part. The zoom camera 2 is installed such that its field of view overlooks the inflow lane including the stop line 15 at the intersection inflow section. A sensitive area 13 for generating a sensitive signal with respect to an image input from the zoom camera 2 is set as a rectangular area 30 m from the stop line 15.

図2は、リコール感応制御用に設置されたズーム式カメラ一体型画像式車両感知器1の設置概念図を示す。図1同様、交差点流出部の信号灯器の上部付近に一体型画像式車両感知器1が設置されている。ズーム式カメラ2の視野は交差点流入部の停止線15を含む流入車線を見渡すように設置される。ズーム式カメラ2より入力された映像において、感応領域13は、停止線15から10m以上の矩形領域として設定される。   FIG. 2 shows an installation conceptual diagram of the zoom type camera-integrated image type vehicle sensor 1 installed for recall sensitive control. As in FIG. 1, an integrated image type vehicle sensor 1 is installed near the upper part of the signal lamp at the intersection outflow part. The field of view of the zoom camera 2 is set so as to overlook the inflow lane including the stop line 15 at the intersection inflow portion. In the video input from the zoom camera 2, the sensitive area 13 is set as a rectangular area of 10 m or more from the stop line 15.

前記感応領域13の設定は、保守用コンソール14を一体型画像式車両感知器1に接続してカメラの俯角を調整した後、内蔵されたズームレンズ3の制御パラメータの設定値を変更することによって、画像処理上必要な空間的解像度を確保しつつ、交差点流入部の停止線15から感応制御に必要十分な範囲の矩形領域が設定される。感応領域13は、保守用コンソール14に接続されるマウスなどのポインティング・デバイスを用いて矩形領域として設定される。また感応領域13の設定時に、予め車線の境界と車線毎の車両等の進行方向を設定しておく。   The sensitive area 13 is set by changing the setting value of the control parameter of the built-in zoom lens 3 after connecting the maintenance console 14 to the integrated image type vehicle sensor 1 and adjusting the depression angle of the camera. A rectangular area within the necessary and sufficient range for sensitive control is set from the stop line 15 at the intersection inflow portion while ensuring the spatial resolution necessary for image processing. The sensitive area 13 is set as a rectangular area using a pointing device such as a mouse connected to the maintenance console 14. When the sensitive area 13 is set, the boundary of the lane and the traveling direction of the vehicle for each lane are set in advance.

保守用コンソール14を用いれば、交差点の規模やズーム式カメラ一体型画像式車両感知器の設置高さや位置などの条件が異なっていてもズームレンズ3の設定値を調整することにより、容易に感応制御に必要十分な感応領域13を設定できる視野を確保できる。   If the maintenance console 14 is used, even if conditions such as the size of the intersection and the installation height and position of the image-type vehicle sensor integrated with the zoom camera are different, the setting value of the zoom lens 3 can be adjusted to easily respond. A visual field capable of setting the sensitive region 13 necessary and sufficient for control can be secured.

さらに保守用コンソール14を使用して感応制御に必要十分な感応領域13の位置や大きさを設定できる。このため従来は、感応制御を行うタイミングに遅れまたはズレが生じる場合に対応できるよう、信号制御機側で最小補償青時間という補正用の時間を設けて感応制御を行うタイミングを補正していたが、その必要が無くなる。   Further, the position and size of the sensitive area 13 necessary and sufficient for the sensitive control can be set using the maintenance console 14. For this reason, conventionally, the timing for performing the sensitivity control was corrected by providing a correction time called the minimum compensation blue time on the signal controller side so as to be able to cope with a case where a delay or deviation occurs in the timing for performing the sensitivity control. That need disappears.

さらに保守用コンソール14を使用して非画像処理領域を設定できる。非画像処理領域として設定した領域は画像処理対象外と判断させるため、非画像処理領域内は以下で説明する画像処理を行わない。   Further, the non-image processing area can be set using the maintenance console 14. Since the area set as the non-image processing area is determined not to be subject to image processing, the image processing described below is not performed in the non-image processing area.

非画像処理領域を設定することにより、例えば、感応領域を含む領域内に夜間警告灯などの明るさ変動を生じる物体が存在する場合でもこの物体を障害物として除去できる。さらにカメラの設置後に例えば、道路標識などが新たに設置され感応領域を含む領域内に存在する場合にも、画像処理上の障害物としてこれを回避するように設定できる。   By setting the non-image processing area, for example, even when an object that causes brightness fluctuation such as a night warning lamp exists in an area including the sensitive area, the object can be removed as an obstacle. Further, for example, even when a road sign or the like is newly installed and exists in the area including the sensitive area after the camera is installed, it can be set to avoid this as an obstacle in image processing.

図3は、ズーム式カメラ一体型画像式車両感知器1内のブロック図である。制御部4本体は、保守用コンソールを接続する保守用コンソールI/F3と、ズーム式カメラ2から取得される画像信号を入力する画像入力部5と車両検出部6、車両追跡部7、存在検知部8、感応信号出力指示部9、背景画像更新部10と記憶部16からなる。記憶部16には画像入力部5で処理された画像データ、保守用コンソール15から入力された設定値、車両検出部6、車両追跡部7、存在検知部8、感応信号出力指示部9、背景画像更新部10で処理されたデータが記憶される。   FIG. 3 is a block diagram in the zoom type camera-integrated image type vehicle sensor 1. The main body of the control unit 4 includes a maintenance console I / F 3 for connecting a maintenance console, an image input unit 5 for inputting an image signal acquired from the zoom camera 2, a vehicle detection unit 6, a vehicle tracking unit 7, and presence detection. 8 comprises a response signal output instruction unit 9, a background image update unit 10 and a storage unit 16. The storage unit 16 includes image data processed by the image input unit 5, setting values input from the maintenance console 15, vehicle detection unit 6, vehicle tracking unit 7, presence detection unit 8, sensitive signal output instruction unit 9, background Data processed by the image update unit 10 is stored.

ズーム式カメラ一体型画像式車両感知器1はさらに感応信号出力指示部9より生成される感応信号の出力指示に基づいて感応信号を信号制御機に出力するための出力部11を有している。この他電源部12も有している。   The zoom type camera-integrated image type vehicle detector 1 further includes an output unit 11 for outputting a sensitivity signal to the signal controller based on a response signal output instruction generated by the response signal output instruction unit 9. . In addition, the power supply unit 12 is also provided.

制御部4の行う処理の概要を説明する。図4に制御部4で行われる処理のフローチャートを示す。図4のS1からS9に至る処理は周期的に行われる。記憶部16には、予め初期化時に異なる時刻の複数の画像データをもとに車両等の存在しない背景画像データが記憶されているものとする。   An outline of processing performed by the control unit 4 will be described. FIG. 4 shows a flowchart of processing performed by the control unit 4. The processing from S1 to S9 in FIG. 4 is performed periodically. It is assumed that background image data in which no vehicle or the like exists is stored in the storage unit 16 in advance based on a plurality of image data at different times during initialization.

画像入力部5で、ズーム式カメラ2から取得された画像の感応領域13を道路の横断方向にM個のサンプル点、車両等の進行方向に沿ってN個のサンプル点から決定されるM×N個の座標データに変換し、各座標データと対応する輝度値をサンプル点画像(以下これを入力画像と称することとする)として記憶部16に記憶する(ステップS1)。サンプル点の間隔は、画像処理上必要となる空間分解能を保持しつつ、処理を高速に行うように決定する。また、サンプル点は道路面上で等間隔となるように配置する。   In the image input unit 5, the sensitive region 13 of the image acquired from the zoom camera 2 is determined from M sample points in the crossing direction of the road and N sample points along the traveling direction of the vehicle or the like. It converts into N coordinate data, and memorize | stores the luminance value corresponding to each coordinate data in the memory | storage part 16 as a sample point image (it shall hereafter be called an input image) (step S1). The interval between the sample points is determined so that the processing can be performed at high speed while maintaining the spatial resolution necessary for image processing. The sample points are arranged at equal intervals on the road surface.

車両検出部6において、ステップS1で得られた画像に対して、例えば特開平5−307695号公報に開示された二値化処理を行う。つまり、カメラで道路を撮影し、その映像情報に基づいて複数のサンプル点の輝度を決定し、各サンプル点の輝度情報に基づく空間微分処理を行って微分信号の所定の閾値により二値化し、エッジ部分の抽出を行う(ステップS2)。次に、予め記憶部16に保存されている背景画像(車両のいない背景だけの画像)との差分(以下、背景差分と称することとする)を求める(ステップS3)。ステップS2より求めた二値化画像に対して、後述する方法により車両等の先頭位置を確定し、車両等の存在領域を計測或いは推定する処理を行う(ステップS4)。   In the vehicle detection unit 6, for example, the binarization process disclosed in Japanese Patent Laid-Open No. 5-307695 is performed on the image obtained in step S <b> 1. In other words, the road is photographed with a camera, the luminance of a plurality of sample points is determined based on the video information, the spatial differentiation process based on the luminance information of each sample point is performed, and binarized by a predetermined threshold value of the differential signal, Edge portions are extracted (step S2). Next, a difference (hereinafter referred to as background difference) with a background image (an image with only a background without a vehicle) stored in the storage unit 16 in advance is obtained (step S3). For the binarized image obtained in step S2, the head position of the vehicle or the like is determined by a method to be described later, and processing for measuring or estimating the existence region of the vehicle or the like is performed (step S4).

図5にステップS4の存在領域を推定する処理の詳細をフローチャートに示す。まず、感応領域13内の背景画像の平均輝度値を指標として、処理している時期が昼であるのか夜であるのかの判定を行う(ステップS41)。ステップS2で得られた画像データから、検出対象の車幅を計測する。具体的には、ステップS41で昼間と判定された場合は車幅の計測は例えば、特開平5−307695号公報に開示された方法を用いて行う。図7に車幅の計測方法の概念を示す。以下の説明で用いる「水平方向」および「垂直方向」は図7に定義するように画像面内においての方向をいうものとする。ステップS2で求めた二値化画像に対して車両等の車幅に相当するマスクを掛けて画像に対して水平なエッジ部分を含む線分を抽出する。さらに抽出した水平エッジ部分を含む線分の水平方向の幅を測定する。測定された水平エッジ部分を含む線分の水平方向の幅の中で最大のもの(図7のAの長さ)を車幅とする(ステップS42)。前記の測定された水平エッジ部分はマスクに対して一定以上の長さがあればよく、水平エッジ部分が途中で途切れている箇所があっても良いものとする。   FIG. 5 is a flowchart showing details of the process of estimating the existence area in step S4. First, using the average luminance value of the background image in the sensitive area 13 as an index, it is determined whether the processing time is daytime or nighttime (step S41). The vehicle width to be detected is measured from the image data obtained in step S2. Specifically, when it is determined that it is daytime in step S41, the vehicle width is measured using, for example, the method disclosed in Japanese Patent Laid-Open No. 5-307695. FIG. 7 shows the concept of the vehicle width measurement method. “Horizontal direction” and “vertical direction” used in the following description refer to directions in the image plane as defined in FIG. A line segment including an edge portion horizontal to the image is extracted by applying a mask corresponding to the width of the vehicle or the like to the binarized image obtained in step S2. Further, the horizontal width of the line segment including the extracted horizontal edge portion is measured. Among the measured horizontal widths including the horizontal edge portion, the maximum width (length A in FIG. 7) is set as the vehicle width (step S42). The measured horizontal edge portion only needs to have a certain length or more with respect to the mask, and there may be a portion where the horizontal edge portion is interrupted.

次に車頭の位置を決定する。決定の方法については例えば、特開平5−307695号公報に開示された方法で車頭の位置を決定する。つまり、ステップS2で二値化処理された結果、車両等のエッジ部分及びノイズの部分だけ背景(「符号0」とする)と違った信号(「符号1」とする)が得られる。そこで車両等の車幅に相当するマスクを掛ける。マスク内の「符号1」の個数がある閾値を上回った場合、マスク内の「符号1」の分布の重心を車頭候補点の位置とする。この結果、車頭候補点が複数存在する場合がある。   Next, the position of the vehicle head is determined. As for the determination method, for example, the position of the vehicle head is determined by the method disclosed in JP-A-5-307695. That is, as a result of the binarization process in step S2, a signal (referred to as “reference 1”) different from the background (referred to as “reference 0”) is obtained only in the edge portion and noise portion of the vehicle or the like. Therefore, a mask corresponding to the width of the vehicle or the like is put on. When the number of “symbol 1” in the mask exceeds a certain threshold, the center of gravity of the distribution of “symbol 1” in the mask is set as the position of the vehicle head candidate point. As a result, there may be a plurality of vehicle head candidate points.

車頭候補点が複数存在する場合に対処するために、車両検出部6は車頭候補点を順に調べて行き、ほぼ一台の車両が存在する領域に車頭候補点がn個存在したとする。まず最初(n=1)の車頭候補点を車頭有効点として登録する。次に、n=2以降の車頭候補点に対して車両の進行方向に近い点を新たに車頭有効点とする。そして、車頭有効点とならなかった車頭候補点を削除する(ステップS43)。   In order to cope with the case where there are a plurality of vehicle head candidate points, the vehicle detection unit 6 sequentially checks the vehicle head candidate points, and it is assumed that there are n vehicle head candidate points in a region where there is almost one vehicle. First, the first (n = 1) vehicle head candidate point is registered as a vehicle head effective point. Next, a point near the vehicle head candidate point after n = 2 is newly set as a vehicle head effective point. And the vehicle head candidate point which did not become the vehicle head effective point is deleted (step S43).

昼間は車体が見えるのでステップS2で二値化処理された二値化データにおいて画素が繋がっている領域を一塊としてこの領域にラベル付けを行う(ラベリング処理と称することとする)。ラベリング処理した領域について、検出された車頭位置から車両の走行方向の長さを計測して見掛けの車長を算出する(ステップS44)。   Since the vehicle body can be seen in the daytime, the area where the pixels are connected in the binarized data binarized in step S2 is labeled as a lump (referred to as labeling process). For the labeled region, the apparent vehicle length is calculated by measuring the length of the vehicle in the traveling direction from the detected vehicle head position (step S44).

ステップS44で得られた見掛けの車長とステップS42で得られた車幅より存在領域を推定する(ステップS47)。ステップS43で得られた車頭位置と、ステップS47で得られた存在領域の組に対してID番号を付与する。このID番号を付与した存在領域を車両等の候補として記憶部16に記憶し登録を行う(ステップS48)。   The existence area is estimated from the apparent vehicle length obtained in step S44 and the vehicle width obtained in step S42 (step S47). An ID number is assigned to the set of the vehicle head position obtained in step S43 and the existence area obtained in step S47. The existence area to which this ID number is assigned is stored in the storage unit 16 as a candidate for a vehicle or the like and registered (step S48).

ステップS41で夜間と判定された場合も、前述のステップS42の処理を行い、車両等の車幅に相当するマスクを掛けて画像に対して水平なエッジ部分を含む線分を抽出する。さらに抽出した水平エッジ部分を含む線分の水平方向の幅を測定する。測定された水平エッジ部分を含む線分の水平方向の幅の中で最大のもの(図7のBの長さ)を車幅とみなす。計測した車幅によって車両等であるか否かを判定する。前述のマスクは普通車用、大型車及び二輪車用が備えられており二輪車のようにヘッドライトが1つの場合であっても、車幅を誤りなく計測することができる。   Even when it is determined at night in step S41, the process of step S42 described above is performed, and a line segment including an edge portion horizontal to the image is extracted by applying a mask corresponding to the vehicle width of the vehicle or the like. Further, the horizontal width of the line segment including the extracted horizontal edge portion is measured. Of the horizontal widths of the line segment including the measured horizontal edge portion, the largest one (the length of B in FIG. 7) is regarded as the vehicle width. It is determined whether the vehicle is a vehicle or the like based on the measured vehicle width. The aforementioned mask is provided for ordinary vehicles, large vehicles, and two-wheeled vehicles, and the vehicle width can be measured without error even when there is one headlight as in a two-wheeled vehicle.

車頭位置はステップS43と同じ処理によって求める。その後、ステップS42で得られた車幅を閾値判別して車種の判別が行われる(ステップS45)。夜間における車幅と車種の対応は一例を言えば、小型車の場合は車幅が2m未満、大型車の場合が2m以上となる(二輪車の場合は車幅が0.6m以下となる)。
夜間は車体が見えないため、ステップS42で得られた車幅で車種を大小に判別した後、ステップS45の判別結果に応じて、記憶部16には予め記憶されている車両等の長さを選定する(ステップS46)。ステップS42で得られた車幅とステップS46で得られた車両等の長さより車両等の存在領域を決定する(ステップS47)。ステップS48の処理が終了すると、図4のステップS5の処理に移る。
The vehicle head position is obtained by the same process as in step S43. Thereafter, the vehicle width obtained in step S42 is discriminated as a threshold, and the vehicle type is discriminated (step S45). The correspondence between the vehicle width and the vehicle type at night is, for example, a vehicle width of less than 2 m for a small vehicle and 2 m or more for a large vehicle (a vehicle width of 0.6 m or less for a motorcycle).
Since the vehicle body cannot be seen at night, the vehicle type is determined based on the vehicle width obtained in step S42, and then the length of the vehicle or the like stored in advance in the storage unit 16 is determined according to the determination result in step S45. Select (step S46). The existence area of the vehicle or the like is determined from the vehicle width obtained in step S42 and the length of the vehicle or the like obtained in step S46 (step S47). When the process of step S48 is completed, the process proceeds to step S5 of FIG.

ここで再び図4に戻って説明する。
車両追跡部7で、ステップS4で得られたデータに基づいて、記憶部16に記憶されている現在の時刻より一周期前の時刻において決定された車頭位置及び存在領域と現在の時刻における車頭位置及び存在領域とをテンプレートマッチング等のマッチング方法を用いて対応づけを行う。テンプレートマッチングは、一周期前の時刻において決定された車頭位置の近傍の一定範囲の画像領域を設定し現在の時刻の画像との一致度を計算する。次に車頭位置の近傍の一定範囲の画像領域を車両の進行方向に走査して順次現在の時刻の画像との一致度を計算する。この結果、最も一致度の高い位置で対応づけを行う。対応づけ手法には、画像の差の絶対値の総和、あるいは正規化相関などの手法がある。画像の対応づけを行うための検索範囲は一周期前までの、後述するステップS5に示す車両等の追跡処理の結果をもとに決定する。
Here, referring back to FIG.
Based on the data obtained in step S4 in the vehicle tracking unit 7, the vehicle head position and the existing area determined at the time one cycle before the current time stored in the storage unit 16 and the vehicle head position at the current time And the existence area are matched using a matching method such as template matching. In template matching, an image region within a certain range in the vicinity of the vehicle head position determined at the time one cycle before is set, and the degree of coincidence with the image at the current time is calculated. Next, an image region in a certain range near the vehicle head position is scanned in the traveling direction of the vehicle, and the degree of coincidence with the image at the current time is sequentially calculated. As a result, the correspondence is performed at the position with the highest degree of coincidence. As a correspondence method, there are methods such as a sum of absolute values of image differences or a normalized correlation. The search range for associating images is determined based on the result of the tracking processing of the vehicle or the like shown in step S5 described later up to one cycle before.

次に車両追跡部7では、車両等が感応領域に進入してから現在の時刻までに追跡された一周期毎の移動距離を累積して総移動距離を求める。この車頭位置の総移動距離を車両等が感応領域に進入してから現在の時刻までに追跡された一周期毎の周期を累積して算出した総周期の値で除して速度を算出する。この速度を利用することで個々の車両等の検索範囲を決定し追跡を行う(ステップS6)。   Next, the vehicle tracking unit 7 obtains the total movement distance by accumulating the movement distances for each cycle tracked from the time when the vehicle or the like enters the sensitive area until the current time. The speed is calculated by dividing the total travel distance of the vehicle head position by the total cycle value calculated by accumulating the cycles for each cycle tracked up to the current time after the vehicle or the like enters the sensitive area. By using this speed, the search range of each vehicle or the like is determined and tracked (step S6).

さらに車両追跡部7では、ステップS5の処理で求めた、移動ベクトルの方向(つまり、感応領域13に進入した車両等の進行方向)が、保守用コンソールI/F3より入力されて記憶部16に記録された車両等の追跡結果から得られる移動ベクトルの軌跡の向きが進行方向と一致しているかが判定される(ステップS6)。ステップS6における判定は進行方向の一致度、すなわち移動ベクトルの軌跡の向きが進行方向か反対方向かという条件と、さらに移動ベクトルの軌跡の長さが車長方向に一定長さ(例えば2m)以上であるという条件で判定される。ステップS6の判定条件を満たした場合、正常に追跡できたとしてこの対象を検出対象と判定する(ステップS7)。   Further, in the vehicle tracking unit 7, the direction of the movement vector (that is, the traveling direction of the vehicle or the like that has entered the sensitive area 13) obtained in the process of step S 5 is input from the maintenance console I / F 3 and stored in the storage unit 16. It is determined whether the direction of the trajectory of the movement vector obtained from the recorded tracking result of the vehicle or the like matches the traveling direction (step S6). The determination in step S6 is the degree of coincidence of the traveling direction, that is, the condition that the direction of the trajectory of the movement vector is the traveling direction or the opposite direction, and the length of the trajectory of the movement vector is a certain length (for example, 2 m) or more in the vehicle length direction. It is determined on the condition that it is. When the determination condition of step S6 is satisfied, this target is determined as a detection target because it can be normally tracked (step S7).

ステップS6からステップS7に示す処理により、感応対象物以外の誤感知を防止することができる。即ち、感応領域13内に横断歩道を横断する歩行者や二輪車等が含まれていてもこれらの移動ベクトルの方向は車両等の進行方向と一致しないため、これらを誤って検出することを防止することができる。   By the processing shown from step S6 to step S7, it is possible to prevent erroneous detection other than the sensitive object. That is, even if a pedestrian or a two-wheeled vehicle crossing a pedestrian crossing is included in the sensitive area 13, the direction of these movement vectors does not coincide with the traveling direction of the vehicle and the like, so that these are prevented from being detected erroneously. be able to.

存在検知部8では、感応領域13内で正しく追跡処理されている全ての検出対象の位置とステップS4で得られる存在領域をもとに、感応領域13内での車両等の存在の有無を判定する。ステップS7に示す車両等認定の過程で、感応領域13内の全ての車両等の車頭位置及び存在領域を特定できるので、存在検知部8では、感応領域13と車両等存在領域との重なりによって感応信号のON/OFFを判定する(ステップS8)。次に感応信号出力指示部9はステップS8の判定結果に応じた感応信号の出力指示を行い、出力部11は感応信号出力指示部9の出力指示に応じて感応信号を出力する(ステップS9)。   The presence detection unit 8 determines the presence / absence of a vehicle or the like in the sensitive area 13 based on the positions of all detection targets correctly tracked in the sensitive area 13 and the existing areas obtained in step S4. To do. Since the vehicle head positions and the existence areas of all the vehicles etc. in the sensitive area 13 can be specified in the process of certification of the vehicles etc. shown in step S7, the presence detection unit 8 is sensitive by the overlap of the sensitive area 13 and the existence areas such as the vehicles. Whether the signal is on or off is determined (step S8). Next, the sensitive signal output instructing unit 9 instructs to output a sensitive signal according to the determination result of step S8, and the output unit 11 outputs a sensitive signal according to the output instruction of the sensitive signal output instructing unit 9 (step S9). .

さらにステップS9において、車両追跡部7では、ステップS5の処理で求められた車両等の速度がゼロの場合、検出対象が停止していると判定して、このときの停止継続時間を計測して保持する。   Further, in step S9, the vehicle tracking unit 7 determines that the detection target is stopped when the speed of the vehicle or the like obtained in the process of step S5 is zero, and measures the stop duration at this time. Hold.

図6にステップS8からステップS9までの処理の詳細をフローチャートに示す。ステップS8では、感知領域13内に存在する車両等の走行(停止及び駐車を含む)状態の判定を行い、その状態に応じた感応信号の生成と背景画像の更新処理を順次行なう。   FIG. 6 is a flowchart showing details of the processing from step S8 to step S9. In step S8, a running state (including stop and parking) of a vehicle or the like existing in the sensing area 13 is determined, and a response signal generation and a background image update process corresponding to the state are sequentially performed.

図6において、存在検知部8では個々の車両等の存在領域と感応領域13との重なり状態を判定して(ステップS801)、感応領域13内に存在する車両等の総数Nを求める(ステップS802)。感応領域13内に車両等が1台もいない場合(ステップS803でNOの場合)は、感応信号出力指示部9は感応信号の出力指示をしない(例えば出力指示フラグをOFFにセットする)(ステップS823)、さらに、ステップS824において背景画像を更新する。背景画像の更新方法の詳細については後述する。   In FIG. 6, the presence detection unit 8 determines the overlapping state of the existence area of each vehicle or the like and the sensitive area 13 (Step S <b> 801), and obtains the total number N of vehicles etc. existing in the sensitive area 13 (Step S <b> 802). ). When there is no vehicle or the like in the sensitive area 13 (NO in step S803), the sensitive signal output instructing unit 9 does not instruct the output of the sensitive signal (for example, sets the output instruction flag to OFF) (step In step S823, the background image is updated in step S824. Details of the background image update method will be described later.

存在検知部8では、ステップS803において、感応領域13内に存在するN台の車両等について各車両等が停止しているか(ステップS805)が判定される。ステップS805の処理において各車両等が停止しているならば、停止継続時間を計測する(ステップS806)。次に停止継続時間が予め設定してある閾値と比較し(ステップS807)、これを超えていれば駐車していると判断し駐車車両等が存在することを示すフラグ(「駐車フラグ」と称することとする)をONにする(ステップS808)。ステップS806で計測した停止継続時間が閾値未満であれば停車していると判断し停車車両等が存在することを示すフラグ(「停車フラグ」と称することとする)をONにする(ステップS809)。車両等が移動している場合は車両等が移動していることを示すフラグ(「移動車両フラグ」と称することとする)をONにする(ステップS810)。   In step S803, the presence detection unit 8 determines whether each vehicle or the like has stopped for N vehicles or the like existing in the sensitive area 13 (step S805). If each vehicle or the like has stopped in the process of step S805, the stop duration is measured (step S806). Next, the stop duration time is compared with a preset threshold value (step S807), and if it exceeds this, it is determined that the vehicle is parked and a flag indicating that a parked vehicle or the like exists (referred to as “parking flag”). Is set to ON (step S808). If the stop continuation time measured in step S806 is less than the threshold value, it is determined that the vehicle is stopped, and a flag indicating that a stopped vehicle or the like exists (hereinafter referred to as a “stop flag”) is turned ON (step S809). . If the vehicle or the like is moving, a flag indicating that the vehicle or the like is moving (hereinafter referred to as a “moving vehicle flag”) is turned ON (step S810).

感応領域13内に存在するN台の車両等についてステップS805からステップS812の一連の処理が実行される。なお、ステップS805の比較処理の前に、予め移動車両フラグ、停車フラグ、および駐車フラグをOFFに初期化しておく。尚、ステップS808、S809、S810の処理においては移動車両フラグ、停車フラグ、および駐車フラグの代わりに移動している車両等の台数を計数する移動車両カウンタ、停車している車両等の台数を計数する停車カウンタ、および駐車している車両等の台数を計数する駐車カウンタを備えても良い。   A series of processing from step S805 to step S812 is executed for N vehicles or the like existing in the sensitive area 13. Note that the moving vehicle flag, the stop flag, and the parking flag are initialized to OFF in advance before the comparison process in step S805. In the processing of steps S808, S809, and S810, the moving vehicle counter that counts the number of moving vehicles, etc. instead of the moving vehicle flag, the stop flag, and the parking flag, and the number of stopped vehicles are counted. There may be provided a parking counter that counts the number of parked vehicles and parked vehicles.

ステップS811の処理において感応領域13内に存在するN台の車両等について、感応領域13内に移動車等、停止車等、駐車等の各々の存在がわかる。これをもとにして3種類の車両等の存在有り/無しの2種類の組み合わせをそれぞれ求めると表1に示すものになる。表1中の「図6の該当ステップ」は図6に示すステップの記号、番号を表している。   Regarding the N vehicles and the like existing in the sensitive area 13 in the process of step S811, the presence of each of the moving vehicle, the stopped car, and the parking in the sensitive area 13 is known. Based on this, two types of combinations of presence / absence of three types of vehicles and the like are respectively obtained as shown in Table 1. The “corresponding step in FIG. 6” in Table 1 represents the symbol and number of the step shown in FIG.

Figure 2007164564
Figure 2007164564

表1のNo.8は、車両がいない状態であるので、ステップS803でNOの場合にあたり、ステップS823、ステップS824の処理つまり感応信号出力指示部9は感応信号の出力指示をせず(例えば出力指示フラグをOFFにセットする)、出力部11は感応信号の出力を行わない(例えば感応信号=OFFとする)。さらに背景画像更新部10で、背景画像の中で車両等の存在領域に対応する領域の更新が行われる。表1のNo.7は、駐車等も停止車等もなく、車両等が移動している場合にあたり、ステップS821、ステップS822の処理つまり感応信号出力指示部9で感応信号の出力指示を行い(例えば出力指示フラグをONにセットする)、出力部11は感応信号の出力を行う(例えば感応信号=ONとする)。さらに背景画像更新部10で背景画像の中で車両等の存在領域を含む背景画像の更新が行われる。表1のNo.4は、駐車等があるが、その他の車両等がいない場合にあたり、ステップS817,S818に示す処理つまり感応信号出力指示部9で感応信号の出力指示を中止する(例えば出力指示フラグをOFFに変更する)。この場合出力部11は感応信号の出力を中止する(例えば感応信号=OFFとする)。   No. in Table 1 8 is a state in which there is no vehicle. Therefore, in the case of NO in step S803, the processing of step S823 and step S824, that is, the sensitive signal output instruction unit 9 does not instruct the output of the sensitive signal (for example, the output instruction flag is turned OFF). The output unit 11 does not output a sensitive signal (for example, the sensitive signal = OFF). Further, the background image update unit 10 updates the area corresponding to the existence area of the vehicle or the like in the background image. No. in Table 1 7 is a case where there is no parking or the like, and there is no parked vehicle or the like and the vehicle or the like is moving. The output unit 11 outputs a sensitive signal (for example, the sensitive signal is set to ON). Further, the background image update unit 10 updates the background image including the presence area of the vehicle or the like in the background image. No. in Table 1 4 is when there is parking or the like, but there is no other vehicle or the like, the process shown in steps S817 and S818, that is, the response signal output instruction unit 9 stops the output instruction of the response signal (for example, the output instruction flag is changed to OFF). To do). In this case, the output unit 11 stops the output of the sensitive signal (for example, the sensitive signal = OFF).

さらに背景画像更新部10では背景画像の中で車両等の存在領域の更新を行わない。理由は、感応信号のONが一定時間以上継続した場合、信号制御機は感知器異常と判断して、その後の感応制御を実行しなくなるからである。表1のその他の場合は、駐車等があってもなくても、その他の車両等が存在するのでステップS819,S820に示す処理つまり感応信号出力指示部9で感応信号の出力を指示し(例えば出力指示フラグをONにセットする)、出力部11は感応信号の出力を行う(例えば感応信号=ONとする)。さらに背景画像更新部10は背景画像の中で車両等の存在領域の更新を行わない。   Further, the background image update unit 10 does not update the existence area of the vehicle or the like in the background image. The reason is that if the sensitive signal is turned on for a certain time or more, the signal controller determines that the sensor is abnormal and does not execute the subsequent sensitive control. In the other cases of Table 1, since there are other vehicles, whether or not there is parking or the like, the processing shown in steps S819 and S820, that is, the output of the sensitive signal is instructed by the sensitive signal output instructing unit 9 (for example, When the output instruction flag is set to ON), the output unit 11 outputs a sensitive signal (for example, the sensitive signal = ON). Further, the background image update unit 10 does not update the existence area of the vehicle or the like in the background image.

車両等が駐車した状態で、新たに感応領域13内に車両等が進入してきた場合は、No.3に該当し、ステップS819,S820に示す処理つまり感応信号出力指示部9で感応信号の出力指示を行う(例えば出力指示フラグをONに変更する)。出力部11では感応信号の出力を再び行う(例えば感応信号=ONとする)。さらに背景画像更新部10では背景画像の中で車両等の存在領域の更新行わない。   If a vehicle or the like newly enters the sensitive area 13 with the vehicle or the like parked, 3, the processing shown in steps S819 and S820, that is, the sensitive signal output instruction unit 9 issues an output instruction of the sensitive signal (for example, the output instruction flag is changed to ON). The output unit 11 outputs the sensitivity signal again (for example, the sensitivity signal = ON). Further, the background image update unit 10 does not update the existence area of the vehicle or the like in the background image.

また、車両等が路側に停止したため、感応領域13に進入する車両等が反対車線をまたいで走行するような場合でも、図4においてステップS6からステップS9の処理で車両追跡部7が求めた移動ベクトルの方向が、保守用コンソールI/F3を経由して設定された進行方向と閾値以上一致していると判定されれば表1のNo.5に該当するので、感応信号出力指示部9は再び感応信号の出力指示を行い、出力部11は感応信号の出力を行う。この時、停止車両等がいるので、背景画像更新部10においては車両等の存在領域の更新は行われない(S820)。   Further, even when the vehicle or the like entering the sensitive area 13 travels across the opposite lane because the vehicle or the like has stopped on the road side, the movement obtained by the vehicle tracking unit 7 in the processing from step S6 to step S9 in FIG. If it is determined that the direction of the vector coincides with the traveling direction set via the maintenance console I / F 3 by a threshold or more, No. in Table 1 is obtained. 5, the sensitive signal output instructing unit 9 instructs to output the sensitive signal again, and the output unit 11 outputs the sensitive signal. At this time, since there is a stopped vehicle or the like, the background image update unit 10 does not update the existence area of the vehicle or the like (S820).

背景画像更新部10では背景画像の更新を行うが、一般に、道路面との輝度差から車体を抽出する背景差分の処理では日照の時間的変化に適応するため、背景画像を時間経過とともに更新する必要がある。背景画像更新部10では、車両等がいない場合(S824)や、車両等が走行している状態(S822)では、下記の指数平滑方式を用いて背景画像の更新を行う。   The background image update unit 10 updates the background image. Generally, in the background difference processing for extracting the vehicle body from the luminance difference from the road surface, the background image is updated with the passage of time in order to adapt to the temporal change of sunlight. There is a need. The background image update unit 10 updates the background image using the following exponential smoothing method when there is no vehicle or the like (S824) or when the vehicle or the like is traveling (S822).

指数平滑方式とは、感応領域13を含んだ画像をカメラから一定時刻毎に周期的に取得される画像に対して以下の式で示す演算を施す方式である。
(今の周期の背景画像)=(1−α)×(現在より一周期前時刻の背景画像)+α×(現在の時刻の入力画像) (0<α<1)
The exponential smoothing method is a method of performing an operation represented by the following expression on an image obtained by periodically obtaining an image including the sensitive region 13 from the camera at a certain time.
(Background image of the current cycle) = (1−α) × (Background image at a time before the current cycle) + α × (Input image of the current time) (0 <α <1)

車両等が駐車した場合は、背景画像には車両に隠されて見えない領域が生じる。この状態で背景画像を更新することは好ましくない。そこで、背景画像更新部10では駐車等を検出した時、つまりステップS5で車両追跡部7が求めた車両等の速度がゼロの場合で、停止が継続している時間が閾値以上である時は、検出された車両等の存在領域においては背景画像の更新を中断し、車両等が再び発進した時、即ち、ステップS5で車両追跡部7が求めた車両等の速度>0の場合に、該当する存在領域の背景画像の更新を再開する。この場合の車両等の存在領域における背景画像の更新ではステップS42およびステップS45で計測した車幅と、ステップS44で計測した車長の計測誤差を考慮して、ステップS48で求められた車両等の存在領域を含む所定の領域に対するものであっても良い。   When a vehicle or the like is parked, an area that is hidden by the vehicle and cannot be seen is generated in the background image. It is not preferable to update the background image in this state. Therefore, when the background image update unit 10 detects parking or the like, that is, when the speed of the vehicle or the like obtained by the vehicle tracking unit 7 in step S5 is zero and the time during which the stop continues is equal to or greater than the threshold value. Applicable when the background image update is interrupted in the presence area of the detected vehicle and the vehicle is started again, that is, when the vehicle speed determined by the vehicle tracking unit 7 in step S5> 0 The update of the background image of the existing area is resumed. In this case, the background image in the region where the vehicle is present is updated in consideration of the vehicle width measured in steps S42 and S45 and the measurement error of the vehicle length measured in step S44. It may be for a predetermined area including the existing area.

本発明におけるズーム式カメラ一体型画像式車両感知器1は、本発明の一実施形態である。本発明の実施においてはカメラと制御部が別々に分離された装置であってもよい。   The zoom type camera-integrated image type vehicle sensor 1 according to the present invention is an embodiment of the present invention. In the embodiment of the present invention, a device in which the camera and the control unit are separately separated may be used.

以上に開示された実施の形態および実施例は全ての点で例示であって制限的なものではないと考慮されるべきである。本発明の範囲は、以上の実施の形態および実施例ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての修正や変形を含むものと意図される。   It should be considered that the embodiments and examples disclosed above are illustrative and non-restrictive in every respect. The scope of the present invention is shown not by the above embodiments and examples but by the scope of claims, and is intended to include all modifications and variations within the meaning and scope equivalent to the scope of claims. .

右折感応制御用に設置されたズーム式カメラ一体型画像式車両感知器1の設置概念図Installation concept diagram of zoom type camera-integrated image type vehicle detector 1 installed for right turn sensitive control リコール感応制御用に設置されたズーム式カメラ一体型画像式車両感知器1の設置概念図Installation conceptual diagram of a zoom camera-integrated image type vehicle sensor 1 installed for recall sensitive control ズーム式カメラ一体型画像式車両感知器1内の制御部のブロック図Block diagram of control unit in zoom type camera-integrated image type vehicle sensor 1 制御部4で行われる処理のフローチャートFlowchart of processing performed by the control unit 4 車両等の存在領域を推定する処理のフローチャートFlowchart of processing for estimating the existence area of a vehicle or the like 車両等駐車判定、感応信号判定及び背景画像更新処理のフローチャートFlowchart of vehicle parking determination, sensitive signal determination and background image update processing 車幅の計測方法の概念を示す図Diagram showing the concept of vehicle width measurement method

符号の説明Explanation of symbols

1 ズーム式カメラ一体型画像式車両感知器
2 ズーム式カメラ
3 保守用コンソールI/F
4 制御部
5 画像入力部
6 車両検出部
7 車両追跡部
8 存在検知部
9 感応信号出力指示部
10 背景画像生成・更新部
11 出力部
12 電源部
13 感応領域
14 保守用コンソール
15 停止線
DESCRIPTION OF SYMBOLS 1 Zoom type camera integrated image type vehicle detector 2 Zoom type camera 3 Maintenance console I / F
DESCRIPTION OF SYMBOLS 4 Control part 5 Image input part 6 Vehicle detection part 7 Vehicle tracking part 8 Presence detection part 9 Sensitive signal output instruction | indication part 10 Background image generation / update part 11 Output part 12 Power supply part 13 Sensitive area 14 Maintenance console 15 Stop line

Claims (3)

停止線近傍の領域を含む画像データを周期的に取得する撮像手段と、
前記画像データに基づいて車両等を検出するデータ処理手段と、
前記車両等の検出に対応して感応信号を出力する出力手段と
を含む感応制御用車両感知システムであって、
前記データ処理手段は検出した前記車両等の停止時間を計測し、
前記停止時間が閾値を越えた場合に駐車と判断し、
前記出力手段は、前記データ処理手段が駐車と判断した場合に、
前記車両等に対応する感応信号の出力を中止すること
を特徴とする感応制御用車両感知システム。
Imaging means for periodically acquiring image data including a region in the vicinity of the stop line;
Data processing means for detecting a vehicle or the like based on the image data;
Output sensing means for outputting a sensing signal in response to detection of the vehicle or the like, and a vehicle sensing system for sensing control,
The data processing means measures the detected stop time of the vehicle or the like,
When the stop time exceeds a threshold, it is determined as parking,
When the data processing means determines that the output means is parked,
A vehicle sensing system for sensitivity control, wherein output of a sensitivity signal corresponding to the vehicle or the like is stopped.
前記データ処理手段は、予め車両等が感応領域に存在しない時刻に生成された背景画像データを記憶する背景画像記憶手段をさらに含み、
前記撮像手段が前記画像データを取得する周期に従って前記背景画像データを更新する背景画像更新手段をさらに含み、
前記背景画像更新手段は、前記データ処理手段が前記車両等の駐車と判断しなかった場合は、前記撮像手段が一定周期毎に取得した異なる時刻の前記画像データのうち最新時刻の前記画像データにおける当該車両等の存在領域を含む所定の領域を更新し、
前記データ処理手段が前記車両等の駐車と判断した場合は、前記背景画像記憶手段に記憶された前記背景画像データにおける当該車両等の存在領域を含む所定の領域の更新を行わないこと
を特徴とする請求項1に記載の感応制御用車両感知システム。
The data processing means further includes background image storage means for storing background image data generated in advance at a time when the vehicle or the like does not exist in the sensitive area,
Further comprising background image update means for updating the background image data according to a period in which the imaging means acquires the image data;
If the data processing means does not determine that the vehicle or the like is parked, the background image update means includes the image data at the latest time among the image data at different times acquired by the imaging means at regular intervals. Update the predetermined area including the existing area of the vehicle, etc.
When the data processing means determines that the vehicle or the like is parked, the predetermined area including the existence area of the vehicle or the like in the background image data stored in the background image storage means is not updated. The vehicle sensing system for sensitive control according to claim 1.
請求項1または請求項2に記載の感応制御用車両感知システムを一つの筺体内に収納したこと
を特徴とする感応制御用車両感知装置。
A vehicle sensing device for sensitivity control, wherein the vehicle sensing system for sensitivity control according to claim 1 or 2 is housed in a single casing.
JP2005361393A 2005-12-15 2005-12-15 System and device of vehicle sensing for traffic-actuated control Pending JP2007164564A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005361393A JP2007164564A (en) 2005-12-15 2005-12-15 System and device of vehicle sensing for traffic-actuated control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005361393A JP2007164564A (en) 2005-12-15 2005-12-15 System and device of vehicle sensing for traffic-actuated control

Publications (1)

Publication Number Publication Date
JP2007164564A true JP2007164564A (en) 2007-06-28

Family

ID=38247367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005361393A Pending JP2007164564A (en) 2005-12-15 2005-12-15 System and device of vehicle sensing for traffic-actuated control

Country Status (1)

Country Link
JP (1) JP2007164564A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737514A (en) * 2011-11-16 2012-10-17 刘伟南 Method for releasing road information and detecting vehicle running conditions and attributes

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH022494A (en) * 1988-06-10 1990-01-08 Omron Tateisi Electron Co Illegal parking monitor system
JPH0329096A (en) * 1989-06-27 1991-02-07 Matsushita Electric Ind Co Ltd Traffic signal controller
JPH11203592A (en) * 1998-01-16 1999-07-30 Nippon Signal Co Ltd:The Traffic signal controller
JP2004288113A (en) * 2003-03-25 2004-10-14 Mitsubishi Electric Corp Parking vehicle restraining device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH022494A (en) * 1988-06-10 1990-01-08 Omron Tateisi Electron Co Illegal parking monitor system
JPH0329096A (en) * 1989-06-27 1991-02-07 Matsushita Electric Ind Co Ltd Traffic signal controller
JPH11203592A (en) * 1998-01-16 1999-07-30 Nippon Signal Co Ltd:The Traffic signal controller
JP2004288113A (en) * 2003-03-25 2004-10-14 Mitsubishi Electric Corp Parking vehicle restraining device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737514A (en) * 2011-11-16 2012-10-17 刘伟南 Method for releasing road information and detecting vehicle running conditions and attributes
CN102737514B (en) * 2011-11-16 2015-11-25 刘伟南 The wagon detector that can release news, traffic congestion detecting device, vehicle attribute detecting device

Similar Documents

Publication Publication Date Title
RU2693419C1 (en) Device (embodiments) and method of recognizing traffic lights
JP3739693B2 (en) Image recognition device
US10789491B2 (en) Traffic light recognition device and traffic light recognition method
JP2011118482A (en) In-vehicle device and recognition support system
JP2005202678A (en) Traveling support device
JP2019099138A (en) Lane-keep auxiliary method and device
JP2012171562A (en) Lane departure warning apparatus and lane departure warning system
JP2003216949A (en) Infrared image processor
WO2015177864A1 (en) Traffic-light recognition device and traffic-light recognition method
JP2012098967A (en) Traffic light detector, traffic light detection method and program
US20200364470A1 (en) Traveling lane recognition apparatus and traveling lane recognition method
JP2007164566A (en) System and device of vehicle sensing for traffic-actuated control
JP6365103B2 (en) Signal detection device and signal detection method
JP2017073008A (en) Vehicle operation support system and operation support method
JP2018048949A (en) Object recognition device
JP2003329439A (en) Distance detecting device
JP2010210477A (en) Navigation device
US20220111841A1 (en) Vehicle controller and method for controlling vehicle
JP2016189084A (en) Vehicle state determination device
JP4762830B2 (en) Perimeter monitoring system
JP2011103058A (en) Erroneous recognition prevention device
JP3916930B2 (en) Approach warning device
CN104931024B (en) Obstacle detector
JP2007164564A (en) System and device of vehicle sensing for traffic-actuated control
JP5914791B2 (en) Collision detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110426