JP4071610B2 - Traveling vehicle detection system - Google Patents
Traveling vehicle detection system Download PDFInfo
- Publication number
- JP4071610B2 JP4071610B2 JP2002354735A JP2002354735A JP4071610B2 JP 4071610 B2 JP4071610 B2 JP 4071610B2 JP 2002354735 A JP2002354735 A JP 2002354735A JP 2002354735 A JP2002354735 A JP 2002354735A JP 4071610 B2 JP4071610 B2 JP 4071610B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- detection
- data
- lane
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は道路を走行する車両を検知する走行車両検知システムに関する。
【0002】
【従来の技術】
道路を走行する車両を検知する方法としては、従来、道路上の所定区域(検知領域)をテレビカメラで撮影し、その映像信号の明るさの変化(輝度変化)を計測して車両の有無を検知する方法が知られている。
【0003】
例えば、路面のみの輝度データ(背景画像)を予め採取してメモリ等に記憶しておき、その背景画像から現時点の撮影画像を引き算することにより、車両と路面との輝度の違いを利用して車両の有無を検知する方法がある。また、輝度データを用いた車両検知方法において、撮影画像と背景画像との差分値を求め、その差分値が所定値以上であるか否かを判別することにより、車両の有無を検知する技術が提案されている(例えば、特許文献1参照。)。
【0004】
【特許文献1】
特開平5−62095号公報
【0005】
【発明が解決しようとする課題】
ところで、輝度データを用いた車両検知システムを、2車線道路(片側1車線道路)の車両検知に適用した場合、誤検知が発生することがある。
【0006】
すなわち、2車線道路では、西日が当たる夕方や朝日が当たる朝方などにおいて、検知対象の車線の検知領域内に、対向車線を走行する車両の影が入る可能性がある。このように検知領域内に入ると、背景画像の取込み方等により検知領域内の輝度が変化してしまい、実際には車両が通過していないのに、「車両有り」という誤検知が生じることがある。
【0007】
本発明はそのような実情に鑑みてなされたもので、車両検知を実施する道路が2車線道路(片側1車線道路)であっても、対向車線の車両の影等に影響されずに、走行車両を正確に検知することが可能な走行車両検知システムの提供を目的とする。
【0008】
【課題を解決するための手段】
本発明の走行車両検知システムは、検知領域の画像を撮像するカメラと、そのカメラにて撮像された画像データに基づいて検知領域内の車両の有無を検知する画像処理部を備え、その画像処理部が、前記カメラにて順次撮像される画像データを濃淡投影処理にて画像処理し、現時点の投影処理データとその前の投影処理データとの差分値の最大値を求めるとともに、車両検出をしていないときの投影差分最大値の移動平均処理を行って背景データを求め、それら投影処理データの差分最大値と背景データに基づいて車両の有無を判定する。また、本発明の走行車両検知システムは、前記画像処理部が、監視車線と対向車線の両方に検知領域を設定し、それぞれの検知領域について、前記投影処理データの差分最大値を計算し、予め設定された判定レベル以上であるか否かを求める。そして、対向車線と監視車線とにおいて、投影処理差分最大値が同時に判定レベルを超えた場合、監視車線の検知領域における投影処理データの差分最大値が背景データより大きいときに「車両有り」と判定する。また、監視車線の検知領域のみの投影処理差分最大値が判定レベルを超えた場合も、「車両有り」と判断することを特徴としている。ただし、背景データは、監視車線の検知領域における前記判定レベル以下(車両を検出していない)の投影データの差分最大値の移動平均処理より求める。
【0009】
本発明の走行車両検知システムによれば、カメラにて順次撮像される画像データを濃淡投影処理にて画像処理し、現時点の投影処理データとその前の投影処理データとの差分値の最大値を求め、その投影処理データの差分最大値の変化の大きさに基づいて車両の有無を検知するので、背景画像の明るさによる影響がキャンセルされた正確な車両検知を行うことができる。
【0010】
しかも、車両検知のデータとして、投影処理データの差分最大値に加えて、監視車線の検知領域内の背景データを用いているので、2車線道路(片側1車線道路)を走行する車両を検知するにあたり、対向車線を走行する車両の影が、検知対象車線の検知領域内に入っても、その影響を除去することができる。
【0011】
すなわち、監視車線の検知領域内に影があるときの検知領域内の明るさ(輝度)は、太陽光が路面に当たっている場合(影が無い場合)よりも暗くなるので、前記した投影処理データの差分最大値(絶対値ではなく正負の値)が検知領域内の背景データよりも小さくなる。従って、投影処理データの差分最大値が背景データよりも小さい場合には、影による輝度変化と判別することができ、誤検知を防止できる。
【0012】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0013】
図1は本発明の走行車両検知システムの実施形態の構成を示すブロック図である。
【0014】
図1の走行車両検知システムは、2車線道路(片側1車線道路)を走行する車両の検知に適用されるシステムであって、監視カメラ1、画像処理ユニット2及びモニタ3などによって構成されている。
【0015】
監視カメラ1は、CCD型カラー固体映像素子及びレンズ(ともに図示せず)などを備えている。監視カメラ1は、車両検知を行う道路の上空に配置され、走行車両の前方側から車両の映像を撮像するように設置される。
【0016】
モニタ3には、後述する画像処理ユニット2の検知領域表示制御部2jからのビデオ信号が入力され、監視カメラ1に撮像された画像データ(カメラ画像)に画像処理検知領域Sを合成した画像が表示される(図2参照)。なお、図2に示す2つの画像処理検知領域S,Sはそれぞれ監視車線の検知領域及び対向車線の検知領域である。
【0017】
画像処理ユニット2は、CPU2a、ROM2b、RAM2c、画像処理用LSI2d、ビデオデコーダ2f、フレームメモリコントローラ2g、フレームメモリ2h、メモリ2e、キー操作部2i、検知領域表示制御部2j及び出力ポート2k等を備えている。
【0018】
CPU2aは、ROM2bに書き込まれたプログラムに従って、画像処理ユニット2の各機能部(例えば画像処理用LSI2d、フレームメモリコントローラ2g、検知領域表示制御部2jなど)を制御して、後述する[車両有無の判定処理]を実行する。CPU2aには、RAM2c、キー操作部2i及び出力ポート2kがバスラインを介して接続されている。
【0019】
キー操作部2iは、画像処理検知領域の設定、及び車両検知判定レベル等の検知条件の設定などのパラメータ設定を行うことができる。
【0020】
ビデオデコーダ2fは、CPU2aからの指令によって、監視カメラ1からの画像データを取り込んで検知領域表示制御部2j及びフレームメモリコントローラ2gに送る。
【0021】
検知領域表示制御部2jは、キー操作部2iによって指定され、CPU2aから供給される画像処理検知領域データと、監視カメラ1(ビデオデコーダ2f)からの画像データとを合成して、図2示す画像処理検知領域S付きのカメラ画像をモニタ3に表示する。このモニタ3の表示画像を見ながら、キー操作部2iを操作することにより画像処理を行う検知領域の設定・変更を行うことができる。
【0022】
フレームメモリコントローラ2gは、監視カメラ1からの画像データをビデオデコーダ2fを介して取り込んで、フレームメモリ2hのデータ格納エリアに順次格納してゆく。フレームメモリ2hに格納された画像データは1フレームごとに読み出されて画像処理用LSI2dに順次出力される。なお、フレームメモリ2hには、複数枚のフレーム分のデータ格納エリアが設定されている。
【0023】
画像処理用LSI2dは、CPU2aからの指令に応じて、[水平及び垂直方向の投影処理]等を行い、CPU2aは、[投影処理データの差分処理]、[投影差分最大値の抽出]、[背景データ採取処理]の各画像処理を行う。その各処理を以下に説明する。
【0024】
[水平及び垂直方向の投影処理]
監視カメラ1から取り込んだ画像データについて、キー操作部2iにて設定された画像処理検知領域S内の濃淡投影処理を1フレームごとに実行する。具体的には、図3に示すように、入力画像データの水平方向(V軸への)投影処理(水平方向に行ごとの濃淡値の総和:Vproj(v))と、入力画像データの垂直方向(H軸への)投影処理(垂直方向に列ごとの濃淡値の総和:Hproj(h))を1フレームごとに実行する。
【0025】
【数1】
【0026】
[投影処理データの差分処理]
図4に示すように、水平方向の各点における現時点の投影処理データ(A)とその前(画像処理回数の1回前)の投影処理データ(B)との差分演算(A−Bと|A−B|の両方の演算)、及び、垂直方向の各点における現時点の投影処理データ(A)とその前(画像処理回数の1回前)の投影処理データ(B)との差分演算(A−Bと|A−B|の両方の演算)を行う。その投影差分後のデータは、例えば図5(A)及び(B)に示すような水平方向投影差分値及び垂直方向投影差分値となる。
【0027】
[投影差分最大値の抽出]
前記した投影処理データの差分処理によって得られた水平方向投影差分値と垂直方向投影差分値の各最大値を抽出する(図5参照)。
【0028】
[背景データ採取処理]
監視車線において、車両を検知していないときの、前記水平及び垂直方向投影差分最大値(正負の符号含む)に対して移動平均処理(例えば約200回の画像処理回数の平均値)を行って背景データを求める。この背景データは、平均化演算が行われるごとにメモリ2eに順次記憶・更新されてゆく。
【0029】
ここで、以上の水平方向投影差分最大値及及び垂直方向投影差分最大値と、背景データの各演算に関しては、幅広い車両速度に対応させるため、低速車検知用の演算と高速車検知用の演算の双方の演算処理を実施することが好ましい。
【0030】
例えば、低速車検知用の演算の場合、水平・垂直方向投影差分最大値及び背景データの演算処理の間隔(画像処理の間隔)を5フレーム間隔とし、高速車検知用の演算の場合、水平・垂直方向投影差分最大値及び背景データの演算処理の間隔(画像処理の間隔)を1フレーム間隔とする。ただし、これら低速車検知用の演算及び高速車検知用の演算は並列処理にて行う。
【0031】
なお、画像処理用LSI2dは、以上説明した[水平及び垂直方向の投影処理]等を行い、CPU2aは、[投影処理データの差分処理]、[投影差分最大値の抽出]、[背景データ採取処理]の各画像処理に加えて、後述するカメラ故障検知処理を行う場合、カメラ画像全体の明るさ(輝度)に関してのヒストグラムの作成処理も行うものとする。
【0032】
[車両有無の判定処理]
CPU2aは、水平方向投影差分値と垂直方向投影差分値の各最大値、及び、背景データを用いて車両の有無を判定する。
【0033】
具体的には、監視車線の水平方向投影差分値(絶対値)と垂直方向投影差分値(絶対値)の各最大値をそれぞれ車両検知判定レベルと比較し、差分最大値が車両検知判定レベル以上であると、「車両有り」と判定する。
【0034】
例えば、画像処理ごと水平方向投影差分(絶対値)最大値が、図6に示すように変化する場合、その水平方向の投影差分(絶対値)最大値が車両検知判定レベル以上である状態のときに「車両有り」と判定する。また、同様に、垂直方向の投影差分(絶対値)最大値が車両検知判定レベル以上である状態のときに「車両有り」と判定する(図示せず)。なお、図6において画像処理回数の間隔は例えば約67msである。
【0035】
なお、車両検知判定レベルは、投影差分値の値を計測しながら、キー操作部2iにて設定する。
【0036】
そして、CPU2aは、以上の水平・垂直方向の車両有無の判定結果を合成して、図7に示すような車両検知信号を出力ポート2kを介して外部機器に出力する。車両有無の判定は、水平方向と垂直方向の車両有無の判定結果の論理和で行っており、車両検知信号は、外部制御部の取り込みタイミング及びノイズ除去を考慮し、最低500msのパルスを出すようにしている。
【0037】
なお、車両信号は、誤検知防止用フィルタ係数により応答時間T(図8参照)がかわる。応答時間Tは、0〜約470msである。なお、図7の車両検知信号は、誤検知防止用フィルタ係数が1(T=0秒)の場合である。
【0038】
ここで、以上の水平・垂直方向投影差分(絶対値)最大値を用いた車両検知処理では、2車線道路(片側1車線道路)において車両検知を行う場合に誤検知が発生する可能性がある。すなわち、2車線道路では、西日が当たる夕方や朝日が当たる朝方などにおいて、検知対象の車線の検知領域内(監視車線)に、対向車線を走行する車両の影が入ることがあり、その影の影響により、実際に車両が通過してしていないのにも関わらず、「車両有り」の車両検知信号が出力されるという誤検知が生じることがある。
【0039】
このような誤検知を解消するため、本実施形態では、図2に示す2検知領域S(監視車線の検知領域と対向車線の検知領域)を用いた背景データによる判定処理を付加している。
【0040】
具体的には、車両による影部分は、路面の輝度(車両がないときの路面輝度)よりも暗いことを利用し、前記したように、CPU2aにおいて、2検知領域S(監視車線と対向車線)で同時に車両を検知した場合(対向車の影が監視車線の検知領域にかかり誤検知の可能性がある場合)、監視車線の検知領域における水平・垂直方向投影差分最大値(正負の符号を含む)と背景データ(正負の符号を含む)との関係が、下記のJ1、J2のいずれかの条件を満たしているのかを判断することによって、対向車の影の影響を除去する。ただし、背景データは、監視車線の検知領域において、車両を検知していないときの水平・垂直方向投影差分最大値(正負の符号を含む)に対して移動平均処理(例えば約200回の画像処理回数の平均)を行ったデータとする。
【0041】
なお、監視車線の検知領域のみで車両を検知した場合、対向車の影の影響がないため、上記処理は実施せずに「車両検知」と判断する。対向車線の検知領域は対向車線の車両を確認するために設けたものである。
【0042】
J1:[水平・垂直方向投影差分最大値≦背景データ]→[対向車線の走行車両による影と判定]
J2:[水平・垂直方向投影差分最大値>背景データ]→[検知領域内を車両が通過したと判定]
ここで、監視カメラ1の画像信号や画像処理ユニット2の処理系にノイズ等がある場合、上記した条件の関係が一時的に崩れる可能性があるので、本実施形態では、上記条件J1またはJ2の関係が、所定回数(例えば画像処理回数が5回)連続したかどうかを確認することにより、車両検知の精度を高めている。
【0043】
なお、以上の条件による判定では、監視車線の水平方向投影差分(正負の符号を含む)最大値及び垂直方向投影差分(正負の符号を含む)最大値の双方の最大値を背景データと比較しているが、水平方向投影差分(正負の符号を含む)最大値または垂直方向投影差分(正負の符号を含む)最大値のいずれか一方の最大値を背景データと比較して対向車線の車両による影の影響を除去するようにしてもよい。
【0044】
本発明の走行車両検知システムは、トンネル照明システムや道路情報板の点灯制御に有効に利用することができる。
【0045】
トンネル照明システムへの応用例としては、図1に示す走行車両検知システムの監視カメラ1をトンネルの坑門に設置し、その監視範囲(画像処理検知領域S)をトンネル前方約150mの位置に設定するとともに、画像処理ユニット2の車両検知信号をトンネル照明システムの制御部等に送出するという構成とし、坑門に設置した監視カメラ1が走行車両を撮らえ、画像処理ユニット2にて車両が検知された時点で、トンネル内の照明を100%点灯とし、この点灯後に一定時間(車両がトンネルを抜けるまでの時間)が経過した後に、10%または50%点灯に調光する、というような照明システムを挙げることができる。
【0046】
このように、本発明の走行車両検知システムでは、トンネルの坑門に監視カメラを設置して車両検知を行うことができるので、車両感知センサーを用いた従来のトンネル照明システムにおいて必要であった設備、例えば車両感知センサーを道路上空に支持する支柱及びセンサー配線(150m配線)などを不要とすることができ、コストの低減化をはかることができる。
【0047】
次に、道路情報板の点灯制御への応用例としては、図1に示す走行車両検知システムの監視カメラ1を道路情報板に設置し、その監視範囲(画像処理検知領域)を道路情報板の前方約150mの位置に設定するとともに、画像処理ユニット2の車両検知信号を道路情報板の制御部等に送出するという構成とし、道路情報板に設置した監視カメラ1が走行車両を撮らえ、画像処理ユニット2にて車両が検知された時点で道路情報を表示するというようなシステムを挙げることができる。このような点灯システムを採用すれば、上記のシステムと同様に車両感知センサーの支柱及びセンサー配線(150m配線)を不要とすることができ、コストの低減化をはかることができる。また、夜間の通行量の少ない道路において大幅な省エネルギー化を達成できる。
【0048】
[カメラ故障検知処理]
以上の走行車両検知システムに適用するカメラ故障検知処理の例を図9〜図12を参照しながら説明する。なお、カメラ感度低下には、カメラ自体の感度低下に加えて、豪雨・霧等の気象条件によりカメラが監視機能を失っている場合も含まれる。
【0049】
この例のカメラ故障検知処理では、画像処理において、カメラ画像全体の明るさ(輝度)に関してのヒストグラムを作成し、その輝度データのばらつきによりカメラ感度の低下を検出する。その処理の手順を以下に説明する。
【0050】
(1)カメラ画像全体の明るさ(輝度)に関してのヒストグラムを作成する。
【0051】
ヒストグラムの具体的な例を説明すると、昼間時における通常のカメラ画像(例えば図9)は、センターラインの白線や背景があるため、輝度データが均一とならず、図10に示すようなヒストグラムとなる。一方、車両が走行していない夜間(道路照明なし)のヒストグラム、及び、カメラ感度が低下しているときのヒストグラム(昼間時)は、それぞれ、図11及び図12に示すようになる。
【0052】
(2)作成したヒストグラムにおいて、横軸の輝度値0〜255の間で、縦軸の個数が0以上となる輝度値の数(N)を計数して、ヒストグラムのばらつきを求める。
【0053】
(3)Nの値に基づいてカメラ感度低下を判定する。具体的には、N<40の場合は「カメラ感度低下」または「夜間時のヒストグラム」と判定し、カメラ感度低下から正常への復帰はN>80で行う。例えば、図10のヒストグラムつまり昼間時におけるヒストグラムではN=200程度であり、「カメラ感度正常」と判定できる。一方、昼間時における図12のヒストグラムではN=27程度(N<40)であり、「カメラ感度低下」であると判定できる。
【0054】
ここで、以上のヒストグラムによる感度低下判定は、昼間時のみに使用できる機能であり(夜間時には図11のようなヒストグラムとなり判定不能)、路面の照度が100LX以下である場合には、感度低下判定機能を動作させないようなシステム構成が必要となる。
【0055】
そのようなシステムとしては、例えば、CdS等のフォトセンサを用いて周辺の明るさを常時検出し、そのセンサ出力値が、100LX以下の路面の照度に相当する値であるときに感度低下判定機能を停止し、100LX以上の路面の照度に相当する値であるときに感度低下判定機能を動作させるというシステムを挙げることができる。
【0056】
また、この例のようなカメラ故障検知処理に加えて、監視カメラのカメラ映像の同期信号を検出してカメラ故障を検知する機能を付加しておけば、より高い精度で監視カメラの故障を知ることができる。
【0057】
なお、この例のカメラ故障検知処理は、図1に示したような走行車両検知システムのほか、例えば、不法投棄物などの物体(人を含む)を検知する物体検知システム、パーキングエリアの車両監視システムなど、監視カメラを用いた他の各種の検知・監視システムに適用できる。
【0058】
【発明の効果】
以上説明したように、本発明の走行車両検知システムによれば、検知領域の画像を撮像するカメラと、その監視カメラにて撮像された画像データに基づいて検知領域内の車両の有無を検知する画像処理部を備え、カメラにて順次撮像される画像データを濃淡投影処理にて画像処理し、現時点の投影処理データとその前の投影処理データとの差分値の最大値を求めるとともに、車両検出をしていないときの投影差分最大値の移動平均処理を行って背景データを求め、それら投影処理データの差分最大値と背景データに基づいて車両の有無を判定する一方、対向車による誤検知を防止するために、監視車線と対向車線の両方に検知領域を設定し、それぞれの検知領域について、前記投影処理データの差分最大値を計算し、予め設定された判定レベル以上であるか否かを求め、監視車線と対向車線において、投影処理差分最大値が同時に判定レベルを超えた場合、監視車線の検知領域における前記投影処理データの差分最大値が背景データよりも大きいときに「車両有り」と判定し、かつ、監視車線の検知領域のみの投影処理差分最大値が判定レベルを超えた場合も、「車両有り」と判定するように構成されているので、車両検知を実施する道路が2車線道路(片側1車線道路)であっても、対向車線の車両の影による影響を除去することが可能となり、走行車両を正確に検知することができる。
【図面の簡単な説明】
【図1】本発明の実施形態の構成を示すブロック図である。
【図2】画像データに設定する画像処理検知領域の例を示す図である。
【図3】画像データ投影処理の説明図である。
【図4】投影処理データの差分処理の説明図である。
【図5】水平方向及び垂直方向の投影差分値を示す図である。
【図6】車両有無判定処理の説明図である。
【図7】車両検知信号の説明図である。
【図8】車両検知の応答時間を示す図である。
【図9】昼間時のカメラ画像の一例を示す図である。
【図10】カメラ画像全体の輝度に関するヒストグラムの一例を示す図である。
【図11】カメラ画像全体の輝度に関するヒストグラムの一例を示す図である。
【図12】カメラ画像全体の輝度に関するヒストグラムの一例を示す図である。
【符号の説明】
1 監視カメラ
2 画像処理ユニット
2a CPU
2b ROM
2c RAM
2d 画像処理用LSI
2e メモリ
2f ビデオデコーダ
2g フレームメモリコントローラ
2h フレームメモリ
2i キー操作部
2j 検知領域表示制御部
2k 出力ポート
3 モニタ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a traveling vehicle detection system that detects a vehicle traveling on a road.
[0002]
[Prior art]
As a method for detecting a vehicle traveling on a road, conventionally, a predetermined area (detection area) on the road is photographed with a television camera, and a change in brightness (luminance change) of the video signal is measured to determine whether or not the vehicle is present. A method of detecting is known.
[0003]
For example, luminance data (background image) of only the road surface is collected in advance and stored in a memory or the like, and the difference between the luminance of the vehicle and the road surface is utilized by subtracting the current captured image from the background image. There is a method for detecting the presence or absence of a vehicle. Further, in a vehicle detection method using luminance data, a technique for detecting the presence or absence of a vehicle by determining a difference value between a captured image and a background image and determining whether the difference value is equal to or greater than a predetermined value. It has been proposed (see, for example, Patent Document 1).
[0004]
[Patent Document 1]
JP-A-5-62095
[Problems to be solved by the invention]
By the way, when the vehicle detection system using luminance data is applied to vehicle detection on a two-lane road (one-lane one-lane road), erroneous detection may occur.
[0006]
That is, on a two-lane road, there is a possibility that a shadow of a vehicle traveling in the opposite lane may appear in the detection area of the lane to be detected in the evening when the sun hits or the morning where the sun hits. When entering the detection area in this way, the brightness in the detection area changes depending on how the background image is captured, etc., and a false detection of “there is a vehicle” occurs even though the vehicle is not actually passing through. There is.
[0007]
The present invention has been made in view of such circumstances, and even if the road on which the vehicle detection is performed is a two-lane road (one-lane one-lane road), the vehicle travels without being affected by the shadow of the vehicle in the opposite lane. An object of the present invention is to provide a traveling vehicle detection system capable of accurately detecting a vehicle.
[0008]
[Means for Solving the Problems]
A traveling vehicle detection system of the present invention includes a camera that captures an image of a detection area, and an image processing unit that detects the presence or absence of a vehicle in the detection area based on image data captured by the camera. The image processing unit sequentially performs image processing on image data sequentially captured by the camera, and obtains a maximum difference value between the current projection processing data and the previous projection processing data, and detects a vehicle. The background data is obtained by performing a moving average process of the projection difference maximum value when the difference is not, and the presence / absence of the vehicle is determined based on the difference maximum value of the projection process data and the background data . In the traveling vehicle detection system of the present invention, the image processing unit sets detection areas in both the monitoring lane and the oncoming lane, calculates a maximum difference value of the projection processing data for each detection area, It is determined whether or not the set judgment level is exceeded. If the maximum difference in projection processing difference between the opposite lane and the monitoring lane exceeds the determination level at the same time, it is determined that the vehicle is present when the maximum difference in the projection processing data in the detection area of the monitoring lane is larger than the background data. To do. Further, it is also characterized in that it is determined that “the vehicle is present” even when the maximum value of the projection processing difference only in the detection area of the monitoring lane exceeds the determination level. However, the background data is obtained by moving average processing of the maximum difference value of the projection data below the determination level (the vehicle is not detected) in the detection area of the monitoring lane.
[0009]
According to the traveling vehicle detection system of the present invention, image data sequentially captured by the camera is subjected to image processing by grayscale projection processing, and the maximum difference value between the current projection processing data and the previous projection processing data is determined. Thus, since the presence or absence of the vehicle is detected based on the magnitude of the change in the maximum difference value of the projection processing data, accurate vehicle detection in which the influence of the brightness of the background image is canceled can be performed.
[0010]
Moreover, since the background data in the detection area of the monitoring lane is used as the vehicle detection data in addition to the maximum difference value of the projection processing data, the vehicle traveling on the two-lane road (one-lane road on one side) is detected. In this case, even if the shadow of the vehicle traveling in the opposite lane enters the detection area of the detection target lane, the influence can be removed.
[0011]
That is, since the brightness (luminance) in the detection area when there is a shadow in the detection area of the monitoring lane is darker than when sunlight hits the road surface (when there is no shadow), the projection processing data The maximum difference value (positive and negative values, not absolute values) is smaller than the background data in the detection area. Therefore, when the maximum difference value of the projection processing data is smaller than the background data, it can be determined that the brightness has changed due to a shadow, and erroneous detection can be prevented.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0013]
FIG. 1 is a block diagram showing a configuration of an embodiment of a traveling vehicle detection system of the present invention.
[0014]
The traveling vehicle detection system in FIG. 1 is a system that is applied to detection of a vehicle traveling on a two-lane road (one-lane one-lane road), and includes a
[0015]
The
[0016]
The
[0017]
The image processing unit 2 includes a
[0018]
The
[0019]
The
[0020]
The
[0021]
The detection area
[0022]
The
[0023]
The
[0024]
[Horizontal and vertical projection processing]
For the image data captured from the
[0025]
[Expression 1]
[0026]
[Difference processing of projection processing data]
As shown in FIG. 4, the difference calculation (A−B and |) between the current projection processing data (A) at each point in the horizontal direction and the projection processing data (B) before that (one time before the number of times of image processing). (A−B |) and a difference calculation between the current projection processing data (A) at each point in the vertical direction and the projection processing data (B) before that (one time before the number of times of image processing) ( (A−B and | A−B |)). The data after the projection difference is, for example, a horizontal direction projection difference value and a vertical direction projection difference value as shown in FIGS.
[0027]
[Extraction of maximum projection difference]
Each maximum value of the horizontal direction projection difference value and the vertical direction projection difference value obtained by the above-described difference processing of the projection processing data is extracted (see FIG. 5).
[0028]
[Background data collection processing]
In the monitoring lane, moving average processing (for example, an average value of about 200 image processing times) is performed on the maximum horizontal and vertical projection difference values (including positive and negative signs) when no vehicle is detected. Obtain background data. The background data is sequentially stored and updated in the
[0029]
Here, with regard to each of the above horizontal direction projection difference maximum value, vertical direction projection difference maximum value, and background data calculation, low-speed vehicle detection calculation and high-speed vehicle detection calculation to correspond to a wide range of vehicle speeds. It is preferable to perform both of the calculation processes.
[0030]
For example, in the case of calculation for low-speed car detection, the horizontal / vertical projection difference maximum value and the background data calculation processing interval (image processing interval) are set to 5 frame intervals. The interval of the vertical projection difference maximum value and the background data calculation processing (image processing interval) is defined as one frame interval. However, the calculation for low-speed vehicle detection and the calculation for high-speed vehicle detection are performed in parallel processing.
[0031]
The
[0032]
[Vehicle presence / absence judgment processing]
The
[0033]
Specifically, each maximum value of the horizontal projection difference value (absolute value) and the vertical projection difference value (absolute value) of the monitoring lane is compared with the vehicle detection determination level, and the maximum difference value is equal to or higher than the vehicle detection determination level. If it is, it is determined that “there is a vehicle”.
[0034]
For example, when the maximum horizontal projection difference (absolute value) changes as shown in FIG. 6 for each image processing, the maximum horizontal projection difference (absolute value) is greater than or equal to the vehicle detection determination level. It is determined that “there is a vehicle”. Similarly, when the maximum vertical projection difference (absolute value) is equal to or higher than the vehicle detection determination level, it is determined that “there is a vehicle” (not shown). In FIG. 6, the interval between the image processing times is, for example, about 67 ms.
[0035]
The vehicle detection determination level is set by the
[0036]
Then, the
[0037]
Note that the response time T (see FIG. 8) of the vehicle signal varies depending on the filter coefficient for preventing erroneous detection. The response time T is 0 to about 470 ms. In addition, the vehicle detection signal of FIG. 7 is a case where the filter coefficient for false detection prevention is 1 (T = 0 second).
[0038]
Here, in the vehicle detection process using the maximum horizontal / vertical direction projection difference (absolute value) described above, there is a possibility that erroneous detection occurs when vehicle detection is performed on a two-lane road (one-lane one-lane road). . That is, on a two-lane road, in the evening when the sun hits the sun or the morning when the sun hits, the shadow of the vehicle traveling in the oncoming lane may appear in the detection area (monitoring lane) of the target lane. Due to the influence of the above, there may be a false detection that a vehicle detection signal “vehicle present” is output even though the vehicle has not actually passed.
[0039]
In order to eliminate such erroneous detection, in this embodiment, a determination process based on background data using the two detection areas S (the detection area of the monitoring lane and the detection area of the opposite lane) shown in FIG. 2 is added.
[0040]
Specifically, using the fact that the shadow portion by the vehicle is darker than the brightness of the road surface (the road surface brightness when there is no vehicle), as described above, in the
[0041]
In addition, when a vehicle is detected only in the detection area of the monitoring lane, there is no influence of the shadow of the oncoming vehicle, so that the above process is not performed and “vehicle detection” is determined. The oncoming lane detection area is provided to confirm a vehicle on the oncoming lane.
[0042]
J1: [Horizontal / vertical direction projection difference maximum value ≤ background data] → [determined as a shadow by a traveling vehicle in the oncoming lane]
J2: [Horizontal / vertical projection difference maximum value> background data] → [determined that the vehicle has passed through the detection area]
Here, when there is noise or the like in the image signal of the
[0043]
In the determination based on the above conditions, the maximum values of the maximum horizontal projection difference (including positive and negative signs) and the maximum vertical projection difference (including positive and negative signs) of the monitoring lane are compared with the background data. However, the maximum value of either the horizontal projection difference (including positive or negative sign) maximum value or the vertical projection difference (including positive or negative sign) maximum value is compared with the background data depending on the vehicle on the opposite lane. You may make it remove the influence of a shadow.
[0044]
The traveling vehicle detection system of the present invention can be effectively used for lighting control of a tunnel lighting system and a road information board.
[0045]
As an application example to the tunnel lighting system, the
[0046]
As described above, in the traveling vehicle detection system of the present invention, since it is possible to perform vehicle detection by installing a monitoring camera at a tunnel gate, facilities required in a conventional tunnel illumination system using a vehicle detection sensor For example, it is possible to eliminate the support for supporting the vehicle sensor on the road and the sensor wiring (150 m wiring), and the cost can be reduced.
[0047]
Next, as an application example to the lighting control of the road information board, the
[0048]
[Camera failure detection processing]
An example of camera failure detection processing applied to the above traveling vehicle detection system will be described with reference to FIGS. Note that the reduction in camera sensitivity includes the case where the camera loses its monitoring function due to weather conditions such as heavy rain and fog in addition to the reduction in sensitivity of the camera itself.
[0049]
In the camera failure detection processing of this example, in image processing, a histogram relating to the brightness (luminance) of the entire camera image is created, and a decrease in camera sensitivity is detected by variation in the luminance data. The processing procedure will be described below.
[0050]
(1) A histogram relating to the brightness (luminance) of the entire camera image is created.
[0051]
A specific example of the histogram will be described. A normal camera image (for example, FIG. 9) in the daytime has a white line and a background of the center line, and therefore the luminance data is not uniform, and the histogram as shown in FIG. Become. On the other hand, histograms at night (no road lighting) when the vehicle is not traveling and histograms (daytime) when the camera sensitivity is lowered are as shown in FIGS. 11 and 12, respectively.
[0052]
(2) In the created histogram, the number of luminance values (N) in which the number of vertical axes is 0 or more is counted between the
[0053]
(3) Decrease in camera sensitivity based on the value of N. Specifically, when N <40, it is determined that “camera sensitivity is reduced” or “nighttime histogram”, and the camera sensitivity is returned to normal after N> 80. For example, in the histogram of FIG. 10, that is, the histogram at daytime, N = 200, and it can be determined that “camera sensitivity is normal”. On the other hand, in the histogram of FIG. 12 at daytime, N = 27 (N <40), and it can be determined that “camera sensitivity is reduced”.
[0054]
Here, the sensitivity reduction determination by the above histogram is a function that can be used only during daytime (it cannot be determined as a histogram as shown in FIG. 11 at night), and when the road illuminance is 100 LX or less, the sensitivity reduction determination is performed. A system configuration that does not operate the function is required.
[0055]
As such a system, for example, when a peripheral brightness is constantly detected using a photosensor such as CdS, and the sensor output value is a value corresponding to an illuminance on a road surface of 100 LX or less, a sensitivity reduction determination function And a system that operates the sensitivity decrease determination function when the value is equivalent to the illuminance on the road surface of 100 LX or more.
[0056]
In addition to the camera failure detection process as in this example, if a function to detect camera failure by detecting the synchronization signal of the camera image of the surveillance camera is added, the failure of the surveillance camera can be known with higher accuracy. be able to.
[0057]
In addition to the traveling vehicle detection system shown in FIG. 1, the camera failure detection process in this example includes, for example, an object detection system that detects an object (including a person) such as illegal dumping, and vehicle monitoring in a parking area. It can be applied to various other detection / monitoring systems using surveillance cameras, such as systems.
[0058]
【The invention's effect】
As described above, according to the traveling vehicle detection system of the present invention, the presence or absence of a vehicle in the detection area is detected based on the camera that captures the image of the detection area and the image data captured by the monitoring camera. An image processing unit is provided, and image data sequentially captured by the camera is subjected to image processing by grayscale projection processing to obtain the maximum difference value between the current projection processing data and the previous projection processing data, and vehicle detection The background data is obtained by performing a moving average process of the projection difference maximum value when not performing the determination, and the presence / absence of the vehicle is determined based on the difference maximum value of the projection process data and the background data, while erroneous detection by the oncoming vehicle is detected. In order to prevent this, detection areas are set in both the monitoring lane and the oncoming lane, the maximum difference value of the projection processing data is calculated for each detection area, and a predetermined determination level is set. In the monitoring lane and the oncoming lane, if the projection processing difference maximum value exceeds the determination level at the same time, the maximum difference value of the projection processing data in the detection area of the monitoring lane is larger than the background data. Sometimes it is determined that “there is a vehicle” and the maximum difference in the projection processing only in the detection area of the monitored lane exceeds the determination level. Even if the road on which the vehicle is implemented is a two-lane road (one-lane one-lane road), it is possible to remove the influence of the shadow of the vehicle in the opposite lane, and the traveling vehicle can be detected accurately.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of an image processing detection area set in image data.
FIG. 3 is an explanatory diagram of image data projection processing.
FIG. 4 is an explanatory diagram of a difference process of projection processing data.
FIG. 5 is a diagram showing projection difference values in the horizontal direction and the vertical direction.
FIG. 6 is an explanatory diagram of a vehicle presence / absence determination process.
FIG. 7 is an explanatory diagram of a vehicle detection signal.
FIG. 8 is a diagram illustrating a response time of vehicle detection.
FIG. 9 is a diagram illustrating an example of a camera image at daytime.
FIG. 10 is a diagram illustrating an example of a histogram relating to luminance of the entire camera image.
FIG. 11 is a diagram illustrating an example of a histogram relating to luminance of the entire camera image.
FIG. 12 is a diagram illustrating an example of a histogram relating to luminance of the entire camera image.
[Explanation of symbols]
1 Surveillance Camera 2
2b ROM
2c RAM
2d Image processing LSI
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002354735A JP4071610B2 (en) | 2002-12-06 | 2002-12-06 | Traveling vehicle detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002354735A JP4071610B2 (en) | 2002-12-06 | 2002-12-06 | Traveling vehicle detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004185537A JP2004185537A (en) | 2004-07-02 |
JP4071610B2 true JP4071610B2 (en) | 2008-04-02 |
Family
ID=32755636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002354735A Expired - Fee Related JP4071610B2 (en) | 2002-12-06 | 2002-12-06 | Traveling vehicle detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4071610B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4809019B2 (en) * | 2005-08-31 | 2011-11-02 | クラリオン株式会社 | Obstacle detection device for vehicle |
JP2007115191A (en) * | 2005-10-24 | 2007-05-10 | Sumitomo Electric Ind Ltd | Vehicle-sensing system, inspection unit, and inspection method |
JP2007164565A (en) * | 2005-12-15 | 2007-06-28 | Sumitomo Electric Ind Ltd | System and device of vehicle sensing for traffic-actuated control |
JP4946903B2 (en) * | 2008-02-12 | 2012-06-06 | トヨタ自動車株式会社 | Vehicle background image collection device |
JP2009251637A (en) * | 2008-04-01 | 2009-10-29 | Nishi Nihon Kosoku Doro Maintenance Kansai Kk | Vehicle accident prevention robot and vehicle accident prevention system |
JP5459324B2 (en) * | 2012-01-17 | 2014-04-02 | 株式会社デンソー | Vehicle periphery monitoring device |
-
2002
- 2002-12-06 JP JP2002354735A patent/JP4071610B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004185537A (en) | 2004-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2007111220A1 (en) | Road division line detector | |
JP2009157087A (en) | Exposure control apparatus and exposure control program | |
JP6139493B2 (en) | License plate detection device and license plate detection method | |
JP4071610B2 (en) | Traveling vehicle detection system | |
CN104008518B (en) | Body detection device | |
JP3995671B2 (en) | Image processing device | |
JP2004086417A (en) | Method and device for detecting pedestrian on zebra crossing | |
JPH07257220A (en) | Vigilance evaluation device for vehicle | |
JP2003030665A (en) | Mobile object detector, mobile object detection method and program making computer execute the method | |
JP2010191888A (en) | Image processing apparatus and traffic monitoring device | |
JP2970168B2 (en) | Vehicle detection device | |
JP2004236087A (en) | Monitoring camera system | |
JPH11219493A (en) | Method for processing traffic information | |
JP2020204842A (en) | Information processing device and drive supporting system | |
KR101969856B1 (en) | Method and system for detecting ambient light | |
CN112243089B (en) | Camera HDR image effect switch control method and device, rearview mirror, vehicle and storage medium | |
JP2001028745A (en) | External monitoring device having fail/safe function | |
JP3268096B2 (en) | Image-based stop vehicle detection method | |
JP2924256B2 (en) | Vehicle dynamics measurement device | |
JP3224875B2 (en) | Image-based signal ignoring vehicle detection method | |
JP2853367B2 (en) | Vehicle dynamics measurement device | |
JP2853361B2 (en) | Vehicle dynamics measurement device | |
JP2001216598A (en) | Traffic flow measuring instrument | |
CN103909881A (en) | Environment information detection system and environment information detection method | |
JP4052299B2 (en) | Exposure control method and apparatus for camera-type vehicle detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071009 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080117 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110125 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140125 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |