JP4071610B2 - Traveling vehicle detection system - Google Patents

Traveling vehicle detection system Download PDF

Info

Publication number
JP4071610B2
JP4071610B2 JP2002354735A JP2002354735A JP4071610B2 JP 4071610 B2 JP4071610 B2 JP 4071610B2 JP 2002354735 A JP2002354735 A JP 2002354735A JP 2002354735 A JP2002354735 A JP 2002354735A JP 4071610 B2 JP4071610 B2 JP 4071610B2
Authority
JP
Japan
Prior art keywords
vehicle
detection
data
lane
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002354735A
Other languages
Japanese (ja)
Other versions
JP2004185537A (en
Inventor
隆夫 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiwa Electric Mfg Co Ltd
Original Assignee
Seiwa Electric Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiwa Electric Mfg Co Ltd filed Critical Seiwa Electric Mfg Co Ltd
Priority to JP2002354735A priority Critical patent/JP4071610B2/en
Publication of JP2004185537A publication Critical patent/JP2004185537A/en
Application granted granted Critical
Publication of JP4071610B2 publication Critical patent/JP4071610B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は道路を走行する車両を検知する走行車両検知システムに関する。
【0002】
【従来の技術】
道路を走行する車両を検知する方法としては、従来、道路上の所定区域(検知領域)をテレビカメラで撮影し、その映像信号の明るさの変化(輝度変化)を計測して車両の有無を検知する方法が知られている。
【0003】
例えば、路面のみの輝度データ(背景画像)を予め採取してメモリ等に記憶しておき、その背景画像から現時点の撮影画像を引き算することにより、車両と路面との輝度の違いを利用して車両の有無を検知する方法がある。また、輝度データを用いた車両検知方法において、撮影画像と背景画像との差分値を求め、その差分値が所定値以上であるか否かを判別することにより、車両の有無を検知する技術が提案されている(例えば、特許文献1参照。)。
【0004】
【特許文献1】
特開平5−62095号公報
【0005】
【発明が解決しようとする課題】
ところで、輝度データを用いた車両検知システムを、2車線道路(片側1車線道路)の車両検知に適用した場合、誤検知が発生することがある。
【0006】
すなわち、2車線道路では、西日が当たる夕方や朝日が当たる朝方などにおいて、検知対象の車線の検知領域内に、対向車線を走行する車両の影が入る可能性がある。このように検知領域内に入ると、背景画像の取込み方等により検知領域内の輝度が変化してしまい、実際には車両が通過していないのに、「車両有り」という誤検知が生じることがある。
【0007】
本発明はそのような実情に鑑みてなされたもので、車両検知を実施する道路が2車線道路(片側1車線道路)であっても、対向車線の車両の影等に影響されずに、走行車両を正確に検知することが可能な走行車両検知システムの提供を目的とする。
【0008】
【課題を解決するための手段】
本発明の走行車両検知システムは、検知領域の画像を撮像するカメラと、そのカメラにて撮像された画像データに基づいて検知領域内の車両の有無を検知する画像処理部を備え、その画像処理部が、前記カメラにて順次撮像される画像データを濃淡投影処理にて画像処理し、現時点の投影処理データとその前の投影処理データとの差分値の最大値を求めるとともに、車両検出をしていないときの投影差分最大値の移動平均処理を行って背景データを求め、それら投影処理データの差分最大値と背景データに基づいて車両の有無を判定する。また、本発明の走行車両検知システムは、前記画像処理部が、監視車線と対向車線の両方に検知領域を設定し、それぞれの検知領域について、前記投影処理データの差分最大値を計算し、予め設定された判定レベル以上であるか否かを求める。そして、対向車線と監視車線とにおいて、投影処理差分最大値が同時に判定レベルを超えた場合、監視車線の検知領域における投影処理データの差分最大値が背景データより大きいときに「車両有り」と判定する。また、監視車線の検知領域のみの投影処理差分最大値が判定レベルを超えた場合も、「車両有り」と判断することを特徴としている。ただし、背景データは、監視車線の検知領域における前記判定レベル以下(車両を検出していない)の投影データの差分最大値の移動平均処理より求める。
【0009】
本発明の走行車両検知システムによれば、カメラにて順次撮像される画像データを濃淡投影処理にて画像処理し、現時点の投影処理データとその前の投影処理データとの差分値の最大値を求め、その投影処理データの差分最大値の変化の大きさに基づいて車両の有無を検知するので、背景画像の明るさによる影響がキャンセルされた正確な車両検知を行うことができる。
【0010】
しかも、車両検知のデータとして、投影処理データの差分最大値に加えて、監視車線の検知領域内の背景データを用いているので、2車線道路(片側1車線道路)を走行する車両を検知するにあたり、対向車線を走行する車両の影が、検知対象車線の検知領域内に入っても、その影響を除去することができる。
【0011】
すなわち、監視車線の検知領域内に影があるときの検知領域内の明るさ(輝度)は、太陽光が路面に当たっている場合(影が無い場合)よりも暗くなるので、前記した投影処理データの差分最大値(絶対値ではなく正負の値)が検知領域内の背景データよりも小さくなる。従って、投影処理データの差分最大値が背景データよりも小さい場合には、影による輝度変化と判別することができ、誤検知を防止できる。
【0012】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0013】
図1は本発明の走行車両検知システムの実施形態の構成を示すブロック図である。
【0014】
図1の走行車両検知システムは、2車線道路(片側1車線道路)を走行する車両の検知に適用されるシステムであって、監視カメラ1、画像処理ユニット2及びモニタ3などによって構成されている。
【0015】
監視カメラ1は、CCD型カラー固体映像素子及びレンズ(ともに図示せず)などを備えている。監視カメラ1は、車両検知を行う道路の上空に配置され、走行車両の前方側から車両の映像を撮像するように設置される。
【0016】
モニタ3には、後述する画像処理ユニット2の検知領域表示制御部2jからのビデオ信号が入力され、監視カメラ1に撮像された画像データ(カメラ画像)に画像処理検知領域Sを合成した画像が表示される(図2参照)。なお、図2に示す2つの画像処理検知領域S,Sはそれぞれ監視車線の検知領域及び対向車線の検知領域である。
【0017】
画像処理ユニット2は、CPU2a、ROM2b、RAM2c、画像処理用LSI2d、ビデオデコーダ2f、フレームメモリコントローラ2g、フレームメモリ2h、メモリ2e、キー操作部2i、検知領域表示制御部2j及び出力ポート2k等を備えている。
【0018】
CPU2aは、ROM2bに書き込まれたプログラムに従って、画像処理ユニット2の各機能部(例えば画像処理用LSI2d、フレームメモリコントローラ2g、検知領域表示制御部2jなど)を制御して、後述する[車両有無の判定処理]を実行する。CPU2aには、RAM2c、キー操作部2i及び出力ポート2kがバスラインを介して接続されている。
【0019】
キー操作部2iは、画像処理検知領域の設定、及び車両検知判定レベル等の検知条件の設定などのパラメータ設定を行うことができる。
【0020】
ビデオデコーダ2fは、CPU2aからの指令によって、監視カメラ1からの画像データを取り込んで検知領域表示制御部2j及びフレームメモリコントローラ2gに送る。
【0021】
検知領域表示制御部2jは、キー操作部2iによって指定され、CPU2aから供給される画像処理検知領域データと、監視カメラ1(ビデオデコーダ2f)からの画像データとを合成して、図2示す画像処理検知領域S付きのカメラ画像をモニタ3に表示する。このモニタ3の表示画像を見ながら、キー操作部2iを操作することにより画像処理を行う検知領域の設定・変更を行うことができる。
【0022】
フレームメモリコントローラ2gは、監視カメラ1からの画像データをビデオデコーダ2fを介して取り込んで、フレームメモリ2hのデータ格納エリアに順次格納してゆく。フレームメモリ2hに格納された画像データは1フレームごとに読み出されて画像処理用LSI2dに順次出力される。なお、フレームメモリ2hには、複数枚のフレーム分のデータ格納エリアが設定されている。
【0023】
画像処理用LSI2dは、CPU2aからの指令に応じて、[水平及び垂直方向の投影処理]等を行い、CPU2aは、[投影処理データの差分処理]、[投影差分最大値の抽出]、[背景データ採取処理]の各画像処理を行う。その各処理を以下に説明する。
【0024】
[水平及び垂直方向の投影処理]
監視カメラ1から取り込んだ画像データについて、キー操作部2iにて設定された画像処理検知領域S内の濃淡投影処理を1フレームごとに実行する。具体的には、図3に示すように、入力画像データの水平方向(V軸への)投影処理(水平方向に行ごとの濃淡値の総和:Vproj(v))と、入力画像データの垂直方向(H軸への)投影処理(垂直方向に列ごとの濃淡値の総和:Hproj(h))を1フレームごとに実行する。
【0025】
【数1】

Figure 0004071610
【0026】
[投影処理データの差分処理]
図4に示すように、水平方向の各点における現時点の投影処理データ(A)とその前(画像処理回数の1回前)の投影処理データ(B)との差分演算(A−Bと|A−B|の両方の演算)、及び、垂直方向の各点における現時点の投影処理データ(A)とその前(画像処理回数の1回前)の投影処理データ(B)との差分演算(A−Bと|A−B|の両方の演算)を行う。その投影差分後のデータは、例えば図5(A)及び(B)に示すような水平方向投影差分値及び垂直方向投影差分値となる。
【0027】
[投影差分最大値の抽出]
前記した投影処理データの差分処理によって得られた水平方向投影差分値と垂直方向投影差分値の各最大値を抽出する(図5参照)。
【0028】
[背景データ採取処理]
監視車線において、車両を検知していないときの、前記水平及び垂直方向投影差分最大値(正負の符号含む)に対して移動平均処理(例えば約200回の画像処理回数の平均値)を行って背景データを求める。この背景データは、平均化演算が行われるごとにメモリ2eに順次記憶・更新されてゆく。
【0029】
ここで、以上の水平方向投影差分最大値及及び垂直方向投影差分最大値と、背景データの各演算に関しては、幅広い車両速度に対応させるため、低速車検知用の演算と高速車検知用の演算の双方の演算処理を実施することが好ましい。
【0030】
例えば、低速車検知用の演算の場合、水平・垂直方向投影差分最大値及び背景データの演算処理の間隔(画像処理の間隔)を5フレーム間隔とし、高速車検知用の演算の場合、水平・垂直方向投影差分最大値及び背景データの演算処理の間隔(画像処理の間隔)を1フレーム間隔とする。ただし、これら低速車検知用の演算及び高速車検知用の演算は並列処理にて行う。
【0031】
なお、画像処理用LSI2dは、以上説明した[水平及び垂直方向の投影処理]等を行い、CPU2aは、[投影処理データの差分処理]、[投影差分最大値の抽出]、[背景データ採取処理]の各画像処理に加えて、後述するカメラ故障検知処理を行う場合、カメラ画像全体の明るさ(輝度)に関してのヒストグラムの作成処理も行うものとする。
【0032】
[車両有無の判定処理]
CPU2aは、水平方向投影差分値と垂直方向投影差分値の各最大値、及び、背景データを用いて車両の有無を判定する。
【0033】
具体的には、監視車線の水平方向投影差分値(絶対値)と垂直方向投影差分値(絶対値)の各最大値をそれぞれ車両検知判定レベルと比較し、差分最大値が車両検知判定レベル以上であると、「車両有り」と判定する。
【0034】
例えば、画像処理ごと水平方向投影差分(絶対値)最大値が、図6に示すように変化する場合、その水平方向の投影差分(絶対値)最大値が車両検知判定レベル以上である状態のときに「車両有り」と判定する。また、同様に、垂直方向の投影差分(絶対値)最大値が車両検知判定レベル以上である状態のときに「車両有り」と判定する(図示せず)。なお、図6において画像処理回数の間隔は例えば約67msである。
【0035】
なお、車両検知判定レベルは、投影差分値の値を計測しながら、キー操作部2iにて設定する。
【0036】
そして、CPU2aは、以上の水平・垂直方向の車両有無の判定結果を合成して、図7に示すような車両検知信号を出力ポート2kを介して外部機器に出力する。車両有無の判定は、水平方向と垂直方向の車両有無の判定結果の論理和で行っており、車両検知信号は、外部制御部の取り込みタイミング及びノイズ除去を考慮し、最低500msのパルスを出すようにしている。
【0037】
なお、車両信号は、誤検知防止用フィルタ係数により応答時間T(図8参照)がかわる。応答時間Tは、0〜約470msである。なお、図7の車両検知信号は、誤検知防止用フィルタ係数が1(T=0秒)の場合である。
【0038】
ここで、以上の水平・垂直方向投影差分(絶対値)最大値を用いた車両検知処理では、2車線道路(片側1車線道路)において車両検知を行う場合に誤検知が発生する可能性がある。すなわち、2車線道路では、西日が当たる夕方や朝日が当たる朝方などにおいて、検知対象の車線の検知領域内(監視車線)に、対向車線を走行する車両の影が入ることがあり、その影の影響により、実際に車両が通過してしていないのにも関わらず、「車両有り」の車両検知信号が出力されるという誤検知が生じることがある。
【0039】
このような誤検知を解消するため、本実施形態では、図2に示す2検知領域S(監視車線の検知領域と対向車線の検知領域)を用いた背景データによる判定処理を付加している。
【0040】
具体的には、車両による影部分は、路面の輝度(車両がないときの路面輝度)よりも暗いことを利用し、前記したように、CPU2aにおいて、2検知領域S(監視車線と対向車線)で同時に車両を検知した場合(対向車の影が監視車線の検知領域にかかり誤検知の可能性がある場合)、監視車線の検知領域における水平・垂直方向投影差分最大値(正負の符号を含む)と背景データ(正負の符号を含む)との関係が、下記のJ1、J2のいずれかの条件を満たしているのかを判断することによって、対向車の影の影響を除去する。ただし、背景データは、監視車線の検知領域において、車両を検知していないときの水平・垂直方向投影差分最大値(正負の符号を含む)に対して移動平均処理(例えば約200回の画像処理回数の平均)を行ったデータとする。
【0041】
なお、監視車線の検知領域のみで車両を検知した場合、対向車の影の影響がないため、上記処理は実施せずに「車両検知」と判断する。対向車線の検知領域は対向車線の車両を確認するために設けたものである。
【0042】
J1:[水平・垂直方向投影差分最大値≦背景データ]→[対向車線の走行車両による影と判定]
J2:[水平・垂直方向投影差分最大値>背景データ]→[検知領域内を車両が通過したと判定]
ここで、監視カメラ1の画像信号や画像処理ユニット2の処理系にノイズ等がある場合、上記した条件の関係が一時的に崩れる可能性があるので、本実施形態では、上記条件J1またはJ2の関係が、所定回数(例えば画像処理回数が5回)連続したかどうかを確認することにより、車両検知の精度を高めている。
【0043】
なお、以上の条件による判定では、監視車線の水平方向投影差分(正負の符号を含む)最大値及び垂直方向投影差分(正負の符号を含む)最大値の双方の最大値を背景データと比較しているが、水平方向投影差分(正負の符号を含む)最大値または垂直方向投影差分(正負の符号を含む)最大値のいずれか一方の最大値を背景データと比較して対向車線の車両による影の影響を除去するようにしてもよい。
【0044】
本発明の走行車両検知システムは、トンネル照明システムや道路情報板の点灯制御に有効に利用することができる。
【0045】
トンネル照明システムへの応用例としては、図1に示す走行車両検知システムの監視カメラ1をトンネルの坑門に設置し、その監視範囲(画像処理検知領域S)をトンネル前方約150mの位置に設定するとともに、画像処理ユニット2の車両検知信号をトンネル照明システムの制御部等に送出するという構成とし、坑門に設置した監視カメラ1が走行車両を撮らえ、画像処理ユニット2にて車両が検知された時点で、トンネル内の照明を100%点灯とし、この点灯後に一定時間(車両がトンネルを抜けるまでの時間)が経過した後に、10%または50%点灯に調光する、というような照明システムを挙げることができる。
【0046】
このように、本発明の走行車両検知システムでは、トンネルの坑門に監視カメラを設置して車両検知を行うことができるので、車両感知センサーを用いた従来のトンネル照明システムにおいて必要であった設備、例えば車両感知センサーを道路上空に支持する支柱及びセンサー配線(150m配線)などを不要とすることができ、コストの低減化をはかることができる。
【0047】
次に、道路情報板の点灯制御への応用例としては、図1に示す走行車両検知システムの監視カメラ1を道路情報板に設置し、その監視範囲(画像処理検知領域)を道路情報板の前方約150mの位置に設定するとともに、画像処理ユニット2の車両検知信号を道路情報板の制御部等に送出するという構成とし、道路情報板に設置した監視カメラ1が走行車両を撮らえ、画像処理ユニット2にて車両が検知された時点で道路情報を表示するというようなシステムを挙げることができる。このような点灯システムを採用すれば、上記のシステムと同様に車両感知センサーの支柱及びセンサー配線(150m配線)を不要とすることができ、コストの低減化をはかることができる。また、夜間の通行量の少ない道路において大幅な省エネルギー化を達成できる。
【0048】
[カメラ故障検知処理]
以上の走行車両検知システムに適用するカメラ故障検知処理の例を図9〜図12を参照しながら説明する。なお、カメラ感度低下には、カメラ自体の感度低下に加えて、豪雨・霧等の気象条件によりカメラが監視機能を失っている場合も含まれる。
【0049】
この例のカメラ故障検知処理では、画像処理において、カメラ画像全体の明るさ(輝度)に関してのヒストグラムを作成し、その輝度データのばらつきによりカメラ感度の低下を検出する。その処理の手順を以下に説明する。
【0050】
(1)カメラ画像全体の明るさ(輝度)に関してのヒストグラムを作成する。
【0051】
ヒストグラムの具体的な例を説明すると、昼間時における通常のカメラ画像(例えば図9)は、センターラインの白線や背景があるため、輝度データが均一とならず、図10に示すようなヒストグラムとなる。一方、車両が走行していない夜間(道路照明なし)のヒストグラム、及び、カメラ感度が低下しているときのヒストグラム(昼間時)は、それぞれ、図11及び図12に示すようになる。
【0052】
(2)作成したヒストグラムにおいて、横軸の輝度値0〜255の間で、縦軸の個数が0以上となる輝度値の数(N)を計数して、ヒストグラムのばらつきを求める。
【0053】
(3)Nの値に基づいてカメラ感度低下を判定する。具体的には、N<40の場合は「カメラ感度低下」または「夜間時のヒストグラム」と判定し、カメラ感度低下から正常への復帰はN>80で行う。例えば、図10のヒストグラムつまり昼間時におけるヒストグラムではN=200程度であり、「カメラ感度正常」と判定できる。一方、昼間時における図12のヒストグラムではN=27程度(N<40)であり、「カメラ感度低下」であると判定できる。
【0054】
ここで、以上のヒストグラムによる感度低下判定は、昼間時のみに使用できる機能であり(夜間時には図11のようなヒストグラムとなり判定不能)、路面の照度が100LX以下である場合には、感度低下判定機能を動作させないようなシステム構成が必要となる。
【0055】
そのようなシステムとしては、例えば、CdS等のフォトセンサを用いて周辺の明るさを常時検出し、そのセンサ出力値が、100LX以下の路面の照度に相当する値であるときに感度低下判定機能を停止し、100LX以上の路面の照度に相当する値であるときに感度低下判定機能を動作させるというシステムを挙げることができる。
【0056】
また、この例のようなカメラ故障検知処理に加えて、監視カメラのカメラ映像の同期信号を検出してカメラ故障を検知する機能を付加しておけば、より高い精度で監視カメラの故障を知ることができる。
【0057】
なお、この例のカメラ故障検知処理は、図1に示したような走行車両検知システムのほか、例えば、不法投棄物などの物体(人を含む)を検知する物体検知システム、パーキングエリアの車両監視システムなど、監視カメラを用いた他の各種の検知・監視システムに適用できる。
【0058】
【発明の効果】
以上説明したように、本発明の走行車両検知システムによれば、検知領域の画像を撮像するカメラと、その監視カメラにて撮像された画像データに基づいて検知領域内の車両の有無を検知する画像処理部を備え、カメラにて順次撮像される画像データを濃淡投影処理にて画像処理し、現時点の投影処理データとその前の投影処理データとの差分値の最大値を求めるとともに、車両検出をしていないときの投影差分最大値の移動平均処理を行って背景データを求め、それら投影処理データの差分最大値と背景データに基づいて車両の有無を判定する一方、対向車による誤検知を防止するために、監視車線と対向車線の両方に検知領域を設定し、それぞれの検知領域について、前記投影処理データの差分最大値を計算し、予め設定された判定レベル以上であるか否かを求め、監視車線と対向車線において、投影処理差分最大値が同時に判定レベルを超えた場合、監視車線の検知領域における前記投影処理データの差分最大値が背景データよりも大きいときに「車両有り」と判定し、かつ、監視車線の検知領域のみの投影処理差分最大値が判定レベルを超えた場合も、「車両有り」と判定するように構成されているので、車両検知を実施する道路が2車線道路(片側1車線道路)であっても、対向車線の車両の影による影響を除去することが可能となり、走行車両を正確に検知することができる。
【図面の簡単な説明】
【図1】本発明の実施形態の構成を示すブロック図である。
【図2】画像データに設定する画像処理検知領域の例を示す図である。
【図3】画像データ投影処理の説明図である。
【図4】投影処理データの差分処理の説明図である。
【図5】水平方向及び垂直方向の投影差分値を示す図である。
【図6】車両有無判定処理の説明図である。
【図7】車両検知信号の説明図である。
【図8】車両検知の応答時間を示す図である。
【図9】昼間時のカメラ画像の一例を示す図である。
【図10】カメラ画像全体の輝度に関するヒストグラムの一例を示す図である。
【図11】カメラ画像全体の輝度に関するヒストグラムの一例を示す図である。
【図12】カメラ画像全体の輝度に関するヒストグラムの一例を示す図である。
【符号の説明】
1 監視カメラ
2 画像処理ユニット
2a CPU
2b ROM
2c RAM
2d 画像処理用LSI
2e メモリ
2f ビデオデコーダ
2g フレームメモリコントローラ
2h フレームメモリ
2i キー操作部
2j 検知領域表示制御部
2k 出力ポート
3 モニタ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a traveling vehicle detection system that detects a vehicle traveling on a road.
[0002]
[Prior art]
As a method for detecting a vehicle traveling on a road, conventionally, a predetermined area (detection area) on the road is photographed with a television camera, and a change in brightness (luminance change) of the video signal is measured to determine whether or not the vehicle is present. A method of detecting is known.
[0003]
For example, luminance data (background image) of only the road surface is collected in advance and stored in a memory or the like, and the difference between the luminance of the vehicle and the road surface is utilized by subtracting the current captured image from the background image. There is a method for detecting the presence or absence of a vehicle. Further, in a vehicle detection method using luminance data, a technique for detecting the presence or absence of a vehicle by determining a difference value between a captured image and a background image and determining whether the difference value is equal to or greater than a predetermined value. It has been proposed (see, for example, Patent Document 1).
[0004]
[Patent Document 1]
JP-A-5-62095
[Problems to be solved by the invention]
By the way, when the vehicle detection system using luminance data is applied to vehicle detection on a two-lane road (one-lane one-lane road), erroneous detection may occur.
[0006]
That is, on a two-lane road, there is a possibility that a shadow of a vehicle traveling in the opposite lane may appear in the detection area of the lane to be detected in the evening when the sun hits or the morning where the sun hits. When entering the detection area in this way, the brightness in the detection area changes depending on how the background image is captured, etc., and a false detection of “there is a vehicle” occurs even though the vehicle is not actually passing through. There is.
[0007]
The present invention has been made in view of such circumstances, and even if the road on which the vehicle detection is performed is a two-lane road (one-lane one-lane road), the vehicle travels without being affected by the shadow of the vehicle in the opposite lane. An object of the present invention is to provide a traveling vehicle detection system capable of accurately detecting a vehicle.
[0008]
[Means for Solving the Problems]
A traveling vehicle detection system of the present invention includes a camera that captures an image of a detection area, and an image processing unit that detects the presence or absence of a vehicle in the detection area based on image data captured by the camera. The image processing unit sequentially performs image processing on image data sequentially captured by the camera, and obtains a maximum difference value between the current projection processing data and the previous projection processing data, and detects a vehicle. The background data is obtained by performing a moving average process of the projection difference maximum value when the difference is not, and the presence / absence of the vehicle is determined based on the difference maximum value of the projection process data and the background data . In the traveling vehicle detection system of the present invention, the image processing unit sets detection areas in both the monitoring lane and the oncoming lane, calculates a maximum difference value of the projection processing data for each detection area, It is determined whether or not the set judgment level is exceeded. If the maximum difference in projection processing difference between the opposite lane and the monitoring lane exceeds the determination level at the same time, it is determined that the vehicle is present when the maximum difference in the projection processing data in the detection area of the monitoring lane is larger than the background data. To do. Further, it is also characterized in that it is determined that “the vehicle is present” even when the maximum value of the projection processing difference only in the detection area of the monitoring lane exceeds the determination level. However, the background data is obtained by moving average processing of the maximum difference value of the projection data below the determination level (the vehicle is not detected) in the detection area of the monitoring lane.
[0009]
According to the traveling vehicle detection system of the present invention, image data sequentially captured by the camera is subjected to image processing by grayscale projection processing, and the maximum difference value between the current projection processing data and the previous projection processing data is determined. Thus, since the presence or absence of the vehicle is detected based on the magnitude of the change in the maximum difference value of the projection processing data, accurate vehicle detection in which the influence of the brightness of the background image is canceled can be performed.
[0010]
Moreover, since the background data in the detection area of the monitoring lane is used as the vehicle detection data in addition to the maximum difference value of the projection processing data, the vehicle traveling on the two-lane road (one-lane road on one side) is detected. In this case, even if the shadow of the vehicle traveling in the opposite lane enters the detection area of the detection target lane, the influence can be removed.
[0011]
That is, since the brightness (luminance) in the detection area when there is a shadow in the detection area of the monitoring lane is darker than when sunlight hits the road surface (when there is no shadow), the projection processing data The maximum difference value (positive and negative values, not absolute values) is smaller than the background data in the detection area. Therefore, when the maximum difference value of the projection processing data is smaller than the background data, it can be determined that the brightness has changed due to a shadow, and erroneous detection can be prevented.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0013]
FIG. 1 is a block diagram showing a configuration of an embodiment of a traveling vehicle detection system of the present invention.
[0014]
The traveling vehicle detection system in FIG. 1 is a system that is applied to detection of a vehicle traveling on a two-lane road (one-lane one-lane road), and includes a monitoring camera 1, an image processing unit 2, a monitor 3, and the like. .
[0015]
The surveillance camera 1 includes a CCD color solid-state image element and a lens (both not shown). The monitoring camera 1 is disposed over the road where vehicle detection is performed, and is installed so as to capture an image of the vehicle from the front side of the traveling vehicle.
[0016]
The monitor 3 receives a video signal from a detection area display control unit 2j of the image processing unit 2 to be described later, and an image obtained by combining the image processing detection area S with image data (camera image) captured by the monitoring camera 1. Is displayed (see FIG. 2). The two image processing detection areas S and S shown in FIG. 2 are a monitoring lane detection area and an oncoming lane detection area, respectively.
[0017]
The image processing unit 2 includes a CPU 2a, a ROM 2b, a RAM 2c, an image processing LSI 2d, a video decoder 2f, a frame memory controller 2g, a frame memory 2h, a memory 2e, a key operation unit 2i, a detection area display control unit 2j, an output port 2k, and the like. I have.
[0018]
The CPU 2a controls each functional unit of the image processing unit 2 (for example, the image processing LSI 2d, the frame memory controller 2g, the detection area display control unit 2j, etc.) according to the program written in the ROM 2b, and will be described later. Judgment processing] is executed. A RAM 2c, a key operation unit 2i, and an output port 2k are connected to the CPU 2a via a bus line.
[0019]
The key operation unit 2i can set parameters such as setting of an image processing detection area and setting of detection conditions such as a vehicle detection determination level.
[0020]
The video decoder 2f takes in the image data from the surveillance camera 1 according to a command from the CPU 2a and sends it to the detection area display control unit 2j and the frame memory controller 2g.
[0021]
The detection area display control unit 2j combines the image processing detection area data designated by the key operation unit 2i and supplied from the CPU 2a with the image data from the surveillance camera 1 (video decoder 2f), and displays the image shown in FIG. A camera image with the processing detection area S is displayed on the monitor 3. By operating the key operation unit 2i while viewing the display image on the monitor 3, it is possible to set / change the detection area for image processing.
[0022]
The frame memory controller 2g takes in the image data from the surveillance camera 1 through the video decoder 2f and sequentially stores it in the data storage area of the frame memory 2h. The image data stored in the frame memory 2h is read for each frame and sequentially output to the image processing LSI 2d. A data storage area for a plurality of frames is set in the frame memory 2h.
[0023]
The LSI 2d for image processing performs [projection processing in horizontal and vertical directions] in accordance with a command from the CPU 2a, and the CPU 2a performs [difference processing of projection processing data], [extraction of projection difference maximum value], [background Each image processing of [Data collection processing] is performed. Each process will be described below.
[0024]
[Horizontal and vertical projection processing]
For the image data captured from the monitoring camera 1, the light and shade projection processing in the image processing detection area S set by the key operation unit 2 i is executed for each frame. Specifically, as shown in FIG. 3, the projection processing of the input image data in the horizontal direction (V axis) (the total sum of gray values for each row in the horizontal direction: Vproj (v)) and the vertical direction of the input image data. Direction (on the H axis) projection processing (total sum of gray values for each column in the vertical direction: Hproj (h)) is executed for each frame.
[0025]
[Expression 1]
Figure 0004071610
[0026]
[Difference processing of projection processing data]
As shown in FIG. 4, the difference calculation (A−B and |) between the current projection processing data (A) at each point in the horizontal direction and the projection processing data (B) before that (one time before the number of times of image processing). (A−B |) and a difference calculation between the current projection processing data (A) at each point in the vertical direction and the projection processing data (B) before that (one time before the number of times of image processing) ( (A−B and | A−B |)). The data after the projection difference is, for example, a horizontal direction projection difference value and a vertical direction projection difference value as shown in FIGS.
[0027]
[Extraction of maximum projection difference]
Each maximum value of the horizontal direction projection difference value and the vertical direction projection difference value obtained by the above-described difference processing of the projection processing data is extracted (see FIG. 5).
[0028]
[Background data collection processing]
In the monitoring lane, moving average processing (for example, an average value of about 200 image processing times) is performed on the maximum horizontal and vertical projection difference values (including positive and negative signs) when no vehicle is detected. Obtain background data. The background data is sequentially stored and updated in the memory 2e each time an averaging operation is performed.
[0029]
Here, with regard to each of the above horizontal direction projection difference maximum value, vertical direction projection difference maximum value, and background data calculation, low-speed vehicle detection calculation and high-speed vehicle detection calculation to correspond to a wide range of vehicle speeds. It is preferable to perform both of the calculation processes.
[0030]
For example, in the case of calculation for low-speed car detection, the horizontal / vertical projection difference maximum value and the background data calculation processing interval (image processing interval) are set to 5 frame intervals. The interval of the vertical projection difference maximum value and the background data calculation processing (image processing interval) is defined as one frame interval. However, the calculation for low-speed vehicle detection and the calculation for high-speed vehicle detection are performed in parallel processing.
[0031]
The image processing LSI 2d performs the above-described [horizontal and vertical projection processing] and the like, and the CPU 2a performs [projection processing data difference processing], [projection difference maximum value extraction], and [background data collection processing]. In addition to the image processing of FIG. 8, when performing camera failure detection processing, which will be described later, histogram creation processing regarding the brightness (luminance) of the entire camera image is also performed.
[0032]
[Vehicle presence / absence judgment processing]
The CPU 2a determines the presence / absence of the vehicle using the maximum values of the horizontal direction projection difference value and the vertical direction projection difference value, and the background data.
[0033]
Specifically, each maximum value of the horizontal projection difference value (absolute value) and the vertical projection difference value (absolute value) of the monitoring lane is compared with the vehicle detection determination level, and the maximum difference value is equal to or higher than the vehicle detection determination level. If it is, it is determined that “there is a vehicle”.
[0034]
For example, when the maximum horizontal projection difference (absolute value) changes as shown in FIG. 6 for each image processing, the maximum horizontal projection difference (absolute value) is greater than or equal to the vehicle detection determination level. It is determined that “there is a vehicle”. Similarly, when the maximum vertical projection difference (absolute value) is equal to or higher than the vehicle detection determination level, it is determined that “there is a vehicle” (not shown). In FIG. 6, the interval between the image processing times is, for example, about 67 ms.
[0035]
The vehicle detection determination level is set by the key operation unit 2i while measuring the value of the projection difference value.
[0036]
Then, the CPU 2a synthesizes the determination result of the presence / absence of the vehicle in the horizontal and vertical directions, and outputs a vehicle detection signal as shown in FIG. 7 to the external device via the output port 2k. The vehicle presence / absence determination is performed by a logical sum of the vehicle presence / absence determination results in the horizontal direction and the vertical direction, and the vehicle detection signal outputs a pulse of at least 500 ms in consideration of the capture timing of the external control unit and noise removal. I have to.
[0037]
Note that the response time T (see FIG. 8) of the vehicle signal varies depending on the filter coefficient for preventing erroneous detection. The response time T is 0 to about 470 ms. In addition, the vehicle detection signal of FIG. 7 is a case where the filter coefficient for false detection prevention is 1 (T = 0 second).
[0038]
Here, in the vehicle detection process using the maximum horizontal / vertical direction projection difference (absolute value) described above, there is a possibility that erroneous detection occurs when vehicle detection is performed on a two-lane road (one-lane one-lane road). . That is, on a two-lane road, in the evening when the sun hits the sun or the morning when the sun hits, the shadow of the vehicle traveling in the oncoming lane may appear in the detection area (monitoring lane) of the target lane. Due to the influence of the above, there may be a false detection that a vehicle detection signal “vehicle present” is output even though the vehicle has not actually passed.
[0039]
In order to eliminate such erroneous detection, in this embodiment, a determination process based on background data using the two detection areas S (the detection area of the monitoring lane and the detection area of the opposite lane) shown in FIG. 2 is added.
[0040]
Specifically, using the fact that the shadow portion by the vehicle is darker than the brightness of the road surface (the road surface brightness when there is no vehicle), as described above, in the CPU 2a, the two detection areas S (the monitoring lane and the oncoming lane) When the vehicle is detected at the same time (when the shadow of the oncoming vehicle is in the monitoring lane detection area and there is a possibility of false detection), the maximum horizontal / vertical projection difference in the monitoring lane detection area (including positive and negative signs) ) And background data (including positive and negative signs) satisfies the following conditions of J1 and J2 to eliminate the influence of the shadow of the oncoming vehicle. However, the background data is a moving average process (for example, about 200 image processes) with respect to the horizontal / vertical projection difference maximum value (including positive and negative signs) when no vehicle is detected in the detection area of the monitoring lane. (Average number of times).
[0041]
In addition, when a vehicle is detected only in the detection area of the monitoring lane, there is no influence of the shadow of the oncoming vehicle, so that the above process is not performed and “vehicle detection” is determined. The oncoming lane detection area is provided to confirm a vehicle on the oncoming lane.
[0042]
J1: [Horizontal / vertical direction projection difference maximum value ≤ background data] → [determined as a shadow by a traveling vehicle in the oncoming lane]
J2: [Horizontal / vertical projection difference maximum value> background data] → [determined that the vehicle has passed through the detection area]
Here, when there is noise or the like in the image signal of the monitoring camera 1 or the processing system of the image processing unit 2, there is a possibility that the relationship between the above conditions may be temporarily broken. Therefore, in the present embodiment, the above condition J1 or J2 The accuracy of the vehicle detection is improved by checking whether or not the above relationship continues for a predetermined number of times (for example, the number of times of image processing is five).
[0043]
In the determination based on the above conditions, the maximum values of the maximum horizontal projection difference (including positive and negative signs) and the maximum vertical projection difference (including positive and negative signs) of the monitoring lane are compared with the background data. However, the maximum value of either the horizontal projection difference (including positive or negative sign) maximum value or the vertical projection difference (including positive or negative sign) maximum value is compared with the background data depending on the vehicle on the opposite lane. You may make it remove the influence of a shadow.
[0044]
The traveling vehicle detection system of the present invention can be effectively used for lighting control of a tunnel lighting system and a road information board.
[0045]
As an application example to the tunnel lighting system, the monitoring camera 1 of the traveling vehicle detection system shown in FIG. 1 is installed at the tunnel gate, and the monitoring range (image processing detection area S) is set at a position about 150 m in front of the tunnel. At the same time, the vehicle detection signal of the image processing unit 2 is sent to the controller of the tunnel lighting system, etc., and the surveillance camera 1 installed at the tunnel captures the traveling vehicle, and the vehicle is detected by the image processing unit 2. At that time, the lighting in the tunnel is set to 100% lighting, and after a certain period of time (time until the vehicle leaves the tunnel) after lighting, the lighting is adjusted to 10% or 50% lighting. Name the system.
[0046]
As described above, in the traveling vehicle detection system of the present invention, since it is possible to perform vehicle detection by installing a monitoring camera at a tunnel gate, facilities required in a conventional tunnel illumination system using a vehicle detection sensor For example, it is possible to eliminate the support for supporting the vehicle sensor on the road and the sensor wiring (150 m wiring), and the cost can be reduced.
[0047]
Next, as an application example to the lighting control of the road information board, the monitoring camera 1 of the traveling vehicle detection system shown in FIG. 1 is installed on the road information board, and the monitoring range (image processing detection area) is set to the road information board. The vehicle is set to a position about 150 m ahead and the vehicle detection signal of the image processing unit 2 is sent to the control unit of the road information board. The monitoring camera 1 installed on the road information board captures the traveling vehicle, and the image A system that displays road information when a vehicle is detected by the processing unit 2 can be mentioned. If such a lighting system is adopted, the support column and the sensor wiring (150 m wiring) of the vehicle detection sensor can be made unnecessary as in the above system, and the cost can be reduced. In addition, significant energy savings can be achieved on roads with low night traffic.
[0048]
[Camera failure detection processing]
An example of camera failure detection processing applied to the above traveling vehicle detection system will be described with reference to FIGS. Note that the reduction in camera sensitivity includes the case where the camera loses its monitoring function due to weather conditions such as heavy rain and fog in addition to the reduction in sensitivity of the camera itself.
[0049]
In the camera failure detection processing of this example, in image processing, a histogram relating to the brightness (luminance) of the entire camera image is created, and a decrease in camera sensitivity is detected by variation in the luminance data. The processing procedure will be described below.
[0050]
(1) A histogram relating to the brightness (luminance) of the entire camera image is created.
[0051]
A specific example of the histogram will be described. A normal camera image (for example, FIG. 9) in the daytime has a white line and a background of the center line, and therefore the luminance data is not uniform, and the histogram as shown in FIG. Become. On the other hand, histograms at night (no road lighting) when the vehicle is not traveling and histograms (daytime) when the camera sensitivity is lowered are as shown in FIGS. 11 and 12, respectively.
[0052]
(2) In the created histogram, the number of luminance values (N) in which the number of vertical axes is 0 or more is counted between the luminance values 0 to 255 on the horizontal axis, and the variation of the histogram is obtained.
[0053]
(3) Decrease in camera sensitivity based on the value of N. Specifically, when N <40, it is determined that “camera sensitivity is reduced” or “nighttime histogram”, and the camera sensitivity is returned to normal after N> 80. For example, in the histogram of FIG. 10, that is, the histogram at daytime, N = 200, and it can be determined that “camera sensitivity is normal”. On the other hand, in the histogram of FIG. 12 at daytime, N = 27 (N <40), and it can be determined that “camera sensitivity is reduced”.
[0054]
Here, the sensitivity reduction determination by the above histogram is a function that can be used only during daytime (it cannot be determined as a histogram as shown in FIG. 11 at night), and when the road illuminance is 100 LX or less, the sensitivity reduction determination is performed. A system configuration that does not operate the function is required.
[0055]
As such a system, for example, when a peripheral brightness is constantly detected using a photosensor such as CdS, and the sensor output value is a value corresponding to an illuminance on a road surface of 100 LX or less, a sensitivity reduction determination function And a system that operates the sensitivity decrease determination function when the value is equivalent to the illuminance on the road surface of 100 LX or more.
[0056]
In addition to the camera failure detection process as in this example, if a function to detect camera failure by detecting the synchronization signal of the camera image of the surveillance camera is added, the failure of the surveillance camera can be known with higher accuracy. be able to.
[0057]
In addition to the traveling vehicle detection system shown in FIG. 1, the camera failure detection process in this example includes, for example, an object detection system that detects an object (including a person) such as illegal dumping, and vehicle monitoring in a parking area. It can be applied to various other detection / monitoring systems using surveillance cameras, such as systems.
[0058]
【The invention's effect】
As described above, according to the traveling vehicle detection system of the present invention, the presence or absence of a vehicle in the detection area is detected based on the camera that captures the image of the detection area and the image data captured by the monitoring camera. An image processing unit is provided, and image data sequentially captured by the camera is subjected to image processing by grayscale projection processing to obtain the maximum difference value between the current projection processing data and the previous projection processing data, and vehicle detection The background data is obtained by performing a moving average process of the projection difference maximum value when not performing the determination, and the presence / absence of the vehicle is determined based on the difference maximum value of the projection process data and the background data, while erroneous detection by the oncoming vehicle is detected. In order to prevent this, detection areas are set in both the monitoring lane and the oncoming lane, the maximum difference value of the projection processing data is calculated for each detection area, and a predetermined determination level is set. In the monitoring lane and the oncoming lane, if the projection processing difference maximum value exceeds the determination level at the same time, the maximum difference value of the projection processing data in the detection area of the monitoring lane is larger than the background data. Sometimes it is determined that “there is a vehicle” and the maximum difference in the projection processing only in the detection area of the monitored lane exceeds the determination level. Even if the road on which the vehicle is implemented is a two-lane road (one-lane one-lane road), it is possible to remove the influence of the shadow of the vehicle in the opposite lane, and the traveling vehicle can be detected accurately.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of an image processing detection area set in image data.
FIG. 3 is an explanatory diagram of image data projection processing.
FIG. 4 is an explanatory diagram of a difference process of projection processing data.
FIG. 5 is a diagram showing projection difference values in the horizontal direction and the vertical direction.
FIG. 6 is an explanatory diagram of a vehicle presence / absence determination process.
FIG. 7 is an explanatory diagram of a vehicle detection signal.
FIG. 8 is a diagram illustrating a response time of vehicle detection.
FIG. 9 is a diagram illustrating an example of a camera image at daytime.
FIG. 10 is a diagram illustrating an example of a histogram relating to luminance of the entire camera image.
FIG. 11 is a diagram illustrating an example of a histogram relating to luminance of the entire camera image.
FIG. 12 is a diagram illustrating an example of a histogram relating to luminance of the entire camera image.
[Explanation of symbols]
1 Surveillance Camera 2 Image Processing Unit 2a CPU
2b ROM
2c RAM
2d Image processing LSI
2e Memory 2f Video decoder 2g Frame memory controller 2h Frame memory 2i Key operation unit 2j Detection area display control unit 2k Output port 3 Monitor

Claims (1)

検知領域の画像を撮像するカメラと、そのカメラにて撮像された画像データに基づいて検知領域内の車両の有無を検知する画像処理部を備え、その画像処理部は、前記カメラにて順次撮像される画像データを濃淡投影処理にて画像処理し、現時点の投影処理データとその前の投影処理データとの差分値の最大値を求めるとともに、車両検出をしていないときの投影差分最大値の移動平均処理を行って背景データを求め、それら投影処理データの差分最大値と背景データに基づいて車両の有無を判定する一方、対向車による誤検知を防止するために、監視車線と対向車線の両方に検知領域を設定し、それぞれの検知領域について、前記投影処理データの差分最大値を計算し、予め設定された判定レベル以上であるか否かを求め、監視車線と対向車線において、投影処理差分最大値が同時に判定レベルを超えた場合、監視車線の検知領域における前記投影処理データの差分最大値が背景データよりも大きいときに「車両有り」と判定し、かつ、監視車線の検知領域のみの投影処理差分最大値が判定レベルを超えた場合も、「車両有り」と判定するように構成されていることを特徴とする走行車両検知システム。A camera that captures an image of the detection area, and an image processing unit that detects the presence or absence of a vehicle in the detection area based on image data captured by the camera, and the image processing unit sequentially captures the image by the camera Image processing is performed with grayscale projection processing, the maximum difference value between the current projection processing data and the previous projection processing data is obtained, and the maximum projection difference value when the vehicle is not detected Performing moving average processing to obtain background data, and determining the presence or absence of a vehicle based on the maximum difference between the projection processing data and the background data, while preventing false detection by the oncoming vehicle, the monitoring lane and the oncoming lane Set detection areas for both, calculate the maximum difference of the projection processing data for each detection area, find out whether it is above the preset judgment level, and face the monitoring lane When the maximum projection processing difference value simultaneously exceeds the determination level on the line, it is determined that there is a vehicle when the maximum difference value of the projection processing data in the detection area of the monitoring lane is larger than the background data, and monitoring A traveling vehicle detection system configured to determine that “the vehicle is present” even when the maximum projection processing difference value of only the detection region of the lane exceeds a determination level .
JP2002354735A 2002-12-06 2002-12-06 Traveling vehicle detection system Expired - Fee Related JP4071610B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002354735A JP4071610B2 (en) 2002-12-06 2002-12-06 Traveling vehicle detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002354735A JP4071610B2 (en) 2002-12-06 2002-12-06 Traveling vehicle detection system

Publications (2)

Publication Number Publication Date
JP2004185537A JP2004185537A (en) 2004-07-02
JP4071610B2 true JP4071610B2 (en) 2008-04-02

Family

ID=32755636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002354735A Expired - Fee Related JP4071610B2 (en) 2002-12-06 2002-12-06 Traveling vehicle detection system

Country Status (1)

Country Link
JP (1) JP4071610B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4809019B2 (en) * 2005-08-31 2011-11-02 クラリオン株式会社 Obstacle detection device for vehicle
JP2007115191A (en) * 2005-10-24 2007-05-10 Sumitomo Electric Ind Ltd Vehicle-sensing system, inspection unit, and inspection method
JP2007164565A (en) * 2005-12-15 2007-06-28 Sumitomo Electric Ind Ltd System and device of vehicle sensing for traffic-actuated control
JP4946903B2 (en) * 2008-02-12 2012-06-06 トヨタ自動車株式会社 Vehicle background image collection device
JP2009251637A (en) * 2008-04-01 2009-10-29 Nishi Nihon Kosoku Doro Maintenance Kansai Kk Vehicle accident prevention robot and vehicle accident prevention system
JP5459324B2 (en) * 2012-01-17 2014-04-02 株式会社デンソー Vehicle periphery monitoring device

Also Published As

Publication number Publication date
JP2004185537A (en) 2004-07-02

Similar Documents

Publication Publication Date Title
WO2007111220A1 (en) Road division line detector
JP2009157087A (en) Exposure control apparatus and exposure control program
JP6139493B2 (en) License plate detection device and license plate detection method
JP4071610B2 (en) Traveling vehicle detection system
CN104008518B (en) Body detection device
JP3995671B2 (en) Image processing device
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JPH07257220A (en) Vigilance evaluation device for vehicle
JP2003030665A (en) Mobile object detector, mobile object detection method and program making computer execute the method
JP2010191888A (en) Image processing apparatus and traffic monitoring device
JP2970168B2 (en) Vehicle detection device
JP2004236087A (en) Monitoring camera system
JPH11219493A (en) Method for processing traffic information
JP2020204842A (en) Information processing device and drive supporting system
KR101969856B1 (en) Method and system for detecting ambient light
CN112243089B (en) Camera HDR image effect switch control method and device, rearview mirror, vehicle and storage medium
JP2001028745A (en) External monitoring device having fail/safe function
JP3268096B2 (en) Image-based stop vehicle detection method
JP2924256B2 (en) Vehicle dynamics measurement device
JP3224875B2 (en) Image-based signal ignoring vehicle detection method
JP2853367B2 (en) Vehicle dynamics measurement device
JP2853361B2 (en) Vehicle dynamics measurement device
JP2001216598A (en) Traffic flow measuring instrument
CN103909881A (en) Environment information detection system and environment information detection method
JP4052299B2 (en) Exposure control method and apparatus for camera-type vehicle detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071009

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140125

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees