以下、本発明の実施の形態について、図面を参照して説明する。
(第1の実施の形態)
本発明に係る画像処理方法および装置が採用する処理手順を実行する交通渋滞計測方法および装置で構成される交通管制システムの第1の実施例を、第1図〜第19図を参照しつつ以下に詳細に説明する。
第1図に示すように、交通管制システムは、交差点IS近傍に配置されたビデオカメラ11〜14、渋滞計測装置21〜24、信号機31〜34、信号制御装置41〜44および中継装置50、並びに、交差点ISからは遠く離れた所に位置する交通管制センター内に設けられた中央制御装置60を備えている。ビデオカメラ11〜14は、第2図に示すように、交差点IS近傍の路面から例えば高さ10mの位置に配置され、交差点近傍位置から150mの距離の3車線分の領域Yを撮影する。また本実施例においては、ビデオカメラ11〜14は、車両の進行方向下流側から上流側を撮影するように向けられている。
渋滞計測装置21〜24は、交差点ISに流入する車両の台数、速度および車種に基づいて交通流量を計測するとともに、渋滞範囲、言い換えれば渋滞長を計測することができる。渋滞計測装置21〜24のそれぞれは、第3図に示すように、CPU2、画像メモリ3、入力装置4、表示装置5、格納装置6、伝送装置7、RAM(Random Access Memory)8およびROM(Read−only Memory)9を備えている。
ビデオカメラ11〜14により撮影された画像データは、それぞれ渋滞計測装置21〜24のCPU2に伝送される。伝送された画像データはCPU2を介して画像メモリ3に格納される。ROM9には、渋滞検出に関する各種プログラムが格納されており、CPU2は、ROM9から必要なプログラムを読み出して、RAM8を作業エリアとして、プログラムを実行する。プログラムの実行により、画像メモリ3から必要な画像データが読み出され、この画像データに基づいて、種々の計算値が算出され、最終的には後述の状態状況の計測結果が算出される。プログラムの実行中に算出される各種計算値は、一時的に、画像メモリ3に記憶されるようになっている。渋滞状況の計測結果は、表示装置5、格納装置6および伝送装置7に出力される。表示装置5は、入力された渋滞状況を表示する。格納装置6は、入力された渋滞状況を格納する。伝送装置7は、入力された渋滞状況を中継装置50を通して、第1図に示された交通管制センターの中央制御装置60に送信する。入力装置4は、各種設定値や閾値を入力したり、これらを変更したりする際に用いられる入力手段である。
再び第1図において、交通管制センターの中央制御装置60は、渋滞計測装置21〜24の計測結果に基づいて、中継装置50を介して信号制御装置41〜44に信号制御パターンを送信する。例えば、ビデオカメラ11、13から画像データを入力する渋滞計測装置21、23が、ビデオカメラ12、14から画像データを入力する渋滞計測装置22、24よりも、長い渋滞範囲を計測した場合、中央制御装置60は、信号機31、33の青信号の時間間隔が、信号機32、34の青信号の時間間隔よりも長くなるような、信号制御パターンを信号制御装置41〜44に送出して、ビデオカメラ11、13により撮影されている道路上の渋滞を緩和させるようにしている。
ここで、上述のように構成される交通渋滞計測装置により実行される渋滞計測方法を、まず、第4図に示されるステップS1〜S8のフローチャートに従って、概略的に説明する。
ステップS1で、ビデオカメラにより撮影された画像上に複数のサンプル点を設定する。例えば、第6図に示される画像71がビデオカメラにより撮影された場合、サンプル点は「●」により示される。ステップS2で、時刻tnにおける画像上の、車両が存在していると推測されるサンプル点を、存在サンプル点として検出する。ステップS3で、時刻tnの画像上の、移動中の車両が存在していると推測されるサンプル点を、移動サンプル点として検出する。ステップS4で、所定の割合以上の移動サンプル点を含む互いに隣接する複数のサンプル点から構成される矩形のブロックを、移動ブロックとして検出する。ステップS5で、移動ブロックから外れた存在サンプル点を、渋滞サンプル点として検出する。ステップS6で、所定の割合以上の渋滞サンプル点を含む互いに隣接する複数のサンプル点から構成される矩形のブロックを、渋滞ブロックとして検出する。ステップS7で、渋滞ブロックに基づいて、時刻tnにおける計測領域内の交通渋滞の状況を計測する。ステップS8で、n←n+1として、ステップS2に戻る。「n」は、正の整数であり、|tn+1−tn|は一定である。したがって、上記ステップS2〜S7の各手順は一定の時間間隔で繰り返される。
第5図は、上記ステップS1〜S7における検出結果あるいは算出結果の概略的な関係を示す図である。これら検出結果あるいは算出結果の詳細は、後述する各ステップS1〜S7の詳細な説明により明らかになる。
上記ステップS1のサンプル点の設定について、下記に詳説する。
第6図に示された画像71は、同図の下側がビデオカメラから距離が近い領域に相当し、第6図の上側がビデオカメラから距離が遠い領域に相当する。また、画像71には3車線が示されており、画像71内の実線で示す矩形は車両を示している。第6図から理解されるように、サンプル点の道路横断方向の間隔が実際の道路上で等間隔になるようにサンプル点を道路横断方向に配置する。このようにサンプル点を配置するのは、道路横断方向では位置の歪みが小さく、また簡単に実際の長さに変換できるためである。
一方、車両走行方向については、ビデオカメラから遠い位置ではサンプル点の間隔を狭くし、近い位置ではサンプル点の間隔を広くする。このようにサンプル点を配置するのは、ビデオカメラ近傍では車両が大きく写るのでサンプル点が疎であってもその走行状態を検出できるが、遠方では車両が小さく写るのでサンプル点を密にしないとその走行状態を検出できないからである。例えば、計測範囲内のビデオカメラから最遠地点における走行方向のサンプル点間隔を画像上での1画素間隔とし、それより近いところでは、車両を検知できる程度にサンプル点間隔を広くする。この場合、予め決めておいたサンプル点のトータル数の上限値に応じて、サンプル点間隔を設定する。このようにしておくと、遠方での車両の走行状態の検出を確保できると共に、処理時間を短縮できる。そして、ビデオカメラから遠方である領域の検出を入力画像の限界まで確保しつつ、サンプル点数の上限を設定したことにより、検出処理を高速化させるともに、高価な専用ハードウェアを不要とすることができる。また、ビデオカメラの解像度を定数として設定するだけで様々な解像度のビデオカメラを簡単に利用することができる。このサンプル点の設定時に、ビデオカメラの路面上の位置から各車線に沿った各サンプル点までの実際の距離と、各車線に沿った各サンプル点間の実際の距離を、車線毎に格納装置6の記憶領域に作成された距離テーブルに記憶しておく。
次に、第4図のステップS2の存在サンプル点の検出手順を、第7図のステップS2a〜S2gのフローチャートに従って、下記に詳説する。
ステップS2aで、後述の二値化処理に用いる各閾値TH1を、ビデオカメラの道路上の位置から各サンプル点に対応する道路上の実際の各位置までの距離に応じて設定する。ステップS2bでは、時刻tnの画像のサンプル点に対応する画素のみからなるサンプル点画像を作成する。第8図は、サンプル点画像の一例を示す図であり、同図から理解されるように、サンプル点画像は、時刻tnの画像上のサンプル点を直行座標系に変換して構成されており、第8図に示すサンプル点の配列と同じ2次元配列のデータ形式メモリ上に記憶されるようになっている。また、サンプル点画像上のサンプル点に対応する各画素の輝度値は8ビットデータで表されるようになっている。
ステップS2bからステップS2cに進むと、サンプル点画像と基準輝度画像との各サンプル点の輝度値の差を表す輝度差分値を算出することにより差分画像を算出する。存在サンプル点検出の最初のフローにおける基準輝度画像は、車両に対する背景のみを描写したものであり、計測を開始する環境に近い状態において撮影されたものである。望ましくは、最初の基準輝度画像としては、渋滞計測領域内の道路上に車両が全く存在していない画像であることが望ましい。しかしながら、適切な基準輝度画像を予め準備するのは、天候の変化や時間経過により時々刻々と画像上の輝度が変化するため非常に困難であるため、実際には、車両が存在していないとみなすことができる画像、すなわち、実際には数台の車両が存在していたとしても、実際に車両が全く存在していない場合の画像と近似した画素データを有する画像であればよい。また、この基準輝度画像もサンプル点に対応する画素のみからなり、上述のサンプル点画像と同様に構成されている。
ステップS2dでは、ステップS2cでの差分画像を用いて、次の時刻tn+1 のサンプル点画像に対応する差分画像を算出するのに使われる基準輝度画像Bn+ 1を次式によって更新する。
Bn+1=Bn+η×(Xn−Bn) ...(i)
ここで、Xnは、時刻tnのサンプル点画像の各サンプル点の輝度値、Bnは、時刻tnのサンプル点画像に対応する差分画像を算出するのに使われた基準輝度画像の各サンプル点の輝度値、 Bn+1は、時刻tn+1のサンプル点画像の差分画像を算出するのに使われる輝度値とする。ηは可変値であり、|Xn−Bn|が大きいほど、あるいは、渋滞度が高いほど、小さくする。|Xn−Bn|が大きいほどηを小さくするのは、輝度変化が大きいほど車両が存在する可能性が高いからである。このときのηは、各サンプル点毎に設定される。一方、渋滞度が高いほどηを小さくするのは、渋滞中の車両の輝度を基準輝度画像に取り込まないようにするためである。このときのηは、車線毎あるいは所定の領域毎に設定する。渋滞度は後述の渋滞範囲の検出結果から判定する。
上式(i)で基準輝度画像を更新することにより、天候や時間経過に伴う日差しの変化に基準輝度画像を自動的に追随させることができる。また、上式(i)で基準輝度画像を更新するのは、ステップS2cで算出する「Xn−Bn」の計算値をそのまま利用することができ、計算量を削減することができるからである。なお、計算量が多くなるが、基準輝度画像の更新処理を次式(ii)を使ってステップS2cの直前に行ってもよい。
Bn+1=Bn+η×(Xn+1−Bn) ...(ii)
ステップS2eで、差分画像を車両進行方向にソーベル微分子で空間微分し、次いでステップS2fで、空間微分された差分画像のサンプル点の各微分値をステップS2aで設定された各閾値TH1で二値化する。この結果、サンプル点は、「0」レベルか「1」レベルのどちらかの値になる。「1」レベルのサンプル点には、車両が存在していると推測することができ、「0」レベルのサンプル点には、車両が存在していないと推測することができるので、ステップS2gで、「1」レベルのサンプル点を、存在サンプル点として検出する。このようにして検出された存在サンプル点の配置例を第9図に示す。
なお、上記ステップS2aにおける各閾値TH1は、ビデオカメラの道路上の位置からから遠い位置に対応するサンプル点の識別に用いられるものほど、小さくなるように設定するとよい。これは、ビデオカメラから遠い位置では近い位置に比べて画像がぼやけ、車両と背景との輝度差が小さくなるからである。このようにビデオカメラの道路上の位置から各サンプル点に対応する道路上の各位置までの実際の距離に応じて各サンプル点での閾値を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度で存在サンプル点を検出することができる。
次に、第4図のステップS3の移動サンプル点の検出手順を、第10図のステップS3a〜S3mのフローチャートに従って、下記に詳説する。なお、各ステップの説明において、第11図および第12図を参照すると理解が容易になる。
まず、ステップS3aで、サンプル点画像をM個の領域に分割する。本実施例では、ビデオカメラから遠い領域、中間距離の領域、近い領域の3つに分割するので、M=3になる。ステップS3bで、m番目の領域に対応する時間間隔αm、βmと、後述の二値化の閾値TH1、TH2を設定する。ここで、αm、βmは正の時間であり、α1<α2<α3、β1<β2<β3とする。このように、αm、βmを設定するのは以下の理由による。ビデオカメラから近い位置では遠い位置に比べて、画像における見かけ上の車両の移動は速くなる。よって、ビデオカメラから近い位置では車両の移動を短時間差の画像間の比較により十分に検出することができるので、ビデオカメラから近い位置にあるサンプル点に対するαm、βmの値は小さく設定する。一方、ビデオカメラから遠い位置では車両の移動を短時間差の画像間の比較では検出することが困難であるので、ビデオカメラから遠い位置にあるサンプル点に対するαm、βmの値は大きく設定する。また、αm、βmには、異なる値を用いてもよいが、通常は、αm=βmとするのが好ましい。
上記ステップS3bに続くステップS3cで、時刻tn、tn−αm、tn+βmに対応するサンプル点画像を作成する。ステップS3dで、時刻tnのサンプル点画像のm番目の領域と、時刻t−αmのサンプル点画像のm番目の領域との輝度の差を表す第1の差分領域を算出する。ステップS3eでに、第1の差分領域をステップS3bで設定された閾値TH1で二値化し、第1の特徴抽出領域を算出する。この結果、第1の特徴差分領域のサンプル点の値は「0」レベルか「1」レベルの何れかになる。
ステップS3fで、時刻tnのサンプル点画像のm番目の領域と、時刻tn+βmのサンプル点画像のm番目の領域との輝度の差を表す第2の差分領域を算出する。ステップS3fからステップS3gに進み、第2の差分領域をステップS3bで設定された閾値TH2で二値化し、第2の特徴抽出領域を算出する。この結果、第2の特徴抽出領域のサンプル点の値は「0」レベルが「1」レベルの何れかになる。
ステップS3gに続くステップS3hとステップS3iとにより、m=Mになるまで、ステップS3b〜S3gが繰り返される。この結果、3つの第1の特徴抽出領域と3つの第2の特徴抽出領域が算出される。ステップS3jでは、全部の第1の特徴抽出領域を結合して、第1の特徴抽出画像を作成する。同様に、ステップS3kでは、全部の第2の特徴抽出領域を結合して、第2の特徴抽出画像を作成する。
ステップS31では、第1の特徴抽出画像と第2の特徴抽出画像との論理積をとって、積画像を作成し、ステップS3mでは、積画像の「1」レベルのサンプル点を、移動サンプル点として検出する。第1、第2の特徴抽出画像と積画像の関係は、第12図に例示される。
上述のように、時刻tnの前後の画像を使って、移動サンプル点を検出するのは、時刻tnの前あるいは後だけの画像を使って移動サンプル点を検出しようとすると、第12図の第1または第2の特徴抽出画像から分かるように、時刻tnの画像には存在していない移動車両が特徴抽出画像に残り、第1の特徴抽出画像だけから、あるいは、第2の特徴抽出画像だけからでは、正確な移動サンプル点を検出することができないからである。
なお、この移動サンプル点の検出処理において、時間間隔αm、βmを調整することにより、例えば20km/h以下の低速で移動する車両についてのサンプル点が移動サンプル点として検出されないようにすることも可能であり、このようにαm、βmを設定することにより、本実施例を低速車両による渋滞の検出にも適用することができる。
次に、第4図のステップS4の移動ブロックの検出手順を、第13図のステップS4a〜S4jのフローチャートに従って、下記に詳説する。
ステップS4aで、計算開始位置を、サンプル点画像の左上角に設定する。候補ブロックとは、それぞれが時刻tnのサンプル点画像を部分的に構成する縦横に隣接して並ぶサンプル点からなる矩形のブロックであり、移動ブロックの検出対象になるブロックである。ステップS4bで、ビデオカメラの道路上の位置からの各候補ブロックに対応する道路上の各位置までの距離に応じたブロックサイズおよび閾値TH1を設定する。
ステップS4cで、候補ブロック内に含まれるサンプル点の総数に対する移動サンプル点の割合を算出し、ステップS4dで、候補ブロック内の移動サンプル点の割合がステップS4bで設定された閾値TH1より大きいか否かが判定される。ステップS4dの判定が「YES」であれば、ステップS4dからステップS4eに進み、候補ブロックを移動ブロックとして検出する。ステップS4dの判定が「NO」であれば、ステップS4dからS4fに進む。ステップS4fとステップS4gによって、右方向(道路横断方向の右)に1サンプル点ピッチで並ぶ各候補ブロック全部に対して、ステップS4c〜S4eが繰り返される。
ステップS4fに続くステップS4hでは、候補ブロックの計算開始位置をサンプル点画像の最左端に移勧する。ステップS4iとステップS4jによって、ステップS4b〜S4hが繰り返される。すなわち、横一列分ずつの候補ブロックに対する検出処理が下方向(車両走行方向の手前)に繰り返される。この結果、サンプル点画像に含まれる全ての候補ブロックに対して検出処理が実行され、サンプル点画像に含まれる移動ブロックを全て検出することができる。
第14図は、互いに部分的に重なり合う二つの移動ブロックが検出された例を示している。第14図に示された移動ブロックは、縦5列、横3列のサンプル点から構成され、「◎」が移動サンプル点、「○」が移動サンプル点以外のサンプル点を示す。検出された移動ブロック内の移動サンプル点の割合は60%であり、このときの、移動ブロック検出の判定基準である閾値TH1は55%である。なお、第14図に示すように、移動ブロック内に入らない移動サンプル点はノイズとして除去する。
上記ステップS4bにおける候補ブロックのサイズ、すなわち、候補ブロックに含まれるサンプルの総数と、閾値TH1は以下のように設定するとよい。候補ブロックのサイズは、画像上に描写される平均的な車両のサイズにほぼ一致させるように設定し、結果的に移動ブロックがサンプル点画像上で一つの車両を表すようにする。このため、ビデオカメラから遠い領域では、車両が小さい像として得られるので候補ブロックの大きさを小さく設定し、ビデオカメラから近い領域では、車両が大きい像として得られるのでブロックの大きさを大きくする。一方、閾値TH1は、ビデオカメラから遠い領域では隣接する画素間の輝度差が小さいので小さくし、ビデオカメラから近い領域では逆に大きくする。このようにすることにより、ビデオカメラからの距離に影響されることなく、すべての領域において同程度の精度で移動ブロックを検出することができる。
第4図のステップS5では、上記の移動ブロックから外れた存在サンプル点を、渋滞サンプル点として検出する。第15図は、渋滞サンプル点の検出例を示している。第15図において、「●」は存在サンプル点、「○」は存在サンプル点以外のサンプル点、「☆」は渋滞サンプル点を示している。
次に、第4図のステップS6の渋滞ブロックの検出手順を、第16図のステップS6a〜S6jのフローチャートに従って、下記に詳説する。
ステップS6aで、計算開始位置を、サンプル点画像の左上角に設定する。候補ブロックとは、それぞれが時刻tnのサンプル点画像を部分的に構成する縦横に隣接して並ぶサンプル点からなる矩形のブロックであり、渋滞ブロックの検出対象になるブロックである。ステップS6bで、ビデオカメラの道路上の位置からの各候補ブロックに対応する道路上の各位置までの距離に応じたブロックサイズおよび閾値TH1を設定する。
ステップS6cで、候補ブロック内のサンプル点の総数に対する渋滞サンプル点の数の割合を算出し、ステップS6dで、候補ブロック同の渋滞サンプル点の割合がステップS6bで設定された閾値TH1より大きいか否かが判定される。ステップS6dでの判定が「YES」であれば、ステップS6dからステップS6eに進み、候補ブロックを渋滞ブロックとして検出する。ステップS6dでの判定が「NO」であれば、ステップS6dからS6fに進む。
ステップS6fとステップS6gによって、右方向(道路横断方向の右)に1サンプル点ピッチで並ぶ各候補ブロック全部に対して、ステップS6c〜S6eの各動作が繰り返される。
ステップS6fからステップS6hに進むと、候補ブロックの計算開始位置をサンプル点画像の最左端に移動する。ステップS6iとステップS6jによって、ステップS6b〜S6hが繰り返される。すなわち、横一列分ずつの候補ブロックに対する検出処理が下方向(車両走行方向の手前)に繰り返される。この結果、サンプル点画像に含まれる全ての候補ブロックに対して検出処理が実行され、サンプル点画像に含まれる渋滞ブロックを全て検出することができる。
第17図は、互いに部分的に重なり合う二つの渋滞ブロックが検出された例を示している。第17図に示された渋滞ブロックは、縦5列、横3列のサンプル点から構成され、「☆」が渋滞サンプル点、「○」が渋滞サンプル点以外のサンプル点を示す。このときの、渋滞ブロック検出の判定基準である閾値TH1は45%であり、第17図に示す検出された渋滞ブロックの渋滞サンプル点の割合は、47%である。なお、第17図に示すように、渋滞ブロック内に入らない渋滞サンプル点はノイズとして除去する。
上記ステップS6bにおける候補ブロックのサイズと、閾値TH1は前述の移動ブロックの検出処理における設定と同様にすればよい。候補ブロックのサイズは、画像上に描写される平均的な車両のサイズにほぼ一致させるように設定し、結果的に渋滞ブロックがサンプル点画像上で一つの車両を表すようにする。このため、ビデオカメラから遠い領域では、車両が小さい像として得られるので候補ブロックの大きさを小さく設定し、ビデオカメラから近い領域では、車両が大きい像として得られるのでブロックの大きさを大きくする。一方、閾値TH1は、ビデオカメラから遠い領域では隣接する画素間の輝度差が小さいので小さくし、カメラから近い領域では逆に大きくする。このようにすることにより、カメラからの距離に影響されることなく、すべての領域において同程度の精度で渋滞ブロックを検出することができる。
次に、第4図のステップS7の渋滞状況の計測手順を、第18図のステップS7a〜S7cのフローチャートに従って、下記に詳説する。
ステップS7aで、車線毎に渋滞ブロックが存在するエリアを渋滞範囲と検出する。各渋滞ブロックエリアには、単独の渋滞ブロック、互いに連結あるいは互いに重なり合う複数の渋滞ブロックが存在する。第19図は、計測領域内の渋滞ブロックが存在する領域の一例を示している。もし、2車線に跨った渋滞ブロックがあるときは、その存在範囲が大きい方の車線に渋滞ブロックが存在するものと判定する。
ステップS7bで、各車線にて検出した渋滞範囲を、前述の距離テーブルを参照して、実際の道路上の距離に変換する。ステップS7cで、過去の渋滞位置のプロファイルから、急激な渋滞位置の変動をノイズとして除去し、渋滞位置を平滑化する補正処理を行うことにより、渋滞範囲を補正して、渋滞状況の最終的な計測結果として出力する。
上述の実施例によれば、画像の全ての画素の輝度データを処理せずに、特定のサンプル点に対応する画素のみの輝度データを処理しているので、計算処理に要するデータ量を大幅に削減することができ、結果的に装置のハード構成を簡素化することができ、コストを低減することができる。また、高速処理が可能になって、リアルタイムの渋滞計測が可能になる。詳細には、計測結果を1〜2秒以内(時間差分の最大時間間隔+処理時間)のほぼリアルタイムで出力できるので、交通管制の分野において、本実施例のように渋滞長に応じて青または黄信号時間を調整するような交通管制システムに利用すると非常に効果的である。また、上記実施例の説明から理解されるように、事前の学習をほとんどすることなく、装置を設定してから直ぐに精度良い渋滞計測が可能になり、また、環境の変化、例えば、計測地点、時間帯、天候、交通量等の変化に関わらずに安定して渋滞状況を計測することができ、しかも渋滞の長さも簡単に検出することができる。
さらにまた、各種判定の基準になる閾値等の各種パラメータを、ビデオカメラの道路上の位置から各サンプル点に対応する道路上の各位置までの距離に応じて変化させているので、高精度の渋滞計測が可能になる。また、上記パラメータを各サンプル点のビデオカメラからの距離により自動的に検出できるため、交通管制システムの管理運用上の有効である。さらにまた、最後の出力段階まで車線位置を考慮する必要がなく、2車線に跨った渋滞車両の計測も可能になり、安定した渋滞計測が可能になる。また、検出された移動サンプル点および渋滞サンプル点から、移動ブロックおよび渋滞ブロックの形式、すなわち、移動車両および渋滞車両を移動車群および渋滞車群として検出しているので、移動ブロックおよび渋滞ブロックから外れた移動サンプル点および渋滞サンプル点を、ノイズとして簡単に除去することができる。
さらに、道路上に計測可能な距離だけ隔てて本実施例のビデオカメラと渋滞計測装置を、複数個連ねて配置するようにすれば、長距離にわたる連続した渋滞状況を計測することもできる。さらに、本実施例は、計測領域内の一部の計測結果から計測領域の全体の渋滞状況を推定しているのではなく、計測領域全体の渋滞状況を直接的に計測しているので、計測領域内で事故や車両故障が発生した場合に、直ちにそれを検知することもできる。
なお、上記の詳細な実施例の説明から理解されるように、本実施例は、本発明の画像処理方法および装置の好適な実施例でもある。
次に、上記の道路渋滞状況計測装置を、1995年、東京、大阪の2カ所の地点において設定して、計測を行った結果を以下に説明する。
(東京での計測結果)
(A)計測条件
場所:東京の内幸町交差点
環境:天候(晴、曇、雨)、時間帯(昼間、薄暮、夜間)、交通量(軽交通、重交通)の点を考慮して次の6つの異なる環境で行った。
(1) 8月2日 15:00〜17:00 (昼間、曇のち雨、重交通)
(2) 8月2日 18:30〜20:30 (薄暮・夜間、曇、重交通)
(3) 8月3日 14:45〜16:45 (昼間・晴、重交通)
(4) 8月3日 18:30〜20:30 (薄暮・夜間、晴、重交通)
(5) 8月5日 15:00〜17:00 (昼間・曇、軽交通)
(6) 8月5日 18:30〜20:30 (薄暮・夜間、曇、軽交通)
(B)計測方法
計測領域:カメラの設置位置から長さ150mの2車線を設定した。
渋滞の判定:低速走行車両は渋滞中にあると見なした。
渋滞の途中が動いており、その後に渋滞が続いている場合には最遠の渋滞位置を渋滞末尾とした。渋滞位置を1秒毎に出力し、5分間毎の渋滞長のピーク値の平均値を計測した。この平均値を計測値のピーク値の平均値とする。
(C)計測評価の基準
渋滞計測精度を以下の式に基づいて算出した。但し、真値のピーク値の平均値とは、信号サイクル毎に渋滞長のピーク値を求め、その5分間毎のピーク値の平均値を示す。
渋滞計測精度(%)={計測値のピーク値の平均渋滞長(m)÷ 真値のピーク値の平均渋滞長(m)}×100 ... (iii)
(D)精度評価 上記(1)〜(6)の環境時における渋滞計測精度の結果は以下のようであった。
(1):95.4% (2):96.4% (3):98.6%
(4):95.5% (5):98.2% (6):95.7%
何れの環境下においても、ほぼ真値どおりに渋滞状況を計測できており、渋滞長のピーク値も95%以上の計測精度が得られた。
(大阪での計測結果)
(A)計測条件
場所:枚方の国道1号出屋敷南交差点
環境:天候(晴れ、雨)、時間帯(昼間、薄暮、夜間)の点を考慮して 次の5つの異なる環境で行った。
(1)8月30日 20:45〜21:15 (夜間、雨)
(2)8月31日 10:20〜10:50 (昼間、雨)
(3)9月 4日 11:00〜11:30 (昼間、晴)
(4)9月 4日 18:20〜18:50 (薄暮、晴)
(5)9月 4日 19:30〜20:00 (夜間、晴)
(B)計測方法
計測領域:カメラの設置位置から長さ100mの2車線を設定した。
渋滞の判定:低速走行車両は渋滞中にあると見なした。渋滞の途中が動いており、その後に渋滞が続いている場合には最遠の渋滞位置を渋滞末尾とした。
渋滞位置:2車線のうち、よりビデオカメラ近くに発生した渋滞位置渋滞先頭位置とし、よりビデオカメラ遠くに発生した渋滞位置を渋滞末尾位置とした。渋滞位置の出力値はカメラ位置からの距離に対して、次のようにした。
カメラ位置からの距離 x(m) 出力値(m)
0<x≦10 10
10<x≦20 20
20<x≦30 30
30<x≦40 40
40<x≦50 50
50<x≦60 60
60<x≦75 75
75<x≦100 100
渋滞位置を1秒毎に出力した。
(C)真値の計測
8月30日、31日においては、ビデオカメラ位置から10、20、30、40、50、60、100m地点の渋滞位置の真値をカメラ画像から目視計測した。9月4日においては、50、75、100m地点に計測員を配置して渋滞位置の真値を計測し、ビデオカメラ位置から10、20、30、40、60m地点の渋滞位置の真値をカメラ画像から目視計測した。
(D)計測評価の基準
本発明の手法による計測値と上述の手法による真値とについて、以下の式にて総停止時間を求め、その比を渋滞計測精度として算出した。
総停止時間(m・秒)=渋滞長(m)×時間(秒)
={渋滞末尾位置(m)−渋滞先頭位置(m)} ×時間(秒)...(iv)
渋滞計測精度(%)={計測値の総停止時間(m・秒)
÷ 真値の総停止時間(m・秒)}×100 ...(v)
(E)精度評価 上記(1)〜(5)の環境時における計測値の総停止時間(a)、真値の総停止時間(b)、渋滞計測精度(c)の結果は以下のようであった。
(a)(m・秒) (b)(m・秒) (c)(%)
(1) 42350 43775 96.7
(2) 36620 37135 98.6
(3) 38755 39030 99.3
(4) 45940 46695 98.4
(5) 44690 46465 96.2
何れの環境下においても、ほぼ真値どおりに渋滞状況を計測できており、総停止時間も96%以上の計測精度が得られた。
以上のように、何れの場合にあっても、精度評価の結果が示すように、計測地点、時間帯、天候及び交通量に関わらず、安定した渋滞長、渋滞位置の計測を行えている。
(第2の実施例)
本発明に係る画像処理方法および装置が採用する処理手順を実行する交通渋滞計測方法および装置により構成される交通管制システムの第2の実施例を、第20図から第45図を参照しつつ以下に詳細に説明する。
第20図に示すように、交通管制システムの第2の実施例は、ビデオカメラ81、渋滞計測装置82、情報表示板91、表示制御装置92および交通管制センター内の中央制御装置100により構成される。ビデオカメラ81同士は互いに所定の間隔で高速道路上に配置されている。また、各ビデオカメラ81は、第21図に示すように、車両の進行方向上流側から下流側に向けて配置、すなわち、車両の後面サイドを撮影するように配置されている。このようにビデオカメラの向きを設定すると、渋滞範囲の末尾位置をより正確に計測することができる。逆に、渋滞範囲の開始位置をより正確に計測するためには、ビデオカメラを車両の進行方向下流側から上流側に向けて配置、すなわち、車両の前面サイドを撮影するように配置すればよい。
情報表示板91は、ビデオカメラ81よりも車両進行方向上流側の高速道路上に、車両進行方向上流側に向けて配置されている。渋滞計測装置82は、第3図に示した第1の実施例の渋滞計測装置21〜24と同様な構成になっているので、重複説明をさけるため、ここではその説明は省略するが、計測を実行するための各種プログラムや初期設定値は、第1実施例のものとは勿論異なるものである。本実施例の渋滞計測装置82は、第21図に示される空間計測領域E、交通流計測領域Fの渋滞状況を計測するものである。交通流計測領域Fは、ビデオカメラ81から車両の進行方同に10m離れた位置から、車両の進行方向に30mの位置までの4車線分の範囲に相当する。また、この交通流計測流域Fでは、車両の識別とともに、感知ラインDL上の車両の通過台数、速度、車長、車種等、通過台数、を計測することができる。この交通流計測領域Fでの計測手法については、特開平5−307695号公報に記載されているので、ここでは、その説明は省略する。
一方、空間計測領域Eは、ビデオカメラから車両の進行方向に10m離れた位置から、車両の進行方向に200mまでの2車線分の範囲に相当する。この空間計測領域Eにおける計測手法は、以下に詳述されるが、空間密度、空間速度、渋滞末尾位置を計測するためのものである。
渋滞計測装置82の計測結果は、交通管制センターの中央制御装置100に送信される。中央制御装置100では、受信した計測結果に基づいて、高速道路上のドライバーにとって有益となる交通情報を作成して、表示制御部92に送信し、情報表示板91に交通情報が表示されるようになっている。
ここで、上述のように構成される渋滞計測装置82により実行される空間密度の算出方法を、まず、第22図に示されるステップP1〜P16のフローチャートに従って、概略的に説明する。
ステップP1で、時刻tnにおけるサンプル点画像を作成するとともに、画像内にサンプルラインを設定する。その作成方法については、前述の第1の実施例のサンプル点画像と同様であり、重複説明を避けるため、ここではその説明は省略する。サンプルラインは、道路横断方向に並ぶ車線幅分のサンプル点により構成される。第24図は、サンプル点画像上におけるサンプル点とサンプルラインとの関係を示している。
また、ステップP1に続くステップP2、P3もそれぞれ、前述の第7図のステップS2c、S2dと同様の処理であり、重複説明を避けるため、ここでの説明は省略する。
ステップP4およびステップP5のそれぞれで、差分画像に基づいて、差分サンプルラインおよびエッジサンプルラインをそれぞれ検出する。ステップP6では、ステップP4およびステップP5でそれぞれ検出された差分サンプルラインおよびエッジサンプルラインに基づいて、存在サンプルラインを検出する。ステップP6に続くステップP7では、存在サンプルラインの配置に基づいて存在サンプルラインを補正し、ステップP8では、ステップP4で検出された差分サンプルラインの配置に基づいて、存在サンプルラインを補正する。
ステップP9では、時刻tn、時刻tn−αm、時刻tn+βmのサンプル点画像に基づいて、移動サンプルラインを検出する。ステップP10では、移動サンプルラインの配置に基づいて、存在サンプルラインを補正する。
ステップP11では、計測領域を複数のメッシュに分割し、ステップP12では、ステップP10で補正された存在サンプルラインに基づいて、時刻tnにおけるメッシュ毎の空間密度を算出する。
ステップP13では、時刻tnの計測領域における大型車両の混入率を算出し、ステップP14で、時刻tnの計測領域における車間距離を算出し、ステップP15で、大型車の混入率および車間距離に基づいて、空間密度を補正する。
ステップP16で、n←n+1として、ステップP1に戻る。「n」は、正の整数であり、|tn+1−tn|は一定である。したがって、上記ステップP1〜P16の各手順は一定の時間間隔で繰り返される。
第23図は、上記ステップP1〜P15における検出結果あるいは算出結果の概略的な関係を示す図である。これら検出結果あるいは算出結果の詳細は、後述する各ステップP1〜P15の詳細な説明により明らかになる。
次に、第22図のステップP4の差分サンプルラインの検出手順の第1例を、第25図に示すステップP4a〜P4jのフローチャートに従って、以下に詳説する。
ステップP4aで、M個のサンプル点からなるk番目のサンプルラインのビデオカメラからの距離に基づいて、正の閾値TH1、負の閾値TH2および正の整数閾値TH3を設定する。ステップP4bで、k番目のサンプルラインのm番目のサンプル点の輝度差分値が、TH1より大か否かが判別される。ここで、輝度差分値は、第22図のステップP2で算出された差分画像の各サンプル点の値を指す。
ステップP4bでの判定が「YES」であれば、ステップP4dに進み、ステップP4bでの判定が「NO」であれば、ステップP4cに進む。ステップP4cでは、k番目のサンプルラインのm番目のサンプル点の輝度差分値がTH2より小さいか否かを判定する。ステップP4cでの判定が「YES」であれば、ステップP4dに進み、ステップP4cの判定が「NO」であれば、ステップP4eに進む。
ステップP4dでは、k番目のサンプルラインのm番目のサンプル点のフラグを「ON」にして、ステップP4eに進む。ステップP4eとステップP4fにより、ステップP4b〜P4dの動作が、m=Mになるまで繰り返される。この繰り返しにより、k番目のサンプルラインの全てのサンプル点の輝度差分値について、正の閾値TH1より大か、あるいは、負の閾値TH2より小かが判別される。
ステップP4gでは、k番目のサンプルラインの「ON」のフラグ数がTH3より大か否かを判定する。ステップP4gでの判定が「YES」であれば、ステップP4hに進み、k番目のサンプルラインを、差分サンプルラインとして検出する。ステップP4gの判定が「NO」であれば、ステップ4iに進む。ステップP4iとステップP4jにより、ステップP4a〜P4hの動作が、k=Kになるまで繰り返される。ここでKは計測領域内の1車線分のサンプルライン数を表す。この繰り返し動作により、計測領域の一車線分の全ての差分サンプルラインが検出される。
ステップP4aにおける正の閾値TH1は、ビデオカメラから遠い位置のサンプルラインに対応するものほど小さく、逆に負の閾値TH2は、ビデオカメラから遠い位置のサンプルラインに対応するものほど大きくなるように設定するとよい。これは、ビデオカメラから遠い位置では近い位置に比べて画像がぼやけ、車両と背景との輝度差が小さくなるからである。このようにビデオカメラからの距離に応じてTH1、TH2を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度で差分サンプルラインを検出することができる。ステップP4aにおける正の整数閾値TH3は、輝度差の変化が少ないビデオカメラから遠い領域では小さくし、輝度差の変化が大きいカメラから近い領域では逆に大きくする。このようにすることにより、カメラからの距離に影響されることなく、すべての領域において同程度の検出レベルで差分サンプルラインを検出することが可能になる。
次に、第22図のステップP4の差分サンプルラインの検出手順の第2例を、第26図に示すステップP4A〜P4Hのフローチャートに従って、以下に詳説する。
ステップP4Aで、k番目のサンプルラインのビデオカメラからの位置に基づいて、第1、第2の正の閾値TH1、TH2と、第1、第2の負の閾値TH3、TH4を設定する。なお、TH4<TH3<0<TH1<TH2である。このように閾値を、正負を分けて設定するのは、以下の理由による。すなわち、各サンプルラインに含まれるサンプル点の輝度差分値は、正の値のものあれば、負の値のものもある。これを、正、負の区別なく処理しようとすると、正、負の輝度差分値同士の相殺が生じたりノイズを拾い易くなったりして、これらの影響により誤検出し易くなる。このような誤検出を避けるために、上述の閾値を正、負に分けて、正の輝度差分値と負の輝度差分値を別に処理するようにしている。
ステップP4Bでは、k番目のサンプルラインのサンプル点のうち、第1の正の閾値TH1より大きなサンプル点の輝度差分値の平均値PMを算出する。P4Cでは、k番目のサンプルラインのサンプル点のうち、第1の負の閾値TH3より小さなサンプル点の輝度差分値の平均値NMを算出する。
ステップP4CからステップP4Dに進み、平均値PMが第2の正の閾値TH2より大か否かが判定される。ステップP4Dでの判定が「YES」であれば、ステップP4Fに進み、ステップP4Dでの判定が「NO」であれば、ステップP4Eに進む。ステップP4Eでは、平均値NMが第2の負の閾値TH4より小か否かが判別される。ステップP4Eでの判定が「YES」であれば、ステップP4Fに進み、k番目のサンプルラインを差分サンプルラインとして検出する。ステップP4Eの判定が「NO」であれば、ステップ4Gに進む。ステップP4GとステップP4Hにより、ステップP4A〜P4Fの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の全ての差分サンプルラインが検出される。
ステップP4Aにおける正の閾値TH1、TH2は、ビデオカメラから遠い位置のサンプルラインに対応するものほど小さく、逆に負の閾値TH3、TH4は、ビデオカメラから遠い位置のサンプルラインに対応するものほど大きくなるように設定するとよい。このようにビデオカメラからの距離に応じてTH1〜TH4を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度にて差分サンプルラインを検出することができる。
次に、第22図のステップP5のエッジサンプルラインの検出手順の第1例を、第27図に示すステップP5a〜P5kのフローチャートに従って、以下に詳説する。
ステップP5aで、第22図のステップP2で算出された差分画像を車両進行方向にソーベル微分子で空間微分して、各サンプル点の空間微分値を算出する。ステップP5bでは、k番目のサンプルラインのビデオカメラからの位置に基づいて、正の閾値TH1、負の閾値TH2、正の整数閾値TH3を設定する。
ステップP5bに続くステップP5cでは、k番目のサンプルラインのm番目のサンプル点の空間微分値がTH1より大か否かが判定される。ステップP5cでの判定が「YES」ならば、ステップP5eに進み、ステップP5cでの判定が「NO」であれば、ステップP5dに進む。ステップP5dでは、k番目のサンプルラインのm番目のサンプル点の空間微分値がTH2より小か否かが判定される。ステップP5dでの判定が「YES」であれば、ステップP5eに進み、ステップP5dでの判定が「NO」であれば、ステップP5fに進む。
ステップP5cあるいはステップP5dからステップP5eに進むと、k番目のサンプルラインのm番目のフラグを「ON」にして、ステップP5fに進む。ステップP5fとステップP5gにより、ステップP5c〜P5eの動作が、m=Mになるまで繰り返される。この繰り返しにより、k番目のサンプルラインの全てのサンプル点の空間微分値について、正の閾値TH1より大か、あるいは、負の閾値TH2より小かが判定される。
ステップP5fからステップP5hに進むと、「ON」のフラグ数が正の整数閾値TH3より大か否かが判別される。ステップP5hでの判定が「YES」であれば、ステップP5iに進み、k番目のサンプルラインをエッジサンプルラインとして検出する。ステップP5hでの判定が「NO」であれば、ステップP5jに進む。ステップP5jとステップP5kにより、ステップP5b〜P5iの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の全てのエッジサンプルラインが検出される。
ステップP5bにおける正の閾値TH1は、ビデオカメラから遠い位置のサンプルラインに対応するものほど小さく、逆に負の閾値TH2は、ビデオカメラから遠い位置のサンプルラインに対応するものほど大きくなるように設定するとよい。このようにビデオカメラからの距離に応じてTH1、TH2を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度にてエッジサンプルラインを検出することができる。ステップP5bにおける正の整数閾値TH3は、輝度差の変化が少ないビデオカメラから遠い領域では小さくし、輝度差の変化が大きいカメラから近い領域では逆に大きくする。このようにすることにより、カメラからの距離に影響されることなく、すべての領域において同程度の検出レベルでエッジサンプルラインを検出することが可能になる。
次に、第22図のステップP5のエッジサンプルラインの検出手順の第2例を、第28図に示すステップP5A〜P51のフローチャートに従って、以下に詳説する。
ステップP5Aで、第22図のステップP2で算出された差分画像を車両進行方向にソーベル微分子で空間微分して、各サンプル点の空間微分値を算出する。
ステップP5Bで、k番目のサンプルラインのビデオカメラからの位置に基づいて、第1、第2の正の閾値TH1、TH2、第1、第2の負の閾値TH3、TH4を設定する。なお、TH4<TH3<0<TH1<TH2である。このように閾値を、正負を分けて設定するのは、以下の理由による。すなわち、各サンプルラインに含まれるサンプル点の空間微分値は、正の値のものあれば、負の値のものもある。これを、正、負の区別なく処理しようとすると、正、負の空間微分値同士の相殺が生じたりノイズを拾い易くなったりして、これらの影響により誤検出し易くなる。このような誤検出を避けるために、上述の閾値を正、負に分けて、正の空間微分値と負の空間微分値を別に処理するようにしている。
ステップP5Cでは、k番目のサンプルラインのサンプル点のうち、第1の正の閾値TH1より大きなサンプル点の空間微分値の平均値PMを算出する。P5Dでは、k番目のサンプルラインのサンプル点のうち、第一の負の閾値TH3より小さなサンプル点の空間微分値の平均値NMを算出する。
ステップP5DからステップP5Eに進み、平均値PMが第2の正の閾値TH2より大か否かが判別される。ステップP5Eでの判定が「YES」であれば、ステップP5Gに進み、ステップP5Eでの判定が「NO」であれば、ステップP5Fに進む。ステップP5Fでは、平均値NMが第2の負の閾値TH4より小か否かが判定される。ステップP5Fでの判定が「YES」であれば、ステップP5Gに進み、k番目のサンプルラインをエッジサンプルラインとして検出する。ステップP5Fでの判定が「NO」であれば、ステップP5Hに進む。ステップP5HとステップP5Iにより、ステップP5B〜P5Gの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の全てのエッジサンプルラインが検出される。
ステップP5Bにおける正の閾値TH1、TH2は、ビデオカメラから遠い位置のサンプルラインに対応するものほど小さく、逆に負の閾値TH3、TH4は、ビデオカメラから遠い位置のサンプルラインに対応するものほど大きくなるように設定するとよい。このようにビデオカメラからの距離に応じてTH1〜TH4を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度でエッジサンプルラインを検出することができる。
第22図のステップP6における存在サンプルラインは、以下のようにして検出する。すなわち、第22図のステップP4で検出された差分サンプルラインと、ステップP5で検出されたエッジサンプルラインのうちの少なくとも一方のサンプルラインであれば、そのサンプルラインを存在サンプルラインとして検出する。
次に、第22図のステップP7の存在サンプルラインの配置に基づいた存在サンプルラインの補正手順を、第29図に示すステップP7a〜P7mのフローチャートに従って、以下に詳説する。この存在サンプルラインの配置に基づいた存在サンプルラインの補正は、前半のステップP7a〜ステップP7eが車体範囲内における、存在サンプルラインの検出漏れを補正するための処理であり、後半のステップP7g〜P7mが車体範囲外の存在サンプルラインの誤検出を補正するための処理である。
ステップP7aで、k番目とk+1番目の存在サンプルラインのビデオカメラからの位置に基づいて、閾値TH1を設定する。ステップP7Dで、k番目とk+1番目の存在サンプルライン間に存在するサンプルラインの数をカウントする。
ステップP7bに続くステップP7cで、カウントされたライン数がTH1より小か否かが判定される。ステップP7cでの判定が「YES」であれば、ステップP7dに進み、k番目とk+1番目の存在サンプルラインの間のサンプルラインを存在サンプルラインとして追加する。ステップP7cでの判定が「NO」であれば、ステップP7eに進む。ステップP7eとステップP7fにより、ステップP7a〜P7dの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の全ての存在サンプルラインに対して、第22図のステップP6で検出された存在サンプルラインの配置に基づいた存在サンプルラインを追加する補正がなされたことになる。
例えば、第22図のステップP6で、第30図の(a)に示すような配置で存在サンプルラインが検出された場合、k番目とk+1番目の存在サンプルラインの間のサンプルラインの数は以下のようになる。上から1番目と2番目の存在サンプルラインの間と、2番目と3番目の存在サンプルラインの間とには0個のサンプルライン、3番目と4番目の存在サンプルラインの間の領域L1には2個のサンプルライン、4番目と5番目の存在サンプルラインの間には0個のサンプルライン、5番目と6番目の間の存在サンプルラインの間の領域L2には5個のサンプルライン、6番目と7番目の存在サンプルラインの間の領域L3には7個のサンプルライン、7番目と8番目の存在サンプルラインの間と、8番目と9番目の存在サンプルラインの間には0個のサンプルラインがそれぞれ存在する。したがって、ステップP7bで閾値TH1をTH1=3=一定に設定した場合、第30図の(a)および(b)に示すように、領域L1のサンプルラインのみが存在サンプルラインとして追加される。
再び第29図において、ステップP7eからステップP7gに進むと、存在サンプルラインを、他のサンプルラインを含まないで連続した存在サンプルラインからなる複数のライングループに分類する。ステップP7hで、各ライングループのビデオカメラからの位置に基づいて、r番目のライングループの判定に用いる閾値TH2を設定する。ステップP7iでは、r番目のライングループに含まれる存在サンプルラインの数を算出する。
ステップP7iに続くステップP7jでは、カウントされた存在サンプルラインの数が、TH2より小か否かが判定される。ステップP7jでの判定が「YES」であれば、ステップP7kに進み、r番目のライングループに含まれる全ての存在サンプルラインを除去する。ステップP7jでの判定が「NO」であれば、ステップP71に進む。ステップP7lとステップP7mにより、ステップP7g〜P7kの動作が、r=Rになるまで繰り返される。なお、Rは計測領域の1車線分に含まれるライングループの総数である。この繰り返し動作により、計測領域の一車線分の全ての存在サンプルラインに対して、P7dで補正された存在サンプルラインの配置に基づいて存在サンプルラインを除去する補正がなされたことになる。
ステップP7d終了後に、第30図(b)に示すような配置で存在サンプルラインが検出された場合、r番目のライングループの存在サンプルラインの数は以下のようになる。領域L4で示される1番目のライングループには7個の存在サンプルライン、領域L5で示される2番目のライングループには、1個の存在サンプルライン、領域L6で示される3番目のライングループには、3個の存在サンプルラインがそれぞれ存在している。したがって、ステップP7hで閾値TH2をTH2=3=一定に設定しておけば、第30図の(b)および(c)に示すように、領域L5のライングループの存在サンプルラインが除去される。
ステップP7a、P7hにおける閾値TH1、TH2は、画像上に描写される平均的な車両の長さの1/4に相当するサンプルライン数に一致させるとよい。このため、閾値TH1、TH2は、ビデオカメラから遠い領域では車両が小さい像として得られるので、小さくし、ビデオカメラから近い領域では、車両が大きい像として得られるので、大きくする。このようにすることにより、カメラからの距離に影響されることなく、すべての領域において同程度の精度で存在サンプルラインを追加あるいは削除する補正処理をすることができる。
次に、第22図のステップP8の差分サンプルラインの配置に基づいた存在サンプルラインの補正手順の1例を、第31図に示すステップP8a〜P8iのフローチャートに従って、以下に詳説する。この差分サンプルラインの配置に基づいた存在サンプルラインの補正は、建物や車両等の影を誤って車両が存在していると認識して検出された存在サンプル点を除去するための処理である。より詳細には、上述の差分サンプルラインは、時刻tnのサンプル点画像と基準輝度画像との輝度差から単純に検出されるので、車両の影の範囲や、日差しの急激な変化により突然現れた建物の影の範囲のサンプルラインが誤って存在サンプルラインとして検出されることになる。したがって、差分サンプルラインの配置から建物や車両の影によって生じる誤検出を補正する必要がある。
ステップP8aで、エッジサンプルラインを含まないで連続する差分サンプルラインからなるライングループを検出する。ここで、エッジサンプルラインを含まないライングループを特定するのは、下記の理由による。一般的に影の範囲はエッジが検出され難く、また影の範囲のサンプル点の輝度値も相対的に小さいため、通常、エッジサンプルラインが検出されない。このため、エッジサンプルラインが検出された領域は影が存在していないとみなすことができるからである。
ステップP8bで、k番目のライングループのビデオカメラからの位置に基づいて、閾値TH1を設定する。さらに、ステップP8bで、所定の輝度値を示す閾値TH2を設定する。ステップP8cで、k番目のライングループに含まれる差分サンプルラインの数をカウントする。
ステップP8cに続くステップP8dで、カウントされたライン数が閾値TH1より大か否かが判別される。ステップP8dでの判定が「YES」であれば、ステップP8eに進み、k番目のライングループの各差分サンプルラインに位置的に対応する時刻tnのサンプル点画像上の各サンプルライン内のサンプル点の輝度値の平均値BMを算出する。ステップP8dでの判定が「NO」であれば、ステップP8hに進む。
ステップP8eからステップP8fに進むと、上記BMが閾値TH2より小か否かが判別される。ステップP8fでの判定が「YES」であれば、ステップP8gに進み、k番目のライングループの差分サンプルラインに位置的に対応する存在サンプルラインを除去する。ステップP8fでの判定が「NO」であれば、ステップP8hに進む。ステップP8hとステップP8iにより、ステップP8b〜P8gの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の全ての存在サンプルラインに対して、差分サンプルラインの配置に基づいて存在サンプルラインを除去する補正がなされたことになる。
ステップP8bにおける閾値TH1は、画像上に描写される平均的な車両の長さの1/4に相当するサンプルライン数に一致させるとよい。このため、閾値TH1は、ビデオカメラから遠い領域では車両が小さい像として得られるので、小さくし、ビデオカメラから近い領域では、車両が大きい像として得られるので、大きくする。このようにビデオカメラからの距離に応じてTH1を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度にて存在サンプルラインを除去することができる。
次に、第22図のステップP9の移動サンプルラインの検出手順の1例を、第32図に示すステップP9a〜P9gのフローチャートに従って、以下に詳説する。
ステップP9aで、移動サンプル点を検出する。この移動サンプル点の検出手順は、前述の第1の実施例の第10図に示された検出手順と同じであり、重複説明を避けるため、ここではその説明を省略する。
ステップP9bでは、k番目のサンプルラインのビデオカメラからの位置に基づいて、閾値TH1を設定する。ステップP9cでは、k番目のサンプルラインに含まれる移動サンプル点の数をカウントする。
ステップP9cに続くステップP9dでは、カウントされた移動サンプル点数が閾値TH1より大か否かが判別される。ステップP9dでの判定が「YES」であれば、ステップP9eに進み、k番目のサンプルラインを移動サンプルラインとして検出する。ステップP9dでの判定が「NO」であれば、ステップP9fに進む。ステップP9fとステップP9gにより、ステップP9b〜P9eの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の移動サンプルラインが全て検出される。
ステップP9bにおける閾値TH1は、ビデオカメラから遠い領域のものほど小さくなるように設定するとよい。このようにビデオカメラからの距離に応じてTH1を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度で移動サンプルラインを検出することができる。
次に、第22図のステップP10の移動サンプルラインの配置に基づいた存在サンプルラインの補正手順の1例を、第33図に示すステップP10a〜P10gのフローチャートに従って、以下に詳説する。この移動サンプルラインの配置に基づいた存在サンプルラインの補正は、第29図のステップP7a〜P7fで補正されなかった、車体範囲内の存在サンプルラインの検出漏れを補正するための処理である。より詳細には、基準輝度画像とのコントラストが小さく、車体範囲内での輝度変化の小さい車両が道路上に存在している場合には、この車両の存在は差分サンプルラインやエッジサンプルラインとして検出され難く、また上記のステップP7a〜P7fの処理では補正されない。このような車両の存在は、移動サンプルラインによって検出できることがあり、移動サンプルラインの配置に基づいて、存在サンプルラインの検出漏れを補正する。
ステップP10aで、k番目とk+1番目の存在サンプルラインのビデオカメラからの位置に基づいて、閾値TH1、TH2を設定する。ただし、TH1<TH2である。このステップP10aで設定される閾値TH1は、第29図のステップP7aで設定される閾値TH1と一致させる。このように設定するのは、ステップP10a〜P10gでの処理の補正対象のサンプルラインを、ステップP7aからP7fでの処理の補正対象から外れたものだけに限定するためである。この結果、無駄な処理や補正漏れを防止することができる。
ステップP10bで、k番目とk+1番目の存在サンプルライン間に存在するサンプルラインの数をカウントする。ステップP10cでは、カウントされたライン数がTH1以上かつ、TH2より小か否かが判定される。ステップP10cでの判定が「YES」であれば、ステップP10dに進み、ステップP10cでの判定が「NO」であれば、ステップP10fに進む。
ステップP10cからステップP10dに進むと、k番目とk+1番目の存在サンプルラインの間に、移動サンプルラインが存在するか否かが判定される。ステップP10dでの判定が「YES」であれば、ステップP10eに進み、k番目とk+1番目の存在サンプルラインの間の移動サンプルラインを含むサンプルラインを、存在サンプルラインに追加する。ステップP10dでの判定が「NO」であれば、ステップP10fに進む。ステップP10fとステップP10gにより、ステップP10a〜P10eの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の全ての存在サンプルラインに対して、移動サンプルラインの配置に基づいて、存在サンプルラインを追加する補正がなされたことになる。
例えば、第22図のステップP8、P9のそれぞれで、第34図の(a)に示すような配置の存在サンプルラインおよび移動サンプルラインが得られた場合、k番目とk+1番目の存在サンプルラインの間のサンプルラインの数は以下のようになる。上から1番目〜7番目の隣接する二つの存在サンプルラインのそれぞれの間には0個のサンプルライン、7番目と8番目の存在サンプルラインの間の領域L7には3個のサンプルライン、8番目〜10番目の隣接する二つの存在サンプルラインのそれぞれの間には0個のサンプルライン、10番目と11番目の存在サンプルラインの間の領域L8には6個のサンプルライン、11番目〜14番目の隣接する二つの存在サンプルラインのそれぞれの間には0個のサンプルラインが存在している。一方、領域L7には1個の移動サンプルライン、領域L8には0個の移動サンプルラインがそれぞれ存在している。したがって、ステップP10aで閾値TH1、TH2をTH1=3=一定、TH2=5=一定に設定した場合、第34図の(a)および(b)に示すように、領域L7のサンプルラインが存在サンプルラインとして追加される。
ステップP10aにおける閾値TH1、TH2は、それぞれ画像上に描写される平均的な車両の長さの1/4、1/2に相当するサンプルライン数に一致させるとよい。このため、閾値TH1、TH2は、ビデオカメラから遠い領域では車両が小さい像として得られるので、小さくし、ビデオカメラから近い領域では、車両が大きい像として得られるので、大きくする。このようにすることにより、カメラからの距離に影響されることなく、すべての領域において同程度の精度にて存在サンプルラインを補正することができる。
第22図のステップP11におけるメッシュは、第35図に示される。このメッシュは、ビデオカメラからの距離が近くなるにつれて、縦サイズが大きくなるように設定されている。このようにメッシュサイズをビデオカメラからの距離に応じて設定することにより、各メッシュで指定される実際の道路上の各領域のサイズを同程度にすることができる。
第22図のステップP12おける各メッシュの空間密度は、下記の式で算出される。
D(m)=PSL(m)/TSL(m) ...(vi)
ここで、D(m)はm番目のメッシュの空間密度、PSL(m)はm番目のメッシュに含まれる存在サンプルラインの数、TSL(m)は、m番目のメッシュに含まれるサンプルラインの総数である。第35図に示すような配置で存在サンプルラインが求められた場合、メッシュM1の空間密度は33%、メッシュM2〜M4の空間密度は100%、メッシュM5の空間密度は75%、メッシュM6の空間密度は0%、メッシュM7の空間密度は80%となる。
第22図のステップP13おける大型車の混入率は、以下のような手法で算出する。
まず、5分または10分間の単位時間内での第21図に示す交通流計測領域Fでの大型車両の混入率Rtを次式により算出する。
Rt=NL/NT ...(vii)
ここで、NLは、第21図の感知ラインDLを通過した大型車両台数、NTは、感知ラインDLを通過した全車両台数である。なお、第21図に示す交通流計測領域Fでは、前述したように、車両の通過台数、車両の大型車、普通車の区別を計測できるので、これらの計測データを利用して、混入率Rtを算出する。
第22図のステップP14おける車間距離は、ビデオカメラの情報からでは実際に計測するのは困難であるので、実際には、車間距離と比例関係のあると推定される車両の速度あるいは単位時間当たりの通過台数を算出して、これらの算出値を車間距離に相当するものとして利用する。
第22図のステップP15における大型車両混入率と車間距離に基づく空間密度の補正は、以下の手法でなされる。大型車の混入による補正は、見かけ上の車両存在範囲によって算出された空間密度を補正するための処理である。具体的には、第36図のハッチング領域で示す車両が大型車両であるとき、車両の実際の存在範囲よりも見かけ上の車両存在範囲が非常に大きくなる。この見かけ上の車両存在範囲により算出された空間密度が補正される。
まず、上記単位時間内に交通流計測領域Fを通過した全車両の平均車高ha、平均車長laをそれぞれ次式により算出する。
ha=Rt×hL+(1−Rt)×hS ...(viii)
la=Rt×lL+(1−Rt)×ls ...(ix)
ここで、hLは大型車両の高さ、hSは普通車両の高さ、lLは大型車両の長さ、lSは普通車両の長さである。
次に、第36図のハッチング領域で示す車両による隠れ範囲lhを次式により算出する。
lh=ha×L/(H−ha) ...(x)
ここで、Hはビデオカメラの路面からの高さ、Lはビデオカメラから車両の先端位置までの距離である。
上記lh、laにより、見かけ上の車両存在範囲を実際の車両存在範囲に補正するための補正率Reを次式により算出する。
Re=la/(la+lh) ...(xi)
なお、第21図に示す交通流計測領域Fでは、前述したように、車両の通過台数、車両の大型車、普通車の区別、車両の長さ等を計測できるので、これらの計測データを利用して、補正率Reを算出する。また、補正率Reによる補正は、交通流計測領域F以外の空間計測領域Eの計測結果に利用すればよい。交通流計測領域Fでは、個々の車両の車長を直接計測することができるので、個々の車両毎に、補正率を算出すればよい。
上記のようにして算出された補正率Reは、車間距離が長ければ、そのまま使うことができるが、車間距離が短くなれば、すなわち、ビデオカメラで撮影された画像上で車両が重なって見えれば、(xi)で算出された補正率Reをそのまま使うことができず、増加させる必要がある。具体的には、車間距離が長いほど、補正率Reを式(xi)で算出された値に近づけ、車間距離が短くなるほど、補正率Reを1に近づける。
空間計測領域Eにおいては、ビデオカメラの情報しか渋滞計測装置は入手することができないため、複数の車両が重なって撮影されるような車間距離が短くなっている場合には、車間距離を計測することができない。このため、上記の車間距離は、直接算出するのではなく、車間距離と比例関係がある計測値、本実施例では、後述の方法で算出される空間速度と交通流計測領域Fで計測された単位時間当たりの通過台数を車間距離に相当するものとして利用する。具体的には、空間速度が大きいほど、補正率Reを式(xi)で算出された値に近づけ、空間速度が小さいほど、補正率Reを1に近づける。一方、通過台数が少ないほど、補正率Reを式(xi)で算出された値に近づけ、通過台数が多いほど、補正率Reを1に近づける。
第22図のステップP15においては、上記のようにして算出され補正された補正率Reを、各メッシュの空間密度に乗算することにより、空間密度を補正する。
次に、渋滞計測装置82により実行される空間速度の算出方法を、まず、第37図に示されるステップQ1〜Q15のフローチャートに従って、概略的に説明する。
ステップQ1で、時刻tn、tn+γの各画像のサンプル点画像を作成する。ステップQ2で、各サンプル点画像の各サンプルラインに含まれるサンプル点の輝度値の平均値を算出して、各サンプルラインのライン輝度平均値を算出する。
ステップQ3で、時刻tnのサンプル点画像上の移動サンプルラインを検出する。移動サンプルラインは、前述の第32図のフローチャートと同じ手順で検出するので、重複説明を避けるため、ここではその説明を省略する。
ステップQ4で、時刻tnのサンプル点画像上での各移動サンプルラインの時刻tn+γの画像上での移動先を検出する。ステップQ5では、移動先が検出された移動サンプルラインの速度を算出する。
ステップQ6で、時刻tnのサンプル点画像を複数のメッシュに分割する。ステップQ7で、k番目のメッシュ内の移動先を追跡することができた移動サンプルラインの平均速度を算出する。ステップQ8で、k番目のメッシュで移動先を追跡することができた移動サンプルライン数のk番目のメッシュに含まれる全サンプルライン数に対する割合を算出する。
ステップQ8に続くステップQ9で、k番目のメッシュの移動サンプルラインの割合が所定の閾値より大か否かが判別される。ステップQ9での判定が「YES」であれば、ステップQ10に進み、k番目のメッシュ内の移動サンプルラインの平均速度を、k番目のメッシュの空間速度として検出する。ステップQ9での判定が「NO」であれば、ステップQ11に進み、速度0km/hを、k番目のメッシュの空間速度として設定する。
ステップQ10からステップQ12に進むと、k番目の空間速度を指数平滑化して、ステップQ13に進む。ステップQ13、Q14により、k=Kになるまで、ステップQ7〜ステップQ12が繰り返される。この結果、時刻tnのサンプル点画像における各メッシュの空間速度が算出されたことになる。
上記のステップQ1〜Q15は、所定の時間間隔で繰り返される。上記ステップQ1〜Q15で必要な画像データや、検出あるいは算出されるデータの概略的な関係を、第38図に示す。
次に、第37図のステップQ4の移動サンプルラインの移動先を検出する手順の第1例を、第39図に示すステップQ4a〜Q4gのフローチャートに従って、以下に詳説する。
ステップQ4aで、時刻tnのサンプル点画像上のk番目の移動サンプルラインの位置と、時間間隔γとに基づいて、k番目の移動サンプルラインのtn+γのサンプル点画像上の予想移動範囲を算出する。ステップQ4bで、時刻tnのサンプル点画像上のk番目の移動サンプルラインと、時刻tn+γのサンプル点画像上の予想移動範囲内の各サンプルラインとの輝度値の差を表す輝度差分値の絶対値を算出する。
ステップQ4bに続くステップQ4cで、最小の輝度差分値の絶対値が所定の閾値より小さいか否かが判別される。ステップQ4cでの判定が「YES」であれば、ステップQ4dに進み、最小の輝度差分値の絶対値のサンプルラインをk番目の移動サンプルラインの移動先として検出する。ステップQ4cでの判定が「NO」であれば、ステップQ4eに進み、k番目の移動サンプルラインの移動先無しと検出する。
ステップQ4dおよびステップQ4eに続くステップQ4fおよびステップQ4gにより、ステップQ4a〜ステップQ4eの動作が、k=Kになるまで繰り返される。結果的に、時刻tnのサンプル点画像上の全ての移動サンプルラインの移動先の有無と移動先の位置が検出される。
次に、第37図のステップQ4の移動サンプルラインの移動先を検出する手順の第2例を、第40図に示すステップQ4A〜Q4Mのフローチャートに従って、以下に詳説する。
ステップQ4Aで、時刻tnのサンプル点画像上のk番目の移動サンプルラインの位置と、時間間隔γとに基づいて、k番目の移動サンプルラインのtn+γのサンプル点画像上の第1の予想移動範囲を算出する。ステップQ4Bで、第1の予想移動範囲の1サンプルライン分前後にずれた範囲を、それぞれ第2、第3の予想移動範囲として検出する。
ステップQ4Cで、時刻tnのサンプル点画像上のk番目の移動サンプルラインと、時刻tn+γのサンプル点画像上の第1の予想移動範囲内のm番目のサンプルラインとの輝度値の差を表す輝度差分値の絶対値U1を算出する。
ステップQ4Dで、時刻tnのサンプル点画像上のk番目の移動サンプルラインの直前のサンプルラインと、時刻tn+γのサンプル点画像上の第2の予想移動範囲内のm番目のサンプルラインとの輝度値の差を表す輝度差分値の絶対値U2を算出する。
ステップQ4Eで、時刻tnのサンプル点画像上のk番目の移動サンプルラインの直後のサンプルラインと、時刻tn+γのサンプル点画像上の第3の予想移動範囲内のm番目のサンプルラインとの輝度値の差を表す輝度差分値の絶対値U3を算出する。
ステップQ4Fで、U1、U2、U3を加算して輝度差分値の総和Umを算出する。ステップQ4GとステップQ4Hにより、m=Mになるまで、ステップQ4C〜ステップQ4Fを繰り返し、第1、第2、第3の予想移動範囲の全てのサンプルラインに対する移動サンプルラインとその前後のサンプルラインとの輝度差分値の計算とその総和処理を実行する。
ステップQ4Iで、総和Umのうちの最小のUmが閾値より小か否かを判別する。ステップQ4Iでの判定が「YES」であれば、ステップQ4Jに進み、最小の総和Umの第1の予想移動範囲内のサンプルラインを、時刻tnのサンプル点画像上のk番目の移動サンプルラインの移動先として検出する。ステップQ4Iでの判定が「NO」であれば、ステップQ4Kに進み、時刻tnのサンプル点画像上のk番目の移動サンプルラインの移動先無しと判定する。
ステップQ4LとステップQ4Mにより、k=Kになるまで、ステップQ4A〜ステップQ4Kを繰り返す。この結果的、時刻tnのサンプル点画像上の全ての移動サンプルラインの時刻tn+γの画像上での移動先が検出される。
ここで、第41図の(a)に示すように、時刻tnのサンプル点画像上に、移動サンプルラインMVdが検出され、第1の予想移動範囲は第41図の(b)に示す第1予想移動範囲PA1を得るとすると、PA2が第2の予想移動範囲、PA3が第3の予想移動範囲になる。上記のステップQ4Fで算出される総和Umのうちの最小の総和に対応する3つのサンプルラインが第41図の(b)の時刻tn+γのサンプル点画像上の位置b、b−1、b+1に位置するサンプルラインであるとき、位置bのサンプルラインが移動サンプルラインMVdの移動先となる。
第37図のステップQ5における各移動サンプルラインの速度Vkは、次式により算出される。
Vk=(Lb−La)/γ ... (xii)
ここで、Laは、時刻tnのサンプル点画像上の各移動サンプルラインの車両走行方向における座標位置、Lbは、各移動サンプルラインの時刻tn+γのサンプル点画像上の移動先の車両走行方向における座標位置である。
第37図のステップQ12における空間速度の指数平滑化処理は、次式に従って実行される。
V(m, tn)=(1−θ)×V(m, tn-1)+θ×V(m, tn) ... (xiii)
ここで、V(m, tn)は、m番目のメッシの時刻tでの空間速度、V(m, tn -1)は、m番目のメッシュの時刻tn-1での空間速度、θは指数係数で0<θ<1である。この空間速度の指数平滑化処理により、ノイズを除去することができる。
次に、渋滞計測装置82により実行される渋滞領域の末尾位置の検出方法の第1例を、第42図に示されるステップZ1〜Z4のフローチャートに従って以下に説明する。
ステップZ1で、各メッシュの空間速度を算出する。この空間速度の算出方法は下記の2通りがある。
最初の算出方法は、前述の第37図のフローチャートに従った手順で空間速度を算出する方法であり、二つめの算出方法は、第22図のフローチャートの手順で算出した空間密度と、第21図の交通流計測領域Fで計測される交通量と、を用いて次式により空間速度V(m,tn)を算出する方法である。
V(m,tn)=(q(tn)×la)/d(m,tn) ... (ixv)
ここで、q(tn)は時刻tnにおける空間計測領域内の単位時間あたりの交通量、laは時刻tnにおける空間計測領域内の車両の平均車長、d(m,tn)はm番目のメッシュの空間密度である。
さらに、ノイズ成分を除去するために、空間速度V(m,tn)を次式で指数平滑化する。
V(m,tn)=(1−μ)×V(m,tn-1)+μ×V(m,tn) ... (xv)
ここで、μは指数係数で0<μ<1である。
ステップZ2で、ノイズ成分および渋滞の疎密波による影響を除去するために、各メッシュの平均化空間速度Mv(m)を次式により算出する。
ここで、Mv(m)m番目のメッシュにおける平均化空間速度、Mはメッシュの総数である。
ステップZ3で、上記の平均化空間速度Mv(m)のうち、Mv(m)<Cvを満たすMv(m)を有するメッシュを全て渋滞領域として検出する。Cvは予め設定された速度で、例えば、高速道路では、Cv=40km/h、一般道路では、Cv=20km/hとする。ステップZ4で、渋滞領域の上流側端部の位置を渋滞末尾位置として検出する。第45図は、メッシュ、渋滞領域および渋滞末尾位置との関係を示す図である。
次に、渋滞計測装置82により実行される渋滞領域の末尾位置の検出方法の第2例を、第43図に示されるステップZ1′〜Z4′のフローチャートに従って以下に説明する。
ステップZ1′で、各メッシュ内に含まれる移動サンプル点の数をカウントする。ステップZ2′で、各メッシュの移動密度Mr(m)各メッシュの移動サンプル点の数を各メッシュに含まれる総サンプル点の数で除算することにより、算出する。
ステップZ3′で、空間密度D(m)が所定の閾値C1より大で、移動密度Mr(m)が所定の閾値C2より小であるメッシュを、渋滞領域として検出する。ステップZ4′で、渋滞領域の上流側端部の位置を渋滞末尾位置として検出する。
第42図のステップZ1〜Z4および第43図のZ1′〜Z4′は、所定の時間間隔で繰り返される。上記ステップZ1〜Z4およびZ1′〜Z4′で必要な画像データや、検出あるいは算出されるデータの概略的な関係を第44図に示す。
第20図に示される渋滞計測装置82は、第22図のフローチャートに従って計測した空間密度、第37図のフローチャートに従って計測した空間速度、並びに、第42図あるいは第43図のフローチャートに従って計測された渋滞末尾位置を、第21図の交通流計測装置Fで計測された各種の計測結果とともに、交通管制センターの中央制御装置100に送信する。中央制御装置100は、受信した計測結果に基づいて、ビデオカメラ81により撮影されている道路上を走行中の車両の運転者に知らせる交通情報を作成して、表示制御装置92に送信する。表示制御装置92は、受信した交通情報を情報表示板91に表示させる。
上述の第2の実施例によれば、画像の全ての画素の輝度データを処理せずに、特定のサンプル点に対応する画素のみの輝度データを処理しているので、計算処理するデータ量を大幅に削減することができ、結果的に装置のハード構成を簡素化することができ、コストを低減することができる。また、高速処理が可能になって、リアルタイムの渋滞計測が可能になる。
また、第2の実施例では、サンプルライン単位で車両の存在や移動を検出しているので、メッシュ毎の空間速度および空間密度を検出することができる。この結果、例えば、40km/h以下の車両の一団が占める領域を渋滞として認識するように渋滞計測装置を設定した場合に、その渋滞領域内の車両の速度や密度をリアルタイムに直接的に計測することができ、詳細な渋滞情報を提供することができる。したがって、本実施例の交通管制システムは、高速道路に適用すると効果的である。
また、事前の学習をほとんどすることなく、装置を設定してから直ぐに精度良い渋滞計測が可能になり、また、環境の変化、例えば、計測地点、時間帯、天候、交通量等の変化に関わらずに安定して渋滞状況を検出することができ、しかも渋滞の長さも簡単に検出することができる。
さらにまた、各種判別の基準になる閾値等の各種パラメータを、ビデオカメラから各サンプル点での距離に応じて変化させているので、高精度の渋滞計測が可能になる。また、上記パラメータを各サンプル点のカメラからの距離により自動的に検出できるため、交通管制システムの管理運用上の有効である。
またさらに、道路上に計測可能な距離だけ隔てて本実施例のビデオカメラと渋滞計測装置を、複数個連ねて配置するようにすれば、長距離にわたる連続した渋滞状況を計測することもできる。さらに、本実施例は、計測領域内の一部の計測結果から計測領域の全体の渋滞状況を推定しているのではなく、計測領域全体の渋滞状況を直接的に計測しているので、計測領域内で事故や車両故障が発生した場合に、直ちにそれを検知できる効果もある。