JP3834826B2 - 交通渋滞計測方法および装置並びに画像処理方法および装置 - Google Patents

交通渋滞計測方法および装置並びに画像処理方法および装置 Download PDF

Info

Publication number
JP3834826B2
JP3834826B2 JP52507997A JP52507997A JP3834826B2 JP 3834826 B2 JP3834826 B2 JP 3834826B2 JP 52507997 A JP52507997 A JP 52507997A JP 52507997 A JP52507997 A JP 52507997A JP 3834826 B2 JP3834826 B2 JP 3834826B2
Authority
JP
Japan
Prior art keywords
image
sample
road
time
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP52507997A
Other languages
English (en)
Inventor
政勝 東久保
義行 井藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Application granted granted Critical
Publication of JP3834826B2 publication Critical patent/JP3834826B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

技術分野
本発明は、ビデオカメラにより撮影された道路と該道路上を行き来する車両の動画像上にサンプル点を設定し、サンプル点の輝度に基づいて道路の渋滞状況を自動的に検出する方法および装置に関する。また、画像にサンプル点を設定して画像を処理する方法および装置に関する。
背景技術
従来、道路交通の円滑化を図るために、交通渋滞の状況を計測する種々の交通渋滞計測システムが提案されている。このような交通渋滞計測システムとしては、車両の存在や動きを検知するセンサとして、超音波センサを用いる超音波式交通渋滞計測システムやループコイルを用いるループコイル式交通渋滞計測システムがよく知られている。
超音波センサを用いた交通渋滞計測システムは、道路の路面から所定高さ隔てた位置に超音波センサを配置し、該超音波センサによりセンサ直下近傍の車両の存在、車両の速度を検知して、道路の渋滞状況を検出するものである。ループコイルを用いた交通渋滞システムは、道路にループコイルを埋め込み、ループコイルの上方の車両通過に伴う磁気の変化から、車両の存在、車両の速度を検知して、道路の渋滞状況を検出するものである。
これら超音波センサやループコイルを用いた交通渋滞計測システムにおいては、超音波センサやループコイルの設置地点のみの情報しか得られず、所定時間における通過台数、または、設置地点を通過する車両のうちのごく一部の特定車の速度を用いて間接的に渋滞状況を推定しているのが現状である。このため、超音波センサやループコイルを用いた交通渋滞計測システムでは、交通渋滞における正確な渋滞範囲をリアルタイムに自動計測することは困難である。例えば、交差点からの渋滞の長さに応じて信号の切り替え時期を制御する目的で、上記の超音波センサやループコイルを採用した場合には、交通渋滞を速やかに緩和させるような信号制御が困難になるといった問題がある。
上記の超音波センサやループコイルを用いた交通渋滞計測システムより正確な渋滞状況をリアルタイムで計測できるものとして、ビデオカメラを用いた以下の2例の交通渋滞計測システムが提案されている。第1の例は、wootton jeffreys CONSULTANTSの"INPACTS;A New TV Image Processing System for Monitoring Traffic Conditions"または欧州特許公報0403193号に開示されているシステムである。これは、ビデオカメラにより撮影された画像上の道路を1台の車の長さ程度の大きさに車線毎にブロック化し、それぞれのブロックが、車が検知されない空きのブロック、移動している車を検知したブロック、止まっている車を検知したブロックの中のどのブロックに相当するかを画像処理により調べ、3種類のブロックの存在パターンに応じて、渋滞の状況検出、例えば、完全に停滞している、少し移動している、順調に流れている等を検出する。
第2の例は、北村等による電気学会産業応用部門全国大会資料(1991)の「道路交通渋滞計測システムの検討」に開示されているシステムである。これは、ビデオカメラにより撮影された画像から車両密度、車両の移動量、路面輝度の3種の特徴量を抽出し、これらの3種の特徴量をニューラルネットワークの入力層に入力し、0〜1の範囲の0.2刻みの5段階に出力値を求め、その出力値に応じて、渋滞の状況を5段階に検出、すなわち、「空き」、「定常走行」、「混雑」、「やや渋滞」、「渋滞」の5つの状況を検出する。
しかしながら、上述の第1の従来例と第2の従来例の交通渋滞計測システムには以下のような問題点があった。すなわち前者の交通渋滞計測システムにあっては、3種類のブロックの存在パターンと渋滞の状況との関係を各地点毎に事前に学習しておく必要がある。また、車線毎にブロック化処理が必要になるので、複数の車線に跨がった渋滞を検出することができず、正確な渋滞状況を検出できない。更に、遠方では車両が小さくなるので、車1台に相当するブロック化が困難であり、長い距離にわたる渋滞検出は行えない。
一方、後者の交通渋滞計測システムにあっては、ニューラルネットワークを利用しているので、予め学習用の大量のデータを用いてニューラルネットワークを構成しておかなければならず、前準備が煩雑である。また、道路環境が変化すると、新たにニューラルネットワークを構成し直さなければならない。さらに、画像全体を一括して画像処理して渋滞状況を検出しているので、画像上の部分的な渋滞状況を検出することができず、画像上の部分毎の詳細な情報、例えば、「道路上のx1地点からどのx2地点までyメートルの渋滞が発生」というような部分的な渋滞の長さの情報を提供できない。
どちらの交通渋滞計測システムにも上述のような問題点があり、実用化するのは困難である。本発明は斯かる事情に鑑みてなされたものであり、事前の学習量が少なくて良く、複数の車線に跨がった渋滞も検出することができ、環境の変化、例えば、計測地点、時間帯、天候、交通量等の変化に関わらずに安定して渋滞状況を検出でき、しかも渋滞の長さも検出できる交通渋滞計測方法及び装置で採用した処理手順を利用した画像処理方法および装置を提供することを目的とする。
また、上記の利点を併せ持ってかつ、例えば20km/h以下の速度で低速運転している車両群による渋滞を正確に検出可能な、高速道路の渋滞検出に適した交通渋滞計測方法および装置で採用した処理手順を利用した画像処理方法および装置を提供することを目的とする。
発明の開示
第1の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、前記動画像上に、それぞれ輝度値を有する複数のサンプル点を設定し、前記複数のサンプル点間の距離と実際の距離を記憶するステップ(a)と、前記一連の画像のうちの所定時刻における画像上の、車両が存在していると推測されるサンプル点を、存在サンプル点として検出するステップ(b)と、前記所定時刻の画像上の、所定の速度以上で移動中の車両が存在していると推測されるサンプル点を、移動サンプル点として検出するステップ(c)と、所定の割合以上の移動サンプル点を含む互いに隣接する複数のサンプル点から構成される車両のサイズに対応する所定サイズのブロックを、移動ブロックとして検出するステップ(d)と、前記移動ブロックから外れた存在サンプル点を、渋滞サンプル点として検出するステップ(e)と、所定の割合以上の渋滞サンプル点を含む互いに隣接する複数のサンプル点から構成される車両のサイズに対応する所定サイズのブロックを、渋滞ブロックとして検出するステップ(f)と、前記渋滞ブロックおよびステップ(a)で記憶した前記複数のサンプル点間の距離と実際の距離に基づいて、前記所定時刻における前記道路上の交通渋滞の状況を計測するステップ(g)と、を備え、前記ステップ(d)が、前記移動ブロックから外れた移動サンプル点を、ノイズとみなして除去するステップ(d3)を有する交通渋滞計測方法が提供される。
また、上記交通渋滞計測方法において、前記ステップ(a)で設定されたサンプル点のうちの道路の横断方向に並ぶサンプル点の間隔が等間隔であり、前記ステップ(a)で設定されたサンプル点のうちの道路の延在方向に並ぶサンプル点の間隔が、前記ビデオカメラの前記道路上の位置から各サンプル点に対応する前記道路上の実際の各位置までの距離が長いほど小さくなる構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(b)が、前記ビデオカメラにより撮影されて、車両が道路上に存在していないと推測されかつ、前記サンプル点に対応する画素のみからなる基準輝度画像を作成するステップ(b1)と、前記所定時刻の画像に含まれた画素のうち前記サンプル点に対応する画素のみからなるサンプル点画像を作成するステップ(b2)と、前記サンプル点画像と前記基準輝度画像とに基づいて、前記存在サンプル点を検出するステップ(b3)と、を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(b)から(g)が一定の時間間隔で繰り返され、前記ステップ(b)が、前記所定時刻をt1とし、時刻t1から前記一定の時間間隔前の時刻t0におけるサンプル点画像の存在サンプル点を検出するのに使われた基準輝度画像と、時刻t1におけるサンプル点画像とに基づいて、時刻t1におけるサンプル点画像の存在サンプル点を検出するのに使われる基準輝度画像を作成するステップを有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(b)が、前記ビデオカメラにより撮影されて、車両が道路上に存在していないと推測される基準輝度画像を作成するステップ(b1)と、前記所定時刻の画像と前記基準輝度画像との輝度の差を表す差分画像を算出するステップ(b2)と、前記差分画像を空間微分するステップ(b3)と、空間微分された差分画像における所定の閾値以上の微分値を有するサンプル点を存在サンプル点として検出するステップ(b4)と、前記閾値を、前記ビデオカメラの前記道路上の位置から各サンプル点に対応する前記道路上の実際の各位置までの距離に応じて変化させるステップ(b5)と、を有る構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(c)が、tを前記所定時刻として、時刻tの画像に含まれた画素のうちのサンプル点に対応する画素のみからなるサンプル点画像を作成するステップ(c1)と、αを正の時間間隔として、時刻t−αの画像に含まれた画素のうちのサンプル点に対応する画素のみからなるサンプル点画像を作成するステップ(c2)と、βを正の時間間隔として、時刻t+βの画像に含まれた画素のうちのサンプル点に対応する画素のみからなるサンプル点画像を作成するステップ(c3)と、前記ステップ(c1)、(c2)および(c3)で作成された3つのサンプル点画像に基づいて、移動サンプル点を検出するステップ(c4)と、を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(c)が、tを前記所定時刻、αを正の時間間隔として、時刻tの画像と時刻t−αの画像との輝度の差を表す第1の差分画像を算出するステップ(c1)と、前記第1の差分画像に所定の第1の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第1の特徴抽出画像を作成するステップ(c2)と、βを正の時間間隔として、時刻tの画像と時刻t+βの画像との輝度の差を表す第2の差分画像を算出するステップ(c3)と、前記第1の差分画像に所定の第2の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第2の特徴抽出画像を作成するステップ(c4)と、前記第1の特徴抽出画像と前記第2の特徴抽出画像との論理積をとって積画像を作成するステップ(c5)と、前記積画像における「1」のレベルを有する画素に対応するサンプル点を、移動サンプル点として検出するステップ(c6)と、前記第1および第2の閾値を、前記ビデオカメラの前記道路上の位置から各サンプル点に対応する前記道路上の実際の各位置までの距離に応じて変化させるステップ(c7)と、を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(d)が、前記所定時刻の画像のそれぞれを部分的に構成する複数の候補ブロックのそれぞれに含まれるサンプル点の全個数に対する移動サンプル点の個数の割合を算出するステップ(d1)と、前記ステップ(d1)で算出された割合が所定値より大きい候補ブロックを、前記移動ブロックとして検出するステップ(d2)と、を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(d)が、前記候補ブロックの大きさを、前記ビデオカメラの前記道路上の位置から各候補ブロックに対応する前記道路上の実際の各位置までの距離に応じて変化させるステップ(d3)を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(d)が、前記各候補ブロックに用いられる前記所定値を、前記ビデオカメラの前記道路上の位置から各候補ブロックに対応する前記道路上の実際の各位置までの距離に応じて変化させるステップ(d3)を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(f)が、前記所定時刻の画像のそれぞれを部分的に構成する複数の候補ブロックのそれぞれに含まれるサンプル点の全個数に対する渋滞サンプル点の個数の割合を算出するステップ(f1)と、前記ステップ(f1)で算出された割合が所定値より大きい候補ブロックを、前記渋滞ブロックとして検出するステップ(f2)と、を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(f)が、前記候補ブロックの大きさを、前記ビデオカメラの前記道路上の位置から各候補ブロックに対応する前記道路上の実際の各位置までの距離に応じて変化させるステップ(f3)を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(f)が、前記各候補ブロックに用いられる前記所定値を、前記ビデオカメラの前記道路上の位置から各候補ブロックに対応する前記道路上の実際の各位置までの距離に応じて変化させるステップ(f3)を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(f)が、前記渋滞ブロックから外れた渋滞サンプル点を、ノイズとみなして除去するステップ(f3)を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(g)が、前記渋滞ブロックの存在する前記所定時刻の画像上の範囲を渋滞範囲であると判定するステップを有する構成を有しても良い。
第2の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測装置であって、前記動画像上に、それぞれ輝度値を有する複数のサンプル点を設定し、前記複数のサンプル点間の距離と実際の距離を記憶する第1の手段と、前記一連の画像のうちの所定時刻における画像上の、車両が存在していると推測されるサンプル点を、存在サンプル点として検出する第2の手段と、前記所定時刻の画像上の、所定の速度以上で移動中の車両が存在していると推測されるサンプル点を、移動サンプル点として検出する第3の手段と、所定の割合以上の移動サンプル点を含む互いに隣接する複数のサンプル点から構成される車両のサイズに対応する所定サイズのブロックを、移動ブロックとして検出し、前記移動ブロックから外れた移動サンプル点を、ノイズとみなして除去する第4の手段と、前記移動ブロックから外れた存在サンプル点を、渋滞サンプル点として検出する第5の手段と、所定の割合以上の渋滞サンプル点を含む互いに隣接する複数のサンプル点から構成される車両のサイズに対応する所定サイズのブロックを、渋滞ブロックとして検出する第6の手段と、前記渋滞ブロックおよび前記第1の手段により記憶された前記複数のサンプル点間の距離と実際の距離に基づいて、前記所定時刻における前記道路上の交通渋滞の状況を計測する第7の手段と、を備えた交通渋滞計測装置が提供される。
また、上記交通渋滞計測装置において、前記第2の手段が、前記ビデオカメラにより撮影されて、車両が道路上に存在していないと推測される基準輝度画像を作成する手段と、前記所定時刻の画像と前記基準輝度画像との輝度の差を表す差分画像を算出する手段と、前記差分画像を空間微分する手段と、空間微分された差分画像における所定の閾値以上の微分値を有するサンプル点を存在サンプル点として検出する手段と、を有し、前記第3の手段が、tを前記所定時刻、αを正の時間間隔として、時刻tの画像と時刻t−αの画像との輝度の差を表す第1の差分画像を算出する手段と、前記第1の差分画像に所定の第1の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第1の特徴抽出画像を作成する手段と、βを正の時間間隔として、時刻tの画像と時刻t+βの画像との輝度の差を表す第2の差分画像を算出する手段と、前記第1の差分画像に所定の第2の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第2の特徴抽出画像を作成する手段と、前記第1の特徴抽出画像と前記第2の特徴抽出画像との論理積をとって積画像を作成する手段と、前記積画像における「1」のレベルを有する画素に対応するサンプル点を、移動サンプル点として検出する手段と、有し、前記第4の手段が、前記所定時刻の画像のそれぞれを部分的に構成する複数の候補ブロックのそれぞれに含まれるサンプル点の全個数に対する移動サンプル点の個数の割合を算出する手段と、前記移動サンプル点の割合が所定値より大きい候補ブロックを、前記移動ブロックとして検出する手段と、を有し、前記第6の手段が、前記所定時刻の画像のそれぞれを部分的に構成する複数の候補ブロックのそれぞれに含まれるサンプル点の全個数に対する渋滞サンプル点の個数の割合を算出する手段と、前記渋滞サンプル点の割合が所定値より大きい候補ブロックを、前記渋滞ブロックとして検出する手段と、を有し、前記第7の手段が、前記渋滞ブロックの存在する前記動画像上の範囲を渋滞範囲であると判定すること構成を有しても良い。
第3の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを前記動画像上に設定し、前記複数のサンプル点間の距離と実際の距離を記憶するステップ(a)と、前記ビデオカメラにより撮影されて、車両が道路上に存在していないと推測される基準輝度画像を作成するステップ(b)と、前記一連の画像のうちの所定時刻の画像と前記基準輝度画像との輝度の差を表す差分画像を算出して、前記所定時刻の画像と前記基準輝度画像との位置的に対応するサンプル点の輝度の差を表す輝度差分値を算出するステップ(c)と、前記差分画像上の各サンプル点の輝度差分値に基づいて、前記基準輝度画像上のサンプルラインとの輝度の差が所定値より大きな前記所定時刻の画像上のサンプルラインを、差分サンプルラインとして検出するステップ(d)と、前記差分画像を空間微分して、差分画像上の各サンプル点の微分値を算出するステップ(e)と、空間微分された前記差分画像上の各サンプル点の微分値に基づいて、前記所定時刻の画像上のサンプルラインのうちの、隣接するサンプルラインとの輝度の差が所定値より大きなサンプルラインを、エッジラインとして検出するステップ(f)と、前記ステップ(d)で検出された差分サンプルラインと前記ステップ(f)で検出されたエッジラインとの両方に基づいて、車両が存在していると推測される存在サンプルラインとして検出するステップ(g)と、前記存在サンプルラインの密度およびステップ(a)で記憶した前記複数のサンプル点間の距離と実際の距離に基づいて、交通渋滞の状況を計測するステップ(h)と、を備えた交通渋滞計測方法が提供される。
また、上記交通渋滞計測方法において、前記ステップ(a)で設定されたサンプルライン同士の間隔が、前記ビデオカメラの前記道路上の位置から各サンプルラインに対応する道路上の実際の各位置までの距離が長くなるほど小さくなる構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(b)から(h)が一定の時間間隔で繰り返され、前記ステップ(b)が、前記所定時刻をt1とし、時刻t1から前記一定の時間間隔前の時刻t0におけるサンプル点画像の存在サンプルラインを検出するのに使われた基準輝度画像と、時刻t1におけるサンプル点画像とに基づいて、時刻t1におけるサンプル点画像の存在サンプルラインを検出するのに使われる基準輝度画像を作成する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(d)が、正の所定値より大きな正の輝度差分値を有するサンプル点を検出するステップ(d1)と、負の所定値より小さな負の輝度差分値を有するサンプル点を検出するステップ(d2)と、前記ステップ(d1)および(d2)で検出されたサンプル点を含む割合が所定値よりも大きなサンプルラインを、差分サンプルラインとして検出するステップ(d3)と、有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(d)が、各サンプル点の検出に用いられる前記正の所定値および負の所定値を、前記ビデオカメラの前記道路上の位置から各サンプル点に対応する道路上の実際の位置までの距離に応じて変化させるステップ(d4)を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(d)が、各サンプルラインに含まれるサンプル点の輝度差分値の平均を表す平均輝度差分値を算出するステップ(d1)と、正の所定値より大きな正の平均輝度差分値を有するサンプルラインを、差分サンプルラインとして検出するステップ(d2)と、負の所定値より小さな負の平均輝度差分値を有するサンプルラインを、差分サンプルラインとして検出するステップ(d3)と、を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(d)が、各サンプルラインの検出に用いられる前記正の所定値および負の所定値を、前記ビデオカメラの前記道路上の位置から各サンプルラインに対応する道路上の実際の位置までの距離に応じて変化させるステップ(d4)と、を有する構成を有しても良い。
また、上記交通渋滞計測方法において、前記存在サンプルラインのなかに、少なくとも一つのサンプルラインを挟む隣接する二つの存在サンプルラインがありかつ、前記二つの存在サンプルラインに対応する前記道路上の実際の二つの位置間の距離が所定値より小さいとき、前記隣接する二つの存在サンプルラインの間に位置するサンプルラインを、存在サンプルラインとして、前記ステップ(g)で検出された存在サンプルラインに加えるステップ(i)を備えた構成を有しても良い。
また、上記交通渋滞計測方法において、前記存在サンプルラインのなかに、連続する複数の存在サンプルラインがありかつ、前記連続する存在サンプルラインの両端の存在サンプルラインに対応する前記道路上の実際の二つの位置間の距離が所定値より小さいとき、前記ステップ(g)検出された存在サンプルラインの中から、前記連続した存在サンプルラインを除去するステップ(i)を備えた構成を有しても良い。
また、上記交通渋滞計測方法において、前記存在サンプルラインのなかに、差分サンプルラインのみからなる連続する複数の存在サンプルラインがありかつ、前記連続する存在サンプルラインの両端の存在サンプルラインに対応する前記道路上の実際の二つの位置間の距離が所定値より大きくかつ、前記所定時刻における画像上の前記連続する存在サンプルラインのサンプル点の輝度値の平均値が所定値より小さいとき、前記ステップ(g)検出された存在サンプルラインの中から、前記連続した存在サンプルラインを除去するステップ(i)を備えた構成を有しても良い。
また、上記交通渋滞の計測方法において、前記所定時刻の画像上の、移動中の車両が存在していると推測されるサンプルラインを、移動サンプルラインとして検出するステップ(i)と、前記二つの存在サンプルラインの間に、少なくとも一つのサンプルラインがありかつ、前記二つの存在サンプルラインに対応する道路上の実際の二つの位置間の距離が所定値より小さくかつ、前記二つの存在サンプルラインの間に少なくとも一つの移動サンプルラインがあるとき、前記二つの存在サンプルラインの間の移動サンプルラインを含むサンプルラインを、存在サンプルラインとして、前記ステップ(g)検出された存在サンプルラインに加えるステップ(j)と、を備えた構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(j)での前記二つの存在サンプルラインの各組の検出に用いられる前記所定値を、前記ビデオカメラの前記道路上の位置から存在サンプルラインの各組に対応する道路上の実際の各位置までの各距離に応じて変化させるステップ(k)を備えた構成を有しても良い。
第4の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定し、前記複数のサンプル点間の距離と実際の距離を記憶するステップ(a)と、前記一連の画像のうちの所定時刻における画像上の各サンプル点の輝度に基づいて、車両が存在していると推測されるサンプルラインを、存在サンプルラインとして検出するステップ(b)と、前記存在サンプルラインのなかに、連続する複数の存在サンプルラインがありかつ、前記連続する存在サンプルラインの数が所定値より大きく、さらに、前記連続する存在サンプルラインの輝度値の平均が所定値より小さい場合に、前記連続する複数の存在サンプルラインを、前記所定時刻の画像に描写された、車両の影を含む前記道路上の影の領域として推定するステップ(c)と、ステップ(b)で検出された前記存在サンプルラインから、前記ステップ(c)で前記影の領域と推定された、前記連続する存在サンプルラインを除去して前記存在サンプルラインを補正するステップ(d)と、該ステップ(d)で補正された存在サンプルラインの密度およびステップ(a)で記憶した前記複数のサンプル点間の距離と実際の距離に基づいて、交通渋滞の状況を計測するステップ(e)と、を備えたことを特徴とする交通渋滞計測方法が提供される。
第5の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定するステップ(a)と、前記所定時刻の画像上の、移動中の車両が存在していると推測されるサンプルラインを、移動サンプルラインとして検出するステップ(b)と、前記移動サンプルラインに基づいて、交通渋滞の状況を計測するステップ(c)とを備え、前記ステップ(b)が、tを前記所定時刻、αを正の時間間隔として、時刻tの画像と時刻t−αの画像との輝度の差を表す第1の差分画像を算出するステップ(b1)と、前記第1の差分画像に所定の第1の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第1の特徴抽出画像を作成するステップ(b2)と、βを正の時間間隔として、時刻tの画像と時刻t+βの画像との輝度の差を表す第2の差分画像を算出するステップ(b3)と、前記第2の差分画像に所定の第2の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第2の特徴抽出画像を作成するステップ(b4)と、前記第1の特徴抽出画像と前記第2の特徴抽出画像との論理積を表す積画像を算出するステップ(b5)と、前記積画像における「1」のレベルを有する画素に対応するサンプル点を、移動サンプル点として検出するステップ(b6)と、前記サンプルラインのうち、所定の割合以上の移動サンプル点を含むサンプルラインを、移動サンプルラインとして検出するステップ(b7)と、を備えた交通渋滞計測方法が提供される。
また、上記交通渋滞計測方法において、前記ステップ(b2)および(b4)において前記第1および第2の差分画像の各画素の二値化に用いられる前記第1および第2の閾値を、前記ビデオカメラの前記道路上の位置から各画素に対応する道路上の実際の位置までの距離に応じて変化させるステップ(b8)と、前記ステップ(b7)で用いられる前記所定の割合を、前記ビデオカメラの前記道路上の位置から各サンプルラインに対応する道路上の実際の位置までの距離に応じて変化させるステップ(b9)と、を有する構成を有しても良い。
第6の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定し、前記複数のサンプル点間の距離と実際の距離を記憶するステップ(a)と、前記一連の画像のうちの所定時刻における画像上の各サンプル点の輝度に基づいて車両が存在していると推測されるサンプルラインを、存在サンプルラインとして検出するステップ(b)と、前記存在サンプルラインに基づいて、前記所定時刻の前記道路上に存在する車両の密度を算出するステップ(c)と、前記所定時刻の画像に描写された全車両に対して、所定サイズより大きな車両が含まれている割合を推定するステップ(d)と、該ステップ(d)で推定された割合に基づいて、前記車両の密度を補正するステップ(e)と、前記ステップ(e)で補正された車両の密度およびステップ(a)で記憶した前記複数のサンプル点間の距離と実際の距離に基づいて、交通渋滞の状況を計測するステップ(f)と、を備えた交通渋滞計測方法が提供される。
また、上記交通渋滞計測方法において、前記所定時刻における前記道路上の車両の車間距離を推定するステップ(g)を備え、前記ステップ(e)では、前記ステップ(c)で算出された車両の密度が、前記ステップ(d)で推定された割合に加えて、前記ステップ(g)で算出された車間距離に基づいて補正されるようにした構成を有しても良い。
第7の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定するステップ(a)と、前記一連の画像のうちの所定時刻tにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出するステップ(b)と、yを正の時間間隔として、前記一連の画像のうちの時刻t+γにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出するステップ(c)と、前記時刻tの画像上の、移動中の車両が存在していると推定されるサンプルラインを、移動サンプルラインとして検出するステップ(c)と、前記時刻t+γにおける画像上のサンプルラインの中から、前記時刻tにおける画像上の各移動サンプルラインの移動先と推測されるサンプルラインを、移動先サンプルラインとして検出するステップ(e)と、前記移動サンプルラインと前記移動先移動サンプルラインとに対応する道路上の実際の二つの位置間の距離と前記時間γとに基づいて、各移動サンプルラインの速度を算出するステップ(f)と、前記ステップ(f)で算出された各移動サンプルラインの速度に基づいて、前記道路の交通渋滞の状況を計測するステップ(g)と、を備え、前記ステップ(e)が、前記ビデオカメラの前記道路上の位置からの各移動サンプルラインに対応する前記道路上の実際の位置までの距離および前記時間γに基づいて、時刻t+γの画像上に時刻tの画像上の各移動サンプルラインの各移動先範囲を設定するステップ(e1)と、時刻t+γにおける画像上の前記各移動先範囲内の各サンプルライン平均輝度値と、時刻tにおける画像上の各移動サンプルラインの平均輝度値との差の絶対値を算出するステップ(e2)と、該ステップ(e2)で算出された絶対値が、所定値よりも小さいか否かを判別するステップ(e3)と、該ステップ(e3)で前記絶対値のなかの最小の絶対値が前記所定値よりも小さいと判別されたとき、前記最小の絶対値に対応する時刻t+γの画像上の各サンプルラインを、各移動先サンプルラインとして検出するステップ(e4)と、を有する交通渋滞計測方法が提供される。
第8の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定するステップ(a)と、前記一連の画像のうちの所定時刻tにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出するステップ(b)と、yを正の時間間隔として、前記一連の画像のうちの時刻t+γにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出するステップ(c)と、前記時刻tの画像上の、移動中の車両が存在していると推定されるサンプルラインを、移動サンプルラインとして検出するステップ(c)と、前記時刻t+γにおける画像上のサンプルラインの中から、前記時刻tにおける画像上の各移動サンプルラインの移動先と推測されるサンプルラインを、移動先サンプルラインとして検出するステップ(e)と、前記移動サンプルラインと前記移動先移動サンプルラインとに対応する道路上の実際の二つの位置間の距離と前記時間γとに基づいて、各移動サンプルラインの速度を算出するステップ(f)と、前記ステップ(f)で算出された各移動サンプルラインの速度に基づいて、前記道路の交通渋滞の状況を計測するステップ(g)と、を備え、前記ステップ(b)が、時刻tにおける画像上の各移動サンプルラインの前記道路の上流側および下流側に隣接する各サンプルラインのサンプル点の輝度値の平均輝度値を算出するステップを有し、前記ステップ(e)が、前記ビデオカメラの前記道路上の位置からの各移動サンプルラインに対応する前記道路上の実際の位置までの距離および前記時間γに基づいて、時刻t+γの画像上に時刻tの画像上の各移動サンプルラインの各第1の移動先範囲を設定するステップ(e1)と、前記各第1の移動先範囲を、各第1の移動先範囲の前記道路の上流側に一サンプルライン分ずらして構成される各第2の移動先範囲を設定するステップ(e2)と、前記各第1の移動先範囲を、各第1の移動先範囲の前記道路の下流側に一サンプルライン分ずらして構成される各第3の移動先範囲を設定するステップ(e3)と、時刻tにおける画像上の各移動サンプルラインの平均輝度値と、時刻t+γにおける画像上の各第1の移動先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出するステップ(e4)と、時刻tにおける画像上の各移動サンプルラインの前記道路の上流側に隣接するサンプルラインの平均輝度値と、時刻t+γにおける画像上の各第2の移動先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出するステップ(e5)と、時刻tにおける画像上の各移動サンプルラインの前記道路の下流側に隣接するサンプルラインの平均輝度値と、時刻t+γにおける画像上の各第3の移動先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出するステップ(e6)と、時刻tにおける画像上の各移動サンプルラインに対応する前記ステップ(e4)、(e5)および(e6)で算出された差の絶対値を、各移動サンプルライン毎に総和するステップ(e7)と、該ステップ(e7)で算出された総和のなかの時刻tにおける画像上の各移動サンプルライン毎の最小の総和が、所定値よりも小さいか否かを判別するステップ(e8)と、該ステップ(e8)で前記最小の総和が前記所定値よりも小さいと判別されたとき、前記各最小の総和に対応する時刻t+γの画像上の各サンプルラインを、時刻tにおける画像上の各移動サンプルラインに対応する各移動先サンプルラインとして検出するステップ(e9)と、を有する交通渋滞計測方法が提供される。
第9の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、前記ビデオカメラにより撮影されて、車両が存在していないと推測される画像を基準輝度画像として設定するステップ(a)と、所定時刻の画像と前記基準輝度画像とに基づいて、前記所定時刻の画像上の車両の存在を検出するステップ(b)と、該ステップ(b)後、前記基準輝度画像を更新するステップ(c)と、前記ステップ(b)とステップ(c)とを所定の時間間隔で繰り返すステップ(d)と、を備え、前記ステップ(c)では、前記基準輝度画像が、次式によって更新され、Bn+1=Bn+η×(Xn−Bn)ここに、Xnは、時刻tnの画像の各画素の輝度値、Bnは、時刻tnの画像上の車両の存在を検出するのに使われる基準輝度画像の各画素の輝度値、Bn+1は、時刻tn+1の画像上の車両の存在を検出するのに使われる基準輝度画像の各画素の輝度値を表し、tn+1−tnが前記所定の時間間隔に等しく、ηは可変係数であり、|Xn−Bn|が大きいほど小さくするともに、車両の渋滞度が高くなるほど小さくするようにした交通渋滞計測方法が提供される。
第10の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、複数のサンプル点を設定し、前記複数のサンプル点間の距離と実際の距離を記憶するとともに、所定時刻の画像を複数個に区分する前記複数のサンプル点により構成されるメッシュ毎に、存在する車両の平均速度を表す空間速度を算出するステップ(a)と、前記空間速度に基づいて、渋滞が発生しているメッシュを渋滞領域として検出するステップ(b)と、前記渋滞領域およびステップ(a)で記憶した前記複数のサンプル点間の距離と実際の距離に基づいて交通渋滞を検出するステップ(c)と、を備えた交通渋滞計測方法が提供される。
また、上記交通渋滞計測方法において、前記メッシュ毎に、存在している移動中の車両の密度を表す移動密度を算出するステップ(d)を備え、前記ステップ(b)では、前記空間速度に加え前記移動密度に基づいて、渋滞が発生しているメッシュを渋滞領域として検出する構成を有しても良い。
また、上記交通渋滞計測方法において、前記ステップ(c)はさらに、前記渋滞領域の末尾位置を検出するステップ(c1)を有し、さらに、ステップ(c1)で検出された前記渋滞領域の末尾位置を、前記ビデオカメラの撮影領域内の道路に向かおうとしている車両の運転者に、リアルタイムに通知するステップ(d)を備えた構成を有しても良い。
第11の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測装置であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを前記動画像上に設定し、前記複数のサンプル点間の距離と実際の距離を記憶する手段と、前記ビデオカメラにより撮影されて、車両が道路上に存在していないと推測される基準輝度画像を作成する手段と、前記一連の画像のうちの所定時刻の画像と前記基準輝度画像との輝度の差を表す差分画像を算出して、前記所定時刻の画像と前記基準輝度画像との位置的に対応するサンプル点の輝度の差を表す輝度差分値を算出する手段と、前記差分画像上の各サンプル点の輝度差分値に基づいて、前記基準輝度画像上のサンプルラインとの輝度の差が所定値より大きな前記所定時刻の画像上のサンプルラインを、差分サンプルラインとして検出する手段と、前記差分画像を空間微分して、差分画像上の各サンプル点の微分値を算出する手段と、空間微分された前記差分画像上の各サンプル点の微分値に基づいて、前記所定時刻の画像上のサンプルラインのうちの、隣接するサンプルラインとの輝度の差が所定値より大きなサンプルラインを、エッジラインとして検出する手段と、前記差分サンプルラインと前記エッジラインとの両方に基づいて、車両が存在していると推測される存在サンプルラインとして検出する手段と、前記存在サンプルラインの密度および記憶した前記複数のサンプル点間の距離と実際の距離に基づいて、交通渋滞の状況を計測する手段と、を備えた交通渋滞計測装置が提供される。
第12の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測装置であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定する第1の手段と、前記所定時刻の画像上の、移動中の車両が存在していると推測されるサンプルラインを、移動サンプルラインとして検出する第2の手段と、前記移動サンプルラインに基づいて、交通渋滞の状況を計測する第3の手段と、を備え、前記第1の手段が、tを前記所定時刻、αを正の時間間隔として、時刻tの画像と時刻t−αの画像との輝度の差を表す第1の差分画像を算出する手段と、前記第1の差分画像に所定の第1の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第1の特徴抽出画像を作成する手段と、βを正の時間間隔として、時刻tの画像と時刻t+βの画像との輝度の差を表す第2の差分画像を算出する手段と、前記第2の差分画像に所定の第2の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第2の特徴抽出画像を作成する手段と、前記第1の特徴抽出画像と前記第2の特徴抽出画像との論理積を表す積画像を算出する手段と、前記積画像における「1」のレベルを有する画素に対応するサンプル点を、移動サンプル点として検出する手段と、前記サンプルラインのうち、所定の割合以上の移動サンプル点を含むサンプルラインを、移動サンプルラインとして検出する手段と、を備えた交通渋滞計測装置が提供される。
第13の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測装置であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定する手段と、前記一連の画像のうちの所定時刻における画像上の各サンプル点の輝度に基づいて車両が存在していると推測されるサンプルラインを、存在サンプルラインとして検出する手段と、前記存在サンプルラインに基づいて、前記所定時刻の前記道路上に存在する車両の密度を算出する手段と、前記所定時刻の画像に描写された全車両に対して、所定サイズより大きな車両が含まれている割合を推定する手段と、前記割合に基づいて、前記車両の密度を補正する手段と、を備えた交通渋滞計測装置が提供される。
第14の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測装置であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定する第1の手段と、前記一連の画像のうちの所定時刻tにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出する第2の手段と、γを正の時間間隔として、前記一連の画像のうちの時刻t+γにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出する第3の手段と、前記時刻tの画像上の、移動中の車両が存在していると推定されるサンプルラインを、移動サンプルラインとして検出する第4の手段と、前記時刻t+γにおける画像上のサンプルラインの中から、前記時刻tにおける画像上の各移動サンプルラインの移動先と推測されるサンプルラインを、移動先サンプルラインとして検出する第5の手段と、前記移動サンプルラインと前記移動先移動サンプルラインとに対応する道路上の実際の二つの位置間の距離と前記時間γとに基づいて、各移動サンプルラインの速度を算出する第6の手段と、算出された各移動サンプルラインの速度に基づいて、前記道路の交通渋滞の状況を計測する第7の手段と、を備え、前記第5の手段が、前記ビデオカメラの前記道路上の位置からの各移動サンプルラインに対応する前記道路上の実際の位置までの距離および前記時間γに基づいて、時刻t+γの画像上に時刻tの画像上の各移動サンプルラインの各移動先範囲を設定する第8の手段と、時刻t+γにおける画像上の前記各移動先範囲内の各サンプルライン平均輝度値と、時刻tにおける画像上の各移動サンプルラインの平均輝度値との差の絶対値を算出する第9の手段と、該第9の手段で算出された絶対値が、所定値よりも小さいか否かを判別する第10の手段と、該第10の手段で前記絶対値のなかの最小の絶対値が前記所定値よりも小さいと判別されたとき、前記最小の絶対値に対応する時刻t+γの画像上の各サンプルラインを、各移動先サンプルラインとして検出する第11の手段と、を有する交通渋滞計測方法が提供される。
第15の発明によれば、ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測装置であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定する第1の手段と、前記一連の画像のうちの所定時刻tにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出する第2の手段と、γを正の時間間隔として、前記一連の画像のうちの時刻t+γにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出する第3の手段と、前記時刻tの画像上の、移動中の車両が存在していると推定されるサンプルラインを、移動サンプルラインとして検出する第4の手段と、前記時刻t+γにおける画像上のサンプルラインの中から、前記時刻tにおける画像上の各移動サンプルラインの移動先と推測されるサンプルラインを、移動先サンプルラインとして検出する第5の手段と、前記移動サンプルラインと前記移動先移動サンプルラインとに対応する道路上の実際の二つの位置間の距離と前記時間γとに基づいて、各移動サンプルラインの速度を算出する第6の手段と、算出された各移動サンプルラインの速度に基づいて、前記道路の交通渋滞の状況を計測する第7の手段と、を備え、前記第2の手段が、時刻tにおける画像上の各移動サンプルラインの前記道路の上流側および下流側に隣接する各サンプルラインのサンプル点の輝度値の平均輝度値を算出する手段を有し、前記第5の手段が、前記ビデオカメラの前記道路上の位置からの各移動サンプルラインに対応する前記道路上の実際の位置までの距離および前記時間γに基づいて、時刻t+γの画像上に時刻tの画像上の各移動サンプルラインの各第1の移動先範囲を設定する第8の手段と、前記各第1の移動先範囲を、各第1の移動先範囲の前記道路の上流側に一サンプルライン分ずらして構成される各第2の移動先範囲を設定する第9の手段と、前記各第1の移動先範囲を、各第1の移動先範囲の前記道路の下流側に一サンプルライン分ずらして構成される各第3の移動先範囲を設定する第10の手段と、時刻tにおける画像上の各移動サンプルラインの平均輝度値と、時刻t+γにおける画像上の各第1の移動先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出する第11の手段と、時刻tにおける画像上の各移動サンプルラインの前記道路の上流側に隣接するサンプルラインの平均輝度値と、時刻t+γにおける画像上の各第2の移動先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出する第12の手段と、時刻tにおける画像上の各移動サンプルラインの前記道路の下流側に隣接するサンプルラインの平均輝度値と、時刻t+γにおける画像上の各第3の移動先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出する第13の手段と、時刻tにおける画像上の各移動サンプルラインに対応する前記第11の手段、前記第12の手段および前記第13の手段で算出された差の絶対値を、各移動サンプルライン毎に総和する第14の手段と、該第14の手段で算出された総和のなかの時刻tにおける画像上の各移動サンプルライン毎の最小の総和が、所定値よりも小さいか否かを判別する第15の手段と、該第15の手段で前記最小の総和が前記所定値よりも小さいと判別されたとき、前記各最小の総和に対応する時刻t+γの画像上の各サンプルラインを、時刻tにおける画像上の各移動サンプルラインに対応する各移動先サンプルラインとして検出する第16の手段と、を有する交通渋滞計測方法が提供される。
【図面の簡単な説明】
本発明の上述の目的、特徴および長所とその他の目的、特徴および長所は、以下の図面と共に、後述される発明の好適な実施例の詳細な記載から明らかになる。
第1図は、本発明に係る交通渋滞計測方法および装置を適用した交通管制システムの第1の実施例を示す図である。
第2図は、第1図に示されたビデオカメラが撮影する領域を示す斜視図である。
第3図は、第1図に示された渋滞計測装置を示すブロック図である。
第4図は、第1図に示された渋滞計測システムの渋滞計測手順を示すフローチャートである。
第5図は、第4図に示されたフローチャートの各ステップの算出結果や検出結果の関係を示す図である。
第6図は、第1図に示されたビデオカメラで撮影された画像上に設定するサンプル点を示す図である。
第7図は、第4図に示されたフローチャートのステップS2の詳細な手順を示すフローチャートである。
第8図は、第7図に示されたフローチャートのステップS2bで作成されるサンプル点画像を示す図である。
第9図は、第4図に示されたフローチャートのステップS2で検出される存在サンプル点を示す図である。
第10図は、第4図に示されたフローチャートのステップS3の詳細な手順を示すフローチャートである。
第11図は、第10図に示されたフローチャートのステップS3a〜ステップS3kにより作成される各画像の関係を示す図である。
第12図は、第10図に示されたフローチャートのステップS3jおよびS3kのそれぞれで作成される第1の特徴抽出画像および第2の特徴抽出願像と、第10図のフローチャートのステップS3lで作成される積画像との関係を示す図である。
第13図は、第4図に示されたフローチャートのステップのS4の詳細な手順を示すフローチャートである。
第14図は、第4図に示されたフローチャートのステップS4で検出される移動ブロックを示す図である。
第15図は、第4図に示されたフローチャートのステップS5で検出される渋滞サンプル点の検出方法を説明する図である。
第16図は、第4図に示されたフローチャートのステップS6の詳細な手順を示すフローチャートである。
第17図は、第4図に示されたフローチャートのステップS6で検出される渋滞ブロックを示す図である。
第18図は、第4図に示されたフローチャートのステップS7の詳細な手順を示すフローチャートである。
第19図は、第18図に示されたフローチャートのステップS7aで検出された渋滞範囲と、ステップS7cで補正された渋滞範囲の関係を示す図である。
第20図は、本発明に係る交通渋滞計測方法および装置を適用した交通管制システムの第2の実施例を示す図である。
第21図は、第20図に示された渋滞計測装置の空間計測領域と交通流計測領域との関係を示す図である。
第22図は、第20図に示された渋滞計測システムの空間密度計測手順を示すフローチャートである。
第23図は、第22図に示されたフローチャートの各ステップの算出結果や検出結果の関係を示す図である。
第24図は、第22図に示されたフローチャートのステップP1で作成されるサンプル点画像と、同ステップで設定されるサンプルラインとの関係を示す図である。
第25図は、第22図に示されたフローチャートのステップP4の詳細な手順の第1例を示すフローチャートである。
第26図は、第22図に示されたフローチャートのステップP4の詳細な手順の第2例を示すフローチャートである。
第27図は、第22図に示されたフローチャートのステップP5の詳細な手順の第1例を示すフローチャートである。
第28図は、第22図に示されたフローチャートのステップP5の詳細な手順の第2例を示すフローチャートである。
第29図は、第22図に示されたフローチャートのステップP7の詳細な手順を示すフローチャートである。
第30図は、第22図に示されたフローチャートのステップP7における存在サンプルラインの補正前、途中、後の変化を示す図である。
第31図は、第22図に示されたフローチャートのステップP8の詳細な手順を示すフローチャートである。
第32図は、第22図に示されたフローチャートのステップP9の詳細な手順を示すフローチャートである。
第33図は、第22図に示されたフローチャートのステップP10の詳細な手順を示すフローチャートである。
第34図は、第22図に示されたフローチャートのステップP10における存在サンプルラインの補正前後の変化を示す図である。
第35図は、第22図に示されたフローチャートのステップP12におけるメッシュ毎の空間密度を表す図である。
第36図は、第22図に示されたフローチャートのステップP15における大型車混入率に基づく空間密度の補正が必要になる理由を説明するための図である。
第37図は、第20図に示された渋滞計測システムの空間速度の計測手順を示すフローチャートである。
第38図は、第37図に示されたフローチャートの各ステップの算出結果や検出結果の関係を示す図である。
第39図は、第37図に示されたフローチャートのステップQ4の詳細な手順の第1例を示すフローチャートである。
第40図は、第37図に示されたフローチャートのステップQ4の詳細な手順の第2例を示すフローチャートである。
第41図は、第40図に示されたフローチャートのステップQ4Jにおける移動サンプルラインおよび該移動サンプルライン前後の2つのサンプルラインと、これら移動サンプルライン、2つのサンプルラインのそれぞれの予想移動範囲との関係を示す図である。
第42図は、第20図に示された渋滞計測システムの渋滞領域末尾位置の計測手順の第1例を示すフローチャートである。
第43図は、第20図に示された渋滞計測システムの渋滞領域末尾位置の計測手順の第2例を示すフローチャートである。
第44図は、第42図および第43図に示されたフローチャートの各ステップの算出結果や検出結果の関係を示す図である。
第45図は、第42図に示されたフローチャートの手順で計測された渋滞領域末尾置を示す図である。
発明の好ましい実施例
(第1の実施例)
本発明に係る交通渋滞計測方法および装置を採用した交通管制システムの第1の実施例を、第1図〜第19図を参照しつつ以下に詳細に説明する。
第1図に示すように、交通管制システムは、交差点IS近傍に配置されたビデオカメラ11〜14、渋滞計測装置21〜24、信号機31〜34、信号制御装置41〜44および中継装置50、並びに、交差点ISからは遠く離れた所に位置する交通管制センター内に設けられた中央制御装置60を備えている。ビデオカメラ11〜14は、第2図に示すように、交差点IS近傍の路面から例えば高さ10mの位置に配置され、交差点近傍位置から150mの距離の3車線分の領域Yを撮影する。また本実施例においては、ビデオカメラ11〜14は、車両の進行方向下流側から上流側を撮影するように向けられている。
渋滞計測装置21〜24は、交差点ISに流入する車両の台数、速度および車種に基づいて交通流量を計測するとともに、渋滞範囲、言い換えれば渋滞長を計測することができる。渋滞計測装置21〜24のそれぞれは、第3図に示すように、CPU2、画像メモリ3、入力装置4、表示装置5、格納装置6、伝送装置7、RAM(Random Access Memory)8およびROM(Read-only Memory)9を備えている。
ビデオカメラ11〜14により撮影された画像データは、それぞれ渋滞計測装置21〜24のCPU2に伝送される。伝送された画像データはCPU2を介して画像メモリ3に格納される。ROM9には、渋滞検出に関する各種プログラムが格納されており、CPU2は、ROM9から必要なプログラムを読み出して、RAM8を作業エリアとして、プログラムを実行する。プログラムの実行により、画像メモリ3から必要な画像データが読み出され、この画像データに基づいて、種々の計算値が算出され、最終的には後述の状態状況の計測結果が算出される。プログラムの実行中に算出される各種計算値は、一時的に、画像メモリ3に記憶されるようになっている。渋滞状況の計測結果は、表示装置5、格納装置6および伝送装置7に出力される。表示装置5は、入力された渋滞状況を表示する。格納装置6は、入力された渋滞状況を格納する。伝送装置7は、入力された渋滞状況を中継装置50を通して、第1図に示された交通管制センターの中央制御装置60に送信する。入力装置4は、各種設定値や閾値を入力したり、これらを変更したりする際に用いられる入力手段である。
再び第1図において、交通管制センターの中央制御装置60は、渋滞計測装置21〜24の計測結果に基づいて、中継装置50を介して信号制御装置41〜44に信号制御パターンを送信する。例えば、ビデオカメラ11、13から画像データを入力する渋滞計測装置21、23が、ビデオカメラ12、14から画像データを入力する渋滞計測装置22、24よりも、長い渋滞範囲を計測した場合、中央制御装置60は、信号機31、33の青信号の時間間隔が、信号機32、34の青信号の時間間隔よりも長くなるような、信号制御パターンを信号制御装置41〜44に送出して、ビデオカメラ11、13により撮影されている道路上の渋滞を緩和させるようにしている。
ここで、上述のように構成される交通渋滞計測装置により実行される渋滞計測方法を、まず、第4図に示されるステップS1〜S8のフローチャートに従って、概略的に説明する。
ステップS1で、ビデオカメラにより撮影された画像上に複数のサンプル点を設定する。例えば、第6図に示される画像71がビデオカメラにより撮影された場合、サンプル点は「・」により示される。ステップS2で、時刻tnにおける画像上の、車両が存在していると推測されるサンプル点を、存在サンプル点として検出する。ステップS3で、時刻tnの画像上の、移動中の車両が存在していると推測されるサンプル点を、移動サンプル点として検出する。ステップS4で、所定の割合以上の移動サンプル点を含む互いに隣接する複数のサンプル点から構成される矩形のブロックを、移動ブロックとして検出する。ステップS5で、移動ブロックから外れた存在サンプル点を、渋滞サンプル点として検出する。ステップS6で、所定の割合以上の渋滞サンプル点を含む互いに隣接する複数のサンプル点から構成される矩形のブロックを、渋滞ブロックとして検出する。ステップS7で、渋滞ブロックに基づいて、時刻tnにおける計測領域内の交通渋滞の状況を計測する。ステップS8で、n←n+1として、ステップS2に戻る。「n」は、正の整数であり、|tn+1−tn|は一定である。したがって、上記ステップS2〜S7の各手順は一定の時間間隔で繰り返される。
第5図は、上記ステップS1〜S7における検出結果あるいは算出結果の概略的な関係を示す図である。これら検出結果あるいは算出結果の詳細は、後述する各ステップS1〜S7の詳細な説明により明らかになる。
上記ステップS1のサンプル点の設定について、下記に詳説する。
第6図に示された画像71は、同図の下側がビデオカメラから距離が近い領域に相当し、第6図の上側がビデオカメラから距離が遠い領域に相当する。また、画像71には3車線が示されており、画像71内の実線で示す矩形は車両を示している。第6図から理解されるように、サンプル点の道路横断方向の間隔が実際の道路上で等間隔になるようにサンプル点を道路横断方向に配置する。このようにサンプル点を配置するのは、道路横断方向では位置の歪みが小さく、また簡単に実際の長さに変換できるためである。
一方、車両走行方向については、ビデオカメラから遠い位置ではサンプル点の間隔を狭くし、近い位置ではサンプル点の間隔を広くする。このようにサンプル点を配置するのは、ビデオカメラ近傍では車両が大きく写るのでサンプル点が疎であってもその走行状態を検出できるが、遠方では車両が小さく写るのでサンプル点を密にしないとその走行状態を検出できないからである。例えば、計測範囲内のビデオカメラから最遠地点における走行方向のサンプル点間隔を画像上での1画素間隔とし、それより近いところでは、車両を検知できる程度にサンプル点間隔を広くする。この場合、予め決めておいたサンプル点のトータル数の上限値に応じて、サンプル点間隔を設定する。このようにしておくと、遠方での車両の走行状態の検出を確保できると共に、処理時間を短縮できる。そして、ビデオカメラから遠方である領域の検出を入力画像の限界まで確保しつつ、サンプル点数の上限を設定したことにより、検出処理を高速化させるとともに、高価な専用ハードウェアを不要とすることができる。また、ビデオカメラの解像度を定数として設定するだけで様々な解像度のビデオカメラを簡単に利用することができる。このサンプル点の設定時に、ビデオカメラの路面上の位置から各車線に沿った各サンプル点までの実際の距離と、各車線に沿った各サンプル点間の実際の距離を、車線毎に格納装置6の記憶領域に作成された距離テーブルに記憶しておく。
次に、第4図のステップS2の存在サンプル点の検出手順を、第7図のステップS2a〜S2gのフローチャートに従って、下記に詳説する。
ステップS2aで、後述の二値化処理に用いる各閾値TH1を、ビデオカメラの道路上の位置から各サンプル点に対応する道路上の実際の各位置までの距離に応じて設定する。ステップS2bでは、時刻tnの画像のサンプル点に対応する画素のみからなるサンプル点画像を作成する。第8図は、サンプル点画像の一例を示す図であり、同図から理解されるように、サンプル点画像は、時刻tnの画像上のサンプル点を直行座標系に変換して構成されており、第8図に示すサンプル点の配列と同じ2次元配列のデータ形式メモリ上に記憶されるようになっている。また、サンプル点画像上のサンプル点に対応する各画素の輝度値は8ビットデータで表されるようになっている。
ステップS2bからステップS2cに進むと、サンプル点画像と基準輝度画像との各サンプル点の輝度値の差を表す輝度差分値を算出することにより差分画像を算出する。存在サンプル点検出の最初のフローにおける基準輝度画像は、車両に対する背景のみを描写したものであり、計測を開始する環境に近い状態において撮影されたものである。望ましくは、最初の基準輝度画像としては、渋滞計測領域内の道路上に車両が全く存在していない画像であることが望ましい。しかしながら、適切な基準輝度画像を予め準備するのは、天候の変化や時間経過により時々刻々と画像上の輝度が変化するため非常に困難であるため、実際には、車両が存在していないとみなすことができる画像、すなわち、実際には数台の車両が存在していたとしても、実際に車両が全く存在していない場合の画像と近似した画素データを有する画像であればよい。また、この基準輝度画像もサンプル点に対応する画素のみからなり、上述のサンプル点画像と同様に構成されている。
ステップS2dでは、ステップS2cでの差分画像を用いて、次の時刻tn+1のサンプル点画像に対応する差分画像を算出するのに使われる基準輝度画像Bn+1を次式によって更新する。
Bn+1=Bn+η×(Xn−Bn) …(i)
ここに、Xnは、時刻tnのサンプル点画像の各サンプル点の輝度値、Bnは、時刻tnのサンプル点画像に対応する差分画像を算出するのに使われた基準輝度画像の各サンプル点の輝度値、Bn+1は、時刻tn+1のサンプル点画像の差分画像を算出するのに使われる輝度値とする。ηは可変値であり、|Xn−Bn|が大きいほど、あるいは、渋滞度が高いほど、小さくする。|Xn−Bn|が大きいほどηを小さくするのは、輝度変化が大きいほど車両が存在する可能性が高いからである。このときのηは、各サンプル点毎に設定される。一方、渋滞度が高いほどηを小さくするのは、渋滞中の車両の輝度を基準輝度画像に取り込まないようにするためである。このときのηは、車線毎あるいは所定の領域毎に設定する。渋滞度は後述の渋滞範囲の検出結果から判定する。
上式(i)で基準輝度画像を更新することにより、天候や時間経過に伴う日差しの変化に基準輝度画像を自動的に追随させることができる。また、上式(i)で基準輝度画像を更新するのは、ステップS2cで算出する「Xn−Bn」の計算値をそのまま利用することができ、計算量を削減することができるからである。なお、計算量が多くなるが、基準輝度画像の更新処理を次式(ii)を使ってステップS2cの直前に行ってもよい。
Bn+1=Bn+η×(Xn+1−Bn) …(ii)
ステップS2eで、差分画像を車両進行方向にソーベル微分子で空間微分し、次いでステップS2fで、空間微分された差分画像のサンプル点の各微分値をステップS2aで設定された各閾値TH1で二値化する。この結果、サンプル点は、「0」レベルか「1」レベルのどちらかの値になる。「1」レベルのサンプル点には、車両が存在していると推測することができ、「0」レベルのサンプル点には、車両が存在していないと推測することができるので、ステップS2gで、「1」レベルのサンプル点を、存在サンプル点として検出する。このようにして検出された存在サンプル点の配置例を第9図に示す。
なお、上記ステップS2aにおける各閾値TH1は、ビデオカメラの道路上の位置からから遠い位置に対応するサンプル点の識別に用いられるものほど、小さくなるように設定するとよい。これは、ビデオカメラから遠い位置では近い位置に比べて画像がぼやけ、車両と背景との輝度差が小さくなるからである。このようにビデオカメラの道路上の位置から各サンプル点に対応する道路上の各位置までの実際の距離に応じて各サンプル点での閾値を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度で存在サンプル点を検出することができる。
次に、第4図のステップS3の移動サンプル点の検出手順を、第10図のステップS3a〜S3mのフローチャートに従って、下記に詳説する。なお、各ステップの説明において、第11図および第12図を参照すると理解が容易になる。
まず、ステップS3aで、サンプル点画像をM個の領域に分割する。本実施例では、ビデオカメラから遠い領域、中間距離の領域、近い領域の3つに分割するので、M=3になる。ステップS3bで、m番目の領域に対応する時間間隔αm、βmと、後述の二値化の閾値TH1、TH2を設定する。ここに、αm、βmは正の時間であり、α1<α2<α3、β1<β2<β3とする。このように、αm、βmを設定するのは以下の理由による。ビデオカメラから近い位置では遠い位置に比べて、画像における見かけ上の車両の移動は速くなる。よって、ビデオカメラから近い位置では車両の移動を短時間差の画像間の比較により十分に検出することができるので、ビデオカメラから近い位置にあるサンプル点に対するαm、βmの値は小さく設定する。一方、ビデオカメラから遠い位置では車両の移動を短時間差の画像間の比較では検出することが困難であるので、ビデオカメラから遠い位置にあるサンプル点に対するαm、βmの値は大きく設定する。また、αm、βmには、異なる値を用いてもよいが、通常は、αm=βmとするのが好ましい。
上記ステップS3bに続くステップS3cで、時刻tn、tn−αm、tn+βmに対応するサンプル点画像を作成する。ステップS3dで、時刻tnのサンプル点画像のm番目の領域と、時刻t−αmのサンプル点画像のm番目の領域との輝度の差を表す第1の差分領域を算出する。ステップS3eでは、第1の差分領域をステップS3bで設定された閾値TH1で二値化し、第1の特徴抽出領域を算出する。この結果、第1の特徴差分領域のサンプル点の値は「0」レベルか「1」レベルの何れかになる。
ステップS3fで、時刻tnのサンプル点画像のm番目の領域と、時刻tn+βmのサンプル点画像のm番目の領域との輝度の差を表す第2の差分領域を算出する。ステップS3fからステップS3gに進み、第2の差分領域をステップS3bで設定された閾値TH2で二値化し、第2の特徴抽出領域を算出する。この結果、第2の特徴抽出領域のサンプル点の値は「0」レベルか「1」レベルの何れかになる。
ステップS3gに続くステップS3hとステップS3iとにより、m=Mになるまで、ステップS3b〜S3gが繰り返される。この結果、3つの第1の特徴抽出領域と3つの第2の特徴抽出領域が算出される。ステップS3jでは、全部の第1の特徴抽出領域を結合して、第1の特徴抽出画像を作成する。同様に、ステップS3kでは、全部の第2の特徴抽出領域を結合して、第2の特徴抽出画像を作成する。
ステップS3lでは、第1の特徴抽出画像と第2の特徴抽出画像との論理積をとって、積画像を作成し、ステップS3mでは、積画像の「1」レベルのサンプル点を、移動サンプル点として検出する。第1、第2の特徴抽出画像と積画像の関係は、第12図に例示される。
上述のように、時刻tnの前後の画像を使って、移動サンプル点を検出するのは、時刻tnの前あるいは後だけの画像を使って移動サンプル点を検出しようとすると、第12図の第1または第2の特徴抽出画像から分かるように、時刻tnの画像には存在していない移動車両が特徴抽出画像に残り、第1の特徴抽出画像だけから、あるいは、第2の特徴抽出画像だけからでは、正確な移動サンプル点を検出することができないからである。
なお、この移動サンプル点の検出処理において、時間間隔αm、βmを調整することにより、例えば20km/h以下の低速で移動する車両についてのサンプル点が移動サンプル点として検出されないようにすることも可能であり、このようにαm、βmを設定することにより、本実施例を低速車両による渋滞の検出にも適用することができる。
次に、第4図のステップS4の移動ブロックの検出手順を、第13図のステップS4a〜S4jのフローチャートに従って、下記に詳説する。
ステップs4aで、計算開始位置を、サンプル点画像の左上角に設定する。候補ブロックとは、それぞれが時刻tnのサンプル点画像を部分的に構成する縦横に隣接して並ぶサンプル点からなる矩形のブロックであり、移動ブロックの検出対象になるブロックである。ステップS4bで、ビデオカメラの道路上の位置からの各候補ブロックに対応する道路上の各位置までの距離に応じたブロックサイズおよび閾値TH1を設定する。
ステップS4cで、候補ブロック内に含まれるサンプル点の総数に対する移動サンプル点の割合を算出し、ステップS4dで、候補ブロック内の移動サンプル点の割合がステップS4bで設定された閾値TH1より大きいか否かが判定される。ステップS4dの判定が「YES」であれば、ステップS4dからステップS4eに進み、候補ブロックを移動ブロックとして検出する。ステップS4dの判定が「NO」であれば、ステップS4dからS4fに進む。ステップS4fとステップS4gによって、右方向(道路横断方向の右)に1サンプル点ピッチで並ぶ各候補ブロック全部に対して、ステップS4c〜S4eが繰り返される。
ステップS4fに続くステップS4hでは、候補ブロックの計算開始位置をサンプル点画像の最左端に移動する。ステップS4iとステップS4jによって、ステップS4b〜S4hが繰り返される。すなわち、横一列分づつの候補ブロックに対する検出処理が下方向(車両走行方向の手前)に繰り返される。この結果、サンプル点画像に含まれる全ての候補ブロックに対して検出処理が実行され、サンプル点画像に含まれる移動ブロックを全て検出することができる。
第14図は、互いに部分的に重なり合う二つの移動ブロックが検出された例を示されている。第14図に示された移動ブロックは、縦5列、横3列のサンプル点から構成され、「◎」が移動サンプル点、「○」が移動サンプル点以外のサンプル点を示す。検出された移動ブロック内の移動サンプル点の割合は60%であり、このときの、移動ブロック検出の判定基準である閾値TH1は55%である。なお、第14図に示すように、移動ブロック内に入らない移動サンプル点はノイズとして除去する。
上記ステップS4bにおける候補ブロックのサイズ、すなわち、候補ブロックに含まれるサンプルの総数と、閾値TH1は以下のように設定するとよい。候補ブロックのサイズは、画像上に描写される平均的な車両のサイズにほぼ一致させるように設定し、結果的に移動ブロックがサンプル点画像上で一つの車両を表すようにする。このため、ビデオカメラから遠い領域では、車両が小さい像として得られるので候補ブロックの大きさを小さく設定し、ビデオカメラから近い領域では、車両が大きい像として得られるのでブロックの大きさを大きくする。一方、閾値TH1は、ビデオカメラから遠い領域では隣接する画素間の輝度差が小さいので小さくし、ビデオカメラから近い領域では逆に大きくする。このようにすることにより、ビデオカメラからの距離に影響されることなく、すべての領域において同程度の精度で移動ブロックを検出することができる。
第4図のステップS5では、上記の移動ブロックから外れた存在サンプル点を、渋滞サンプル点として検出する。第15図は、渋滞サンプル点の検出例を示している。第15において、「・」は存在サンプル点、「○」は存在サンプル点以外のサンプル点、「☆」は渋滞サンプル点を示している。
次に、第4図のステップS6の渋滞ブロックの検出手順を、第16図のステップS6a〜S6jのフローチャートに従って、下記に詳説する。
ステップS6aで、計算開始位置を、サンプル点画像の左上角に設定する。候補ブロックとは、それぞれが時刻tnのサンプル点画像を部分的に構成する縦横に隣接して並ぶサンプル点からなる矩形のブロックであり、渋滞ブロックの検出対象になるブロックである。ステップS6bで、ビデオカメラの道路上の位置からの各候補ブロックに対応する道路上の各位置までの距離に応じたブロックサイズおよび閾値TH1を設定する。
ステップS6cで、候補ブロック内のサンプル点の総数に対する渋滞サンプル点の数の割合を算出し、ステップS6dで、候補ブロック内の渋滞サンプル点の割合がステップS6bで設定された閾値TH1より大きいか否かが判定される。ステップS6dでの判定が「YES」であれば、ステップS6dからステップS6eに進み、候補ブロックを渋滞ブロックとして検出する。ステップS6dでの判定が「NO」であれば、ステップS6dからS6fに進む。
ステップS6fとステップS6gによって、右方向(道路横断方向の右)に1サンプル点ピッチで並ぶ各候補ブロック全部に対して、ステップS6c〜S6eの各動作が繰り返される。
ステップS6fからステップS6hに進むと、候補ブロックの計算開始位置をサンプル点画像の最左端に移動する。ステップS6iとステップS6jによって、ステップS6b〜S6hが繰り返される。すなわち、横一列分づつの候補ブロックに対する検出処理が下方向(車両走行方向の手前)に繰り返される。この結果、サンプル点画像に含まれる全ての候補ブロックに対して検出処理が実行され、サンプル点画像に含まれる渋滞ブロックを全て検出することができる。
第17図は、互いに部分的に重なり合う二つの渋滞ブロックが検出された例を示している。第17図に示された渋滞ブロックは、縦5列、横3列のサンプル点から構成され、「☆」が渋滞サンプル点、「○」が渋滞サンプル点以外のサンプル点を示す。このときの、渋滞ブロック検出の判定基準である閾値TH1は45%であり、第17図に示す検出された渋滞ブロックの渋滞サンプル点の割合は、47%である。なお、第17図に示すように、渋滞ブロック内に入らない渋滞サンプル点はノイズとして除去する。
上記ステップS6bにおける候補ブロックのサイズと、閾値TH1は前述の移動ブロックの検出処理における設定と同様にすればよい。候補ブロックのサイズは、画像上に描写される平均的な車両のサイズにほぼ一致させるように設定し、結果的に渋滞ブロックがサンプル点画像上で一つの車両を表すようにする。このため、ビデオカメラから遠い領域では、車両が小さい像として得られるので候補ブロックの大きさを小さく設定し、ビデオカメラから近い領域では、車両が大きい像として得られるのでブロックの大きさを大きくする。一方、閾値TH1は、ビデオカメラから遠い領域では隣接する画素間の輝度差が小さいので小さくし、カメラから近い領域では逆に大きくする。このようにすることにより、カメラからの距離に影響されることなく、すべての領域において同程度の精度で渋滞ブロックを検出することができる。
次に、第4図のステップS7の渋滞状況の計測手順を、第18図のステップS7a〜S7cのフローチャートに従って、下記に詳説する。
ステップS7aで、車線毎に渋滞ブロックが存在するエリアを渋滞範囲と検出する。各渋滞ブロックエリアには、単独の渋滞ブロック、互いに連結あるいは互いに重なり合う複数の渋滞ブロックが存在する。第19図は、計測領域内の渋滞ブロックが存在する領域の一例を示している。もし、2車線に跨った渋滞ブロックがあるときは、その存在範囲が大きい方の車線に渋滞ブロックが存在するものと判定する。
ステップS7bで、各車線にて検出した渋滞範囲を、前述の距離テーブルを参照して、実際の道路上の距離に変換する。ステップS7cで、過去の渋滞位置のプロファイルから、急激な渋滞位置の変動をノイズとして除去し、渋滞位置を平滑化する補正処理を行うことにより、渋滞範囲を補正して、渋滞状況の最終的な計測結果として出力する。
上述の実施例によれば、画像の全ての画素の輝度データを処理せずに、特定のサンプル点に対応する画素のみの輝度データを処理しているので、計算処理に要するデータ量を大幅に削減することができ、結果的に装置のハード構成を簡素化することができ、コストを低減することができる。また、高速処理が可能になって、リアルタイムの渋滞計測が可能になる。詳細には、計測結果を1〜2秒以内(時間差分の最大時間間隔+処理時間)のほぼリアルタイムで出力できるので、交通管制の分野において、本実施例のように渋滞長に応じて青または黄信号時間を調整するような交通管制システムに利用すると非常に効果的である。また、上記実施例の説明から理解されるように、事前の学習をほとんどすることなく、装置を設定してから直ぐに精度良い渋滞計測が可能になり、また、環境の変化、例えば、計測地点、時間帯、天候、交通量等の変化に関わらず安定して渋滞状況を計測することができ、しかも渋滞の長さも簡単に検出することができる。
さらにまた、各種判定の基準になる閾値等の各種パラメータを、ビデオカメラの道路上の位置から各サンプル点に対応する道路上の各位置までの距離に応じて変化させているので、高精度の渋滞計測が可能になる。また、上記パラメータを各サンプル点のビデオカメラからの距離により自動的に検出できるため、交通管制システムの管理運用上の有効である。さらにまた、最後の出力段階まで車線位置を考慮する必要がなく、2車線に跨った渋滞車両の計測も可能になり、安定した渋滞計測が可能になる。また、検出された移動サンプル点および渋滞サンプル点から、移動ブロックおよび渋滞ブロックの形式、すなわち、移動車両および渋滞車両を移動車群および渋滞車群として検出しているので、移動ブロックおよび渋滞ブロックから外れた移動サンプル点および渋滞サンプル点を、ノイズとして簡単に除去することができる。
さらに、道路上に計測可能な距離だけ隔てて本実施例のビデオカメラと渋滞計測装置を、複数個連ねて配置するようにすれば、長距離にわたる連続した渋滞状況を計測することもできる。さらに、本実施例は、計測領域内の一部の計測結果から計測領域の全体の渋滞状況を推定しているのではなく、計測領域全体の渋滞状況を直接的に計測しているので、計測領域内で事故や車両故障が発生した場合に、直ちにそれを検知することもできる。
なお、上記の詳細な実施例の説明から理解されるように、本実施例は、本発明の画像処理方法および装置の好適な実施例でもある。
次に、上記の道路渋滞状況計測装置を、1995年、東京、大阪の2カ所の地点において設定して、計測を行った結果を以下に説明する。
(東京での計測結果)
(A)計測条件
場所:東京の内幸町交差点
環境:天候(晴、曇、雨)、時間帯(昼間、薄暮、夜間)、交通量(軽交通、重交通)の点を考慮して次の6つの異なる環境で行った。
▲1▼ 8月2日 15:00〜17:00 (昼間、曇のち雨、重交通)
▲2▼ 8月2日 18:30〜20:30 (薄暮・夜間、曇、重交通)
▲3▼ 8月3日 14:45〜16:45 (昼間・晴、重交通)
▲4▼ 8月3日 18:30〜20:30 (薄暮・夜間、晴、重交通)
▲5▼ 8月5日 15:00〜17:00 (昼間・曇、軽交通)
▲6▼ 8月5日 18:30〜20:30 (薄暮・夜間、曇、軽交通)
(B)計測方法
計測領域:カメラの設置位置から長さ150mの2車線を設定した。
渋滞の判定:低速走行車両は渋滞中にあると見なした。
渋滞の途中が動いており、その後に渋滞が続いている場合には最遠の渋滞位置を渋滞末尾とした。
渋滞位置を1秒毎に出力し、5分間毎の渋滞長のピーク値の平均値を計測した。この平均値を計測値のピーク値の平均値とする。
(C)計測評価の基準
渋滞計測精度を以下の式に基づいて算出した。但し、真値のピーク値の平均値とは、信号サイクル毎に渋滞長のピーク値を求め、その5分間毎のピーク値の平均値を示す。
Figure 0003834826
(D)精度評価
上記▲1▼〜▲6▼の環境時における渋滞計測精度の結果は以下のようであった。
▲1▼:95.4% ▲2▼:96.4% ▲3▼:98.6%
▲2▼:95.5% ▲5▼:98.2% ▲6▼:95.7%
何れの環境下においても、ほぼ真値どおりに渋滞状況を計測できており、渋滞長のピーク値も95%以上の計測精度が得られた。
(大阪での計測結果)
(A)計測条件
場所:枚方の国道1号出屋敷南交差点
環境:天候(晴れ、雨)、時間帯(昼間、薄暮、夜間)の点を考慮して次の5つの異なる環境で行った。
(1) 8月30日 20:45〜21:15 (夜間、雨)
(2) 8月31日 10:20〜10:50 (昼間、雨)
(3) 9月4日 11:00〜11:30 (昼間、晴)
(4) 9月4日 18:20〜18:50 (薄暮、晴)
(5) 9月4日 19:30〜20:00 (夜間、晴)
(B)計測方法
計測領域:カメラの設置位置から長さ100mの2車線を設定した。
渋滞の判定:低速走行車両は渋滞中にあると見なした。
渋滞の途中が動いており、その後に渋滞が続いている場合には最遠の渋滞位置を渋滞末尾とした。
渋滞位置:2車線のうち、よりビデオカメラ近くに発生した渋滞位置渋滞先頭位置とし、よりビデオカメラ遠くに発生した渋滞位置を渋滞末尾位置とした。
渋滞位置の出力値はカメラ位置からの距離に対して、次のようにした。
Figure 0003834826
(C)真値の計測
8月30日、31日においては、ビデオカメラ位置から10、20、30、40、50、60、100m地点の渋滞位置の真値をカメラ画像から目視計測した。
9月4日においては、50、75、100m地点に計測員を配置して渋滞位置の真値を計測し、ビデオカメラ位置から10、20、30、40、60m地点の渋滞位置の真値をカメラ画像から目視計測した。
(D)計測評価の基準
本発明の手法による計測値と上述の手法による真値とについて、以下の式にて総停止時間を求め、その比を渋滞計測精度として算出した。
Figure 0003834826
(E)精度評価
上記(1)〜(5)の環境時における計測値の総停止時間(a)、真値の総停止時間(b)、渋滞計測精度(c)の結果は以下のようであった。
Figure 0003834826
何れの環境下においても、ほぼ真値どおりに渋滞状況を計測できており、総停止時間も96%以上の計測精度が得られた。
以上のように、何れの場合にあっても、精度評価の結果が示すように、計測地点、時間帯、天候及び交通量に関わらず、安定した渋滞長、渋滞位置の計測を行えている。
(第2の実施例)
本発明に係る交通渋滞計測方法および装置を採用した交通管制システムの第2の実施例を、第20図から第45図を参照しつつ以下に詳細に説明する。
第20図に示すように、交通管制システムの第2の実施例は、ビデオカメラ81、渋滞計測装置82、情報表示板91、表示制御装置92および交通管制センター内の中央制御装置100により構成される。ビデオカメラ81同士は互いに所定の間隔で高速道路上に配置されている。また、各ビデオカメラ81は、第21図に示すように、車両の進行方向上流側から下流側に向けて配置、すなわち、車両の後面サイドを撮影するように配置されている。このようにビデオカメラの向きを設定すると、渋滞範囲の末尾位置をより正確に計測することができる。逆に、渋滞範囲の開始位置をより正確に計測するためには、ビデオカメラを車両の進行方向下流側から上流側に向けて配置、すなわち、車両の前面サイドを撮影するように配置すればよい。
情報表示板91は、ビデオカメラ81よりも車両進行方向上流側の高速道路上に、車両進行方向上流側に向けて配置されている。渋滞計測装置82は、第3図に示した第1の実施例の渋滞計測装置21〜24と同様な構成になっているので、重複説明をさけるため、ここではその説明は省略するが、計測を実行するための各種プログラムや初期設定値は、第1実施例のものとは勿論異なるものである。本実施例の渋滞計測装置82は、第21図に示される空間計測領域E、交通流計測領域Fの渋滞状況を計測するものである。交通流計測領域Fは、ビデオカメラ81から車両の進行方向に10m離れた位置から、車両の進行方向に30mの位置までの4車線分の範囲に相当する。また、この交通流計測流域Fでは、車両の識別とともに、感知ラインDL上の車両の通過台数、速度、車長、車種等、通過台数、を計測することができる。この交通流計測領域Fでの計測手法については、特開平5−307695号公報に記載されているので、ここでは、その説明は省略する。
一方、空間計測領域Eは、ビデオカメラから車両の進行方向に10m離れた位置から、車両の進行方向に200mまでの2車線分の範囲に相当する。この空間計測領域Eにおける計測手法は、以下に詳述されるが、空間密度、空間速度、渋滞末尾位置を計測するためのものである。
渋滞計測装置82の計測結果は、交通管制センターの中央制御装置100に送信される。中央制御装置100では、受信した計測結果に基づいて、高速道路上のドライバーにとって有益となる交通情報を作成して、表示制御部92に送信し、情報表示板91に交通情報が表示されるようになっている。
ここで、上述のように構成される渋滞計測装置82により実行される空間密度の算出方法を、まず、第22図に示されるステップP1〜P16のフローチャートに従って、概略的に説明する。
ステップP1で、時刻tnにおけるサンプル点画像を作成するとともに、画像内にサンプルラインを設定する。その作成方法については、前述の第1の実施例のサンプル点画像と同様であり、重複説明を避けるため、ここではその説明は省略する。サンプルラインは、道路横断方向に並ぶ車線幅分のサンプル点により構成される。第24図は、サンプル点画像上におけるサンプル点とサンプルラインとの関係を示している。
また、ステップP1に続くステップP2、P3もそれぞれ、前述の第7図のステップS2c、S2dと同様の処理であり、重複説明を避けるため、ここでの説明は省略する。
ステップP4およびステップP5のそれぞれで、差分画像に基づいて、差分サンプルラインおよびエッジサンプルラインをそれぞれ検出する。ステップP6では、ステップP4およびステップP5でそれぞれ検出された差分サンプルラインおよびエッジサンプルラインに基づいて、存在サンプルラインを検出する。ステップP6に続くステップP7では、存在サンプルラインの配置に基づいて存在サンプルラインを補正し、ステップP8では、ステップP4で検出された差分サンプルラインの配置に基づいて、存在サンプルラインを補正する。
ステップP9では、時刻tn、時刻tn−αm、時刻tn+βmのサンプル点画像に基づいて、移動サンプルラインを検出する。ステップP10では、移動サンプルラインの配置に基づいて、存在サンプルラインを補正する。
ステップP11では、計測領域を複数のメッシュに分割し、ステップP12では、ステップP10で補正された存在サンプルラインに基づいて、時刻tnにおけるメッシュ毎の空間密度を算出する。
ステップP13では、時刻tnの計測領域における大型車両の混入率を算出し、ステップP14で、時刻tnの計測領域における車間距離を算出し、ステップP15で、大型車の混入率および車間距離に基づいて、空間密度を補正する。
ステップP16で、n←n+1として、ステップP1に戻る。「n」は、正の整数であり、|tn+1−tn|は一定である。したがって、上記ステップP1〜P16の各手順は一定の時間間隔で繰り返される。
第23図は、上記ステップP1〜P15における検出結果あるいは算出結果の概略的な関係を示す図である。これら検出結果あるいは算出結果の詳細は、後述する各ステップP1〜P15の詳細な説明により明らかになる。
次に、第22図のステップP4の差分サンプルラインの検出手順の第1例を、第25図に示すステップP4a〜P4jのフローチャートに従って、以下に詳説する。
ステップP4aで、M個のサンプル点からなるk番目のサンプルラインのビデオカメラからの距離に基づいて、正の閾値TH1、負の閾値TH2および正の整数閾値TH3を設定する。ステップP4bで、k番目のサンプルラインのm番目のサンプル点の輝度差分値が、TH1より大か否かが判別される。ここで、輝度差分値は、第22図のステップP2で算出された差分画像の各サンプル点の値を指す。
ステップP4bでの判定が「YES」であれば、ステップP4dに進み、ステップP4bでの判定が「NO」であれば、ステップP4cに進む。ステップP4cでは、k番目のサンプルラインのm番目のサンプル点の輝度差分値がTH2より小さいか否かを判定する。ステップP4cでの判定が「YES」であれば、ステップP4dに進み、ステップP4cの判定が「NO」であれば、ステップP4eに進む。
ステップP4dでは、k番目のサンプルラインのm番目のサンプル点のフラグを「ON」にして、ステップP4eに進む。ステップP4eとステップP4fにより、ステップP4b〜P4dの動作が、m=Mになるまで繰り返される。この繰り返しにより、k番目のサンプルラインの全てのサンプル点の輝度差分値について、正の閾値TH1より大か、あるいは、負の閾値TH2より小かが判別される。
ステップP4gでは、k番目のサンプルラインの「ON」のフラグ数がTH3より大か否かを判定する。ステップP4gでの判定が「YES」であれば、ステップP4hに進み、k番目のサンプルラインを、差分サンプルラインとして検出する。ステップP4gの判定が「NO」であれば、ステップP4iに進む。ステップP4iとステップP4jにより、ステップP4a〜P4hの動作が、k=Kになるまで繰り返される。ここにKは計測領域内の1車線分のサンプルライン数を表す。この繰り返し動作により、計測領域の一車線分の全ての差分サンプルラインが検出される。
ステップP4aにおける正の閾値TH1は、ビデオカメラから遠い位置のサンプルラインに対応するものほど小さく、逆に負の閾値TH2は、ビデオカメラから遠い位置のサンプルラインに対応するものほど大きくなるように設定するとよい。これは、これは、ビデオカメラから遠い位置では近い位置に比べて画像がぼやけ、車両と背景との輝度差が小さくなるからである。このようにビデオカメラからの距離に応じてTH1、TH2を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度で差分サンプルラインを検出することができる。ステップP4aにおける正の整数閾値TH3は、輝度差の変化が少ないビデオカメラから遠い領域では小さくし、輝度差の変化が大きいカメラから近い領域では逆に大きくする。このようにすることにより、カメラからの距離に影響されることなく、すべての領域において同程度の検出レベルで差分サンプルサンプルラインを検出することが可能になる。
次に、第22図のステップP4の差分サンプルラインの検出手順の第2例を、第26図に示すステップP4A〜P4Hのフローチャートに従って、以下に詳説する。
ステップP4Aで、k番目のサンプルラインのビデオカメラからの位置に基づいて、第1、第2の正の閾値TH1、TH2と、第1、第2の負の閾値TH3、TH4を設定する。なお、TH4<TH3<0<TH1<TH2である。このように閾値を、正負を分けて設定するのは、以下の理由による。すなわち、各サンプルラインに含まれるサンプル点の輝度差分値は、正の値のものあれば、負の値のものもある。これを、正、負の区別なく処理しようとすると、正、負の輝度差分値同士の相殺が生じたりノイズを拾い易くなったりして、これらの影響により誤検出し易くなる。このような誤検出を避けるために、上述の閾値を正、負に分けて、正の輝度差分値と負の輝度差分値を別に処理するようにしている。
ステップP4Bでは、k番目のサンプルラインのサンプル点のうち、第1の正の閾値TH1より大きなサンプル点の輝度差分値の平均値PMを算出する。P4Cでは、k番目のサンプルラインのサンプル点のうち、第1の負の閾値TH3より小さなサンプル点の輝度差分値の平均値NMを算出する。
ステップP4CからステップP4Dに進み、平均値PMが第2の正の閾値TH2より大か否かが判定される。ステップP4Dでの判定が「YES」であれば、ステップP4Fに進み、ステップP4Dでの判定が「NO」であれば、ステップP4Eに進む。ステップP4Eでは、平均値NMが第2の負の閾値TH4より小か否かが判別される。ステップP4Eでの判定が「YES」であれば、ステップP4Fに進み、k番目のサンプルラインを差分サンプルラインとして検出する。ステップP4Eの判定が「NO」であれば、ステップP4Gに進む。ステップP4GとステップP4Hにより、ステップP4A〜P4Fの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の全ての差分サンプルラインが検出される。
ステップP4Aにおける正の閾値TH1、TH2は、ビデオカメラから遠い位置のサンプルラインに対応するものほど小さく、逆に負の閾値TH3、TH4は、ビデオカメラから遠い位置のサンプルラインに対応するものほど大きくなるように設定するとよい。このようにビデオカメラからの距離に応じてTH1〜TH4を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度にて差分サンプルラインを検出することができる。
次に、第22図のステップP5のエッジサンプルラインの検出手順の第1例を、第27図に示すステップP5a〜P5kのフローチャートに従って、以下に詳説する。
ステップP5aで、第22図のステップP2で算出された差分画像を車両進行方向にソーベル微分子で空間微分して、各サンプル点の空間微分値を算出する。ステップP5bでは、k番目のサンプルラインのビデオカメラからの位置に基づいて、正の閾値TH1、負の閾値TH2、正の整数閾値TH3を設定する。
ステップP5bに続くステップP5cでは、k番目のサンプルラインのm番目のサンプル点の空間微分値がTH1より大か否かが判定される。ステップP5cでの判定が「YES」ならば、ステップP5eに進み、ステップP5cでの判定が「NO」であれば、ステップP5dに進む。ステップP5dでは、k番目のサンプルラインのm番目のサンプル点の空間微分値がTH2より小か否かが判定される。ステップP5dでの判定が「YES」であれば、ステップP5eに進み、ステップP5dでの判定が「NO」であれば、ステップP5fに進む。
ステップP5cあるいはステップP5dからステップP5eに進むと、k番目のサンプルラインのm番目のフラグを「ON」にして、ステップP5fに進む。ステップP5fとステップP5gにより、ステップP5c〜P5eの動作が、m=Mになるまで繰り返される。この繰り返しにより、k番目のサンプルラインの全てのサンプル点の空間微分値について、正の閾値TH1より大か、あるいは、負の閾値TH2より小かが判定される。
ステップP5fからステップP5hに進むと、「ON」のフラグ数が正の整数閾値TH3より大か否かが判別される。ステップP5hでの判定が「YES」であれば、ステップP5iに進み、k番目のサンプルラインをエッジサンプルラインとして検出する。ステップP5hでの判定が「NO」であれば、ステップP5jに進む。ステップP5jとステップP5kにより、ステップP5b〜P5iの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の全てのエッジサンプルラインが検出される。
ステップP5bにおける正の閾値TH1は、ビデオカメラから遠い位置のサンプルラインに対応するものほど小さく、逆に負の閾値TH2は、ビデオカメラから遠い位置のサンプルラインに対応するものほど大きくなるように設定するとよい。このようにビデオカメラからの距離に応じてTH1、TH2を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度にてエッジサンプルラインを検出することができる。ステップP5bにおける正の整数閾値TH3は、輝度差の変化が少ないビデオカメラから遠い領域では小さくし、輝度差の変化が大きいカメラから近い領域では逆に大きくする。このようにすることにより、カメラからの距離に影響されることなく、すべての領域において同程度の検出レベルでエッジサンプルサンプルラインを検出することが可能になる。
次に、第22図のステップP5のエッジサンプルラインの検出手順の第2例を、第28図に示すステップP5A〜P5Iのフローチャートに従って、以下に詳説する。
ステップP5Aで、第22図のステップP2で算出された差分画像を車両進行方向にソーベル微分子で空間微分して、各サンプル点の空間微分値を算出する。
ステップP5Bで、k番目のサンプルラインのビデオカメラからの位置に基づいて、第1、第2の正の閾値TH1、TH2、第1、第2の負の閾値TH3、TH4を設定する。なお、なお、TH4<TH3<0<TH1<TH2である。このように閾値を、正負を分けて設定するのは、以下の理由による。すなわち、各サンプルラインに含まれるサンプル点の空間微分値は、正の値のものあれば、負の値のものもある。これを、正、負の区別なく処理しようとすると、正、負の空間微分値同士の相殺が生じたりノイズを拾い易くなったりして、これらの影響により誤検出し易くなる。このような誤検出を避けるために、上述の閾値を正、負に分けて、正の空間微分値と負の空間微分値を別に処理するようにしている。
ステップP5Cでは、k番目のサンプルラインのサンプル点のうち、第1の正の閾値TH1より大きなサンプル点の空間微分値の平均値PMを算出する。P5Dでは、k番目のサンプルラインのサンプル点のうち、第1の負の閾値TH3より小さなサンプル点の空間微分値の平均値NMを算出する。
ステップP5DからステップP5Eに進み、平均値PMが第2の正の閾値TH2より大か否かが判定される。ステップP5Eでの判定が「YES」であれば、ステップP5Gに進み、ステップP5Eでの判定が「NO」であれば、ステップP5Fに進む。ステップP5Fでは、平均値NMが第2の負の閾値TH4より小か否かが判定される。ステップP5Fでの判定が「YES」であれば、ステップP5Gに進み、k番目のサンプルラインをエッヂサンプルラインとして検出する。ステップP5Fでの判定が「NO」であれば、ステップP5Hに進む。ステップP5HとステップP5Iにより、ステップP5B〜P5Gの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の全てのエッジサンプルラインが検出される。
ステップP5Bにおける正の閾値TH1、TH2は、ビデオカメラから遠い位置のサンプルラインに対応するものほど小さく、逆に負の閾値TH3、TH4は、ビデオカメラから遠い位置のサンプルラインに対応するものほど大きくなるように設定するとよい。このようにビデオカメラからの距離に応じてTH1〜TH4を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度でエッジサンプルラインを検出することができる。
第22図のステップP6における存在サンプルラインは、以下のようにして検出する。すなわち、第22図のステップP4で検出された差分サンプルラインと、ステップP5で検出されたエッジサンプルラインのうちの少なくとも一方のサンプルラインであれば、そのサンプルラインを存在サンプルラインとして検出する。
次に、第22図のステップP7の存在サンプルラインの配置に基づいた存在サンプルラインの補正手順を、第29図に示すステップP7a〜P7mのフローチャートに従って、以下に詳説する。この存在サンプルラインの配置に基づいた存在サンプルラインの補正は、前半のステップP7a〜ステップP7eが車体範囲内における、存在サンプルラインの検出漏れを補正するための処理であり、後半のステップP7g〜P7mが車体範囲外の存在サンプルラインの誤検出を補正するための処理である。
ステップP7aで、k番目とk+1番目の存在サンプルラインのビデオカメラからの位置に基づいて、閾値TH1を設定する。ステップP7bで、k番目とk+1番目の存在サンプルライン間に存在するサンプルラインの数をカウントする。
ステップP7bに続くステップP7cで、カウントされたライン数がTH1より小か否かが判定される。ステップP7cでの判定が「YES」であれば、ステップP7dに進み、k番目とk+1番目の存在サンプルラインの間のサンプルラインを存在サンプルラインとして追加する。ステップP7cでの判定が「NO」であれば、ステップP7eに進む。ステップP7eとステップP7fにより、ステップP7a〜P7dの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の全ての存在サンプルラインに対して、第22図のステップP6で検出された存在サンプルラインの配置に基づいた存在サンプルラインを追加する補正がなされたことになる。
例えば、第22図のステップP6で、第30図の(a)に示すような配置で存在サンプルラインが検出された場合、k番目とk+1番目の存在サンプルラインの間のサンプルラインの数は以下のようになる。上から1番目と2番目の存在サンプルラインの間と、2番目と3番目の存在サンプルラインの間とには0個のサンプルライン、3番目と4番目の存在サンプルラインの間の領域L1には2個のサンプルライン、4番目と5番目の存在サンプルラインの間には0個のサンプルライン、5番目と6番目の間の存在サンプルラインの間の領域L2には5個のサンプルライン、6番目と7番目の存在サンプルラインの間の領域L3には7個のサンプルライン、7番目と8番目の存在サンプルラインの間と、8番目と9番目の存在サンプルラインの間には0個のサンプルラインがそれぞれ存在する。したがって、ステップP7bで閾値TH1をTH1=3=一定に設定した場合、第30図の(a)および(b)に示すように、領域L1のサンプルラインのみが存在サンプルラインとして追加される。
再び第29図において、ステップP7eからステップP7gに進むと、存在サンプルラインを、他のサンプルラインを含まないで連続した存在サンプルラインからなる複数のライングループに分類する。ステップP7hで、各ライングループのビデオカメラからの位置に基づいて、r番目のライングループの判定に用いる閾値TH2を設定する。ステップP7iでは、r番目のライングループに含まれる存在サンプルラインの数を算出する。
ステップP7iに続くステップP7jでは、カウントされた存在サンプルラインの数が、TH2より小か否かが判定される。ステップP7jでの判定が「YES」であれば、ステップP7kに進み、r番目のライングループに含まれる全ての存在サンプルラインを除去する。ステップP7jでの判定が「NO」であれば、ステップP7lに進む。ステップP7lとステップP7mにより、ステップP7g〜P7kの動作が、r=Rになるまで繰り返される。なお、Rは計測領域の1車線分に含まれるライングループの総数である。この繰り返し動作により、計測領域の一車線分の全ての存在サンプルラインに対して、P7dで補正された存在サンプルラインの配置に基づいて存在サンプルラインを除去する補正がなされたことになる。
ステップP7d終了後に、第30図(b)に示すような配置で存在サンプルラインが検出された場合、r番目のライングループの存在サンプルラインの数は以下のようになる。領域L4で示される1番目のライングループには7個の存在サンプルライン、領域L5で示される2番目のライングループには、1個の存在サンプルライン、領域L6で示される3番目のライングループには、3個の存在サンプルラインがそれぞれ存在している。したがって、ステップP7hで閾値TH2をTH2=3=一定に設定しておけば、第30図の(b)および(c)に示すように、領域L5のライングループの存在サンプルラインが除去される。
ステップP7a、P7hにおける閾値TH1、TH2は、画像上に描写される平均的な車両の長さの1/4に相当するサンプルライン数に一致させるとよい。このため、閾値TH1、TH2は、ビデオカメラから遠い領域では車両が小さい像として得られるので、小さくし、ビデオカメラから近い領域では、車両が大きい像として得られるので、大きくする。このようにすることにより、カメラからの距離に影響されることなく、すべての領域において同程度の精度で存在サンプルラインを追加あるいは削除する補正処理をすることができる。
次に、第22図のステップP8の差分サンプルラインの配置に基づいた存在サンプルラインの補正手順の1例を、第31図に示すステップP8a〜P8iのフローチャートに従って、以下に詳説する。この差分サンプルラインの配置に基づいた存在サンプルラインの補正は、建物や車両等の影を誤って車両が存在していると認識して検出された存在サンプル点を除去するための処理である。詳しくは、上述の差分サンプルラインは、時刻tnのサンプル点画像と基準輝度画像との輝度差から単純に検出されるので、車両の影の範囲や、日差しの急激な変化により突然現れた建物の影の範囲のサンプルラインが誤って存在サンプルラインとして検出されることになる。したがって、差分サンプルラインの配置から建物や車両の影によって生じる誤検出を補正する必要がある。
ステップP8aで、エッジサンプルラインを含まないで連続する差分サンプルラインからなるライングループを検出する。ここで、エッジサンプルラインを含まないライングループを特定するのは、下記の理由による。一般的に影の範囲はエッジが検出され難く、また影の範囲のサンプル点の輝度値も相対的に小さいため、通常、エッジサンプルラインが検出されない。このため、エッジサンプルラインが検出された領域は影が存在していないとみなすことができるからである。ステップP8bで、k番目のライングループのビデオカメラからの位置に基づいて、閾値TH1を設定する。さらに、ステップP8bで、所定の輝度値を示す閾値TH2を設定する。ステップP8cで、k番目のライングループに含まれる差分サンプルラインの数をカウントする。
ステップP8cに続くステップP8dで、カウントされたライン数が閾値TH1より大か否かが判別される。ステップP8dでの判定が「YES」であれば、ステップP8eに進み、k番目のライングループの各差分サンプルラインに位置的に対応する時刻tnのサンプル点画像上の各サンプルライン内のサンプル点の輝度値の平均値BMを算出する。ステップP8dでの判定が「NO」であれば、ステップP8hに進む。
ステップP8eからステップP8fに進むと、上記BMが閾値TH2より小か否かが判別される。ステップP8fでの判定が「YES」であれば、ステップP8gに進み、k番目のライングループの差分サンプルラインに位置的に対応する存在サンプルラインを除去する。ステップP8fでの判定が「NO」であれば、ステップP8hに進む。ステップP8hとステップP8iにより、ステップP8b〜P8gの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の全ての存在サンプルラインに対して、差分サンプルラインの配置に基づいて存在サンプルラインを除去する補正がなされたことになる。
ステップP8bにおける閾値TH1は、画像上に描写される平均的な車両の長さの1/4に相当するサンプルライン数に一致させるとよい。このため、閾値TH1は、ビデオカメラから遠い領域では車両が小さい像として得られるので、小さくし、ビデオカメラから近い領域では、車両が大きい像として得られるので、大きくする。このようにビデオカメラからの距離に応じてTH1を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度にて存在サンプルラインを除去することができる。
次に、第22図のステップP9の移動サンプルラインの検出手順の1例を、第32図に示すステップP9a〜P9gのフローチャートに従って、以下に詳説する。
ステップP9aで、移動サンプル点を検出する。この移動サンプル点の検出手順は、前述の第1の実施例の第10図に示された検出手順と同じであり、重複説明を避けるため、ここではその説明を省略する。
ステップP9bでは、k番目のサンプルラインのビデオカメラからの位置に基づいて、閾値TH1を設定する。ステップP9cでは、k番目のサンプルラインに含まれる移動サンプル点の数をカウントする。
ステップP9cに続くステップP9dでは、カウントされた移動サンプル点数が閾値TH1より大か否かが判別される。ステップP9dでの判定が「YES」であれば、ステップP9eに進み、k番目のサンプルラインを移動サンプルラインとして検出する。ステップP9dでの判定が「NO」であれば、ステップP9fに進む。ステップP9fとステップP9gにより、ステップP9b〜P9eの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の移動サンプルラインが全て検出される。
ステップP9bにおける閾値TH1は、ビデオカメラから遠い領域のものほど小さくなるように設定するとよい。このようにビデオカメラからの距離に応じてTH1を設定することにより、ビデオカメラからの距離に影響されることなく、どの位置でも同程度の精度で移動サンプルラインを検出することができる。
次に、第22図のステップP10の移動サンプルラインの配置に基づいた存在サンプルラインの補正手順の1例を、第33図に示すステップP10a〜P10gのフローチャートに従って、以下に詳説する。この移動サンプルラインの配置に基づいた存在サンプルラインの補正は、第29図のステップP7a〜P7fで補正されなかった、車体範囲内の存在サンプルラインの検出漏れを補正するための処理である。詳しくは、基準輝度画像とのコントラストが小さく、車体範囲内での輝度変化の小さい車両が道路上に存在している場合には、この車両の存在は差分サンプルラインやエッジサンプルラインとして検出され難く、また上記のステップP7a〜P7fの処理では補正されない。このような車両の存在は、移動サンプルラインによって検出できることがあり、移動サンプルラインの配置に基づいて、存在サンプルラインの検出漏れを補正する。
ステップP10aで、k番目とk+1番目の存在サンプルラインのビデオカメラからの位置に基づいて、閾値TH1、TH2を設定する。ただし、TH1<TH2である。このステップP10aで設定される閾値TH1は、第29図のステップP7aで設定される閾値TH1と一致させる。このように設定するのは、ステップP10a〜P10gでの処理の補正対象のサンプルラインを、ステップP7aからP7fでの処理の補正対象から外れたものだけに限定するためである。この結果、無駄な処理や補正漏れを防止することができる。
ステップP10bで、k番目とk+1番目の存在サンプルライン間に存在するサンプルラインの数をカウントする。ステップP10cでは、カウントされたライン数がTH1以上かつ、TH2より小か否かが判定される。ステップP10cでの判定が「YES」であれば、ステップP10dに進み、ステップP10cでの判定が「NO」であれば、ステップP10fに進む。
ステップP10cからステップP10dに進むと、k番目とk+1番目の存在サンプルラインの間に、移動サンプルラインが存在するか否かが判定される。ステップP10dでの判定が「YES」であれば、ステップP10eに進み、k番目とk+1番目の存在サンプルラインの間の移動サンプルラインを含むサンプルラインを、存在サンプルラインに追加する。ステップP10dでの判定が「NO」であれば、ステップP10fに進む。ステップP10fとステップP10gにより、ステップP10a〜P10eの動作が、k=Kになるまで繰り返される。この繰り返しにより、計測領域の一車線分の全ての存在サンプルラインに対して、移動サンプルラインの配置に基づいて、存在サンプルラインを追加する補正がなされたことになる。
例えば、第22図のステップP8、P9のそれぞれで、第34図の(a)に示すような配置の存在サンプルラインおよび移動サンプルラインが得られた場合、k番目とk+1番目の存在サンプルラインの間のサンプルラインの数は以下のようになる。上から1番目〜7番目の隣接する二つの存在サンプルラインのそれぞれの間には0個のサンプルライン、7番目と8番目の存在サンプルラインの間の領域L7には3個のサンプルライン、8番目〜10番目の隣接する二つの存在サンプルラインのそれぞれの間には0個のサンプルライン、10番目と11番目の存在サンプルラインの間の領域L8には6個のサンプルライン、11番目〜14番目の隣接する二つの存在サンプルラインのそれぞれの間には0個のサンプルラインが存在している。一方、領域L7には1個の移動サンプルライン、領域L8には0個の移動サンプルラインがそれぞれ存在している。したがって、ステップP10aで閾値TH1、TH2をTH1=3=一定、TH2=5=一定に設定した場合、第34図の(a)および(b)に示すように、領域L7のサンプルラインが存在サンプルラインとして追加される。
ステップP10aにおける閾値TH1、TH2は、それぞれ画像上に描写される平均的な車両の長さの1/4、1/2に相当するサンプルライン数に一致させるとよい。このため、閾値TH1、TH2は、ビデオカメラから遠い領域では車両が小さい像として得られるので、小さくし、ビデオカメラから近い領域では、車両が大きい像として得られるので、大きくする。このようにすることにより、カメラからの距離に影響されることなく、すべての領域において同程度の精度にて存在サンプルラインを補正することができる。
第22図のステップP11におけるメッシュは、第35図に示される。このメッシュは、ビデオカメラからの距離が近くなるにつれて、縦サイズが大きくなるように設定されている。このようにメッシュサイズをビデオカメラからの距離に応じて設定することにより、各メッシュで指定される実際の道路上の各領域のサイズを同程度にすることができる。
第22図のステップP12における各メッシュの空間密度は、下記の式で算出される。
D(m)=PSL(m)/TSL(m) …(vi)
ここに、D(m)はm番目のメッシュの空間密度、PSL(m)はm番目のメッシュに含まれる存在サンプルラインの数、TSL(m)は、m番目のメッシュに含まれるサンプルラインの総数である。第35図に示すような配置で存在サンプルラインが求められた場合、メッシュM1の空間密度は33%、メッシュM2〜M4の空間密度は100%、メッシュM5の空間密度は75%、メッシュM6の空間密度は0%、メッシュM7の空間密度は80%となる。
第22図のステップP13おける大型車の混入率は、以下のような手法で算出する。
ます、5分または10分間の単位時間内での第21図に示す交通流計測領域Fでの大型車両の混入率Rtを次式により算出する。
Rt=NL/NT …(vii)
ここに、NLは、第21図の感知ラインDLを通過した大型車両台数、NTは、感知ラインDLを通過した全車両台数である。なお、第21図に示す交通流計測領域Fでは、前述したように、車両の通過台数、車両の大型車、普通車の区別を計測できるので、これらの計測データを利用して、混入率Rtを算出する。
第22図のステップP14おける車間距離は、ビデオカメラからの情報からでは実際に計測するのは困難であるので、実際には、車間距離と比例関係のあると推定される車両の速度あるいは単位時間当たりの通過台数を算出して、これらの算出値を車間距離に相当するものとして利用する。
第22図のステップP15における大型車両混入率と車間距離に基づく空間密度の補正は、以下の手法でなされる。大型車の混入による補正は、見かけ上の車両存在範囲によって算出された空間密度を補正するための処理である。具体的には、第36図のハッチング領域で示す車両が大型車両であるとき、車両の実際の存在範囲よりも見かけ上の車両存在範囲が非常に大きくなる。この見かけ上の車両存在範囲により算出された空間密度が補正される。
まず、上記単位時間内に交通流計測領域Fを通過した全車両の平均車高ha、平均車長laをそれぞれ次式により算出する。
ha=Rt×hL+(1−Rt)×hS …(viii)
la=Rt×lL+(1−Rt)×lS …(ix)
ここに、hLは大型車両の高さ、hSは普通車両の高さ、lLは大型車両の長さ、lSは普通車両の長さである。
次に、第36図のハッチング領域で示す車両による隠れ範囲lhを次式により算出する。
lh=ha×L/(H−ha) …(x)
ここに、Hはビデオカメラの路面からの高さ、Lはビデオカメラから車両の先端位置までの距離である。
上記lh、laにより、見かけ上の車両存在範囲を実際の車両存在範囲に補正するための補正率Reを次式により算出する。
Re=la/(la+lh) …(xi)
なお、第21図に示す交通流計測領域Fでは、前述したように、車両の通過台数、車両の大型車、普通車の区別、車両の長さ等を計測できるので、これらの計測データを利用して、補正率Reを算出する。また、補正率Reによる補正は、交通流計測領域F以外の空間計測領域Eの計測結果に利用すればよい。交通流計測領域Fでは、個々の車両の車長を直接計測することができるので、個々の車両毎に、補正率を算出すればよい。
上記のようにして算出された補正率Reは、車間距離が長ければ、そのまま使うことができるが、車間距離が短くなれば、すなわち、ビデオカメラで撮影された画像上で車両が重なって見えれば、(xi)で算出されたReをそのまま使うことができず、増加させる必要がある。具体的には、車間距離が長いほど、補正率Reを式(xi)で算出された値に近づけ、車間距離が短くなるほど、補正率Reを1に近づける。
空間計測領域Eにおいては、ビデオカメラからの情報しか渋滞計測装置は入手することができないため、複数の車両が重なって撮影されるような車間距離が短くなっている場合には、車間距離を計測することができない。このため、上記の車間距離は、直接算出するのではなく、車間距離と比例関係がある計測値、本実施例は、後述の方法で算出される空間速度と交通流計測領域Fで計測された単位時間当たりの通過台数を車間距離に相当するものとして利用する。具体的には、空間速度が大きいほど、補正率Reを式(xi)で算出された値に近づけ、空間速度が小さいほど、補正率Reを1に近づける。一方、通過台数が少ないほど、補正率Reを式(xi)で算出された値に近づけ、通過台数が多いほど、補正率Reを1に近づける。
第22図のステップP15においては、上記のようにして算出され補正された補正率Reを、各メッシュの空間密度に乗算することにより、空間密度を補正する。
次に、渋滞計測装置82により実行される空間速度の算出方法を、まず、第37図に示されるステップQ1〜Q15のフローチャートに従って、概略的に説明する。
ステップQ1で、時刻tn、tn+γの各画像のサンプル点画像を作成する。ステップQ2で、各サンプル点画像の各サンプルラインに含まれるサンプル点の輝度値の平均値を算出して、各サンプルラインのライン輝度平均値を算出する。
ステップQ3で、時刻tnのサンプル点画像上の移動サンプルラインを検出する。移動サンプルラインは、前述の第32図のフローチャートと同じ手順で検出するので、重複説明を避けるため、ここではその説明を省略する。
ステップQ4で、時刻tnのサンプル点画像上での各移動サンプルラインの時刻tn+γの画像上での移動先を検出する。ステップQ5では、移動先が検出された移動サンプルラインの速度を算出する。
ステップQ6で、時刻tnのサンプル点画像を複数のメッシュに分割する。ステップQ7で、k番目のメッシュ内の移動先を追跡することができた移動サンプルラインの平均速度を算出する。ステップQ8で、k番目のメッシュで移動先を追跡することができた移動サンプルライン数のk番目のメッシュに含まれる全サンプルライン数に対する割合を算出する。
ステップQ8に続くステップQ9で、k番目のメッシュの移動サンプルラインの割合が所定の閾値より大か否かが判別される。ステップQ9での判定が「YES」であれば、ステップQ10に進み、k番目のメッシュ内の移動サンプルラインの平均速度を、k番目のメッシュの空間速度として検出する。ステップQ9での判定が「NO」であれば、ステップQ11に進み、速度0km/hを、k番目のメッシュの空間速度として設定する。
ステップQ10からステップQ12に進むと、k番目の空間速度を指数平滑化して、ステップQ13に進む。ステップQ13、Q14により、k=Kになるまで、ステップQ7〜ステップQ12が繰り返される。この結果、時刻tnのサンプル点画像における各メッシュの空間速度が算出されたことになる。
上記のステップQ1〜Q15は、所定の時間間隔で繰り返される。上記ステップQ1〜Q15で必要な画像データや、検出あるいは算出されるデータの概略的な関係を、第38図に示す。
次に、第37図のステップQ4の移動サンプルラインの移動先を検出する手順の第1例を、第39図に示すステップQ4a〜Q4gのフローチャートに従って、以下に詳説する。
ステップQ4aで、時刻tnのサンプル点画像上のk番目の移動サンプルラインの位置と、時刻間隔γとに基づいて、k番目の移動サンプルラインのtn+γのサンプル点画像上の予想移動範囲を算出する。ステップQ4bで、時刻tnのサンプル点画像上のk番目の移動サンプルラインと、時刻tn+γのサンプル点画像上の予想移動範囲内の各サンプルラインとの輝度値の差を表す輝度差分値の絶対値を算出する。
ステップQ4bに続くステップQ4cで、最小の輝度差分値の絶対値が所定の閾値より小さいか否かが判別される。ステップQ4cでの判定が「YES」であれば、ステップQ4dに進み、最小の輝度差分値の絶対値のサンプルラインをk番目の移動サンプルラインの移動先として検出する。ステップQ4cで判定が「NO」であれば、ステップQ4eに進み、k番目の移動サンプルラインの移動先を無しと検出する。
ステップQ4dおよびステップQ4eに続くステップQ4fおよびステップQ4gにより、ステップQ4a〜ステップQ4eの動作が、k=Kになるまで繰り返される。結果的に、時刻tnのサンプル点画像上の全ての移動サンプルラインの移動先の有無と移動先の位置が検出される。
次に、第37図のステップQ4の移動サンプルラインの移動先を検出する手順の第2例を、第40図に示すステップQ4A〜Q4Mのフローチャートに従って、以下に詳説する。
ステップQ4Aで、時刻tnのサンプル点画像上のk番目の移動サンプルラインの位置と、時間間隔γとに基づいて、k番目の移動サンプルラインのtn+γのサンプル点画像上の第1の予想移動範囲を算出する。ステップQ4Bで、第1の予想移動範囲の1サンプルライン分前後にずれた範囲を、それぞれ第2、第3の予想移動範囲として検出する。
ステップQ4Cで、時刻tnのサンプル点画像上のk番目の移動サンプルラインと、時刻tn+γのサンプル点画像上の第1の予想移動範囲内のm番目のサンプルラインとの輝度値の差を表す輝度差分値の絶対値U1を算出する。
ステップQ4Dで、時刻tnのサンプル点画像上のk番目の移動サンプルラインの直前のサンプルラインと、時刻tn+γのサンプル点画像上の第2の予想移動範囲内のm番目のサンプルラインとの輝度値の差を表す輝度差分値の絶対値U2を算出する。
ステップQ4Eで、時刻tnのサンプル点画像上のk番目の移動サンプルラインの直後のサンプルラインと、時刻tn+γのサンプル点画像上の第3の予想移動範囲内のm番目のサンプルラインとの輝度値の差を表す輝度差分値の絶対値U3を算出する。
ステップQ4Fで、U1、U2、U3を加算して輝度差分値の総和Umを算出する。ステップQ4GとステップQ4Hにより、m=Mになるまで、ステップQ4C〜ステップQ4Fを繰り返し、第1、第2、第3の予想移動範囲の全てのサンプルラインに対する移動サンプルラインとその前後のサンプルラインとの輝度差分値の計算とその総和処理を実行する。
ステップQ4Iで、総和Umのうちの最小のUmが閾値より小か否かを判別する。ステップQ4Iでの判定が「YES」であれば、ステップQ4Jに進み、最小の総和Umの第1の予想移動範囲内のサンプルラインを、時刻tnのサンプル点画像上のk番目の移動サンプルラインの移動先として検出する。ステップQ4Iでの判定が「NO」であれば、ステップQ4Kに進み、時刻tnのサンプル点画像上のk番目の移動サンプルラインの移動先無しと判定する。
ステップQ4LとステップQ4Mにより、k=Kになるまで、ステップQ4A〜ステップQ4Kを繰り返す。この結果的、時刻tnのサンプル点画像上の全ての移動サンプルラインの時刻tn+γの画像上での移動先が検出される。
ここで、第41図の(a)に示すように、時刻tnのサンプル点画像上に、移動サンプルラインMVdが検出され、第1の予想移動範囲は第41図の(b)に示す第1予想移動範囲PA1を得るとすると、PA2が第2の予想移動範囲、PA3が第3の予想移動範囲になる。上記のステップQ4Fで算出される総和Umのうちの最小の総和に対応する3つのサンプルラインが第41図の(b)の時刻tn+γのサンプル点画像上の位置b、b−1、b+1に位置するサンプルラインであるとき、位置bのサンプルラインが移動サンプルラインMVdの移動先となる。
第37図のステップQ5における各移動サンプルラインの速度Vkは、次式により算出される。
Vk=(Lb−La)/γ …(xii)
ここに、Laは、時刻tnのサンプル点画像上の各移動サンプルラインの車両走行方向における座標位置、Lbは、各移動サンプルラインの時刻tn+γのサンプル点画像上の移動先の車両走行方向における座標位置である。
第37図のステップQ12における空間速度の指数平滑化処理は、次式に従ってよって実行される。
V(m,tn)=(1−θ)×V(m,tn-1)+θ×V(m,tn) …(xiii)
ここに、V(m,tn)は、m番目のメッシュの時刻tでの空間速度、V(m,tn-1)は、m番目のメッシュの時刻tn-1での空間速度、θは指数係数で0<θ<1である。この空間速度の指数平滑化処理により、ノイズを除去することができる。
次に、渋滞計測装置82により実行される渋滞領域の末尾位置の検出方法の第1例を、第42図に示されるステップZ1〜Z4のフローチャートに従って以下に説明する。
ステップZ1で、各メッシュの空間速度を算出する。この空間速度の算出方法は下記の2通りがある。
最初の算出方法は、前述の第37図のフローチャートに従った手順で空間速度を算出する方法であり、
二つめの算出方法は、第22図のフローチャートの手順で算出した空間密度と、第21図の交通流計測領域Fで計測される交通量と、を用いて次式により空間速度V(m,tn)を算出する方法である。
V(m,tn)=(q(tn)×la)/d(m,tn) …(ix)
ここに、q(tn)は時刻tnにおける空間計測領域内の単位時間あたりの交通量、laは時刻tnにおける空間計測領域内の車両の平均車長、d(m,tn)はm番目のメッシュの空間密度である。
さらに、ノイズ成分を除去するために、空間速度V(m,tn)を次式で指数平滑化する。
V(m,tn)=(1−μ)×V(m,tn-1)+μ×V(m,tn) …(xv)
ここに、μは指数係数で0<μ<1である。
ステップZ2で、ノイズ成分および渋滞の疎密波による影響を除去するために、各メッシュの平均化空間速度Mv(m)を次式により算出する。
Figure 0003834826
ここに、Mv(m)m番目のメッシュにおける平均化空間速度、Mはメッシュの総数である。
ステップZ3で、上記の平均化空間速度Mv(m)のうち、Mv(m)<Cvを満たすMv(m)を有するメッシュを全て渋滞領域として検出する。Cvは予め設定された速度で、例えば、高速道路では、Cv=40km/h、一般道路では、Cv=20km/hとする。ステップZ4で、渋滞領域の上流側端部の位置を渋滞末尾位置として検出する。第45図は、メッシュ、渋滞領域および渋滞末尾位置との関係を示す図である。
次に、渋滞計測装置82により実行される渋滞領域の末尾位置の検出方法の第2例を、第43図に示されるステップZ1′〜Z4′のフローチャートに従って以下に説明する。
ステップZ1′で、各メッシュ内に含まれる移動サンプル点の数をカウントする。ステップZ2′で、各メッシュの移動密度Mr(m)各メッシュの移動サンプル点の数を各メッシュに含まれる総サンプル点の数で除算することにより、算出する。
ステップZ3′で、空間密度D(m)が所定の閾値C1より大で、移動密度Mr(m)が所定の閾値C2より小であるメッシュを、渋滞領域として検出する。ステップZ4′で、渋滞領域の上流側端部の位置を渋滞末尾位置として検出する。
第42図のステップZ1〜Z4および第43図のZ1′〜Z4′は、所定の時間間隔で繰り返される。上記ステップZ1〜Z4およびZ1′〜Z4′で必要な画像データや、検出あるいは算出されるデータの概略的な関係を第44図に示す。
第20図に示される渋滞計測装置82は、第22図のフローチャートに従って計測した空間密度、第37図のフローチャートに従って計測した空間速度、並びに、第42図あるいは第43図のフローチャートに従って計測された渋滞末尾位置を、第21図の交通流計測装置Fで計測された各種の計測結果とともに、交通管制センターの中央制御装置100に送信する。中央制御装置100は、受信した計測結果に基づいて、ビデオカメラ81により撮影されている道路上を走行中の車両の運転者に知らせる交通情報を作成して、表示制御装置92に送信する。表示制御装置92は、受信した交通情報を情報表示板91に表示させる。
上述の第2の実施例によれば、画像の全ての画素の輝度データを処理ぜずに、特定のサンプル点に対応する画素のみの輝度データを処理しているので、計算処理するデータ量を大幅に削減することができ、結果的に装置のハード構成を簡素化することができ、コストを低減することができる。また、高速処理が可能になって、リアルタイムの渋滞計測が可能になる。
また、第2の実施例では、サンプルライン単位で車両の存在や移動を検出しているので、メッシュ毎の空間速度および空間密度を検出することができる。この結果、例えば、40km/h以下の車両の一団が占める領域を渋滞として認識するように渋滞計測装置を設定した場合に、その渋滞領域内の車両の速度や密度ををリアルタイムに直接的に計測することができ、詳細な渋滞情報を提供することができる。したがって、本実施例の交通管制システムは、高速道路に適用すると効果的である。
また、事前の学習をほとんどすることなく、装置を設定してから直ぐに精度良い渋滞計測が可能になり、また、環境の変化、例えば、計測地点、時間帯、天候、交通量等の変化に関わらず安定して渋滞状況を検出することができ、しかも渋滞の長さも簡単に検出することができる。
さらにまた、各種判別の基準になる閾値等の各種パラメータを、ビデオカメラから各サンプル点での距離に応じて変化させているので、高精度の渋滞計測が可能になる。また、上記パラメータを各サンプル点のカメラからの距離により自動的に検出できるため、交通管制システムの管理運用上の有効である。
またさらに、道路上に計測可能な距離だけ隔てて本実施例のビデオカメラと渋滞計測装置を、複数個連ねて配置するようにすれば、長距離にわたる連続した渋滞状況を計測することもできる。さらに、本実施例は、計測領域内の一部の計測結果から計測領域の全体の渋滞状況を推定しているのではなく、計測領域全体の渋滞状況を直接的に計測しているので、計測領域内で事故や車両故障が発生した場合に、直ちにそれを検知できる効果もある。

Claims (45)

  1. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、前記動画像上に、それぞれ輝度値を有する複数のサンプル点を設定し、前記複数のサンプル点間の距離と実際の距離を記憶するステップ(a)と、前記一連の画像のうちの所定時刻における画像上の、車両が存在していると推測されるサンプル点を、存在サンプル点として検出するステップ(b)と、前記所定時刻の画像上の、所定の速度以上で移動中の車両が存在していると推測されるサンプル点を、移動サンプル点として検出するステップ(c)と、所定の割合以上の移動サンプル点を含む互いに隣接する複数のサンプル点から構成される車両のサイズに対応する所定サイズのブロックを、移動ブロックとして検出するステップ(d)と、前記移動ブロックから外れた存在サンプル点を、渋滞サンプル点として検出するステップ(e)と、所定の割合以上の渋滞サンプル点を含む互いに隣接する複数のサンプル点から構成される車両のサイズに対応する所定サイズのブロックを、渋滞ブロックとして検出するステップ(f)と、前記渋滞ブロックおよびステップ(a)で記憶した前記複数のサンプル点間の距離と実際の距離に基づいて、前記所定時刻における前記道路上の交通渋滞の状況を計測するステップ(g)と、を備え、前記ステップ(d)が、前記移動ブロックから外れた移動サンプル点を、ノイズとみなして除去するステップ(d3)を有する交通渋滞計測方法。
  2. 請求の範囲第1項記載の交通渋滞計測方法において、前記ステップ(a)で設定されたサンプル点のうちの道路の横断方向に並ぶサンプル点の間隔が等間隔であり、前記ステップ(a)で設定されたサンプル点のうちの道路の延在方向に並ぶサンプル点の間隔が、前記ビデオカメラの前記道路上の位置から各サンプル点に対応する前記道路上の実際の各位置までの距離が長いほど小さくなる交通渋滞計測方法。
  3. 請求の範囲第1項記載の交通渋滞計測方法において、前記ステップ(b)が、前記ビデオカメラにより撮影されて、車両が道路上に存在していないと推測されかつ、前記サンプル点に対応する画素のみからなる基準輝度画像を作成するステップ(b1)と、前記所定時刻の画像に含まれた画素のうち前記サンプル点に対応する画素のみからなるサンプル点画像を作成するステップ(b2)と、前記サンプル点画像と前記基準輝度画像とに基づいて、前記存在サンプル点を検出するステップ(b3)と、を有する交通渋滞計測方法。
  4. 請求の範囲第3項記載の交通渋滞計測方法において、前記ステップ(b)から(g)が一定の時間間隔で繰り返され、前記ステップ(b)が、前記所定時刻をt1とし、時刻t1から前記一定の時間間隔前の時刻t0におけるサンプル点画像の存在サンプル点を検出するのに使われた基準輝度画像と、時刻t1におけるサンプル点画像とに基づいて、時刻t1におけるサンプル点画像の存在サンプル点を検出するのに使われる基準輝度画像を作成するステップを有する交通渋滞計測方法。
  5. 請求の範囲第1項記載の交通渋滞計測方法において、前記ステップ(b)が、前記ビデオカメラにより撮影されて、車両が道路上に存在していないと推測される基準輝度画像を作成するステップ(b1)と、前記所定時刻の画像と前記基準輝度画像との輝度の差を表す差分画像を算出するステップ(b2)と、前記差分画像を空間微分するステップ(b3)と、空間微分された差分画像における所定の閾値以上の微分値を有するサンプル点を存在サンプル点として検出するステップ(b4)と、前記閾値を、前記ビデオカメラの前記道路上の位置から各サンプル点に対応する前記道路上の実際の各位置までの距離に応じて変化させるステップ(b5)と、を有する交通渋滞計測方法。
  6. 請求の範囲第1項記載の交通渋滞計測方法において、前記ステップ(c)が、tを前記所定時刻として、時刻tの画像に含まれた画素のうちのサンプル点に対応する画素のみからなるサンプル点画像を作成するステップ(c1)と、αを正の時間間隔として、時刻t−αの画像に含まれた画素のうちのサンプル点に対応する画素のみからなるサンプル点画像を作成するステップ(c2)と、βを正の時間間隔として、時刻t+βの画像に含まれた画素のうちのサンプル点に対応する画素のみからなるサンプル点画像を作成するステップ(c3)と、前記ステップ(c1)、(c2)および(c3)で作成された3つのサンプル点画像に基づいて、移動サンプル点を検出するステップ(c4)と、を有する交通渋滞計測方法。
  7. 請求の範囲第1項記載の交通渋滞計測方法において、前記ステップ(c)が、tを前記所定時刻、αを正の時間間隔として、時刻tの画像と時刻t−αの画像との輝度の差を表す第1の差分画像を算出するステップ(c1)と、前記第1の差分画像に所定の第1の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第1の特徴抽出画像を作成するステップ(c2)と、βを正の時間間隔として、時刻tの画像と時刻t+βの画像との輝度の差を表す第2の差分画像を算出するステップ(c3)と、前記第1の差分画像に所定の第2の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第2の特徴抽出画像を作成するステップ(c4)と、前記第1の特徴抽出画像と前記第2の特徴抽出画像との論理積をとって積画像を作成するステップ(c5)と、前記積画像における「1」のレベルを有する画素に対応するサンプル点を、移動サンプル点として検出するステップ(c6)と、前記第1および第2の閾値を、前記ビデオカメラの前記道路上の位置から各サンプル点に対応する前記道路上の実際の各位置までの距離に応じて変化させるステップ(c7)と、を有する交通渋滞計測方法。
  8. 請求の範囲第1項記載の交通渋滞計測方法において、前記ステップ(d)が、前記所定時刻の画像のそれぞれを部分的に構成する複数の候補ブロックのそれぞれに含まれるサンプル点の全個数に対する移動サンプル点の個数の割合を算出するステップ(d1)と、前記ステップ(d1)で算出された割合が所定値より大きい候補ブロックを、前記移動ブロックとして検出するステップ(d2)と、を有する交通渋滞計測方法。
  9. 請求の範囲第8項記載の交通渋滞計測方法において、前記ステップ(d)が、前記候補ブロックの大きさを、前記ビデオカメラの前記道路上の位置から各候補ブロックに対応する前記道路上の実際の各位置までの距離に応じて変化させるステップ(d3)を有する交通渋滞計測方法。
  10. 請求の範囲第8項記載の交通渋滞計測方法において、前記ステップ(d)が、前記各候補ブロックに用いられる前記所定値を、前記ビデオカメラの前記道路上の位置から各候補ブロックに対応する前記道路上の実際の各位置までの距離に応じて変化させるステップ(d3)を有する交通渋滞計測方法。
  11. 請求の範囲第1項記載の交通渋滞計測方法において、前記ステップ(f)が、前記所定時刻の画像のそれぞれを部分的に構成する複数の候補ブロックのそれぞれに含まれるサンプル点の全個数に対する渋滞サンプル点の個数の割合を算出するステップ(f1)と、前記ステップ(f1)で算出された割合が所定値より大きい候補ブロックを、前記渋滞ブロックとして検出するステップ(f2)と、を有する交通渋滞計測方法。
  12. 請求の範囲第11記載の交通渋滞計測方法において、前記ステップ(f)が、前記候補ブロックの大きさを、前記ビデオカメラの前記道路上の位置から各候補ブロックに対応する前記道路上の実際の各位置までの距離に応じて変化させるステップ(f3)を有する交通渋滞計測方法。
  13. 請求の範囲第11記載の交通渋滞計測方法において、前記ステップ(f)が、前記各候補ブロックに用いられる前記所定値を、前記ビデオカメラの前記道路上の位置から各候補ブロックに対応する前記道路上の実際の各位置までの距離に応じて変化させるステップ(f3)を有する交通渋滞計測方法。
  14. 請求の範囲第11項記載の交通渋滞計測方法において、前記ステップ(f)が、前記渋滞ブロックから外れた渋滞サンプル点を、ノイズとみなして除去するステップ(f3)を有する交通渋滞計測方法。
  15. 請求の範囲第1項記載の交通渋滞計測方法において、前記ステップ(g)が、前記渋滞ブロックの存在する前記所定時刻の画像上の範囲を渋滞範囲であると判定するステップを有する交通渋滞計測方法。
  16. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測装置であって、前記動画像上に、それぞれ輝度値を有する複数のサンプル点を設定し、前記複数のサンプル点間の距離と実際の距離を記憶する第1の手段と、前記一連の画像のうちの所定時刻における画像上の、車両が存在していると推測されるサンプル点を、存在サンプル点として検出する第2の手段と、前記所定時刻の画像上の、所定の速度以上で移動中の車両が存在していると推測されるサンプル点を、移動サンプル点として検出する第3の手段と、所定の割合以上の移動サンプル点を含む互いに隣接する複数のサンプル点から構成される車両のサイズに対応する所定サイズのブロックを、移動ブロックとして検出し、前記移動ブロックから外れた移動サンプル点を、ノイズとみなして除去する第4の手段と、前記移動ブロックから外れた存在サンプル点を、渋滞サンプル点として検出する第5の手段と、所定の割合以上の渋滞サンプル点を含む互いに隣接する複数のサンプル点から構成される車両のサイズに対応する所定サイズのブロックを、渋滞ブロックとして検出する第6の手段と、前記渋滞ブロックおよび前記第1の手段により記憶された前記複数のサンプル点間の距離と実際の距離に基づいて、前記所定時刻における前記道路上の交通渋滞の状況を計測する第7の手段と、を備えた交通渋滞計測装置。
  17. 請求の範囲第16項記載の交通渋滞計測装置において、前記第2の手段が、前記ビデオカメラにより撮影されて、車両が道路上に存在していないと推測される基準輝度画像を作成する手段と、前記所定時刻の画像と前記基準輝度画像との輝度の差を表す差分画像を算出する手段と、前記差分画像を空間微分する手段と、空間微分された差分画像における所定の閾値以上の微分値を有するサンプル点を存在サンプル点として検出する手段と、を有し、前記第3の手段が、tを前記所定時刻、αを正の時間間隔として、時刻tの画像と時刻t−αの画像との輝度の差を表す第1の差分画像を算出する手段と、前記第1の差分画像に所定の第1の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第1の特徴抽出画像を作成する手段と、βを正の時間間隔として、時刻tの画像と時刻t+βの画像との輝度の差を表す第2の差分画像を算出する手段と、前記第1の差分画像に所定の第2の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第2の特徴抽出画像を作成する手段と、前記第1の特徴抽出画像と前記第2の特徴抽出画像との論理積をとって積画像を作成する手段と、前記積画像における「1」のレベルを有する画素に対応するサンプル点を、移動サンプル点として検出する手段と、有し、前記第4の手段が、前記所定時刻の画像のそれぞれを部分的に構成する複数の候補ブロックのそれぞれに含まれるサンプル点の全個数に対する移動サンプル点の個数の割合を算出する手段と、前記移動サンプル点の割合が所定値より大きい候補ブロックを、前記移動ブロックとして検出する手段と、を有し、前記第6の手段が、前記所定時刻の画像のそれぞれを部分的に構成する複数の候補ブロックのそれぞれに含まれるサンプル点の全個数に対する渋滞サンプル点の個数の割合を算出する手段と、前記渋滞サンプル点の割合が所定値より大きい候補ブロックを、前記渋滞ブロックとして検出する手段と、を有し、前記第7の手段が、前記渋滞ブロックの存在する前記動画像上の範囲を渋滞範囲であると判定することを特徴とする交通渋滞計測装置。
  18. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを前記動画像上に設定し、前記複数のサンプル点間の距離と実際の距離を記憶するステップ(a)と、前記ビデオカメラにより撮影されて、車両が道路上に存在していないと推測される基準輝度画像を作成するステップ(b)と、前記一連の画像のうちの所定時刻の画像と前記基準輝度画像との輝度の差を表す差分画像を算出して、前記所定時刻の画像と前記基準輝度画像との位置的に対応するサンプル点の輝度の差を表す輝度差分値を算出するステップ(c)と、前記差分画像上の各サンプル点の輝度差分値に基づいて、前記基準輝度画像上のサンプルラインとの輝度の差が所定値より大きな前記所定時刻の画像上のサンプルラインを、差分サンプルラインとして検出するステップ(d)と、前記差分画像を空間微分して、差分画像上の各サンプル点の微分値を算出するステップ(e)と、空間微分された前記差分画像上の各サンプル点の微分値に基づいて、前記所定時刻の画像上のサンプルラインのうちの、隣接するサンプルラインとの輝度の差が所定値より大きなサンプルラインを、エッジラインとして検出するステップ(f)と、前記ステップ(d)で検出された差分サンプルラインと前記ステップ(f)で検出されたエッジラインとの両方に基づいて、車両が存在していると推測される存在サンプルラインとして検出するステップ(g)と、前記存在サンプルラインの密度およびステップ(a)で記憶した前記複数のサンプル点間の距離と実際の距離に基づいて、交通渋滞の状況を計測するステップ(h)と、を備えた交通渋滞計測方法。
  19. 請求の範囲第18項記載の交通渋滞計測方法において、前記ステップ(a)で設定されたサンプルライン同士の間隔が、前記ビデオカメラの前記道路上の位置から各サンプルラインに対応する道路上の実際の各位置までの距離が長くなるほど小さくなる交通渋滞計測方法。
  20. 請求の範囲第18項記載の交通渋滞計測方法において、前記ステップ(b)から(h)が一定の時間間隔で繰り返され、前記ステップ(b)が、前記所定時刻をt1とし、時刻t1から前記一定の時間間隔前の時刻t0におけるサンプル点画像の存在サンプルラインを検出するのに使われた基準輝度画像と、時刻t1におけるサンプル点画像とに基づいて、時刻t1におけるサンプル点画像の存在サンプルラインを検出するのに使われる基準輝度画像を作成するステップを有する交通渋滞計測方法。
  21. 請求の範囲第18項記載の交通渋滞計測方法において、前記ステップ(d)が、正の所定値より大きな正の輝度差分値を有するサンプル点を検出するステップ(d1)と、負の所定値より小さな負の輝度差分値を有するサンプル点を検出するステップ(d2)と、前記ステップ(d1)および(d2)で検出されたサンプル点を含む割合が所定値よりも大きなサンプルラインを、差分サンプルラインとして検出するステップ(d3)と、有する交通渋滞計測方法。
  22. 請求の範囲第21項記載の交通渋滞計測方法において、前記ステップ(d)が、各サンプル点の検出に用いられる前記正の所定値および負の所定値を、前記ビデオカメラの前記道路上の位置から各サンプル点に対応する道路上の実際の位置までの距離に応じて変化させるステップ(d4)を有する交通渋滞計測方法。
  23. 請求の範囲第18項記載の交通渋滞計測方法において、前記ステップ(d)が、各サンプルラインに含まれるサンプル点の輝度差分値の平均を表す平均輝度差分値を算出するステップ(d1)と、正の所定値より大きな正の平均輝度差分値を有するサンプルラインを、差分サンプルラインとして検出するステップ(d2)と、負の所定値より小さな負の平均輝度差分値を有するサンプルラインを、差分サンプルラインとして検出するステップ(d3)と、を有する交通渋滞計測方法。
  24. 請求の範囲第23項記載の交通渋滞計測方法において、前記ステップ(d)が、各サンプルラインの検出に用いられる前記正の所定値および負の所定値を、前記ビデオカメラの前記道路上の位置から各サンプルラインに対応する道路上の実際の位置までの距離に応じて変化させるステップ(d4)と、を有する交通渋滞計測方法。
  25. 請求の範囲第18項記載の交通渋滞計測方法において、前記存在サンプルラインのなかに、少なくとも一つのサンプルラインを挟む隣接する二つの存在サンプルラインがありかつ、前記二つの存在サンプルラインに対応する前記道路上の実際の二つの位置間の距離が所定値より小さいとき、前記隣接する二つの存在サンプルラインの間に位置するサンプルラインを、存在サンプルラインとして、前記ステップ(g)で検出された存在サンプルラインに加えるステップ(i)を備えた交通渋滞計測方法。
  26. 請求の範囲第18項記載の交通渋滞計測方法において、前記存在サンプルラインのなかに、連続する複数の存在サンプルラインがありかつ、前記連続する存在サンプルラインの両端の存在サンプルラインに対応する前記道路上の実際の二つの位置間の距離が所定値より小さいとき、前記ステップ(g)検出された存在サンプルラインの中から、前記連続した存在サンプルラインを除去するステップ(i)を備えた交通渋滞計測方法。
  27. 請求の範囲第18項記載の交通渋滞計測方法において、前記存在サンプルラインのなかに、差分サンプルラインのみからなる連続する複数の存在サンプルラインがありかつ、前記連続する存在サンプルラインの両端の存在サンプルラインに対応する前記道路上の実際の二つの位置間の距離が所定値より大きくかつ、前記所定時刻における画像上の前記連続する存在サンプルラインのサンプル点の輝度値の平均値が所定値より小さいとき、前記ステップ(g)検出された存在サンプルラインの中から、前記連続した存在サンプルラインを除去するステップ(i)を備えた交通渋滞計測方法。
  28. 請求の範囲第18項記載の交通渋滞の計測方法において、前記所定時刻の画像上の、移動中の車両が存在していると推測されるサンプルラインを、移動サンプルラインとして検出するステップ(i)と、前記二つの存在サンプルラインの間に、少なくとも一つのサンプルラインがありかつ、前記二つの存在サンプルラインに対応する道路上の実際の二つの位置間の距離が所定値より小さくかつ、前記二つの存在サンプルラインの間に少なくとも一つの移動サンプルラインがあるとき、前記二つの存在サンプルラインの間の移動サンプルラインを含むサンプルラインを、存在サンプルラインとして、前記ステップ(g)検出された存在サンプルラインに加えるステップ(j)と、を備えた交通渋滞計測方法。
  29. 請求の範囲第28項記載の交通渋滞計測方法において、前記ステップ(j)での前記二つの存在サンプルラインの各組の検出に用いられる前記所定値を、前記ビデオカメラの前記道路上の位置から存在サンプルラインの各組に対応する道路上の実際の各位置までの各距離に応じて変化させるステップ(k)を備えた交通渋滞計測方法。
  30. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定し、前記複数のサンプル点間の距離と実際の距離を記憶するステップ(a)と、前記一連の画像のうちの所定時刻における画像上の各サンプル点の輝度に基づいて、車両が存在していると推測されるサンプルラインを、存在サンプルラインとして検出するステップ(b)と、前記存在サンプルラインのなかに、連続する複数の存在サンプルラインがありかつ、前記連続する存在サンプルラインの数が所定値より大きく、さらに、前記連続する存在サンプルラインの輝度値の平均が所定値より小さい場合に、前記連続する複数の存在サンプルラインを、前記所定時刻の画像に描写された、車両の影を含む前記道路上の影の領域として推定するステップ(c)と、ステップ(b)で検出された前記存在サンプルラインから、前記ステップ(c)で前記影の領域と推定された、前記連続する存在サンプルラインを除去して前記存在サンプルラインを補正するステップ(d)と、該ステップ(d)で補正された存在サンプルラインの密度およびステップ(a)で記憶した前記複数のサンプル点間の距離と実際の距離に基づいて、交通渋滞の状況を計測するステップ(e)と、を備えたことを特徴とする交通渋滞計測方法。
  31. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定するステップ(a)と、前記所定時刻の画像上の、移動中の車両が存在していると推測されるサンプルラインを、移動サンプルラインとして検出するステップ(b)と、前記移動サンプルラインに基づいて、交通渋滞の状況を計測するステップ(c)とを備え、前記ステップ(b)が、tを前記所定時刻、αを正の時間間隔として、時刻tの画像と時刻t−αの画像との輝度の差を表す第1の差分画像を算出するステップ(b1)と、前記第1の差分画像に所定の第1の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第1の特徴抽出画像を作成するステップ(b2)と、βを正の時間間隔として、時刻tの画像と時刻t+βの画像との輝度の差を表す第2の差分画像を算出するステップ(b3)と、前記第2の差分画像に所定の第2の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第2の特徴抽出画像を作成するステップ(b4)と、前記第1の特徴抽出画像と前記第2の特徴抽出画像との論理積を表す積画像を算出するステップ(b5)と、前記積画像における「1」のレベルを有する画素に対応するサンプル点を、移動サンプル点として検出するステップ(b6)と、前記サンプルラインのうち、所定の割合以上の移動サンプル点を含むサンプルラインを、移動サンプルラインとして検出するステップ(b7)と、を備えた交通渋滞計測方法。
  32. 請求の範囲第31項記載の交通渋滞計測方法において、前記ステップ(b2)および(b4)において前記第1および第2の差分画像の各画素の二値化に用いられる前記第1および第2の閾値を、前記ビデオカメラの前記道路上の位置から各画素に対応する道路上の実際の位置までの距離に応じて変化させるステップ(b8)と、前記ステップ(b7)で用いられる前記所定の割合を、前記ビデオカメラの前記道路上の位置から各サンプルラインに対応する道路上の実際の位置までの距離に応じて変化させるステップ(b9)と、を有する交通渋滞計測方法。
  33. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定し、前記複数のサンプル点間の距離と実際の距離を記憶するステップ(a)と、前記一連の画像のうちの所定時刻における画像上の各サンプル点の輝度に基づいて車両が存在していると推測されるサンプルラインを、存在サンプルラインとして検出するステップ(b)と、前記存在サンプルラインに基づいて、前記所定時刻の前記道路上に存在する車両の密度を算出するステップ(c)と、前記所定時刻の画像に描写された全車両に対して、所定サイズより大きな車両が含まれている割合を推定するステップ(d)と、該ステップ(d)で推定された割合に基づいて、前記車両の密度を補正するステップ(e)と、前記ステップ(e)で補正された車両の密度およびステップ(a)で記憶した前記複数のサンプル点間の距離と実際の距離に基づいて、交通渋滞の状況を計測するステップ(f)と、を備えた交通渋滞計測方法。
  34. 請求の範囲第33項記載の交通渋滞計測方法において、前記所定時刻における前記道路上の車両の車間距離を推定するステップ(g)を備え、前記ステップ(e)では、前記ステップ(c)で算出された車両の密度が、前記ステップ(d)で推定された割合に加えて、前記ステップ(g)で算出された車間距離に基づいて補正されるようにした交通渋滞計測方法。
  35. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定するステップ(a)と、前記一連の画像のうちの所定時刻tにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出するステップ(b)と、yを正の時間間隔として、前記一連の画像のうちの時刻t+γにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出するステップ(c)と、前記時刻tの画像上の、移動中の車両が存在していると推定されるサンプルラインを、移動サンプルラインとして検出するステップ(c)と、前記時刻t+γにおける画像上のサンプルラインの中から、前記時刻tにおける画像上の各移動サンプルラインの移動先と推測されるサンプルラインを、移動先サンプルラインとして検出するステップ(e)と、前記移動サンプルラインと前記移動先移動サンプルラインとに対応する道路上の実際の二つの位置間の距離と前記時間γとに基づいて、各移動サンプルラインの速度を算出するステップ(f)と、前記ステップ(f)で算出された各移動サンプルラインの速度に基づいて、前記道路の交通渋滞の状況を計測するステップ(g)と、を備え、前記ステップ(e)が、前記ビデオカメラの前記道路上の位置からの各移動サンプルラインに対応する前記道路上の実際の位置までの距離および前記時間γに基づいて、時刻t+γの画像上に時刻tの画像上の各移動サンプルラインの各移動先範囲を設定するステップ(e1)と、時刻t+γにおける画像上の前記各移動先範囲内の各サンプルライン平均輝度値と、時刻tにおける画像上の各移動サンプルラインの平均輝度値との差の絶対値を算出するステップ(e2)と、該ステップ(e2)で算出された絶対値が、所定値よりも小さいか否かを判別するステップ(e3)と、該ステップ(e3)で前記絶対値のなかの最小の絶対値が前記所定値よりも小さいと判別されたとき、前記最小の絶対値に対応する時刻t+γの画像上の各サンプルラインを、各移動先サンプルラインとして検出するステップ(e4)と、を有する交通渋滞計測方法。
  36. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定するステップ(a)と、前記一連の画像のうちの所定時刻tにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出するステップ(b)と、yを正の時間間隔として、前記一連の画像のうちの時刻t+γにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出するステップ(c)と、前記時刻tの画像上の、移動中の車両が存在していると推定されるサンプルラインを、移動サンプルラインとして検出するステップ(c)と、前記時刻t+γにおける画像上のサンプルラインの中から、前記時刻tにおける画像上の各移動サンプルラインの移動先と推測されるサンプルラインを、移動先サンプルラインとして検出するステップ(e)と、前記移動サンプルラインと前記移動先移動サンプルラインとに対応する道路上の実際の二つの位置間の距離と前記時間γとに基づいて、各移動サンプルラインの速度を算出するステップ(f)と、前記ステップ(f)で算出された各移動サンプルラインの速度に基づいて、前記道路の交通渋滞の状況を計測するステップ(g)と、を備え、前記ステップ(b)が、時刻tにおける画像上の各移動サンプルラインの前記道路の上流側および下流側に隣接する各サンプルラインのサンプル点の輝度値の平均輝度値を算出するステップを有し、前記ステップ(e)が、前記ビデオカメラの前記道路上の位置からの各移動サンプルラインに対応する前記道路上の実際の位置までの距離および前記時間γに基づいて、時刻t+γの画像上に時刻tの画像上の各移動サンプルラインの各第1の移動先範囲を設定するステップ(e1)と、前記各第1の移動先範囲を、各第1の移動先範囲の前記道路の上流側に一サンプルライン分ずらして構成される各第2の移動先範囲を設定するステップ(e2)と、前記各第1の移動先範囲を、各第1の移動先範囲の前記道路の下流側に一サンプルライン分ずらして構成される各第3の移動先範囲を設定するステップ(e3)と、時刻tにおける画像上の各移動サンプルラインの平均輝度値と、時刻t+γにおける画像上の各第1の移動先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出するステップ(e4)と、時刻tにおける画像上の各移動サンプルラインの前記道路の上流側に隣接するサンプルラインの平均輝度値と、時刻t+γにおける画像上の各第2の移動先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出するステップ(e5)と、時刻tにおける画像上の各移動サンプルラインの前記道路の下流側に隣接するサンプルラインの平均輝度値と、時刻t+γにおける画像上の各第3の移動先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出するステップ(e6)と、時刻tにおける画像上の各移動サンプルラインに対応する前記ステップ(e4)、(e5)および(e6)で算出された差の絶対値を、各移動サンプルライン毎に総和するステップ(e7)と、該ステップ(e7)で算出された総和のなかの時刻tにおける画像上の各移動サンプルライン毎の最小の総和が、所定値よりも小さいか否かを判別するステップ(e8)と、該ステップ(e8)で前記最小の総和が前記所定値よりも小さいと判別されたとき、前記各最小の総和に対応する時刻t+γの画像上の各サンプルラインを、時刻tにおける画像上の各移動サンプルラインに対応する各移動先サンプルラインとして検出するステップ(e9)と、を有する交通渋滞計測方法。
  37. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、前記ビデオカメラにより撮影されて、車両が存在していないと推測される画像を基準輝度画像として設定するステップ(a)と、所定時刻の画像と前記基準輝度画像とに基づいて、前記所定時刻の画像上の車両の存在を検出するステップ(b)と、該ステップ(b)後、前記基準輝度画像を更新するステップ(c)と、前記ステップ(b)とステップ(c)とを所定の時間間隔で繰り返すステップ(d)と、を備え、前記ステップ(c)では、前記基準輝度画像が、次式によって更新され、Bn+1=Bn+η×(Xn−Bn)ここに、Xnは、時刻tnの画像の各画素の輝度値、Bnは、時刻tnの画像上の車両の存在を検出するのに使われる基準輝度画像の各画素の輝度値、Bn+1は、時刻tn+1の画像上の車両の存在を検出するのに使われる基準輝度画像の各画素の輝度値を表し、tn+1−tnが前記所定の時間間隔に等しく、ηは可変係数であり、|Xn−Bn|が大きいほど小さくするともに、車両の渋滞度が高くなるほど小さくするようにした交通渋滞計測方法。
  38. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測方法であって、複数のサンプル点を設定し、前記複数のサンプル点間の距離と実際の距離を記憶するとともに、所定時刻の画像を複数個に区分する前記複数のサンプル点により構成されるメッシュ毎に、存在する車両の平均速度を表す空間速度を算出するステップ(a)と、前記空間速度に基づいて、渋滞が発生しているメッシュを渋滞領域として検出するステップ(b)と、前記渋滞領域およびステップ(a)で記憶した前記複数のサンプル点間の距離と実際の距離に基づいて交通渋滞を検出するステップ(c)と、を備えた交通渋滞計測方法。
  39. 請求の範囲第38項記載の交通渋滞計測方法において、前記メッシュ毎に、存在している移動中の車両の密度を表す移動密度を算出するステップ(d)を備え、前記ステップ(b)では、前記空間速度に加え前記移動密度に基づいて、渋滞が発生しているメッシュを渋滞領域として検出する交通渋滞計測方法。
  40. 請求の範囲第38項記載の交通渋滞計測方法において、前記ステップ(c)はさらに、前記渋滞領域の末尾位置を検出するステップ(c1)を有し、さらに、ステップ(c1)で検出された前記渋滞領域の末尾位置を、前記ビデオカメラの撮影領域内の道路に向かおうとしている車両の運転者に、リアルタイムに通知するステップ(d)を備えた交通渋滞計測方法。
  41. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測装置であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを前記動画像上に設定し、前記複数のサンプル点間の距離と実際の距離を記憶する手段と、前記ビデオカメラにより撮影されて、車両が道路上に存在していないと推測される基準輝度画像を作成する手段と、前記一連の画像のうちの所定時刻の画像と前記基準輝度画像との輝度の差を表す差分画像を算出して、前記所定時刻の画像と前記基準輝度画像との位置的に対応するサンプル点の輝度の差を表す輝度差分値を算出する手段と、前記差分画像上の各サンプル点の輝度差分値に基づいて、前記基準輝度画像上のサンプルラインとの輝度の差が所定値より大きな前記所定時刻の画像上のサンプルラインを、差分サンプルラインとして検出する手段と、前記差分画像を空間微分して、差分画像上の各サンプル点の微分値を算出する手段と、空間微分された前記差分画像上の各サンプル点の微分値に基づいて、前記所定時刻の画像上のサンプルラインのうちの、隣接するサンプルラインとの輝度の差が所定値より大きなサンプルラインを、エッジラインとして検出する手段と、前記差分サンプルラインと前記エッジラインとの両方に基づいて、車両が存在していると推測される存在サンプルラインとして検出する手段と、前記存在サンプルラインの密度および記憶した前記複数のサンプル点間の距離と実際の距離に基づいて、交通渋滞の状況を計測する手段と、を備えた交通渋滞計測装置。
  42. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測装置であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定する第1の手段と、前記所定時刻の画像上の、移動中の車両が存在していると推測されるサンプルラインを、移動サンプルラインとして検出する第2の手段と、前記移動サンプルラインに基づいて、交通渋滞の状況を計測する第3の手段と、を備え、前記第1の手段が、tを前記所定時刻、αを正の時間間隔として、時刻tの画像と時刻t−αの画像との輝度の差を表す第1の差分画像を算出する手段と、前記第1の差分画像に所定の第1の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第1の特徴抽出画像を作成する手段と、βを正の時間間隔として、時刻tの画像と時刻t+βの画像との輝度の差を表す第2の差分画像を算出する手段と、前記第2の差分画像に所定の第2の閾値で二値化処理を施して、「0」および「1」のレベルを有する画素のみからなる第2の特徴抽出画像を作成する手段と、前記第1の特徴抽出画像と前記第2の特徴抽出画像との論理積を表す積画像を算出する手段と、前記積画像における「1」のレベルを有する画素に対応するサンプル点を、移動サンプル点として検出する手段と、前記サンプルラインのうち、所定の割合以上の移動サンプル点を含むサンプルラインを、移動サンプルラインとして検出する手段と、を備えた交通渋滞計測装置。
  43. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測装置であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定する手段と、前記一連の画像のうちの所定時刻における画像上の各サンプル点の輝度に基づいて車両が存在していると推測されるサンプルラインを、存在サンプルラインとして検出する手段と、前記存在サンプルラインに基づいて、前記所定時刻の前記道路上に存在する車両の密度を算出する手段と、前記所定時刻の画像に描写された全車両に対して、所定サイズより大きな車両が含まれている割合を推定する手段と、前記割合に基づいて、前記車両の密度を補正する手段と、を備えた交通渋滞計測装置。
  44. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測装置であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定する第1の手段と、前記一連の画像のうちの所定時刻tにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出する第2の手段と、γを正の時間間隔として、前記一連の画像のうちの時刻t+γにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出する第3の手段と、前記時刻tの画像上の、移動中の車両が存在していると推定されるサンプルラインを、移動サンプルラインとして検出する第4の手段と、前記時刻t+γにおける画像上のサンプルラインの中から、前記時刻tにおける画像上の各移動サンプルラインの移動先と推測されるサンプルラインを、移動先サンプルラインとして検出する第5の手段と、前記移動サンプルラインと前記移動先移動サンプルラインとに対応する道路上の実際の二つの位置間の距離と前記時間γとに基づいて、各移動サンプルラインの速度を算出する第6の手段と、算出された各移動サンプルラインの速度に基づいて、前記道路の交通渋滞の状況を計測する第7の手段と、を備え、前記第5の手段が、前記ビデオカメラの前記道路上の位置からの各移動サンプルラインに対応する前記道路上の実際の位置までの距離および前記時間γに基づいて、時刻t+γの画像上に時刻tの画像上の各移動サンプルラインの各移動先範囲を設定する第8の手段と、時刻t+γにおける画像上の前記各移動先範囲内の各サンプルライン平均輝度値と、時刻tにおける画像上の各移動サンプルラインの平均輝度値との差の絶対値を算出する第9の手段と、該第9の手段で算出された絶対値が、所定値よりも小さいか否かを判別する第10の手段と、該第10の手段で前記絶対値のなかの最小の絶対値が前記所定値よりも小さいと判別されたとき、前記最小の絶対値に対応する時刻t+γの画像上の各サンプルラインを、各移動先サンプルラインとして検出する第11の手段と、を有する交通渋滞計測方法。
  45. ビデオカメラにより撮影された、道路と該道路上を行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、交通渋滞の状況を計測する交通渋滞計測装置であって、輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを設定する第1の手段と、前記一連の画像のうちの所定時刻tにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出する第2の手段と、γを正の時間間隔として、前記一連の画像のうちの時刻t+γにおける画像上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出する第3の手段と、前記時刻tの画像上の、移動中の車両が存在していると推定されるサンプルラインを、移動サンプルラインとして検出する第4の手段と、前記時刻t+γにおける画像上のサンプルラインの中から、前記時刻tにおける画像上の各移動サンプルラインの移動先と推測されるサンプルラインを、移動先サンプルラインとして検出する第5の手段と、前記移動サンプルラインと前記移動先移動サンプルラインとに対応する道路上の実際の二つの位置間の距離と前記時間γとに基づいて、各移動サンプルラインの速度を算出する第6の手段と、算出された各移動サンプルラインの速度に基づいて、前記道路の交通渋滞の状況を計測する第7の手段と、を備え、前記第2の手段が、時刻tにおける画像上の各移動サンプルラインの前記道路の上流側および下流側に隣接する各サンプルラインのサンプル点の輝度値の平均輝度値を算出する手段を有し、前記第5の手段が、前記ビデオカメラの前記道路上の位置からの各移動サンプルラインに対応する前記道路上の実際の位置までの距離および前記時間γに基づいて、時刻t+γの画像上に時刻tの画像上の各移動サンプルラインの各第1の移動先範囲を設定する第8の手段と、前記各第1の移動先範囲を、各第1の移動先範囲の前記道路の上流側に一サンプルライン分ずらして構成される各第2の移動先範囲を設定する第9の手段と、前記各第1の移動先範囲を、各第1の移動先範囲の前記道路の下流側に一サンプルライン分ずらして構成される各第3の移動先範囲を設定する第10の手段と、時刻tにおける画像上の各移動サンプルラインの平均輝度値と、時刻t+γにおける画像上の各第1の移動先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出する第11の手段と、時刻tにおける画像上の各移動サンプルラインの前記道路の上流側に隣接するサンプルラインの平均輝度値と、時刻t+γにおける画像上の各第2の移動先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出する第12の手段と、時刻tにおける画像上の各移動サンプルラインの前記道路の下流側に隣接するサンプルラインの平均輝度値と、時刻t+γにおける画像上の各第3の移動先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出する第13の手段と、時刻tにおける画像上の各移動サンプルラインに対応する前記第11の手段、前記第12の手段および前記第13の手段で算出された差の絶対値を、各移動サンプルライン毎に総和する第14の手段と、該第14の手段で算出された総和のなかの時刻tにおける画像上の各移動サンプルライン毎の最小の総和が、所定値よりも小さいか否かを判別する第15の手段と、該第15の手段で前記最小の総和が前記所定値よりも小さいと判別されたとき、前記各最小の総和に対応する時刻t+γの画像上の各サンプルラインを、時刻tにおける画像上の各移動サンプルラインに対応する各移動先サンプルランプとして検出する第16の手段と、を有する交通渋滞計測方法。
JP52507997A 1996-01-12 1997-01-09 交通渋滞計測方法および装置並びに画像処理方法および装置 Expired - Fee Related JP3834826B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP424696 1996-01-12
PCT/JP1997/000020 WO1997025700A1 (en) 1996-01-12 1997-01-09 Traffic congestion measuring method and apparatus and image processing method and apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006119788A Division JP4148274B2 (ja) 1996-01-12 2006-04-24 画像処理方法および画像処理装置

Publications (1)

Publication Number Publication Date
JP3834826B2 true JP3834826B2 (ja) 2006-10-18

Family

ID=11579193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP52507997A Expired - Fee Related JP3834826B2 (ja) 1996-01-12 1997-01-09 交通渋滞計測方法および装置並びに画像処理方法および装置

Country Status (5)

Country Link
US (2) US5999635A (ja)
JP (1) JP3834826B2 (ja)
KR (1) KR100279333B1 (ja)
TW (1) TW349211B (ja)
WO (1) WO1997025700A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014192417A1 (ja) * 2013-05-30 2014-12-04 沖電気工業株式会社 交通量推定装置および交通量推定方法
KR101486804B1 (ko) * 2013-03-15 2015-01-29 주식회사 엡스 루프없는 속도 측정 방법

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6133853A (en) 1998-07-30 2000-10-17 American Calcar, Inc. Personal communication and positioning system
US6148261A (en) 1997-06-20 2000-11-14 American Calcar, Inc. Personal communication system to send and receive voice data positioning information
US6525768B2 (en) 1998-10-21 2003-02-25 American Calcar, Inc. Positional camera and GPS data interchange device
JP4028135B2 (ja) * 1999-05-27 2007-12-26 本田技研工業株式会社 物体検出装置
JP4391624B2 (ja) * 1999-06-16 2009-12-24 本田技研工業株式会社 物体認識装置
JP2003529054A (ja) * 1999-10-19 2003-09-30 アメリカン カルカー インコーポレイティド ユーザの嗜好に基づいた効果的なナビゲーション技術
JP2003517164A (ja) 1999-10-27 2003-05-20 アメリカン カルカー インコーポレイテッド ユーザーナビゲーションシステムと方法
US7343165B2 (en) * 2000-04-11 2008-03-11 American Calcar Inc. GPS publication application server
US7375728B2 (en) * 2001-10-01 2008-05-20 University Of Minnesota Virtual mirror
US6977630B1 (en) * 2000-07-18 2005-12-20 University Of Minnesota Mobility assist device
EP1305722A1 (en) * 2000-07-28 2003-05-02 American Calcar Inc. Technique for effective organization and communication of information
US7139409B2 (en) * 2000-09-06 2006-11-21 Siemens Corporate Research, Inc. Real-time crowd density estimation from video
KR100390936B1 (ko) * 2000-10-23 2003-07-16 주식회사 지이엔티 영상처리기반의 스필백 판단 시스템 및 방법
US7552008B2 (en) * 2001-07-18 2009-06-23 Regents Of The University Of Minnesota Populating geospatial database for onboard intelligent vehicle applications
US7209051B2 (en) * 2002-03-05 2007-04-24 University Of Minnesota Intersection assistance system and method
KR100459476B1 (ko) * 2002-04-04 2004-12-03 엘지산전 주식회사 차량의 대기 길이 측정 장치 및 방법
JP4003623B2 (ja) * 2002-11-19 2007-11-07 住友電気工業株式会社 旋回可能な監視カメラを用いた画像処理システム
JP2004194129A (ja) * 2002-12-13 2004-07-08 Hitachi Ltd 映像情報取引方法および映像情報を添付した工業製品
US7747041B2 (en) * 2003-09-24 2010-06-29 Brigham Young University Automated estimation of average stopped delay at signalized intersections
JP4555987B2 (ja) * 2004-07-09 2010-10-06 財団法人生産技術研究奨励会 画像における移動物体追跡方法及び装置
US7920959B1 (en) 2005-05-01 2011-04-05 Christopher Reed Williams Method and apparatus for estimating the velocity vector of multiple vehicles on non-level and curved roads using a single camera
WO2007008055A1 (en) * 2005-07-11 2007-01-18 Tomtom International B.V. Method for determining traffic information, and a device arranged to perform the method
JP4248558B2 (ja) * 2006-03-24 2009-04-02 トヨタ自動車株式会社 道路区画線検出装置
JP4848893B2 (ja) * 2006-08-29 2011-12-28 株式会社デンソー 交差点情報提供システム及び運転支援システム
US9076332B2 (en) * 2006-10-19 2015-07-07 Makor Issues And Rights Ltd. Multi-objective optimization for real time traffic light control and navigation systems for urban saturated networks
WO2008068837A1 (ja) * 2006-12-05 2008-06-12 Fujitsu Limited 交通状況表示方法、交通状況表示システム、車載装置及びコンピュータプログラム
US8253592B1 (en) 2007-11-26 2012-08-28 Rhythm Engineering, LLC External adaptive control systems and methods
TWI353778B (en) * 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
CN101261681B (zh) * 2008-03-31 2011-07-20 北京中星微电子有限公司 智能视频监控中的路面图像提取方法及装置
US8174406B2 (en) * 2008-07-02 2012-05-08 International Business Machines Corporation Detecting and sharing road traffic condition information
US9552726B2 (en) * 2009-08-24 2017-01-24 Here Global B.V. Providing driving condition alerts using road attribute data
DE102010031056A1 (de) * 2010-07-07 2012-01-12 Robert Bosch Gmbh Verfahren zum Kalibrieren eines Messsystems und eines Messplatzes zur Fahrzeugvermessung
US8386156B2 (en) * 2010-08-02 2013-02-26 Siemens Industry, Inc. System and method for lane-specific vehicle detection and control
TW201320025A (zh) * 2011-11-15 2013-05-16 Hon Hai Prec Ind Co Ltd 交通信號智慧控制裝置及方法
US9582999B2 (en) * 2013-10-31 2017-02-28 Here Global B.V. Traffic volume estimation
US9747505B2 (en) 2014-07-07 2017-08-29 Here Global B.V. Lane level traffic
US10378549B2 (en) 2014-10-17 2019-08-13 Kohler Co. Dual compressor turbocharger
US9556792B2 (en) 2014-10-17 2017-01-31 Kohler, Co. Dual compressor turbocharger
US9659491B2 (en) 2015-03-19 2017-05-23 Here Global B.V. Dynamic location referencing strands
US10635117B2 (en) * 2016-10-25 2020-04-28 International Business Machines Corporation Traffic navigation for a lead vehicle and associated following vehicles
US10733876B2 (en) * 2017-04-05 2020-08-04 Carnegie Mellon University Deep learning methods for estimating density and/or flow of objects, and related methods and software
US10373489B2 (en) 2017-08-11 2019-08-06 Cubic Corporation System and method of adaptive controlling of traffic using camera data
US10803740B2 (en) 2017-08-11 2020-10-13 Cubic Corporation System and method of navigating vehicles
US10636298B2 (en) 2017-08-11 2020-04-28 Cubic Corporation Adaptive traffic control using object tracking and identity details
US10636299B2 (en) 2017-08-11 2020-04-28 Cubic Corporation System and method for controlling vehicular traffic
US10395522B2 (en) 2017-08-14 2019-08-27 Cubic Corporation Adaptive traffic optimization using unmanned aerial vehicles
US11100336B2 (en) 2017-08-14 2021-08-24 Cubic Corporation System and method of adaptive traffic management at an intersection
US10935388B2 (en) 2017-08-14 2021-03-02 Cubic Corporation Adaptive optimization of navigational routes using traffic data
US11250699B2 (en) 2017-08-14 2022-02-15 Cubic Corporation System and method of adaptive traffic management at an intersection
US10559198B1 (en) 2018-08-08 2020-02-11 Cubic Corporation System and method of adaptive controlling of traffic using zone based occupancy
KR102189063B1 (ko) * 2020-08-04 2020-12-09 렉스젠(주) 이상 상황 판단을 위한 장치, 시스템 및 방법
CN114067573B (zh) * 2022-01-11 2022-04-12 成都宜泊信息科技有限公司 一种停车场值守方法、系统、存储介质及电子设备
US11715305B1 (en) * 2022-11-30 2023-08-01 Amitha Nandini Mandava Traffic detection system using machine vision
CN116935665B (zh) * 2023-09-18 2023-11-24 徐州帝亨网络科技有限公司 用于货物运输的交通控制系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE394146B (sv) * 1975-10-16 1977-06-06 L Olesen Anordning for metning resp kontroll av ett foremals, i synnerhet ett fordons hastighet.
JPS5636799A (en) * 1979-09-04 1981-04-10 Omron Tateisi Electronics Co Measurement device for traffic flow
US4847772A (en) * 1987-02-17 1989-07-11 Regents Of The University Of Minnesota Vehicle detection through image processing for traffic surveillance and control
JPH02284297A (ja) * 1989-04-26 1990-11-21 Nec Corp 車両空間密度検出装置
GB8913946D0 (en) * 1989-06-16 1989-08-02 Univ London Method and apparatus for traffic monitoring
JP2563666B2 (ja) * 1990-09-13 1996-12-11 松下電器産業株式会社 駐車場混雑状態判別装置
US5301239A (en) * 1991-02-18 1994-04-05 Matsushita Electric Industrial Co., Ltd. Apparatus for measuring the dynamic state of traffic
US5590217A (en) * 1991-04-08 1996-12-31 Matsushita Electric Industrial Co., Ltd. Vehicle activity measuring apparatus
US5509082A (en) * 1991-05-30 1996-04-16 Matsushita Electric Industrial Co., Ltd. Vehicle movement measuring apparatus
JPH0540896A (ja) * 1991-08-07 1993-02-19 Hitachi Ltd 交通渋滞度計測装置
JPH0554294A (ja) * 1991-08-21 1993-03-05 Omron Corp 交差点情報通信装置
EP0567059B1 (en) * 1992-04-24 1998-12-02 Hitachi, Ltd. Object recognition system using image processing
JP2917661B2 (ja) * 1992-04-28 1999-07-12 住友電気工業株式会社 交通流計測処理方法及び装置
JPH064795A (ja) * 1992-06-17 1994-01-14 Hitachi Ltd 交通状況監視方法と装置および交通流監視制御システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101486804B1 (ko) * 2013-03-15 2015-01-29 주식회사 엡스 루프없는 속도 측정 방법
WO2014192417A1 (ja) * 2013-05-30 2014-12-04 沖電気工業株式会社 交通量推定装置および交通量推定方法

Also Published As

Publication number Publication date
TW349211B (en) 1999-01-01
US5999635A (en) 1999-12-07
KR100279333B1 (ko) 2001-01-15
US6075874A (en) 2000-06-13
KR19990077195A (ko) 1999-10-25
WO1997025700A1 (en) 1997-07-17

Similar Documents

Publication Publication Date Title
JP3834826B2 (ja) 交通渋滞計測方法および装置並びに画像処理方法および装置
CN106373394B (zh) 一种基于视频和雷达的车辆检测方法及系统
CN109064495B (zh) 一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法
US6188778B1 (en) Traffic congestion measuring method and apparatus and image processing method and apparatus
CN101075376B (zh) 基于多视点的智能视频交通监控系统及方法
CN106056571B (zh) 路面检测装置和路面检测系统
CN104575003B (zh) 一种基于道路监控视频的车辆速度检测方法
CN101364347A (zh) 基于视频的交叉口车辆控制延误的检测方法
US20100283856A1 (en) Method For Calibrating The Image Of A Camera
CN200990147Y (zh) 基于多视点的智能视频交通监控系统
CN106571038A (zh) 实现全自动道路监控的方法
CN107284455A (zh) 一种基于图像处理的adas系统
JP2012203795A (ja) 車両速度計測方法及びそれを利用した車両全体像検出方法並びに車両ナンバープレート情報誤認防止方法
CN108764075A (zh) 岸桥下集装箱卡车定位的方法
CN106327880A (zh) 一种基于监控视频的车速识别方法及其系统
CN107886739A (zh) 交通人流量自动采集分析系统
DE102007063508A1 (de) Verfahren und Anordnung zur Erfassung von Bewegungsgrößen bei einem Schienenfahrzeug
JP4673521B2 (ja) 複数のビデオカメラを用いた車両走行軌跡観測装置及び方法
CN103605960A (zh) 一种基于不同焦距视频图像融合的交通状态识别方法
JP4148274B2 (ja) 画像処理方法および画像処理装置
CN113255469A (zh) 交通监控场景道路占有率的测定方法及装置
CN106289036B (zh) 一种基于浮动车数据分析的道路宽度测量方法
CN115240471B (zh) 一种基于图像采集的智慧厂区避撞预警方法和系统
CN110021174A (zh) 一种基于视频图像的适用多场景的车流量计算方法
CN116229708A (zh) 基于v2i的路侧感知系统对交通目标的感知测试方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060717

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090804

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100804

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110804

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120804

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130804

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees