JP3912869B2 - Traffic flow measuring device - Google Patents

Traffic flow measuring device Download PDF

Info

Publication number
JP3912869B2
JP3912869B2 JP28502597A JP28502597A JP3912869B2 JP 3912869 B2 JP3912869 B2 JP 3912869B2 JP 28502597 A JP28502597 A JP 28502597A JP 28502597 A JP28502597 A JP 28502597A JP 3912869 B2 JP3912869 B2 JP 3912869B2
Authority
JP
Japan
Prior art keywords
vehicle
image
detection
trajectory
measured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP28502597A
Other languages
Japanese (ja)
Other versions
JPH11120481A (en
Inventor
真由美 斎藤
光明 玉川
裕子 唐木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP28502597A priority Critical patent/JP3912869B2/en
Publication of JPH11120481A publication Critical patent/JPH11120481A/en
Application granted granted Critical
Publication of JP3912869B2 publication Critical patent/JP3912869B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、高速道路の交通流量を画像処理技術を利用して計測する交通流計測装置に関する。
【0002】
【従来の技術】
従来の都市高速における交通流量の計測には、各車線毎に超音波センサを所定の間隔で設置し、その2点間を車両が移動する時間によって道路の渋滞状況を把握するシステムがある。
【0003】
従来の画像処理を利用した交通流量の計測には、複数のカメラを用いたシステムがある。図10は、その構成例を示したものである。
このシステムは、道路1に沿った2地点間に撮影装置2a,2bを設置し、それぞれの撮影装置2a,2bにより撮影した映像信号を画像処理装置3で処理し、サンプル車両を選択して、その車種、色の情報を抽出し、2地点間を走行するのにかかる時間から交通流の状態を把握するものである。
【0004】
【発明が解決しようとする課題】
上記従来のシステムでは、撮影装置2a,2bにより撮影した映像信号に基づいて交通流の状態を把握し得るものであるが、車線毎に計測用の撮影装置を新たに設置しなければならないと共に、必要な精度が得られないという問題がある。
【0005】
本発明は上記の課題を解決するためになされたもので、高速道路に通常設置されている道路状況監視用のITVカメラを利用して、新たに撮影装置を設置することなく、高精度で交通流を計測し得る交通流計測装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明の請求項1に係る交通流計測装置は、道路状況監視用カメラからの連続画像を読み込む連続画像入力装置と、この連続画像入力装置より入力された連続画像の状態から画像のぶれを検出すると共に、該検出した画像のぶれを補正する振動ぶれ検出・補正装置と、前記振動ぶれ検出・補正装置で補正された連続画像から、指定領域内の車両を検知する車両検知装置と、前記振動ぶれ検出・補正装置で補正された連続画像から、指定領域内の車両を追跡する車両追跡装置と、前記振動ぶれ検出・補正装置で補正された連続画像とその背景画像から、指定領域内を通過する車両の移動軌跡を計測し、前記振動ぶれ検出・補正装置で補正された連続画像から2値化画像と各車線ごとに設定した領域の論理積をとり、Y軸射影して時間軸に展開し、横軸が時間、縦軸が入力画像のY方向である2値画像から1台の車両の軌跡を1本の帯として得て、前記帯部分の面積合計の画像全体面積に対する割合を占有率とする車両軌跡計測装置と、前記車両検知装置により計測された車両台数及び前記車両軌跡計測装置により計測された車両軌跡から計測された車両台数とを併用し、一方のみに現れる車両は通過台数に含めないことで、通過車両台数を計測する車両台数計測装置と、前記車両追跡装置により計測された車両速度及び前記車両軌跡計測装置により計測された車両軌跡から計測された車両速度とを併用し、一方のみに現れる車両は速度計測に含めないことで通過車両平均速度を計測する車両速度計測装置とを具備したことを特徴とする。
【0007】
本発明の請求項2に係る交通流計測装置は、前記請求項1において、振動ぶれ検出・補正装置で補正された連続画像から背景画像を更新する背景画像更新装置を備えると共に、前記車両軌跡計測装置は、静止領域の平均輝度で、昼間、夜間を判断し、該判断に応じて整形処理した車両抽出2値画像を出力するものであることを特徴とする。本発明の請求項3に係る交通流計測装置は、前記請求項1又は2において、各車線毎に設定した領域を走行する車両を計測対象とし、複数線の車両通過台数、車両速度、車両占有率を道路全体を監視する1台のカメラで撮影した画像処理により計測することを特徴とする。
【0008】
【発明の実施の形態】
以下、図面を参照して本発明の一実施形態を説明する。
図1は、本発明に係る交通流計測装置の全体構成図である。
図1において、11は連続画像入力装置で、既設の1台の道路状況監視用ITVカメラから出力される連続画像を読み込み、振動ぶれ検出・補正装置12に入力する。この振動ぶれ検出・補正装置12は、連続画像の状態から画像ぶれを検出して、そのぶれを補正するもので、補正した画像を背景画像更新装置13、車両検知装置14、車両追跡装置15へ出力する。
【0009】
上記背景画像更新装置13は、振動ぶれが補正された連続画像から背景画像を更新し、車両軌跡計測装置16へ出力する。この車両軌跡計測装置16は、振動ぶれ検出・補正装置12による補正済みの連続画像と、背景画像更新装置13により更新された背景画像から、指定領域内を通過する車両の移動軌跡を計測し、その計測結果を車両台数計測装置17及び車両速度計測装置18へ出力する。上記車両軌跡計測装置16は、更に占有率を計測する。
【0010】
また、上記車両検知装置14は、振動ぶれ検出・補正装置12による補正済みの連続画像から、指定領域内の車両を検知して車両台数計測装置17へ出力する。この車両台数計測装置17は、車両検知装置14から出力される車両検知信号と、車両軌跡計測装置16により計測された車両軌跡とから通過車両台数を計測する。
【0011】
一方、上記車両追跡装置15は、振動ぶれ検出・補正装置12による補正済みの連続画像から、指定領域内の車両を追跡し、その追跡信号を車両速度計測装置18へ出力する。この車両速度計測装置18は、車両追跡装置15から出力される車両追跡信号と、車両軌跡計測装置16から出力される車両軌跡とから通過車両平均速度を計測する。
【0012】
次に上記実施形態の動作を、高速道路における一定時間内の車両台数、速度及び占有率を計測する場合について説明する。
まず、連続画像入力装置11により、道路状況監視用ITVカメラから連続画像を取り込み、振動ぶれ検出・補正装置12に入力する。この振動ぶれ検出・補正装置12は、連続画像の基準となる画像(参照画像)に対して、公知手法である正規化相互相関、または、SSDA(Sequential Similarity Detection Algorithm )法により、最適な重ね合わせ状態を求める。最適重ね合わせ状態からずれ量(画像の縦方向ΔY、横方向ΔX)を画像ぶれ量として、予め設定した領域を補正して画像を切り出す。
【0013】
上記振動ぶれ検出・補正装置12における重ね合わせは、図2のフローチャートに示すように、画像全体ではなく車両の存在しない路面部分の静止領域のみで相関をとり、ずれ量を求めればよい。すなわち、振動ぶれ検出・補正装置12は、まず、静止領域をぶれ検出テンプレートとし(ステップA1)、ぶれ検出の相関計算領域を設定する(ステップA2)。次に正規化相互相関でのテンプレートマッチングによりぶれ量(ΔX,ΔY)を求める(ステップA3)。そして、上記ぶれ量からぶれ補正を行ない(ステップA4)、原画像からぶれ補正した領域で画像の切り出しを行なう(ステップA5)。この切り出した画像を処理画像として、背景画像更新装置13、車両検知装置14、車両追跡装置15へ出力する(ステップA6)。
【0014】
背景画像更新装置13は、前フレーム背景画像B(T−1)と入力画像I(T)の各点の変化量に応じて背景画像B(T)を更新する。変化量が大きい点は、前フレームの背景画像の値を更新しないようにする。具体的には、以下の式を用いて背景画像の各点(x,y)の輝度値B(X,Y,T)を求める。
【0015】
B(X,Y,T)=αI(X,Y,T)+(1−α)B(X,Y,T−1
α=1/|I(X,Y,T)−B(X,Y,T−1)|
但し、|I(X,Y,T)−B(X,Y,T−1)|<εのとき、α=0εはパラメータ車両検知装置14は、各車線毎に設定した領域ROI(Region Of Interest)における車両を図3及び図4に示す処理手順に従って検知する。図3は車両検知装置14の処理手順を示し、図4は図3における車両検知用画像処理の詳細を示したものである。
【0016】
上記車両検知装置14は、図8に示すように、まず、各車線毎に設定した車両検知領域であるROI−1を“1”とし、画像中の他の領域を“0”とした2値画像を生成する(ステップB1)。図8は、車両台数を計測するためのROIを示したもので、ROI−1は車両検知用の領域、ROI−は車両軌跡計測用の領域である。そして、上記2値画像から車両を検知するために画像処理を施す(ステップB2)。
【0017】
上記車両検知用画像処理は、図4に示すように処理領域画像に対し、平滑化処理(メディアンフィルタ)を行なう(ステップC1)。次に車両前面は水平エッジが多いことを利用して、振動ぶれ検出・補正装置12によりぶれ補正した画像から、空間微分フィルタ処理によって車両部分を抽出し(ステップC2)、この微分画像を2値化処理する(ステップC3)。2値化しきい値は、公知の手法である判別分析法などで自動計算するか、固定しきい値とする。上記微分画像はノイズに弱いので、この2値化微分画像を最大値フィルタ(ステップC4)、最小値フィルタ(ステップC5)により整形処理し、エッジ抽出2値画像を得る(ステップC6)。
【0018】
そして、上記車両検出画像とROI画像の論理積をとり(ステップB4)、X軸方向に射影する(ステップB5)。この射影した値を平滑化し、固定しきい値で2値化し、その線分の最も長い射影線分を抽出する(ステップB6)。この2値化して取り出したX軸の範囲をY軸射影し(ステップB7)、X軸射影時と同様の手法で平滑化、2値化して線分として取り出す。次いで、この取り出した射影線分の長さがしきい値以上であるか否かを判断し(ステップB8)、しきい値以上でなければ、ステップB3を経てステップB4に戻り、他の車線について車両検知を行なう。上記ステップB8において、射影線分の長さがしきい値以上であると判断された場合は、車両検知用ROI−1に車両が存在するとして、X,Yの射影線分座標を車両領域とし(ステップB9)、その車線の車両検知のフラグをオンにする。また、他の車線についても同様にして車両検知を行なう。
【0019】
数フレーム処理した後、検知フラグ列がオフからオンになるフレームで車両台数をインクリメントし、車両が車両検知用ROI−1に入った時刻とする。また、検知フラグ列がオンからオフになるフレームで同じ車両が車両検知用ROI−1を出た時刻とする。
【0020】
車両追跡装置15は、車両検知装置14と同様の手法で各車線毎の車両検知用ROI−1における車両検知動作を行ない、車両を検知すると、その車両をテンプレートマッチングにより追跡する。
【0021】
次に、上記車両追跡装置15の処理手順について、図5に示すフローチャートに従って説明する。まず、図9に示すように各車線毎の車両検知用ROI−1と、車両追跡用ROI−2の2値画像を生成する(ステップD1)。
【0022】
次にぶれ補正した画像を図4の画像処理手順に示したように、空間微分フィルタ処理・2値化処理・整形処理し、車両を抽出する(ステップD2)。そして、全車線について図3に示した車両検知処理を行ない(ステップD3,D4)、車両が検知されたか否かを判断し(ステップD5)、車両が検知されなければステップD3を経てステップD4に戻り、再度、車両検知処理を実行する。
【0023】
上記車両検出した画像と車両検知用ROI−1の画像との論理積をとり、車両検知装置14の場合と同様にしてX軸射影・Y軸射影して線分を取り出す。取り出した線分の長さがしきい値以上である場合、車両検知用ROI−1に車両が存在するとして、検知した領域を追跡のためのテンプレートして切り出すと共に、その車線の車両追跡中フラグをオンにし(ステップD6,D7)、そのフレームを車両検知用ROI−1に入った時刻とする。また、このとき追跡車両台数をインクリメントする(ステップD8)。
【0024】
そして、追跡中の台数に全てについて、フレームが更新される毎に、ぶれ補正したフレーム画像と車両追跡用ROI−2の画像との論理積をとり、この車両追跡用ROI−2の範囲で、テンプレートマッチングにより、車両を追跡する(ステップD9,D10)。テンプレートマッチングには、公知の手法である正規化相互相関法、またはSSDA法を用いる。
【0025】
マッチングにより車両を追跡できた場合は、車両の位置を更新し(ステップD12)、また、マッチングした領域を次フレームでのテンプレートとすると共に、車両追跡用ROI−2を更新する(ステップD13,D14)。その後、ステップD10に戻って車両追跡を続行する。このとき車両位置が追跡領域から出たか否かを判断し(ステップD11)、追跡領域から出ていれば追跡を終了し、そのフレームを車両追跡用ROI−2から出た時刻とする。また、追跡終了時の位置から走行距離を求めると共に速度を算出し(ステップD15)、車両追跡中のフラグをオフする(ステップD16)。そして、追跡車両台数、追跡開始フレーム、終了フレームを示す。
【0026】
また、同じ車線で、他の追跡車両があれば、ステップD9に戻って他の車両追跡処理を続行する。そして、一つの車線に対する追跡処理を終了すると、ステップ3に戻って他の車線に対する処理を行なう。
【0027】
また、車両軌跡計測装置16により、一定時間内に、各車線毎の車両軌跡計測用ROI−3を通過した車両の軌跡を計測し、その計測結果を車両台数計測装置17及び車両速度計測装置18に出力する。この軌跡から、一定時間内に車両軌跡計測用ROI−3を通過した車両の台数、速度、占有率を求める。
【0028】
この処理手順は、図6にステップE1に示すように、まず、各車線毎の車両軌跡計測用ROI−3の2値画像を生成する。この車両軌跡計測用ROI−3は、図9に示すように車両追跡装置15における車両追跡用ROI−2と同じものとする。また、車両軌跡計測用ROI−3から車両が出る位置は、図8に示した車両検知装置14における車両検知用ROI−1に車両が入る位置としておく。
【0029】
そして、上記2値画像に対し、車両軌跡計測の画像処理を行なう(ステップE2)。図7は、この車両軌跡計測の画像処理手順を示したものである。
この画像処理手順は、振動ぶれ検出・補正装置12によりぶれ補正した画像と、背景画像更新装置13で更新した背景画像との差分画像を生成する(ステップF1)。この差分画像に平滑化処理(メディアンフィルタ)(ステップF2)、2値化処理(ステップF3)を行なった後、昼間処理か否かを判断し(ステップF4)、昼間処理であれば、最小値フィルタ(ステップF5)及び最大値フィルタ(ステップF6)によるノイズ除去処理、最大値フィルタ(ステップF7)及び最小値フィルタ(ステップF8)による整形処理を行ない、車両部分を抽出して車両抽出2値画像を出力する(ステップF9)。上記ステップF4で昼間処理ではない、つまり、夜間の処理であると判断された場合は、ノイズ除去処理は行なわない。夜間の判断は、道路のライトの影響を受けない建物や道路壁を含む静止領域の平均輝度がしきい値以下で、かつ、その分散がしきい値以下となった場合とする。
【0030】
そして、図6に示すように、上記車両抽出した2値化画像とROI画像の論理積をとり(ステップE4)、Y軸射影し(ステップE5)、更にそれを2値化処理・平滑化処理したものを時間軸に展開する(ステップE6)。この横軸が時間、縦軸が入力画像のY方向である2値画像から、1台の車両の軌跡が1本の帯として得られる(ステップE7)。この帯の本数を通過車両台数、帯の始点の横軸座標値を車両が車両軌跡計測用ROI−3に入った時刻、終点の横軸座標値を車両が車両軌跡計測用ROI−3から出た時刻とする。また、帯部分面積合計の画像全体面積に対する割合を占有率とする(ステップE8)。
【0031】
次に、車両台数計測装置17では、車両検知装置14で得た車両検知台数と、車両軌跡計測装置16で得た車両軌跡から一定時間内の車両通過台数を計測する。
【0032】
計測手順は、図8に示すように車両軌跡計測用ROI−と車両検知用ROI−1を設定していることを利用して、車両軌跡計測結果である車両軌跡計測用ROI−から出た時刻と車両検知結果である車両検知用ROI−1に入った時刻を比較し、そのフレーム差がしきい値以下のものは同一車両とみなし、通過車両として通過台数をインクリメントする。一方のみに現れる車両は通過台数に含めない。
【0033】
また、車両速度計測装置18により、車両追跡装置15で得た車両追跡結果と、車両軌跡計測装置16で得た車両軌跡から一定時間内の車両速度分布を計測する。
【0034】
処理手順は、図9に示すように車両軌跡計測用ROI−3と車両追跡用ROI−2を同じ領域に設定していることを利用して、車両軌跡計測である車両軌跡計測用ROI−3へ入った時刻及びROI−3から出た時刻と、車両追跡結果である車両追跡用ROI−2へ入った時刻及びROI−2から出た時刻を各々比較し、どちらのフレーム差もしきい値以下のものは同一車両とみなし、それを速度計測車両とする。一方のみに現れる車両は速度計測車両に含めない。
【0035】
【発明の効果】
以上詳記したように本発明によれば、道路全体を監視する1台のカメラで撮影した画像を処理し、複数車線の車両通過台数、車両速度、車両占有率を計測する装置を備え、車両台数計測において、各車線毎に設定した車両検知用ROI−1の車両を検知して車両台数を計測する手段と、各車線毎に設置した車両軌跡計測用ROI−の一定時間内の車両軌跡から車両台数を計測する手段とを併用し、一方のみに現れる車両は通過台数に含めないことで、通過車両台数を計測することにより、高い精度で車両台数を計測することができる。
【0036】
また、車両速度計測において、各車線毎に設定した車両追跡用ROI−2の車両を追跡することで車両速度を計測する手段と、各車線毎に設置した車両軌跡計測用ROI−3の一定時間内の車両軌跡を得ることで車両速度を計測する手段とを併用し、一方のみに現れる車両は速度計測に含めないことで通過車両平均速度を計測することにより、高い精度で車両速度を計測することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る交通流計測装置の全体のシステム構成図。
【図2】同実施形態における画像ぶれ検出・補正手段の処理手順を示すフローチャート。
【図3】同実施形態における車両検知手段の処理手順を示すフローチャート。
【図4】同実施形態における車両検知手段の画像処理手順を示すフローチャート。
【図5】同実施形態における車両追跡手段の処理手順を示すフローチャート。
【図6】同実施形態における車両軌跡計測手段の処理手順を示すフローチャート。
【図7】同実施形態における車両軌跡計測手段の画像処理手順を示すフローチャート。
【図8】同実施形態における車両台数計測の領域ROIを示す図。
【図9】同実施形態における車両速度計測の領域ROIを示す図。
【図10】従来の複数のカメラによる交通流計測のシステム構成例を示す図。
【符号の説明】
11 連続画像入力装置
12 振動ぶれ検出・補正装置
13 背景画像更新装置
14 車両検知装置
15 車両追跡装置
16 車両軌跡計測装置
17 車両台数計測装置
18 車両速度計測装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a traffic flow measuring apparatus that measures traffic flow on a highway using image processing technology.
[0002]
[Prior art]
In the conventional measurement of traffic flow at urban high speeds, there is a system in which ultrasonic sensors are installed at predetermined intervals for each lane, and the traffic congestion state of the road is grasped according to the time required for the vehicle to move between the two points.
[0003]
There is a system using a plurality of cameras in traffic flow measurement using conventional image processing. FIG. 10 shows an example of the configuration.
This system installs photographing devices 2a and 2b between two points along the road 1, processes video signals photographed by the respective photographing devices 2a and 2b with the image processing device 3, selects a sample vehicle, The vehicle type and color information is extracted, and the traffic flow state is grasped from the time taken to travel between the two points.
[0004]
[Problems to be solved by the invention]
In the conventional system described above, the traffic flow state can be grasped based on the video signals photographed by the photographing devices 2a and 2b, but a measurement photographing device must be newly installed for each lane, There is a problem that the required accuracy cannot be obtained.
[0005]
The present invention has been made in order to solve the above-described problems. By using an ITV camera for monitoring a road condition that is usually installed on a highway, traffic can be obtained with high accuracy without installing a new photographing apparatus. It aims at providing the traffic flow measuring device which can measure a flow.
[0006]
[Means for Solving the Problems]
The traffic flow measuring apparatus according to claim 1 of the present invention detects a blur of an image from a continuous image input device that reads a continuous image from a camera for monitoring a road condition, and a state of the continuous image input from the continuous image input device. And a vibration detection / correction device that corrects the shake of the detected image, a vehicle detection device that detects a vehicle in a specified region from the continuous image corrected by the vibration detection / correction device, and the vibration The vehicle tracking device that tracks the vehicle in the specified area from the continuous image corrected by the shake detection / correction device, and the specified image passes through the specified region from the continuous image corrected by the vibration shake detection / correction device and its background image. The movement trajectory of the vehicle to be measured is measured, the logical product of the binarized image and the area set for each lane is taken from the continuous image corrected by the vibration shake detection / correction device, and Y-axis projection is applied to the time axis. Shi The trajectory of one vehicle is obtained as a single band from a binary image in which the horizontal axis is time and the vertical axis is the Y direction of the input image, and the ratio of the total area of the band portion to the entire image area is occupied. and the vehicle trajectory measuring apparatus, the vehicle detection device by a combination of the vehicle base number measured from the vehicle trajectory measured by measured vehicle stand number及 beauty the vehicle trajectory measuring apparatus, a vehicle that appears in only one by not including the passage number, and the number of vehicles measuring device for measuring the passing number of vehicles, vehicle speed, which is measured from the vehicle trajectory measured by measured vehicle speed Do及 beauty the vehicle trajectory measuring apparatus by the vehicle tracking system using both the degrees, vehicle appearing only one is characterized by comprising a vehicle speed measuring device for measuring a passing vehicle average speed by not included in the speed measurement.
[0007]
According to a second aspect of the present invention, a traffic flow measuring apparatus according to the first aspect further includes a background image updating apparatus that updates a background image from a continuous image corrected by the vibration blur detection / correction apparatus, and the vehicle trajectory measurement. The apparatus is characterized in that it determines daytime and nighttime based on the average brightness of a still region, and outputs a vehicle-extracted binary image that is shaped according to the determination. Traffic flow measuring device according to claim 3 of the present invention, the in claim 1 or 2, the vehicle running region set for each lane and a measurement target, the vehicle passes the number of the plurality vehicles lines, vehicle speed, vehicle occupancy, characterized in that the measurement by the processing of the image taken by one camera to monitor the entire road.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is an overall configuration diagram of a traffic flow measuring apparatus according to the present invention.
In FIG. 1, reference numeral 11 denotes a continuous image input device, which reads a continuous image output from one existing road condition monitoring ITV camera and inputs it to the vibration blur detection / correction device 12. The vibration blur detection / correction device 12 detects image blur from the state of the continuous image and corrects the blur. The corrected image is transferred to the background image update device 13, the vehicle detection device 14, and the vehicle tracking device 15. Output.
[0009]
The background image update device 13 updates the background image from the continuous image in which the vibration shake is corrected, and outputs the background image to the vehicle trajectory measurement device 16. The vehicle trajectory measurement device 16 measures the movement trajectory of the vehicle passing through the designated region from the continuous image corrected by the vibration blur detection / correction device 12 and the background image updated by the background image update device 13, The measurement result is output to the vehicle number measuring device 17 and the vehicle speed measuring device 18. The vehicle trajectory measuring device 16 further measures the occupation rate.
[0010]
Further, the vehicle detection device 14 detects a vehicle in the designated area from the corrected continuous image by the vibration shake detection / correction device 12 and outputs it to the vehicle number measurement device 17. The vehicle number measurement device 17 measures the number of passing vehicles from the vehicle detection signal output from the vehicle detection device 14 and the vehicle locus measured by the vehicle locus measurement device 16.
[0011]
On the other hand, the vehicle tracking device 15 tracks the vehicle in the designated area from the corrected continuous image by the vibration blur detection / correction device 12 and outputs the tracking signal to the vehicle speed measuring device 18. The vehicle speed measuring device 18 measures the passing vehicle average speed from the vehicle tracking signal output from the vehicle tracking device 15 and the vehicle locus output from the vehicle locus measuring device 16.
[0012]
Next, the operation of the above embodiment will be described in the case of measuring the number of vehicles, the speed, and the occupation rate within a certain time on the highway.
First, a continuous image is taken from the ITV camera for road condition monitoring by the continuous image input device 11 and input to the vibration blur detection / correction device 12. This vibration blur detection / correction device 12 performs an optimum overlay on an image (reference image) serving as a standard of continuous images by using a normalization cross-correlation method or a SSDA (Sequential Similarity Detection Algorithm) method. Find the state. The image is cut out by correcting a preset region using the shift amount (vertical direction ΔY, horizontal direction ΔX of the image) as an image blur amount from the optimum overlay state.
[0013]
As shown in the flowchart of FIG. 2, the superposition in the vibration blur detection / correction device 12 may be obtained by correlating only the still area of the road surface portion where the vehicle is not present, not the entire image, and obtaining the deviation amount. That is, the vibration blur detection / correction device 12 first sets a stillness correlation template as a blur detection template (step A1) and sets a correlation calculation region for blur detection (step A2). Next, a shake amount (ΔX, ΔY) is obtained by template matching using normalized cross-correlation (step A3). Then, the blur correction is performed from the blur amount (step A4), and the image is cut out in the blur-corrected area from the original image (step A5). The cut image is output as a processed image to the background image update device 13, the vehicle detection device 14, and the vehicle tracking device 15 (step A6).
[0014]
The background image update device 13 updates the background image B (T) according to the change amount of each point of the previous frame background image B (T-1) and the input image I (T). The point where the amount of change is large is not updated the value of the background image of the previous frame. Specifically, the luminance value B (X, Y, T) of each point (x, y) of the background image is obtained using the following equation.
[0015]
B (X, Y, T) = αI (X, Y, T) + (1-α) B (X, Y, T −1 )
α = 1 / | I (X, Y, T) −B (X, Y, T−1) |
However, when | I (X, Y, T) −B (X, Y, T−1) | <ε, α = 0ε means that the parameter vehicle detection device 14 sets the region ROI (Region Of) set for each lane. The vehicle in the (Interest) is detected according to the processing procedure shown in FIGS. FIG. 3 shows the processing procedure of the vehicle detection device 14, and FIG. 4 shows the details of the vehicle detection image processing in FIG.
[0016]
As shown in FIG. 8, the vehicle detection device 14 first has a binary value in which ROI-1, which is a vehicle detection area set for each lane, is set to "1" and the other areas in the image are set to "0". An image is generated (step B1). FIG. 8 shows an ROI for measuring the number of vehicles. ROI-1 is an area for vehicle detection, and ROI- 3 is an area for vehicle trajectory measurement. Then, image processing is performed to detect the vehicle from the binary image (step B2).
[0017]
In the vehicle detection image processing, smoothing processing (median filter) is performed on the processing region image as shown in FIG. 4 (step C1). Next, using the fact that the front surface of the vehicle has many horizontal edges, a vehicle part is extracted by spatial differential filter processing from the image subjected to shake correction by the vibration shake detection / correction device 12 (step C2). (Step C3). The binarized threshold value is automatically calculated by a known method such as discriminant analysis or is set as a fixed threshold value. Since the differential image is susceptible to noise, the binarized differential image is shaped by the maximum value filter (step C4) and the minimum value filter (step C5) to obtain an edge extracted binary image (step C6).
[0018]
And the logical product of the said vehicle detection image and a ROI image is taken (step B4), and it projects in a X-axis direction (step B5). The projected value is smoothed and binarized with a fixed threshold value, and the longest projected line segment is extracted (step B6). The binarized X-axis range is Y-axis projected (step B7), smoothed and binarized by the same method as in the X-axis projection, and extracted as a line segment. Next, it is determined whether or not the length of the extracted projected line segment is greater than or equal to a threshold value (step B8). If not, the process returns to step B4 via step B3, and vehicle detection is performed for other lanes. To do. If it is determined in step B8 that the length of the projected line segment is equal to or greater than the threshold value, it is assumed that a vehicle exists in the vehicle detection ROI-1, and the X, Y projected line segment coordinates are set as the vehicle region (step B9) The vehicle detection flag of the lane is turned on. The vehicle detection is performed in the same manner for other lanes.
[0019]
After processing several frames, the number of vehicles is incremented in a frame in which the detection flag string is turned on from off, and the time when the vehicle enters the vehicle detection ROI-1. In addition, the time when the same vehicle exits the vehicle detection ROI-1 in the frame in which the detection flag string is turned off from on.
[0020]
The vehicle tracking device 15 performs a vehicle detection operation in the vehicle detection ROI-1 for each lane in the same manner as the vehicle detection device 14, and when detecting the vehicle, tracks the vehicle by template matching.
[0021]
Next, the processing procedure of the vehicle tracking device 15 will be described with reference to the flowchart shown in FIG. First, as shown in FIG. 9, binary images of a vehicle detection ROI-1 and a vehicle tracking ROI-2 for each lane are generated (step D1).
[0022]
Next, as shown in the image processing procedure of FIG. 4, the image subjected to blur correction is subjected to spatial differential filter processing / binarization processing / shaping processing to extract a vehicle (step D2). Then, the vehicle detection process shown in FIG. 3 is performed for all lanes (steps D3 and D4), and it is determined whether or not a vehicle is detected (step D5). If no vehicle is detected, the process goes to step D4 via step D3. Return and execute the vehicle detection process again.
[0023]
The logical product of the image detected by the vehicle and the image of the vehicle detection ROI-1 is taken, and the line segment is extracted by X-axis projection / Y-axis projection in the same manner as the vehicle detection device 14. If the length of the extracted line segment is equal to or greater than the threshold value, it is assumed that a vehicle exists in the vehicle detection ROI-1, and the detected area is cut out as a template for tracking, and the vehicle tracking flag for the lane is turned on. (Steps D6 and D7), and the frame is set as the time when the vehicle detection ROI-1 is entered. At this time, the number of tracked vehicles is incremented (step D8).
[0024]
Then, every time the frame is updated for all the numbers being tracked, the logical product of the image of the blur corrected frame and the image of the vehicle tracking ROI-2 is taken, and within the range of this vehicle tracking ROI-2, The vehicle is tracked by template matching (steps D9 and D10). For template matching, a known cross-correlation method or SSDA method is used.
[0025]
If the vehicle can be tracked by matching, the position of the vehicle is updated (step D12), and the matched area is used as a template in the next frame, and the vehicle tracking ROI-2 is updated (steps D13 and D14). ). Then, it returns to step D10 and continues vehicle tracking. At this time, it is determined whether or not the vehicle position has exited the tracking area (step D11). If the vehicle position has exited from the tracking area, the tracking is terminated, and the frame is set as the time from the vehicle tracking ROI-2. Further, the travel distance is calculated from the position at the end of the tracking and the speed is calculated (step D15), and the vehicle tracking flag is turned off (step D16). The number of tracked vehicles, the tracking start frame, and the end frame are shown.
[0026]
If there is another tracked vehicle in the same lane, the process returns to step D9 to continue the other vehicle tracking process. When the tracking process for one lane is completed, the process returns to step D3 to perform the process for another lane.
[0027]
Further, the vehicle trajectory measurement device 16 measures the trajectory of the vehicle that has passed through the vehicle trajectory measurement ROI-3 for each lane within a certain time, and the measurement results are used as the vehicle number measurement device 17 and the vehicle speed measurement device 18. Output to. From this trajectory, the number, speed, and occupation ratio of vehicles that have passed through the vehicle trajectory measurement ROI-3 within a predetermined time are obtained.
[0028]
In this processing procedure, as shown in step E1 in FIG. 6, first, a binary image of the vehicle trajectory measurement ROI-3 for each lane is generated. This vehicle trajectory measurement ROI-3 is the same as the vehicle tracking ROI-2 in the vehicle tracking device 15 as shown in FIG. Further, the position where the vehicle exits from the vehicle trajectory measurement ROI-3 is set to a position where the vehicle enters the vehicle detection ROI- 1 in the vehicle detection device 14 shown in FIG.
[0029]
Then, image processing for vehicle trajectory measurement is performed on the binary image (step E2). FIG. 7 shows the image processing procedure for this vehicle trajectory measurement.
In this image processing procedure, a difference image between the image subjected to the shake correction by the vibration shake detection / correction device 12 and the background image updated by the background image update device 13 is generated (step F1). After performing the smoothing process (median filter) (step F2) and the binarization process (step F3) on the difference image, it is determined whether it is daytime processing (step F4). A noise extraction process using a filter (step F5) and a maximum value filter (step F6), and a shaping process using a maximum value filter (step F7) and a minimum value filter (step F8) are performed to extract a vehicle portion and extract a vehicle extracted binary image. Is output (step F9). If it is determined in step F4 that it is not daytime processing, that is, nighttime processing, no noise removal processing is performed. Nighttime judgment is made when the average luminance of a still region including a building and a road wall that is not affected by road lights is equal to or less than a threshold value and the variance thereof is equal to or less than the threshold value.
[0030]
Then, as shown in FIG. 6, the logical product of the binarized image extracted from the vehicle and the ROI image is obtained (step E4), Y-axis projection (step E5), and further binarized and smoothed. This is expanded on the time axis (step E6). A trajectory of one vehicle is obtained as one band from the binary image in which the horizontal axis is time and the vertical axis is the Y direction of the input image (step E7). The number of passing vehicles is the number of passing vehicles, the horizontal coordinate value at the start point of the belt is the time when the vehicle enters the ROI-3 for vehicle trajectory measurement, and the horizontal coordinate value of the end point is output from the ROI-3 for vehicle trajectory measurement. Time. Further, the ratio of the total band area to the entire image area is defined as the occupation ratio (step E8).
[0031]
Next, the vehicle number measuring device 17 measures the number of vehicles passing within a predetermined time from the vehicle detected number obtained by the vehicle detecting device 14 and the vehicle locus obtained by the vehicle locus measuring device 16.
[0032]
Measurement procedure utilizes the fact that sets the vehicle trajectory measurement ROI- 3 and the vehicle detection ROI-1, as shown in FIG. 8, out of the vehicle trajectory measuring ROI- 3 is a vehicle trajectory measurement result The vehicle detection result is compared with the time when the vehicle detection result is ROI-1 for vehicle detection. If the frame difference is equal to or less than the threshold value, the vehicle is regarded as the same vehicle, and the number of passing vehicles is incremented. Vehicles that appear only on one side are not included in the number of passing vehicles.
[0033]
Further, the vehicle speed measurement device 18 measures the vehicle speed distribution within a predetermined time from the vehicle tracking result obtained by the vehicle tracking device 15 and the vehicle locus obtained by the vehicle locus measuring device 16.
[0034]
As shown in FIG. 9, the processing procedure uses the fact that the vehicle trajectory measurement ROI-3 and the vehicle tracking ROI-2 are set in the same region, so that the vehicle trajectory measurement ROI-3 is a vehicle trajectory measurement. The time of entering and the time of exiting from ROI-3 are compared with the time of entering the vehicle tracking ROI-2 and the time of exiting from ROI-2, which are vehicle tracking results. Are regarded as the same vehicle, and this is a speed measurement vehicle. Vehicles that appear only on one side are not included in the speed measurement vehicle.
[0035]
【The invention's effect】
As described above in detail, according to the present invention, there is provided a device that processes an image captured by a single camera that monitors the entire road and measures the number of vehicles passing through a plurality of lanes, vehicle speed, and vehicle occupancy. In the number measurement, the vehicle detection ROI-1 vehicle set for each lane is detected to measure the number of vehicles, and the vehicle track measurement ROI- 3 set for each lane within a certain time Thus, the number of vehicles can be measured with high accuracy by measuring the number of passing vehicles by using together with the means for measuring the number of vehicles and not including the vehicles appearing in only one of them in the number of passing vehicles.
[0036]
Further, in the vehicle speed measurement, a means for measuring the vehicle speed by tracking the vehicle of the vehicle tracking ROI-2 set for each lane and the fixed time of the vehicle trajectory measuring ROI-3 installed for each lane The vehicle speed is measured with high accuracy by measuring the average speed of the passing vehicle by not using the vehicle that appears only on one side in the speed measurement. be able to.
[Brief description of the drawings]
FIG. 1 is an overall system configuration diagram of a traffic flow measuring apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart showing a processing procedure of image blur detection / correction means in the embodiment;
FIG. 3 is a flowchart showing a processing procedure of vehicle detection means in the embodiment.
FIG. 4 is a flowchart showing an image processing procedure of a vehicle detection unit in the embodiment.
FIG. 5 is a flowchart showing a processing procedure of vehicle tracking means in the embodiment.
FIG. 6 is a flowchart showing a processing procedure of vehicle trajectory measuring means in the embodiment.
FIG. 7 is a flowchart showing an image processing procedure of the vehicle trajectory measuring means in the embodiment.
FIG. 8 is a view showing a region ROI for vehicle number measurement in the embodiment.
FIG. 9 is a diagram showing a vehicle speed measurement region ROI in the same embodiment;
FIG. 10 is a diagram showing a system configuration example of traffic flow measurement using a plurality of conventional cameras.
[Explanation of symbols]
11 Continuous Image Input Device 12 Vibration Shake Detection / Correction Device 13 Background Image Update Device 14 Vehicle Detection Device 15 Vehicle Tracking Device 16 Vehicle Trajectory Measurement Device 17 Number of Vehicles Measurement Device 18 Vehicle Speed Measurement Device

Claims (3)

道路状況監視用カメラからの連続画像を読み込む連続画像入力装置と、
前記連続画像入力装置より入力された連続画像の状態から画像のぶれを検出すると共に、該検出した画像のぶれを補正する振動ぶれ検出・補正装置と、
前記振動ぶれ検出・補正装置で補正された連続画像から、指定領域内の車両を検知する車両検知装置と、
前記振動ぶれ検出・補正装置で補正された連続画像から、指定領域内の車両を追跡する車両追跡装置と、
前記振動ぶれ検出・補正装置で補正された連続画像とその背景画像から、指定領域内を通過する車両の移動軌跡を計測し、前記振動ぶれ検出・補正装置で補正された連続画像から2値化画像と各車線ごとに設定した領域の論理積をとり、Y軸射影して時間軸に展開し、横軸が時間、縦軸が入力画像のY方向である2値画像から1台の車両の軌跡を1本の帯として得て、前記帯部分の面積合計の画像全体面積に対する割合を占有率とする車両軌跡計測装置と、
前記車両検知装置により計測された車両台数及び前記車両軌跡計測装置により計測された車両軌跡から計測された車両台数とを併用し、一方のみに現れる車両は通過台数に含めないことで、通過車両台数を計測する車両台数計測装置と、
前記車両追跡装置により計測された車両速度及び前記車両軌跡計測装置により計測された車両軌跡から計測された車両速度とを併用し、一方のみに現れる車両は速度計測に含めないことで通過車両平均速度を計測する車両速度計測装置とを具備したことを特徴とする交通流計測装置。
A continuous image input device for reading a continuous image from a camera for monitoring road conditions;
A vibration blur detection / correction device that detects image blur from the state of the continuous image input from the continuous image input device and corrects the blur of the detected image;
A vehicle detection device that detects a vehicle in a specified region from the continuous image corrected by the vibration blur detection and correction device;
A vehicle tracking device that tracks a vehicle in a specified region from the continuous image corrected by the vibration blur detection and correction device;
The moving trajectory of the vehicle passing through the designated area is measured from the continuous image corrected by the vibration shake detection / correction device and the background image thereof, and binarized from the continuous image corrected by the vibration shake detection / correction device. The logical product of the image and the area set for each lane is taken, Y-axis projection is applied to the time axis, the time is plotted on the horizontal axis, and the Y axis of the input image is taken from the binary image . A vehicle trajectory measuring device that obtains a trajectory as a single band and uses the ratio of the total area of the band portion to the entire image area as an occupation rate;
The vehicle detection apparatus by a combination of the vehicle base number measured from the vehicle trajectory measured by measured vehicle stand number及 beauty the vehicle trajectory measuring apparatus, in the vehicle that appears in only one not to include the number of passing vehicles, A vehicle number measuring device for measuring the number of passing vehicles;
In combination with the vehicle tracking system vehicle speed, which is measured from the vehicle trajectory measured by measured vehicle speed Do及 beauty the vehicle trajectory measuring apparatus by, passing by vehicles appearing on only one is not included in the speed measurement A traffic flow measuring device comprising a vehicle speed measuring device for measuring a vehicle average speed.
振動ぶれ検出・補正装置で補正された連続画像から背景画像を更新する背景画像更新装置を備えると共に、前記車両軌跡計測装置は、静止領域の平均輝度で、昼間、夜間を判断し、該判断に応じて整形処理した車両抽出2値画像を出力するものであることを特徴とする請求項1記載の交通流計測装置。  In addition to a background image update device that updates a background image from a continuous image corrected by the vibration blur detection / correction device, the vehicle trajectory measurement device determines daytime and nighttime with an average brightness of a still region, and The traffic flow measuring device according to claim 1, wherein the vehicle extracted binary image shaped according to the processing is output. 各車線毎に設定した領域を走行する車両を計測対象とし、複数線の車両通過台数、車両速度、車両占有率を道路全体を監視する1台のカメラで撮影した画像処理により計測することを特徴とする請求項1又は2記載の交通流計測装置。The vehicle traveling region set for each lane and a measurement target, the vehicle passes the number of the plurality vehicles lines, vehicle speed, that the vehicle occupancy measured by the processing of the image taken by one camera to monitor the entire road The traffic flow measuring device according to claim 1 or 2.
JP28502597A 1997-10-17 1997-10-17 Traffic flow measuring device Expired - Lifetime JP3912869B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28502597A JP3912869B2 (en) 1997-10-17 1997-10-17 Traffic flow measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28502597A JP3912869B2 (en) 1997-10-17 1997-10-17 Traffic flow measuring device

Publications (2)

Publication Number Publication Date
JPH11120481A JPH11120481A (en) 1999-04-30
JP3912869B2 true JP3912869B2 (en) 2007-05-09

Family

ID=17686189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28502597A Expired - Lifetime JP3912869B2 (en) 1997-10-17 1997-10-17 Traffic flow measuring device

Country Status (1)

Country Link
JP (1) JP3912869B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102087790A (en) * 2011-03-07 2011-06-08 中国科学技术大学 Method and system for low-altitude ground vehicle detection and motion analysis
CN104021679A (en) * 2014-05-30 2014-09-03 宁波海视智能系统有限公司 Traffic flow statistic method based on video

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3849435B2 (en) * 2001-02-23 2006-11-22 株式会社日立製作所 Traffic situation estimation method and traffic situation estimation / provision system using probe information
JP4805495B2 (en) * 2001-09-17 2011-11-02 株式会社東芝 Transmission pattern detector
JP3875889B2 (en) * 2002-01-21 2007-01-31 日本信号株式会社 Image speed detection system and image speed detection method
JP4233272B2 (en) * 2002-05-23 2009-03-04 株式会社エイブイプランニングセンター Object counting method and object counting apparatus
JP2004021375A (en) * 2002-06-13 2004-01-22 Av Planning Center:Kk Object counting method and object counting device
JP3959547B2 (en) 2005-04-27 2007-08-15 三菱電機株式会社 Image processing apparatus, image processing method, and information terminal apparatus
JP4731295B2 (en) * 2005-11-29 2011-07-20 池上通信機株式会社 Velocity measuring device, method and program
JP5388827B2 (en) * 2009-12-11 2014-01-15 三菱電機株式会社 Image processing device for monitoring
JP6246508B2 (en) * 2013-06-25 2017-12-13 グローリー株式会社 Moving body image extraction method and moving body image extraction apparatus
CN103413444B (en) * 2013-08-26 2015-08-19 深圳市川大智胜科技发展有限公司 A kind of traffic flow based on unmanned plane HD video is investigated method
JPWO2018003937A1 (en) * 2016-06-30 2019-05-23 アイキューブド研究所株式会社 Video signal processing apparatus, video signal processing method, and program
KR102207393B1 (en) * 2019-02-12 2021-01-28 한국도로공사 Expressway traffic monitoring system of transport information center CCTV using artificial intelligence

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102087790A (en) * 2011-03-07 2011-06-08 中国科学技术大学 Method and system for low-altitude ground vehicle detection and motion analysis
CN102087790B (en) * 2011-03-07 2013-07-10 中国科学技术大学 Method and system for low-altitude ground vehicle detection and motion analysis
CN104021679A (en) * 2014-05-30 2014-09-03 宁波海视智能系统有限公司 Traffic flow statistic method based on video

Also Published As

Publication number Publication date
JPH11120481A (en) 1999-04-30

Similar Documents

Publication Publication Date Title
JP3912869B2 (en) Traffic flow measuring device
US5574762A (en) Method and apparatus for directional counting of moving objects
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
JPH10513288A (en) Automatic lane identification for machine-visible traffic detection
JP2002074368A (en) Moving object recognizing and tracking device
JP4032727B2 (en) Lane boundary detection device
JP2003216949A (en) Infrared image processor
JP2003502745A (en) A method for detecting objects near road vehicles up to a considerable distance
JP2006185406A (en) Object detection device and method
KR20060075311A (en) Apparatus and method for supervising vehicle using optical flow
JP3812384B2 (en) Leading vehicle recognition device
JPH11195127A (en) Method for recognizing white line and device therefor
JPH1186185A (en) Vehicle-type discriminating device
JP3541774B2 (en) Vehicle type identification system
JP3453952B2 (en) Traffic flow measurement device
JP2002150302A (en) Road surface recognition device
JP2002367077A (en) Device and method for deciding traffic congestion
JP3844750B2 (en) Infrared image recognition device and alarm device using infrared image recognition device
JP4956400B2 (en) Vehicle presence / absence determination device, vehicle presence / absence determination method, and program
JP2841640B2 (en) Traffic flow measurement device
JPH04137014A (en) Traveling path terminal detector for mobile vehicle
JP2000048298A (en) Vehicle detector
JP2003187252A (en) Traffic lane boundary detector
JP4697761B2 (en) Queue detection method and queue detection apparatus
JP2000311289A (en) Picture type vehicle sensing device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20041222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060725

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070130

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100209

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140209

Year of fee payment: 7

EXPY Cancellation because of completion of term