JP3541774B2 - Vehicle type identification system - Google Patents

Vehicle type identification system Download PDF

Info

Publication number
JP3541774B2
JP3541774B2 JP2000076319A JP2000076319A JP3541774B2 JP 3541774 B2 JP3541774 B2 JP 3541774B2 JP 2000076319 A JP2000076319 A JP 2000076319A JP 2000076319 A JP2000076319 A JP 2000076319A JP 3541774 B2 JP3541774 B2 JP 3541774B2
Authority
JP
Japan
Prior art keywords
vehicle
image
detection area
density
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000076319A
Other languages
Japanese (ja)
Other versions
JP2001256485A (en
Inventor
忠明 北村
孝義 横田
都 堀田
良幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2000076319A priority Critical patent/JP3541774B2/en
Publication of JP2001256485A publication Critical patent/JP2001256485A/en
Application granted granted Critical
Publication of JP3541774B2 publication Critical patent/JP3541774B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、テレビカメラの映像を処理し道路上を通過する車両の車種を判別する車種判別システムに関する。
【0002】
【従来の技術】
道路上の車両の車種を判別する車種判別システムとして、光学式感知器を用いたものがある。
【0003】
その光学式感知器を利用した車種判別システムとして、特開平11−296784号には、光を道路に照射し、その照射光と反射光との位相差から通過する車両の高さを求め、この高さ変化のパターンから小型,大型,貨物,バスなどの車種を判別することが記載されている。
【0004】
また、道路上の車両の車種を判別する装置として、画像式感知器を用いたものがある。特開平11−353581号には、入力画像から路面の濃度を除去し、車両のパターンを抽出し、抽出した車両のパターンについてエッジ検出することでその車両の先頭位置と幅を求め、さらに、それらから車両のシルエットを抽出し、その車両の先頭の幅と車両のシルエットで大型乗用,大型貨物,小型乗用,小型貨物を判別することが記載されている。
【0005】
また、特開平11−232588号には、あらかじめ車種毎の前面輝度パターンを記憶しておき、入力画像の輝度パターンとの比較で車種を判別するものが記載されている。
【0006】
【発明が解決しようとする課題】
従来の光学式感知器を用いた車種判別システムで、その判別結果を確認するためには、ビデオカメラ等の他の確認手段が必要となる。
【0007】
また、ビデオカメラを設置した場合も、光学式感知器の検出エリアと合わせる必要があること、感知器の時刻とビデオの時間補正を正確に行う必要があるなどの問題がある。
【0008】
その点、画像式感知器を用いる場合、車種判別と判別結果の確認に用いることができるので、このような問題が解決可能である。すなわち、撮影した画像を処理して車種判別し、その判別結果をカメラ映像に重ね、この映像を録画することで検証が容易になる。
【0009】
ところが、その画像式感知器を利用した装置である特開平11−353581号は、車両の輝度パターンを抽出するために、入力画面の全領域の路面濃度を除去することで求めているために、抽出する車両パターンの輝度や路面の輝度に大きなムラがある場合、正確に車両パターンを抽出することが困難で、車種判別の精度が低下してしまう。また、車両の幅の車種による長さの違いは小さく、車両の幅から車種を判別することは困難である。これらの問題点は、大型,普通,小型等の大きさによる種別の車種判別をする場合や貨物であるか乗用であるかの種別の車種判別をする場合に、大きな問題となる。
【0010】
特開平11−232588号「速度違反取締装置」記載の方法も同様に、画像全体から車両の前面輝度パターンを取り出しているため、車種判別の精度が低下する。この問題点は、大型,普通,小型等の大きさによる種別の車種判別をする場合や貨物であるか乗用であるかの種別の車種判別をする場合に、大きな問題となる。
【0011】
以上のように、本願発明の目的は、画像監視装置における車種判別の精度を向上させることにある。
【0012】
【課題を解決するための手段】
上記のように、画像式感知器で車両の車種を判別するために、本発明の車種判別システムでは、画像上に領域を設定し、その領域を車両が通過している間のその領域の画像濃度(画像の輝度の濃度)の時系列データ、その領域のエッジ濃度(画像の輝度を微分処理することで求めたエッジの輝度の濃度)の時系列データを記憶し、車両の走行速度とこれらの時系列データから車種を判別する方式を採用する。
【0013】
すなわち、検知領域を通過する車両の通過時間(検知領域を車両が隠蔽している時間)と車両の通過速度から車長を計測してその車両の大きさの種別を求め、さらに検知領域の濃度の時系列データ(パターン)及びエッジ濃度の時系列データ(パターン)から貨物,乗用等の種別を特定することで車種を判別するものである。通常、バスは天井が同一色で均一であるため画像濃度の時系列データの前半は平坦であり、かつエッジ濃度の時系列データは後半にエッジが強くなるなどの特徴から車種を判別することが可能となる。なお、本明細書での「濃度」は
「輝度の濃度」のことを意味する。
【0014】
また、本発明の態様としては、以下の手段もある。
【0015】
(手段1)
道路を撮影するテレビカメラの映像を処理し車種を判別する車種判別システムにおいて、テレビカメラの映像を画像メモリに取り込む画像入力手段と、入力した画像上で車両を検知する検知領域を各車線の車両進入側に設け、この検知領域の車両有無情報,入力画像濃度変化パターン情報,入力画像を微分した映像のエッジ濃度変化パターン情報を記憶する検知領域情報管理手段と、検知領域を車両が通過したタイミングで車両の末尾位置を抽出し、その位置を追跡処理して通過速度を求める速度検出手段と、前記検知領域情報管理手段の情報と速度検出手段で求まった通過速度情報により通過車両の車種を判別する車種判別手段を有することを特徴とする車種判別システム。
【0016】
(手段2)
手段1の車種判別システムにおいて、検知領域情報管理手段の車両有無情報は、検知領域内の車両存在,車両非存在を判別し、車両存在時は検知領域における入力画像平均濃度と入力画像を微分した映像の平均濃度を時系列に車両存在回数分記憶することを特徴とする車種判別システム。
【0017】
(手段3)
手段2の車種判別システムにおいて、検知領域情報管理手段の車両有無情報は、検知領域内の車両存在,車両非存在を判別するとともに、検知領域の時間差分処理で変動領域を検出し、検知領域が時間的に変動している場合だけ、検知領域における入力画像平均濃度と入力画像を微分した映像の平均濃度を時系列に車両存在回数分記憶することを特徴とする車種判別システム。
【0018】
(手段4)
手段2の車種判別システムにおいて、検知領域内の車両存在,車両非存在を判別するために、あらかじめ記憶している背景画像と入力画像の差分処理を前記検知領域で実行し、該差分画像を所定しきい値で2値化した時の面積が所定値以上の時に車両存在、以下の時に車両非存在と判別することを特徴とする車種判別システム。
【0019】
(手段5)
手段2の車種判別システムにおいて、検知領域内の車両存在,車両非存在を判別するために、あらかじめ記憶している背景画像と入力画像の差分処理を前記検知領域で実行し、該差分画像の平均濃度が所定値以上の時に車両存在、以下の時に車両非存在と判別することを特徴とする車種判別システム。
【0020】
(手段6)
手段2の車種判別システムにおいて、検知領域内の車両存在,車両非存在を判別するために、あらかじめ記憶している背景画像と入力画像とで類似度を前記検知領域内で算出し、類似度が所定値以下の時に車両存在、以上の時に車両非存在と判別することを特徴とする車種判別システム。
【0021】
(手段7)
手段2の車種判別システムにおいて、検知領域内の車両存在,車両非存在を判別するために、入力画像を微分処理し、該微分画像の平均濃度が所定値以上の時に車両存在、以下の時に車両非存在と判別することを特徴とする車種判別システム。
【0022】
(手段8)
手段1の車種判別システムにおいて、車種判別手段は、検知領域情報管理手段の車両有無情報から得られる検知領域を通過している時間と速度検出手段で求まった速度から通過車両の車長を算出し、さらに検知領域情報管理手段の入力画像濃度変化パターン,エッジ濃度変化パターンから車両の形状を区別する形状判別手段を有することを特徴とする車種判別システム。
【0023】
(手段9)
手段8の車種判別システムにおいて、車種判別手段の形状判別手段は、検知領域情報管理手段の入力画像濃度変化パターン,エッジ濃度変化パターンをニューラルネットワークの入力層に入力し、出力層に貨物,バスなどの形状に相当する出力を有する3層ニューラルネットワークを用いて形状判別することを特徴とする車種判別システム。
【0024】
(手段10)
手段8の車種判別システムにおいて、車種判別手段の形状判別手段は、あらかじめ車両の形状別に濃度変化パターン,エッジ濃度変化パターンを数種類記憶し、検知領域情報管理手段の入力画像濃度変化パターン,エッジ濃度変化パターンとの類似度をそれぞれ算出し、その総和が最も高いパターンを求めることで形状判別することを特徴とする車種判別システム。
【0025】
(手段11)
道路を撮影するテレビカメラの映像を処理し車種を判別する車種判別システムにおいて、テレビカメラの映像を画像メモリに取り込む画像入力手段と、入力した画像に車両を検知する検知領域を設定する手段と、この検知領域の画像から、検知領域を通過する車両の車長と、検知領域の画像濃度の時系列データと、検知領域の画像におけるエッジ濃度の時系列データとを求める手段と、前記濃度の時系列データと、エッジ濃度の時系列データと、車長とから車種を判別画像する手段と、を有することを特徴とする車種判別システム。
【0026】
(手段12)
手段11の車種判別システムにおいて、前記検知領域の画像から、検知領域を通過する車両の車長と、検知領域の画像濃度の時系列データと、検知領域の画像におけるエッジ濃度の時系列データとを求める手段は、
前記検知領域の画像から、検知領域を通過する車両の速度と、検知領域の画像濃度の時系列データと、検知領域の画像におけるエッジ濃度の時系列データとを求める手段と、画像輝度の時系列データから検知領域を車両が通過する時間を求める手段と、前記エッジ濃度の時系列データから検知領域を通過する車両の速度を求める手段と、その求めた時間と速度から、検知領域を通過する車両の車長を求める手段と、を有することを特徴とする車種判別システム。
【0027】
(手段13)
手段12の車種判別システムにおいて、前記エッジ濃度の時系列データから検知領域を通過する車両の速度を求める手段は、前記エッジ濃度から車両の末尾を特定する手段と、その末尾の位置の変化と、その位置の変化に要した時間を求める手段と、その位置の変化量とその位置の変化に要した時間とから、車両の速度を求める手段と、を有することを特徴とする車種判別システム。
【0028】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
【0029】
図1は本発明の車種判別システムの処理手段を説明する図である。
【0030】
カメラなどの映像撮像手段で撮像した画像を入力する画像入力手段1と、その画像に対し車両の情報を計測する検知領域設定手段2と、検知領域内に車両が存在しているか否かを計測する車両存在確認手段3と、検知領域内に車両が存在している時の入力した画像の濃度情報を求める濃度変化検出・記憶手段4と、同じく、検知領域内に車両が存在している時の入力した画像のエッジ濃度情報を求めるエッジ変化検出・記憶手段5と、検知領域を通過した車両を追跡する車両追跡手段6と、追跡した結果から車両の通過速度を求める速度算出手段7と、濃度変化検出・記憶手段4およびエッジ変化検出・記憶手段に格納されているデータと、車速度算出手段7で求まる速度情報を用いて車種を判別する車種判別手段8からなる。
【0031】
図2はハードウエア構成を説明する図である。本発明で使用する画像処理装置20は、テレビカメラ21の映像をディジタルデータに変換するA/D変換器
22と変換された画像データを記憶する画像メモリ23と、画像メモリ23のデータを映像として表示するためのディジタルデータをアナログデータに変換するD/A変換器25を介してモニタテレビ26に表示する構成である。また、処理の動作はCPU27やRAM28などからなるコンピュータ29(パソコンなど)で制御される。
【0032】
画像メモリ23は複数枚備わっており、背景画像や入力画像の記憶メモリ、各種画像処理結果を記憶するワークメモリなどに利用する。
【0033】
なお、画像処理プロセッサ24は微分処理などを実行する空間積和演算や、2画像の差分処理などを実行する画像間演算,画像濃度の頻度分布などを求めるヒストグラム処理機能,テンプレート画像と対象画像の類似度を算出する正規化相関処理などの機能が搭載されている。
【0034】
図1の各手段の動作について以下説明する。
【0035】
図3は入力画像の一例を示す。テレビカメラから取り込んだ2車線の道路を撮影した画像10の中で、検知領域設定手段2で検知領域D1,D2を設定し、この領域のデータを求める。以下、簡単のために図3の左車線1本だけを処理する場合について説明する。
【0036】
まず、検知領域設定手段2によって、画像入力手段1から得られる入力画像のうち、図3のように車両が進入する側に検知領域D1を設定する。この検知領域の大きさは、車線方向の長さを普通車の車長の1/10程度(例えば50cm程度)が映るように設定し、車線に垂直の方向をほぼ車線の幅に設定する。車線方向の長さを広げすぎると、検知領域に複数の車両が同時に存在する場合などが発生し、車両の分離処理などが必要になるため、通常の車両間隔とされる長さ以下とする。
【0037】
また、狭すぎると、画像濃度,エッジ濃度のばらつきが大きくなるため経験的に50cm程度が検知領域に納まるように設定している。
【0038】
また、カメラの設置方法として、図3のような視野に設定すれば、画面の下部では車両が重なることがないため(ほぼ真下を撮影)、検知領域の情報は車両1台分の情報になる。
【0039】
この設定方法は、オフライン的に画面上の座標を設定してその座標を記憶する。
【0040】
また、本実施例では、検知領域を直接設定しているが、中央の白線を画像処理で認識し、その白線よりも左側に設定するようにすれば、自動設定も可能である。
【0041】
なお、図3の各車線の検知領域D1,D2の間隔などは撮影する画角,道路幅,車両の通過特性(車線の左側を通過するのが多いなど場所によって変化する)によってその都度調整する。
【0042】
車両存在確認手段3は、検知領域設定手段2によって設定された領域D1に車両が存在しているかを毎回(処理周期は約33ミリ秒程度)計測するものである。
【0043】
処理方法としては、図4に示すようにあらかじめ道路だけの画像を記憶しておき41、この画像41と入力画像42の差分処理を検知領域内で実行し、得られた差分画像を所定しきい値で2値化43したときの面積を求め、この面積が所定値以下なら車両は存在していない、所定値以上なら存在していると判断する(背景差分処理法)。
【0044】
また、図5のように入力画像の検知領域内を微分処理し微分画像51の平均濃度が所定値以下なら車両は存在していない、所定値以上なら存在していると判断する方法もある。
【0045】
また、入力画像の濃度変化に対応できるように、特開平10−307988号「交通流監視装置」に記載のように、あらかじめ記憶している道路の背景画像パターンと入力画像とで類似度(正規化相関処理)を算出し類似度が所定値以下なら車両存在と判別することも可能である。
【0046】
正規化相関処理は登録パターンと探索画像パターンの濃度を合わせて類似度を求めるため、入力画像の明るさが変動しても類似度にはあまり影響しない特徴を持つ。このため、屋外の場合はこの処理が安定している。いずれにしても、車両の存在有無の情報を記憶することができればどのような方式でも効果は得られる。
【0047】
画面全体の画像から車両の領域を正確に求めることは困難であるが、検知領域を所定の大きさに限定することで、車両の存在有無情報が安定的に判別可能となる。
【0048】
このような存在,非存在の情報を時系列に図6のように記憶しておく(存在を1,非存在を0とする)。この時、存在のトータル時間が必要となるため、存在開始時刻,存在終了時刻を用いて存在時間TimeSを求めておく。
【0049】
濃度変化検出・記憶手段4は上記車両の存在,非存在の判別結果を用いて、車両が存在している場合に、入力画像の検知領域内の平均濃度を求め、これを図7のように時系列に記憶するものである。記憶する個数は、車両存在,非存在のデータ数と同じとなる。
【0050】
同じく、エッジ変化検出・記憶手段5は上記車両の存在,非存在の判別結果を用いて、車両が存在している場合に、入力画像のエッジの強度を求めるもので、入力画像について検知領域内を微分処理し、その微分画像の平均濃度を時系列に記憶するものである。記憶する個数は、車両存在,非存在のデータと同じ数となる。なお、微分処理には水平縞のエッジを強調する処理(車のエッジは水平線が多い)や、垂直線を強調する処理がある。これらの時系列データは後述する通過速度が求まった時点で形状判別に利用する。
【0051】
このように、検知領域を所定の大きさに設定し、この検知領域の画像濃度及びエッジの平均濃度を求め、車種判別の処理に用いることで、従来よりも精度を高めることができる。
【0052】
次に車両追跡手段6について説明する。車両追跡処理は、図8のように車両が検知領域D1を通過したと判断した時に(車両存在確認手段3で存在から非存在になった瞬間。これを時刻tとする)、検知領域D1の上部に処理領域82を設け、この領域において車両の末尾位置を検出する。画像処理で速度を求める場合、精度良く計測するためには、車両が路面に接している場所である。例えば、車両の屋根(ルーフ)などを追跡処理した場合は、見かけ上速度が大きくなるので、ここでは、車両の末尾座標を検出するために車両が検知領域を通過した瞬間に位置座標を求めるようにしている。末尾座標の検出処理は、検出領域内82を微分処理し、該微分画像83を水平方向に投影し84、最大の投影分布の位置Yoを求め、そのYoの位置の近傍画像を図9のようにテンプレート画像Tmp に登録する。ここで、図中の80は入力画像、81は通過中の車両を示す。なお、図8のように最大の点でなく検出領域82の下側から投影分布が所定しきい値以上になる場所を検出しても良い。
【0053】
次に追跡処理であるが、これは時刻(t1)の入力画像と登録したテンプレート画像でマッチング処理を実行するものである。図10のようにテンプレート画像と最も類似している場所を探すために、サーチエリア100を設定し、このサーチエリア100内で、テンプレートマッチング処理(正規化相関処理)を実行し、類似度が高い位置が検出できた場合は、その座標yp(t)の近傍の画像を再度テンプレート画像に登録し、順次この処理を繰り返す(図10ではYoの座標がyp(t1),yp(t2)へ移動している)。車両が画面から抜けたタイミングあるいはyp(t)が所定位置より上になった場合に追跡を終了しこの座標をYeとする(類似度が高い位置が検出できない場合も終了)。このような車両追跡処理により得られる初期のテンプレート登録座標Yo,終了座標Ye,追跡開始時刻time0と追跡終了時刻time1を記憶しておく。
【0054】
車両の通過速度を求める速度算出手段7は、上記車両追跡処理の登録座標Yoと追跡座標Yeと、時刻time0,time1から速度を算出する。ここで、画像の座標は画素単位であるが、速度を求めるためには画素と実距離との変換が必要である。ここでは、その変換を式1で行う。
【0055】
あらかじめカメラの向きθ、カメラレンズの焦点距離F、カメラ高さHを求めておき、画像上の座標(x,y)は実座標(X,Z)に変換することが出来る。この計算式は「移動物体検出に基づく通過車両の車種判別」電気学会道路交通研究会資料(RTA−95−7,95.3)に記載されている方式を用いると、式1で変換できる。ここで、カメラと道路の関係を図11に示す。
【0056】
【式1】

Figure 0003541774
【0057】
このようにしてYoをZo,YeをZeに変換し、速度Vを式2で求める。
【0058】
【式2】
Figure 0003541774
【0059】
ここで、車両の追跡処理は、特開平10−307988号「交通流監視装置」に記載のような手法について説明したが、車両のパターンを抽出し、その末尾座標の位置変動から速度を求める方式など色々と考えられるが、検知領域を通過した車両の速度を計測できる手法であれば、その方式は限定しない。また、画素と実距離の変換方法は他にも色々な方法があり、上記の変換式に限定するものではない。
【0060】
次に車種判別手段8について説明する。車種判別手段8は図12のように動作する。まず車長を求め、車長がLBより長い時は大型となり、大型と判別した場合は、画像濃度変化,エッジ変化検出・記憶手段4,5に記憶されているデータを用いて形状判別(ここではバス,貨物判別)を行い、車長がLBより短い時は小型となり、同様にして形状判別(貨物,乗用車の区別)を行う。ここで、上記例は小型,大型を分類するものであるが、車長によっては小型,中型,大型の3車種に分類し、これらについてそれぞれ貨物、乗用などと分類することも可能である。この車長の計測は車両の通過速度Vと車両存在確認手段3で求まった存在時間TimeSを用いて車長=速度V*存在時間TimeSにより算出することができる。
【0061】
入力画像全体から車長を求めることは、車両が重なった場合の車両の分離が困難なため、正確には行えなかったが、このように、検知領域を設定し、その検知領域における車両の通過速度と存在時間を求めると車長を正確に求めることができる。
【0062】
なお、図3のような視野に設定しているので、画面の下部では車両が重なることがなく(ほぼ真下を撮影)、検知領域の情報は車両1台分の情報であり、画像から車長を正確に求めることが可能となっている。
【0063】
ところで、カメラの向きから検知領域を通過している車両の時間と車長の関係は図13のようになるため、補正することが精度の向上につながる。すなわち、(車長+検知幅)=速度V*存在時間TimeSであるため、よって、車長=速度V*存在時間TimeS−検知幅で算出する。なお、検知幅とは車線方向の検知領域の長さである。
【0064】
また、画像濃度変化,エッジ濃度変化による形状チェックは、図14(a)のように車両存在回数分記憶されているデータを、例えば10個に正規化し図14(b)のように変換する。この処理は、車長及び速度によってデータの個数が大きく変化するため判別処理が複雑になるのを回避するために正規化するものである。正規化法は単純にn個(車長,通過時間によって変動)のデータを10個に間引きする処理でも良いし、更に正確なものとして補間付きの圧縮処理でも良い。
【0065】
正規化した画像濃度データをGray[0]〜Gray[9]とするとバスの場合は、図15のように後部に窓が有るので濃度値がGray[7]〜Gray[9]当たりで下がる。また、天井の濃度はほぼ一様なのでGray[0]からGray[6]当たりの濃度は均一となる。このため、画像濃度の時系列データの前半が均一か否かの判別を行う。
【0066】
車長で大型と判別した場合は、以下の判別条件でバスと判別する。
(1)Gray[7]からGray[9]が最小濃度である(図15 S86−1)。
(2)Gray[0]からGray[6]の平均濃度Aveとの差の絶対値の累積が所定値以下である(S86−2)。
【0067】
更に、エッジ変化検出・記憶手段5によって求まる情報も同様にして10個にデータを正規化しEdge[0]からEdge[9]に記憶する。バスの場合は、車両の先頭により最初に大きなエッジ濃度が発生し、最後の位置に窓による大きなエッジ(濃度)が発生する。これに対し、トラックなどでは、途中に運転席と荷台の間に大きなエッジ濃度があるためこの情報が発生する。
【0068】
したがって、バスの場合は以下の条件で判別する。
(1)Edge[0]からEdge[4]の平均よりEdge[5]からEdge[9]の平均濃度が高いか、中央のエッジ濃度は一様(S86−3)。
【0069】
同様に、車長がLBより短い場合は小型車とするが、濃度変化,エッジ濃度変化チェック処理により、貨物か乗用かを判断する。セダンなどでは、大きなエッジ濃度が窓の部分で発生するが、小型貨物ではエッジ濃度が途中小さい。この違いから小型乗用車,小型貨物の判別が可能である。
【0070】
このように、車両検知領域を通過する車両の車長,画像濃度の時系列データ,エッジ濃度の時系列データを用いることで、さまざまな形状の分類を正確に行うことが可能となる。2次元の画像パターンを記憶して分類する方式は、記憶容量の問題のほかに、車両の形状を正確に切り出すことが非常に困難であるが、本発明では、検知領域を通過する車両の画像濃度,エッジ濃度を時系列に求めるだけで形状判別が可能である。
【0071】
車種判別手段は以上のように種々のしきい値を設定し判別することが可能であるが、より安定的に判断する処理としてニューラルネットワークの利用がある。ニューラルネットワークを利用する場合のネットワークの構造を図16に示す。ネットワークは3層構造のニューラルネットワークであり、ネットワークの入力層に、画像濃度を10個(例えば)に正規化したGray[0]からGray[9]を入力する。さらにエッジ濃度を10個に正規化したEdge[0]からEdge[9]を入力する。さらに、車長を入力する。出力層は、形状毎の出力を用意する。ここで、ニューラルネットワークの扱うデータ範囲は0から1の実数であるため、Gray[i]は画像濃度の最大値で除して、Edge[i]はエッジ濃度の最大値で除して0から1の実数に変換することが必要である。また、車長については例えば15mを最大として車長を15mで除した数値(1以上は1に設定)する。
【0072】
このような入力データを入力し、学習時は教師データとして車種毎の値を与えることで学習する。例えば、車種を5車種(小型乗用,小型貨物,大型貨物,バス,その他)に判別する場合、小型乗用のデータを入力した場合は、出力の教師データとして小型乗用を1その他を0に設定し与える。
【0073】
認識時は車種毎の出力を求め、最大出力の車種を認識結果として用いる。また、ニューラルネットワークを小型,大型の2種類用意する方法もある。図17は小型の例であるが、入力は図16の車長を除いた濃度,エッジ情報を入力し、出力は小型乗用,小型貨物を用意する。このように大型,小型のニューラルネットワーク分けることで、小型車両の車長であるにもかかわらず少なくとも大型に判断する誤りは防ぐことが可能となる。また、図16,図17ではエッジ濃度は垂直エッジ強調の微分画像の平均濃度を時系列に求めた情報を入力しているが、水平エッジ濃度を加えた情報を入力することが必要な場合も同様な処理で対応可能である(Edge[0]からEdge[9]が垂直エッジ強調情報、Edge[10]から
Edge[19]が水平エッジ強調情報とすると入力層は濃度情報と合わせ30個設ければ良い)。
【0074】
このように、ニューラルネットワークを利用すると、画像濃度,エッジ濃度の形状判別にしきい値などを設定する必要が無く、きわめて簡単に車種の判別が可能となる。また、エッジ濃度を水平,垂直両方用いる場合、データ数が増えプログラム的に車種判別の処理を作り込むのは容易でないが、ニューラルネットワークを用いることで、判別に用いる時系列パターンの数が増えても車種判別が高精度にできるメリットがある。
【0075】
また、あらかじめ形状毎の画像濃度の時系列データをパターン,エッジ濃度の時系列データを形状数(例えば、バス,大型貨物)記憶しておき、画像から得られる変化情報との類似度を画像濃度,エッジ濃度毎に求め、これらの類似度の総和が最大のパターンを認識結果とすることもできる。記憶容量は時系列データを分類形状数だけ用意するだけであり、ごく少ないデータで良い。
【0076】
いずれにしても、車両が検知領域を通過している間の画像濃度の時系列データ,エッジ濃度の時系列データ、及び車長を求めることで、これまでの大型,小型の判別だけでなく、車両の形状判別も可能となる。
【0077】
以上の処理の流れを詳細に説明する。図18に全体フローを示す。まず、画像処理装置の初期化や各種テーブルの初期化を実行するS0。検知領域設定手段で車両検知領域を設定するS1。車両の存在を求めるベースになる背景画像を作成するS2。以下が処理のループになる。
【0078】
画像を入力S3し、車両存在確認S4で検知領域上に車両が存在しているかを確認する。また、検知領域内の濃度の変化、エッジの変化情報を求める。車両が検知領域を抜けた場合はS5で車両の末尾領域をテンプレート画像に登録する
S5。登録したテンプレート画像と似ている場所を入力画像から探し追跡処理するS6。追跡が終了したら、車両の速度を算出するS7。全ての情報が求まった場合は、車種の判別S8を実行する。以下、各処理の詳細フローを示す。
【0079】
図19に車両存在確認処理S4のフローを示す。まず、背景画像と入力画像の差分処理S4−1を実行し、この画像を2値化S4−2し、2値の面積を求めるS4−3。この面積が所定値以上の場合は、車両が存在していると判断しCountを増加するS4−5。また、検知領域内の入力画像の平均濃度および微分画像の平均濃度を求め、テーブルに格納する(S4−6からS4−9)。微分処理で、水平,垂直の両方の情報を用いる場合は配列を2倍用意する。
【0080】
面積が小さい場合は車両が存在しないと判断するが、Count(存在回数)が所定値以下ならノイズで存在,非存在が変動したと判断しCountをクリアする。Countが所定値以上の場合は車両が通過したと判断し、車両末尾座標の検出S4−11を実行し(図8,図9の処理)車両末尾が求まった場合はxc(X方向中心座標)、yc(Y方向中心座標)にその座標を格納する。また、S4−7,9で格納した濃度,エッジ濃度の時系列データを退避するS4−12,13。これは、次の車両が進入した時にデータが消去されないようにするためである。車種判別のためには図3のような視野に設定した場合、車両が画面に2台(1車線)までしか入らないので、このような処理で良い。また、通過時間を格納S4−14する。なお、車両が通過したと判断した場合の回数を求めることで、通過台数を算出することができる。
【0081】
図20はテンプレート登録のフローである。車両が通過した時に車両の末尾座標を求めるが、この座標xc,ycが求まっている場合に、テンプレート画像の登録処理を実行する。テンプレートは複数個登録できるようにしているため(多車線対応)、図20のように、未使用の番号を探し(Track[i]…hold が0の場合未使用)、未使用の場合はそのテーブルに所定情報を格納する。格納データは、追跡座標のX中心,Y中心(xc,yc)、その初期値(oxc,oyc),追跡回数(count),テーブルの状態(hold=2)、時刻(starttime,endtime)である。さらに、xc,ycを中心として入力画像から所定のX幅,Y幅の大きさの画像をテンプレートに登録する。
【0082】
ここで、登録データは図21のような管理テーブルである。
【0083】
次に、図22に追跡処理フローを示す。テーブル番号を0からスタートし、管理テーブル(Track[i])のhold が2の場合は、現時刻でテンプレートが登録されたばかりなので、holdを1にして次の入力画像まで待つS6−3。holdが1の場合は登録してから新しい画像が入力されているのでこのデータについて追跡処理する。まず、Track[i].xc,yc の値を基準に探索領域(サーチエリア)を設定するS6−5。これは図10の100のように設定する。サーチエリアが決まれば、その領域内で最も登録しているテンプレート画像に類似している位置を探すS6−6。位置が見つかった場合は、管理テーブルのxc,yc(oxc,oycは更新しない)、時刻(endtime)を更新しS6−9、登録画像のテンプレート画像をxc,ycの位置の近傍画像に更新するS6−10。一方、登録パターンが見つからない場合は、holdを3に設定し追跡が終了したことにするS6−8。このような処理をテーブル数ループする。通常、2車線の場合、テーブル数は4個程度有れば十分である。
【0084】
なお、テンプレート画像の記憶番号は管理テーブルの番号iと同じである。
【0085】
次に図23に速度算出フローを示す。前述したように車両追跡終了時はholdを3に設定しているので、holdが3になったテーブルに記憶されている、座標,時刻から速度を算出するS7−3。速度を計算したら管理テーブルのデータを初期化するS7−4。
【0086】
車種判別S8のフローを図24に示す。車両追跡処理により速度が求まった場合に、速度,存在時間TimeS から車長を求めS8−2、これを基に車種判別するS8−3。速度が求めっていない場合は、車両が通過していないので何も実行しない。なお、車種判別の具体例は、図12,図15で説明した通りである。検知領域を車両が通過してから車両の速度が求まるまでには、速度が速い場合は、数回の追跡処理、例えば33ミリ秒×10回=330ミリ秒後に速度が求まるので、検知領域通過後瞬時に車種判別が可能であるが、遅い車の場合は画面を通過するまで速度計算しないため、数十秒後に速度が求まる場合などがある。このため、車両追跡回数が所定値以上(例えば、20回)になったら速度を求め、車種判別するようにしても良い。この場合は、図22の管理テーブルの更新S6−9の後に、追跡回数Track[i].countが所定値以上ならholdを3に設定し、速度を求めるようにすればよい。
【0087】
以上の説明は車線数が1本の場合について述べたが、車線数が2本,3本の場合は、各処理を車線数分ループ処理し、各テーブルを車線数分の配列で記憶すれば、容易に多車線対応が可能である。
【0088】
ところで、上記車種判別手法は渋滞した場合に問題が発生する。すなわち、渋滞すると、検知領域に車両が停止し、車両存在時間が大きく延びる。この車両は最終的には画面上から消えるため、ある速度で移動するが、車長を計算する処理は、存在時間と速度から求めているため、車長が非常に大きくなってしまう。
【0089】
そこで、存在時間の計測処理を図25のように改善する。車両が移動している場合だけ、存在時間としてカウントするようにするため(存在確認処理としては存在と判断するが記憶カウンタとしてはカウントしない)、検知領域について現在時刻(t)の入力画像f(t)と所定時刻前(t−dt)の入力画像f(t−dt)の画像間の差分処理を実行しS4−16、差分画像を所定のしきい値で2値化した時の面積を算出する。この面積が所定値以下なら移動していないと判断しS4−17、存在カウンタを更新しない。
【0090】
この処理により、渋滞していても存在時間がほぼ正しく求まるため車長の計測が可能となる。なお、移動速度Vが加減速する場合は車長に誤差が発生するが、速度算出の範囲を検知領域の近くに設定することで誤差を低減可能である。
【0091】
また、記憶している背景画像は更新が必要であるが、画像処理で一般的な移動物体が無い場合の画像の平均化(新しい背景画像=古い背景画像と入力画像の平均)などで対応可能である(検知領域だけの狭い範囲なので処理は安定する)。
【0092】
なお、速度算出のための車両追跡処理にパターンマッチング処理を用いた例を示しているが、そのほかの速度算出の方式も流用可能である。また、存在確認処理は背景画像と入力画像の類似度で判別する方式が安定するが、背景差分の平均濃度を監視したりする方式などが考えられる。
【0093】
また、夜間においてはテールランプだけしか見えない状態では、本発明の効果は発生しないため(車長が求まらない)、夜間時においては、LED照明などによる照明を少なくとも検知領域内に照射することが必要である。それ以外の場所での処理はテールランプを検出し追跡処理し速度を求めることが出来るので問題ない。将来的にはカメラの感度が向上し、夜間でも照明が不用になる可能性があるが、現在では照明が必要である。
【0094】
以上の例は車両が同一方向に移動する場合、特に車両を後方から撮影し、台数,速度,車種を判別するものである。
【0095】
しかし、道路には片側1車線の道路が対面通行している場所も多い。この場合に検知領域を図26のように左車線は画面の下側D1,右車線は画面の上側D2に設置し、車両をそれぞれ追跡する(101,102は追跡のパターンを示す)。ここで、左車線の車両検知,通過,追跡などの時間経過は図27に示すように、検知領域を通過した時点から車両の追跡処理が始まり、追跡終了後、速度算出,車種判別が行われる。これに対し、右車線の場合は、図28のように車両が検知領域に進入した瞬間から車両追跡が始まり、追跡終了後、速度算出,車種判別が行われる。これは、検知領域通過直後に車両のパターンを追跡すると、車両の屋根などを追跡することになり、この車高が影響し速度計測精度が低下するので、できるだけ路面との高さが少ない場所を追跡する必要がるためである。このため、検知領域に進入した時に車両前面のパターンを抽出し追跡する。このように、速度追跡処理方法を変更することで対面通行に対応可能である。
【0096】
ところで、カメラの視野を図29のように真下を撮影し、検知領域は画面の中央に設定するD1,D2。このようにすれば、上り,下り車線とも同じ処理で台数,速度,車種の判別が可能である。すなわち、検知領域を通過してから車両の速度を上り下りとも同じように求めることが可能である。また、一般的なテレビカメラは水平,垂直の比率が4:3であるので、カメラを横向きに設置して撮影すれば、図30のように車線方向に長い撮影視野をとれるので、より好ましい。
【0097】
上り,下り対面通行の場合には、カメラを真下に向けることが有効である。これは、設置上非常に簡単であり効果と、認識処理を同じに出来るという効果がある。
【0098】
また、カメラなどで道路を撮影し、その映像に車両検知領域を設け、この領域を通過する車両の存在,非存在情報,濃度の時系列情報,エッジ濃度の時系列データ、および通過速度を求め、これら情報で車長を基準に大型,小型を判別し、さらに濃度,エッジ濃度の時系列データから貨物,バスなどの形状判別を行うことが可能である。
【0099】
また、1枚の画像から車両を切り出し車種を判別することは非常に困難であるが、検知領域を通過する車両の時間的変化を用いるので、車両の特徴を正確に抽出できるため容易に車種判別が可能である。
【0100】
また、画像処理であるため、認識結果の検証も容易であり、また、車長をベースに判別するため正確な車種判別が可能である。なお、車長の設定値によっては大型,中型,小型の分類も可能である。
【0101】
【発明の効果】
本発明によれば、車種判別装置における車種判別の精度を向上させることができる。
【図面の簡単な説明】
【図1】本発明の処理手段の構成を示す図である。
【図2】本発明に使用する画像処理ハードウエアの一例を示す図である。
【図3】画像感知器の撮影例を示す図である。
【図4】車両存在有無を判別する処理の一例を示す図である。
【図5】車両存在有無を判別する処理で微分処理を用いた例を示す図である。
【図6】車両存在有無の状態を記憶した場合を説明する図である。
【図7】車両存在時に求める入力濃度の時系列データを説明する図である。
【図8】車両が通過した時に車両の末尾座標を求める処理の一例を示す図である。
【図9】車両末尾座標の近傍をテンプレート画像に登録する処理を示した図である。
【図10】車両を追跡する処理を説明する図である。
【図11】カメラの空間位置を説明する図である。
【図12】車種判別のフローを示す図である。
【図13】カメラアングルと車両存在時間の関係を説明する図である。
【図14】濃度変化情報個数の正規化を説明する図である。
【図15】車種判別に用いる濃度変化,エッジ変化の判別処理フローを示す図である。
【図16】濃度変化,エッジ変化をニューラルネットワークで処理し車種を判別する場合の構成を示す図である。
【図17】小型車専用のニューラルネットワークによる車種判別の構成を示す図である。
【図18】車種判別処理の全体処理を示す図である。
【図19】車両存在確認処理の処理フローを示す図である。
【図20】車両追跡時のテンプレート登録処理フローを示す図である。
【図21】車両追跡時の管理テーブルの内容を示す図である。
【図22】車両追跡処理フローを示す図である。
【図23】通過速度算出フローを示す図である。
【図24】車種判別処理フローを示す図である。
【図25】渋滞時に対応した車両存在確認処理のフローを示す図である。
【図26】対面通行の場合に、本発明を適用した図である。
【図27】左車線の車両検知,通過,追跡などの時間経過を示す図である。
【図28】右車線の車両検知,通過,追跡などの時間経過を示す図である。
【図29】カメラの視野を真下に設定した態様をあらわした図である。
【図30】カメラを横向きに設定した場合のカメラの視野を示す図である。
【符号の説明】
3…車両存在確認手段、4…濃度変化検出・記憶手段、5…エッジ変化検出・記憶手段、6…車両追跡手段、7…速度算出手段、8…車種判別手段、20…画像処理装置。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle type discrimination system that processes an image of a television camera and determines a vehicle type of a vehicle passing on a road.
[0002]
[Prior art]
As a vehicle type determination system for determining the type of a vehicle on a road, there is a system using an optical sensor.
[0003]
As a vehicle type discrimination system using the optical sensor, Japanese Patent Laid-Open No. 11-296784 discloses that a road is irradiated with light, and the height of a passing vehicle is obtained from a phase difference between the irradiated light and reflected light. It describes that vehicle types such as small, large, freight, and bus are distinguished from patterns of height change.
[0004]
Further, as an apparatus for determining the type of a vehicle on a road, there is an apparatus using an image sensor. Japanese Patent Application Laid-Open No. 11-353581 discloses a method of removing the density of a road surface from an input image, extracting a pattern of a vehicle, detecting an edge of the extracted vehicle pattern to determine a leading position and a width of the vehicle. It describes that a vehicle silhouette is extracted from a vehicle, and a large-sized passenger, a large-sized cargo, a small-sized passenger, and a small-sized cargo are discriminated based on the leading width of the vehicle and the vehicle silhouette.
[0005]
Japanese Patent Application Laid-Open No. H11-232588 describes a method in which a front luminance pattern for each vehicle type is stored in advance, and the vehicle type is determined by comparing with a luminance pattern of an input image.
[0006]
[Problems to be solved by the invention]
In a conventional vehicle type discriminating system using an optical sensor, other checking means such as a video camera are required to check the discrimination result.
[0007]
Also, when a video camera is installed, there are problems that it is necessary to match the detection area of the optical sensor and that the time of the sensor and the time of the video need to be accurately corrected.
[0008]
On the other hand, when the image sensor is used, it can be used for vehicle type determination and confirmation of the determination result, so that such a problem can be solved. In other words, verification is facilitated by processing the captured image to determine the vehicle type, superimposing the determination result on the camera video, and recording this video.
[0009]
However, Japanese Patent Application Laid-Open No. H11-353581, which is an apparatus using the image sensor, extracts the luminance pattern of the vehicle by removing the road surface density of the entire area of the input screen. If the brightness of the vehicle pattern to be extracted or the brightness of the road surface has large unevenness, it is difficult to accurately extract the vehicle pattern, and the accuracy of the vehicle type determination is reduced. Further, the difference in length of the vehicle width depending on the vehicle type is small, and it is difficult to determine the vehicle type based on the vehicle width. These problems become a serious problem when discriminating the type of vehicle according to the size such as large, normal, small, or the like, or when discriminating the type of vehicle whether it is cargo or passenger.
[0010]
Similarly, in the method described in Japanese Patent Application Laid-Open No. H11-232588, "speed violation control device", since the front luminance pattern of the vehicle is extracted from the entire image, the accuracy of vehicle type determination is reduced. This problem becomes a serious problem when discriminating the type of vehicle according to the size such as large, ordinary, small, or the like, or when discriminating the type of vehicle whether it is cargo or passenger.
[0011]
As described above, an object of the present invention is to improve the accuracy of vehicle type determination in an image monitoring device.
[0012]
[Means for Solving the Problems]
As described above, in order to determine the vehicle type of the vehicle with the image sensor, in the vehicle type determination system of the present invention, an area is set on the image, and the image of the area while the vehicle passes through the area is set. Time-series data of density (density of image brightness) and time-series data of edge density (density of edge brightness obtained by differentiating image brightness) of the area are stored, and the traveling speed of the vehicle and The method of determining the vehicle type from the time series data is adopted.
[0013]
That is, the length of the vehicle is measured from the passing time of the vehicle passing through the detection area (the time when the detection area is hidden by the vehicle) and the passing speed of the vehicle, and the type of the size of the vehicle is obtained. The vehicle type is determined by specifying the type of cargo, passenger, or the like from the time series data (pattern) and the edge density time series data (pattern). Normally, buses have the same color and uniform ceiling, so the first half of the image density time-series data is flat, and the edge density time-series data has strong edges in the second half. It becomes possible. The “concentration” in this specification is
It means “luminance density”.
[0014]
The following means are also provided as aspects of the present invention.
[0015]
(Means 1)
In a vehicle type discrimination system that processes a video of a television camera for photographing a road to determine a vehicle type, an image input unit that captures the video of the television camera into an image memory, and a detection area for detecting a vehicle on the input image is a vehicle in each lane. Detection area information management means provided on the approach side for storing vehicle presence information, input image density change pattern information, and edge density change pattern information of an image obtained by differentiating the input image, and timing when a vehicle passes through the detection area And the speed detection means for obtaining the passing speed by tracking the position of the vehicle and determining the vehicle type of the passing vehicle based on the information of the detection area information managing means and the passing speed information obtained by the speed detecting means. A vehicle type discriminating system comprising:
[0016]
(Means 2)
In the vehicle type discrimination system of the means 1, the vehicle presence / absence information of the detection area information management means determines the presence or absence of a vehicle in the detection area, and differentiates the input image average density and the input image in the detection area when the vehicle is present. A vehicle type discriminating system characterized by storing an average density of an image in a time series for the number of times of vehicle existence.
[0017]
(Means 3)
In the vehicle type discrimination system of the means 2, the vehicle presence / absence information of the detection area information management means determines the presence or absence of a vehicle in the detection area, and detects a fluctuation area by time difference processing of the detection area. A vehicle type discriminating system characterized by storing an average density of an input image in a detection area and an average density of a video obtained by differentiating the input image in a time series for the number of times of vehicle presence only when the input image fluctuates with time.
[0018]
(Means 4)
In the vehicle type discriminating system of the means 2, in order to determine the presence or absence of a vehicle in the detection area, a difference process between a background image stored in advance and the input image is executed in the detection area, and the difference image is determined by a predetermined method. A vehicle type discriminating system wherein a vehicle is determined to be present when an area when binarized by a threshold value is equal to or greater than a predetermined value, and is determined to be absent when the area is not greater than a predetermined value.
[0019]
(Means 5)
In the vehicle type discriminating system of the means 2, in order to determine the presence or absence of a vehicle in the detection area, a difference process between a background image stored in advance and the input image is executed in the detection area, and the average of the difference images is calculated. A vehicle type discriminating system for discriminating that a vehicle is present when the density is equal to or higher than a predetermined value and that the vehicle is not present when the density is equal to or lower than the predetermined value.
[0020]
(Means 6)
In the vehicle type discriminating system of the means 2, in order to discriminate the presence or absence of the vehicle in the detection area, a similarity is calculated in the detection area from a previously stored background image and the input image, and the similarity is determined. A vehicle type discriminating system for discriminating that the vehicle is present when the value is equal to or less than a predetermined value, and that the vehicle is not present when the value is equal to or more than the predetermined value.
[0021]
(Means 7)
In the vehicle type discrimination system of the means 2, the input image is differentiated in order to determine the presence or absence of the vehicle in the detection area, and the vehicle is present when the average density of the differential image is equal to or more than a predetermined value, A vehicle type discrimination system characterized by discriminating non-existence.
[0022]
(Means 8)
In the vehicle type discrimination system of the means 1, the vehicle type discrimination means calculates the length of the passing vehicle from the time passing through the detection area obtained from the vehicle presence information of the detection area information management means and the speed obtained by the speed detection means. And a shape discrimination means for discriminating the shape of the vehicle from the input image density change pattern and the edge density change pattern of the detection area information management means.
[0023]
(Means 9)
In the vehicle type discriminating system of the means 8, the shape discriminating means of the vehicle type discriminating means inputs the input image density change pattern and the edge density change pattern of the detection area information management means to the input layer of the neural network, and outputs cargo, buses, etc. A shape discrimination system using a three-layer neural network having an output corresponding to the shape of a vehicle.
[0024]
(Means 10)
In the vehicle type discriminating system of the means 8, the shape discriminating means of the vehicle type discriminating means stores several types of density change patterns and edge density change patterns for each vehicle shape in advance, and the input image density change pattern and the edge density change pattern of the detection area information management means. A vehicle type discrimination system, wherein a shape similarity is determined by calculating a degree of similarity with a pattern, and obtaining a pattern having the highest sum.
[0025]
(Means 11)
In a vehicle type discrimination system that processes a video of a TV camera that photographs a road and determines a vehicle type, an image input unit that captures a video of the TV camera into an image memory, a unit that sets a detection area for detecting a vehicle in the input image, Means for obtaining, from the image of the detection area, a vehicle length of a vehicle passing through the detection area, time-series data of image density of the detection area, and time-series data of edge density in the image of the detection area; A vehicle type discriminating system comprising: means for discriminating a vehicle type from series data, time series data of edge density, and a vehicle length.
[0026]
(Means 12)
In the vehicle type discrimination system of the means 11, the vehicle length of the vehicle passing through the detection area, the time-series data of the image density of the detection area, and the time-series data of the edge density in the image of the detection area are obtained from the image of the detection area. The means to ask is
Means for obtaining, from the image of the detection area, the speed of the vehicle passing through the detection area, time-series data of the image density of the detection area, and time-series data of the edge density in the image of the detection area; Means for determining the time at which the vehicle passes through the detection area from the data, means for determining the speed of the vehicle passing through the detection area from the time series data of the edge density, and the vehicle passing through the detection area from the obtained time and speed. Means for determining the vehicle length of the vehicle.
[0027]
(Means 13)
In the vehicle type discrimination system of the means 12, the means for determining the speed of the vehicle passing through the detection area from the time series data of the edge density includes means for specifying the end of the vehicle from the edge density, a change in the position of the end, A vehicle type discrimination system comprising: means for calculating a time required for a change in the position; and means for calculating a speed of the vehicle from an amount of change in the position and a time required for a change in the position.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0029]
FIG. 1 is a diagram for explaining processing means of the vehicle type identification system of the present invention.
[0030]
Image input means 1 for inputting an image picked up by a video image pick-up means such as a camera, detection area setting means 2 for measuring vehicle information on the image, and measuring whether or not a vehicle exists in the detection area The vehicle presence confirmation means 3 and the density change detection / storage means 4 for obtaining the density information of the input image when the vehicle is present in the detection area. An edge change detection / storage means 5 for obtaining edge density information of an image inputted by the user, a vehicle tracking means 6 for tracking a vehicle passing through the detection area, a speed calculation means 7 for obtaining a passing speed of the vehicle from the tracking result, It comprises a vehicle type discriminating means 8 for discriminating a vehicle type by using data stored in the density change detecting / storing means 4 and the edge change detecting / storing means and the speed information obtained by the vehicle speed calculating means 7.
[0031]
FIG. 2 is a diagram illustrating a hardware configuration. An image processing device 20 used in the present invention is an A / D converter for converting an image of a television camera 21 into digital data.
22 and an image memory 23 for storing the converted image data and a D / A converter 25 for converting digital data for displaying the data in the image memory 23 as video into analog data for display on a monitor television 26. Configuration. The processing operation is controlled by a computer 29 (such as a personal computer) including a CPU 27 and a RAM 28.
[0032]
A plurality of image memories 23 are provided and used as a memory for storing background images and input images, a work memory for storing various image processing results, and the like.
[0033]
Note that the image processor 24 has a spatial product-sum operation for performing a differentiation process and the like, an inter-image operation for performing a difference process between two images, a histogram processing function for obtaining a frequency distribution of image densities, and the like. Functions such as normalized correlation processing for calculating similarity are provided.
[0034]
The operation of each unit in FIG. 1 will be described below.
[0035]
FIG. 3 shows an example of the input image. The detection area setting means 2 sets detection areas D1 and D2 in an image 10 of a two-lane road taken from a television camera and obtains data of these areas. Hereinafter, a case where only one left lane of FIG. 3 is processed will be described for simplicity.
[0036]
First, the detection area setting means 2 sets the detection area D1 on the side where the vehicle enters, as shown in FIG. 3, in the input image obtained from the image input means 1. The size of the detection area is set so that the length in the lane direction is approximately 1/10 (for example, approximately 50 cm) of the vehicle length of the ordinary vehicle, and the direction perpendicular to the lane is set to approximately the width of the lane. If the length in the lane direction is excessively widened, a case where a plurality of vehicles are simultaneously present in the detection area may occur, and the vehicle must be separated.
[0037]
Further, if the width is too narrow, the variation in image density and edge density increases, so that about 50 cm is set empirically to fit in the detection area.
[0038]
Further, if the camera is set in a field of view as shown in FIG. 3, the vehicles do not overlap at the lower part of the screen (approximately right below), so that the information of the detection area is information of one vehicle. .
[0039]
In this setting method, coordinates on the screen are set off-line and the coordinates are stored.
[0040]
In the present embodiment, the detection area is set directly. However, if the center white line is recognized by image processing and set to the left of the white line, automatic setting is also possible.
[0041]
Note that the distance between the detection areas D1 and D2 of each lane in FIG. 3 is adjusted each time according to the angle of view to be photographed, the road width, and the passing characteristics of the vehicle (they vary depending on the location such as frequently passing the left side of the lane). .
[0042]
The vehicle presence confirming means 3 measures whether or not a vehicle is present in the area D1 set by the detection area setting means 2 (the processing cycle is about 33 milliseconds).
[0043]
As a processing method, as shown in FIG. 4, an image of only the road is stored in advance 41, a difference process between the image 41 and the input image 42 is executed in the detection area, and the obtained difference image is determined by a predetermined threshold. The area at the time of binarization 43 with the value is obtained. If the area is smaller than a predetermined value, it is determined that the vehicle does not exist, and if the area is larger than the predetermined value, it is determined that the vehicle exists (background difference processing method).
[0044]
Alternatively, as shown in FIG. 5, there is a method of differentiating the detection area of the input image and determining that the vehicle does not exist if the average density of the differential image 51 is equal to or less than a predetermined value, and that the vehicle exists if the average density is equal to or more than the predetermined value.
[0045]
Further, as described in Japanese Patent Application Laid-Open No. H10-307988 “Traffic flow monitoring device”, a similarity (regularity) between a previously stored road background image pattern and an input image is used so as to cope with a change in the density of the input image. If the similarity is equal to or less than a predetermined value, it is possible to determine that a vehicle is present.
[0046]
In the normalized correlation processing, the similarity is obtained by matching the densities of the registered pattern and the search image pattern. Therefore, even if the brightness of the input image fluctuates, the similarity is not significantly affected. Therefore, in the case of outdoors, this processing is stable. In any case, the effect can be obtained by any method as long as the information on the presence or absence of the vehicle can be stored.
[0047]
Although it is difficult to accurately determine the area of the vehicle from the image of the entire screen, by limiting the detection area to a predetermined size, the presence / absence information of the vehicle can be stably determined.
[0048]
Such presence / absence information is stored in chronological order as shown in FIG. 6 (existence is set to 1 and non-existence is set to 0). At this time, since the total time of the existence is required, the existence time TimeS is obtained using the existence start time and the existence end time.
[0049]
The density change detection / storage means 4 obtains the average density in the detection area of the input image when the vehicle is present, using the result of the determination of the presence or absence of the vehicle, as shown in FIG. They are stored in chronological order. The number of stored data is the same as the number of data with and without the vehicle.
[0050]
Similarly, the edge change detection / storage means 5 calculates the edge strength of the input image when the vehicle is present, using the result of the determination of the presence or absence of the vehicle. Is differentiated, and the average density of the differential image is stored in a time series. The number to be stored is the same as the data of the vehicle presence / absence. The differentiation process includes a process of enhancing the edge of a horizontal stripe (the edge of a car has many horizontal lines) and a process of enhancing a vertical line. These time-series data are used for shape discrimination when a later-described passing speed is obtained.
[0051]
As described above, by setting the detection area to a predetermined size, obtaining the image density and the average density of the edge of the detection area, and using the average density of the edges for the process of determining the type of vehicle, the accuracy can be improved more than before.
[0052]
Next, the vehicle tracking means 6 will be described. As shown in FIG. 8, when the vehicle is determined to have passed through the detection area D1 (the moment when the vehicle is changed from being present to being absent by the vehicle presence confirmation means 3; this is referred to as time t), the vehicle tracking processing is performed in the detection area D1. A processing area 82 is provided in the upper part, and the end position of the vehicle is detected in this area. When the speed is obtained by image processing, the vehicle is in contact with the road surface in order to accurately measure the speed. For example, when a vehicle roof is tracked, the apparent speed increases, so here, the moment the vehicle passes through the detection area in order to detect the end coordinates of the vehicle. Position coordinates I want to ask. In the detection processing of the end coordinates, a differential process 82 is performed in the detection area, the differential image 83 is projected in the horizontal direction 84, a position Yo of the maximum projection distribution is obtained, and an image near the position Yo is shown in FIG. To the template image Tmp. Here, 80 in the figure indicates an input image, and 81 indicates a passing vehicle. As shown in FIG. 8, a place where the projection distribution is equal to or more than the predetermined threshold may be detected from the lower side of the detection area 82 instead of the maximum point.
[0053]
Next, in the tracking processing, the matching processing is executed using the input image at the time (t1) and the registered template image. As shown in FIG. 10, a search area 100 is set in order to search for a place that is most similar to the template image, and a template matching process (normalized correlation process) is executed within the search area 100, and the similarity is high. If the position can be detected, the image near the coordinates yp (t) is registered again in the template image, and this process is sequentially repeated (in FIG. 10, the coordinates of Yo move to yp (t1), yp (t2)). are doing). When the timing at which the vehicle leaves the screen or when yp (t) is higher than a predetermined position, the tracking is terminated and the coordinates are set to Ye (the process is also terminated when a position with a high similarity cannot be detected). The initial template registration coordinates Yo, end coordinates Ye, tracking start time time0 and tracking end time time1 obtained by such vehicle tracking processing are stored.
[0054]
The speed calculating means 7 for calculating the passing speed of the vehicle calculates the speed from the registered coordinates Yo and the tracking coordinates Ye in the vehicle tracking processing and the times time0 and time1. Here, the coordinates of the image are on a pixel-by-pixel basis, but it is necessary to convert between the pixel and the actual distance in order to determine the speed. Here, the conversion is performed by Expression 1.
[0055]
The camera orientation θ, the focal length F of the camera lens, and the camera height H are obtained in advance, and the coordinates (x, y) on the image can be converted to the real coordinates (X, Z). This calculation formula can be converted by Expression 1 by using the method described in “Discrimination of Vehicle Type of Passing Vehicle Based on Moving Object Detection”, IEICE Road Traffic Study Group Material (RTA-95-7, 95.3). Here, the relationship between the camera and the road is shown in FIG.
[0056]
(Equation 1)
Figure 0003541774
[0057]
In this way, Yo is converted to Zo, and Ye is converted to Ze, and the speed V is obtained by Expression 2.
[0058]
[Equation 2]
Figure 0003541774
[0059]
Here, the vehicle tracking process has been described with reference to a method described in Japanese Patent Application Laid-Open No. H10-307988 “Traffic flow monitoring device”. However, a method of extracting a vehicle pattern and obtaining a speed from a position change of the end coordinates thereof is used. Although various methods can be considered, the method is not limited as long as the method can measure the speed of the vehicle passing through the detection area. There are various other methods for converting the actual distance from the pixel, and the method is not limited to the above conversion formula.
[0060]
Next, the vehicle type determining means 8 will be described. The vehicle type determining means 8 operates as shown in FIG. First, the vehicle length is obtained. If the vehicle length is longer than LB, the vehicle becomes large. If it is determined that the vehicle is large, the shape is determined using the data stored in the image density change / edge change detection / storage means 4 and 5 (here. Then, when the vehicle length is shorter than LB, the size is reduced, and the shape is determined in the same manner (the distinction between the cargo and the passenger car). Here, the above example classifies small and large vehicles, but it is also possible to classify them into three types of small, medium and large vehicles depending on the vehicle length, and to classify these as cargo, passenger, etc., respectively. The measurement of the vehicle length can be calculated by vehicle length = speed V * existence time TimeS using the passing speed V of the vehicle and the existence time TimeS obtained by the vehicle existence confirmation means 3.
[0061]
Determining the vehicle length from the entire input image could not be performed accurately because it is difficult to separate the vehicles when they overlap, but in this way, the detection area is set and the vehicle passes through the detection area. If the speed and the existence time are obtained, the vehicle length can be accurately obtained.
[0062]
Since the field of view is set as shown in FIG. 3, the vehicle does not overlap at the lower part of the screen (immediately below the image), and the information of the detection area is information of one vehicle. Can be obtained accurately.
[0063]
By the way, since the relationship between the time and the vehicle length of the vehicle passing through the detection area from the direction of the camera is as shown in FIG. 13, the correction leads to an improvement in accuracy. That is, since (vehicle length + detection width) = speed V * existing time TimeS, the vehicle length = speed V * existing time TimeS−detection width is calculated. Note that the detection width is the length of the detection area in the lane direction.
[0064]
In the shape check based on the change in image density and the change in edge density, data stored as many times as the number of times of vehicle existence as shown in FIG. 14A is normalized to, for example, 10 data and converted as shown in FIG. 14B. This processing is performed to normalize in order to avoid complicating the discrimination processing because the number of data greatly changes depending on the vehicle length and the speed. The normalization method may be a process of simply thinning out n (variable depending on vehicle length and transit time) data to ten, or a more accurate compression process with interpolation.
[0065]
Assuming that the normalized image density data is Gray [0] to Gray [9], in the case of a bus, since there is a window at the rear as shown in FIG. 15, the density value decreases per Gray [7] to Gray [9]. Further, since the density of the ceiling is almost uniform, the density per Gray [0] to Gray [6] becomes uniform. For this reason, it is determined whether or not the first half of the time series data of the image density is uniform.
[0066]
When the vehicle length is determined to be large, the vehicle is determined to be a bus under the following determination conditions.
(1) Gray [7] to Gray [9] have the minimum density (S86-1 in FIG. 15).
(2) The accumulation of the absolute value of the difference from the average density Ave of Gray [0] to Gray [6] is equal to or less than a predetermined value (S86-2).
[0067]
Further, the information obtained by the edge change detection / storage means 5 is similarly normalized to ten pieces of data and stored in Edge [0] to Edge [9]. In the case of a bus, a large edge density occurs first at the head of the vehicle, and a large edge (density) due to a window occurs at the last position. On the other hand, in a truck or the like, this information is generated because there is a large edge density between the driver's seat and the carrier on the way.
[0068]
Therefore, in the case of a bus, it is determined under the following conditions.
(1) The average density of Edge [5] to Edge [9] is higher than the average of Edge [0] to Edge [4], or the central edge density is uniform (S86-3).
[0069]
Similarly, if the vehicle length is shorter than LB, the vehicle is determined to be a small vehicle, but it is determined whether the vehicle is a cargo or a passenger by checking density change and edge density change. In sedan etc., large edge density occurs in the window area, but in small cargo, the edge density is small in the middle. From this difference, small passenger cars and small cargo can be distinguished.
[0070]
As described above, by using the vehicle length, the image density time series data, and the edge density time series data of the vehicle passing through the vehicle detection area, it is possible to accurately classify various shapes. In the method of storing and classifying two-dimensional image patterns, it is very difficult to accurately extract the shape of the vehicle in addition to the problem of storage capacity. Shape determination is possible only by obtaining the density and edge density in a time series.
[0071]
The vehicle type determination means can set and determine various threshold values as described above, but there is use of a neural network as a more stable determination process. FIG. 16 shows the structure of a network when a neural network is used. The network is a neural network having a three-layer structure. Gray [0] to Gray [9] whose image densities are normalized to 10 (for example) are input to the input layer of the network. Further, Edge [9] to Edge [9] whose edge densities are normalized to 10 are input. Further, a vehicle length is input. The output layer prepares an output for each shape. Here, since the data range handled by the neural network is a real number from 0 to 1, Gray [i] is divided by the maximum value of the image density, and Edge [i] is divided by 0 from the maximum value of the edge density. It is necessary to convert to a real number of 1. For the vehicle length, for example, a value obtained by dividing the vehicle length by 15 m with 15 m as the maximum (1 or more is set to 1).
[0072]
Such input data is input, and at the time of learning, learning is performed by giving a value for each vehicle type as teacher data. For example, when discriminating a vehicle type into five types (small passenger, small cargo, large cargo, bus, etc.), when data of small passenger is input, small passenger is set to 1 and others to 0 as output teacher data. give.
[0073]
At the time of recognition, the output for each vehicle type is obtained, and the vehicle type having the maximum output is used as the recognition result. There is also a method of preparing two types of small and large neural networks. FIG. 17 shows an example of a small-sized vehicle. The input is density and edge information excluding the vehicle length shown in FIG. 16, and the output is small-sized passenger and small-sized cargo. By dividing the large and small neural networks in this way, it is possible to prevent at least an error in determining a large vehicle despite being the length of a small vehicle. In FIGS. 16 and 17, the edge density is information obtained by chronologically calculating the average density of the differential image in which vertical edge enhancement is performed. However, it is sometimes necessary to input information obtained by adding the horizontal edge density. The same processing can be used (Edge [0] to Edge [9] are vertical edge enhancement information, and Edge [10] is
If Edge [19] is horizontal edge enhancement information, 30 input layers may be provided together with the density information).
[0074]
As described above, when the neural network is used, it is not necessary to set a threshold value or the like for determining the image density and the edge density, and the vehicle type can be determined very easily. Further, when both the horizontal and vertical edge densities are used, the number of data increases and it is not easy to create a vehicle type discriminating process programmatically, but by using a neural network, the number of time series patterns used for discrimination increases. This also has the advantage that the vehicle type can be determined with high accuracy.
[0075]
Further, the time series data of the image density for each shape is stored in advance as a pattern, and the time series data of the edge density is stored in the number of shapes (for example, a bus or a large cargo), and the degree of similarity with the change information obtained from the image is determined. , For each edge density, and a pattern having the maximum sum of these similarities can be used as the recognition result. As for the storage capacity, only time-series data is prepared for the number of classification shapes, and very small data may be used.
[0076]
In any case, by obtaining the time series data of the image density, the time series data of the edge density, and the vehicle length while the vehicle is passing through the detection area, not only the conventional large and small size discrimination, but also It is also possible to determine the shape of the vehicle.
[0077]
The flow of the above processing will be described in detail. FIG. 18 shows the overall flow. First, initialization of the image processing apparatus and initialization of various tables are executed S0. S1 in which a detection area setting means sets a vehicle detection area. S2 for creating a background image serving as a base for determining the presence of the vehicle. The following is the processing loop.
[0078]
An image is input S3, and a vehicle presence confirmation S4 confirms whether a vehicle exists in the detection area. Further, information on a change in density and a change in edge in the detection area is obtained. If the vehicle has left the detection area, the end area of the vehicle is registered in the template image in S5.
S5. A place similar to the registered template image is searched from the input image and tracking processing is performed S6. When the tracking is completed, the speed of the vehicle is calculated S7. If all the information has been obtained, the vehicle type determination S8 is executed. Hereinafter, a detailed flow of each process will be described.
[0079]
FIG. 19 shows the flow of the vehicle presence confirmation process S4. First, a difference process S4-1 between the background image and the input image is executed, the image is binarized S4-2, and a binary area is obtained S4-3. If the area is equal to or larger than the predetermined value, it is determined that a vehicle is present, and the count is increased (S4-5). Further, the average density of the input image and the average density of the differential image in the detection area are obtained and stored in a table (S4-6 to S4-9). When both horizontal and vertical information are used in the differentiation process, the array is prepared twice.
[0080]
If the area is small, it is determined that the vehicle does not exist. However, if the Count (the number of times) is equal to or less than a predetermined value, it is determined that the presence or absence of the vehicle has changed due to noise, and the Count is cleared. If the Count is equal to or more than the predetermined value, it is determined that the vehicle has passed, and the detection of the vehicle end coordinates S4-11 is executed (the processing in FIGS. 8 and 9). , Yc (Y direction center coordinates). Also, S4-12 and S13 save the time series data of the density and the edge density stored in S4-7 and S4-9. This is to prevent data from being erased when the next vehicle enters. If the field of view is set as shown in FIG. 3 for vehicle type discrimination, only two vehicles (one lane) can enter the screen, so this processing is sufficient. The transit time is stored in S4-14. The number of passing vehicles can be calculated by obtaining the number of times when it is determined that the vehicle has passed.
[0081]
FIG. 20 shows a flow of template registration. When the vehicle passes, the end coordinates of the vehicle are obtained. When the coordinates xc and yc have been obtained, the registration processing of the template image is executed. Since a plurality of templates can be registered (multi-lane correspondence), as shown in FIG. 20, an unused number is searched (unused when Track [i]... Hold is 0). The predetermined information is stored in the table. The stored data is the X center and the Y center (xc, yc) of the tracking coordinates, their initial values (oxc, oyc), the number of times of tracking (count), the state of the table (hold = 2), and the time (starttime, endtime). . Further, an image having a predetermined X width and Y width from the input image centering on xc and yc is registered in the template.
[0082]
Here, the registration data is a management table as shown in FIG.
[0083]
Next, FIG. 22 shows a tracking processing flow. If the table number starts from 0 and the hold of the management table (Track [i]) is 2, since the template has just been registered at the current time, the hold is set to 1 and the process waits until the next input image S6-3. If the hold is 1, since a new image has been input after registration, this data is tracked. First, Track [i]. S6-5 for setting a search area (search area) based on the values of xc and yc. This is set as 100 in FIG. When the search area is determined, a position similar to the most registered template image in the area is searched (S6-6). If the position is found, xc, yc (oxc, oyc are not updated) and time (endtime) of the management table are updated, and S6-9, and the template image of the registered image is updated to an image near the position of xc, yc. S6-10. On the other hand, if the registered pattern is not found, the hold is set to 3 and the tracking ends (S6-8). This processing is looped for the number of tables. Usually, in the case of two lanes, it is sufficient if there are about four tables.
[0084]
The storage number of the template image is the same as the management table number i.
[0085]
Next, FIG. 23 shows a speed calculation flow. Since the hold is set to 3 at the end of the vehicle tracking as described above, the speed is calculated from the coordinates and the time stored in the table in which the hold is 3 (S7-3). After calculating the speed, the data in the management table is initialized (S7-4).
[0086]
FIG. 24 shows the flow of the vehicle type determination S8. When the speed is obtained by the vehicle tracking process, a vehicle length is obtained from the speed and the existence time TimeS, and the vehicle type is determined based on the obtained vehicle length in S8-3. If the speed is not determined, nothing is executed because the vehicle has not passed. A specific example of the vehicle type determination is as described with reference to FIGS. If the speed is high after the vehicle passes through the detection area and the speed of the vehicle is obtained, the speed is obtained after several tracking processes, for example, 33 milliseconds × 10 times = 330 milliseconds. Although it is possible to determine the vehicle type instantaneously later, in the case of a slow car, the speed is not calculated until the vehicle passes through the screen, so that the speed may be obtained several tens of seconds later. For this reason, when the number of times of vehicle tracking becomes equal to or more than a predetermined value (for example, 20 times), the speed may be obtained and the vehicle type may be determined. In this case, after the update S6-9 of the management table in FIG. 22, the number of tracking times Track [i]. If the count is equal to or more than a predetermined value, the hold may be set to 3 and the speed may be obtained.
[0087]
In the above description, the case where the number of lanes is one has been described. However, when the number of lanes is two or three, if each process is looped for the number of lanes and each table is stored in an array for the number of lanes. Multi-lane support is easily possible.
[0088]
By the way, the above-mentioned vehicle type discrimination method has a problem when traffic jams. That is, when traffic is congested, the vehicle stops in the detection area, and the vehicle existence time is greatly extended. Since this vehicle eventually disappears from the screen, it moves at a certain speed. However, since the process of calculating the vehicle length is obtained from the existence time and the speed, the vehicle length becomes very large.
[0089]
Therefore, the processing for measuring the existence time is improved as shown in FIG. Only when the vehicle is moving, it is counted as the existence time (determined as existence as existence confirmation processing, but not counted as a storage counter), so that the input image f ( t) and the difference processing between the images of the input image f (t-dt) before the predetermined time (t-dt) is executed, S4-16, and the area when the difference image is binarized with the predetermined threshold value is calculated. calculate. If the area is equal to or smaller than the predetermined value, it is determined that the area has not moved, and the existence counter is not updated at S4-17.
[0090]
With this processing, the vehicle length can be measured because the existence time is almost correctly obtained even in a traffic jam. When the moving speed V accelerates or decelerates, an error occurs in the vehicle length. However, the error can be reduced by setting the speed calculation range near the detection area.
[0091]
Also, the stored background image needs to be updated, but it can be handled by averaging the image when there is no general moving object in image processing (new background image = average of old background image and input image) (The processing is stable because it is a narrow range of only the detection area).
[0092]
Although an example in which pattern matching processing is used in the vehicle tracking processing for speed calculation is shown, other speed calculation methods can be used. In addition, in the presence check processing, a method of determining based on the similarity between the background image and the input image is stable, but a method of monitoring the average density of the background difference may be considered.
[0093]
In addition, in the state where only the tail lamp is visible at night, the effect of the present invention does not occur (the vehicle length is not determined). is necessary. Processing in other places is not a problem because the tail lamp can be detected and tracked to determine the speed. In the future, the sensitivity of the camera will improve, and it may be unnecessary to use the lighting even at night, but it is necessary now.
[0094]
In the above example, when the vehicle moves in the same direction, particularly, the vehicle is photographed from behind, and the number, speed, and vehicle type are determined.
[0095]
However, there are many places where one-lane roads on one side are face-to-face. In this case, as shown in FIG. 26, the detection area is set on the lower side D1 of the screen in the left lane and on the upper side D2 of the screen as shown in FIG. 26, and the vehicle is tracked (101 and 102 indicate tracking patterns). Here, as shown in FIG. 27, the lapse of time such as vehicle detection, passage, and tracking in the left lane starts the vehicle tracking processing from the time when the vehicle passes through the detection area, and after the tracking is completed, speed calculation and vehicle type determination are performed. . On the other hand, in the case of the right lane, vehicle tracking starts at the moment when the vehicle enters the detection area as shown in FIG. 28, and after the tracking is completed, speed calculation and vehicle type determination are performed. This means that if the vehicle pattern is tracked immediately after passing the detection area, it will track the roof of the vehicle, etc., which will affect the vehicle height and reduce the speed measurement accuracy. This is because they need to be tracked. Therefore, when the vehicle enters the detection area, the pattern on the front of the vehicle is extracted and tracked. In this way, by changing the speed tracking processing method, it is possible to cope with face-to-face traffic.
[0096]
By the way, as shown in FIG. 29, the field of view of the camera is photographed directly below and the detection area is set at the center of the screen at D1 and D2. This makes it possible to determine the number, speed, and vehicle type of the up and down lanes by the same processing. That is, it is possible to obtain the speed of the vehicle as well as going up and down after passing through the detection area. Further, since a general television camera has a horizontal / vertical ratio of 4: 3, it is more preferable to install the camera horizontally and take a picture since a long field of view can be taken in the lane direction as shown in FIG.
[0097]
In the case of ascending or descending two-way traffic, it is effective to point the camera directly below. This is very simple in installation, and has an effect that the recognition processing can be made the same.
[0098]
In addition, the road is photographed with a camera or the like, and a vehicle detection area is provided in the image, and the presence / absence information of vehicles passing through this area, time series information of density, time series data of edge density, and passing speed are obtained. Based on these information, it is possible to determine whether the vehicle is large or small based on the vehicle length, and to determine the shape of a cargo or a bus from the time series data of density and edge density.
[0099]
Further, it is very difficult to cut out a vehicle from one image and determine the type of the vehicle. However, since the temporal change of the vehicle passing through the detection area is used, the characteristics of the vehicle can be accurately extracted, so that the type of the vehicle can be easily determined. Is possible.
[0100]
In addition, since the image processing is used, verification of the recognition result is easy, and accurate vehicle type determination is possible because the determination is performed based on the vehicle length. Depending on the set value of the vehicle length, classification into large, medium, and small is also possible.
[0101]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, the accuracy of vehicle type discrimination in a vehicle type discrimination apparatus can be improved.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a processing unit of the present invention.
FIG. 2 is a diagram illustrating an example of image processing hardware used in the present invention.
FIG. 3 is a diagram illustrating a photographing example of an image sensor.
FIG. 4 is a diagram illustrating an example of a process of determining the presence or absence of a vehicle;
FIG. 5 is a diagram showing an example in which a differentiation process is used in the process of determining the presence or absence of a vehicle.
FIG. 6 is a diagram illustrating a case where a state of presence / absence of a vehicle is stored.
FIG. 7 is a diagram illustrating time-series data of an input density obtained when a vehicle is present.
FIG. 8 is a diagram illustrating an example of a process of obtaining the end coordinates of the vehicle when the vehicle has passed.
FIG. 9 is a diagram illustrating a process of registering the vicinity of the vehicle end coordinates in a template image.
FIG. 10 is a diagram illustrating a process of tracking a vehicle.
FIG. 11 is a diagram illustrating a spatial position of a camera.
FIG. 12 is a diagram illustrating a flow of vehicle type determination.
FIG. 13 is a diagram illustrating a relationship between a camera angle and a vehicle existence time.
FIG. 14 is a diagram illustrating normalization of the number of density change information.
FIG. 15 is a diagram illustrating a flow of a process of determining a density change and an edge change used for vehicle type determination.
FIG. 16 is a diagram showing a configuration in a case where a density change and an edge change are processed by a neural network to determine a vehicle type.
FIG. 17 is a diagram showing a configuration of vehicle type discrimination by a neural network dedicated to a small vehicle.
FIG. 18 is a diagram illustrating an overall process of a vehicle type determination process.
FIG. 19 is a diagram showing a processing flow of a vehicle presence confirmation processing.
FIG. 20 is a diagram showing a template registration processing flow during vehicle tracking.
FIG. 21 is a diagram showing the contents of a management table during vehicle tracking.
FIG. 22 is a diagram showing a vehicle tracking processing flow.
FIG. 23 is a diagram illustrating a flow of calculating a passing speed.
FIG. 24 is a diagram showing a vehicle type determination processing flow.
FIG. 25 is a diagram showing a flow of a vehicle presence confirmation process corresponding to a traffic jam.
FIG. 26 is a diagram to which the present invention is applied in the case of two-way traffic.
FIG. 27 is a diagram showing a lapse of time such as vehicle detection, passage, and tracking in the left lane.
FIG. 28 is a diagram showing a lapse of time such as vehicle detection, passage, and tracking in the right lane.
FIG. 29 is a diagram showing an aspect in which the field of view of the camera is set right below.
FIG. 30 is a diagram illustrating a field of view of the camera when the camera is set to be in a horizontal position.
[Explanation of symbols]
Reference numeral 3 denotes a vehicle presence confirmation unit, 4 denotes a density change detection / storage unit, 5 denotes an edge change detection / storage unit, 6 denotes a vehicle tracking unit, 7 denotes a speed calculation unit, 8 denotes a vehicle type determination unit, and 20 denotes an image processing device.

Claims (3)

道路を撮影するテレビカメラの映像を処理し車種を判別する車種判別システムにおいて、
テレビカメラの映像を画像メモリに取り込む画像入力手段と、
入力した画像に車両を検知する検知領域を設定する手段と、
この検知領域の画像から、検知領域の画像濃度の時系列データと、検知領域の画像におけるエッジ濃度の時系列データとを求める検出手段と、
前記検知領域を通過する車両の車速を求める車速計測手段と、
前記画像濃度の時系列データと、エッジ濃度の時系列データと、前記車速とから車種を判別する車種判別手段とを有することを特徴とする車種判別システム。
In a vehicle type discrimination system that processes images of a television camera that photographs a road and determines a vehicle type,
Image input means for capturing the image of the television camera into the image memory,
Means for setting a detection area for detecting a vehicle in the input image;
Detecting means for obtaining, from the image of the detection area, time-series data of the image density of the detection area and time-series data of the edge density in the image of the detection area;
Vehicle speed measurement means for determining the speed of a vehicle passing through the detection area;
Vehicle type identification system comprising: the time-series data of the image density, the time-series data of the edge density, and vehicle type discriminating means for discriminating the vehicle type from said vehicle speed.
請求項1において、
前記検出手段は、前記検知領域の画像から、検知領域に車両が存在している画像の濃度の時系列データを求める手段と、当該画像におけるエッジ濃度の時系列データを求める手段を備え、
前記車種判別手段は、前記検知領域における画像濃度の時系列データから車両が検知領域を通過する時間を求め、
該通過時間と前記車速計測手段より求めた速度から、検知領域を通過する車両の車長を求めることを特徴とする車種判別システム。
In claim 1,
The detection unit includes, from the image of the detection region, a unit that obtains time-series data of density of an image in which a vehicle is present in the detection region, and a unit that obtains time-series data of edge density in the image.
The vehicle type determination means obtains a time when the vehicle passes through the detection area from the time-series data of the image density in the detection area,
A vehicle type discrimination system wherein a length of a vehicle passing through a detection area is obtained from the passing time and the speed obtained by the vehicle speed measuring means .
請求項2において、
前記車速計測手段は、
前記エッジ濃度から車両の末尾を特定する手段と、
検知した末尾を追跡して求めた末尾の位置の変化量から車両の通過速度を求める手段とを有することを特徴とする車種判別システム。
In claim 2,
The vehicle speed measurement means,
Means for identifying the end of the vehicle from the edge density,
Means for calculating the passing speed of the vehicle from the amount of change in the position of the tail determined by tracking the detected tail .
JP2000076319A 2000-03-14 2000-03-14 Vehicle type identification system Expired - Fee Related JP3541774B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000076319A JP3541774B2 (en) 2000-03-14 2000-03-14 Vehicle type identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000076319A JP3541774B2 (en) 2000-03-14 2000-03-14 Vehicle type identification system

Publications (2)

Publication Number Publication Date
JP2001256485A JP2001256485A (en) 2001-09-21
JP3541774B2 true JP3541774B2 (en) 2004-07-14

Family

ID=18594079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000076319A Expired - Fee Related JP3541774B2 (en) 2000-03-14 2000-03-14 Vehicle type identification system

Country Status (1)

Country Link
JP (1) JP3541774B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4635536B2 (en) * 2004-09-21 2011-02-23 住友電気工業株式会社 Traffic flow measurement method and apparatus
JP4848698B2 (en) * 2005-08-04 2011-12-28 住友電気工業株式会社 Vehicle sensing device and vehicle sensing method
JP4994955B2 (en) * 2007-05-28 2012-08-08 中部電力株式会社 Mobile object identification device and mobile object identification program
JP5115390B2 (en) * 2008-08-04 2013-01-09 住友電気工業株式会社 Mobile object identification device, computer program, and learning method of mobile object identification device
JP5138807B2 (en) * 2011-12-05 2013-02-06 中部電力株式会社 Mobile object identification device and mobile object identification program
JP5780979B2 (en) * 2012-02-17 2015-09-16 株式会社東芝 Vehicle state detection device, vehicle behavior detection device, and vehicle state detection method
JP2015046126A (en) * 2013-08-29 2015-03-12 株式会社東芝 Vehicle detector
JP2019040539A (en) * 2017-08-29 2019-03-14 アルパイン株式会社 Travel support system
JP6653719B2 (en) * 2018-01-30 2020-02-26 三菱電機インフォメーションシステムズ株式会社 State determination device and state determination program
JP7228151B2 (en) * 2018-03-26 2023-02-24 東日本高速道路株式会社 Traffic congestion prediction system, traffic congestion prediction method, learning device, prediction device, program, and learned model
JP7119493B2 (en) * 2018-03-28 2022-08-17 沖電気工業株式会社 Recognition device, recognition method and program

Also Published As

Publication number Publication date
JP2001256485A (en) 2001-09-21

Similar Documents

Publication Publication Date Title
JP2917661B2 (en) Traffic flow measurement processing method and device
US9239955B2 (en) Method and system for vehicle classification
CN104778444B (en) The appearance features analysis method of vehicle image under road scene
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
US9633267B2 (en) Robust windshield detection via landmark localization
US20050100192A1 (en) Moving object detection using low illumination depth capable computer vision
KR20030080284A (en) System and method for judge the kind of vehicle
JP3541774B2 (en) Vehicle type identification system
JPH08329393A (en) Preceding vehicle detector
KR20200141834A (en) Apparatus and method for image based traffic signal control
JPH11282999A (en) Instrument for measuring mobile object
JP2002024986A (en) Pedestrian detector
JP6678552B2 (en) Vehicle type identification device and vehicle type identification method
JPH08233525A (en) Vehicle-type discriminating apparatus
JPH1186185A (en) Vehicle-type discriminating device
JP2002344952A (en) License plate recognition device and method
JP3453952B2 (en) Traffic flow measurement device
JPH11213284A (en) Vehicle kind discrimination device
Haselhoff et al. Radar-vision fusion for vehicle detection by means of improved haar-like feature and adaboost approach
JPH11353580A (en) Method and device for discriminating kind of vehicle at night
JPH0954891A (en) Method for discriminating vehicle type by image processing and device therefor
JPH11175883A (en) Traffic volume measuring instrument and signal control device
JP2946620B2 (en) Automatic number reading device with speed measurement function
JPH06309588A (en) Vehicle kind discriminating device
JPH05312818A (en) Speed measuring device and method through image processing

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040322

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090409

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090409

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100409

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110409

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120409

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120409

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140409

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees