JP3605955B2 - Vehicle identification device - Google Patents
Vehicle identification device Download PDFInfo
- Publication number
- JP3605955B2 JP3605955B2 JP21934296A JP21934296A JP3605955B2 JP 3605955 B2 JP3605955 B2 JP 3605955B2 JP 21934296 A JP21934296 A JP 21934296A JP 21934296 A JP21934296 A JP 21934296A JP 3605955 B2 JP3605955 B2 JP 3605955B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- feature
- transformed
- perspective
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【産業上の利用分野】
この発明は、道路上などに位置する車輌を判別するための車輌判別装置に関する。
【0002】
【従来の技術】
近年、道路の上方にカメラを設置して道路上の所定位置を撮像し、得られた画像から車輌を示す特徴を抽出し、その抽出結果の時間的な推移から道路上における車輌の流れを計測する交通流計測装置が開発されている。
【0003】
前記した車輌の特徴を抽出する代表的な方法としては、入力画像の背景差分をとる方法があげられる。この方法は、あらかじめ背景画像として道路上に対象物が存在しない画像を記憶しておき、カメラからの画像とこの背景画像との差分を車輌の画像部分として抽出するものである(以下この方法を「背景差分法」という)。
【0004】
上記の背景差分法のほかには、1フレーム前の入力画像を記憶しておき、現フレームの入力画像からこの直前の入力画像を差し引いて道路上の車輌の位置の変化を抽出する方法(以下「フレーム差分法」という)や、入力画像に空間微分を施して車輌の輪郭を示すエッジ成分を抽出する方法(以下「空間差分法」という)などがある。
【0005】
【発明が解決しようとする課題】
背景差分法は、あらかじめ記憶された背景画像と異なる部分が抽出されることになるので、実際の車輌の画像部分のみならず、車輌の影の画像を誤抽出してしまうという問題が生じる。
この問題を解決するために、差分値が負値をとる特徴は車輌として認識しないように設定することが提案されているが、この方法を用いると、色彩の濃い車輌を検出することができなくなる。
【0006】
フレーム差分法や空間差分法を用いた場合も、上記と同様、車輌の影が誤抽出されるという問題が生じるため、道路上の車輌の台数や車種を正確に判別することなど、到底不可能である。
【0007】
この発明は上記問題に着目してなされたもので、観測位置を撮像して得られた2次元画像を、道路面などの車輌の支持面を含む仮想水平面上に透視変換し、この透視変換された画像上の特徴を用いて車輌を正確に判別することを技術課題とする。
【0008】
【課題を解決するための手段】
車輌の走行路の路面を含む仮想水平面を一平面とする空間座標系を設定し、前記走行路を上方から撮像して得られた画像を、前記空間座標系に対するカメラ座標系の回転角度、カメラの空間座標位置および焦点距離によるパラメータに基づき、前記仮想水平面上に透視変換すると、高さのある対象物の画像部分は、この対象物の実際の位置に対応する点から離れた場所に投影される。この投影点の位置ずれ量は、対象物が高い位置にあるほど、また空間座標点が視点から離れるほど、大きくなるので、車輌など高さデータを有する対象物を透視変換すると、実際の対象物より歪んだ形状の特徴が得られる。一方、影など路面上にある2次元対象物は、その対象物の実際の位置に投影されるため、透視変換後も、実際の対象物を真上から観察した場合と同様の形状,大きさの特徴が得られる。
【0009】
各請求項にかかる発明は、上記の原理を用いてなされたもので、請求項1にかかる車輌判別装置は、車輌の走行路の上方に前記車輌を前面側から撮像するように設置された撮像手段から2次元画像を入力する画像入力手段と、入力された2次元画像を前記走行路の路面を含む仮想水平面上に透視変換する画像変換手段と、前記画像変換手段により透視変換された画像について特徴抽出を行う特徴抽出手段と、車輌に対応する直方体モデルを記憶するモデル記憶手段と、前記特徴抽出手段により抽出された特徴を、前記仮想水平面上に前記直方体モデルを透視変換して得られる特徴モデルデータと比較し、その比較結果に基づき前記走行路に車輌があるか否かを判別する判別手段とを備える。前記判別手段は、前記特徴抽出手段により抽出された特徴に外接長方形を設定するとともに、この外接長方形の下辺の一端点に直方体モデルの下面前端の一端点を対応させて、その直方体モデルの透視変換像に対する外接長方形の各辺の大きさを前記特徴モデルデータとして求め、前記特徴に設定された外接長方形の各辺の大きさを前記特徴モデルデータと比較することにより、前記特徴が車輌に相当するか否かを判別する。
【0010】
請求項2の発明では、前記特徴抽出手段は、前記画像変換手段により透視変換された画像と、車輌が存在しない前記走行路を撮像して得られた背景画像の透視変換画像との差分処理により特徴抽出を行うように構成される。
【0011】
請求項3の発明では、前記特徴抽出手段は、前記画像変換手段により透視変換された画像からエッジ成分を抽出し、抽出された各エッジ成分のうち、所定の距離範囲内にあるエッジ成分を統合した結果を透視変換画像上の特徴とするように構成される。
【0012】
請求項4の発明では、前記特徴抽出手段は、前記画像変換手段により透視変換された画像と、1段階前の入力画像の透視変換画像との差分処理により画像上の変動部分を求めた後、これら変動部分のうち所定の距離範囲内にある変動部分を統合した結果を透視変換画像上の特徴とするように構成される。
【0019】
請求項5の発明にかかる車輌判別装置は、車輌の走行路の上方に前記車輌を前面側から撮像するように設置された撮像手段から2次元画像を入力する画像入力手段と、入力された2次元画像を前記走行路の路面を含む仮想水平面上に透視変換する画像変換手段と、前記画像変換手段により透視変換された画像について特徴抽出を行う特徴抽出手段と、車輌に対応する直方体モデルを記憶するモデル記憶手段と、前記特徴抽出手段により抽出された特徴を、前記仮想水平面上に前記直方体モデルを透視変換して得られる特徴モデルデータと比較し、その比較結果に基づき前記特徴が車輌であるか否かを仮判別する仮判別手段と、過去複数回の入力画像から生成された透視変換画像間において、前記走行路の車線に沿って移動する特徴を同一対象物として対応づけるとともに、この対象物についての仮判別結果の推移を追跡する追跡処理手段と、前記追跡処理手段による追跡処理結果に基づき、一貫して「車輌である」と判別されている対象物を、最終的に車輌として判別する最終判別手段とを備える。前記仮判別手段は、前記特徴抽出手段により抽出された特徴に外接長方形を設定するとともに、この外接長方形の下辺の一端点に直方体モデルの下面前端の一端点を対応させて、その直方体モデルの透視変換像に対する外接長方形の各辺の大きさを前記特徴モデルデータとして求め、前記特徴に設定された外接長方形の各辺の大きさを前記特徴モデルデータと比較することにより、前記特徴が車輌に相当するか否かを判別する。
【0020】
【作用】
請求項1の発明では、車輌の走行路の上方に前記車輌を前面側から撮像するように設置された撮像手段により前記走行路を撮像して得られた2次元画像を、前記走行路の路面を含む仮想水平面上に透視変換した後、この透視変換画像から抽出した特徴を、仮想水平面上に車輌に対応する直方体モデルを透視変換して得られる特徴モデルデータと比較することによって、観測位置における車輌を判別するようにしたので、観測位置における車輌の高さを反映した特徴を用いて、車輌と影などの2次元対象物とを明確に区別して認識することが可能となる。
【0021】
請求項2の発明では、入力画像を透視変換して得られる画像と、車輌が存在しない前記走行路を撮像して得られた背景画像の透視変換画像との差分をとることにより、背景になかった画像部分が特徴として抽出される。
【0022】
請求項3の発明では、入力画像を透視変換して得られる画像上で、所定の距離範囲内にあるエッジ成分を統合した結果が、特徴として抽出される。また請求項4の発明では、透視変換画像上における1段階前の透視変換画像に対する変動部分のうち、所定の距離範囲内にある変動部分を統合した結果が特徴として抽出される。
【0027】
請求項5の発明では、車輌の走行路の上方に前記車輌を前面側から撮像するように設置された撮像手段からの画像を入力し、各段階における入力画像について、それぞれ請求項1と同様の方法を用いて、透視変換画像上の特徴が車輌であるか否かが仮判別される。この仮判別結果は同一対象物毎に追跡され、最終的に一貫して「車輌である」と判別されている対象物が車輌として判別される。これにより車輌が撮像位置に近づくにつれ、車輌と影との透視変換結果に差異が認められなくなるという問題が解消される。
【0028】
【発明の実施の形態】
図1に、この発明にかかる車輌判別装置が組み込まれた交通流計測装置の設置例を示すと共に、この車輌判別処理の原理を図2〜図9および数式(1)〜(44)を用いて説明する。さらに図10,11,15,18,19,21,22,25により、上記各請求項にかかる車輌判別装置の好適な実施例を説明する。
【0029】
【実施例】
図1は、交通流計測装置の一設置例を示す。
この交通流計測装置は、道路30の近傍に支柱31を配備し、この支柱31の上部位置にカメラ32を、下部位置に制御ボックス33を、それぞれ取り付けて構成されるもので、制御ボックス33の内部には、この発明にかかる車輌判別装置や計測装置が組み込まれている。
【0030】
この実施例の車輌判別装置は、カメラ32より入力された2次元画像をフレーム単位で道路30上の仮想水平面上に透視変換し、この透視変換画像について後記する特徴抽出処理や車輌の判別処理を実行し、さらにこの判別結果を、道路上の車輌の位置データに編集して計測装置へと出力する。計測装置は、各フレーム毎に入力されるデータの時間的な推移により、道路上の車輌の流れを示すデータを作成し、図示しないセンター装置などに伝送する。
【0031】
前記透視変換処理は、あらかじめ所定の位置(例えば前記支柱の設置位置)を原点とする空間座標系(以下単に「空間座標系」という)を定めておき、この空間座標系に対するカメラ座標系の回転角度などにより決定されるパラメータを用いて、入力画像上の各画素を前記仮想水平面上の座標に変換するものである。
前記パラメータは、計測処理に先立ち、空間座標が既知の点を用いたキャリブレーションによりカメラ座標系の回転角度を算出した後、さらにこの算出結果を後記する(28)〜(35)式にあてはめることにより算出される。
【0032】
つぎに図2を用いて、前記車輌判別装置による透視変換処理および前記パラメータの算出処理の原理を、順を追って説明する。
図2中、Xw ,Yw ,Zw の各軸で示される座標系は前記した空間座標系を、Xc ,Yc ,Zc の各軸で示される座標系は前記カメラ座標系を、それぞれ示す。またOはカメラの撮像位置を、Aは空間中の任意の1点を、それぞれ示す。
【0033】
いま前記中心点Oがカメラ座標系の原点Oc (0,0,0)に対応しており、空間座標系のXw ,Yw ,Zw 各軸に対しカメラ座標系のXc ,Yc ,Zc 軸がそれぞれ角度α,β,γだけ回転していると想定すると、点Oの空間座標を(x0 ,y0 ,z0 ),点Aの空間座標を(xA ,yA ,zA )としたときの点Aのカメラ座標(x1 ,y1 ,z1 )は、これら回転角度α,β,γにより決定されるパラメータs1 ,s2 ,s3 ,t1 ,t2 ,t3 ,u1 ,u2 ,u3 に基づき、つぎの(1)〜(3)で表される。
なお上記各パラメータは、それぞれ(4)〜(12)式で表される。また前記x1 ,y1 は、点Aの入力画像上の対応点A´のx,y座標に、z1 はカメラの焦点距離Fに、それぞれ相当する。
【0034】
【数1】
【0035】
【数2】
【0036】
【数3】
【0037】
【数4】
【0038】
【数5】
【0039】
【数6】
【0040】
【数7】
【0041】
【数8】
【0042】
【数9】
【0043】
【数10】
【0044】
【数11】
【0045】
【数12】
【0046】
一方、直線OA,および道路30を含む仮想水平面は、それぞれつぎの(13)(14)式により表される。
【0047】
【数13】
【0048】
【数14】
【0049】
いま前記点A´を含む画像を前記仮想水平面上に透視変換するものとすると、点A´は前記直線OAと仮想水平面との交点B(xB ,yB ,0)の位置に投影される。したがって前記(13)(14)式より、xB ,yB は、つぎの(15)(16)式で表される
【0050】
【数15】
【0051】
【数16】
【0052】
さらにx´=xA −x0 /zA −z0 , y´=yA −y0 /zA −z0 ,z´=1/zA −z0 とおくと、前記(1)〜(3)式および(15)(16)式は、それぞれ(17)〜(21)式に変形される。
【0053】
【数17】
【0054】
【数18】
【0055】
【数19】
【0056】
【数20】
【0057】
【数21】
【0058】
上記(17)〜(19)式よりz´を消去することにより、x´,y´は、それぞれつぎの(22)(23)式により表される。さらにこの(22)(23)式を用いて前記(20)(21)式を変形することにより、(24)(25)式が得られる。
【0059】
【数22】
【0060】
【数23】
【0061】
【数24】
【0062】
【数25】
【0063】
よって、前記xB ,yB は、(28)〜(35)式により定義されるパラメータa,b,c,d,e,f,g,hを用いた(26)(27)式により算出される。
【0064】
【数26】
【0065】
【数27】
【0066】
【数28】
【0067】
【数29】
【0068】
【数30】
【0069】
【数31】
【0070】
【数32】
【0071】
【数33】
【0072】
【数34】
【0073】
【数35】
【0074】
したがって、前記カメラ32の中心点Oの空間座標(x0 ,y0 ,z0 ),キャリブレーションにより算出されたカメラ座標系の回転角度α,β,γ,およびカメラ32の焦点距離Fを、前記(28)〜(35)式に代入して各パラメータa〜hを求めておき、カメラ32からの入力画像の各画素毎に、そのx,y座標を前記(26)(27)式にあてはめることにより、各画素の投影点の座標を算出することができる。
【0075】
前記したように、空間中の点Aに対応する入力画像上の点A´を仮想水平面上に透視変換すると、この点Aにおける画像データは、カメラ中心点Oと点Aとを結ぶ直線と仮想水平面との交点に投影される。したがってこの直線OAの傾きが緩慢であるほど、仮想水平面上の投影点は、点Aを真上方向から透視した際の投影点(すなわち点Aのx,y座標により特定される点)から離れた場所に位置することになる。言い換えれば、点Aが高い位置にあるほど、もしくは点Aがカメラから離れた位置にあるほど、その投影点は、本来の点Aのあるべき位置から離れた場所に位置するので、高さ成分を有する対象物を透視変換したとき、実際の対象物を真上位置より見た場合とは異なる大きさ,形状を有する特徴が得られることになる。
【0076】
一方、空間座標におけるz座標が0となる点の画像データは、実際と同じ位置に投影されるため、影など2次元対象物は、透視変換後も、実際の対象物を真上位置より見た場合と同様の大きさ,形状の特徴を有する。
【0077】
図3は、カメラ32からの入力画像の一例であって、道路の車線を示す画像部分34のほかに、車輌やその影の画像35,36などが含まれている。
図4は、前記図3の入力画像を前記水平面上に透視変換した結果を示すもので、透視変換画像中、前記画像35の変換画像35´の形状には、その高さ成分を反映した歪みが現れている。これに対し、画像36の変換画像36´の形状は、実際の影を真上位置から観察した結果と同様になる。
【0078】
図5は、観測位置における背景画像を仮想水平面上に透視変換して得られた画像(以下この画像を「背景変換画像」という)を示すもので、車線の画像部分34の変換画像34´が現れている。また図6は、前記図4の透視変換画像とこの背景変換画像との差分をとった後、2値化処理した結果を示すもので、前記変換画像35´,36´の形状を示す特徴37A,37Bが抽出されている。
【0079】
この車輌判別装置では、各特徴37A,37Bにそれぞれ外接長方形38A,38Bを設定し、各長方形38A,38B毎に、各辺の長さAwx,Awy,Bwx,Bwyを、それぞれ車輌の代表的な特徴を示すデータ(以下これを「特徴モデルデータ」という)と比較し、その比較結果からその特徴が車輌を意味するものであるか否かを判別するようにしている。
【0080】
つぎに上記特徴モデルデータの算出原理について説明する。
カメラの中心点Oの空間座標を(0,0,k),空間中の任意の1点Pの空間座標を(xw ,yw ,zw ),この点Pを透視変換して得られる投影点P´の座標を(xr ,yr ,0)とすると、図7から明らかなように、点P´のx,y座標xr ,yr は、つぎの(36)(37)式により算出される。
【0081】
【数36】
【0082】
【数37】
【0083】
ここで説明を簡単にするために、車輌のモデルとして、図8に示すような、幅Vx ,奥行きVy ,高さVz の直方体を想定し、この直方体モデルの各頂点のうち、前面の左端頂点Rが座標(xR0,yR0,0)の位置にあるものとすると、直方体モデル上でこの点Rに最も遠い頂点Sの座標(xSW,ySW,zSW)は、つぎの(38)〜(40)式により求められる。
【0084】
【数38】
【0085】
【数39】
【0086】
【数40】
【0087】
したがって、前記(38)〜(40)式を(36)(37)式に当てはめることにより、頂点Sを仮想水平面上に透視変換した場合の投影点S´のx,y座標xSR,ySRを算出するための式として、(41)(42)式が得られる。
【0088】
【数41】
【0089】
【数42】
【0090】
一方、前記道路面上に位置する点Rの投影点R´は、透視変換前と同じ位置に変換されるので、図9に示すように、前記直方体モデルの透視変換画像40に外接する長方形41を設定すると、この外接長方形41の各辺Wx ,Wy はつぎの(43)(44)式により算出される。
【0091】
【数43】
【0092】
【数44】
【0093】
よって前記図6に示した各特徴37A,37B毎に、その外接長方形38A,38Bの左端点39A,39Bが前記直方体モデルの頂点Rに対応するものと想定し、この左端点39A,39Bのx,y座標を上記(41)〜(44)式の(xR0,yR0)にあてはめることにより、前記Wx ,Wy を算出し、これを前記特徴モデルデータとして設定する。
【0094】
したがって、透視変換画像上の各特徴部分毎に、上記の方法を用いて特徴モデルデータWx ,Wy を算出するとともに、その特徴部分に外接長方形を設定し、この外接長方形の各辺の長さ(図6に示したAwx,Awy,Bwx,Bwy)と特徴モデルデータWx ,Wy の算出値とを比較する。この比較により有意な差が認められなければ、その特徴は車輌に相当するものであると判定される。
【0095】
なお外接長方形の各辺を比較する代わりに、前記直方体モデルを透視変換画像上の特徴抽出位置に仮想的に透視変換し、この透視変換結果と実際の特徴とのマッチング処理を行うようにすれば、さらに精度の高い判別結果を得ることが可能となる。
【0096】
図10は、上記原理が導入された車輌判別装置の一構成例であって、画像入力部1,透視変換処理部2,パラメータ記憶部3,特徴抽出部4,モデル記憶部6,判定部5,出力部7などから構成される。
【0097】
前記画像入力部1は、前記カメラ32からのアナログ量の画像データをディジタル変換するA/D変換回路や変換処理後の画像データを格納する画像メモリなどから構成される。パラメータ記憶部3には、前記(28)〜(35)式により算出されたパラメータa,b,c,d,e,f,g,hが記憶されている。透視変換処理部2は、これらパラメータと入力画像中の各画素のx,y座標とを前記(26),(27)式に代入することにより、各画素の透視変換点の座標を算出し、この算出結果に基づき、入力画像の透視変換処理を実行する。
【0098】
なお、前記パラメータ記憶部3の代わりに、入力画像の各画素についての透視変換先の座標が記憶されたルックアップテーブルを設け、画像入力時に、各画素を、このルックアップテーブル中の対応する設定値に基づく位置に変換するようにすれば、変換処理の高速化を実現できる。
【0099】
前記特徴抽出部4は、背景差分処理部8,2値化処理部9,背景画像記憶部10などにより構成される。
背景画像記憶部10には、前記図5に示したような背景変換画像が記憶されており、背景差分処理部8は、透視変換処理部2により生成された透視変換画像の各画素データとこの背景変換画像の対応する画素データとの差分を求める。2値化処理部9は、この差分処理により生成された差分画像を所定のしきい値により2値化処理するもので、これにより前記図6に示したように、車輌や影の画像を透視変換した結果を示す特徴の抽出が行われる。
【0100】
前記モデル記憶部6には、前記図8に示した車輌の直方体モデルが記憶されている。判定部5は、前記2値化処理部9により抽出された各特徴について、前記した外接長方形を設定するとともに、各外接長方形毎に、その左端点(図6中の39A,39B)と直方体モデルの前記頂点Rとを対応づけて、前記(41)〜(44)式を実行し、それぞれの特徴に応じた特徴モデルデータWx ,Wy を算出する。さらに判定部5は、各外接長方形毎に、その各辺の長さを算出されたWx ,Wy と比較し、その比較結果から特徴が車輌を示すものであるか否かを判定する。
【0101】
外接長方形の各辺と特徴モデルデータWx ,Wy との間に有意な差が認められないとき、判定部5は、この特徴を車輌に相当するものと判定する。
出力部7は、この判定結果に基づき、特徴抽出位置から道路上の車輌の位置などを認識し、その認識結果を後段の交通流計測装置へと出力する。
【0102】
図11は、判別処理装置の他の構成例を示す。
この実施例も、基本的に前記図10と同様の構成をとるが、特徴抽出部4として、エッジ抽出部11とエッジ統合部12とを含んでいる。
【0103】
エッジ抽出部11は、前記透視変換画像に微分処理などを行って、水平方向(x軸方向)のエッジ成分を抽出するためのもので、エッジ統合部12は、抽出された各エッジ成分のうち、車の進行方向(この実施例ではy軸方向)において所定の距離範囲内にあるエッジ成分を統合し、その統合結果を特徴として出力する。
【0104】
図12は、前記図4の透視変換画像に対するエッジ画像を、図13はこのエッジ画像中のエッジ成分を統合した画像を、それぞれ示す。
図示例から明らかなように、透視変換画像上の影に対応する部分では、抽出されるエッジ成分が少なくなるため、統合処理対象とならず、ノイズとして除去される。一方、車輌に対応する画像部分については、統合処理により複数個の特徴(図中、42a,42b,42cと示す)が抽出される。
【0105】
判定部5は、抽出された各特徴42a,42b,42cが含まれる矩形領域43を設定するとともに、前記図10と同様の方法により、この矩形領域43の左端点44を前記直方体モデルの点Rと対応づけて特徴モデルデータWx ,Wy を算出し、この算出結果を前記矩形領域43の各辺の長さCwx,Cwyと比較する。
【0106】
上記の比較処理により、各辺の長さCwx,Cwyと前記特徴モデルデータWx ,Wy との間に有意な差が認められなかった場合、判定部5は、図14に示すように、前記各特徴42a,42b,42cを包括するような画像領域45を設定し、この画像領域45を車輌に対応するものとして判定する。
【0107】
なお透視変換画像から抽出する特徴は、エッジ成分に限らず、例えばフレーム差分処理により、車輌の移動部分に対応する特徴を抽出するようにしても良い。図15は、特徴抽出をフレーム差分処理により行う場合の判定処理装置の構成例を示すもので、特徴抽出部4は、フレーム差分処理部13,2値化処理部14,抽出結果統合部15などから構成される。
【0108】
フレーム差分処理部13は、1段階前の入力画像についての透視変換画像を記憶するメモリを具備しており、透視変換処理部2から入力された最新の透視変換画像の各画素について、前記メモリ内の透視変換画像の対応画素との差分演算を実行する。2値化処理部14は、各画素毎の差分値を所定のしきい値で2値化処理するもので、その結果、図16に示すような複数個の特徴46が抽出され、抽出結果統合部15へと出力される。
【0109】
抽出結果統合部15は、抽出された各特徴46について、y軸方向において所定の距離範囲内にある特徴を統合するもので、統合対象とならなかったされた特徴は、ノイズとして除去される。
図17は、図16の抽出結果を統合した結果を示すもので、判定部5は、この統合結果について、前記図10の実施例と同様、矩形領域47を設定するとともに特徴モデルデータWx ,Wy を算出し、その算出結果と矩形領域47の各辺Dx ,Dy と比較する。この結果、両者の間に有意差が認められなかったとき、判定部5は、前記と同様、各特徴部分を包括する画像領域を、車輌に対応するものとして判定する。
【0110】
なお特徴抽出は、1つの方法に限らず、複数種の方法により抽出された特徴部分を統合するようにしても良い。
図18は、2種類の特徴抽出方法を導入した場合の判定処理装置の構成例であって、特徴抽出部4は、エッジ抽出部11,フレーム差分処理部13,2値化処理部14,処理結果統合部16により構成される。
【0111】
エッジ抽出部11,フレーム差分処理部13,2値化処理部14は、前記図11,15と同様の構成のもので、処理結果統合部16は、各処理により抽出された特徴部分を合成した後、前記各実施例と同様、y軸方向において所定距離範囲内にある特徴を統合し、その統合結果を判定部5に出力する。
【0112】
ところで前記した各抽出結果は、昼間など十分な明度のある環境下で撮像が行われた場合に得られるもので、夕暮れ時など背景色と車輌の色とのコントラストが明確でない条件下においては、フロントガラスなど明度の低い部分の画像が抽出されないことがある。この結果、抽出される特徴部分は、複数の特徴部分に分断されたものとなり正確に車輌を判別することは不可能となる。
【0113】
図19は、上記問題を解決するための判定処理装置の構成例であって、特徴抽出部4には、前記図10の構成に加えて、抽出された特徴から車頭部分の候補となる特徴を抽出するための車頭候補抽出部17が配備されている。
【0114】
いま背景差分処理部8および2値化処理部9により、図20に示すような複数個の特徴48a,48bが抽出されたとき、車頭候補抽出部17は、これら各特徴部分の中から、前方部(図20中、破線で囲んだ部分)が平坦形状であって、かつその幅長さが車輌幅に近似する特徴を、車頭部分の候補として抽出する。この結果は判定部5へと出力され、各車頭候補の位置関係から車輌の判定が行われる。
【0115】
すなわち2個以上の車頭候補が車輌の進行方向であるy軸方向に並んでいる場合、判定部5は、これら車頭候補の距離(図20中、Hで示す)を算出するとともに、前記直方体モデルが前方の車頭候補に位置する場合の特徴モデルデータWy を算出し、この算出結果と前記距離Hとを比較する。これにより距離がモデルデータWy よりも小さい場合には、後方の車頭候補が候補から除去され、残された車頭候補の抽出位置に車輌が存在するものと判定される。
【0116】
なお車頭候補間の距離HがモデルデータWy を上回る場合、または抽出された車頭候補に後続の候補が存在しない場合には、これら車頭候補はノイズとして除去される。また抽出された特徴が単独でモデルデータWx ,Wy の条件を満たす場合には、この特徴は車輌全体を表すものと判定される。
【0117】
図21は上記と同様の処理をエッジ抽出により行う場合の構成例を、図22は同様の処理をフレーム差分法により行う場合の構成例を、それぞれ示す。いずれの実施例も、透視変換画像から特徴部分を抽出するための構成以外は、図19と同様であり、ここでは詳細な説明を省略する。
【0118】
なお上記した車輌判別処理の原理は、車輌の画像部分を透視変換した結果に生ずる歪みを利用しているが、この場合、車輌が撮像位置に近づいて車輌に対するカメラの俯角が大きくなると、透視変換画像における車輌部分の歪みが小さくなり、車輌と影との区別が困難になるという問題が生じる。
【0119】
図23(1)は車輌が撮像位置に近づいた時点で得られる入力画像を、図23(2)はこの入力画像の透視変換画像を、それぞれ示す。
図23(2)の前記透視変換画像に対し、前記した背景差分法による特徴抽出を行うと、図24に示す如く、車輌、影それぞれに対応する特徴50a,50bに有意な差が現れなくなり、前記した特徴モデルデータと比較する方法により両者を区別して判別することは、困難となる。
【0120】
図25は、上記問題を解決するための判定処理装置の構成例であって、図10と同様の構成に、判定結果記憶部18,追跡処理部19,最終判定部20などが付加されている。
【0121】
透視変換処理部2から判定部5までの構成により、各段階での画像入力に対し、前記と同様の透視変換処理,特徴抽出処理,判定処理が実行される。判定結果記憶部18は過去数フレーム毎に、抽出された特徴部分の位置やその判定結果などのデータを記憶、蓄積する。追跡処理部19は、これら蓄積されたデータから同一対象にかかる特徴部分を対応付けし、各対象物についての判定結果の推移を追跡する。
【0122】
図26は、前記追跡処理部19による追跡方法を示す。
図中a0 ,b0 は、ある時点における特徴部分の抽出位置であって、追跡処理部19は、各特徴部分について、それぞれその特徴抽出位置に対応する車線に沿う方向(すなわちy軸方向)における追跡処理を行って、つぎの段階におけるその特徴部分の抽出位置a1 ,b1 を検出する。
最終判定部20は、追跡処理部19による追跡処理結果に基づき、抽出された特徴部分が車輌に対応するものであるか否かについての最終的な判定を実施する。
なおこの最終判定は、各対象物毎にその追跡処理が終了した時点、すなわちその対象物に相当する特徴部分が抽出されなくなった時点で、実施される。
【0123】
図27は、前記追跡処理部19による追跡結果と最終判定部20の判定結果とを対応づけて示す。なおここでは説明を簡単にするために、2個の対象物A,Bについての特徴が複数段階にわたって抽出されているものと想定し、追跡処理結果として、各特徴部分の抽出位置と判定結果との推移を示してある。
【0124】
最終判定部20は、追跡処理部19による最終追跡結果を受けて、その特徴部分における過去の判定結果をまとめて最終判定を実行する。これにより対象物Bに示すように、最終段階で「車輌」であると判定された場合でも、それ以前の複数段階における判定結果が「影」である場合には、この特徴部分は影を反映したものであると判定される。
【0125】
上記の処理によれば、車輌が観測位置を通過した時点で最終的な判定が行われることになり、最終判定により特徴部分が車輌を反映していると決定されたとき、後段の計測装置にその判定結果が出力される。これにより計測装置は、観測地点における車両の通過台数を正確に計測することができ、高精度の交通流計測を実施することが可能となる。
【0126】
【発明の効果】
請求項1の発明では、車輌の走行路の上方に前記車輌を前面側から撮像するように設置された撮像手段から入力した2次元画像を前記走行路の路面を含む仮想水平面上に透視変換した後、この透視変換画像から抽出した特徴を前記仮想平面上に車輌に対応する直方体モデルを透視変換して得られる特徴モデルデータと比較し、その比較結果に基づき観測位置における車輌を判別するようにしたので、観測位置における車輌の高さを反映した特徴を用いて車輌を正確に判別することができる。
【0127】
請求項2の発明では、入力画像を透視変換して得られる画像と、車輌が存在しない前記走行路を撮像して得られた背景画像の透視変換画像との差分処理により、背景になかった画像部分を特徴として抽出するので、車輌などの移動する対象物を表す特徴を抽出することができる。
【0128】
請求項3の発明では、入力画像を透視変換して得られる画像上で、所定の距離範囲内にあるエッジ成分を統合した結果を特徴として抽出し、また請求項4の発明では、透視変換画像上における1段階前の透視変換画像に対する変動部分のうち、所定の距離範囲内にある変動部分を統合した結果を特徴として抽出するので、一台の車輌にかかる特徴を認識して正確な判別処理を行うことが出来る。
【0133】
請求項5の発明は、車輌の走行路の上方に前記車輌を前面側から撮像するように設置された撮像手段から画像を入力し、各段階における入力画像から透視変換された画像について、それぞれその画像上の特徴が車輌であるか否かを仮判別し、同一の対象物として対応づけた特徴のうち、一貫して「車輌である」と判別されている対象物を、最終的に車輌として判別するようにしたので、車輌が撮像位置に近づくにつれ、車輌と影との透視変換結果に差異が認められなくなるという問題が解消され、精度の高い車輌判別を行うことができる。
【図面の簡単な説明】
【図1】この発明にかかる車輌判別装置が組み込まれた交通流計測装置の設置例を示す説明図である。
【図2】透視変換処理の原理を示す説明図である。
【図3】カメラからの入力画像を示す説明図である。
【図4】図3の入力画像を透視変換した結果を示す説明図である。
【図5】背景変換画像を示す説明図である。
【図6】図4の透視変換画像と図5の背景変換画像との差分処理により抽出された特徴を示す説明図である。
【図7】任意の点Pの空間座標からこの点Pの透視変換先の座標を算出する原理を示す説明図である。
【図8】車輌のモデルの一例を示す説明図である。
【図9】図8のモデルを透視変換した結果を示す説明図である。
【図10】車輌判別装置の構成例を示すブロック図である。
【図11】車輌判別装置の他の構成例を示すブロック図である。
【図12】入力画像上のエッジ成分を抽出した結果を示す説明図である。
【図13】図12のエッジ成分を統合処理した結果を示す説明図である。
【図14】車輌に対応するものとして認識された画像領域を示す説明図である。
【図15】車輌判別装置の他の構成例を示すブロック図である。
【図16】フレーム差分処理により抽出された特徴を示す説明図である。
【図17】図16の各特徴を統合処理した結果を示す説明図である。
【図18】車輌判別装置の他の構成例を示すブロック図である。
【図19】車輌判別装置の他の構成例を示すブロック図である。
【図20】車頭候補として抽出された特徴を示すブロック図である。
【図21】車輌判別装置の他の構成例を示すブロック図である。
【図22】車輌判別装置の他の構成例を示すブロック図である。
【図23】車輌が撮像位置に接近した状態で得られた入力画像、およびその透視変換画像を示す説明図である。
【図24】図23(2)の透視変換画像から抽出された特徴を示す説明図である。
【図25】車輌判別装置の他の構成例を示すブロック図である。
【図26】図25の追跡処理部による追跡方法を示す説明図である。
【図27】追跡処理結果と最終判定結果とを対応づけて示す説明図である。
【符号の説明】
2 透視変換処理部
4 特徴抽出部
5 判定部
8 背景差分処理部
11 エッジ抽出部
12 エッジ統合部
13 フレーム差分処理部
15 抽出結果統合部
16 処理結果統合部
17 車頭候補抽出部
18 判定結果記憶部
19 追跡処理部
20 最終判定部[0001]
[Industrial applications]
The present invention is located on a road or the like.Vehicle discriminating device for discriminating vehiclesAbout.
[0002]
[Prior art]
In recent years, a camera has been installed above a road to image a predetermined position on the road, features that indicate the vehicle are extracted from the obtained image, and the flow of the vehicle on the road is measured from the temporal transition of the extraction result. Traffic flow measuring devices have been developed.
[0003]
As a typical method for extracting the features of the vehicle described above, there is a method of obtaining a background difference of an input image. In this method, an image in which an object does not exist on a road is stored in advance as a background image, and a difference between an image from a camera and this background image is extracted as an image portion of a vehicle (hereinafter, this method is referred to as a method). "Background subtraction method").
[0004]
In addition to the above-described background subtraction method, a method of storing an input image of one frame before and extracting a change in the position of a vehicle on a road by subtracting the immediately preceding input image from the input image of the current frame (hereinafter, referred to as a method) There is a method of extracting an edge component indicating the outline of a vehicle by performing spatial differentiation on an input image (hereinafter, referred to as a “spatial difference method”).
[0005]
[Problems to be solved by the invention]
In the background subtraction method, since a portion different from a background image stored in advance is extracted, there is a problem that not only an image portion of an actual vehicle but also a shadow image of a vehicle is erroneously extracted.
In order to solve this problem, it has been proposed to set a feature having a negative difference value so as not to be recognized as a vehicle. However, if this method is used, a vehicle with a dark color cannot be detected. .
[0006]
Even when the frame difference method or the spatial difference method is used, the problem that the shadow of the vehicle is erroneously extracted similarly occurs as described above, and it is impossible to accurately determine the number or type of vehicles on the road. It is.
[0007]
The present invention has been made in view of the above problem, and performs perspective transformation of a two-dimensional image obtained by imaging an observation position on a virtual horizontal plane including a vehicle supporting surface such as a road surface. It is an object of the present invention to accurately determine a vehicle using features on an image.
[0008]
[Means for Solving the Problems]
Road surface of the vehicle ’s travel pathSet a spatial coordinate system with a virtual horizontal plane containingThe running pathThe image obtained by capturing from above, the rotation angle of the camera coordinate system with respect to the space coordinate system, based on the parameters of the camera spatial coordinate position and focal length,SaidWhen a perspective transformation is performed on a virtual horizontal plane, an image portion of a tall object is projected at a position distant from a point corresponding to the actual position of the object. The amount of displacement of the projection point increases as the object is located at a higher position and as the spatial coordinate point is farther from the viewpoint, so that when the object having height data such as a vehicle is perspective-transformed, the actual object A more distorted feature is obtained. Meanwhile, shadows etc.Road surfaceThe upper two-dimensional object is projected onto the actual position of the object, so that even after perspective transformation, the same shape and size characteristics as when the actual object is observed from directly above can be obtained. .
[0009]
The invention according to each claim is made using the above principle, and the vehicle discriminating apparatus according to
[0010]
In the invention according to
[0011]
In the invention according to
[0012]
In the invention according to
[0019]
According to a fifth aspect of the present invention, there is provided a vehicle discriminating apparatus, comprising:Image input means for inputting a two-dimensional image;Road surface of the travel pathAn image conversion unit that performs perspective transformation on a virtual horizontal plane including, and a feature extraction unit that performs feature extraction on an image that has been perspective-transformed by the image conversion unit.Model storage means for storing a rectangular parallelepiped model corresponding to the vehicle;The feature extracted by the feature extracting means is placed on the virtual horizontal plane.The cuboid modelIs obtained by perspective transformation ofFeature model dataTentative judgment means for tentatively judging whether or not the feature is a vehicle based on the comparison result, and a perspective transformed image generated from a plurality of past input images,Along the lane of the runwayThe moving feature is associated with the same object, and the tracking processing means for tracking the transition of the provisional determination result for this object, and based on the tracking processing result by the tracking processing means, are consistently referred to as "vehicle". Final discriminating means for finally discriminating the target object as a vehicle.Prepare. The tentative determination means sets a circumscribed rectangle to the feature extracted by the feature extraction means, and associates one end point of the lower side of the circumscribed rectangle with one end point of the front end of the lower surface of the cuboid model, thereby providing a perspective view of the cuboid model. The size of each side of the circumscribed rectangle with respect to the transformed image is obtained as the feature model data, and the size of each side of the circumscribed rectangle set for the feature is compared with the feature model data, whereby the feature corresponds to a vehicle. It is determined whether or not to perform.
[0020]
[Action]
In the invention of
[0021]
In the invention according to
[0022]
According to the third aspect of the present invention, a result obtained by integrating edge components within a predetermined distance range on an image obtained by performing a perspective transformation on an input image is extracted as a feature. According to the fourth aspect of the present invention, as a feature, a result obtained by integrating a variable portion within a predetermined distance range among the variable portions with respect to the perspective transformed image one stage before on the perspective transformed image is extracted.
[0027]
Claim 5Invention ofThen,An image is input from an image pickup unit installed above the traveling path of the vehicle so as to image the vehicle from the front side.For each of the input images at each stage, it is temporarily determined whether or not the feature on the perspective transformed image is a vehicle using the same method as in
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 shows an example of installation of a traffic flow measuring device in which a vehicle discriminating device according to the present invention is incorporated, and the principle of this vehicle discriminating process is described with reference to FIGS. 2 to 9 and equations (1) to (44). explain. Further, a preferred embodiment of the vehicle discriminating apparatus according to the above-mentioned claims will be described with reference to FIGS. 10, 11, 15, 18, 19, 21, 22, and 25.
[0029]
【Example】
FIG. 1 shows an example of installation of a traffic flow measuring device.
This traffic flow measuring device is configured by disposing a
[0030]
The vehicle discriminating apparatus of this embodiment performs perspective transformation of a two-dimensional image input from the
[0031]
In the perspective transformation processing, a spatial coordinate system (hereinafter simply referred to as a “spatial coordinate system”) having a predetermined position (for example, the installation position of the column) as an origin is determined in advance, and rotation of the camera coordinate system with respect to this spatial coordinate system is determined. angleSuchBy using the parameters determined by the following, each pixel on the input image on the virtual horizontal planeTo the coordinatesIt is something to convert.
Before the measurement processing, the rotation angle of the camera coordinate system is calculated by calibration using a point whose spatial coordinates are known prior to the measurement processing, and the calculation result is further applied to equations (28) to (35) described later. Is calculated by
[0032]
Next, the principle of the perspective transformation processing and the parameter calculation processing by the vehicle discriminating device will be described in order with reference to FIG.
In FIG. 2, Xw, Yw, ZwThe coordinate system indicated by each axis of X is the spatial coordinate system described above, and Xc, Yc, ZcThe coordinate system indicated by each axis indicates the camera coordinate system. In addition, O indicates an imaging position of the camera, and A indicates an arbitrary point in space.
[0033]
Now, the center point O is the origin O of the camera coordinate system.c(0,0,0), which corresponds to X in the spatial coordinate systemw, Yw, ZwX of camera coordinate system for each axisc, Yc, ZcAssuming that the axes are rotated by angles α, β, γ, respectively, the spatial coordinates of the point O are (x0, Y0, Z0) And the spatial coordinates of point A are (xA, YA, ZA), The camera coordinates of point A (x1, Y1, Z1) Is the parameter s determined by these rotation angles α, β, γ1, S2, S3, T1, T2, T3, U1, U2, U3Is represented by the following (1) to (3).
Each of the above parameters is represented by the equations (4) to (12). The above x1, Y1Represents the x, y coordinates of the corresponding point A ′ on the input image of the point A, z1Corresponds to the focal length F of the camera.
[0034]
(Equation 1)
[0035]
(Equation 2)
[0036]
(Equation 3)
[0037]
(Equation 4)
[0038]
(Equation 5)
[0039]
(Equation 6)
[0040]
(Equation 7)
[0041]
(Equation 8)
[0042]
(Equation 9)
[0043]
(Equation 10)
[0044]
[Equation 11]
[0045]
(Equation 12)
[0046]
On the other hand, the virtual horizontal plane including the straight line OA and the
[0047]
(Equation 13)
[0048]
[Equation 14]
[0049]
Now, assuming that the image including the point A ′ is to be perspective-transformed on the virtual horizontal plane, the point A ′ is an intersection B (x) between the straight line OA and the virtual horizontal plane.B, YB, 0). Therefore, from the above equations (13) and (14), xB, YBIs expressed by the following equations (15) and (16).
[0050]
(Equation 15)
[0051]
(Equation 16)
[0052]
Furthermore, x '= xA-X0/ ZA-Z0,y '= yA-Y0/ ZA-Z0, Z ′ = 1 / zA-Z0In other words, the expressions (1) to (3) and the expressions (15) and (16) are transformed into the expressions (17) to (21), respectively.
[0053]
[Equation 17]
[0054]
(Equation 18)
[0055]
[Equation 19]
[0056]
(Equation 20)
[0057]
(Equation 21)
[0058]
By eliminating z 'from the above equations (17) to (19), x' and y 'are expressed by the following equations (22) and (23), respectively. Further, by modifying the above equations (20) and (21) using the equations (22) and (23), the equations (24) and (25) are obtained.
[0059]
(Equation 22)
[0060]
(Equation 23)
[0061]
[Equation 24]
[0062]
(Equation 25)
[0063]
Therefore, the xB, YBIs calculated by the equations (26) and (27) using the parameters a, b, c, d, e, f, g, and h defined by the equations (28) to (35).
[0064]
(Equation 26)
[0065]
[Equation 27]
[0066]
[Equation 28]
[0067]
(Equation 29)
[0068]
[Equation 30]
[0069]
[Equation 31]
[0070]
(Equation 32)
[0071]
[Equation 33]
[0072]
(Equation 34)
[0073]
(Equation 35)
[0074]
Therefore, the spatial coordinates (x0, Y0, Z0), The rotation angles α, β, γ of the camera coordinate system calculated by the calibration and the focal length F of the
[0075]
As described above, when the point A ′ on the input image corresponding to the point A in the space is perspective-transformed on the virtual horizontal plane, the image data at the point A becomes a virtual line connecting the camera center point O and the point A. Projected at the intersection with the horizontal plane. Therefore, as the inclination of the straight line OA is slower, the projection point on the virtual horizontal plane is farther from the projection point when the point A is seen through from directly above (that is, the point specified by the x and y coordinates of the point A). It will be located in a place that was. In other words, the higher the point A is, or the farther the point A is from the camera, the farther the projected point is from the position where the original point A should be. When the object having the shape is perspective-transformed, a feature having a size and a shape different from those when the actual object is viewed from a position directly above is obtained.
[0076]
On the other hand, since the image data at the point where the z-coordinate in the spatial coordinates becomes 0 is projected at the same position as the actual one, the two-dimensional object such as a shadow can be seen from the position directly above the actual object even after the perspective transformation. It has the same size and shape characteristics as when it is used.
[0077]
FIG. 3 is an example of an input image from the
FIG. 4 shows the result of perspective transformation of the input image of FIG. 3 on the horizontal plane. In the perspective transformed image, the shape of the transformed
[0078]
FIG. 5 shows an image obtained by perspectively transforming a background image at an observation position on a virtual horizontal plane (hereinafter, this image is referred to as a “background converted image”). Is appearing. FIG. 6 shows a result of binarizing the difference between the perspective transformed image of FIG. 4 and the background transformed image, and shows the shape of the transformed
[0079]
In this vehicle discriminating apparatus, circumscribed
[0080]
Next, the calculation principle of the above-described feature model data will be described.
The spatial coordinates of the center point O of the camera are (0, 0, k), and the spatial coordinates of an arbitrary point P in the space are (xw, Yw, Zw), The coordinates of the projection point P ′ obtained by perspective transformation of this point P are (xr, Yr, 0), as is clear from FIG. 7, the x, y coordinates x of the point P ′r, YrIs calculated by the following equations (36) and (37).
[0081]
[Equation 36]
[0082]
(37)
[0083]
Here, for simplicity of description, a width V as shown in FIG.x, Depth Vy, Height VzIs assumed, and among the vertices of this cuboid model, the leftmost vertex R on the front surface has coordinates (xR0, YR0, 0), the coordinates of the vertex S farthest from the point R on the rectangular parallelepiped model (xSW, YSW, ZSW) Is obtained by the following equations (38) to (40).
[0084]
[Equation 38]
[0085]
[Equation 39]
[0086]
(Equation 40)
[0087]
Accordingly, by applying the equations (38) to (40) to the equations (36) and (37), the x, y coordinates x of the projection point S ′ when the vertex S is perspectively transformed on the virtual horizontal planeSR, YSREquations (41) and (42) are obtained as equations for calculating.
[0088]
[Equation 41]
[0089]
(Equation 42)
[0090]
On the other hand, since the projection point R ′ of the point R located on the road surface is transformed to the same position as before the perspective transformation, as shown in FIG.RectangularWhen a
[0091]
[Equation 43]
[0092]
[Equation 44]
[0093]
Therefore, for each of the features 37A and 37B shown in FIG. 6, the
[0094]
Therefore, for each feature portion on the perspective transformed image, the feature model data Wx, Wy, A circumscribed rectangle is set for the characteristic portion, and the length of each side of the circumscribed rectangle (A shown in FIG. 6)wx, Awy, Bwx, Bwy) And feature model data Wx, WyIs compared with the calculated value. If no significant difference is found by this comparison, the feature is determined to correspond to the vehicle.
[0095]
Instead of comparing each side of the circumscribed rectangle,RectangularIf the model is virtually perspective-transformed to the feature extraction position on the perspective-transformed image and the result of the perspective transformation is matched with the actual feature, it is possible to obtain a more accurate determination result. .
[0096]
FIG. 10 shows an example of a configuration of a vehicle discriminating apparatus to which the above-described principle is introduced, and includes an
[0097]
The
[0098]
In addition, instead of the
[0099]
The
The background conversion image as shown in FIG. 5 is stored in the background
[0100]
The
[0101]
Each side of circumscribed rectangle and feature model data Wx, WyWhen a significant difference is not recognized between the vehicle and the vehicle, the
The output unit 7 recognizes the position of the vehicle on the road or the like from the feature extraction position based on the determination result, and outputs the recognition result to a traffic flow measurement device at a subsequent stage.
[0102]
FIG. 11 shows another configuration example of the discrimination processing device.
This embodiment also has a configuration basically similar to that of FIG. 10, but includes an
[0103]
The
[0104]
FIG. 12 shows an edge image with respect to the perspective transformed image of FIG. 4, and FIG. 13 shows an image obtained by integrating edge components in the edge image.
As is clear from the illustrated example, the portion corresponding to the shadow on the perspective transformed image is not subject to the integration processing because the extracted edge component is reduced, and is removed as noise. On the other hand, for the image portion corresponding to the vehicle, a plurality of features (shown as 42a, 42b, and 42c in the figure) are extracted by the integration process.
[0105]
The
[0106]
By the above comparison processing, the length C of each sidewx, CwyAnd the feature model data Wx, WyIf no significant difference is found between the
[0107]
The features to be extracted from the perspective transformed image are not limited to the edge components. For example, features corresponding to the moving portion of the vehicle may be extracted by frame difference processing. FIG. 15 shows an example of the configuration of a determination processing device when feature extraction is performed by frame difference processing. The
[0108]
The frame
[0109]
The extraction result integration unit 15 integrates features within a predetermined distance range in the y-axis direction with respect to each extracted
FIG. 17 shows a result obtained by integrating the extraction results of FIG. 16, and the
[0110]
Note that feature extraction is not limited to one method, and feature portions extracted by a plurality of types of methods may be integrated.
FIG. 18 is a configuration example of a determination processing device when two types of feature extraction methods are introduced. The
[0111]
The
[0112]
By the way, the above-described respective extraction results are obtained when imaging is performed in an environment having sufficient brightness such as during the daytime, and under a condition where the contrast between the background color and the vehicle color is not clear such as at sunset, An image of a low brightness portion such as a windshield may not be extracted. As a result, the extracted characteristic part is divided into a plurality of characteristic parts, and it becomes impossible to accurately determine the vehicle.
[0113]
FIG. 19 shows an example of a configuration of a determination processing device for solving the above-described problem. In addition to the configuration shown in FIG. A head
[0114]
Now, when a plurality of
[0115]
That is, when two or more head candidates are arranged in the y-axis direction, which is the traveling direction of the vehicle, the
[0116]
The distance H between the head candidates is model data W.yIs exceeded, or if there is no subsequent candidate in the extracted headway candidates, these headway candidates are removed as noise. In addition, the extracted feature is the model data W alone.x, WyIf the condition is satisfied, it is determined that this feature represents the entire vehicle.
[0117]
FIG. 21 shows a configuration example when the same processing as described above is performed by edge extraction, and FIG. 22 shows a configuration example when the same processing is performed by the frame difference method. Each embodiment is the same as FIG. 19 except for a configuration for extracting a characteristic portion from a perspective transformed image, and a detailed description thereof is omitted here.
[0118]
Note that the principle of the above-described vehicle discrimination processing utilizes distortion generated in the result of perspective transformation of the image portion of the vehicle. In this case, when the vehicle approaches the imaging position and the depression angle of the camera with respect to the vehicle increases, the perspective transformation is performed. There is a problem that distortion of the vehicle portion in the image becomes small, and it becomes difficult to distinguish the vehicle from the shadow.
[0119]
FIG. 23A shows an input image obtained when the vehicle approaches the imaging position, and FIG. 23B shows a perspective transformed image of the input image.
When the feature extraction by the above-described background subtraction method is performed on the perspective transformed image of FIG. 23 (2), as shown in FIG. 24, no significant difference appears between the
[0120]
FIG. 25 shows an example of the configuration of a determination processing device for solving the above-mentioned problem.MemoryA unit 18, a
[0121]
With the configuration from the perspective
[0122]
FIG. 26 shows a tracking method by the
A in the figure0, B0Is the extraction position of the characteristic part at a certain point in time, and the
The
Note that this final determination is performed when the tracking process is completed for each object, that is, when the characteristic portion corresponding to the object is no longer extracted.
[0123]
FIG. 27 shows the tracking result of the
[0124]
The
[0125]
According to the above processing, a final determination is made when the vehicle passes the observation position, and when it is determined by the final determination that the characteristic portion reflects the vehicle, the final measurement is performed by the subsequent measurement device. The result of the determination is output. Accordingly, the measuring device can accurately measure the number of vehicles passing at the observation point, and can perform highly accurate traffic flow measurement.
[0126]
【The invention's effect】
In the invention of
[0127]
In the invention according to
[0128]
According to a third aspect of the present invention, a result obtained by integrating edge components within a predetermined distance range is extracted as a feature on an image obtained by performing a perspective transformation on an input image. Since a result obtained by integrating a variable portion within a predetermined distance range among the variable portions with respect to the perspective transformed image one stage before is extracted as a feature, a feature relating to one vehicle is recognized and an accurate determination process is performed. Can be performed.
[0133]
Claim 5The invention ofAn image is inputted from an image pickup means installed above the traveling path of the vehicle so as to image the vehicle from the front side.For each of the perspective-transformed images from the input image at each stage, it is tentatively determined whether or not the feature on the image is a vehicle. The object that is determined to be `` is present '' is finally determined as a vehicle, eliminating the problem that as the vehicle approaches the imaging position, the difference in the perspective transformation result between the vehicle and the shadow disappears. Thus, highly accurate vehicle discrimination can be performed.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing an installation example of a traffic flow measuring device in which a vehicle discriminating device according to the present invention is incorporated.
FIG. 2 is an explanatory diagram showing the principle of perspective transformation processing.
FIG. 3 is an explanatory diagram showing an input image from a camera.
FIG. 4 is an explanatory diagram showing a result of perspective transformation of the input image of FIG. 3;
FIG. 5 is an explanatory diagram showing a background conversion image.
6 is an explanatory diagram showing features extracted by a difference process between the perspective transformed image of FIG. 4 and the background transformed image of FIG. 5;
FIG. 7 is an explanatory diagram showing a principle of calculating coordinates of a perspective transformation destination of an arbitrary point P from spatial coordinates of the point P;
FIG. 8 is an explanatory diagram showing an example of a vehicle model.
FIG. 9 is an explanatory diagram showing a result of perspective transformation of the model of FIG. 8;
FIG. 10 is a block diagram illustrating a configuration example of a vehicle determination device.
FIG. 11 is a block diagram illustrating another configuration example of the vehicle discriminating apparatus.
FIG. 12 is an explanatory diagram showing a result of extracting an edge component on an input image.
FIG. 13 is an explanatory diagram showing a result obtained by integrating the edge components of FIG. 12;
FIG. 14 is an explanatory diagram showing an image area recognized as corresponding to a vehicle.
FIG. 15 is a block diagram illustrating another configuration example of the vehicle determination device.
FIG. 16 is an explanatory diagram showing features extracted by the frame difference processing.
FIG. 17 is an explanatory diagram showing the result of integrating the features of FIG. 16;
FIG. 18 is a block diagram illustrating another configuration example of the vehicle determination device.
FIG. 19 is a block diagram illustrating another configuration example of the vehicle determination device.
FIG. 20 is a block diagram showing features extracted as vehicle head candidates.
FIG. 21 is a block diagram illustrating another configuration example of the vehicle determination device.
FIG. 22 is a block diagram illustrating another configuration example of the vehicle determination device.
FIG. 23 is an explanatory diagram showing an input image obtained in a state where the vehicle approaches the imaging position and a perspective transformed image thereof.
FIG. 24 is an explanatory diagram showing features extracted from the perspective transformed image of FIG. 23 (2).
FIG. 25 is a block diagram illustrating another configuration example of the vehicle determination device.
FIG. 26 is an explanatory diagram showing a tracking method by the tracking processing unit in FIG. 25;
FIG. 27 is an explanatory diagram showing a tracking processing result and a final determination result in association with each other.
[Explanation of symbols]
2 Perspective transformation processing unit
4 Feature extraction unit
5 Judgment unit
8 Background difference processing unit
11 Edge extraction unit
12 Edge Integration Unit
13 Frame difference processing unit
15 Extraction result integration section
16 Processing result integration unit
17 Head candidate extraction section
18 Judgment result storage unit
19 Tracking unit
20 Final judgment section
Claims (5)
入力された2次元画像を前記走行路の路面を含む仮想水平面上に透視変換する画像変換手段と、
前記画像変換手段により透視変換された画像について特徴抽出を行う特徴抽出手段と、
車輌に対応する直方体モデルを記憶するモデル記憶手段と、
前記特徴抽出手段により抽出された特徴を、前記仮想水平面上に前記直方体モデルを透視変換して得られる特徴モデルデータと比較し、その比較結果に基づき前記走行路に車輌があるか否かを判別する判別手段とを備え、
前記判別手段は、前記特徴抽出手段により抽出された特徴に外接長方形を設定するとともに、この外接長方形の下辺の一端点に直方体モデルの下面前端の一端点を対応させて、その直方体モデルの透視変換像に対する外接長方形の各辺の大きさを前記特徴モデルデータとして求め、前記特徴に設定された外接長方形の各辺の大きさを前記特徴モデルデータと比較することにより、前記特徴が車輌に相当するか否かを判別する車輌判別装置。Image input means for inputting a two-dimensional image from image pickup means installed above the traveling path of the vehicle so as to image the vehicle from the front side ;
Image conversion means for perspectively converting the input two-dimensional image onto a virtual horizontal plane including the road surface of the travel road ;
A feature extraction unit that performs feature extraction on the image that has been perspectively transformed by the image conversion unit,
Model storage means for storing a rectangular parallelepiped model corresponding to the vehicle ;
The feature extracted by the feature extracting means is compared with feature model data obtained by perspectively transforming the rectangular parallelepiped model on the virtual horizontal plane, and it is determined whether or not there is a vehicle on the traveling path based on the comparison result. and a discriminating means for,
The discriminating means sets a circumscribed rectangle to the feature extracted by the feature extracting means, and associates one end of the lower side of the circumscribed rectangle with one end of the front end of the lower surface of the rectangular parallelepiped model, and performs perspective transformation of the rectangular parallelepiped model. The size of each side of the circumscribed rectangle with respect to the image is obtained as the feature model data, and the size of each side of the circumscribed rectangle set for the feature is compared with the feature model data, whereby the feature corresponds to a vehicle. A vehicle discriminating device for discriminating whether or not the vehicle is a vehicle.
入力された2次元画像を前記走行路の路面を含む仮想水平面上に透視変換する画像変換手段と、
前記画像変換手段により透視変換された画像について特徴抽出を行う特徴抽出手段と、
車輌に対応する直方体モデルを記憶するモデル記憶手段と、
前記特徴抽出手段により抽出された特徴を、前記仮想水平面上に前記直方体モデルを透視変換して得られる特徴モデルデータと比較し、その比較結果に基づき前記特徴が車輌であるか否かを仮判別する仮判別手段と、
過去複数回の入力画像から生成された透視変換画像間において、前記走行路の車線に沿って移動する特徴を同一対象物として対応づけるとともに、この対象物についての仮判別結果の推移を追跡する追跡処理手段と、
前記追跡処理手段による追跡処理結果に基づき、一貫して「車輌である」と判別されている対象物を、最終的に車輌として判別する最終判別手段とを備え、
前記仮判別手段は、前記特徴抽出手段により抽出された特徴に外接長方形を設定するとともに、この外接長方形の下辺の一端点に直方体モデルの下面前端の一端点を対応させて、その直方体モデルの透視変換像に対する外接長方形の各辺の大きさを前記特徴モデルデータとして求め、前記特徴に設定された外接長方形の各辺の大きさを前記特徴モデルデータと比較することにより、前記特徴が車輌に相当するか否かを判別する車輌判別装置。Image input means for inputting a two-dimensional image from image pickup means installed above the traveling path of the vehicle so as to image the vehicle from the front side ;
Image conversion means for perspectively converting the input two-dimensional image onto a virtual horizontal plane including the road surface of the travel road ;
A feature extraction unit that performs feature extraction on the image that has been perspectively transformed by the image conversion unit,
Model storage means for storing a rectangular parallelepiped model corresponding to the vehicle;
The feature extracted by the feature extracting means is compared with feature model data obtained by perspectively transforming the rectangular parallelepiped model on the virtual horizontal plane. Based on the comparison result, it is temporarily determined whether the feature is a vehicle. Provisional determination means,
A tracking method for associating features moving along the lane of the travel road as the same object between perspective transformed images generated from a plurality of past input images, and tracking a transition of a provisional determination result for the object. Processing means;
Based on the result of the tracking processing by the tracking processing means, the target object consistently determined to be "vehicle", final determination means for finally determining as a vehicle ,
The tentative determination means sets a circumscribed rectangle to the feature extracted by the feature extraction means, and associates one end point of the lower side of the circumscribed rectangle with one end point of the front end of the lower surface of the rectangular parallelepiped model, to thereby provide a perspective view of the rectangular parallelepiped model. The size of each side of the circumscribed rectangle with respect to the transformed image is obtained as the feature model data, and the size of each side of the circumscribed rectangle set for the feature is compared with the feature model data, whereby the feature corresponds to a vehicle. A vehicle determination device that determines whether or not to perform .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21934296A JP3605955B2 (en) | 1996-07-31 | 1996-07-31 | Vehicle identification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21934296A JP3605955B2 (en) | 1996-07-31 | 1996-07-31 | Vehicle identification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1049662A JPH1049662A (en) | 1998-02-20 |
JP3605955B2 true JP3605955B2 (en) | 2004-12-22 |
Family
ID=16733959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21934296A Expired - Fee Related JP3605955B2 (en) | 1996-07-31 | 1996-07-31 | Vehicle identification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3605955B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006059165A (en) * | 2004-08-20 | 2006-03-02 | Riyuukoku Univ | Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium |
JP5448602B2 (en) * | 2009-06-25 | 2014-03-19 | 三菱電機株式会社 | Vehicle detection device, traffic information providing system, vehicle detection method, and vehicle detection program |
JP2014010765A (en) * | 2012-07-02 | 2014-01-20 | Sumitomo Electric Ind Ltd | Mobile object detector, image type sensor, and computer program |
JP6139088B2 (en) * | 2012-10-02 | 2017-05-31 | 株式会社東芝 | Vehicle detection device |
JP2014110028A (en) | 2012-12-04 | 2014-06-12 | Sony Corp | Image processing apparatus, image processing method, and program |
JP2015022658A (en) | 2013-07-22 | 2015-02-02 | 株式会社東芝 | Vehicle monitoring apparatus and vehicle monitoring method |
JP6280659B2 (en) * | 2017-02-02 | 2018-02-14 | 株式会社東芝 | Vehicle monitoring apparatus and vehicle monitoring method |
CN113863180A (en) * | 2021-09-16 | 2021-12-31 | 泰州市雷信农机电制造有限公司 | Bottom supporting prevention and control system based on big data storage |
-
1996
- 1996-07-31 JP JP21934296A patent/JP3605955B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH1049662A (en) | 1998-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3861781B2 (en) | Forward vehicle tracking system and forward vehicle tracking method | |
JP4205825B2 (en) | Object recognition device | |
CN108197523B (en) | Night vehicle detection method and system based on image conversion and contour neighborhood difference | |
JP4872769B2 (en) | Road surface discrimination device and road surface discrimination method | |
KR960042482A (en) | Object observation method and object observation apparatus using the method, and traffic flow measurement apparatus and parking lot observation apparatus using the apparatus | |
JP2000357233A (en) | Body recognition device | |
CN110555407B (en) | Pavement vehicle space identification method and electronic equipment | |
JP2006071471A (en) | Moving body height discrimination device | |
CN110717445B (en) | Front vehicle distance tracking system and method for automatic driving | |
CN109003326B (en) | Virtual laser radar data generation method based on virtual world | |
JP5834933B2 (en) | Vehicle position calculation device | |
JP4344860B2 (en) | Road plan area and obstacle detection method using stereo image | |
JP3605955B2 (en) | Vehicle identification device | |
JP3562250B2 (en) | Leading vehicle detection device | |
JP4397573B2 (en) | Image processing device | |
JP3516118B2 (en) | Object recognition method and object recognition device | |
JP3629935B2 (en) | Speed measurement method for moving body and speed measurement device using the method | |
JP3465531B2 (en) | Object recognition method and apparatus | |
JPH1055446A (en) | Object recognizing device | |
JP5903901B2 (en) | Vehicle position calculation device | |
JP3475700B2 (en) | Object recognition method, object recognition device, and vehicle recognition device | |
JP2001108434A (en) | Method and apparatus for measuring distance | |
JPH07104160B2 (en) | Inter-vehicle distance detection method | |
JPH1038542A (en) | Method and device for object recognition and recording medium | |
JP3517999B2 (en) | Vehicle recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040601 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040914 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040927 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071015 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081015 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091015 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101015 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101015 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111015 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111015 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121015 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121015 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131015 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |