JP3710548B2 - Vehicle detection device - Google Patents
Vehicle detection device Download PDFInfo
- Publication number
- JP3710548B2 JP3710548B2 JP11389796A JP11389796A JP3710548B2 JP 3710548 B2 JP3710548 B2 JP 3710548B2 JP 11389796 A JP11389796 A JP 11389796A JP 11389796 A JP11389796 A JP 11389796A JP 3710548 B2 JP3710548 B2 JP 3710548B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- road surface
- dimensional data
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、交通流計測等に有用なステレオ画像処理技術を応用した車両検出装置に関するものである。
【0002】
【従来の技術】
従来の画像処理を用いた車両検出装置として、林田 光紀ほか著「外部環境変化に強い画像形車両感知器」(OMRON TECHNICS Vol.32 )に記載された装置があり、以下これを図11を参照して説明する。図11において、ハードウエア構成は、撮像装置101としてCCDカメラ102を用い、外部照度変化に対してはEEレンズ103で補正する。CCDカメラ102からの画像入力を装置本体104の画像処理部105に入力し、A/D変換部106でA/D変換して画像処理を行い、ビデオRAM107に蓄えられた後、端末通信ユニット108を介して端末LANに出力される。
【0003】
CCDカメラ102から出力された画像は、画像処理部105においてフレーム間差分処理と背景差分処理が施されて、画像中の車両領域が抽出される。フレーム間差分では、時間的に異なった2つの入力画像の差分処理を行った後に二値化し、移動領域のみの二値画像B1 (m、n)を抽出する。このフレーム間差分処理は屋外の照度変化に対して安定して移動物体(車両)を検出できる特徴を持つ。
【0004】
【数1】
・・・(1)
ただし、
f1 (m,n)、f2 (m、n):時刻t=t1 、t2 (t1 <t2 )における入力画像上の画素(m、n)の輝度
α:二値化閾値
【0005】
背景差分処理では、あらかじめ作成されている、車両の存在しない状態の画像(以下、背景画像)と入力画像の差分処理を行った後に二値化する。背景画像に対して正方向の輝度差を持つ領域の2値画像B2 (m、n)を抽出する。
【0006】
【数2】
・・・(2)
ただし、
f2 (m、n):時刻t2 における入力画像上の画素(m、n)の輝度
fb (m、n):背景画像上の画素(m、n)の輝度
β:二値化閾値
背景差分は、車両の検出領域が正確であるという特徴を持つ。この装置では、フレーム間差分処理と背景差分処理を組み合わせることにより、互いの利点を生かし、高精度に車両を検出することを目指している。
【0007】
次にステレオ画像処理の原理について説明する。ステレオ画像処理技術は、左右2台の撮像装置によって同一の物体を撮影し、三角測量の原理で物体までの距離を計測するものである。図12では水平かつ平行に配置した2台の撮像装置の撮像面111、112と物体Pが示してある。実際には、撮像装置の撮像面111、112はx軸より手前に存在するが、説明の便宜上このように示すことにする。今、物体Pまでの距離を計測しようとすると、物体Pは左右の画像上でそれぞれ点PL 、PR に結像する。点PL 、PR の画像上でのx方向の座標をそれぞれXL 、XR とすると、視差Sは式(3)のように求められる。
視差S=XL −XR ・・・(3)
左右の画像から点(XL ,YL )、(XR ,YR ){ 但しYL =YR }を見つけ出す処理を対応付け処理という。
【0008】
視差Sから式(4)により撮像装置から物体Pまでの距離Kを算出することができる。
物体までの距離K=(B×f)/S ・・・(4)
ただし、B:撮像装置の配置間隔
f:レンズの焦点距離
【0009】
次に、従来のステレオ画像処理を用いた物体検出装置を図13を用いて説明する。光軸が平行になるように配置された左右2台の撮像装置121、122によって左画像123および右画像124を撮像する。撮影された画像のうち、左画像123を基準とする。左画像123を水平方向M、垂直方向Nのブロックに分割し、対応付け部125によって各ブロックの視差を決定する。対応付け方法の一例として、実吉 敬二他著「3次元画像認識技術を用いた運転支援システム」(自動車技術学会 学術講演会前刷集9241992−10)に記載の方法を用いて説明する。図14において、左画像131のブロック132はm×n個の画素で構成されている。ブロック132内部におけるi番目の画素の明るさをLiとする。また右画像133にもm×n画素の矩形領域134aを設定し、この矩形領域内部におけるi番目の画素の明るさをRiとする。これら左右画像間の矩形領域の類似度評価値は次式(5)で与えられる。
【0010】
【数3】
・・・(5)
対応領域が存在する可能性のある図14中の右画像133内の探索範囲134において、矩形領域134aを水平方向に1画素ずつ移動させて類似度評価値Cを計算し、この値が最小になる領域を対応領域とする。この方法では、対応領域を左画像131におけるブロック単位で決定することができ、また対応領域が決まれば、その対応領域の座標位置から即座に式(3)を用いて視差Sを求めることができる。
【0011】
距離計測部126では、各ブロック毎の視差から式(4)を用いて撮像装置から物体までの距離を算出し、各ブロック位置に格納した画像を距離画像127と呼び、検出すべき物体の無い状態での距離画像を特に初期距離画像128と呼び両者を区別する。距離差検出部129では、初期距離画像128と随時獲得される距離画像127に格納された同一ブロック位置の距離を比較し、距離変化があったブロックには、新たに物体が存在すると判断して、物体検出画像130を検出する。
【0012】
次に、ステレオ画像処理を用いて道路面の3次元的な位置を推定する技術として、特願平7-234019号公報に記載の「平面推定方法」について説明する。左右画像のうち、基準とする一方の画像(左画像)を図15中、画像面141のように水平方向(X)M個、垂直方向(Y)N個の合計M×Nのブロックに分割し、各ブロックごとに視差を計測している。各ブロックにおいて計測された視差データをS(X、Y)と表記する。これを図15に示すX−Y−Sの3次元座標上にプロットし、インデックスY(1≦Y≦N)を固定したときの点列S(X、Y)に直線を当てはめる。この直線は道路面143を通過していることから平面通過直線142と呼ぶことにする。直線の当てはめには、データを大局的に扱うことができるハフ変換を用いる。ハフ変換を行うに当たって必要となる直線パラメータは、直線から原点(Y軸)へ下ろした垂線の距離ρと垂線の傾きθを用いる。そのため平面通過直線142は式(6)のように表される。
【0013】
ρY =XcosθY +YsinθY ・・・(6)
ただし、ρY :Y軸から平面通過直線までの距離
θY :平面通過直線から下ろした垂線とX−Y平面がなす角
道路面143は平面通過直線142群で近似できるようになり、特徴不足等の原因で視差が未決定のブロックでは、平面通過直線142群から道路面143上の視差を求められる。ハフ変換のもつ大局性により、道路上に車両や人等が存在していても、これらに影響されずに、X−Y−S座標上で道路面143の位置を推定することができる。
【0014】
【発明が解決しようとする課題】
車両検出装置においては、あらゆる気象条件や撮像装置設置条件、車両形状、道路状態に対して安定して各車両の領域を正確に検出することが望まれている。しかしながら、従来の単一の撮像装置による画像を用いた車両検出装置では、画像の時間的、空間的輝度変化で車両を検出しているため、走行車両以外による輝度変化(たとえば夜間のヘッドライトの道路面反射、日差しや照明による影等)に対して誤検出を起こすことや、カメラから見て複数の車両が重なってみえた場合、それぞれの車両を分離して検出することは困難であるという問題があった。また、これまで車両検出装置として一般的に用いられていた超音波センサや光センサ、磁気センサは、その設置位置が限定され、しかも設置には多額の費用を要するという問題があった。
【0015】
本発明は、このような従来の問題を解決するものであり、道路環境を3次元的に把握することで、車両検出の精度を向上し、従来の超音波センサ、光センサ等を用いた車両感知器に代わる車両検出装置を提供することを目的とする。
【0016】
【課題を解決するための手段】
本発明は、上記目的を達成するために、従来技術で述べたステレオ画像処理を用いて、道路環境を広範囲にわたって3次元的にセンシングし、計測された3次元データを変換することで、人間の感覚に近い処理で車両の位置や領域を精度良く検出するようにしたものである。また、3次元データの投影を行うことで、大局的に車線の位置や車両の位置および車種を把握するようにしたものであり、これにより、車両検出の精度を向上し、従来の超音波、光等を用いた車両感知器に代わる優れた車両検出装置を実現することができる。
【0017】
【発明の実施の形態】
本発明の請求項1に記載の発明は、水平かつ平行に配置されて道路面上の複数の画像を撮影する複数台の撮像装置と、前記撮影された複数の画像間で相関が高い領域を対応付ける対応付け部と、前記対応付けの結果から前記道路面の位置を3次元的に推定する平面推定部と、前記対応付けの結果から三角測量の原理で前記道路面上の車両および前記道路面の3次元データを計測する距離計測部と、前記計測された3次元データを用いて前記車両の道路面からの高さHと前記撮像装置から前記車両までの道路面上の距離Vを算出して前記3次元データを座標変換する座標変換部と、前記座標変換された3次元データをV−H平面に投影し、前記距離Vに沿って前記車両の道路面からの高さHが
H=0からH>0
に変化する位置を検出することによって、画像中の車両先頭位置および車両領域の抽出を行う車両検出部とを備え、前記抽出された車両先頭位置を基に車両通過台数を計測することを特徴とする車両検出装置であり、ステレオ画像処理によって車両や道路面の3次元データをセンシングすることで、走行車両以外の輝度変化に影響されることなく道路面上の車両の位置と領域を広範囲に精度よく検出することができ、車両通過台数を計測する際に有用な情報を得ることができる。
また、座標変換部を持つことで、道路面上での位置、車両の道路面からの高さ等人間の感覚に近い3次元データを得ることができる。
【0021】
本発明の請求項2に記載の発明は、片側1車線以上ある道路において前記道路面上の車両を前方あるいは後方から撮影した複数の画像を使用し、前記道路面を基準とした座標系の3次元データを前記車両の進行方向に投影し、一定以上の時間において前記車両の高さデータが零となる位置を検出することにより車線位置を判別する車線検出部を備えた請求項1記載の車両検出装置であり、3次元データを投影した結果から大局的に車線位置を判断することができる。
【0023】
本発明の請求項3に記載の発明は、前記道路面上の車両を前方あるいは後方から撮影した複数の画像を使用し、前記車線検出部によって得られた車線位置情報と前記道路面を基準とした座標系の3次元データを用いて、各車線毎に3次元データを車両側方方向に投影し、前記車両検出部によって検出された車両の長さ、車両の高さをあらじめ蓄積してある各車種の諸元データと比較することで、前記車両の車種を判別する車種判別部を備えた請求項2記載の車両検出装置であり、3次元データを車両側方方向に投影することで不完全な3次元データからでも、大型車、小型車等の車種を判別することができる。
【0024】
(実施の形態1)
以下、本発明の実施の形態について図面を参照して説明する。図1は本発明の実施の形態1における車両検出装置の構成を示している。図1において、1は第1の撮像装置、2は第2の撮像装置であり、3は撮像装置1によって撮像された左画像、4は撮像装置2によって撮像された右画像である。5は左画像3および右画像4に対して画像処理を施す画像処理部である。画像処理部5は、対応付け部6と平面推定部7と距離計測部8と車両検出部9とからなる。10は画像処理部5によって検出された車両検出画像である。
【0025】
次に、本実施の形態における動作について説明する。図2に示すように左右に配置される2台の撮像装置1、2によって道路面11と道路環境上の車両12とを撮像し、それによって得られる左右の2画像3と4のうち、左画像3を基準画像として、対応付け部6で、図14を用いて説明したのように、左画像3を水平方向M垂直方向Nのブロックに分割し、各ブロック毎に右画像4から類似した領域を見つけ、視差を獲得する。平面推定部7では、対応付け部6から出力される各ブロック毎の視差を用いて、ハフ変換により3次元的に道路面の位置を推定する。距離計測部8では、推定された道路面の視差や対応付け部6で得られた視差を用いて、これを撮像装置1、2から車両12や道路面11までの距離に変換する。車両検出部9では、各ブロック毎に車両が存在している3次元データと推定した道路面の3次元データとを比較し、道路面11より撮像装置1、2側にある物体を検出することで、車両12を検出し、車両検出画像10を得る。
【0026】
このように、本実施の形態1によれば、車両検出装置にステレオ画像処理を用いることで、道路環境を3次元的に把握することができ、従来、センサや単眼の撮像装置を用いた画像処理では獲得できなかった広範囲の道路環境の立体情報から車両を正確に検出することができるようになる。
【0027】
(実施の形態2)
図3は本発明の実施の形態2における車両検出装置の構成を示している。図3において、21は第1の撮像装置、22は第2の撮像装置であり、23は撮像装置21によって撮像された左画像、24は撮像装置22によって撮像された右画像である。25は左画像23および右画像24に対して画像処理を施す画像処理部である。画像処理部25は、対応付け部26と平面推定部27と距離計測部28と座標変換部29と車両検出部30とからなる。30Aは画像処理部25によって検出された車両検出画像である。
【0028】
次に、本実施の形態における動作について説明する。複数の撮像装置21、22と対応付け部26と平面推定部27における処理は、実施の形態1と同様であるので、ここでは距離計測部28と座標変換部29の処理について説明する。座標変換部29では、図4に示すように、撮像装置21、22を基準とした座標系CO1を道路面31を基準とした座標系CO2に変換する。道路面31を基準とした座標系は、具体的には道路面31上の位置を示す2つの次元と、道路上の物体の高さを示す1つの次元からなる。座標の変換は、まず距離計測部28で必要な距離を計測した上で、次のような3フェーズで行われる。
【0029】
フェーズ(1):X方向の変換
撮像装置21、22を図2に示す撮像装置1、2のように設置した場合、一般的に撮像される画像は図5(a)のようになる。これを画像水平方向に関して、3次元データの配列間隔が実際の道路面の一定間隔毎になるように変換する。具体的な手法は、画像を図5(a) のように小レーンSLに分割し、各小レーンSLが平行になるように3次元データの水平方向への配置間隔を変換する。本フェーズにおける処理を図的に説明すれば、図5(a)の画像が図5(b)の画像のようになる。
【0030】
フェーズ(2):車両高さ方向の変換
このフェーズでは、獲得された3次元データを用いて、図6に示すように、撮影された車両32の道路面31からの高さHを算出する。道路面31からの車両32の高さHは、撮像装置21、22と道路面31および検出する車両32の幾何学的関係において式(7)を用いて算出される。
【0031】
【数4】
・・・(7)
ただし、 K :撮像装置から車両までの距離
h :撮像装置の道路面からの高さ
RK:撮像装置から道路面までの距離
画像中、車両がある領域では車両の高さHを算出し、各位置毎に3次元データとして格納する。本処理を図5(b)を用いて説明すれば、車両の高さHを算出することは紙面の法線方向の3次元データを求めることである。
【0032】
フェーズ(3):Y方向の変換
フェーズ3では、図4の画像Y方向についても3次元データの配列間隔が、道路面での距離に比例するように変換する。具体的には、撮像装置21、22から車両32までの道路面31上での水平距離Vは、図6に示すように、撮像装置21、22と道路面31および検出する車両32の幾何学的関係において式(8)を用いて算出される。
【0033】
【数5】
・・・(8)
ただし、K :撮像装置から車両までの距離
h :撮像装置の道路面からの高さ
RK:撮像装置から道路面までの距離
θ :垂線と撮像装置の光軸がなす角
【0034】
各ブロック毎に距離計測部28によって得られる撮像装置21、22から道路面31までの距離RKと車両32までの距離Kを用いて、式(8)から、撮像装置21、22が道路面31に落とした垂線の位置から車両32までの距離、すなわち道路面32上の距離Vを算出し、道路面32上の距離Vに応じて3次元データを配置、変換する。図5で本フェーズにおける処理を図的に説明すれば、図5(b)の画像が図5(c)の画像のように変換され、画像垂直方向の3次元データの配置間隔も水平方向と同様に道路面上での一定間隔毎になる。その後、実施の形態1と同様に、車両検出部30では、各ブロック毎に車両が存在している3次元データと推定した道路面の3次元データとを比較し、道路面32より撮像装置21、22側にある物体を検出することで車両31を検出し、車両検出画像30Aを得る。
【0035】
このように、本実施の形態2によれば、撮像装置を基準とした座標系で獲得された3次元データは、道路面を基準とした座標系に座標変換され、より人間の感覚に近いデータが得られるようになる。これにより、まず各車両の道路面からの高さを算出することができる。また、車両までの距離を、撮像装置からの距離ではなく、道路面上の距離で把握できるので、一定時間毎の車両の位置変化から車両速度を求める等の際、有用な情報を得ることができる。
【0036】
(実施の形態3)
図7は本発明の実施の形態3における車両検出装置の構成を示している。図7において、41は第1の撮像装置、42は第2の撮像装置であり、43は撮像装置41によって撮像された左画像、44は撮像装置42によって撮像された右画像である。45は左画像43および右画像44に対して画像処理を施す画像処理部である。画像処理部45は、対応付け部46と平面推定部47と距離計測部48と座標変換部49と車線検出部50と投影車両検出部51と車種判別部52とからなる。53は画像処理部45によって検出された車両検出画像である。
【0037】
次に、本実施の形態における動作について説明する。複数の撮像装置41、42と対応付け部46と平面推定部47と距離計測部48と座標変換部49の処理は、実施の形態2と同様であるので、ここでは車線検出部50の処理について説明する。座標変換部49で座標変換された3次元データを、車両の進行方向あるいはその逆方向に投影する。図4で説明すれば、U−H平面に車両と道路の3次元データを投影する。投影すると図8のようになる。投影像から道路の車線位置を検出するには、U軸上で車両の高さHが零となる位置を検出することで可能となる。なお、車線検出部50では、ある一定以上の時間において安定して存在する車線位置のみを出力することにより、車線変更等を行う車両等に影響されずに車線位置を検出することができる。
【0038】
次に、投影車両検出部51の処理について説明する。車線検出部50で得られた車線位置をもとに、座標変換部49で座標変換された3次元データを車線毎に分割し、各車線ごとに、車両の進行方向とは直角方向すなわち車両の側方方向に3次元データを投影する。具体的には、各車線毎に3次元データを図4中のV−H平面に投影する。例えば、ある車線内の3次元データをV−H平面に投影すれば、図9のようになる。車両の先頭部FRをもって車両の位置とすれば、V軸に沿って車高を示すHの値がH=0からH>0に変化する位置を検出することによって車両位置を検出することができる。
【0039】
上記処理により、図10に示すように画像上では重なって見える複数の車両TR1、TR2があっても、3次元データを上記のように投影すれば、図9のように車両毎に分離して検出することができる。また、車種判別部52では、図9に示すような投影像から車両のV軸方向の長さ、車両の高さを示すHの大きさを計測し、あらかじめ把握してある各車種の諸元データと比較することで、大型車、小型車、二輪車等の種別を判別する。この処理によって、たとえば車種別の通過台数を計測する際に有用な情報を得ることができる。
【0040】
このように、本実施の形態3によれば、車線検出部を設けることにより、大局的に車線位置を検出することができ、たとえば車線位置が工事、渋滞等で変化した場合であっても、自動的に車線位置を検出することができる。また、投影車両検出部を設けることにより、車線毎の3次元データを車両側方方向へ投影することで、不完全な3次元データからでも画像上では上下に重なって見える車両を個々に分離して検出することができる。さらに、車種判別部を設けることにより、不完全な3次元データからでも、大型車、小型車等の車種を判別することができる。
【0041】
【発明の効果】
以上の説明から明らかなように、車両検出装置においてステレオ画像処理を用いることで、従来のようなセンサを必要とせず、道路の3次元データから広範囲に車両を検出することができる。また、ステレオ画像処理によって得られる撮像装置が、基準となる座標系の3次元データを道路面を基準とした座標系に座標変換することで、車両の位置や車両の高さ等、人間の感覚に近い情報が得られ、その後の処理を容易かつ効率的に行うことができる。さらに、車両の道路面からの高さを非接触な方法で計測することができ、車両までの距離を道路面上の距離で計測することができ、車線の位置を計測した3次元データから検出することができるため、撮像装置設置後、車線位置が変更になった場合でも車線を分離することができる。さらに、計測後に変換された3次元データを、各車線毎に投影することにより、画像上で重なって見える車両同士を分離して検出することができ、不完全な3次元データからでも、大型車、小型車等の車種を判別することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1における車両検出装置の構成を示すブロック図
【図2】本発明の実施の形態1における動作を説明するための構成図
【図3】本発明の実施の形態2における車両検出装置の構成を示すブロック図
【図4】本発明の実施の形態2における動作を説明するための模式図
【図5】本発明の実施の形態2における動作を説明するための模式図
【図6】本発明の実施の形態2における動作を説明するための模式図
【図7】本発明の実施の形態3における車両検出装置の構成を示すブロック図
【図8】本発明の実施の形態3における動作を説明するための模式図
【図9】本発明の実施の形態3における動作を説明するための模式図
【図10】本発明の実施の形態3における動作を説明するための模式図
【図11】従来の車両検出装置の構成を示すブロック図
【図12】ステレオ画像処理の原理を説明するための模式図
【図13】従来のステレオ画像処理を用いた物体検出装置の構成を示すブロック図
【図14】ステレオ画像処理における画像とブロックとの関係を示す模式図
【図15】ステレオ画像処理における平面推定方法を説明するための模式図
【符号の説明】
1、2、21、22、41、42 撮像装置
3、23、43 左画像
4、24、44 右画像
5、25、45 画像処理部
6、26、46 対応付け部
7、27、47 平面推定部
8、28、48 距離計測部
9、30 車両検出部
10、30A、53 車両検出画像
29、49 座標変換部
50 車線検出部
51 投影車両検出部
52 車種判別部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle detection apparatus to which stereo image processing technology useful for traffic flow measurement and the like is applied.
[0002]
[Prior art]
As a conventional vehicle detection device using image processing, there is a device described in Mitsunori Hayashida et al., “Image-type vehicle detector resistant to external environment changes” (OMRON TECHNICS Vol.32). To explain. In FIG. 11, the hardware configuration uses a CCD camera 102 as the imaging device 101, and corrects changes in external illuminance by the
[0003]
The image output from the CCD camera 102 is subjected to inter-frame difference processing and background difference processing in the image processing unit 105, and a vehicle region in the image is extracted. In the inter-frame difference, binarization is performed after differential processing of two input images that are different in time, and a binary image B 1 (m, n) of only the moving region is extracted. This inter-frame difference processing has a feature that a moving object (vehicle) can be detected stably with respect to outdoor illuminance changes.
[0004]
[Expression 1]
... (1)
However,
f 1 (m, n), f 2 (m, n): luminance α of pixel (m, n) on input image at time t = t 1 , t 2 (t 1 <t 2 ): binarization threshold [0005]
In the background difference processing, binarization is performed after the difference processing between an input image and an image (hereinafter referred to as a background image) that has been created in advance and does not exist. A binary image B 2 (m, n) in a region having a luminance difference in the positive direction with respect to the background image is extracted.
[0006]
[Expression 2]
... (2)
However,
f 2 (m, n): luminance of pixel (m, n) on input image at time t 2 f b (m, n): luminance of pixel (m, n) on background image β: binarization threshold The background difference has a feature that the detection area of the vehicle is accurate. This device aims to detect a vehicle with high accuracy by combining the inter-frame difference process and the background difference process, taking advantage of each other.
[0007]
Next, the principle of stereo image processing will be described. In the stereo image processing technique, the same object is photographed by two imaging devices on the left and right sides, and the distance to the object is measured by the principle of triangulation. In FIG. 12,
Parallax S = X L −X R (3)
The process of finding the points (X L , Y L ), (X R , Y R ) {where Y L = Y R } from the left and right images is called an association process.
[0008]
The distance K from the imaging device to the object P can be calculated from the parallax S by the equation (4).
Distance to object K = (B × f) / S (4)
However, B: Arrangement interval of the imaging device f: Focal length of the lens
Next, a conventional object detection apparatus using stereo image processing will be described with reference to FIG. The
[0010]
[Equation 3]
... (5)
In the search range 134 in the right image 133 in FIG. 14 where the corresponding region may exist, the rectangular region 134a is moved pixel by pixel in the horizontal direction to calculate the similarity evaluation value C, and this value is minimized. Is set as a corresponding area. In this method, the corresponding area can be determined in units of blocks in the left image 131. If the corresponding area is determined, the parallax S can be obtained immediately using the equation (3) from the coordinate position of the corresponding area. .
[0011]
The
[0012]
Next, a “planar estimation method” described in Japanese Patent Application No. 7-234019 will be described as a technique for estimating a three-dimensional position of a road surface using stereo image processing. Of the left and right images, one reference image (left image) is divided into M × N blocks in the horizontal direction (X) M and vertical direction (Y) N as shown in the
[0013]
ρ Y = X cos θ Y + Y sin θ Y (6)
However, ρ Y : distance from the Y axis to the plane passing straight line θ Y : the angular road surface 143 formed by the perpendicular drawn from the plane passing straight line and the XY plane can be approximated by the plane passing straight line 142 group, and the feature is insufficient For blocks where the parallax is undetermined due to such reasons, the parallax on the road surface 143 is obtained from the plane passing straight line 142 group. Due to the global nature of the Hough transform, the position of the road surface 143 can be estimated on the XYS coordinates without being affected by the presence of vehicles or people on the road.
[0014]
[Problems to be solved by the invention]
In a vehicle detection device, it is desired to accurately detect a region of each vehicle stably with respect to all weather conditions, imaging device installation conditions, vehicle shapes, and road conditions. However, in the conventional vehicle detection device using an image by a single imaging device, the vehicle is detected by a temporal and spatial luminance change of the image. It is difficult to detect each vehicle separately if it is erroneously detected for road surface reflections, sunlight or shadows due to lighting, etc. There was a problem. In addition, ultrasonic sensors, optical sensors, and magnetic sensors that have been generally used as vehicle detection devices so far have a problem in that their installation positions are limited and that installation requires a large amount of money.
[0015]
The present invention solves such a conventional problem, and improves the accuracy of vehicle detection by grasping the road environment three-dimensionally, and uses a conventional ultrasonic sensor, optical sensor, or the like. An object of the present invention is to provide a vehicle detection device that replaces a sensor.
[0016]
[Means for Solving the Problems]
In order to achieve the above object, the present invention uses the stereo image processing described in the prior art to sense a road environment three-dimensionally over a wide area and convert the measured three-dimensional data, thereby The position and area of the vehicle are detected with high accuracy by processing close to a sense. Also, by projecting three-dimensional data, the position of the lane, the position of the vehicle, and the vehicle type are grasped globally, thereby improving the accuracy of vehicle detection, It is possible to realize an excellent vehicle detection device that replaces a vehicle detector using light or the like.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
According to a first aspect of the present invention, there are provided a plurality of imaging devices that are arranged horizontally and in parallel to capture a plurality of images on a road surface, and a region having a high correlation between the plurality of captured images. An associating unit for associating; a plane estimating unit for three-dimensionally estimating a position of the road surface from the result of the associating; and a vehicle and the road surface on the road surface by the principle of triangulation from the associating result A distance measuring unit that measures the three-dimensional data, and using the measured three-dimensional data, a height H of the vehicle from the road surface and a distance V on the road surface from the imaging device to the vehicle are calculated. A coordinate conversion unit for converting the coordinates of the three-dimensional data, and projecting the coordinate-converted three-dimensional data onto a VH plane, and a height H from the road surface of the vehicle along the distance V is H = 0 to H> 0
A vehicle detection unit that extracts a vehicle head position and a vehicle region in the image by detecting a position that changes to the vehicle, and measures the number of vehicles passing based on the extracted vehicle head position. This is a vehicle detection device that senses the three-dimensional data of the vehicle and the road surface by stereo image processing, so that the position and area of the vehicle on the road surface can be accurately detected over a wide range without being affected by luminance changes other than the traveling vehicle. can be detected, it is possible to obtain information useful for measuring the vehicle passage number.
In addition, by having the coordinate conversion unit, it is possible to obtain three-dimensional data close to human senses such as the position on the road surface and the height of the vehicle from the road surface.
[0021]
The invention according to
[0023]
The invention described in
[0024]
(Embodiment 1)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a vehicle detection apparatus according to
[0025]
Next, the operation in this embodiment will be described. As shown in FIG. 2, the left and right two
[0026]
As described above, according to the first embodiment, by using stereo image processing for the vehicle detection device, the road environment can be grasped three-dimensionally, and conventionally an image using a sensor or a monocular imaging device is used. The vehicle can be accurately detected from the three-dimensional information of a wide range of road environment that could not be acquired by the processing.
[0027]
(Embodiment 2)
FIG. 3 shows the configuration of the vehicle detection apparatus according to
[0028]
Next, the operation in this embodiment will be described. Since the processes in the plurality of
[0029]
Phase (1): When the
[0030]
Phase (2): Conversion in the vehicle height direction In this phase, as shown in FIG. 6, the height H from the road surface 31 of the photographed vehicle 32 is calculated using the acquired three-dimensional data. The height H of the vehicle 32 from the road surface 31 is calculated using Expression (7) in the geometric relationship between the
[0031]
[Expression 4]
... (7)
K: distance from the imaging device to the vehicle h: height from the road surface of the imaging device RK: in the distance image from the imaging device to the road surface, in a region where the vehicle is present, the vehicle height H is calculated. Stored as three-dimensional data for each position. If this process is described with reference to FIG. 5B, calculating the height H of the vehicle means obtaining three-dimensional data in the normal direction of the paper surface.
[0032]
Phase (3): Conversion in Y direction In
[0033]
[Equation 5]
... (8)
Where K: distance from the imaging device to the vehicle h: height of the imaging device from the road surface RK: distance from the imaging device to the road surface θ: angle formed by the perpendicular and the optical axis of the imaging device
Using the distance RK from the
[0035]
As described above, according to the second embodiment, the three-dimensional data acquired in the coordinate system based on the imaging device is coordinate-transformed into the coordinate system based on the road surface, and is closer to the human sense. Can be obtained. Thereby, first, the height from the road surface of each vehicle can be calculated. In addition, since the distance to the vehicle can be grasped not by the distance from the imaging device but by the distance on the road surface, it is possible to obtain useful information when obtaining the vehicle speed from the position change of the vehicle at regular intervals. it can.
[0036]
(Embodiment 3)
FIG. 7 shows the configuration of the vehicle detection apparatus according to
[0037]
Next, the operation in this embodiment will be described. Since the processes of the plurality of
[0038]
Next, the process of the projection
[0039]
As a result of the above processing, even if there are a plurality of vehicles TR1 and TR2 that appear to overlap each other as shown in FIG. 10, if the three-dimensional data is projected as described above, it is separated for each vehicle as shown in FIG. Can be detected. Further, the vehicle
[0040]
Thus, according to the third embodiment, by providing the lane detection unit, the lane position can be detected globally. For example, even if the lane position changes due to construction, traffic jams, etc. The lane position can be automatically detected. In addition, by providing a projection vehicle detection unit, by projecting the three-dimensional data for each lane in the vehicle lateral direction, even vehicles that appear to overlap in the image even from incomplete three-dimensional data are separated individually. Can be detected. Furthermore, by providing a vehicle type discriminating section, it is possible to discriminate vehicle types such as large vehicles and small vehicles from incomplete three-dimensional data.
[0041]
【The invention's effect】
As is apparent from the above description, by using stereo image processing in the vehicle detection device, a vehicle can be detected over a wide range from the three-dimensional data of the road without using a conventional sensor. In addition, the imaging device obtained by stereo image processing converts the three-dimensional data of the reference coordinate system into a coordinate system based on the road surface, thereby enabling human senses such as the position of the vehicle and the height of the vehicle. Information can be obtained, and the subsequent processing can be performed easily and efficiently. Furthermore, the height of the vehicle from the road surface can be measured by a non-contact method, the distance to the vehicle can be measured by the distance on the road surface, and the position of the lane is detected from 3D data. Therefore, the lane can be separated even when the lane position is changed after the image pickup apparatus is installed. Furthermore, by projecting the three-dimensional data converted after the measurement for each lane, it is possible to separate and detect vehicles that appear to overlap each other on the image. Even from incomplete three-dimensional data, large vehicles can be detected. A vehicle type such as a small car can be discriminated.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a vehicle detection device according to a first embodiment of the present invention. FIG. 2 is a configuration diagram for explaining an operation according to the first embodiment of the present invention. FIG. 4 is a schematic diagram for explaining an operation in the second embodiment of the present invention. FIG. 5 is a diagram for explaining an operation in the second embodiment of the present invention. Fig. 6 is a schematic diagram for explaining the operation in the second embodiment of the present invention. Fig. 7 is a block diagram showing the configuration of the vehicle detection device in the third embodiment of the present invention. FIG. 9 is a schematic diagram for explaining the operation in the third embodiment. FIG. 9 is a schematic diagram for explaining the operation in the third embodiment of the invention. FIG. 10 is for explaining the operation in the third embodiment of the invention. [Fig. 11] Conventional vehicle FIG. 12 is a schematic diagram for explaining the principle of stereo image processing. FIG. 13 is a block diagram showing the configuration of an object detection device using conventional stereo image processing. Schematic diagram showing the relationship between images and blocks in image processing. FIG. 15 is a schematic diagram for explaining a plane estimation method in stereo image processing.
1, 2, 21, 22, 41, 42
Claims (3)
前記撮影された複数の画像間で相関が高い領域を対応付ける対応付け部と、
前記対応付けの結果から前記道路面の位置を3次元的に推定する平面推定部と、
前記対応付けの結果から三角測量の原理で前記道路面上の車両および前記道路面の3次元データを計測する距離計測部と、
前記計測された3次元データを用いて前記車両の道路面からの高さHと前記撮像装置から前記車両までの道路面上の距離Vを算出して前記3次元データを座標変換する座標変換部と、
前記座標変換された3次元データをV−H平面に投影し、前記距離Vに沿って前記車両の道路面からの高さHが
H=0からH>0
に変化する位置を検出することによって、画像中の車両先頭位置および車両領域の抽出を行う車両検出部とを備え、前記抽出された車両先頭位置を基に車両通過台数を計測することを特徴とする車両検出装置。A plurality of imaging devices that are arranged horizontally and parallel to capture a plurality of images on the road surface;
An associating unit for associating a region having a high correlation between the plurality of captured images;
A plane estimation unit that three-dimensionally estimates the position of the road surface from the result of the association;
A distance measuring unit that measures the vehicle on the road surface and the three-dimensional data of the road surface by the principle of triangulation from the result of the association;
A coordinate converter that calculates the height H of the vehicle from the road surface and the distance V on the road surface from the imaging device to the vehicle using the measured three-dimensional data, and performs coordinate conversion of the three-dimensional data. When,
The coordinate-converted three-dimensional data is projected onto a VH plane, and the height H of the vehicle from the road surface along the distance V is H = 0 to H> 0.
A vehicle detection unit that extracts a vehicle head position and a vehicle region in the image by detecting a position that changes to the vehicle, and measures the number of vehicles passing based on the extracted vehicle head position. A vehicle detection device.
前記道路面を基準とした座標系の3次元データを前記車両の進行方向に投影し、
一定以上の時間において前記車両の高さデータが零となる位置を検出することにより車線位置を判別する車線検出部を備えた請求項1記載の車両検出装置。Using a plurality of images taken from the front or rear of the vehicle on the road surface on one or more lanes on one side,
Projecting the three-dimensional data of the coordinate system based on the road surface in the traveling direction of the vehicle,
The vehicle detection device according to claim 1, further comprising a lane detection unit that determines a lane position by detecting a position at which the height data of the vehicle becomes zero for a predetermined time or more.
前記車線検出部によって得られた車線位置情報と前記道路面を基準とした座標系の3次元データを用いて、各車線毎に3次元データを車両側方方向に投影し、
前記車両検出部によって検出された車両の長さ、車両の高さをあらじめ蓄積してある各車種の諸元データと比較することで、前記車両の車種を判別する車種判別部を備えた請求項2記載の車両検出装置。Using a plurality of images taken from the front or rear of the vehicle on the road surface,
Using the lane position information obtained by the lane detection unit and the three-dimensional data of the coordinate system based on the road surface, the three-dimensional data is projected in the vehicle lateral direction for each lane,
A vehicle type discriminating unit that discriminates the vehicle type of the vehicle by comparing the length of the vehicle detected by the vehicle detection unit and the specification data of each vehicle type that has been accumulated in advance. The vehicle detection device according to claim 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11389796A JP3710548B2 (en) | 1996-05-08 | 1996-05-08 | Vehicle detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11389796A JP3710548B2 (en) | 1996-05-08 | 1996-05-08 | Vehicle detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09297849A JPH09297849A (en) | 1997-11-18 |
JP3710548B2 true JP3710548B2 (en) | 2005-10-26 |
Family
ID=14623898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11389796A Expired - Fee Related JP3710548B2 (en) | 1996-05-08 | 1996-05-08 | Vehicle detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3710548B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012099013A (en) * | 2010-11-04 | 2012-05-24 | Saxa Inc | Passing vehicle monitoring system and vehicle monitoring camera |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000182184A (en) * | 1998-12-18 | 2000-06-30 | Matsushita Electric Ind Co Ltd | Method and device for detecting antenna on vehicle |
JP4790148B2 (en) * | 2001-05-16 | 2011-10-12 | 住友大阪セメント株式会社 | Monitoring system |
CN101014975B (en) * | 2004-09-15 | 2011-09-28 | 松下电器产业株式会社 | Object detector |
WO2006052508A2 (en) * | 2004-11-03 | 2006-05-18 | Tyzx, Inc. | An integrated image processor |
JP4848698B2 (en) * | 2005-08-04 | 2011-12-28 | 住友電気工業株式会社 | Vehicle sensing device and vehicle sensing method |
JP4979306B2 (en) * | 2006-08-25 | 2012-07-18 | パナソニック株式会社 | Vehicle automatic measurement device, vehicle automatic measurement system, and vehicle automatic measurement method |
JP5181602B2 (en) * | 2007-09-28 | 2013-04-10 | コニカミノルタホールディングス株式会社 | Object detection device |
JP2010107410A (en) * | 2008-10-31 | 2010-05-13 | Pioneer Electronic Corp | Navigation apparatus |
JP2012163998A (en) * | 2011-02-03 | 2012-08-30 | Mitsubishi Electric Corp | Driving support system, driving support method of driving system, speed calculation device, and speed calculation program |
JP2014010771A (en) * | 2012-07-02 | 2014-01-20 | Toshiba Corp | Vehicle detection device |
JP2014215719A (en) * | 2013-04-23 | 2014-11-17 | 株式会社東芝 | Vehicle model determination device |
JP2015046126A (en) * | 2013-08-29 | 2015-03-12 | 株式会社東芝 | Vehicle detector |
JP2015060053A (en) * | 2013-09-18 | 2015-03-30 | 株式会社東芝 | Solid-state imaging device, control device, and control program |
JP6090190B2 (en) * | 2014-02-06 | 2017-03-08 | オムロン株式会社 | Mobile management device |
CN106816013B (en) * | 2017-04-06 | 2023-07-07 | 南京云计趟信息技术有限公司 | Illegal vehicle identification system based on engineering vehicle |
JP2022002018A (en) * | 2020-06-22 | 2022-01-06 | オムロン株式会社 | Dynamic body detection device and method for the same |
-
1996
- 1996-05-08 JP JP11389796A patent/JP3710548B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012099013A (en) * | 2010-11-04 | 2012-05-24 | Saxa Inc | Passing vehicle monitoring system and vehicle monitoring camera |
Also Published As
Publication number | Publication date |
---|---|
JPH09297849A (en) | 1997-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3895238B2 (en) | Obstacle detection apparatus and method | |
JP3710548B2 (en) | Vehicle detection device | |
EP3057063B1 (en) | Object detection device and vehicle using same | |
US7899211B2 (en) | Object detecting system and object detecting method | |
US10909395B2 (en) | Object detection apparatus | |
JP4363295B2 (en) | Plane estimation method using stereo images | |
KR20160123668A (en) | Device and method for recognition of obstacles and parking slots for unmanned autonomous parking | |
US20120327236A1 (en) | Vehicle Periphery Monitoring System | |
JP3727400B2 (en) | Crossing detection device | |
CN110334678A (en) | A kind of pedestrian detection method of view-based access control model fusion | |
CN108645375B (en) | Rapid vehicle distance measurement optimization method for vehicle-mounted binocular system | |
WO2010060287A1 (en) | An obstacle detecting method based on monocular vision and the device thereof | |
JPH11252587A (en) | Object tracking device | |
JP2008299458A (en) | Vehicle monitoring apparatus and vehicle monitoring method | |
JP3961584B2 (en) | Lane marking detector | |
KR20120065558A (en) | Detection method vehicle in road using region of interest | |
Klappstein et al. | Monocular motion detection using spatial constraints in a unified manner | |
JP4256992B2 (en) | Obstacle detection device | |
JP5981284B2 (en) | Object detection device and object detection method | |
KR100631082B1 (en) | Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same | |
CN117058236A (en) | Target identification positioning method based on multi-vision system self-switching | |
JP3879874B2 (en) | Logistics measuring device | |
JP4106163B2 (en) | Obstacle detection apparatus and method | |
JP2001108434A (en) | Method and apparatus for measuring distance | |
JP3384526B2 (en) | Logistics measurement equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041207 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050207 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050426 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050624 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20050630 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050810 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080819 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090819 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090819 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100819 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |