JP3710548B2 - Vehicle detection device - Google Patents

Vehicle detection device Download PDF

Info

Publication number
JP3710548B2
JP3710548B2 JP11389796A JP11389796A JP3710548B2 JP 3710548 B2 JP3710548 B2 JP 3710548B2 JP 11389796 A JP11389796 A JP 11389796A JP 11389796 A JP11389796 A JP 11389796A JP 3710548 B2 JP3710548 B2 JP 3710548B2
Authority
JP
Japan
Prior art keywords
vehicle
road surface
dimensional data
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP11389796A
Other languages
Japanese (ja)
Other versions
JPH09297849A (en
Inventor
本 泰 之 道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP11389796A priority Critical patent/JP3710548B2/en
Publication of JPH09297849A publication Critical patent/JPH09297849A/en
Application granted granted Critical
Publication of JP3710548B2 publication Critical patent/JP3710548B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、交通流計測等に有用なステレオ画像処理技術を応用した車両検出装置に関するものである。
【0002】
【従来の技術】
従来の画像処理を用いた車両検出装置として、林田 光紀ほか著「外部環境変化に強い画像形車両感知器」(OMRON TECHNICS Vol.32 )に記載された装置があり、以下これを図11を参照して説明する。図11において、ハードウエア構成は、撮像装置101としてCCDカメラ102を用い、外部照度変化に対してはEEレンズ103で補正する。CCDカメラ102からの画像入力を装置本体104の画像処理部105に入力し、A/D変換部106でA/D変換して画像処理を行い、ビデオRAM107に蓄えられた後、端末通信ユニット108を介して端末LANに出力される。
【0003】
CCDカメラ102から出力された画像は、画像処理部105においてフレーム間差分処理と背景差分処理が施されて、画像中の車両領域が抽出される。フレーム間差分では、時間的に異なった2つの入力画像の差分処理を行った後に二値化し、移動領域のみの二値画像B1 (m、n)を抽出する。このフレーム間差分処理は屋外の照度変化に対して安定して移動物体(車両)を検出できる特徴を持つ。
【0004】
【数1】

Figure 0003710548
・・・(1)
ただし、
1 (m,n)、f2 (m、n):時刻t=t1 、t2 (t1 <t2 )における入力画像上の画素(m、n)の輝度
α:二値化閾値
【0005】
背景差分処理では、あらかじめ作成されている、車両の存在しない状態の画像(以下、背景画像)と入力画像の差分処理を行った後に二値化する。背景画像に対して正方向の輝度差を持つ領域の2値画像B2 (m、n)を抽出する。
【0006】
【数2】
Figure 0003710548
・・・(2)
ただし、
2 (m、n):時刻t2 における入力画像上の画素(m、n)の輝度
b (m、n):背景画像上の画素(m、n)の輝度
β:二値化閾値
背景差分は、車両の検出領域が正確であるという特徴を持つ。この装置では、フレーム間差分処理と背景差分処理を組み合わせることにより、互いの利点を生かし、高精度に車両を検出することを目指している。
【0007】
次にステレオ画像処理の原理について説明する。ステレオ画像処理技術は、左右2台の撮像装置によって同一の物体を撮影し、三角測量の原理で物体までの距離を計測するものである。図12では水平かつ平行に配置した2台の撮像装置の撮像面111、112と物体Pが示してある。実際には、撮像装置の撮像面111、112はx軸より手前に存在するが、説明の便宜上このように示すことにする。今、物体Pまでの距離を計測しようとすると、物体Pは左右の画像上でそれぞれ点PL 、PR に結像する。点PL 、PR の画像上でのx方向の座標をそれぞれXL 、XR とすると、視差Sは式(3)のように求められる。
視差S=XL −XR ・・・(3)
左右の画像から点(XL ,YL )、(XR ,YR ){ 但しYL =YR }を見つけ出す処理を対応付け処理という。
【0008】
視差Sから式(4)により撮像装置から物体Pまでの距離Kを算出することができる。
物体までの距離K=(B×f)/S ・・・(4)
ただし、B:撮像装置の配置間隔
f:レンズの焦点距離
【0009】
次に、従来のステレオ画像処理を用いた物体検出装置を図13を用いて説明する。光軸が平行になるように配置された左右2台の撮像装置121、122によって左画像123および右画像124を撮像する。撮影された画像のうち、左画像123を基準とする。左画像123を水平方向M、垂直方向Nのブロックに分割し、対応付け部125によって各ブロックの視差を決定する。対応付け方法の一例として、実吉 敬二他著「3次元画像認識技術を用いた運転支援システム」(自動車技術学会 学術講演会前刷集9241992−10)に記載の方法を用いて説明する。図14において、左画像131のブロック132はm×n個の画素で構成されている。ブロック132内部におけるi番目の画素の明るさをLiとする。また右画像133にもm×n画素の矩形領域134aを設定し、この矩形領域内部におけるi番目の画素の明るさをRiとする。これら左右画像間の矩形領域の類似度評価値は次式(5)で与えられる。
【0010】
【数3】
Figure 0003710548
・・・(5)
対応領域が存在する可能性のある図14中の右画像133内の探索範囲134において、矩形領域134aを水平方向に1画素ずつ移動させて類似度評価値Cを計算し、この値が最小になる領域を対応領域とする。この方法では、対応領域を左画像131におけるブロック単位で決定することができ、また対応領域が決まれば、その対応領域の座標位置から即座に式(3)を用いて視差Sを求めることができる。
【0011】
距離計測部126では、各ブロック毎の視差から式(4)を用いて撮像装置から物体までの距離を算出し、各ブロック位置に格納した画像を距離画像127と呼び、検出すべき物体の無い状態での距離画像を特に初期距離画像128と呼び両者を区別する。距離差検出部129では、初期距離画像128と随時獲得される距離画像127に格納された同一ブロック位置の距離を比較し、距離変化があったブロックには、新たに物体が存在すると判断して、物体検出画像130を検出する。
【0012】
次に、ステレオ画像処理を用いて道路面の3次元的な位置を推定する技術として、特願平7-234019号公報に記載の「平面推定方法」について説明する。左右画像のうち、基準とする一方の画像(左画像)を図15中、画像面141のように水平方向(X)M個、垂直方向(Y)N個の合計M×Nのブロックに分割し、各ブロックごとに視差を計測している。各ブロックにおいて計測された視差データをS(X、Y)と表記する。これを図15に示すX−Y−Sの3次元座標上にプロットし、インデックスY(1≦Y≦N)を固定したときの点列S(X、Y)に直線を当てはめる。この直線は道路面143を通過していることから平面通過直線142と呼ぶことにする。直線の当てはめには、データを大局的に扱うことができるハフ変換を用いる。ハフ変換を行うに当たって必要となる直線パラメータは、直線から原点(Y軸)へ下ろした垂線の距離ρと垂線の傾きθを用いる。そのため平面通過直線142は式(6)のように表される。
【0013】
ρY =XcosθY +YsinθY ・・・(6)
ただし、ρY :Y軸から平面通過直線までの距離
θY :平面通過直線から下ろした垂線とX−Y平面がなす角
道路面143は平面通過直線142群で近似できるようになり、特徴不足等の原因で視差が未決定のブロックでは、平面通過直線142群から道路面143上の視差を求められる。ハフ変換のもつ大局性により、道路上に車両や人等が存在していても、これらに影響されずに、X−Y−S座標上で道路面143の位置を推定することができる。
【0014】
【発明が解決しようとする課題】
車両検出装置においては、あらゆる気象条件や撮像装置設置条件、車両形状、道路状態に対して安定して各車両の領域を正確に検出することが望まれている。しかしながら、従来の単一の撮像装置による画像を用いた車両検出装置では、画像の時間的、空間的輝度変化で車両を検出しているため、走行車両以外による輝度変化(たとえば夜間のヘッドライトの道路面反射、日差しや照明による影等)に対して誤検出を起こすことや、カメラから見て複数の車両が重なってみえた場合、それぞれの車両を分離して検出することは困難であるという問題があった。また、これまで車両検出装置として一般的に用いられていた超音波センサや光センサ、磁気センサは、その設置位置が限定され、しかも設置には多額の費用を要するという問題があった。
【0015】
本発明は、このような従来の問題を解決するものであり、道路環境を3次元的に把握することで、車両検出の精度を向上し、従来の超音波センサ、光センサ等を用いた車両感知器に代わる車両検出装置を提供することを目的とする。
【0016】
【課題を解決するための手段】
本発明は、上記目的を達成するために、従来技術で述べたステレオ画像処理を用いて、道路環境を広範囲にわたって3次元的にセンシングし、計測された3次元データを変換することで、人間の感覚に近い処理で車両の位置や領域を精度良く検出するようにしたものである。また、3次元データの投影を行うことで、大局的に車線の位置や車両の位置および車種を把握するようにしたものであり、これにより、車両検出の精度を向上し、従来の超音波、光等を用いた車両感知器に代わる優れた車両検出装置を実現することができる。
【0017】
【発明の実施の形態】
本発明の請求項1に記載の発明は、水平かつ平行に配置されて道路面上の複数の画像を撮影する複数台の撮像装置と、前記撮影された複数の画像間で相関が高い領域を対応付ける対応付け部と、前記対応付けの結果から前記道路面の位置を3次元的に推定する平面推定部と、前記対応付けの結果から三角測量の原理で前記道路面上の車両および前記道路面の3次元データを計測する距離計測部と、前記計測された3次元データを用いて前記車両の道路面からの高さHと前記撮像装置から前記車両までの道路面上の距離Vを算出して前記3次元データを座標変換する座標変換部と、前記座標変換された3次元データをV−H平面に投影し、前記距離Vに沿って前記車両の道路面からの高さHが
H=0からH>0
に変化する位置を検出することによって、画像中の車両先頭位置および車両領域の抽出を行う車両検出部とを備え、前記抽出された車両先頭位置を基に車両通過台数を計測することを特徴とする車両検出装置であり、ステレオ画像処理によって車両や道路面の3次元データをセンシングすることで、走行車両以外の輝度変化に影響されることなく道路面上の車両の位置と領域を広範囲に精度よく検出することができ、車両通過台数を計測する際に有用な情報を得ることができる。
また、座標変換部を持つことで、道路面上での位置、車両の道路面からの高さ等人間の感覚に近い3次元データを得ることができる。
【0021】
本発明の請求項に記載の発明は、片側1車線以上ある道路において前記道路面上の車両を前方あるいは後方から撮影した複数の画像を使用し、前記道路面を基準とした座標系の3次元データを前記車両の進行方向に投影し、一定以上の時間において前記車両の高さデータが零となる位置を検出することにより車線位置を判別する車線検出部を備えた請求項記載の車両検出装置であり、3次元データを投影した結果から大局的に車線位置を判断することができる。
【0023】
本発明の請求項に記載の発明は、前記道路面上の車両を前方あるいは後方から撮影した複数の画像を使用し、前記車線検出部によって得られた車線位置情報と前記道路面を基準とした座標系の3次元データを用いて、各車線毎に3次元データを車両側方方向に投影し、前記車両検出部によって検出された車両の長さ、車両の高さをあらじめ蓄積してある各車種の諸元データと比較することで、前記車両の車種を判別する車種判別部を備えた請求項記載の車両検出装置であり、3次元データを車両側方方向に投影することで不完全な3次元データからでも、大型車、小型車等の車種を判別することができる。
【0024】
(実施の形態1)
以下、本発明の実施の形態について図面を参照して説明する。図1は本発明の実施の形態1における車両検出装置の構成を示している。図1において、1は第1の撮像装置、2は第2の撮像装置であり、3は撮像装置1によって撮像された左画像、4は撮像装置2によって撮像された右画像である。5は左画像3および右画像4に対して画像処理を施す画像処理部である。画像処理部5は、対応付け部6と平面推定部7と距離計測部8と車両検出部9とからなる。10は画像処理部5によって検出された車両検出画像である。
【0025】
次に、本実施の形態における動作について説明する。図2に示すように左右に配置される2台の撮像装置1、2によって道路面11と道路環境上の車両12とを撮像し、それによって得られる左右の2画像3と4のうち、左画像3を基準画像として、対応付け部6で、図14を用いて説明したのように、左画像3を水平方向M垂直方向Nのブロックに分割し、各ブロック毎に右画像4から類似した領域を見つけ、視差を獲得する。平面推定部7では、対応付け部6から出力される各ブロック毎の視差を用いて、ハフ変換により3次元的に道路面の位置を推定する。距離計測部8では、推定された道路面の視差や対応付け部6で得られた視差を用いて、これを撮像装置1、2から車両12や道路面11までの距離に変換する。車両検出部9では、各ブロック毎に車両が存在している3次元データと推定した道路面の3次元データとを比較し、道路面11より撮像装置1、2側にある物体を検出することで、車両12を検出し、車両検出画像10を得る。
【0026】
このように、本実施の形態1によれば、車両検出装置にステレオ画像処理を用いることで、道路環境を3次元的に把握することができ、従来、センサや単眼の撮像装置を用いた画像処理では獲得できなかった広範囲の道路環境の立体情報から車両を正確に検出することができるようになる。
【0027】
(実施の形態2)
図3は本発明の実施の形態2における車両検出装置の構成を示している。図3において、21は第1の撮像装置、22は第2の撮像装置であり、23は撮像装置21によって撮像された左画像、24は撮像装置22によって撮像された右画像である。25は左画像23および右画像24に対して画像処理を施す画像処理部である。画像処理部25は、対応付け部26と平面推定部27と距離計測部28と座標変換部29と車両検出部30とからなる。30Aは画像処理部25によって検出された車両検出画像である。
【0028】
次に、本実施の形態における動作について説明する。複数の撮像装置21、22と対応付け部26と平面推定部27における処理は、実施の形態1と同様であるので、ここでは距離計測部28と座標変換部29の処理について説明する。座標変換部29では、図4に示すように、撮像装置21、22を基準とした座標系CO1を道路面31を基準とした座標系CO2に変換する。道路面31を基準とした座標系は、具体的には道路面31上の位置を示す2つの次元と、道路上の物体の高さを示す1つの次元からなる。座標の変換は、まず距離計測部28で必要な距離を計測した上で、次のような3フェーズで行われる。
【0029】
フェーズ(1):X方向の変換
撮像装置21、22を図2に示す撮像装置1、2のように設置した場合、一般的に撮像される画像は図5(a)のようになる。これを画像水平方向に関して、3次元データの配列間隔が実際の道路面の一定間隔毎になるように変換する。具体的な手法は、画像を図5(a) のように小レーンSLに分割し、各小レーンSLが平行になるように3次元データの水平方向への配置間隔を変換する。本フェーズにおける処理を図的に説明すれば、図5(a)の画像が図5(b)の画像のようになる。
【0030】
フェーズ(2):車両高さ方向の変換
このフェーズでは、獲得された3次元データを用いて、図6に示すように、撮影された車両32の道路面31からの高さHを算出する。道路面31からの車両32の高さHは、撮像装置21、22と道路面31および検出する車両32の幾何学的関係において式(7)を用いて算出される。
【0031】
【数4】
Figure 0003710548
・・・(7)
ただし、 K :撮像装置から車両までの距離
h :撮像装置の道路面からの高さ
RK:撮像装置から道路面までの距離
画像中、車両がある領域では車両の高さHを算出し、各位置毎に3次元データとして格納する。本処理を図5(b)を用いて説明すれば、車両の高さHを算出することは紙面の法線方向の3次元データを求めることである。
【0032】
フェーズ(3):Y方向の変換
フェーズ3では、図4の画像Y方向についても3次元データの配列間隔が、道路面での距離に比例するように変換する。具体的には、撮像装置21、22から車両32までの道路面31上での水平距離Vは、図6に示すように、撮像装置21、22と道路面31および検出する車両32の幾何学的関係において式(8)を用いて算出される。
【0033】
【数5】
Figure 0003710548
・・・(8)
ただし、K :撮像装置から車両までの距離
h :撮像装置の道路面からの高さ
RK:撮像装置から道路面までの距離
θ :垂線と撮像装置の光軸がなす角
【0034】
各ブロック毎に距離計測部28によって得られる撮像装置21、22から道路面31までの距離RKと車両32までの距離Kを用いて、式(8)から、撮像装置21、22が道路面31に落とした垂線の位置から車両32までの距離、すなわち道路面32上の距離Vを算出し、道路面32上の距離Vに応じて3次元データを配置、変換する。図5で本フェーズにおける処理を図的に説明すれば、図5(b)の画像が図5(c)の画像のように変換され、画像垂直方向の3次元データの配置間隔も水平方向と同様に道路面上での一定間隔毎になる。その後、実施の形態1と同様に、車両検出部30では、各ブロック毎に車両が存在している3次元データと推定した道路面の3次元データとを比較し、道路面32より撮像装置21、22側にある物体を検出することで車両31を検出し、車両検出画像30Aを得る。
【0035】
このように、本実施の形態2によれば、撮像装置を基準とした座標系で獲得された3次元データは、道路面を基準とした座標系に座標変換され、より人間の感覚に近いデータが得られるようになる。これにより、まず各車両の道路面からの高さを算出することができる。また、車両までの距離を、撮像装置からの距離ではなく、道路面上の距離で把握できるので、一定時間毎の車両の位置変化から車両速度を求める等の際、有用な情報を得ることができる。
【0036】
(実施の形態3)
図7は本発明の実施の形態3における車両検出装置の構成を示している。図7において、41は第1の撮像装置、42は第2の撮像装置であり、43は撮像装置41によって撮像された左画像、44は撮像装置42によって撮像された右画像である。45は左画像43および右画像44に対して画像処理を施す画像処理部である。画像処理部45は、対応付け部46と平面推定部47と距離計測部48と座標変換部49と車線検出部50と投影車両検出部51と車種判別部52とからなる。53は画像処理部45によって検出された車両検出画像である。
【0037】
次に、本実施の形態における動作について説明する。複数の撮像装置41、42と対応付け部46と平面推定部47と距離計測部48と座標変換部49の処理は、実施の形態2と同様であるので、ここでは車線検出部50の処理について説明する。座標変換部49で座標変換された3次元データを、車両の進行方向あるいはその逆方向に投影する。図4で説明すれば、U−H平面に車両と道路の3次元データを投影する。投影すると図8のようになる。投影像から道路の車線位置を検出するには、U軸上で車両の高さHが零となる位置を検出することで可能となる。なお、車線検出部50では、ある一定以上の時間において安定して存在する車線位置のみを出力することにより、車線変更等を行う車両等に影響されずに車線位置を検出することができる。
【0038】
次に、投影車両検出部51の処理について説明する。車線検出部50で得られた車線位置をもとに、座標変換部49で座標変換された3次元データを車線毎に分割し、各車線ごとに、車両の進行方向とは直角方向すなわち車両の側方方向に3次元データを投影する。具体的には、各車線毎に3次元データを図4中のV−H平面に投影する。例えば、ある車線内の3次元データをV−H平面に投影すれば、図9のようになる。車両の先頭部FRをもって車両の位置とすれば、V軸に沿って車高を示すHの値がH=0からH>0に変化する位置を検出することによって車両位置を検出することができる。
【0039】
上記処理により、図10に示すように画像上では重なって見える複数の車両TR1、TR2があっても、3次元データを上記のように投影すれば、図9のように車両毎に分離して検出することができる。また、車種判別部52では、図9に示すような投影像から車両のV軸方向の長さ、車両の高さを示すHの大きさを計測し、あらかじめ把握してある各車種の諸元データと比較することで、大型車、小型車、二輪車等の種別を判別する。この処理によって、たとえば車種別の通過台数を計測する際に有用な情報を得ることができる。
【0040】
このように、本実施の形態3によれば、車線検出部を設けることにより、大局的に車線位置を検出することができ、たとえば車線位置が工事、渋滞等で変化した場合であっても、自動的に車線位置を検出することができる。また、投影車両検出部を設けることにより、車線毎の3次元データを車両側方方向へ投影することで、不完全な3次元データからでも画像上では上下に重なって見える車両を個々に分離して検出することができる。さらに、車種判別部を設けることにより、不完全な3次元データからでも、大型車、小型車等の車種を判別することができる。
【0041】
【発明の効果】
以上の説明から明らかなように、車両検出装置においてステレオ画像処理を用いることで、従来のようなセンサを必要とせず、道路の3次元データから広範囲に車両を検出することができる。また、ステレオ画像処理によって得られる撮像装置が、基準となる座標系の3次元データを道路面を基準とした座標系に座標変換することで、車両の位置や車両の高さ等、人間の感覚に近い情報が得られ、その後の処理を容易かつ効率的に行うことができる。さらに、車両の道路面からの高さを非接触な方法で計測することができ、車両までの距離を道路面上の距離で計測することができ、車線の位置を計測した3次元データから検出することができるため、撮像装置設置後、車線位置が変更になった場合でも車線を分離することができる。さらに、計測後に変換された3次元データを、各車線毎に投影することにより、画像上で重なって見える車両同士を分離して検出することができ、不完全な3次元データからでも、大型車、小型車等の車種を判別することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1における車両検出装置の構成を示すブロック図
【図2】本発明の実施の形態1における動作を説明するための構成図
【図3】本発明の実施の形態2における車両検出装置の構成を示すブロック図
【図4】本発明の実施の形態2における動作を説明するための模式図
【図5】本発明の実施の形態2における動作を説明するための模式図
【図6】本発明の実施の形態2における動作を説明するための模式図
【図7】本発明の実施の形態3における車両検出装置の構成を示すブロック図
【図8】本発明の実施の形態3における動作を説明するための模式図
【図9】本発明の実施の形態3における動作を説明するための模式図
【図10】本発明の実施の形態3における動作を説明するための模式図
【図11】従来の車両検出装置の構成を示すブロック図
【図12】ステレオ画像処理の原理を説明するための模式図
【図13】従来のステレオ画像処理を用いた物体検出装置の構成を示すブロック図
【図14】ステレオ画像処理における画像とブロックとの関係を示す模式図
【図15】ステレオ画像処理における平面推定方法を説明するための模式図
【符号の説明】
1、2、21、22、41、42 撮像装置
3、23、43 左画像
4、24、44 右画像
5、25、45 画像処理部
6、26、46 対応付け部
7、27、47 平面推定部
8、28、48 距離計測部
9、30 車両検出部
10、30A、53 車両検出画像
29、49 座標変換部
50 車線検出部
51 投影車両検出部
52 車種判別部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle detection apparatus to which stereo image processing technology useful for traffic flow measurement and the like is applied.
[0002]
[Prior art]
As a conventional vehicle detection device using image processing, there is a device described in Mitsunori Hayashida et al., “Image-type vehicle detector resistant to external environment changes” (OMRON TECHNICS Vol.32). To explain. In FIG. 11, the hardware configuration uses a CCD camera 102 as the imaging device 101, and corrects changes in external illuminance by the EE lens 103. An image input from the CCD camera 102 is input to the image processing unit 105 of the apparatus main body 104, A / D converted by the A / D conversion unit 106, subjected to image processing, stored in the video RAM 107, and then the terminal communication unit 108. To the terminal LAN.
[0003]
The image output from the CCD camera 102 is subjected to inter-frame difference processing and background difference processing in the image processing unit 105, and a vehicle region in the image is extracted. In the inter-frame difference, binarization is performed after differential processing of two input images that are different in time, and a binary image B 1 (m, n) of only the moving region is extracted. This inter-frame difference processing has a feature that a moving object (vehicle) can be detected stably with respect to outdoor illuminance changes.
[0004]
[Expression 1]
Figure 0003710548
... (1)
However,
f 1 (m, n), f 2 (m, n): luminance α of pixel (m, n) on input image at time t = t 1 , t 2 (t 1 <t 2 ): binarization threshold [0005]
In the background difference processing, binarization is performed after the difference processing between an input image and an image (hereinafter referred to as a background image) that has been created in advance and does not exist. A binary image B 2 (m, n) in a region having a luminance difference in the positive direction with respect to the background image is extracted.
[0006]
[Expression 2]
Figure 0003710548
... (2)
However,
f 2 (m, n): luminance of pixel (m, n) on input image at time t 2 f b (m, n): luminance of pixel (m, n) on background image β: binarization threshold The background difference has a feature that the detection area of the vehicle is accurate. This device aims to detect a vehicle with high accuracy by combining the inter-frame difference process and the background difference process, taking advantage of each other.
[0007]
Next, the principle of stereo image processing will be described. In the stereo image processing technique, the same object is photographed by two imaging devices on the left and right sides, and the distance to the object is measured by the principle of triangulation. In FIG. 12, imaging surfaces 111 and 112 and an object P of two imaging devices arranged horizontally and in parallel are shown. Actually, the imaging planes 111 and 112 of the imaging apparatus exist in front of the x-axis, but are shown in this way for convenience of explanation. Now, when trying to measure the distance to the object P, the object P is imaged at points P L and P R on the left and right images, respectively. If the coordinates in the x direction on the images of the points P L and P R are X L and X R , respectively, the parallax S is obtained as shown in Equation (3).
Parallax S = X L −X R (3)
The process of finding the points (X L , Y L ), (X R , Y R ) {where Y L = Y R } from the left and right images is called an association process.
[0008]
The distance K from the imaging device to the object P can be calculated from the parallax S by the equation (4).
Distance to object K = (B × f) / S (4)
However, B: Arrangement interval of the imaging device f: Focal length of the lens
Next, a conventional object detection apparatus using stereo image processing will be described with reference to FIG. The left image 123 and the right image 124 are imaged by the left and right imaging devices 121 and 122 arranged so that the optical axes are parallel to each other. Of the captured images, the left image 123 is used as a reference. The left image 123 is divided into blocks in the horizontal direction M and the vertical direction N, and the associating unit 125 determines the parallax of each block. As an example of the association method, a method described in Keiji Miyoshi et al., “Driving support system using 3D image recognition technology” (Academic Lecture Preprint 92419922-10) will be described. In FIG. 14, the block 132 of the left image 131 is composed of m × n pixels. Let Li be the brightness of the i-th pixel inside the block 132. Also, a rectangular area 134a of m × n pixels is set for the right image 133, and the brightness of the i-th pixel in the rectangular area is Ri. The similarity evaluation value of the rectangular area between these left and right images is given by the following equation (5).
[0010]
[Equation 3]
Figure 0003710548
... (5)
In the search range 134 in the right image 133 in FIG. 14 where the corresponding region may exist, the rectangular region 134a is moved pixel by pixel in the horizontal direction to calculate the similarity evaluation value C, and this value is minimized. Is set as a corresponding area. In this method, the corresponding area can be determined in units of blocks in the left image 131. If the corresponding area is determined, the parallax S can be obtained immediately using the equation (3) from the coordinate position of the corresponding area. .
[0011]
The distance measuring unit 126 calculates the distance from the imaging device to the object using the equation (4) from the parallax for each block, and the image stored at each block position is called a distance image 127, and there is no object to be detected. The distance image in the state is particularly called the initial distance image 128 and is distinguished from each other. The distance difference detection unit 129 compares the distance of the same block position stored in the initial distance image 128 and the distance image 127 acquired as needed, and determines that a new object exists in the block in which the distance has changed. The object detection image 130 is detected.
[0012]
Next, a “planar estimation method” described in Japanese Patent Application No. 7-234019 will be described as a technique for estimating a three-dimensional position of a road surface using stereo image processing. Of the left and right images, one reference image (left image) is divided into M × N blocks in the horizontal direction (X) M and vertical direction (Y) N as shown in the image plane 141 in FIG. The parallax is measured for each block. The parallax data measured in each block is denoted as S (X, Y). This is plotted on the three-dimensional coordinates of XYS shown in FIG. 15, and a straight line is applied to the point sequence S (X, Y) when the index Y (1 ≦ Y ≦ N) is fixed. Since this straight line passes through the road surface 143, it will be referred to as a plane passing straight line 142. For fitting a straight line, Hough transform that can handle data globally is used. As the linear parameters necessary for performing the Hough transform, the distance ρ of the perpendicular drawn from the straight line to the origin (Y axis) and the inclination θ of the perpendicular are used. Therefore, the plane passing straight line 142 is expressed as shown in Expression (6).
[0013]
ρ Y = X cos θ Y + Y sin θ Y (6)
However, ρ Y : distance from the Y axis to the plane passing straight line θ Y : the angular road surface 143 formed by the perpendicular drawn from the plane passing straight line and the XY plane can be approximated by the plane passing straight line 142 group, and the feature is insufficient For blocks where the parallax is undetermined due to such reasons, the parallax on the road surface 143 is obtained from the plane passing straight line 142 group. Due to the global nature of the Hough transform, the position of the road surface 143 can be estimated on the XYS coordinates without being affected by the presence of vehicles or people on the road.
[0014]
[Problems to be solved by the invention]
In a vehicle detection device, it is desired to accurately detect a region of each vehicle stably with respect to all weather conditions, imaging device installation conditions, vehicle shapes, and road conditions. However, in the conventional vehicle detection device using an image by a single imaging device, the vehicle is detected by a temporal and spatial luminance change of the image. It is difficult to detect each vehicle separately if it is erroneously detected for road surface reflections, sunlight or shadows due to lighting, etc. There was a problem. In addition, ultrasonic sensors, optical sensors, and magnetic sensors that have been generally used as vehicle detection devices so far have a problem in that their installation positions are limited and that installation requires a large amount of money.
[0015]
The present invention solves such a conventional problem, and improves the accuracy of vehicle detection by grasping the road environment three-dimensionally, and uses a conventional ultrasonic sensor, optical sensor, or the like. An object of the present invention is to provide a vehicle detection device that replaces a sensor.
[0016]
[Means for Solving the Problems]
In order to achieve the above object, the present invention uses the stereo image processing described in the prior art to sense a road environment three-dimensionally over a wide area and convert the measured three-dimensional data, thereby The position and area of the vehicle are detected with high accuracy by processing close to a sense. Also, by projecting three-dimensional data, the position of the lane, the position of the vehicle, and the vehicle type are grasped globally, thereby improving the accuracy of vehicle detection, It is possible to realize an excellent vehicle detection device that replaces a vehicle detector using light or the like.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
According to a first aspect of the present invention, there are provided a plurality of imaging devices that are arranged horizontally and in parallel to capture a plurality of images on a road surface, and a region having a high correlation between the plurality of captured images. An associating unit for associating; a plane estimating unit for three-dimensionally estimating a position of the road surface from the result of the associating; and a vehicle and the road surface on the road surface by the principle of triangulation from the associating result A distance measuring unit that measures the three-dimensional data, and using the measured three-dimensional data, a height H of the vehicle from the road surface and a distance V on the road surface from the imaging device to the vehicle are calculated. A coordinate conversion unit for converting the coordinates of the three-dimensional data, and projecting the coordinate-converted three-dimensional data onto a VH plane, and a height H from the road surface of the vehicle along the distance V is H = 0 to H> 0
A vehicle detection unit that extracts a vehicle head position and a vehicle region in the image by detecting a position that changes to the vehicle, and measures the number of vehicles passing based on the extracted vehicle head position. This is a vehicle detection device that senses the three-dimensional data of the vehicle and the road surface by stereo image processing, so that the position and area of the vehicle on the road surface can be accurately detected over a wide range without being affected by luminance changes other than the traveling vehicle. can be detected, it is possible to obtain information useful for measuring the vehicle passage number.
In addition, by having the coordinate conversion unit, it is possible to obtain three-dimensional data close to human senses such as the position on the road surface and the height of the vehicle from the road surface.
[0021]
The invention according to claim 2 of the present invention uses a plurality of images obtained by photographing the vehicle on the road surface from the front or rear in a road with one lane or more, of the coordinate system based on the road surface 3 projecting the dimensional data in the traveling direction of the vehicle, the vehicle of claim 1, further comprising a lane detecting unit for determining a lane position by detecting the position where the height data of the vehicle at a constant or time is zero It is a detection device, and the lane position can be determined globally from the result of projecting the three-dimensional data.
[0023]
The invention described in claim 3 of the present invention uses a plurality of images obtained by photographing the vehicle on the road surface from the front or rear, the lane position information obtained by the traffic lane detecting section and the reference of the road surface The three-dimensional data of the coordinate system is used to project the three-dimensional data in the vehicle lateral direction for each lane, and the vehicle length and vehicle height detected by the vehicle detection unit are stored in advance. The vehicle detection device according to claim 2 , further comprising: a vehicle type discriminating unit that discriminates the vehicle type of the vehicle by comparing with specification data of each vehicle type, and projecting three-dimensional data in a vehicle lateral direction. Thus, even from incomplete three-dimensional data, it is possible to discriminate vehicle types such as large vehicles and small vehicles.
[0024]
(Embodiment 1)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a vehicle detection apparatus according to Embodiment 1 of the present invention. In FIG. 1, 1 is a first imaging device, 2 is a second imaging device, 3 is a left image taken by the imaging device 1, and 4 is a right image taken by the imaging device 2. An image processing unit 5 performs image processing on the left image 3 and the right image 4. The image processing unit 5 includes an association unit 6, a plane estimation unit 7, a distance measurement unit 8, and a vehicle detection unit 9. Reference numeral 10 denotes a vehicle detection image detected by the image processing unit 5.
[0025]
Next, the operation in this embodiment will be described. As shown in FIG. 2, the left and right two images 3 and 4 are obtained by imaging the road surface 11 and the vehicle 12 on the road environment with the two imaging devices 1 and 2 arranged on the left and right. Using the image 3 as a reference image, the associating unit 6 divides the left image 3 into blocks in the horizontal direction M and the vertical direction N as described with reference to FIG. Find a region and get parallax. The plane estimation unit 7 uses the parallax for each block output from the association unit 6 to estimate the position of the road surface three-dimensionally by Hough transform. The distance measuring unit 8 converts the estimated road surface parallax and the parallax obtained by the associating unit 6 into distances from the imaging devices 1 and 2 to the vehicle 12 and the road surface 11. The vehicle detection unit 9 compares the three-dimensional data on which the vehicle exists for each block with the estimated three-dimensional data on the road surface, and detects an object on the imaging device 1 or 2 side from the road surface 11. Thus, the vehicle 12 is detected and a vehicle detection image 10 is obtained.
[0026]
As described above, according to the first embodiment, by using stereo image processing for the vehicle detection device, the road environment can be grasped three-dimensionally, and conventionally an image using a sensor or a monocular imaging device is used. The vehicle can be accurately detected from the three-dimensional information of a wide range of road environment that could not be acquired by the processing.
[0027]
(Embodiment 2)
FIG. 3 shows the configuration of the vehicle detection apparatus according to Embodiment 2 of the present invention. In FIG. 3, 21 is a first imaging device, 22 is a second imaging device, 23 is a left image taken by the imaging device 21, and 24 is a right image taken by the imaging device 22. An image processing unit 25 performs image processing on the left image 23 and the right image 24. The image processing unit 25 includes an association unit 26, a plane estimation unit 27, a distance measurement unit 28, a coordinate conversion unit 29, and a vehicle detection unit 30. Reference numeral 30A denotes a vehicle detection image detected by the image processing unit 25.
[0028]
Next, the operation in this embodiment will be described. Since the processes in the plurality of imaging devices 21 and 22, the association unit 26, and the plane estimation unit 27 are the same as those in the first embodiment, the processes of the distance measurement unit 28 and the coordinate conversion unit 29 will be described here. As shown in FIG. 4, the coordinate conversion unit 29 converts the coordinate system CO1 based on the imaging devices 21 and 22 into a coordinate system CO2 based on the road surface 31. Specifically, the coordinate system based on the road surface 31 includes two dimensions indicating a position on the road surface 31 and one dimension indicating the height of an object on the road. The coordinate conversion is performed in the following three phases after a necessary distance is first measured by the distance measuring unit 28.
[0029]
Phase (1): When the conversion imaging devices 21 and 22 in the X direction are installed like the imaging devices 1 and 2 shown in FIG. 2, generally captured images are as shown in FIG. With respect to the horizontal direction of the image, this is converted so that the arrangement interval of the three-dimensional data becomes every constant interval on the actual road surface. Specifically, the image is divided into small lanes SL as shown in FIG. 5A, and the arrangement interval in the horizontal direction of the three-dimensional data is converted so that the small lanes SL are parallel. If the processing in this phase is described graphically, the image in FIG. 5A becomes the image in FIG. 5B.
[0030]
Phase (2): Conversion in the vehicle height direction In this phase, as shown in FIG. 6, the height H from the road surface 31 of the photographed vehicle 32 is calculated using the acquired three-dimensional data. The height H of the vehicle 32 from the road surface 31 is calculated using Expression (7) in the geometric relationship between the imaging devices 21 and 22, the road surface 31, and the vehicle 32 to be detected.
[0031]
[Expression 4]
Figure 0003710548
... (7)
K: distance from the imaging device to the vehicle h: height from the road surface of the imaging device RK: in the distance image from the imaging device to the road surface, in a region where the vehicle is present, the vehicle height H is calculated. Stored as three-dimensional data for each position. If this process is described with reference to FIG. 5B, calculating the height H of the vehicle means obtaining three-dimensional data in the normal direction of the paper surface.
[0032]
Phase (3): Conversion in Y direction In Phase 3, conversion is also performed so that the arrangement interval of the three-dimensional data is proportional to the distance on the road surface in the image Y direction in FIG. Specifically, as shown in FIG. 6, the horizontal distance V on the road surface 31 from the imaging devices 21 and 22 to the vehicle 32 is the geometry of the imaging devices 21 and 22 and the road surface 31 and the vehicle 32 to be detected. The relationship is calculated using the equation (8).
[0033]
[Equation 5]
Figure 0003710548
... (8)
Where K: distance from the imaging device to the vehicle h: height of the imaging device from the road surface RK: distance from the imaging device to the road surface θ: angle formed by the perpendicular and the optical axis of the imaging device
Using the distance RK from the imaging devices 21 and 22 to the road surface 31 and the distance K to the vehicle 32 obtained by the distance measuring unit 28 for each block, the imaging devices 21 and 22 are obtained from the equation (8). The distance from the vertical line dropped to the vehicle 32, that is, the distance V on the road surface 32 is calculated, and the three-dimensional data is arranged and converted according to the distance V on the road surface 32. If the processing in this phase is illustrated graphically in FIG. 5, the image in FIG. 5B is converted into the image in FIG. 5C, and the arrangement interval of the three-dimensional data in the vertical direction of the image is also set in the horizontal direction. Similarly, it is every fixed interval on the road surface. Thereafter, as in the first embodiment, the vehicle detection unit 30 compares the three-dimensional data on which the vehicle exists for each block with the estimated three-dimensional data of the road surface, and the imaging device 21 from the road surface 32. The vehicle 31 is detected by detecting an object on the 22 side, and a vehicle detection image 30A is obtained.
[0035]
As described above, according to the second embodiment, the three-dimensional data acquired in the coordinate system based on the imaging device is coordinate-transformed into the coordinate system based on the road surface, and is closer to the human sense. Can be obtained. Thereby, first, the height from the road surface of each vehicle can be calculated. In addition, since the distance to the vehicle can be grasped not by the distance from the imaging device but by the distance on the road surface, it is possible to obtain useful information when obtaining the vehicle speed from the position change of the vehicle at regular intervals. it can.
[0036]
(Embodiment 3)
FIG. 7 shows the configuration of the vehicle detection apparatus according to Embodiment 3 of the present invention. In FIG. 7, reference numeral 41 denotes a first imaging device, 42 denotes a second imaging device, 43 denotes a left image taken by the imaging device 41, and 44 denotes a right image taken by the imaging device 42. An image processing unit 45 performs image processing on the left image 43 and the right image 44. The image processing unit 45 includes an association unit 46, a plane estimation unit 47, a distance measurement unit 48, a coordinate conversion unit 49, a lane detection unit 50, a projection vehicle detection unit 51, and a vehicle type determination unit 52. 53 is a vehicle detection image detected by the image processing unit 45.
[0037]
Next, the operation in this embodiment will be described. Since the processes of the plurality of imaging devices 41 and 42, the association unit 46, the plane estimation unit 47, the distance measurement unit 48, and the coordinate conversion unit 49 are the same as those in the second embodiment, the processing of the lane detection unit 50 is here. explain. The three-dimensional data transformed by the coordinate transformation unit 49 is projected in the traveling direction of the vehicle or in the opposite direction. If it demonstrates in FIG. 4, the three-dimensional data of a vehicle and a road will be projected on a UH plane. The projected image is as shown in FIG. The road lane position can be detected from the projected image by detecting the position where the vehicle height H is zero on the U-axis. Note that the lane detection unit 50 can detect the lane position without being influenced by the vehicle or the like that changes the lane by outputting only the lane position that exists stably for a certain period of time or more.
[0038]
Next, the process of the projection vehicle detection part 51 is demonstrated. Based on the lane position obtained by the lane detection unit 50, the three-dimensional data coordinate-transformed by the coordinate transformation unit 49 is divided for each lane, and for each lane, a direction perpendicular to the traveling direction of the vehicle, that is, the vehicle Project 3D data in the lateral direction. Specifically, the three-dimensional data is projected onto the VH plane in FIG. 4 for each lane. For example, when three-dimensional data in a certain lane is projected onto the VH plane, the result is as shown in FIG. If the vehicle head portion FR is used as the vehicle position, the vehicle position can be detected by detecting the position where the value of H indicating the vehicle height changes from H = 0 to H> 0 along the V-axis. .
[0039]
As a result of the above processing, even if there are a plurality of vehicles TR1 and TR2 that appear to overlap each other as shown in FIG. 10, if the three-dimensional data is projected as described above, it is separated for each vehicle as shown in FIG. Can be detected. Further, the vehicle type discriminating unit 52 measures the length of the vehicle in the V-axis direction and the size of H indicating the height of the vehicle from the projection image as shown in FIG. By comparing with the data, the type of large vehicle, small vehicle, two-wheeled vehicle or the like is determined. By this processing, for example, useful information can be obtained when measuring the number of vehicles passing by vehicle type.
[0040]
Thus, according to the third embodiment, by providing the lane detection unit, the lane position can be detected globally. For example, even if the lane position changes due to construction, traffic jams, etc. The lane position can be automatically detected. In addition, by providing a projection vehicle detection unit, by projecting the three-dimensional data for each lane in the vehicle lateral direction, even vehicles that appear to overlap in the image even from incomplete three-dimensional data are separated individually. Can be detected. Furthermore, by providing a vehicle type discriminating section, it is possible to discriminate vehicle types such as large vehicles and small vehicles from incomplete three-dimensional data.
[0041]
【The invention's effect】
As is apparent from the above description, by using stereo image processing in the vehicle detection device, a vehicle can be detected over a wide range from the three-dimensional data of the road without using a conventional sensor. In addition, the imaging device obtained by stereo image processing converts the three-dimensional data of the reference coordinate system into a coordinate system based on the road surface, thereby enabling human senses such as the position of the vehicle and the height of the vehicle. Information can be obtained, and the subsequent processing can be performed easily and efficiently. Furthermore, the height of the vehicle from the road surface can be measured by a non-contact method, the distance to the vehicle can be measured by the distance on the road surface, and the position of the lane is detected from 3D data. Therefore, the lane can be separated even when the lane position is changed after the image pickup apparatus is installed. Furthermore, by projecting the three-dimensional data converted after the measurement for each lane, it is possible to separate and detect vehicles that appear to overlap each other on the image. Even from incomplete three-dimensional data, large vehicles can be detected. A vehicle type such as a small car can be discriminated.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a vehicle detection device according to a first embodiment of the present invention. FIG. 2 is a configuration diagram for explaining an operation according to the first embodiment of the present invention. FIG. 4 is a schematic diagram for explaining an operation in the second embodiment of the present invention. FIG. 5 is a diagram for explaining an operation in the second embodiment of the present invention. Fig. 6 is a schematic diagram for explaining the operation in the second embodiment of the present invention. Fig. 7 is a block diagram showing the configuration of the vehicle detection device in the third embodiment of the present invention. FIG. 9 is a schematic diagram for explaining the operation in the third embodiment. FIG. 9 is a schematic diagram for explaining the operation in the third embodiment of the invention. FIG. 10 is for explaining the operation in the third embodiment of the invention. [Fig. 11] Conventional vehicle FIG. 12 is a schematic diagram for explaining the principle of stereo image processing. FIG. 13 is a block diagram showing the configuration of an object detection device using conventional stereo image processing. Schematic diagram showing the relationship between images and blocks in image processing. FIG. 15 is a schematic diagram for explaining a plane estimation method in stereo image processing.
1, 2, 21, 22, 41, 42 Imaging device 3, 23, 43 Left image 4, 24, 44 Right image 5, 25, 45 Image processing unit 6, 26, 46 Associating unit 7, 27, 47 Plane estimation Units 8, 28, 48 Distance measurement unit 9, 30 Vehicle detection unit 10, 30A, 53 Vehicle detection image 29, 49 Coordinate conversion unit 50 Lane detection unit 51 Projected vehicle detection unit 52 Vehicle type determination unit

Claims (3)

水平かつ平行に配置されて道路面上の複数の画像を撮影する複数台の撮像装置と、
前記撮影された複数の画像間で相関が高い領域を対応付ける対応付け部と、
前記対応付けの結果から前記道路面の位置を3次元的に推定する平面推定部と、
前記対応付けの結果から三角測量の原理で前記道路面上の車両および前記道路面の3次元データを計測する距離計測部と、
前記計測された3次元データを用いて前記車両の道路面からの高さHと前記撮像装置から前記車両までの道路面上の距離Vを算出して前記3次元データを座標変換する座標変換部と、
前記座標変換された3次元データをV−H平面に投影し、前記距離Vに沿って前記車両の道路面からの高さHが
H=0からH>0
に変化する位置を検出することによって、画像中の車両先頭位置および車両領域の抽出を行う車両検出部とを備え、前記抽出された車両先頭位置を基に車両通過台数を計測することを特徴とする車両検出装置。
A plurality of imaging devices that are arranged horizontally and parallel to capture a plurality of images on the road surface;
An associating unit for associating a region having a high correlation between the plurality of captured images;
A plane estimation unit that three-dimensionally estimates the position of the road surface from the result of the association;
A distance measuring unit that measures the vehicle on the road surface and the three-dimensional data of the road surface by the principle of triangulation from the result of the association;
A coordinate converter that calculates the height H of the vehicle from the road surface and the distance V on the road surface from the imaging device to the vehicle using the measured three-dimensional data, and performs coordinate conversion of the three-dimensional data. When,
The coordinate-converted three-dimensional data is projected onto a VH plane, and the height H of the vehicle from the road surface along the distance V is H = 0 to H> 0.
A vehicle detection unit that extracts a vehicle head position and a vehicle region in the image by detecting a position that changes to the vehicle, and measures the number of vehicles passing based on the extracted vehicle head position. A vehicle detection device.
片側1車線以上ある道路において前記道路面上の車両を前方あるいは後方から撮影した複数の画像を使用し、
前記道路面を基準とした座標系の3次元データを前記車両の進行方向に投影し、
一定以上の時間において前記車両の高さデータが零となる位置を検出することにより車線位置を判別する車線検出部を備えた請求項1記載の車両検出装置。
Using a plurality of images taken from the front or rear of the vehicle on the road surface on one or more lanes on one side,
Projecting the three-dimensional data of the coordinate system based on the road surface in the traveling direction of the vehicle,
The vehicle detection device according to claim 1, further comprising a lane detection unit that determines a lane position by detecting a position at which the height data of the vehicle becomes zero for a predetermined time or more.
前記道路面上の車両を前方あるいは後方から撮影した複数の画像を使用し、
前記車線検出部によって得られた車線位置情報と前記道路面を基準とした座標系の3次元データを用いて、各車線毎に3次元データを車両側方方向に投影し、
前記車両検出部によって検出された車両の長さ、車両の高さをあらじめ蓄積してある各車種の諸元データと比較することで、前記車両の車種を判別する車種判別部を備えた請求項2記載の車両検出装置。
Using a plurality of images taken from the front or rear of the vehicle on the road surface,
Using the lane position information obtained by the lane detection unit and the three-dimensional data of the coordinate system based on the road surface, the three-dimensional data is projected in the vehicle lateral direction for each lane,
A vehicle type discriminating unit that discriminates the vehicle type of the vehicle by comparing the length of the vehicle detected by the vehicle detection unit and the specification data of each vehicle type that has been accumulated in advance. The vehicle detection device according to claim 2.
JP11389796A 1996-05-08 1996-05-08 Vehicle detection device Expired - Fee Related JP3710548B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11389796A JP3710548B2 (en) 1996-05-08 1996-05-08 Vehicle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11389796A JP3710548B2 (en) 1996-05-08 1996-05-08 Vehicle detection device

Publications (2)

Publication Number Publication Date
JPH09297849A JPH09297849A (en) 1997-11-18
JP3710548B2 true JP3710548B2 (en) 2005-10-26

Family

ID=14623898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11389796A Expired - Fee Related JP3710548B2 (en) 1996-05-08 1996-05-08 Vehicle detection device

Country Status (1)

Country Link
JP (1) JP3710548B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012099013A (en) * 2010-11-04 2012-05-24 Saxa Inc Passing vehicle monitoring system and vehicle monitoring camera

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182184A (en) * 1998-12-18 2000-06-30 Matsushita Electric Ind Co Ltd Method and device for detecting antenna on vehicle
JP4790148B2 (en) * 2001-05-16 2011-10-12 住友大阪セメント株式会社 Monitoring system
CN101014975B (en) * 2004-09-15 2011-09-28 松下电器产业株式会社 Object detector
WO2006052508A2 (en) * 2004-11-03 2006-05-18 Tyzx, Inc. An integrated image processor
JP4848698B2 (en) * 2005-08-04 2011-12-28 住友電気工業株式会社 Vehicle sensing device and vehicle sensing method
JP4979306B2 (en) * 2006-08-25 2012-07-18 パナソニック株式会社 Vehicle automatic measurement device, vehicle automatic measurement system, and vehicle automatic measurement method
JP5181602B2 (en) * 2007-09-28 2013-04-10 コニカミノルタホールディングス株式会社 Object detection device
JP2010107410A (en) * 2008-10-31 2010-05-13 Pioneer Electronic Corp Navigation apparatus
JP2012163998A (en) * 2011-02-03 2012-08-30 Mitsubishi Electric Corp Driving support system, driving support method of driving system, speed calculation device, and speed calculation program
JP2014010771A (en) * 2012-07-02 2014-01-20 Toshiba Corp Vehicle detection device
JP2014215719A (en) * 2013-04-23 2014-11-17 株式会社東芝 Vehicle model determination device
JP2015046126A (en) * 2013-08-29 2015-03-12 株式会社東芝 Vehicle detector
JP2015060053A (en) * 2013-09-18 2015-03-30 株式会社東芝 Solid-state imaging device, control device, and control program
JP6090190B2 (en) * 2014-02-06 2017-03-08 オムロン株式会社 Mobile management device
CN106816013B (en) * 2017-04-06 2023-07-07 南京云计趟信息技术有限公司 Illegal vehicle identification system based on engineering vehicle
JP2022002018A (en) * 2020-06-22 2022-01-06 オムロン株式会社 Dynamic body detection device and method for the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012099013A (en) * 2010-11-04 2012-05-24 Saxa Inc Passing vehicle monitoring system and vehicle monitoring camera

Also Published As

Publication number Publication date
JPH09297849A (en) 1997-11-18

Similar Documents

Publication Publication Date Title
JP3895238B2 (en) Obstacle detection apparatus and method
JP3710548B2 (en) Vehicle detection device
EP3057063B1 (en) Object detection device and vehicle using same
US7899211B2 (en) Object detecting system and object detecting method
US10909395B2 (en) Object detection apparatus
JP4363295B2 (en) Plane estimation method using stereo images
KR20160123668A (en) Device and method for recognition of obstacles and parking slots for unmanned autonomous parking
US20120327236A1 (en) Vehicle Periphery Monitoring System
JP3727400B2 (en) Crossing detection device
CN110334678A (en) A kind of pedestrian detection method of view-based access control model fusion
CN108645375B (en) Rapid vehicle distance measurement optimization method for vehicle-mounted binocular system
WO2010060287A1 (en) An obstacle detecting method based on monocular vision and the device thereof
JPH11252587A (en) Object tracking device
JP2008299458A (en) Vehicle monitoring apparatus and vehicle monitoring method
JP3961584B2 (en) Lane marking detector
KR20120065558A (en) Detection method vehicle in road using region of interest
Klappstein et al. Monocular motion detection using spatial constraints in a unified manner
JP4256992B2 (en) Obstacle detection device
JP5981284B2 (en) Object detection device and object detection method
KR100631082B1 (en) Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same
CN117058236A (en) Target identification positioning method based on multi-vision system self-switching
JP3879874B2 (en) Logistics measuring device
JP4106163B2 (en) Obstacle detection apparatus and method
JP2001108434A (en) Method and apparatus for measuring distance
JP3384526B2 (en) Logistics measurement equipment

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050624

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050810

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080819

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees