JP2006080761A - 車両検出装置 - Google Patents

車両検出装置 Download PDF

Info

Publication number
JP2006080761A
JP2006080761A JP2004261106A JP2004261106A JP2006080761A JP 2006080761 A JP2006080761 A JP 2006080761A JP 2004261106 A JP2004261106 A JP 2004261106A JP 2004261106 A JP2004261106 A JP 2004261106A JP 2006080761 A JP2006080761 A JP 2006080761A
Authority
JP
Japan
Prior art keywords
vehicle
captured image
candidate
feature point
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004261106A
Other languages
English (en)
Other versions
JP4155252B2 (ja
Inventor
Hidekazu Nishiuchi
秀和 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004261106A priority Critical patent/JP4155252B2/ja
Publication of JP2006080761A publication Critical patent/JP2006080761A/ja
Application granted granted Critical
Publication of JP4155252B2 publication Critical patent/JP4155252B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】状況に応じて適切な車両検出方法を選択し、安定した車両検出を行うことができる車両検出装置を提供する。
【解決手段】撮像画像より抽出したエッジ交点のY座標値が所定値以下であるか否かを判定する(ステップS200)。Y座標値が所定値以下である場合はパターンマッチング処理を選択し、基本車両パターンを読み出して(ステップS201)パターンマッチングにより特徴点を求める(ステップS202)。また、Y座標値が所定値より大きい場合はグルーピング処理を選択し、画面上をほぼ同じ方向と速度で動くエッジ交点同士をグルーピングして(ステップS204)車両の特徴点を判定する(ステップS205)。こうして検出される特徴点を車両パターンとして登録する(ステップS203、S206)。
【選択図】図6

Description

本発明は、自車両の周囲に存在する車両を検出する装置に関する。
カメラの撮像画像を用いて自車両の周囲に存在する車両を検出する装置が知られている。このような装置では、検出対象とする車両の明るさや形状が変化したときにも安定して検出できるようにする必要がある。特許文献1に開示される装置では、検出結果を用いて検出対象のパターンを更新して次のパターンマッチングを行うことで、明るさや形状の変化に対して安定した車両検出を行うようにしている。
特開平6−30417号公報
特許文献1に開示される装置では、パターンマッチング以外の車両検出方法を選択できないため、急激に明るさや形状が変化した場合などは、検出対象のパターンを更新しきれずにパターンマッチングを正確に行うことができない。このようなことから、状況に応じて適切な車両検出方法を選択することにより、安定した車両検出を行うことができる車両検出装置が求められている。
本発明による車両検出装置は、自車両の周囲の撮像画像を取得する撮像手段と、自車両の周囲に存在する他車両を検出するための車両検出方法を選択する選択手段と、撮像手段によって取得された撮像画像に基づいて、選択手段により選択された車両検出方法を用いて、他車両を検出する車両検出手段とを備えるものである。
本発明によれば、車両検出方法を選択し、撮像画像に基づいて、その選択された車両検出方法を用いて自車両の周囲の他車両を検出することとした。このようにしたので、状況に応じて適切な車両検出方法を選択し、安定した車両検出を行うことができる。
本発明の一実施形態による車両検出装置の構成を図1に示す。この車両検出装置は車両に搭載されて使用されるものであり、自車両の後方を撮像した撮像画像から他車両を検出することにより、自車両後方の他車両の存在を運転者に報知するものである。この車両検出装置は、カメラ1、画像メモリ2、マイコン3、およびモニタ4を備えている。
カメラ1は自車両後方を撮像するように自車両の後部に設置されており、撮像した画像を画像信号として画像メモリ2へ出力する。カメラ1には、たとえばCCDカメラ等が用いられる。画像メモリ2は、カメラ1から入力された画像信号を画像データとして記憶保持するためのフレームメモリである。画像メモリ2に記憶された画像データは、マイコン3の制御により画像フレーム単位でマイコン3に出力される。
マイコン3は、画像メモリ2からの画像データに基づいて後で説明するような処理を実行することにより、撮像画像から他車両を抽出して、その他車両の自車両に対する実空間上の距離や速度を算出する。算出された距離や速度が所定の条件を満たす場合には、マイコン3よりモニタ4を制御して、モニタ4において障害物の存在を示すためのマーカーを表示する。モニタ4は運転席付近の見やすい場所に設置されており、マーカーを表示することで他車両を障害物として運転者に認識させる。このようにして、自車両の後方を走行している他車両の存在が自車両の運転者に報知される。
マイコン3において撮像画像から他車両を抽出する方法について説明する。このときマイコン3では、新規車両検出と車両追跡の各処理が実行される。新規車両検出処理は、新たに撮像画像中に捉えられた他車両を抽出するための処理であり、車両追跡処理は、既に撮像画像中に捉えられている他車両を追跡して抽出するための処理である。すなわち、各他車両は初めに新規車両検出処理によって撮像画像から抽出され、その後は車両追跡処理によって撮像画像から抽出される。
新規車両検出処理の内容より先に説明する。新規車両検出処理では、撮像画像より抽出されたエッジ交点の中から、車両の特徴を示しており他車両の一部分を表す点を検出する。このようなエッジ交点を、以下では特徴点という。このとき対象とするエッジ交点の画面上の位置に応じて、後で説明する2種類の特徴点の検出方法のいずれかが選択されて用いられる。
なお、撮像画像からのエッジ交点の抽出は、撮像画像より縦方向のエッジ(縦エッジ)と横方向のエッジ(横エッジ)を抽出し、その縦エッジと横エッジの交点を求めることによって行われる。こうして特徴点の候補として抽出されたエッジ交点の中から、実際に他車両の一部分を表しているエッジ交点を特徴点として検出する。ここでいうエッジとは、撮像画像において物体が占めている領域の境界線を示す部分である。このエッジの抽出には、ソベルフィルタと呼ばれる周知の画像フィルタを用いた画像処理手法などを用いることができる。
画面上において所定の位置より上方に位置するエッジ交点、すなわち実空間上で自車両からの距離が所定距離よりも遠いエッジ交点に対しては、特徴点の検出方法にパターンマッチング処理が用いられる。このパターンマッチング処理では、各エッジ交点の周囲の所定範囲内の画像パターンと、予め基本車両パターンとして記憶されている画像パターンとを比較し、その比較結果が所定のパターンマッチング条件を満たす場合には、該当するエッジ交点を特徴点として車両ごとに検出する。
一方、画面上において所定の位置より下方に位置するエッジ交点、すなわち実空間上で自車両からの距離が所定距離よりも近いエッジ交点に対しては、特徴点の検出方法にグルーピング処理が用いられる。このグルーピング処理では、画面上をほぼ同じ方向と速度で動いているエッジ交点同士、すなわち撮像画像における速度ベクトルの差が所定値以下であるエッジ交点同士をグルーピングすることにより、該当するエッジ交点を特徴点として車両ごとに検出する。このとき速度ベクトルの差に対して設定する所定値は、予め定めておくことができる。なお、エッジ交点の速度ベクトルを算出するためには、当該エッジ交点が少なくとも2フレーム以上に渡って抽出される必要がある。
上記のパターンマッチング処理またはグルーピング処理により特徴点が検出されたら、各特徴点の画面上の位置に基づいて、各他車両に対応する領域(以下、車両領域という)を撮像画像中に設定する。さらに、特徴点の配置と、その特徴点に基づいて設定された車両領域は、車両ごとに車両パターンとして登録される。この車両パターンは、前述の基本車両パターンとは異なり、画像のパターンではなく特徴点の配置と車両領域の大きさによってのみ決定される。以上説明したようにして、新規車両検出処理が行われる。
次に、車両追跡処理の内容について説明する。車両追跡処理は、撮像画像より抽出されたエッジ交点のうち、既に前回の画像フレームで特徴点として検出されているエッジ交点に対して行われる。このとき車両追跡処理では、撮像画像におけるエッジ交点の移動速度に応じて、次の2つの検出方法のいずれかが選択されて用いられる。エッジ交点の移動速度が遅い場合には図2に示すような検出方法を、また移動速度が速い場合には図3に示すような検出方法をそれぞれ使用する。以下、図2に示す検出方法より先に説明する。
図2(a)は、時刻T1においてカメラ1により取得された撮像画像を示している。また、(b)は時刻T1の次の画像フレーム時(時刻T2とする)においてカメラ1により取得された撮像画像を示している。これらの撮像画像には、自車両の後方から接近してくる他車両100が撮像されている。(a)と(b)の撮像画像からは、それぞれ他車両100のエッジ交点21a、21b、21cおよび21dと、エッジ交点22a、22b、22cおよび22dが抽出されているものとする。なお、これらのエッジ交点の各々は、車両において同じ点を表すもの同士が互いに対応付けられている。たとえば、(a)のエッジ交点21aと(b)のエッジ交点22aが対応付けられている。
上記のように対応付けられているエッジ交点間の位置変化量を求めることによって、時刻T2における各エッジ交点の撮像画像における移動速度が求められる。たとえば、エッジ交点21aからエッジ交点22aまでの位置変化量により、時刻T2におけるエッジ交点22aの移動速度が求められる。そして、同じ車両を表すエッジ交点、すなわちエッジ交点22a〜22dについて、その移動速度の平均値が算出される。ここでは、エッジ交点22a〜22dの移動速度の平均値が予め定められた所定値以下であるものとする。
ここで、(a)の撮像画像のエッジ交点21a〜21dは、時刻T1において他車両100の特徴点として検出されているものとする。また、これらの特徴点21a〜21dの中心に位置して各特徴点を包含できる大きさの矩形領域が、車両領域11として設定されているものとする。時刻T1において、特徴点21a〜21dと車両領域11は、(c)のように他車両100の車両パターンとして登録されている。
上記のように時刻T2におけるエッジ交点の移動速度の平均値が所定値以下の場合は、(c)の車両パターンに基づいて、(d)に示す確率分布32a、32b、32cおよび32dよりなる車両パターン存在分布を算出する。確率分布32a〜32dは、次のようにして求められる。初めに、時刻T1における特徴点21a〜21dの相互の相対的な位置と移動速度に基づいて、時刻T2における特徴点の予測位置を求める。なお、ここで求められる予測位置は、各特徴点の相対的な位置関係を定めるものである。次に、上記の予測位置に対して、時刻T2における各特徴点の相対的な存在確率を設定する。このとき、予測位置の中心部分には最も高い存在確率を設定し、その周囲にはそれより低い存在確率を設定する。このようにして予測位置に対して存在確率が設定されることにより、確率分布32a〜32dが求められる。なお、この確率分布32a〜32dは、相互の相対的な位置と存在確率の関係を定めるものとして設定されるものであり、その位置は撮像画像に対して固定されていない。
(d)の確率分布32a〜32dは、塗りつぶされている中心部分の一定範囲において特徴点の存在確率が高く、その周辺のハッチングに示す部分では特徴点の存在確率が低いことを図示している。中心部分と周辺部分の各々における存在確率の設定値と設定範囲の大きさは、予め定められている。なお、ここでは存在分布として中心部分と周辺部分に2段階の存在確率のみが設定されている様子を図示しているが、3段階以上の存在確率を設定することにより、中心部分に近づくほど特徴点の存在確率が高く、中心部分から離れるに従って存在確率が段階的に低くなるようにしてもよい。
(d)の確率分布32a〜32dが求められたら、次にこれと(b)の撮像画像により、時刻T2における特徴点を次のようにして検出する。初めに、(b)の撮像画像と(d)の存在分布32a〜32dを1画素ずつずらしながら重ね合わせたときの累積相関値をそれぞれ計算する。このとき、撮像画像のエッジ交点の部分を1、その他の部分を0と設定し、これに存在分布において設定された存在確率を乗算して得られる値を各画素について累積することにより、累積相関値が算出される。次に、このようにして算出される累積相関値が最大となるときの撮像画像と存在分布の重ね合わせ状態(重ね合わせ位置)を求め、その状態でエッジ交点と存在分布が重なっている点を求める。この点が特徴点として検出される。このような特徴点の検出方法を、特徴点形状パターンマッチングという。
上記の特徴点形状パターンマッチングによって時刻T2における特徴点が検出されたら、その特徴点に対して車両領域を設定する。その結果、(e)に示すように、エッジ交点22a〜22dが特徴点として検出され、車両領域12が設定される。以上説明したようにして、エッジ交点の移動速度が遅い場合の車両追跡処理が行われる。
特徴点22a〜22dと車両領域12は、新たな車両パターンとして登録される。これにより、(c)の車両パターンが更新される。このようにして車両パターンを更新することにより、他車両100が自車両に対して接近または離れることによって、その撮像画像中に占める領域が撮像画像に対して拡大または縮小しても、適切な大きさの車両パターンを用いて他車両100を撮像画像から抽出できる。
次に、図3に示すエッジ交点の移動速度が速い場合の車両追跡処理について説明する。図3(a)と(b)は、時刻T1と次の画像フレームの時刻T2においてカメラ1により取得された撮像画像をそれぞれ示している。これらの撮像画像には、自車両の後方から接近してくる他車両100と、道路脇に静止している物体200が撮像されている。(a)の撮像画像からは、他車両100のエッジ交点23a、23b、23cおよび23dと、物体200のエッジ交点25a、25bおよび25cが抽出されている。同様に(b)の撮像画像からは、他車両100のエッジ交点24a、24b、24c、24dおよび24eと、物体200のエッジ交点26a、26bおよび26cが抽出されている。なお、これらのエッジ交点の各々は、図2の場合と同様に、車両や物体において同じ点を表すもの同士が互いに対応付けられている。たとえば、他車両100の同じ点を表す(a)のエッジ交点23aと(b)のエッジ交点24aが対応付けられ、物体200の同じ点を表す(a)のエッジ交点25aと(b)のエッジ交点26aが対応付けられている。
図2で説明したように、対応付けられているエッジ交点間の位置変化量によって、時刻T2における各エッジ交点の撮像画像における移動速度が求められ、同じ車両のエッジ交点についてその移動速度の平均値が算出される。すなわち、他車両100のエッジ交点24a〜24dについて移動速度の平均値が算出される。ここでは、エッジ交点24a〜24dの移動速度の平均値が所定値よりも大きいものとする。なお、物体200のエッジ交点26a〜26cについては、その移動速度から車両を表す点ではないと判定され、これ以降に説明するような処理は行われない。
ここで、(a)の撮像画像において、上記のエッジ交点のうち他車両100のエッジ交点23a〜23dは、時刻T1において他車両100の特徴点として検出されているものとする。また、この特徴点23a〜23dに対して車両領域13が設定されているものとする。時刻T1において、特徴点23a〜23dと車両領域13は、(c)のように他車両100の車両パターンとして登録されている。この特徴点23a〜23dは、それぞれ図に矢印で示すような速度ベクトルを有しており、その速度ベクトルによって定まる方向と速度に動いているものとする。
上記のように時刻T2におけるエッジ交点の移動速度の平均値が所定値よりも大きい場合は、(c)の車両パターンに基づいて、(d)に示す特徴点検出ベクトル50と車両パターン検出領域51よりなる車両パターン速度を算出する。特徴点検出ベクトル50は、特徴点23a〜23dがそれぞれ有している速度ベクトルの方向と大きさの各平均値により、その方向と大きさが求められる。車両パターン検出領域51は、特徴点23a〜23dの動きの履歴から、時刻T2における特徴点の予想位置の範囲を求めることにより設定される。なお、ここで設定される車両パターン検出領域51は、図2の(d)の確率分布32a〜32dとは異なり、撮像画像に対してその位置が固定されている。
(d)の特徴点検出ベクトル50と車両パターン検出領域51が求められたら、次にこれと(b)の撮像画像により、時刻T2における特徴点を検出する。このとき、(b)の撮像画像において抽出されたエッジ交点のうち、車両パターン検出領域51内に存在し、さらに特徴点検出ベクトル50に対する速度ベクトルの差が予め設定された所定値以内であるエッジ交点が、特徴点として検出される。このような特徴点の検出方法を、特徴点速度パターンマッチングという。
上記の特徴点速度パターンマッチングによって時刻T2における特徴点が検出されたら、その特徴点に対して車両領域を設定する。その結果、(e)に示すように、エッジ交点24a〜24eが特徴点として検出され、車両領域14が設定される。以上説明したようにして、エッジ交点の移動速度が速い場合の車両追跡処理が行われる。
特徴点24a〜24eと車両領域14は、新たな車両パターンとして登録される。これにより、(c)の車両パターンが更新される。このようにして車両パターンを更新することにより、撮像画像において他車両100の見え方が変わることによりエッジ交点の位置や数が変化した場合にも、それに応じて特徴点が追加または削除された車両パターンを用いて他車両100を撮像画像から抽出できる。
以上説明した処理のフローチャートを図4に示す。このフローチャートは、フレームレートごとに各画像フレームに対して実行されるものである。ステップS10では、後で説明する図5のフローチャートに示すエッジ交点抽出処理を行い、撮像画像よりエッジ交点を抽出する。ステップS20では、ステップS10で抽出されたエッジ交点に対して、後で説明する図6のフローチャートを実行することにより、前述したような新規車両検出処理を行う。ステップS30では、ステップS10で抽出されたエッジ交点のうち、既に前回の処理において特徴点として検出されているエッジ交点に対して、後で説明する図7のフローチャートを実行することにより、前述したような車両追跡処理を行う。ステップS30を実行した後は、図4のフローチャートを終了する。
ステップS10で実行するエッジ交点抽出処理の内容を図5のフローチャートにより説明する。ステップS100では、画像メモリ2に記憶された画像を読み込むことにより、カメラ1による撮像画像を取得する。ステップS101では、ステップS100で取得された撮像画像より縦エッジと横エッジを抽出し、次のステップS102では、ステップS101で抽出された縦エッジと横エッジの交点を抽出する。ステップS103では、ステップS102で抽出されたエッジ交点の画面上の移動速度を算出する。この移動速度は、前述したように前回の撮像画像におけるエッジ交点からの位置変化量を求めることによって算出することができる。ステップS103を実行したら図4のステップS10を終了する。このようにして、エッジ交点抽出処理が行われる。
次に、ステップS20で実行する新規車両検出処理の内容を図6のフローチャートにより説明する。ステップS200では、エッジ交点抽出処理によって抽出されたエッジ交点の各々に対して、そのY座標値が所定値以下であるか否かを判定する。Y座標値が所定値以下ならばステップS201へ進み、所定値よりも大きければステップS204へ進む。なお、ここでは画面上におけるエッジ交点の上下方向に対する位置をY座標値によって表すこととしており、このY座標値は画面の上端から下端に向かって大きくなるように定義されている。すなわち、Y座標値が小さいほど、そのエッジ交点は画面上において撮像画像のより上方に位置し、逆にY座標値が大きいほど、画面上において撮像画像のより下方に位置していることになる。
ステップS200からステップS201へ進んだ場合は、前述のパターンマッチング処理によって特徴点が検出される。ステップS201では、予め記憶されている基本車両パターンを読み出す。次のステップS202では、この基本車両パターンを用いてパターンマッチング処理を行うことにより、特徴点を検出する。ステップS203では、ステップS202で検出された特徴点に対して車両領域を設定し、その特徴点の配置と車両領域を車両パターンとして登録する。以上説明したようにしてパターンマッチング処理を用いて特徴点を検出した後は、図4のステップS20を終了する。このようにして、撮像画像において上方に位置するエッジ交点に対して新規車両検出処理が行われる。
一方、ステップS200からステップS204へ進んだ場合は、前述のグルーピング処理によって特徴点が検出される。ステップS204では、グルーピング処理を行うことにより特徴点を検出する。ステップS205では、ステップS204で検出された特徴点に対して、各グループにおける特徴点の速度と向きの平均値により、その特徴点のグループが自車両の方向に走行している車両を表すものであるか否かを判定する。このとき車両を表すものではないと判定されたグループに含まれる特徴点については、これ以降の処理より除外される。このステップS205の処理により、静止物体のエッジ交点から検出された特徴点などが除外される。ステップS206では、ステップS205で除外されなかった特徴点に対して車両領域を設定し、その特徴点の配置と車両領域を車両パターンとして登録する。以上説明したようにしてグルーピング処理を用いて特徴点を検出した後は、図4のステップS20を終了する。このようにして、撮像画像において下方に位置するエッジ交点に対して新規車両検出処理が行われる。
次に、ステップS30で実行する車両追跡処理の内容を図7のフローチャートにより説明する。ステップS300では、エッジ交点の移動速度が所定値以下であるか否かを判定する。なお、ここで判定の対象とするエッジ交点は、前述のように既に前回の処理において特徴点として検出されているエッジ交点である。エッジ交点の移動速度が所定値以下ならばステップS301へ進み、所定値よりも大きければステップS304へ進む。
ステップS300からステップS301へ進んだ場合は、図2で説明したような特徴点形状パターンマッチング処理によって特徴点が検出される。ステップS301では、図6のステップS203またはS206、あるいは前回の処理のステップS303またはS306において登録されている車両パターンに基づいて、図2(d)に示す確率分布32a〜32dのように車両パターン存在分布を算出する。ステップS302では、ステップS301で算出された車両パターン存在分布を用いて、特徴点形状パターンマッチングを行うことにより特徴点を検出する。ステップS303では、ステップS302で検出された特徴点に対して車両領域を設定し、その特徴点の配置と車両領域を車両パターンとして登録することにより、車両パターンの更新を行う。以上説明したようにして特徴点形状パターンマッチング処理を用いて特徴点を検出した後は、図4のステップS30を終了する。このようにして、移動速度が遅いエッジ交点に対して車両追跡処理が行われる。
一方、ステップS300からステップS304へ進んだ場合は、図3で説明したような特徴点速度パターンマッチング処理によって特徴点が検出される。ステップS304では、図6のステップS203またはS206、あるいは前回の処理のステップS303またはS306において登録されている車両パターンに基づいて、図3(d)に示す特徴点検出ベクトル50および車両パターン検出領域51のように車両パターン速度を算出する。ステップS305では、ステップS304で算出された車両パターン速度を用いて、特徴点速度パターンマッチングを行うことにより特徴点を検出する。ステップS306では、ステップS305で検出された特徴点に対して車両領域を設定し、その特徴点の配置と車両領域を車両パターンとして登録することにより、車両パターンの更新を行う。以上説明したようにして特徴点速度パターンマッチング処理を用いて特徴点を検出した後は、図4のステップS30を終了する。このようにして、移動速度が速いエッジ交点に対して車両追跡処理が行われる。
以上説明したような処理が撮像画像の各画像フレームに対して行われることにより、他車両の車両領域が検出される。こうして検出された車両領域の画面上の位置に基づいて、他車両の自車両に対する実空間上の距離が算出される。また、異なる時間で取得された撮像画像間における車両領域の位置変化量に基づいて、他車両の自車両に対する実空間上の速度が算出される。そして、算出された距離や速度が所定の条件を満たす場合には、障害物の存在を示すためのマーカーがモニタ4に表示される。たとえば、距離が所定値以下であり、かつ速度が所定値以上である他車両に対して、マーカーが表示される。このようにして、自車両の後方を走行している他車両の存在が自車両の運転者に報知される。
以上説明した実施の形態によれば、次の作用効果が得られる。
(1)カメラ1によって自車両後方の撮像画像を取得し、さらに車両検出方法を選択して、その撮像画像に基づいて、選択された車両検出方法を用いて自車両後方の他車両100を検出することとした。このようにしたので、状況に応じて適切な車両検出方法を選択し、安定した車両検出を行うことができる。
(2)新規車両検出処理において、車両検出方法としてパターンマッチング処理(ステップS201〜203)とグルーピング処理(ステップS204〜206)のいずれかを選択して行うこととしたので、新たに撮像画像中に捉えられた他車両を確実に検出することができる。
(3)エッジ交点の撮像画像における画面上の位置に基づいて車両検出方法を選択することとし、具体的には、画面上においてエッジ交点が所定位置より上方に位置する場合はパターンマッチング処理を、また所定位置より下方に位置する場合はグルーピング処理を選択することとした(ステップS200)。このようにしたので、自車両に対する他車両の実空間上の距離に応じて、他車両の見え方が異なるときにも適切な車両検出方法を選択することができる。
(4)車両追跡処理において、車両検出方法として特徴点形状パターンマッチング処理(ステップS301〜303)と特徴点速度パターンマッチング処理(ステップS304〜306)のいずれかを選択して行うこととしたので、既に撮像画像中に捉えられている他車両を追跡して検出するときにも、確実に検出できる。
(5)エッジ交点の撮像画像における移動速度に基づいて車両検出方法を選択することとし、具体的には、同じ車両を表すエッジ交点の移動速度の平均値が所定値以下である場合は特徴点形状パターンマッチング処理を、またその平均値が所定値より大きい場合は特徴点速度パターンマッチング処理を選択することとした(ステップS300)。このようにしたので、自車両に対する他車両の実空間上の移動速度に応じて、他車両の見え方が変化する様子が異なるときにも適切な車両検出方法を選択することができる。
なお、上記の実施形態では、カメラ1を用いて自車両の後方を撮像し、その撮像画像に基づいて自車両の後方より接近してくる他車両を検出する例について説明した。しかし、本発明はこの内容に限定されるものではなく、自車両周囲の他の方向、たとえば前方や側方などを撮像し、撮像画像に基づいてその方向に存在する他車両を検出する場合にも適用できる。
上記の実施形態では、撮像手段をカメラ1によって実現し、その他の各手段をマイコン3の処理によって実現しているが、これはあくまで一例であって、本発明の特徴が損なわれない限り、各構成要素は上記実施の形態に限定されない。
本発明の一実施形態による車両検出装置の構成を示す図である。 エッジ交点の移動速度が遅い場合の車両追跡処理の内容を説明するための図である。 エッジ交点の移動速度が速い場合の車両追跡処理の内容を説明するための図である。 他車両を検出するときに実行される処理のフローチャートである。 エッジ交点抽出処理の内容を示すフローチャートである。 新規車両検出処理の内容を示すフローチャートである。 車両追跡処理の内容を示すフローチャートである。
符号の説明
1:カメラ
2:画像メモリ
3:マイコン
4:モニタ
100:他車両

Claims (7)

  1. 自車両の周囲の撮像画像を取得する撮像手段と、
    前記自車両の周囲に存在する他車両を検出するための車両検出方法を選択する選択手段と、
    前記撮像手段によって取得された撮像画像に基づいて、前記選択手段により選択された車両検出方法を用いて、前記他車両を検出する車両検出手段とを備えることを特徴とする車両検出装置。
  2. 請求項1の車両検出装置において、
    前記撮像画像において前記他車両の一部分を表す特徴点の候補としての候補点を前記撮像画像より抽出する候補点抽出手段をさらに備え、
    前記選択手段は、前記車両検出方法としてパターンマッチング処理とグルーピング処理のいずれかを選択し、
    前記車両検出手段は、
    (1)前記選択手段によりパターンマッチング処理が選択された場合、前記候補点の周囲の所定範囲内の画像パターンと予め記憶されている画像パターンとの比較結果に基づいて、前記候補点の中から前記特徴点を検出し、
    検出された特徴点の位置に基づいて前記他車両に対応する車両領域を前記撮像画像中に設定することにより、前記他車両を検出し、
    (2)前記選択手段によりグルーピング処理が選択された場合、前記候補点のうち前記撮像画像における速度ベクトルの差が予め定められた所定値以下である候補点同士をグルーピングすることにより、前記候補点の中から前記特徴点を検出し、
    検出された特徴点の位置に基づいて前記車両領域を前記撮像画像中に設定することにより、前記他車両を検出することを特徴とする車両検出装置。
  3. 請求項1の車両検出装置において、
    前記撮像画像において前記他車両の一部分を表す特徴点の候補としての候補点を前記撮像画像より抽出する候補点抽出手段をさらに備え、
    前記選択手段は、前記候補点抽出手段により抽出された候補点の画面上の位置に基づいて、前記車両検出方法を選択することを特徴とする車両検出装置。
  4. 請求項3の車両検出装置において、
    前記選択手段は、画面上において前記候補点が所定位置よりも上方に位置する場合は、前記車両検出方法としてパターンマッチング処理を選択し、画面上において前記候補点が前記所定位置よりも下方に位置する場合は、前記車両検出方法としてグルーピング処理を選択し、
    前記車両検出手段は、
    (1)前記選択手段によりパターンマッチング処理が選択された場合、前記候補点の周囲の所定範囲内の画像パターンと予め記憶されている画像パターンとの比較結果に基づいて、前記候補点の中から前記特徴点を検出し、
    検出された特徴点の位置に基づいて前記他車両に対応する車両領域を前記撮像画像中に設定することにより、前記他車両を検出し、
    (2)前記選択手段によりグルーピング処理が選択された場合、前記候補点のうち前記撮像画像における速度ベクトルの差が予め定められた所定値以下である候補点同士をグルーピングすることにより、前記候補点の中から前記特徴点を検出し、
    検出された特徴点の位置に基づいて前記車両領域を前記撮像画像中に設定することにより、前記他車両を検出することを特徴とする車両検出装置。
  5. 請求項1の車両検出装置において、
    前記撮像画像において前記他車両の一部分を表す特徴点の候補としての候補点を前記撮像画像より抽出する候補点抽出手段と、
    前記候補点の中から前記特徴点として検出されたものを車両パターンとして登録する車両パターン登録手段とをさらに備え、
    前記選択手段は、前記車両検出方法として特徴点形状パターンマッチング処理と特徴点速度パターンマッチング処理のいずれかを選択し、
    前記車両検出手段は、
    (1)前記選択手段により特徴点形状パターンマッチング処理が選択された場合、前記車両パターン登録手段により過去に登録された複数の特徴点の相互の相対的な位置と移動速度に基づいて、前記複数の特徴点の現在における相互の相対的な存在確率を設定し、
    設定された存在確率に基づいて前記候補点の中から前記特徴点を検出し、
    検出された特徴点の位置に基づいて前記他車両に対応する車両領域を前記撮像画像中に設定することにより、前記他車両を検出し、
    (2)前記選択手段により特徴点速度パターンマッチング処理が選択された場合、前記車両パターン登録手段により過去に登録された複数の特徴点がそれぞれ有する前記撮像画像における速度ベクトルの方向と大きさの各平均値に基づいて、特徴点検出ベクトルを算出し、
    前記複数の特徴点の現在における予想位置の範囲に基づいて、車両パターン検出領域を前記撮像画像中に設定し、
    前記車両パターン検出領域内に存在し、さらに前記特徴点検出ベクトルに対する速度ベクトルの差が予め設定された所定値以内である候補点を求めることにより、前記候補点の中から前記特徴点を検出し、
    検出された特徴点の位置に基づいて前記他車両に対応する車両領域を前記撮像画像中に設定することにより、前記他車両を検出することを特徴とする車両検出装置。
  6. 請求項1の車両検出装置において、
    前記撮像画像において前記他車両の一部分を表す特徴点の候補としての候補点を前記撮像画像より抽出する候補点抽出手段をさらに備え、
    前記選択手段は、前記候補点抽出手段により抽出された候補点の前記撮像画像における移動速度に基づいて、前記車両検出方法を選択することを特徴とする車両検出装置。
  7. 請求項6の車両検出装置において、
    前記選択手段は、同じ車両を表す候補点の移動速度の平均値が所定値以下である場合は、前記車両検出方法として特徴点形状パターンマッチング処理を選択し、前記平均値が前記所定値よりも大きい場合は、前記車両検出方法として特徴点速度パターンマッチング処理を選択し、
    前記車両検出手段は、
    (1)前記選択手段により特徴点形状パターンマッチング処理が選択された場合、前記車両パターン登録手段により過去に登録された複数の特徴点の相互の相対的な位置と移動速度に基づいて、前記複数の特徴点の現在における相互の相対的な存在確率を設定し、
    設定された存在確率に基づいて前記候補点の中から前記特徴点を検出し、
    検出された特徴点の位置に基づいて前記他車両に対応する車両領域を前記撮像画像中に設定することにより、前記他車両を検出し、
    (2)前記選択手段により特徴点速度パターンマッチング処理が選択された場合、前記車両パターン登録手段により過去に登録された複数の特徴点がそれぞれ有する前記撮像画像における速度ベクトルの方向と大きさの各平均値に基づいて、特徴点検出ベクトルを算出し、
    前記複数の特徴点の現在における予想位置の範囲に基づいて、車両パターン検出領域を前記撮像画像中に設定し、
    前記車両パターン検出領域内に存在し、さらに前記特徴点検出ベクトルに対する速度ベクトルの差が予め設定された所定値以内である候補点を求めることにより、前記候補点の中から前記特徴点を検出し、
    検出された特徴点の位置に基づいて前記他車両に対応する車両領域を前記撮像画像中に設定することにより、前記他車両を検出することを特徴とする車両検出装置。
JP2004261106A 2004-09-08 2004-09-08 車両検出装置 Expired - Fee Related JP4155252B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004261106A JP4155252B2 (ja) 2004-09-08 2004-09-08 車両検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004261106A JP4155252B2 (ja) 2004-09-08 2004-09-08 車両検出装置

Publications (2)

Publication Number Publication Date
JP2006080761A true JP2006080761A (ja) 2006-03-23
JP4155252B2 JP4155252B2 (ja) 2008-09-24

Family

ID=36159867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004261106A Expired - Fee Related JP4155252B2 (ja) 2004-09-08 2004-09-08 車両検出装置

Country Status (1)

Country Link
JP (1) JP4155252B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009181557A (ja) * 2008-02-01 2009-08-13 Hitachi Ltd 画像処理装置、及びこれを備えた車両検知装置
JP2010085240A (ja) * 2008-09-30 2010-04-15 Mazda Motor Corp 車両用画像処理装置
JP2010250541A (ja) * 2009-04-15 2010-11-04 Toyota Motor Corp 物体検出装置
JP2013020507A (ja) * 2011-07-12 2013-01-31 Aisin Seiki Co Ltd 車両検出装置、車両検出方法及びプログラム
US8854458B2 (en) 2009-04-15 2014-10-07 Toyota Jidosha Kabushiki Kaisha Object detection device
WO2021235251A1 (ja) 2020-05-20 2021-11-25 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム
US11280894B2 (en) 2018-03-26 2022-03-22 Denso Corporation Object detection device, object detection method and non-transitory computer readable storage medium for storing programs thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000039306A (ja) * 1998-07-22 2000-02-08 Nec Corp 車両領域検出装置及び車両領域検定方法
JP2001357402A (ja) * 2000-06-12 2001-12-26 Hitachi Ltd 車両検出方法及び車両検出装置
JP2003317106A (ja) * 2002-04-26 2003-11-07 Nissan Motor Co Ltd 走行路認識装置
JP2004007174A (ja) * 2002-05-31 2004-01-08 Toshiba Corp 画像処理システム、画像処理方法、画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000039306A (ja) * 1998-07-22 2000-02-08 Nec Corp 車両領域検出装置及び車両領域検定方法
JP2001357402A (ja) * 2000-06-12 2001-12-26 Hitachi Ltd 車両検出方法及び車両検出装置
JP2003317106A (ja) * 2002-04-26 2003-11-07 Nissan Motor Co Ltd 走行路認識装置
JP2004007174A (ja) * 2002-05-31 2004-01-08 Toshiba Corp 画像処理システム、画像処理方法、画像処理プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009181557A (ja) * 2008-02-01 2009-08-13 Hitachi Ltd 画像処理装置、及びこれを備えた車両検知装置
JP4533936B2 (ja) * 2008-02-01 2010-09-01 日立オートモティブシステムズ株式会社 画像処理装置、及びこれを備えた車両検知装置
JP2010085240A (ja) * 2008-09-30 2010-04-15 Mazda Motor Corp 車両用画像処理装置
JP4702569B2 (ja) * 2008-09-30 2011-06-15 マツダ株式会社 車両用画像処理装置
JP2010250541A (ja) * 2009-04-15 2010-11-04 Toyota Motor Corp 物体検出装置
US8854458B2 (en) 2009-04-15 2014-10-07 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2013020507A (ja) * 2011-07-12 2013-01-31 Aisin Seiki Co Ltd 車両検出装置、車両検出方法及びプログラム
US11280894B2 (en) 2018-03-26 2022-03-22 Denso Corporation Object detection device, object detection method and non-transitory computer readable storage medium for storing programs thereof
WO2021235251A1 (ja) 2020-05-20 2021-11-25 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム

Also Published As

Publication number Publication date
JP4155252B2 (ja) 2008-09-24

Similar Documents

Publication Publication Date Title
JP4957807B2 (ja) 移動物検知装置及び移動物検知プログラム
JP6390671B2 (ja) 画像処理装置および画像処理方法
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
JP2006338272A (ja) 車両挙動検出装置、および車両挙動検出方法
JP6139465B2 (ja) 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
CN108352070B (zh) 移动体追踪方法、移动体追踪装置以及程序
JP2000011133A (ja) 移動物体検出装置及びその方法
JP2008262333A (ja) 路面判別装置および路面判別方法
JP2015138319A (ja) 物体検出装置、物体検出方法、および物体検出プログラム
CN112078571A (zh) 自动泊车方法、设备、存储介质及装置
JP4155252B2 (ja) 車両検出装置
JP2006338611A (ja) 移動物体検出装置
JP6152261B2 (ja) 車載用駐車枠認識装置
JP2014106739A (ja) 車載画像処理装置
JP6299651B2 (ja) 画像処理装置
JP5407920B2 (ja) 点灯色識別装置及びプログラム
JP2009146153A (ja) 移動体検出装置、移動体検出方法および移動体検出プログラム
JP2005293479A (ja) 物体危険判定装置
JP5176523B2 (ja) 移動体検出装置、移動体検出方法および移動体検出プログラム
JP4151631B2 (ja) 物体検出装置
JP6935690B2 (ja) 検出プログラム、方法、及び装置
JP2012108665A (ja) レーンマーク認識装置
JP2002042140A (ja) 移動物体計測装置及び交通流計測画像処理装置
JP4107273B2 (ja) 移動体検出装置
JP2020077103A (ja) 自車挙動推定装置、自車挙動推定プログラム、記憶媒体および自車挙動推定装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080617

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080630

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4155252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130718

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees