JP2005141517A - 車両検出方法及び車両検出装置 - Google Patents

車両検出方法及び車両検出装置 Download PDF

Info

Publication number
JP2005141517A
JP2005141517A JP2003377723A JP2003377723A JP2005141517A JP 2005141517 A JP2005141517 A JP 2005141517A JP 2003377723 A JP2003377723 A JP 2003377723A JP 2003377723 A JP2003377723 A JP 2003377723A JP 2005141517 A JP2005141517 A JP 2005141517A
Authority
JP
Japan
Prior art keywords
vehicle
voting
candidate area
image
peak value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003377723A
Other languages
English (en)
Other versions
JP4074577B2 (ja
Inventor
Hitoomi Takizawa
仁臣 滝澤
Kenichi Yamada
憲一 山田
Hirokazu Ebara
宏和 江原
Toshio Ito
敏夫 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2003377723A priority Critical patent/JP4074577B2/ja
Publication of JP2005141517A publication Critical patent/JP2005141517A/ja
Application granted granted Critical
Publication of JP4074577B2 publication Critical patent/JP4074577B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像処理の計算量が少ない小規模、安価な構成のセンサフュージョンにより、前方車両の車両特徴量を正確に検出し、前方車両を正確に認識して検出する。
【解決手段】前方探査レーダが受信した反射点のクラスタの状態から、画像センサの撮影画像のほぼ車両1台を囲む矩形領域を予測して候補領域に設定し、横軸方向をエッジ位置のX座標方向、縦軸方向を車幅の半分の長さのT座標方向とする投票平面に、車幅の半分の予測長T*を変えながら、候補領域の右半分の各エッジ位置が座標(X、T)=(Xk+T*、T*)に+1を投票し、候補領域の左半分の各エッジ位置が座標(X、T)=(Xk−T*、T*)に+1を投票し、この投票結果にしきい値以上の単一のピーク値が含まれるときに、そのピーク値の座標から自車前方の車両の車幅方向の中央位置、車幅の少なくともいずれか一方を車両特徴量として検出する。
【選択図】図2

Description

本発明は、自車に搭載したレーザレーダ、ミリ波レーダ等の前方探査レーダが受信した自車前方の各反射点のクラスタリング処理と、自車に搭載した画像センサの自車前方の撮影画像の画像処理とにより、走行中の自車の前方の車両を、センサフュージョンで認識して検出する車両検出方法及び車両検出装置に関する。
従来、ASVと呼ばれる先進安全自動車(Advanced Safety Vehicle)等の車両における追突可否判定等にあっては、自車の走行中に、何らかの手法で自車前方の追従すべき先行車等の車両(以下、前方車両両という)を認識して検出する必要がある。
そして、前方車両の認識を、自車に搭載したレーザレーダやミリ波レーダ等の前方探査レーダの受信した各反射点のクラスタリング処理の結果のみに基づいて行うと、つぎの(i)、(ii)、(iii)のような不都合がある。
(i)クラスタリング処理のエラーによって誤認識が生じる。
すなわち、レーザレーダやミリ波レーダの受信した各反射点の近いもの同士を、クラスタリング処理によってまとめ、前方車両のリフレクタ等のある程度の大きさのものについてのクラスタを形成する必要があるが、クラスタリング処理にエラーが発生しても、そのエラーを補償することができないため、容易に誤認識が生じる。
(ii)クラスタの解釈が困難で前方車両の誤認識が発生することがある。
すなわち、レーザレーダやミリ波レーダの反射点の受信結果だけを用いる場合、前記のクラスタリング処理で得られたクラスタが、前方車両のリフレクタのクラスタであるか、ガードレールのような障害物等のクラスタであるか等の判定(解釈)が容易でなく、この結果、前方車両の認識が困難になる。
(iii)クラスタの間隔のみからは前方車両の特徴量としての車幅の正確な計測が困難であり、その結果、前方車両の誤認識が発生する。
すなわち、前方車両の左右端のリフレクタのクラスタ間隔から、前方車両の特徴量(車両特徴量)としての車幅を計測し、この計測結果から前方車両を認識しようとしても、前方車両と自車とが接近して自車の近距離に前方車両が位置する場合や、複数台の前方車両が自車前方の等距離に存在する場合には、クラスタリング処理に基づくクラスタ間隔の正確な計測が困難になって車幅の正確な計測が行えなくなり、その結果、前方車両の誤認識が発生する。
そこで、これらの不都合を解消するため、自車に前方探査レーダだけでなく画像センサも搭載し、前方探査レーダが受信した各反射体のクラスタリング処理と、画像センサの自車前方の撮影画像の画像処理とにより、センサフュージョンで前方車を認識して検出することが提案されている。
そして、従来のセンサフュージョンの第1の車両検出方法は、画像センサの撮影結果から自車白線(自車走行レーンの白線)を検出し、前記のクラスタリング処理に基づいて形成された各クラスタのうちの前記白線の内側の自車走行レーン内に存在するクラスタのみを前方車両の有効なクラスタとして検出し、クラスタの誤解釈等の発生を防止して前方車両を認識し、検出する方法である(例えば、特許文献1参照。)。
また、従来のセンサフュージョンの第2の車両検出方法は、画像センサの撮影結果の画像テンプレートマッチング(パターンマッチング)の画像処理により、前方車両の特定物体のクラスタを検出し、クラスタリング処理のエラーによる誤認識や、クラスタの誤解釈の発生等を防止して、前方車両を認識し、検出する方法である(例えば、特許文献2参照。)。
さらに、センサフュージョンの第3の車両検出方法として、画像センサをステレオカメラで形成して自車前方をステレオ撮影し、このステレオ撮影に基づく画像処理から計測された障害物等までの距離と、同距離に位置するレーザレーダ、ミリ波レーダ等のレーダ探査結果の各クラスタとから、各クラスタの反射体を識別して前方車両を認識し、検出する方法も提案されている。
特開平7−120555号公報(段落番号[0010]、[0040]、図2) 特開平7−182484号公報(段落番号[0017]、[0019]、図1、図14、図20)
前記従来のセンサフュージョンの第1の車両検出方法の場合、画像センサの撮影結果から検出した自車白線内のクラスタを前方車両のクラスタとするが、自車白線は車両ではないため、自車白線内に前方車両が存在しないようなときには、前方車両の誤認識、誤検出が生じる問題がある。
また、前記従来のセンサフュージョンの第2の車両検出方法の場合、画像テンプレートマッチングによって画像センサの撮影結果から前方車両を検出するため、前記の自車白線を検出する場合のような誤認識は回避可能であるが、画像処理に複雑で時間のかかる多量の計算を要し、計算能力が高く、処理速度の速い高価なコンピュータ処理装置が必要になり、安価に検出できない問題がある。
さらに、センサフュージョンの前記第3の車両検出方法の場合、一般に、ステレオ撮影の画像処理による距離計測にあっては、中距離以遠で精度が低下することが知られており、そのため、距離計測の結果から前方車両を正確に特定して認識し、検出することは困難であり、実用的でなく、しかも、ステレオカメラは極めて高価であり、安価に前方車両を認識して検出することができない問題もある。
すなわち、従来のこの種のセンサフュージョンの車両検出では、計算量が少なく簡単な画像処理により、安価な構成で前方車両を正確に認識して検出することができない問題がある。
本発明は、画像処理の計算量が少なく簡単で安価な構成のセンサフュージョンにより、前方車両の車両特徴量を正確に検出し、この検出に基づいて前方車両を正確に認識して検出することを目的とし、さらには、画像センサを安価にして一層安価に形成することも目的とする。
上記した目的を達成するために、本発明の車両検出方法は、自車にレーザレーダ、ミリ波レーダ等の前方探査レーダ及び画像センサを搭載し、前記前方探査レーダが受信した反射点のクラスタリング処理と、前記画像センサの自車前方の撮影画像の画像処理とにより、センサフュージョンで自車前方の車両を認識して検出する車両検出方法であって、前記クラスタリング処理によって形成されたクラスタの位置、大きさ等のクラスタ状態から前記撮影画像のほぼ車両1台を囲む矩形領域を予測して候補領域に設定し、前記候補領域の垂直エッジ画像を形成し、横軸方向を前記垂直エッジ画像のエッジ位置のX座標方向、縦軸方向を車幅の半分の長さのT座標方向とする投票平面に、前記車幅の半分の予測長T*を、Tmin≦T*≦Tmax、(Tmin、Tmaxは設定した最小長、最大長)の範囲で変えながら、前記候補領域の右半分の各エッジ位置についてはそれぞれ前記予測長T*右側に移動した前記投票平面の座標(X、T)=(Xk+T*、T*)、(Xkはエッジ位置のX座標)に+1を投票し、前記候補領域の左半分の各エッジ位置についてはそれぞれ前記予測長T*左側に移動した前記投票平面の座標(X、T)=(Xk−T*、T*)、(Xkはエッジ位置のX座標)に+1を投票し、前記投票平面の投票結果がしきい値以上の単一のピーク値を含むときに、該ピーク値の座標(X、T)から前記自車前方の車両の車幅方向の中央位置、車幅の少なくともいずれか一方を車両特徴量として検出し、前記車両特徴量から前記自車前方の車両を認識して検出することを特徴としている(請求項1)。
また、本発明の車両検出方法は、設定した候補領域に複数台の車両が含まれて投票結果がしきい値以上の複数個のピーク値を含むときに、投票結果がしきい値以上の単一のピーク値を含むように、既設定の候補領域の部分領域からなる新たな候補領域を設定し、前記新たな候補領域の投票結果の前記しきい値以上の単一のピーク値の座標(X、T)から自車前方の車両の車幅方向の中央位置、車幅の少なくともいずれか一方を車両特徴量として検出することを特徴とし(請求項2)、画像センサが単眼カメラであることも特徴としている(請求項3)。
つぎに、本発明の車両検出装置は、自車に搭載したレーザレーダ、ミリ波レーダ等の前方探査レーダ及び画像センサと、前記前方探査レーダが受信した各反射点のクラスタリング処理及び前記画像センサの自車前方の撮影画像の画像処理により、センサフュージョンで自車前方の車両を認識して検出する認識処理部とを備えた車両検出装置であって、前記認識処理部に、前記クラスタリング処理によって形成されたクラスタの位置、大きさ等のクラスタ状態から前記撮影画像のほぼ車両1台を囲む矩形領域を予測して候補領域に設定する候補領域設定手段と、前記候補領域の垂直エッジ画像を形成する垂直エッジ画像形成手段と、横軸方向を前記垂直エッジ画像の各エッジ位置のX座標方向、縦軸方向を車幅の半分の長さのT座標方向とする投票平面に、前記車幅の半分の予測長T*を、Tmin≦T*≦Tmax、(Tmin、Tmaxは設定した最小長、最大長)の範囲で変えながら、前記候補領域の左半分の各エッジ位置についてはそれぞれ前記予測長T*右側に移動した前記投票平面の座標(X、T)=(Xk+T*、T*)、(Xkはエッジ位置のX座標)に+1を投票し、前記候補領域の右半分の各エッジ位置についてはそれぞれ前記予測長T*左側に移動した前記投票平面の座標(X、T)=(Xk−T*、T*)、(Xkはエッジ位置のX座標)に+1を投票する投票処理手段と、前記投票平面の投票結果にしきい値以上の単一のピーク値が含まれるときに、前記ピーク値の座標(X、T)から前記自車前方の車両の車幅方向の中央位置、車幅の少なくともいずれか一方を車両特徴量として検出する車両特徴量検出手段とを設け、前記車両特徴量から前記自車前方の車両を認識して検出するようにしたことを特徴としている(請求項4)。
また、本発明の車両検出装置は、設定した候補領域に複数台の車両が含まれて投票結果がしきい値以上の複数個のピーク値を含むときに、候補領域設定手段により、投票結果がしきい値以上の単一のピーク値を含むように、既設定の候補領域の部分領域からなる新たな候補領域を設定し、車両特徴量検出手段により、前記新たな候補領域の投票結果の前記しきい値以上の単一のピーク値の座標(X、T)から自車前方の車両の車幅方向の中央位置、車幅の少なくともいずれか一方を車両特徴量として検出するようにしたことを特徴とし(請求項5)、画像センサが単眼カメラであることも特徴としている(請求項6)。
まず、請求項1、4の構成によれば、クラスタリング処理結果のクラスタ状態から画像センサの撮影画像のほぼ車両1台を囲むと予測される矩形領域が候補領域に設定され、この候補領域に1台の前方車両が含まれていると、その領域の垂直エッジ画像は、左右に前方車両の左右端のリフレクタのエッジが存在し、この左右端のリフレクタのエッジは、撮影画像上で、前方車両の車幅方向(左右方向)の中央位置(以下、車両センタ位置という)から等距離はなれた対称位置に位置する。
そして、投票平面において、前方車両の車幅の1/2の予測長T*をTmin≦T*≦Tmaxに可変しつつ、候補領域の左半分の各エッジ位置についてはそれぞれ予測長T*右側に移動した投票平面の座標(X、T)=(Xk+T*、T*)に+1を投票し、候補領域の右半分の各エッジ位置についてはそれぞれ予測長T*左側に移動した投票平面の座標(X、T)=(Xk−T*、T*)に+1を投票することにより、横軸方向には前方車両の車幅方向の中央位置、縦軸方向には前方車両の車幅の1/2の座標(X、T)に投票が集中し、その座標(X、T)の投票結果がしきい値以上の単一のピーク値になる。
したがって、計算量が少なく簡単でノイズ等にロバストな投票方式により、投票結果がしきい値以上の単一のピーク値になる座標(X、T)の横軸方向の座標値から、前方車両の車両センタ位置を正確に検出することができ、その座標の縦軸方向の座標値から、その車幅を正確に検出することができる。
そして、検出した前方車両の車両センタ位置、車幅の少なくともいずれか一方に基づき、画像テンプレートマッチングのような計算量の多い複雑な画像処理を行うことなく、計算量が少なく、処理負担が少ない簡素で安価な構成により、前方車両を正確に認識して検出することができる。
つぎに、請求項2、5の構成によれば、候補領域に複数台の車両が含まれて投票結果が複数個のピーク値を含むときに、投票結果がしきい値以上の単一のピーク値が含むように、既設定の候補領域が分割され、ほぼ1台の車両を含む新たな候補領域が再設定され、この新たに設定された候補領域につき、前記の投票が行われることにより、投票平面での単一のピーク値の座標(X、T)から、前方車両の車両センタ位置、車幅の少なくともいずれか一方を正確に検出し、この検出結果に基づき、自車前方を複数台の車両走行するようなときにも、画像テンプレートマッチングのような計算量の多い複雑な画像処理を行うことなく、計算量が少なく、処理負担が少ない簡素で安価な構成により、前方車両を正確に認識して検出することができる。
つぎに、請求項3、6の構成によれば、画像センサをステレオカメラより安価な単眼カメラで形成することができ、一層安価かつ簡素な構成で前方車両を正確に認識して検出することができる。
つぎに、本発明をより詳細に説明するため、その一実施形態について、図1〜図10にしたがって詳述する。
図1は車両検出装置のブロック図、図2は図1の動作説明用のフローチャート、図3〜図9はそれぞれ投票処理の説明図、図10は実車の検出例の説明図である。
<構成>
まず、図1の車両検出装置の構成について説明する。
この装置は、図1に示すように、先進安全自動車(ASV)等の自車(車両)1の前部に、探査センサとしてのレーザレーダ2及び画像センサとしての2次元固体撮像素子(CCD)構成の単眼カメラ3を搭載する。
そして、レーザレーダ2は、スキャン方式の場合、自車1の走行中に、自車前方の設定された範囲にレーザパルスを左から右その逆に位置を変えて出射することを0.1s程度の周期で高速にくり返し、自車前方の追従すべき先行車等の前方車両の後部左右端のリフレクタやガードレールの反射板等の各反射体の反射パルスを受信し、受信結果を、マイクロコンピュータからなる認識処理用のECU4にリアルタイムに送る。
また、単眼カメラ3は、自車前方をくり返し撮影し、例えばモノクロームの撮影画像のデジタルデータをECU4にリアルタイムに送る。
そして、ECU4及びメモリ5により、センサフュージョンで前方車両を認識して検出する認識処理部6が形成され、そのマイクロコンピュータが予め設定された図2の車両検出のステップS1〜S8の認識処理プログラムを実行することにより、認識処理部6がつぎの(a)〜(f)の各手段を備える。
(a)クラスタリング処理手段
この手段は、レーザレーダ2が受信した各反射体の反射点を距離の近いもの同士集め、例えばリフレクタ等の反射体単位の塊(クラスタ)を形成する。
(b)候補領域設定手段
この手段は、クラスタリング処理によって形成されたクラスタの位置、大きさ、数等のクラスタ状態から撮影画像のほぼ車両1台を囲む矩形領域を予測し、この矩形領域を後述の投票対象の候補領域に設定する。
具体的には、車両を背面から見ると、1〜数メートルの横幅のほほ矩形状になることから、例えば図3の(a)の単眼カメラ3の撮影範囲7aの平面図に示すように、実際の長さでおおむね1メートルを超える横幅の大きな1個のクラスタ8aが存在するクラスタ状態のときは、このクラスタ8aの横幅(クラスタ幅)が前方車両9aの横幅であるとして、そのクラスタ幅の範囲を囲む同図の(b)の撮影画像10aの破線Laの矩形領域を、ほぼ車両1台を囲む候補領域11aに予測して設定する。
また、図4の(a)の単眼カメラ3の撮影範囲7bの平面図に示すように、実際の長さで1メートルより十分に短い横幅の小さな複数個のクラスタ8bが密集して存在するクラスタ状態のときは、これらのクラスタ8bが1台の前方車両9bの左右のリフレクタ等の複数個の反射体のクラスタであるとして、ほぼそれらのクラスタ8bを結合して1個のクラスタとみなした場合のクラスタ幅の範囲を囲む同図の(b)の撮影画像10bの破線Lbの矩形領域を、ほぼ車両1台を囲む候補領域11bに予測して設定する。
さらに、図5の(a)の単眼カメラ3の撮影範囲7cの平面図に示すように、実際の長さで1メートル以下の短い横幅の複数個のクラスタ8cが1メートル前後の一定以上の間隔で散在するクラスタ状態のときは、これらのクラスタ8cが1台の前方車両のものか、例えば2台の四輪車又は四輪車と二輪車のような画像上で並走状態の複数台の前方車両のものか、直ちには判別困難である。
そこで、この実施形態の場合、候補領域設定手段は、最初に予測して設定した候補領域に複数台の車両が含まれているときには、投票結果にしきい値以上の単一のピーク値が含まれるように、既設定の候補領域の部分領域からなる新たな候補領域を設定する。
そして、複数個のクラスタ8cが散在するクラスタ状態のときは、クラスタ間隔が1メートル以上になるクラスタの組み合わせをそれぞれ1台の前方車両のものと仮定し、例えば図5の(b)の撮影画像10cの破線Lc1の矩形領域、この領域の部分領域である破線Lc2、Lc3の矩形領域を、それぞれ車両1台を囲む候補領域11c1、11c2、11c3に予測して設定する。なお、実際の撮影画像に対する各候補領域11c1、11c2、11c3の設定は、例えば図6に示すようになる。
このとき、候補領域11c1が1台の前方車両を囲む領域であるか、候補領域11c2、11c3がそれぞれ1台の前方車両を囲む領域であるかが問題となる。
そして、図5の場合、2台の前方車両9c1、9c2を囲む候補領域11c1の投票結果が複数個のピーク値を有し、1台の前方車両9c1を囲む候補領域11c2、1台の前方車両9c2を囲む候補領域11c3それぞれの投票結果が単一のピーク値を有することから、候補領域11c2、11c3がそれぞれ1台の前方車両を囲む領域であることがわかる。
(c)垂直エッジ画像形成手段
この手段は、撮影画像の候補領域の輝度の垂直方向の微分変化から、前記の候補領域の垂直のエッジを検出し、検出した各エッジの画像(垂直エッジ画像)を形成する。
(d)投票処理手段
この手段は、候補領域の垂直エッジ画像につき、横軸方向を垂直エッジ画像の各エッジ(垂直エッジ)位置のX座標方向、縦軸方向を車幅の半分の長さのT座標方向とする図3、図4の(b)の投票平面12a、12bのような投票平面を設定し、前方車両の車幅の半分の予測長T*の最小長Tmin、最大長Tmaxの設定に基づき、予測長T*を、Tmin≦T*≦Tmaxの範囲で変えながら、投票平面に投票する。
この投票は、候補領域の左半分の各エッジ位置についてはそれぞれの横軸方向の位置を予測長T*右側に移動した投票平面の座標(X、T)=(Xk+T*、T*)、(Xkはエッジ位置のX座標値)に+1を投票し、候補領域の右半分の各エッジ位置についてはそれぞれの横軸方向の位置を予測長T*左側に移動した投票平面の座標(X、T)=(Xk−T*、T*)、(Xkはエッジ位置のX座標値)に+1を投票するものである。
(e)車両特徴量検出手段
この手段は、投票平面の投票結果にしきい値以上の単一のピーク値が含まれるときに、そのピーク値の座標から、画像上での前方車両の車幅方向の中央位置(センター位置)、車幅の少なくともいずれか一方を、その前方車両の車両特徴量として検出する。
なお、この実施形態の場合、この車両特徴量検出手段は、前記の新たな候補領域の投票結果にしきい値以上の単一のピーク値が含まれるときには、その単一のピーク値の座標から自車前方の車両の車両センタ位置、車幅の少なくともいずれか一方を車両特徴量として検出する。
(f)車両認識手段
この手段は、車両特徴量検出手段によって検出された車両特徴量及び、例えば、レーザレーダ2の送受信時間差から計測された自車と前方車両との測距距離に基づき、実際の前方車両の位置、車幅又はその両方から前方車両を認識して検出する。
そして、この検出の結果が、認識処理部6のECU4から自車1の衝突可能性の有無を判定する衝突判定処理のECUに送られ、このECUが先行車等との衝突の可能性を判定し、衝突回避に必要な走行、操舵の制御を行う。
<動作>
つぎに、前記の構成に基づく前方車両の認識・検出の動作について、図2のフローチャート等を参照して説明する。
まず、自車1の走行中はレーザレータ2の前方探査及び単眼カメラ3の前方撮影がくり返し行われる。
そして、ステップS1のクラスタリング処理により、前記のクラスタリング処理手段が動作し、レーザレーダ2が受信した各反射体の反射点について、例えば反射体単位の塊(クラスタ)を形成する。
また、ステップS2の候補領域設定により、前記のクラスタリング処理結果のクラスタ状態に基づいて、候補領域設定手段が撮影画像のほぼ車両1台を囲む矩形領域を予測し、この矩形領域を後述の投票対象の候補領域に設定する。
さらに、ステップS3の垂直エッジ画像の形成により、垂直エッジ画像形成手段が前記したように候補領域の垂直エッジを検出し、検出した各エッジの垂直エッジ画像を形成する。
そして、ステップS4の投票処理により、投票処理手段が前記の投票平面に投票する。
この投票は、直線以外の任意形状について、投票結果のピーク値(最大値)をもって「全体」の最適な特徴量とする、周知のいわゆる一般化ハフ(Hough)変換の手法をベースにしたもであり、前方車両(四輪車両)が「おおよそ左右対称でおおよそ四角形」であると近似でき、「車両1台をだいたい囲むように候補領域を設定した場合、投票平面に、しきい値以上の正規化されたピーク値が1個だけ出現する」ことから、つぎのようにして行う。
まず、図3、図4の(a)、(b)に示したように、撮影画像10a、10bの前方車両9a、9bを囲む1個の候補領域11a、11bが設定された場合、例えば図3の(b)の候補領域11a、投票平面12aを拡大した図7に示すように、投票平面12aは、横軸方向が候補領域11aの垂直エッジ画像の各エッジ(垂直エッジ)位置のX座標方向、縦軸方向が前方車両9aの車幅の半分の長さのT座標方向である。
そして、撮影画像10a上で、前方車両9aの車幅がW、その半分W/2の車両センタ位置がXc、候補領域11aの横幅がω(≒W)、その半分ω/2の領域センタ位置がXccである場合、実験等によると、車幅Wの半分W/2が候補領域11aの横幅ωの(1/4)〜(3/4)の範囲内の長さになることから、投票平面12aの縦軸方向のω/4の位置を車幅の半分の予測長T*の最小長Tmin、投票平面の縦軸方向の(3ω/4)の位置を車幅の半分の予測長T*の最大長Tmaxの位置に設定する。
さらに、予測長T*を最小長Tmin〜最大長Tmaxの範囲で、あらかじめ設定した単位長ΔTずつ可変しながら、領域センタ位置Xccより左側の各エッジ位置については、その位置の座標Xより予測長T*右側に移動した座標(X、T)=(Xk+T*、T*)に+1を投票し、領域センタ位置Xccより右側の各エッジ位置については、その位置の座標Xより予測長T*左側に移動した座標(X、T)=(Xk−T*、T*)に+1を投票する。
具体的には、まず、予測長T*を最小長Tminに設定した状態で、右側の各エッジについて座標(Xk+T*、T*)に+1を投票し、左側の各エッジについて(Xk−T*、T*)に+1投票し、つぎに、予測長T*を最小長Tminより単位長ΔT長いTmin+ΔTに変更し、この状態で、右側の各エッジについて座標(Xk+T*、T*)に+1を投票し、左側の各エッジについて(Xk−T*、T*)に+1投票し、以降、予測長T*が最大長Tmaxになるまで、予測長T*を単位長ΔTずつ可変して同様の投票をくり返す。
このとき、前方車両9aの左右端のリフレクタ等の左右対称位置の垂直エッジは、車両センタ位置Xcから左右対称に車幅Wの半分W/2だけ離れた位置に発生し、領域センタ位置Xccより左側の左半分のエッジ位置から右側にW/2移動した投票位置と、領域センタ位置Xccより右側の右半分のエッジ位置から左側にW/2移動した投票位置は、ほとんどが、予測長T*の変化にしたがって、ほぼ図7の実線i、iiの線上を変化する。
なお、実線iが領域センタ位置Xccより左側のエッジからの投票位置を示し、実線iiが領域センタ位置Xccより右側のエッジからの投票位置を示す。
そして、予測長T*がW/2のときに、左右のエッジのX軸方向の投票位置がともに車両センタ位置Xcになることから、図7の投票平面12aにおいて、実線i、iiの交点である●印の座標(Xc、W/2)の投票値がピーク値(極大値)になる。
したがって、候補領域11a、11bがほぼ車両1台を囲むように設定された図3、図4の(b)の投票平面12a、12bにおいては、それぞれの●印の座標(Xc、W/2)のみで投票値がピーク値になり、投票結果が座標(Xc、W/2)の位置に単一のピーク値を有する。
一方、図5の(b)の2台の前方車両9c1、9c2を囲む候補領域11c1を最初に設定すると、前記と同様の投票を行うことにより、図8に示すように、その投票平面12c1の●印の複数の座標(X、T)で投票値がピーク値になる。
この場合、投票処理手段は、投票結果が複数のピーク値を含むことから、候補領域11c1が複数台の前方車両9c1、9c2を囲む領域であることを認識し、この認識に基づき、図2のステップS4からステップS5、S6を介してステップS7に移行し、候補領域11c1の部分領域である図5の(b)の新たな候補領域11c2、11c3を設定した後、ステップS4に戻り、候補領域11c2、11c3それぞれについて投票を行う。
この投票により、図9の(a)、(b)に示すように、候補領域11c2、11c3それぞれの投票平面12c2、12c3の●印の単一の座標(Xc、W/2)で投票値がピーク値になると、投票処理手段は、候補領域11c2、11c3がそれぞれ車両1台を囲む領域であることを認識する。
なお、候補領域11c2、11c3が複数台の前方車両を含み、それらの投票結果が複数個のピーク値を含むときは、投票処理手段が、候補領域11c2、11c3それぞれにつき、部分領域からなる、さらに新たな候補領域を設定し、投票結果が単一のピーク値を含むようになるまで、ステップS4からステップS5、S6、S7を介してステップS4に戻るループ処理により、候補領域を分割して設定することをくり返す。
ところで、この実施形態においては、投票結果のピーク値を客観的に検出するため、図2のステップS5により、つぎに説明するようにピーク値の規格化処理を行い、投票結果のピーク値を規格化して評価する。
すなわち、図3、図4の(b)のように、候補領域11a、11bが1台の前方車両9a、9bを囲む場合、その前方車両9a、9bの画像上の高さをHvとすると、投票平面12a、12bの座標(Xc、W/2)のピーク値(以下、投票ピーク値という)が、計算上は、2×Hvになることから、投票ピーク値を2Hvで除算したものを規格化したピーク値(以下、規格化ピーク値という)とし、投票処理手段は、この規格化ピーク値を求める。
そして、規格化ピーク値が1に近くなる程、候補領域の設定が正しいことになるため、投票処理手段は、規格化ピーク値から、候補領域の設定の正誤(良否)を判断し、この判断によって候補領域の設定を確定する。
具体的には、投票結果が単一の規格化ピーク値を含み、かつ、その値が実験等によって設定した0.7程度のしきい値以上であれば、投票処理手段は、候補領域の設定が正しいと判断して確定する。
このとき、図4の(a)のように、候補領域に複数個のクラスタが含まれていると、その左右端のクラスタが前方車両の左右のリフレクタのクラスタとして認識される。
なお、投票結果が単一の規格化ピーク値を含むが、その値がしきい値より小さければ、投票処理手段は、例えば、段階的に候補領域の大きさを変えて投票をくり返す。
また、図5の(b)のように、1つの候補領域11c1の設定と、この領域11c1の部分領域である2つの候補領域11c2、11c3の設定とが行えようなときは、候補領域11c1〜11c3の規格化ピーク値の個数と値とから、領域設定の正誤を判断する。
すなわち、候補領域11c1〜11c3の高さをH1、H2、H3とし、例えば、候補領域11c1〜11c3の左右の垂直エッジの位置分布等から検出される前方車両9c1、9c2の高さをHv1、Hv2とすると、候補領域11c1については、規格化ピーク値の個数は3、ピーク毎の値は(Hv1+Hv2)/(2×H1)、(2×Hv1)/(2×H1)、(2×Hv2)/(2×H1)であり、候補領域11c2については、規格化ピーク値の個数は1、値は(2×Hv1)/(2×H2)であり、候補領域11c3については、規格化ピーク値の個数は1、値は(2×Hv2)/(2×H3)である。
そして、H1>H2、H1>H3であるため、候補領域11c2、11c3のピーク値が候補領域11c1の各ピーク値より大きく、しかも、候補領域11c2、11c3が単一のピーク値を含むことから、候補領域11c2、11c3の組み合わせが正しい領域設定であると判断する。
つぎに、図2のステップS8により、車両特徴量検出手段が単一のピーク値の座標Xc、W/2)から、前方車両の車両センタ位置Xc、横幅Wの少なくともいずれか一方を車両特徴量として検出し、この特徴量と、レーザレーダ2の送受信の時間差から検出した自車と前方車両との測距距離とに基づき、前方車両の実際の位置、車幅又はその両方を認識して検出し、この検出結果を衝突判定処理のECUに送る。
以上の処理の繰り返しにより、画像テンプレートマッチングのような計算量の多い複雑な画像処理を行うことなく、単純で計算量が少なく、安価かつ簡素な構成で、ノイズやピッチング振動等にロバストな一般化ハフ変換の投票方式の画像処理を行って、レーザレーダ2の探査のクラスタリング処理結果と単眼カメラ3の撮像結果とのセンサフュージョンで、自車1の走行中に、時々刻々の自車1の前方車両の車幅方向の中央位置(車両センタ位置)、車幅の少なくともいずれか一方を正確に検出し、前方車両を正確に認識して検出することがでる。
そして、投票結果が単一のピーク値を含むように候補領域を設定したため、前方車両のクラスタが複数個になっても、それらのクラスタを、誤りなく1台の前方車両のクラスタと解釈し、センサフュージョンで正確に前方車両を検出することができる。
また、単眼カメラ3の撮影画像に、自車1の前方車両として、複数台の車両が含まれるようなときにも、候補領域を、投票結果が単一のピーク値を含み、ほぼ車両1台を囲む大きさに設定することにより、2台の車両の結合したクラスタの分離等も行え、各候補領域の投票結果から、各前方車両の車両センタ位置、車幅の少なくともいずれか一方を正確に検出し、各前方車両を正確に認識して検出することがでる。
さらに、投票結果のピーク値を規格化したことにより、ピーク値の客観的で正確な評価が行え、検出精度が一層向上する利点がある。
その上、画像センサをステレオカメラより安価な単眼カメラ2により形成したため、一層安価に形成できる利点もある。
そして、この車両検出結果に基づき、安定した正確な車両認識や衝突有無の判断等が行え、先進安全自動車(ASV)等の信頼性を向上し、交通安全に寄与することができる。
なお、実際の車両にこの車両検出装置を搭載して実験したところ、図10の結果が得られた。同図において、10zは撮影画像。11zは撮影画像10zの2本の白線zで区切られた候補領域、12zはその投票平面であり、この投票平面12zの中央部のもっとも白い部分がピーク値の部分である。
そして、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能であり、例えば、画像センサは単眼カメラ2に限られるものでなく、モノクローム、カラーの種々のカメラであってもよく、前方探査レーダがミリ波レーダ、超音波レーダ等であってもよいのは勿論である。
また、投票結果のピーク値は規格化しなくてもよく、そのしきい値は実験棟に基づいて適当に設定すればよい。
ところで、自車1の装備部品数を少なくするため、図1のレーザレーダ2、単眼カメラ3等を追従走行制御、ブレーキ制御等の他の制御のセンサ等に兼用する場合にも適用することができる。
一実施形態のブロック図である。 図1の動作説明用のフローチャートである。 図1の投票処理の一例の説明図である。 図1の投票処理の他の例の説明図である。 図1の投票処理のさらに他の例の説明図である。 図5の各候補領域の撮影画像上での設定位置の説明図である。 図3の投票処理の一部の拡大した説明図である。 図5の候補領域11aの投票処理の説明図である。 図5の候補領域11b、11cの投票処理の説明図である。 実車での投票処理の1例の説明図である。
符号の説明
1 自車
2 レーザレーダ
3 単眼カメラ
6 認識処理部

Claims (6)

  1. 自車にレーザレーダ、ミリ波レーダ等の前方探査レーダ及び画像センサを搭載し、
    前記前方探査レーダが受信した反射点のクラスタリング処理と、前記画像センサの自車前方の撮影画像の画像処理とにより、センサフュージョンで自車前方の車両を認識して検出する車両検出方法であって、
    前記クラスタリング処理によって形成されたクラスタの位置、大きさ等のクラスタ状態から前記撮影画像のほぼ車両1台を囲む矩形領域を予測して候補領域に設定し、
    前記候補領域の垂直エッジ画像を形成し、
    横軸方向を前記垂直エッジ画像のエッジ位置のX座標方向、縦軸方向を車幅の半分の長さのT座標方向とする投票平面に、前記車幅の半分の予測長T*を、Tmin≦T*≦Tmax、(Tmin、Tmaxは設定した最小長、最大長)の範囲で変えながら、前記候補領域の右半分の各エッジ位置についてはそれぞれ前記予測長T*右側に移動した前記投票平面の座標(X、T)=(Xk+T*、T*)、(Xkはエッジ位置のX座標)に+1を投票し、前記候補領域の左半分の各エッジ位置についてはそれぞれ前記予測長T*左側に移動した前記投票平面の座標(X、T)=(Xk−T*、T*)、(Xkはエッジ位置のX座標)に+1を投票し、
    前記投票平面の投票結果がしきい値以上の単一のピーク値を含むときに、該ピーク値の座標(X、T)から前記自車前方の車両の車幅方向の中央位置、車幅の少なくともいずれか一方を車両特徴量として検出し、
    前記車両特徴量から前記自車前方の車両を認識して検出することを特徴とする車両検出方法。
  2. 設定した候補領域に複数台の車両が含まれて投票結果がしきい値以上の複数個のピーク値を含むときに、投票結果がしきい値以上の単一のピーク値を含むように、既設定の候補領域の部分領域からなる新たな候補領域を設定し、
    前記新たな候補領域の投票結果の前記しきい値以上の単一のピーク値の座標(X、T)から自車前方の車両の車幅方向の中央位置、車幅の少なくともいずれか一方を車両特徴量として検出することを特徴とする請求項1に記載の車両検出方法。
  3. 画像センサが単眼カメラであることを特徴とする請求項1また2に記載の車両検出方法。
  4. 自車に搭載したレーザレーダ、ミリ波レーダ等の前方探査レーダ及び画像センサと、
    前記前方探査レーダが受信した各反射点のクラスタリング処理及び前記画像センサの自車前方の撮影画像の画像処理により、センサフュージョンで自車前方の車両を認識して検出する認識処理部とを備えた車両検出装置であって、
    前記認識処理部に、
    前記クラスタリング処理によって形成されたクラスタの位置、大きさ等のクラスタ状態から前記撮影画像のほぼ車両1台を囲む矩形領域を予測して候補領域に設定する候補領域設定手段と、
    前記候補領域の垂直エッジ画像を形成する垂直エッジ画像形成手段と、
    横軸方向を前記垂直エッジ画像の各エッジ位置のX座標方向、縦軸方向を車幅の半分の長さのT座標方向とする投票平面に、前記車幅の半分の予測長T*を、Tmin≦T*≦Tmax、(Tmin、Tmaxは設定した最小長、最大長)の範囲で変えながら、前記候補領域の左半分の各エッジ位置についてはそれぞれ前記予測長T*右側に移動した前記投票平面の座標(X、T)=(Xk+T*、T*)、(Xkはエッジ位置のX座標)に+1を投票し、前記候補領域の右半分の各エッジ位置についてはそれぞれ前記予測長T*左側に移動した前記投票平面の座標(X、T)=(Xk−T*、T*)、(Xkはエッジ位置のX座標)に+1を投票する投票処理手段と、
    前記投票平面の投票結果にしきい値以上の単一のピーク値が含まれるときに、前記ピーク値の座標(X、T)から前記自車前方の車両の車幅方向の中央位置、車幅の少なくともいずれか一方を車両特徴量として検出する車両特徴量検出手段とを設け、
    前記車両特徴量から前記自車前方の車両を認識して検出するようにしたことを特徴とする車両検出装置。
  5. 設定した候補領域に複数台の車両が含まれて投票結果がしきい値以上の複数個のピーク値を含むときに、候補領域設定手段により、投票結果がしきい値以上の単一のピーク値を含むように、既設定の候補領域の部分領域からなる新たな候補領域を設定し、
    車両特徴量検出手段により、前記新たな候補領域の投票結果の前記しきい値以上の単一のピーク値の座標(X、T)から自車前方の車両の車幅方向の中央位置、車幅の少なくともいずれか一方を車両特徴量として検出するようにしたことを特徴とする請求項4に記載の車両検出装置。
  6. 画像センサが単眼カメラであることを特徴とする請求項4または5に記載の車両検出装置。
JP2003377723A 2003-11-07 2003-11-07 車両検出方法及び車両検出装置 Expired - Fee Related JP4074577B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003377723A JP4074577B2 (ja) 2003-11-07 2003-11-07 車両検出方法及び車両検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003377723A JP4074577B2 (ja) 2003-11-07 2003-11-07 車両検出方法及び車両検出装置

Publications (2)

Publication Number Publication Date
JP2005141517A true JP2005141517A (ja) 2005-06-02
JP4074577B2 JP4074577B2 (ja) 2008-04-09

Family

ID=34688326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003377723A Expired - Fee Related JP4074577B2 (ja) 2003-11-07 2003-11-07 車両検出方法及び車両検出装置

Country Status (1)

Country Link
JP (1) JP4074577B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007114831A (ja) * 2005-10-18 2007-05-10 Omron Corp 物体検出装置
JP2007226680A (ja) * 2006-02-24 2007-09-06 Toyota Motor Corp 物体検出装置
WO2011036807A1 (ja) * 2009-09-28 2011-03-31 トヨタ自動車株式会社 物体検出装置及び物体検出方法
DE112009001686T5 (de) 2008-09-05 2012-01-12 Toyota Jidosha Kabushiki Kaisha Objekterfassungsvorrichtung
KR101194152B1 (ko) * 2010-10-05 2012-10-26 주식회사 만도 보행자 충돌 회피 방법 및 그 시스템
WO2014096923A2 (en) 2012-12-21 2014-06-26 Toyota Jidosha Kabushiki Kaisha Vehicle having power control unit
KR20150141190A (ko) * 2013-04-11 2015-12-17 구글 인코포레이티드 차량 온보드 센서들을 사용하여 날씨 상태들을 검출하는 방법들 및 시스템들
KR101759270B1 (ko) 2014-02-13 2017-07-19 한국전자통신연구원 차량 후보 검출 장치 및 그 방법
CN108303747A (zh) * 2017-01-12 2018-07-20 清华大学 检查设备和检测枪支的方法
US10247854B2 (en) 2013-05-07 2019-04-02 Waymo Llc Methods and systems for detecting weather conditions using vehicle onboard sensors
WO2021172535A1 (ja) * 2020-02-27 2021-09-02 株式会社デンソー 物体検知装置
WO2022074701A1 (ja) * 2020-10-05 2022-04-14 日本電気株式会社 情報処理装置、情報処理システム、および情報処理方法
CN115236627A (zh) * 2022-09-21 2022-10-25 深圳安智杰科技有限公司 一种基于多帧多普勒速度扩维的毫米波雷达数据聚类方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07125567A (ja) * 1993-11-04 1995-05-16 Mitsubishi Motors Corp 自動車の走行制御装置の先行車検出機構
JP2002120677A (ja) * 2000-10-12 2002-04-23 Daihatsu Motor Co Ltd 駐車支援装置及びその制御方法
JP2003076987A (ja) * 2001-08-31 2003-03-14 Nissan Motor Co Ltd 先行車両認識装置
JP2003084064A (ja) * 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07125567A (ja) * 1993-11-04 1995-05-16 Mitsubishi Motors Corp 自動車の走行制御装置の先行車検出機構
JP2002120677A (ja) * 2000-10-12 2002-04-23 Daihatsu Motor Co Ltd 駐車支援装置及びその制御方法
JP2003076987A (ja) * 2001-08-31 2003-03-14 Nissan Motor Co Ltd 先行車両認識装置
JP2003084064A (ja) * 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007114831A (ja) * 2005-10-18 2007-05-10 Omron Corp 物体検出装置
JP2007226680A (ja) * 2006-02-24 2007-09-06 Toyota Motor Corp 物体検出装置
US7825849B2 (en) 2006-02-24 2010-11-02 Toyota Jidosha Kabushiki Kaisha Object detecting apparatus and method for detecting an object
JP4595833B2 (ja) * 2006-02-24 2010-12-08 トヨタ自動車株式会社 物体検出装置
DE112009001686T5 (de) 2008-09-05 2012-01-12 Toyota Jidosha Kabushiki Kaisha Objekterfassungsvorrichtung
US8466827B2 (en) 2008-09-05 2013-06-18 Toyota Jidosha Kabushiki Kaisha Object detecting device
DE112009001686B4 (de) 2008-09-05 2024-08-01 Toyota Jidosha Kabushiki Kaisha Objekterfassungsvorrichtung
WO2011036807A1 (ja) * 2009-09-28 2011-03-31 トヨタ自動車株式会社 物体検出装置及び物体検出方法
KR101194152B1 (ko) * 2010-10-05 2012-10-26 주식회사 만도 보행자 충돌 회피 방법 및 그 시스템
US10843569B2 (en) 2012-12-21 2020-11-24 Toyota Jidosha Kabushiki Kaisha Vehicle having power control unit
WO2014096923A2 (en) 2012-12-21 2014-06-26 Toyota Jidosha Kabushiki Kaisha Vehicle having power control unit
JP7072628B2 (ja) 2013-04-11 2022-05-20 ウェイモ エルエルシー 車載センサを用いて気象状態を検出する方法及びシステム
KR102040353B1 (ko) * 2013-04-11 2019-11-04 웨이모 엘엘씨 차량 온보드 센서들을 사용하여 날씨 상태들을 검출하는 방법들 및 시스템들
KR20150141190A (ko) * 2013-04-11 2015-12-17 구글 인코포레이티드 차량 온보드 센서들을 사용하여 날씨 상태들을 검출하는 방법들 및 시스템들
JP2021047204A (ja) * 2013-04-11 2021-03-25 ウェイモ エルエルシー 車載センサを用いて気象状態を検出する方法及びシステム
US10247854B2 (en) 2013-05-07 2019-04-02 Waymo Llc Methods and systems for detecting weather conditions using vehicle onboard sensors
US11487046B2 (en) 2013-05-07 2022-11-01 Waymo Llc Methods and systems for detecting weather conditions using vehicle onboard sensors
KR101759270B1 (ko) 2014-02-13 2017-07-19 한국전자통신연구원 차량 후보 검출 장치 및 그 방법
CN108303747A (zh) * 2017-01-12 2018-07-20 清华大学 检查设备和检测枪支的方法
WO2021172535A1 (ja) * 2020-02-27 2021-09-02 株式会社デンソー 物体検知装置
JP7459560B2 (ja) 2020-02-27 2024-04-02 株式会社デンソー 物体検知装置
WO2022074701A1 (ja) * 2020-10-05 2022-04-14 日本電気株式会社 情報処理装置、情報処理システム、および情報処理方法
JP7529034B2 (ja) 2020-10-05 2024-08-06 日本電気株式会社 情報処理装置、情報処理システム、および情報処理方法
CN115236627A (zh) * 2022-09-21 2022-10-25 深圳安智杰科技有限公司 一种基于多帧多普勒速度扩维的毫米波雷达数据聚类方法
CN115236627B (zh) * 2022-09-21 2022-12-16 深圳安智杰科技有限公司 一种基于多帧多普勒速度扩维的毫米波雷达数据聚类方法

Also Published As

Publication number Publication date
JP4074577B2 (ja) 2008-04-09

Similar Documents

Publication Publication Date Title
US10922561B2 (en) Object recognition device and vehicle travel control system
JP6747269B2 (ja) 物体認識装置
JP5407898B2 (ja) 対象物検出装置及びプログラム
JP3596314B2 (ja) 物体端の位置計測装置および移動体の通行判断装置
JP6440411B2 (ja) 物体検出装置
JP5561064B2 (ja) 車両用対象物認識装置
EP2639781A1 (en) Vehicle with improved traffic-object position detection
JP4074577B2 (ja) 車両検出方法及び車両検出装置
JP6717240B2 (ja) 物標検出装置
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
US20160217583A1 (en) Object detection apparatus and object detection method
JPH10283461A (ja) 車外監視装置
JP4901275B2 (ja) 走行誘導障害物検出装置および車両用制御装置
JP2019053490A (ja) 物標認識装置、物標認識方法及び車両制御システム
CN108475471B (zh) 车辆判定装置、车辆判定方法和计算机可读的记录介质
US8160300B2 (en) Pedestrian detecting apparatus
JP7255345B2 (ja) 走行車線認識装置、走行車線認識方法およびプログラム
JP2000266539A (ja) 車間距離計測装置
JP2018081628A (ja) 車両制御装置、車両制御方法
JP2018060422A (ja) 物体検出装置
JP2006048435A (ja) 車両用画像処理装置
JP4956099B2 (ja) 壁検出装置
JP4123138B2 (ja) 車両検知方法及び車両検知装置
EP4024330B1 (en) Object recognition method and object recognition device
JP2010250651A (ja) 車両検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110201

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130201

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130201

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130201

Year of fee payment: 5

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

LAPS Cancellation because of no payment of annual fees