JP2004069328A - Forward environment recognizing device and forward environment recognizing method - Google Patents

Forward environment recognizing device and forward environment recognizing method Download PDF

Info

Publication number
JP2004069328A
JP2004069328A JP2002225041A JP2002225041A JP2004069328A JP 2004069328 A JP2004069328 A JP 2004069328A JP 2002225041 A JP2002225041 A JP 2002225041A JP 2002225041 A JP2002225041 A JP 2002225041A JP 2004069328 A JP2004069328 A JP 2004069328A
Authority
JP
Japan
Prior art keywords
vehicle
recognition device
environment recognition
processing unit
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002225041A
Other languages
Japanese (ja)
Inventor
Tomoko Shimomura
下村 倫子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002225041A priority Critical patent/JP2004069328A/en
Publication of JP2004069328A publication Critical patent/JP2004069328A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a forward environment recognizing device and a forward environment recognizing method for accurately determining whether a toll booth exists forward in the traveling direction of an own vehicle. <P>SOLUTION: This forward environment recognizing device is equipped with a laser radar 11 for detecting reflection points at which laser light is reflected to measure the relative position of each reflection point in relation to the own vehicle. This device is equipped with an object detection part 12 for detecting a forward object by calculating that reflection points close to each other are points on the same object among the reflection points, and an object kind determining part 13 for measuring the number of reflection points included in the forward object to determine the forward object to be a toll booth when the number of relevant reflection points is larger than a reference value. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、自車の進行方向前方に料金所が存在するかどうかを判定する前方環境認識装置及び前方環境認識方法に関する。
【0002】
【従来の技術】
従来より、自車の進行方向前方に料金所が存在するかどうかを判定する前方環境認識装置として、例えば特開平2001−134794号公報に示された技術が知られている。
【0003】
当該前方環境認識装置は、自車位置を算出し、地図データベースから自車位置周辺の地図データを取得し、自車位置と当該地図データとを照らし合わせることで、自車の進行方向前方に料金所が存在するかどうかを判定する。
【0004】
【発明が解決しようとする課題】
しかし、料金所は新しく建設される場合もあることから、前方環境認識装置が上述した判定を正確に行うためには、地図データベースが頻繁に更新されていなければならない。しかし、料金所が記憶されている地図データベースは、比較的高価である。
【0005】
このため、前方環境認識装置には、上述した判定を正確に行うために、費用が比較的かかるという問題点があった。
【0006】
本発明はこのような従来の課題を解決するためになされたものであり、その主に目的とするところは、地図データベースを用いることなく、自車の進行方向前方に料金所が存在するかどうかを正確に判定することができる前方環境認識装置及び前方環境認識方法を提供することである。
【0007】
【課題を解決するための手段】
上述した目的を達成するため、本願特許請求の範囲に記載の発明は、検出波を反射した反射点を検出し、当該反射点の自車に対する相対位置を測定する反射点検出手段と、当該反射点のうち互いに近接した反射点が同一物体上の点であると予測することで、前方物体を検出する物体検出手段と、前方物体に含まれる反射点の数を測定し、当該反射点の数が基準値より大きい場合には、当該前方物体を料金所と判定する物体種類判別手段と、を備えていることを主に特徴とする。
【0008】
【発明の効果】
本願特許請求の範囲に記載の前方環境認識装置によれば、主に以下の効果を得ることができる。
【0009】
即ち、料金所をスキャニングした際に検出される反射点の数は、他の前方物体をスキャニングした際に検出される反射点の数に比して非常に大きくなる。
【0010】
したがって、基準値を、他の前方物体をスキャニングした際に検出される反射点の数よりも大きく設定しておくことで、前方環境認識装置は、上述した判定により、前方物体が料金所であるかどうかを判定することができる。
【0011】
言い換えれば、前方環境認識装置は、地図データベースを用いることなく、自車の進行方向前方に料金所が存在するかどうかを正確に判定することができる。
【0012】
【発明の実施の形態】
(第一の実施の形態)
以下、本発明の第一の実施の形態(請求項1、7及び12の何れか1項に記載の発明に対応)を図面に基づいて説明する。
【0013】
まず、本発明に係る前方環境認識装置1の構成を図1〜図5及び図7に基づいて説明する。
【0014】
ここで、図1は、前方環境認識装置1の構成を示すブロック図であり、図2は、レーザレーダ11の設置位置を示した概略側面図であり、図3は、レーザレーダ11の設置位置を示した概略平面図である。
【0015】
また、図4及び図5は、レーザレーダ11の検知可能範囲11cを示した側面図であり、図7は、反射点及び前方物体の位置を示した概略平面図である。
【0016】
前方環境認識装置1は、図2に示す自車10に設置されており、図1に示すように、スキャニングレーザレーダ(反射点検出手段)(以下、「レーザレーダ」と称する)11、物体検出部(物体検出手段)12、物体種類判別部(物体種類判別手段)13、及び制御部(制御内容決定手段)14を備えている。
【0017】
レーザレーダ11は、図2及び図3に示すように自車10の前部に設けられており、自車10の前方をレーザ光(検出波)にて複数回スキャニングを行い、反射されたレーザ光(以下、「反射光」と称する)を検知する。
【0018】
これにより、レーザレーダ11は、レーザ光を反射する反射点を検出し、自車から各反射点までの距離と、各反射点の自車に対する方位と、各反射点にて反射されたレーザ光の強度(以下、「反射点の強度」と称する)とを測定する。
【0019】
そして、レーザレーダ11は、検出結果及び測定結果に関する反射点情報を作成して物体検出部12に出力する。
【0020】
ここで、レーザレーダ11は、図4、図5及び図7に示すように、レーザ光を、その光軸を単位角度ずつずらしながら所定回数発射することにより、スキャニングを行う。
【0021】
なお、図4及び図5に示すように、各スキャニングにおいて、側面視で最も上方に発射されるレーザ光11aと、最も下方に発射されるレーザ光11bとで形成される角を高さ方向の検知角とし、その大きさ、即ち検知角度をβとする。
【0022】
物体検出部12は、メモリ12a及び検出処理部12bを備えている。
【0023】
メモリ12aは、レーザレーダ11から与えられた反射点情報を保存する。
【0024】
検出処理部12bは、メモリ12aに保存された反射点情報を取得し、当該反射点情報に基づいて、前方物体を検出し、検出された各前方物体の大きさ、自車10に対する相対位置、及び自車10に対する相対速度vを測定する。
【0025】
そして、検出処理部12bは、検出結果及び測定結果に関する検出結果情報を作成し、物体種類判別部13のメモリ13aに保存する。
【0026】
物体種類判別部13は、メモリ13a及び判別処理部13bを備えている。
【0027】
メモリ13aは、検出処理部12bから与えられた検出結果情報を保存する。
【0028】
判別処理部13bは、メモリ13aから検出結果情報を取得し、当該検出結果情報に基づいて、前方物体の種類を判定する。
【0029】
そして、判別処理部13bは、判定結果等に関する判定結果情報を作成し、制御部14に出力する。
【0030】
制御部14は、判別処理部13bから与えられた判定結果情報に基づいて、自車10の制御内容等を決定する。
【0031】
次に、前方環境認識装置1による処理の手順について、図1〜図11に基づいて説明する。
【0032】
ここで、図6は、前方環境認識装置1による処理の手順を示すフローチャートであり、図8〜図9、及び図11は、反射点及び前方物体の位置を示した概略平面図である。また、図10は自車10の進行方向前方の様子を示した説明図である。
【0033】
まず、前方環境認識装置1による処理の手順を、図7に示すように、自車10の進行方向前方に車両20〜21、料金所30〜31、及びデリニエータ40が存在する場合を例にとって説明する。
【0034】
なお、前方環境認識装置1は、他の場合においても、以下の処理を行うことができるのは勿論である。
【0035】
図6に示すステップS1a(反射点検出工程)にて、図7に示すように、レーザレーダ11は、自車10の前方の領域、即ち検知可能範囲11cをレーザ光にて複数回スキャニングし、当該レーザ光を反射する反射点を検出する。
【0036】
ここで、車両は、レーザ光を反射する物体としてリフレックスリフレクタ等を備えており、料金所は、レーザ光を反射する物体として反射板等を備えている。また、デリニエータ及びセンタポール等の道路標識物も、レーザ光を反射する反射板を備えている。
【0037】
したがって、レーザレーダ11は、車両、料金所、及び道路標識物上の反射点を検出することができる。
【0038】
次いで、レーザレーダ11が、各反射点から自車10までの距離、各反射点の自車10に対する方位、及び各反射点の強度を測定する。
【0039】
次いで、レーザレーダ11が、検出結果及び測定結果に関する反射点情報を作成してメモリ12aに保存する。
【0040】
次いで、図6に示すステップS2a(物体検出工程)にて、検出処理部12bが、メモリ12aから反射点情報を取得し、各反射点の自車10に対する相対位置を以下のように算出する。
【0041】
即ち、検出処理部12bは、図2及び図3に示すように、レーザ光の発射点を原点とし、道路面に平行な方向で、かつ自車10の進行方向に垂直な方向にx軸をとる。さらに、検出処理部12bは、自車10の進行方向にz軸をとり、道路面に鉛直な方向にy軸をとることで、xyz空間を定義する。
【0042】
次いで、検出処理部12bは、各反射点を当該xyz空間における点とみなして、各反射点の座標を算出し、当該座標を各反射点の自車10に対する相対位置とする。
【0043】
次いで、検出処理部12bは、互いに近接した反射点を同一物体上の反射点と予測することで、図7に示すように、前方物体A1〜E1を検出し、さらに、各前方物体の大きさ及び自車10に対する相対位置を測定する。
【0044】
次いで、検出処理部12bは、当該検出結果及び測定結果に関する検出結果情報を作成してメモリ12aに保存する。
【0045】
ステップS3aにて、検出処理部12bは、図7〜図9に示すように、各前方物体の相対速度vを測定し、当該相対速度vを検出結果情報に加える。
【0046】
ここで、相対速度の測定手順について説明する。
【0047】
まず、前方環境認識装置1は、上述したステップS1a〜ステップS2aの処理を行ってから(当該処理を行った時刻をt−Δtとする)時間Δt経過した後、ステップS1a〜ステップS2aの処理を再び行う。
【0048】
これにより、検出処理部12bは、図8に示すように、前方物体A2〜E2、F1を検出し、検出された各前方物体の大きさ及び相対位置を測定する。さらに、検出処理部12bは、検出結果情報をメモリ12aに保存する。
【0049】
次いで、検出処理部12bは、メモリ12aから、時刻t−Δtにおける検出結果情報と、時刻tにおける検出結果情報とを取得する。
【0050】
次いで、検出処理部12bが、図9に示すように、時刻t−Δtにおいて検出された各前方物体の大きさ及び相対位置と、時刻tにおいて検出された各前方物体の大きさ及び相対位置と、を照らし合わせる。
【0051】
この結果、検出処理部12bは、大きさが同程度で、かつ時刻t−Δtにおける相対位置と時刻tにおける相対位置とが近い前方物体どうしを同一の前方物体とみなす。
【0052】
具体的には、検出処理部12bは、前方物体A1と前方物体A2とを同一の前方物体とみなす。
【0053】
同様に、検出処理部12bは、前方物体B1と前方物体B2とを、前方物体C1と前方物体C2とを、それぞれ同一の前方物体とみなす。
【0054】
同様に、検出処理部12bは、前方物体D1と前方物体D2とを、前方物体E1と前方物体E2とを、それぞれ同一の前方物体とみなす。
【0055】
なお、検出処理部12bは、前方物体F1については、前方物体F1の近くに他の前方物体が存在しないので、時刻tにて新たに検出された前方物体であるとみなす。
【0056】
次いで、検出処理部12bは、各前方物体について、以下の式(1)を用いて、相対速度vを測定する。
【0057】
v=(R(t)−R(t−Δt))/Δt …(1)
ここで、R(t)は、時刻tにおける前方物体の相対位置座標であり、R(t−Δt)は、時刻t−Δtにおける前方物体の相対位置座標である。
【0058】
次いで、ステップS4a(物体種類判別工程)にて、判別処理部13bが、メモリ13aから検出結果情報を取得する。
【0059】
次いで、判別処理部13bが、当該検出結果情報に基づいて、前方物体の種類を以下のように判定する。
【0060】
即ち、判別処理部13bは、前方物体に含まれる反射点の数を測定し、当該反射点の数と、当該反射点の数について予め定められた基準値n1とを比較する。
【0061】
次いで、判別処理部13bは、当該前方物体に含まれる反射点の数が基準値n1よりも大きい場合には、当該前方物体(本例では、前方物体D1、E1)を料金所と判定する。
【0062】
ここで、当該判定が可能な理由を説明する。
【0063】
即ち、料金所は、レーザ光を反射する物体(例えば、反射板、料金支払機、ポールコーン、ランプ)を複数備えている。このため、料金所をスキャニングした際に検出される反射点の数は、料金所以外の前方物体をスキャニングした際に検出される反射点の数に比して、非常に大きくなる。
【0064】
したがって、基準値n1を、料金所以外の前方物体をスキャニングした際に検出される反射点の数に比して非常に大きく設定しておくことで、判別処理部13bは、反射点の数が基準値n1よりも大きい前方物体を料金所と判定することができる。
【0065】
一方、判別処理部13bは、当該前方物体に含まれる反射点の数が基準値n1よりも小さい場合には、当該前方物体の種類を、その大きさ、相対位置及び相対速度vに基づいて判定する。
【0066】
例えば、判別処理部13bは、料金所と判定された前方物体D1、E1に対して自車10の進行方向側にて検出され、且つ移動している前方物体(過去に移動していた前方物体を含む。本例では、前方物体A1、B1)を車両と判定する。
【0067】
また、判別処理部13bは、大きさが車両よりも小さく、且つ停止している前方物体(本例では、前方物体C1)を、道路標識物と判定する。
【0068】
次いで、判別処理部13bは、自車10から料金所と判定された前方物体までの距離、即ち、自車10から料金所までの距離を、検出結果情報から取得する。
【0069】
次いで、判別処理部13bは、各前方物体の大きさ、自車10に対する相対位置、相対速度v、自車10から料金所までの距離、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に制御部14に出力する。
【0070】
次いで、図6に示すステップS5aにて、制御部14は、判別処理部13bから与えられた判定結果情報に基づいて、自車10の制御内容及び自車10の乗員に対する警報内容(以下、「自車10の制御内容及び警報内容」と称する)を決定する。
【0071】
ここで、制御内容としては、例えば、料金所が存在する場合であれば、自車10の速度を落とす制御、料金所内で停車する制御、及び自車10がETCを搭載している場合には、料金所をそのまま通過する制御等がある。また、自車10がACCを搭載している場合であれば、ACCによる制御を停止するという制御もある。
【0072】
また、警報内容としては、例えば、料金所が存在する場合であれば、「料金所が近づいている」旨の情報を報知すること等がある。
【0073】
以上により、本第一の実施の形態によれば、前方環境認識装置1は、自車の進行方向前方に存在する前方物体が料金所であるかどうかを、正確に判定することができる。
【0074】
言い換えれば、前方環境認識装置1は、地図データベースを用いることなく、自車の進行方向前方に料金所が存在するかどうかを正確に判定することができる(請求項1または7記載の発明に対応する効果)。
【0075】
さらに、前方環境認識装置1は、当該判定の結果に応じて、自車10の制御内容及び警報内容を決定することができる(請求項7記載の発明に対応する効果)。
【0076】
特に、前方環境認識装置1は、自車10から料金所までの距離を、自車10から前方物体までの距離として正確に測定することができ、当該測定の結果は上述した判定の結果に含まれる。
【0077】
これにより、前方環境認識装置1は、自車10の速度等に関する制御内容を当該距離に応じて決定することができる。
【0078】
次に、図7に示した例以外の場合に、前方環境認識装置1が行う処理の手順について、図10に示す場合、即ち、自車10の進行方向前方に車両26〜27、及びデリニエータ41が存在する場合を一例として説明する。
【0079】
前方環境認識装置1は、図6に示すステップS1a〜ステップS3aにて、図11に示すように、前方物体A4〜C4を検出し、各前方物体の大きさ、自車10に対する相対位置、及び相対速度vを測定する。そして、検出結果情報を作成し、メモリ13aに保存する。
【0080】
次いで、前方環境認識装置1は、ステップS4aにて、各前方物体の種類を判定する。
【0081】
即ち、前方環境認識装置1は、前方物体A4〜B4については、移動していると判断し、この結果、当該前方物体A4〜B4を車両と判定する。
【0082】
一方、前方環境認識装置1は、前方物体C4については、大きさが車両よりも小さく、且つ停止していると判断し、この結果、当該前方物体C4を道路標識物と判定する。
【0083】
次いで、判別処理部13bは、各前方物体の大きさ、自車10に対する相対位置、相対速度v、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に制御部14に出力する。
【0084】
次いで、前方環境認識装置1は、ステップS5aにて、制御内容及び警報内容を決定する。
【0085】
(第二の実施の形態)
次に、本発明に係る第二の実施の形態(請求項2、7及び13の何れか1項に記載の発明に対応)を、図に基づいて説明する。
【0086】
本第二の実施の形態に係る前方環境認識装置2は、図1に示すように、上述した前方環境認識装置1の判別処理部13bに上述した処理の他に以下の処理を行わせるようにしたものである。
【0087】
したがって、本第二の実施の形態では、前方環境認識装置2の構成についての説明を省略すると共に、前方環境認識装置2の各構成要素の符号を、前方環境認識装置1の各構成要素の符号と同一とする。
【0088】
次に、前方環境認識装置2による処理の手順について、図1、図6、図12〜図15に基づいて説明する。ここで、図12及び図14は、自車10の進行方向前方の様子を示した説明図であり、図13及び図15は、反射点及び前方物体の位置を示した概略平面図である。
【0089】
なお、前方環境認識装置2による処理は、図6に示すフローチャートに沿って行われるが、前方環境認識装置1による処理とは、ステップS4aの処理のみが異なる。そこで、本第二の実施の形態では、当該異なる処理について特に説明する。
【0090】
まず、図12に示すように、自車10の進行方向前方に車両22〜25、及び料金所32が存在する場合を例にとって説明する。なお、前方環境認識装置2は、他の場合においても、以下の処理を行うことができるのは勿論である。
【0091】
前方環境認識装置2は、ステップS1a〜ステップS3aにて、図13に示すように、前方物体A3〜E3を検出し、各前方物体の大きさ、自車10に対する相対位置、及び相対速度vを測定する。そして、検出結果情報を作成し、メモリ13aに保存する。
【0092】
次いで、ステップS4aにて、判別処理部13bが、各前方物体について、以下の処理を行うことで、各前方物体の種類を判定する。
【0093】
即ち、判別処理部13bが、メモリ13aから検出結果情報を取得し、当該検出結果情報に基づいて、前方物体に含まれる反射点の数を測定し、当該反射点の数と基準値n1とを比較する。
【0094】
次いで、判別処理部13bは、当該前方物体に含まれる反射点の数が基準値n1よりも大きい場合には、さらに、当該前方物体に含まれる反射点から自車までの距離を測定して、これら距離の分散値(分布度)を算出する。
【0095】
次いで、判別処理部13bは、当該分散値が、当該分散値について予め定められた基準値n2より大きい場合には、当該前方物体(本例では、前方物体E3)を料金所であると判定し、基準値n2よりも小さい場合には、当該前方物体を大型の頭上看板と判定する。
【0096】
ここで、当該判定が可能な理由を説明する。
【0097】
即ち、レーザレーダ11が大型の頭上看板をスキャニングした際にも、基準値n1よりも大きい数の反射点が検出される場合がある。
【0098】
しかし、料金所は、自車10の進行方向に突出する突出部分(例えば、図13に示すような突出部分e1〜e6)を備えているのに対し、大型の頭上看板は、当該突出部分を備えておらず、平面形状となっている。なお、料金所の突出部分は、例えば、ポールコーンや看板等で構成されている。
【0099】
このため、料金所をスキャニングした場合に算出される分散値は、大型の頭上看板をスキャニングした場合に算出される分散値に比して大きくなる。
【0100】
したがって、基準値n2を、大型の頭上看板をスキャニングした場合に算出される分散値に比して大きく設定しておくことで、上述した判定が可能となる。
【0101】
一方、判別処理部13bは、前方物体に含まれる反射点の数が基準値n1よりも小さい場合には、当該前方物体(本例では、前方物体A3〜D3)の種類を、その大きさ、相対位置及び相対速度vに基づいて判定する。
【0102】
即ち、判別処理部13bは、料金所と判定された前方物体E3に対して自車10の進行方向側にて検出され、且つ移動している前方物体(本例では、前方物体A3〜D3)を車両と判定する。
【0103】
次いで、判別処理部13bは、自車10から料金所までの距離、各前方物体の大きさ、自車10に対する相対位置、相対速度v、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に制御部14に出力する。
【0104】
次いで、ステップS5aにて、制御部14は、当該判定結果情報に基づいて、自車10の制御内容及び自車10の乗員に対する警報内容を決定する。
【0105】
次に、図14に示すように、自車10の進行方向前方に車両28〜29及び大型の頭上看板50が存在する場合について説明する。
【0106】
前方環境認識装置2は、ステップS1a〜ステップS3aにて、図15に示すように、前方物体A5〜C5を検出し、各前方物体の大きさ、自車10に対する相対位置、及び相対速度vを測定する。そして、検出結果情報を作成し、メモリ13aに保存する。
【0107】
次いで、判別処理部13bが、ステップS4aにて、各前方物体の種類を判定する。
【0108】
即ち、判別処理部13bは、前方物体C5については、反射点の数が基準値n1よりも大きいが、距離の分散値が基準値n2よりも小さいと判断し、この結果、当該前方物体C5を大型の頭上看板と判定する。
【0109】
一方、判別処理部13bは、前方物体A5〜B5については、移動していると判断し、この結果、当該前方物体A5〜B5を車両と判定する。
【0110】
次いで、判別処理部13bは、各前方物体の大きさ、自車10に対する相対位置、相対速度v、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に制御部14に出力する。
【0111】
次いで、制御部14は、ステップS5aにて、自車10の制御内容及び警報内容を決定する。
【0112】
以上により、本第二の実施の形態によれば、第一の実施の形態による効果の他、以下の効果を得ることができる。
【0113】
即ち、前方環境認識装置2は、前方物体に含まれる反射点の数が基準値n1よりも大きい場合に、当該前方物体が料金所であるか大型の頭上看板であるかを、正確に判定することができる(請求項2記載の発明に対応する効果)。
【0114】
さらに、前方環境認識装置2は、当該判定の結果に応じて、自車10の制御内容及び警報内容を決定することができる(請求項7記載の発明に対応する効果)。
【0115】
なお、本第二の実施の形態では、距離の分布度として分散値を用いたが、当該分布度としては、分散値の他、例えば、距離の最大値から最小値を除算して得られる値等を用いることができる。
【0116】
(第三の実施の形態)
次に、本発明に係る第三の実施の形態(請求項3または7記載の発明に対応)を、図に基づいて説明する。
【0117】
本第三の実施の形態に係る前方環境認識装置3は、図1に示すように、上述した前方環境認識装置1における判別処理部13bに上述した処理の他に以下の処理を行わせるようにしたものである。
【0118】
したがって、本第三の実施の形態では、前方環境認識装置3の構成についての説明を省略すると共に、前方環境認識装置3の各構成要素の符号を、前方環境認識装置1の各構成要素の符号と同一とする。
【0119】
次に、前方環境認識装置3による処理の手順について、図1、図6、図12〜図15に基づいて説明する。
【0120】
なお、前方環境認識装置3による処理は、図6に示すフローチャートに沿って行われるが、前方環境認識装置1による処理とは、ステップS4aの処理のみが異なる。そこで、本第三の実施の形態では、当該異なる処理について特に説明する。
【0121】
まず、図12に示すように、自車10の進行方向前方に車両22〜25、及び料金所32が存在する場合を例にとって説明する。なお、前方環境認識装置3は、他の場合においても、以下の処理を行うことができるのは勿論である。
【0122】
前方環境認識装置3は、まず、ステップS1a〜ステップS3aにて、図11に示すように、前方物体A3〜E3を検出し、各前方物体の大きさ、自車10に対する相対位置、及び相対速度vを測定する。そして、検出結果情報を作成し、メモリ13aに保存する。
【0123】
次いで、ステップS4aにて、判別処理部13bは、各前方物体について以下の処理を行うことで、各前方物体の種類を判定する。
【0124】
即ち、判別処理部13bが、メモリ13aから検出結果情報を取得し、当該検出結果情報に基づいて、前方物体に含まれる反射点の数を測定し、当該反射点の数と、当該反射点の数について予め定められた基準値n1とを比較する。
【0125】
次いで、判別処理部13bは、当該前方物体に含まれる反射点の数が基準値n1よりも大きい場合には、以下の処理を行う。
【0126】
即ち、判別処理部13bは、検出結果情報に基づいて、当該前方物体に含まれる反射点から自車までの距離を測定して、これら距離の分散値(分布度)を算出する。
【0127】
また、判別処理部13bは、検出結果情報に基づいて、当該前方物体に含まれる反射点の強度を測定して、これら強度の分散値(分布度)を算出する。
【0128】
次いで、判別処理部13bは、当該距離の分散値が基準値n2より大きいか、または、強度の分散値が、当該強度の分散値について予め定められた基準値n3より大きい場合には、当該前方物体(本例では、前方物体E3)を料金所であると判定する。
【0129】
一方、判別処理部13bは、距離の分散値が基準値n2より小さく、且つ強度の分散値が基準値n3より小さい場合には、当該前方物体を大型の頭上看板と判定する。
【0130】
ここで、当該判定が可能な理由について説明する。
【0131】
即ち、レーザレーダ11が大型の頭上看板をスキャニングした際にも、基準値n1よりも大きい数の反射点が検出される場合がある。
【0132】
しかし、料金所と大型の頭上看板とは、距離の分散値(分布度)についての相違点の他、以下の相違点を有する。
【0133】
即ち、料金所は、レーザ光を反射する物体を複数種類(例えば、反射板、料金支払機、ポールコーン、ランプ)備えている。また、当該部分は自車10に対し様々な方向を向いている。
【0134】
一方、大型の頭上看板はほぼ同一の素材で構成されており、自車10に対しほぼ同一の方向を向いている。
【0135】
このため、料金所をスキャニングした場合に算出される強度の分散値は、大型の頭上看板をスキャニングした場合に算出される強度の分散値に比して大きくなる。
【0136】
したがって、基準値n3を、大型の頭上看板をスキャニングした場合に算出される強度の分散値に比して大きく設定することで、上述した判定が可能となる。
【0137】
一方、判別処理部13bは、前方物体に含まれる反射点の数が基準値n1よりも小さい場合には、当該前方物体(本例では、前方物体A3〜D3)の種類を、その大きさ、相対位置及び相対速度vに基づいて判定する。
【0138】
例えば、判別処理部13bは、料金所と判定された前方物体E3に対して自車10の進行方向側にて検出され、且つ移動している前方物体(本例では、前方物体A3〜D3)を車両と判定する。
【0139】
次いで、判別処理部13bは、自車10から料金所と判定された前方物体までの距離、各前方物体の大きさ、自車10に対する相対位置、相対速度v、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に制御部14に出力する。
【0140】
次いで、ステップS5aにて、制御部14は、判定結果情報に基づいて、自車10の制御内容及び警報内容を決定する。
【0141】
次に、図14に示すように、自車10の進行方向前方に車両28〜29及び大型の頭上看板50が存在する場合について説明する。
【0142】
前方環境認識装置3は、ステップS1a〜ステップS3aにて、図15に示すように、前方物体A5〜C5を検出し、各前方物体の大きさ、自車10に対する相対位置、及び相対速度vを測定する。そして、検出結果情報を作成し、メモリ13aに保存する。
【0143】
次いで、ステップS4aにて、判別処理部13bは、各前方物体の種類を判定する。
【0144】
即ち、判別処理部13bは、前方物体C5については、反射点の数が基準値n1よりも大きいが、距離の分散値が基準値n2よりも小さく、且つ強度の分散値が基準値n3よりも小さいと判断し、この結果、前方物体C5を大型の頭上看板と判定する。
【0145】
一方、判別処理部13bは、前方物体A5〜B5については、移動していると判断し、この結果、当該前方物体A5〜B5を車両と判定する。
【0146】
次いで、判別処理部13bは、判定結果に関する判定結果情報を作成し、当該判定結果情報をメモリ13aに保存すると共に、制御部14に出力する。
【0147】
次いで、ステップS5aにて、制御部14は、判定結果情報に基づいて、自車10の制御内容及び警報内容を決定する。
【0148】
以上により、本第三の実施の形態によれば、第一の実施の形態による効果の他、以下の効果を得ることができる。
【0149】
即ち、前方環境認識装置3は、前方物体に含まれる反射点の数が基準値n1より大きい場合であっても、当該前方物体が料金所であるか大型の頭上看板であるかを、正確に判定することができる(請求項3記載の発明に対応する効果)。
【0150】
さらに、前方環境認識装置3は、当該判定の結果に応じて、自車10の制御内容及び警報内容を決定することができる(請求項7記載の発明に対応する効果)。
【0151】
なお、本第二の実施の形態では、強度の分布度として分散値を用いたが、当該分布度としては、分散値の他、例えば、強度の最大値から最小値を除算して得られる値等を用いることができる。
【0152】
(第四の実施の形態)
次に、本発明に係る第四の実施の形態(請求項4または7記載の発明に対応)を、図に基づいて説明する。
【0153】
本第四の実施の形態に係る前方環境認識装置4は、図1に示すように、上述した前方環境認識装置1〜3の何れかにおける判別処理部13bに上述した処理の他に以下の処理を行わせるようにしたものである。
【0154】
したがって、本第四の実施の形態では、前方環境認識装置4の構成についての説明を省略すると共に、前方環境認識装置4の各構成要素の符号を、前方環境認識装置1の各構成要素の符号と同一とする。
【0155】
次に、前方環境認識装置4による処理の手順について、図1、図6、図16〜図18に基づいて説明する。ここで、図16〜図18は、反射点及び前方物体の位置を示した概略平面図である。
【0156】
なお、前方環境認識装置4による処理は、図6に示すフローチャートに沿って行われるが、前方環境認識装置1〜3の何れかによる処理とは、ステップS4aの処理のみが異なる。そこで、本第四の実施の形態では、当該異なる処理について特に説明する。
【0157】
まず、図16に示すように、自車10の進行方向前方に車両51〜52、及び料金所33が存在する場合を例にとって説明する。なお、前方環境認識装置4は、他の場合においても、以下の処理を行うことができるのは勿論である。
【0158】
前方環境認識装置4は、まず、ステップS1a〜ステップS3aにて、図16に示すように、前方物体A6〜D6を検出し、各前方物体の大きさ、自車10に対する相対位置、及び相対速度vを測定する。そして、検出結果情報を作成し、メモリ13aに保存する。
【0159】
次いで、ステップS4aにて、判別処理部13bは、各前方物体について以下の処理を行うことで、各前方物体の種類を判定する。
【0160】
即ち、判別処理部13bは、メモリ13aから検出結果情報を取得し、当該検出結果情報に基づいて、前方物体に含まれる反射点の数を測定し、当該反射点の数と基準値n1とを比較する。
【0161】
次いで、判別処理部13bは、当該前方物体に含まれる反射点の数が基準値n1よりも大きい場合には、さらに、当該前方物体が自車10の進行方向に突出した突出部分を含んでいるかどうかを判断する。
【0162】
ここで、判別処理部13bは、前方物体に含まれる反射点の相対位置に基づいて、当該突出部分を含んでいるかどうかを判断する。
【0163】
次いで、判別処理部13bは、当該前方物体が突出部分(本例では、突出部分d1〜d3)を含んでいる場合に、当該前方物体(本例では、前方物体D6)を料金所と判定する。
【0164】
ここで、当該判定が可能な理由について説明する。
【0165】
即ち、料金所は、自車10の進行方向に突出する突出部分を備え、且つ当該突出部分はレーザ光を反射する物体(例えば、料金所の柱、ポールコーン、及び看板等)で構成されているという特徴を有する。
【0166】
したがって、料金所をスキャニングした場合には当該突出部分が検出されるので、上述した判定が可能となる。
【0167】
なお、判別処理部13bは、他の方法により、前方物体が料金所であるかどうかを判定することもできる。当該他の方法については、後述する。
【0168】
一方、判別処理部13bは、前方物体に含まれる反射点の数が基準値n1よりも小さい場合には、当該前方物体(本例では、前方物体A6〜C6)の種類を、その大きさ、相対位置及び相対速度vに基づいて判定する。
【0169】
例えば、判別処理部13bは、料金所と判定された前方物体D6に対して自車10の進行方向側にて検出され、且つ移動している前方物体(本例では、前方物体A6〜B6)を車両と判定する。
【0170】
また、判別処理部13bは、大きさが車両よりも小さく、且つ停止している前方物体(本例では、前方物体C6)をデリニエータと判定する。
【0171】
次いで、判別処理部13bは、自車10から料金所と判定された前方物体までの距離、各前方物体の大きさ、自車10に対する相対位置、相対速度v、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に制御部14に出力する。
【0172】
次いで、ステップS5aにて、制御部14は、当該判定結果情報に基づいて、自車10の制御内容及び警報内容を決定する。
【0173】
次に、図17に示すように、自車10の進行方向前方に車両53〜54及び料金所34が存在する場合について説明する。
【0174】
前方環境認識装置4は、まず、ステップS1a〜ステップS3aにて、図17に示すように、前方物体A7〜C7を検出し、各前方物体の大きさ、自車10に対する相対位置、及び相対速度vを測定する。
【0175】
次いで、ステップS4aにて、判別処理部13bが、各前方物体の種類を判定する。
【0176】
即ち、判別処理部13bは、前方物体C7については、反射点の数が基準値n1よりも大きく、且つ、前方物体C7は突出部分を含むと判断し、この結果、前方物体C7を料金所と判定する。
【0177】
ここで、前方物体C7の手前に他の前方物体が存在する場合には、前方物体C7に含まれる全ての突出部分が検出されない場合もある。この場合の例を図18に示す。
【0178】
即ち、図18は、前方物体A8〜C8(車両55〜57に対応)が前方物体C7の手前に存在しており、当該前方物体A8〜C8がレーザ光を遮るために、突出部分c2〜c3が検出されない場合を示している。
【0179】
この場合、判別処理部13bは、突出部分c2〜c3が検出されなかった原因が、前方物体C7の手前に存在する他の前方物体がレーザ光を遮ったことであるのかどうかを判断する。
【0180】
この結果、突出部分c2〜c3が検出されなかった原因が、他の前方物体がレーザ光を遮ったことである場合にのみ、判別処理部13bは、当該突出部分c2〜c3が検出されたとみなして、前方物体C7の種類を判定する。
【0181】
一方、判別処理部13bは、図17に示す前方物体A7〜B7については、料金所と判定された前方物体C7に対して自車10の進行方向側にて検出され、且つ移動しているので、前方物体A7〜B7を車両と判定する。
【0182】
次いで、判別処理部13bは、自車10から料金所と判定された前方物体までの距離、各前方物体の大きさ、自車10に対する相対位置、相対速度v、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に制御部14に出力する。
【0183】
次いで、ステップS5aにて、制御部14は、判定結果情報に基づいて、自車10の制御内容及び警報内容を決定する。
【0184】
以上により、本第四の実施の形態によれば、第一〜第三の実施の形態の何れかによる効果の他、以下の効果を得ることができる。
【0185】
即ち、前方環境認識装置4は、前方物体が料金所であるかどうかを正確に判定することができる(請求項4記載の発明に対応する効果)。
【0186】
さらに、前方環境認識装置4は、当該判定の結果に応じて、自車10の制御内容及び警報内容を決定することができる(請求項7記載の発明に対応する効果)。
【0187】
次に、前方環境認識装置4が料金所の有無を判定する他の方法について、図19に示すように、自車10の進行方向前方に車両55〜57、及び料金所34が存在する場合を例にとって説明する。
【0188】
ここで、図19は、反射点及び前方物体の位置を示した概略平面図であり、図20は、反射点の位置分布を示した位置分布グラフであり、図21は、反射点の強度分布を示した強度分布グラフである。
【0189】
前方環境認識装置4は、まず、ステップS1a〜ステップS3aにて、図19に示すように、前方物体A8〜D8を検出し、各前方物体の大きさ、自車10に対する相対位置、及び相対速度vを測定する。そして、前方環境認識装置4は、検出結果情報を作成して、メモリ13aに保存する。
【0190】
次いで、判別処理部13bが、図6に示すステップS4aにて、各前方物体について、以下の処理を行うことで、各前方物体の種類を判定する。
【0191】
即ち、判別処理部13bは、図19に示すように、料金所を構成すると考えられる前方物体(即ち、反射点の数が基準値n1より大きい前方物体)D8を含む領域F8を定義する。
【0192】
次いで、判別処理部13bは、図20に示すように、領域F8に含まれる反射点をxz平面上に投影することで、位置分布グラフを作成する。
【0193】
また、判別処理部13bは、図21に示すように、領域F8に含まれる反射点のx座標と、当該反射点の強度との関係を表す強度分布グラフを作成する。
【0194】
次いで、判別処理部13bは、位置分布グラフにおいて、z軸方向に突出するピークがx軸方向に沿って一定の間隔で存在する場合、または、強度分布グラフにおいて、強度軸方向に突出するピークがx軸方向に沿って一定の間隔で存在する場合には、当該領域F8に含まれる前方物体D8を料金所であると判定する。
【0195】
ここで、これらのピークは、料金所が備える突出部分に対応するものである。
【0196】
これ以降の処理については、上述した処理と同様であるので、説明を省略する。
【0197】
(第五の実施の形態)
次に、本発明に係る第五の実施の形態(請求項5または7記載の発明に対応)を、図に基づいて説明する。
【0198】
本第五の実施の形態に係る前方環境認識装置5は、図1に示すように、上述した前方環境認識装置1〜4の何れかにおける判別処理部13bに上述した処理の他に以下の処理を行わせるようにしたものである。
【0199】
したがって、本第五の実施の形態では、前方環境認識装置5の構成についての説明を省略すると共に、前方環境認識装置5の各構成要素の符号を、前方環境認識装置1の各構成要素の符号と同一とする。
【0200】
次に、前方環境認識装置5による処理の手順について、図1、図4〜図6、図12〜図13、及び図22に基づいて説明する。ここで、図22は、反射点及び前方物体の位置を示した概略平面図である。
【0201】
なお、前方環境認識装置5による処理は、図6に示すフローチャートに沿って行われるが、前方環境認識装置1〜4の何れかによる処理とは、ステップS4aの処理のみが異なる。そこで、本第五の実施の形態では、当該ステップS4aについて特に説明する。
【0202】
また、本第五の実施の形態では、図12に示すように、自車10の進行方向前方に車両22〜25及び料金所32が存在する場合を本手順の例として説明する。
【0203】
なお、前方環境認識装置5は、他の場合においても、以下の処理を行うことができるのは勿論である。
【0204】
前方環境認識装置5は、まず、ステップS1a〜ステップS3aにて、図13に示すように、前方物体A3〜E3を検出し、各前方物体の大きさ、自車10に対する相対位置、及び相対速度vを測定する。そして、前方環境認識装置5は、検出結果情報を作成して、メモリ13aに保存する。
【0205】
次いで、ステップS4aにて、判別処理部13bは、メモリ13aから取得した検出結果情報に基づいて、前方環境認識装置1〜4の何れかと同様に、前方物体の種類を判定する。
【0206】
これにより、判別処理部13bは、前方物体A3〜D3を車両と判定し、前方物体E3を料金所と判定する。
【0207】
次いで、判別処理部13bは、自車10から料金所と判定された前方物体までの距離、各前方物体の大きさ、自車10に対する相対位置、相対速度v、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に制御部14に出力する。
【0208】
次いで、ステップS5aにて、制御部14は、当該判定結果情報に基づいて、自車10の制御内容及び警報内容を決定する。
【0209】
その後、前方環境認識装置5は、ステップS1a〜ステップS5aの処理を繰り返して行うが、当該繰り返し処理におけるステップS4aでは、判別処理部13bが、上述した処理の他、以下の処理を行う。
【0210】
即ち、判別処理部13bは、前方物体の種類を判定する前に、メモリ13aから判定結果情報を取得し、当該判定結果情報と、検出結果情報とに基づいて、料金所と判定された前方物体E3の一部が検出されなくなったかどうかを判断する。
【0211】
この結果、判別処理部13bは、前方物体E3の一部が検出されなくなった場合には、自車10が料金所に近づいたと判定し、さらに、当該前方物体の他の部分を料金所の一部と判定する。
【0212】
この場合の例を、図22に示す。図22は、前方物体E3の一部e7が検出されず、且つ他の部分e1〜e6が検出されている場合を示している。
【0213】
ここで、当該判定が可能な理由を説明する。
【0214】
即ち、図13に示す場合において、前方環境認識装置5が、ステップS1a〜ステップS5aの処理を繰り返していくと、図22に示すように、ある時刻において、前方物体E3の一部e7を検出することができなくなる場合がある。
【0215】
これは、図4に示すように、レーザレーダ11の検知可能範囲が限られているので、図5に示すように、自車10が料金所32に近づいていくと、料金所32の一部、即ち前方物体E3の一部e7がレーザレーダ11の検知可能範囲の外に出てしまうためである。したがって、当該判定が可能となる。
【0216】
次いで、判別処理部13bは、自車10から料金所の一部と判定された前方物体までの距離、各前方物体の大きさ、自車10に対する相対位置、相対速度v、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に制御部14に出力する。
【0217】
次いで、判別処理部13bは、当該判定結果情報をメモリ13aに保存するとともに、制御部14に出力する。
【0218】
以上により、本第五の実施の形態によれば、第一〜第四の実施の形態の何れかによる効果の他、以下の効果を得ることができる。
【0219】
即ち、前方環境認識装置5は、自車10が料金所に近づいたかどうかを判定することができる(請求項5記載の発明に対応する効果)。
【0220】
また、前方環境認識装置5は、前方物体E3の一部e7が検出されなくなった場合でも、他の部分、即ち突出部分e1〜e6については、料金所32の一部と判定するため、当該突出部分e1〜e6が車両等と判定されることを防止することができる。
【0221】
また、前方環境認識装置5は、当該判定の結果に応じて、自車10の制御内容及び警報内容を決定することができる(請求項7記載の発明に対応する効果)。
【0222】
なお、判別処理部13bは、前方物体E3の一部e7が検出されなくなった際には、以下に示す式(1)を用いて、自車10から料金所までのおよその距離Zaを算出することもできる。
【0223】
Za=H1/tan(β/2)  …(1)
ここで、図4に示すように、H1は、料金所の通常の高さであり、βは、高さ方向の検知角の大きさである。
【0224】
この場合、判別処理部13bは、算出された距離Zaを判定結果情報に含める。
【0225】
また、判別処理部13bは、自車10から料金所と判定された前方物体までの距離Zb(当該距離Zbは、検出処理部12bにより算出される)と、以下に示す式(1a)とを用いて、料金所の実際の高さH2を算出することもできる。
【0226】
H2=Zb*tan(β/2)  …(1a)
この場合、判別処理部13bは、算出された高さH2を判定結果情報に含める。
【0227】
また、判別処理部13bは、当該高さH2と自車10の高さとを比較することで、自車10が料金所32を通過することができるかどうかを判定することもできる。
【0228】
この場合、判別処理部13bは、当該判定の結果も判定結果情報に含める。
【0229】
(第六の実施の形態)
次に、本発明に係る第六の実施の形態(請求項6または7記載の発明に対応)を、図に基づいて説明する。
【0230】
本第六の実施の形態に係る前方環境認識装置6は、図1に示すように、上述した前方環境認識装置5における判別処理部13bに上述した処理の他に以下の処理を行わせるようにしたものである。
【0231】
したがって、本第六の実施の形態では、前方環境認識装置6の構成についての説明を省略すると共に、前方環境認識装置6の各構成要素の符号を、前方環境認識装置5の各構成要素の符号と同一とする。
【0232】
次に、前方環境認識装置6による処理の手順について、図1、図4〜図6、図12〜図13、及び図22〜図25に基づいて説明する。ここで、図23〜図25は、自車10が料金所32に接近していく場合における反射点及び前方物体の位置を示した概略平面図である。
【0233】
なお、前方環境認識装置6による処理は、図6に示すフローチャートに沿って行われるが、前方環境認識装置5による処理とは、ステップS4aの処理のみが異なる。そこで、本第六の実施の形態では、ステップS4aの処理について特に説明する。
【0234】
また、本第六の実施の形態では、図12に示すように、自車10の進行方向前方に車両22〜25及び料金所32が存在する場合を本手順の例として説明する。
【0235】
なお、前方環境認識装置6は、他の場合においても、以下の処理を行うことができるのは勿論である。
【0236】
前方環境認識装置6は、まず、ステップS1a〜ステップS3aにて、図13に示すように、前方物体A3〜E3を検出し、各前方物体の大きさ、自車10に対する相対位置、及び相対速度vを測定する。そして、前方環境認識装置6は、検出結果情報を作成して、メモリ13aに保存する。
【0237】
次いで、ステップS4aにて、判別処理部13bは、検出処理部12bから与えられた検出結果情報に基づいて、前方環境認識装置1〜4の何れかと同様に、前方物体の種類を判定する。
【0238】
これにより、判別処理部13bは、前方物体A3〜D3を車両と判定し、前方物体E3を料金所と判定する。
【0239】
次いで、判別処理部13bは、各前方物体の大きさ、自車10に対する相対位置、相対速度v、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に制御部14に出力する。
【0240】
次いで、ステップS5aにて、制御部14は、当該判定結果情報に基づいて、自車10の制御内容及び警報内容を決定する。
【0241】
その後、前方環境認識装置6は、ステップS1a〜ステップS5aの処理を繰り返して行うが、当該繰り返し処理におけるステップS4aでは、判別処理部13bが、上述した処理の他、以下の処理を行う。
【0242】
即ち、判別処理部13bは、前方物体の種類を判定する前に、メモリ13aから判定結果情報を取得し、当該判定結果情報と、検出結果情報とに基づいて、料金所と判定された前方物体E3の一部が検出されなくなったかどうかを判断する。
【0243】
この結果、判別処理部13bは、図22に示すように、前方物体E3の一部e7が検出されなくなった場合には、自車10が料金所に近づいたと判定し、さらに、前方物体E3の他の部分、即ち突出部分e1〜e6を料金所の一部と判定する。
【0244】
さらに、判別処理部13bは、当該突出部分の数を数える。この結果、図25に示すように、突出部分の数が二つ以下になった場合には、判別処理部13bは、自車10が料金所の入り口に接近していると判定する。
【0245】
また、判別処理部13bは、検出結果情報に基づいて、自車10から当該入り口までの距離を、自車10から料金所の突出部分までの距離として測定する。
【0246】
ここで、当該判定が可能な理由を説明する。
【0247】
即ち、まず、自車10が料金所32に接近していく間に前方環境認識装置6が前方物体を検出する様子を、図22から図25に示す。
【0248】
ここで、図22は、前方物体E3が検出されてからt1秒後の検出結果であり、図23は、前方物体E3が検出されてからt2秒後の検出結果である(t1<t2)。
【0249】
また、図24は、前方物体E3が検出されてからt3秒後の検出結果であり、図25は、前方物体E3が検出されてからt4秒後の検出結果である(t2<t3<t4)。
【0250】
図22〜図25に示すように、自車10が料金所32に接近するに従って、検出される突出部分が少なくなっていく。そして、検出された突出部分が二つ以下になった場合には、自車10は料金所の入り口に接近したといえる。したがって、当該判定が可能となる。
【0251】
次いで、判別処理部13bは、他の前方物体(例えば、前方物体A3)の種類を上述した処理と同様に判定する。
【0252】
次いで、判別処理部13bは、自車10から料金所の一部と判定された前方物体までの距離、各前方物体の大きさ、自車10に対する相対位置、相対速度v、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に制御部14に出力する。
【0253】
次いで、判別処理部13bは、当該判定結果情報をメモリ13aに保存するとともに、制御部14に出力する。
【0254】
以上により、本第六の実施の形態によれば、第五の実施の形態による効果の他、以下の効果を得ることができる。
【0255】
即ち、前方環境認識装置6は、自車10が料金所の入り口に近づいたかどうかを正確に判定することができる(請求項6記載の発明に対応する効果)。
【0256】
また、前方環境認識装置6は、当該判定の結果に応じて、最適な制御内容及び警報内容を決定することができる(請求項7記載の発明に対応する効果)。
【0257】
(第七の実施の形態)
次に、本発明に係る第七の実施の形態(請求項8または11記載の発明に対応)を、図に基づいて説明する。
【0258】
まず、本第七の実施の形態に係る前方環境認識装置7の構成について図1、図26〜28に基づいて説明する。ここで、図26は、前方環境認識装置7の構成を示したブロック図であり、図27〜28はカメラ15の設置位置などを示した概略図である。
【0259】
前方環境認識装置7は、図1及び図26に示すように、前方環境認識装置5または6に以下の構成要素を追加し、判別処理部13b及び制御部14の処理内容を変更したものである。
【0260】
したがって、前方環境認識装置7の構成の説明については、当該追加された構成要素、判別処理部13b、及び制御部14についてのみ行う。また、前方環境認識装置5または6と共通する構成要素の符号は、前方環境認識装置5または6の構成要素の符号と同一とする。
【0261】
前方環境認識装置7は、図26に示すように、レーザレーダ11、物体検出部12、物体種類判別部13、及び制御部14の他、カメラ(撮影手段)15、物体追従処理部(物体追従処理手段)16、及び統合処理部(統合処理手段)17を備えている。
【0262】
判別処理部13bは、前方環境認識装置5または6と同様に、前方物体の種類を判定して判定結果情報を作成する。そして、判別処理部13bは、当該判定結果情報をメモリ13aに保存すると共に、統合処理部17に出力する。
【0263】
制御部14は、統合処理部17から与えられた統合結果情報(後述する)に基づいて、自車10の制御内容等を決定する。
【0264】
カメラ15は、図27〜28に示すように、自車10の前部にレーザレーダ11と同じ向きで取り付けられており、自車10の進行方向前方を撮影して、当該前方の映像(以下、「前方映像」と称する)を取得する。そして、カメラ15は、当該取得された前方映像を映像情報として物体追従処理部16に出力する。
【0265】
物体追従処理部16は、メモリ16a及び映像処理部16bを備えている。
【0266】
メモリ16aは、カメラ15から与えられた映像情報を保存する。
【0267】
映像処理部16bは、メモリ12aから検出結果情報を取得し、メモリ13aから判定結果情報を取得し、さらに、メモリ16aから映像情報を取得する。そして、映像処理部16bは、これらの情報に基づいて、テンプレートマッチング処理等を行う。
【0268】
そして、映像処理部16bは、処理結果に関する追従結果情報を作成して、統合処理部17に出力する。
【0269】
統合処理部17は、判別処理部13bから与えられた判定結果情報と、映像処理部16bから与えられた追従結果情報とに基づいて、所定の判定処理を行う。
【0270】
そして、統合処理部17は、当該判定の結果に関する統合結果情報を作成し、制御部14に出力する。
【0271】
次に、前方環境認識装置7による処理の手順について、図6、図26〜41に基づいて説明する。
【0272】
ここで、図29は、前方環境認識装置7による処理の手順を示したフローチャートであり、図32〜図33は、前方物体の実際の幅(大きさ)Wと前方映像上の幅(大きさ)Aとの関係を示した説明図である。
【0273】
また、図31、図35、図37、図39、及び図41は、カメラ15により取得される前方映像を示した説明図であり、図30、図34、図36、図38、及び図40は、反射点及び前方物体の位置を示した概略平面図である。
【0274】
前方環境認識装置7は、図29に示すフローチャートに沿って処理を行うが、図29に示すステップS1b〜ステップS4bの処理は、図6に示すステップS1a〜ステップS4aの処理と同一である。
【0275】
そこで、本第七の実施の形態では、ステップS1b〜ステップS4bの処理以外の処理について特に説明する。
【0276】
また、本第七の実施の形態では、図30〜図41に示すように、自車10の進行方向前方に車両22〜25、及び料金所32が存在し、車両22及び自車10が同一の料金所入り口(以下、「入り口」と称する)に進入する場合における処理を一例として説明する。
【0277】
なお、前方環境認識装置7は、他の場合においても、以下の処理を行うことができるのは勿論である。
【0278】
前方環境認識装置7は、まず、図30に示した状態において、図29に示すステップS1b〜S4bにて、前方物体A3〜E3を検出する。
【0279】
さらに、前方環境認識装置7は、前方物体A3〜D3を車両と判定し、前方物体E3を料金所と判定する。さらに、前方物体E3の突出部分e1〜e6を料金所の一部と判定する。
【0280】
この結果、本例では、料金所が存在するので、前方環境認識装置7は、ステップS5b以降の処理を行う。一方、料金所が存在しない場合には、前方環境認識装置7は、ステップS11bの処理を行う。
【0281】
まず、ステップS11bの処理について説明する。
【0282】
即ち、ステップS11bにて、判別処理部13bは、各前方物体の大きさ、自車10に対する相対位置、相対速度v、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に統合処理部17に出力する。
【0283】
次いで、統合処理部17は、判別処理部13bから与えられた判定結果情報を制御部14に出力する。
【0284】
次いで、制御部14は、当該判定結果情報に基づいて、自車10の制御内容及び警報内容を決定する。
【0285】
次に、ステップS5b以降の処理について説明する。
【0286】
即ち、ステップS5bにて、判別処理部13bは、自車10から料金所と判定された前方物体までの距離、各前方物体の大きさ、自車10に対する相対位置、相対速度v、及び判定結果に関する判定結果情報を作成し、当該判定結果情報を図1に示すメモリ13aに保存すると共に統合処理部17に出力する。
【0287】
次いで、ステップS6bにて、カメラ15は、自車10の前方を撮影して、当該前方の映像(図31に示す映像)、即ち前方映像を取得し、当該前方映像を映像情報としてメモリ16aに保存する。
【0288】
次いで、ステップS7bにて、映像処理部16bは、メモリ12aから検出結果情報を取得し、メモリ13aから判定結果情報を取得し、さらに、メモリ16aから映像情報を取得する。
【0289】
次いで、映像処理部16bは、これらの情報に基づいて、ターゲットとなる前方物体を決定し、自車10から当該ターゲット(前方物体)までの距離Zcを測定する。
【0290】
本例では、映像処理部16bは、自車10に最も接近している前方物体A3、即ち車両22をターゲットとした。
【0291】
次いで、映像処理部16bは、距離Zcの測定結果に関するターゲット距離情報を作成し、メモリ16aに保存する。
【0292】
次いで、映像処理部16bは、前方映像上でのターゲットの位置を測定し、さらに、当該前方映像上でのターゲットの幅(大きさ)A(図32参照)を算出する。
【0293】
ここで、ターゲットの幅Aを算出する方法の一例を以下に示す。
【0294】
即ち、図33に示すように、ターゲットの実際の幅Wと、前方映像上でのターゲットの幅Aと、カメラ15の焦点距離Fと、自車10からターゲットまでの距離Zcと、の間には、以下の式(2)に示す関係がある。
【0295】
A=W*F/Zc  …(2)
ここで、本例では、ターゲットが車両22であるので、幅Wは2メートル程度である。また、焦点距離Fは既知であり、距離Zcも上述の通り測定されている。
【0296】
したがって、映像処理部16bは、式(2)に幅Wの値、焦点距離Fの値、及び距離Zcの値を代入することで、幅Aを算出することができる。
【0297】
次いで、映像処理部16bは、算出された幅Aが、当該幅Aについて予め定められた基準値n4より大きくなっているかどうかを判断する。
【0298】
ここで、基準値n4は、テンプレートマッチング処理における計算量(基準値n4が小さいと、計算量は少なくなる)と、認識精度(基準値n4が大きいと、認識精度が良くなる)とを考慮して決定される。
【0299】
この結果、幅Aが基準値n4より小さい場合には、前方環境認識装置7は、上述したステップS1b以降の処理を繰り返して行う。
【0300】
一方、映像処理部16bは、幅Aが基準値n4より大きい場合には、ステップS8b以降の処理、即ち、テンプレートマッチング処理等を行う。
【0301】
即ち、ステップS8bにて、映像処理部16bは、図31に示すように、当該ターゲットの映像をテンプレートT1とし、当該テンプレートT1に関するテンプレート情報をメモリ16aに保存する。
【0302】
なお、当該テンプレート情報には、テンプレートの大きさ等の情報が含まれる。また、テンプレートはターゲット映像のどの部分であっても良いが、本例では、ターゲットの後面全体の映像をテンプレートT1とした。
【0303】
次いで、前方環境認識装置7は、上述したステップS1b〜ステップS6bの処理を繰り返して行う。
【0304】
次いで、判別処理部13bは、映像処理部16bは、メモリ12aから検出結果情報を取得し、メモリ13aから判定結果情報を取得し、さらに、メモリ16aから映像情報を取得する。
【0305】
次いで、映像処理部16bは、これらの情報に基づいて、自車10からターゲットまでの距離Zcを測定する。
【0306】
次いで、映像処理部16bは、当該測定された距離Zcに応じて、テンプレートT1を拡大縮小する。
【0307】
具体的には、映像処理部16bは、距離Zcが短くなった場合には、テンプレートT1を拡大し、距離Zcが長くなった場合には、テンプレートT1を拡大する。
【0308】
ここで、図34に示す状態において、前方環境認識装置7がステップS1b以降の処理を繰り返して行った場合に、カメラ15が取得する前方映像を図35に示した。この場合では、図30及び図31に示した場合に比べて、距離Zcが短くなっているので、テンプレートT1を拡大する。
【0309】
次いで、映像処理部16bは、当該繰り返し処理により取得された映像情報をメモリ16aから取得し、当該映像情報から、テンプレートT1と同一のターゲット映像を見つける。
【0310】
これにより、映像処理部16bは、前方映像上での当該ターゲット映像の位置を測定する。即ち、映像処理部16bは、前方映像上でのターゲットの軌跡を認識する。
【0311】
次いで、映像処理部16bは、メモリ13aから、判定結果情報を取得し、当該判定結果情報に基づいて、自車10が進入可能な入り口が一つに定まったかどうかを判定する。
【0312】
ここで、映像処理部16bは、自車10から料金所までの距離が所定距離よりも短いか、または、自車10が料金所の入り口に接近していると判定されている場合には、自車10が進入可能な入り口が一つに定まったと判定する。ここで、所定距離については、予め定められる。
【0313】
この結果、当該入り口が一つに定まっていない場合には、前方環境認識装置7は、上述したステップS8b以降の処理を繰り返して行う。
【0314】
本例では、図40に示す状態になるまで、前方環境認識装置7は上述したステップS8b以降の処理を繰り返して行う。
【0315】
なお、図36、図38及び図40に示す状態において、前方環境認識装置7が上述したステップS8b以降の処理を行った場合に、カメラ15により取得される映像を、それぞれ図37、図39、及び図41に示した。
【0316】
ここで、当該繰り返し処理において、図37等に示すように、距離Zcが図34に示す状態よりもさらに短くなり、テンプレートT1が大きくなってきた場合には、映像処理部16bは、テンプレートをより小さいターゲット映像に変更し、当該ターゲット映像をテンプレートT2とする。
【0317】
本例では、図37等に示すように、テンプレートT2を車両22のナンバープレートの映像とした。
【0318】
また、当該繰り返し処理において、図40に示す場合では、ターゲットとなる車両22から反射点が検出されていないので、上述した方法では距離Zcを測定することができない。
【0319】
このような場合は、例えば、車両22のリフレックスリフレクタがレーザレーダ11の検知可能範囲11c外となった場合に起こりうる。車両によっては、リフレックスリフレクタ以外の部分がレーザ光を十分に反射しない場合もあるからである。
【0320】
この場合、映像処理部16bは、以下のように距離Zcを算出する。
【0321】
即ち、映像処理部16bは、車両22から反射点が検出された状態(例えば、図36に示す状態)において作成されたターゲット距離情報及びテンプレート情報を取得する。
【0322】
次いで、映像処理部16bは、当該ターゲット情報に基づいて、車両22から反射点が検出された状態において測定された距離Zc(以下「距離Zc1」と称する)を認識する。
【0323】
次いで、映像処理部16bは、当該テンプレート情報に基づいて、当該状態におけるターゲットのナンバープレート映像の大きさを測定する。また、映像処理部16bは、図40に示す状態において、ターゲットのナンバープレート映像の大きさを測定する。
【0324】
次いで、映像処理部16bは、当該ナンバープレート映像の大きさの変化率を算出する。
【0325】
次いで、映像処理部16bは、以下の式(3)を用いて、距離Zcを算出する。
【0326】
Zc=Zc1/(ナンバープレート映像の大きさの変化率) …(3)
一方、自車10が進入可能な入り口が一つに定まった場合(本例では、図40に示す場合)には、前方環境認識装置7は、以下の処理を行う。
【0327】
即ち、ステップS9bにて、映像処理部16bは、この場合、即ち図40に示す場合における、ターゲットの前方映像上での大きさ(本例では、ナンバープレート映像の大きさ)と、当該大きさについて予め定められた基準値n5とを比較する。
【0328】
この結果、当該大きさが基準値n5よりも小さい場合には、前方環境認識装置7は、上述したステップS8b以降の処理を繰り返して行う。
【0329】
一方、当該大きさが基準値n5よりも大きい場合(本例では、図40に示す場合)には、映像処理部16bは、その旨の情報及び測定された距離Zcに関する追従結果情報を作成する。
【0330】
次いで、映像処理部16bは、当該作成された追従結果情報をメモリ16aに保存すると共に、統合処理部17に出力する。
【0331】
次いで、ステップS10bにて、統合処理部17は、映像処理部16bから追従結果情報を与えられた場合には、当該追従結果情報と、判別処理部13bから与えられた判定結果情報と、に基づいてターゲット及び自車10が同一の入り口に進入すると判定する。
【0332】
次いで、統合処理部17は、判定結果に関する統合結果情報を作成して、制御部14に出力し、制御部14は、当該統合結果情報に基づいて、制御内容及び警報情報を決定する。
【0333】
以上により、本第七の実施の形態によれば、第五〜第六の実施の形態の何れかによる効果の他、以下の効果を得ることができる。
【0334】
即ち、前方環境認識装置7は、前方物体及び自車10が同一の入り口に進入するかどうかを正確に判定することができる(請求項8記載の発明に対応する効果)。
【0335】
特に、前方環境認識装置7は、自車10が前方物体に接近し、当該前方物体からの反射点が検出されない場合(図40参照)であっても、前方映像を用いて、前方物体が自車10と同一の入り口に進入するかどうかを正確に判定することができる(請求項8記載の発明に対応する効果)。
【0336】
また、前方環境認識装置7は、当該判定の結果に応じて、制御内容及び警報内容を決定することができる(請求項11記載の発明に対応する効果)。
【0337】
これにより、例えば、自車10がETCを搭載している場合、前方環境認識装置7は、ゲート通過時において自車10の前方に車両が存在しない場合に、無駄なブレーキ操作が行われることを防止することができる。
【0338】
(第八の実施の形態)
次に、本発明に係る第八の実施の形態(請求項9または11記載の発明に対応)を、図に基づいて説明する。
【0339】
本第八の実施の形態に係る前方環境認識装置8は、図1及び図26に示すように、前方環境認識装置7の映像処理部16b及び統合処理部17に、上記処理の他以下の処理を行わせるようにしたものである。
【0340】
したがって、本第八の実施の形態では、前方環境認識装置8の構成についての説明を省略すると共に、前方環境認識装置8の各構成要素の符号を、前方環境認識装置7の各構成要素の符号と同一とする。
【0341】
次に、前方環境認識装置8による処理の手順について、図29、図41〜51に基づいて説明する。
【0342】
ここで、図42、図44、図46、図48、及び図50は、反射点及び前方物体の位置を示した概略平面図であり、図43、図45、図47、図49、及び図51は、カメラ15により取得される前方映像を示した説明図である。
【0343】
なお、前方環境認識装置8による処理は、上述したステップS9b〜ステップS10bの処理に以下の処理を追加した他は、前方環境認識装置7による処理と同様である。
【0344】
そこで、本第八の実施の形態では、当該追加された処理について特に説明する。
【0345】
即ち、映像処理部16bは、ステップS8bの処理により、自車10が進入可能な入り口が一つに定まった場合には、ステップS9bにて、カメラ15により取得された前方映像に水平エッジが描かれているかどうかを判断する。
【0346】
次いで、映像処理部16bは、当該判断の結果を上述した追従結果情報に含める。
【0347】
ここで、水平エッジが描かれている場合の例を図41に、水平エッジが描かれていない場合の例を図51にそれぞれ示す。図41には、車両22の下端面に対応する水平エッジ22aが描かれている。一方、図51には、当該水平エッジは描かれていない。
【0348】
次いで、映像処理部16bは、当該追従結果情報をメモリ16aに保存すると共に、統合処理部17に出力する。
【0349】
次いで、ステップS10bにて、統合処理部17は、映像処理部16bから与えられた追従結果情報に基づいて、自車10の前方に車両が存在するかどうか、即ち、自車10及び車両22が同一の入り口に進入するかどうかを判定する。
【0350】
具体的には、統合処理部17は、図41に示すように、前方映像に水平エッジ22aが描かれている場合には、自車10前方に車両が存在する、即ち、自車10及び車両が同一の入り口に進入すると判定する。
【0351】
一方、統合処理部17は、図51に示すように、前方映像に水平エッジが描かれていない場合には、自車10前方に車両が存在しない、即ち、自車10及び車両が異なる入り口に進入すると判定する。なお、車両の映像は必ず水平エッジを有するので、当該判定が可能となる。
【0352】
次いで、統合処理部17は、判定結果に関する統合結果情報を作成して、制御部14に出力し、制御部14は、当該統合結果情報に基づいて、最適な制御内容及び警報情報を決定する。
【0353】
ここで、前方映像に水平エッジが描かれない場合について、図42〜図51に示すように、自車10の進行方向前方に車両22〜25、及び料金所32が存在し、且つ、車両22及び自車10が異なる入り口に進入する場合を一例として説明する。
【0354】
この場合、前方環境認識装置8は、まず、図29に示すステップS1b〜ステップS4bにて、図42に示すように、前方物体A3〜E3を検出する。
【0355】
そして、前方環境認識装置8は、前方物体A3〜D3を車両と判定し、前方物体E3を料金所と判定し、前方物体E3の突出部分e1〜e6を料金所の一部と判定する。
【0356】
次いで、前方環境認識装置8は、図42、図44、図46、図48及び図50に示すように、自車10が進入可能な入り口が一つに定まるまで、ステップS1b〜ステップS8bの処理を繰り返し行う。
【0357】
なお、図42、図44、図46、図48、及び図50にて当該繰り返し処理を行った場合に、カメラ15が取得した映像を、それぞれ図43、図45、図47、図49及び図51に示す。
【0358】
ここで、前方環境認識装置8は、当該繰り返し処理において、図42〜図45に示すように、図42及び図44に示す状態では、車両22の後面全体の映像をテンプレートT3としてテンプレートマッチング処理を行う。
【0359】
この結果、映像処理部16bは、車両22が自車10の進行方向に対して左側に移動していることを認識する。
【0360】
そこで、前方環境認識装置8は、図46〜図51に示すように、図46及び図48に示す状態(自車10が車両22に接近した状態)では、車両22の右側テールランプの映像をテンプレートT4とする。
【0361】
ここで、右側テールランプをテンプレートT4としたのは、車両22が自車10の進行方向に対して左側に移動している場合、カメラ15は右側テールランプを他の部分に比して長時間撮影することができるためである(図49参照)。
【0362】
これにより、映像処理部16bは、車両22がレーザレーダ11の検知可能範囲11c及びカメラ15の撮影可能範囲外に移動していくことを認識する(図49及び図51参照)。
【0363】
なお、図48に示すように、車両22がレーザレーダ11の検知可能範囲11c外に移動したことから、レーザレーダ11により新たな反射点e31、e41が検出される。
【0364】
次いで、映像処理部16bは、図50に示すように、自車10が進入可能な入り口が一つに定まった後、ステップS9bにて、前方映像に水平エッジが描かれているかどうかを判断し、当該判断の結果に関する追従結果情報を作成する。
【0365】
なお、図50では、突出部分e4の右側に料金所ボックス32aが存在することを示している。
【0366】
本例では、映像処理部16bは、図51に示すように、前方映像に水平エッジが描かれていない旨の追従結果情報を作成する。
【0367】
次いで、映像処理部16bは、当該作成された追従結果情報をメモリ16aに保存すると共に、統合処理部17に出力する。
【0368】
次いで、ステップS10bにて、統合処理部17は、映像処理部16bから与えられた追従結果情報に基づいて、ターゲット及び自車10が異なる入り口に進入すると判定する。
【0369】
次いで、統合処理部17は、判定結果に関する統合結果情報を作成して、制御部14に出力し、制御部14は、当該統合結果情報に基づいて、制御内容及び警報情報を決定する。
【0370】
以上により、本第八の実施の形態によれば、第七の実施の形態による効果の他、以下の効果を得ることができる。
【0371】
即ち、前方環境認識装置8は、車両及び自車10が同一の入り口に進入したかどうかを正確に判定することができる(請求項9記載の発明に対応する効果)。
【0372】
また、前方環境認識装置8は、当該判定の結果に応じて、制御内容及び警報情報を決定することができる(請求項11記載の発明に対応する効果)。
【0373】
なお、統合処理部17は、車両22がレーザレーダ11の検知可能範囲11c外に移動し、その後自車10の前方において前方物体が検出され、且つ、水平エッジが描かれていない場合にのみ、自車10前方に車両が存在しないと判定してもよい。
【0374】
この場合、統合処理部17は、自車10の前方に車両が存在するかどうかをより確実に判定することができる。
【0375】
(第九の実施の形態)
次に、本発明に係る第九の実施の形態(請求項10または11記載の発明に対応)を、図に基づいて説明する。
【0376】
本第九の実施の形態に係る前方環境認識装置9は、図1及び図26に示すように、前方環境認識装置8の映像処理部16b及び統合処理部17に、上記処理の他以下の処理を行わせるようにしたものである。
【0377】
したがって、本第九の実施の形態では、前方環境認識装置9の構成についての説明を省略すると共に、前方環境認識装置9の各構成要素の符号を、前方環境認識装置7の各構成要素の符号と同一とする。
【0378】
次に、前方環境認識装置9による処理の手順について、図29、図40〜図41、及び図52〜図54に基づいて説明する。
【0379】
ここで、図52及び図54は、自車10が料金所の付近に存在する場合における反射点及び前方物体の位置を示した概略平面図であり、図53は、図52に示した状態でカメラ15が取得する前方映像を示した説明図である。
【0380】
なお、前方環境認識装置9による処理は、上述したステップS10bの処理に以下の処理を追加した他は、前方環境認識装置8による処理と同様である。
【0381】
そこで、本第九の実施の形態では、当該追加された処理について特に説明する。
【0382】
即ち、ステップS10bにて、統合処理部17は、映像処理部16bから与えられた追従結果情報に基づいて、以下の処理を行う。
【0383】
即ち、統合処理部17は、水平エッジが描かれている場合には、図52に示すように、自車10前方に車両Gが存在すると予測する。なお、水平エッジが描かれている場合の例を、図41及び図53に示す。
【0384】
図41では、車両22の下端面に対応する水平エッジ22aが、図53では、路面に対応する水平エッジ100が、それぞれ描かれている。即ち、自車10前方に車両が存在しない場合であっても、前方映像に水平エッジが描かれる場合がある。
【0385】
但し、図40に示すように、図41に示す状態では、自車10が車両22に接近し、当該車両22がレーザレーダ11によるレーザ光を遮るため、前方物体が検出されていない。
【0386】
一方、図54に示すように、図53に示す状態では、前方物体e7〜e8(料金所の柱に対応)が検出されている。また、前方物体e8の右側には、料金所ボックス32aが存在する。
【0387】
次いで、統合処理部17は、メモリ12aから反射点情報を取得し、当該反射点情報に基づいて、レーザレーダ11が、車両Gが実際に存在する場合には検出されない反射点を検出しているかどうかを判断する。
【0388】
次いで、統合処理部17は、レーザレーダ11が当該反射点を検出している場合には、当該車両Gは存在しないと判定し、レーザレーダ11が当該反射点を検出していない場合には、当該車両Gは存在すると判定する。
【0389】
例えば、図41に示す場合であれば、図40に示すように、当該反射点は検出されていないので、車両Gは存在すると判定する。
【0390】
一方、図53に示す場合、図52に示すように、反射点(前方物体e7〜e8に含まれる反射点)が検出されているが、当該反射点は、車両Gが実際に存在する場合には検出されない反射点である。
【0391】
なぜなら、図52に示すように、車両Gが実際に存在する場合には、車両Gがレーザ光を遮るため、当該反射点は検出されないからである。
【0392】
この場合、レーザレーダ11が、車両Gが実際に存在する場合には検出されない反射点を検出しているので、統合処理部17は、車両Gが存在すると判定する。
【0393】
次いで、統合処理部17は、判定結果に関する統合結果情報を作成して、制御部14に出力し、制御部14は、当該統合結果情報に基づいて、制御内容及び警報情報を決定する。
【0394】
以上により、本第九の実施の形態によれば、第八の実施の形態による効果の他、以下の効果を得ることができる。
【0395】
即ち、前方環境認識装置9は、路面に対応する水平エッジが前方映像に描かれている場合に、自車10の前方に車両が存在すると判定することを確実に防止することができる。
【0396】
したがって、前方環境認識装置9は、車両及び自車10が同一の入り口に進入したかどうかをより正確に判定することができる(請求項10記載の発明に対応する効果)。
【0397】
また、前方環境認識装置9は、当該判定の結果に応じて、制御内容及び警報情報を決定することができる(請求項11記載の発明に対応する効果)。
【図面の簡単な説明】
【図1】前方環境認識装置の構成を示したブロック図である。
【図2】レーザレーダの設置位置を示した概略側面図である。
【図3】レーザレーダの設置位置を示した概略平面図である。
【図4】レーザレーダの検知可能範囲を示した概略側面図である。
【図5】レーザレーダの検知可能範囲を示した概略側面図である。
【図6】前方環境認識装置による処理の手順を示したフローチャートである。
【図7】反射点及び前方物体の位置を示した概略平面図である。
【図8】反射点及び前方物体の位置を示した概略平面図である。
【図9】反射点及び前方物体の位置を示した概略平面図である。
【図10】自車前方の様子を示した説明図である。
【図11】反射点及び前方物体の位置を示した概略平面図である。
【図12】自車前方の様子を示した説明図である。
【図13】反射点及び前方物体の位置を示した概略平面図である。
【図14】自車前方の様子を示した説明図である。
【図15】反射点及び前方物体の位置を示した概略平面図である。
【図16】反射点及び前方物体の位置を示した概略平面図である。
【図17】反射点及び前方物体の位置を示した概略平面図である。
【図18】反射点及び前方物体の位置を示した概略平面図である。
【図19】反射点及び前方物体の位置を示した概略平面図である。
【図20】反射点の位置分布を示したグラフである。
【図21】反射点の強度分布を示したグラフである。
【図22】反射点及び前方物体の位置を示した概略平面図である。
【図23】反射点及び前方物体の位置を示した概略平面図である。
【図24】反射点及び前方物体の位置を示した概略平面図である。
【図25】反射点及び前方物体の位置を示した概略平面図である。
【図26】前方環境認識装置の構成を示したブロック図である。
【図27】レーザレーダ及びカメラの設置位置を示した概略側面図である。
【図28】レーザレーダ及びカメラの設置位置を示した概略平面図である。
【図29】前方環境認識装置による処理の手順を示したフローチャートである。
【図30】反射点及び前方物体の位置を示した概略平面図である。
【図31】カメラにより取得される前方映像を示した説明図である。
【図32】カメラにより取得される前方映像を示した説明図である。
【図33】ターゲット画像の幅を算出する方法を示した説明図である。
【図34】反射点及び前方物体の位置を示した概略平面図である。
【図35】カメラにより取得される前方映像を示した説明図である。
【図36】反射点及び前方物体の位置を示した概略平面図である。
【図37】カメラにより取得される前方映像を示した説明図である。
【図38】反射点及び前方物体の位置を示した概略平面図である。
【図39】カメラにより取得される前方映像を示した説明図である。
【図40】反射点及び前方物体の位置を示した概略平面図である。
【図41】カメラにより取得される前方映像を示した説明図である。
【図42】反射点及び前方物体の位置を示した概略平面図である。
【図43】カメラにより取得される前方映像を示した説明図である。
【図44】反射点及び前方物体の位置を示した概略平面図である。
【図45】カメラにより取得される前方映像を示した説明図である。
【図46】反射点及び前方物体の位置を示した概略平面図である。
【図47】カメラにより取得される前方映像を示した説明図である。
【図48】反射点及び前方物体の位置を示した概略平面図である。
【図49】カメラにより取得される前方映像を示した説明図である。
【図50】反射点及び前方物体の位置を示した概略平面図である。
【図51】カメラにより取得される前方映像を示した説明図である。
【図52】反射点及び前方物体の位置を示した概略平面図である。
【図53】カメラにより取得される前方映像を示した説明図である。
【図54】反射点及び前方物体の位置を示した概略平面図である。
【符号の説明】
1〜9  前方環境認識装置
10  自車
11  スキャニングレーザレーダ(反射点検出手段)
12  物体検出部(物体検出手段)
13  物体種類判別部(物体種類判別手段)
14  制御部(制御内容決定手段)
15  カメラ(撮影手段)
16  物体追従処理部(物体追従処理手段)
17  統合処理部(統合処理手段)
22a、100 水平エッジ
30〜34  料金所
50  頭上看板
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a forward environment recognizing device and a forward environment recognizing method for determining whether a tollgate is present ahead of a traveling direction of a vehicle.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as a forward environment recognition device that determines whether or not a tollgate is present ahead of a traveling direction of a vehicle, for example, a technology disclosed in Japanese Patent Application Laid-Open No. 2001-134794 is known.
[0003]
The forward environment recognition device calculates the own vehicle position, acquires map data around the own vehicle position from the map database, and collates the own vehicle position with the map data to thereby charge the vehicle ahead in the traveling direction of the own vehicle. To determine if the location exists.
[0004]
[Problems to be solved by the invention]
However, since a tollgate may be newly constructed, the map database must be frequently updated in order for the forward environment recognition device to make the above-described determination accurately. However, a map database in which tollgates are stored is relatively expensive.
[0005]
For this reason, the forward environment recognition apparatus has a problem that it is relatively expensive to accurately perform the above-described determination.
[0006]
The present invention has been made to solve such a conventional problem, and its main purpose is to determine whether there is a tollgate ahead of the vehicle in the traveling direction without using a map database. It is an object of the present invention to provide a forward environment recognition device and a forward environment recognition method capable of accurately determining the forward environment.
[0007]
[Means for Solving the Problems]
In order to achieve the above-described object, the invention described in the claims of the present application includes: a reflection point detecting unit that detects a reflection point reflecting a detection wave and measures a relative position of the reflection point with respect to the own vehicle; By predicting that the reflection points close to each other among the points are points on the same object, the object detection means for detecting the front object and the number of reflection points included in the front object are measured, and the number of the reflection points is determined. Is larger than the reference value, an object type discriminating means for judging the preceding object as a tollgate is mainly provided.
[0008]
【The invention's effect】
According to the forward environment recognition device described in the claims of the present application, the following effects can be mainly obtained.
[0009]
That is, the number of reflection points detected when scanning a tollgate is much larger than the number of reflection points detected when scanning another forward object.
[0010]
Therefore, by setting the reference value to be larger than the number of reflection points detected when scanning another front object, the front environment recognition device determines that the front object is a toll gate by the above-described determination. Can be determined.
[0011]
In other words, the forward environment recognition device can accurately determine whether a tollgate exists ahead of the own vehicle in the traveling direction without using the map database.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
(First embodiment)
Hereinafter, a first embodiment of the present invention (corresponding to the invention described in any one of claims 1, 7 and 12) will be described with reference to the drawings.
[0013]
First, the configuration of the forward environment recognition device 1 according to the present invention will be described with reference to FIGS. 1 to 5 and FIG.
[0014]
Here, FIG. 1 is a block diagram showing a configuration of the forward environment recognition device 1, FIG. 2 is a schematic side view showing an installation position of the laser radar 11, and FIG. FIG.
[0015]
4 and 5 are side views showing a detectable range 11c of the laser radar 11, and FIG. 7 is a schematic plan view showing a reflection point and a position of a front object.
[0016]
The forward environment recognition device 1 is installed in the own vehicle 10 shown in FIG. 2, and as shown in FIG. 1, a scanning laser radar (reflection point detecting means) (hereinafter, referred to as “laser radar”) 11, an object detection (Object detecting means) 12, an object type determining section (object type determining means) 13, and a control section (control content determining means) 14.
[0017]
The laser radar 11 is provided in front of the own vehicle 10 as shown in FIGS. 2 and 3, scans the front of the own vehicle 10 with a laser beam (detection wave) a plurality of times, and reflects the reflected laser. Light (hereinafter, referred to as “reflected light”) is detected.
[0018]
Thereby, the laser radar 11 detects the reflection points that reflect the laser light, the distance from the own vehicle to each reflection point, the azimuth of each reflection point with respect to the own vehicle, and the laser light reflected at each reflection point. (Hereinafter, referred to as “reflection point intensity”).
[0019]
Then, the laser radar 11 creates reflection point information on the detection result and the measurement result and outputs the information to the object detection unit 12.
[0020]
Here, as shown in FIGS. 4, 5 and 7, the laser radar 11 performs scanning by emitting a laser beam a predetermined number of times while shifting its optical axis by a unit angle.
[0021]
In addition, as shown in FIGS. 4 and 5, in each scanning, the angle formed by the laser beam 11a emitted from the top in the side view and the laser beam 11b emitted from the bottom is set in the height direction. The detection angle is set, and its magnitude, that is, the detection angle is set to β.
[0022]
The object detection unit 12 includes a memory 12a and a detection processing unit 12b.
[0023]
The memory 12a stores the reflection point information given from the laser radar 11.
[0024]
The detection processing unit 12b acquires the reflection point information stored in the memory 12a, detects the front objects based on the reflection point information, and detects the size of each detected front object, the relative position with respect to the own vehicle 10, And the relative speed v to the own vehicle 10 is measured.
[0025]
Then, the detection processing unit 12b creates detection result information on the detection result and the measurement result, and stores the information in the memory 13a of the object type determination unit 13.
[0026]
The object type determination unit 13 includes a memory 13a and a determination processing unit 13b.
[0027]
The memory 13a stores the detection result information provided from the detection processing unit 12b.
[0028]
The determination processing unit 13b acquires the detection result information from the memory 13a, and determines the type of the forward object based on the detection result information.
[0029]
Then, the determination processing unit 13b creates determination result information regarding the determination result and the like, and outputs it to the control unit 14.
[0030]
The control unit 14 determines the control content of the own vehicle 10 and the like based on the determination result information provided from the determination processing unit 13b.
[0031]
Next, a procedure of processing by the front environment recognition device 1 will be described with reference to FIGS.
[0032]
Here, FIG. 6 is a flowchart showing a procedure of processing by the front environment recognition device 1, and FIGS. 8 to 9 and FIG. 11 are schematic plan views showing reflection points and positions of front objects. FIG. 10 is an explanatory diagram showing a state ahead of the own vehicle 10 in the traveling direction.
[0033]
First, the procedure of the process performed by the front environment recognition device 1 will be described with reference to an example in which the vehicles 20 to 21, the toll booths 30 to 31, and the delineator 40 exist in the forward direction of the vehicle 10 as shown in FIG. I do.
[0034]
The front environment recognition device 1 can also perform the following processing in other cases.
[0035]
In step S1a (reflection point detection step) shown in FIG. 6, as shown in FIG. 7, the laser radar 11 scans the area in front of the vehicle 10, that is, the detectable range 11c, with a laser beam a plurality of times. A reflection point that reflects the laser light is detected.
[0036]
Here, the vehicle includes a reflex reflector or the like as an object that reflects laser light, and the tollgate includes a reflector or the like as an object that reflects laser light. In addition, road signs such as a delineator and a center pole also include a reflector that reflects laser light.
[0037]
Therefore, the laser radar 11 can detect a reflection point on a vehicle, a tollgate, and a road sign.
[0038]
Next, the laser radar 11 measures the distance from each reflection point to the own vehicle 10, the direction of each reflection point with respect to the own vehicle 10, and the intensity of each reflection point.
[0039]
Next, the laser radar 11 creates reflection point information on the detection result and the measurement result, and stores the information in the memory 12a.
[0040]
Next, in step S2a (object detection step) shown in FIG. 6, the detection processing unit 12b acquires the reflection point information from the memory 12a, and calculates the relative position of each reflection point with respect to the own vehicle 10 as follows.
[0041]
That is, as shown in FIGS. 2 and 3, the detection processing unit 12 b sets the x-axis in a direction parallel to the road surface and perpendicular to the traveling direction of the vehicle 10 with the emission point of the laser beam as the origin. Take. Furthermore, the detection processing unit 12b defines the xyz space by taking the z-axis in the traveling direction of the vehicle 10 and the y-axis in a direction perpendicular to the road surface.
[0042]
Next, the detection processing unit 12b regards each reflection point as a point in the xyz space, calculates coordinates of each reflection point, and sets the coordinates as a relative position of each reflection point with respect to the own vehicle 10.
[0043]
Next, the detection processing unit 12b detects the front objects A1 to E1 as illustrated in FIG. 7 by predicting the reflection points that are close to each other as the reflection points on the same object, and further, detects the size of each front object. And the relative position to the vehicle 10 is measured.
[0044]
Next, the detection processing unit 12b creates detection result information on the detection result and the measurement result and stores the information in the memory 12a.
[0045]
In step S3a, the detection processing unit 12b measures the relative speed v of each forward object and adds the relative speed v to the detection result information, as shown in FIGS.
[0046]
Here, a procedure for measuring the relative speed will be described.
[0047]
First, the forward environment recognition device 1 performs the processing of steps S1a to S2a after a lapse of time Δt after performing the processing of steps S1a to S2a (the time at which the processing is performed is referred to as t−Δt). Do it again.
[0048]
As a result, the detection processing unit 12b detects the front objects A2 to E2 and F1 as shown in FIG. 8, and measures the size and relative position of each detected front object. Further, the detection processing unit 12b stores the detection result information in the memory 12a.
[0049]
Next, the detection processing unit 12b acquires the detection result information at the time t-Δt and the detection result information at the time t from the memory 12a.
[0050]
Next, as illustrated in FIG. 9, the detection processing unit 12b compares the size and relative position of each forward object detected at time t-Δt, and the size and relative position of each forward object detected at time t. , Illuminate.
[0051]
As a result, the detection processing unit 12b regards front objects having substantially the same size and having a relative position at the time t-Δt and a close relative position at the time t as the same front object.
[0052]
Specifically, the detection processing unit 12b regards the front object A1 and the front object A2 as the same front object.
[0053]
Similarly, the detection processing unit 12b regards the front object B1 and the front object B2 as the same and the front object C1 and the front object C2 as the same front object.
[0054]
Similarly, the detection processing unit 12b regards the front object D1 and the front object D2 and the front object E1 and the front object E2 as the same front object.
[0055]
Note that the detection processing unit 12b regards the front object F1 as a front object newly detected at time t because no other front object exists near the front object F1.
[0056]
Next, the detection processing unit 12b measures the relative velocity v of each forward object using the following equation (1).
[0057]
v = (R (t) −R (t−Δt)) / Δt (1)
Here, R (t) is the relative position coordinate of the forward object at time t, and R (t-Δt) is the relative position coordinate of the forward object at time t-Δt.
[0058]
Next, in step S4a (object type determination step), the determination processing unit 13b acquires detection result information from the memory 13a.
[0059]
Next, the determination processing unit 13b determines the type of the forward object based on the detection result information as follows.
[0060]
That is, the determination processing unit 13b measures the number of reflection points included in the front object, and compares the number of the reflection points with a reference value n1 predetermined for the number of the reflection points.
[0061]
Next, when the number of reflection points included in the front object is larger than the reference value n1, the determination processing unit 13b determines the front object (the front objects D1 and E1 in this example) as a toll gate.
[0062]
Here, the reason why the determination is possible will be described.
[0063]
That is, the tollgate is provided with a plurality of objects (for example, a reflector, a toll payment machine, a pole cone, and a lamp) that reflect laser light. For this reason, the number of reflection points detected when scanning a tollgate is significantly larger than the number of reflection points detected when scanning a forward object other than a tollgate.
[0064]
Therefore, by setting the reference value n1 to be very large as compared with the number of reflection points detected when scanning a forward object other than the tollgate, the determination processing unit 13b determines that the number of reflection points is small. A forward object larger than the reference value n1 can be determined as a toll gate.
[0065]
On the other hand, when the number of reflection points included in the front object is smaller than the reference value n1, the determination processing unit 13b determines the type of the front object based on the size, the relative position, and the relative speed v. I do.
[0066]
For example, the discrimination processing unit 13b detects the front objects D1 and E1 determined as tollgates on the traveling direction side of the vehicle 10 and moves the front objects (the front objects that have moved in the past). In this example, the forward objects A1 and B1) are determined to be vehicles.
[0067]
In addition, the determination processing unit 13b determines that the front object (the front object C1 in this example), which is smaller than the vehicle and is stopped, is a road sign.
[0068]
Next, the determination processing unit 13b acquires the distance from the own vehicle 10 to the front object determined as the tollgate, that is, the distance from the own vehicle 10 to the tollgate from the detection result information.
[0069]
Next, the determination processing unit 13b creates determination result information on the size of each forward object, the relative position with respect to the own vehicle 10, the relative speed v, the distance from the own vehicle 10 to the tollgate, and the determination result. The information is stored in the memory 13a shown in FIG.
[0070]
Next, in step S5a shown in FIG. 6, the control unit 14 performs control of the own vehicle 10 and contents of an alarm for an occupant of the own vehicle 10 (hereinafter, “ Control content and alarm content of the vehicle 10).
[0071]
Here, as the control contents, for example, when there is a tollgate, control to reduce the speed of the own vehicle 10, control to stop in the tollgate, and when the own vehicle 10 has an ETC, And control to pass through the tollgate as it is. Further, if the vehicle 10 is equipped with the ACC, there is also a control of stopping the control by the ACC.
[0072]
Further, as the contents of the alarm, for example, when there is a tollgate, there is a notification of information indicating that "the tollgate is approaching".
[0073]
As described above, according to the first embodiment, the forward environment recognition device 1 can accurately determine whether the forward object existing ahead of the own vehicle in the traveling direction is a tollgate.
[0074]
In other words, the forward environment recognition device 1 can accurately determine whether a tollgate exists ahead of the vehicle in the traveling direction without using a map database (corresponding to claim 1 or 7). Effect).
[0075]
Furthermore, the forward environment recognition device 1 can determine the control content and the warning content of the own vehicle 10 according to the result of the determination (an effect corresponding to the seventh aspect of the invention).
[0076]
In particular, the forward environment recognition device 1 can accurately measure the distance from the host vehicle 10 to the tollgate as the distance from the host vehicle 10 to the front object, and the measurement result is included in the above-described determination result. It is.
[0077]
Thereby, the forward environment recognition device 1 can determine the control content regarding the speed of the vehicle 10 and the like according to the distance.
[0078]
Next, in a case other than the example illustrated in FIG. 7, the procedure of the process performed by the front environment recognition device 1 is illustrated in FIG. Is described as an example.
[0079]
In steps S1a to S3a shown in FIG. 6, the forward environment recognition device 1 detects the forward objects A4 to C4 as shown in FIG. 11, and determines the size of each forward object, the relative position to the own vehicle 10, and Measure the relative velocity v. Then, detection result information is created and stored in the memory 13a.
[0080]
Next, in step S4a, the forward environment recognition device 1 determines the type of each forward object.
[0081]
That is, the forward environment recognition device 1 determines that the forward objects A4 to B4 are moving, and as a result, determines that the forward objects A4 to B4 are vehicles.
[0082]
On the other hand, the forward environment recognition device 1 determines that the forward object C4 is smaller than the vehicle and is stopped, and as a result, determines that the forward object C4 is a road sign.
[0083]
Next, the determination processing unit 13b creates determination result information regarding the size of each forward object, the relative position with respect to the own vehicle 10, the relative speed v, and the determination result, and stores the determination result information in the memory 13a illustrated in FIG. And outputs it to the control unit 14.
[0084]
Next, in step S5a, the forward environment recognition device 1 determines the control content and the warning content.
[0085]
(Second embodiment)
Next, a second embodiment according to the present invention (corresponding to any one of claims 2, 7 and 13) will be described with reference to the drawings.
[0086]
As shown in FIG. 1, the forward environment recognition device 2 according to the second embodiment causes the determination processing unit 13 b of the forward environment recognition device 1 to perform the following processing in addition to the above-described processing. It was done.
[0087]
Therefore, in the second embodiment, the description of the configuration of the front environment recognition device 2 is omitted, and the reference numerals of the respective components of the front environment recognition device 2 are replaced with the reference numerals of the respective components of the front environment recognition device 1. And the same as
[0088]
Next, a procedure of processing by the front environment recognition device 2 will be described with reference to FIGS. 1, 6, and 12 to 15. Here, FIG. 12 and FIG. 14 are explanatory views showing a state in front of the own vehicle 10 in the traveling direction, and FIG. 13 and FIG. 15 are schematic plan views showing the positions of the reflection points and the front objects.
[0089]
The process by the front environment recognition device 2 is performed according to the flowchart shown in FIG. 6, but differs from the process by the front environment recognition device 1 only in the process of step S4a. Therefore, in the second embodiment, the different processing will be particularly described.
[0090]
First, as shown in FIG. 12, a case where vehicles 22 to 25 and a tollgate 32 exist in front of the own vehicle 10 in the traveling direction will be described as an example. Note that the front environment recognition device 2 can also perform the following processing in other cases.
[0091]
In steps S1a to S3a, the forward environment recognition device 2 detects the forward objects A3 to E3 as shown in FIG. 13 and determines the size of each forward object, the relative position with respect to the own vehicle 10, and the relative speed v. Measure. Then, detection result information is created and stored in the memory 13a.
[0092]
Next, in step S4a, the determination processing unit 13b determines the type of each forward object by performing the following processing on each forward object.
[0093]
That is, the determination processing unit 13b acquires the detection result information from the memory 13a, measures the number of reflection points included in the front object based on the detection result information, and determines the number of the reflection points and the reference value n1. Compare.
[0094]
Next, when the number of reflection points included in the front object is larger than the reference value n1, the determination processing unit 13b further measures the distance from the reflection point included in the front object to the own vehicle, The variance (distribution) of these distances is calculated.
[0095]
Next, when the variance value is larger than a predetermined reference value n2 for the variance value, the determination processing unit 13b determines that the front object (the front object E3 in this example) is a toll gate. , The reference object is determined to be a large overhead signboard.
[0096]
Here, the reason why the determination is possible will be described.
[0097]
That is, even when the laser radar 11 scans a large overhead signboard, a number of reflection points larger than the reference value n1 may be detected.
[0098]
However, the tollgate has a protruding portion (for example, protruding portions e1 to e6 as shown in FIG. 13) protruding in the traveling direction of the vehicle 10, whereas a large overhead signboard has the protruding portion. It is not provided and has a planar shape. The protruding portion of the tollgate is made up of, for example, a pole cone, a signboard, or the like.
[0099]
For this reason, the variance calculated when the tollgate is scanned is larger than the variance calculated when a large overhead signboard is scanned.
[0100]
Therefore, the above-described determination can be performed by setting the reference value n2 to be larger than the variance value calculated when a large overhead signboard is scanned.
[0101]
On the other hand, when the number of reflection points included in the front object is smaller than the reference value n1, the determination processing unit 13b determines the type of the front object (the front objects A3 to D3 in this example) by the size, The determination is made based on the relative position and the relative speed v.
[0102]
That is, the determination processing unit 13b detects the moving object (the front objects A3 to D3 in this example) detected on the traveling direction side of the own vehicle 10 with respect to the front object E3 determined as the tollgate. Is determined to be a vehicle.
[0103]
Next, the determination processing unit 13b creates determination result information on the distance from the own vehicle 10 to the tollgate, the size of each forward object, the relative position with respect to the own vehicle 10, the relative speed v, and the determination result. The information is stored in the memory 13a shown in FIG.
[0104]
Next, in step S5a, the control unit 14 determines the content of control of the own vehicle 10 and the content of an alarm for an occupant of the own vehicle 10 based on the determination result information.
[0105]
Next, as shown in FIG. 14, a case where the vehicles 28 to 29 and the large overhead sign 50 are present in front of the own vehicle 10 in the traveling direction will be described.
[0106]
In steps S1a to S3a, the forward environment recognition device 2 detects the forward objects A5 to C5, as shown in FIG. 15, and determines the size of each forward object, the relative position with respect to the own vehicle 10, and the relative speed v. Measure. Then, detection result information is created and stored in the memory 13a.
[0107]
Next, in step S4a, the determination processing unit 13b determines the type of each forward object.
[0108]
That is, the determination processing unit 13b determines that the number of reflection points is larger than the reference value n1 but the variance of the distance is smaller than the reference value n2 for the front object C5. Judge as a large overhead sign.
[0109]
On the other hand, the determination processing unit 13b determines that the forward objects A5 to B5 are moving, and as a result, determines that the forward objects A5 to B5 are vehicles.
[0110]
Next, the determination processing unit 13b creates determination result information regarding the size of each forward object, the relative position with respect to the own vehicle 10, the relative speed v, and the determination result, and stores the determination result information in the memory 13a illustrated in FIG. And outputs it to the control unit 14.
[0111]
Next, the control unit 14 determines the control content and the warning content of the own vehicle 10 in step S5a.
[0112]
As described above, according to the second embodiment, the following effects can be obtained in addition to the effects of the first embodiment.
[0113]
That is, when the number of reflection points included in the front object is larger than the reference value n1, the front environment recognition device 2 accurately determines whether the front object is a tollgate or a large overhead signboard. (An effect corresponding to the invention described in claim 2).
[0114]
Further, the forward environment recognition device 2 can determine the control content and the warning content of the own vehicle 10 according to the result of the determination (an effect corresponding to the invention described in claim 7).
[0115]
In the second embodiment, the variance is used as the distance distribution, but the distribution may be, for example, a value obtained by dividing the minimum value from the maximum value of the distance in addition to the variance value. Etc. can be used.
[0116]
(Third embodiment)
Next, a third embodiment (corresponding to the invention of claim 3 or 7) according to the present invention will be described with reference to the drawings.
[0117]
As shown in FIG. 1, the forward environment recognition device 3 according to the third embodiment causes the determination processing unit 13 b of the above-described forward environment recognition device 1 to perform the following processing in addition to the above-described processing. It was done.
[0118]
Therefore, in the third embodiment, the description of the configuration of the front environment recognition device 3 is omitted, and the reference numerals of the respective components of the front environment recognition device 3 are replaced with the reference numerals of the respective components of the front environment recognition device 1. And the same as
[0119]
Next, a procedure of a process performed by the forward environment recognition device 3 will be described with reference to FIGS. 1, 6, and 12 to 15.
[0120]
The processing by the forward environment recognition device 3 is performed according to the flowchart shown in FIG. 6, but differs from the process by the forward environment recognition device 1 only in the process of step S4a. Therefore, in the third embodiment, the different processing will be particularly described.
[0121]
First, as shown in FIG. 12, a case where vehicles 22 to 25 and a tollgate 32 exist in front of the own vehicle 10 in the traveling direction will be described as an example. In addition, it is needless to say that the forward environment recognition device 3 can also perform the following processing in other cases.
[0122]
First, in steps S1a to S3a, the forward environment recognition device 3 detects the forward objects A3 to E3 as shown in FIG. 11, and determines the size of each forward object, the relative position to the own vehicle 10, and the relative speed. Measure v. Then, detection result information is created and stored in the memory 13a.
[0123]
Next, in step S4a, the determination processing unit 13b determines the type of each forward object by performing the following processing on each forward object.
[0124]
That is, the determination processing unit 13b acquires the detection result information from the memory 13a, measures the number of reflection points included in the front object based on the detection result information, and determines the number of the reflection points and the number of the reflection points. The number is compared with a predetermined reference value n1.
[0125]
Next, when the number of reflection points included in the front object is larger than the reference value n1, the determination processing unit 13b performs the following processing.
[0126]
That is, the determination processing unit 13b measures the distances from the reflection points included in the front object to the host vehicle based on the detection result information, and calculates the variance (distribution degree) of these distances.
[0127]
Further, the determination processing unit 13b measures the intensities of the reflection points included in the front object based on the detection result information, and calculates a variance (distribution degree) of these intensities.
[0128]
Next, if the variance value of the distance is greater than the reference value n2 or the variance value of the intensity is greater than the reference value n3 predetermined for the variance value of the intensity, the determination processing unit 13b determines that the forward The object (in this example, the front object E3) is determined to be a tollgate.
[0129]
On the other hand, when the variance of the distance is smaller than the reference value n2 and the variance of the intensity is smaller than the reference value n3, the determination processing unit 13b determines that the front object is a large overhead signboard.
[0130]
Here, the reason why the determination is possible will be described.
[0131]
That is, even when the laser radar 11 scans a large overhead signboard, a number of reflection points larger than the reference value n1 may be detected.
[0132]
However, the tollgate and the large overhead signboard have the following differences in addition to the difference in the variance value (distribution degree) of the distance.
[0133]
That is, the toll booth has a plurality of types of objects that reflect laser light (for example, a reflector, a toll payer, a pole cone, and a lamp). In addition, the portion is oriented in various directions with respect to the vehicle 10.
[0134]
On the other hand, the large overhead signboard is made of substantially the same material, and faces substantially the same direction with respect to the vehicle 10.
[0135]
Therefore, the variance of the intensity calculated when scanning the tollgate is larger than the variance of the intensity calculated when scanning a large overhead signboard.
[0136]
Therefore, the above-described determination can be performed by setting the reference value n3 to be larger than the variance of the intensity calculated when a large overhead signboard is scanned.
[0137]
On the other hand, when the number of reflection points included in the front object is smaller than the reference value n1, the determination processing unit 13b determines the type of the front object (the front objects A3 to D3 in this example) by the size, The determination is made based on the relative position and the relative speed v.
[0138]
For example, the discrimination processing unit 13b is a moving object (in this example, the front objects A3 to D3) that is detected on the traveling direction side of the own vehicle 10 with respect to the front object E3 determined to be a tollgate and is moving. Is determined to be a vehicle.
[0139]
Next, the determination processing unit 13b determines the distance from the host vehicle 10 to the front object determined to be a tollgate, the size of each front object, the relative position to the host vehicle 10, the relative speed v, and the determination result information regarding the determination result. The determination result information is created and stored in the memory 13a shown in FIG.
[0140]
Next, in step S5a, the control unit 14 determines the control content and the warning content of the vehicle 10 based on the determination result information.
[0141]
Next, as shown in FIG. 14, a case where the vehicles 28 to 29 and the large overhead sign 50 are present in front of the own vehicle 10 in the traveling direction will be described.
[0142]
In steps S1a to S3a, the forward environment recognition device 3 detects the forward objects A5 to C5 as shown in FIG. 15 and determines the size of each forward object, the relative position with respect to the own vehicle 10, and the relative speed v. Measure. Then, detection result information is created and stored in the memory 13a.
[0143]
Next, in step S4a, the determination processing unit 13b determines the type of each forward object.
[0144]
That is, for the forward object C5, the number of reflection points is larger than the reference value n1, but the variance value of the distance is smaller than the reference value n2, and the variance value of the intensity is larger than the reference value n3. It is determined to be small, and as a result, the forward object C5 is determined to be a large overhead signboard.
[0145]
On the other hand, the determination processing unit 13b determines that the forward objects A5 to B5 are moving, and as a result, determines that the forward objects A5 to B5 are vehicles.
[0146]
Next, the determination processing unit 13b creates determination result information regarding the determination result, stores the determination result information in the memory 13a, and outputs the determination result information to the control unit 14.
[0147]
Next, in step S5a, the control unit 14 determines the control content and the warning content of the vehicle 10 based on the determination result information.
[0148]
As described above, according to the third embodiment, the following effects can be obtained in addition to the effects of the first embodiment.
[0149]
That is, even if the number of reflection points included in the front object is larger than the reference value n1, the front environment recognition device 3 accurately determines whether the front object is a tollgate or a large overhead signboard. It can be determined (effect corresponding to the invention described in claim 3).
[0150]
Further, the forward environment recognition device 3 can determine the control content and the warning content of the own vehicle 10 according to the result of the determination (an effect corresponding to the seventh aspect of the invention).
[0151]
In the second embodiment, the variance is used as the intensity distribution, but the distribution may be, for example, a value obtained by dividing the minimum value from the maximum value of the intensity in addition to the variance value. Etc. can be used.
[0152]
(Fourth embodiment)
Next, a fourth embodiment (corresponding to the invention described in claim 4 or 7) according to the present invention will be described with reference to the drawings.
[0153]
As shown in FIG. 1, the forward environment recognition device 4 according to the fourth embodiment includes the following processing in addition to the above-described processing in the determination processing unit 13b in any of the above-described forward environment recognition devices 1 to 3. Is performed.
[0154]
Therefore, in the fourth embodiment, the description of the configuration of the front environment recognition device 4 is omitted, and the reference numerals of the respective components of the front environment recognition device 4 are replaced with the reference numerals of the respective components of the front environment recognition device 1. And the same as
[0155]
Next, a procedure of processing by the front environment recognition device 4 will be described with reference to FIGS. 1, 6, and 16 to 18. Here, FIGS. 16 to 18 are schematic plan views showing the positions of the reflection points and the front object.
[0156]
The processing by the front environment recognition device 4 is performed according to the flowchart shown in FIG. 6, but differs from the processing by any of the front environment recognition devices 1 to 3 only in the process of step S4a. Therefore, in the fourth embodiment, the different processing will be particularly described.
[0157]
First, as shown in FIG. 16, a case where vehicles 51 to 52 and a tollgate 33 are present ahead of the own vehicle 10 in the traveling direction will be described as an example. The front environment recognition device 4 can also perform the following processing in other cases.
[0158]
First, in steps S1a to S3a, the forward environment recognition device 4 detects the forward objects A6 to D6, as shown in FIG. 16, and determines the size of each forward object, the relative position with respect to the own vehicle 10, and the relative speed. Measure v. Then, detection result information is created and stored in the memory 13a.
[0159]
Next, in step S4a, the determination processing unit 13b determines the type of each forward object by performing the following processing on each forward object.
[0160]
That is, the determination processing unit 13b acquires the detection result information from the memory 13a, measures the number of reflection points included in the forward object based on the detection result information, and determines the number of the reflection points and the reference value n1. Compare.
[0161]
Next, when the number of reflection points included in the front object is larger than the reference value n1, the determination processing unit 13b further determines whether the front object includes a protruding portion that protrudes in the traveling direction of the host vehicle 10. Judge whether or not.
[0162]
Here, the determination processing unit 13b determines whether or not the projection includes the protruding portion based on the relative position of the reflection point included in the front object.
[0163]
Next, when the forward object includes the protruding portions (in this example, the protruding portions d1 to d3), the determination processing unit 13b determines the forward object (in this example, the front object D6) to be a toll gate. .
[0164]
Here, the reason why the determination is possible will be described.
[0165]
That is, the tollgate has a protruding portion that protrudes in the traveling direction of the vehicle 10, and the protruding portion is formed of an object that reflects laser light (for example, a tollgate pillar, a pole cone, a signboard, and the like). There is a feature that there is.
[0166]
Therefore, when the toll gate is scanned, the protruding portion is detected, so that the above-described determination can be performed.
[0167]
Note that the determination processing unit 13b can determine whether the preceding object is a tollgate by another method. The other method will be described later.
[0168]
On the other hand, when the number of reflection points included in the front object is smaller than the reference value n1, the determination processing unit 13b determines the type of the front object (in this example, the front objects A6 to C6) by its size, The determination is made based on the relative position and the relative speed v.
[0169]
For example, the discrimination processing unit 13b is a moving object (in this example, the front objects A6 to B6 in this example) that is detected on the traveling direction side of the own vehicle 10 with respect to the front object D6 determined to be a tollgate. Is determined to be a vehicle.
[0170]
Further, the determination processing unit 13b determines that the stopped front object (the front object C6 in this example) having a size smaller than that of the vehicle is the delineator.
[0171]
Next, the determination processing unit 13b determines the distance from the host vehicle 10 to the front object determined to be a tollgate, the size of each front object, the relative position to the host vehicle 10, the relative speed v, and the determination result information regarding the determination result. The determination result information is created and stored in the memory 13a shown in FIG.
[0172]
Next, in step S5a, the control unit 14 determines the control content and the warning content of the own vehicle 10 based on the determination result information.
[0173]
Next, as shown in FIG. 17, a case where vehicles 53 to 54 and a tollgate 34 exist ahead of the own vehicle 10 in the traveling direction will be described.
[0174]
First, in steps S1a to S3a, the forward environment recognition device 4 detects the forward objects A7 to C7 as shown in FIG. 17, and determines the size of each forward object, the relative position with respect to the own vehicle 10, and the relative speed. Measure v.
[0175]
Next, in step S4a, the determination processing unit 13b determines the type of each forward object.
[0176]
That is, the determination processing unit 13b determines that the number of reflection points is larger than the reference value n1 and that the front object C7 includes a protruding portion, and as a result, the front object C7 is determined as a tollgate. judge.
[0177]
Here, when another front object is present before the front object C7, all the protruding portions included in the front object C7 may not be detected. FIG. 18 shows an example in this case.
[0178]
That is, FIG. 18 shows that the front objects A8 to C8 (corresponding to the vehicles 55 to 57) exist in front of the front object C7, and the front objects A8 to C8 block the laser light, so that the protruding portions c2 to c3 Is not detected.
[0179]
In this case, the determination processing unit 13b determines whether or not the protruding portions c2 to c3 are not detected because another front object existing in front of the front object C7 blocks the laser beam.
[0180]
As a result, only when the cause that the protruding portions c2 to c3 are not detected is that another front object blocks the laser beam, the determination processing unit 13b regards the protruding portions c2 to c3 as being detected. Then, the type of the forward object C7 is determined.
[0181]
On the other hand, the discrimination processing unit 13b detects the front objects A7 to B7 shown in FIG. 17 on the traveling direction side of the vehicle 10 with respect to the front object C7 determined to be a tollgate, and moves. , The forward objects A7 to B7 are determined as vehicles.
[0182]
Next, the determination processing unit 13b determines the distance from the host vehicle 10 to the front object determined to be a tollgate, the size of each front object, the relative position with respect to the host vehicle 10, the relative speed v, and the determination result information regarding the determination result. The determination result information is created and stored in the memory 13a shown in FIG.
[0183]
Next, in step S5a, the control unit 14 determines the control content and the warning content of the own vehicle 10 based on the determination result information.
[0184]
As described above, according to the fourth embodiment, the following effects can be obtained in addition to the effects of any of the first to third embodiments.
[0185]
That is, the forward environment recognition device 4 can accurately determine whether the forward object is a tollgate (an effect corresponding to the invention described in claim 4).
[0186]
Further, the forward environment recognition device 4 can determine the control content and the warning content of the own vehicle 10 according to the result of the determination (an effect corresponding to the invention described in claim 7).
[0187]
Next, another method for the forward environment recognition device 4 to determine the presence or absence of a tollgate is described in the case where the vehicles 55 to 57 and the tollgate 34 exist in the forward direction of the vehicle 10 as shown in FIG. An example will be described.
[0188]
Here, FIG. 19 is a schematic plan view showing the position of the reflection point and the front object, FIG. 20 is a position distribution graph showing the position distribution of the reflection point, and FIG. 21 is an intensity distribution of the reflection point. 5 is an intensity distribution graph showing.
[0189]
First, in steps S1a to S3a, the forward environment recognition device 4 detects the forward objects A8 to D8 as shown in FIG. 19, and determines the size of each forward object, the relative position to the own vehicle 10, and the relative speed. Measure v. Then, the forward environment recognition device 4 creates detection result information and stores it in the memory 13a.
[0190]
Next, in step S4a illustrated in FIG. 6, the determination processing unit 13b determines the type of each forward object by performing the following processing on each forward object.
[0191]
That is, as shown in FIG. 19, the determination processing unit 13b defines an area F8 including a front object D8 that is considered to constitute a tollgate (that is, a front object whose number of reflection points is larger than the reference value n1).
[0192]
Next, as shown in FIG. 20, the determination processing unit 13b creates a position distribution graph by projecting the reflection points included in the area F8 on the xz plane.
[0193]
In addition, as illustrated in FIG. 21, the determination processing unit 13b creates an intensity distribution graph representing a relationship between the x coordinate of the reflection point included in the area F8 and the intensity of the reflection point.
[0194]
Next, the discrimination processing unit 13b determines whether a peak protruding in the z-axis direction exists at a constant interval along the x-axis direction in the position distribution graph, or a peak protruding in the intensity axis direction in the intensity distribution graph. When there is a certain interval along the x-axis direction, it is determined that the forward object D8 included in the area F8 is a tollgate.
[0195]
Here, these peaks correspond to the protruding portions of the tollgate.
[0196]
Subsequent processing is the same as the above-described processing, and a description thereof will be omitted.
[0197]
(Fifth embodiment)
Next, a fifth embodiment according to the present invention (corresponding to the invention of claim 5 or 7) will be described with reference to the drawings.
[0198]
As shown in FIG. 1, the forward environment recognition device 5 according to the fifth embodiment includes the following processing in addition to the above-described processing in the determination processing unit 13b in any of the above-described forward environment recognition devices 1 to 4. Is performed.
[0199]
Therefore, in the fifth embodiment, the description of the configuration of the front environment recognition device 5 is omitted, and the reference numerals of the respective components of the front environment recognition device 5 are replaced with the reference numerals of the respective components of the front environment recognition device 1. And the same as
[0200]
Next, the procedure of the process by the front environment recognition device 5 will be described based on FIGS. 1, 4 to 6, 12 to 13, and 22. Here, FIG. 22 is a schematic plan view showing the positions of the reflection points and the front object.
[0201]
The processing by the front environment recognition device 5 is performed according to the flowchart shown in FIG. 6, but differs from the processing by any of the front environment recognition devices 1 to 4 only in the process of step S4a. Thus, in the fifth embodiment, step S4a will be particularly described.
[0202]
In the fifth embodiment, as shown in FIG. 12, a case where vehicles 22 to 25 and a tollgate 32 are present in the forward direction of the vehicle 10 will be described as an example of this procedure.
[0203]
The front environment recognition device 5 can also perform the following processing in other cases.
[0204]
First, in steps S1a to S3a, the forward environment recognition device 5 detects the forward objects A3 to E3, as shown in FIG. 13, and determines the size of each forward object, the relative position with respect to the own vehicle 10, and the relative speed. Measure v. Then, the forward environment recognition device 5 creates the detection result information and stores it in the memory 13a.
[0205]
Next, in step S4a, the determination processing unit 13b determines the type of the forward object based on the detection result information acquired from the memory 13a, as in any of the forward environment recognition devices 1 to 4.
[0206]
Thereby, the determination processing unit 13b determines the front objects A3 to D3 as vehicles and determines the front object E3 as a tollgate.
[0207]
Next, the determination processing unit 13b determines the distance from the host vehicle 10 to the front object determined to be a tollgate, the size of each front object, the relative position to the host vehicle 10, the relative speed v, and the determination result information regarding the determination result. The determination result information is created and stored in the memory 13a shown in FIG.
[0208]
Next, in step S5a, the control unit 14 determines the control content and the warning content of the own vehicle 10 based on the determination result information.
[0209]
Thereafter, the forward environment recognition device 5 repeatedly performs the processing of steps S1a to S5a. In step S4a of the repeated processing, the determination processing unit 13b performs the following processing in addition to the above-described processing.
[0210]
That is, before determining the type of the forward object, the determination processing unit 13b acquires the determination result information from the memory 13a and, based on the determination result information and the detection result information, determines the forward object determined to be a tollgate. It is determined whether part of E3 is no longer detected.
[0211]
As a result, when a part of the forward object E3 is no longer detected, the determination processing unit 13b determines that the vehicle 10 has approached the tollgate, and further determines another portion of the forward object as one of the tollgates. Is determined to be a copy.
[0212]
FIG. 22 shows an example of this case. FIG. 22 shows a case where the part e7 of the front object E3 is not detected and the other parts e1 to e6 are detected.
[0213]
Here, the reason why the determination is possible will be described.
[0214]
That is, in the case illustrated in FIG. 13, when the forward environment recognition device 5 repeats the processing of steps S1a to S5a, a part e7 of the forward object E3 is detected at a certain time as illustrated in FIG. 22. May be unable to do so.
[0215]
This is because, as shown in FIG. 4, the detectable range of the laser radar 11 is limited, and as shown in FIG. That is, a part e7 of the forward object E3 comes out of the detectable range of the laser radar 11. Therefore, the determination can be made.
[0216]
Next, the determination processing unit 13b determines the distance from the host vehicle 10 to the front object determined to be a part of the tollgate, the size of each front object, the relative position to the host vehicle 10, the relative speed v, and the determination result. The result information is created, and the determination result information is stored in the memory 13a shown in FIG.
[0217]
Next, the determination processing unit 13b stores the determination result information in the memory 13a and outputs the information to the control unit 14.
[0218]
As described above, according to the fifth embodiment, the following effects can be obtained in addition to the effects of any of the first to fourth embodiments.
[0219]
That is, the forward environment recognition device 5 can determine whether or not the vehicle 10 has approached a tollgate (an effect corresponding to the invention described in claim 5).
[0220]
Further, even when the part e7 of the front object E3 is no longer detected, the forward environment recognition device 5 determines that the other parts, that is, the protruding parts e1 to e6, are part of the tollgate 32. It is possible to prevent the portions e1 to e6 from being determined as a vehicle or the like.
[0221]
Further, the forward environment recognition device 5 can determine the control content and the warning content of the own vehicle 10 according to the result of the determination (an effect corresponding to the invention described in claim 7).
[0222]
When the part e7 of the forward object E3 is no longer detected, the determination processing unit 13b calculates an approximate distance Za from the vehicle 10 to the tollgate using the following equation (1). You can also.
[0223]
Za = H1 / tan (β / 2) (1)
Here, as shown in FIG. 4, H1 is the normal height of the tollgate, and β is the size of the detection angle in the height direction.
[0224]
In this case, the determination processing unit 13b includes the calculated distance Za in the determination result information.
[0225]
Further, the determination processing unit 13b calculates a distance Zb (the distance Zb is calculated by the detection processing unit 12b) from the own vehicle 10 to the forward object determined to be a tollgate, and the following equation (1a). It can also be used to calculate the actual height H2 of the tollgate.
[0226]
H2 = Zb * tan (β / 2) (1a)
In this case, the determination processing unit 13b includes the calculated height H2 in the determination result information.
[0227]
Further, the determination processing unit 13b can also determine whether or not the own vehicle 10 can pass through the tollgate 32 by comparing the height H2 with the height of the own vehicle 10.
[0228]
In this case, the determination processing unit 13b also includes the result of the determination in the determination result information.
[0229]
(Sixth embodiment)
Next, a sixth embodiment according to the present invention (corresponding to the invention of claim 6 or 7) will be described with reference to the drawings.
[0230]
As shown in FIG. 1, the forward environment recognition device 6 according to the sixth embodiment causes the discrimination processing unit 13b of the forward environment recognition device 5 to perform the following processing in addition to the above-described processing. It was done.
[0231]
Therefore, in the sixth embodiment, the description of the configuration of the front environment recognition device 6 is omitted, and the reference numerals of the respective components of the front environment recognition device 6 are replaced with the reference numerals of the respective components of the front environment recognition device 5. And the same as
[0232]
Next, a procedure of processing by the front environment recognition device 6 will be described based on FIGS. 1, 4 to 6, 12 to 13, and 22 to 25. Here, FIG. 23 to FIG. 25 are schematic plan views showing the positions of the reflection points and the front objects when the vehicle 10 approaches the tollgate 32.
[0233]
The processing by the front environment recognition device 6 is performed according to the flowchart shown in FIG. 6, but differs from the processing by the front environment recognition device 5 only in the process of step S4a. Thus, in the sixth embodiment, the processing in step S4a will be particularly described.
[0234]
In the sixth embodiment, a case where the vehicles 22 to 25 and the tollgate 32 exist in the forward direction of the vehicle 10 as shown in FIG. 12 will be described as an example of this procedure.
[0235]
The front environment recognition device 6 can also perform the following processing in other cases.
[0236]
First, in steps S1a to S3a, the forward environment recognition device 6 detects the forward objects A3 to E3, as shown in FIG. 13, and determines the size of each forward object, the relative position to the own vehicle 10, and the relative speed. Measure v. Then, the forward environment recognition device 6 creates detection result information and stores it in the memory 13a.
[0237]
Next, in step S4a, the determination processing unit 13b determines the type of the front object based on the detection result information provided from the detection processing unit 12b, similarly to any of the front environment recognition devices 1 to 4.
[0238]
Thereby, the determination processing unit 13b determines the front objects A3 to D3 as vehicles and determines the front object E3 as a tollgate.
[0239]
Next, the determination processing unit 13b creates determination result information regarding the size of each forward object, the relative position with respect to the own vehicle 10, the relative speed v, and the determination result, and stores the determination result information in the memory 13a illustrated in FIG. And outputs it to the control unit 14.
[0240]
Next, in step S5a, the control unit 14 determines the control content and the warning content of the own vehicle 10 based on the determination result information.
[0241]
Thereafter, the forward environment recognition device 6 repeatedly performs the processing of steps S1a to S5a. In step S4a of the repeated processing, the determination processing unit 13b performs the following processing in addition to the above-described processing.
[0242]
That is, before determining the type of the forward object, the determination processing unit 13b acquires the determination result information from the memory 13a and, based on the determination result information and the detection result information, determines the forward object determined to be a tollgate. It is determined whether part of E3 is no longer detected.
[0243]
As a result, as shown in FIG. 22, when the part e7 of the forward object E3 is no longer detected, the determination processing unit 13b determines that the vehicle 10 has approached the tollgate, and further determines that the own vehicle 10 has approached the tollgate. The other parts, that is, the protruding parts e1 to e6 are determined to be part of the tollgate.
[0244]
Further, the determination processing unit 13b counts the number of the protruding portions. As a result, as shown in FIG. 25, when the number of projecting portions becomes two or less, the determination processing unit 13b determines that the vehicle 10 is approaching the entrance of the tollgate.
[0245]
Further, the determination processing unit 13b measures the distance from the own vehicle 10 to the entrance based on the detection result information as the distance from the own vehicle 10 to the protruding portion of the tollgate.
[0246]
Here, the reason why the determination is possible will be described.
[0247]
That is, first, FIGS. 22 to 25 show a state in which the front environment recognition device 6 detects a front object while the vehicle 10 approaches the tollgate 32.
[0248]
Here, FIG. 22 shows the detection result t1 seconds after the front object E3 is detected, and FIG. 23 shows the detection result t2 seconds after the front object E3 is detected (t1 <t2).
[0249]
FIG. 24 shows the detection result at t3 seconds after the front object E3 is detected, and FIG. 25 shows the detection result at t4 seconds after the front object E3 is detected (t2 <t3 <t4). .
[0250]
As shown in FIGS. 22 to 25, as the vehicle 10 approaches the tollgate 32, the detected protruding portion decreases. If the number of detected protrusions is two or less, it can be said that the vehicle 10 has approached the entrance of the tollgate. Therefore, the determination can be made.
[0251]
Next, the determination processing unit 13b determines the type of another front object (for example, the front object A3) in the same manner as the above-described processing.
[0252]
Next, the determination processing unit 13b determines the distance from the host vehicle 10 to the front object determined to be a part of the tollgate, the size of each front object, the relative position to the host vehicle 10, the relative speed v, and the determination result. The result information is created, and the determination result information is stored in the memory 13a shown in FIG.
[0253]
Next, the determination processing unit 13b stores the determination result information in the memory 13a and outputs the information to the control unit 14.
[0254]
As described above, according to the sixth embodiment, the following effects can be obtained in addition to the effects of the fifth embodiment.
[0255]
That is, the forward environment recognition device 6 can accurately determine whether or not the vehicle 10 has approached the entrance of the tollgate (an effect corresponding to the invention described in claim 6).
[0256]
Further, the forward environment recognition device 6 can determine the optimal control content and the alarm content according to the result of the determination (an effect corresponding to the invention according to claim 7).
[0257]
(Seventh embodiment)
Next, a seventh embodiment according to the present invention (corresponding to the invention of claim 8 or 11) will be described with reference to the drawings.
[0258]
First, the configuration of the front environment recognition device 7 according to the seventh embodiment will be described with reference to FIG. 1 and FIGS. Here, FIG. 26 is a block diagram showing the configuration of the front environment recognition device 7, and FIGS. 27 to 28 are schematic diagrams showing the installation position of the camera 15 and the like.
[0259]
As shown in FIGS. 1 and 26, the forward environment recognition device 7 is obtained by adding the following components to the forward environment recognition device 5 or 6, and changing the processing contents of the determination processing unit 13b and the control unit 14. .
[0260]
Therefore, the description of the configuration of the front environment recognition device 7 will be made only for the added component, the discrimination processing unit 13b, and the control unit 14. The reference numerals of the components common to the front environment recognition device 5 or 6 are the same as those of the components of the front environment recognition device 5 or 6.
[0261]
As shown in FIG. 26, the forward environment recognition device 7 includes a camera (photographing means) 15, an object tracking processing unit (object tracking unit), in addition to the laser radar 11, the object detection unit 12, the object type determination unit 13, and the control unit 14. Processing unit) 16 and an integration processing unit (integration processing unit) 17.
[0262]
The determination processing unit 13b determines the type of the forward object and creates the determination result information, similarly to the forward environment recognition device 5 or 6. Then, the determination processing unit 13b stores the determination result information in the memory 13a and outputs the information to the integration processing unit 17.
[0263]
The control unit 14 determines the control content of the own vehicle 10 based on the integration result information (described later) provided from the integration processing unit 17.
[0264]
As shown in FIGS. 27 to 28, the camera 15 is attached to the front of the own vehicle 10 in the same direction as the laser radar 11. , "Forward video"). Then, the camera 15 outputs the obtained forward video to the object tracking processing unit 16 as video information.
[0265]
The object tracking processing unit 16 includes a memory 16a and a video processing unit 16b.
[0266]
The memory 16a stores the video information provided from the camera 15.
[0267]
The video processing unit 16b acquires the detection result information from the memory 12a, acquires the determination result information from the memory 13a, and further acquires the video information from the memory 16a. Then, the video processing unit 16b performs a template matching process or the like based on the information.
[0268]
Then, the video processing unit 16 b creates tracking result information on the processing result, and outputs the information to the integration processing unit 17.
[0269]
The integration processing unit 17 performs a predetermined determination process based on the determination result information provided from the determination processing unit 13b and the tracking result information provided from the video processing unit 16b.
[0270]
Then, the integration processing unit 17 creates integration result information on the result of the determination and outputs the information to the control unit 14.
[0271]
Next, the procedure of the process performed by the front environment recognition device 7 will be described with reference to FIGS.
[0272]
Here, FIG. 29 is a flowchart showing the procedure of processing by the forward environment recognition device 7, and FIGS. 32 to 33 show the actual width (size) W of the forward object and the width (size) on the forward image. It is explanatory drawing which showed the relationship with A).
[0273]
FIGS. 31, 35, 37, 39, and 41 are explanatory diagrams showing forward images acquired by the camera 15, and FIGS. 30, 34, 36, 38, and 40. FIG. 3 is a schematic plan view showing positions of a reflection point and a front object.
[0274]
The front environment recognition device 7 performs the processing according to the flowchart shown in FIG. 29, and the processing in steps S1b to S4b shown in FIG. 29 is the same as the processing in steps S1a to S4a shown in FIG.
[0275]
Therefore, in the seventh embodiment, processing other than the processing of steps S1b to S4b will be particularly described.
[0276]
Further, in the seventh embodiment, as shown in FIGS. 30 to 41, vehicles 22 to 25 and a tollgate 32 exist in the forward direction of the vehicle 10, and the vehicle 22 and the vehicle 10 are the same. The process when entering the toll gate entrance (hereinafter, referred to as “entrance”) will be described as an example.
[0277]
The front environment recognition device 7 can also perform the following processing in other cases.
[0278]
First, in the state shown in FIG. 30, the front environment recognition device 7 detects the front objects A3 to E3 in steps S1b to S4b shown in FIG.
[0279]
Further, the forward environment recognition device 7 determines the forward objects A3 to D3 as vehicles and determines the forward object E3 as a tollgate. Further, the protruding portions e1 to e6 of the forward object E3 are determined to be a part of the tollgate.
[0280]
As a result, in this example, since there is a tollgate, the forward environment recognition device 7 performs the processing after step S5b. On the other hand, when there is no tollgate, the forward environment recognition device 7 performs the process of step S11b.
[0281]
First, the processing in step S11b will be described.
[0282]
That is, in step S11b, the determination processing unit 13b creates determination result information on the size of each forward object, the relative position with respect to the own vehicle 10, the relative speed v, and the determination result, and stores the determination result information in FIG. The data is stored in the memory 13a shown in FIG.
[0283]
Next, the integration processing unit 17 outputs the determination result information provided from the determination processing unit 13b to the control unit 14.
[0284]
Next, the control unit 14 determines the control content and the warning content of the own vehicle 10 based on the determination result information.
[0285]
Next, processing after step S5b will be described.
[0286]
That is, in step S5b, the determination processing unit 13b determines the distance from the vehicle 10 to the front object determined to be a tollgate, the size of each front object, the relative position to the vehicle 10, the relative speed v, and the determination result. The determination result information is generated, and the determination result information is stored in the memory 13a shown in FIG.
[0287]
Next, in step S6b, the camera 15 captures an image of the front of the vehicle 10 and obtains the front image (the image shown in FIG. 31), that is, the front image, and stores the front image in the memory 16a as image information. save.
[0288]
Next, in step S7b, the video processing unit 16b acquires the detection result information from the memory 12a, acquires the determination result information from the memory 13a, and further acquires the video information from the memory 16a.
[0289]
Next, the video processing unit 16b determines a target forward object based on these pieces of information, and measures a distance Zc from the host vehicle 10 to the target (forward object).
[0290]
In this example, the video processing unit 16b targets the forward object A3 closest to the host vehicle 10, that is, the vehicle 22.
[0291]
Next, the video processing unit 16b creates target distance information regarding the measurement result of the distance Zc, and stores the target distance information in the memory 16a.
[0292]
Next, the video processing unit 16b measures the position of the target on the front video, and further calculates the width (size) A of the target on the front video (see FIG. 32).
[0293]
Here, an example of a method of calculating the target width A will be described below.
[0294]
That is, as shown in FIG. 33, the actual width W of the target, the width A of the target on the front image, the focal length F of the camera 15, and the distance Zc from the host vehicle 10 to the target. Has the relationship shown in the following equation (2).
[0295]
A = W * F / Zc (2)
Here, in this example, since the target is the vehicle 22, the width W is about 2 meters. Further, the focal length F is known, and the distance Zc is measured as described above.
[0296]
Therefore, the video processing unit 16b can calculate the width A by substituting the value of the width W, the value of the focal length F, and the value of the distance Zc into Expression (2).
[0297]
Next, the video processing unit 16b determines whether the calculated width A is larger than a predetermined reference value n4 for the width A.
[0298]
Here, the reference value n4 is determined in consideration of the calculation amount in the template matching process (the calculation amount is reduced when the reference value n4 is small) and the recognition accuracy (the recognition accuracy is improved when the reference value n4 is large). Is determined.
[0299]
As a result, when the width A is smaller than the reference value n4, the front environment recognition device 7 repeats the above-described processing from step S1b.
[0300]
On the other hand, when the width A is larger than the reference value n4, the video processing unit 16b performs the processing after step S8b, that is, the template matching processing and the like.
[0301]
That is, in step S8b, as shown in FIG. 31, the video processing unit 16b sets the target video as the template T1, and stores the template information related to the template T1 in the memory 16a.
[0302]
The template information includes information such as the size of the template. Further, the template may be any part of the target video, but in this example, the video on the entire rear surface of the target is used as the template T1.
[0303]
Next, the forward environment recognition device 7 repeats the processing of the above-described steps S1b to S6b.
[0304]
Next, in the determination processing unit 13b, the video processing unit 16b acquires the detection result information from the memory 12a, acquires the determination result information from the memory 13a, and further acquires the video information from the memory 16a.
[0305]
Next, the video processing unit 16b measures the distance Zc from the vehicle 10 to the target based on the information.
[0306]
Next, the video processing unit 16b enlarges or reduces the template T1 according to the measured distance Zc.
[0307]
Specifically, the video processing unit 16b enlarges the template T1 when the distance Zc is short, and enlarges the template T1 when the distance Zc is long.
[0308]
Here, in the state shown in FIG. 34, FIG. 35 shows a forward image acquired by the camera 15 when the forward environment recognizing device 7 repeatedly performs the processing after step S1b. In this case, since the distance Zc is shorter than the case shown in FIGS. 30 and 31, the template T1 is enlarged.
[0309]
Next, the video processing unit 16b acquires the video information acquired by the repetition processing from the memory 16a, and finds the same target video as the template T1 from the video information.
[0310]
Thereby, the video processing unit 16b measures the position of the target video on the front video. That is, the video processing unit 16b recognizes the trajectory of the target on the front video.
[0311]
Next, the video processing unit 16b acquires the determination result information from the memory 13a, and determines whether the number of entrances into which the vehicle 10 can enter is determined to be one based on the determination result information.
[0312]
Here, the video processing unit 16b determines that the distance from the vehicle 10 to the tollgate is shorter than a predetermined distance or that the vehicle 10 is approaching the entrance of the tollgate. It is determined that the number of entrances into which the vehicle 10 can enter is determined to be one. Here, the predetermined distance is predetermined.
[0313]
As a result, when the number of the entrance is not determined to be one, the front environment recognizing device 7 repeats the above-described processing after step S8b.
[0314]
In this example, until the state shown in FIG. 40 is reached, the forward environment recognition device 7 repeats the processing from step S8b described above.
[0315]
In the state shown in FIGS. 36, 38, and 40, when the front environment recognition device 7 performs the processing after step S8b described above, the images acquired by the camera 15 are shown in FIGS. And FIG. 41.
[0316]
Here, in the repetitive processing, as shown in FIG. 37 and the like, when the distance Zc becomes shorter than the state shown in FIG. 34 and the template T1 becomes larger, the video processing unit 16b The target image is changed to a smaller target image, and the target image is used as a template T2.
[0317]
In this example, as shown in FIG. 37 and the like, the template T2 is a video of the license plate of the vehicle 22.
[0318]
In the repetitive processing, in the case shown in FIG. 40, since the reflection point is not detected from the target vehicle 22, the distance Zc cannot be measured by the above-described method.
[0319]
Such a case may occur, for example, when the reflex reflector of the vehicle 22 is out of the detectable range 11c of the laser radar 11. This is because, depending on the vehicle, a portion other than the reflex reflector may not sufficiently reflect the laser light.
[0320]
In this case, the video processing unit 16b calculates the distance Zc as follows.
[0321]
That is, the video processing unit 16b acquires the target distance information and the template information created in a state where the reflection point is detected from the vehicle 22 (for example, a state illustrated in FIG. 36).
[0322]
Next, based on the target information, the video processing unit 16b recognizes a distance Zc (hereinafter, referred to as “distance Zc1”) measured in a state where the reflection point is detected from the vehicle 22.
[0323]
Next, the video processing unit 16b measures the size of the target license plate video in the state based on the template information. The image processing unit 16b measures the size of the license plate image of the target in the state shown in FIG.
[0324]
Next, the video processing unit 16b calculates the rate of change in the size of the license plate video.
[0325]
Next, the video processing unit 16b calculates the distance Zc using the following equation (3).
[0326]
Zc = Zc1 / (change rate of size of license plate image) (3)
On the other hand, when the number of entrances to which the own vehicle 10 can enter is determined to be one (in this example, the case shown in FIG. 40), the front environment recognition device 7 performs the following processing.
[0327]
That is, in step S9b, the image processing unit 16b determines the size of the target on the front image (the size of the license plate image in this example) in the case shown in FIG. Is compared with a predetermined reference value n5.
[0328]
As a result, when the size is smaller than the reference value n5, the front environment recognition device 7 repeats the processing from step S8b described above.
[0329]
On the other hand, when the size is larger than the reference value n5 (in this example, the case shown in FIG. 40), the video processing unit 16b creates information to that effect and tracking result information on the measured distance Zc. .
[0330]
Next, the video processing unit 16b stores the created follow-up result information in the memory 16a and outputs the information to the integration processing unit 17.
[0331]
Next, in step S10b, when the tracking result information is provided from the video processing unit 16b, the integration processing unit 17 determines the tracking result information based on the tracking result information and the determination result information provided from the determination processing unit 13b. It is determined that the target and the vehicle 10 enter the same entrance.
[0332]
Next, the integration processing unit 17 creates integrated result information relating to the determination result and outputs the integrated result information to the control unit 14. The control unit 14 determines control content and alarm information based on the integrated result information.
[0333]
As described above, according to the seventh embodiment, the following effects can be obtained in addition to the effects of any of the fifth to sixth embodiments.
[0334]
That is, the forward environment recognition device 7 can accurately determine whether the forward object and the own vehicle 10 enter the same entrance (an effect corresponding to the invention according to claim 8).
[0335]
In particular, even when the vehicle 10 approaches the front object and the reflection point from the front object is not detected (see FIG. 40), the front environment recognition device 7 uses the front image to recognize the front object. It is possible to accurately determine whether to enter the same entrance as the vehicle 10 (an effect corresponding to the invention described in claim 8).
[0336]
Further, the forward environment recognition device 7 can determine the control content and the warning content according to the result of the determination (an effect corresponding to the invention according to claim 11).
[0337]
Accordingly, for example, when the own vehicle 10 is equipped with the ETC, the forward environment recognition device 7 prevents the useless brake operation from being performed when no vehicle exists in front of the own vehicle 10 when passing through the gate. Can be prevented.
[0338]
(Eighth embodiment)
Next, an eighth embodiment (corresponding to the invention of claim 9 or 11) according to the present invention will be described with reference to the drawings.
[0339]
As shown in FIG. 1 and FIG. 26, the forward environment recognition device 8 according to the eighth embodiment controls the video processing unit 16b and the integration processing unit 17 of the forward environment recognition device 7 to perform the following processing in addition to the above processing. Is performed.
[0340]
Therefore, in the eighth embodiment, the description of the configuration of the front environment recognition device 8 is omitted, and the reference numerals of the respective components of the front environment recognition device 8 are replaced with the reference numerals of the respective components of the front environment recognition device 7. And the same as
[0341]
Next, the procedure of the process performed by the front environment recognition device 8 will be described with reference to FIG. 29 and FIGS.
[0342]
Here, FIG. 42, FIG. 44, FIG. 46, FIG. 48, and FIG. 50 are schematic plan views showing the positions of the reflection point and the front object, and FIG. 43, FIG. 45, FIG. Reference numeral 51 is an explanatory diagram showing a forward image acquired by the camera 15.
[0343]
The process by the front environment recognition device 8 is the same as the process by the front environment recognition device 7 except that the following processes are added to the above-described processes of steps S9b to S10b.
[0344]
Therefore, in the eighth embodiment, the added processing will be particularly described.
[0345]
That is, when the entrance into which the vehicle 10 can enter is determined to be one by the processing of step S8b, the video processing unit 16b draws a horizontal edge in the forward video acquired by the camera 15 in step S9b. To determine if they have been
[0346]
Next, the video processing unit 16b includes the result of the determination in the tracking result information described above.
[0347]
Here, FIG. 41 shows an example where a horizontal edge is drawn, and FIG. 51 shows an example where a horizontal edge is not drawn. FIG. 41 illustrates a horizontal edge 22 a corresponding to the lower end surface of the vehicle 22. On the other hand, FIG. 51 does not illustrate the horizontal edge.
[0348]
Next, the video processing unit 16b stores the tracking result information in the memory 16a and outputs the tracking result information to the integration processing unit 17.
[0349]
Next, in step S10b, the integration processing unit 17 determines whether or not a vehicle exists in front of the own vehicle 10 based on the tracking result information given from the video processing unit 16b, that is, whether the own vehicle 10 and the vehicle 22 It is determined whether to enter the same entrance.
[0350]
Specifically, as illustrated in FIG. 41, when the horizontal edge 22a is drawn in the forward image, the integration processing unit 17 determines that the vehicle exists in front of the own vehicle 10, that is, the own vehicle 10 and the vehicle Is determined to enter the same entrance.
[0351]
On the other hand, when the horizontal edge is not drawn in the forward image as shown in FIG. 51, the integration processing unit 17 determines that no vehicle exists in front of the own vehicle 10, that is, the own vehicle 10 and the vehicle are at different entrances. It is determined to enter. Since the image of the vehicle always has a horizontal edge, the determination can be made.
[0352]
Next, the integration processing unit 17 creates integrated result information regarding the determination result and outputs the integrated result information to the control unit 14. The control unit 14 determines optimal control contents and alarm information based on the integrated result information.
[0353]
Here, in the case where the horizontal edge is not drawn in the forward image, as shown in FIGS. 42 to 51, the vehicles 22 to 25 and the tollgate 32 exist ahead of the own vehicle 10 in the traveling direction, and the vehicle 22 The case where the vehicle 10 enters a different entrance will be described as an example.
[0354]
In this case, the front environment recognition device 8 first detects the front objects A3 to E3 as shown in FIG. 42 in steps S1b to S4b shown in FIG.
[0355]
Then, the forward environment recognition device 8 determines the forward objects A3 to D3 as vehicles, determines the forward object E3 as a tollgate, and determines the protruding portions e1 to e6 of the forward object E3 as a part of the tollgate.
[0356]
Next, as shown in FIGS. 42, 44, 46, 48, and 50, the front environment recognition device 8 performs the processing of steps S <b> 1 b to S <b> 8 b until the number of entrances to which the vehicle 10 can enter is determined to be one. Is repeated.
[0357]
When the repetition processing is performed in FIGS. 42, 44, 46, 48, and 50, the images acquired by the camera 15 are respectively shown in FIGS. 43, 45, 47, 49, and 49. Shown at 51.
[0358]
Here, as shown in FIGS. 42 to 45, the front environment recognition device 8 performs the template matching process in the state shown in FIGS. 42 and 44 using the entire image of the rear surface of the vehicle 22 as the template T3 in the repeated process. Do.
[0359]
As a result, the video processing unit 16b recognizes that the vehicle 22 is moving to the left with respect to the traveling direction of the vehicle 10.
[0360]
Therefore, as shown in FIGS. 46 to 51, the front environment recognition device 8 converts the image of the right tail lamp of the vehicle 22 into a template in the state shown in FIGS. 46 and 48 (the state in which the own vehicle 10 approaches the vehicle 22). T4.
[0361]
Here, the reason why the right tail lamp is set to the template T4 is that when the vehicle 22 is moving to the left with respect to the traveling direction of the vehicle 10, the camera 15 shoots the right tail lamp for a longer time than other parts. This is because (see FIG. 49).
[0362]
As a result, the video processing unit 16b recognizes that the vehicle 22 moves outside the detectable range 11c of the laser radar 11 and the photographable range of the camera 15 (see FIGS. 49 and 51).
[0363]
As shown in FIG. 48, since the vehicle 22 has moved out of the detectable range 11c of the laser radar 11, new reflection points e31 and e41 are detected by the laser radar 11.
[0364]
Next, as shown in FIG. 50, after the entrance into which the vehicle 10 can enter is determined to be one, as shown in FIG. 50, the image processing unit 16b determines whether or not a horizontal edge is drawn in the forward image in step S9b. Then, follow-up result information on the result of the determination is created.
[0365]
Note that FIG. 50 shows that the tollgate box 32a exists on the right side of the protruding portion e4.
[0366]
In this example, as shown in FIG. 51, the video processing unit 16b creates follow-up result information indicating that no horizontal edge is drawn in the forward video.
[0367]
Next, the video processing unit 16b stores the created follow-up result information in the memory 16a and outputs the information to the integration processing unit 17.
[0368]
Next, in step S10b, the integration processing unit 17 determines that the target and the host vehicle 10 enter different entrances based on the tracking result information provided from the video processing unit 16b.
[0369]
Next, the integration processing unit 17 creates integrated result information relating to the determination result and outputs the integrated result information to the control unit 14. The control unit 14 determines control content and alarm information based on the integrated result information.
[0370]
As described above, according to the eighth embodiment, the following effects can be obtained in addition to the effects of the seventh embodiment.
[0371]
That is, the forward environment recognition device 8 can accurately determine whether the vehicle and the own vehicle 10 have entered the same entrance (an effect corresponding to the ninth aspect of the present invention).
[0372]
Further, the forward environment recognition device 8 can determine the control content and the alarm information according to the result of the determination (an effect corresponding to the invention according to claim 11).
[0373]
In addition, the integration processing unit 17 is only provided when the vehicle 22 moves out of the detectable range 11c of the laser radar 11, and thereafter, a forward object is detected in front of the own vehicle 10 and a horizontal edge is not drawn. It may be determined that there is no vehicle in front of the vehicle 10.
[0374]
In this case, the integration processing unit 17 can more reliably determine whether or not a vehicle exists in front of the vehicle 10.
[0375]
(Ninth embodiment)
Next, a ninth embodiment according to the present invention (corresponding to the invention of claim 10 or 11) will be described with reference to the drawings.
[0376]
As shown in FIG. 1 and FIG. 26, the forward environment recognition device 9 according to the ninth embodiment includes the following Is performed.
[0377]
Therefore, in the ninth embodiment, the description of the configuration of the front environment recognition device 9 is omitted, and the reference numerals of the respective components of the front environment recognition device 9 are replaced with the reference numerals of the respective components of the front environment recognition device 7. And the same as
[0378]
Next, a procedure of processing by the front environment recognition device 9 will be described with reference to FIGS. 29, 40 to 41, and 52 to 54.
[0379]
Here, FIG. 52 and FIG. 54 are schematic plan views showing the positions of the reflection points and the front objects when the vehicle 10 is present near the tollgate. FIG. 53 is the state shown in FIG. FIG. 4 is an explanatory diagram showing a forward image acquired by a camera 15.
[0380]
The process performed by the front environment recognition device 9 is the same as the process performed by the front environment recognition device 8 except that the following process is added to the process of step S10b described above.
[0381]
Thus, in the ninth embodiment, the added processing will be particularly described.
[0382]
That is, in step S10b, the integration processing unit 17 performs the following processing based on the tracking result information provided from the video processing unit 16b.
[0383]
That is, when the horizontal edge is drawn, the integration processing unit 17 predicts that the vehicle G exists in front of the own vehicle 10 as shown in FIG. FIGS. 41 and 53 show examples in which a horizontal edge is drawn.
[0384]
In FIG. 41, a horizontal edge 22a corresponding to the lower end surface of the vehicle 22 is depicted, and in FIG. 53, a horizontal edge 100 corresponding to the road surface is depicted. That is, even when there is no vehicle in front of the own vehicle 10, a horizontal edge may be drawn in the forward image.
[0385]
However, as shown in FIG. 40, in the state shown in FIG. 41, the host vehicle 10 approaches the vehicle 22, and the vehicle 22 blocks the laser beam from the laser radar 11, so that no forward object is detected.
[0386]
On the other hand, as shown in FIG. 54, in the state shown in FIG. 53, the front objects e7 to e8 (corresponding to the pillars of the tollgate) are detected. A toll booth box 32a exists on the right side of the forward object e8.
[0387]
Next, the integration processing unit 17 acquires the reflection point information from the memory 12a, and based on the reflection point information, determines whether the laser radar 11 has detected a reflection point that is not detected when the vehicle G actually exists. Judge whether or not.
[0388]
Next, the integration processing unit 17 determines that the vehicle G does not exist when the laser radar 11 detects the reflection point, and determines that the vehicle G does not exist when the laser radar 11 does not detect the reflection point. It is determined that the vehicle G exists.
[0389]
For example, in the case shown in FIG. 41, as shown in FIG. 40, since the reflection point is not detected, it is determined that the vehicle G exists.
[0390]
On the other hand, in the case shown in FIG. 53, as shown in FIG. 52, a reflection point (a reflection point included in the front objects e7 to e8) is detected. Is a reflection point that is not detected.
[0391]
This is because, as shown in FIG. 52, when the vehicle G is actually present, the vehicle G blocks the laser beam, so that the reflection point is not detected.
[0392]
In this case, since the laser radar 11 detects a reflection point that is not detected when the vehicle G actually exists, the integration processing unit 17 determines that the vehicle G exists.
[0393]
Next, the integration processing unit 17 creates integrated result information relating to the determination result and outputs the integrated result information to the control unit 14. The control unit 14 determines control content and alarm information based on the integrated result information.
[0394]
As described above, according to the ninth embodiment, the following effects can be obtained in addition to the effects of the eighth embodiment.
[0395]
That is, when the horizontal edge corresponding to the road surface is drawn in the front image, the front environment recognition device 9 can reliably prevent the determination that the vehicle is present in front of the host vehicle 10.
[0396]
Therefore, the front environment recognition device 9 can more accurately determine whether the vehicle and the own vehicle 10 have entered the same entrance (an effect corresponding to the invention according to claim 10).
[0397]
Further, the forward environment recognition device 9 can determine the control content and the alarm information according to the result of the determination (an effect corresponding to the invention according to claim 11).
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a forward environment recognition device.
FIG. 2 is a schematic side view showing an installation position of a laser radar.
FIG. 3 is a schematic plan view showing an installation position of a laser radar.
FIG. 4 is a schematic side view showing a detectable range of the laser radar.
FIG. 5 is a schematic side view showing a detectable range of the laser radar.
FIG. 6 is a flowchart showing a procedure of processing by the forward environment recognition device.
FIG. 7 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 8 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 9 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 10 is an explanatory diagram showing a state in front of the own vehicle.
FIG. 11 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 12 is an explanatory diagram showing a state in front of the own vehicle.
FIG. 13 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 14 is an explanatory diagram showing a state in front of the own vehicle.
FIG. 15 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 16 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 17 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 18 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 19 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 20 is a graph showing a position distribution of a reflection point.
FIG. 21 is a graph showing an intensity distribution of a reflection point.
FIG. 22 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 23 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 24 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 25 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 26 is a block diagram illustrating a configuration of a forward environment recognition device.
FIG. 27 is a schematic side view showing installation positions of a laser radar and a camera.
FIG. 28 is a schematic plan view showing installation positions of a laser radar and a camera.
FIG. 29 is a flowchart showing a procedure of processing by the forward environment recognition device.
FIG. 30 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 31 is an explanatory diagram showing a forward image acquired by a camera.
FIG. 32 is an explanatory diagram showing a forward image acquired by a camera.
FIG. 33 is an explanatory diagram showing a method of calculating the width of a target image.
FIG. 34 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 35 is an explanatory diagram showing a forward image acquired by a camera.
FIG. 36 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 37 is an explanatory diagram showing a forward image acquired by a camera.
FIG. 38 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 39 is an explanatory diagram showing a forward image acquired by a camera.
FIG. 40 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 41 is an explanatory diagram showing a forward image acquired by a camera.
FIG. 42 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 43 is an explanatory diagram showing a forward image acquired by a camera.
FIG. 44 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 45 is an explanatory diagram showing a forward image acquired by a camera.
FIG. 46 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 47 is an explanatory diagram showing a forward image acquired by a camera.
FIG. 48 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 49 is an explanatory diagram showing a forward image acquired by a camera.
FIG. 50 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 51 is an explanatory diagram showing a forward image acquired by a camera.
FIG. 52 is a schematic plan view showing positions of a reflection point and a front object.
FIG. 53 is an explanatory diagram showing a forward image acquired by a camera.
FIG. 54 is a schematic plan view showing positions of a reflection point and a front object.
[Explanation of symbols]
1-9 Forward environment recognition device
10 own car
11 Scanning laser radar (reflection point detection means)
12 Object detection unit (object detection means)
13 Object type discrimination unit (object type discrimination means)
14 control unit (control content determining means)
15 Camera (photographing means)
16 Object tracking processing unit (object tracking processing means)
17 Integrated processing unit (Integrated processing means)
22a, 100 horizontal edge
30-34 Toll gate
50 overhead sign

Claims (13)

自車の進行方向前方を所定の検出波にてスキャニングして、当該検出波を反射した反射点を検出し、当該反射点の自車に対する相対位置を測定する反射点検出手段を備えた前方環境認識装置において、
前記反射点のうち互いに近接した反射点が同一物体上の点であると予測することで、前方物体を検出する物体検出手段と、
前記前方物体に含まれる反射点の数を測定し、前記反射点の数が、当該反射点の数について予め定められた基準値より大きい場合には、前記前方物体を料金所と判定する物体種類判別手段と、を備えていることを特徴とする前方環境認識装置。
A forward environment including a reflection point detecting means for scanning the front of the own vehicle in the traveling direction with a predetermined detection wave, detecting a reflection point reflecting the detection wave, and measuring a relative position of the reflection point with respect to the own vehicle. In the recognition device,
By detecting that reflection points close to each other among the reflection points are points on the same object, an object detection unit that detects a forward object,
The number of reflection points included in the front object is measured. If the number of the reflection points is larger than a predetermined reference value for the number of the reflection points, the type of the object that determines the front object as a toll gate A forward environment recognition device, comprising: a determination unit.
請求項1記載の前方環境認識装置において、
前記物体種類判別手段は、前記前方物体に含まれる反射点から自車までの距離を測定して、これら距離の分布度を算出し、
前記前方物体に含まれる反射点の数が、当該反射点の数について予め定められた基準値より大きく、
且つ、前記距離の分布度が、当該距離の分布度について予め定められた基準値より大きい場合には、前記前方物体を料金所と判定することを特徴とする前方環境認識装置。
The forward environment recognition device according to claim 1,
The object type determination means measures the distance from the reflection point included in the front object to the vehicle, and calculates the distribution of these distances.
The number of reflection points included in the front object is greater than a predetermined reference value for the number of reflection points,
In addition, when the distribution of the distance is larger than a predetermined reference value for the distribution of the distance, the front object is determined to be a tollgate, and the front environment recognition device is characterized in that the preceding environment is determined.
請求項1記載の前方環境認識装置において、
前記物体種類判別手段は、前記前方物体に含まれる反射点から自車までの距離を測定して、これら距離の分布度を算出し、
前記前方物体に含まれる反射点にて反射された検出波の強度を測定して、これら強度の分布度を算出し、
前記前方物体に含まれる反射点の数が、当該反射点の数について予め定められた基準値より大きく、
且つ、前記距離の分布度が、当該距離の分布度について予め定められた基準値より大きいか、または、前記強度の分布度が、当該強度の分布度について予め定められた基準値より大きい場合には、前記前方物体を料金所と判定することを特徴とする前方環境認識装置。
The forward environment recognition device according to claim 1,
The object type determination means measures the distance from the reflection point included in the front object to the vehicle, and calculates the distribution of these distances.
Measure the intensity of the detection wave reflected at the reflection point included in the front object, calculate the distribution of these intensities,
The number of reflection points included in the front object is greater than a predetermined reference value for the number of reflection points,
And, if the distribution of the distance is larger than a predetermined reference value for the distribution of the distance, or if the distribution of the intensity is larger than a predetermined reference value for the distribution of the intensity. Is a front environment recognition device, wherein the front object is determined as a toll gate.
請求項1〜3の何れか1項に記載の前方環境認識装置において、
前記物体種類判別手段は、前記前方物体に含まれる反射点の数が、当該反射点の数について予め定められた基準値より大きく、かつ、当該前方物体が、自車の進行方向に突出した突出部分を含んでいる場合には、前記前方物体を料金所と判定することを特徴とする前方環境認識装置。
The forward environment recognition device according to any one of claims 1 to 3,
The object type determining means may be configured such that the number of reflection points included in the front object is larger than a predetermined reference value for the number of reflection points, and the front object protrudes in the traveling direction of the own vehicle. A forward environment recognizing device comprising: determining a forward object as a toll booth when a part is included.
請求項4記載の前方環境認識装置において、
前記物体種類判別手段は、料金所と判定された前方物体について、前記突出部分以外の部分が検出されなくなった場合には、自車が前記料金所に接近していると判定することを特徴とする前方環境認識装置。
The forward environment recognition device according to claim 4,
The object type determining means determines that the own vehicle is approaching the tollgate when a portion other than the protruding portion is not detected for the forward object determined to be a tollgate. Forward environment recognition device.
請求項5記載の前方環境認識装置において、
前記物体種類判別手段は、検出された突出部分の数が二つ以下になった場合には、自車が前記料金所の入り口に接近していると判定することを特徴とする前方環境認識装置。
The forward environment recognition device according to claim 5,
The forward environment recognizing device, wherein the object type determining means determines that the own vehicle is approaching the entrance of the tollgate when the number of detected protruding portions is two or less. .
請求項1〜6の何れか1項に記載の前方環境認識装置において、
前記物体種類判別手段による判定の結果に基づいて、自車の制御内容を決定する制御内容決定手段を備えていることを特徴とする前方環境認識装置。
The forward environment recognition device according to any one of claims 1 to 6,
A forward environment recognizing device comprising a control content determining means for determining the control content of the own vehicle based on a result of the determination by the object type determining means.
請求項5または6記載の前方環境認識装置において、
自車の進行方向前方を撮影して、当該前方の映像を取得する撮影手段と、
前記物体種類判別手段により自車が料金所に接近していると判定された場合に、前記映像手段により撮影された前方物体の前記映像上での大きさを測定する前方物体追従処理手段と、
前記大きさが、当該大きさについて予め定められた基準値よりも大きい場合には、前記前方物体及び自車が同一の料金所入り口に進入すると判定する統合処理手段と、を備えることを特徴とする前方環境認識装置。
The forward environment recognition device according to claim 5 or 6,
Photographing means for photographing the front of the own vehicle in the traveling direction and acquiring an image of the front;
Forward object tracking processing means for measuring the size of the forward object photographed by the image means on the image when it is determined that the vehicle is approaching the tollgate by the object type determination means,
When the size is larger than a reference value predetermined for the size, integrated processing means for determining that the forward object and the vehicle enter the same toll gate entrance are provided. Forward environment recognition device.
請求項8記載の前方環境認識装置において、
前記統合処理手段は、前記映像に水平エッジが描かれている場合には、自車前方に車両が存在すると判定することを特徴とする前方環境認識装置。
The forward environment recognition device according to claim 8,
The forward environment recognition device, wherein the integrated processing means determines that a vehicle exists in front of the own vehicle when a horizontal edge is drawn in the image.
請求項9記載の前方環境認識装置において、
前記統合処理手段は、前記画像に水平エッジが描かれている場合には、自車前方に車両が存在すると予測し、
前記反射点検出手段が、前記車両が実際に存在する場合には検出されない反射点を検出した場合には、自車前方に車両が存在しないと判定することを特徴とする前方環境認識装置。
The forward environment recognition device according to claim 9,
The integration processing means predicts that a vehicle exists in front of the own vehicle when a horizontal edge is drawn in the image,
A forward environment recognition device, wherein the reflection point detecting means determines that no vehicle exists in front of the own vehicle when detecting a reflection point that is not detected when the vehicle actually exists.
請求項8〜10の何れか1項に記載の前方環境認識装置において、
前記統合処理手段による判定の結果に基づいて、自車の制御内容を決定する制御内容決定手段を備えていることを特徴とする前方環境認識装置。
The forward environment recognition device according to any one of claims 8 to 10,
A forward environment recognizing device comprising a control content determining means for determining the control content of the own vehicle based on a result of the determination by the integration processing means.
自車の進行方向前方を所定の検出波にてスキャニングして、当該検出波を反射した反射点を検出し、当該反射点の自車に対する相対位置を測定する反射点検出工程と、
前記反射点のうち互いに近接した反射点が同一物体上の点であると予測することで、前方前方物体を検出する物体検出工程と、
前記前方物体に含まれる反射点の数を測定し、前記反射点の数が、当該反射点の数について予め定められた基準値より大きい場合には、前記前方物体を料金所と判定する物体種類判別工程と、を備えることを特徴とする前方環境認識方法。
Scanning the front of the own vehicle in the traveling direction with a predetermined detection wave, detecting a reflection point reflecting the detection wave, and measuring a relative position of the reflection point with respect to the own vehicle, a reflection point detection step,
By predicting that reflection points close to each other among the reflection points are points on the same object, an object detection step of detecting a front forward object,
The number of reflection points included in the front object is measured. If the number of the reflection points is larger than a predetermined reference value for the number of the reflection points, the type of the object that determines the front object as a toll gate And a discriminating step.
請求項12記載の前方環境認識方法において、
前記物体種類判別工程では、前記前方物体に含まれる反射点から自車までの距離を測定して、これら距離の分布度を算出し、
前記前方物体に含まれる反射点の数が、当該反射点の数について予め定められた基準値より大きく、
且つ、前記距離の分布度が、当該距離の分布度について予め定められた基準値より大きい場合には、前記前方物体を料金所と判定することを特徴とする前方環境認識方法。
The forward environment recognition method according to claim 12,
In the object type determination step, the distance from the reflection point included in the front object to the vehicle is measured, and the distribution of these distances is calculated.
The number of reflection points included in the front object is greater than a predetermined reference value for the number of reflection points,
In addition, when the distribution of the distance is larger than a predetermined reference value for the distribution of the distance, the front object is determined to be a tollgate, and a front environment recognition method is provided.
JP2002225041A 2002-08-01 2002-08-01 Forward environment recognizing device and forward environment recognizing method Pending JP2004069328A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002225041A JP2004069328A (en) 2002-08-01 2002-08-01 Forward environment recognizing device and forward environment recognizing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002225041A JP2004069328A (en) 2002-08-01 2002-08-01 Forward environment recognizing device and forward environment recognizing method

Publications (1)

Publication Number Publication Date
JP2004069328A true JP2004069328A (en) 2004-03-04

Family

ID=32012832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002225041A Pending JP2004069328A (en) 2002-08-01 2002-08-01 Forward environment recognizing device and forward environment recognizing method

Country Status (1)

Country Link
JP (1) JP2004069328A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016103464A1 (en) * 2014-12-26 2017-05-25 三菱電機株式会社 Obstacle detection device and obstacle detection method
JP2019509552A (en) * 2016-02-03 2019-04-04 本田技研工業株式会社 Detection of partially occluded objects using context and depth order
JP2019533133A (en) * 2017-08-25 2019-11-14 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド Method and system for detecting vehicle environmental information

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225276A (en) * 1994-02-10 1995-08-22 Mitsubishi Electric Corp Optical radar apparatus for vehicle
JPH09292464A (en) * 1996-04-30 1997-11-11 Tokyu Car Corp Method and device for judging dimension of object body and method and device for detecting range by laser radar
JPH10100820A (en) * 1996-09-30 1998-04-21 Mazda Motor Corp Moving object identifying device for vehicle
JPH10509512A (en) * 1994-10-14 1998-09-14 エアポート テクノロジー イン スカンジナビア アクチボラゲツト Aircraft identification and docking guidance system
JP2001116545A (en) * 1999-10-18 2001-04-27 Toyota Central Res & Dev Lab Inc Distance image calculator
JP2001296357A (en) * 2000-04-14 2001-10-26 Fujitsu Ten Ltd Object detecting apparatus
JP2001310650A (en) * 2000-04-28 2001-11-06 Honda Motor Co Ltd Travel control device for vehicle
JP2002029348A (en) * 2000-07-17 2002-01-29 Honda Motor Co Ltd Outside recognizer for vehicle
JP2002117392A (en) * 2000-10-06 2002-04-19 Nissan Motor Co Ltd Inter-vehicle distance estimation device
JP2002122669A (en) * 2000-10-18 2002-04-26 Nissan Motor Co Ltd Object position detecting method
JP2002181936A (en) * 2000-12-11 2002-06-26 Nissan Motor Co Ltd Method and apparatus for measurement of position of obstacle
JP2003270348A (en) * 2002-03-12 2003-09-25 Nissan Motor Co Ltd Object type determination method for reflective object on traveling route

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225276A (en) * 1994-02-10 1995-08-22 Mitsubishi Electric Corp Optical radar apparatus for vehicle
JPH10509512A (en) * 1994-10-14 1998-09-14 エアポート テクノロジー イン スカンジナビア アクチボラゲツト Aircraft identification and docking guidance system
JPH09292464A (en) * 1996-04-30 1997-11-11 Tokyu Car Corp Method and device for judging dimension of object body and method and device for detecting range by laser radar
JPH10100820A (en) * 1996-09-30 1998-04-21 Mazda Motor Corp Moving object identifying device for vehicle
JP2001116545A (en) * 1999-10-18 2001-04-27 Toyota Central Res & Dev Lab Inc Distance image calculator
JP2001296357A (en) * 2000-04-14 2001-10-26 Fujitsu Ten Ltd Object detecting apparatus
JP2001310650A (en) * 2000-04-28 2001-11-06 Honda Motor Co Ltd Travel control device for vehicle
JP2002029348A (en) * 2000-07-17 2002-01-29 Honda Motor Co Ltd Outside recognizer for vehicle
JP2002117392A (en) * 2000-10-06 2002-04-19 Nissan Motor Co Ltd Inter-vehicle distance estimation device
JP2002122669A (en) * 2000-10-18 2002-04-26 Nissan Motor Co Ltd Object position detecting method
JP2002181936A (en) * 2000-12-11 2002-06-26 Nissan Motor Co Ltd Method and apparatus for measurement of position of obstacle
JP2003270348A (en) * 2002-03-12 2003-09-25 Nissan Motor Co Ltd Object type determination method for reflective object on traveling route

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016103464A1 (en) * 2014-12-26 2017-05-25 三菱電機株式会社 Obstacle detection device and obstacle detection method
JP2019509552A (en) * 2016-02-03 2019-04-04 本田技研工業株式会社 Detection of partially occluded objects using context and depth order
JP2019533133A (en) * 2017-08-25 2019-11-14 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド Method and system for detecting vehicle environmental information
US10824880B2 (en) 2017-08-25 2020-11-03 Beijing Voyager Technology Co., Ltd. Methods and systems for detecting environmental information of a vehicle

Similar Documents

Publication Publication Date Title
US7633433B2 (en) Method for detecting and documenting traffic violations at a traffic light
JP5371273B2 (en) Object detection device, periphery monitoring device, driving support system, and object detection method
US20050100192A1 (en) Moving object detection using low illumination depth capable computer vision
KR102052840B1 (en) Methods for identifying objects within the surrounding area of the motor vehicle, driver assistance system, and the motor vehicle
JP2003084064A (en) Device and method for recognizing vehicle in front side
JP2004053278A (en) Front vehicle tracking system and front vehicle tracking method
US20090034798A1 (en) Method for recognition of an object
JP2008304344A (en) Target detector
JP2006258497A (en) Object recognition apparatus for vehicle
CN111052201B (en) Collision prediction device, collision prediction method, and storage medium
JP2017207973A (en) Detector and detection method
JP2018197966A (en) Travel support method and travel support device
JP2000266539A (en) Inter-vehicle distance measuring apparatus
JP2021196939A (en) On-vehicle sensor system
CN111742235A (en) Method and system for identifying an empty parking space suitable for a vehicle
JP2002303671A (en) Object-classification discrimination apparatus
JPH1063991A (en) Vehicle tracking device and traffic control system using the device
JP2007279805A (en) Obstacle collision determination device and obstacle collision alarm system
JP2004069328A (en) Forward environment recognizing device and forward environment recognizing method
EP4024330A1 (en) Object recognition method and object recognition device
JP3954053B2 (en) Vehicle periphery monitoring device
JP2011149856A (en) Object discrimination method and object discrimination device
JP3498532B2 (en) Vehicle shape discriminator
JP2015004543A (en) Vehicle position recognition device
JP2006258507A (en) Apparatus for recognizing object in front

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070320

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070619