JP2004020492A - Front object recognition device - Google Patents
Front object recognition device Download PDFInfo
- Publication number
- JP2004020492A JP2004020492A JP2002178825A JP2002178825A JP2004020492A JP 2004020492 A JP2004020492 A JP 2004020492A JP 2002178825 A JP2002178825 A JP 2002178825A JP 2002178825 A JP2002178825 A JP 2002178825A JP 2004020492 A JP2004020492 A JP 2004020492A
- Authority
- JP
- Japan
- Prior art keywords
- detection target
- recognition device
- detection
- reflection
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/80—Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
- Y02T10/84—Data processing systems or methods, management, administration
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、自車の進行方向の前方に存在する検出対象物の種類を判定する前方物体認識装置に関する。
【0002】
【従来の技術】
従来より、自車の前方に存在する検出対象物の種類を判定する前方物体認識装置として、例えば特開平2000−132799号公報に記載された前方物体認識装置が知られている。
【0003】
この前方物体認識装置は、自車に搭載されたミリ波レーダで自車前方を所定時間毎に数回スキャニングして、自車前方に存在する検出対象物を検出する。
【0004】
そして、前方物体認識装置は、スキャニング毎に検出対象物の検出位置が変わることを利用して検出対象物の自車に対する相対速度を測定するとともに、検出対象物の幅を測定する。
【0005】
そして、前方物体認識装置は、検出対象物の検出位置、相対速度、及び幅を基に当該検出対象物の種類を判定する。
【0006】
【発明が解決しようとする課題】
しかし、当該前方物体認識装置は、以下の問題点があった。
【0007】
即ち、自車の前方に、停車中の乗用車と、当該乗用車とほぼ同一の幅を有する看板と、が存在する場合には、前方物体認識装置は、これら看板及び乗用車を同一の相対速度及び幅を有する検出対象物として検出する。
【0008】
したがって、この場合、前方物体認識装置では、これら検出対象物の種類を正確に判断することが容易でないという問題点があった。
【0009】
本発明はこのような従来の課題を解決するためになされたものであり、その主に目的とするところは、自車前方に存在する検出対象物の種類を正確に判定することができる前方物体認識装置を提供することである。
【0010】
【課題を解決するための手段】
上記目的を達成するため、本願特許請求の範囲に記載の発明では、主に、以下の点を特徴とする。
【0011】
即ち、物体識別手段が、検出された反射点のうち互いに近接した反射点が同一の検出対象物上の点であると予測することで、一又は複数の検出対象物を検出する。
【0012】
そして、当該物体識別手段が、検出対象物に含まれる反射点から自車までの距離を測定して、これら距離の分布度を算出し、さらに、検出対象物の後端部分に存在する反射点の数を測定する。
【0013】
そして、当該物体識別手段が、分布度と、反射点の数と、に基づいて、検出対象物の種類を判定する。
【0014】
【発明の効果】
本願特許請求の発明の発明では、主に以下の効果を得ることができる。
【0015】
即ち、上述したように、物体識別手段が、分布度と、後端部分の反射点の数と、に基づいて、検出対象物の種類を判定する。
【0016】
ここで、検出対象物として、ほぼ同一の幅を有し、奥行きが異なる物体(例えば、看板と普通自動車)が検出された場合、これら第二検出対象物については、上述した反射点の数はほぼ同一となるが、分布度が異なる。
【0017】
したがって、本発明では、奥行きが異なる検出対象物(例えば、看板と普通自動車)を正確に区別することができるので、検出対象物の種類を正確に判定することができる。
【0018】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0019】
まず、本発明に係る前方物体認識装置1の構成について、図1〜図4に基づいて説明する。
【0020】
ここで、図1は本発明に係る前方物体認識装置1の構成を示したブロック図であり、図2及び図3は前方物体認識装置1が備えるスキャニングミリ波レーダ(反射点検出手段)2の設置位置を示した説明図である。また、図4は、ミリ波レーダ2が反射点を検出することができる最大の範囲を示したグラフである。
【0021】
図1に示すように、前方物体認識装置1は、スキャニングミリ波レーダ(以下、「ミリ波レーダ」と称する)2と、自車10の挙動を検出する自車挙動検出部3と、ミリ波レーダによる反射点情報及び自車挙動検出部3による自車挙動情報に基づいて所定の処理を行う演算部(物体識別手段)4と、提示部5と、を備えている。
【0022】
図1に示すミリ波レーダ2は、図2及び図3に示すように、自車10の前部に設置されており、自車10の前方を電磁波(検出波)にて複数回スキャニングを行う。
【0023】
そして、ミリ波レーダ2は、当該スキャニングにより反射点を検出し、当該反射点の自車10に対する相対位置と、自車10から当該反射点までの距離と、当該反射点の自車10に対する方位と、当該反射点の自車10に対する相対速度と、を測定する。
【0024】
そして、ミリ波レーダ2は、当該相対位置、距離、方位、及び相対速度に関する反射点情報を作成して、演算部4のメモリ41(後述する)に保存する。
【0025】
ここで、ミリ波レーダ2は、電磁波を、その照射軸を単位角度Bs(角度分解能)ずつずらしながら所定回数発射することにより、スキャニングを行う。
【0026】
また、ミリ波レーダ2は、メモリ41から検出波情報(後述する)を取得し、当該検出波情報に基づいて、水平方向角度Bw及び検出可能距離を決定した後、スキャニングを行う。
【0027】
ここで、水平方向角度Bwとは、各スキャニングにおいて、最初に発射される電磁波の照射軸と、最後に発射される電磁波の照射軸と、で形成される角の大きさ(図6等参照)をいう。
【0028】
また、ミリ波レーダ2は、自車10からの距離が検出可能距離(後述する)以内である反射点のみを検出する。
【0029】
また、ミリ波レーダ2は、当該スキャニングにより、自車10の前方に存在する物体の後端部分と、当該物体の側端突起部分及び下端突起部分のうち少なくとも一方の突起部分と、における反射点を検出する。なお、側端突起部分とは、例えば、車両のバックミラー等があり、下端突起部分とは、例えば、車両の下端部分に設けられたマフラー等がある。
【0030】
また、ミリ波レーダ2は、図2及び図3に示すXYZ座標空間を定め、反射点の自車10に対する相対位置を当該XYZ座標空間における座標値として認識することで、上述した距離、方位、及び相対速度の測定を行う。
【0031】
なお、ミリ波レーダ2は、XYZ座標空間を、以下のように定める。即ち、図2及び図3に示すように、ミリ波レーダ2は、電磁波の発射点を原点として、Z軸を自車10の進路方向にとり、Y軸を水平面に鉛直な方向にとる。さらに、ミリ波レーダ2は、X軸を当該Y軸及びZ軸に垂直な方向にとることで、XYZ座標空間を定める。
【0032】
また、ミリ波レーダ2については、反射点を検出することができる最大の範囲(最大検出可能範囲)が定められている。その範囲を図4に示す。
【0033】
即ち、図4に示すように、ミリ波レーダ2は、例えば、自車10からの距離が70メートルの範囲においては、X座標値が約−3メートル〜約+3メートルの範囲内にある反射点のみを検出することができる。
【0034】
図1に示す自車挙動検出部3は、GPSアンテナと、シフトポジションセンサと、車輪速センサと、操舵角センサと、を備えており(何れも、図示せず)、以下の処理を行う。
【0035】
ここで、シフトポジションセンサは、自車10のシフトポジションを検知して第一検知情報を作成し、車輪速センサは、自車10の左右後輪の回転速度を検知して第二検知情報を作成する。また、操舵角センサは、自車10の操舵角を検知して第三検知情報を作成する。
【0036】
即ち、自車挙動検出部3は、図示しないGPS衛星から、GPS衛星の位置等に関するGPS情報をGPSアンテナを用いて取得して、自車10の位置(自車位置)を測定する。
【0037】
さらに、自車挙動検出部3は、シフトポジションセンサと、車輪速センサと、操舵角センサと、から、それぞれ第一検知情報と、第二検知情報と、第三検知情報と、を取得する。
【0038】
そして、自車挙動検出部3は、自車位置の測定結果と、これら検知情報と、に基づいて、自車10の進行方向、向き、及び移動距離を測定する。ここで、移動距離とは、例えば、自車10が移動を開始した際における自車位置から、自車挙動検出部3が測定を開始した際における自車位置まで、の距離である。
【0039】
そして、自車挙動検出部3は、自車位置、進行方向、向き、及び移動距離に関する自車挙動情報を作成して、演算部4のメモリ41に保存する。
【0040】
演算部(物体識別手段)4は、メモリ41と、物体検出部42と、物体識別部43と、を備えている。
【0041】
メモリ41は、ミリ波レーダ2から与えられた反射点情報と、自車挙動検出部3から与えられた自車挙動情報と、を記憶する。
【0042】
物体検出部42は、第一グルーピング部42aと、第二グルーピング部42bと、を備えている。
【0043】
第一グルーピング部42aは、メモリ41から反射点情報を取得し、当該反射点情報に基づいて、ミリ波レーダ2により検出された反射点のうち互いに近接する反射点が同一の第一検出対象物上の点であると予測することで、一又は複数の第一検出対象物を検出する。
【0044】
そして、第一グルーピング部42aは、所定の第一グループデータを作成して、第二グルーピング部42bに出力する。具体的には、後述する。
【0045】
第二グルーピング部42bは、第一グルーピング部42aから与えられた第一グループデータに基づいて、第一検出対象物のうち所定の条件を満たす第一検出対象物が同一の第二検出対象物(検出対象物)に属すると予測することで、一又は複数の第二検出対象物を検出する。
【0046】
そして、第二グルーピング部42bは、所定の第二グループデータを作成して、物体識別部43に出力する。具体的には、後述する。
【0047】
物体識別部43は、検出波決定部43aと、幅算出部43bと、幅判定部43cと、距離分布算出部43dと、物体奥行き判定部43eと、物体種類判定部43fと、を備えている。
【0048】
検出波決定部43aは、メモリ41から自車挙動情報を取得し、当該自車挙動情報に基づいて、ミリ波レーダ2の水平方向角度Bw及び検出可能距離を以下のように決定する。
【0049】
即ち、検出波決定部43aは、自車挙動情報に基づいて、図示しない地図データベースから自車10周辺の地図データを取得し、当該地図データに基づいて、自車10の進路範囲を測定する。
【0050】
そして、検出波決定部43aは、ミリ波レーダ2の反射点検出可能範囲(当該範囲は、水平方向角度Bw及び検出可能距離を決定することにより定まる)が、当該測定された進路範囲及び上述した最大検出可能範囲を超えないように、水平方向角度Bw及び検出可能距離を決定する。
【0051】
そして、検出波決定部43aは、当該決定された水平方向角度Bw及び検出可能距離に関する検出波情報を作成し、メモリ41に保存する。
【0052】
幅算出部43bは、第二グルーピング部42bから与えられた第二グループデータに基づいて、第二検出対象物の後端部分(後述する)から自車10までの距離Lnと、当該後端部分に存在する反射点の数Rnと、を測定する。
【0053】
そして、幅算出部43bは、測定結果に関する反射点数情報を作成し、幅判定部43cに出力する。具体的には、後述する。
【0054】
幅判定部43cは、メモリ41から検出波情報を取得し、当該検出波情報と、幅算出部43bから与えられた反射点数情報と、に基づいて、所定の基準値Wt1(下限値)、Wt2(上限値)を算出する。
【0055】
そして、幅判定部43cは、反射点の数Rnと、当該基準値Wt1、Wt2と、を比較して反射点比較情報を作成し、物体種類判定部43fに出力する。具体的には、後述する。
【0056】
距離分布算出部43dは、第二グルーピング部42bから与えられた第二グループデータに基づいて、第二検出対象物に含まれる反射点から自車10までの距離を認識し、これら距離の分布度を算出する。なお、距離分布算出部は、これら距離の分散値Ldを算出し、分布度として当該分散値Ldを用いる。
【0057】
そして、距離分布算出部43dは、当該分散値Ldに関する分散値情報を作成して、物体奥行き判定部43eに出力する。具体的には、後述する。
【0058】
物体奥行き判定部43eは、距離分布算出部43dから与えられた分散値情報に基づいて、分散値Ldと、所定の基準値Ldt1〜Ldt3と、を比較して分散値比較情報を作成し、物体種類判定部43fに出力する。具体的には、後述する。
【0059】
物体種類判定部43fは、幅判定部43cから与えられた反射点比較情報と、物体奥行き判定部43eから与えられた分散値比較情報と、に基づいて、第二検出対象物の種類を判定して、判定結果に関する判定情報を作成する。
【0060】
そして、物体種類判定部43fは、当該作成された判定情報をメモリ41に保存すると共に、提示部5に出力する。具体的には、後述する。
【0061】
提示部5は、物体種類判定部43fから与えられた判定情報を画像表示すると共に、音声にて出力する。
【0062】
次に、前方物体認識装置1による処理の手順について、図1〜図8に基づいて説明する。ここで、図5は、前方物体認識装置1による処理の手順を示したフローチャートであり、図6は、反射点及び第一検出対象物の位置を示した概略平面図である。また、図7は、反射点及び第二検出対象物等の位置を示した概略平面図であり、図8は、基準値Wt1、Wt2と距離Lnとの関係を示したグラフである。
【0063】
なお、本実施の形態では、一例として、図6に示すように、自車10の前方に、デリニエータ群(物体)Aと、普通乗用車(物体)Bと、大型トラック(物体)Cと、大型標識(物体)Dと、が存在する場合における処理の手順について説明する。ここで、前方物体認識装置1を他の場合にも使用することができるのは勿論である。
【0064】
図5に示すステップS1にて、図1に示す自車挙動検出部3が、自車位置を測定し、さらに、自車10の進行方向、向き、及び移動距離を測定する。
【0065】
次いで、自車挙動検出部3は、自車位置、進行方向、向き、及び移動距離に関する自車挙動情報を作成して、メモリ41に保存する。
【0066】
次いで、検出波決定部43aが、メモリ41から自車挙動情報を取得し、当該自車挙動情報に基づいて、ミリ波レーダ2の水平方向角度Bw及び検出可能距離を決定する。
【0067】
次いで、ミリ波レーダ2が、自車10の前方を電磁波にて複数回スキャニングを行う。
【0068】
ここで、ミリ波レーダ2は、スキャニングを行うに際しては、メモリ41から検出波情報を取得し、当該検出波情報に基づいて、最初に発射される電磁波の照射軸と、最後に発射される電磁波の照射軸と、で形成される角の大きさを、当該決定された水平方向角度Bwに合わせる。
【0069】
また、ミリ波レーダ2は、自車10から当該決定された検出可能距離内に存在する反射点のみを検出する。
【0070】
この結果、ミリ波レーダ2は、図6に示すように、反射点a1〜a4、b1〜b3、c1〜c8、d1〜d5を検出する。
【0071】
次いで、ミリ波レーダ2は、各反射点の自車10に対する相対位置と、自車10から各反射点までの距離と、各反射点の自車10に対する方位と、各反射点の自車10に対する相対速度と、を測定する。
【0072】
次いで、ミリ波レーダ2は、これら相対位置、距離、方位、及び相対速度に関する反射点情報を作成して、演算部4のメモリ41に保存する。
【0073】
次いで、図5に示すステップS2にて、第一グルーピング部42aは、メモリ41から反射点情報を取得する。
【0074】
次いで、第一グルーピング部42aは、当該反射点情報に基づいて、以下の処理を行うことで、第一検出対象物を検出する。
【0075】
即ち、第一グルーピング部42aは、一の反射点について、当該一の反射点から所定の基準距離L1内に他の反射点が存在するかどうかを判断する。
【0076】
ここで、基準距離L1については、互いに近接した相対位置にて検出された反射点が同一の第一検出対象物上の点であると予測されるように、予め定められる。
【0077】
次いで、第一グルーピング部42aは、他の反射点が存在すると判断した場合には、当該一の反射点と、他の反射点と、が同一の第一検出対象物上の点である(言い換えれば、同一の第一検出対象物に属する)と予測することで、第一検出対象物を検出する。
【0078】
一方、第一グルーピング部42aは、他の反射点が存在しないと判断した場合には、当該一の反射点のみが属する第一検出対象物が存在すると予測することで、第一検出対象物を検出する。
【0079】
次いで、第一グルーピング部42aは、どの第一検出対象物に属するか予測されていない反射点について、上述した処理を繰り返して行うことで、全ての反射点について、どの第一検出対象物に属するか予測する。
【0080】
以上の処理により、第一グルーピング部42aは、第一検出対象物を検出する。
【0081】
本例の場合では、図6に示すように、第一グルーピング部42aは、反射点a1〜a4、c5〜c8については、各反射点から基準距離L1内に他の反射点が存在しないと判断する。
【0082】
この結果、第一グルーピング部42aは、反射点a1〜a4、c5〜c8がそれぞれ属する第一検出対象物R1〜R4、R7〜R10が存在すると予測することで、第一検出対象物R1〜R4、R7〜R10を検出する。
【0083】
一方、第一グルーピング部42aは、反射点b1から基準距離L1内に反射点b2が存在し、反射点b3から基準距離L1内に反射点b2が存在すると判断する。
【0084】
この結果、第一グルーピング部42aは、反射点b1〜b3が同一の第一検出対象物R5上の点であると予測する。
【0085】
同様に、第一グルーピング部42aは、反射点c1から基準距離L1内に反射点c2が存在し、反射点c3から基準距離L1内に反射点c2が存在し、反射点c4から基準距離L1内に反射点c3が存在すると判断する。
【0086】
この結果、第一グルーピング部42aは、反射点c1〜c4が同一の第一検出対象物R6上の点であると予測する。
【0087】
同様に、第一グルーピング部42aは、反射点d1から基準距離L1内に反射点d2が存在し、反射点d3から基準距離L1内に反射点d2が存在し、反射点d4から基準距離L1内に反射点d3が存在すると判断する。さらに、第一グルーピング部42aは、反射点d5から基準距離L1内に反射点d4が存在すると判断する。
【0088】
この結果、第一グルーピング部42aは、反射点d1〜d5が同一の第一検出対象物R11上の点であると予測する。
【0089】
次いで、第一グルーピング部42aは、各第一検出対象物について、以下の処理を行う。
【0090】
即ち、第一グルーピング部42aは、第一検出対象物の中心点の位置(即ち、中心点の位置座標(X、Y、Z))を算出して、当該中心点の位置を、当該第一検出対象物の位置とする。
【0091】
また、第一グルーピング部42aは、当該中心点から自車10までの距離(以下、第一中心点距離」と称する)を算出し、当該第一中心点距離を、当該第一検出対象物から自車10までの距離とする。
【0092】
また、第一グルーピング部42aは、当該中心点の自車10に対する方位を算出し、当該方位を、第一検出対象物の自車10に対する方位とする。
【0093】
また、第一グルーピング部42aは、第一検出対象物に含まれる反射点のうち、X座標値が最小の反射点と、X座標の値が最大の反射点と、のX座標値の差の絶対値を算出する。
【0094】
そして、第一グルーピング部42aは、当該絶対値に単位スキャン幅(上述した第一中心点距離に、上述した単位角度Bsを乗じることで得られる値)を加えて得られる値を第一検出対象物の幅とする。
【0095】
また、第一検出対象物に含まれる全ての反射点の相対速度を平均して平均値を算出し、当該平均値を第一検出対象物の相対速度とする。
【0096】
次いで、第一グルーピング部42aは、各第一検出対象物について算出した位置、距離、方位、幅、及び相対速度に関する情報と、上述した反射点情報と、を含む第一グループデータを作成し、当該第一グループデータをメモリ41に保存すると共に、第二グルーピング部42bに出力する。
【0097】
次いで、図5に示すステップS3にて、図1に示す第二グルーピング部42bが、第一グルーピング部42aから与えられた第一グループデータに基づいて、以下の処理を行うことで、第二検出対象物を検出する。
【0098】
即ち、第二グルーピング部42bは、以下の条件を満たす第一検出対象物の組が同一の第二検出対象物に属すると予測することで、一又は複数の第二検出対象物を検出する。
【0099】
ここで、条件とは、(a)第一検出対象物の組について、互いに隣接する第一検出対象物どうしの間隔(距離)が基準距離L2以下であること、及び(b)第一検出対象物の組について、任意の第一検出対象物の相対速度と、他の全ての第一検出対象物の相対速度と、の差(以下、「相対速度差」と称する)の絶対値が、基準値V1以下であること、の二つである。
【0100】
ここで、基準距離L2及び基準値V1については、互いに近接する反射点が同一の第二検出対象物上の点であると予測されるように、予め定められる。
【0101】
一方、第二グルーピング部42bは、上記処理を行った結果、何れの第二検出対象物にも属さない第一検出対象物が存在する場合、当該第一検出対象物のみが属する第二検出対象物が存在すると予測する。
【0102】
以上の処理により、第二グルーピング部42bは、第二検出対象物を検出する。
【0103】
本例の場合では、図7に示すように、第二グルーピング部42bは、第一検出対象物R1〜R4の組については、上述した条件(a)及び(b)を満たすと判断する。
【0104】
この結果、第二グルーピング部42bは、第一検出対象物R1〜R4の組が同一の第一検出対象物O1上の点であると予測する。
【0105】
同様に、第二グルーピング部42bは、第一検出対象物R6〜R10の組については、上述した条件(a)及び(b)を満たすと判断する。
【0106】
この結果、第二グルーピング部42bは、第一検出対象物R6〜R10の組が同一の第二検出対象物O3に属すると予測する。
【0107】
上記処理の結果、何れの第二検出対象物にも属さない第一検出対象物R5、R11が存在することとなる。
【0108】
そこで、第二グルーピング部42bは、第一検出対象物R5、R11がそれぞれ属する第二検出対象物O2、O4が存在すると予測することで、第二検出対象物O2、O4を検出する。
【0109】
次いで、第二グルーピング部42bは、各第二検出対象物について、以下の処理を行う。
【0110】
即ち、第二グルーピング部42bは、第二検出対象物の中心点の位置(即ち、中心点の位置座標(X、Y、Z))を算出して、当該中心点の位置を、当該第二検出対象物の位置とする。
【0111】
また、第二グルーピング部42bは、当該中心点から自車10までの距離(以下、「第二中心点距離」と称する)を算出し、当該第二中心点距離を、当該第二検出対象物から自車10までの距離とする。
【0112】
また、第二グルーピング部42bは、当該中心点の自車10に対する方位を算出し、当該方位を、当該第二検出対象物の自車10に対する方位とする。
【0113】
また、第二グルーピング部42bは、第二検出対象物に含まれる第一検出対象物のうち、X座標値が最小の第一検出対象物と、X座標値が最大の第一検出対象物と、のX座標値の差の絶対値を算出する。
【0114】
そして、第二グルーピング部42bは、当該X座標値の差の絶対値に単位スキャン幅(上述した第二中心点距離に、上述した単位角度Bsを乗じることで得られる値)を加えて得られる値を第二検出対象物の幅とする。
【0115】
また、当該第二検出対象物に含まれる全ての第一検出対象物の相対速度を平均して平均値を算出し、当該平均値を当該第二検出対象物の相対速度とする。
【0116】
次いで、第二グルーピング部42bは、各第二検出対象物について算出した位置、距離、方位、幅、及び相対速度に関する情報と、上述した反射点情報と、を含む第二グループデータを作成する。
【0117】
次いで、第二グルーピング部42bは、当該第二グループデータをメモリ41に保存すると共に、幅算出部43bと、距離分布算出部43dと、に出力する。
【0118】
次いで、図5に示すステップS4にて、幅算出部43bは、第二グルーピング部42bから与えられた第二グループデータに基づいて、各第二検出対象物について以下の処理を行う。
【0119】
即ち、幅算出部43bは、第二検出対象物に含まれる反射点のうち、自車10に最も近接した反射点を検出し、当該反射点から所定の基準距離L3内に存在する反射点(即ち、第二検出対象物の後端部分に存在する反射点)をカウントする。ここで、L3の値については、予め定められる。
【0120】
さらに、幅算出部43bは、当該後端部分の中心点から自車10までの距離Lnを測定する。
【0121】
次いで、幅算出部43bは、各第二検出対象物についてカウントされた反射点の数Rnと、測定された距離Lnと、に関する反射点数情報を作成し、幅判定部43cに出力する。
【0122】
次いで、幅判定部43cは、メモリ41から検出波情報を取得し、当該検出波情報と、幅算出部43bから与えられた反射点数情報と、に基づいて、以下の処理を行う。
【0123】
即ち、幅判定部43cは、以下の式(1)、(2)を用いて、基準値Wt1(下限値)、Wt2(上限値)を算出する。
【0124】
Wt1=(2*tan−1(1.0/2/Ln)*180/π)/Bw+Bs/Bw …(1)
Wt2=(2*tan−1(1.8/2/Ln)*180/π)/Bw+Bs/Bw …(2)
ここで、基準値Wt1は、自車10の前方に車幅1メートルの普通乗用車が存在し、且つ、自車10から当該普通乗用車の後端部までの距離がLnである場合に、ミリ波レーダ2が当該後端部をスキャニングして検出する反射点の数である。
【0125】
同様に、基準値Wt2は、自車10の前方に車幅1.8メートルの普通乗用車が存在し、且つ、自車10から当該普通乗用車の後端部までの距離がLnである場合に、ミリ波レーダ2が当該後端部をスキャニングして検出する反射点の数である。
【0126】
次いで、幅判定部43cは、当該算出された基準値Wt1、Wt2と、反射点の数Rnと、を比較して反射点比較情報を作成し、物体種類判定部43fに出力する。
【0127】
一方、距離分布算出部43dは、第二グルーピング部42bから与えられた第二グループデータに基づいて、各第二検出対象物について、以下の処理を行う。
【0128】
即ち、距離分布算出部43dは、一の第二検出対象物に含まれる各反射点から自車10までの距離を認識する。
【0129】
次いで、距離分布算出部43dは、これら距離の分散値Ldを算出し、当該分散値Ldを距離の分布度として用いる。
【0130】
次いで、距離分布算出部43dは、当該算出された分散値Ldに関する分散値情報を作成して、物体奥行き判定部43eに出力する。
【0131】
次いで、物体奥行き判定部43eは、距離分布算出部43dから与えられた分散値情報に基づいて、分散値Ldと、所定の基準値Ldt1〜Ldt3と、を比較して分散値比較情報を作成し、物体種類判定部43fに出力する。
【0132】
ここで、基準値Ldt1は、第二検出対象物が普通乗用車である場合に、上述した分散値Ldがとりうる下限値であり、基準値Ldt2は、第二検出対象物が普通乗用車である場合に、上述した分散値Ldがとりうる上限値である。
【0133】
また、基準値Ldt3は、第二検出対象物が大型バスである場合に、上述した分散値Ldがとりうる上限値である。
【0134】
次いで、図1に示す物体種類判定部43fが、幅判定部43cから与えられた反射点比較情報と、物体奥行き判定部43eから与えられた分散値比較情報と、に基づいて、各第二検出対象物の種類を以下のように判定する。
【0135】
即ち、物体種類判定部43fは、一の第二検出対象物について、以下の式(3)が成立する場合には、当該一の第二検出対象物を普通乗用車(またはその一部)と判定する。
【0136】
Wt1≦Rn≦Wt2かつLdt1≦Ld≦Ldt2 …式(3)
一方、物体種類判定部43fは、一の第二検出対象物について、以下の式(4)が成立する場合には、当該一の第二検出対象物を大型バス(またはその一部)と判定する。
【0137】
Wt2<RnかつLdt2≦Ld≦Ldt3 …式(4)
一方、物体種類判定部43fは、一の第二検出対象物について、以下の式(5)が成立する場合には、当該一の第二検出対象物を大型トラック(またはその一部)と判定する。
【0138】
Wt2<RnかつLdt3<Ld …式(5)
一方、物体種類判定部43fは、一の第二検出対象物について、以下の式(6)が成立する場合には、当該一の第二検出対象物を大型標識(またはその一部)と判定する。
【0139】
Wt2<RnかつLd<Ldt1 …式(6)
一方、物体種類判定部43fは、一の第二検出対象物について、以下の式(7)が成立する場合には、当該一の第二検出対象物を中型標識(またはその一部)と判定する。
【0140】
Wt1≦Rn≦Wt2かつLd<Ldt1 …式(7)
一方、物体種類判定部43fは、一の第二検出対象物について、以下の式(8)が成立する場合には、当該一の第二検出対象物を小型標識(またはその一部)と判定する。
【0141】
Rn<Wt1かつLd<Ldt1 …式(8)
一方、物体種類判定部43fは、一の第二検出対象物について、以下の式(9)が成立する場合には、当該一の第二検出対象物をデリニエータ群(またはその一部)と判定する。
【0142】
Rn<Wt1かつLdt3<Ld …式(9)
本例の場合では、物体種類判定部43fは、第二検出対象物O1について、式(9)が成立すると判断し、当該第二検出対象物O1をデリニエータ群(またはその一部)と判定する。
【0143】
また、物体種類判定部43fは、第二検出対象物O2について、式(1)が成立すると判断し、当該第二検出対象物O2を普通乗用車(またはその一部)と判定する。
【0144】
また、物体種類判定部43fは、第二検出対象物O3について、式(5)が成立すると判断し、当該第二検出対象物O3を大型トラック(またはその一部)と判定する。
【0145】
また、物体種類判定部43fは、第二検出対象物O4について、式(6)が成立すると判断し、当該第二検出対象物O4を大型標識(またはその一部)と判定する。
【0146】
次いで、物体種類判定部43fは、第二検出対象物の種類、X座標値、Z座標値、幅、及び相対速度に関する判定情報を作成し、当該判定情報をメモリ41に保存すると共に、提示部5に出力する。
【0147】
次いで、図5に示すステップS5にて、提示部5は、物体種類判定部43fから与えられた判定情報を画像表示すると共に、音声にて出力する。
【0148】
次いで、前方物体認識装置1は、ステップS1からの処理を繰り返して行う。
【0149】
以上により、本実施の形態では、前方物体認識装置1は、互いに近接した位置にて検出された反射点が同一の第二検出対象物上の点であると予測して、第二検出対象物を検出する。
【0150】
そして、前方物体認識装置1は、第二検出対象物に含まれる反射点から自車10までの距離を測定して、これら距離の分布度を算出し、さらに、第二検出対象物の後端部分に存在する反射点の数Rnを測定する。
【0151】
そして、前方物体認識装置1は、分布度と、反射点の数Rnと、に基づいて、第二検出対象物の種類を判定する。
【0152】
ここで、第二検出対象物として、ほぼ同一の幅を有し、奥行きが異なる物体(例えば、看板と普通自動車)が検出された場合、これら第二検出対象物については、反射点の数Rnがほぼ同一となるが、分布度が異なる。
【0153】
したがって、前方物体認識装置1は、奥行きが異なる第二検出対象物(例えば、看板と普通自動車)を正確に区別することができるので、第二検出対象物の種類を正確に判定することができる(請求項1記載発明に対応する効果)。
【0154】
また、前方物体認識装置1は、第一検出対象物の組が上述した条件(a)及び(b)を満たす場合には、当該第一検出対象物の組が同一の第二検出対象物に属すると予測する。
【0155】
したがって、前方物体認識装置1は、相対速度差の絶対値が基準値V1より大きい第一検出対象物どうし(例えば、自動車とデリニエータ群)が同一の第二検出対象物に属すると予測しない。
【0156】
これにより、前方物体認識装置1は、異なる種類の第一検出対象物が同一の第二検出対象物に属すると予測されることを防止することができる。
【0157】
また、前方物体認識装置1は、自車10の進行方向の前方に存在する一又は複数の物体の後端部分と、前記物体の側端突起部分及び上端突起部分のうち少なくとも一方の突起部分と、における反射点を検出することができる。
【0158】
これにより、前方物体認識装置1は、奥行きのある物体について、当該物体の後端部分以外の部分からの反射点を正確に検出することができる(請求項2記載の発明に対応する効果)。
【0159】
また、前方物体認識装置1は、分散値Ldを算出し、当該分散値Ldを上述した分布度として用いるので、分布度として正確な値を用いることができる(請求項6記載の発明に対応する効果)。
【0160】
また、前方物体認識装置1は、上述した反射点の数Rnと、予め算出された基準値Wt1(下限値)、Wt2(上限値)と、を比較し、当該比較の結果と、分布度(分散値Ld)と、に基づいて、第二検出対象物の種類を判定する。
【0161】
これにより、前方物体認識装置1は、基準値Wt1、Wt2を調整することで、第二検出対象物の種類を正確に判定することができる(請求項3または4記載の発明に対応する効果)。
【0162】
ここで、本実施の形態では、前方物体認識装置1は、第二検出対象物の種類を判定するに際しては、当該比較の他、分散値Ldと、基準値Ldt1〜Ldt3と、を比較する。
【0163】
そして、基準値Wt1、Wt2、Ldt1〜Ldt3については、上述したように算出されているので、前方物体認識装置1は、第二検出対象物の種類を正確に判定することができる(式(3)〜(9)参照)。
【0164】
また、前方物体認識装置1は、ミリ波レーダ2の反射点検出可能範囲が、自車10の進路範囲を超えないように制御する。
【0165】
これにより、前方物体認識装置1は、自車の進路範囲に応じて、ミリ波レーダ2の反射点検出可能範囲を調整することができる。
【0166】
また、当該反車点検出可能範囲は、ミリ波レーダ2の水平方向角度Bw及び検出可能距離により定まるので、前方物体認識装置1は、当該制御を行うことで、基準値Wt1、Wt2を算出する際に使用される水平方向角度Bwを決定することができる(式(1)等参照)。
【0167】
また、前方物体認識装置1は、当該制御を行うことで、ミリ波レーダ2が自車10の進路範囲外における反射点を検出することを防止することができる(請求項5記載の発明に対応する効果)。
【図面の簡単な説明】
【図1】本発明に係る前方物体認識装置の構成を示したブロック図である。
【図2】ミリ波レーダの設置位置を示した概略側面図である。
【図3】ミリ波レーダの設置位置を示した概略平面図である。
【図4】ミリ波レーダが反射点を検出することができる最大の範囲を示したグラフである。
【図5】前方物体認識装置による処理の手順を示したフローチャートである。
【図6】反射点及び第一検出対象物の位置を示した概略平面図である。
【図7】反射点及び第二検出対象物等の位置を示した概略平面図である。
【図8】基準値Wt1、Wt2と距離Lnとの関係を示したグラフである。
【符号の説明】
1 前方物体認識装置
2 ミリ波レーダ(反射点検出手段)
3 自車挙動検出部
4 演算部(物体識別手段)
10 自車
Ld 分散値
O1〜O4 第二検出対象物(検出対象物)
Rn 反射点の数
Wt1 基準値(下限値)
Wt2 基準値(上限値)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a forward object recognition device that determines a type of a detection target existing ahead of a traveling direction of a vehicle.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, for example, a front object recognition device described in Japanese Patent Application Laid-Open No. 2000-132799 is known as a front object recognition device that determines the type of a detection target object existing in front of a vehicle.
[0003]
This forward object recognition device scans the front of the host vehicle several times at predetermined time intervals with a millimeter wave radar mounted on the host vehicle, and detects a detection target existing in front of the host vehicle.
[0004]
The forward object recognition device measures the relative speed of the detection target with respect to the own vehicle using the fact that the detection position of the detection target changes for each scanning, and also measures the width of the detection target.
[0005]
Then, the forward object recognition device determines the type of the detection target based on the detection position, the relative speed, and the width of the detection target.
[0006]
[Problems to be solved by the invention]
However, the forward object recognition device has the following problems.
[0007]
That is, if a stopped car and a signboard having substantially the same width as the stopped car exist in front of the own vehicle, the front object recognition apparatus sets the signboard and the car at the same relative speed and width. Is detected as a detection target having
[0008]
Therefore, in this case, the forward object recognition device has a problem that it is not easy to accurately determine the type of the detection target.
[0009]
The present invention has been made in order to solve such a conventional problem, and a main object of the present invention is to provide a forward object capable of accurately determining the type of a detection target existing in front of a vehicle. It is to provide a recognition device.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the invention described in the claims of the present application is mainly characterized by the following points.
[0011]
That is, the object identification unit detects one or a plurality of detection targets by predicting that the reflection points close to each other among the detected reflection points are points on the same detection target.
[0012]
Then, the object identification unit measures the distance from the reflection point included in the detection target to the host vehicle, calculates the distribution of these distances, and further calculates the reflection point existing at the rear end of the detection target. Measure the number.
[0013]
Then, the object identification unit determines the type of the detection target based on the distribution degree and the number of reflection points.
[0014]
【The invention's effect】
According to the invention of the present invention, the following effects can be mainly obtained.
[0015]
That is, as described above, the object identification unit determines the type of the detection target based on the degree of distribution and the number of reflection points at the rear end.
[0016]
Here, when objects having substantially the same width and different depths (for example, a signboard and an ordinary car) are detected as the detection target, the number of the above-described reflection points for these second detection targets is Almost the same, but the distribution is different.
[0017]
Therefore, according to the present invention, detection objects having different depths (for example, signboards and ordinary automobiles) can be accurately distinguished, so that the type of the detection object can be accurately determined.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0019]
First, the configuration of the front
[0020]
Here, FIG. 1 is a block diagram showing a configuration of a forward
[0021]
As shown in FIG. 1, a forward
[0022]
As shown in FIGS. 2 and 3, the
[0023]
The millimeter-
[0024]
Then, the millimeter-
[0025]
Here, the
[0026]
Further, the
[0027]
Here, the horizontal direction angle Bw is the magnitude of an angle formed by the irradiation axis of the electromagnetic wave emitted first and the irradiation axis of the electromagnetic wave emitted last in each scanning (see FIG. 6 and the like). Say.
[0028]
Further, the
[0029]
The millimeter-
[0030]
In addition, the millimeter-
[0031]
The
[0032]
For the millimeter-
[0033]
That is, as shown in FIG. 4, the millimeter-
[0034]
The own vehicle behavior detecting unit 3 shown in FIG. 1 includes a GPS antenna, a shift position sensor, a wheel speed sensor, and a steering angle sensor (all are not shown), and performs the following processing.
[0035]
Here, the shift position sensor generates the first detection information by detecting the shift position of the
[0036]
That is, the own vehicle behavior detecting unit 3 acquires GPS information relating to the position of the GPS satellite or the like from a GPS satellite (not shown) using a GPS antenna, and measures the position of the own vehicle 10 (own vehicle position).
[0037]
Further, the own-vehicle behavior detecting unit 3 acquires first detection information, second detection information, and third detection information from the shift position sensor, the wheel speed sensor, and the steering angle sensor, respectively.
[0038]
Then, the own vehicle behavior detecting unit 3 measures the traveling direction, the direction, and the moving distance of the
[0039]
Then, the own vehicle behavior detecting unit 3 creates own vehicle behavior information regarding the own vehicle position, the traveling direction, the direction, and the moving distance, and stores the information in the
[0040]
The calculation unit (object identification unit) 4 includes a
[0041]
The
[0042]
The
[0043]
The
[0044]
Then, the
[0045]
The
[0046]
Then, the
[0047]
The
[0048]
The detection
[0049]
That is, the detection
[0050]
Then, the detection
[0051]
Then, the detection
[0052]
Based on the second group data provided from the
[0053]
Then, the
[0054]
The
[0055]
Then, the
[0056]
The distance
[0057]
Then, the distance
[0058]
The object
[0059]
The object type determination unit 43f determines the type of the second detection target based on the reflection point comparison information given from the
[0060]
Then, the object type determination unit 43f stores the created determination information in the
[0061]
The
[0062]
Next, a procedure of processing by the front
[0063]
In the present embodiment, as an example, as shown in FIG. 6, a group of delineators (objects) A, ordinary passenger cars (objects) B, large trucks (objects) C, The processing procedure when the sign (object) D is present will be described. Here, it is needless to say that the front
[0064]
In step S1 shown in FIG. 5, the own-vehicle behavior detection unit 3 shown in FIG. 1 measures the own-vehicle position, and further measures the traveling direction, the direction, and the moving distance of the own-
[0065]
Next, the own vehicle behavior detecting unit 3 creates own vehicle behavior information on the own vehicle position, the traveling direction, the direction, and the moving distance, and stores the information in the
[0066]
Next, the detection
[0067]
Next, the
[0068]
Here, when performing scanning, the millimeter-
[0069]
Further, the
[0070]
As a result, the
[0071]
Next, the
[0072]
Next, the millimeter-
[0073]
Next, the
[0074]
Next, the
[0075]
That is, the
[0076]
Here, the reference distance L1 is predetermined so that the reflection points detected at relative positions close to each other are predicted to be points on the same first detection target.
[0077]
Next, when the
[0078]
On the other hand, if the
[0079]
Next, the
[0080]
Through the above processing, the
[0081]
In the case of this example, as shown in FIG. 6, the
[0082]
As a result, the
[0083]
On the other hand, the
[0084]
As a result, the
[0085]
Similarly, the
[0086]
As a result, the
[0087]
Similarly, the
[0088]
As a result, the
[0089]
Next, the
[0090]
That is, the
[0091]
The
[0092]
Further, the
[0093]
Further, the
[0094]
Then, the
[0095]
Further, an average value is calculated by averaging the relative velocities of all the reflection points included in the first detection target, and the average is set as the relative speed of the first detection target.
[0096]
Next, the
[0097]
Next, in step S3 shown in FIG. 5, the
[0098]
That is, the
[0099]
Here, the conditions include: (a) the interval (distance) between mutually adjacent first detection objects is equal to or less than a reference distance L2 for the first detection object set; and (b) the first detection object For a set of objects, the absolute value of the difference between the relative speed of any first detection target and the relative speeds of all other first detection targets (hereinafter referred to as “relative speed difference”) is a reference value. Value V1 or less.
[0100]
Here, the reference distance L2 and the reference value V1 are predetermined so that the reflection points close to each other are predicted to be points on the same second detection target.
[0101]
On the other hand, as a result of performing the above processing, if there is a first detection target that does not belong to any second detection target, the
[0102]
Through the above processing, the
[0103]
In the case of this example, as shown in FIG. 7, the
[0104]
As a result, the
[0105]
Similarly, the
[0106]
As a result, the
[0107]
As a result of the above processing, there are first detection targets R5 and R11 that do not belong to any of the second detection targets.
[0108]
Therefore, the
[0109]
Next, the
[0110]
That is, the
[0111]
The
[0112]
In addition, the
[0113]
The
[0114]
Then, the
[0115]
In addition, an average value is calculated by averaging the relative velocities of all the first detection targets included in the second detection target, and the average is set as the relative speed of the second detection target.
[0116]
Next, the
[0117]
Next, the
[0118]
Next, in step S4 shown in FIG. 5, the
[0119]
That is, the
[0120]
Further, the
[0121]
Next, the
[0122]
Next, the
[0123]
That is, the
[0124]
Wt1 = (2 * tan -1 (1.0 / 2 / Ln) * 180 / π) / Bw + Bs / Bw (1)
Wt2 = (2 * tan -1 (1.8 / 2 / Ln) * 180 / π) / Bw + Bs / Bw (2)
Here, the reference value Wt1 is defined as a millimeter wave when an ordinary passenger car having a vehicle width of 1 meter exists in front of the
[0125]
Similarly, the reference value Wt2 is determined when an ordinary passenger car having a vehicle width of 1.8 meters exists in front of the
[0126]
Next, the
[0127]
On the other hand, the distance
[0128]
That is, the distance
[0129]
Next, the distance
[0130]
Next, the distance
[0131]
Next, based on the variance value information provided from the distance
[0132]
Here, the reference value Ldt1 is a lower limit value that the variance value Ld can take when the second detection target is an ordinary passenger car, and the reference value Ldt2 is a case where the second detection target is an ordinary passenger car. In addition, the above-mentioned dispersion value Ld is an upper limit that can be taken.
[0133]
Further, the reference value Ldt3 is an upper limit value that the variance Ld can take when the second detection target is a large bus.
[0134]
Next, the object type determination unit 43f shown in FIG. 1 performs each second detection based on the reflection point comparison information provided from the
[0135]
That is, if the following equation (3) is satisfied for one second detection target, the object type determination unit 43f determines the one second detection target as a normal passenger car (or a part thereof). I do.
[0136]
Wt1 ≦ Rn ≦ Wt2 and Ldt1 ≦ Ld ≦ Ldt2 Equation (3)
On the other hand, if the following equation (4) is satisfied for one second detection target, the object type determination unit 43f determines that the one second detection target is a large bus (or a part thereof). I do.
[0137]
Wt2 <Rn and Ldt2 ≦ Ld ≦ Ldt3 Equation (4)
On the other hand, when the following equation (5) is satisfied for one second detection target, the object type determination unit 43f determines that the one second detection target is a large truck (or a part thereof). I do.
[0138]
Wt2 <Rn and Ldt3 <Ld Equation (5)
On the other hand, if the following expression (6) is satisfied for one second detection target, the object type determination unit 43f determines that the one second detection target is a large sign (or a part thereof). I do.
[0139]
Wt2 <Rn and Ld <Ldt1 Equation (6)
On the other hand, when the following equation (7) is satisfied for one second detection target, the object type determination unit 43f determines the one second detection target as a medium-sized marker (or a part thereof). I do.
[0140]
Wt1 ≦ Rn ≦ Wt2 and Ld <Ldt1 Equation (7)
On the other hand, when the following equation (8) is satisfied for one second detection target, the object type determination unit 43f determines the one second detection target as a small sign (or a part thereof). I do.
[0141]
Rn <Wt1 and Ld <Ldt1 Equation (8)
On the other hand, when the following equation (9) is satisfied for one second detection target, the object type determination unit 43f determines the one second detection target as a delineator group (or a part thereof). I do.
[0142]
Rn <Wt1 and Ldt3 <Ld Equation (9)
In the case of this example, the object type determination unit 43f determines that Expression (9) is satisfied for the second detection target O1, and determines that the second detection target O1 is a delinator group (or a part thereof). .
[0143]
In addition, the object type determination unit 43f determines that Expression (1) holds for the second detection target O2, and determines that the second detection target O2 is an ordinary passenger car (or a part thereof).
[0144]
Further, the object type determination unit 43f determines that Expression (5) is satisfied for the second detection target O3, and determines that the second detection target O3 is a large truck (or a part thereof).
[0145]
In addition, the object type determination unit 43f determines that Expression (6) holds for the second detection target O4, and determines that the second detection target O4 is a large sign (or a part thereof).
[0146]
Next, the object type determination unit 43f creates determination information on the type, the X coordinate value, the Z coordinate value, the width, and the relative speed of the second detection target object, and stores the determination information in the
[0147]
Next, in step S5 shown in FIG. 5, the
[0148]
Next, the forward
[0149]
As described above, in the present embodiment, the forward
[0150]
Then, the forward
[0151]
Then, the forward
[0152]
Here, when objects having substantially the same width and different depths (for example, a signboard and an ordinary car) are detected as the second detection target, the number Rn of the reflection points is determined for these second detection targets. Are almost the same, but the distribution is different.
[0153]
Therefore, the front
[0154]
In addition, when the first set of detection objects satisfies the above-described conditions (a) and (b), the front
[0155]
Therefore, the front
[0156]
Thereby, the front
[0157]
Further, the front
[0158]
Thus, the front
[0159]
In addition, since the forward
[0160]
Further, the forward
[0161]
Thereby, the front
[0162]
Here, in the present embodiment, when determining the type of the second detection target, the forward
[0163]
Since the reference values Wt1, Wt2, and Ldt1 to Ldt3 have been calculated as described above, the forward
[0164]
Further, the forward
[0165]
Thereby, the front
[0166]
Further, since the anti-vehicle point detectable range is determined by the horizontal angle Bw and the detectable distance of the
[0167]
Further, by performing the control, the forward
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a forward object recognition device according to the present invention.
FIG. 2 is a schematic side view showing an installation position of a millimeter wave radar.
FIG. 3 is a schematic plan view showing an installation position of a millimeter wave radar.
FIG. 4 is a graph showing a maximum range in which a millimeter wave radar can detect a reflection point.
FIG. 5 is a flowchart showing a procedure of processing by the front object recognition device.
FIG. 6 is a schematic plan view showing positions of a reflection point and a first detection target.
FIG. 7 is a schematic plan view showing positions of a reflection point, a second detection target, and the like.
FIG. 8 is a graph showing a relationship between reference values Wt1 and Wt2 and a distance Ln.
[Explanation of symbols]
1 Forward object recognition device
2 millimeter wave radar (reflection point detection means)
3 own vehicle behavior detector
4 arithmetic unit (object identification means)
10 own car
Ld variance
O1 to O4 Second detection target (detection target)
Rn Number of reflection points
Wt1 Reference value (lower limit)
Wt2 Reference value (upper limit)
Claims (6)
前記反射点のうち互いに近接した反射点が同一の検出対象物上の点であると予測することで、一又は複数の検出対象物を検出する物体識別手段を備え、
前記物体識別手段は、前記検出対象物に含まれる反射点から自車までの距離を測定して、これら距離の分布度を算出し、
前記検出対象物の後端部分に存在する反射点の数を測定し、
前記分布度と、前記反射点の数と、に基づいて、前記検出対象物の種類を判定することを特徴とする前方物体認識装置。A front side provided with a reflection point detecting means for scanning the front in the traveling direction of the own vehicle with a predetermined detection wave, detecting a reflection point reflecting the detection wave, and measuring a relative position of the reflection point with respect to the own vehicle. In the object recognition device,
By predicting that the reflection points close to each other among the reflection points are points on the same detection target, comprising an object identification unit that detects one or more detection targets,
The object identification means measures the distance from the reflection point included in the detection target to the own vehicle, calculates the distribution of these distances,
Measure the number of reflection points present at the rear end of the detection object,
A forward object recognition device, wherein a type of the detection target is determined based on the distribution degree and the number of the reflection points.
前記反射点検出手段は、自車の進行方向の前方に存在する一又は複数の物体の後端部分と、前記物体の側端突起部分及び下端突起部分のうち少なくとも一方の突起部分と、における反射点を検出し、
前記物体識別手段は、前記反射点のうち互いに近接した相対位置にて検出された反射点が同一の検出対象物上の点であると予測することで、一又は複数の検出対象物を検出することを特徴とする前方物体認識装置。The front object recognition device according to claim 1,
The reflection point detection unit is configured to perform reflection at one or more rear end portions of one or more objects existing in the forward direction of the own vehicle and at least one of a side end protrusion portion and a lower end protrusion portion of the object. Detect the point,
The object identification unit detects one or more detection targets by predicting that the reflection points detected at relative positions close to each other among the reflection points are points on the same detection target. A forward object recognition device characterized by the above-mentioned.
前記物体識別手段は、前記反射点の数と、予め算出された基準値と、を比較し、当該比較の結果と、前記分布度と、に基づいて、前記検出対象物の種類を判定することを特徴とする前方物体認識装置。The forward object recognition device according to claim 1 or 2,
The object identification unit compares the number of the reflection points with a reference value calculated in advance, and determines the type of the detection target based on the comparison result and the distribution. A forward object recognition device characterized by the above-mentioned.
前記基準値については、上限値及び下限値が予め算出されており、
前記物体識別手段は、前記反射点の数と、前記基準値の上限値及び下限値と、を比較し、
当該比較の結果と、前記分布度と、に基づいて、前記検出対象物の種類を判定することを特徴とする前方物体認識装置。The forward object recognition device according to claim 3,
For the reference value, an upper limit and a lower limit are calculated in advance,
The object identification unit compares the number of the reflection points with an upper limit and a lower limit of the reference value,
A forward object recognition device, wherein a type of the detection target is determined based on a result of the comparison and the distribution degree.
前記物体識別手段は、前記反射点検出手段の反射点検出可能範囲が、自車の進路範囲を超えないように制御することを特徴とする前方物体認識装置。The forward object recognition device according to any one of claims 1 to 4,
The front object recognition device, wherein the object identification means controls the reflection point detectable range of the reflection point detection means so as not to exceed a path range of the own vehicle.
前記物体識別手段は、前記距離の分散値を算出し、前記分布度として当該分散値を用いることを特徴とする前方物体認識装置。The forward object recognition device according to any one of claims 1 to 5,
The forward object recognition device, wherein the object identification means calculates a variance value of the distance, and uses the variance value as the distribution degree.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002178825A JP3952874B2 (en) | 2002-06-19 | 2002-06-19 | Front object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002178825A JP3952874B2 (en) | 2002-06-19 | 2002-06-19 | Front object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004020492A true JP2004020492A (en) | 2004-01-22 |
JP3952874B2 JP3952874B2 (en) | 2007-08-01 |
Family
ID=31176430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002178825A Expired - Fee Related JP3952874B2 (en) | 2002-06-19 | 2002-06-19 | Front object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3952874B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072495A (en) * | 2004-08-31 | 2006-03-16 | Fuji Heavy Ind Ltd | Three-dimensional object monitoring device |
JP2007093347A (en) * | 2005-09-28 | 2007-04-12 | Nissan Motor Co Ltd | Stopped vehicle determination apparatus, automobile, and stopped vehicle determination method |
JP2011191227A (en) * | 2010-03-16 | 2011-09-29 | Daihatsu Motor Co Ltd | Object recognition device |
JP2012052838A (en) * | 2010-08-31 | 2012-03-15 | Daihatsu Motor Co Ltd | Object recognition device |
CN103245944A (en) * | 2012-02-13 | 2013-08-14 | 株式会社电装 | Vehicle-mounted radar apparatus |
WO2014123112A1 (en) * | 2013-02-05 | 2014-08-14 | 株式会社デンソー | Device and method for detecting target in periphery of vehicle |
WO2014168002A1 (en) * | 2013-04-11 | 2014-10-16 | 株式会社デンソー | Target detection device and vehicle control system |
JP2016070772A (en) * | 2014-09-30 | 2016-05-09 | 富士通テン株式会社 | Rader system, vehicle control system, and signal processing method |
JP2020003336A (en) * | 2018-06-28 | 2020-01-09 | 株式会社デンソーテン | Radar device, vehicle control system, and target occupied area estimation method |
CN111226132A (en) * | 2019-03-18 | 2020-06-02 | 深圳市大疆创新科技有限公司 | Target detection method and device, millimeter wave radar and movable platform |
JP2020126008A (en) * | 2019-02-05 | 2020-08-20 | 古河電気工業株式会社 | Radar device and control method of radar device |
WO2021095455A1 (en) * | 2019-11-14 | 2021-05-20 | 日立Astemo株式会社 | Object identification device |
-
2002
- 2002-06-19 JP JP2002178825A patent/JP3952874B2/en not_active Expired - Fee Related
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072495A (en) * | 2004-08-31 | 2006-03-16 | Fuji Heavy Ind Ltd | Three-dimensional object monitoring device |
JP4510554B2 (en) * | 2004-08-31 | 2010-07-28 | 富士重工業株式会社 | Three-dimensional object monitoring device |
JP2007093347A (en) * | 2005-09-28 | 2007-04-12 | Nissan Motor Co Ltd | Stopped vehicle determination apparatus, automobile, and stopped vehicle determination method |
JP2011191227A (en) * | 2010-03-16 | 2011-09-29 | Daihatsu Motor Co Ltd | Object recognition device |
JP2012052838A (en) * | 2010-08-31 | 2012-03-15 | Daihatsu Motor Co Ltd | Object recognition device |
CN103245944A (en) * | 2012-02-13 | 2013-08-14 | 株式会社电装 | Vehicle-mounted radar apparatus |
JP2013164390A (en) * | 2012-02-13 | 2013-08-22 | Denso Corp | Radar apparatus |
US9891316B2 (en) | 2013-02-05 | 2018-02-13 | Denso Corporation | Apparatus and method for detecting target in periphery of vehicle |
CN104969090A (en) * | 2013-02-05 | 2015-10-07 | 株式会社电装 | Device and method for detecting target in periphery of vehicle |
WO2014123112A1 (en) * | 2013-02-05 | 2014-08-14 | 株式会社デンソー | Device and method for detecting target in periphery of vehicle |
JP2014169996A (en) * | 2013-02-05 | 2014-09-18 | Denso Corp | Target detection apparatus |
US9618608B2 (en) | 2013-04-11 | 2017-04-11 | Denso Corporation | Target detection apparatus and vehicle control system |
CN105393136A (en) * | 2013-04-11 | 2016-03-09 | 株式会社电装 | Target detection device and vehicle control system |
JP2014206411A (en) * | 2013-04-11 | 2014-10-30 | 株式会社デンソー | Target detection device and vehicle control system |
WO2014168002A1 (en) * | 2013-04-11 | 2014-10-16 | 株式会社デンソー | Target detection device and vehicle control system |
JP2016070772A (en) * | 2014-09-30 | 2016-05-09 | 富士通テン株式会社 | Rader system, vehicle control system, and signal processing method |
JP2020003336A (en) * | 2018-06-28 | 2020-01-09 | 株式会社デンソーテン | Radar device, vehicle control system, and target occupied area estimation method |
JP7099889B2 (en) | 2018-06-28 | 2022-07-12 | 株式会社デンソーテン | Radar device, vehicle control system and target occupied area estimation method |
JP2020126008A (en) * | 2019-02-05 | 2020-08-20 | 古河電気工業株式会社 | Radar device and control method of radar device |
JP7295648B2 (en) | 2019-02-05 | 2023-06-21 | 古河電気工業株式会社 | RADAR DEVICE AND RADAR SYSTEM CONTROL METHOD |
CN111226132A (en) * | 2019-03-18 | 2020-06-02 | 深圳市大疆创新科技有限公司 | Target detection method and device, millimeter wave radar and movable platform |
WO2021095455A1 (en) * | 2019-11-14 | 2021-05-20 | 日立Astemo株式会社 | Object identification device |
JP7373972B2 (en) | 2019-11-14 | 2023-11-06 | 日立Astemo株式会社 | object identification device |
Also Published As
Publication number | Publication date |
---|---|
JP3952874B2 (en) | 2007-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5003674B2 (en) | Radar device and moving body | |
US9610961B2 (en) | Method and device for measuring speed in a vehicle independently of the wheels | |
US6888622B2 (en) | Method for determining object type of reflective object on track | |
JP6970936B2 (en) | Object detector, object detection program, and recording medium | |
WO2014125981A1 (en) | Vehicle-mounted radar device capable of recognizing radar sensor mounting angle | |
JP3952874B2 (en) | Front object recognition device | |
CN106168667B (en) | Vehicle-mounted radar system with image reflection detection | |
KR20210048548A (en) | How to detect an angle measurement error in a radar sensor | |
JP2018009868A (en) | Position estimation device | |
CN104050806A (en) | Method for detecting traffic infractions in a traffic light zone through rear end measurement by a radar device | |
GB2390244A (en) | Method for estimating the curvature of a road using moving and stationary objects | |
WO2020039840A1 (en) | Radar processing device | |
JP2021513643A (en) | Methods and devices for detecting critical lateral movements | |
JP5526643B2 (en) | Vehicle position calculation device, driving support device, and vehicle position calculation method | |
JP3664110B2 (en) | Object type determination device and object type determination method | |
JP2007212418A (en) | On-vehicle radar device | |
US6947841B2 (en) | Method for identifying obstacles for a motor vehicle, using at least three distance sensors for identifying the lateral extension of an object | |
US11142187B2 (en) | Parking assistance device | |
US11169259B2 (en) | Method and surroundings detection device for determining the presence and/or properties of one or multiple objects in the surroundings of a motor vehicle | |
JP2011034435A (en) | Vehicle location calculation unit and vehicle location calculation method | |
JP4506163B2 (en) | Front object detection apparatus and front object detection method | |
JP2007292643A (en) | Peripheral object discriminator | |
JP5414758B2 (en) | Radar apparatus and radar apparatus performance degradation determination method | |
JP2005069739A (en) | On-vehicle obstacle detection device | |
JPH11144198A (en) | Object identifying device for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060926 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061127 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070109 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070312 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070319 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070410 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070423 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110511 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130511 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140511 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |