JP2004020492A - Front object recognition device - Google Patents

Front object recognition device Download PDF

Info

Publication number
JP2004020492A
JP2004020492A JP2002178825A JP2002178825A JP2004020492A JP 2004020492 A JP2004020492 A JP 2004020492A JP 2002178825 A JP2002178825 A JP 2002178825A JP 2002178825 A JP2002178825 A JP 2002178825A JP 2004020492 A JP2004020492 A JP 2004020492A
Authority
JP
Japan
Prior art keywords
detection target
recognition device
detection
reflection
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002178825A
Other languages
Japanese (ja)
Other versions
JP3952874B2 (en
Inventor
Kazumi Fujimoto
藤本 和巳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002178825A priority Critical patent/JP3952874B2/en
Publication of JP2004020492A publication Critical patent/JP2004020492A/en
Application granted granted Critical
Publication of JP3952874B2 publication Critical patent/JP3952874B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/80Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
    • Y02T10/84Data processing systems or methods, management, administration

Abstract

<P>PROBLEM TO BE SOLVED: To provide a front object recognition device capable of accurately determining the sort of a detected object existing in front of an own vehicle. <P>SOLUTION: This front object recognition device is provided with an arithmetic part 4 for performing the following processing. The arithmetic part 4 detects one or a plurality of detected objects by predicting that reflection points in proximity to each other out of detected reflection points are on the same detected object. The arithmetic part 4 measures distances from the reflection points to the own vehicle to compute the distribution degree of these distances, and further measures the number of reflection points existing at the rear end part of the detected object. The arithmetic part 4 determines the sort of the detected object on the basis of the distribution degree and the number of reflection points. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、自車の進行方向の前方に存在する検出対象物の種類を判定する前方物体認識装置に関する。
【0002】
【従来の技術】
従来より、自車の前方に存在する検出対象物の種類を判定する前方物体認識装置として、例えば特開平2000−132799号公報に記載された前方物体認識装置が知られている。
【0003】
この前方物体認識装置は、自車に搭載されたミリ波レーダで自車前方を所定時間毎に数回スキャニングして、自車前方に存在する検出対象物を検出する。
【0004】
そして、前方物体認識装置は、スキャニング毎に検出対象物の検出位置が変わることを利用して検出対象物の自車に対する相対速度を測定するとともに、検出対象物の幅を測定する。
【0005】
そして、前方物体認識装置は、検出対象物の検出位置、相対速度、及び幅を基に当該検出対象物の種類を判定する。
【0006】
【発明が解決しようとする課題】
しかし、当該前方物体認識装置は、以下の問題点があった。
【0007】
即ち、自車の前方に、停車中の乗用車と、当該乗用車とほぼ同一の幅を有する看板と、が存在する場合には、前方物体認識装置は、これら看板及び乗用車を同一の相対速度及び幅を有する検出対象物として検出する。
【0008】
したがって、この場合、前方物体認識装置では、これら検出対象物の種類を正確に判断することが容易でないという問題点があった。
【0009】
本発明はこのような従来の課題を解決するためになされたものであり、その主に目的とするところは、自車前方に存在する検出対象物の種類を正確に判定することができる前方物体認識装置を提供することである。
【0010】
【課題を解決するための手段】
上記目的を達成するため、本願特許請求の範囲に記載の発明では、主に、以下の点を特徴とする。
【0011】
即ち、物体識別手段が、検出された反射点のうち互いに近接した反射点が同一の検出対象物上の点であると予測することで、一又は複数の検出対象物を検出する。
【0012】
そして、当該物体識別手段が、検出対象物に含まれる反射点から自車までの距離を測定して、これら距離の分布度を算出し、さらに、検出対象物の後端部分に存在する反射点の数を測定する。
【0013】
そして、当該物体識別手段が、分布度と、反射点の数と、に基づいて、検出対象物の種類を判定する。
【0014】
【発明の効果】
本願特許請求の発明の発明では、主に以下の効果を得ることができる。
【0015】
即ち、上述したように、物体識別手段が、分布度と、後端部分の反射点の数と、に基づいて、検出対象物の種類を判定する。
【0016】
ここで、検出対象物として、ほぼ同一の幅を有し、奥行きが異なる物体(例えば、看板と普通自動車)が検出された場合、これら第二検出対象物については、上述した反射点の数はほぼ同一となるが、分布度が異なる。
【0017】
したがって、本発明では、奥行きが異なる検出対象物(例えば、看板と普通自動車)を正確に区別することができるので、検出対象物の種類を正確に判定することができる。
【0018】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0019】
まず、本発明に係る前方物体認識装置1の構成について、図1〜図4に基づいて説明する。
【0020】
ここで、図1は本発明に係る前方物体認識装置1の構成を示したブロック図であり、図2及び図3は前方物体認識装置1が備えるスキャニングミリ波レーダ(反射点検出手段)2の設置位置を示した説明図である。また、図4は、ミリ波レーダ2が反射点を検出することができる最大の範囲を示したグラフである。
【0021】
図1に示すように、前方物体認識装置1は、スキャニングミリ波レーダ(以下、「ミリ波レーダ」と称する)2と、自車10の挙動を検出する自車挙動検出部3と、ミリ波レーダによる反射点情報及び自車挙動検出部3による自車挙動情報に基づいて所定の処理を行う演算部(物体識別手段)4と、提示部5と、を備えている。
【0022】
図1に示すミリ波レーダ2は、図2及び図3に示すように、自車10の前部に設置されており、自車10の前方を電磁波(検出波)にて複数回スキャニングを行う。
【0023】
そして、ミリ波レーダ2は、当該スキャニングにより反射点を検出し、当該反射点の自車10に対する相対位置と、自車10から当該反射点までの距離と、当該反射点の自車10に対する方位と、当該反射点の自車10に対する相対速度と、を測定する。
【0024】
そして、ミリ波レーダ2は、当該相対位置、距離、方位、及び相対速度に関する反射点情報を作成して、演算部4のメモリ41(後述する)に保存する。
【0025】
ここで、ミリ波レーダ2は、電磁波を、その照射軸を単位角度Bs(角度分解能)ずつずらしながら所定回数発射することにより、スキャニングを行う。
【0026】
また、ミリ波レーダ2は、メモリ41から検出波情報(後述する)を取得し、当該検出波情報に基づいて、水平方向角度Bw及び検出可能距離を決定した後、スキャニングを行う。
【0027】
ここで、水平方向角度Bwとは、各スキャニングにおいて、最初に発射される電磁波の照射軸と、最後に発射される電磁波の照射軸と、で形成される角の大きさ(図6等参照)をいう。
【0028】
また、ミリ波レーダ2は、自車10からの距離が検出可能距離(後述する)以内である反射点のみを検出する。
【0029】
また、ミリ波レーダ2は、当該スキャニングにより、自車10の前方に存在する物体の後端部分と、当該物体の側端突起部分及び下端突起部分のうち少なくとも一方の突起部分と、における反射点を検出する。なお、側端突起部分とは、例えば、車両のバックミラー等があり、下端突起部分とは、例えば、車両の下端部分に設けられたマフラー等がある。
【0030】
また、ミリ波レーダ2は、図2及び図3に示すXYZ座標空間を定め、反射点の自車10に対する相対位置を当該XYZ座標空間における座標値として認識することで、上述した距離、方位、及び相対速度の測定を行う。
【0031】
なお、ミリ波レーダ2は、XYZ座標空間を、以下のように定める。即ち、図2及び図3に示すように、ミリ波レーダ2は、電磁波の発射点を原点として、Z軸を自車10の進路方向にとり、Y軸を水平面に鉛直な方向にとる。さらに、ミリ波レーダ2は、X軸を当該Y軸及びZ軸に垂直な方向にとることで、XYZ座標空間を定める。
【0032】
また、ミリ波レーダ2については、反射点を検出することができる最大の範囲(最大検出可能範囲)が定められている。その範囲を図4に示す。
【0033】
即ち、図4に示すように、ミリ波レーダ2は、例えば、自車10からの距離が70メートルの範囲においては、X座標値が約−3メートル〜約+3メートルの範囲内にある反射点のみを検出することができる。
【0034】
図1に示す自車挙動検出部3は、GPSアンテナと、シフトポジションセンサと、車輪速センサと、操舵角センサと、を備えており(何れも、図示せず)、以下の処理を行う。
【0035】
ここで、シフトポジションセンサは、自車10のシフトポジションを検知して第一検知情報を作成し、車輪速センサは、自車10の左右後輪の回転速度を検知して第二検知情報を作成する。また、操舵角センサは、自車10の操舵角を検知して第三検知情報を作成する。
【0036】
即ち、自車挙動検出部3は、図示しないGPS衛星から、GPS衛星の位置等に関するGPS情報をGPSアンテナを用いて取得して、自車10の位置(自車位置)を測定する。
【0037】
さらに、自車挙動検出部3は、シフトポジションセンサと、車輪速センサと、操舵角センサと、から、それぞれ第一検知情報と、第二検知情報と、第三検知情報と、を取得する。
【0038】
そして、自車挙動検出部3は、自車位置の測定結果と、これら検知情報と、に基づいて、自車10の進行方向、向き、及び移動距離を測定する。ここで、移動距離とは、例えば、自車10が移動を開始した際における自車位置から、自車挙動検出部3が測定を開始した際における自車位置まで、の距離である。
【0039】
そして、自車挙動検出部3は、自車位置、進行方向、向き、及び移動距離に関する自車挙動情報を作成して、演算部4のメモリ41に保存する。
【0040】
演算部(物体識別手段)4は、メモリ41と、物体検出部42と、物体識別部43と、を備えている。
【0041】
メモリ41は、ミリ波レーダ2から与えられた反射点情報と、自車挙動検出部3から与えられた自車挙動情報と、を記憶する。
【0042】
物体検出部42は、第一グルーピング部42aと、第二グルーピング部42bと、を備えている。
【0043】
第一グルーピング部42aは、メモリ41から反射点情報を取得し、当該反射点情報に基づいて、ミリ波レーダ2により検出された反射点のうち互いに近接する反射点が同一の第一検出対象物上の点であると予測することで、一又は複数の第一検出対象物を検出する。
【0044】
そして、第一グルーピング部42aは、所定の第一グループデータを作成して、第二グルーピング部42bに出力する。具体的には、後述する。
【0045】
第二グルーピング部42bは、第一グルーピング部42aから与えられた第一グループデータに基づいて、第一検出対象物のうち所定の条件を満たす第一検出対象物が同一の第二検出対象物(検出対象物)に属すると予測することで、一又は複数の第二検出対象物を検出する。
【0046】
そして、第二グルーピング部42bは、所定の第二グループデータを作成して、物体識別部43に出力する。具体的には、後述する。
【0047】
物体識別部43は、検出波決定部43aと、幅算出部43bと、幅判定部43cと、距離分布算出部43dと、物体奥行き判定部43eと、物体種類判定部43fと、を備えている。
【0048】
検出波決定部43aは、メモリ41から自車挙動情報を取得し、当該自車挙動情報に基づいて、ミリ波レーダ2の水平方向角度Bw及び検出可能距離を以下のように決定する。
【0049】
即ち、検出波決定部43aは、自車挙動情報に基づいて、図示しない地図データベースから自車10周辺の地図データを取得し、当該地図データに基づいて、自車10の進路範囲を測定する。
【0050】
そして、検出波決定部43aは、ミリ波レーダ2の反射点検出可能範囲(当該範囲は、水平方向角度Bw及び検出可能距離を決定することにより定まる)が、当該測定された進路範囲及び上述した最大検出可能範囲を超えないように、水平方向角度Bw及び検出可能距離を決定する。
【0051】
そして、検出波決定部43aは、当該決定された水平方向角度Bw及び検出可能距離に関する検出波情報を作成し、メモリ41に保存する。
【0052】
幅算出部43bは、第二グルーピング部42bから与えられた第二グループデータに基づいて、第二検出対象物の後端部分(後述する)から自車10までの距離Lnと、当該後端部分に存在する反射点の数Rnと、を測定する。
【0053】
そして、幅算出部43bは、測定結果に関する反射点数情報を作成し、幅判定部43cに出力する。具体的には、後述する。
【0054】
幅判定部43cは、メモリ41から検出波情報を取得し、当該検出波情報と、幅算出部43bから与えられた反射点数情報と、に基づいて、所定の基準値Wt1(下限値)、Wt2(上限値)を算出する。
【0055】
そして、幅判定部43cは、反射点の数Rnと、当該基準値Wt1、Wt2と、を比較して反射点比較情報を作成し、物体種類判定部43fに出力する。具体的には、後述する。
【0056】
距離分布算出部43dは、第二グルーピング部42bから与えられた第二グループデータに基づいて、第二検出対象物に含まれる反射点から自車10までの距離を認識し、これら距離の分布度を算出する。なお、距離分布算出部は、これら距離の分散値Ldを算出し、分布度として当該分散値Ldを用いる。
【0057】
そして、距離分布算出部43dは、当該分散値Ldに関する分散値情報を作成して、物体奥行き判定部43eに出力する。具体的には、後述する。
【0058】
物体奥行き判定部43eは、距離分布算出部43dから与えられた分散値情報に基づいて、分散値Ldと、所定の基準値Ldt1〜Ldt3と、を比較して分散値比較情報を作成し、物体種類判定部43fに出力する。具体的には、後述する。
【0059】
物体種類判定部43fは、幅判定部43cから与えられた反射点比較情報と、物体奥行き判定部43eから与えられた分散値比較情報と、に基づいて、第二検出対象物の種類を判定して、判定結果に関する判定情報を作成する。
【0060】
そして、物体種類判定部43fは、当該作成された判定情報をメモリ41に保存すると共に、提示部5に出力する。具体的には、後述する。
【0061】
提示部5は、物体種類判定部43fから与えられた判定情報を画像表示すると共に、音声にて出力する。
【0062】
次に、前方物体認識装置1による処理の手順について、図1〜図8に基づいて説明する。ここで、図5は、前方物体認識装置1による処理の手順を示したフローチャートであり、図6は、反射点及び第一検出対象物の位置を示した概略平面図である。また、図7は、反射点及び第二検出対象物等の位置を示した概略平面図であり、図8は、基準値Wt1、Wt2と距離Lnとの関係を示したグラフである。
【0063】
なお、本実施の形態では、一例として、図6に示すように、自車10の前方に、デリニエータ群(物体)Aと、普通乗用車(物体)Bと、大型トラック(物体)Cと、大型標識(物体)Dと、が存在する場合における処理の手順について説明する。ここで、前方物体認識装置1を他の場合にも使用することができるのは勿論である。
【0064】
図5に示すステップS1にて、図1に示す自車挙動検出部3が、自車位置を測定し、さらに、自車10の進行方向、向き、及び移動距離を測定する。
【0065】
次いで、自車挙動検出部3は、自車位置、進行方向、向き、及び移動距離に関する自車挙動情報を作成して、メモリ41に保存する。
【0066】
次いで、検出波決定部43aが、メモリ41から自車挙動情報を取得し、当該自車挙動情報に基づいて、ミリ波レーダ2の水平方向角度Bw及び検出可能距離を決定する。
【0067】
次いで、ミリ波レーダ2が、自車10の前方を電磁波にて複数回スキャニングを行う。
【0068】
ここで、ミリ波レーダ2は、スキャニングを行うに際しては、メモリ41から検出波情報を取得し、当該検出波情報に基づいて、最初に発射される電磁波の照射軸と、最後に発射される電磁波の照射軸と、で形成される角の大きさを、当該決定された水平方向角度Bwに合わせる。
【0069】
また、ミリ波レーダ2は、自車10から当該決定された検出可能距離内に存在する反射点のみを検出する。
【0070】
この結果、ミリ波レーダ2は、図6に示すように、反射点a1〜a4、b1〜b3、c1〜c8、d1〜d5を検出する。
【0071】
次いで、ミリ波レーダ2は、各反射点の自車10に対する相対位置と、自車10から各反射点までの距離と、各反射点の自車10に対する方位と、各反射点の自車10に対する相対速度と、を測定する。
【0072】
次いで、ミリ波レーダ2は、これら相対位置、距離、方位、及び相対速度に関する反射点情報を作成して、演算部4のメモリ41に保存する。
【0073】
次いで、図5に示すステップS2にて、第一グルーピング部42aは、メモリ41から反射点情報を取得する。
【0074】
次いで、第一グルーピング部42aは、当該反射点情報に基づいて、以下の処理を行うことで、第一検出対象物を検出する。
【0075】
即ち、第一グルーピング部42aは、一の反射点について、当該一の反射点から所定の基準距離L1内に他の反射点が存在するかどうかを判断する。
【0076】
ここで、基準距離L1については、互いに近接した相対位置にて検出された反射点が同一の第一検出対象物上の点であると予測されるように、予め定められる。
【0077】
次いで、第一グルーピング部42aは、他の反射点が存在すると判断した場合には、当該一の反射点と、他の反射点と、が同一の第一検出対象物上の点である(言い換えれば、同一の第一検出対象物に属する)と予測することで、第一検出対象物を検出する。
【0078】
一方、第一グルーピング部42aは、他の反射点が存在しないと判断した場合には、当該一の反射点のみが属する第一検出対象物が存在すると予測することで、第一検出対象物を検出する。
【0079】
次いで、第一グルーピング部42aは、どの第一検出対象物に属するか予測されていない反射点について、上述した処理を繰り返して行うことで、全ての反射点について、どの第一検出対象物に属するか予測する。
【0080】
以上の処理により、第一グルーピング部42aは、第一検出対象物を検出する。
【0081】
本例の場合では、図6に示すように、第一グルーピング部42aは、反射点a1〜a4、c5〜c8については、各反射点から基準距離L1内に他の反射点が存在しないと判断する。
【0082】
この結果、第一グルーピング部42aは、反射点a1〜a4、c5〜c8がそれぞれ属する第一検出対象物R1〜R4、R7〜R10が存在すると予測することで、第一検出対象物R1〜R4、R7〜R10を検出する。
【0083】
一方、第一グルーピング部42aは、反射点b1から基準距離L1内に反射点b2が存在し、反射点b3から基準距離L1内に反射点b2が存在すると判断する。
【0084】
この結果、第一グルーピング部42aは、反射点b1〜b3が同一の第一検出対象物R5上の点であると予測する。
【0085】
同様に、第一グルーピング部42aは、反射点c1から基準距離L1内に反射点c2が存在し、反射点c3から基準距離L1内に反射点c2が存在し、反射点c4から基準距離L1内に反射点c3が存在すると判断する。
【0086】
この結果、第一グルーピング部42aは、反射点c1〜c4が同一の第一検出対象物R6上の点であると予測する。
【0087】
同様に、第一グルーピング部42aは、反射点d1から基準距離L1内に反射点d2が存在し、反射点d3から基準距離L1内に反射点d2が存在し、反射点d4から基準距離L1内に反射点d3が存在すると判断する。さらに、第一グルーピング部42aは、反射点d5から基準距離L1内に反射点d4が存在すると判断する。
【0088】
この結果、第一グルーピング部42aは、反射点d1〜d5が同一の第一検出対象物R11上の点であると予測する。
【0089】
次いで、第一グルーピング部42aは、各第一検出対象物について、以下の処理を行う。
【0090】
即ち、第一グルーピング部42aは、第一検出対象物の中心点の位置(即ち、中心点の位置座標(X、Y、Z))を算出して、当該中心点の位置を、当該第一検出対象物の位置とする。
【0091】
また、第一グルーピング部42aは、当該中心点から自車10までの距離(以下、第一中心点距離」と称する)を算出し、当該第一中心点距離を、当該第一検出対象物から自車10までの距離とする。
【0092】
また、第一グルーピング部42aは、当該中心点の自車10に対する方位を算出し、当該方位を、第一検出対象物の自車10に対する方位とする。
【0093】
また、第一グルーピング部42aは、第一検出対象物に含まれる反射点のうち、X座標値が最小の反射点と、X座標の値が最大の反射点と、のX座標値の差の絶対値を算出する。
【0094】
そして、第一グルーピング部42aは、当該絶対値に単位スキャン幅(上述した第一中心点距離に、上述した単位角度Bsを乗じることで得られる値)を加えて得られる値を第一検出対象物の幅とする。
【0095】
また、第一検出対象物に含まれる全ての反射点の相対速度を平均して平均値を算出し、当該平均値を第一検出対象物の相対速度とする。
【0096】
次いで、第一グルーピング部42aは、各第一検出対象物について算出した位置、距離、方位、幅、及び相対速度に関する情報と、上述した反射点情報と、を含む第一グループデータを作成し、当該第一グループデータをメモリ41に保存すると共に、第二グルーピング部42bに出力する。
【0097】
次いで、図5に示すステップS3にて、図1に示す第二グルーピング部42bが、第一グルーピング部42aから与えられた第一グループデータに基づいて、以下の処理を行うことで、第二検出対象物を検出する。
【0098】
即ち、第二グルーピング部42bは、以下の条件を満たす第一検出対象物の組が同一の第二検出対象物に属すると予測することで、一又は複数の第二検出対象物を検出する。
【0099】
ここで、条件とは、(a)第一検出対象物の組について、互いに隣接する第一検出対象物どうしの間隔(距離)が基準距離L2以下であること、及び(b)第一検出対象物の組について、任意の第一検出対象物の相対速度と、他の全ての第一検出対象物の相対速度と、の差(以下、「相対速度差」と称する)の絶対値が、基準値V1以下であること、の二つである。
【0100】
ここで、基準距離L2及び基準値V1については、互いに近接する反射点が同一の第二検出対象物上の点であると予測されるように、予め定められる。
【0101】
一方、第二グルーピング部42bは、上記処理を行った結果、何れの第二検出対象物にも属さない第一検出対象物が存在する場合、当該第一検出対象物のみが属する第二検出対象物が存在すると予測する。
【0102】
以上の処理により、第二グルーピング部42bは、第二検出対象物を検出する。
【0103】
本例の場合では、図7に示すように、第二グルーピング部42bは、第一検出対象物R1〜R4の組については、上述した条件(a)及び(b)を満たすと判断する。
【0104】
この結果、第二グルーピング部42bは、第一検出対象物R1〜R4の組が同一の第一検出対象物O1上の点であると予測する。
【0105】
同様に、第二グルーピング部42bは、第一検出対象物R6〜R10の組については、上述した条件(a)及び(b)を満たすと判断する。
【0106】
この結果、第二グルーピング部42bは、第一検出対象物R6〜R10の組が同一の第二検出対象物O3に属すると予測する。
【0107】
上記処理の結果、何れの第二検出対象物にも属さない第一検出対象物R5、R11が存在することとなる。
【0108】
そこで、第二グルーピング部42bは、第一検出対象物R5、R11がそれぞれ属する第二検出対象物O2、O4が存在すると予測することで、第二検出対象物O2、O4を検出する。
【0109】
次いで、第二グルーピング部42bは、各第二検出対象物について、以下の処理を行う。
【0110】
即ち、第二グルーピング部42bは、第二検出対象物の中心点の位置(即ち、中心点の位置座標(X、Y、Z))を算出して、当該中心点の位置を、当該第二検出対象物の位置とする。
【0111】
また、第二グルーピング部42bは、当該中心点から自車10までの距離(以下、「第二中心点距離」と称する)を算出し、当該第二中心点距離を、当該第二検出対象物から自車10までの距離とする。
【0112】
また、第二グルーピング部42bは、当該中心点の自車10に対する方位を算出し、当該方位を、当該第二検出対象物の自車10に対する方位とする。
【0113】
また、第二グルーピング部42bは、第二検出対象物に含まれる第一検出対象物のうち、X座標値が最小の第一検出対象物と、X座標値が最大の第一検出対象物と、のX座標値の差の絶対値を算出する。
【0114】
そして、第二グルーピング部42bは、当該X座標値の差の絶対値に単位スキャン幅(上述した第二中心点距離に、上述した単位角度Bsを乗じることで得られる値)を加えて得られる値を第二検出対象物の幅とする。
【0115】
また、当該第二検出対象物に含まれる全ての第一検出対象物の相対速度を平均して平均値を算出し、当該平均値を当該第二検出対象物の相対速度とする。
【0116】
次いで、第二グルーピング部42bは、各第二検出対象物について算出した位置、距離、方位、幅、及び相対速度に関する情報と、上述した反射点情報と、を含む第二グループデータを作成する。
【0117】
次いで、第二グルーピング部42bは、当該第二グループデータをメモリ41に保存すると共に、幅算出部43bと、距離分布算出部43dと、に出力する。
【0118】
次いで、図5に示すステップS4にて、幅算出部43bは、第二グルーピング部42bから与えられた第二グループデータに基づいて、各第二検出対象物について以下の処理を行う。
【0119】
即ち、幅算出部43bは、第二検出対象物に含まれる反射点のうち、自車10に最も近接した反射点を検出し、当該反射点から所定の基準距離L3内に存在する反射点(即ち、第二検出対象物の後端部分に存在する反射点)をカウントする。ここで、L3の値については、予め定められる。
【0120】
さらに、幅算出部43bは、当該後端部分の中心点から自車10までの距離Lnを測定する。
【0121】
次いで、幅算出部43bは、各第二検出対象物についてカウントされた反射点の数Rnと、測定された距離Lnと、に関する反射点数情報を作成し、幅判定部43cに出力する。
【0122】
次いで、幅判定部43cは、メモリ41から検出波情報を取得し、当該検出波情報と、幅算出部43bから与えられた反射点数情報と、に基づいて、以下の処理を行う。
【0123】
即ち、幅判定部43cは、以下の式(1)、(2)を用いて、基準値Wt1(下限値)、Wt2(上限値)を算出する。
【0124】
Wt1=(2*tan−1(1.0/2/Ln)*180/π)/Bw+Bs/Bw …(1)
Wt2=(2*tan−1(1.8/2/Ln)*180/π)/Bw+Bs/Bw …(2)
ここで、基準値Wt1は、自車10の前方に車幅1メートルの普通乗用車が存在し、且つ、自車10から当該普通乗用車の後端部までの距離がLnである場合に、ミリ波レーダ2が当該後端部をスキャニングして検出する反射点の数である。
【0125】
同様に、基準値Wt2は、自車10の前方に車幅1.8メートルの普通乗用車が存在し、且つ、自車10から当該普通乗用車の後端部までの距離がLnである場合に、ミリ波レーダ2が当該後端部をスキャニングして検出する反射点の数である。
【0126】
次いで、幅判定部43cは、当該算出された基準値Wt1、Wt2と、反射点の数Rnと、を比較して反射点比較情報を作成し、物体種類判定部43fに出力する。
【0127】
一方、距離分布算出部43dは、第二グルーピング部42bから与えられた第二グループデータに基づいて、各第二検出対象物について、以下の処理を行う。
【0128】
即ち、距離分布算出部43dは、一の第二検出対象物に含まれる各反射点から自車10までの距離を認識する。
【0129】
次いで、距離分布算出部43dは、これら距離の分散値Ldを算出し、当該分散値Ldを距離の分布度として用いる。
【0130】
次いで、距離分布算出部43dは、当該算出された分散値Ldに関する分散値情報を作成して、物体奥行き判定部43eに出力する。
【0131】
次いで、物体奥行き判定部43eは、距離分布算出部43dから与えられた分散値情報に基づいて、分散値Ldと、所定の基準値Ldt1〜Ldt3と、を比較して分散値比較情報を作成し、物体種類判定部43fに出力する。
【0132】
ここで、基準値Ldt1は、第二検出対象物が普通乗用車である場合に、上述した分散値Ldがとりうる下限値であり、基準値Ldt2は、第二検出対象物が普通乗用車である場合に、上述した分散値Ldがとりうる上限値である。
【0133】
また、基準値Ldt3は、第二検出対象物が大型バスである場合に、上述した分散値Ldがとりうる上限値である。
【0134】
次いで、図1に示す物体種類判定部43fが、幅判定部43cから与えられた反射点比較情報と、物体奥行き判定部43eから与えられた分散値比較情報と、に基づいて、各第二検出対象物の種類を以下のように判定する。
【0135】
即ち、物体種類判定部43fは、一の第二検出対象物について、以下の式(3)が成立する場合には、当該一の第二検出対象物を普通乗用車(またはその一部)と判定する。
【0136】
Wt1≦Rn≦Wt2かつLdt1≦Ld≦Ldt2 …式(3)
一方、物体種類判定部43fは、一の第二検出対象物について、以下の式(4)が成立する場合には、当該一の第二検出対象物を大型バス(またはその一部)と判定する。
【0137】
Wt2<RnかつLdt2≦Ld≦Ldt3 …式(4)
一方、物体種類判定部43fは、一の第二検出対象物について、以下の式(5)が成立する場合には、当該一の第二検出対象物を大型トラック(またはその一部)と判定する。
【0138】
Wt2<RnかつLdt3<Ld …式(5)
一方、物体種類判定部43fは、一の第二検出対象物について、以下の式(6)が成立する場合には、当該一の第二検出対象物を大型標識(またはその一部)と判定する。
【0139】
Wt2<RnかつLd<Ldt1 …式(6)
一方、物体種類判定部43fは、一の第二検出対象物について、以下の式(7)が成立する場合には、当該一の第二検出対象物を中型標識(またはその一部)と判定する。
【0140】
Wt1≦Rn≦Wt2かつLd<Ldt1 …式(7)
一方、物体種類判定部43fは、一の第二検出対象物について、以下の式(8)が成立する場合には、当該一の第二検出対象物を小型標識(またはその一部)と判定する。
【0141】
Rn<Wt1かつLd<Ldt1 …式(8)
一方、物体種類判定部43fは、一の第二検出対象物について、以下の式(9)が成立する場合には、当該一の第二検出対象物をデリニエータ群(またはその一部)と判定する。
【0142】
Rn<Wt1かつLdt3<Ld …式(9)
本例の場合では、物体種類判定部43fは、第二検出対象物O1について、式(9)が成立すると判断し、当該第二検出対象物O1をデリニエータ群(またはその一部)と判定する。
【0143】
また、物体種類判定部43fは、第二検出対象物O2について、式(1)が成立すると判断し、当該第二検出対象物O2を普通乗用車(またはその一部)と判定する。
【0144】
また、物体種類判定部43fは、第二検出対象物O3について、式(5)が成立すると判断し、当該第二検出対象物O3を大型トラック(またはその一部)と判定する。
【0145】
また、物体種類判定部43fは、第二検出対象物O4について、式(6)が成立すると判断し、当該第二検出対象物O4を大型標識(またはその一部)と判定する。
【0146】
次いで、物体種類判定部43fは、第二検出対象物の種類、X座標値、Z座標値、幅、及び相対速度に関する判定情報を作成し、当該判定情報をメモリ41に保存すると共に、提示部5に出力する。
【0147】
次いで、図5に示すステップS5にて、提示部5は、物体種類判定部43fから与えられた判定情報を画像表示すると共に、音声にて出力する。
【0148】
次いで、前方物体認識装置1は、ステップS1からの処理を繰り返して行う。
【0149】
以上により、本実施の形態では、前方物体認識装置1は、互いに近接した位置にて検出された反射点が同一の第二検出対象物上の点であると予測して、第二検出対象物を検出する。
【0150】
そして、前方物体認識装置1は、第二検出対象物に含まれる反射点から自車10までの距離を測定して、これら距離の分布度を算出し、さらに、第二検出対象物の後端部分に存在する反射点の数Rnを測定する。
【0151】
そして、前方物体認識装置1は、分布度と、反射点の数Rnと、に基づいて、第二検出対象物の種類を判定する。
【0152】
ここで、第二検出対象物として、ほぼ同一の幅を有し、奥行きが異なる物体(例えば、看板と普通自動車)が検出された場合、これら第二検出対象物については、反射点の数Rnがほぼ同一となるが、分布度が異なる。
【0153】
したがって、前方物体認識装置1は、奥行きが異なる第二検出対象物(例えば、看板と普通自動車)を正確に区別することができるので、第二検出対象物の種類を正確に判定することができる(請求項1記載発明に対応する効果)。
【0154】
また、前方物体認識装置1は、第一検出対象物の組が上述した条件(a)及び(b)を満たす場合には、当該第一検出対象物の組が同一の第二検出対象物に属すると予測する。
【0155】
したがって、前方物体認識装置1は、相対速度差の絶対値が基準値V1より大きい第一検出対象物どうし(例えば、自動車とデリニエータ群)が同一の第二検出対象物に属すると予測しない。
【0156】
これにより、前方物体認識装置1は、異なる種類の第一検出対象物が同一の第二検出対象物に属すると予測されることを防止することができる。
【0157】
また、前方物体認識装置1は、自車10の進行方向の前方に存在する一又は複数の物体の後端部分と、前記物体の側端突起部分及び上端突起部分のうち少なくとも一方の突起部分と、における反射点を検出することができる。
【0158】
これにより、前方物体認識装置1は、奥行きのある物体について、当該物体の後端部分以外の部分からの反射点を正確に検出することができる(請求項2記載の発明に対応する効果)。
【0159】
また、前方物体認識装置1は、分散値Ldを算出し、当該分散値Ldを上述した分布度として用いるので、分布度として正確な値を用いることができる(請求項6記載の発明に対応する効果)。
【0160】
また、前方物体認識装置1は、上述した反射点の数Rnと、予め算出された基準値Wt1(下限値)、Wt2(上限値)と、を比較し、当該比較の結果と、分布度(分散値Ld)と、に基づいて、第二検出対象物の種類を判定する。
【0161】
これにより、前方物体認識装置1は、基準値Wt1、Wt2を調整することで、第二検出対象物の種類を正確に判定することができる(請求項3または4記載の発明に対応する効果)。
【0162】
ここで、本実施の形態では、前方物体認識装置1は、第二検出対象物の種類を判定するに際しては、当該比較の他、分散値Ldと、基準値Ldt1〜Ldt3と、を比較する。
【0163】
そして、基準値Wt1、Wt2、Ldt1〜Ldt3については、上述したように算出されているので、前方物体認識装置1は、第二検出対象物の種類を正確に判定することができる(式(3)〜(9)参照)。
【0164】
また、前方物体認識装置1は、ミリ波レーダ2の反射点検出可能範囲が、自車10の進路範囲を超えないように制御する。
【0165】
これにより、前方物体認識装置1は、自車の進路範囲に応じて、ミリ波レーダ2の反射点検出可能範囲を調整することができる。
【0166】
また、当該反車点検出可能範囲は、ミリ波レーダ2の水平方向角度Bw及び検出可能距離により定まるので、前方物体認識装置1は、当該制御を行うことで、基準値Wt1、Wt2を算出する際に使用される水平方向角度Bwを決定することができる(式(1)等参照)。
【0167】
また、前方物体認識装置1は、当該制御を行うことで、ミリ波レーダ2が自車10の進路範囲外における反射点を検出することを防止することができる(請求項5記載の発明に対応する効果)。
【図面の簡単な説明】
【図1】本発明に係る前方物体認識装置の構成を示したブロック図である。
【図2】ミリ波レーダの設置位置を示した概略側面図である。
【図3】ミリ波レーダの設置位置を示した概略平面図である。
【図4】ミリ波レーダが反射点を検出することができる最大の範囲を示したグラフである。
【図5】前方物体認識装置による処理の手順を示したフローチャートである。
【図6】反射点及び第一検出対象物の位置を示した概略平面図である。
【図7】反射点及び第二検出対象物等の位置を示した概略平面図である。
【図8】基準値Wt1、Wt2と距離Lnとの関係を示したグラフである。
【符号の説明】
1 前方物体認識装置
2 ミリ波レーダ(反射点検出手段)
3 自車挙動検出部
4 演算部(物体識別手段)
10 自車
Ld 分散値
O1〜O4 第二検出対象物(検出対象物)
Rn 反射点の数
Wt1 基準値(下限値)
Wt2 基準値(上限値)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a forward object recognition device that determines a type of a detection target existing ahead of a traveling direction of a vehicle.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, for example, a front object recognition device described in Japanese Patent Application Laid-Open No. 2000-132799 is known as a front object recognition device that determines the type of a detection target object existing in front of a vehicle.
[0003]
This forward object recognition device scans the front of the host vehicle several times at predetermined time intervals with a millimeter wave radar mounted on the host vehicle, and detects a detection target existing in front of the host vehicle.
[0004]
The forward object recognition device measures the relative speed of the detection target with respect to the own vehicle using the fact that the detection position of the detection target changes for each scanning, and also measures the width of the detection target.
[0005]
Then, the forward object recognition device determines the type of the detection target based on the detection position, the relative speed, and the width of the detection target.
[0006]
[Problems to be solved by the invention]
However, the forward object recognition device has the following problems.
[0007]
That is, if a stopped car and a signboard having substantially the same width as the stopped car exist in front of the own vehicle, the front object recognition apparatus sets the signboard and the car at the same relative speed and width. Is detected as a detection target having
[0008]
Therefore, in this case, the forward object recognition device has a problem that it is not easy to accurately determine the type of the detection target.
[0009]
The present invention has been made in order to solve such a conventional problem, and a main object of the present invention is to provide a forward object capable of accurately determining the type of a detection target existing in front of a vehicle. It is to provide a recognition device.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the invention described in the claims of the present application is mainly characterized by the following points.
[0011]
That is, the object identification unit detects one or a plurality of detection targets by predicting that the reflection points close to each other among the detected reflection points are points on the same detection target.
[0012]
Then, the object identification unit measures the distance from the reflection point included in the detection target to the host vehicle, calculates the distribution of these distances, and further calculates the reflection point existing at the rear end of the detection target. Measure the number.
[0013]
Then, the object identification unit determines the type of the detection target based on the distribution degree and the number of reflection points.
[0014]
【The invention's effect】
According to the invention of the present invention, the following effects can be mainly obtained.
[0015]
That is, as described above, the object identification unit determines the type of the detection target based on the degree of distribution and the number of reflection points at the rear end.
[0016]
Here, when objects having substantially the same width and different depths (for example, a signboard and an ordinary car) are detected as the detection target, the number of the above-described reflection points for these second detection targets is Almost the same, but the distribution is different.
[0017]
Therefore, according to the present invention, detection objects having different depths (for example, signboards and ordinary automobiles) can be accurately distinguished, so that the type of the detection object can be accurately determined.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0019]
First, the configuration of the front object recognition device 1 according to the present invention will be described with reference to FIGS.
[0020]
Here, FIG. 1 is a block diagram showing a configuration of a forward object recognition device 1 according to the present invention, and FIGS. 2 and 3 show a scanning millimeter wave radar (reflection point detecting means) 2 provided in the forward object recognition device 1. It is explanatory drawing which showed the installation position. FIG. 4 is a graph showing the maximum range in which the millimeter wave radar 2 can detect a reflection point.
[0021]
As shown in FIG. 1, a forward object recognition device 1 includes a scanning millimeter wave radar (hereinafter, referred to as “millimeter wave radar”) 2, a vehicle behavior detection unit 3 that detects the behavior of the vehicle 10, and a millimeter wave. An arithmetic unit (object identification means) 4 for performing a predetermined process based on the reflection point information from the radar and the vehicle behavior information by the vehicle behavior detection unit 3, and a presentation unit 5.
[0022]
As shown in FIGS. 2 and 3, the millimeter wave radar 2 shown in FIG. 1 is installed in front of the vehicle 10 and scans the front of the vehicle 10 a plurality of times using electromagnetic waves (detection waves). .
[0023]
The millimeter-wave radar 2 detects the reflection point by the scanning, and determines the relative position of the reflection point with respect to the own vehicle 10, the distance from the own vehicle 10 to the reflection point, and the azimuth of the reflection point with respect to the own vehicle 10. And the relative speed of the reflection point with respect to the vehicle 10 is measured.
[0024]
Then, the millimeter-wave radar 2 creates reflection point information relating to the relative position, distance, azimuth, and relative speed, and stores the information in the memory 41 (described later) of the calculation unit 4.
[0025]
Here, the millimeter wave radar 2 performs scanning by emitting an electromagnetic wave a predetermined number of times while shifting its irradiation axis by a unit angle Bs (angular resolution).
[0026]
Further, the millimeter wave radar 2 acquires detection wave information (described later) from the memory 41, determines a horizontal angle Bw and a detectable distance based on the detection wave information, and then performs scanning.
[0027]
Here, the horizontal direction angle Bw is the magnitude of an angle formed by the irradiation axis of the electromagnetic wave emitted first and the irradiation axis of the electromagnetic wave emitted last in each scanning (see FIG. 6 and the like). Say.
[0028]
Further, the millimeter wave radar 2 detects only a reflection point whose distance from the vehicle 10 is within a detectable distance (described later).
[0029]
The millimeter-wave radar 2 is configured such that the scanning causes reflection points at a rear end portion of an object existing in front of the vehicle 10 and at least one of a side end protrusion portion and a lower end protrusion portion of the object. Is detected. In addition, the side end protrusion includes, for example, a rearview mirror of a vehicle, and the lower end protrusion includes, for example, a muffler provided at a lower end of the vehicle.
[0030]
In addition, the millimeter-wave radar 2 determines the XYZ coordinate space shown in FIGS. 2 and 3 and recognizes the relative position of the reflection point with respect to the own vehicle 10 as the coordinate value in the XYZ coordinate space. And measurement of relative speed.
[0031]
The millimeter wave radar 2 defines the XYZ coordinate space as follows. That is, as shown in FIGS. 2 and 3, the millimeter-wave radar 2 sets the Z axis in the direction of the path of the vehicle 10 and the Y axis in a direction perpendicular to the horizontal plane, with the emission point of the electromagnetic wave as the origin. Further, the millimeter wave radar 2 determines the XYZ coordinate space by taking the X axis in a direction perpendicular to the Y axis and the Z axis.
[0032]
For the millimeter-wave radar 2, a maximum range in which a reflection point can be detected (maximum detectable range) is defined. The range is shown in FIG.
[0033]
That is, as shown in FIG. 4, the millimeter-wave radar 2 has, for example, a reflection point whose X coordinate value is within a range of about −3 m to about +3 m when the distance from the vehicle 10 is 70 m. Only can be detected.
[0034]
The own vehicle behavior detecting unit 3 shown in FIG. 1 includes a GPS antenna, a shift position sensor, a wheel speed sensor, and a steering angle sensor (all are not shown), and performs the following processing.
[0035]
Here, the shift position sensor generates the first detection information by detecting the shift position of the vehicle 10, and the wheel speed sensor detects the rotation speeds of the left and right rear wheels of the vehicle 10 to generate the second detection information. create. Further, the steering angle sensor detects the steering angle of the vehicle 10 and creates third detection information.
[0036]
That is, the own vehicle behavior detecting unit 3 acquires GPS information relating to the position of the GPS satellite or the like from a GPS satellite (not shown) using a GPS antenna, and measures the position of the own vehicle 10 (own vehicle position).
[0037]
Further, the own-vehicle behavior detecting unit 3 acquires first detection information, second detection information, and third detection information from the shift position sensor, the wheel speed sensor, and the steering angle sensor, respectively.
[0038]
Then, the own vehicle behavior detecting unit 3 measures the traveling direction, the direction, and the moving distance of the own vehicle 10 based on the measurement result of the own vehicle position and the detection information. Here, the moving distance is, for example, a distance from the own vehicle position when the own vehicle 10 starts moving to the own vehicle position when the own vehicle behavior detecting unit 3 starts measurement.
[0039]
Then, the own vehicle behavior detecting unit 3 creates own vehicle behavior information regarding the own vehicle position, the traveling direction, the direction, and the moving distance, and stores the information in the memory 41 of the arithmetic unit 4.
[0040]
The calculation unit (object identification unit) 4 includes a memory 41, an object detection unit 42, and an object identification unit 43.
[0041]
The memory 41 stores the reflection point information provided from the millimeter wave radar 2 and the vehicle behavior information provided from the vehicle behavior detection unit 3.
[0042]
The object detection unit 42 includes a first grouping unit 42a and a second grouping unit 42b.
[0043]
The first grouping unit 42a acquires the reflection point information from the memory 41, and, based on the reflection point information, among the reflection points detected by the millimeter wave radar 2, the reflection points close to each other have the same first detection target. By predicting the above point, one or more first detection targets are detected.
[0044]
Then, the first grouping unit 42a creates predetermined first group data and outputs it to the second grouping unit 42b. The details will be described later.
[0045]
The second grouping unit 42b, based on the first group data provided from the first grouping unit 42a, has the same first detection target object that satisfies a predetermined condition among the first detection target objects ( By detecting that the second detection target belongs to one or more detection targets, one or more second detection targets are detected.
[0046]
Then, the second grouping unit 42 b creates predetermined second group data and outputs it to the object identification unit 43. The details will be described later.
[0047]
The object identification unit 43 includes a detection wave determination unit 43a, a width calculation unit 43b, a width determination unit 43c, a distance distribution calculation unit 43d, an object depth determination unit 43e, and an object type determination unit 43f. .
[0048]
The detection wave determining unit 43a acquires the vehicle behavior information from the memory 41, and determines the horizontal angle Bw and the detectable distance of the millimeter wave radar 2 based on the vehicle behavior information as follows.
[0049]
That is, the detection wave determination unit 43a acquires map data around the host vehicle 10 from a map database (not shown) based on the host vehicle behavior information, and measures the course range of the host vehicle 10 based on the map data.
[0050]
Then, the detection wave determination unit 43a determines the reflection point detectable range of the millimeter wave radar 2 (the range is determined by determining the horizontal angle Bw and the detectable distance), and the measured course range and the above-described range. The horizontal direction angle Bw and the detectable distance are determined so as not to exceed the maximum detectable range.
[0051]
Then, the detection wave determining unit 43a creates detection wave information regarding the determined horizontal angle Bw and the detectable distance, and stores the information in the memory 41.
[0052]
Based on the second group data provided from the second grouping unit 42b, the width calculation unit 43b calculates a distance Ln from a rear end portion (described later) of the second detection target to the host vehicle 10 and the rear end portion. And the number Rn of the reflection points existing in the measurement are measured.
[0053]
Then, the width calculation unit 43b creates reflection point number information related to the measurement result and outputs the information to the width determination unit 43c. The details will be described later.
[0054]
The width determining unit 43c acquires the detected wave information from the memory 41, and determines predetermined reference values Wt1 (lower limit value), Wt2 based on the detected wave information and the reflection point number information given from the width calculating unit 43b. (Upper limit) is calculated.
[0055]
Then, the width determination unit 43c compares the number Rn of reflection points with the reference values Wt1 and Wt2 to create reflection point comparison information, and outputs the information to the object type determination unit 43f. The details will be described later.
[0056]
The distance distribution calculation unit 43d recognizes the distance from the reflection point included in the second detection target to the vehicle 10 based on the second group data given from the second grouping unit 42b, and calculates the distribution of these distances. Is calculated. Note that the distance distribution calculation unit calculates the variance Ld of these distances, and uses the variance Ld as the degree of distribution.
[0057]
Then, the distance distribution calculation unit 43d creates variance value information related to the variance value Ld and outputs the variance value information to the object depth determination unit 43e. The details will be described later.
[0058]
The object depth determination unit 43e compares the variance value Ld with predetermined reference values Ldt1 to Ldt3 based on the variance value information given from the distance distribution calculation unit 43d to create variance value comparison information. Output to the type determination unit 43f. The details will be described later.
[0059]
The object type determination unit 43f determines the type of the second detection target based on the reflection point comparison information given from the width determination unit 43c and the variance value comparison information given from the object depth determination unit 43e. Then, the judgment information on the judgment result is created.
[0060]
Then, the object type determination unit 43f stores the created determination information in the memory 41 and outputs the determination information to the presentation unit 5. The details will be described later.
[0061]
The presentation unit 5 displays the determination information given from the object type determination unit 43f as an image and also outputs the determination information by voice.
[0062]
Next, a procedure of processing by the front object recognition device 1 will be described with reference to FIGS. Here, FIG. 5 is a flowchart showing a procedure of processing by the forward object recognition device 1, and FIG. 6 is a schematic plan view showing the positions of the reflection points and the first detection target. FIG. 7 is a schematic plan view showing the positions of the reflection point and the second detection target, and FIG. 8 is a graph showing the relationship between the reference values Wt1 and Wt2 and the distance Ln.
[0063]
In the present embodiment, as an example, as shown in FIG. 6, a group of delineators (objects) A, ordinary passenger cars (objects) B, large trucks (objects) C, The processing procedure when the sign (object) D is present will be described. Here, it is needless to say that the front object recognition device 1 can be used in other cases.
[0064]
In step S1 shown in FIG. 5, the own-vehicle behavior detection unit 3 shown in FIG. 1 measures the own-vehicle position, and further measures the traveling direction, the direction, and the moving distance of the own-vehicle 10.
[0065]
Next, the own vehicle behavior detecting unit 3 creates own vehicle behavior information on the own vehicle position, the traveling direction, the direction, and the moving distance, and stores the information in the memory 41.
[0066]
Next, the detection wave determination unit 43a acquires the own vehicle behavior information from the memory 41, and determines the horizontal angle Bw and the detectable distance of the millimeter wave radar 2 based on the own vehicle behavior information.
[0067]
Next, the millimeter wave radar 2 scans the front of the vehicle 10 a plurality of times using electromagnetic waves.
[0068]
Here, when performing scanning, the millimeter-wave radar 2 acquires detection wave information from the memory 41 and, based on the detection wave information, irradiates the irradiation axis of the electromagnetic wave emitted first and the electromagnetic wave emitted last. And the size of the angle formed by the irradiation axis are adjusted to the determined horizontal angle Bw.
[0069]
Further, the millimeter wave radar 2 detects only the reflection points existing within the determined detectable distance from the vehicle 10.
[0070]
As a result, the millimeter wave radar 2 detects reflection points a1 to a4, b1 to b3, c1 to c8, and d1 to d5 as shown in FIG.
[0071]
Next, the millimeter wave radar 2 determines the relative position of each reflection point with respect to the own vehicle 10, the distance from the own vehicle 10 to each reflection point, the azimuth of each reflection point with respect to the own vehicle 10, and the And the relative speed to
[0072]
Next, the millimeter-wave radar 2 creates reflection point information on these relative positions, distances, directions, and relative velocities, and stores the information in the memory 41 of the arithmetic unit 4.
[0073]
Next, the first grouping unit 42a acquires the reflection point information from the memory 41 in step S2 shown in FIG.
[0074]
Next, the first grouping unit 42a detects the first detection target object by performing the following processing based on the reflection point information.
[0075]
That is, the first grouping unit 42a determines, for one reflection point, whether or not another reflection point exists within a predetermined reference distance L1 from the one reflection point.
[0076]
Here, the reference distance L1 is predetermined so that the reflection points detected at relative positions close to each other are predicted to be points on the same first detection target.
[0077]
Next, when the first grouping unit 42a determines that another reflection point exists, the one reflection point and the other reflection point are points on the same first detection target (in other words, the other reflection points are different points). For example, the first detection target object is detected by predicting that the first detection target object belongs to the same first detection target object).
[0078]
On the other hand, if the first grouping unit 42a determines that there is no other reflection point, the first grouping unit 42a predicts that there is a first detection target to which only the one reflection point belongs, and thus determines the first detection target. To detect.
[0079]
Next, the first grouping unit 42a repeats the above-described processing for the reflection points that are not predicted to which one of the first detection target objects, so that all the reflection points belong to which first detection target object. Or predict.
[0080]
Through the above processing, the first grouping unit 42a detects the first detection target.
[0081]
In the case of this example, as shown in FIG. 6, the first grouping unit 42a determines that no other reflection points exist within the reference distance L1 from each reflection point for the reflection points a1 to a4 and c5 to c8. I do.
[0082]
As a result, the first grouping unit 42a predicts that the first detection target objects R1 to R4 and R7 to R10 to which the reflection points a1 to a4 and c5 to c8 respectively belong exist, and thereby the first detection target objects R1 to R4. , R7 to R10.
[0083]
On the other hand, the first grouping unit 42a determines that the reflection point b2 exists within the reference distance L1 from the reflection point b1, and that the reflection point b2 exists within the reference distance L1 from the reflection point b3.
[0084]
As a result, the first grouping unit 42a predicts that the reflection points b1 to b3 are points on the same first detection target R5.
[0085]
Similarly, the first grouping unit 42a determines that the reflection point c2 exists within the reference distance L1 from the reflection point c1, the reflection point c2 exists within the reference distance L1 from the reflection point c3, and the reflection point c4 exists within the reference distance L1 from the reflection point c4. It is determined that there is a reflection point c3 at.
[0086]
As a result, the first grouping unit 42a predicts that the reflection points c1 to c4 are points on the same first detection target R6.
[0087]
Similarly, the first grouping unit 42a determines that the reflection point d2 exists within the reference distance L1 from the reflection point d1, the reflection point d2 exists within the reference distance L1 from the reflection point d3, and the reflection point d4 exists within the reference distance L1 from the reflection point d4. Is determined to have a reflection point d3. Further, the first grouping unit 42a determines that the reflection point d4 exists within the reference distance L1 from the reflection point d5.
[0088]
As a result, the first grouping unit 42a predicts that the reflection points d1 to d5 are points on the same first detection target R11.
[0089]
Next, the first grouping unit 42a performs the following processing for each first detection target.
[0090]
That is, the first grouping unit 42a calculates the position of the center point of the first detection target (that is, the position coordinates (X, Y, Z) of the center point), and determines the position of the center point. This is the position of the detection target.
[0091]
The first grouping unit 42a calculates a distance from the center point to the host vehicle 10 (hereinafter, referred to as a first center point distance), and calculates the first center point distance from the first detection target. The distance to the vehicle 10 is assumed.
[0092]
Further, the first grouping unit 42a calculates the azimuth of the center point with respect to the host vehicle 10, and sets the azimuth as the azimuth of the first detection target with respect to the host vehicle 10.
[0093]
Further, the first grouping unit 42a calculates the difference between the X coordinate value of the reflection point having the smallest X coordinate value and the X coordinate value of the largest reflection point among the reflection points included in the first detection target. Calculate the absolute value.
[0094]
Then, the first grouping unit 42a adds a value obtained by adding the unit scan width (the value obtained by multiplying the above-described unit angle Bs to the above-mentioned first center point distance) to the absolute value, as a first detection target. The width of the object.
[0095]
Further, an average value is calculated by averaging the relative velocities of all the reflection points included in the first detection target, and the average is set as the relative speed of the first detection target.
[0096]
Next, the first grouping unit 42a creates first group data including information on the position, distance, azimuth, width, and relative speed calculated for each first detection target, and the above-described reflection point information, The first group data is stored in the memory 41 and output to the second grouping unit 42b.
[0097]
Next, in step S3 shown in FIG. 5, the second grouping unit 42b shown in FIG. 1 performs the following processing based on the first group data provided from the first grouping unit 42a, thereby performing the second detection. Detect objects.
[0098]
That is, the second grouping unit 42b detects one or a plurality of second detection targets by predicting that a set of first detection targets satisfying the following conditions belongs to the same second detection target.
[0099]
Here, the conditions include: (a) the interval (distance) between mutually adjacent first detection objects is equal to or less than a reference distance L2 for the first detection object set; and (b) the first detection object For a set of objects, the absolute value of the difference between the relative speed of any first detection target and the relative speeds of all other first detection targets (hereinafter referred to as “relative speed difference”) is a reference value. Value V1 or less.
[0100]
Here, the reference distance L2 and the reference value V1 are predetermined so that the reflection points close to each other are predicted to be points on the same second detection target.
[0101]
On the other hand, as a result of performing the above processing, if there is a first detection target that does not belong to any second detection target, the second grouping unit 42b determines that the second detection target to which only the first detection target belongs Predict that an object exists.
[0102]
Through the above processing, the second grouping unit 42b detects the second detection target.
[0103]
In the case of this example, as shown in FIG. 7, the second grouping unit 42b determines that the above-described conditions (a) and (b) are satisfied for the set of the first detection targets R1 to R4.
[0104]
As a result, the second grouping unit 42b predicts that the set of the first detection targets R1 to R4 is the same point on the first detection target O1.
[0105]
Similarly, the second grouping unit 42b determines that the set of the first detection targets R6 to R10 satisfies the above-described conditions (a) and (b).
[0106]
As a result, the second grouping unit 42b predicts that the set of the first detection targets R6 to R10 belongs to the same second detection target O3.
[0107]
As a result of the above processing, there are first detection targets R5 and R11 that do not belong to any of the second detection targets.
[0108]
Therefore, the second grouping unit 42b detects the second detection targets O2 and O4 by predicting that the second detection targets O2 and O4 to which the first detection targets R5 and R11 belong respectively exist.
[0109]
Next, the second grouping unit 42b performs the following processing for each second detection target.
[0110]
That is, the second grouping unit 42b calculates the position of the center point of the second detection target (that is, the position coordinates (X, Y, Z) of the center point), and determines the position of the center point. This is the position of the detection target.
[0111]
The second grouping unit 42b calculates a distance from the center point to the vehicle 10 (hereinafter, referred to as a "second center point distance"), and calculates the second center point distance as the second detection target. From the vehicle to the vehicle 10.
[0112]
In addition, the second grouping unit 42b calculates the azimuth of the center point with respect to the own vehicle 10, and sets the azimuth as the azimuth of the second detection target with respect to the own vehicle 10.
[0113]
The second grouping unit 42b includes a first detection target having the smallest X coordinate value and a first detection target having the largest X coordinate value among the first detection targets included in the second detection target. , Are calculated.
[0114]
Then, the second grouping unit 42b is obtained by adding the absolute value of the difference between the X coordinate values and the unit scan width (a value obtained by multiplying the above-mentioned unit angle Bs to the above-mentioned second center point distance). The value is defined as the width of the second detection target.
[0115]
In addition, an average value is calculated by averaging the relative velocities of all the first detection targets included in the second detection target, and the average is set as the relative speed of the second detection target.
[0116]
Next, the second grouping unit 42b creates second group data including information on the position, distance, azimuth, width, and relative speed calculated for each second detection target, and the above-described reflection point information.
[0117]
Next, the second grouping unit 42b stores the second group data in the memory 41, and outputs the second group data to the width calculation unit 43b and the distance distribution calculation unit 43d.
[0118]
Next, in step S4 shown in FIG. 5, the width calculation unit 43b performs the following processing for each second detection target based on the second group data provided from the second grouping unit 42b.
[0119]
That is, the width calculation unit 43b detects the reflection point closest to the vehicle 10 among the reflection points included in the second detection target object, and determines the reflection point existing within a predetermined reference distance L3 from the reflection point ( That is, the reflection point existing at the rear end portion of the second detection target is counted. Here, the value of L3 is predetermined.
[0120]
Further, the width calculator 43b measures a distance Ln from the center point of the rear end portion to the host vehicle 10.
[0121]
Next, the width calculation unit 43b creates reflection point number information regarding the number Rn of reflection points counted for each second detection target and the measured distance Ln, and outputs the information to the width determination unit 43c.
[0122]
Next, the width determination unit 43c acquires the detection wave information from the memory 41, and performs the following processing based on the detection wave information and the reflection point number information provided from the width calculation unit 43b.
[0123]
That is, the width determining unit 43c calculates the reference values Wt1 (lower limit value) and Wt2 (upper limit value) using the following equations (1) and (2).
[0124]
Wt1 = (2 * tan -1 (1.0 / 2 / Ln) * 180 / π) / Bw + Bs / Bw (1)
Wt2 = (2 * tan -1 (1.8 / 2 / Ln) * 180 / π) / Bw + Bs / Bw (2)
Here, the reference value Wt1 is defined as a millimeter wave when an ordinary passenger car having a vehicle width of 1 meter exists in front of the own vehicle 10 and the distance from the own vehicle 10 to the rear end of the ordinary passenger car is Ln. This is the number of reflection points that the radar 2 detects by scanning the rear end.
[0125]
Similarly, the reference value Wt2 is determined when an ordinary passenger car having a vehicle width of 1.8 meters exists in front of the own vehicle 10 and the distance from the own vehicle 10 to the rear end of the ordinary passenger car is Ln. This is the number of reflection points that the millimeter-wave radar 2 scans and detects the rear end.
[0126]
Next, the width determination unit 43c compares the calculated reference values Wt1 and Wt2 with the number Rn of reflection points to create reflection point comparison information, and outputs the information to the object type determination unit 43f.
[0127]
On the other hand, the distance distribution calculation unit 43d performs the following processing for each second detection target based on the second group data provided from the second grouping unit 42b.
[0128]
That is, the distance distribution calculation unit 43d recognizes the distance from each reflection point included in one second detection target to the host vehicle 10.
[0129]
Next, the distance distribution calculation unit 43d calculates the variance Ld of these distances, and uses the variance Ld as the distance distribution.
[0130]
Next, the distance distribution calculation unit 43d creates variance value information regarding the calculated variance value Ld and outputs the variance value information to the object depth determination unit 43e.
[0131]
Next, based on the variance value information provided from the distance distribution calculation unit 43d, the object depth determination unit 43e compares the variance value Ld with predetermined reference values Ldt1 to Ldt3 to create variance value comparison information. Is output to the object type determination unit 43f.
[0132]
Here, the reference value Ldt1 is a lower limit value that the variance value Ld can take when the second detection target is an ordinary passenger car, and the reference value Ldt2 is a case where the second detection target is an ordinary passenger car. In addition, the above-mentioned dispersion value Ld is an upper limit that can be taken.
[0133]
Further, the reference value Ldt3 is an upper limit value that the variance Ld can take when the second detection target is a large bus.
[0134]
Next, the object type determination unit 43f shown in FIG. 1 performs each second detection based on the reflection point comparison information provided from the width determination unit 43c and the variance value comparison information provided from the object depth determination unit 43e. The type of the object is determined as follows.
[0135]
That is, if the following equation (3) is satisfied for one second detection target, the object type determination unit 43f determines the one second detection target as a normal passenger car (or a part thereof). I do.
[0136]
Wt1 ≦ Rn ≦ Wt2 and Ldt1 ≦ Ld ≦ Ldt2 Equation (3)
On the other hand, if the following equation (4) is satisfied for one second detection target, the object type determination unit 43f determines that the one second detection target is a large bus (or a part thereof). I do.
[0137]
Wt2 <Rn and Ldt2 ≦ Ld ≦ Ldt3 Equation (4)
On the other hand, when the following equation (5) is satisfied for one second detection target, the object type determination unit 43f determines that the one second detection target is a large truck (or a part thereof). I do.
[0138]
Wt2 <Rn and Ldt3 <Ld Equation (5)
On the other hand, if the following expression (6) is satisfied for one second detection target, the object type determination unit 43f determines that the one second detection target is a large sign (or a part thereof). I do.
[0139]
Wt2 <Rn and Ld <Ldt1 Equation (6)
On the other hand, when the following equation (7) is satisfied for one second detection target, the object type determination unit 43f determines the one second detection target as a medium-sized marker (or a part thereof). I do.
[0140]
Wt1 ≦ Rn ≦ Wt2 and Ld <Ldt1 Equation (7)
On the other hand, when the following equation (8) is satisfied for one second detection target, the object type determination unit 43f determines the one second detection target as a small sign (or a part thereof). I do.
[0141]
Rn <Wt1 and Ld <Ldt1 Equation (8)
On the other hand, when the following equation (9) is satisfied for one second detection target, the object type determination unit 43f determines the one second detection target as a delineator group (or a part thereof). I do.
[0142]
Rn <Wt1 and Ldt3 <Ld Equation (9)
In the case of this example, the object type determination unit 43f determines that Expression (9) is satisfied for the second detection target O1, and determines that the second detection target O1 is a delinator group (or a part thereof). .
[0143]
In addition, the object type determination unit 43f determines that Expression (1) holds for the second detection target O2, and determines that the second detection target O2 is an ordinary passenger car (or a part thereof).
[0144]
Further, the object type determination unit 43f determines that Expression (5) is satisfied for the second detection target O3, and determines that the second detection target O3 is a large truck (or a part thereof).
[0145]
In addition, the object type determination unit 43f determines that Expression (6) holds for the second detection target O4, and determines that the second detection target O4 is a large sign (or a part thereof).
[0146]
Next, the object type determination unit 43f creates determination information on the type, the X coordinate value, the Z coordinate value, the width, and the relative speed of the second detection target object, and stores the determination information in the memory 41 and the presentation unit. 5 is output.
[0147]
Next, in step S5 shown in FIG. 5, the presentation unit 5 displays the determination information given from the object type determination unit 43f as an image and outputs the determination information by voice.
[0148]
Next, the forward object recognition device 1 repeats the processing from step S1.
[0149]
As described above, in the present embodiment, the forward object recognition device 1 predicts that the reflection points detected at positions close to each other are points on the same second detection target, and the second detection target Is detected.
[0150]
Then, the forward object recognition device 1 measures the distance from the reflection point included in the second detection target to the host vehicle 10, calculates the distribution of these distances, and further calculates the rear end of the second detection target. The number Rn of the reflection points existing in the portion is measured.
[0151]
Then, the forward object recognition device 1 determines the type of the second detection target object based on the distribution degree and the number Rn of the reflection points.
[0152]
Here, when objects having substantially the same width and different depths (for example, a signboard and an ordinary car) are detected as the second detection target, the number Rn of the reflection points is determined for these second detection targets. Are almost the same, but the distribution is different.
[0153]
Therefore, the front object recognition device 1 can accurately distinguish the second detection target (for example, a signboard and an ordinary car) having different depths, and thus can accurately determine the type of the second detection target. (Effects corresponding to the first aspect of the present invention).
[0154]
In addition, when the first set of detection objects satisfies the above-described conditions (a) and (b), the front object recognition device 1 sets the first set of detection objects to the same second detection object. Predict to belong.
[0155]
Therefore, the front object recognition device 1 does not predict that the first detection targets (for example, the car and the delineator group) whose absolute value of the relative speed difference is larger than the reference value V1 belong to the same second detection target.
[0156]
Thereby, the front object recognition device 1 can prevent that different types of first detection targets are predicted to belong to the same second detection target.
[0157]
Further, the front object recognition device 1 includes a rear end portion of one or more objects existing in front of the traveling direction of the vehicle 10 and at least one of a side end protrusion portion and an upper end protrusion portion of the object. , Can be detected.
[0158]
Thus, the front object recognition device 1 can accurately detect a reflection point from a portion other than the rear end portion of an object having a depth (an effect corresponding to the invention described in claim 2).
[0159]
In addition, since the forward object recognition device 1 calculates the variance Ld and uses the variance Ld as the above-described distribution, an accurate value can be used as the distribution (the invention according to claim 6). effect).
[0160]
Further, the forward object recognition device 1 compares the number of reflection points Rn described above with reference values Wt1 (lower limit value) and Wt2 (upper limit value) calculated in advance, and compares the result of the comparison with the distribution ( Based on the variance Ld), the type of the second detection target is determined.
[0161]
Thereby, the front object recognition device 1 can accurately determine the type of the second detection target object by adjusting the reference values Wt1 and Wt2 (an effect corresponding to the invention according to claim 3 or 4). .
[0162]
Here, in the present embodiment, when determining the type of the second detection target, the forward object recognition device 1 compares the variance Ld with the reference values Ldt1 to Ldt3 in addition to the comparison.
[0163]
Since the reference values Wt1, Wt2, and Ldt1 to Ldt3 have been calculated as described above, the forward object recognition device 1 can accurately determine the type of the second detection target (Equation (3) )-(9)).
[0164]
Further, the forward object recognition device 1 controls so that the detectable range of the reflection point of the millimeter wave radar 2 does not exceed the path range of the vehicle 10.
[0165]
Thereby, the front object recognition device 1 can adjust the range in which the millimeter wave radar 2 can detect the reflection point according to the course range of the own vehicle.
[0166]
Further, since the anti-vehicle point detectable range is determined by the horizontal angle Bw and the detectable distance of the millimeter wave radar 2, the front object recognition device 1 calculates the reference values Wt1 and Wt2 by performing the control. The horizontal angle Bw used at this time can be determined (see Equation (1) and the like).
[0167]
Further, by performing the control, the forward object recognition device 1 can prevent the millimeter wave radar 2 from detecting a reflection point outside the path range of the vehicle 10 (corresponding to claim 5). Effect).
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a forward object recognition device according to the present invention.
FIG. 2 is a schematic side view showing an installation position of a millimeter wave radar.
FIG. 3 is a schematic plan view showing an installation position of a millimeter wave radar.
FIG. 4 is a graph showing a maximum range in which a millimeter wave radar can detect a reflection point.
FIG. 5 is a flowchart showing a procedure of processing by the front object recognition device.
FIG. 6 is a schematic plan view showing positions of a reflection point and a first detection target.
FIG. 7 is a schematic plan view showing positions of a reflection point, a second detection target, and the like.
FIG. 8 is a graph showing a relationship between reference values Wt1 and Wt2 and a distance Ln.
[Explanation of symbols]
1 Forward object recognition device
2 millimeter wave radar (reflection point detection means)
3 own vehicle behavior detector
4 arithmetic unit (object identification means)
10 own car
Ld variance
O1 to O4 Second detection target (detection target)
Rn Number of reflection points
Wt1 Reference value (lower limit)
Wt2 Reference value (upper limit)

Claims (6)

自車の進行方向の前方を所定の検出波にてスキャニングして、当該検出波を反射した反射点を検出し、当該反射点の自車に対する相対位置を測定する反射点検出手段を備えた前方物体認識装置において、
前記反射点のうち互いに近接した反射点が同一の検出対象物上の点であると予測することで、一又は複数の検出対象物を検出する物体識別手段を備え、
前記物体識別手段は、前記検出対象物に含まれる反射点から自車までの距離を測定して、これら距離の分布度を算出し、
前記検出対象物の後端部分に存在する反射点の数を測定し、
前記分布度と、前記反射点の数と、に基づいて、前記検出対象物の種類を判定することを特徴とする前方物体認識装置。
A front side provided with a reflection point detecting means for scanning the front in the traveling direction of the own vehicle with a predetermined detection wave, detecting a reflection point reflecting the detection wave, and measuring a relative position of the reflection point with respect to the own vehicle. In the object recognition device,
By predicting that the reflection points close to each other among the reflection points are points on the same detection target, comprising an object identification unit that detects one or more detection targets,
The object identification means measures the distance from the reflection point included in the detection target to the own vehicle, calculates the distribution of these distances,
Measure the number of reflection points present at the rear end of the detection object,
A forward object recognition device, wherein a type of the detection target is determined based on the distribution degree and the number of the reflection points.
請求項1記載の前方物体認識装置において、
前記反射点検出手段は、自車の進行方向の前方に存在する一又は複数の物体の後端部分と、前記物体の側端突起部分及び下端突起部分のうち少なくとも一方の突起部分と、における反射点を検出し、
前記物体識別手段は、前記反射点のうち互いに近接した相対位置にて検出された反射点が同一の検出対象物上の点であると予測することで、一又は複数の検出対象物を検出することを特徴とする前方物体認識装置。
The front object recognition device according to claim 1,
The reflection point detection unit is configured to perform reflection at one or more rear end portions of one or more objects existing in the forward direction of the own vehicle and at least one of a side end protrusion portion and a lower end protrusion portion of the object. Detect the point,
The object identification unit detects one or more detection targets by predicting that the reflection points detected at relative positions close to each other among the reflection points are points on the same detection target. A forward object recognition device characterized by the above-mentioned.
請求項1または2記載の前方物体認識装置において、
前記物体識別手段は、前記反射点の数と、予め算出された基準値と、を比較し、当該比較の結果と、前記分布度と、に基づいて、前記検出対象物の種類を判定することを特徴とする前方物体認識装置。
The forward object recognition device according to claim 1 or 2,
The object identification unit compares the number of the reflection points with a reference value calculated in advance, and determines the type of the detection target based on the comparison result and the distribution. A forward object recognition device characterized by the above-mentioned.
請求項3記載の前方物体認識装置において、
前記基準値については、上限値及び下限値が予め算出されており、
前記物体識別手段は、前記反射点の数と、前記基準値の上限値及び下限値と、を比較し、
当該比較の結果と、前記分布度と、に基づいて、前記検出対象物の種類を判定することを特徴とする前方物体認識装置。
The forward object recognition device according to claim 3,
For the reference value, an upper limit and a lower limit are calculated in advance,
The object identification unit compares the number of the reflection points with an upper limit and a lower limit of the reference value,
A forward object recognition device, wherein a type of the detection target is determined based on a result of the comparison and the distribution degree.
請求項1〜4の何れか1項に記載の前方物体認識装置において、
前記物体識別手段は、前記反射点検出手段の反射点検出可能範囲が、自車の進路範囲を超えないように制御することを特徴とする前方物体認識装置。
The forward object recognition device according to any one of claims 1 to 4,
The front object recognition device, wherein the object identification means controls the reflection point detectable range of the reflection point detection means so as not to exceed a path range of the own vehicle.
請求項1〜5の何れか1項に記載の前方物体認識装置において、
前記物体識別手段は、前記距離の分散値を算出し、前記分布度として当該分散値を用いることを特徴とする前方物体認識装置。
The forward object recognition device according to any one of claims 1 to 5,
The forward object recognition device, wherein the object identification means calculates a variance value of the distance, and uses the variance value as the distribution degree.
JP2002178825A 2002-06-19 2002-06-19 Front object recognition device Expired - Fee Related JP3952874B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002178825A JP3952874B2 (en) 2002-06-19 2002-06-19 Front object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002178825A JP3952874B2 (en) 2002-06-19 2002-06-19 Front object recognition device

Publications (2)

Publication Number Publication Date
JP2004020492A true JP2004020492A (en) 2004-01-22
JP3952874B2 JP3952874B2 (en) 2007-08-01

Family

ID=31176430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002178825A Expired - Fee Related JP3952874B2 (en) 2002-06-19 2002-06-19 Front object recognition device

Country Status (1)

Country Link
JP (1) JP3952874B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072495A (en) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd Three-dimensional object monitoring device
JP2007093347A (en) * 2005-09-28 2007-04-12 Nissan Motor Co Ltd Stopped vehicle determination apparatus, automobile, and stopped vehicle determination method
JP2011191227A (en) * 2010-03-16 2011-09-29 Daihatsu Motor Co Ltd Object recognition device
JP2012052838A (en) * 2010-08-31 2012-03-15 Daihatsu Motor Co Ltd Object recognition device
CN103245944A (en) * 2012-02-13 2013-08-14 株式会社电装 Vehicle-mounted radar apparatus
WO2014123112A1 (en) * 2013-02-05 2014-08-14 株式会社デンソー Device and method for detecting target in periphery of vehicle
WO2014168002A1 (en) * 2013-04-11 2014-10-16 株式会社デンソー Target detection device and vehicle control system
JP2016070772A (en) * 2014-09-30 2016-05-09 富士通テン株式会社 Rader system, vehicle control system, and signal processing method
JP2020003336A (en) * 2018-06-28 2020-01-09 株式会社デンソーテン Radar device, vehicle control system, and target occupied area estimation method
CN111226132A (en) * 2019-03-18 2020-06-02 深圳市大疆创新科技有限公司 Target detection method and device, millimeter wave radar and movable platform
JP2020126008A (en) * 2019-02-05 2020-08-20 古河電気工業株式会社 Radar device and control method of radar device
WO2021095455A1 (en) * 2019-11-14 2021-05-20 日立Astemo株式会社 Object identification device

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072495A (en) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd Three-dimensional object monitoring device
JP4510554B2 (en) * 2004-08-31 2010-07-28 富士重工業株式会社 Three-dimensional object monitoring device
JP2007093347A (en) * 2005-09-28 2007-04-12 Nissan Motor Co Ltd Stopped vehicle determination apparatus, automobile, and stopped vehicle determination method
JP2011191227A (en) * 2010-03-16 2011-09-29 Daihatsu Motor Co Ltd Object recognition device
JP2012052838A (en) * 2010-08-31 2012-03-15 Daihatsu Motor Co Ltd Object recognition device
CN103245944A (en) * 2012-02-13 2013-08-14 株式会社电装 Vehicle-mounted radar apparatus
JP2013164390A (en) * 2012-02-13 2013-08-22 Denso Corp Radar apparatus
US9891316B2 (en) 2013-02-05 2018-02-13 Denso Corporation Apparatus and method for detecting target in periphery of vehicle
CN104969090A (en) * 2013-02-05 2015-10-07 株式会社电装 Device and method for detecting target in periphery of vehicle
WO2014123112A1 (en) * 2013-02-05 2014-08-14 株式会社デンソー Device and method for detecting target in periphery of vehicle
JP2014169996A (en) * 2013-02-05 2014-09-18 Denso Corp Target detection apparatus
US9618608B2 (en) 2013-04-11 2017-04-11 Denso Corporation Target detection apparatus and vehicle control system
CN105393136A (en) * 2013-04-11 2016-03-09 株式会社电装 Target detection device and vehicle control system
JP2014206411A (en) * 2013-04-11 2014-10-30 株式会社デンソー Target detection device and vehicle control system
WO2014168002A1 (en) * 2013-04-11 2014-10-16 株式会社デンソー Target detection device and vehicle control system
JP2016070772A (en) * 2014-09-30 2016-05-09 富士通テン株式会社 Rader system, vehicle control system, and signal processing method
JP2020003336A (en) * 2018-06-28 2020-01-09 株式会社デンソーテン Radar device, vehicle control system, and target occupied area estimation method
JP7099889B2 (en) 2018-06-28 2022-07-12 株式会社デンソーテン Radar device, vehicle control system and target occupied area estimation method
JP2020126008A (en) * 2019-02-05 2020-08-20 古河電気工業株式会社 Radar device and control method of radar device
JP7295648B2 (en) 2019-02-05 2023-06-21 古河電気工業株式会社 RADAR DEVICE AND RADAR SYSTEM CONTROL METHOD
CN111226132A (en) * 2019-03-18 2020-06-02 深圳市大疆创新科技有限公司 Target detection method and device, millimeter wave radar and movable platform
WO2021095455A1 (en) * 2019-11-14 2021-05-20 日立Astemo株式会社 Object identification device
JP7373972B2 (en) 2019-11-14 2023-11-06 日立Astemo株式会社 object identification device

Also Published As

Publication number Publication date
JP3952874B2 (en) 2007-08-01

Similar Documents

Publication Publication Date Title
JP5003674B2 (en) Radar device and moving body
US9610961B2 (en) Method and device for measuring speed in a vehicle independently of the wheels
US6888622B2 (en) Method for determining object type of reflective object on track
JP6970936B2 (en) Object detector, object detection program, and recording medium
WO2014125981A1 (en) Vehicle-mounted radar device capable of recognizing radar sensor mounting angle
JP3952874B2 (en) Front object recognition device
CN106168667B (en) Vehicle-mounted radar system with image reflection detection
KR20210048548A (en) How to detect an angle measurement error in a radar sensor
JP2018009868A (en) Position estimation device
CN104050806A (en) Method for detecting traffic infractions in a traffic light zone through rear end measurement by a radar device
GB2390244A (en) Method for estimating the curvature of a road using moving and stationary objects
WO2020039840A1 (en) Radar processing device
JP2021513643A (en) Methods and devices for detecting critical lateral movements
JP5526643B2 (en) Vehicle position calculation device, driving support device, and vehicle position calculation method
JP3664110B2 (en) Object type determination device and object type determination method
JP2007212418A (en) On-vehicle radar device
US6947841B2 (en) Method for identifying obstacles for a motor vehicle, using at least three distance sensors for identifying the lateral extension of an object
US11142187B2 (en) Parking assistance device
US11169259B2 (en) Method and surroundings detection device for determining the presence and/or properties of one or multiple objects in the surroundings of a motor vehicle
JP2011034435A (en) Vehicle location calculation unit and vehicle location calculation method
JP4506163B2 (en) Front object detection apparatus and front object detection method
JP2007292643A (en) Peripheral object discriminator
JP5414758B2 (en) Radar apparatus and radar apparatus performance degradation determination method
JP2005069739A (en) On-vehicle obstacle detection device
JPH11144198A (en) Object identifying device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070312

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070423

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130511

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140511

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees