JP2004184332A - Object recognition apparatus for motor vehicle and apparatus for controlling distance between motor vehicle - Google Patents

Object recognition apparatus for motor vehicle and apparatus for controlling distance between motor vehicle Download PDF

Info

Publication number
JP2004184332A
JP2004184332A JP2002354216A JP2002354216A JP2004184332A JP 2004184332 A JP2004184332 A JP 2004184332A JP 2002354216 A JP2002354216 A JP 2002354216A JP 2002354216 A JP2002354216 A JP 2002354216A JP 2004184332 A JP2004184332 A JP 2004184332A
Authority
JP
Japan
Prior art keywords
vehicle
distance
recognition
relative speed
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002354216A
Other languages
Japanese (ja)
Other versions
JP3841047B2 (en
Inventor
Yoshie Sagawa
佳江 寒川
Toyoji Nozawa
豊史 野沢
Koji Okata
浩司 大方
Eiji Teramura
英司 寺村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2002354216A priority Critical patent/JP3841047B2/en
Priority to US10/725,269 priority patent/US7136753B2/en
Priority to DE10356797.6A priority patent/DE10356797B4/en
Publication of JP2004184332A publication Critical patent/JP2004184332A/en
Priority to US11/543,864 priority patent/US7496449B2/en
Application granted granted Critical
Publication of JP3841047B2 publication Critical patent/JP3841047B2/en
Priority to US12/285,199 priority patent/US7761236B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve recognition accuracy at the recognition of whether an reflecting object is a motor vehicle or not through the use of the intensity of reflected waves from the reflecting object. <P>SOLUTION: In the case that a plurality of reflected waves from reflecting objects are received when a plurality of transmission waves are irradiated, it is determined whether the reflecting objects which have generated the plurality of reflected waves are a single body or not. When it is determined that the reflecting objects are a single body by the determination, the maximum intensity among the intensities of the reflected waves reflected by the reflecting object is compared with a reference intensity for determining whether the reflecting object is a motor vehicle or not. In this way, it is possible to univocally determine whether the reflecting object is highly possibly a motor vehicle or highly possibly not a motor vehicle for every reflecting object determined as a single body. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、車幅方向及び高さ方向それぞれの所定角度範囲内に渡り複数の送信波を照射し、それらの反射波に基づいて自車両前方の先行車両等の反射物体を認識する車両用物体認識装置及び認識した先行車両との車間を制御する車間制御装置に関する。
【0002】
【従来の技術】
従来より、例えば特許文献1に示されるように、光波,ミリ波などの送信波を車両前方に照射し、その反射波を検出することによって、車両前方の物体を認識する物体認識装置が考えられている。この種の装置は、例えば、先行車両等との間隔が短くなったことを検出して警報を発生する装置や、先行車両と所定の車間距離を維持するように車速を制御する装置などに適用され、それらの制御対象としての先行車両の認識に利用されている。
【0003】
上述した物体認識装置では、例えばレーザレーダセンサによって車両の前方に車幅方向及び高さ方向それぞれの所定角度範囲内に渡り複数のレーザ光を照射し、それらの反射光に基づいて前方車両を3次元的に認識する。この際、通常の車両であれば存在し得ないような高さや範囲において反射物体が存在している場合には、それを車両ではないと認識するために、車両と非車両とを判別するための非車両判定マップを用いて、非車両を識別していた。ここで、非車両判定マップとは、図5に示すような、車幅、車高、及び車両前方方向をそれぞれX軸、Y軸、及びZ軸とした場合の反射物体の存在領域に対応して、車両と非車両とを区別するための反射光の受光強度の範囲が設定された3次元マップである。
【0004】
この非車両判定マップを用いた、車両と非車両との識別方法について説明する。まず、レーザレーダセンサの測距データが、非車両判定マップのどの領域に対応するかを判定する。このとき、測距データが非車両の範囲に属するものであれば、その測距データを削除する。一方、測距データが非車両でない範囲に対応する場合には、測距データを保持して、先行車両の判定及び車間制御を実行する車間制御ECUにその測距データを出力する。
【0005】
なお、非車両判定マップは、図5に示すように、XY方向については、中心付近の領域、その周囲の領域、最下端領域の3つにわけられており、それら各領域に対応してZ方向位置と受光強度との対応関係が(a)〜(c)のように設定されている。XY方向についての中心付近の領域は(b)の対応関係が対応し、その周囲の領域は(a)の対応関係が対応し、最下端領域は(c)の対応関係が対応している。
【0006】
ここで、Z方向位置と受光強度との対応関係について説明すると、(a)、(b)、(c)とも、基本的には、Z方向の所定距離までの範囲において、反射光の受光強度が所定範囲内のものが非車両、それ以外が車両と設定されている。これは、車両と非車両とでは反射強度に違いがあり、車両の反射強度が非車両の反射強度よりも高いと考えられるためである。そして、反射物の存在領域ごとに車両と非車両とを識別するための受光強度を設定することにより、より適切な車両と非車両との識別が可能になる。すなわち、車両が存在する可能性が大きい領域では、受光強度が相対的に小さくても測距データは保持され、一方、車両が存在する可能性が小さい領域では、受光強度が相対的に大きくない限り、その測距データは削除される。これにより、車両である可能性が高い反射物からの測距データのみが車間制御ECUに出力できる。
【0007】
【特許文献1】特開2002−40139
【0008】
【発明が解決しようとする課題】
上述したように、従来の物体認識装置においては、レーザレーダセンサから複数個のレーザ光を順次照射し、それらの反射波が検出された際に、非車両判定マップに基づいて、各反射波の受光強度が車両に対応するか、非車両に対応するかを判定する。
【0009】
しかしながら、従来の物体認識装置における判定方法では、車両・非車両の判定精度が十分に確保できない可能性がある。例えば、車両の一部に泥等が付着して汚れている場合は、その車両によって反射される反射光のすべてが高い受光強度を有しているわけではない。つまり、反射物体が車両であっても、受光強度の低い反射光による測距データも含むことがありえる。この場合、受光強度が低い反射光による測距データが非車両に対応すると判定して測定データを削除してしまうと、反射物体を車両と判断するための測距データが不足し、車両であるとの認識が正確になされない可能性がある。
【0010】
本発明は、反射物体からの反射波の強度を利用して、その反射物体が車両か非車両かを認識する際に、その認識精度を向上することが可能な車両用物体認識装置を提供することを第1の目的とする。また、反射物体が先行車両である場合に、反射波の強度を利用して、先行車両との車間距離を好適に制御することが可能な車間距離制御装置を提供することを第2の目的とする。
【0011】
【課題を解決するための手段】
上記第1の目的を達成するために、請求項1に記載の車両用物体認識装置は、車両の車幅方向及び高さ方向それぞれにおいて、所定の角度範囲に渡って複数の送信波を照射し、それらの反射波に基づいて反射物までの距離、前記車幅方向及び高さ方向の2方向の角度、及び反射波の強度を検出するレーダ手段と、
複数の反射物が所定の一体化条件を満足する場合に、複数の反射物を一体の反射物体と判定する判定手段と、
判定手段によって一体化判定された反射物体を構成する各反射物に対応する反射波の強度の中で、最大強度を選択する選択手段と、
レーダ手段の検出結果である距離及び2方向の角度に基づいて、反射物体を認識するとともに、選択手段によって選択された最大強度が、所定の基準強度よりも小さい場合に、反射物体を非車両と認識する確率を高める認識手段とを備えることを特徴とする。
【0012】
上述したように、請求項1に記載の車両用物体認識装置では、複数の送信波を照射して、複数の反射波を受信した場合に、最初に、それら複数の反射波を生じさせた反射物が一体のものであるか判定する。この判定により一体の反射物体と判定されれば、その反射物体を構成する各反射物による反射波の強度の中での最大強度を、車両か非車両かを判断するための基準強度と比較するのである。このようにすれば、一体化判定された反射物体毎に、一義的に、車両である可能性が高いのか、それとも非車両である可能性が高いのかを判定することができる。さらに、各反射物体の最大反射波強度に基づいて判定するので、車両の一部が汚れている場合等においても、正確な判定を行なうことができる。
【0013】
請求項2に記載したように、所定の基準強度は、反射物体までの距離が長い場合、その距離が短い場合に比較して小さい強度に設定されることが好ましい。反射物体の反射強度が同じであっても、その反射物体との距離が離れるに従って、反射光強度は低下するためである。
【0014】
請求項3に記載したように、レーダ手段によって検出された距離及び2方向の角度に基づいて、反射物体の形状を算出する形状算出手段を備え、認識手段は、最大強度が所定の基準強度よりも小さく、かつ、その反射物体の形状が車両形状とは異なる場合に、当該反射物体を非車両と認識する確率を高めることが好ましい。このように、反射波の強度に加えて、反射物体の形状を考慮することにより、車両である可能性が高いのか、それとも非車両である可能性が高いのかをより高精度に判別することができる。
【0015】
請求項4に記載したように、記認識手段は、反射物体の形状における横幅が車両形状における横幅よりも短い場合に、当該反射物体の形状が車両形状とは異なると判定することが好ましい。反射物体の横幅が、車両の横幅よりも短い場合には、その反射物は、例えば、道路脇の植え込みにおける樹木や草、あるいは道路上に舞い上がったスプラッシュや砂塵等の非車両である場合が多いためである。
【0016】
請求項5に記載したように、認識手段は、反射波の最大強度に基づいて、反射物体を非車両と判定する確率を高める処理を、反射物体までの距離が所定の近距離以内のときに行なうことが好ましい。最大強度の反射波強度を選択した場合であっても、反射物体までの距離が長くなるほど、反射波の強度も低下し、車両と非車両との判別が困難になるためである。
【0017】
また、上記した第2の目的を達成するために、請求項6に記載の車間距離制御装置は、
車両の車幅方向及び高さ方向それぞれにおいて、所定の角度範囲に渡って複数の送信波を照射し、それらの反射波に基づいて反射物までの距離、前記車幅方向及び高さ方向の2方向の角度、及び反射波の強度を検出するレーダ手段と、
複数の反射物が所定の一体化条件を満足する場合に、その複数の反射物を一体の反射物体と判定する判定手段と、
一体化判定された反射物体を構成する各反射物に対応する反射波の強度の中で、最大強度を選択する選択手段と、
少なくとも前記反射物体の形状に基づいて、反射物体が先行車両であると認識する認識手段と、
先行車両までの距離の変化に基づいて、時系列に先行車両との相対速度を算出するとともに、その時系列に算出された複数個の相対速度を平均化処理した平均相対速度を算出する算出手段と、
先行車両との距離及び平均相対速度に基づいて、車間制御を行なう車間制御手段と、
先行車両に関して選択手段によって選択された反射波の最大強度が、所定の基準強度よりも大きいか否かに基づいて、先行車両の認識安定度を判定する安定度判定手段とを備え、
安定度判定手段によって先行車両の認識安定度が高いと判定された場合、算出手段は平均相対速度を算出する際に、最新の相対速度の影響を高めることを特徴とする。
【0018】
このように、請求項6に記載の車間制御装置では、先行車両と認識された反射物体による反射波の最大強度が所定の基準強度よりも高い場合に、その先行車両の認識安定度が高いと判定する。すなわち、車両は非車両に比較して、高い反射強度を有しているのであるが、実際に検出した反射波の最大強度が明らかに非車両とは識別できる程度のレベルを持っていると、その先行車両を他の反射物体とは区別して安定的に認識しつづけることができる。
【0019】
そして、反射強度が高い場合には、反射波強度に関するS/N比が高くなるため、その先行車両との距離等の測距データの精度も向上する。
【0020】
ここで、先行車両との車間距離を目標とする距離に制御するためには、自車両と先行車両との速度差(自車両速度−先行車両)である相対速度を算出する必要がある。すなわち、先行車両に接近するためには、相対速度がプラスとなるように自車両の走行速度を制御し、先行車両との距離を長くするには、相対速度がマイナスとなるように制御するのである。この相対速度の算出に関して、通常は、ノイズや測距誤差等の影響を排除するため、時系列に演算された複数個の相対速度に基づいて平均相対速度を算出する。そして、この平均相対速度に基づいて車間制御を行なう。しかし、平均相対速度を用いて車間制御を行なうと、実際の相対速度とのずれが生じて、車間制御の応答性が低下することになる。
【0021】
そこで、請求項6に記載の車間制御装置では、測距データの精度が向上している場合には、最新の相対速度の影響度合いを高めて平均相対速度を算出する。これにより、平均相対速度を最新の相対速度に近づけることができるので、車間制御の応答性を向上することができる。
【0022】
請求項7に記載したように、算出手段が、平均相対速度を算出する際に使用する相対速度の個数を少なくすることによって、平均相対速度に対する最新の相対速度の影響を高めることができる。また、請求項8に記載したように、平均相対速度を算出する際に、最新の相対速度の重み付け係数を大きくして、重み付け平均した相対速度を算出するようにしても、相対速度に対する最新の相対速度の影響を高めることができる。
【0023】
請求項9に記載したように、安定度判定手段は、さらに、先行車両に対応する反射物体の形状の時間的変化が、所定の基準値よりも小さいか否かに基づいて、先行車両の認識安定度を判定することが好ましい。単に、一体化判定された反射物体における反射波の最大強度のみではなく、その反射物体の形状の時間的変化も考慮すれば、認識安定度の判定精度が向上する。なお、反射物体の形状の時間的変化は、具体的には、反射物体の幅の変化が所定長さ以内かどうか、反射物体の奥行きが所定長さ以内かどうか等によって判定される。
【0024】
同様に、請求項10に記載したように、安定度判定手段は、さらに、先行車両の位置が、自車両の進行方向延長線上から横方向に所定距離の範囲に存在するか否かに基づいて、先行車両の認識安定度を判定することが好ましい。先行車両が自車両の進行方向延長線上に近いほど、レーザ手段の照射範囲を外れる可能性が低く、また測距データに基づいて相対速度を最も高精度に算出することができるためである。
【0025】
また、請求項11に記載したように、安定度判定手段は、さらに、先行車両を認識している継続時間に基づいて、先行車両の認識安定度を判定するようにしても良い。実際に車両を認識している継続時間が長い場合は、安定して認識している可能性が高いためである。
【0026】
【発明の実施の形態】
以下に、本発明の実施形態による車間制御装置について説明する。
【0027】
なお、本実施形態においては、車間制御装置1に車両用物体認識装置が適用されており、かつ車間制御装置1は、警報すべき領域に障害物が存在する場合に警報を出力する機能も備えるものである。
【0028】
図1は、車間制御装置1のシステムブロック図である。車間制御装置1は認識・車間制御ECU3を中心に構成されている。認識・車間制御ECU3はマイクロコンピュータを主な構成として、入出力インターフェース(I/O)および各種の駆動回路や検出回路を備えている。これらのハード構成は一般的なものであるので詳細な説明は省略する。
【0029】
認識・車間制御ECU3は、レーザレーダセンサ5、車速センサ7、ブレーキスイッチ9、スロットル開度センサ11から各々検出信号を入力しており、警報音発生器13、距離表示器15、センサ異常表示器17、ブレーキ駆動器19、スロットル駆動器21および自動変速機制御器23に駆動信号を出力する。また認識・車間制御ECU3には、警報音量を設定する警報音量設定器24、警報判定処理における感度を設定する警報感度設定器25、クルーズコントロールスイッチ26、図示しないステアリングホイールの操作量を検出するステアリングセンサ27、及び自動車に発生したヨーレートを検出するヨーレートセンサ28が接続されている。また認識・車間制御ECU3は、電源スイッチ29を備え、電源スイッチ29がオンされることにより、所定の処理を開始する。
【0030】
レーザレーダセンサ5は、図2に示すように、発光部、受光部及びレーザレーダCPU70などを主要部として構成されている。発光部は、パルス状のレーザ光を、発光レンズ71、スキャナ72及びガラス板77を介して放射する半導体レーザダイオード(以下、単にレーザダイオードと記載)75を備えている。そして、レーザダイオード75は、レーザダイオード駆動回路76を介してレーザレーダCPU70に接続され、レーザレーダCPU70からの駆動信号によりレーザ光を放射(発光)する。また、スキャナ72にはポリゴンミラー73が鉛直軸を中心に回転可能に設けられ、レーザレーダCPU70からの駆動信号がモータ駆動部74を介して入力されると、このポリゴンミラー73は図示しないモータの駆動力により回転する。なお、このモータの回転位置は、モータ回転位置センサ78によって検出され、レーザレーダCPU70に出力される。
【0031】
本実施形態のポリゴンミラー73は、面倒れ角が異なる6つのミラーを備えているため、車幅方向及び車高方向それぞれの所定角度の範囲で不連続にレーザ光を掃引照射(スキャン)して出力する。このようにレーザ光を2次元的に走査するのであるが、その走査パターンを図3を参照して説明する。なお、図3において、出射されたレーザビームのパターン92は測定エリア91内の右端と左端に出射された場合のみを示しており、途中は省略している。また、出射レーザビームパターン92は、図3では一例として略円形のものを示しているが、この形に限られるものではなく楕円形、長方形等でもよい。さらに、レーザ光を用いるものの他に、ミリ波等の電波や超音波等を用いるものであってもよい。また、スキャン方式にこだわる必要はなく、距離以外に2方位を測定できる方式であればよい。
【0032】
図3に示すように、測定エリアの中心方向をZ軸としたとき、これに垂直なXY平面内の所定エリアを順次走査する。本実施形態では、高さ方向であるY軸を基準方向、車幅方向であるX軸を走査方向とし、スキャンエリアは、X軸方向には0.15deg×105点=16degであり、Y軸方向には0.7deg×6ライン=4degである。また、スキャン方向はX軸方向については図3において左から右へ、Y軸方向については図3において上から下へである。具体的には、まずY軸方向に見た最上部に位置する第1走査ラインについてX軸方向に0.15°おきにスキャンする。これで1走査ライン分の検出がなされるので、次に、Y軸方向に見た次の位置にある第2走査ラインにおいても同様にX軸方向に0.15°おきにスキャンする。このようにして第6走査ラインまで同様のスキャンを繰り返す。したがって、左上から右下に向かって順に走査がされ、105点×6ライン=630点分のデータが得られることとなる。
【0033】
このような2次元的なスキャンにより、走査方向を示すスキャン角度θx,θyと測距された距離rとが得られる。なお、2つのスキャン角度θx,θyは、それぞれ出射されたレーザビームとYZ平面に投影した線とZ軸との角度を縦スキャン角θy、出射されたレーザビームをXZ平面に投影した線とZ軸との角度を横スキャン角θxと定義する。
【0034】
レーザレーダセンサ5の受光部は、図示しない物体に反射されたレーザ光を受光レンズ81を介して受光し、その強度に対応する電圧を出力する受光素子83を備えている。そして、この受光素子83の出力電圧は、増幅器85にて増幅された後に、コンパレータ87に出力される。コンパレータ87は増幅器85の出力電圧を基準電圧と比較し、出力電圧>基準電圧となったとき所定の受光信号を時間計測回路89へ出力する。
【0035】
時間計測回路89には、レーザレーダCPU70からレーザダイオード駆動回路76へ出力される駆動信号も入力される。そして図2(b)に示すように、上記駆動信号をスタートパルスPA、上記受光信号をストップパルスPBとし、2つのパルスPA,PB間の位相差(すなわち、レーザ光を出射した時刻T0と反射光を受光した時刻T1との時間差ΔT)を2進デジタル信号に符号化する。また、ストップパルスPBが、基準電圧以上となっている時間を、ストップパルスPBのパルス幅として計測する。そして、それらの値を2進デジタル信号に符号化してレーザレーダCPU70へ出力する。レーザレーダCPU70は、時間計測回路89から入力された2つのパルスPA,PB間の入力時間差ΔTから物体までの距離rを算出し、その距離r及び対応するスキャン角度θx,θyを基にして位置データを作成する。つまり、レーザレーダ中心を原点(0,0,0)とし、車幅方向をX軸、車高方向をY軸、車両前方方向をZ軸とするXYZ直交座標に変換する。そして、このXYZ直交座標に変換された(X,Y,Z)データ及び受光強度データ(ストップパルスPBのパルス幅が相当する)を測距データとして認識・車間制御ECU3へ出力する。
【0036】
ここで、受光強度データについて説明する。図2(c)は受光強度が異なる2つの反射光のストップパルスPBを表している。図2(c)において、曲線L1は、受光強度が比較的強い反射光のストップパルスPBに対応し、曲線L2は、受光強度が比較的弱い反射光のストップパルスPBに対応する。
【0037】
同図の曲線L1の立ち上がり過程における、コンパレータ87に入力される基準電圧V0と交差する時刻をt11、曲線L1の立ち下がり過程に基準電圧V0と交差する時刻をt12、時刻t11と時刻t12との時間差をΔt1とする。また、曲線L2の立ち上がり過程に基準電圧V0と交差する時刻をt21、曲線L2の立ち下がり過程に基準電圧V0と交差する時刻をt22、時刻t21と時刻t22との時間差をΔt2とする。なお、基準電圧V0は、ノイズ成分による影響を避けることができる大きさに設定されている。
【0038】
図2(c)から明らかなように、強い受光強度を持った反射光のストップパルスPBのパルス幅である時間差Δt1と、弱い受光強度を持った反射光のストップパルスPBのパルス幅である時間差Δt2とを対比すると、Δt1>Δt2の関係が成立する。すなわち、反射光のストップパルスPBのパルス幅は、受光強度と対応し、受光強度が小さい時にはパルス幅が短くなり、受光強度が大きい時にはパルス幅が長くなる。従って、このパルス幅である時間差(Δt1、Δt2)は、受光した反射光の強度を特徴付ける指標となる。
【0039】
なお、受光強度は、反射物体の反射強度とその反射物体までの距離によって変化する。すなわち、反射物体の反射強度が高い場合、もしくは反射物体までの距離が短い場合には、反射光の受光強度は大きくなり、反射強度が低い、もしくは反射物体までの距離が長い場合には、反射光の受光強度は小さくなる。
【0040】
認識・車間制御ECU3は、レーザレーダセンサ5からの測距データを基にして物体を認識し、その認識物体から得た先行車の状況に合わせて、ブレーキ駆動器19、スロットル駆動器21および自動変速機制御器23に駆動信号を出力することにより車速を制御する、いわゆる車間制御を実施する。また、認識物体が所定の警報領域に所定時間存在した場合等に警報する警報判定処理も同時に実施する。この場合の物体としては、自車の前方を走行する前車やまたは停止している前車等が該当する。
【0041】
続いて認識・車間制御ECU3の内部構成について、制御ブロックとして説明する。レーザレーダセンサ5から出力された測距データは物体認識ブロック43に送られる。物体認識ブロック43では、測距データとして得た3次元位置データに基づいて、物体の中心位置(X,Y,Z)、及び横幅W、奥行きD、高さHの物体の大きさ(W,D,H)を求める。さらに、物体の中心位置(X,Y,Z)の時間的変化に基づいて、自車位置を基準とするその物体の相対速度(Vx,Vy,Vz)を求める。さらに物体認識ブロック43では、車速センサ7の検出値に基づいて車速演算ブロック47から出力される車速(自車速)と上記求められた相対速度(Vx,Vy,Vz)とから物体が停止物体であるか移動物体であるかの識別が行なわれる。この識別結果と物体の中心位置とに基づいて自車両の走行に影響する物体が選択され、その距離が距離表示器15により表示される。
【0042】
また、ステアリングセンサ27からの信号に基づいて操舵角演算ブロック49にて操舵角が求められ、ヨーレートセンサ28からの信号に基づいてヨーレート演算ブロック51にてヨーレートが演算される。そしてカーブ半径(曲率半径)算出ブロック57では、車速演算ブロック47からの車速と操舵角演算ブロック49からの操舵角とヨーレート演算ブロック51からのヨーレートとに基づいて、カーブ半径(曲率半径)Rを算出する。そして物体認識ブロック43では、このカーブ半径Rおよび中心位置座標(X,Z)などに基づいて車両形状確率や自車線確率を算出する。この車両形状確率や自車線確率については後述する。
【0043】
このようなデータを持つ物体のモデルを「物標モデル」と呼ぶこととする。この物体認識ブロック43にて求めたデータが異常な範囲の値かどうかがセンサ異常検出ブロック44にて検出され、異常な範囲の値である場合には、センサ異常表示器17にその旨の表示がなされる。
【0044】
一方、先行車判定ブロック53では、物体認識ブロック43から得た各種データに基づいて先行車を選択し、その先行車に対するZ軸方向の距離Zおよび相対速度Vzを求める。そして、車間制御部及び警報判定部ブロック55が、この先行車との距離Z、相対速度Vz、クルーズコントロールスイッチ26の設定状態およびブレーキスイッチ9の踏み込み状態、スロットル開度センサ11からの開度および警報感度設定器25による感度設定値に基づいて、警報判定ならば警報するか否かを判定し、クルーズ判定ならば車速制御の内容を決定する。その結果を、警報が必要ならば、警報発生信号を警報音発生器13に出力する。また、クルーズ判定ならば、自動変速機制御器23、ブレーキ駆動器19およびスロットル駆動器21に制御信号を出力して、必要な制御を実施する。そして、これらの制御実行時には、距離表示器15に対して必要な表示信号を出力して、状況をドライバーに告知する。
【0045】
このような車間制御や警報判定に際しては、その前提となる物体認識、さらに詳しく言えば、ここでの認識対象物体である車両の認識が適切に行われていることが重要である。そこで、その車両認識を適切に行なうため、認識・車間制御ECU3の物体認識ブロック43において実行される物体認識に関する処理について説明する。
【0046】
図4(a)のフローチャートに物体認識に係るメイン処理を示す。図4(a)のステップS110では、レーザレーダセンサ5から1スキャン分の測距データの読み込みを行なう。レーザレーダセンサ5でのスキャン周期は100msecとし、100msec毎にデータを取り込む。
【0047】
ステップS120では、データのセグメント化を行なう。上述したように、測距データとして得た3次元位置データをグルーピングしてセグメントを形成する。このセグメント化においては、所定の接続条件(一体化条件)に合致するデータ同士を集めて1つのプリセグメントデータを生成し、さらにそのプリセグメントデータ同士の内で所定の接続条件(一体化条件)に合致するものを集めて1つの本セグメントデータとするというものである。プリセグメントデータは、例えば点認識されたデータ同士のX軸方向の距離△Xが0.2m以下、Z軸方向の距離△Zが2m以下という2条件を共に満たす場合に、その点集合を一体化して求める。本実施形態では。Y軸方向に6つの走査ラインがあるため、プリセグメント化によって、ライン毎にプリセグメントデータが生成される。次に、本セグメント化では、3次元(X,Y,Z)空間で近接するプリセグメントデータ同士を一体化(本セグメント化)する。本セグメントデータは、X軸,Y軸及びZ軸にそれぞれ平行な3辺を持つ直方体の領域であり、その中心座標(X,Y,Z)と大きさを示すための3辺の長さ(W,H,D)をデータ内容とする。なお、特に断らない限り、本セグメント(データ)のことを単にセグメント(データ)と称することとする。
【0048】
ステップS130では、認識対象の個々の車両などを物標化する物標化処理を行なう。物標とは、一まとまりのセグメントに対して作成される物体のモデルである。この物標化処理を図6(b)のフローチャートを参照して説明する。
【0049】
物標化処理においては、まず、物標モデルの対応セグメントを検索する(S131)。これは、前回までに得た物標モデルが、今回検出したセグメントの内のいずれと一致するかを検索する処理であり、物標モデルに対応するセグメントとは次のように定義する。まず、物標モデルが前回処理時の位置から前回処理時における相対速度で移動したと仮定した場合、現在物標モデルが存在するであろう推定位置を算出する。続いて、その推定位置の周囲に、X軸,Y軸,Z軸方向それぞれに所定量の幅を有する推定移動範囲を設定する。そして、その推定移動範囲に少なくとも一部が含まれるセグメントを対応するセグメントとする。
【0050】
ステップS132では、物標モデルのデータ更新処理を実行する。この処理は、対応するセグメントがあれば物標モデルの過去データを現在のデータに基づいて更新するものである。更新されるデータは、中心座標(X,Y,Z)、幅W、高さH、奥行きD、X軸方向,Y軸方向、Z軸方向の相対速度(Vx,Vy,Vz)、中心座標(X,Y,Z)の過去4回分のデータ、自車線確率などである。なお、対応するセグメントがない場合は、物標モデルのデータ更新は行なわず、新規物標モデルとして登録する。
【0051】
その後、ステップS133にて車両形状確率の算出を行なう。車両形状確率とは、物標モデルが車両である確率を示す指標であり、相対加速度、形状、位置、受光強度及び検出時間に基づいて算出される。この車両形状確率について、以下、詳しく説明する。
【0052】
路側にデリニエータが狭い間隔で多数設置されているような場合やガードレールを検出しているような場合には、これらの停止物を移動物であると誤認識してしまう可能性がある。これは、同一位置に常に何かを検出することにより、その位置に自車と同速度で走行している車両が存在すると判断してしまうからである。そこで、このように移動物であると誤認識した物標モデルが先行車判定ブロック53において誤って先行車と判断されてしまわないように、車両形状確率を算出する。そして、先行車判定ブロック53においてこの車両形状確率が例えば50%未満の場合に路側物であると判定するようにすれば、繰り返し現れる停止物を誤って先行車両と判断することを防止できる。
【0053】
車両形状確率の取り得る範囲は0〜100%であり、各物標モデルごとに車両形状確率瞬時値を算出したら、瞬間的なノイズやバラツキによる影響を低減するために、数式1のように加重平均して求める。
【0054】
【数1】今回の車両形状確率=前回値×α+今回の瞬時値×(1−α)
なお、例えば初期値は50%、αは0.8に設定される。
【0055】
車両形状確率の瞬時値は、相対加速度、形状、位置、受光強度及び検出時間それぞれに関して、車両である確からしさを加減量として求め、それらの総和として算出される。
【0056】
相対加速度については、例えば|αj|>α0+αn/jが成立した回数に応じて、例えば2個以上の相対加速度αjについて上式が成立すれば加減量は−50%とし、1個の相対加速度αjについて成立すれば−10%とする。なお、不成立の場合はそのまま(プラスもマイナスもしない)とする。なお、αj は算出した相対加速度であり、α0 は許容相対加速度、αnは測距誤差によるノイズサンプリング周期のときの値である。この式に関しては、特開平9−178848号の図7のステップ307にて示した式と同じであるため、詳しい説明は省略する。
【0057】
また、車両の形状に関しては、横幅Wが所定の範囲(例えば1.2m≦W≦2.8m)に属し、かつ奥行きDが第1の所定長さ(例えば3m)以内であれば、車両らしい物体であるため、加減量は+30%とする。また、横幅Wが上記の範囲から外れる場合であっても(1.2m>W、もしくはW>2.8m)、その奥行きDが第1の所定長さよりも長い第2の所定長さ(例えば5m)以内であれば、バイクや大型トラックのような物体であるため、加減量は+10%とする。さらに、横幅Wが所定の範囲(例えば1.2m≦W≦2.8m)に属し、かつ奥行きDが第1及び第2の所定長さの間に属する場合(例えば3m≦D<5m)も、トラックのような物体であるため、加減量は+10%とする。
【0058】
一方、奥行きDが長く(例えばD>5m)、縦横比D/Wが大きい(例えば8以上)場合、ガードレールのような縦長物体であるため、加減量は−50%とする。
【0059】
次に、物標モデルの位置及び反射波の受光強度による、車両である確からしさの設定について説明する。
【0060】
車両の後部面は金属面によって構成され、かつリフレクタを備えているので、基本的に、車両以外の物体(草や樹木、スプラッシュや砂塵等)よりも高い反射強度を有している。このため、物体により反射されたレーザ光の受光強度に基づいて、車両と非車両との識別を行なうことができる。
【0061】
但し、車両の後部面に泥等が付着している場合、その車両によって反射される反射波の受光強度が全て大きくなるわけではない。そのため、各物体の反射強度を正確に判断するため、本実施形態では、各物体の物標モデルに対応する測距データの受光強度の中から、最大の受光強度を抽出し、この最大受光強度に基づいて車両と非車両との識別を行なうこととした。
【0062】
具体的には、第1の距離(例えば15m)以内に存在する物体からの反射光の最大受光強度と、第1の所定強度とを比較する。反射光の最大受光強度が第1の所定強度以下であった場合には、近距離にも係わらず最大受光強度が低いため、道路脇(路側)に存在する草や樹木等の反射強度の低い物体(非車両)であると推測できる。従って、この場合の加減量は−30%とする。このとき、その物体の存在する位置が道路脇であることが確認できれば、一層、その物体が道路脇の草や樹木等であることを正確に識別できるので、その物体の位置が、自車両の進行方向から横方向に所定距離(例えば1m)以上離れているとの条件を追加しても良い。また、その物体の横幅Wが車両の横幅よりも小さい所定幅(例えば0.1m)よりも狭いとの条件を追加しても良い。反射物体の横幅Wが、車両の横幅よりも短い場合には、その反射物体は、例えば、道路脇の植え込みにおける樹木や草、あるいは道路上に舞い上がったスプラッシュや砂塵等の非車両である場合が多いためである。
【0063】
この横幅Wに関しては、例えば複数の幅を設定して(例えば0.1mと0.5m)、その幅が大きくなるほど、加減量によるマイナス値を小さくするようにしても良い。すなわち、横幅Wが0.1mよりも狭い場合には、車両以外の物体である可能性が非常に高いため、上述のように加減量を−30%とし、0.1≦W<0.5の場合には、加減量を例えば−10%とする。
【0064】
また、上述した第1の距離(15m)よりもさらに近い第2の距離(例えば3m)以内に存在する物体からの反射光の最大受光強度と、上記第1の所定強度よりも小さい第2の所定強度とを比較する。反射光の最大受光強度が第2の所定強度よりも小さい場合、その反射物は、スプラッシュや砂塵等の非常に反射強度の低い物体であると推測することができる。従って、この場合も、加減量を例えば−10%にする。このときも、その反射物の大きさを確認することにより、スプラッシュや砂塵であるとの推測精度を向上できるので、例えば横幅Wが所定の幅(例えば0.5m)よりも小さいとの条件を追加しても良い。
【0065】
なお、本実施形態においては、反射光の受光強度は、ストップパルスPBのパルス幅によって示されるので、反射光の最大受光強度及びその最大受光強度と比較される第1及び第2の所定強度とも、パルス幅時間によって表される。
【0066】
また、上述した、第1及び第2の所定強度は、反射物体までの距離に応じて変化させても良い。すなわち、第1及び第2の所定強度は、それぞれ、実際に検出した反射物体までの距離が長くなるにつれて、小さくなるように設定しても良い。反射物体の反射強度が同じであっても、その反射物体との距離が離れるに従って、反射光強度は低下するためである。
【0067】
次に、検出時間については、例えば検出時間が2秒以上のものは加減量を+20%とし、検出時間が5秒以上のものは+50%とする。先行車両に追従走行している場合は、先行車両を長時間安定して検出することができるのに対し、路側のデリニエータ群やガードレールを検出している場合には、同じ検出状態が長時間は続かないので、多数の物標モデルが消えて無くなったり、新たに現れたりする。したがって、長時間検出している物標モデルは走行車両である可能性が高いと言えるため、検出時間に応じて、加減量を増加することが好ましいのである。
【0068】
次に、ステップS134において、自車線確率の算出を行なう。自車線確率とは、物標モデルが自車と同一レーンを走行している車両である確からしさを表すパラメータである。本実施形態では、自車線確率瞬時値(その瞬間の検出データに基づいて算出された値)を算出した後、所定のフィルタ処理を施して自車線確率を求める。
【0069】
まず、物標モデルの位置を、カーブ半径算出ブロック57にて算出したカーブ半径に基づいて直線路走行時の位置に換算する。このように直進路に変換して得られた位置を、自車線確率マップに重ねて、物標モデルの自車線確率瞬時値を求める。なお、自車線確率マップとは、自車の前方の所定の範囲(例えば左右それぞれ5m、前方100m)を複数の領域に分け、その前方距離が近いほど、また自車の進路上に近いほど、確率が高くなるように各領域確率が付与されたマップである。
【0070】
自車線確率瞬時値を求めた後は、数式2に示すように、加重平均によりフィルタ処理を施して自車線確率を求める。
【0071】
【数2】自車線確率=自車線確率前回値×α+自車線確率瞬時値×(1−α)
ここで、αは一定値でも良いし、物標モデルとの距離や物標モデルが存在する領域に応じて変化するものであっても良い。なお、自車線確率の算出方法は、特開2002−40139の段落番号0050から0056に詳しく記載されているため、これ以上の詳細な説明は省略する。
【0072】
次に、ステップS135において、認識安定度の判定を行なう。この認識安定度判定処理は、各物標モデルが、どの程度安定して認識できているかを示す認識安定度を判定するものである。そして、認識安定度は、反射光の受光強度、物標モデルの形状の時間的変化、物標モデルの存在位置、検出時間、及び物標モデルの形状の範囲に基づいて複数段階(例えば4段階)に判定される。なお、最も認識安定度の低い状態(安定度0)については、前述した相対加速度の異常や検出時間が所定時間(例えば4秒)未満等の条件のうち、1つでも成立した場合に、安定度0と判定される。
【0073】
反射光の受光強度に関しては、少なくとも2段階の基準強度(第1の基準強度及び第2の基準強度)を設定し、物標モデルによる複数反射光の受光強度の内、最大の受光強度と比較する。そして、反射光の最大受光強度が、第1の基準強度よりも大きい場合、最も安定度の高い安定度3の判定成立条件の1つが満足されたと判定する。以下、順次、最大受光強度が、第1の基準強度よりも小さい第2の基準強度よりも大きい場合、安定度2の判定成立条件の1つが満足されたと判定し、第2の基準強度よりも小さい場合、安定度1と判定する。
【0074】
最大受光強度の大きさを認識安定度の判定に用いる理由は以下のとおりである。まず、車両は非車両に比較して、高い反射強度を有しているのであるが、実際に検出した反射光の最大強度が明らかに非車両とは識別できる程度の大きさを持っていると、その先行車両による物標モデルを他の反射物体による物標モデルとは区別して安定的に認識しつづけることができる。さらに、受光強度が高い場合には、反射波の受光強度に関するS/N比が高くなるため、その先行車両による物標モデルとの距離等の測距データの検出精度も向上する。
【0075】
次に、物標モデルの形状の時間的変化に関しては、所定の間隔(100msec)で検出される測距データに基づいて演算される物標モデルの前回の形状演算値と今回の形状演算値との差が所定の長さ未満である場合、安定度3の判定成立条件の1つが満足されたと判定し、所定の長さ以上である場合、安定度2以下と判定する。具体的には、物標モデルの形状として、横幅W及び奥行きDを採用し、前回演算された横幅Wと今回演算された横幅Wとの差が所定の長さ(例えば0.5m)未満であり、かつ前回演算された奥行きDと今回演算された奥行きDとの差が所定の長さ(例えば0.5m)未満であるとき、安定度3の判定成立条件の1つが満足されたと判定する。
【0076】
時間的に異なるタイミングで測定された測距データに基づいて形成された物標モデルの形状がほぼ同じである場合、その物標モデルに対応する複数の反射光が、安定的に検出できていることを意味する。そのため、そのような場合には、認識安定度が高いと判定できるのである。
【0077】
物標モデルの存在位置に関しては、その物標モデルが、自車両の進行方向延長線上から横方向に所定距離の範囲に存在するか否かを各認識安定度の判定成立条件とする。具体的には、自車両の進行方向延長線上からの横方向へのずれを判別するための距離として2種類の距離(第1距離:例えば左右それぞれ1m、第2距離:例えば左右それぞれ1.5m)を設定する。そして、物標モデルが第1距離の範囲内に存在する場合には、安定度3の判定成立条件の1つが満足され、第2の距離の範囲内に存在する場合には、安定度2の判定成立条件の1つが満足され、第2の距離範囲から外れている場合には、安定度1と判定する。
【0078】
このように、物標モデルの存在位置を認識安定度判定のために利用する理由は、先行車両が自車両の進行方向延長線上に近いほど、自車と同一車線を走行している先行車両である可能性が高く、この場合レーザレーダセンサ5の照射範囲を外れる可能性が低く、また測距データに基づいて相対速度Vzを最も高精度に算出することができるためである。
【0079】
検出時間に関しても、複数の基準時間(第1基準時間:例えば20秒、第2基準時間:例えば10秒)を設定する。そして、物標モデルの継続した検出時間が第1基準時間以上である場合、安定度3の判定成立条件の1つが満足され、第2基準時間以上の場合、安定度2の判定成立条件の1つが満足され、第2基準時間以下の場合には、安定度1と判定する。すなわち、実際に物標モデルを検出している継続時間が長い場合には、その物標モデルが先行車両であり、安定して認識できている可能性が高いと考えられるためである。
【0080】
最後に、物標モデルの形状について、より車両らしい形状の範囲に収まる場合ほど、より高い認識安定度の判定成立条件の1つが満足されたと判定する。例えば、物標モデルの横幅Wが1.3mより大きくかつ2.6mよりも小さく、さらに物標モデルの奥行きDが0.5m以下である場合、その物標モデルは車両の後面を示している可能性が高いため、安定度3の判定成立条件の1つが満足されたと判定する。また、例えば物標モデルの横幅Wが0.5mより大きく2.8mよりも小さく、さらに奥行きDが1.0m以下の場合、安定度2の判定成立条件の1つが満足されたと判定し、横幅Wもしくは奥行きDがその範囲から外れている場合には、安定度1と判定する。
【0081】
認識安定度3もしくは認識安定度2と判定されるのは、それぞれ上述した条件がすべて満足された場合であり、1つでも満足されない場合は、より下位の安定度と判定されることになる。
【0082】
ただし、認識安定度の判定については、上述した条件の全てに関して判断する必要はなく、少なくとも物標モデルからの複数の反射光の最大受光強度を利用しつつ、必要に応じて、他の条件を追加的に用いれば良い。また、上述した判定条件以外に、例えば物標モデルの車両形状確率や物標モデルまでの距離を用いても良い。すなわち、車両形状確率が高いほど、また距離が近いほど高い安定度の成立条件が満足されたと判定しても良い。
【0083】
このようにして判定された認識安定度は、先行車判定ブロック53において物標モデルの相対速度Vzを算出する際に利用される。以下、先行車判定ブロック53における、認識安定度を考慮した相対速度Vzの算出方法について説明する。
【0084】
先行車両との車間距離を目標とする距離に制御するためには、自車両と先行車両との速度差(自車両速度−先行車両)である相対速度Vzを算出する必要がある。すなわち、先行車両に接近するためには、相対速度Vzがプラスとなるように自車両の走行速度を制御し、先行車両との距離を長くするには、相対速度Vzがマイナスとなるように制御する。従って、このような制御を行なう基礎となる相対速度Vzは、正確に算出されることが必要であるので、通常は、ノイズや測距誤差等の影響を排除するため、数式3に示すように時系列に演算されたN個の相対速度Vzに基づいて平均相対速度Vzaveを算出している。
【0085】
【数3】Vzave=(Vz1+Vz2+…+VzN)/N
そして、この平均相対速度Vzaveを相対速度Vzとして、車間制御に用いる。しかし、平均相対速度Vzaveを用いて車間制御を行なうと、実際の相対速度とのずれが生じて、車間制御の応答性が低下することになる。
【0086】
そのため、本実施形態では、上述したように、反射光の最大受光強度を用いて先行車両である物標モデルの認識安定度を判定する。そして、その認識安定度が高く測距データの精度が向上していると考えられる場合には、最新の相対速度Vz1の影響度合いを高めて平均相対速度Vzaveを算出する。これにより、平均相対速度Vzaveを最新の相対速度Vz1に近づけることができるので、車間制御の応答性を向上することができる。
【0087】
具体的には、上述した認識安定度の判定結果に基づいて、平均相対速度Vzaveを算出する際に使用する相対速度Vzの個数Nを4段階に設定する。すなわち、安定度0の場合が最も多くの相対速度Vzに基づいて平均相対速度Vzaveが演算され、認識安定度が上昇するにつれて、その相対速度Vzの個数Nが少なくなるようにする。
【0088】
なお、数式4に示すように、平均相対速度Vzaveを重み付け平均演算によって求めるようにし、かつ、その重み付けαを認識安定度が上昇するにつれて大きくするようにしても良い。この場合も、認識安定度が高くなるほど、平均相対速度Vzaveに対する最新の相対速度Vz1の影響を高めることができる。
【0089】
【数4】Vzave(N)=Vzave(N−1)×(1−α)+Vz1×α
先行車判定ブロック53には、認識安定度以外に、上述した車両形状確率及び自車線確率を含む物標モデルのデータが、図1に示す物体認識ブロック43から出力される。そして、先行車判定ブロック53では、例えば車両形状確率が所定のしきい値(例えば50%)以上、且つ自車線確率が所定のしきい値(例えば50%)以上の物標モデルの中で、距離Zが最小のものを先行車と判断する。そして、この先行車の物標モデルの認識安定度に応じて、平均相対速度Vzaveの算出方法を変更しつつ、先行車両との平均相対速度Vzaveを演算する。この演算された平均相対速度Vzaveを相対速度Vzとして、先行車との距離Zとともに、車間制御部及び警報判定部ブロック55に出力する。これにより、車間制御部及び警報判定部ブロック55では、先行車との距離Z及び相対速度Vzに基づいて、車間制御処理及び警報判定処理が実行できる。
【0090】
なお、本発明はこのような実施形態に何等限定されるものではなく、本発明の主旨を逸脱しない範囲において種々なる形態で実施し得る。
【0091】
上記実施形態では、ストップパルスPBのパルス幅を受光強度を示す指標として採用したが、他の指標を用いても良い。例えば、ストップパルスPBのピーク値を検出するピーク値検出回路を設け、このピーク値を受光強度を示す指標とすることができる。また、ストップパルスPBの立ち上がり角度、すなわち、ストップパルスPBの立ち上がり開始から所定の基準電圧まで達する時間を受光強度を示す指標として採用しても良い。
【0092】
上記実施形態では、レーザ光の2次元スキャンを行うために面倒れ角が異なるポリゴンミラー73を用いたが、例えば車幅方向にスキャン可能なガルバノミラーを用い、そのミラー面の倒れ角を変更可能な機構を用いても同様に実現できる。但し、ポリゴンミラー73の場合には、回転駆動だけで2次元スキャンが実現できるという利点がある。
【0093】
上記実施形態では、レーザレーダセンサ5内部において、距離及び対応するスキャン角度θx,θyを極座標系からXYZ直交座標系に変換していたが、その処理を物体認識ブロック43において行っても良い。
【0094】
上記実施形態では、レーザ光を用いたレーザレーダセンサ5を採用したが、ミリ波等の電波や超音波等を用いるものであってもよい。また、スキャン方式にこだわる必要はなく、距離以外に方位を測定できる方式であればよい。そして、例えばミリ波でFMCWレーダ又はドップラーレーダなどを用いた場合には、反射波(受信波)から先行車までの距離情報と先行車の相対速度情報が一度に得られるため、レーザ光を用いた場合のように、距離情報に基づいて相対速度を算出するという過程は不要となる。
【図面の簡単な説明】
【図1】本発明が適用された車間制御装置の構成を示すブロック図である。
【図2】(a)はレーザレーダセンサの構成を示す構成図であり、(b)はレーザレーダセンサにおける距離検出方法を説明するための説明図であり、(c)は受光強度を示す指標としてのストップパルスのパルス幅について説明する説明図である。
【図3】レーザレーダセンサの照射可能領域を示す斜視図である。
【図4】(a)物体認識に係わる処理を示すフローチャートであり、(b)は(a)のフローチャートにおいて実行される物標化処理を示すフローチャートである。
【図5】従来技術における非車両判定マップを示す説明図である。
【符号の説明】
1…車両制御装置、3…認識・車間制御ECU、5…レーザレーダセンサ、7…車速センサ、9…ブレーキスイッチ、11…スロットル開度センサ、13…警報音発生器、15…距離表示器、17…センサ異常表示器、19…ブレーキ駆動器、21…スロットル駆動器、23…自動変速機制御器、24…警報音量設定器、25…警報感度設定器、26…クルーズコントロールスイッチ、27…ステアリングセンサ、28…ヨーレートセンサ、29…電源スイッチ、30…ワイパスイッチ、43…物体認識ブロック、44…センサ異常検出ブロック、47…車速演算ブロック、49…操舵角演算ブロック、51…ヨーレート演算ブロック、53…先行車判定ブロック、55…車間制御部及び警報判定部ブロック、57…カーブ半径算出ブロック、70…レーザレーダCPU、71…発光レンズ、72…スキャナ、73…ミラー、74…モータ駆動回路、75…半導体レーザダイオード、76…レーザダイオード駆動回路、77…ガラス板、81…受光レンズ、83…受光素子、85…アンプ、87…コンパレータ、89…時間計測回路
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention provides a vehicle object that irradiates a plurality of transmission waves within a predetermined angle range in each of a vehicle width direction and a height direction and recognizes a reflection object such as a preceding vehicle ahead of the host vehicle based on the reflected waves. The present invention relates to a recognition device and a headway control device that controls a headway between a recognized vehicle and a preceding vehicle.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as disclosed in Patent Document 1, for example, an object recognition device that irradiates a transmission wave such as a light wave or a millimeter wave to the front of a vehicle and detects a reflected wave to recognize an object in front of the vehicle has been considered. ing. This type of device is applied to, for example, a device that detects that the distance from a preceding vehicle has become short and generates an alarm, and a device that controls the vehicle speed so as to maintain a predetermined distance between the preceding vehicle and the like. And is used for recognizing a preceding vehicle as a control target thereof.
[0003]
In the object recognition device described above, for example, a laser radar sensor irradiates the front of the vehicle with a plurality of laser beams within a predetermined angle range in each of the vehicle width direction and the height direction, and based on the reflected light, radiates the vehicle ahead by three. Recognize dimensionally. At this time, if there is a reflective object at a height or range that cannot be present with a normal vehicle, it is necessary to distinguish between a vehicle and a non-vehicle in order to recognize that it is not a vehicle. The non-vehicle determination map was used to identify the non-vehicle. Here, the non-vehicle determination map corresponds to the area where the reflective object exists when the vehicle width, the vehicle height, and the vehicle forward direction are set to the X axis, the Y axis, and the Z axis, respectively, as shown in FIG. 4 is a three-dimensional map in which the range of the received light intensity of reflected light for distinguishing between a vehicle and a non-vehicle is set.
[0004]
A method for distinguishing between a vehicle and a non-vehicle using the non-vehicle determination map will be described. First, it is determined which area of the non-vehicle determination map corresponds to the distance measurement data of the laser radar sensor. At this time, if the distance measurement data belongs to the non-vehicle range, the distance measurement data is deleted. On the other hand, when the distance measurement data corresponds to a range that is not a non-vehicle, the distance measurement data is held, and the distance measurement data is output to an inter-vehicle control ECU that executes determination of a preceding vehicle and inter-vehicle control.
[0005]
As shown in FIG. 5, the non-vehicle determination map is divided into an area near the center, an area around the center, and a lowermost area in the XY directions. The correspondence between the direction position and the received light intensity is set as shown in (a) to (c). The area near the center in the XY directions corresponds to the correspondence shown in FIG. 7B, the area around it corresponds to the correspondence shown in FIG. 9A, and the lowermost area corresponds to the correspondence shown in FIG.
[0006]
Here, the correspondence between the position in the Z direction and the received light intensity will be described. (A), (b), and (c) basically show the received light intensity of the reflected light within a predetermined distance in the Z direction. Are set as non-vehicles within a predetermined range, and the others are set as vehicles. This is because there is a difference in the reflection intensity between the vehicle and the non-vehicle, and the reflection intensity of the vehicle is considered to be higher than the reflection intensity of the non-vehicle. By setting the light receiving intensity for discriminating between a vehicle and a non-vehicle for each reflection object existing area, more appropriate discrimination between a vehicle and a non-vehicle can be performed. In other words, in an area where the possibility that a vehicle is present is large, the distance measurement data is retained even if the received light intensity is relatively small, while, in an area where the possibility that the vehicle is present is small, the received light intensity is not relatively large. As long as the distance measurement data is deleted. As a result, only the distance measurement data from the reflector that is highly likely to be a vehicle can be output to the headway control ECU.
[0007]
[Patent Document 1] JP-A-2002-40139
[0008]
[Problems to be solved by the invention]
As described above, in the conventional object recognition device, a plurality of laser beams are sequentially emitted from the laser radar sensor, and when the reflected waves are detected, based on the non-vehicle determination map, each reflected wave is detected. It is determined whether the received light intensity corresponds to a vehicle or a non-vehicle.
[0009]
However, the determination method in the conventional object recognition device may not be able to sufficiently secure the determination accuracy of the vehicle / non-vehicle. For example, when mud or the like adheres to a part of a vehicle and is contaminated, not all of the reflected light reflected by the vehicle has a high light receiving intensity. That is, even if the reflecting object is a vehicle, it may include distance measurement data based on reflected light having a low received light intensity. In this case, if it is determined that the distance measurement data based on the reflected light with low received light intensity corresponds to the non-vehicle and the measurement data is deleted, the distance measurement data for determining the reflection object as a vehicle is insufficient, and the vehicle is a vehicle. May not be correctly recognized.
[0010]
The present invention provides a vehicular object recognition device capable of improving the recognition accuracy when recognizing whether a reflection object is a vehicle or a non-vehicle by utilizing the intensity of a reflected wave from the reflection object. This is the first object. It is a second object of the present invention to provide an inter-vehicle distance control device capable of suitably controlling the inter-vehicle distance with a preceding vehicle by utilizing the intensity of a reflected wave when the reflecting object is a preceding vehicle. I do.
[0011]
[Means for Solving the Problems]
In order to achieve the first object, the vehicle object recognition device according to claim 1 irradiates a plurality of transmission waves over a predetermined angle range in each of a vehicle width direction and a height direction. Radar means for detecting a distance to a reflecting object, an angle in the two directions of the vehicle width direction and the height direction based on the reflected waves, and an intensity of the reflected waves,
When the plurality of reflectors satisfy a predetermined integration condition, determining means for determining the plurality of reflectors as an integrated reflector,
Selection means for selecting the maximum intensity among the intensities of the reflected waves corresponding to the respective reflection objects constituting the reflection object integratedly determined by the determination means,
Based on the distance and the angle in the two directions, which are the detection results of the radar means, the reflecting object is recognized, and when the maximum intensity selected by the selecting means is smaller than a predetermined reference intensity, the reflecting object is regarded as a non-vehicle. A recognition unit that increases the probability of recognition.
[0012]
As described above, in the object recognition device for a vehicle according to the first aspect, when a plurality of transmission waves are irradiated and a plurality of reflected waves are received, first, the reflection that causes the plurality of reflected waves is generated. It is determined whether the object is one. If it is determined that the reflection object is an integral reflection object, the maximum intensity of the reflected waves by the respective reflection objects constituting the reflection object is compared with a reference intensity for determining whether the vehicle is a vehicle or a non-vehicle. It is. In this way, it is possible to uniquely determine whether each of the reflective objects determined to be integrated is likely to be a vehicle or non-vehicle. Further, since the determination is made based on the maximum reflected wave intensity of each reflecting object, accurate determination can be made even when a part of the vehicle is dirty.
[0013]
As described in claim 2, it is preferable that the predetermined reference intensity is set to be smaller when the distance to the reflecting object is long than when the distance is short. This is because, even if the reflection intensity of the reflection object is the same, the reflection light intensity decreases as the distance from the reflection object increases.
[0014]
According to a third aspect of the present invention, there is provided a shape calculating means for calculating the shape of the reflecting object based on the distance detected by the radar means and the angle in the two directions, wherein the recognizing means has a maximum intensity higher than a predetermined reference intensity. Is smaller and the shape of the reflecting object is different from the vehicle shape, it is preferable to increase the probability that the reflecting object is recognized as a non-vehicle. In this way, by considering the shape of the reflecting object in addition to the intensity of the reflected wave, it is possible to more accurately determine whether the vehicle is likely to be a vehicle or a non-vehicle. it can.
[0015]
As described in claim 4, it is preferable that the recognition unit determines that the shape of the reflective object is different from the vehicle shape when the lateral width in the shape of the reflective object is shorter than the lateral width in the vehicle shape. When the width of the reflecting object is shorter than the width of the vehicle, the reflecting object is often a non-vehicle such as a tree or grass in a planting on the side of a road or a splash or dust flying on a road. That's why.
[0016]
As described in claim 5, the recognition means performs processing for increasing the probability of determining the reflection object as a non-vehicle based on the maximum intensity of the reflected wave when the distance to the reflection object is within a predetermined short distance. It is preferred to do so. This is because, even when the maximum reflected wave intensity is selected, as the distance to the reflecting object increases, the intensity of the reflected wave also decreases, making it difficult to distinguish between a vehicle and a non-vehicle.
[0017]
Further, in order to achieve the second object, an inter-vehicle distance control device according to claim 6 is provided.
In each of the vehicle width direction and the height direction, a plurality of transmission waves are irradiated over a predetermined angle range, and a distance to a reflection object based on the reflected waves, the two in the vehicle width direction and the height direction. Radar means for detecting the angle of the direction, and the intensity of the reflected wave,
When the plurality of reflectors satisfy a predetermined integration condition, determining means for determining the plurality of reflectors as an integrated reflector,
Selection means for selecting the maximum intensity among the intensities of the reflected waves corresponding to the respective reflection objects constituting the reflection object determined to be integrated,
Based on at least the shape of the reflective object, a recognition unit that recognizes that the reflective object is a preceding vehicle,
Calculating means for calculating a relative speed with respect to the preceding vehicle in a time series based on a change in a distance to the preceding vehicle, and calculating an average relative speed obtained by averaging a plurality of relative speeds calculated in the time series; ,
An inter-vehicle control unit that performs inter-vehicle control based on the distance to the preceding vehicle and the average relative speed;
A maximum strength of the reflected wave selected by the selection means with respect to the preceding vehicle, based on whether or not greater than a predetermined reference strength, comprising stability determination means for determining the recognition stability of the preceding vehicle,
When the stability determining unit determines that the recognition stability of the preceding vehicle is high, the calculating unit increases the influence of the latest relative speed when calculating the average relative speed.
[0018]
As described above, in the headway control device according to claim 6, when the maximum strength of the reflected wave by the reflecting object recognized as the preceding vehicle is higher than the predetermined reference intensity, the recognition stability of the preceding vehicle is determined to be high. judge. In other words, the vehicle has a higher reflection intensity than the non-vehicle, but if the maximum intensity of the actually detected reflected wave has a level that can be clearly distinguished from the non-vehicle, It is possible to continue to recognize the preceding vehicle stably in distinction from other reflective objects.
[0019]
When the reflection intensity is high, the S / N ratio related to the reflection wave intensity increases, so that the accuracy of the distance measurement data such as the distance to the preceding vehicle also improves.
[0020]
Here, in order to control the inter-vehicle distance to the preceding vehicle to the target distance, it is necessary to calculate a relative speed that is a speed difference between the own vehicle and the preceding vehicle (the own vehicle speed-the preceding vehicle). That is, in order to approach the preceding vehicle, the traveling speed of the own vehicle is controlled so that the relative speed becomes positive, and in order to increase the distance to the preceding vehicle, the relative speed is controlled so that the relative speed becomes negative. is there. Regarding the calculation of the relative speed, an average relative speed is usually calculated based on a plurality of relative speeds calculated in time series in order to eliminate the influence of noise, ranging error, and the like. Then, headway control is performed based on the average relative speed. However, if the headway control is performed using the average relative speed, a deviation from the actual relative speed occurs, and the responsiveness of the headway control is reduced.
[0021]
Therefore, in the following distance control device, when the accuracy of the distance measurement data is improved, the average relative speed is calculated by increasing the degree of influence of the latest relative speed. As a result, the average relative speed can be made closer to the latest relative speed, so that the responsiveness of the headway control can be improved.
[0022]
As described in claim 7, the influence of the latest relative speed on the average relative speed can be increased by reducing the number of relative speeds used in calculating the average relative speed by the calculation means. Further, as described in claim 8, when calculating the average relative speed, the weighting coefficient of the latest relative speed may be increased to calculate the weighted average relative speed. The effect of the relative speed can be increased.
[0023]
As described in claim 9, the stability determining means further recognizes the preceding vehicle based on whether a temporal change in the shape of the reflecting object corresponding to the preceding vehicle is smaller than a predetermined reference value. It is preferable to determine the degree of stability. Considering not only the maximum intensity of the reflected wave of the reflecting object that has been determined to be integrated but also the temporal change in the shape of the reflecting object, the accuracy of determining the recognition stability is improved. It should be noted that the temporal change in the shape of the reflecting object is specifically determined based on whether or not the change in the width of the reflecting object is within a predetermined length, whether or not the depth of the reflecting object is within a predetermined length, and the like.
[0024]
Similarly, as set forth in claim 10, the stability determining means is further based on whether or not the position of the preceding vehicle is within a predetermined distance in the lateral direction from an extension of the traveling direction of the own vehicle. It is preferable to determine the recognition stability of the preceding vehicle. This is because the closer the preceding vehicle is on the extension of the traveling direction of the own vehicle, the lower the possibility that the preceding vehicle goes out of the irradiation range of the laser means, and the relative speed can be calculated with the highest accuracy based on the distance measurement data.
[0025]
Further, as described in claim 11, the stability determination means may further determine the recognition stability of the preceding vehicle based on the continuation time of recognizing the preceding vehicle. This is because if the duration of actually recognizing the vehicle is long, it is highly likely that the vehicle is recognized stably.
[0026]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a headway control device according to an embodiment of the present invention will be described.
[0027]
In the present embodiment, a vehicular object recognition device is applied to the inter-vehicle control device 1, and the inter-vehicle control device 1 also has a function of outputting a warning when an obstacle exists in an area to be warned. Things.
[0028]
FIG. 1 is a system block diagram of the headway distance control device 1. The inter-vehicle control device 1 is mainly configured by a recognition and inter-vehicle control ECU 3. The recognition / vehicle distance control ECU 3 has a microcomputer as a main component, and is provided with an input / output interface (I / O) and various drive circuits and detection circuits. Since these hardware configurations are general, detailed description will be omitted.
[0029]
The recognition / interval control ECU 3 receives detection signals from the laser radar sensor 5, the vehicle speed sensor 7, the brake switch 9, and the throttle opening sensor 11, and outputs an alarm sound generator 13, a distance display 15, a sensor abnormality display. 17, a drive signal is output to the brake driver 19, the throttle driver 21, and the automatic transmission controller 23. The recognition / interval control ECU 3 includes an alarm volume setting device 24 for setting an alarm volume, an alarm sensitivity setting device 25 for setting sensitivity in an alarm determination process, a cruise control switch 26, and a steering for detecting an operation amount of a steering wheel (not shown). A sensor 27 and a yaw rate sensor 28 for detecting a yaw rate generated in the vehicle are connected. The recognition / interval control ECU 3 includes a power switch 29, and starts a predetermined process when the power switch 29 is turned on.
[0030]
As shown in FIG. 2, the laser radar sensor 5 mainly includes a light emitting unit, a light receiving unit, a laser radar CPU 70, and the like. The light emitting section includes a semiconductor laser diode (hereinafter simply referred to as a laser diode) 75 that emits a pulsed laser beam through a light emitting lens 71, a scanner 72, and a glass plate 77. The laser diode 75 is connected to a laser radar CPU 70 via a laser diode drive circuit 76, and emits (emits) laser light in response to a drive signal from the laser radar CPU 70. A polygon mirror 73 is provided on the scanner 72 so as to be rotatable about a vertical axis. When a drive signal from a laser radar CPU 70 is input via a motor drive unit 74, the polygon mirror 73 is driven by a motor (not shown). Rotated by driving force. The rotation position of the motor is detected by a motor rotation position sensor 78 and output to the laser radar CPU 70.
[0031]
Since the polygon mirror 73 of the present embodiment includes six mirrors having different surface inclination angles, the polygon mirror 73 sweeps (irradiates) and scans (scans) the laser beam discontinuously within the predetermined angle ranges in the vehicle width direction and the vehicle height direction. Output. The laser beam is two-dimensionally scanned as described above. The scanning pattern will be described with reference to FIG. In FIG. 3, the pattern 92 of the emitted laser beam is shown only when it is emitted to the right end and the left end in the measurement area 91, and is omitted in the middle. In addition, the outgoing laser beam pattern 92 is shown in FIG. 3 as an example of a substantially circular shape, but is not limited to this shape and may be an elliptical shape, a rectangular shape, or the like. Further, instead of using laser light, radio waves such as millimeter waves or ultrasonic waves may be used. It is not necessary to stick to the scanning method, and any method may be used as long as it can measure two directions other than the distance.
[0032]
As shown in FIG. 3, when the center direction of the measurement area is the Z axis, predetermined areas in the XY plane perpendicular to the Z axis are sequentially scanned. In the present embodiment, the Y axis, which is the height direction, is the reference direction, and the X axis, which is the vehicle width direction, is the scanning direction. The scan area is 0.15 deg × 105 points = 16 deg in the X axis direction. In the direction, 0.7 deg × 6 lines = 4 deg. The scanning direction is from left to right in FIG. 3 for the X-axis direction, and from top to bottom in FIG. 3 for the Y-axis direction. Specifically, first, the first scanning line located at the uppermost position as viewed in the Y-axis direction is scanned at intervals of 0.15 ° in the X-axis direction. As a result, detection for one scanning line is performed, so that the second scanning line at the next position as viewed in the Y-axis direction is similarly scanned at intervals of 0.15 ° in the X-axis direction. Thus, the same scan is repeated up to the sixth scan line. Therefore, scanning is performed in order from the upper left to the lower right, and data for 630 points (105 points × 6 lines) is obtained.
[0033]
By such a two-dimensional scan, scan angles θx and θy indicating the scan direction and the measured distance r are obtained. The two scan angles θx and θy are the vertical scan angle θy, which is the angle between the emitted laser beam, the line projected on the YZ plane, and the Z axis, and the line projected on the XZ plane, respectively. The angle with the axis is defined as a horizontal scan angle θx.
[0034]
The light receiving unit of the laser radar sensor 5 includes a light receiving element 83 that receives a laser beam reflected by an object (not shown) through a light receiving lens 81 and outputs a voltage corresponding to the intensity of the laser beam. Then, the output voltage of the light receiving element 83 is output to the comparator 87 after being amplified by the amplifier 85. The comparator 87 compares the output voltage of the amplifier 85 with the reference voltage, and outputs a predetermined light receiving signal to the time measurement circuit 89 when the output voltage> the reference voltage.
[0035]
A drive signal output from the laser radar CPU 70 to the laser diode drive circuit 76 is also input to the time measurement circuit 89. Then, as shown in FIG. 2B, the driving signal is a start pulse PA, the light receiving signal is a stop pulse PB, and the phase difference between the two pulses PA and PB (that is, the time T0 when the laser light is emitted and the reflection The time difference ΔT from the time T1 at which the light was received is encoded into a binary digital signal. Further, the time during which the stop pulse PB is equal to or higher than the reference voltage is measured as the pulse width of the stop pulse PB. Then, these values are encoded into a binary digital signal and output to the laser radar CPU 70. The laser radar CPU 70 calculates the distance r to the object from the input time difference ΔT between the two pulses PA and PB input from the time measurement circuit 89, and calculates the position based on the distance r and the corresponding scan angles θx and θy. Create data. That is, the coordinates are converted into XYZ orthogonal coordinates with the center of the laser radar as the origin (0, 0, 0), the X axis in the vehicle width direction, the Y axis in the vehicle height direction, and the Z axis in the forward direction of the vehicle. The (X, Y, Z) data converted into the XYZ rectangular coordinates and the received light intensity data (corresponding to the pulse width of the stop pulse PB) are output to the recognition / inter-vehicle control ECU 3 as distance measurement data.
[0036]
Here, the received light intensity data will be described. FIG. 2C shows stop pulses PB of two reflected lights having different received light intensities. In FIG. 2C, a curve L1 corresponds to a stop pulse PB of reflected light having a relatively high received light intensity, and a curve L2 corresponds to a stop pulse PB of reflected light having a relatively low received light intensity.
[0037]
In the rising process of the curve L1 in FIG. 12, the time at which the reference voltage V0 is input to the comparator 87 is crossed at t11, the time at which the curve L1 crosses the reference voltage V0 at the falling process is t12, and the time at t11 and time t12 is calculated. Let the time difference be Δt1. Also, the time at which the curve L2 rises crosses the reference voltage V0 is t21, the time at which the curve L2 falls crosses the reference voltage V0 is t22, and the time difference between time t21 and time t22 is Δt2. Note that the reference voltage V0 is set to a magnitude that can avoid the influence of the noise component.
[0038]
As is clear from FIG. 2C, the time difference Δt1 which is the pulse width of the stop pulse PB of the reflected light having a strong received light intensity and the time difference which is the pulse width of the stop pulse PB of the reflected light having a weak received light intensity. Comparing with Δt2, the relationship of Δt1> Δt2 is established. That is, the pulse width of the stop pulse PB of the reflected light corresponds to the received light intensity. When the received light intensity is low, the pulse width is short, and when the received light intensity is high, the pulse width is long. Therefore, the time difference (Δt1, Δt2), which is the pulse width, is an index characterizing the intensity of the received reflected light.
[0039]
Note that the received light intensity changes depending on the reflection intensity of the reflecting object and the distance to the reflecting object. That is, when the reflection intensity of the reflection object is high or the distance to the reflection object is short, the light reception intensity of the reflected light increases, and when the reflection intensity is low or the distance to the reflection object is long, the reflection intensity increases. The light reception intensity of the light decreases.
[0040]
The recognition / inter-vehicle control ECU 3 recognizes an object based on the distance measurement data from the laser radar sensor 5, and adjusts the brake driver 19, the throttle driver 21 and the automatic transmission in accordance with the situation of the preceding vehicle obtained from the recognized object. A so-called inter-vehicle control for controlling the vehicle speed by outputting a drive signal to the transmission controller 23 is performed. In addition, an alarm determination process for issuing an alarm when a recognition object is present in a predetermined alarm area for a predetermined time is performed at the same time. In this case, the object corresponds to a preceding vehicle traveling in front of the own vehicle or a preceding vehicle that is stopped.
[0041]
Next, the internal configuration of the recognition / interval control ECU 3 will be described as a control block. The distance measurement data output from the laser radar sensor 5 is sent to the object recognition block 43. In the object recognition block 43, based on the three-dimensional position data obtained as the distance measurement data, the center position (X, Y, Z) of the object and the size (W, D, H). Further, based on a temporal change of the center position (X, Y, Z) of the object, a relative speed (Vx, Vy, Vz) of the object with respect to the own vehicle position is obtained. Further, in the object recognition block 43, based on the vehicle speed (own vehicle speed) output from the vehicle speed calculation block 47 based on the detection value of the vehicle speed sensor 7 and the obtained relative speed (Vx, Vy, Vz), the object is a stationary object. Identification of whether the object is a moving object is performed. An object that affects the traveling of the host vehicle is selected based on the identification result and the center position of the object, and the distance is displayed on the distance display 15.
[0042]
A steering angle is calculated in a steering angle calculation block 49 based on a signal from the steering sensor 27, and a yaw rate is calculated in a yaw rate calculation block 51 based on a signal from the yaw rate sensor 28. In a curve radius (curvature radius) calculation block 57, a curve radius (curvature radius) R is calculated based on the vehicle speed from the vehicle speed calculation block 47, the steering angle from the steering angle calculation block 49, and the yaw rate from the yaw rate calculation block 51. calculate. Then, the object recognition block 43 calculates the vehicle shape probability and the own lane probability based on the curve radius R and the center position coordinates (X, Z). The vehicle shape probability and the own lane probability will be described later.
[0043]
A model of an object having such data is referred to as a “target model”. The sensor abnormality detection block 44 detects whether the data obtained in the object recognition block 43 is in an abnormal range, and if the data is in an abnormal range, the sensor abnormality display 17 indicates the fact. Is made.
[0044]
On the other hand, in the preceding vehicle determination block 53, a preceding vehicle is selected based on various data obtained from the object recognition block 43, and a distance Z and a relative speed Vz in the Z-axis direction with respect to the preceding vehicle are obtained. Then, the inter-vehicle control unit and the alarm determination unit block 55 determine the distance Z from the preceding vehicle, the relative speed Vz, the setting state of the cruise control switch 26, the depressed state of the brake switch 9, the opening from the throttle opening sensor 11, Based on the sensitivity set value by the alarm sensitivity setting device 25, it is determined whether or not an alarm is to be issued if an alarm is determined, and the content of vehicle speed control is determined if a cruise determination is made. The result is output to the alarm sound generator 13 if an alarm is required. If the cruise is determined, a control signal is output to the automatic transmission controller 23, the brake driver 19, and the throttle driver 21 to perform necessary control. At the time of executing these controls, a necessary display signal is output to the distance display 15 to notify the driver of the situation.
[0045]
In such inter-vehicle control and alarm determination, it is important that the object recognition, which is the premise thereof, more specifically, the recognition of the vehicle as the object to be recognized is properly performed. Therefore, a description will be given of a process related to object recognition performed in the object recognition block 43 of the recognition / interval control ECU 3 in order to appropriately perform the vehicle recognition.
[0046]
FIG. 4A shows a main process relating to object recognition. In step S110 of FIG. 4A, the distance measurement data for one scan is read from the laser radar sensor 5. The scan cycle in the laser radar sensor 5 is set to 100 msec, and data is taken in every 100 msec.
[0047]
In step S120, data segmentation is performed. As described above, the segments are formed by grouping the three-dimensional position data obtained as the distance measurement data. In this segmentation, data that meets predetermined connection conditions (integration conditions) is collected to generate one piece of pre-segment data, and a predetermined connection condition (integration conditions) is used among the pre-segment data. Are collected into one main segment data. For example, if the pre-segment data satisfies both the conditions that the distance △ X in the X-axis direction between point-recognized data in the X-axis direction is 0.2 m or less and the distance △ Z in the Z-axis direction is 2 m or less, the point set is integrated. And ask for it. In this embodiment. Since there are six scan lines in the Y-axis direction, pre-segmentation generates pre-segment data for each line. Next, in the main segmentation, adjacent presegment data in a three-dimensional (X, Y, Z) space are integrated (main segmentation). This segment data is a rectangular parallelepiped region having three sides parallel to the X-axis, the Y-axis, and the Z-axis, and the center coordinates (X, Y, Z) and the length of the three sides (X, Y, Z) for indicating the size ( W, H, D) are data contents. This segment (data) is simply referred to as a segment (data) unless otherwise specified.
[0048]
In step S130, target recognition processing is performed to target individual vehicles to be recognized. A target is a model of an object created for a set of segments. This targeting process will be described with reference to the flowchart of FIG.
[0049]
In the target processing, first, a corresponding segment of the target model is searched (S131). This is a process for searching which of the segments detected this time the target model obtained up to the previous time matches. The segment corresponding to the target model is defined as follows. First, assuming that the target model has moved from the position at the time of the previous processing at the relative speed at the time of the previous processing, an estimated position where the target model will be present is calculated. Subsequently, an estimated moving range having a predetermined width in each of the X-axis, Y-axis, and Z-axis directions is set around the estimated position. Then, a segment at least partially included in the estimated moving range is set as a corresponding segment.
[0050]
In step S132, a data update process of the target model is executed. In this process, if there is a corresponding segment, the past data of the target model is updated based on the current data. The data to be updated include center coordinates (X, Y, Z), width W, height H, depth D, relative speeds (Vx, Vy, Vz) in the X-axis, Y-axis, and Z-axis directions, and center coordinates. Data of the past four times (X, Y, Z), the own lane probability, and the like. If there is no corresponding segment, the data of the target model is not updated and registered as a new target model.
[0051]
After that, the vehicle shape probability is calculated in step S133. The vehicle shape probability is an index indicating the probability that the target model is a vehicle, and is calculated based on the relative acceleration, shape, position, received light intensity, and detection time. The vehicle shape probability will be described in detail below.
[0052]
In the case where a large number of delineators are installed at a narrow interval on the road side or when a guardrail is detected, there is a possibility that these stationary objects may be erroneously recognized as moving objects. This is because, by always detecting something at the same position, it is determined that a vehicle running at the same speed as the own vehicle exists at that position. Therefore, the vehicle shape probability is calculated so that the target model erroneously recognized as a moving object is not erroneously determined as the preceding vehicle in the preceding vehicle determination block 53. If the preceding vehicle determination block 53 determines that the vehicle is a roadside object when the vehicle shape probability is, for example, less than 50%, it is possible to prevent a repeatedly appearing stationary object from being erroneously determined as a preceding vehicle.
[0053]
The possible range of the vehicle shape probability is 0 to 100%. When the vehicle shape probability instantaneous value is calculated for each target model, weighting is performed as in Expression 1 in order to reduce the effects of instantaneous noise and variations. Find on average.
[0054]
[Formula 1] Current vehicle shape probability = previous value × α + current instantaneous value × (1−α)
For example, the initial value is set to 50%, and α is set to 0.8.
[0055]
The instantaneous value of the vehicle shape probability is calculated as a sum of those values, with respect to each of the relative acceleration, the shape, the position, the received light intensity, and the detection time.
[0056]
For the relative acceleration, for example, | αj |> α0 + αn / j 2 Is set to -50% if the above equation is satisfied for two or more relative accelerations αj, and -10% if one relative acceleration αj is satisfied. In the case of non-establishment, it is left as it is (neither plus nor minus). Here, αj is the calculated relative acceleration, α0 is the allowable relative acceleration, and αn is the value at the time of the noise sampling period due to the distance measurement error. This equation is the same as the equation shown in step 307 of FIG. 7 of Japanese Patent Application Laid-Open No. 9-178848, and a detailed description thereof will be omitted.
[0057]
Further, regarding the shape of the vehicle, if the width W belongs to a predetermined range (for example, 1.2 m ≦ W ≦ 2.8 m) and the depth D is within a first predetermined length (for example, 3 m), the vehicle is likely to be a vehicle. Since it is an object, the adjustment is + 30%. Further, even when the width W is out of the above range (1.2 m> W or W> 2.8 m), the depth D of the second predetermined length (for example, longer than the first predetermined length) If the distance is within 5 m), the object is an object such as a motorcycle or a large truck. Further, when the width W belongs to a predetermined range (for example, 1.2 m ≦ W ≦ 2.8 m) and the depth D belongs to between the first and second predetermined lengths (for example, 3 m ≦ D <5 m). Since the object is a truck, the amount of adjustment is + 10%.
[0058]
On the other hand, when the depth D is long (for example, D> 5 m) and the aspect ratio D / W is large (for example, 8 or more), since the object is a vertically long object such as a guardrail, the amount of adjustment is -50%.
[0059]
Next, the setting of the likelihood of being a vehicle based on the position of the target model and the received light intensity of the reflected wave will be described.
[0060]
Since the rear surface of the vehicle is formed of a metal surface and has a reflector, the rear surface of the vehicle basically has a higher reflection intensity than objects other than the vehicle (grass, trees, splash, dust, etc.). Therefore, it is possible to discriminate between a vehicle and a non-vehicle based on the intensity of the laser light reflected by the object.
[0061]
However, when mud or the like adheres to the rear surface of the vehicle, the received light intensity of the reflected wave reflected by the vehicle does not always increase. Therefore, in order to accurately determine the reflection intensity of each object, in the present embodiment, the maximum received light intensity is extracted from the received light intensity of the ranging data corresponding to the target model of each object, and the maximum received light intensity is extracted. It is decided to discriminate between a vehicle and a non-vehicle based on the.
[0062]
Specifically, the maximum received light intensity of reflected light from an object existing within a first distance (for example, 15 m) is compared with a first predetermined intensity. When the maximum received light intensity of the reflected light is equal to or less than the first predetermined intensity, the maximum received light intensity is low irrespective of the short distance, so that the reflection intensity of grass, trees, and the like existing on the side of the road (roadside) is low. It can be inferred that the object is a non-vehicle. Therefore, the adjustment in this case is -30%. At this time, if it can be confirmed that the position of the object is on the side of the road, the object can be more accurately identified as grass or a tree on the side of the road. A condition that the vehicle is separated from the traveling direction by a predetermined distance (for example, 1 m) or more in the lateral direction may be added. Further, a condition that the width W of the object is smaller than a predetermined width (for example, 0.1 m) smaller than the width of the vehicle may be added. When the width W of the reflecting object is shorter than the width of the vehicle, the reflecting object may be a non-vehicle such as a tree or grass in a planting on the side of a road or a splash or dust flying on a road. Because there are many.
[0063]
As for the width W, for example, a plurality of widths may be set (for example, 0.1 m and 0.5 m), and the larger the width, the smaller the minus value due to the amount of adjustment may be made. That is, when the width W is smaller than 0.1 m, it is very likely that the object is an object other than a vehicle. Therefore, as described above, the adjustment is set to −30%, and 0.1 ≦ W <0.5. In the case of (1), the adjustment is set to, for example, -10%.
[0064]
Further, the maximum received light intensity of reflected light from an object existing within a second distance (for example, 3 m) closer than the first distance (15 m) described above and a second light intensity smaller than the first predetermined intensity. Compare with a predetermined strength. If the maximum received light intensity of the reflected light is smaller than the second predetermined intensity, it can be assumed that the reflection object is an object having a very low reflection intensity such as splash or dust. Therefore, also in this case, the adjustment is set to, for example, -10%. Also at this time, by confirming the size of the reflecting object, the accuracy of estimating that the object is a splash or dust can be improved. For example, the condition that the width W is smaller than a predetermined width (eg, 0.5 m) is set. May be added.
[0065]
In the present embodiment, since the received light intensity of the reflected light is indicated by the pulse width of the stop pulse PB, both the maximum received light intensity of the reflected light and the first and second predetermined intensities to be compared with the maximum received light intensity. , Pulse width time.
[0066]
Further, the first and second predetermined intensities described above may be changed according to the distance to the reflecting object. That is, the first and second predetermined intensities may be set so as to decrease as the distance to the actually detected reflection object increases. This is because, even if the reflection intensity of the reflection object is the same, the reflection light intensity decreases as the distance from the reflection object increases.
[0067]
Next, as for the detection time, for example, when the detection time is 2 seconds or longer, the amount of addition and subtraction is + 20%, and when the detection time is 5 seconds or longer, + 50%. When the vehicle is following the preceding vehicle, the preceding vehicle can be detected stably for a long time. On the other hand, when the roadside delineators and guardrails are detected, the same detection state is not detected for a long time. Because it does not last, many target models disappear and disappear or new ones appear. Therefore, it can be said that a target model that has been detected for a long time is likely to be a traveling vehicle, and it is preferable to increase or decrease the amount according to the detection time.
[0068]
Next, in step S134, the own lane probability is calculated. The own lane probability is a parameter indicating the likelihood that the target model is a vehicle running on the same lane as the own vehicle. In the present embodiment, after calculating the instantaneous value of the own lane probability (the value calculated based on the detection data at that instant), a predetermined filter process is performed to obtain the own lane probability.
[0069]
First, the position of the target model is converted into a position on a straight road based on the curve radius calculated by the curve radius calculation block 57. The position obtained by converting to the straight lane in this way is superimposed on the own lane probability map, and the own lane probability instantaneous value of the target model is obtained. In addition, the own lane probability map divides a predetermined range in front of the own vehicle (for example, 5 m on each side and 100 m in front) into a plurality of regions, and the closer the distance in front is, and the closer the vehicle is on the course of the own vehicle, It is a map to which each region probability is given so that the probability is high.
[0070]
After obtaining the instantaneous value of the own lane probability, as shown in Expression 2, filter processing is performed by a weighted average to obtain the own lane probability.
[0071]
[Equation 2] Own lane probability = the previous value of own lane probability × α + the instantaneous value of own lane probability × (1−α)
Here, α may be a constant value, or may change according to the distance from the target model or the area where the target model exists. Note that the method of calculating the own lane probability is described in detail in paragraph numbers 0050 to 0056 of JP-A-2002-40139, and therefore, further detailed description will be omitted.
[0072]
Next, in step S135, the recognition stability is determined. This recognition stability determination processing is for determining the recognition stability indicating how stably each target model can be recognized. The recognition stability is determined in a plurality of steps (for example, four steps) based on the intensity of the reflected light, the temporal change in the shape of the target model, the location of the target model, the detection time, and the range of the target model shape. ). In the state where the recognition stability is the lowest (stability 0), if at least one of the above-described conditions such as the abnormality of the relative acceleration and the detection time is shorter than a predetermined time (for example, 4 seconds) is satisfied, the stability becomes stable. The degree is determined to be 0.
[0073]
Regarding the received light intensity of the reflected light, at least two levels of reference intensity (first reference intensity and second reference intensity) are set and compared with the maximum received light intensity among the received light intensities of the plurality of reflected lights by the target model. I do. Then, if the maximum light receiving intensity of the reflected light is greater than the first reference intensity, it is determined that one of the stability establishment conditions for the highest stability 3 is satisfied. Hereinafter, sequentially, when the maximum light receiving intensity is higher than the second reference intensity smaller than the first reference intensity, it is determined that one of the conditions for determining stability 2 is satisfied, and the maximum light receiving intensity is higher than the second reference intensity. If smaller, it is determined that the stability is 1.
[0074]
The reason why the magnitude of the maximum received light intensity is used for determining the recognition stability is as follows. First, vehicles have higher reflection intensity than non-vehicles, but if the maximum intensity of the actually detected reflected light is large enough to be clearly distinguished from non-vehicles Thus, the target model of the preceding vehicle can be stably recognized while being distinguished from the target model of another reflective object. Further, when the received light intensity is high, the S / N ratio relating to the received light intensity of the reflected wave is increased, so that the accuracy of detecting distance measurement data such as the distance of the preceding vehicle from the target model is also improved.
[0075]
Next, regarding the temporal change of the shape of the target model, the previous calculated value of the target model calculated based on the distance measurement data detected at a predetermined interval (100 msec) and the current calculated value of the target model are calculated. If the difference is less than the predetermined length, it is determined that one of the conditions for satisfying the determination of stability 3 is satisfied. If the difference is not less than the predetermined length, it is determined that stability 2 or less. Specifically, the width W and depth D are adopted as the shape of the target model, and the difference between the previously calculated width W and the currently calculated width W is less than a predetermined length (for example, 0.5 m). If the difference between the depth D calculated last time and the depth D calculated this time is less than a predetermined length (for example, 0.5 m), it is determined that one of the conditions for determining stability 3 is satisfied. .
[0076]
When the shape of the target model formed based on the distance measurement data measured at different timings is substantially the same, a plurality of reflected lights corresponding to the target model can be stably detected. Means that. Therefore, in such a case, it can be determined that the recognition stability is high.
[0077]
Regarding the existence position of the target model, whether or not the target model is present within a range of a predetermined distance in the lateral direction from an extension of the traveling direction of the own vehicle is set as a condition for establishing each recognition stability. Specifically, two types of distances (first distance: for example, 1 m each for the left and right, and second distance: for example, 1.5 m for each of the left and right) are used as distances for determining the deviation of the host vehicle from the extension of the traveling direction in the lateral direction. ) Is set. When the target model exists within the range of the first distance, one of the conditions for determining the stability 3 is satisfied, and when the target model exists within the range of the second distance, the stability of the stability 2 is satisfied. If one of the conditions for the determination is satisfied and is out of the second distance range, the stability is determined to be 1.
[0078]
As described above, the reason for using the target position of the target model for the recognition stability determination is that the closer the preceding vehicle is to the extension of the traveling direction of the own vehicle, the more the preceding vehicle is traveling in the same lane as the own vehicle. This is because there is a high possibility, and in this case, there is a low possibility of going out of the irradiation range of the laser radar sensor 5, and the relative speed Vz can be calculated with the highest accuracy based on the distance measurement data.
[0079]
Regarding the detection time, a plurality of reference times (first reference time: for example, 20 seconds, second reference time: for example, 10 seconds) are set. When the continuous detection time of the target model is equal to or longer than the first reference time, one of the conditions for determining stability 3 is satisfied. When the detection time is equal to or longer than the second reference time, one of the conditions for determining stability 2 is satisfied. If one is satisfied and is equal to or less than the second reference time, it is determined that the stability is 1. That is, when the duration of the actual detection of the target model is long, the target model is considered to be the preceding vehicle and is likely to be stably recognized.
[0080]
Finally, as the shape of the target model falls within the range of a more vehicle-like shape, it is determined that one of the conditions for establishing a higher recognition stability is satisfied. For example, when the width W of the target model is larger than 1.3 m and smaller than 2.6 m, and the depth D of the target model is 0.5 m or less, the target model indicates the rear surface of the vehicle. Since the possibility is high, it is determined that one of the conditions for determining stability 3 is satisfied. Further, for example, when the width W of the target model is larger than 0.5 m and smaller than 2.8 m and the depth D is 1.0 m or less, it is determined that one of the conditions for determining stability 2 is satisfied, and the width of the target model is satisfied. If W or depth D is out of the range, it is determined that the stability is 1.
[0081]
Recognition stability 3 or recognition stability 2 is determined when all of the above-described conditions are satisfied, and when at least one of the conditions is not satisfied, it is determined to be a lower stability.
[0082]
However, regarding the determination of the recognition stability, it is not necessary to make a determination with respect to all of the above-described conditions, and other conditions may be used as necessary while using at least the maximum received light intensity of a plurality of reflected lights from the target model. It may be used additionally. Further, in addition to the above-described determination conditions, for example, the vehicle shape probability of the target model or the distance to the target model may be used. That is, it may be determined that the higher the vehicle shape probability and the shorter the distance, the higher the condition for establishing stability is satisfied.
[0083]
The recognition stability determined in this way is used when the preceding vehicle determination block 53 calculates the relative speed Vz of the target model. Hereinafter, a method of calculating the relative speed Vz in consideration of the recognition stability in the preceding vehicle determination block 53 will be described.
[0084]
In order to control the inter-vehicle distance with the preceding vehicle to the target distance, it is necessary to calculate a relative speed Vz, which is a speed difference between the own vehicle and the preceding vehicle (the own vehicle speed-the preceding vehicle). That is, in order to approach the preceding vehicle, the traveling speed of the own vehicle is controlled so that the relative speed Vz becomes positive, and in order to increase the distance from the preceding vehicle, the relative speed Vz is controlled so that the relative speed Vz becomes negative. I do. Therefore, since the relative speed Vz which is the basis for performing such control needs to be calculated accurately, usually, in order to eliminate the influence of noise, ranging error, and the like, as shown in Expression 3, The average relative speed Vzave is calculated based on the N relative speeds Vz calculated in time series.
[0085]
## EQU3 ## Vzave = (Vz1 + Vz2 +... + VzN) / N
Then, the average relative speed Vzave is used as the relative speed Vz for the following distance control. However, if the headway control is performed using the average relative speed Vzave, a deviation from the actual relative speed occurs, and the responsiveness of the headway control is reduced.
[0086]
Therefore, in the present embodiment, as described above, the recognition stability of the target model that is the preceding vehicle is determined using the maximum received light intensity of the reflected light. If it is considered that the recognition stability is high and the accuracy of the distance measurement data is improved, the average relative speed Vzave is calculated by increasing the degree of influence of the latest relative speed Vz1. As a result, the average relative speed Vzave can be made closer to the latest relative speed Vz1, so that the responsiveness of the headway control can be improved.
[0087]
Specifically, the number N of relative speeds Vz used when calculating the average relative speed Vzave is set to four levels based on the above-described determination result of the recognition stability. That is, the average relative speed Vzave is calculated based on the largest relative speed Vz when the stability is 0, and the number N of the relative speeds Vz decreases as the recognition stability increases.
[0088]
As shown in Expression 4, the average relative speed Vzave may be obtained by a weighted average calculation, and the weight α may be increased as the recognition stability increases. Also in this case, as the recognition stability increases, the influence of the latest relative speed Vz1 on the average relative speed Vzave can be increased.
[0089]
Vzave (N) = Vzave (N-1) × (1-α) + Vz1 × α
The preceding vehicle determination block 53 outputs, from the object recognition block 43 shown in FIG. 1, data of the target model including the above-described vehicle shape probability and the own lane probability in addition to the recognition stability. Then, in the preceding vehicle determination block 53, for example, in a target model in which the vehicle shape probability is equal to or more than a predetermined threshold (for example, 50%) and the own lane probability is equal to or more than a predetermined threshold (for example, 50%), The vehicle with the minimum distance Z is determined to be the preceding vehicle. Then, the average relative speed Vzave with respect to the preceding vehicle is calculated while changing the calculation method of the average relative speed Vzave according to the recognition stability of the target model of the preceding vehicle. The calculated average relative speed Vzave is output to the inter-vehicle control unit and the alarm determination unit block 55 together with the distance Z to the preceding vehicle as the relative speed Vz. Thus, the inter-vehicle control unit and the alarm determination unit block 55 can execute the inter-vehicle control process and the alarm determination process based on the distance Z to the preceding vehicle and the relative speed Vz.
[0090]
It should be noted that the present invention is not limited to such embodiments at all, and can be implemented in various forms without departing from the gist of the present invention.
[0091]
In the above embodiment, the pulse width of the stop pulse PB is used as an index indicating the light receiving intensity, but another index may be used. For example, a peak value detection circuit that detects the peak value of the stop pulse PB is provided, and this peak value can be used as an index indicating the received light intensity. Further, the rising angle of the stop pulse PB, that is, the time from the start of the rising of the stop pulse PB to a predetermined reference voltage may be adopted as an index indicating the received light intensity.
[0092]
In the above embodiment, the polygon mirror 73 having a different tilt angle is used to perform the two-dimensional scanning of the laser light. However, for example, a galvanometer mirror that can scan in the vehicle width direction is used, and the tilt angle of the mirror surface can be changed. The same can be realized by using a simple mechanism. However, in the case of the polygon mirror 73, there is an advantage that a two-dimensional scan can be realized only by rotational driving.
[0093]
In the above embodiment, the distance and the corresponding scan angles θx and θy are converted from the polar coordinate system to the XYZ orthogonal coordinate system inside the laser radar sensor 5, but the processing may be performed in the object recognition block 43.
[0094]
In the above embodiment, the laser radar sensor 5 using a laser beam is employed, but a radio wave such as a millimeter wave, an ultrasonic wave, or the like may be used. Further, it is not necessary to stick to the scanning method, and any method may be used as long as it can measure the azimuth other than the distance. For example, when an FMCW radar or a Doppler radar is used for millimeter waves, the distance information from the reflected wave (received wave) to the preceding vehicle and the relative speed information of the preceding vehicle can be obtained at one time. The process of calculating the relative speed based on the distance information as in the case where there is no need to do so is required.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an inter-vehicle control device to which the present invention is applied.
2A is a configuration diagram showing a configuration of a laser radar sensor, FIG. 2B is an explanatory diagram for explaining a distance detection method in the laser radar sensor, and FIG. 2C is an index showing received light intensity; FIG. 6 is an explanatory diagram for explaining a pulse width of a stop pulse as a pulse width.
FIG. 3 is a perspective view showing an irradiation area of the laser radar sensor.
FIG. 4A is a flowchart illustrating a process relating to object recognition, and FIG. 4B is a flowchart illustrating a target conversion process executed in the flowchart of FIG.
FIG. 5 is an explanatory diagram showing a non-vehicle determination map according to the related art.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Vehicle control apparatus, 3 ... Recognition and headway control ECU, 5 ... Laser radar sensor, 7 ... Vehicle speed sensor, 9 ... Brake switch, 11 ... Throttle opening degree sensor, 13 ... Alarm sound generator, 15 ... Distance display, 17: Sensor abnormality indicator, 19: Brake driver, 21: Throttle driver, 23: Automatic transmission controller, 24: Alarm volume setting device, 25: Alarm sensitivity setting device, 26: Cruise control switch, 27: Steering Sensor, 28: Yaw rate sensor, 29: Power switch, 30: Wiper switch, 43: Object recognition block, 44: Sensor abnormality detection block, 47: Vehicle speed calculation block, 49: Steering angle calculation block, 51: Yaw rate calculation block, 53 ····································································································································································. Reference numeral 70: laser radar CPU, 71: light emitting lens, 72: scanner, 73: mirror, 74: motor drive circuit, 75: semiconductor laser diode, 76: laser diode drive circuit, 77: glass plate, 81: light receiving lens, 83 ... Light receiving element, 85 ... Amplifier, 87 ... Comparator, 89 ... Time measuring circuit

Claims (11)

車両の車幅方向及び高さ方向それぞれにおいて、所定の角度範囲に渡って複数の送信波を照射し、それらの反射波に基づいて反射物までの距離、前記車幅方向及び高さ方向の2方向の角度、及び反射波の強度を検出するレーダ手段と、
複数の前記反射物が所定の一体化条件を満足する場合に、複数の前記反射物を一体の反射物体と判定する判定手段と、
前記判定手段によって一体化判定された反射物体を構成する各反射物に対応する反射波の強度の中で、最大強度を選択する選択手段と、
前記レーダ手段の検出結果である距離及び2方向の角度に基づいて、前記反射物体を認識するとともに、前記選択手段によって選択された最大強度が、所定の基準強度よりも小さい場合に、前記反射物体を非車両と認識する確率を高める認識手段とを備えることを特徴とする車両用物体認識装置。
In each of the vehicle width direction and the height direction, a plurality of transmission waves are irradiated over a predetermined angle range, and a distance to a reflection object based on the reflected waves, the two in the vehicle width direction and the height direction. Radar means for detecting the angle of the direction, and the intensity of the reflected wave,
When the plurality of reflectors satisfy a predetermined integration condition, a determination unit that determines the plurality of reflectors as an integrated reflector,
Selection means for selecting the maximum intensity among the intensities of the reflected waves corresponding to the respective reflection objects constituting the reflection object integratedly determined by the determination means,
The reflection object is recognized based on the distance and the angle in the two directions which are the detection results of the radar means, and when the maximum intensity selected by the selection means is smaller than a predetermined reference intensity, the reflection object is detected. And a recognizing means for increasing a probability of recognizing the object as a non-vehicle.
前記所定の基準強度は、前記反射物体までの距離が長い場合、その距離が短い場合に比較して小さい強度に設定されることを特徴とする請求項1に記載の車両用物体認識装置。2. The vehicle object recognition device according to claim 1, wherein the predetermined reference intensity is set to be smaller when the distance to the reflecting object is long than when the distance is short. 前記レーダ手段によって検出された距離及び2方向の角度に基づいて、前記反射物体の形状を算出する形状算出手段を備え、
前記認識手段は、前記最大強度が所定の基準強度よりも小さく、かつ、その反射物体の形状が車両形状とは異なる場合に、当該反射物体を非車両と認識する確率を高めることを特徴とする請求項1または請求項2に記載の車両用物体認識装置。
A shape calculating unit configured to calculate a shape of the reflective object based on the distance and the angle in two directions detected by the radar unit;
The recognition means increases the probability that the reflection object is recognized as a non-vehicle when the maximum intensity is smaller than a predetermined reference intensity and the shape of the reflection object is different from the vehicle shape. The vehicle object recognition device according to claim 1 or 2.
前記認識手段は、前記反射物体の形状における横幅が車両形状における横幅よりも短い場合に、当該反射物体の形状が車両形状とは異なると判定することを特徴とする請求項3に記載の車両用物体認識装置。The vehicle according to claim 3, wherein the recognition unit determines that the shape of the reflection object is different from the vehicle shape when the width of the shape of the reflection object is shorter than the width of the vehicle shape. Object recognition device. 前記認識手段は、前記反射波の最大強度に基づいて、前記反射物体を非車両と判定する確率を高める処理を、前記反射物体までの距離が所定の近距離以内のときに行なうことを特徴とする請求項1乃至請求項4のいずれかに記載の車両用物体認識装置。The recognition unit performs a process of increasing the probability of determining the reflection object as a non-vehicle based on the maximum intensity of the reflected wave when the distance to the reflection object is within a predetermined short distance. The vehicle object recognition device according to any one of claims 1 to 4. 車両の車幅方向及び高さ方向それぞれにおいて、所定の角度範囲に渡って複数の送信波を照射し、それらの反射波に基づいて反射物までの距離、前記車幅方向及び高さ方向の2方向の角度、及び反射波の強度を検出するレーダ手段と、
複数の前記反射物が所定の一体化条件を満足する場合に、複数の前記反射物を一体の反射物体と判定する判定手段と、
前記反射物体を構成する各反射物に対応する反射波の強度の中で、最大強度を選択する選択手段と、
少なくとも前記反射物体の形状に基づいて、前記反射物体が先行車両であると認識する認識手段と、
前記先行車両までの距離の変化に基づいて、時系列に前記先行車両との相対速度を算出するとともに、その時系列に算出された複数個の相対速度を平均化処理した平均相対速度を算出する算出手段と、
前記先行車両との距離及び前記平均相対速度に基づいて、車間制御を行なう車間制御手段と、
前記先行車両に関して前記選択手段によって選択された反射波の最大強度が、所定の基準強度よりも大きいか否かに基づいて、前記先行車両の認識安定度を判定する安定度判定手段とを備え、
前記安定度判定手段によって前記先行車両の認識安定度が高いと判定された場合、前記算出手段は平均相対速度を算出する際に、最新の相対速度の影響を高めることを特徴とする車間制御装置。
In each of the vehicle width direction and the height direction, a plurality of transmission waves are irradiated over a predetermined angle range, and a distance to a reflection object based on the reflected waves, the two in the vehicle width direction and the height direction. Radar means for detecting the angle of the direction, and the intensity of the reflected wave,
When the plurality of reflectors satisfy a predetermined integration condition, a determination unit that determines the plurality of reflectors as an integrated reflector,
Among the intensities of the reflected waves corresponding to the respective reflecting objects constituting the reflecting object, selecting means for selecting the maximum intensity,
Based on at least the shape of the reflective object, recognition means for recognizing that the reflective object is a preceding vehicle,
Based on a change in the distance to the preceding vehicle, a relative speed with respect to the preceding vehicle is calculated in a time series, and an average relative speed obtained by averaging a plurality of relative speeds calculated in the time series is calculated. Means,
An inter-vehicle control unit that performs inter-vehicle control based on the distance to the preceding vehicle and the average relative speed;
Stability determining means for determining the recognition stability of the preceding vehicle based on whether or not the maximum intensity of the reflected wave selected by the selecting means with respect to the preceding vehicle is larger than a predetermined reference intensity,
When the stability determining means determines that the recognition stability of the preceding vehicle is high, the calculating means increases the influence of the latest relative speed when calculating the average relative speed. .
前記算出手段は、前記平均相対速度を算出する際に使用する相対速度の個数を少なくすることによって、前記平均相対速度に対する前記最新の相対速度の影響を高めることを特徴とする請求項6に記載の車間制御装置。7. The method according to claim 6, wherein the calculating unit increases the influence of the latest relative speed on the average relative speed by reducing the number of relative speeds used in calculating the average relative speed. Inter-vehicle control device. 前記算出手段は、前記平均相対速度を算出する際に、最新の相対速度の重み付け係数を大きくすることによって、前記相対速度に対する前記最新の相対速度の影響を高めることを特徴とする請求項6に記載の車間制御装置。7. The method according to claim 6, wherein, when calculating the average relative speed, the influence of the latest relative speed on the relative speed is increased by increasing a weight coefficient of the latest relative speed. An inter-vehicle control device as described in the above. 前記安定度判定手段は、さらに、前記先行車両に対応する反射物体の形状の時間的変化が、所定の基準値よりも小さいか否かに基づいて、前記先行車両の認識安定度を判定することを特徴とする請求項6に記載の車間制御装置。The stability determination unit may further determine the recognition stability of the preceding vehicle based on whether a temporal change in the shape of the reflecting object corresponding to the preceding vehicle is smaller than a predetermined reference value. The inter-vehicle control device according to claim 6, wherein: 前記安定度判定手段は、さらに、前記先行車両の位置が、自車両の進行方向延長線上から横方向に所定距離の範囲に存在するか否かに基づいて、前記先行車両の認識安定度を判定することを特徴とする請求項6または請求項9に記載の車間制御装置。The stability determining means further determines the recognition stability of the preceding vehicle based on whether or not the position of the preceding vehicle is within a predetermined distance laterally from an extension of the traveling direction of the own vehicle. The inter-vehicle control device according to claim 6 or 9, wherein: 前記安定度判定手段は、さらに、前記先行車両を認識している継続時間に基づいて、前記先行車両の認識安定度を判定することを特徴とする請求項6、請求項9、または請求項10のいずれかに記載の車間制御装置。The said stability determination means determines the recognition stability of the said preceding vehicle further based on the continuation time which recognizes the said preceding vehicle, The said Claim 9 or Claim 10 characterized by the above-mentioned. The inter-vehicle control device according to any one of the above.
JP2002354216A 2002-12-05 2002-12-05 Vehicle distance control device Expired - Lifetime JP3841047B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2002354216A JP3841047B2 (en) 2002-12-05 2002-12-05 Vehicle distance control device
US10/725,269 US7136753B2 (en) 2002-12-05 2003-12-02 Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus
DE10356797.6A DE10356797B4 (en) 2002-12-05 2003-12-04 Object recognition device for a vehicle, vehicle-to-vehicle control device and distance measuring device
US11/543,864 US7496449B2 (en) 2002-12-05 2006-10-06 Inter-vehicle control apparatus and distance measurement apparatus
US12/285,199 US7761236B2 (en) 2002-12-05 2008-09-30 Object recognition apparatus for vehicle and distance measurement apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002354216A JP3841047B2 (en) 2002-12-05 2002-12-05 Vehicle distance control device

Publications (2)

Publication Number Publication Date
JP2004184332A true JP2004184332A (en) 2004-07-02
JP3841047B2 JP3841047B2 (en) 2006-11-01

Family

ID=32755298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002354216A Expired - Lifetime JP3841047B2 (en) 2002-12-05 2002-12-05 Vehicle distance control device

Country Status (1)

Country Link
JP (1) JP3841047B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047033A (en) * 2004-08-03 2006-02-16 Daihatsu Motor Co Ltd Object recognition method and device
JP2007024590A (en) * 2005-07-13 2007-02-01 Toyota Motor Corp Object detector
WO2007055215A1 (en) * 2005-11-09 2007-05-18 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2007163431A (en) * 2005-12-16 2007-06-28 Daihatsu Motor Co Ltd Target recognition device of vehicle, and target recognition method
JP2007310595A (en) * 2006-05-17 2007-11-29 Denso Corp Traveling environment recognition system
JP2008046117A (en) * 2006-08-14 2008-02-28 Ulis Infrared radiation detector and driving or steering assistance device equipped with such a device
JP2011089879A (en) * 2009-10-22 2011-05-06 Honda Motor Co Ltd Object detection apparatus
JP2015081083A (en) * 2013-10-22 2015-04-27 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH Confidence estimation for predictive driver assistance systems based on plausibility rules
JP2017116466A (en) * 2015-12-25 2017-06-29 日立建機株式会社 Off-road dump truck, and obstacle discriminating device
JP2018079848A (en) * 2016-11-17 2018-05-24 株式会社デンソー Travel control device
US10908271B2 (en) 2016-09-23 2021-02-02 Hitachi Construction Machinery Co., Ltd. Mining work machine and obstacle discrimination device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767747B1 (en) * 2015-10-27 2017-08-14 현대오트론 주식회사 Apparatus and method for sensing obstacles

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047033A (en) * 2004-08-03 2006-02-16 Daihatsu Motor Co Ltd Object recognition method and device
JP2007024590A (en) * 2005-07-13 2007-02-01 Toyota Motor Corp Object detector
WO2007055215A1 (en) * 2005-11-09 2007-05-18 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2007132748A (en) * 2005-11-09 2007-05-31 Toyota Motor Corp Object detector
US7777669B2 (en) 2005-11-09 2010-08-17 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2007163431A (en) * 2005-12-16 2007-06-28 Daihatsu Motor Co Ltd Target recognition device of vehicle, and target recognition method
US8694236B2 (en) 2006-05-17 2014-04-08 Denso Corporation Road environment recognition device and method of recognizing road environment
JP2007310595A (en) * 2006-05-17 2007-11-29 Denso Corp Traveling environment recognition system
JP2008046117A (en) * 2006-08-14 2008-02-28 Ulis Infrared radiation detector and driving or steering assistance device equipped with such a device
JP2011089879A (en) * 2009-10-22 2011-05-06 Honda Motor Co Ltd Object detection apparatus
JP2015081083A (en) * 2013-10-22 2015-04-27 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH Confidence estimation for predictive driver assistance systems based on plausibility rules
JP2017116466A (en) * 2015-12-25 2017-06-29 日立建機株式会社 Off-road dump truck, and obstacle discriminating device
US10663575B2 (en) 2015-12-25 2020-05-26 Hitachi Construction Machinery Co., Ltd. Off-road dump truck and obstacle discrimination device
US10908271B2 (en) 2016-09-23 2021-02-02 Hitachi Construction Machinery Co., Ltd. Mining work machine and obstacle discrimination device
JP2018079848A (en) * 2016-11-17 2018-05-24 株式会社デンソー Travel control device
WO2018092567A1 (en) * 2016-11-17 2018-05-24 株式会社デンソー Traveling control apparatus

Also Published As

Publication number Publication date
JP3841047B2 (en) 2006-11-01

Similar Documents

Publication Publication Date Title
JP3405327B2 (en) Object recognition method and apparatus, recording medium
JP4428208B2 (en) Vehicle object recognition device
US7136753B2 (en) Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus
JP3941795B2 (en) Leading vehicle recognition device
JP3736521B2 (en) Vehicle object recognition device
JP3915742B2 (en) Vehicle object recognition device
JP3736520B2 (en) Obstacle recognition device for vehicles
US6018308A (en) Obstacle recognition system for automotive vehicle
JP3639190B2 (en) Object recognition device, recording medium
US20020044080A1 (en) Road-shape recognition system
JP2005291788A (en) Object recognition device for vehicle
JPH1194946A (en) Obstacle recognition device for vehicle
JP2004177350A (en) Radar equipment for vehicle
US20110260909A1 (en) Method and apparatus for recognizing presence of objects
US6380885B2 (en) Obstacle recognition system for vehicle
JP3841047B2 (en) Vehicle distance control device
JP2004184331A (en) Object recognition apparatus for motor vehicle
JP3757937B2 (en) Distance measuring device
JP2002131433A (en) Method and device for recognizing object
JP5556317B2 (en) Object recognition device
JP2005300307A (en) Object recognition device for vehicle and program
JP2003057345A (en) Ranging device for vehicle
JP2576638B2 (en) Leading vehicle recognition device
JPH07100426B2 (en) Rear-end collision warning system for vehicles
JPH10153661A (en) Range-finding device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060524

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060731

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3841047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090818

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100818

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100818

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110818

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120818

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130818

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term