JP4719996B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP4719996B2
JP4719996B2 JP2001099036A JP2001099036A JP4719996B2 JP 4719996 B2 JP4719996 B2 JP 4719996B2 JP 2001099036 A JP2001099036 A JP 2001099036A JP 2001099036 A JP2001099036 A JP 2001099036A JP 4719996 B2 JP4719996 B2 JP 4719996B2
Authority
JP
Japan
Prior art keywords
width
detected
detection
lateral position
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001099036A
Other languages
Japanese (ja)
Other versions
JP2002296350A (en
Inventor
琢 高浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2001099036A priority Critical patent/JP4719996B2/en
Publication of JP2002296350A publication Critical patent/JP2002296350A/en
Application granted granted Critical
Publication of JP4719996B2 publication Critical patent/JP4719996B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、自車両周囲の物体に向かってレーザやミリ波などの電磁波を送信し、該物体からの反射波を受信することにより、物体との相対位置を検知する、いわゆるレーダ装置に関するものである。
【0002】
【従来の技術】
従来、物体検知装置としては、例えば、特開2000−28718号公報に記載のものが知られている。
【0003】
この公報には、レーザの照射範囲を複数の検知エリアに区切り、各検知エリアの受信レベルから物体の存在を判定する物体検知装置が提案されている。
【0004】
この装置では、各検知エリアにおいて反射されたレーザビームの受信レベルの加算値と閾値との比較を行うことにより、該検知エリアに物体が存在するか否か判定し、物体との相対距離にかかわらず確実に物体を検知することが可能となるものである。
【0005】
ここで、車両に対して電磁波を送信したとき、車両に取り付けられているリフレクタは、他の部分と比べ、電磁波を強く反射する。したがって、レーダによりリフレクタの位置が検出され、該車両の自車両に対する相対的な位置は、検出されたリフレクタの位置に基づき算出される。
【0006】
【発明が解決しようとする課題】
しかしながら、従来の物体検知装置にあっては、検知エリアの物体が完全にレーダからの電磁波を反射することを前提として物体を検知しているため、車両に取付けられた全てのリフレクタがレーダからの電磁波を反射できないとき、例えば車両の一部が検知範囲から外れ、検知されないリフレクタがあっても、これを考慮せず、検出されたリフレクタの位置にのみ基づき、該車両の相対的な位置を算出するため、算出された相対的な横位置は、検知されないリフレクタ分、本来の横位置とは異なるという問題がある。
【0007】
本発明は、上記問題点に着目してなされたもので、その目的とするところは、自車両周囲に存在する物体の一部が物体検出手段の検出範囲から外れ物体の全体を検出できない場合においても、全体を検出できない物体の相対横位置を高い精度で検知することができる物体検知装置を提供することにある。
【0008】
【課題を解決するための手段】
上記目的を達成するため、請求項1に記載の発明では、自車両周囲に送信した電磁波を反射する反射物の相対位置を検出する反射物位置検出手段と、前記反射物位置検出手段の検出結果に基づき、一つの物体が有する反射物の個数を検出する反射物数検出手段と、前記反射物位置検出手段の検出結果に基づき、前記物体の相対横位置を算出する相対横位置算出手段と、前記反射物位置検出手段の検出結果に基づき、前記物体の幅を算出する物体幅算出手段と、前記反射物位置検出手段の検出結果に基づき、前記反射物位置検出手段の検出範囲の端に前記物体が存在せず、かつ、手前に存在する他の物体により前記物体の一部が隠されていない、という条件が満たされるか否かを判断することで、前記物体の全体を前記反射物位置検出手段により検出しているか否か判断する全体検出判断手段と、前記物体幅算出手段で算出された前回の物体幅と今回の物体幅が所定値以上異なる場合、前記反射物数検出手段で検出された前回の反射物の個数と今回の反射物の個数が異なる場合、及び、前記物体の全体を前記反射物位置検出手段により検出していないと前記全体検出判断手段が判断した場合、の少なくとも1つの条件を満たすと、前記物体幅算出手段算出された物体幅に基づき、前記相対横位置算出手段の算出結果を補正する相対横位置補正手段と、を備えたことを特徴とする。
【0009】
請求項2に記載の発明では、図1(イ)の基本構成図に示すように、請求項1に記載の物体検知装置において、前記全体検出判断手段により全体を検出していると判断された前記物体に対し、前記物体幅算出手段で算出された物体幅を、所定の伝達関数を用いたフィルタ処理により安定化する物体幅安定化手段を設け前記相対横位置補正手段は、前記物体幅安定化手段により安定化された物体幅に基づき、前記相対横位置算出手段の算出結果を補正することを特徴とする。
【0010】
請求項3に記載の発明では、図1(ロ)の基本構成図に示すように、請求項2に記載の物体検知装置において、前記全体検出判断手段により全体を検出していると判断された前記物体に対し、前記物体の種別を判断する物体種別判断手段と、前記物体種別判断手段の判断結果の履歴に基づき、前記物体が自車両にとって検出すべきターゲットか否か決定するターゲット決定手段と、を設け、前記物体幅安定化手段は、前記ターゲット決定手段によりターゲットと決定された前記物体に対し、前記物体幅算出手段で算出された物体幅を安定化することを特徴とする。
【0011】
請求項4に記載の発明では、請求項2または請求項3に記載の物体検知装置において、前記相対横位置補正手段は、前記物体幅安定化手段により安定化された物体幅と、前記反射物数検出手段で検出された反射物の個数とに基づき、前回の物体幅と今回の物体幅との差の閾値である前記所定値を定めることを特徴とする。
【0012】
請求項5に記載の発明では、請求項2または請求項3に記載の物体検知装置において、前記相対横位置補正手段は、前記物体幅算出手段で算出された物体幅と、前記物体幅安定化手段により安定化された物体幅との差に基づいて、前記相対横位置算出手段の算出結果を補正することを特徴とする。
【0013】
請求項6に記載の発明では、請求項2または請求項3に記載の物体検知装置において、前記相対横位置補正手段は、前記物体幅安定化手段により安定化された物体幅と、前記反射物数検出手段で検出された反射物の個数とに基づいて、前記相対横位置算出手段の算出結果を補正することを特徴とする。
【0014】
請求項7に記載の発明では、請求項2または請求項3に記載の物体検知装置において、前記物体幅安定化手段は、前記物体幅算出手段で算出された物体幅を安定化するためのフィルタ処理の演算が所定回数以上連続で実施された場合に、該演算結果を安定化された物体幅として出力することを特徴とする。
【0015】
請求項8に記載の発明では、請求項3に記載の物体検知装置において、前記物体種別判断手段は、前記物体幅算出手段で算出された物体幅に基づき、前記物体の種別を判断することを特徴とする。
【0016】
請求項9に記載の発明では、請求項3に記載の物体検知装置において、前記物体種別判断手段は、前記物体幅算出手段で算出された物体幅と、前記反射物数検出手段で検出された反射物の個数とに基づき、前記物体の種別を判断することを特徴とする。
【0017】
請求項10に記載の発明では、請求項3に記載の物体検知装置において、前記物体種別判断手段は、自車両周囲の画像を取り込む画像入力手段と、物体の種別ごとの特徴を画像データとして記録する物体特徴記録手段と、を有し、前記画像入力手段に取り込まれた物体の画像と、前記物体特徴記録手段に記録された物体の種別ごとの画像データとを比較した結果に基づき、前記物体の種別を判断することを特徴とする。
【0018】
請求項11に記載の発明では、請求項3に記載の物体検知装置において、前記ターゲット決定手段は、前記反射物位置検出手段により前記物体を検出している時間に対する、前記物体種別判断により前記物体に対して判断した種別毎に、その種別を判断した時間の割合に基づき、前記物体が自車両にとって検出すべきターゲットか否か決定することを特徴とする。
【0019】
請求項12に記載の発明では、請求項3に記載の物体検知装置において、前記ターゲット決定手段は、前記物体種別判断手段により前記物体の種別を判断する演算を行った時間に対する、前記物体種別判断手段により前記物体に対して判断した種別毎に、その種別を判断した時間の割合に基づき、前記物体が自車両にとって検出すべきターゲットか否か決定することを特徴とする。
【0023】
【発明の作用および効果】
請求項1に記載の発明にあっては、反射物位置検出手段において、自車両周囲に送信した電磁波を反射する反射物の相対位置が検出され、反射物数検出手段において、反射物位置検出手段の検出結果に基づき、一つの物体が有する反射物の個数が検出され、相対横位置検出手段において、反射物位置検出手段の検出結果に基づき、物体の相対横位置が算出され、物体幅算出手段において、反射物位置検出手段の検出結果に基づき、物体幅が算出される。そして、全体検出判断手段において、反射物位置検出手段の検出結果に基づき、反射物位置検出手段の検出範囲の端に物体が存在せず、かつ、手前に存在する他の物体により物体の一部が隠されていない、という条件が満たされるか否かを判断することで、物体の全体を反射物位置検出手段により検出しているか否かが判断され、物体幅算出手段で算出された前回の物体幅と今回の物体幅が所定値以上異なる場合、反射物数検出手段で検出された前回の反射物の個数と今回の反射物の個数が異なる場合、及び、物体の全体を反射物位置検出手段により検出していないと全体検出判断手段が判断した場合、の少なくとも1つの条件を満たすと、相対横位置補正手段において、物体幅算出手段算出された物体幅に基づき、相対横位置算出手段の算出結果が補正される。
【0024】
よって、算出された前回の物体幅と今回の物体幅が所定値以上異なる場合、検出された前回の反射物の個数と今回の反射物の個数が異なる場合、及び、物体の全体が検出されていないと判断された場合、の少なくとも1つの条件を満たすと、既に検出された物体幅に基づき、相対横位置算出手段算出された物体の相対横位置を補正するようにしたため、自車両周囲に存在する物体の一部が反射物位置検出手段の検出範囲から外れ物体の全体を検出できない場合においても、全体を検出できない物体の相対横位置を高い精度で検知することができる。
【0025】
請求項2に記載の発明にあっては、全体検出判断手段により全体を検出していると判断された物体に対し、物体幅安定化手段において、物体幅算出手段で算出された物体幅が、所定の伝達関数を用いたフィルタ処理により安定化される。そして、相対横位置補正手段において、物体幅安定化手段により安定化された物体幅に基づき、相対横位置算出手段の算出結果が補正される。
【0026】
よって、反射物位置検出手段が送信した電磁波により検出した各物体のうち、物体全体を検知可能な物体に対し安定化した物体幅が求められ、物体の全体が検出されていないと判断された場合、安定化した物体幅に基づき、相対横位置算出手段算出された物体の相対横位置を補正するようにしたため、自車両周囲に存在する物体の一部が反射物位置検出手段の検出範囲から外れ物体の全体を検出できない場合においても、安定化した物体幅に基づく高い精度で検知物体の横位置補正を行うことができる。
【0027】
請求項3に記載の発明にあっては、全体検出判断手段により全体を検出していると判断された物体に対し、物体種別判断手段において、物体の種別が判断され、ターゲット決定手段において、物体種別判断手段の判断結果の履歴に基づき、物体が自車両にとって検出すべきターゲットか否かが決定され、このターゲット決定手段によりターゲットと決定された物体に対し、物体幅安定化手段において、物体幅算出手段で算出された物体幅が安定化される。そして、相対横位置補正手段において、物体幅安定化手段により安定化された物体幅に基づき、相対横位置算出手段の算出結果が補正される。
【0028】
よって、反射物位置検出手段が送信した電磁波により検出した各物体のうち、物体全体を検知可能な物体に対し物体種別判断手段の判断結果の履歴に基づき、物体が自車両にとって検出すべきターゲットを決定し、ターゲットと決定された物体に対し安定化した物体幅が求められ、物体の全体が検出されていないと判断された場合、安定化した物体幅に基づき、相対横位置算出手段算出された物体の相対横位置を補正するようにしたため、自車両周囲に存在する物体の一部が反射物位置検出手段の検出範囲から外れ物体の全体を検出できない場合においても、ターゲットの安定化した物体幅に基づき、請求項2に記載の発明に比べ、さらに高い精度で検知物体の横位置補正を行うことができる。
【0033】
請求項記載の発明にあっては、相対横位置補正手段において、物体幅安定化手段により安定化された物体幅と、前記反射物数検出手段で検出された反射物数の個数に基づき、前回の物体幅と今回の物体幅との差の閾値である所定値が定められる。
【0034】
よって、1個の反射物数に対する安定化された物体幅に基づいた閾値に設定されることになり、前回の物体幅と今回の物体幅との差が、相対横位置を補正する必要がある差であるかどうかを精度良く判断することができる。
【0037】
請求項記載の発明にあっては、相対横位置補正手段において、物体幅算出手段で算出され物体幅と、物体幅安定化手段により安定化された物体幅との差に基づいて、相対横位置算出手段の算出結果が補正される。
【0038】
よって、相対横位置の補正量が、安定化した物体幅と今回の検出結果から求めた物体幅との差に基づいて定まることになり、相対横位置を高精度に求めることができる。
【0039】
請求項記載の発明にあっては、相対横位置補正手段において、物体幅安定化手段により安定化された物体幅と、反射物数検出手段で検出された反射物の個数とに基づいて、相対横位置算出手段の算出結果が補正される。
【0040】
よって、相対横位置の補正量が、安定化した物体幅と1つの検知物体の有する反射物数に基づいて定まることになり、自車両と検知物体との距離が離れていて今回の検出結果から求めた物体幅が正しく求められない場合でも、相対横位置を高精度に求めることができる。
【0041】
請求項記載の発明にあっては、物体幅安定化手段において、物体幅算出手段で算出された物体幅を安定化するためのフィルタ処理の演算が所定回数以上連続で実施された場合に、該演算結果が安定化された物体幅として出力される。
【0042】
よって、物体幅を安定化する際には、所定以上の演算回数を実施しない限りは安定化した物体幅が算出できたことにしないことで、相対横位置の補正を高精度に行うことができる。
【0043】
請求項記載の発明にあっては、物体幅種別判断手段において、物体幅算出手段で算出された物体幅に基づき、物体の種別が判断される。
【0044】
よって、他のセンサ等を装備する必要がないため、低コストなシステム構成により物体の種別を判断することができる。
【0045】
請求項記載の発明にあっては、物体種別判断手段において、物体幅算出手段で算出された物体幅と、反射物数検出手段で検出された反射物の個数に基づき、物体の種別が判断される。
【0046】
よって、他のセンサ等を装備する必要がないため、低コストなシステム構成にすることができ、かつ、反射物の個数を考慮することで、比較的信頼性を上げることができる。
【0047】
請求項10記載の発明にあっては、物体種別判断手段において、画像入力手段に取り込まれた物体の画像と、物体特徴記録手段に記録された物体の種別ごとの画像とを比較した結果に基づき、物体の種別が判断される。
【0048】
よって、画像データを加えた物体の種別判断としたため、より正確なターゲットの識別を行うことができる。
【0049】
請求項11記載の発明にあっては、ターゲット決定手段において、反射物位置検出手段により物体を検出する時間に対する、物体種別判断手段により物体に対して判断した種別毎に、その種別を判断した時間の割合に基づき、物体が自車両にとって検出すべきターゲットか否かが決定される。
【0050】
よって、物体の出現した時間と、ターゲットと似ていることを判断した時間との時間割合に応じてターゲットを決めるようにしたため、物体種別判断が安定しない場合でも、確実に検知物体をターゲットとして扱うか否かを判断することができる。
【0051】
請求項12記載の発明にあっては、ターゲット決定手段において、物体種別判断手段により物体の種別を判断する演算を行った時間に対する、物体種別判断手段により物体に対して判断した種別毎に、その種別を判断した時間の割合に基づき、物体が自車両にとって検出すべきターゲットか否かが決定される。
【0052】
よって、物体の種別判断の演算をした時間と、ターゲットと似ていることを判断した時間との時間割合に応じてターゲットを決めるようにしたため、物体種別判断が安定しない場合でも、確実に検知物体をターゲットとして扱うか否かを判断することができる。
【0053】
【発明の実施の形態】
以下、本発明における物体検知装置を実現する実施の形態を、請求項1,2,4,5,6,7に対応する第1実施例と、請求項1,3,4,5,6,7,8,9,10,11,12に対応する第2実施例に基づいて説明する。
【0054】
(第1実施例)
まず、構成を説明する。図2は第1実施例の物体検知装置が適用された自動ブレーキシステム図であり、図中1はレーザレーダ(請求項1反射物位置検出手段に相当)、2はレーダ処理装置、5は外界認識装置、6は車速検出装置、7は操舵角検出装置、8は自動ブレーキ制御装置、9は負圧ブレーキブースタである。
【0055】
前記レーザレーダ1は、自車両の前端部位置に設けられ、自車両前方域の反射物(先行車両やインフラ構造物等)に向かって縦長の送光ビームを送信する送光部と、縦長の送光ビームを所定の角度範囲で左右方向に走査する送光走査部と、該反射物からの反射波を受信する横長の受光エリアを持つ受光部と、横長の受光エリアを所定の角度範囲で上下方向に走査する受光走査部とを有するスキャニング式の測距手段である。
【0056】
前記レーダ処理装置2は、レーザレーダ1の受光走査部からの走査結果(距離情報)を読み込み、自車両前方域の反射物の中から全体を検知可能な物体の幅Wと反射物数nに基づき安定した物体幅W及び安定した反射物数nを計算し、一つ又は複数の検知物体(自車両を原点とする2次元座標の補正を行う対象)に対し、自車両を原点とする2次元座標(x,y)の値の算出を、横位置xの補正を含む図3に示す処理により実施する。そして、処理結果である検知物体の2次元座標情報を、外界認識装置5に出力する。
【0057】
前記外界認識装置5は、レーダ処理装置2からの検知物体の2次元座標情報と、自車両の状態量を推定する情報(車速検出装置6からの車速情報および操舵角検出装置7からの操舵角情報)に基づいて、検知物体が自車両にとって障害物であるか否かを認識し、これを外界認識情報として自動ブレーキ制御装置8に出力する。
【0058】
前記車速検出装置6は、左右の従動輪速センサ等からのセンサ信号に基づいて車速を検出する装置で、検出された車速情報を外界認識装置5に出力する。
【0059】
前記操舵角検出装置7は、前輪操舵角センサ等からのセンサ信号に基づいて操舵角を検出する装置で、検出された操舵角情報を外界認識装置5に出力する。
【0060】
前記自動ブレーキ制御装置8は、外界認識装置5から入力した外界認識情報が自動ブレーキ制御開始条件を満足すると、負圧ブレーキブースタ9のソレノイドバルブに対し制動力指令電圧を印加し、自動ブレーキ制御中において自動ブレーキ制御終了条件を満足すると負圧ブレーキブースタ9のソレノイドバルブに対する制動力指令電圧の印加を解除する制御指令を出力する。
【0061】
前記負圧ブレーキブースタ9は、前後輪に任意な制動力を付与するもので、自動ブレーキ制御装置8からソレノイドバルブに印加される制動力指令電圧に応じて作動する。
【0062】
なお、前記レーダ処理装置2や自動ブレーキ制御装置8は、それぞれマイクロコンピュータとその周辺部品や各種アクチュエータの駆動回路等を備え、互いに通信回路を介して情報を伝達する。
【0063】
次に、作用を説明する。
【0064】
[相対横位置補正処理]
図3は第1実施例のレーダ処理装置2で実行される相対横位置補正処理の流れを示すフローチャートで、以下、各ステップについて説明する。尚、この処理は100msec毎に実施される。
【0065】
ステップ201では、レーザレーダ1からの走査結果(距離情報)が読み込まれる。
【0066】
ステップ202では、ステップ201で読み込んだ距離情報の近いデータ群(例えば、縦距離で1m以下、横距離で2m以下の集まり)を1つの物体としてグルーピングする。。
【0067】
ステップ203では、ステップ202でグルーピングした各物体について、物体の中心座標:x,yと、物体幅Wと、1物体の有する反射物数:nと、物体全体の検知可能性を表すフラグ:Aとを求める(請求項の反射物数検出手段、相対横位置算出手段、物体幅算出手段に相当)。ここで、物体の中心座標(x,y)は、1つの物体としてグループ化したデータ群の平均値から求める。なお、xは物体の横位置、yは物体の縦位置を示す。物体幅Wは、1つの物体としてグループ化したデータ群の両端座標の差から求める。1物体の有する反射物数nは、1つの物体としてグループ化したデータ群における反射する領域の数として求める。物体全体の検知可能性を表すフラグAは、スキャニングの端に存在する物体ではないこと、及び、手前に存在する他の物体により物体の一部が隠れていないことから求められ、これらの条件を満たす時はA=1とし、これらの条件を満たさない時はA=0とする。
【0068】
ステップ204では、ステップ203で求めた物体の中心座標(x,y)とその履歴から検知物体のトラッキングをする。ここで、トラッキングとは、物体の中心座標(x,y)とその履歴とを比較して、同一物体として追従すべきものか、新たに出現したものかを区別することをいう。
【0069】
ステップ205では、ステップ203で求めた物体全体の検知可能性を表すフラグAから、物体全体を検知可能かどうかを判断し、A=1(物体全体を検知可能)のときは、ステップ206へ進み、A=0(物体全体の検知不可能)のときは、ステップ207へ進む(請求項の全体検出判断手段に相当)。
【0070】
ステップ206では、全体を検知可能な物体に基づいて、安定した物体幅Wと安定した反射物数nとが計算される(請求項2,7の物体幅安定化手段に相当)。安定した物体幅Wは、まず、ステップ203で求めた物体幅Wを入力とした次式(1)で表される伝達関数G(z)により、安定化した仮の物体幅WS_tempを算出する。
G(z)=0.1z/(z−0.9) …(1)
ここで、zは進み演算子を表す。また、この伝達関数G(z)の初期値は、物体が出現してから初めてステップ206の処理が行われたときに、今回のスキャニングで求めた物体幅Wの値に設定される。そして、検知物体のそれぞれに対して、式(1)の演算処理を行った回数をカウントし、10回以上行われた場合は、安定化した仮の物体幅WS_tempが安定した物体幅W(=WS_temp)として算出され、そうでなければ、W=0(算出されない)とされる。同様に、安定した反射物数nは、ステップ203で求めた反射物数nを入力とした上記(1)式で表される伝達関数G(z)により、安定化した仮の反射物数nS_tempを算出する。なお、この伝達関数G(z)の初期値は、物体が出現してから初めてステップ206の処理が行われたときに、今回のスキャニングで求めた反射物数nの値に設定される。そして、検知物体のそれぞれに対して、式(1)の演算処理を行った回数をカウントし、10回以上行われた場合は、安定化した仮の反射物数nS_tempの小数点以下を四捨五入により安定した反射物数n{=round(nS_temp)}が算出され、そうでなければ、n=0(算出されない)とされる。ここで、round(・)は、小数点以下四捨五入を行う関数である。
【0071】
ステップ207では、既に安定した物体幅Wが正確に算出できたかどうかが判断され、算出できていればステップ208へ進み、そうでなければステップ212へ進む。
【0072】
ステップ208では、ステップ203で求めた物体幅Wの現在値と、100msec前に求めた物体幅Wの過去値との差の絶対値(幅の変化)が、設定された閾値0.8Wthを超えているかどうかが次式(2)により判断される(請求項1,4の相対横位置補正手段に相当)。
abs{W(z)−W(z−1)}>0.8Wth …(2)
ここで、abs{・}は、絶対値を繰り返す関数であり、Wthは安定した物体幅Wと安定した反射物数nから次式(3)により求められる。
Wth=W/n …(3)
そして、式(2)を満足する場合にはステップ211へ進み、そうでない場合にはステップ209へ進む。
【0073】
ステップ209では、ステップ203で求めた1物体の有する反射物数nに変化があるかどうかが判断される(請求項の相対横位置補正手段に相当)。ここでは、今回のスキャニングで求めた反射物数n(z0)と、前回のスキャニングで求めた反射物数n(z-1)との差がゼロでない場合には、ステップ211へ進み、差がゼロの場合は、ステップ210へ進む。
【0074】
ステップ210では、物体全体の検知可能性を表すフラグAにより、物体全体の検知可能性が判断される(請求項の相対横位置補正手段に相当)。物体全体の検知可能であると判断した場合には(つまり、A=1)、ステップ212へ進み、そうでない場合には(つまり、A=0)、ステップ211へ進む。
【0075】
ステップ211では、ステップ206で算出した安定した物体幅Wと、今回のスキャニングで求めた物体幅Wに基づいて、次式(4)により横位置xの補正を実施する(請求項1,2,5,6の相対横位置補正手段に相当)。
x(z0)=x(z0)+dir*(W−W)/2 …(4)
ここで、dirとは±1の値を持ち、x(z0)−x(z-1)>0の場合にはdir=−1、x(z0)−x(z-1)<0の場合にはdir=+1となる。
【0076】
ステップ212では、物体の中心座標(x,y)を出力する。
【0077】
[相対横位置補正作用]
物体の全体を検知することができず、かつ、未だ安定した物体幅Wと安定した反射物数nが正確に算出できない時には、図3のフローチャートにおいて、ステップ201→ステップ202→ステップ203→ステップ204→ステップ205→ステップ207→ステップ212へと進む流れとなり、ステップ212では、横位置xと縦位置yの検出値による検知物体の中心座標(x,y)が出力される。
【0078】
そして、物体の全体を検知可能であり、安定した物体幅Wと安定した反射物数nの計算を行う時には、図3のフローチャートにおいて、ステップ201→ステップ202→ステップ203→ステップ204→ステップ205→ステップ206へと進む流れとなり、ステップ206では、全体を検知可能な物体の幅Wと反射物数nに基づいて、安定した物体幅Wと安定した反射物数nの計算が行われる。
【0079】
そして、物体の全体を検知できず、且つ、既に安定した物体幅Wと安定した反射物数nが正確に算出できた時には、図3のフローチャートにおいて、ステップ201→ステップ202→ステップ203→ステップ204→ステップ205→ステップ207へと進む流れとなり、ステップ208(幅の変化条件)とステップ209(反射物数の変化条件)とステップ210(物体の一部検知条件)のいずれの条件も満たさないと、ステップ210からステップ212へ進み、横位置xと縦位置yの検出値による検知物体の中心座標(x,y)が出力される。
【0080】
一方、物体の全体を検知できず、且つ、既に安定した物体幅Wと安定した反射物数nが正確に算出できた時であって、幅の変化条件(ステップ208)と反射物数の変化条件(ステップ209)と物体の一部検知条件(ステップ210)のうち、少なくとも1つの条件を満たすと、ステップ211へ進み、安定化した物体幅Wと検知された物体幅Wの差から横位置xが補正され、ステップ212へ進んで、補正された横位置xによる中心座標(x、y)が出力される。
【0081】
すなわち、ステップ208の幅の変化条件を満たす場合とは、例えば、図4に示すように、検知物体に対し自車両が近づくような場合であり、自車両が近づくことで検知物体の左端のリフレクタ(反射板)が検知範囲外になる。よって、リフレクタから求めた検知物体の幅Wの過去値と現在値とが変化する場合には、上記(2)式を満たす幅の変化により横位置xを補正する。
【0082】
ステップ209の反射物数の変化条件を満たす場合とは、例えば、図4と同様に、検知物体に対し自車両が近づくような場合であり、自車両が近づくことで検知物体の左端のリフレクタ(反射板)が検知範囲外になる。そうすると、図5に示すように、真ん中のリフレクタの面積が大きい場合、リフレクタから求めた検知物体の幅の過去値と現在値の差が小さく、上記(2)式による検知物体の幅の変化条件を満たさない。よって、このような場合には、反射物数nの変化(3個→2個)により横位置xを補正する。
【0083】
ステップ210の物体の一部検知条件を満たす場合とは、例えば、図6に示すように、検知物体と自車両の距離が近く、そのために検知物体の幅全体がリフレクタ(反射板)と判断されてしまうような場合である。この場合、検知物体の左端が検知範囲外となっても、検知物体の幅の過去値と現在値の差が小さく、上記(2)式による検知物体の幅の変化条件を満たさない。また、検知物体の幅全体がリフレクタとなることで、反射物数1個となり、反射物数の変化も少なく、反射物数の変化条件を満たさない。よって、検知物体と自車両の距離が近いような場合、検知物体の一部を検知しているという条件を満たすことにより横位置xを補正する。
【0084】
すなわち、第1実施例では、既に安定した物体幅Wと安定した反射物数nが正確に算出できた場合、幅の変化条件と、反射物数の変化条件と、物体の一部検知条件のうち、少なくとも1つの条件を満たすと、検知物体の横位置xを補正するようにしたため、検知物体に設けられた反射板の反射面積が変化した場合でも、本当の物体の横位置変化に対しては補正されず、また、検知物体に設けられた反射板の数や大きさにも影響されない、高精度な横位置xの検出を行う物体検知装置を実現することができる。
【0085】
次に、効果を説明する。
【0086】
(1) ステップ203において、自車両周囲に送信した電磁波を反射する物体の中心座標(x,y)と物体の幅Wと反射物数nが算出され、幅の変化条件(ステップ208)と反射物数の変化条件(ステップ209)と物体の一部検知条件(ステップ210)のうち、少なくとも1つの条件を満たすと、ステップ211において、既に算出された物体幅Wに基づき、検知物体の横位置xを補正するようにしたため、自車両周囲に存在する物体の一部がレーザーレーダ1の検出範囲から外れ物体の全体を検出できない場合においても、全体を検出できない物体の横位置xを高い精度で検知することができる。
【0087】
(2) ステップ205において、全体を検知可能であると判断された物体に対し、ステップ206において、算出された物体幅Wに基づいて安定化された物体幅Wが算出され、ステップ211において、安定化された物体幅Wと今回のスキャニングで求めた物体幅Wに基づき、横位置xを補正するようにしたため、自車両周囲に存在する物体の一部がレーザーレーダ1の検出範囲から外れ物体の全体を検出できない場合においても、安定化した物体幅Wに基づく高い精度で検知物体の横位置xの補正を行うことができる。
【0088】
(3) ステップ209において、前回の反射物数n(z-1)と、今回の反射物数n(z0)が異なる場合、ステップ211へ進み、横位置xを補正するようにしたため、補正する必要のない状態における誤った補正の実施をなくすことができる。
【0089】
(4) ステップ208において、前回の物体幅W(z-1)と今回の物体幅W(z0)が閾値0.8Wth以上異なる場合、ステップ211へ進み、横位置xを補正するようにしたため、補正する必要のない状態における誤った補正の実施をなくすことができる。
【0090】
(5) ステップ208において、安定化された物体幅Wと、安定化された反射物数nに基づき、閾値0.8WthのWth(=W/n)を定めるようにしたため、1個の反射物数に対する安定化された物体幅に基づいた閾値に設定されることになり、前回の物体幅W(z-1)と今回の物体幅W(z0)との差が、横位置xを補正する必要がある差であるかどうかを精度良く判断することができる。
【0091】
(6) ステップ210において、物体の全体を検知できないと判断した場合、ステップ211へ進み、横位置xを補正するようにしたため、補正する必要のない状態における誤った補正の実施をなくすことができる。
【0092】
(7) ステップ211において、算出され物体幅Wと、安定化された物体幅Wとの差に基づいて、横位置xを補正するようにしたため、横位置xを高精度に求めることができる。
【0093】
(8) ステップ206において、算出された物体幅を安定化するための演算が10回以上連続で実施された場合に、該演算結果が安定化された物体幅Wとして出力するようにし、物体幅を安定化する際には、10回以上の演算回数を実施しない限りは安定化した物体幅Wが算出できたことにしないことで、横位置xの補正を高精度に行うことができる。
【0094】
(第2実施例)
まず、構成を説明する。
図7は第2実施例の物体検知装置が適用された自動ブレーキシステム図であり、図中1はレーザレーダ(請求項3の反射物位置検出手段に相当)、2はレーダ処理装置、3はCCDカメラ、4は画像処理装置、5は外界認識装置、6は車速検出装置、7は操舵角検出装置、8は自動ブレーキ制御装置、9は負圧ブレーキブースタである。
【0095】
前記CCDカメラ3は、車両のフロントガラス上部位置に設けられ、自車両前方の状況を高速に撮像するプログレッシブ式3CCDカメラで、その撮像結果は画像処理装置4に送られる。
【0096】
前記レーダ処理装置2は、レーザレーダ1の距離情報と画像処理装置4からの画像データを読み込み、予め記憶してある検知物体の画像データと、検知物体の座標付近の画像データとを比較し、検知物体の種別(以下、ターゲットという)を決定し、決定したターゲットの物体の幅Wと反射物数nに基づき安定した物体幅W及び安定した反射物数nを計算し、一つ又は複数の検知物体(自車両を原点とする2次元座標の補正を行う対象)に対して自車両を原点とする2次元座標(x,y)の値の算出を、横位置xの補正を含む図8に示す処理により実施する。そして、処理結果である検知物体の2次元座標情報を、外界認識装置5に出力する。
【0097】
前記画像処理装置4は、CCDカメラ3からの撮像結果を入力し、検知物体の画像データを作成し、画像データ情報をレーダ処理装置2及び外界認識装置5に出力する。
【0098】
前記外界認識装置5には、画像処理装置4からの画像データ情報が入力情報として追加される。他の構成は、図2に示す第1実施例と同様であるので、説明を省略する。
【0099】
次に、作用を説明する。
【0100】
[相対横位置補正処理]
図8は第2実施例のレーダ処理装置2で実行される相対横位置補正処理の流れを示すフローチャートで、以下、各ステップについて説明する。尚、この処理は100msec毎に実施される。
【0101】
ステップ301からステップ303は、第1実施例のステップ201からステップ203と同様なので省略する。ステップ303は、請求項3の反射物数検出手段、相対横位置算出手段、物体幅算出手段に相当する。
【0102】
ステップ304はステップ204と同様であるが、ステップ304では、ステップ204に加え、物体を追従している場合(トラッキング中)は、その物体の出現時間tをインクリメントする。
【0103】
ステップ305はステップ205と同様であるが、ステップ305では、物体全体を検知可能であればステップ306へ、そうでなければステップ314へ進む(請求項3の全体検出判断手段に相当)。
【0104】
ステップ306では、ステップ303で求めた物体との距離√(x+y)が40m以上離れていればステップ307へ、そうでなければステップ308へ進む。
【0105】
ステップ307では、ターゲットとして考慮する物体の大きさ(例えば、車両は1.2〜2.2m程度の幅、路側構造物は0.5m以下の幅)と、ステップ303で検知した物体幅Wとを比較して、例えば、検知物体幅Wが車両の幅に該当する場合には、フラグTに対しT=2が代入され、カウンタT2(検知物体が車両のときのカウンタ)をインクリメントし、検知物体幅Wが、路側構造物の大きさに該当する場合には、フラグTに対しT=1が代入され、カウンタT1(検知物体がインフラのときのカウンタ)をインクリメントし、そうでない場合にはフラグTにT=0が代入され、ステップ311へ進む(請求項3,の物体種別判断手段に相当)。ここで、カウンタT1は検知物体がインフラのときのターゲットらしさを示す値であり、カウンタT2は検知物体が車両のときのターゲットらしさを示す値である。
【0106】
ステップ308では、CCDカメラ3の入力画像から、ステップ303で求めた物体の中心座標(x,y)を基準とした小領域を抽出し、その抽出した画像における輝度の中心値を求める。例えば、8ビット分解能の場合には、輝度の中心値が77から179の範囲に入らない場合では、S/N比が悪いものとして、すなわち、極端に画像が明るい、または、暗いため、信頼度が低いと判断してステップ309へ進み、そうでない場合にはステップ310へ進む。
【0107】
ステップ309では、ステップ303で求めた物体幅Wと、物体の反射物数nからターゲットらしさを示す値であるカウンタT1,T2を求める(請求項3,の物体種別判断手段に相当)。例えば、幅Wが1.2〜2.2mの範囲で、且つ、反射物数nが3個以下の場合には、ターゲットは車両と認知し、フラグTに対しT=2が代入され、カウンタT2をインクリメントする。また、幅Wが0.5以下の幅で、且つ、反射物数nが1個の場合には、ターゲットは路側構造物と認知し、フラグTに対しT=1が代入され、カウンタT1をインクリメントする。それ以外の場合には、フラグTにT=0を代入してステップ311へ進む。
【0108】
ステップ310では、ステップ308で抽出した画像と、予めターゲットとして学習させたパターンとを比較して、例えば、車両のパターンに似ている場合には、フラグTにT=2を代入してカウンタT2をインクリメントし、路側構造物のパターンに似ている場合には、フラグTにT=1を代入してカウンタT1をインクリメントし、そうでない場合にはフラグTにT=0を代入してステップ311へ進む(請求項3,10の物体種別判断手段に相当)。
【0109】
ステップ311では、ステップ307,ステップ309,ステップ310で算出したカウンタT1,T2、ステップ304でカウントする物体を検出してからの時間tに基づいて次式により、ターゲットか否かを決定する(請求項3,12のターゲット決定手段に相当)。
if(T1>>T2) (6)
Td=(T1/t>0.1) (7)
elseTd=(T2/t>0.1)*2 (8)
ここで、式(7)の(T1/t>0.1)とは、括弧内の条件を満たせばTd=1が、そうでなければTd=0が代入されることを意味していて、式(8)の場合も同様に括弧内の条件を満たせばTd=2が、そうでなければTd=0が代入される。また、式(6)のif文はT1が2倍以上T2より大きいときに(7)式を、そうでないときに(8)式を実行する。
【0110】
ステップ312では、ステップ311で求められたTdと、ステップ307,ステップ309,ステップ310で求めたT1,T2の値が同じ場合にはステップ313へ、そうでない場合にはステップ314へ進む。
【0111】
ステップ313からステップ317は、第1実施例のステップ206からステップ210と同様なため省略する。
【0112】
ステップ318では、ステップ303での検知物体からの距離が38m以下の場合にはステップ319へ、そうでない場合にはステップ320へ、それぞれ進む。
【0113】
ステップ319は、第1実施例におけるステップ211と同様なため省略する。
【0114】
ステップ320では、ステップ313で算出した安定した物体幅Wと、ステップ313で算出した安定して検知しているときの反射物数nと、ステップ303で求めた反射物数nとに基づいて、次式(9)により横位置xの補正を実施してステップ321へ進む(請求項の相対横位置補正手段に相当)。
x(z0)=x(z0)+dir*(W/n)*abs(n−n) …(9)
ここで、"abs()"とは、絶対値を繰り返す関数であり、また、dirとは±1の値を持ち、x(z0)−x(z-1)>0の場合にはdir=−1、x(z0)−x(z-1)<0の場合にはdir=+1となる。すなわち、検知物体との距離が大きいとレーザレーダ1の分解能が落ちるため、算出される物体幅の精度も低下する。よって、精度の高い安定した物体幅Wと安定した反射物数nを用いることにより補正の精度を向上させている。
【0115】
ステップ321は、第1実施例におけるステップ212と同様なため省略する。
【0116】
[相対横位置補正作用]
物体の全体を検知することができず、かつ、未だ安定した物体幅Wと安定した反射物数nが正確に算出できない時には、図8のフローチャートにおいて、ステップ301→ステップ302→ステップ303→ステップ304→ステップ305→ステップ314→ステップ321へと進む流れとなり、ステップ321では、横位置xと縦位置yの検出値による検知物体の中心座標(x,y)が出力される。
【0117】
そして、物体の全体を検知可能であり、安定した物体幅Wと安定した反射物数nの計算を行う時には、図8のフローチャートにおいて、ステップ301→ステップ302→ステップ303→ステップ304→ステップ305→ステップ306へと進む流れとなり、検知物体との距離が40m以上離れている場合には、ステップ306→ステップ307へと進み、検知物体との距離が40m未満で、物体中心座標付近の画像データにおけるS/N比が悪い場合には、ステップ306→ステップ308→ステップ309へと進み、検知物体との距離が40m未満で、物体中心座標付近の画像データにおけるS/N比が良い場合には、ステップ306→ステップ308→ステップ310へと進む。そして、ステップ307またはステップ309またはステップ310のいずれかにより、ターゲットらしさの値であるカウンタT1,T2が算出されると、ステップ311に進んで、検知物体がターゲットか否かが決定され、カウンタT1,T2を算出した物体とターゲットとして決定した物体が同じものである場合には、ステップ312からステップ313へ進んで、ターゲットとして決定した物体の幅Wと反射物数nに基づいて、安定した物体幅W及び安定した反射物数nの算出が行われる。
【0118】
そして、物体の全体を検知することができず、且つ、既に安定した物体幅Wと安定した反射物数nが正確に算出できた時には、図8のフローチャートにおいて、ステップ301→ステップ302→ステップ303→ステップ304→ステップ305→ステップ314へと進む流れとなり、ステップ315(幅の変化条件)とステップ316(反射物数の変化条件)とステップ317(物体の一部検知条件)のいずれの条件も満たさないと、ステップ321へ進み、横位置xと縦位置yの検出値による検知物体の中心座標(x,y)が出力される。
【0119】
一方、物体の全体を検知できず、且つ、既に安定した物体幅Wと安定した反射物数nが正確に算出できた時であって、幅の変化条件(ステップ315)と反射物数の変化条件(ステップ316)と物体の一部検知条件(ステップ317)のうち、少なくとも1つの条件を満たすと、ステップ318へ進み、ステップ318において、検知物体との距離が38m以下かどうかが判断され、38m以下の時には、ステップ319へ進み、安定化幅Wと検知幅Wの差から横位置xが補正され、38mを超える時には、ステップ320へ進み、安定化幅Wと安定化反射物体数nと反射物体数nから横位置xが補正される。その後、ステップ321へ進んで、補正された横位置xによる中心座標(x、y)が出力される。
【0120】
すなわち、第2実施例では、第1実施例での高精度な横位置xの検出作用に加え、入力情報としてレーザレーダ1の距離情報に画像処理装置4からの画像データが加わるため、補正対象となる検知物体を、確実、且つ、正確に捉えることができると共に、距離情報と画像データにより安定した物体幅Wと安定した反射物数nを計算するターゲットを決定するようにしたため、検知物体の種類(車両やインフラ構造物等)に影響されない、高精度な横位置xの検出を行う物体検知装置を実現することができる。
【0121】
次に、効果を説明する。
【0122】
第2実施例の物体検知装置にあっては、第1実施例の(1),(3)〜(8)の効果に加え、下記の効果を得ることができる。
【0123】
(9) ステップ303において、自車両周囲に送信した電磁波を反射する物体の中心座標(x,y)と物体幅W及び反射物数nが算出され、ステップ305において、物体の全体を検知可能どうかが判断され、このステップ305により、全体を検知可能であると判断された場合、ステップ307またはステップ309またはステップ310において、物体の種別が判断され、ステップ311において、物体種別判断結果の履歴に基づき決定されたターゲットに対し、ステップ313において、安定化された物体幅Wが算出され、幅の変化条件(ステップ315)と反射物数の変化条件(ステップ316)と物体の一部検知条件(ステップ317)のうち、少なくとも1つの条件を満たすと、ステップ319またはステップ320において、検知物体の横位置xを補正するようにしたため、自車両周囲に存在する物体の一部がレーザーレーダ1の検出範囲から外れ物体の全体を検出できない場合においても、ターゲットの安定化した物体幅Wに基づき、第1実施例に比べ、さらに高い精度で検知物体の横位置補正を行うことができる。
【0124】
(10) ステップ320において、横位置xの補正量を、安定化された物体幅Wと、1つの検知物体の有する反射物数nとに基づいて定めるようにしたため、自車両と検知物体との距離が離れていて、今回の検出結果から求めた物体幅Wが正しく求められない場合でも、横位置xを高精度に求めることができる。
【0125】
(11) ステップ307において、物体幅Wに基づき、物体の種別を判断するようにしたため、他のセンサ等を装備する必要がなく、低コストなシステム構成により物体の種別を判断することができる。
【0126】
(12) ステップ309において、物体幅Wと、反射物数nに基づき、物体の種別を判断するようにしたため、他のセンサ等を装備する必要がなく、低コストなシステム構成にすることができ、かつ、反射物数nを考慮することで、比較的信頼性を上げることができる。
【0127】
(13) ステップ310において、予め用意したターゲットの特徴が収められた画像データと、物体の中心座標付近の画像データとを比較し、物体の種別を判断するようにしたため、より正確なターゲットの識別を行うことができる。
【0128】
(14) ステップ311において、物体の種別を判断する演算を行った時間tに対する、物体に対して判断した種別毎に、その種別を判断した時間T1,T2の割合、つまり、物体の種別判断の演算をした時間tと、ターゲットと似ていることを判断した時間T1,T2との時間割合に応じてターゲットを決めるようにしたため、物体種別判断が安定しない場合でも、確実に検知物体をターゲットとして扱うか否かを判断することができる。
【0129】
(他の実施例)
以上、本発明の物体検知装置を第1実施例及び第2実施例に基づき説明してきたが、具体的な構成については、これらの実施例に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。
【0130】
例えば、第1実施例及び第2実施例では、本発明の物体検知装置を自動ブレーキ装置に適用した例を示したが、自動ブレーキ装置以外に、車間距離制御装置や定速走行制御装置やレーンキープ制御装置やレーンアシスト制御装置等、自車両に対する物体(先行車やインフラ構造物等)の相対位置情報を必要とする車載制御システムに適用することができる。
【0131】
第1実施例及び第2実施例では、検知物体を1つの場合を想定して説明したが、複数の物体を検知した場合には、各物体に対して図2や図8による同様の処理を行う。
【0132】
第2実施例では、ステップ311において、物体種別判断により物体の種別を判断する演算を行った時間tに対する、物体に対して判断した種別毎に、その種別を判断した時間であるカウンタT1,T2の割合に基づき、物体が自車両にとって検出すべきターゲットか否かを決定する例を示したが、ターゲット決定手段であるステップ311において、レーザーレーダ1により物体を検出する時間に対する、物体に対して判断した種別毎に、その種別を判断した時間であるカウンタT1,T2の割合に基づき、物体が自車両にとって検出すべきターゲットか否かを決定するようにしても良い(請求項11に相当)。この場合、物体の出現した時間と、ターゲットと似ていることを判断した時間との時間割合に応じてターゲットを決めるようにしたため、物体種別判断が安定しない場合でも、確実に検知物体をターゲットとして扱うか否かを判断することができる。
【図面の簡単な説明】
【図1】請求項2に係る発明と請求項3に係る発明の基本構成図である。
【図2】第1実施例の物体検知装置が適用された自動ブレーキシステムを示す図である。
【図3】第1実施例のレーダ処理装置で実行される相対横位置補正処理の流れを示すフローチャートである。
【図4】第1実施例の相対横位置補正処理での物体幅が変化する場合の一例を示す図である。
【図5】第1実施例の相対横位置補正処理での反射物数が変化する場合の一例を示す図である。
【図6】第1実施例の相対横位置補正処理での物体全体を検知できない場合の一例を示す図である。
【図7】第2実施例の物体検知装置が適用された自動ブレーキシステムを示す図である。
【図8】第2実施例のレーダ処理装置で実行される相対横位置補正処理の流れを示すフローチャートである。
【符号の説明】
1…レーザーレーダ(物体検出手段、反射物位置検出手段)
2…レーダ処理装置(物体特徴記録手段)
3…CCDカメラ(画像入力手段)
203,303…反射物数検出手段、相対横位置検出手段、物体幅検出手段
205,305…全体検出判断手段
206,313…物体幅安定化手段
208,209,210,211,319,320…相対横位置補正手段
307,309,310…物体種別判断手段
311…ターゲット決定手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a so-called radar device that detects electromagnetic waves such as lasers and millimeter waves toward an object around the host vehicle and receives a reflected wave from the object to detect a relative position to the object. is there.
[0002]
[Prior art]
Conventionally, as an object detection device, for example, a device described in JP 2000-28718 A is known.
[0003]
This publication proposes an object detection device that divides a laser irradiation range into a plurality of detection areas and determines the presence of an object from the reception level of each detection area.
[0004]
In this apparatus, by comparing the added value of the reception level of the laser beam reflected in each detection area with a threshold value, it is determined whether or not an object exists in the detection area, and the relative distance from the object is determined. Therefore, it is possible to reliably detect an object.
[0005]
Here, when electromagnetic waves are transmitted to the vehicle, the reflector attached to the vehicle reflects the electromagnetic waves more strongly than other parts. Therefore, the position of the reflector is detected by the radar, and the relative position of the vehicle with respect to the host vehicle is calculated based on the detected position of the reflector.
[0006]
[Problems to be solved by the invention]
However, in the conventional object detection device, the object in the detection area is detected on the premise that the object in the detection area completely reflects the electromagnetic wave from the radar. Therefore, all the reflectors attached to the vehicle are When electromagnetic waves cannot be reflected, for example, even if a part of the vehicle falls outside the detection range and there is a reflector that is not detected, the relative position of the vehicle is calculated based only on the position of the detected reflector without considering this. Therefore, there is a problem that the calculated relative lateral position is different from the original lateral position by the amount of the reflector that is not detected.
[0007]
The present invention has been made paying attention to the above-described problems, and the object of the present invention is when a part of an object existing around the host vehicle is out of the detection range of the object detection means and cannot detect the entire object. Another object of the present invention is to provide an object detection device that can detect the relative lateral position of an object that cannot be detected as a whole with high accuracy.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, according to the first aspect of the present invention, the relative position of the reflector that reflects the electromagnetic wave transmitted around the host vehicle is detected. Reflector position detecting means When, Based on the detection result of the reflector position detection means, the number of reflection objects detection means for detecting the number of reflection objects that one object has, and the relative lateral position of the object based on the detection result of the reflection object position detection means. Relative lateral position calculating means for calculating, object width calculating means for calculating the width of the object based on the detection result of the reflector position detecting means, and the reflector position detecting means Based on the detection result of It is determined whether or not the condition that the object does not exist at the end of the detection range of the reflector position detection means and a part of the object is not hidden by another object present in front is satisfied. by doing, The whole object Reflector position detecting means An overall detection judging means for judging whether or not it is detected by When the previous object width calculated by the object width calculation unit and the current object width are different from each other by a predetermined value or more, the number of the previous reflections detected by the reflection number detection unit is different from the number of the current reflections. And the object width calculation means if at least one of the conditions is satisfied when the whole detection determination means determines that the whole of the object is not detected by the reflector position detection means so Calculation Based on the measured object width Calculation result of the relative lateral position calculation means And a relative lateral position correcting means for correcting.
[0009]
In the invention according to claim 2, as shown in the basic configuration diagram of FIG. The object detection apparatus according to claim 1, The object width calculated by the object width calculating unit is determined for the object determined to be detected by the entire detection determining unit. By filtering using a predetermined transfer function Stabilizing object width stabilizing means Provided , The relative lateral position correcting means is Based on the object width stabilized by the object width stabilizing means, the calculation result of the relative lateral position calculating means is corrected. Ruko And features.
[0010]
In the invention according to claim 3, as shown in the basic configuration diagram of FIG. The object detection device according to claim 2, Based on the object type determination means for determining the type of the object and the history of determination results of the object type determination means for the object determined to be detected as a whole by the whole detection determination means, Target determination means for determining whether or not the target vehicle should be detected; The object width stabilizing means includes Stabilize the object width calculated by the object width calculating unit with respect to the object determined as the target by the target determining unit. Ruko And features.
[0011]
According to a fourth aspect of the present invention, in the object detection device according to the second or third aspect, the relative lateral position correcting means is Based on the object width stabilized by the object width stabilizing means and the number of reflectors detected by the reflector number detecting means, the threshold value is a difference between the previous object width and the current object width. Set a predetermined value It is characterized by that.
[0012]
According to a fifth aspect of the present invention, in the object detection device according to the second or third aspect, the relative lateral position correcting unit includes: Based on the difference between the object width calculated by the object width calculating means and the object width stabilized by the object width stabilizing means, The calculation result of the relative lateral position calculation means is corrected.
[0013]
In invention of Claim 6, Claim 2 or claim 3 In the object detection device according to claim 1, the relative lateral position correction unit is based on the object width stabilized by the object width stabilization unit and the number of reflectors detected by the reflector number detection unit. And correcting the calculation result of the relative lateral position calculation means. It is characterized by that.
[0014]
In the invention according to claim 7, in the object detection device according to claim 2 or 3, The object width stabilizing unit is configured to stabilize the calculation result when the filter processing for stabilizing the object width calculated by the object width calculating unit is continuously performed a predetermined number of times or more. Output as width It is characterized by that.
[0015]
In the invention according to claim 8, Claim 3 In the object detection apparatus described in The object type determining unit determines the type of the object based on the object width calculated by the object width calculating unit. It is characterized by that.
[0016]
In the invention according to claim 9, Claim 3 In the object detection apparatus described in The object type determining means determines the type of the object based on the object width calculated by the object width calculating means and the number of reflecting objects detected by the reflecting object number detecting means. It is characterized by that.
[0017]
In the invention according to claim 10, Claim 3 In the object detection apparatus described in The object type determining means includes an image input means for capturing an image around the host vehicle, and an object feature recording means for recording a feature for each object type as image data, and the object captured by the image input means The type of the object is determined based on the result of comparing the image of the image and the image data for each type of the object recorded in the object feature recording unit. It is characterized by that.
[0018]
In the invention according to claim 11, in the object detection device according to claim 3, The target determining means, for each type determined for the object by the object type determination relative to the time when the object is detected by the reflector position detection means, based on the ratio of the time determined the type, Determine whether the object is a target to be detected for the vehicle It is characterized by that.
[0019]
In the invention according to claim 12, in the object detection device according to claim 3, The target determining unit is configured to calculate the time for which the type is determined for each type determined for the object by the object type determining unit with respect to the time for performing the calculation for determining the type of the object by the object type determining unit. Based on the ratio, determine whether the object is a target to be detected for the vehicle It is characterized by that.
[0023]
Operation and effect of the invention
In the invention according to claim 1, Reflector position detection means , The relative position of the reflector that reflects the electromagnetic wave transmitted around the vehicle is detected, The number of reflecting objects is detected by the reflecting object number detecting means based on the detection result of the reflecting object position detecting means, and the object is detected by the relative lateral position detecting means based on the detection result of the reflecting object position detecting means. The relative lateral position is calculated, and the object width is calculated in the object width calculation means based on the detection result of the reflector position detection means. And in the whole detection judgment means, Reflector position detection means Based on the detection result of By judging whether or not the condition that the object is not present at the end of the detection range of the reflector position detection means and that a part of the object is not hidden by another object present in front is satisfied. , The whole object Reflector position detection means Is detected by When the previous object width calculated by the object width calculating unit and the current object width are different from each other by a predetermined value or more, when the number of the previous reflector detected by the reflector number detecting unit and the number of the current reflector are different, And, when the entire detection determining means determines that the entire object is not detected by the reflector position detecting means, and satisfying at least one of the following conditions: In the relative lateral position correction means, Object width calculation means so Calculation Based on the measured object width Calculation result of relative lateral position calculation means Is corrected.
[0024]
Therefore, When the calculated previous object width and the current object width are different from each other by a predetermined value or more, when the number of detected previous reflectors and the number of current reflectors are different, and If it is determined that the entire object has not been detected, If at least one of the conditions is satisfied, Based on the already detected object width, Relative lateral position calculation means so Calculation Since the relative lateral position of the object was corrected, some of the objects around the host vehicle Reflector position detection means Even when the entire object outside the detection range cannot be detected, the relative lateral position of the object from which the entire object cannot be detected can be detected with high accuracy.
[0025]
In the invention of claim 2, ,all The object width calculated by the object width calculating unit is determined by the object width stabilizing unit for the object determined to be detected by the body detection determining unit. By filtering using a predetermined transfer function Stabilized. Then, in the relative lateral position correcting means, the calculation result of the relative lateral position calculating means is corrected based on the object width stabilized by the object width stabilizing means.
[0026]
Therefore, among the objects detected by the electromagnetic wave transmitted by the reflector position detection means, the stabilized object width is calculated for the object that can detect the entire object, and it is determined that the entire object is not detected. Based on the stabilized object width, Relative lateral position calculation means so Calculation Since the relative lateral position of the object was corrected, some of the objects around the host vehicle Reflector position detection means Even when the entire object outside the detection range cannot be detected, the lateral position of the detected object can be corrected with high accuracy based on the stabilized object width.
[0027]
In invention of Claim 3, ,all The object type is determined by the object type determination unit for the object that is determined to be detected as a whole by the body detection determination unit, and the target determination unit determines the object based on the determination result history of the object type determination unit. It is determined whether or not the vehicle is a target to be detected for the host vehicle, and the object width calculated by the object width calculating unit is stabilized in the object width stabilizing unit for the object determined as the target by the target determining unit. The Then, in the relative lateral position correcting means, the calculation result of the relative lateral position calculating means is corrected based on the object width stabilized by the object width stabilizing means.
[0028]
Therefore, among the objects detected by the electromagnetic wave transmitted by the reflector position detection means, the target that the object should detect for the host vehicle is determined based on the history of the determination result of the object type determination means for the object that can detect the whole object. If a stable object width is determined for an object determined and determined as a target, and it is determined that the entire object has not been detected, based on the stabilized object width, Relative lateral position calculation means so Calculation Since the relative lateral position of the object was corrected, some of the objects around the host vehicle Reflector position detection means Even when the entire object outside the detection range cannot be detected, the lateral position of the detected object can be corrected with higher accuracy than the invention according to claim 2 based on the stabilized object width of the target. .
[0033]
Claim 4 In the described invention, in the relative lateral position correcting means, the previous object is determined based on the object width stabilized by the object width stabilizing means and the number of reflectors detected by the reflector number detecting means. A predetermined value that is a threshold value of the difference between the width and the current object width is determined.
[0034]
Therefore, the threshold value is set based on the stabilized object width with respect to the number of reflectors, and the difference between the previous object width and the current object width needs to correct the relative lateral position. It is possible to accurately determine whether the difference is present.
[0037]
Claim 5 In the described invention, in the relative lateral position correcting means, the relative lateral position calculating means based on the difference between the object width calculated by the object width calculating means and the object width stabilized by the object width stabilizing means. The calculation result is corrected.
[0038]
Therefore, the correction amount of the relative lateral position is determined based on the difference between the stabilized object width and the object width obtained from the current detection result, and the relative lateral position can be obtained with high accuracy.
[0039]
Claim 6 In the described invention, in the relative lateral position correcting means, the relative lateral position is determined based on the object width stabilized by the object width stabilizing means and the number of reflectors detected by the reflector number detecting means. The calculation result of the calculation means is corrected.
[0040]
Therefore, the correction amount of the relative lateral position is determined based on the stabilized object width and the number of reflectors of one detection object, and the distance between the own vehicle and the detection object is long and Even when the obtained object width cannot be obtained correctly, the relative lateral position can be obtained with high accuracy.
[0041]
Claim 7 In the described invention, the object width stabilizing means is for stabilizing the object width calculated by the object width calculating means. Filtering When the calculation is continuously performed a predetermined number of times or more, the calculation result is output as a stabilized object width.
[0042]
Therefore, when the object width is stabilized, the relative lateral position can be corrected with high accuracy by not calculating the stabilized object width unless a predetermined number of calculations are performed. .
[0043]
Claim 8 In the described invention, the object width type determining means determines the object type based on the object width calculated by the object width calculating means.
[0044]
Therefore, since it is not necessary to equip other sensors or the like, the type of the object can be determined by a low-cost system configuration.
[0045]
Claim 9 In the described invention, the object type determination means determines the object type based on the object width calculated by the object width calculation means and the number of reflection objects detected by the reflection object number detection means.
[0046]
Therefore, since it is not necessary to equip with other sensors etc., it can be set as a low-cost system structure, and it can raise comparatively reliability by considering the number of reflectors.
[0047]
Claim 10 In the described invention, based on the result of comparing the image of the object captured by the image input unit and the image for each type of object recorded in the object feature recording unit in the object type determination unit. The type is determined.
[0048]
Therefore, since the object type is determined by adding image data, more accurate target identification can be performed.
[0049]
Claim 11 In the described invention, in the target determination means, the ratio of the time for which the type is determined for each type determined for the object by the object type determination means with respect to the time for detecting the object by the reflector position detection means. Based on this, it is determined whether or not the object is a target to be detected for the host vehicle.
[0050]
Therefore, since the target is determined according to the time ratio between the time when the object appears and the time when it is determined to be similar to the target, even if the object type determination is not stable, the detected object is reliably handled as the target. It can be determined whether or not.
[0051]
Claim 12 In the described invention, the target determination unit determines the type for each type determined for the object by the object type determination unit with respect to the time when the calculation for determining the type of the object is performed by the object type determination unit. Whether or not the object is a target to be detected for the host vehicle is determined based on the proportion of the time.
[0052]
Therefore, the target is determined according to the time ratio between the time when the object type determination is calculated and the time when it is determined to be similar to the target. Therefore, even if the object type determination is not stable, the detected object is reliably detected. Can be determined as a target.
[0053]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments for realizing the object detection device according to the present invention will be described in claims 1, 2, 4, 5, 6, and 6. 7 Corresponding first embodiment and claims 1, 3, 4, 5, 6, 7, 8, 9, 10, 11, 1 2 A description will be given based on the corresponding second embodiment.
[0054]
(First embodiment)
First, the configuration will be described. FIG. 2 is an automatic brake system diagram to which the object detection apparatus of the first embodiment is applied, in which 1 is a laser radar (claim 1). of 2 is a radar processing device, 5 is an external recognition device, 6 is a vehicle speed detection device, 7 is a steering angle detection device, 8 is an automatic brake control device, and 9 is a negative pressure brake booster.
[0055]
The laser radar 1 is provided at the position of the front end of the host vehicle, and transmits a vertically long beam to a reflector (preceding vehicle, infrastructure structure, etc.) in the front area of the host vehicle, A light transmission scanning unit that scans a light transmission beam in a horizontal direction within a predetermined angle range, a light receiving unit that has a horizontally long light receiving area that receives a reflected wave from the reflector, and a horizontally long light receiving area within a predetermined angle range. This is a scanning type distance measuring means having a light receiving scanning unit that scans in the vertical direction.
[0056]
The radar processing device 2 reads the scanning result (distance information) from the light receiving scanning unit of the laser radar 1 and sets the object width W and the number of reflectors n that can detect the whole of the reflectors in the front area of the vehicle. Based on stable object width W S And the number of stable reflectors n S And calculating the value of two-dimensional coordinates (x, y) with the origin of the own vehicle for one or a plurality of sensing objects (targets for correcting the two-dimensional coordinates with the origin of the own vehicle) This is performed by the process shown in FIG. 3 including the correction of the lateral position x. Then, the two-dimensional coordinate information of the detected object that is the processing result is output to the external recognition device 5.
[0057]
The external environment recognition device 5 is configured to detect two-dimensional coordinate information of the detected object from the radar processing device 2 and information for estimating the state quantity of the host vehicle (vehicle speed information from the vehicle speed detection device 6 and steering angle from the steering angle detection device 7). Based on the information), it recognizes whether or not the detected object is an obstacle for the host vehicle, and outputs this to the automatic brake control device 8 as external world recognition information.
[0058]
The vehicle speed detection device 6 is a device that detects a vehicle speed based on sensor signals from left and right driven wheel speed sensors, and outputs detected vehicle speed information to the external environment recognition device 5.
[0059]
The steering angle detection device 7 is a device that detects a steering angle based on a sensor signal from a front wheel steering angle sensor or the like, and outputs detected steering angle information to the external environment recognition device 5.
[0060]
When the external world recognition information input from the external world recognition device 5 satisfies the automatic brake control start condition, the automatic brake control device 8 applies a braking force command voltage to the solenoid valve of the negative pressure brake booster 9 to perform automatic brake control. When the automatic brake control termination condition is satisfied, a control command for canceling the application of the braking force command voltage to the solenoid valve of the negative pressure brake booster 9 is output.
[0061]
The negative pressure brake booster 9 applies an arbitrary braking force to the front and rear wheels, and operates according to a braking force command voltage applied from the automatic brake control device 8 to the solenoid valve.
[0062]
The radar processing device 2 and the automatic brake control device 8 are each provided with a microcomputer and its peripheral components, drive circuits for various actuators, etc., and transmit information to each other via a communication circuit.
[0063]
Next, the operation will be described.
[0064]
[Relative lateral position correction processing]
FIG. 3 is a flowchart showing the flow of the relative lateral position correction process executed by the radar processing apparatus 2 of the first embodiment. Each step will be described below. This process is performed every 100 msec.
[0065]
In step 201, the scanning result (distance information) from the laser radar 1 is read.
[0066]
In step 202, a group of data with close distance information read in step 201 (for example, a collection of 1 m or less in vertical distance and 2 m or less in horizontal distance) is grouped as one object. .
[0067]
In step 203, for each object grouped in step 202, the center coordinates of the object: x, y, the object width W, the number of reflectors of one object: n, and a flag indicating the detectability of the entire object: A (Claims) 1 Equivalent to the reflected object number detecting means, the relative lateral position calculating means, and the object width calculating means). Here, the center coordinates (x, y) of the object are obtained from the average value of the data group grouped as one object. Note that x represents the horizontal position of the object, and y represents the vertical position of the object. The object width W is obtained from the difference between the two end coordinates of the data group grouped as one object. The number n of reflections of one object is obtained as the number of areas to be reflected in the data group grouped as one object. The flag A indicating the detectability of the entire object is obtained from the fact that the object is not present at the end of scanning and that a part of the object is not hidden by other objects present in the foreground. A = 1 when satisfied, and A = 0 when these conditions are not satisfied.
[0068]
In step 204, the detected object is tracked from the center coordinates (x, y) of the object obtained in step 203 and its history. Here, tracking refers to comparing the central coordinates (x, y) of an object and its history to distinguish whether the object should be followed or newly appeared.
[0069]
In step 205, it is determined whether or not the entire object can be detected from the flag A indicating the detectability of the entire object obtained in step 203. If A = 1 (the entire object can be detected), the process proceeds to step 206. , A = 0 (the whole object cannot be detected), the process proceeds to step 207 (claims). 1 Equivalent to the whole detection determination means).
[0070]
In step 206, based on the object that can be detected entirely, the stable object width W S And the number of stable reflectors n S And are calculated (claims) 2,7 Equivalent to the object width stabilization means). Stable object width W S First, the provisional object width W stabilized by the transfer function G (z) expressed by the following equation (1) using the object width W obtained in step 203 as an input. S_temp Is calculated.
G (z) = 0.1z / (z−0.9) (1)
Here, z represents an advance operator. The initial value of the transfer function G (z) is set to the value of the object width W obtained by the current scanning when the process of step 206 is performed for the first time after the appearance of the object. Then, the number of times the calculation process of the expression (1) is performed for each detected object is counted, and when it is performed 10 times or more, the stabilized temporary object width W S_temp Has a stable object width W S (= W S_temp ) Or else W S = 0 (not calculated). Similarly, the number of stable reflectors n S Is the temporary number n of reflectors stabilized by the transfer function G (z) expressed by the above equation (1) using the number n of reflectors obtained in step 203 as an input. S_temp Is calculated. Note that the initial value of the transfer function G (z) is set to the value of the number of reflectors n obtained by the current scanning when the process of step 206 is performed for the first time after the appearance of the object. Then, the number of times of performing the calculation process of the expression (1) is counted for each detected object, and when it is performed 10 times or more, the number of stabilized temporary reflectors n S_temp Number of stable reflectors n by rounding off the decimal point S {= Round (n S_temp )} Is calculated, otherwise n S = 0 (not calculated). Where round (·) is the decimal point of This function performs rounding.
[0071]
In step 207, the already stable object width W S Is calculated correctly, and if so, the process proceeds to step 208; otherwise, the process proceeds to step 212.
[0072]
In step 208, the absolute value (change in width) of the difference between the current value of the object width W obtained in step 203 and the past value of the object width W obtained 100 msec before exceeds the set threshold value 0.8Wth. (2) to determine whether or not 1, 4 Equivalent to the relative lateral position correcting means).
abs {W (z 0 ) -W (z -1 )}> 0.8Wth (2)
Here, abs {·} is a function that repeats an absolute value, and Wth is a stable object width W S And the number of stable reflectors n S From the following equation (3).
Wth = W S / N S … (3)
If the expression (2) is satisfied, the process proceeds to step 211; otherwise, the process proceeds to step 209.
[0073]
In step 209, it is determined whether or not there is a change in the number of reflectors n of one object obtained in step 203 (claims). 1 Equivalent to the relative lateral position correcting means). Here, the number of reflectors n (z 0 ) And the number of reflectors n (z -1 ) Is not zero, the process proceeds to step 211. If the difference is zero, the process proceeds to step 210.
[0074]
In step 210, the detectability of the entire object is determined based on the flag A indicating the detectability of the entire object. 1 Equivalent to the relative lateral position correcting means). If it is determined that the entire object can be detected (that is, A = 1), the process proceeds to step 212. If not (that is, A = 0), the process proceeds to step 211.
[0075]
In step 211, the stable object width W calculated in step 206 is obtained. S Then, based on the object width W obtained by the current scanning, the lateral position x is corrected by the following equation (4). 5, 6 Equivalent to the relative lateral position correcting means).
x (z 0 ) = X (z 0 ) + Dir * (W S -W) / 2 (4)
Here, dir has a value of ± 1, and x (z 0 ) −x (z -1 )> 0, dir = −1, x (z 0 ) −x (z -1 ) <0, dir = + 1.
[0076]
In step 212, the center coordinates (x, y) of the object are output.
[0077]
[Relative lateral position correction]
The entire object cannot be detected and is still stable. S And the number of stable reflectors n S 3 cannot be accurately calculated, the flow proceeds to step 201 → step 202 → step 203 → step 204 → step 205 → step 207 → step 212 in the flowchart of FIG. 3. In step 212, the horizontal position x and the vertical position y The center coordinates (x, y) of the detected object based on the detected value are output.
[0078]
The entire object can be detected and the stable object width W S And the number of stable reflectors n S 3 is performed, the flow proceeds from step 201 to step 202, step 203, step 204, step 205, and step 206 in the flowchart of FIG. Stable object width W based on the number of objects n S And the number of stable reflectors n S Is calculated.
[0079]
The entire object cannot be detected and is already stable. S And the number of stable reflectors n S 3 can be accurately calculated, the flow proceeds to step 201 → step 202 → step 203 → step 204 → step 205 → step 207 in the flowchart of FIG. 3, and step 208 (width changing condition) and step 209 (reflection) are performed. If neither the condition of the number of objects) nor the condition of step 210 (partial object detection condition) is satisfied, the process proceeds from step 210 to step 212 and the center coordinates of the detected object based on the detected values of the horizontal position x and the vertical position y. (X, y) is output.
[0080]
On the other hand, the entire object cannot be detected and is already stable. S And the number of stable reflectors n S At least one of the width change condition (step 208), the number of reflection objects change condition (step 209), and the partial object detection condition (step 210) is satisfied. Then, the process proceeds to step 211 to stabilize the object width W S The lateral position x is corrected from the detected difference in the object width W, and the process proceeds to step 212, where the center coordinates (x, y) based on the corrected lateral position x are output.
[0081]
That is, the case where the change condition of the width of step 208 is satisfied is, for example, a case where the own vehicle approaches the detected object as shown in FIG. 4, and a reflector at the left end of the detected object when the own vehicle approaches. (Reflector) is out of detection range. Therefore, when the past value and the current value of the width W of the detected object obtained from the reflector change, the lateral position x is corrected by the change in the width that satisfies the above equation (2).
[0082]
The case where the condition for changing the number of reflectors in step 209 is satisfied is, for example, the case where the host vehicle approaches the detected object, as in FIG. 4, and the reflector at the left end of the detected object ( The reflector is out of the detection range. Then, as shown in FIG. 5, when the area of the middle reflector is large, the difference between the past value and the present value of the width of the detected object obtained from the reflector is small, and the change condition of the width of the detected object according to the above equation (2) Does not meet. Therefore, in such a case, the lateral position x is corrected by changing the number of reflectors n (3 → 2).
[0083]
The case where the object detection condition in step 210 is satisfied is, for example, as shown in FIG. 6, the distance between the detection object and the host vehicle is short, and therefore the entire width of the detection object is determined as a reflector (reflector). This is the case. In this case, even if the left end of the detected object is outside the detection range, the difference between the past value and the current value of the detected object width is small, and the condition for changing the detected object width according to the above equation (2) is not satisfied. In addition, since the entire width of the sensing object becomes a reflector, the number of reflectors But The number of reflectors is small, and the change in the number of reflectors is small, and the condition for changing the number of reflectors is not satisfied. Therefore, when the distance between the detected object and the host vehicle is short, the lateral position x is corrected by satisfying the condition that a part of the detected object is detected.
[0084]
That is, in the first embodiment, the already stable object width W S And the number of stable reflectors n S If the at least one of the condition for changing the width, the condition for changing the number of reflectors, and the condition for partially detecting the object is satisfied, the lateral position x of the detected object is corrected. Therefore, even if the reflection area of the reflector provided on the sensing object changes, it is not corrected for changes in the lateral position of the real object, and the number and size of the reflectors provided on the sensing object are not corrected. Therefore, it is possible to realize an object detection device that detects the lateral position x with high accuracy that is not affected by this.
[0085]
Next, the effect will be described.
[0086]
(1) In step 203, the center coordinates (x, y) of the object reflecting the electromagnetic wave transmitted around the host vehicle, the width W of the object, and the number n of reflected objects are calculated. When at least one of the width changing condition (step 208), the reflecting object number changing condition (step 209), and the object partial detection condition (step 210) is satisfied, In step 211, since the lateral position x of the detected object is corrected based on the already calculated object width W, a part of the object existing around the host vehicle is out of the detection range of the laser radar 1 and the entire object is removed. Even when it cannot be detected, the lateral position x of the object that cannot be detected as a whole can be detected with high accuracy.
[0087]
(2) The object width W stabilized in step 206 based on the object width W calculated in step 206 for the object determined to be detectable in step 205 S Is calculated, and in step 211, the stabilized object width W S Since the lateral position x is corrected on the basis of the object width W obtained by the current scanning, when a part of the object existing around the host vehicle is out of the detection range of the laser radar 1 and the entire object cannot be detected. The stabilized object width W S The lateral position x of the detected object can be corrected with high accuracy based on.
[0088]
(3) In step 209, the number n (z -1 ) And the number n (z 0 ) Are different, the process proceeds to step 211 and the lateral position x is corrected, so that it is possible to eliminate erroneous correction in a state where correction is not necessary.
[0089]
(4) In step 208, the previous object width W (z -1 ) And the current object width W (z 0 ) Is different from the threshold of 0.8 Wth or more, the process proceeds to step 211 and the lateral position x is corrected. Therefore, it is possible to eliminate erroneous correction in a state where correction is not necessary.
[0090]
(5) In step 208, the stabilized object width W S And the number of reflectors stabilized n S Based on Wth (= W S / N S ) Is set to a threshold value based on the stabilized object width for the number of reflectors, and the previous object width W (z -1 ) And the current object width W (z 0 It is possible to accurately determine whether or not the difference from) is a difference that requires correction of the lateral position x.
[0091]
(6) If it is determined in step 210 that the entire object cannot be detected, the process proceeds to step 211 and the lateral position x is corrected, so that it is possible to eliminate erroneous correction in a state where correction is not necessary. .
[0092]
(7) Calculated in step 211 The Object width W and stabilized object width W S Since the lateral position x is corrected based on the difference between the lateral position x and the lateral position x, the lateral position x can be obtained with high accuracy.
[0093]
(8) In step 206, when the calculation for stabilizing the calculated object width is continuously performed ten times or more, the object width W in which the calculation result is stabilized. S When the object width is stabilized, the stabilized object width W is obtained unless the number of calculations is 10 times or more. S Since it is not determined that can be calculated, the lateral position x can be corrected with high accuracy.
[0094]
(Second embodiment)
First, the configuration will be described.
FIG. 7 is an automatic braking system diagram to which the object detection device of the second embodiment is applied. In the figure, 1 is a laser radar (corresponding to the reflector position detection means of claim 3), 2 is a radar processing device, CCD camera, 4 is an image processing device, 5 is an external environment recognition device, 6 is a vehicle speed detection device, 7 is a steering angle detection device, 8 is an automatic brake control device, and 9 is a negative pressure brake booster.
[0095]
The CCD camera 3 is a progressive 3CCD camera that is provided at an upper position on the windshield of the vehicle and images the situation ahead of the host vehicle at high speed. The imaging result is sent to the image processing device 4.
[0096]
The radar processing device 2 reads the distance information of the laser radar 1 and the image data from the image processing device 4, compares the image data of the detected object stored in advance with the image data near the coordinates of the detected object, The type of the detected object (hereinafter referred to as the target) is determined, and the stable object width W based on the determined target object width W and the number of reflectors n S And the number of stable reflectors n S And calculating the value of the two-dimensional coordinates (x, y) with the own vehicle as the origin with respect to one or a plurality of sensing objects (targets for correcting the two-dimensional coordinates with the own vehicle as the origin) This is performed by the process shown in FIG. 8 including the correction of the lateral position x. Then, the two-dimensional coordinate information of the detected object that is the processing result is output to the external recognition device 5.
[0097]
The image processing device 4 inputs the imaging result from the CCD camera 3, creates image data of the detected object, and outputs image data information to the radar processing device 2 and the external environment recognition device 5.
[0098]
Image data information from the image processing device 4 is added to the outside recognition device 5 as input information. The other configuration is the same as that of the first embodiment shown in FIG.
[0099]
Next, the operation will be described.
[0100]
[Relative lateral position correction processing]
FIG. 8 is a flowchart showing the flow of the relative lateral position correction process executed by the radar processing apparatus 2 of the second embodiment. Each step will be described below. This process is performed every 100 msec.
[0101]
Step 301 to step 303 are the same as step 201 to step 203 in the first embodiment, and will be omitted. Step 303 corresponds to the reflecting object number detecting means, the relative lateral position calculating means, and the object width calculating means.
[0102]
Step 304 is the same as step 204, but in step 304, in addition to step 204, when the object is followed (during tracking), the appearance time t of the object is incremented.
[0103]
Step 305 is the same as step 205, but in step 305, if the entire object can be detected, the process proceeds to step 306, and if not, the process proceeds to step 314 (corresponding to the whole detection determination means in claim 3).
[0104]
In step 306, the distance √ (x 2 + Y 2 ) Is 40 m or more away, the process proceeds to step 307, otherwise proceeds to step 308.
[0105]
In step 307, the size of the object to be considered as a target (for example, the vehicle has a width of about 1.2 to 2.2 m, the roadside structure has a width of 0.5 m or less), and the object width W detected in step 303. For example, if the detected object width W corresponds to the width of the vehicle, T = 2 is substituted for the flag T, and the counter T2 (counter when the detected object is a vehicle) is incremented to detect When the object width W corresponds to the size of the roadside structure, T = 1 is substituted for the flag T, and the counter T1 (counter when the detected object is infrastructure) is incremented. T = 0 is assigned to the flag T, and the process proceeds to step 311. 8 Equivalent to the object type determination means). Here, the counter T1 is a value indicating the targetness when the detected object is an infrastructure, and the counter T2 is a value indicating the targetness when the detected object is a vehicle.
[0106]
In step 308, a small area based on the center coordinates (x, y) of the object obtained in step 303 is extracted from the input image of the CCD camera 3, and the central value of the luminance in the extracted image is obtained. For example, in the case of 8-bit resolution, if the central value of luminance does not fall within the range of 77 to 179, the S / N ratio is assumed to be bad, that is, the image is extremely bright or dark, and thus the reliability Is judged to be low, the process proceeds to step 309; otherwise, the process proceeds to step 310.
[0107]
In step 309, counters T1 and T2, which are values indicating targetness, are obtained from the object width W obtained in step 303 and the number n of reflections of the object. 9 Equivalent to the object type determination means). For example, when the width W is in the range of 1.2 to 2.2 m and the number of reflectors n is 3 or less, the target is recognized as a vehicle, T = 2 is substituted for the flag T, and the counter Increment T2. When the width W is 0.5 or less and the number of reflectors n is 1, the target is recognized as a roadside structure, T = 1 is substituted for the flag T, and the counter T1 is set. Increment. In other cases, T = 0 is substituted into the flag T, and the process proceeds to Step 311.
[0108]
In step 310, the image extracted in step 308 is compared with the pattern learned as a target in advance. For example, if the pattern resembles a vehicle pattern, T = 2 is substituted into the flag T and the counter T2 If the pattern is similar to the pattern of the roadside structure, T = 1 is substituted for the flag T and the counter T1 is incremented. Otherwise, T = 0 is substituted for the flag T. Step 311 (Claim 3, 10 Equivalent to the object type determination means).
[0109]
In step 311, whether or not the target is determined by the following expression is determined based on the counters T 1 and T 2 calculated in step 307, step 309, and step 310 and the time t after the object counted in step 304 is detected (claim) Term 3, 12 Equivalent to target determination means).
if (T1 >> T2) (6)
Td = (T1 / t> 0.1) (7)
elseTd = (T2 / t> 0.1) * 2 (8)
Here, (T1 / t> 0.1) in equation (7) means that Td = 1 is substituted if the conditions in parentheses are satisfied, and Td = 0 is substituted otherwise. Similarly, in the case of Expression (8), Td = 2 is substituted if the conditions in parentheses are satisfied, otherwise Td = 0 is substituted. Also, the if statement in equation (6) executes equation (7) when T1 is twice or more and larger than T2, and executes equation (8) otherwise.
[0110]
In step 312, if the Td obtained in step 311 is the same as the values of T1 and T2 obtained in step 307, step 309, and step 310, the process proceeds to step 313, and if not, the process proceeds to step 314.
[0111]
Steps 313 to 317 are the same as steps 206 to 210 in the first embodiment, and are therefore omitted.
[0112]
In step 318, if the distance from the detected object in step 303 is 38 m or less, the process proceeds to step 319, and if not, the process proceeds to step 320.
[0113]
Step 319 is the same as step 211 in the first embodiment, and will be omitted.
[0114]
In step 320, the stable object width W calculated in step 313 is obtained. S And the number of reflectors n when stably detected calculated in step 313 S And the correction of the lateral position x according to the following equation (9) based on the number of reflectors n obtained in step 303, and the process proceeds to step 321. 6 Equivalent to the relative lateral position correcting means).
x (z 0 ) = X (z 0 ) + Dir * (W S / N S ) * Abs (n S -N) ... (9)
Here, “abs ()” is a function that repeats an absolute value, and dir has a value of ± 1 and x (z 0 ) −x (z -1 )> 0, dir = −1, x (z 0 ) −x (z -1 ) <0, dir = + 1. That is, if the distance from the detected object is large, the resolution of the laser radar 1 is lowered, and the accuracy of the calculated object width is also lowered. Therefore, highly accurate and stable object width W S And the number of stable reflectors n S Is used to improve the accuracy of correction.
[0115]
Since step 321 is the same as step 212 in the first embodiment, it is omitted.
[0116]
[Relative lateral position correction]
The entire object cannot be detected and is still stable. S And the number of stable reflectors n S 8 cannot be accurately calculated, the flow proceeds to step 301 → step 302 → step 303 → step 304 → step 305 → step 314 → step 321 in the flowchart of FIG. 8. In step 321, the horizontal position x and the vertical position y The center coordinates (x, y) of the detected object based on the detected value are output.
[0117]
The entire object can be detected and the stable object width W S And the number of stable reflectors n S In the flowchart of FIG. 8, in the flowchart of FIG. 8, the flow proceeds from step 301 to step 302 to step 303 to step 304 to step 305 to step 306. When the distance from the detected object is 40 m or more, If the distance from the detected object is less than 40 m and the S / N ratio in the image data near the object center coordinates is poor, the process proceeds from step 306 to step 308 to step 309. When the distance from the object is less than 40 m and the S / N ratio in the image data near the object center coordinates is good, the process proceeds from step 306 to step 308 to step 310. Then, when the counters T1 and T2 that are target-like values are calculated in either step 307, step 309, or step 310, the process proceeds to step 311 to determine whether or not the detected object is a target, and the counter T1 , T2 and the object determined as the target are the same, the process proceeds from step 312 to step 313, and the stable object is determined based on the width W of the object determined as the target and the number of reflectors n. Width W S And the number of stable reflectors n S Is calculated.
[0118]
The entire object cannot be detected, and the object width W is already stable. S And the number of stable reflectors n S 8 can be accurately calculated, the flow proceeds to step 301 → step 302 → step 303 → step 304 → step 305 → step 314 in the flowchart of FIG. 8, and step 315 (width changing condition) and step 316 (reflection) are performed. If neither the condition of the number of objects) nor the step 317 (partial object detection condition) is satisfied, the process proceeds to step 321 where the center coordinates (x, y) is output.
[0119]
On the other hand, the entire object cannot be detected and is already stable. S And the number of stable reflectors n S Is the time when the width change condition (step 315 ) And the number of reflectors change condition (step 316 ) And part detection conditions (steps) 317 If at least one condition is satisfied, the process proceeds to step 318. In step 318, it is determined whether or not the distance to the detected object is 38 m or less. If it is 38 m or less, the process proceeds to step 319 and the stabilization width W S When the lateral position x is corrected from the difference between the detection width W and the detection width W exceeds 38 m, the process proceeds to step 320, where the stabilization width W S And the number of stabilized reflectors n S And the lateral position x is corrected from the number n of reflective objects. Thereafter, the process proceeds to step 321 to output the center coordinates (x, y) based on the corrected lateral position x.
[0120]
That is, in the second embodiment, in addition to the highly accurate detection of the lateral position x in the first embodiment, the image data from the image processing device 4 is added to the distance information of the laser radar 1 as input information. The detected object can be reliably and accurately captured, and the object width W is stabilized by distance information and image data. S And the number of stable reflectors n S Since the target for calculating is determined, it is possible to realize an object detection device that detects the lateral position x with high accuracy without being affected by the type of the detection object (vehicle, infrastructure structure, etc.).
[0121]
Next, the effect will be described.
[0122]
In the object detection apparatus of the second embodiment, the following effects can be obtained in addition to the effects (1) and (3) to (8) of the first embodiment.
[0123]
(9) In step 303, the center coordinates (x, y) of the object reflecting the electromagnetic wave transmitted around the vehicle, the object width W, and the number of reflectors n are calculated. In step 305, the entire object can be detected. Or In step 305, if it is determined that the whole can be detected, the type of the object is determined in step 307, step 309, or step 310. In step 311, the history of the object type determination result is displayed. In step 313, the stabilized object width W for the target determined based on S Is calculated, When at least one of the width changing condition (step 315), the reflecting object number changing condition (step 316), and the object partial detection condition (step 317) is satisfied, Since the lateral position x of the detected object is corrected in step 319 or step 320, even if a part of the object existing around the host vehicle is out of the detection range of the laser radar 1 and the entire object cannot be detected, the target Stabilized object width W S Therefore, the lateral position of the detected object can be corrected with higher accuracy than in the first embodiment.
[0124]
(10) In step 320, the correction amount of the lateral position x is set to the stabilized object width W. S And the number of reflectors n of one sensing object is determined, so that the distance between the vehicle and the sensing object is far away and the object width W obtained from the current detection result cannot be obtained correctly However, the lateral position x can be obtained with high accuracy.
[0125]
(11) Since the type of the object is determined based on the object width W in step 307, it is not necessary to equip other sensors and the type of the object can be determined with a low-cost system configuration.
[0126]
(12) In step 309, since the type of the object is determined based on the object width W and the number of reflectors n, it is not necessary to equip other sensors, and a low-cost system configuration can be achieved. In addition, the reliability can be relatively improved by considering the number of reflectors n.
[0127]
(13) In step 310, the image data containing the target characteristics prepared in advance is compared with the image data in the vicinity of the center coordinates of the object, and the type of the object is determined. It can be performed.
[0128]
(14) In step 311, the ratio of the times T 1 and T 2 at which the type is determined for each type determined for the object with respect to the time t at which the calculation for determining the type of the object is performed, that is, the type determination of the object Since the target is determined according to the time ratio between the calculated time t and the times T1 and T2 that are determined to be similar to the target, even if the object type determination is not stable, the detected object is reliably set as the target. It can be determined whether or not to handle.
[0129]
(Other examples)
The object detection device of the present invention has been described based on the first embodiment and the second embodiment. However, the specific configuration is not limited to these embodiments, and each claim of the claims Design changes and additions are permitted without departing from the spirit of the invention according to the paragraph.
[0130]
For example, in the first embodiment and the second embodiment, the example in which the object detection device of the present invention is applied to an automatic brake device has been shown. However, in addition to the automatic brake device, an inter-vehicle distance control device, a constant speed travel control device, a lane, etc. The present invention can be applied to an in-vehicle control system that requires information on the relative position of an object (such as a preceding vehicle or an infrastructure structure) with respect to the host vehicle, such as a keep control device or a lane assist control device.
[0131]
In the first embodiment and the second embodiment, the case where there is one detected object has been described. However, when a plurality of objects are detected, the same processing shown in FIGS. 2 and 8 is performed on each object. Do.
[0132]
In the second embodiment, in step 311, counters T <b> 1 and T <b> 2 are times when the type is determined for each type determined for the object with respect to time t when the calculation for determining the type of the object is performed in step 311. In this example, it is determined whether or not the object is a target to be detected for the host vehicle based on the ratio of For each determined type, it may be determined whether or not the object is a target to be detected for the host vehicle based on the ratio of the counters T1 and T2, which are times when the type is determined. 11 Equivalent). In this case, since the target is determined according to the time ratio between the time when the object appears and the time when it is determined to be similar to the target, even if the object type determination is not stable, the detected object is reliably set as the target. It can be determined whether or not to handle.
[Brief description of the drawings]
FIG. 1 is a basic configuration diagram of an invention according to claim 2 and an invention according to claim 3;
FIG. 2 is a diagram showing an automatic brake system to which the object detection device of the first embodiment is applied.
FIG. 3 is a flowchart showing a flow of relative lateral position correction processing executed by the radar processing apparatus of the first embodiment.
FIG. 4 is a diagram illustrating an example when the object width changes in the relative lateral position correction process according to the first embodiment;
FIG. 5 is a diagram illustrating an example of a case where the number of reflectors changes in the relative lateral position correction process of the first embodiment.
FIG. 6 is a diagram illustrating an example when the entire object cannot be detected in the relative lateral position correction process of the first embodiment.
FIG. 7 is a diagram showing an automatic brake system to which an object detection device of a second embodiment is applied.
FIG. 8 is a flowchart showing a flow of relative lateral position correction processing executed by the radar processing apparatus of the second embodiment.
[Explanation of symbols]
1 ... Laser radar (object detection means, reflector position detection means)
2. Radar processing device (object feature recording means)
3 ... CCD camera (image input means)
203, 303 ... Reflector number detection means, relative lateral position detection means, object width detection means
205, 305 ... Whole detection judgment means
206, 313 ... Object width stabilization means
208, 209, 210, 211, 319, 320 ... Relative lateral position correcting means
307, 309, 310 ... Object type determination means
311 ... Target determining means

Claims (12)

自車両周囲に送信した電磁波を反射する反射物の相対位置を検出する反射物位置検出手段と、
前記反射物位置検出手段の検出結果に基づき、一つの物体が有する反射物の個数を検出する反射物数検出手段と、
前記反射物位置検出手段の検出結果に基づき、前記物体の相対横位置を算出する相対横位置算出手段と、
前記反射物位置検出手段の検出結果に基づき、前記物体の幅を算出する物体幅算出手段と、
前記反射物位置検出手段の検出結果に基づき、前記反射物位置検出手段の検出範囲の端に前記物体が存在せず、かつ、手前に存在する他の物体により前記物体の一部が隠されていない、という条件が満たされるか否かを判断することで、前記物体の全体を前記反射物位置検出手段により検出しているか否か判断する全体検出判断手段と、
前記物体幅算出手段で算出された前回の物体幅と今回の物体幅が所定値以上異なる場合、前記反射物数検出手段で検出された前回の反射物の個数と今回の反射物の個数が異なる場合、及び、前記物体の全体を前記反射物位置検出手段により検出していないと前記全体検出判断手段が判断した場合、の少なくとも1つの条件を満たすと、前記物体幅算出手段算出された物体幅に基づき、前記相対横位置算出手段の算出結果を補正する相対横位置補正手段と、
を備えたことを特徴とする物体検知装置。
Reflector position detecting means for detecting the relative position of the reflector that reflects the electromagnetic wave transmitted around the vehicle,
Reflector number detection means for detecting the number of reflectors of one object based on the detection result of the reflector position detection means;
A relative lateral position calculating means for calculating a relative lateral position of the object based on a detection result of the reflector position detecting means;
An object width calculating means for calculating the width of the object based on the detection result of the reflector position detecting means;
Based on the detection result of the reflection object position detecting means, wherein there is no the object to the edge of the detection range of the reflective object position detection means, and by other objects present in front hidden part of the object Determining whether or not the condition is not satisfied, and determining whether or not the entire object is detected by the reflector position detecting means ,
When the previous object width calculated by the object width calculation unit and the current object width are different from each other by a predetermined value or more, the number of the previous reflections detected by the reflection number detection unit is different from the number of the current reflections. And the object calculated by the object width calculating means when at least one of the conditions is satisfied when the whole detection determining means determines that the entire object is not detected by the reflector position detecting means A relative lateral position correcting means for correcting a calculation result of the relative lateral position calculating means based on a width;
An object detection device comprising:
請求項1に記載の物体検知装置において、
前記全体検出判断手段により全体を検出していると判断された前記物体に対し、前記物体幅算出手段で算出された物体幅を、所定の伝達関数を用いたフィルタ処理により安定化する物体幅安定化手段を設け
前記相対横位置補正手段は、前記物体幅安定化手段により安定化された物体幅に基づき、前記相対横位置算出手段の算出結果を補正することを特徴とする物体検知装置。
The object detection apparatus according to claim 1,
Object width stabilization for stabilizing the object width calculated by the object width calculation means for the object determined to be detected by the whole detection determination means by filtering using a predetermined transfer function providing a means,
The relative lateral position correcting means based on the stabilized object width by the object width stabilizing means, object detecting device comprising a Turkey to correct the calculation result of the relative lateral position calculating means.
請求項2に記載の物体検知装置において、
前記全体検出判断手段により全体を検出していると判断された前記物体に対し、前記物体の種別を判断する物体種別判断手段と、
前記物体種別判断手段の判断結果の履歴に基づき、前記物体が自車両にとって検出すべきターゲットか否か決定するターゲット決定手段と、を設け、
前記物体幅安定化手段は、前記ターゲット決定手段によりターゲットと決定された前記物体に対し、前記物体幅算出手段で算出された物体幅を安定化することを特徴とする物体検知装置。
The object detection device according to claim 2,
Object type determination means for determining the type of the object for the object determined to be detected as a whole by the whole detection determination means;
A target determining unit that determines whether or not the object is a target to be detected for the host vehicle based on a history of determination results of the object type determining unit ;
The object width stabilizing means, the relative said object is determined as a target by the target determining unit, an object detecting device comprising a Turkey to stabilize the object width calculated by said object width calculating means.
請求項2または請求項3に記載の物体検知装置において、
前記相対横位置補正手段は、前記物体幅安定化手段により安定化された物体幅と、前記反射物数検出手段で検出された反射物の個数とに基づき、前回の物体幅と今回の物体幅との差の閾値である前記所定値を定めることを特徴とする物体検知装置。
In the object detection device according to claim 2 or 3,
The relative lateral position correcting means is based on the object width stabilized by the object width stabilizing means and the number of reflectors detected by the reflector number detecting means, the previous object width and the current object width. An object detection device characterized in that the predetermined value, which is a threshold value of the difference between the two, is determined .
請求項2または請求項3に記載の物体検知装置において、
前記相対横位置補正手段は、前記物体幅算出手段で算出された物体幅と、前記物体幅安定化手段により安定化された物体幅との差に基づいて、前記相対横位置算出手段の算出結果を補正することを特徴とする物体検知装置。
In the object detection device according to claim 2 or 3,
The relative lateral position correcting means calculates the relative lateral position calculating means based on the difference between the object width calculated by the object width calculating means and the object width stabilized by the object width stabilizing means. The object detection device characterized by correcting.
請求項2または請求項3に記載の物体検知装置において、
前記相対横位置補正手段は、前記物体幅安定化手段により安定化された物体幅と、前記反射物数検出手段で検出された反射物の個数とに基づいて、前記相対横位置算出手段の算出結果を補正することを特徴とする物体検知装置。
In the object detection device according to claim 2 or 3 ,
The relative lateral position correcting means, said a stabilized object width by the object width stabilization means, and based on the a number of the reflector speed detected reflected object by the detection means, of the relative lateral position calculating means An object detection apparatus characterized by correcting a calculation result .
請求項2または請求項3に記載の物体検知装置において、
前記物体幅安定化手段は、前記物体幅算出手段で算出された物体幅を安定化するためのフィルタ処理の演算が所定回数以上連続で実施された場合に、該演算結果を安定化された物体幅として出力することを特徴とする物体検知装置。
In the object detection device according to claim 2 or 3,
The object width stabilizing unit is configured to stabilize the calculation result when the filter processing for stabilizing the object width calculated by the object width calculating unit is continuously performed a predetermined number of times or more. An object detection device characterized by outputting as a width .
請求項3に記載の物体検知装置において、
前記物体種別判断手段は、前記物体幅算出手段で算出された物体幅に基づき、前記物体の種別を判断することを特徴とする物体検知装置。
The object detection device according to claim 3 ,
The object type determining unit determines the type of the object based on the object width calculated by the object width calculating unit .
請求項3に記載の物体検知装置において、
前記物体種別判断手段は、前記物体幅算出手段で算出された物体幅と、前記反射物数検出手段で検出された反射物の個数とに基づき、前記物体の種別を判断することを特徴とする物体検知装置。
The object detection device according to claim 3 ,
The object type determination means determines the type of the object based on the object width calculated by the object width calculation means and the number of reflection objects detected by the reflection object number detection means. Object detection device.
請求項3に記載の物体検知装置において、
前記物体種別判断手段は、自車両周囲の画像を取り込む画像入力手段と、物体の種別ごとの特徴を画像データとして記録する物体特徴記録手段と、を有し、前記画像入力手段に取り込まれた物体の画像と、前記物体特徴記録手段に記録された物体の種別ごとの画像データとを比較した結果に基づき、前記物体の種別を判断することを特徴とする物体検知装置。
The object detection device according to claim 3 ,
The object type determining means includes an image input means for capturing an image around the host vehicle, and an object feature recording means for recording a feature for each object type as image data, and the object captured by the image input means An object detection apparatus that determines the type of the object based on a result of comparing the image of the image and image data for each type of object recorded in the object feature recording unit .
請求項3に記載の物体検知装置において、
前記ターゲット決定手段は、前記反射物位置検出手段により前記物体を検出している時間に対する、前記物体種別判断により前記物体に対して判断した種別毎に、その種別を判断した時間の割合に基づき、前記物体が自車両にとって検出すべきターゲットか否か決定することを特徴とする物体検知装置。
The object detection device according to claim 3,
The target determining means, for each type determined for the object by the object type determination relative to the time when the object is detected by the reflector position detection means, based on the ratio of the time determined the type, An object detection apparatus for determining whether or not the object is a target to be detected for the host vehicle .
請求項3に記載の物体検知装置において、
前記ターゲット決定手段は、前記物体種別判断手段により前記物体の種別を判断する演算を行った時間に対する、前記物体種別判断手段により前記物体に対して判断した種別毎に、その種別を判断した時間の割合に基づき、前記物体が自車両にとって検出すべきターゲットか否か決定することを特徴とする物体検知装置。
The object detection device according to claim 3,
The target determining unit is configured to calculate the time for which the type is determined for each type determined for the object by the object type determining unit with respect to the time for performing the calculation for determining the type of the object by the object type determining unit. An object detection apparatus that determines whether the object is a target to be detected for the host vehicle based on the ratio .
JP2001099036A 2001-03-30 2001-03-30 Object detection device Expired - Fee Related JP4719996B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001099036A JP4719996B2 (en) 2001-03-30 2001-03-30 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001099036A JP4719996B2 (en) 2001-03-30 2001-03-30 Object detection device

Publications (2)

Publication Number Publication Date
JP2002296350A JP2002296350A (en) 2002-10-09
JP4719996B2 true JP4719996B2 (en) 2011-07-06

Family

ID=18952632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001099036A Expired - Fee Related JP4719996B2 (en) 2001-03-30 2001-03-30 Object detection device

Country Status (1)

Country Link
JP (1) JP4719996B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005005206A1 (en) 2003-07-11 2005-01-20 Toyota Jidosha Kabushiki Kaisha Crash-safe vehicle control system
JP4163695B2 (en) * 2005-03-16 2008-10-08 本田技研工業株式会社 Leading vehicle recognition device
JP4859453B2 (en) * 2005-12-16 2012-01-25 ダイハツ工業株式会社 Vehicle target recognition device
JP2010249690A (en) * 2009-04-16 2010-11-04 Honda Motor Co Ltd Object detecting device for vehicle
JP5208086B2 (en) * 2009-10-15 2013-06-12 本田技研工業株式会社 Object detection device
JP5694831B2 (en) * 2011-03-31 2015-04-01 本田技研工業株式会社 Vehicle object detection device
JP5812061B2 (en) 2013-08-22 2015-11-11 株式会社デンソー Target detection apparatus and program
JP5949721B2 (en) * 2013-10-10 2016-07-13 株式会社デンソー Predecessor selection device
JP6645254B2 (en) 2016-02-23 2020-02-14 株式会社デンソー Object recognition device
JP6493280B2 (en) * 2016-04-01 2019-04-03 株式会社デンソー Object detection device and object detection method
KR102417613B1 (en) * 2018-01-05 2022-07-07 현대자동차주식회사 Vehicle, and control method for the same
KR20200040374A (en) * 2018-10-10 2020-04-20 삼성전자주식회사 Method and device to estimate distance
JP7149172B2 (en) * 2018-11-28 2022-10-06 日産自動車株式会社 Object recognition method and object recognition device
JP7216695B2 (en) * 2020-11-04 2023-02-01 本田技研工業株式会社 Surrounding vehicle monitoring device and surrounding vehicle monitoring method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000121730A (en) * 1998-10-19 2000-04-28 Honda Motor Co Ltd Obstacle detecting device for vehicle

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2986567B2 (en) * 1991-03-13 1999-12-06 松下電器産業株式会社 Inter-vehicle distance measuring device
JP3125550B2 (en) * 1993-12-24 2001-01-22 日産自動車株式会社 Vehicle forward recognition device and vehicle travel control device
JP3235330B2 (en) * 1994-03-25 2001-12-04 株式会社デンソー Vehicle obstacle warning device
JP3521292B2 (en) * 1995-02-15 2004-04-19 マツダ株式会社 Car driving control device
JP3942722B2 (en) * 1998-02-16 2007-07-11 本田技研工業株式会社 In-vehicle radar system
JPH11345394A (en) * 1998-06-03 1999-12-14 Mitsubishi Electric Corp Ambient monitoring device for vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000121730A (en) * 1998-10-19 2000-04-28 Honda Motor Co Ltd Obstacle detecting device for vehicle

Also Published As

Publication number Publication date
JP2002296350A (en) 2002-10-09

Similar Documents

Publication Publication Date Title
US6990216B2 (en) Method and apparatus for estimating inter-vehicle distance using radar and camera
US5617085A (en) Method and apparatus for monitoring the surroundings of a vehicle and for detecting failure of the monitoring apparatus
JP4308381B2 (en) Perimeter monitoring sensor
US9053554B2 (en) Object detection device using an image captured with an imaging unit carried on a movable body
JP4719996B2 (en) Object detection device
JP6988200B2 (en) Vehicle control device
JP3718747B2 (en) Vehicle travel control device
US20010031068A1 (en) Target detection system using radar and image processing
JP3230642B2 (en) Vehicle ahead detection device
JP2018200267A (en) Upper structure determination device and driving support system
US8102421B2 (en) Image processing device for vehicle, image processing method of detecting three-dimensional object, and image processing program
JP3925285B2 (en) Road environment detection device
JP3600314B2 (en) External environment recognition device for vehicles
JP5103722B2 (en) Stop vehicle discrimination device
JP4110922B2 (en) Vehicle external recognition device
JP7401273B2 (en) Mobile body control device and method
US20230182728A1 (en) Collision determination apparatus, collision determination method, collision avoidance system
JP3235831B2 (en) Stereo exterior monitoring device
JP6818902B6 (en) Vehicle detection system
JPH0659033A (en) Precedent vehicle detector
JP2004153627A (en) Outside recognition device for vehicle
JPH08329397A (en) Vehicle recognition device and vehicle approach reporting device using same
JPH05113482A (en) Rear end collision prevention device mounted on car
JP2009031299A (en) Peripheral monitoring sensor
JP4013732B2 (en) Vehicle external recognition device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041122

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050830

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees