JP2004125636A - On-vehicle laser radar device - Google Patents

On-vehicle laser radar device Download PDF

Info

Publication number
JP2004125636A
JP2004125636A JP2002290660A JP2002290660A JP2004125636A JP 2004125636 A JP2004125636 A JP 2004125636A JP 2002290660 A JP2002290660 A JP 2002290660A JP 2002290660 A JP2002290660 A JP 2002290660A JP 2004125636 A JP2004125636 A JP 2004125636A
Authority
JP
Japan
Prior art keywords
vehicle
image
road surface
angle
average value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002290660A
Other languages
Japanese (ja)
Inventor
Takashi Sugino
杉野 孝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2002290660A priority Critical patent/JP2004125636A/en
Publication of JP2004125636A publication Critical patent/JP2004125636A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent deterioration in detection accuracy of a laser radar device caused by splashes. <P>SOLUTION: This laser radar device 2 acquires a two-dimensional scan image by using a laser beam to two-dimensionally scan the backside of a vehicle or the front side thereof, calculates a pixel average value on the scan image, subtracts the average value from the scan image, and determines whether or not a two-dimensional image includes a true target object after the subtraction. Since the average value on the scan image has a value close to pixel values of target objects such as splashes scattered in a wide area while the pixel value of a target object such as a following vehicle has a value exceeding the average value, the target object buried in splashes and the like can be correctly detected by performing the subtraction process. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、車載用レーザレーダ装置に関する。詳しくは、自車に追突するおそれがある後続車の検出(自車の後方監視)、又は、自車が追突するおそれがある先行車の検出(自車の前方監視)に用いられる車載用レーザレーダ装置の改良に関する。
【0002】
【従来の技術】
レーザー
【LASER】〔Light Amplification by Stimulated Emission of Radiation〕とは、振動数が光の領域にある電磁波のことをいう。単波長で位相の揃った光(コヒーレントな光という。)であるため、低減衰で且つ拡散しにくい強い光が得られる。邦訳は「放射の誘導放出による光の増幅」である。また、
レーダ
【RADAR】〔RAdio Detection And Ranging〕とは、電磁波を使って物体を探知し、その位置(距離や方位等)を測定する測距装置のことをいう。したがって、レーザレーダ装置とは、特に「振動数が光の領域にある電磁波」を使った測距装置のことをいう。電波を使用しないため、法律(電波法)の制限を受けないというメリットがある。
【0003】
今日、自動車等の車両には様々な安全支援装置が搭載されており、たとえば、レーザレーダ装置を利用して、自車に追突するおそれがある後続車の検出を行う後方監視装置が知られている(たとえば、特許文献1参照。)。
【0004】
この後方監視装置は、自車の後方に向けてレーザビームを発射し、その反射光より、自車と後続車との間の実車間距離を計測し、前記実車間距離及び自車の速度(自車速)から後続車の車速(後続車速度)を算出し、前記自車速及び後続車速度に基づいて自車と後続車との間の安全車間距離を算出し、前記実車間距離が安全車間距離より短くなったときに、自車のストップランプ(ブレーキランプ)を点灯させるなどして、後続車の運転者に注意を喚起するようにしている。
【0005】
ところで、車両の走行は晴天時に限らず、降雨時や降雨後の走行も当然あり得る。このような場合、とりわけ雨量が多い場合、車両特有の問題として、自車や先行車のタイヤで跳ね上げられた水膜(スプラッシュという。)により、レーザレーダ装置の検出精度が低下することがある。そこで、かかるスプラッシュに着目した技術(以下「従来技術」という。)が知られている(たとえば、特許文献2参照。)。
【0006】
【特許文献1】
実用新案登録第2565672号公報
【特許文献2】
特開2001−357497号公報
【0007】
【発明が解決しようとする課題】
しかしながら、上記の従来技術は、
「自車に追突するおそれがある後続車は自車レーンを走行して自車に接近する後続車であるから、このような後続車をレーザレーダ装置で検出して監視すべきである」ことを指摘したうえ、
「自車レーン(路面の白線)の認識は、従来からCCDカメラ等の光学的画像認識手段を用いて行われていたところ、雨天時等の走行にあっては、自車のスプラッシュによって前記光学的画像認識手段による白線認識が不能となる」という課題を示し、
それの対策を開示しているものの、当該対策は、
「自車の車速を検出する車速検出手段と、自車のヨーレートを検出するヨーレート検出手段と、車速とヨーレートから自車の走行軌跡を推定する走行軌跡推定手段と、レーザレーダ装置により検出された後方車両のうち、前記走行軌跡付近を走行している後続車を検出する後続車検出手段と」を主たる要素として備えるものに過ぎず、
要するに、上記の従来技術は、確かに「スプラッシュ」に着目してはいるが、そのスプラッシュによって引き起こされる問題(レーザレーダ装置の検出精度の低下問題)を何ら解決するものではなく、ここに、本発明の意図する技術課題がある。
【0008】
そこで本発明の究極の課題は、スプラッシュによって引き起こされるレーザレーダ装置の検出精度の低下問題を解決することにある。
【0009】
【課題を解決するための手段】
この発明による車載用レーザレーダ装置は、レーザビームを用いて車両後方又は車両前方を二次元スキャンしてその二次元スキャン画像を取得する画像取得手段と、前記二次元スキャン画像の画素平均値を算出する平均値算出手段と、前記二次元スキャン画像から前記画素平均値を減算する減算手段と、前記減算手段による減算後の二次元画像に真の目標物が含まれているか否かを判定する判定手段とを備えたことを特徴とするものである。
ここで、「真の目標物」とは、レーザビームのスキャン方向が車両後方の場合は自車に追突するおそれがある“後続車”のことをいい、同スキャン方向が車両前方の場合は自車が追突するおそれがある“先行車”のことをいう。
この発明では、二次元スキャン画像の画素平均値はスプラッシュ等のような広い範囲に散在する目標物の画素値に近い値を持つ一方、後続車等の目標物の画素値は上記の平均値を上回る値を持つから、上記の減算処理を行うことにより、スプラッシュ等に埋もれた目標物を正しく検出できる。
また、この発明による車載用レーザレーダ装置は、レーザビームを用いて車両後方又は車両前方を二次元スキャンしてその二次元スキャン画像を取得する画像取得手段と、前記二次元スキャン画像から路面に相当する画像部分を抽出する抽出手段と、前記抽出手段によって抽出された路面に相当する画像から路面角度を特定する特定手段と、前記二次元スキャン画像の前記路面角度以上の部分の画素平均値を算出する平均値算出手段と、前記二次元スキャン画像から前記画素平均値を減算する減算手段と、前記減算手段による減算後の二次元画像に真の目標物が含まれているか否かを判定する判定手段とを備えたことを特徴とするものである。
ここで、「路面角度」とは、自車位置から十分遠方に離れた路面上を照射するレーザビームのスキャン角度(垂直方向のスキャン角度)のことをいう。監視方向の路面が平坦な場合、路面角度は0度ないし若干の負仰角になる。または、監視方向の路面が遠方になるにつれて高度が上がる坂道の場合は路面角度は正の仰角になり、あるいは、監視方向の路面が遠方になるにつれて高度が下がる坂道の場合は路面角度は負の仰角になる。「路面角度」を「路面高」と言い換えてもよい。「路面角度」は、自車位置の高さと自車位置から十分遠方に離れた路面上の高さとの相対関係を表すからである。
この発明では、二次元スキャン画像の画素平均値として、路面角度以上の部分の画素平均値が採用されるので、路面の画像に影響されることなく、スプラッシュ等に埋もれた目標物を正しく検出できる。
また、この発明の好ましい態様は、前記抽出手段は、前記二次元スキャン画像に含まれる画像の中から、前記レーザビームの低仰角側で距離方向の幅が狭く且つ仰角が大きくなるにつれて距離方向の幅が広くなる傾向を持つ画像を、前記路面に相当する画像部分として抽出することを特徴とするものである。
ここで、自車から発射された二つのレーザビーム(便宜的にレーザビームA、レーザビームBとする。)を考える。これら二つのレーザビームA、Bの仰角をそれぞれφa(レーザビームAの仰角)、φb(レーザビームBの仰角)とし、φa<φb<0度とすると、レーザビームA、Bはいずれも0度以下の低仰角ビームであり、φa<φbであるから、レーザビームAはレーザビームBよりも自車に近い位置を照射する。さらに、これら二つのレーザビームA、Bは所定の垂直ビーム幅を有している。したがって、レーザビームAの照射点における路面の検知長(実施の形態の説明ではD1)は、レーザビームBの照射点における路面の検知長(実施の形態の説明ではD2)よりも短くなる。つまり、車載用レーザレーダ装置によって検知される路面の形状は、自車に接近した位置においては実際の路面の形状に対応せず自車に近いほど短く検知される。前記好ましい態様における抽出手段は、この原理を応用して、二次元スキャン画像の中から路面に相当する画像部分を抽出する。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態を、自車に追突するおそれがある後続車の検出を行う「後方監視装置」を例にして説明する。
【0011】
なお、以下の説明における様々な細部の特定ないし実例および数値や文字列その他の記号の例示は、本発明の思想を明瞭にするための、あくまでも参考であって、それらのすべてまたは一部によって本発明の思想が限定されないことは明らかである。また、周知の手法、周知の手順、周知のアーキテクチャおよび周知の回路構成等(以下「周知事項」)についてはその細部にわたる説明を避けるが、これも説明を簡潔にするためであって、これら周知事項のすべてまたは一部を意図的に排除するものではない。かかる周知事項は本発明の出願時点で当業者の知り得るところであるので、以下の説明に当然含まれている。
【0012】
図1は、後方監視装置の全体的ブロック図である。後方監視装置1は、レーザレーダ装置(車載用レーザレーダ装置)2、車速検知部3、ヨーレート検知部4、ECU(電子制御ユニット)5、ストップランプ6、警告灯7、ブザー8、ハザードランプ9及びシートベルト装置10などを含んで構成される。
【0013】
レーザレーダ装置2は、装置全体の動作を統括制御する制御回路(画像取得手段)2aと、一対の光学レンズ(投光レンズ2bと受光レンズ2c)をXY方向(X方向は車両の高さ方向、Y方向は車両の車幅方向)にスキャンするレンズ駆動装置2dと、制御回路2aからの制御信号に従ってレンズ駆動装置2dを駆動するための駆動信号を生成出力するスキャン用回路2eと、制御回路2aからの制御信号に従って発光素子(LD:レーザダイオード)2fを点灯駆動する投光用回路2gと、受光素子(PD:フォトダイオード)2hで受光された光を電気信号に変換して制御回路2aに出力する受光用回路2iと、画像処理(詳細は後述)のための二次元メモリ2jとを備える。
【0014】
図2は、レーザレーダ装置2(特にレーザ光の受発光部分)の正面図である。発光素子2fと受光素子2hの前方に位置する投光レンズ2b及び受光レンズ2cは、シャフト2k、2mを介してレンズ駆動装置2dに一体的に連結されており、シャフト2k、2mは、レンズ駆動装置2d(内のリニアモータ)によってそれぞれ上下左右に駆動される。レンズ駆動装置2dによってシャフト2kが所定の距離範囲αで左右駆動されると、投光レンズ2b及び受光レンズ2cの光軸を同距離範囲αでスキャン(車両の車幅方向のスキャン)するようになっている。同様に、レンズ駆動装置2dによってシャフト2mが所定の距離範囲βで上下駆動されると、投光レンズ2b及び受光レンズ2cの光軸を同距離範囲βでスキャン(車両の高さ方向のスキャン)するようになっている。
【0015】
図3は、レーザレーダ装置2のスキャン概念図である。この図において、投光レンズ2bを通して自車後方に発射されたレーザビーム11は、自車の車幅方向(Y方向)に所定の角度範囲(上記の距離範囲αに対応する角度範囲;以下、説明の都合上、この角度範囲もαとする。)でスキャンされると共に、自車の高さ方向(X方向)に所定の角度範囲(上記の距離範囲βに対応する角度範囲;以下、説明の都合上、この角度範囲もβとする。)でスキャンされるため、これらのXYスキャンにより、自車後方の対象物(後続車12や路面13など)を検出することができる。なお、図示のレーザビーム11の断面形状は、縦長の楕円形になっている。これは、自車の車幅方向(Y方向)のビーム幅を狭くすることによって当該方向の分解能(水平分解能)を高めるためであるが、所要の分解能を得られれるのであれば、他の断面形状、たとえば、円形や横長の楕円形であってもよい。
【0016】
図4(a)は、横方向から見たレーザレーダ装置2のスキャン概念図である。この図において、自車の高さ方向(X方向)に所定の角度範囲βでスキャンされる各々のレーザビーム11のうち、低仰角のレーザビーム11L_1及び11L_2は自車14の後方直近の路面13を照射し、中仰角のレーザビーム11Mは後続車12を照射し、高仰角のレーザビーム11Hは空中に放射されている。
【0017】
ここで、自車14から低仰角のレーザビーム11L_1及び11L_2の照射点までの距離をそれぞれR1、R2とすると、R1<R2であり、且つ、レーザビーム11は、所定の垂直ビーム幅を有するので、図4(b)に示すように、距離R1における路面13の検知長D1は、距離R2における路面13の検知長D2よりも短くなる。つまり、レーザレーダ装置2によって検知される路面13の形状は、自車14に接近した位置においては実際の路面13の形状に対応せず自車14に近いほど短く検知される。この原理は、後述の「路面角度検知」(図7のステップS13b)で利用する。
【0018】
次に、レーザレーダ装置2の作用を説明する。
図5は、レーザレーダ装置2の制御回路2aにおいて、所定の演算周期毎に繰り返し実行される制御プログラムのフローチャートを示す図である。
【0019】
制御回路2aは、このフローチャートに従い、まず、レンズ駆動装置2dを駆動して投光レンズ2bと受光レンズ2cを車幅方向(Y方向)に1駆動ステップ移動する(ステップS11)。なお、“駆動ステップ”とは、車幅方向(Y方向)のスキャン角度(α)をレーザビーム11の水平ビーム半値幅に相当する角度θで割ったときに、その除算結果を最大の駆動ステップ番号(max)とする「第1」から「第max」までの駆動ステップのことである。たとえば、便宜的に、α=5度、θ=0.1度とすると、除算結果は「5÷0.5=10」であるから、第1から第10までの駆動ステップとなる。
【0020】
次に、そのY方向の駆動ステップ位置を保持したまま、レンズ駆動装置2dを駆動して投光レンズ2bと受光レンズ2cを車高方向(X方向)に所定の角度範囲βで1回スキャンしつつ、発光素子2fを点灯駆動して、そのスキャンの間に受光素子2hで受光された信号を取り込み、二次元メモリ2jに格納(ステップS12)した後、以上の処理(ステップS11及びステップS12)を車幅方向の所定の角度範囲αについて繰り返す。
【0021】
そして、同角度範囲α内のすべての駆動ステップ(前記の便宜例に従えば第1〜第10の駆動ステップ)について以上の処理を完了すると(ステップS13の“YES”)、ループを抜けて後述の「後続車検知処理」(ステップS14)を実行し、次いで、その後続車検知結果をECU5に出力(ステップS15)する。
【0022】
ECU5は、レーザレーダ装置2から出力された後続車検知結果に基づいて、自車と後続車との間の実車間距離を計測し、この実車間距離と車速検知部3で検知された自車の速度(自車速)とから後続車の車速(後続車速度)を算出し、自車速及び後続車速度に基づいて自車と後続車との間の安全車間距離を算出し、前記実車間距離が安全車間距離より短くなったときに、ストップランプ6を点灯(又は点滅)したり、ハザードランプ9を点滅したりして後続車の運転者に注意を喚起すると共に、警告灯7を点灯(又は点滅)したり、ブザー8を鼓動したりして自車の運転者に後続車の接近を警告し、又、シートベルト装置10のプリテンションを作動して、万が一の事態(追突)に備えるという安全対策を実行する。
【0023】
次に、前記のステップS12において、二次元メモリ2jに格納される情報の一例について説明する。
図6は、二次元メモリ2jの情報格納概念図である。この図において、二次元メモリ2jは縦軸を角度(レーザビーム11のX方向のスキャン角度)、横軸を距離(自車14からレーザビーム11の反射点までの距離)とする二次元マップの記憶空間を有している。二次元メモリ2jは任意の角度で且つ任意の距離から反射されてきたレーザビーム11の反射光の強さに応じた情報をそれらの角度と距離の交差点に記憶するものであり、要するに、角度と距離の二次元画像を格納する画像メモリに相当するものである。
【0024】
今、図示の二次元メモリ2jには、次の三つの対象物の画像が格納されている。第一は、路面13の画像(以下「路面画像13a」という。)である。先にも説明したとおり、路面画像13aは自車14の近くで路面幅D1が狭く、遠くになるほど路面幅D2が広くなる特性を持っている。すなわち、自車14からの距離が遠くなるほど路面幅が徐々に拡大し、ある距離(レーザビーム11のX方向のスキャン角度がほぼ水平のとき)以上で途切れて見えなくなる特性を持っている。したがって、路面画像13aが途切れて見えなくなったときの角度(又はその角度に若干のマージン角度を加えた角度)を「路面角度」として捉えることができる。
【0025】
第二は、後続車12の画像(以下「後続車画像12a」という。)である。後続車画像12aと前記の路面画像13aとの違いは、後続車画像12aは「路面角度」よりも角度的に上に位置し、且つ、後続車画像12aは一つの塊となって観察される(路面画像13aのように自車14の近くからある距離にかけて連続するような広域的分布の画像ではない。)点にある。後続車画像12aは発明の要旨に記載の“真の目標物”に相当する。
【0026】
以上のとおり、第一の画像(路面画像13a)と第二の画像(後続車画像12a)の間には、上記の明確な違いがあるから、この違いを利用して両者を区別し、自車14に追突するおそれがある後続車12を正しく検出することができる。
【0027】
さて、本発明の課題は、スプラッシュによって引き起こされるレーザレーダ装置2の検出精度の低下問題を解決することにある。
本件発明者らによれば、スプラッシュによる画像は、上記の第一の画像(路面画像13a)や第二の画像(後続車画像12a)と異なる特徴を有すること、具体的には、図6に示すように、スプラッシュによる画像(以下「スプラッシュ画像16」)は、広角度、且つ、近距離から中遠距離までの広範囲に満遍なく分布する点で、上記の第一の画像(路面画像13a)や第二の画像(後続車画像12a)と明らかに異なる特徴を示すこと、さらに、当該画像(スプラッシュ画像16)の画素値は、平均的に、第一の画像(路面画像13a)や第二の画像(後続車画像12a)の画素値よりも小さいという特徴を有することに着目し、これらの特徴を利用して、スプラッシュ画像16に埋もれた第二の画像(後続車画像12a)を検出することとにした。
【0028】
ちなみに、「スプラッシュ画像16の画素値が、平均的に、路面画像13aや後続車画像12aの画素値よりも小さい」ことの理由は、路面13や後続車12からの反射レーザ光の強度が充分に大きいのに比べて、水滴(スプラッシュは要するに水滴の集まりである。)の表面で散乱する反射レーザ光の強度は相当に弱くなるからである。
【0029】
図7は、後続車検知処理(図5のステップS14)のサブルーチンを示すフローチャートである。
このフローチャートでは、まず、車速検知部3から自車14の車速を取り込み、当該車速の変化度合い(たとえば、微分値)から、自車14の加減速度を計算する。そして、その加減速度が所定の減速度(たとえば、−0.1G程度)と所定の加速度(たとえば、+0.1G程度)の範囲内にあり、且つ、0以外の加減速度であるか否かを判定する(ステップS13a)。これらの加減速度判定条件は、要するに、自車14が非停車状態(加減速度≠0)で、且つ、急加速や急減速を伴わない定速走行中であるか否かを判定していることになる。
【0030】
そして、加減速度判定条件を満たしている場合は、次に、路面の見えなくなる角度θを求め(ステップS13b;抽出手段)、その角度θを学習(たとえば、イグニッションON時から現在までの角度θの平均値を求め、これを路面角度とする。)してその学習結果を「路面角度」(図6参照)にセットし(ステップS13c;特定手段)、以降の処理(ステップS13d〜ステップS13f;判定手段)に進む一方、加減速度判定条件を満たしていない場合は、上記のステップS13b及びステップS13cをパスし、以降の処理(ステップS13d〜ステップS13f)に進む。
【0031】
ここで、上記の加減速度判定条件のうち定速走行中であるか否かの判定条件は、急加速や急減速を行うと、車体の後部が沈み込み(急加速の場合)又は浮き上がる(急減速の場合)ため、その車両のサスペンションの堅さにもよるが、たとえば、−0.1G程度以下の減速度や+0.1G程度以上の加速度が車体に作用した場合に、上記の沈み込みや浮き上がりに伴い、レーザビーム11の光軸が車体の高さ方向(X方向)に相当量(1度以上)傾くからであり、このような傾きを持ったままのレーザビーム11で路面角度を学習しても、その路面角度は充分な信頼性を得られないからである。
【0032】
この理由から、本実施の形態では、充分な信頼性で路面角度を学習するために、上記の「定速走行中であるか否かの判定条件」を加えているのである。また、他の判定条件(非停車状態;加減速度≠0)は、急加減速を伴わない走行中にのみ、路面角度を学習することとしたものであり、その理由は、非停車状態にないとき(つまり、自車14が停車状態にあるとき)は、追突の危険に注意を払うべきであり、路面角度の学習よりもむしろ後続車12の接近に最大限の関心を払うべきであるからである。
【0033】
なお、上記のステップS13aでは、車速検知部3で検知された車速から自車14の加減速度を計算しているが、たとえば、加速度センサ等の加減速度検出手段を備えておき、その出力信号を利用してもよいことはもちろんである。
【0034】
路面角度の学習を完了すると、次に、二次元メモリ2jの格納情報から、自車14に追突するおそれがある後続車12を検出する処理(ステップS13d及びステップS13e;平均値算出手段、減算手段)を実行する。
【0035】
図8(a)〜(c)は、上記処理、すなわち、二次元メモリ2jの格納情報から、自車14に追突するおそれがある後続車12を検出する処理の概念図である。図8(a)において、A及びBは代表的に示す二つの画像抽出対象距離である。距離Aと交わる波線A′及び距離Bと交わる波線B′は、それらの距離(A、B)に対応した抽出画像の取り出し線である。以下、便宜的に、波線A′に沿って取り出された抽出画像を第A抽出画像17ということにし、波線B′に沿って取り出された抽出画像を第B抽出画像18ということにする。第A抽出画像17はスプラッシュ画像16のみで形成されており、第B抽出画像18はスプラッシュ画像16に埋もれた後続車画像12を含んでいる。
【0036】
さて、先にも説明したとおり、スプラッシュ画像16の画素値に対して、後続車画像12aの画素値は大きい値を持っている。スプラッシュ画像16は、水滴で散乱した弱い反射レーザ光によって形成されるからである。
【0037】
図8(b)に示すように、第A抽出画像17の画素値の分布は角度の大小に関わらず概ね一定しているが、図8(c)に示すように、第B抽出画像18の画素値の分布は、後続車画像12aの存在角度度域で突出しているため、これら二つの抽出画像(第A抽出画像17と第B抽出画像18)の各々の平均値Aave、Baveを取り、第A抽出画像17の画素値から第A抽出画像17の平均値Aaveを減算し、且つ、第B抽出画像18の画素値から第B抽出画像18の平均値Baveを減算することにより、図8(b)、(c)の右図に示すような結果を得ることができる。
【0038】
すなわち、減算後の第A抽出画像17′は、ほぼノイズ分程度の無益情報しか残らないのに対して、減算後の第B抽出画像18′は、後続車画像12aに対応する有益情報が残る。
【0039】
したがって、上記の減算結果(第A抽出画像17′及び第B抽出画像18′)で、二次元メモリ2jの格納情報(路面角度以上の格納情報)を書き換えることにより、不要な画像情報(スプラッシュ画像16)を取り除いたほぼ後続車画像12aだけの、あたかも晴天時における自車後方画像の如き良質な画像を二次元メモリ2jに保持させることができる。
【0040】
最後に、二次元メモリ2jの格納情報の中から、「路面角度」以上で、且つ、特定の“塊”を持った画素値の集合を取り出すことにより、当該集合部分を後続車12として検出することができ(ステップS13f)、その検出結果をECU5に出力(図5のステップS15)することができる。“塊”とは、車両の投影面積以上の大きさを持った画素値の集合部分であり、具体的には1m以上の大きさを持ったものである。
【0041】
なお、図8(b)、(c)の左図のような情報を得るためには、受光用回路2iのダイナミックレンジができるだけ広いことが求められる。ダイナミックレンジが狭い場合は、第A抽出画像17や第B抽出画像18が飽和してしまい、平均値を減算しても後続車画像12aを取り出せないからである。たとえば、対数型アンプは高ダイナミックレンジを有するので、受光用回路2iに用いて好ましい。また、受光用回路2iに高ダイナミックレンジのアンプを用いると共に、そのアンプの増幅利得を可変とするようにしてもよい。この場合、前記の平均値Aave、Baveに応じて利得調整を行うと、具体的には、前記の平均値Aave、Baveが大きいほど、増幅利得を下げるように利得調整すると、実質的なダイナミックレンジの拡大効果を得られるから、とりわけ豪雨時におけるスプラッシュ対策の点でより好ましい。
【0042】
以上のとおりであるから、本実施の形態によれば、晴天時はもちろんのこと、図9に示すように、雨天時等に自車14の跳ね上げたスプラッシュ(又は霧や雪)に影響されることなく、自車14に追突するおそれがある後続車12を検出することができるという従来技術にない格別の効果を得ることができる。
【0043】
また、本実施の形態では、「路面角度」(図6参照)を正確に把握できるため、たとえば、図10に示すような車高の低いスポーツタイプの車両(これらの車両の多くは空気抵抗を低減するためにボンネットやフロントガラスが大きく傾斜しており、レーザビームの反射光も相当に弱くなる。)にあっても、「路面角度」以上に存在する画素値の“塊”から、当該車両を検出することができる。
【0044】
あるいは、図11に示すような車高の高い車両(大型トラック等)にあっては、レーザビームの低仰角部分が車体の下を通り抜けてしまうため弱い反射光しか得られないが、上記と同様に「路面角度」以上に存在する画素値の“塊”から、当該車両を検出することができる。
【0045】
なお、本発明の技術思想は上記実施の形態に限定されず、様々な変形例があり得る。
上記の実施の形態では、「路面角度以上の角度の受光量平均値を求め、受光量からその平均値を減算する」(ステップS13e)ことにより、スプラッシュの影響を排除しているが、これに限定されない。たとえば、道路を走行できる車両の高さは許可を受けた場合を除き「3.8m以下」に制限(道路法)されているため、図12に示すように、二次元メモリ2jの格納情報に含まれる後続車画像12aの高さは、通常、上記の制限値に相当する角度Gを超過することはない。この点に注目し、当該角度Gから路面角度までの範囲を後続車の存在領域(以下「車両存在領域」という。)に設定すると共に、当該角度G以上の範囲をスプラッシュ判定領域として設定するようにしてもよい。なお、図示のスプラッシュ領域には“看板等画像19”が含まれているが、この看板等画像19については後で説明する。
【0046】
図13は、前記のフローチャート(図7)の変形例であり、図12に示す二次元メモリ2jの格納情報に対応させたものである。前記のフローチャートとの相違点は、距離毎に行われる処理(ステップS13e′)にある。すなわち、この変形例では、車両存在領域以上の角度領域(スプラッシュ判定領域)の受光量の平均値を求め、その平均値を受光量から減算することにより、真の対象物(後続車12)を検出するようにしている。これによれば、スプラッシュ領域の受光量の平均値には、後続車画像12aが含まれていないから、真の対象物(後続車12)の検出精度を向上することができる。
【0047】
ところで、車両存在領域以上の角度領域には、スプラッシュだけでなく、場合によっては、道路上を横断する橋や道路上の高い位置に設置された道路標識等看板の画像(以下、これらを総称して「看板等画像19」という。)が含まれることがある。このような場合、受光量の平均値に看板等画像19が含まれてしまうため、真の対象物(後続車12)の検出精度を低下させるおそれがあるが、橋や看板等は固定物(非移動物)であり、自車14と同じ速度で後方に遠ざかるから、速度弁別を行って看板等画像19の有無を判定し(ステップS21)、看板等画像19が検出されなかった場合は、車両存在領域以上の角度範囲をスプラッシュ判定領域とし(ステップS22)、一方、看板等画像19が検出された場合は、車両存在領域以上で且つ看板等画像19以外の角度範囲をスプラッシュ判定領域とし(ステップS22)、これらのスプラッシュ領域の平均値をステップS13eで利用することにより、道路標識等看板の影響を排除して、真の対象物(後続車12)の検出精度の低下問題を回避することができる。
【0048】
また、上記実施の形態では、自車14に追突するおそれがある車両(後続車12)として自車の後方に位置する車両を想定しているが、たとえば、図14に示すように、自車14がカーブを抜けたところで停止しているときに、その後方から車両20と車両21が接近しつつある場合を考えると、車両20は隣接レーン22を走行しており、車両21は自レーン23を走行しているから、自車14にとって注意を払うべき車両(自車14に追突するおそれがある後続車)は、自車14の後方に位置する車両20ではなく、自レーン21に沿って接近しつつある車両21である。このような車両21を危険な後続車として検出するためには、ヨーレート検知部4で検知された停車以前のヨーレート値から自レーン23の形状(曲率等)を演算し、又は自車14の停車以前の走行軌跡を推定し、そのレーン形状や走行軌跡に沿って接近しつつある車両21を危険な後続車とすればよい。
【0049】
また、上記実施の形態では、レーザビーム11をX方向とY方向にスキャンしているが、たとえば、図15に示すように、横長楕円断面のレーザビーム11を縦方向(X方向)に1次元スキャンしてもよい。Y方向のスキャン機構とスキャン操作を省略できる。
【0050】
また、上記実施の形態では、後方監視装置を例にしたが、これに限らず、自車14の前方監視を行う装置に適用してもよい。すなわち、図16に示すように、レーザレーダ装置2を自車14の前方に取り付け、自車14の前方に位置する路面や先行車24を検知するようにしてもよい。この場合にあっても、上記の実施の形態と同様に、先行車24が跳ね上げるスプラッシュや雨又は霧等の影響を排除し、安定した精度で先行車24を検知することができ、たとえば、先行車24までの距離(車間距離)が自車14の速度に応じた安全距離を下回ったときに、自車14の運転者に対して警報を発したり、自動的に制動をかけたりすることができる。
【0051】
また、上記実施の形態では、レーザビーム11をX方向にスキャンして、それをY方向に1駆動ステップずつ移動させているが、逆にY方向にスキャンし、それをX方向に1駆動ステップずつ移動させてもよい。この場合、三次元メモリを用意し、Y方向、X方向(角度方向)及び距離方向の受光量を記憶し、X方向の移動が終了した後、Y方向に三次元メモリをスキャンしながら、図7や図13の処理を行えばよい。
【0052】
また、上記実施の形態では、スプラッシュ排除のためのアルゴリズムとして、距離ごとに受光量の平均値を求める手法を例示したが、これに限定されない。さらに、高度な画像処理手法やパターン認識手法を利用してもよく、たとえば、距離と角度の二次元画像として、エッジ検出等の手法で検出物を判断したり、路面が同じような形状を持つことを利用して路面角度を判断したりしてもよい。
【0053】
また、上記実施の形態では、路面角度を設定し、それ以下の角度を全て路面としていたが、距離ごとに路面を判断し、図7のフローチャートのステップS13e又は図13のフローチャートのステップS13e′において、その距離における路面角度以上で処理を行ってもよい。
【0054】
また、上記実施の形態では、図7のステップS13aで、加速度が−0.1Gから0.1Gの範囲にない場合は、路面の角度を計算しないようにしたが、たとえば、図17に示すように、ドアが開閉されたか否かを判断し(ステップS31)、ドアが開閉された場合に路面角度θの学習結果をリセットする(ステップS32)ようにしてもよい。さらに、加速度ごとに路面角度を学習させるようにしてもよい。これは、実際に自車両が危険となる場面は、急ブレーキを踏まざるを得ない場面であり、自車両が前後に傾いた状態でも、その時の後続車を認識する必要があるためである。そのため、自車両の加速度に応じた路面角度が必要になる。
【0055】
図17において、まず、ステップS31でドアが開閉されたかどうかを判断する。これは路面が見える角度は、乗車人数、荷物の量などで車体が傾くため変化することがあるためである。そこで、乗車ドアまたは後部ドアが開閉されたかどうかを判断し、もし開閉された場合は、ステップS32で路面角度θの学習結果をリセットする。一方、ステップS31の条件が不成立であれば、ステップS13bで路面の見えなくなる角度θを求める。ステップS13cでそれを自車の加速度ごとに学習させて、学習結果を路面角度とする。路面角度については、加速、減速時には車体が傾斜するため、自車の加速度ごとにテーブル持ち、加速度ごとに路面角度の学習を行う。学習方法の一例としては、加速度を0.01Gごとに分けたテーブルに、加速度ごとに路面角度θの平均値を求める。以後の処理は、図7と同様である。
【0056】
また、図14ではヨーレートを用いた走行軌跡の一例を示したが、後続車の衝突を前提とする時、自車14は停止、もしくは急速に減速して走行している可能性が高い。これは、急カーブ直後で渋滞していた場合が、もっとも後続車衝突の危険が高いことを物語っている。ところがヨーレート値は、車両の速度が低い場合は非常に精度が悪く、自車が停止した場合にまったく利用することができないという性質を持っている。これを補うため、図18に示すように、たとえば、50×50の記憶セルを持つ二次元メモリを備える。ヨーレートと自車速から自車の走行してきた軌跡をその二次元メモリ内にプロットしていき、この自車走行軌跡からレーン形状を演算し、後続車を推定することによって、自車両が停止、もしくは相当な低速で走行していた場合にも、正確に衝突の危険を判断することができる。
【0057】
【発明の効果】
この発明によれば、二次元スキャン画像の画素平均値はスプラッシュ等のような広い範囲に散在する目標物の画素値に近い値を持つ一方、後続車等の目標物の画素値は上記の平均値を上回る値を持つから、上記の減算処理を行うことにより、スプラッシュ等に埋もれた目標物を正しく検出できる。
また、この発明によれば、二次元スキャン画像の画素平均値として、路面角度以上の部分の画素平均値が採用されるので、路面の画像に影響されることなく、スプラッシュ等に埋もれた目標物を正しく検出できる。
また、この発明の好ましい態様によれば、「車載用レーザレーダ装置によって検知される路面の形状は、自車に接近した位置においては実際の路面の形状に対応せず自車に近いほど短く検知される」という原理を応用して、二次元スキャン画像の中から路面に相当する画像部分を抽出するので、路面の検知精度を向上でき、路面角度を正しく認識して、車両の種類に関わらず、その路面上に存在する後続車等を精度よく検知することができる。
【図面の簡単な説明】
【図1】後方監視装置の全体的ブロック図である。
【図2】レーザレーダ装置2(特にレーザ光の受発光部分)の正面図である。
【図3】レーザレーダ装置2のスキャン概念図である。
【図4】横方向から見たレーザレーダ装置2のスキャン概念図である。
【図5】レーザレーダ装置2の制御回路2aにおいて、所定の演算周期毎に繰り返し実行される制御プログラムのフローチャートを示す図である。
【図6】二次元メモリ2jの情報格納概念図である。
【図7】後続車検知処理(図5のステップS14)のサブルーチンを示すフローチャートである。
【図8】二次元メモリ2jの格納情報から自車14に追突するおそれがある後続車12を検出する処理の概念図である。
【図9】本発明の効果を説明する図(スプラッシュの影響排除)である。
【図10】本発明の効果を説明する図(スポーツタイプの車両検知)である。
【図11】本発明の効果を説明する図(大型トラックの検知)である。
【図12】二次元メモリ2jの格納情報の他の例を示す図である。
【図13】前記のフローチャート(図7)の変形例を示す図である。
【図14】自車14の走行レーンの形状を加味して自車14に危険を及ぼす車両21を検知する説明図である。
【図15】横長断面のレーザビーム11を縦方向(X方向)に1次元スキャンする概念図である。
【図16】レーザレーダ装置2を自車14の前方に取り付け、自車14の前方に位置する路面や先行車24を検知する説明図である。
【図17】図7のフローチャートの変形例を示す図である。
【図18】自車の走行軌跡をプロットするための二次元メモリの概念図である。
【符号の説明】
S13b ステップ(抽出手段)
S13c ステップ(特定手段)
S13e ステップ(平均値算出手段、減算手段)
S13f ステップ(判定手段)
2 レーザレーダ装置(車載用レーザレーダ装置)
2a 制御回路(画像取得手段)
11 レーザビーム
12a 後続車画像(真の目標物)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an in-vehicle laser radar device. More specifically, a vehicle-mounted laser used to detect a following vehicle that may collide with the own vehicle (backward monitoring of the own vehicle) or a preceding vehicle that may possibly collide with the own vehicle (monitoring the front of the own vehicle). The present invention relates to improvement of a radar device.
[0002]
[Prior art]
laser
[LASER] [Light Amplification by Stimulated Emission of Radiation] means an electromagnetic wave whose frequency is in a light region. Since the light has a single wavelength and a uniform phase (referred to as coherent light), it is possible to obtain strong light with low attenuation and which is not easily diffused. The Japanese translation is "amplification of light by stimulated emission of radiation." Also,
Radar
[RADAR] [Radio Detection And Ranging] is a distance measuring device that detects an object using an electromagnetic wave and measures its position (distance, direction, etc.). Therefore, the laser radar device particularly refers to a distance measuring device using “an electromagnetic wave whose frequency is in a light region”. Since radio waves are not used, there is an advantage in that they are not restricted by law (the Radio Law).
[0003]
Today, vehicles such as automobiles are equipped with various safety support devices. For example, there is a known rearward monitoring device that uses a laser radar device to detect a following vehicle that may collide with the own vehicle. (For example, see Patent Document 1).
[0004]
This rear monitoring device emits a laser beam toward the rear of the own vehicle, measures the actual inter-vehicle distance between the own vehicle and the following vehicle from the reflected light, and calculates the actual inter-vehicle distance and the speed of the own vehicle ( The following vehicle speed (subsequent vehicle speed) is calculated from the own vehicle speed), and the safe inter-vehicle distance between the own vehicle and the following vehicle is calculated based on the own vehicle speed and the following vehicle speed. When the vehicle is shorter than the distance, a stop lamp (brake lamp) of the own vehicle is turned on to call attention to a driver of a following vehicle.
[0005]
By the way, the traveling of the vehicle is not limited to the fine weather, and may naturally be the traveling in the rain or after the rain. In such a case, particularly when the amount of rainfall is large, as a problem peculiar to the vehicle, the detection accuracy of the laser radar device may decrease due to a water film (splash) jumped up by a tire of the own vehicle or a preceding vehicle. . Therefore, a technique that focuses on such a splash (hereinafter, referred to as “prior art”) is known (for example, see Patent Literature 2).
[0006]
[Patent Document 1]
Utility Model Registration No. 2565672
[Patent Document 2]
JP 2001-357497 A
[0007]
[Problems to be solved by the invention]
However, the prior art described above
"Because the following vehicle that may collide with the own vehicle is the one following the own vehicle lane and approaching the own vehicle, such a following vehicle should be detected and monitored by the laser radar device." After pointing out,
"Recognition of the own vehicle lane (white line on the road surface) has conventionally been performed using an optical image recognition means such as a CCD camera. The white line recognition by the dynamic image recognition means becomes impossible. "
Although the measures are disclosed,
"The vehicle speed detecting means for detecting the vehicle speed of the own vehicle, the yaw rate detecting means for detecting the yaw rate of the own vehicle, the running locus estimating means for estimating the running locus of the own vehicle from the vehicle speed and the yaw rate, and Of the following vehicles, a following vehicle detecting means for detecting a following vehicle traveling near the traveling locus is only provided as a main element,
In short, the above prior art certainly focuses on "splash", but does not solve any problem caused by the splash (a problem of lowering the detection accuracy of the laser radar device). There is a technical problem intended by the invention.
[0008]
Therefore, an ultimate object of the present invention is to solve the problem of a decrease in detection accuracy of a laser radar device caused by splash.
[0009]
[Means for Solving the Problems]
The vehicle-mounted laser radar device according to the present invention includes: an image acquisition unit configured to two-dimensionally scan a vehicle rear or a vehicle front using a laser beam to acquire a two-dimensional scan image; and calculate a pixel average value of the two-dimensional scan image. Average value calculating means, subtracting means for subtracting the pixel average value from the two-dimensional scanned image, and determining whether or not a true target is included in the two-dimensional image after the subtraction by the subtracting means. Means.
Here, the “true target” refers to a “follower vehicle” that may collide with the host vehicle when the scanning direction of the laser beam is behind the vehicle. Refers to a "preceding vehicle" where a car may collide.
According to the present invention, the average pixel value of the two-dimensional scan image has a value close to the pixel value of the target scattered over a wide range such as a splash, while the pixel value of the target such as a following vehicle has the above average value. Since the value has a value larger than the target value, by performing the above-described subtraction processing, a target object buried in splash or the like can be correctly detected.
Further, an on-vehicle laser radar device according to the present invention includes an image acquisition unit that two-dimensionally scans a vehicle rear or a vehicle front using a laser beam to acquire a two-dimensional scan image, and corresponds to a road surface from the two-dimensional scan image. Extracting means for extracting an image portion to be extracted, specifying means for specifying a road surface angle from an image corresponding to the road surface extracted by the extracting means, and calculating a pixel average value of a portion of the two-dimensional scan image at or above the road surface angle Average value calculating means, subtracting means for subtracting the pixel average value from the two-dimensional scanned image, and determining whether or not a true target is included in the two-dimensional image after the subtraction by the subtracting means. Means.
Here, the “road surface angle” refers to a scan angle (vertical scan angle) of a laser beam that irradiates a road surface that is sufficiently far away from the vehicle position. When the road surface in the monitoring direction is flat, the road surface angle becomes 0 degree or a slight negative elevation angle. Alternatively, the road surface angle becomes a positive elevation angle on a slope that increases in altitude as the road surface in the monitoring direction becomes more distant, or the road surface angle becomes negative in a slope that decreases as the road surface in the monitoring direction becomes more distant. Elevate. “Road angle” may be rephrased as “road height”. This is because the “road angle” indicates a relative relationship between the height of the own vehicle position and the height on a road surface that is sufficiently far from the own vehicle position.
According to the present invention, since the pixel average value of a portion equal to or larger than the road surface angle is adopted as the pixel average value of the two-dimensional scan image, the target object buried in splash or the like can be correctly detected without being affected by the road surface image. .
Further, in a preferred aspect of the present invention, the extracting unit is configured such that, from among the images included in the two-dimensional scan image, the width of the laser beam in the distance direction on the low elevation angle side is narrow and the elevation angle in the distance direction is increased as the elevation angle increases. An image having a tendency to increase in width is extracted as an image portion corresponding to the road surface.
Here, two laser beams emitted from the vehicle (laser beam A and laser beam B for convenience) are considered. If the elevation angles of these two laser beams A and B are φa (elevation angle of laser beam A) and φb (elevation angle of laser beam B), respectively, and if φa <φb <0 degrees, both laser beams A and B are 0 degree. Since the following low-elevation angle beam is satisfied and φa <φb, the laser beam A irradiates a position closer to the vehicle than the laser beam B. Further, these two laser beams A and B have a predetermined vertical beam width. Therefore, the detection length of the road surface at the irradiation point of the laser beam A (D1 in the description of the embodiment) is shorter than the detection length of the road surface at the irradiation point of the laser beam B (D2 in the description of the embodiment). That is, the shape of the road surface detected by the on-vehicle laser radar device does not correspond to the actual road surface shape at a position close to the own vehicle, and is detected shorter as the vehicle is closer to the own vehicle. The extracting means in the preferred embodiment extracts an image portion corresponding to a road surface from a two-dimensional scan image by applying this principle.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to an example of a “rear monitoring device” that detects a following vehicle that may collide with the own vehicle.
[0011]
In the following description, the specification or examples of various details and examples of numerical values, character strings, and other symbols are merely reference for clarifying the idea of the present invention, and all or some of them Obviously, the idea of the invention is not limited. In addition, well-known techniques, well-known procedures, well-known architectures, and well-known circuit configurations (hereinafter, “known matters”) will not be described in detail, but this is also for the purpose of simplifying the description, It does not intentionally exclude all or some of the matters. Such a well-known matter can be known to those skilled in the art at the time of filing the present invention, and is naturally included in the following description.
[0012]
FIG. 1 is an overall block diagram of the backward monitoring device. The rear monitoring device 1 includes a laser radar device (vehicle laser radar device) 2, a vehicle speed detecting unit 3, a yaw rate detecting unit 4, an ECU (electronic control unit) 5, a stop lamp 6, a warning lamp 7, a buzzer 8, and a hazard lamp 9. And the seat belt device 10 and the like.
[0013]
The laser radar device 2 includes a control circuit (image acquisition means) 2a that controls the overall operation of the device and a pair of optical lenses (light projecting lens 2b and light receiving lens 2c) in XY directions (X direction is the height direction of the vehicle). , Y direction is the width direction of the vehicle), a scanning circuit 2e for generating and outputting a driving signal for driving the lens driving device 2d according to a control signal from the control circuit 2a, and a control circuit. A light emitting circuit (LD) 2f for lighting and driving a light emitting element (LD: laser diode) 2f in accordance with a control signal from 2a, and a control circuit 2a that converts light received by a light receiving element (PD: photodiode) 2h into an electrical signal. And a two-dimensional memory 2j for image processing (to be described in detail later).
[0014]
FIG. 2 is a front view of the laser radar device 2 (particularly, a part that receives and emits laser light). The light projecting lens 2b and the light receiving lens 2c located in front of the light emitting element 2f and the light receiving element 2h are integrally connected to a lens driving device 2d via shafts 2k and 2m. It is driven up, down, left, and right by the device 2d (the internal linear motor). When the shaft 2k is driven right and left within a predetermined distance range α by the lens driving device 2d, the optical axes of the light projecting lens 2b and the light receiving lens 2c are scanned in the same distance range α (scan in the vehicle width direction). Has become. Similarly, when the shaft 2m is vertically driven by the lens driving device 2d in a predetermined distance range β, the optical axes of the light projecting lens 2b and the light receiving lens 2c are scanned in the same distance range β (scan in the height direction of the vehicle). It is supposed to.
[0015]
FIG. 3 is a conceptual view of the scan of the laser radar device 2. In this figure, a laser beam 11 emitted to the rear of the vehicle through a light projecting lens 2b is directed to a predetermined angle range (an angle range corresponding to the above-mentioned distance range α in the vehicle width direction (Y direction) of the vehicle); For convenience of explanation, this angle range is also assumed to be α.), And a predetermined angle range (an angle range corresponding to the distance range β described above) in the height direction (X direction) of the vehicle; For this reason, the angle range is also set to β.), So that an object behind the host vehicle (such as the following vehicle 12 or the road surface 13) can be detected by these XY scans. The cross-sectional shape of the illustrated laser beam 11 is a vertically long elliptical shape. This is to reduce the beam width in the vehicle width direction (Y direction) of the own vehicle to increase the resolution (horizontal resolution) in that direction. However, if the required resolution can be obtained, other cross sections are used. The shape may be, for example, a circle or a horizontally long ellipse.
[0016]
FIG. 4A is a conceptual scanning diagram of the laser radar device 2 viewed from the lateral direction. In this figure, of the laser beams 11 scanned in a predetermined angular range β in the height direction (X direction) of the own vehicle, the laser beams 11L_1 and 11L_2 with low elevation angles are on the road surface 13 immediately behind the own vehicle 14. , And the laser beam 11M having a medium elevation angle irradiates the following vehicle 12, and the laser beam 11H having a high elevation angle is radiated into the air.
[0017]
Here, assuming that the distances from the vehicle 14 to the irradiation points of the low elevation angle laser beams 11L_1 and 11L_2 are R1 and R2, respectively, R1 <R2 and the laser beam 11 has a predetermined vertical beam width. As shown in FIG. 4B, the detection length D1 of the road surface 13 at the distance R1 is shorter than the detection length D2 of the road surface 13 at the distance R2. In other words, the shape of the road surface 13 detected by the laser radar device 2 does not correspond to the actual shape of the road surface 13 at a position close to the vehicle 14, and is detected shorter as the vehicle is closer to the vehicle 14. This principle is used in “road surface angle detection” (step S13b in FIG. 7) described later.
[0018]
Next, the operation of the laser radar device 2 will be described.
FIG. 5 is a diagram showing a flowchart of a control program repeatedly executed in the control circuit 2a of the laser radar device 2 at every predetermined calculation cycle.
[0019]
According to this flowchart, the control circuit 2a first drives the lens driving device 2d to move the light projecting lens 2b and the light receiving lens 2c one drive step in the vehicle width direction (Y direction) (step S11). The “drive step” is defined as the maximum drive step when the scan angle (α) in the vehicle width direction (Y direction) is divided by the angle θ corresponding to the horizontal beam half width of the laser beam 11. This refers to the driving steps from “first” to “max”, which are numbers (max). For example, assuming that α = 5 degrees and θ = 0.1 degrees for convenience, the division result is “5 ÷ 0.5 = 10”, so the first to tenth drive steps are performed.
[0020]
Next, while maintaining the driving step position in the Y direction, the lens driving device 2d is driven to scan the light projecting lens 2b and the light receiving lens 2c once in the vehicle height direction (X direction) within a predetermined angle range β. While the light emitting element 2f is turned on, the signal received by the light receiving element 2h during the scan is fetched and stored in the two-dimensional memory 2j (step S12), and then the above processing (steps S11 and S12) is performed. Is repeated for a predetermined angle range α in the vehicle width direction.
[0021]
When the above processing is completed for all the driving steps within the same angle range α (first to tenth driving steps according to the above-described convenience example) (“YES” in step S13), the processing exits the loop and will be described later. Is executed (step S14), and the result of the subsequent vehicle detection is output to the ECU 5 (step S15).
[0022]
The ECU 5 measures the actual inter-vehicle distance between the own vehicle and the following vehicle based on the following vehicle detection result output from the laser radar device 2, and detects the actual inter-vehicle distance and the own vehicle detected by the vehicle speed detection unit 3. The vehicle speed (subsequent vehicle speed) of the following vehicle is calculated from the vehicle speed (self vehicle speed), and the safe inter-vehicle distance between the own vehicle and the following vehicle is calculated based on the own vehicle speed and the following vehicle speed. When the vehicle distance is shorter than the safe inter-vehicle distance, the stop lamp 6 is turned on (or blinks), the hazard lamp 9 is blinked to call attention to the driver of the following vehicle, and the warning light 7 is turned on ( Or blinks the buzzer 8 to warn the driver of the own vehicle of the approach of the following vehicle, and activates the pretension of the seat belt device 10 to prepare for an emergency (back-end collision). Take safety measures.
[0023]
Next, an example of information stored in the two-dimensional memory 2j in step S12 will be described.
FIG. 6 is a conceptual diagram of information storage in the two-dimensional memory 2j. In this figure, a two-dimensional memory 2j is a two-dimensional map having a vertical axis as an angle (scan angle of the laser beam 11 in the X direction) and a horizontal axis as a distance (a distance from the vehicle 14 to a reflection point of the laser beam 11). It has a storage space. The two-dimensional memory 2j stores information corresponding to the intensity of the reflected light of the laser beam 11 reflected at an arbitrary angle and at an arbitrary distance at the intersection of those angles and distances. This corresponds to an image memory for storing a two-dimensional image of a distance.
[0024]
Now, in the illustrated two-dimensional memory 2j, images of the following three objects are stored. The first is an image of the road surface 13 (hereinafter, referred to as “road surface image 13a”). As described above, the road surface image 13a has a characteristic that the road surface width D1 is small near the host vehicle 14 and the road surface width D2 is widened as the distance increases. In other words, the road surface width gradually increases as the distance from the host vehicle 14 increases, and the road surface has a characteristic that the laser beam 11 is not visible at a certain distance (when the scan angle of the laser beam 11 in the X direction is substantially horizontal) or more. Therefore, the angle at which the road surface image 13a is interrupted and becomes invisible (or an angle obtained by adding a slight margin angle to the angle) can be regarded as the “road surface angle”.
[0025]
The second is an image of the following vehicle 12 (hereinafter, referred to as “following vehicle image 12a”). The difference between the following vehicle image 12a and the road surface image 13a is that the following vehicle image 12a is located at an angle higher than the "road surface angle", and the following vehicle image 12a is observed as one lump. (It is not an image having a wide distribution that is continuous over a certain distance from the vicinity of the vehicle 14 as in the road surface image 13a.) The following vehicle image 12a corresponds to the “true target” described in the gist of the invention.
[0026]
As described above, since the first image (road image 13a) and the second image (following vehicle image 12a) have the above-mentioned clear difference, the two are distinguished by using this difference, and The succeeding vehicle 12 that may possibly collide with the vehicle 14 can be correctly detected.
[0027]
An object of the present invention is to solve a problem of a decrease in detection accuracy of the laser radar device 2 caused by a splash.
According to the present inventors, the splash image has different characteristics from the above-described first image (road surface image 13a) and second image (following vehicle image 12a). Specifically, FIG. As shown, the image due to the splash (hereinafter referred to as “splash image 16”) has a wide angle and is distributed over a wide range from a short distance to a medium-to-long distance. It shows features distinctly different from the second image (the following vehicle image 12a), and furthermore, the pixel value of the image (the splash image 16) averages the first image (the road surface image 13a) and the second image Paying attention to the fact that the pixel value is smaller than the pixel value of the (following vehicle image 12a), and detecting the second image (following vehicle image 12a) buried in the splash image 16 using these characteristics. It was.
[0028]
Incidentally, the reason that “the pixel value of the splash image 16 is on average smaller than the pixel value of the road surface image 13a and the following vehicle image 12a” is that the intensity of the reflected laser light from the road surface 13 and the following vehicle 12 is sufficient. This is because the intensity of the reflected laser light scattered on the surface of the water droplet (splash is a collection of water droplets) is considerably weaker than that of the laser beam.
[0029]
FIG. 7 is a flowchart showing a subroutine of the following vehicle detection process (step S14 in FIG. 5).
In this flowchart, first, the vehicle speed of the host vehicle 14 is fetched from the vehicle speed detection unit 3, and the acceleration / deceleration of the host vehicle 14 is calculated from the degree of change (for example, a differential value) of the vehicle speed. Then, it is determined whether the acceleration / deceleration is within a range between a predetermined deceleration (for example, about -0.1 G) and a predetermined acceleration (for example, about +0.1 G), and whether the acceleration / deceleration is other than 0. A determination is made (step S13a). In short, these acceleration / deceleration determination conditions are to determine whether or not the host vehicle 14 is in a non-stop state (acceleration / deceleration ≠ 0) and is running at a constant speed without sudden acceleration or sudden deceleration. become.
[0030]
Then, when the acceleration / deceleration determination condition is satisfied, the angle θ at which the road surface becomes invisible is obtained (step S13b; extracting means), and the angle θ is learned (for example, the angle θ from the ignition ON to the present time). An average value is obtained, and this is set as a road surface angle.), And the learning result is set to “road surface angle” (see FIG. 6) (step S13c; specifying means), and the subsequent processing (steps S13d to S13f; determination) On the other hand, if the acceleration / deceleration determination condition is not satisfied, the process passes steps S13b and S13c, and proceeds to the subsequent processes (steps S13d to S13f).
[0031]
Here, among the above-mentioned acceleration / deceleration determination conditions, a condition for determining whether or not the vehicle is traveling at a constant speed is that, when rapid acceleration or rapid deceleration is performed, the rear portion of the vehicle body sinks (in the case of rapid acceleration) or rises (suddenly). For example, when the vehicle is subject to a deceleration of about -0.1 G or less or an acceleration of about +0.1 G or more, depending on the hardness of the suspension of the vehicle, This is because the optical axis of the laser beam 11 is inclined by a considerable amount (1 degree or more) in the height direction (X direction) of the vehicle body with the lifting, and the road surface angle is learned by the laser beam 11 having such an inclination. Even so, the road surface angle cannot obtain sufficient reliability.
[0032]
For this reason, in the present embodiment, in order to learn the road surface angle with sufficient reliability, the above-mentioned "condition for determining whether or not the vehicle is traveling at a constant speed" is added. The other determination condition (non-stop state; acceleration / deceleration ≠ 0) is that the road surface angle is learned only during traveling without sudden acceleration / deceleration. The reason is that the vehicle is not in the non-stop state. At that time (that is, when the vehicle 14 is in a stopped state), attention should be paid to the danger of rear-end collision, and maximum attention should be paid to approaching the following vehicle 12 rather than learning the road surface angle. It is.
[0033]
In step S13a, the acceleration / deceleration of the host vehicle 14 is calculated from the vehicle speed detected by the vehicle speed detection unit 3. For example, acceleration / deceleration detection means such as an acceleration sensor is provided, and the output signal is output. Of course, you can use it.
[0034]
When the learning of the road surface angle is completed, a process of detecting the following vehicle 12 that may collide with the own vehicle 14 from the stored information of the two-dimensional memory 2j (steps S13d and S13e; average value calculating means, subtracting means) ).
[0035]
FIGS. 8A to 8C are conceptual diagrams of the above-described process, that is, the process of detecting, from the information stored in the two-dimensional memory 2j, the following vehicle 12 that may collide with the host vehicle 14. In FIG. 8A, A and B are two representative image extraction target distances. A dashed line A 'intersecting the distance A and a dashed line B' intersecting the distance B are extraction lines of the extracted image corresponding to the distances (A, B). Hereinafter, for convenience, the extracted image extracted along the dashed line A 'is referred to as an A-th extracted image 17, and the extracted image extracted along the dashed line B' is referred to as a B-th extracted image 18. The A-th extracted image 17 is formed only of the splash image 16, and the B-th extracted image 18 includes the following vehicle image 12 buried in the splash image 16.
[0036]
As described above, the pixel value of the subsequent vehicle image 12a has a larger value than the pixel value of the splash image 16. This is because the splash image 16 is formed by weakly reflected laser light scattered by water droplets.
[0037]
As shown in FIG. 8B, the distribution of pixel values of the A-th extraction image 17 is substantially constant regardless of the angle, but as shown in FIG. Since the distribution of the pixel values protrudes in the existing angle range of the following vehicle image 12a, the average values Aave and Bave of each of these two extracted images (the A-th extracted image 17 and the B-th extracted image 18) are obtained. By subtracting the average value Aave of the A-th extracted image 17 from the pixel value of the A-th extracted image 17 and subtracting the average value Bave of the B-th extracted image 18 from the pixel value of the B-th extracted image 18, FIG. The results shown in the right diagrams of (b) and (c) can be obtained.
[0038]
In other words, the A-th extracted image 17 'after the subtraction has only useless information about the noise level, whereas the B-th extracted image 18' after the subtraction has useful information corresponding to the following vehicle image 12a. .
[0039]
Therefore, by rewriting the storage information (the storage information at the road surface angle or more) of the two-dimensional memory 2j with the above subtraction results (the A-th extracted image 17 'and the B-th extracted image 18'), unnecessary image information (splash image 16), a high-quality image of only the following vehicle image 12a, such as an image behind the own vehicle in fine weather, can be stored in the two-dimensional memory 2j.
[0040]
Lastly, by extracting a set of pixel values having a specific “lump” that is equal to or larger than “road surface angle” from the information stored in the two-dimensional memory 2j, the set portion is detected as the following vehicle 12. (Step S13f), and the detection result can be output to the ECU 5 (Step S15 in FIG. 5). The “lump” is a set portion of pixel values having a size larger than the projected area of the vehicle, and specifically has a size of 1 m or more.
[0041]
In order to obtain information as shown in the left diagram of FIGS. 8B and 8C, the dynamic range of the light receiving circuit 2i needs to be as wide as possible. If the dynamic range is narrow, the A-th extraction image 17 and the B-th extraction image 18 become saturated, and the subsequent vehicle image 12a cannot be taken out even if the average value is subtracted. For example, a logarithmic amplifier has a high dynamic range and is therefore preferably used for the light receiving circuit 2i. Further, an amplifier having a high dynamic range may be used for the light receiving circuit 2i, and the amplification gain of the amplifier may be made variable. In this case, when the gain is adjusted in accordance with the average values Aave and Bave, specifically, when the gain is adjusted so as to decrease the amplification gain as the average values Aave and Bave are larger, a substantial dynamic range is obtained. This is particularly preferable in terms of measures against splash during a heavy rain, since the effect of expanding can be obtained.
[0042]
As described above, according to the present embodiment, not only during the fine weather, but also as shown in FIG. 9, the vehicle 14 is affected by the splash (or fog or snow) jumped up in the rainy weather or the like. Without the prior art, it is possible to detect a following vehicle 12 that may collide with the host vehicle 14 without the need for a special effect.
[0043]
Further, in the present embodiment, since the “road angle” (see FIG. 6) can be accurately grasped, for example, a sports type vehicle having a low vehicle height as shown in FIG. 10 (most of these vehicles have an air resistance). The hood and windshield are greatly inclined to reduce the amount of light, and the reflected light of the laser beam is considerably weakened.) Can be detected.
[0044]
Alternatively, in a vehicle having a high vehicle height (a large truck or the like) as shown in FIG. 11, only a weak reflected light can be obtained because a low elevation angle portion of the laser beam passes under the vehicle body. The vehicle can be detected from the “lumps” of pixel values existing at or above the “road angle”.
[0045]
Note that the technical concept of the present invention is not limited to the above-described embodiment, and various modifications may be made.
In the above embodiment, the influence of the splash is eliminated by “calculating the average value of the received light amount at an angle equal to or larger than the road surface angle and subtracting the average value from the received light amount” (step S13e). Not limited. For example, since the height of a vehicle that can travel on a road is restricted to “3.8 m or less” (road law) except when permitted, as shown in FIG. Normally, the height of the included following vehicle image 12a does not exceed the angle G corresponding to the above-described limit value. Paying attention to this point, the range from the angle G to the road surface angle is set as the following vehicle existing region (hereinafter, referred to as “vehicle existing region”), and the range larger than the angle G is set as the splash determination region. It may be. The illustrated splash area includes the “signboard image 19”, which will be described later.
[0046]
FIG. 13 is a modification of the above-mentioned flowchart (FIG. 7), and corresponds to the storage information of the two-dimensional memory 2j shown in FIG. The difference from the above flowchart lies in the processing performed for each distance (step S13e '). That is, in this modified example, the true target object (the following vehicle 12) is obtained by calculating the average value of the received light amount in the angle region (splash determination region) equal to or larger than the vehicle existing region and subtracting the average value from the received light amount. I try to detect. According to this, since the average value of the received light amount in the splash area does not include the following vehicle image 12a, the detection accuracy of the true target (the following vehicle 12) can be improved.
[0047]
By the way, in the angle area larger than the vehicle existence area, not only the splash, but also the image of the signboard such as a bridge crossing the road or a road sign installed at a high position on the road (hereinafter collectively referred to as these). "Signboard image 19"). In such a case, the sign 19 such as a signboard is included in the average value of the amount of received light, which may reduce the detection accuracy of the true target (the following vehicle 12). It is a non-moving object) and moves away backward at the same speed as the host vehicle 14. Therefore, the presence or absence of the signboard image 19 is determined by performing speed discrimination (step S21). If the signboard image 19 is not detected, An angle range that is equal to or greater than the vehicle presence area is set as a splash determination area (step S22). On the other hand, when the signage image 19 is detected, an angle range that is equal to or greater than the vehicle presence area and other than the signage image 19 is set as a splash determination area ( In step S22), by using the average value of these splash areas in step S13e, the influence of the signboard such as a road sign is eliminated, and the detection accuracy of the true object (the following vehicle 12) is reduced. It can be avoided.
[0048]
In the above-described embodiment, a vehicle located behind the own vehicle is assumed as a vehicle (follower vehicle 12) that may collide with the own vehicle 14. However, for example, as shown in FIG. Considering the case where the vehicle 20 and the vehicle 21 are approaching from behind when the vehicle 14 stops after passing through the curve, the vehicle 20 is traveling on the adjacent lane 22 and the vehicle 21 , The vehicle that should pay attention to the own vehicle 14 (the following vehicle that may collide with the own vehicle 14) is not along the vehicle 20 located behind the own vehicle 14 but along the own lane 21. The vehicle 21 is approaching. In order to detect such a vehicle 21 as a dangerous following vehicle, the shape (curvature or the like) of the own lane 23 is calculated from the yaw rate value before the stop detected by the yaw rate detection unit 4, or the stop of the own vehicle 14 is performed. The previous traveling locus may be estimated, and the vehicle 21 approaching along the lane shape or the traveling locus may be regarded as a dangerous following vehicle.
[0049]
In the above embodiment, the laser beam 11 is scanned in the X direction and the Y direction. For example, as shown in FIG. 15, the laser beam 11 having a horizontally long elliptical cross section is one-dimensionally drawn in the vertical direction (X direction). You may scan. The scanning mechanism and the scanning operation in the Y direction can be omitted.
[0050]
Further, in the above-described embodiment, the rear monitoring device has been described as an example. However, the present invention is not limited to this, and may be applied to a device that performs front monitoring of the vehicle 14. That is, as shown in FIG. 16, the laser radar device 2 may be mounted in front of the own vehicle 14 to detect a road surface or a preceding vehicle 24 located in front of the own vehicle 14. Even in this case, similarly to the above-described embodiment, it is possible to eliminate the influence of splash, rain, fog, and the like that the preceding vehicle 24 jumps up, and detect the preceding vehicle 24 with stable accuracy. When the distance to the preceding vehicle 24 (inter-vehicle distance) falls below a safe distance according to the speed of the own vehicle 14, an alarm is issued to the driver of the own vehicle 14 or braking is automatically applied. Can be.
[0051]
Also, in the above embodiment, the laser beam 11 is scanned in the X direction and is moved by one drive step in the Y direction. Conversely, the laser beam 11 is scanned in the Y direction and is moved by one drive step in the X direction. You may move each. In this case, a three-dimensional memory is prepared, the received light amounts in the Y direction, the X direction (angular direction) and the distance direction are stored. After the movement in the X direction is completed, the three-dimensional memory is scanned in the Y direction. 7 and FIG. 13 may be performed.
[0052]
Further, in the above-described embodiment, as an algorithm for eliminating the splash, a method of calculating the average value of the received light amount for each distance is exemplified, but the present invention is not limited to this. Furthermore, advanced image processing techniques and pattern recognition techniques may be used.For example, as a two-dimensional image of distance and angle, a detected object is determined by a technique such as edge detection, or a road surface has a similar shape. This may be used to determine the road surface angle.
[0053]
Further, in the above embodiment, the road surface angle is set, and all the angles smaller than the road surface are set as the road surface. Alternatively, the processing may be performed at a road surface angle or more at that distance.
[0054]
Further, in the above embodiment, when the acceleration is not in the range of -0.1G to 0.1G in step S13a of FIG. 7, the road surface angle is not calculated. For example, as shown in FIG. Alternatively, it may be determined whether or not the door has been opened and closed (step S31), and when the door has been opened and closed, the learning result of the road surface angle θ may be reset (step S32). Further, the road surface angle may be learned for each acceleration. This is because a situation where the own vehicle is actually dangerous is a situation where the sudden braking must be applied, and it is necessary to recognize a following vehicle at that time even when the own vehicle is tilted forward and backward. Therefore, a road surface angle corresponding to the acceleration of the own vehicle is required.
[0055]
In FIG. 17, first, it is determined whether or not the door is opened and closed in a step S31. This is because the angle at which the road surface can be seen may change due to the inclination of the vehicle body depending on the number of passengers, the amount of luggage, and the like. Therefore, it is determined whether or not the boarding door or the rear door has been opened and closed. If the door has been opened and closed, the learning result of the road surface angle θ is reset in step S32. On the other hand, if the condition in step S31 is not satisfied, an angle θ at which the road surface becomes invisible is obtained in step S13b. In step S13c, the learning is performed for each acceleration of the own vehicle, and the learning result is set as the road surface angle. Regarding the road surface angle, since the vehicle body is tilted during acceleration and deceleration, a table is provided for each acceleration of the vehicle and learning of the road surface angle is performed for each acceleration. As an example of the learning method, an average value of the road surface angle θ is obtained for each acceleration in a table in which the acceleration is divided every 0.01 G. Subsequent processing is the same as in FIG.
[0056]
Although FIG. 14 shows an example of the traveling locus using the yaw rate, it is highly probable that the own vehicle 14 is stopped or traveling at a rapid deceleration when a subsequent vehicle is assumed to collide. This means that if there is traffic congestion immediately after a sharp curve, the risk of collision with the following vehicle is the highest. However, the yaw rate value has very poor accuracy when the speed of the vehicle is low, and cannot be used at all when the vehicle stops. To compensate for this, as shown in FIG. 18, for example, a two-dimensional memory having 50 × 50 storage cells is provided. The trajectory of the host vehicle is plotted in the two-dimensional memory from the yaw rate and the host vehicle speed, the lane shape is calculated from the host vehicle trajectory, and the following vehicle is estimated. Even when the vehicle is traveling at a considerably low speed, the danger of a collision can be accurately determined.
[0057]
【The invention's effect】
According to the present invention, the pixel average value of the two-dimensional scan image has a value close to the pixel value of the target scattered over a wide range such as a splash, while the pixel value of the target such as a following vehicle has the average value. Since the value has a value larger than the value, the target object buried in splash or the like can be correctly detected by performing the above-described subtraction processing.
Further, according to the present invention, since the pixel average value of a portion equal to or larger than the road surface angle is adopted as the pixel average value of the two-dimensional scan image, the target object buried in the splash or the like without being affected by the road surface image. Can be detected correctly.
According to a preferred aspect of the present invention, "the road surface shape detected by the on-vehicle laser radar device does not correspond to the actual road surface shape at a position close to the own vehicle, and is detected as being shorter as the vehicle is closer to the own vehicle. By applying the principle of `` being done '', the image part corresponding to the road surface is extracted from the two-dimensional scan image, so that the detection accuracy of the road surface can be improved, the road surface angle is correctly recognized, and regardless of the type of vehicle It is possible to accurately detect a following vehicle or the like existing on the road surface.
[Brief description of the drawings]
FIG. 1 is an overall block diagram of a rear monitoring device.
FIG. 2 is a front view of the laser radar device 2 (particularly, a portion that receives and emits laser light).
FIG. 3 is a conceptual diagram of scanning of the laser radar device 2.
FIG. 4 is a conceptual view of scanning of the laser radar device 2 as viewed from a lateral direction.
FIG. 5 is a diagram showing a flowchart of a control program repeatedly executed in a control circuit 2a of the laser radar device 2 at a predetermined calculation cycle.
FIG. 6 is a conceptual diagram of information storage in a two-dimensional memory 2j.
FIG. 7 is a flowchart showing a subroutine of a following vehicle detection process (step S14 in FIG. 5).
FIG. 8 is a conceptual diagram of a process of detecting a following vehicle 12 that may collide with the host vehicle 14 from information stored in a two-dimensional memory 2j.
FIG. 9 is a view for explaining the effect of the present invention (elimination of the influence of splash).
FIG. 10 is a diagram (sports type vehicle detection) illustrating the effect of the present invention.
FIG. 11 is a diagram (large truck detection) illustrating the effect of the present invention.
FIG. 12 is a diagram illustrating another example of information stored in the two-dimensional memory 2j.
FIG. 13 is a diagram showing a modification of the above-described flowchart (FIG. 7).
14 is an explanatory diagram for detecting a vehicle 21 that poses a danger to the host vehicle 14 in consideration of the shape of the traveling lane of the host vehicle 14. FIG.
FIG. 15 is a conceptual diagram of one-dimensional scanning of a laser beam 11 having a horizontally long cross section in a vertical direction (X direction).
FIG. 16 is an explanatory diagram of mounting the laser radar device 2 in front of the host vehicle 14 and detecting a road surface and a preceding vehicle 24 located in front of the host vehicle 14;
FIG. 17 is a diagram showing a modification of the flowchart in FIG. 7;
FIG. 18 is a conceptual diagram of a two-dimensional memory for plotting a traveling locus of the own vehicle.
[Explanation of symbols]
S13b Step (extraction means)
S13c Step (identifying means)
S13e step (mean value calculating means, subtracting means)
S13f Step (determination means)
2 Laser radar device (vehicle laser radar device)
2a control circuit (image acquisition means)
11 Laser beam
12a Subsequent car image (true target)

Claims (3)

レーザビームを用いて車両後方又は車両前方を二次元スキャンしてその二次元スキャン画像を取得する画像取得手段と、
前記二次元スキャン画像の画素平均値を算出する平均値算出手段と、
前記二次元スキャン画像から前記画素平均値を減算する減算手段と、
前記減算手段による減算後の二次元画像に真の目標物が含まれているか否かを判定する判定手段と
を備えたことを特徴とする車載用レーザレーダ装置。
Image acquisition means for acquiring a two-dimensional scan image by two-dimensionally scanning the rear of the vehicle or the front of the vehicle using a laser beam,
Average value calculating means for calculating a pixel average value of the two-dimensional scan image,
Subtraction means for subtracting the pixel average value from the two-dimensional scan image,
A determining unit for determining whether or not a true target is included in the two-dimensional image after the subtraction by the subtracting unit;
レーザビームを用いて車両後方又は車両前方を二次元スキャンしてその二次元スキャン画像を取得する画像取得手段と、
前記二次元スキャン画像から路面に相当する画像部分を抽出する抽出手段と、
前記抽出手段によって抽出された路面に相当する画像から路面角度を特定する特定手段と、
前記二次元スキャン画像の前記路面角度以上の部分の画素平均値を算出する平均値算出手段と、
前記二次元スキャン画像から前記画素平均値を減算する減算手段と、
前記減算手段による減算後の二次元画像に真の目標物が含まれているか否かを判定する判定手段と
を備えたことを特徴とする車載用レーザレーダ装置。
Image acquisition means for acquiring a two-dimensional scan image by two-dimensionally scanning the rear of the vehicle or the front of the vehicle using a laser beam,
Extracting means for extracting an image portion corresponding to a road surface from the two-dimensional scan image,
Specifying means for specifying a road surface angle from an image corresponding to the road surface extracted by the extracting means,
Average value calculation means for calculating a pixel average value of a portion of the two-dimensional scan image of the road surface angle or more,
Subtraction means for subtracting the pixel average value from the two-dimensional scan image,
A determining unit for determining whether or not a true target is included in the two-dimensional image after the subtraction by the subtracting unit;
前記抽出手段は、前記二次元スキャン画像に含まれる画像の中から、前記レーザビームの低仰角側で距離方向の幅が狭く且つ仰角が大きくなるにつれて距離方向の幅が広くなる傾向を持つ画像を、前記路面に相当する画像部分として抽出することを特徴とする請求項2記載の車載用レーザレーダ装置。The extracting means may select, from among the images included in the two-dimensional scan image, an image in which the width in the distance direction is small on the low elevation angle side of the laser beam and the width in the distance direction is increased as the elevation angle is increased. 3. The on-vehicle laser radar device according to claim 2, wherein the laser beam is extracted as an image portion corresponding to the road surface.
JP2002290660A 2002-10-03 2002-10-03 On-vehicle laser radar device Pending JP2004125636A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002290660A JP2004125636A (en) 2002-10-03 2002-10-03 On-vehicle laser radar device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002290660A JP2004125636A (en) 2002-10-03 2002-10-03 On-vehicle laser radar device

Publications (1)

Publication Number Publication Date
JP2004125636A true JP2004125636A (en) 2004-04-22

Family

ID=32282452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002290660A Pending JP2004125636A (en) 2002-10-03 2002-10-03 On-vehicle laser radar device

Country Status (1)

Country Link
JP (1) JP2004125636A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043201A (en) * 2003-07-22 2005-02-17 Omron Corp Radar device for vehicle
JP2008542732A (en) * 2005-05-30 2008-11-27 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for recognizing and classifying objects
JP2009085939A (en) * 2007-08-03 2009-04-23 Valeo Vision Method and device for detecting view field affecting phenomenon by vehicle, and computer program therefor
JP2011232325A (en) * 2010-04-09 2011-11-17 Denso Corp Object recognition device
JP2012037301A (en) * 2010-08-05 2012-02-23 Clarion Co Ltd Inclination angle detection device for road and current position calculation device
JP2012108665A (en) * 2010-11-16 2012-06-07 Honda Motor Co Ltd Lane mark recognition device
JP2015206764A (en) * 2014-04-23 2015-11-19 矢崎総業株式会社 Object person existence range estimation device and object person existence range estimation method
CN110515089A (en) * 2018-05-21 2019-11-29 华创车电技术中心股份有限公司 Driving householder method based on optical radar
JP2020509412A (en) * 2017-02-28 2020-03-26 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Optical element for light emitting unit of optical acquisition device, light emitting unit, optical acquisition device, motor vehicle, and method
KR20200084372A (en) * 2018-09-28 2020-07-10 웨이모 엘엘씨 Terrain adaptive pulse power in scanning LIDAR
CN111812617A (en) * 2020-07-28 2020-10-23 广东博智林机器人有限公司 Laser radar assembly

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043201A (en) * 2003-07-22 2005-02-17 Omron Corp Radar device for vehicle
US8542106B2 (en) 2005-05-30 2013-09-24 Robert Bosch Gmbh Method and device for identifying and classifying objects
JP2008542732A (en) * 2005-05-30 2008-11-27 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for recognizing and classifying objects
JP2009085939A (en) * 2007-08-03 2009-04-23 Valeo Vision Method and device for detecting view field affecting phenomenon by vehicle, and computer program therefor
JP2011232325A (en) * 2010-04-09 2011-11-17 Denso Corp Object recognition device
JP2012037301A (en) * 2010-08-05 2012-02-23 Clarion Co Ltd Inclination angle detection device for road and current position calculation device
JP2012108665A (en) * 2010-11-16 2012-06-07 Honda Motor Co Ltd Lane mark recognition device
JP2015206764A (en) * 2014-04-23 2015-11-19 矢崎総業株式会社 Object person existence range estimation device and object person existence range estimation method
JP2020509412A (en) * 2017-02-28 2020-03-26 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Optical element for light emitting unit of optical acquisition device, light emitting unit, optical acquisition device, motor vehicle, and method
CN110515089A (en) * 2018-05-21 2019-11-29 华创车电技术中心股份有限公司 Driving householder method based on optical radar
CN110515089B (en) * 2018-05-21 2023-06-02 华创车电技术中心股份有限公司 Driving auxiliary method based on optical radar
KR20200084372A (en) * 2018-09-28 2020-07-10 웨이모 엘엘씨 Terrain adaptive pulse power in scanning LIDAR
KR102553103B1 (en) 2018-09-28 2023-07-10 웨이모 엘엘씨 Terrain adaptive pulse power in scanning LIDAR
CN111812617A (en) * 2020-07-28 2020-10-23 广东博智林机器人有限公司 Laser radar assembly
CN111812617B (en) * 2020-07-28 2023-07-07 广东博智林机器人有限公司 Laser radar assembly

Similar Documents

Publication Publication Date Title
JP4428208B2 (en) Vehicle object recognition device
CN113998034B (en) Rider assistance system and method
US9827956B2 (en) Method and device for detecting a braking situation
US9947227B1 (en) Method of warning a driver of blind angles and a device for implementing the method
US6927699B2 (en) Object recognition apparatus for vehicle, and inter-vehicle distance control unit
JP4730267B2 (en) Visibility state determination device for vehicle
US8633832B2 (en) Obstacle detection apparatus for vehicle
CN105473402A (en) In-vehicle control device
GB2491724A (en) Vehicle obstacle detection with additional horizontal radiation plane to discriminate between low and elevated obstacles
JP2008037361A (en) Obstacle recognition device
JP2002022831A (en) Method and apparatus for recognizing object, recording medium
JP2011248870A (en) Dead angle area detection device, dead angle area detection program and dead angle area detection method
US9667921B2 (en) Method and device for providing a signal for a light control unit
JP2009217495A (en) Hazard warning device
JP2004125636A (en) On-vehicle laser radar device
JP6011395B2 (en) Vehicle driving support device
JP2004184331A (en) Object recognition apparatus for motor vehicle
JP3941791B2 (en) Vehicle object recognition apparatus and program
JP2006515699A (en) Device for classifying at least one object around a vehicle
JP6527679B2 (en) Vehicle headlight device
CN112748447B (en) Obstacle avoidance method and system based on laser radar road surface information identification
US11433888B2 (en) Driving support system
JP4730027B2 (en) Vehicle target judgment device
CN111856510A (en) Vehicle front collision prediction method based on laser radar
JP4556597B2 (en) Leading vehicle detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060713

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061013