JP2004125636A - On-vehicle laser radar device - Google Patents
On-vehicle laser radar device Download PDFInfo
- Publication number
- JP2004125636A JP2004125636A JP2002290660A JP2002290660A JP2004125636A JP 2004125636 A JP2004125636 A JP 2004125636A JP 2002290660 A JP2002290660 A JP 2002290660A JP 2002290660 A JP2002290660 A JP 2002290660A JP 2004125636 A JP2004125636 A JP 2004125636A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- road surface
- angle
- average value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、車載用レーザレーダ装置に関する。詳しくは、自車に追突するおそれがある後続車の検出(自車の後方監視)、又は、自車が追突するおそれがある先行車の検出(自車の前方監視)に用いられる車載用レーザレーダ装置の改良に関する。
【0002】
【従来の技術】
レーザー
【LASER】〔Light Amplification by Stimulated Emission of Radiation〕とは、振動数が光の領域にある電磁波のことをいう。単波長で位相の揃った光(コヒーレントな光という。)であるため、低減衰で且つ拡散しにくい強い光が得られる。邦訳は「放射の誘導放出による光の増幅」である。また、
レーダ
【RADAR】〔RAdio Detection And Ranging〕とは、電磁波を使って物体を探知し、その位置(距離や方位等)を測定する測距装置のことをいう。したがって、レーザレーダ装置とは、特に「振動数が光の領域にある電磁波」を使った測距装置のことをいう。電波を使用しないため、法律(電波法)の制限を受けないというメリットがある。
【0003】
今日、自動車等の車両には様々な安全支援装置が搭載されており、たとえば、レーザレーダ装置を利用して、自車に追突するおそれがある後続車の検出を行う後方監視装置が知られている(たとえば、特許文献1参照。)。
【0004】
この後方監視装置は、自車の後方に向けてレーザビームを発射し、その反射光より、自車と後続車との間の実車間距離を計測し、前記実車間距離及び自車の速度(自車速)から後続車の車速(後続車速度)を算出し、前記自車速及び後続車速度に基づいて自車と後続車との間の安全車間距離を算出し、前記実車間距離が安全車間距離より短くなったときに、自車のストップランプ(ブレーキランプ)を点灯させるなどして、後続車の運転者に注意を喚起するようにしている。
【0005】
ところで、車両の走行は晴天時に限らず、降雨時や降雨後の走行も当然あり得る。このような場合、とりわけ雨量が多い場合、車両特有の問題として、自車や先行車のタイヤで跳ね上げられた水膜(スプラッシュという。)により、レーザレーダ装置の検出精度が低下することがある。そこで、かかるスプラッシュに着目した技術(以下「従来技術」という。)が知られている(たとえば、特許文献2参照。)。
【0006】
【特許文献1】
実用新案登録第2565672号公報
【特許文献2】
特開2001−357497号公報
【0007】
【発明が解決しようとする課題】
しかしながら、上記の従来技術は、
「自車に追突するおそれがある後続車は自車レーンを走行して自車に接近する後続車であるから、このような後続車をレーザレーダ装置で検出して監視すべきである」ことを指摘したうえ、
「自車レーン(路面の白線)の認識は、従来からCCDカメラ等の光学的画像認識手段を用いて行われていたところ、雨天時等の走行にあっては、自車のスプラッシュによって前記光学的画像認識手段による白線認識が不能となる」という課題を示し、
それの対策を開示しているものの、当該対策は、
「自車の車速を検出する車速検出手段と、自車のヨーレートを検出するヨーレート検出手段と、車速とヨーレートから自車の走行軌跡を推定する走行軌跡推定手段と、レーザレーダ装置により検出された後方車両のうち、前記走行軌跡付近を走行している後続車を検出する後続車検出手段と」を主たる要素として備えるものに過ぎず、
要するに、上記の従来技術は、確かに「スプラッシュ」に着目してはいるが、そのスプラッシュによって引き起こされる問題(レーザレーダ装置の検出精度の低下問題)を何ら解決するものではなく、ここに、本発明の意図する技術課題がある。
【0008】
そこで本発明の究極の課題は、スプラッシュによって引き起こされるレーザレーダ装置の検出精度の低下問題を解決することにある。
【0009】
【課題を解決するための手段】
この発明による車載用レーザレーダ装置は、レーザビームを用いて車両後方又は車両前方を二次元スキャンしてその二次元スキャン画像を取得する画像取得手段と、前記二次元スキャン画像の画素平均値を算出する平均値算出手段と、前記二次元スキャン画像から前記画素平均値を減算する減算手段と、前記減算手段による減算後の二次元画像に真の目標物が含まれているか否かを判定する判定手段とを備えたことを特徴とするものである。
ここで、「真の目標物」とは、レーザビームのスキャン方向が車両後方の場合は自車に追突するおそれがある“後続車”のことをいい、同スキャン方向が車両前方の場合は自車が追突するおそれがある“先行車”のことをいう。
この発明では、二次元スキャン画像の画素平均値はスプラッシュ等のような広い範囲に散在する目標物の画素値に近い値を持つ一方、後続車等の目標物の画素値は上記の平均値を上回る値を持つから、上記の減算処理を行うことにより、スプラッシュ等に埋もれた目標物を正しく検出できる。
また、この発明による車載用レーザレーダ装置は、レーザビームを用いて車両後方又は車両前方を二次元スキャンしてその二次元スキャン画像を取得する画像取得手段と、前記二次元スキャン画像から路面に相当する画像部分を抽出する抽出手段と、前記抽出手段によって抽出された路面に相当する画像から路面角度を特定する特定手段と、前記二次元スキャン画像の前記路面角度以上の部分の画素平均値を算出する平均値算出手段と、前記二次元スキャン画像から前記画素平均値を減算する減算手段と、前記減算手段による減算後の二次元画像に真の目標物が含まれているか否かを判定する判定手段とを備えたことを特徴とするものである。
ここで、「路面角度」とは、自車位置から十分遠方に離れた路面上を照射するレーザビームのスキャン角度(垂直方向のスキャン角度)のことをいう。監視方向の路面が平坦な場合、路面角度は0度ないし若干の負仰角になる。または、監視方向の路面が遠方になるにつれて高度が上がる坂道の場合は路面角度は正の仰角になり、あるいは、監視方向の路面が遠方になるにつれて高度が下がる坂道の場合は路面角度は負の仰角になる。「路面角度」を「路面高」と言い換えてもよい。「路面角度」は、自車位置の高さと自車位置から十分遠方に離れた路面上の高さとの相対関係を表すからである。
この発明では、二次元スキャン画像の画素平均値として、路面角度以上の部分の画素平均値が採用されるので、路面の画像に影響されることなく、スプラッシュ等に埋もれた目標物を正しく検出できる。
また、この発明の好ましい態様は、前記抽出手段は、前記二次元スキャン画像に含まれる画像の中から、前記レーザビームの低仰角側で距離方向の幅が狭く且つ仰角が大きくなるにつれて距離方向の幅が広くなる傾向を持つ画像を、前記路面に相当する画像部分として抽出することを特徴とするものである。
ここで、自車から発射された二つのレーザビーム(便宜的にレーザビームA、レーザビームBとする。)を考える。これら二つのレーザビームA、Bの仰角をそれぞれφa(レーザビームAの仰角)、φb(レーザビームBの仰角)とし、φa<φb<0度とすると、レーザビームA、Bはいずれも0度以下の低仰角ビームであり、φa<φbであるから、レーザビームAはレーザビームBよりも自車に近い位置を照射する。さらに、これら二つのレーザビームA、Bは所定の垂直ビーム幅を有している。したがって、レーザビームAの照射点における路面の検知長(実施の形態の説明ではD1)は、レーザビームBの照射点における路面の検知長(実施の形態の説明ではD2)よりも短くなる。つまり、車載用レーザレーダ装置によって検知される路面の形状は、自車に接近した位置においては実際の路面の形状に対応せず自車に近いほど短く検知される。前記好ましい態様における抽出手段は、この原理を応用して、二次元スキャン画像の中から路面に相当する画像部分を抽出する。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態を、自車に追突するおそれがある後続車の検出を行う「後方監視装置」を例にして説明する。
【0011】
なお、以下の説明における様々な細部の特定ないし実例および数値や文字列その他の記号の例示は、本発明の思想を明瞭にするための、あくまでも参考であって、それらのすべてまたは一部によって本発明の思想が限定されないことは明らかである。また、周知の手法、周知の手順、周知のアーキテクチャおよび周知の回路構成等(以下「周知事項」)についてはその細部にわたる説明を避けるが、これも説明を簡潔にするためであって、これら周知事項のすべてまたは一部を意図的に排除するものではない。かかる周知事項は本発明の出願時点で当業者の知り得るところであるので、以下の説明に当然含まれている。
【0012】
図1は、後方監視装置の全体的ブロック図である。後方監視装置1は、レーザレーダ装置(車載用レーザレーダ装置)2、車速検知部3、ヨーレート検知部4、ECU(電子制御ユニット)5、ストップランプ6、警告灯7、ブザー8、ハザードランプ9及びシートベルト装置10などを含んで構成される。
【0013】
レーザレーダ装置2は、装置全体の動作を統括制御する制御回路(画像取得手段)2aと、一対の光学レンズ(投光レンズ2bと受光レンズ2c)をXY方向(X方向は車両の高さ方向、Y方向は車両の車幅方向)にスキャンするレンズ駆動装置2dと、制御回路2aからの制御信号に従ってレンズ駆動装置2dを駆動するための駆動信号を生成出力するスキャン用回路2eと、制御回路2aからの制御信号に従って発光素子(LD:レーザダイオード)2fを点灯駆動する投光用回路2gと、受光素子(PD:フォトダイオード)2hで受光された光を電気信号に変換して制御回路2aに出力する受光用回路2iと、画像処理(詳細は後述)のための二次元メモリ2jとを備える。
【0014】
図2は、レーザレーダ装置2(特にレーザ光の受発光部分)の正面図である。発光素子2fと受光素子2hの前方に位置する投光レンズ2b及び受光レンズ2cは、シャフト2k、2mを介してレンズ駆動装置2dに一体的に連結されており、シャフト2k、2mは、レンズ駆動装置2d(内のリニアモータ)によってそれぞれ上下左右に駆動される。レンズ駆動装置2dによってシャフト2kが所定の距離範囲αで左右駆動されると、投光レンズ2b及び受光レンズ2cの光軸を同距離範囲αでスキャン(車両の車幅方向のスキャン)するようになっている。同様に、レンズ駆動装置2dによってシャフト2mが所定の距離範囲βで上下駆動されると、投光レンズ2b及び受光レンズ2cの光軸を同距離範囲βでスキャン(車両の高さ方向のスキャン)するようになっている。
【0015】
図3は、レーザレーダ装置2のスキャン概念図である。この図において、投光レンズ2bを通して自車後方に発射されたレーザビーム11は、自車の車幅方向(Y方向)に所定の角度範囲(上記の距離範囲αに対応する角度範囲;以下、説明の都合上、この角度範囲もαとする。)でスキャンされると共に、自車の高さ方向(X方向)に所定の角度範囲(上記の距離範囲βに対応する角度範囲;以下、説明の都合上、この角度範囲もβとする。)でスキャンされるため、これらのXYスキャンにより、自車後方の対象物(後続車12や路面13など)を検出することができる。なお、図示のレーザビーム11の断面形状は、縦長の楕円形になっている。これは、自車の車幅方向(Y方向)のビーム幅を狭くすることによって当該方向の分解能(水平分解能)を高めるためであるが、所要の分解能を得られれるのであれば、他の断面形状、たとえば、円形や横長の楕円形であってもよい。
【0016】
図4(a)は、横方向から見たレーザレーダ装置2のスキャン概念図である。この図において、自車の高さ方向(X方向)に所定の角度範囲βでスキャンされる各々のレーザビーム11のうち、低仰角のレーザビーム11L_1及び11L_2は自車14の後方直近の路面13を照射し、中仰角のレーザビーム11Mは後続車12を照射し、高仰角のレーザビーム11Hは空中に放射されている。
【0017】
ここで、自車14から低仰角のレーザビーム11L_1及び11L_2の照射点までの距離をそれぞれR1、R2とすると、R1<R2であり、且つ、レーザビーム11は、所定の垂直ビーム幅を有するので、図4(b)に示すように、距離R1における路面13の検知長D1は、距離R2における路面13の検知長D2よりも短くなる。つまり、レーザレーダ装置2によって検知される路面13の形状は、自車14に接近した位置においては実際の路面13の形状に対応せず自車14に近いほど短く検知される。この原理は、後述の「路面角度検知」(図7のステップS13b)で利用する。
【0018】
次に、レーザレーダ装置2の作用を説明する。
図5は、レーザレーダ装置2の制御回路2aにおいて、所定の演算周期毎に繰り返し実行される制御プログラムのフローチャートを示す図である。
【0019】
制御回路2aは、このフローチャートに従い、まず、レンズ駆動装置2dを駆動して投光レンズ2bと受光レンズ2cを車幅方向(Y方向)に1駆動ステップ移動する(ステップS11)。なお、“駆動ステップ”とは、車幅方向(Y方向)のスキャン角度(α)をレーザビーム11の水平ビーム半値幅に相当する角度θで割ったときに、その除算結果を最大の駆動ステップ番号(max)とする「第1」から「第max」までの駆動ステップのことである。たとえば、便宜的に、α=5度、θ=0.1度とすると、除算結果は「5÷0.5=10」であるから、第1から第10までの駆動ステップとなる。
【0020】
次に、そのY方向の駆動ステップ位置を保持したまま、レンズ駆動装置2dを駆動して投光レンズ2bと受光レンズ2cを車高方向(X方向)に所定の角度範囲βで1回スキャンしつつ、発光素子2fを点灯駆動して、そのスキャンの間に受光素子2hで受光された信号を取り込み、二次元メモリ2jに格納(ステップS12)した後、以上の処理(ステップS11及びステップS12)を車幅方向の所定の角度範囲αについて繰り返す。
【0021】
そして、同角度範囲α内のすべての駆動ステップ(前記の便宜例に従えば第1〜第10の駆動ステップ)について以上の処理を完了すると(ステップS13の“YES”)、ループを抜けて後述の「後続車検知処理」(ステップS14)を実行し、次いで、その後続車検知結果をECU5に出力(ステップS15)する。
【0022】
ECU5は、レーザレーダ装置2から出力された後続車検知結果に基づいて、自車と後続車との間の実車間距離を計測し、この実車間距離と車速検知部3で検知された自車の速度(自車速)とから後続車の車速(後続車速度)を算出し、自車速及び後続車速度に基づいて自車と後続車との間の安全車間距離を算出し、前記実車間距離が安全車間距離より短くなったときに、ストップランプ6を点灯(又は点滅)したり、ハザードランプ9を点滅したりして後続車の運転者に注意を喚起すると共に、警告灯7を点灯(又は点滅)したり、ブザー8を鼓動したりして自車の運転者に後続車の接近を警告し、又、シートベルト装置10のプリテンションを作動して、万が一の事態(追突)に備えるという安全対策を実行する。
【0023】
次に、前記のステップS12において、二次元メモリ2jに格納される情報の一例について説明する。
図6は、二次元メモリ2jの情報格納概念図である。この図において、二次元メモリ2jは縦軸を角度(レーザビーム11のX方向のスキャン角度)、横軸を距離(自車14からレーザビーム11の反射点までの距離)とする二次元マップの記憶空間を有している。二次元メモリ2jは任意の角度で且つ任意の距離から反射されてきたレーザビーム11の反射光の強さに応じた情報をそれらの角度と距離の交差点に記憶するものであり、要するに、角度と距離の二次元画像を格納する画像メモリに相当するものである。
【0024】
今、図示の二次元メモリ2jには、次の三つの対象物の画像が格納されている。第一は、路面13の画像(以下「路面画像13a」という。)である。先にも説明したとおり、路面画像13aは自車14の近くで路面幅D1が狭く、遠くになるほど路面幅D2が広くなる特性を持っている。すなわち、自車14からの距離が遠くなるほど路面幅が徐々に拡大し、ある距離(レーザビーム11のX方向のスキャン角度がほぼ水平のとき)以上で途切れて見えなくなる特性を持っている。したがって、路面画像13aが途切れて見えなくなったときの角度(又はその角度に若干のマージン角度を加えた角度)を「路面角度」として捉えることができる。
【0025】
第二は、後続車12の画像(以下「後続車画像12a」という。)である。後続車画像12aと前記の路面画像13aとの違いは、後続車画像12aは「路面角度」よりも角度的に上に位置し、且つ、後続車画像12aは一つの塊となって観察される(路面画像13aのように自車14の近くからある距離にかけて連続するような広域的分布の画像ではない。)点にある。後続車画像12aは発明の要旨に記載の“真の目標物”に相当する。
【0026】
以上のとおり、第一の画像(路面画像13a)と第二の画像(後続車画像12a)の間には、上記の明確な違いがあるから、この違いを利用して両者を区別し、自車14に追突するおそれがある後続車12を正しく検出することができる。
【0027】
さて、本発明の課題は、スプラッシュによって引き起こされるレーザレーダ装置2の検出精度の低下問題を解決することにある。
本件発明者らによれば、スプラッシュによる画像は、上記の第一の画像(路面画像13a)や第二の画像(後続車画像12a)と異なる特徴を有すること、具体的には、図6に示すように、スプラッシュによる画像(以下「スプラッシュ画像16」)は、広角度、且つ、近距離から中遠距離までの広範囲に満遍なく分布する点で、上記の第一の画像(路面画像13a)や第二の画像(後続車画像12a)と明らかに異なる特徴を示すこと、さらに、当該画像(スプラッシュ画像16)の画素値は、平均的に、第一の画像(路面画像13a)や第二の画像(後続車画像12a)の画素値よりも小さいという特徴を有することに着目し、これらの特徴を利用して、スプラッシュ画像16に埋もれた第二の画像(後続車画像12a)を検出することとにした。
【0028】
ちなみに、「スプラッシュ画像16の画素値が、平均的に、路面画像13aや後続車画像12aの画素値よりも小さい」ことの理由は、路面13や後続車12からの反射レーザ光の強度が充分に大きいのに比べて、水滴(スプラッシュは要するに水滴の集まりである。)の表面で散乱する反射レーザ光の強度は相当に弱くなるからである。
【0029】
図7は、後続車検知処理(図5のステップS14)のサブルーチンを示すフローチャートである。
このフローチャートでは、まず、車速検知部3から自車14の車速を取り込み、当該車速の変化度合い(たとえば、微分値)から、自車14の加減速度を計算する。そして、その加減速度が所定の減速度(たとえば、−0.1G程度)と所定の加速度(たとえば、+0.1G程度)の範囲内にあり、且つ、0以外の加減速度であるか否かを判定する(ステップS13a)。これらの加減速度判定条件は、要するに、自車14が非停車状態(加減速度≠0)で、且つ、急加速や急減速を伴わない定速走行中であるか否かを判定していることになる。
【0030】
そして、加減速度判定条件を満たしている場合は、次に、路面の見えなくなる角度θを求め(ステップS13b;抽出手段)、その角度θを学習(たとえば、イグニッションON時から現在までの角度θの平均値を求め、これを路面角度とする。)してその学習結果を「路面角度」(図6参照)にセットし(ステップS13c;特定手段)、以降の処理(ステップS13d〜ステップS13f;判定手段)に進む一方、加減速度判定条件を満たしていない場合は、上記のステップS13b及びステップS13cをパスし、以降の処理(ステップS13d〜ステップS13f)に進む。
【0031】
ここで、上記の加減速度判定条件のうち定速走行中であるか否かの判定条件は、急加速や急減速を行うと、車体の後部が沈み込み(急加速の場合)又は浮き上がる(急減速の場合)ため、その車両のサスペンションの堅さにもよるが、たとえば、−0.1G程度以下の減速度や+0.1G程度以上の加速度が車体に作用した場合に、上記の沈み込みや浮き上がりに伴い、レーザビーム11の光軸が車体の高さ方向(X方向)に相当量(1度以上)傾くからであり、このような傾きを持ったままのレーザビーム11で路面角度を学習しても、その路面角度は充分な信頼性を得られないからである。
【0032】
この理由から、本実施の形態では、充分な信頼性で路面角度を学習するために、上記の「定速走行中であるか否かの判定条件」を加えているのである。また、他の判定条件(非停車状態;加減速度≠0)は、急加減速を伴わない走行中にのみ、路面角度を学習することとしたものであり、その理由は、非停車状態にないとき(つまり、自車14が停車状態にあるとき)は、追突の危険に注意を払うべきであり、路面角度の学習よりもむしろ後続車12の接近に最大限の関心を払うべきであるからである。
【0033】
なお、上記のステップS13aでは、車速検知部3で検知された車速から自車14の加減速度を計算しているが、たとえば、加速度センサ等の加減速度検出手段を備えておき、その出力信号を利用してもよいことはもちろんである。
【0034】
路面角度の学習を完了すると、次に、二次元メモリ2jの格納情報から、自車14に追突するおそれがある後続車12を検出する処理(ステップS13d及びステップS13e;平均値算出手段、減算手段)を実行する。
【0035】
図8(a)〜(c)は、上記処理、すなわち、二次元メモリ2jの格納情報から、自車14に追突するおそれがある後続車12を検出する処理の概念図である。図8(a)において、A及びBは代表的に示す二つの画像抽出対象距離である。距離Aと交わる波線A′及び距離Bと交わる波線B′は、それらの距離(A、B)に対応した抽出画像の取り出し線である。以下、便宜的に、波線A′に沿って取り出された抽出画像を第A抽出画像17ということにし、波線B′に沿って取り出された抽出画像を第B抽出画像18ということにする。第A抽出画像17はスプラッシュ画像16のみで形成されており、第B抽出画像18はスプラッシュ画像16に埋もれた後続車画像12を含んでいる。
【0036】
さて、先にも説明したとおり、スプラッシュ画像16の画素値に対して、後続車画像12aの画素値は大きい値を持っている。スプラッシュ画像16は、水滴で散乱した弱い反射レーザ光によって形成されるからである。
【0037】
図8(b)に示すように、第A抽出画像17の画素値の分布は角度の大小に関わらず概ね一定しているが、図8(c)に示すように、第B抽出画像18の画素値の分布は、後続車画像12aの存在角度度域で突出しているため、これら二つの抽出画像(第A抽出画像17と第B抽出画像18)の各々の平均値Aave、Baveを取り、第A抽出画像17の画素値から第A抽出画像17の平均値Aaveを減算し、且つ、第B抽出画像18の画素値から第B抽出画像18の平均値Baveを減算することにより、図8(b)、(c)の右図に示すような結果を得ることができる。
【0038】
すなわち、減算後の第A抽出画像17′は、ほぼノイズ分程度の無益情報しか残らないのに対して、減算後の第B抽出画像18′は、後続車画像12aに対応する有益情報が残る。
【0039】
したがって、上記の減算結果(第A抽出画像17′及び第B抽出画像18′)で、二次元メモリ2jの格納情報(路面角度以上の格納情報)を書き換えることにより、不要な画像情報(スプラッシュ画像16)を取り除いたほぼ後続車画像12aだけの、あたかも晴天時における自車後方画像の如き良質な画像を二次元メモリ2jに保持させることができる。
【0040】
最後に、二次元メモリ2jの格納情報の中から、「路面角度」以上で、且つ、特定の“塊”を持った画素値の集合を取り出すことにより、当該集合部分を後続車12として検出することができ(ステップS13f)、その検出結果をECU5に出力(図5のステップS15)することができる。“塊”とは、車両の投影面積以上の大きさを持った画素値の集合部分であり、具体的には1m以上の大きさを持ったものである。
【0041】
なお、図8(b)、(c)の左図のような情報を得るためには、受光用回路2iのダイナミックレンジができるだけ広いことが求められる。ダイナミックレンジが狭い場合は、第A抽出画像17や第B抽出画像18が飽和してしまい、平均値を減算しても後続車画像12aを取り出せないからである。たとえば、対数型アンプは高ダイナミックレンジを有するので、受光用回路2iに用いて好ましい。また、受光用回路2iに高ダイナミックレンジのアンプを用いると共に、そのアンプの増幅利得を可変とするようにしてもよい。この場合、前記の平均値Aave、Baveに応じて利得調整を行うと、具体的には、前記の平均値Aave、Baveが大きいほど、増幅利得を下げるように利得調整すると、実質的なダイナミックレンジの拡大効果を得られるから、とりわけ豪雨時におけるスプラッシュ対策の点でより好ましい。
【0042】
以上のとおりであるから、本実施の形態によれば、晴天時はもちろんのこと、図9に示すように、雨天時等に自車14の跳ね上げたスプラッシュ(又は霧や雪)に影響されることなく、自車14に追突するおそれがある後続車12を検出することができるという従来技術にない格別の効果を得ることができる。
【0043】
また、本実施の形態では、「路面角度」(図6参照)を正確に把握できるため、たとえば、図10に示すような車高の低いスポーツタイプの車両(これらの車両の多くは空気抵抗を低減するためにボンネットやフロントガラスが大きく傾斜しており、レーザビームの反射光も相当に弱くなる。)にあっても、「路面角度」以上に存在する画素値の“塊”から、当該車両を検出することができる。
【0044】
あるいは、図11に示すような車高の高い車両(大型トラック等)にあっては、レーザビームの低仰角部分が車体の下を通り抜けてしまうため弱い反射光しか得られないが、上記と同様に「路面角度」以上に存在する画素値の“塊”から、当該車両を検出することができる。
【0045】
なお、本発明の技術思想は上記実施の形態に限定されず、様々な変形例があり得る。
上記の実施の形態では、「路面角度以上の角度の受光量平均値を求め、受光量からその平均値を減算する」(ステップS13e)ことにより、スプラッシュの影響を排除しているが、これに限定されない。たとえば、道路を走行できる車両の高さは許可を受けた場合を除き「3.8m以下」に制限(道路法)されているため、図12に示すように、二次元メモリ2jの格納情報に含まれる後続車画像12aの高さは、通常、上記の制限値に相当する角度Gを超過することはない。この点に注目し、当該角度Gから路面角度までの範囲を後続車の存在領域(以下「車両存在領域」という。)に設定すると共に、当該角度G以上の範囲をスプラッシュ判定領域として設定するようにしてもよい。なお、図示のスプラッシュ領域には“看板等画像19”が含まれているが、この看板等画像19については後で説明する。
【0046】
図13は、前記のフローチャート(図7)の変形例であり、図12に示す二次元メモリ2jの格納情報に対応させたものである。前記のフローチャートとの相違点は、距離毎に行われる処理(ステップS13e′)にある。すなわち、この変形例では、車両存在領域以上の角度領域(スプラッシュ判定領域)の受光量の平均値を求め、その平均値を受光量から減算することにより、真の対象物(後続車12)を検出するようにしている。これによれば、スプラッシュ領域の受光量の平均値には、後続車画像12aが含まれていないから、真の対象物(後続車12)の検出精度を向上することができる。
【0047】
ところで、車両存在領域以上の角度領域には、スプラッシュだけでなく、場合によっては、道路上を横断する橋や道路上の高い位置に設置された道路標識等看板の画像(以下、これらを総称して「看板等画像19」という。)が含まれることがある。このような場合、受光量の平均値に看板等画像19が含まれてしまうため、真の対象物(後続車12)の検出精度を低下させるおそれがあるが、橋や看板等は固定物(非移動物)であり、自車14と同じ速度で後方に遠ざかるから、速度弁別を行って看板等画像19の有無を判定し(ステップS21)、看板等画像19が検出されなかった場合は、車両存在領域以上の角度範囲をスプラッシュ判定領域とし(ステップS22)、一方、看板等画像19が検出された場合は、車両存在領域以上で且つ看板等画像19以外の角度範囲をスプラッシュ判定領域とし(ステップS22)、これらのスプラッシュ領域の平均値をステップS13eで利用することにより、道路標識等看板の影響を排除して、真の対象物(後続車12)の検出精度の低下問題を回避することができる。
【0048】
また、上記実施の形態では、自車14に追突するおそれがある車両(後続車12)として自車の後方に位置する車両を想定しているが、たとえば、図14に示すように、自車14がカーブを抜けたところで停止しているときに、その後方から車両20と車両21が接近しつつある場合を考えると、車両20は隣接レーン22を走行しており、車両21は自レーン23を走行しているから、自車14にとって注意を払うべき車両(自車14に追突するおそれがある後続車)は、自車14の後方に位置する車両20ではなく、自レーン21に沿って接近しつつある車両21である。このような車両21を危険な後続車として検出するためには、ヨーレート検知部4で検知された停車以前のヨーレート値から自レーン23の形状(曲率等)を演算し、又は自車14の停車以前の走行軌跡を推定し、そのレーン形状や走行軌跡に沿って接近しつつある車両21を危険な後続車とすればよい。
【0049】
また、上記実施の形態では、レーザビーム11をX方向とY方向にスキャンしているが、たとえば、図15に示すように、横長楕円断面のレーザビーム11を縦方向(X方向)に1次元スキャンしてもよい。Y方向のスキャン機構とスキャン操作を省略できる。
【0050】
また、上記実施の形態では、後方監視装置を例にしたが、これに限らず、自車14の前方監視を行う装置に適用してもよい。すなわち、図16に示すように、レーザレーダ装置2を自車14の前方に取り付け、自車14の前方に位置する路面や先行車24を検知するようにしてもよい。この場合にあっても、上記の実施の形態と同様に、先行車24が跳ね上げるスプラッシュや雨又は霧等の影響を排除し、安定した精度で先行車24を検知することができ、たとえば、先行車24までの距離(車間距離)が自車14の速度に応じた安全距離を下回ったときに、自車14の運転者に対して警報を発したり、自動的に制動をかけたりすることができる。
【0051】
また、上記実施の形態では、レーザビーム11をX方向にスキャンして、それをY方向に1駆動ステップずつ移動させているが、逆にY方向にスキャンし、それをX方向に1駆動ステップずつ移動させてもよい。この場合、三次元メモリを用意し、Y方向、X方向(角度方向)及び距離方向の受光量を記憶し、X方向の移動が終了した後、Y方向に三次元メモリをスキャンしながら、図7や図13の処理を行えばよい。
【0052】
また、上記実施の形態では、スプラッシュ排除のためのアルゴリズムとして、距離ごとに受光量の平均値を求める手法を例示したが、これに限定されない。さらに、高度な画像処理手法やパターン認識手法を利用してもよく、たとえば、距離と角度の二次元画像として、エッジ検出等の手法で検出物を判断したり、路面が同じような形状を持つことを利用して路面角度を判断したりしてもよい。
【0053】
また、上記実施の形態では、路面角度を設定し、それ以下の角度を全て路面としていたが、距離ごとに路面を判断し、図7のフローチャートのステップS13e又は図13のフローチャートのステップS13e′において、その距離における路面角度以上で処理を行ってもよい。
【0054】
また、上記実施の形態では、図7のステップS13aで、加速度が−0.1Gから0.1Gの範囲にない場合は、路面の角度を計算しないようにしたが、たとえば、図17に示すように、ドアが開閉されたか否かを判断し(ステップS31)、ドアが開閉された場合に路面角度θの学習結果をリセットする(ステップS32)ようにしてもよい。さらに、加速度ごとに路面角度を学習させるようにしてもよい。これは、実際に自車両が危険となる場面は、急ブレーキを踏まざるを得ない場面であり、自車両が前後に傾いた状態でも、その時の後続車を認識する必要があるためである。そのため、自車両の加速度に応じた路面角度が必要になる。
【0055】
図17において、まず、ステップS31でドアが開閉されたかどうかを判断する。これは路面が見える角度は、乗車人数、荷物の量などで車体が傾くため変化することがあるためである。そこで、乗車ドアまたは後部ドアが開閉されたかどうかを判断し、もし開閉された場合は、ステップS32で路面角度θの学習結果をリセットする。一方、ステップS31の条件が不成立であれば、ステップS13bで路面の見えなくなる角度θを求める。ステップS13cでそれを自車の加速度ごとに学習させて、学習結果を路面角度とする。路面角度については、加速、減速時には車体が傾斜するため、自車の加速度ごとにテーブル持ち、加速度ごとに路面角度の学習を行う。学習方法の一例としては、加速度を0.01Gごとに分けたテーブルに、加速度ごとに路面角度θの平均値を求める。以後の処理は、図7と同様である。
【0056】
また、図14ではヨーレートを用いた走行軌跡の一例を示したが、後続車の衝突を前提とする時、自車14は停止、もしくは急速に減速して走行している可能性が高い。これは、急カーブ直後で渋滞していた場合が、もっとも後続車衝突の危険が高いことを物語っている。ところがヨーレート値は、車両の速度が低い場合は非常に精度が悪く、自車が停止した場合にまったく利用することができないという性質を持っている。これを補うため、図18に示すように、たとえば、50×50の記憶セルを持つ二次元メモリを備える。ヨーレートと自車速から自車の走行してきた軌跡をその二次元メモリ内にプロットしていき、この自車走行軌跡からレーン形状を演算し、後続車を推定することによって、自車両が停止、もしくは相当な低速で走行していた場合にも、正確に衝突の危険を判断することができる。
【0057】
【発明の効果】
この発明によれば、二次元スキャン画像の画素平均値はスプラッシュ等のような広い範囲に散在する目標物の画素値に近い値を持つ一方、後続車等の目標物の画素値は上記の平均値を上回る値を持つから、上記の減算処理を行うことにより、スプラッシュ等に埋もれた目標物を正しく検出できる。
また、この発明によれば、二次元スキャン画像の画素平均値として、路面角度以上の部分の画素平均値が採用されるので、路面の画像に影響されることなく、スプラッシュ等に埋もれた目標物を正しく検出できる。
また、この発明の好ましい態様によれば、「車載用レーザレーダ装置によって検知される路面の形状は、自車に接近した位置においては実際の路面の形状に対応せず自車に近いほど短く検知される」という原理を応用して、二次元スキャン画像の中から路面に相当する画像部分を抽出するので、路面の検知精度を向上でき、路面角度を正しく認識して、車両の種類に関わらず、その路面上に存在する後続車等を精度よく検知することができる。
【図面の簡単な説明】
【図1】後方監視装置の全体的ブロック図である。
【図2】レーザレーダ装置2(特にレーザ光の受発光部分)の正面図である。
【図3】レーザレーダ装置2のスキャン概念図である。
【図4】横方向から見たレーザレーダ装置2のスキャン概念図である。
【図5】レーザレーダ装置2の制御回路2aにおいて、所定の演算周期毎に繰り返し実行される制御プログラムのフローチャートを示す図である。
【図6】二次元メモリ2jの情報格納概念図である。
【図7】後続車検知処理(図5のステップS14)のサブルーチンを示すフローチャートである。
【図8】二次元メモリ2jの格納情報から自車14に追突するおそれがある後続車12を検出する処理の概念図である。
【図9】本発明の効果を説明する図(スプラッシュの影響排除)である。
【図10】本発明の効果を説明する図(スポーツタイプの車両検知)である。
【図11】本発明の効果を説明する図(大型トラックの検知)である。
【図12】二次元メモリ2jの格納情報の他の例を示す図である。
【図13】前記のフローチャート(図7)の変形例を示す図である。
【図14】自車14の走行レーンの形状を加味して自車14に危険を及ぼす車両21を検知する説明図である。
【図15】横長断面のレーザビーム11を縦方向(X方向)に1次元スキャンする概念図である。
【図16】レーザレーダ装置2を自車14の前方に取り付け、自車14の前方に位置する路面や先行車24を検知する説明図である。
【図17】図7のフローチャートの変形例を示す図である。
【図18】自車の走行軌跡をプロットするための二次元メモリの概念図である。
【符号の説明】
S13b ステップ(抽出手段)
S13c ステップ(特定手段)
S13e ステップ(平均値算出手段、減算手段)
S13f ステップ(判定手段)
2 レーザレーダ装置(車載用レーザレーダ装置)
2a 制御回路(画像取得手段)
11 レーザビーム
12a 後続車画像(真の目標物)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an in-vehicle laser radar device. More specifically, a vehicle-mounted laser used to detect a following vehicle that may collide with the own vehicle (backward monitoring of the own vehicle) or a preceding vehicle that may possibly collide with the own vehicle (monitoring the front of the own vehicle). The present invention relates to improvement of a radar device.
[0002]
[Prior art]
laser
[LASER] [Light Amplification by Stimulated Emission of Radiation] means an electromagnetic wave whose frequency is in a light region. Since the light has a single wavelength and a uniform phase (referred to as coherent light), it is possible to obtain strong light with low attenuation and which is not easily diffused. The Japanese translation is "amplification of light by stimulated emission of radiation." Also,
Radar
[RADAR] [Radio Detection And Ranging] is a distance measuring device that detects an object using an electromagnetic wave and measures its position (distance, direction, etc.). Therefore, the laser radar device particularly refers to a distance measuring device using “an electromagnetic wave whose frequency is in a light region”. Since radio waves are not used, there is an advantage in that they are not restricted by law (the Radio Law).
[0003]
Today, vehicles such as automobiles are equipped with various safety support devices. For example, there is a known rearward monitoring device that uses a laser radar device to detect a following vehicle that may collide with the own vehicle. (For example, see Patent Document 1).
[0004]
This rear monitoring device emits a laser beam toward the rear of the own vehicle, measures the actual inter-vehicle distance between the own vehicle and the following vehicle from the reflected light, and calculates the actual inter-vehicle distance and the speed of the own vehicle ( The following vehicle speed (subsequent vehicle speed) is calculated from the own vehicle speed), and the safe inter-vehicle distance between the own vehicle and the following vehicle is calculated based on the own vehicle speed and the following vehicle speed. When the vehicle is shorter than the distance, a stop lamp (brake lamp) of the own vehicle is turned on to call attention to a driver of a following vehicle.
[0005]
By the way, the traveling of the vehicle is not limited to the fine weather, and may naturally be the traveling in the rain or after the rain. In such a case, particularly when the amount of rainfall is large, as a problem peculiar to the vehicle, the detection accuracy of the laser radar device may decrease due to a water film (splash) jumped up by a tire of the own vehicle or a preceding vehicle. . Therefore, a technique that focuses on such a splash (hereinafter, referred to as “prior art”) is known (for example, see Patent Literature 2).
[0006]
[Patent Document 1]
Utility Model Registration No. 2565672
[Patent Document 2]
JP 2001-357497 A
[0007]
[Problems to be solved by the invention]
However, the prior art described above
"Because the following vehicle that may collide with the own vehicle is the one following the own vehicle lane and approaching the own vehicle, such a following vehicle should be detected and monitored by the laser radar device." After pointing out,
"Recognition of the own vehicle lane (white line on the road surface) has conventionally been performed using an optical image recognition means such as a CCD camera. The white line recognition by the dynamic image recognition means becomes impossible. "
Although the measures are disclosed,
"The vehicle speed detecting means for detecting the vehicle speed of the own vehicle, the yaw rate detecting means for detecting the yaw rate of the own vehicle, the running locus estimating means for estimating the running locus of the own vehicle from the vehicle speed and the yaw rate, and Of the following vehicles, a following vehicle detecting means for detecting a following vehicle traveling near the traveling locus is only provided as a main element,
In short, the above prior art certainly focuses on "splash", but does not solve any problem caused by the splash (a problem of lowering the detection accuracy of the laser radar device). There is a technical problem intended by the invention.
[0008]
Therefore, an ultimate object of the present invention is to solve the problem of a decrease in detection accuracy of a laser radar device caused by splash.
[0009]
[Means for Solving the Problems]
The vehicle-mounted laser radar device according to the present invention includes: an image acquisition unit configured to two-dimensionally scan a vehicle rear or a vehicle front using a laser beam to acquire a two-dimensional scan image; and calculate a pixel average value of the two-dimensional scan image. Average value calculating means, subtracting means for subtracting the pixel average value from the two-dimensional scanned image, and determining whether or not a true target is included in the two-dimensional image after the subtraction by the subtracting means. Means.
Here, the “true target” refers to a “follower vehicle” that may collide with the host vehicle when the scanning direction of the laser beam is behind the vehicle. Refers to a "preceding vehicle" where a car may collide.
According to the present invention, the average pixel value of the two-dimensional scan image has a value close to the pixel value of the target scattered over a wide range such as a splash, while the pixel value of the target such as a following vehicle has the above average value. Since the value has a value larger than the target value, by performing the above-described subtraction processing, a target object buried in splash or the like can be correctly detected.
Further, an on-vehicle laser radar device according to the present invention includes an image acquisition unit that two-dimensionally scans a vehicle rear or a vehicle front using a laser beam to acquire a two-dimensional scan image, and corresponds to a road surface from the two-dimensional scan image. Extracting means for extracting an image portion to be extracted, specifying means for specifying a road surface angle from an image corresponding to the road surface extracted by the extracting means, and calculating a pixel average value of a portion of the two-dimensional scan image at or above the road surface angle Average value calculating means, subtracting means for subtracting the pixel average value from the two-dimensional scanned image, and determining whether or not a true target is included in the two-dimensional image after the subtraction by the subtracting means. Means.
Here, the “road surface angle” refers to a scan angle (vertical scan angle) of a laser beam that irradiates a road surface that is sufficiently far away from the vehicle position. When the road surface in the monitoring direction is flat, the road surface angle becomes 0 degree or a slight negative elevation angle. Alternatively, the road surface angle becomes a positive elevation angle on a slope that increases in altitude as the road surface in the monitoring direction becomes more distant, or the road surface angle becomes negative in a slope that decreases as the road surface in the monitoring direction becomes more distant. Elevate. “Road angle” may be rephrased as “road height”. This is because the “road angle” indicates a relative relationship between the height of the own vehicle position and the height on a road surface that is sufficiently far from the own vehicle position.
According to the present invention, since the pixel average value of a portion equal to or larger than the road surface angle is adopted as the pixel average value of the two-dimensional scan image, the target object buried in splash or the like can be correctly detected without being affected by the road surface image. .
Further, in a preferred aspect of the present invention, the extracting unit is configured such that, from among the images included in the two-dimensional scan image, the width of the laser beam in the distance direction on the low elevation angle side is narrow and the elevation angle in the distance direction is increased as the elevation angle increases. An image having a tendency to increase in width is extracted as an image portion corresponding to the road surface.
Here, two laser beams emitted from the vehicle (laser beam A and laser beam B for convenience) are considered. If the elevation angles of these two laser beams A and B are φa (elevation angle of laser beam A) and φb (elevation angle of laser beam B), respectively, and if φa <φb <0 degrees, both laser beams A and B are 0 degree. Since the following low-elevation angle beam is satisfied and φa <φb, the laser beam A irradiates a position closer to the vehicle than the laser beam B. Further, these two laser beams A and B have a predetermined vertical beam width. Therefore, the detection length of the road surface at the irradiation point of the laser beam A (D1 in the description of the embodiment) is shorter than the detection length of the road surface at the irradiation point of the laser beam B (D2 in the description of the embodiment). That is, the shape of the road surface detected by the on-vehicle laser radar device does not correspond to the actual road surface shape at a position close to the own vehicle, and is detected shorter as the vehicle is closer to the own vehicle. The extracting means in the preferred embodiment extracts an image portion corresponding to a road surface from a two-dimensional scan image by applying this principle.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to an example of a “rear monitoring device” that detects a following vehicle that may collide with the own vehicle.
[0011]
In the following description, the specification or examples of various details and examples of numerical values, character strings, and other symbols are merely reference for clarifying the idea of the present invention, and all or some of them Obviously, the idea of the invention is not limited. In addition, well-known techniques, well-known procedures, well-known architectures, and well-known circuit configurations (hereinafter, “known matters”) will not be described in detail, but this is also for the purpose of simplifying the description, It does not intentionally exclude all or some of the matters. Such a well-known matter can be known to those skilled in the art at the time of filing the present invention, and is naturally included in the following description.
[0012]
FIG. 1 is an overall block diagram of the backward monitoring device. The
[0013]
The
[0014]
FIG. 2 is a front view of the laser radar device 2 (particularly, a part that receives and emits laser light). The
[0015]
FIG. 3 is a conceptual view of the scan of the
[0016]
FIG. 4A is a conceptual scanning diagram of the
[0017]
Here, assuming that the distances from the
[0018]
Next, the operation of the
FIG. 5 is a diagram showing a flowchart of a control program repeatedly executed in the control circuit 2a of the
[0019]
According to this flowchart, the control circuit 2a first drives the
[0020]
Next, while maintaining the driving step position in the Y direction, the
[0021]
When the above processing is completed for all the driving steps within the same angle range α (first to tenth driving steps according to the above-described convenience example) (“YES” in step S13), the processing exits the loop and will be described later. Is executed (step S14), and the result of the subsequent vehicle detection is output to the ECU 5 (step S15).
[0022]
The ECU 5 measures the actual inter-vehicle distance between the own vehicle and the following vehicle based on the following vehicle detection result output from the
[0023]
Next, an example of information stored in the two-
FIG. 6 is a conceptual diagram of information storage in the two-
[0024]
Now, in the illustrated two-
[0025]
The second is an image of the following vehicle 12 (hereinafter, referred to as “following vehicle image 12a”). The difference between the following vehicle image 12a and the road surface image 13a is that the following vehicle image 12a is located at an angle higher than the "road surface angle", and the following vehicle image 12a is observed as one lump. (It is not an image having a wide distribution that is continuous over a certain distance from the vicinity of the
[0026]
As described above, since the first image (road image 13a) and the second image (following vehicle image 12a) have the above-mentioned clear difference, the two are distinguished by using this difference, and The succeeding
[0027]
An object of the present invention is to solve a problem of a decrease in detection accuracy of the
According to the present inventors, the splash image has different characteristics from the above-described first image (road surface image 13a) and second image (following vehicle image 12a). Specifically, FIG. As shown, the image due to the splash (hereinafter referred to as “
[0028]
Incidentally, the reason that “the pixel value of the
[0029]
FIG. 7 is a flowchart showing a subroutine of the following vehicle detection process (step S14 in FIG. 5).
In this flowchart, first, the vehicle speed of the
[0030]
Then, when the acceleration / deceleration determination condition is satisfied, the angle θ at which the road surface becomes invisible is obtained (step S13b; extracting means), and the angle θ is learned (for example, the angle θ from the ignition ON to the present time). An average value is obtained, and this is set as a road surface angle.), And the learning result is set to “road surface angle” (see FIG. 6) (step S13c; specifying means), and the subsequent processing (steps S13d to S13f; determination) On the other hand, if the acceleration / deceleration determination condition is not satisfied, the process passes steps S13b and S13c, and proceeds to the subsequent processes (steps S13d to S13f).
[0031]
Here, among the above-mentioned acceleration / deceleration determination conditions, a condition for determining whether or not the vehicle is traveling at a constant speed is that, when rapid acceleration or rapid deceleration is performed, the rear portion of the vehicle body sinks (in the case of rapid acceleration) or rises (suddenly). For example, when the vehicle is subject to a deceleration of about -0.1 G or less or an acceleration of about +0.1 G or more, depending on the hardness of the suspension of the vehicle, This is because the optical axis of the laser beam 11 is inclined by a considerable amount (1 degree or more) in the height direction (X direction) of the vehicle body with the lifting, and the road surface angle is learned by the laser beam 11 having such an inclination. Even so, the road surface angle cannot obtain sufficient reliability.
[0032]
For this reason, in the present embodiment, in order to learn the road surface angle with sufficient reliability, the above-mentioned "condition for determining whether or not the vehicle is traveling at a constant speed" is added. The other determination condition (non-stop state; acceleration / deceleration ≠ 0) is that the road surface angle is learned only during traveling without sudden acceleration / deceleration. The reason is that the vehicle is not in the non-stop state. At that time (that is, when the
[0033]
In step S13a, the acceleration / deceleration of the
[0034]
When the learning of the road surface angle is completed, a process of detecting the following
[0035]
FIGS. 8A to 8C are conceptual diagrams of the above-described process, that is, the process of detecting, from the information stored in the two-
[0036]
As described above, the pixel value of the subsequent vehicle image 12a has a larger value than the pixel value of the
[0037]
As shown in FIG. 8B, the distribution of pixel values of the
[0038]
In other words, the A-th extracted image 17 'after the subtraction has only useless information about the noise level, whereas the B-th extracted image 18' after the subtraction has useful information corresponding to the following vehicle image 12a. .
[0039]
Therefore, by rewriting the storage information (the storage information at the road surface angle or more) of the two-
[0040]
Lastly, by extracting a set of pixel values having a specific “lump” that is equal to or larger than “road surface angle” from the information stored in the two-
[0041]
In order to obtain information as shown in the left diagram of FIGS. 8B and 8C, the dynamic range of the light receiving circuit 2i needs to be as wide as possible. If the dynamic range is narrow, the
[0042]
As described above, according to the present embodiment, not only during the fine weather, but also as shown in FIG. 9, the
[0043]
Further, in the present embodiment, since the “road angle” (see FIG. 6) can be accurately grasped, for example, a sports type vehicle having a low vehicle height as shown in FIG. 10 (most of these vehicles have an air resistance). The hood and windshield are greatly inclined to reduce the amount of light, and the reflected light of the laser beam is considerably weakened.) Can be detected.
[0044]
Alternatively, in a vehicle having a high vehicle height (a large truck or the like) as shown in FIG. 11, only a weak reflected light can be obtained because a low elevation angle portion of the laser beam passes under the vehicle body. The vehicle can be detected from the “lumps” of pixel values existing at or above the “road angle”.
[0045]
Note that the technical concept of the present invention is not limited to the above-described embodiment, and various modifications may be made.
In the above embodiment, the influence of the splash is eliminated by “calculating the average value of the received light amount at an angle equal to or larger than the road surface angle and subtracting the average value from the received light amount” (step S13e). Not limited. For example, since the height of a vehicle that can travel on a road is restricted to “3.8 m or less” (road law) except when permitted, as shown in FIG. Normally, the height of the included following vehicle image 12a does not exceed the angle G corresponding to the above-described limit value. Paying attention to this point, the range from the angle G to the road surface angle is set as the following vehicle existing region (hereinafter, referred to as “vehicle existing region”), and the range larger than the angle G is set as the splash determination region. It may be. The illustrated splash area includes the “
[0046]
FIG. 13 is a modification of the above-mentioned flowchart (FIG. 7), and corresponds to the storage information of the two-
[0047]
By the way, in the angle area larger than the vehicle existence area, not only the splash, but also the image of the signboard such as a bridge crossing the road or a road sign installed at a high position on the road (hereinafter collectively referred to as these). "
[0048]
In the above-described embodiment, a vehicle located behind the own vehicle is assumed as a vehicle (follower vehicle 12) that may collide with the
[0049]
In the above embodiment, the laser beam 11 is scanned in the X direction and the Y direction. For example, as shown in FIG. 15, the laser beam 11 having a horizontally long elliptical cross section is one-dimensionally drawn in the vertical direction (X direction). You may scan. The scanning mechanism and the scanning operation in the Y direction can be omitted.
[0050]
Further, in the above-described embodiment, the rear monitoring device has been described as an example. However, the present invention is not limited to this, and may be applied to a device that performs front monitoring of the
[0051]
Also, in the above embodiment, the laser beam 11 is scanned in the X direction and is moved by one drive step in the Y direction. Conversely, the laser beam 11 is scanned in the Y direction and is moved by one drive step in the X direction. You may move each. In this case, a three-dimensional memory is prepared, the received light amounts in the Y direction, the X direction (angular direction) and the distance direction are stored. After the movement in the X direction is completed, the three-dimensional memory is scanned in the Y direction. 7 and FIG. 13 may be performed.
[0052]
Further, in the above-described embodiment, as an algorithm for eliminating the splash, a method of calculating the average value of the received light amount for each distance is exemplified, but the present invention is not limited to this. Furthermore, advanced image processing techniques and pattern recognition techniques may be used.For example, as a two-dimensional image of distance and angle, a detected object is determined by a technique such as edge detection, or a road surface has a similar shape. This may be used to determine the road surface angle.
[0053]
Further, in the above embodiment, the road surface angle is set, and all the angles smaller than the road surface are set as the road surface. Alternatively, the processing may be performed at a road surface angle or more at that distance.
[0054]
Further, in the above embodiment, when the acceleration is not in the range of -0.1G to 0.1G in step S13a of FIG. 7, the road surface angle is not calculated. For example, as shown in FIG. Alternatively, it may be determined whether or not the door has been opened and closed (step S31), and when the door has been opened and closed, the learning result of the road surface angle θ may be reset (step S32). Further, the road surface angle may be learned for each acceleration. This is because a situation where the own vehicle is actually dangerous is a situation where the sudden braking must be applied, and it is necessary to recognize a following vehicle at that time even when the own vehicle is tilted forward and backward. Therefore, a road surface angle corresponding to the acceleration of the own vehicle is required.
[0055]
In FIG. 17, first, it is determined whether or not the door is opened and closed in a step S31. This is because the angle at which the road surface can be seen may change due to the inclination of the vehicle body depending on the number of passengers, the amount of luggage, and the like. Therefore, it is determined whether or not the boarding door or the rear door has been opened and closed. If the door has been opened and closed, the learning result of the road surface angle θ is reset in step S32. On the other hand, if the condition in step S31 is not satisfied, an angle θ at which the road surface becomes invisible is obtained in step S13b. In step S13c, the learning is performed for each acceleration of the own vehicle, and the learning result is set as the road surface angle. Regarding the road surface angle, since the vehicle body is tilted during acceleration and deceleration, a table is provided for each acceleration of the vehicle and learning of the road surface angle is performed for each acceleration. As an example of the learning method, an average value of the road surface angle θ is obtained for each acceleration in a table in which the acceleration is divided every 0.01 G. Subsequent processing is the same as in FIG.
[0056]
Although FIG. 14 shows an example of the traveling locus using the yaw rate, it is highly probable that the
[0057]
【The invention's effect】
According to the present invention, the pixel average value of the two-dimensional scan image has a value close to the pixel value of the target scattered over a wide range such as a splash, while the pixel value of the target such as a following vehicle has the average value. Since the value has a value larger than the value, the target object buried in splash or the like can be correctly detected by performing the above-described subtraction processing.
Further, according to the present invention, since the pixel average value of a portion equal to or larger than the road surface angle is adopted as the pixel average value of the two-dimensional scan image, the target object buried in the splash or the like without being affected by the road surface image. Can be detected correctly.
According to a preferred aspect of the present invention, "the road surface shape detected by the on-vehicle laser radar device does not correspond to the actual road surface shape at a position close to the own vehicle, and is detected as being shorter as the vehicle is closer to the own vehicle. By applying the principle of `` being done '', the image part corresponding to the road surface is extracted from the two-dimensional scan image, so that the detection accuracy of the road surface can be improved, the road surface angle is correctly recognized, and regardless of the type of vehicle It is possible to accurately detect a following vehicle or the like existing on the road surface.
[Brief description of the drawings]
FIG. 1 is an overall block diagram of a rear monitoring device.
FIG. 2 is a front view of the laser radar device 2 (particularly, a portion that receives and emits laser light).
FIG. 3 is a conceptual diagram of scanning of the
FIG. 4 is a conceptual view of scanning of the
FIG. 5 is a diagram showing a flowchart of a control program repeatedly executed in a control circuit 2a of the
FIG. 6 is a conceptual diagram of information storage in a two-
FIG. 7 is a flowchart showing a subroutine of a following vehicle detection process (step S14 in FIG. 5).
FIG. 8 is a conceptual diagram of a process of detecting a following
FIG. 9 is a view for explaining the effect of the present invention (elimination of the influence of splash).
FIG. 10 is a diagram (sports type vehicle detection) illustrating the effect of the present invention.
FIG. 11 is a diagram (large truck detection) illustrating the effect of the present invention.
FIG. 12 is a diagram illustrating another example of information stored in the two-
FIG. 13 is a diagram showing a modification of the above-described flowchart (FIG. 7).
14 is an explanatory diagram for detecting a
FIG. 15 is a conceptual diagram of one-dimensional scanning of a laser beam 11 having a horizontally long cross section in a vertical direction (X direction).
FIG. 16 is an explanatory diagram of mounting the
FIG. 17 is a diagram showing a modification of the flowchart in FIG. 7;
FIG. 18 is a conceptual diagram of a two-dimensional memory for plotting a traveling locus of the own vehicle.
[Explanation of symbols]
S13b Step (extraction means)
S13c Step (identifying means)
S13e step (mean value calculating means, subtracting means)
S13f Step (determination means)
2 Laser radar device (vehicle laser radar device)
2a control circuit (image acquisition means)
11 Laser beam
12a Subsequent car image (true target)
Claims (3)
前記二次元スキャン画像の画素平均値を算出する平均値算出手段と、
前記二次元スキャン画像から前記画素平均値を減算する減算手段と、
前記減算手段による減算後の二次元画像に真の目標物が含まれているか否かを判定する判定手段と
を備えたことを特徴とする車載用レーザレーダ装置。Image acquisition means for acquiring a two-dimensional scan image by two-dimensionally scanning the rear of the vehicle or the front of the vehicle using a laser beam,
Average value calculating means for calculating a pixel average value of the two-dimensional scan image,
Subtraction means for subtracting the pixel average value from the two-dimensional scan image,
A determining unit for determining whether or not a true target is included in the two-dimensional image after the subtraction by the subtracting unit;
前記二次元スキャン画像から路面に相当する画像部分を抽出する抽出手段と、
前記抽出手段によって抽出された路面に相当する画像から路面角度を特定する特定手段と、
前記二次元スキャン画像の前記路面角度以上の部分の画素平均値を算出する平均値算出手段と、
前記二次元スキャン画像から前記画素平均値を減算する減算手段と、
前記減算手段による減算後の二次元画像に真の目標物が含まれているか否かを判定する判定手段と
を備えたことを特徴とする車載用レーザレーダ装置。Image acquisition means for acquiring a two-dimensional scan image by two-dimensionally scanning the rear of the vehicle or the front of the vehicle using a laser beam,
Extracting means for extracting an image portion corresponding to a road surface from the two-dimensional scan image,
Specifying means for specifying a road surface angle from an image corresponding to the road surface extracted by the extracting means,
Average value calculation means for calculating a pixel average value of a portion of the two-dimensional scan image of the road surface angle or more,
Subtraction means for subtracting the pixel average value from the two-dimensional scan image,
A determining unit for determining whether or not a true target is included in the two-dimensional image after the subtraction by the subtracting unit;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002290660A JP2004125636A (en) | 2002-10-03 | 2002-10-03 | On-vehicle laser radar device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002290660A JP2004125636A (en) | 2002-10-03 | 2002-10-03 | On-vehicle laser radar device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004125636A true JP2004125636A (en) | 2004-04-22 |
Family
ID=32282452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002290660A Pending JP2004125636A (en) | 2002-10-03 | 2002-10-03 | On-vehicle laser radar device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004125636A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005043201A (en) * | 2003-07-22 | 2005-02-17 | Omron Corp | Radar device for vehicle |
JP2008542732A (en) * | 2005-05-30 | 2008-11-27 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method and apparatus for recognizing and classifying objects |
JP2009085939A (en) * | 2007-08-03 | 2009-04-23 | Valeo Vision | Method and device for detecting view field affecting phenomenon by vehicle, and computer program therefor |
JP2011232325A (en) * | 2010-04-09 | 2011-11-17 | Denso Corp | Object recognition device |
JP2012037301A (en) * | 2010-08-05 | 2012-02-23 | Clarion Co Ltd | Inclination angle detection device for road and current position calculation device |
JP2012108665A (en) * | 2010-11-16 | 2012-06-07 | Honda Motor Co Ltd | Lane mark recognition device |
JP2015206764A (en) * | 2014-04-23 | 2015-11-19 | 矢崎総業株式会社 | Object person existence range estimation device and object person existence range estimation method |
CN110515089A (en) * | 2018-05-21 | 2019-11-29 | 华创车电技术中心股份有限公司 | Driving householder method based on optical radar |
JP2020509412A (en) * | 2017-02-28 | 2020-03-26 | ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | Optical element for light emitting unit of optical acquisition device, light emitting unit, optical acquisition device, motor vehicle, and method |
KR20200084372A (en) * | 2018-09-28 | 2020-07-10 | 웨이모 엘엘씨 | Terrain adaptive pulse power in scanning LIDAR |
CN111812617A (en) * | 2020-07-28 | 2020-10-23 | 广东博智林机器人有限公司 | Laser radar assembly |
-
2002
- 2002-10-03 JP JP2002290660A patent/JP2004125636A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005043201A (en) * | 2003-07-22 | 2005-02-17 | Omron Corp | Radar device for vehicle |
US8542106B2 (en) | 2005-05-30 | 2013-09-24 | Robert Bosch Gmbh | Method and device for identifying and classifying objects |
JP2008542732A (en) * | 2005-05-30 | 2008-11-27 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method and apparatus for recognizing and classifying objects |
JP2009085939A (en) * | 2007-08-03 | 2009-04-23 | Valeo Vision | Method and device for detecting view field affecting phenomenon by vehicle, and computer program therefor |
JP2011232325A (en) * | 2010-04-09 | 2011-11-17 | Denso Corp | Object recognition device |
JP2012037301A (en) * | 2010-08-05 | 2012-02-23 | Clarion Co Ltd | Inclination angle detection device for road and current position calculation device |
JP2012108665A (en) * | 2010-11-16 | 2012-06-07 | Honda Motor Co Ltd | Lane mark recognition device |
JP2015206764A (en) * | 2014-04-23 | 2015-11-19 | 矢崎総業株式会社 | Object person existence range estimation device and object person existence range estimation method |
JP2020509412A (en) * | 2017-02-28 | 2020-03-26 | ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | Optical element for light emitting unit of optical acquisition device, light emitting unit, optical acquisition device, motor vehicle, and method |
CN110515089A (en) * | 2018-05-21 | 2019-11-29 | 华创车电技术中心股份有限公司 | Driving householder method based on optical radar |
CN110515089B (en) * | 2018-05-21 | 2023-06-02 | 华创车电技术中心股份有限公司 | Driving auxiliary method based on optical radar |
KR20200084372A (en) * | 2018-09-28 | 2020-07-10 | 웨이모 엘엘씨 | Terrain adaptive pulse power in scanning LIDAR |
KR102553103B1 (en) | 2018-09-28 | 2023-07-10 | 웨이모 엘엘씨 | Terrain adaptive pulse power in scanning LIDAR |
CN111812617A (en) * | 2020-07-28 | 2020-10-23 | 广东博智林机器人有限公司 | Laser radar assembly |
CN111812617B (en) * | 2020-07-28 | 2023-07-07 | 广东博智林机器人有限公司 | Laser radar assembly |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4428208B2 (en) | Vehicle object recognition device | |
CN113998034B (en) | Rider assistance system and method | |
US9827956B2 (en) | Method and device for detecting a braking situation | |
US9947227B1 (en) | Method of warning a driver of blind angles and a device for implementing the method | |
US6927699B2 (en) | Object recognition apparatus for vehicle, and inter-vehicle distance control unit | |
JP4730267B2 (en) | Visibility state determination device for vehicle | |
US8633832B2 (en) | Obstacle detection apparatus for vehicle | |
CN105473402A (en) | In-vehicle control device | |
GB2491724A (en) | Vehicle obstacle detection with additional horizontal radiation plane to discriminate between low and elevated obstacles | |
JP2008037361A (en) | Obstacle recognition device | |
JP2002022831A (en) | Method and apparatus for recognizing object, recording medium | |
JP2011248870A (en) | Dead angle area detection device, dead angle area detection program and dead angle area detection method | |
US9667921B2 (en) | Method and device for providing a signal for a light control unit | |
JP2009217495A (en) | Hazard warning device | |
JP2004125636A (en) | On-vehicle laser radar device | |
JP6011395B2 (en) | Vehicle driving support device | |
JP2004184331A (en) | Object recognition apparatus for motor vehicle | |
JP3941791B2 (en) | Vehicle object recognition apparatus and program | |
JP2006515699A (en) | Device for classifying at least one object around a vehicle | |
JP6527679B2 (en) | Vehicle headlight device | |
CN112748447B (en) | Obstacle avoidance method and system based on laser radar road surface information identification | |
US11433888B2 (en) | Driving support system | |
JP4730027B2 (en) | Vehicle target judgment device | |
CN111856510A (en) | Vehicle front collision prediction method based on laser radar | |
JP4556597B2 (en) | Leading vehicle detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060421 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060713 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060809 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20061013 |