JP2001227944A - 車両の走行環境認識装置 - Google Patents

車両の走行環境認識装置

Info

Publication number
JP2001227944A
JP2001227944A JP2000034994A JP2000034994A JP2001227944A JP 2001227944 A JP2001227944 A JP 2001227944A JP 2000034994 A JP2000034994 A JP 2000034994A JP 2000034994 A JP2000034994 A JP 2000034994A JP 2001227944 A JP2001227944 A JP 2001227944A
Authority
JP
Japan
Prior art keywords
data
distance
road surface
line
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000034994A
Other languages
English (en)
Inventor
Hiroki Kamimura
裕樹 上村
Hiroshi Nakaue
宏志 中植
Toru Yoshioka
透 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2000034994A priority Critical patent/JP2001227944A/ja
Publication of JP2001227944A publication Critical patent/JP2001227944A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

(57)【要約】 【課題】 車両周囲の走行環境を正確に認識し、その認
識した走行環境に基づいて物体の認識精度及び識別精度
を高める。 【解決手段】 走行環境認識部28の水平データ抽出部
28aで各領域毎の距離データからライン毎に略水平方
向に並んだデータを抽出し、最大距離データ抽出部28
bでウィンドウ毎に最大距離のデータを抽出する。路面
形状算出部28cで抽出されたデータに基づいて路面の
形状を算出し、路面データ除去部28dで算出された路
面形状に基づき領域毎のデータから路面データを除去す
る。残ったデータから物体認識部20で物体を認識す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、車両(以下、自車
ともいう)の周囲の走行環境を認識する走行環境認識装
置に関し、特に、路面の形状を認識する技術分野に属す
るものである。
【0002】
【従来の技術】従来より、例えば特開平10―2061
51号公報に示されるように、一定方向に配置された多
数のCCDをその配列方向と直交する方向に多段に並設
してなる多段ライン型CCDを車両に設け、この多段ラ
イン型CCDに基づいて得られた2次元の距離データか
ら特定の物体を認識することにより、車両の後側方にあ
る車両(他車)を障害物として判定し、その障害物の存
在を車両の運転者等の乗員に知らせて、車線変更を支援
するようにした車両用物体認識装置が知られている。
【0003】
【発明が解決しようとする課題】ところで、上記従来の
ものにおいては、物体を認識する上で不要なデータであ
る路面等を検出したデータを除去することにより、物体
の認識精度を高めようとしている。
【0004】ところが、自車周囲の走行環境によっては
路面等を検出しているデータを完全に除去することは困
難な場合があり、改良すべき余地がある。
【0005】また、上記従来のものにおいては、物体を
認識する上で不要な範囲を除外するためのレンジカット
ラインを設定し、そのレンジカットラインよって設定さ
れた範囲内にある距離データのみを物体認識のためのデ
ータとして抽出して、物体の認識精度を高めようとして
いる。
【0006】しかしながらこの場合も、自車周囲の走行
環境によっては有効なレンジカットラインを設定するこ
とが困難な場合があり、改良すべき余地がある。
【0007】本発明は斯かる点に鑑みてなされたもので
あり、その目的は、車両周囲の走行環境を正確に認識す
ることを目的とし、さらに、その認識した走行環境に基
づいて物体(特に他車)の認識精度及び識別精度を高め
ることにある。
【0008】
【課題を解決するための手段】上記目的を達成するため
に、本発明は、複数の検知センサによって得られた画像
に基づき車両が走行する環境、特に路面の形状を認識す
ることとしている。
【0009】具体的に、請求項1記載の発明では、上下
方向たるウィンドウ方向に配置された複数の受光素子か
らなる素子ラインをライン列方向に多段に並設してなる
複数の検知センサと、該複数の検知センサにより得られ
た画像を上記ライン毎にかつウィンドウ方向に複数の領
域に分割して、該各領域について距離を測定する測距手
段と、該測距手段により測定された各領域毎の距離デー
タに基づいて車両周囲の走行環境を認識する走行環境認
識手段とを備えた車両の走行環境認識装置を対象とす
る。
【0010】そして、上記走行環境認識手段は、上記各
領域毎の距離データから上記ライン列毎に検出位置が略
水平方向に並んだデータを抽出する水平データ抽出手段
と、該水平データ抽出手段によって抽出されたデータか
ら上記ウィンドウ毎に最大距離のデータを抽出する最大
距離データ抽出手段と、該最大距離データ抽出手段によ
って抽出されたデータに基づいて路面の形状を算出する
路面形状算出手段とを有することを特定事項とする。
【0011】上記の構成により、まず、測距手段におい
て、複数の検知センサの画像がライン毎にかつウィンド
ウ方向に複数の領域に分割されて該各領域について距離
が測定される。次いで、走行環境認識手段において、車
両の走行環境である路面の形状が認識される。
【0012】すなわち、走行環境認識手段の水平データ
抽出手段によって、各領域毎の距離データから上記ライ
ン列毎に検出位置が略水平方向に並んだデータが抽出さ
れる。これにより、路面を検出しているデータの候補が
抽出される。次いで、最大距離データ抽出手段によって
上記ウィンドウ毎に最大距離のデータ、つまり上下方向
に同じ測距方向に設定された領域の距離データの内で最
も長い距離のデータが抽出される。これにより、路面を
検出しているデータのみが抽出される。
【0013】そして、路面形状算出手段により、上記最
大距離データ抽出手段によって抽出された路面のデータ
に基づいて路面の形状が算出される。これにより、路面
の形状を正確に算出することが可能になる。ここで、路
面形状の算出は、上記検知センサの検知方向を横軸とし
上下方向を縦軸とした二次元座標の平面において、各点
を補間することによって算出すればよい。例えば検知セ
ンサから鉛直下方に降ろした垂線と路面との交点を原点
とした場合に、この原点を通る一次式によって補間を行
ってもよい。また、上記原点を通らない一次式によって
補間を行ってもよい。さらに、該原点を通る二次式やさ
らに高次の式によって補間を行ってもよい。
【0014】このように、水平データ抽出手段及び最大
距離データ抽出手段によって、各領域の距離データから
路面を検出しているデータが抽出され、路面形状算出手
段において、該路面を検出しているデータにのみに基づ
いて路面の形状が算出される。このため、車両の走行す
る環境を正確に認識することが可能になる。
【0015】ところで、例えば他車のボンネットやルー
フを検出した場合、これらのデータは水平方向に並んだ
データとなる場合があるため、上記のように水平データ
抽出手段及び最大距離データ抽出手段によって路面のデ
ータのみを抽出しようとしても、上記ボンネットやルー
フを検出したデータが残ってしまう虞がある。
【0016】請求項2記載の発明は、上記の観点から、
より正確かつ確実に路面データのみを抽出することを目
的とするものであり、具体的には、上記請求項1記載の
発明において、路面形状算出手段を、最大距離データ抽
出手段によって抽出されたデータから第1所定距離以下
のデータを除去し、残ったデータに基づいて路面の形状
を算出するように構成することを特定事項とするもので
ある。
【0017】ここで、上記第1所定距離としては、例え
ば請求項3記載の如く、検知センサの路面からの高さと
該検知センサにおける最も下向きの測距方向とによって
決まる上記測距方向に沿った上記検知センサと路面との
間の距離に設定してもよい。この場合、上記第1所定距
離は、上記検知センサの検知範囲における該検知センサ
と路面との最短距離に設定される。
【0018】また、上記請求項3記載の発明における第
1所定距離は、路面が水平である場合に検知センサの検
知範囲における該検知センサと路面との最短距離となる
が、上り坂や下り坂等では、上記検知センサと路面との
最短距離は路面の勾配角度に応じて変化することとな
る。
【0019】そこで、請求項4記載の如く、測距手段
を、各領域について距離を繰り返し測定するように構成
し、走行環境認識手段を、車両周囲の走行環境を繰り返
し認識するように構成する。そして、路面形状算出手段
は、第1所定距離を、検知センサから、該検知センサに
おける最も下向きの測距方向に延びる線と前回算出した
路面との交点までの距離に設定するように構成してもよ
い。
【0020】これにより、前回算出した路面の形状を考
慮して第1所定距離が設定されるため、上記第1所定距
離が、より正確に検知センサの検知範囲における該検知
センサと路面との最短距離に設定される。
【0021】このように、第1所定距離が検知センサの
検知範囲における該検知センサと路面との最短距離に設
定すれば、この第1所定距離よりも短い距離データは路
面を検出しているものではなく、路面よりも上側にある
物体、例えば車両(自車)近傍に位置する他車のボンネ
ットやルーフを検出しているデータと考えられる。そこ
で、最大距離データ抽出手段によって抽出されたデータ
から、上記第1所定距離以下のデータを除去することに
よって、路面を検出しているデータのみをより確実にか
つ正確に残すことができる。その結果、路面形状算出手
段において、より正確な路面の形状が算出される。
【0022】上記請求項2〜請求項4記載の発明は、第
1所定距離以下のデータを除去することによって自車近
傍に存在する物体を検出したデータを除去するようにし
ているが、請求項5及び請求項6記載の発明は、第2所
定距離以上のデータを除去することによって自車遠方に
存在する他車のボンネットやルーフ、又は路側構造物等
を検出したデータを除去するようにしている。
【0023】具体的に、請求項5記載の発明は、請求項
1又は請求項2において、路面形状算出手段を、最大距
離データ抽出手段によって抽出されたデータから第2所
定距離以上のデータを除去し、残ったデータに基づいて
路面の形状を算出するように構成することを特定事項と
するものである。
【0024】ここで、走行環境認識手段を車両の後側方
の走行環境を認識するように構成した場合には、上記第
2所定距離は、請求項6記載の如く設定してもよい。す
なわち、第2所定距離を、検知センサのライン列毎に、
該検知センサから当該ライン列の測距方向に延びる線と
上記車両に対して車幅方向外側に所定距離だけ離れて前
後方向に延びる仮想線との交点までの距離に設定しても
よい。ここで、車両と仮想線との間の所定距離は、例え
ば道幅とすればよく、この場合、第2所定距離は、検知
センサから、自車線に隣接した隣接車線における車両
(自車)に対して離れた側の路側までの距離に設定され
る。
【0025】このように第2所定距離を設定すれば、該
第2所定距離よりも遠い距離データは、上記隣接車線の
路面を検出しているのではなく路側構造物又は他車のボ
ンネットやルーフを検出していると考えられる。このた
め、このようなデータを除外することによって、路面を
検出しているデータのみをより正確にかつ確実に残すこ
とが可能になる。その結果、より正確に路面の形状を認
識することが可能になる。
【0026】そして、請求項7記載の発明は、自車周囲
の走行環境の正確な認識に基づいて自車周囲の物体の認
識を行うようにしている。
【0027】具体的には、上下方向たるウィンドウ方向
に配置された複数の受光素子からなる素子ラインをライ
ン列方向に多段に並設してなる複数の検知センサと、該
複数の検知センサにより得られた画像を上記ライン毎に
かつウィンドウ方向に複数の領域に分割して、該各領域
について距離を測定する測距手段と、該測距手段により
測定された各領域毎の距離データに基づいて車両周囲の
走行環境を認識する走行環境認識手段と、該走行環境認
識手段により認識された走行環境に基づいて車両の周囲
に存在する物体を認識する物体認識手段とを備えた車両
の走行環境認識装置を対象とする。
【0028】そして、上記走行環境認識手段は、上記各
領域毎の距離データから上記ライン列毎に検出位置が略
水平方向に並んだデータを抽出する水平データ抽出手段
と、該水平データ抽出手段によって抽出されたデータか
ら上記ウィンドウ毎に最大距離のデータを抽出する最大
距離データ抽出手段と、該最大距離データ抽出手段によ
って抽出されたデータに基づいて路面の形状を算出する
路面形状算出手段と、該路面形状算出手段によって算出
された路面形状に基づいて上記各領域毎の距離データか
ら該路面を検出した路面データを除去する路面データ除
去手段とを有するものとし、上記物体認識手段は、上記
路面データ除去手段によって除去されずに残った距離デ
ータに基づいて車両の周囲に存在する物体を認識するよ
うに構成することを特定事項とするものである。
【0029】これにより、走行環境認識手段の水平デー
タ抽出手段によって、各領域毎の距離データから上記ラ
イン毎に略水平方向に並んだデータを抽出されることに
より、先ず、路面を検出しているデータの候補が抽出さ
れる。次いで、最大距離データ抽出手段によって、上記
路面を検出しているデータの候補から、路面を検出して
いるデータが抽出され、路面形状算出手段によって、上
記抽出されたデータに基づき正確な路面の形状が算出さ
れる。
【0030】次いで、路面データ除去手段によって、算
出された路面形状に基づき上記各領域毎の距離データか
ら該路面を検出した路面データが除去される。これによ
り、物体を検出している距離データのみが抽出される。
【0031】そして、物体位置認識手段によって、上記
物体を検出している距離データに基づいて車両の周囲に
存在する物体が認識される。
【0032】このように、上記路面形状算出手段によっ
て正確な路面の形状が算出されて、物体を検出している
データのみが確実にかつ正確に抽出される。このため、
この物体を検出しているデータのみに基づいて正確に物
体の認識がなされ、物体の認識精度及び識別精度が高ま
る。
【0033】
【発明の実施の形態】以下、本発明の実施形態を図面に
基づいて説明する。但し、最初に本発明の適用対象とな
る物体認識装置についての基本形態を説明し、その後
に、本発明の実施形態をその基本形態と異なる点を中心
に説明する。
【0034】(基本形態)図1は基本形態に係る物体認
識装置を装備した自動車からなる車両C(自車)を示
し、この物体認識装置は、車両Cの左右斜め後側方に位
置する他の車両等の物体O(図4、図13及び図14に
示す)を認識してその位置を後述の表示装置31により
表示するようになっている。
【0035】すなわち、図1において、1は車両Cの車
体、2は車体1の前後略中央部に形成された車室、3は
車体1の前端部に形成されたエンジンルーム、4は車室
2の前端部に配置されたインストルメントパネル、5は
車室2の後端部にあるパッケージトレイ、6,6は左右
のドアミラーである。そして、図2に示すように、上記
物体認識装置は、各々物体Oまでの距離を測定するため
の左右の後側方検知センサユニット10,10と、この
各検知センサユニット10の出力信号がそれぞれ入力さ
れるコントローラ15と、このコントローラ15からの
信号を受けて、上記後側方検知センサユニット10によ
り検出された物体Oの車両Cとの間の距離に関する情報
をCRTや液晶等により表示する表示装置31とを備え
ている。
【0036】上記表示装置31は、図42に示すよう
に、車両Cのリアビューを自車としてイメージした自車
リアビュー部32と、この自車リアビュー部32の下側
左右両側にそれぞれ左後側方及び右後側方の障害物に対
応させて1列ずつ略上下方向に延びるように配置された
左右のセグメント列33,33とを表示する表示画面3
1aを有し、上記各セグメント列33は個別に点消灯さ
れる例えば8個の略台形状のセグメント34,34,…
からなる。そして、両セグメント列33,33は、上記
自車リアビュー部32から遠い下側から近い側である上
側に向かうに連れて互いに近付くように傾斜状に配置さ
れ、各セグメント列33におけるセグメント34,3
4,…の左右幅は、自車リアビュー部32から遠い下側
で広く、自車リアビュー部32に近い上側に向かうに連
れて狭くなるように変化している。つまり、表示画面3
1aでは、自車Cを後方から離れて見たときに後方の障
害物のイメージを遠近法により表示するようにしてい
る。
【0037】図1に示す如く、上記両検知センサユニッ
ト10,10は、上記左右のドアミラー6,6の内部に
それぞれ斜め後方を向いた状態で取付固定されている。
また、コントローラ15は車室2に、また表示装置31
はインストルメントパネル4にそれぞれ配設されてい
る。
【0038】上記各検知センサユニット10は、図4に
示すように、所定距離離れて上下方向に配置された上下
1対のCCDチップ11,11と、該CCDチップ1
1,11にそれぞれ対応して配置されたレンズ12,1
2とを備えている。各CCDチップ11は、上下方向た
るウィンドウ方向に沿って配置された多数のCCDから
なるCCDラインをウィンドウ方向と直交するライン列
方向(水平方向)に多段に並設してなる多段ライン型C
CDからなり、この各CCDチップ11によりレンズ1
2を経てドアミラー6のミラー(ハーフミラー)越し
に、上下方向に角度θ1の範囲でかつ水平左右方向に角
度θ2の範囲(図9及び図14参照)にある物体O等の
画像を輝度情報として捕らえるようになっている。すな
わち、上記1対のCCDチップ11,11は、ウィンド
ウ方向に沿って配置された複数の受光素子からなる素子
ラインをウィンドウ方向と直交するライン列方向に多段
に並設してなる複数の検知センサを構成している。
【0039】図3に示す如く、上記各検知センサユニッ
ト10はそれぞれコントローラ15内の測距回路16
(測距手段)に接続されている。この各測距回路16
は、両CCDチップ11,11での物体像の視差(位相
差)を演算する視差演算部17と、この視差演算部17
からの信号により物体Oまでの距離を演算する距離演算
部18とを備えている。そして、各測距回路16では、
図5及び図6に示す如く、各CCDチップ11により輝
度として捕らえられた画像を、ライン方向(水平方向)
にCCDライン毎のn個のラインに分割するとともに、
その各ラインをウィンドウ方向(上下方向)にm個のウ
ィンドウに分割して、画像の略全体をm×n個の領域
E,E,…で構成し、両方のCCDチップ11,11に
よる画像での同一の領域E,E間の視差を求め、この視
差から各領域E毎に物体Oまでの距離を演算する。
【0040】すなわち、両CCDチップ11,11によ
り輝度として捕らえられた画像はいずれも図5に示すよ
うになるが、これら両CCDチップ11,11の画像は
同じライン位置(図示例ではラインi)では、図7に示
すように、両CCDチップ11,11の上下方向のずれ
分だけずれていて視差が生じており、この視差を利用し
て物体Oまでを測距する。この原理について図8により
説明する。尚、図8中、O1,O2はレンズ中心であ
り、Q1,Q2は各レンズの光軸とCCDチップ11と
が交わる点であり、P1,P2は結像点である。つま
り、図8の三角形P・O1・Q及び三角形O1・P1・
Q1同士、並びに三角形P・O2・Q及び三角形O2・
P2・Q2同士はそれぞれ相似形であるので、今、検知
センサユニット10(レンズ12)から物体Oまでの距
離をa、両レンズ12,12の中心間の距離をB(定
数)、レンズ12の焦点距離をf(定数)、両CCDチ
ップ11,11での物体像のレンズ中心からのずれ量を
それぞれb1,b2とすると、 a・b1/f=B−a・b2/f となり、この式から、 a=B・f/(b1+b2) が得られる。つまり、両CCDチップ11,11での物
体像の視差(位相差)によって物体Oまでの距離aを測
定することができる。
【0041】尚、図5及び図6におけるG(白点)は、
CCDチップ11のCCDに対応するように縦横格子状
に配置された測距点(測距ポイント)であり、この測距
点Gは各領域Eに含まれている。また、各CCDライン
でのウィンドウは、一部が隣接するウィンドウと互いに
オーバーラップするように分割されており、上下方向
(ウィンドウ方向)に隣接する領域E,Eに同じ測距点
G,G,…が含まれている。さらに、O′は物体の像で
ある。
【0042】また、図9に示すように、上記各CCDチ
ップ11により輝度として捕らえられた画像をライン毎
に分割して形成される複数のラインは、車両Cの外側で
近距離を測距するライン位置が若い番号とされる一方、
車幅方向の中央側で遠距離を測距するライン位置が大き
い番号とされ、外側ラインから車幅方向の中央側ライン
に向かって番号が順に増加するように番号付けされてい
る。
【0043】図3に示す如く、上記コントローラ15に
は、センサ10に基づいて得られた上下方向及び水平方
向の2次元の距離データ、つまり各測距回路16からの
信号を基に特定の物体O(他車)を認識する物体認識部
20が設けられている。この物体認識部20内には、認
識した物体Oを登録する物体登録手段としての物体登録
部20aと、この物体登録部20aにより登録される物
体Oの重心を設定する重心設定手段としての重心設定部
20bと、この重心設定部20bにより設定された重心
に基づいて上記物体Oの位置又は動きを認識する物体位
置認識手段としての物体位置認識部20cとが設けられ
ている。そして、上記物体認識部20は、物体Oの認識
結果(特に物体位置認識部20cにおいて認識される物
体Oの位置又は動き)に基づいて表示信号を表示装置3
1に出力するようにしている。
【0044】また、上記コントローラ15には、車両C
の走行速度v(車速)を検出する車速センサ13と、車
両Cのハンドル(図示せず)のハンドル舵角θHを検出
する舵角センサ14の出力信号とがそれぞれ入力されて
いる。
【0045】さらに、コントローラ15は、測距された
各領域毎の距離データから路面上の白線や数字等の距離
データを除去する白線除去部22と、物体Oを認識する
上で不要な範囲に位置する距離データを除外する第1及
び第2レンジカット部23,24と、測距された各領域
毎の距離データと周りの8つの隣接領域との比較(8隣
接点処理)を行って有効ポイント数を付与する8隣接点
処理部25と、この有効ポイント数を用いてライン毎に
重み付け計算を行ってライン代表距離を演算するライン
距離演算部26と、この各ライン代表距離に対応する複
数の物体検出位置の略水平面上の位置に基づいて該略水
平面上の位置を車幅方向外側から含むような包絡線を設
定する包絡線設定部27とを備えている。
【0046】尚、上述の如く各検知センサユニット10
は各ドアミラー6のミラー(ハーフミラーのガラス)越
しに画像を捕らえるために、そのミラーの歪み等により
正確な距離を測定することが困難となり、視差に応じた
距離の関係を補正しておく必要がある。この基本形態で
は、図43に示す如く、予め遠距離側ラインを基準とし
て設定された、視差に応じた距離の関係を示す1つのマ
ップを記憶しており、この1つのマップから距離を補正
する。すなわち、測距回路16での測距特性は、遠距離
側ラインを基準として、他のラインを補完するようにし
ている。
【0047】さらに、周囲の明るさやドアミラー6のミ
ラーの汚れ等により、視差に応じた距離の関係を補正し
ておくために、この基本形態では以下の処理が行われる
ようになっている。すなわち、周囲の明るさを判定する
前者の場合、測距されている距離データの個数を演算し
てそれを全ての領域の数で割ることにより、検出率(測
距率)を求め、図44に示すように、この検出率が所定
値以上であるときを「昼」状態と、また所定値よりも低
いときを「夜」状態とそれぞれ判定する。
【0048】一方、ドアミラー6のミラーの汚れ等を判
定する後者の場合、路面の白線の位置がセンサ10に対
し一定の角度範囲で一定の距離範囲に含まれることを利
用し、その白線の測定距離値がばらつき率をもって変化
するときには、ドアミラー6のミラーに雨水等が付着し
ている状態と判定し、一方、白線の測定距離値が絶対値
で変化しているときには、ドアミラー6のミラーに汚れ
等が付着している状態と判定するようにしている。
【0049】ここで、上記コントローラ15の制御動作
を図10により概略的に説明する。尚、この制御動作
は、所定時間(1サンプリング時間)毎に繰り返し行わ
れる。
【0050】まず、ステップSA1で、上記白線除去部
22において白線除去処理を行い、次のステップSA2
で、第1レンジカット部23、8隣接点処理部25及び
ライン距離演算部26において第1のラインデータ処理
を行う。つまり、第1レンジカット部23において、上
記包絡線を設定する上で不要と考えられる範囲に位置す
る距離データを除去し、残った(抽出した)距離データ
からライン代表距離を演算する。そして、次のステップ
SA3で、包絡線設定部27においてライン代表距離に
基づいて包絡線設定処理を行って包絡線を設定し、その
後、ステップSA4で、第2レンジカット部24、8隣
接点処理部25及びライン距離演算部26において第2
のラインデータ処理を行う。つまり、第1レンジカット
部23で抽出した距離データ及び除去した距離データの
うち、上記包絡線の車幅方向内側にある位置の距離デー
タを抽出し、この抽出した距離データを用いて改めてラ
イン代表距離を演算する。次いで、ステップSA5で、
物体認識部20において、上記新たに演算したライン代
表距離に基づいてオブジェクトデータ処理を行って物体
Oを認識し、最後のステップSA6で、認識した物体O
の車両Cとの間の距離に関する情報を表示装置31に表
示してリターンする。
【0051】上記白線除去処理動作は、路面を検出して
いるデータ(実際には、路面自体はコントラストが低い
ために検出されず、路面上の白線等が検出される)を除
去するものであって、具体的には図11に示す如く行わ
れる。すなわち、最初のステップSB1で、ライン数n
及びウィンドウ数mに分割された領域E(i,j)毎の
距離データd(i,j)が水平に並んでいるかどうかの
判定変数hj(i,j)を0に設定し、次のステップS
B2で、距離データd(i,j)を読み込むとともに、
同じラインi上にある距離データd(i,j),d
(i,j+1)をそれぞれxa,xbに代入する。そし
て、次のステップSB3では、距離データd(i,
j),d(i,j+1)の上下位置ya,ybを、それ
ぞれya=xa・f_sin_j(j)、yb=xb・
f_sin_j(j+1)により計算する。尚、f_s
in_j(j)は、ウィンドウj(ウィンドウj方向に
延びる線)の水平方向に対する上下方向角度の正弦値で
ある。この上下方向角度は比較的小さいので、上記x
a,xbは、距離データd(i,j),d(i,j+
1)の水平方向位置にそれぞれ相当する。
【0052】次のステップSB4では、|ya−yb|
がkk・|xa−xb|よりも大きいかどうかを判定す
る。ここで、kkは定数であって、距離データd(i,
j),d(i,j+1)が水平に並んでいるかどうかを
判断するためのしきい値である。上記ステップSB4の
判定が|ya−yb|≦kk・|xa−xb|のNOの
とき(距離データd(i,j),d(i,j+1)が水
平に並んでいるとき)には、ステップSB6に進む一
方、上記判定が|ya−yb|>kk・|xa−xb|
のYESのとき(距離データd(i,j),d(i,j
+1)が水平に並んでいないとき)には、ステップSB
5に進む。そして、ステップSB5では、判定変数hj
(i,j),hj(i,j+1)を、それぞれhj
(i,j)+1、hj(i,j+1)+1に更新する。
【0053】次のステップSB6では、全てのウィンド
ウ番号について終了したかどうかを判定し、この判定が
NOのときには、ステップSB2に戻ってステップSB
2〜SB5の動作を繰り返す一方、判定がYESのとき
には、ステップSB7に進む。そして、次のステップS
B7では、全てのライン番号について終了したかどうか
を判定し、この判定がNOのときには、ステップSB2
に戻ってステップSB2〜SB6の動作を繰り返す一
方、判定がYESのときには、ステップSB8に進む。
【0054】ステップSB8では、判定変数hj(i,
j)が0かどうか、つまり水平に並んでいるデータかど
うかを判定し、この判定がhj(i,j)≠0のNOの
とき(水平に並んでいないとき)には、ステップSB1
0に進む一方、判定がhj(i,j)=0のYESのと
き(水平に並んでいるとき)には、ステップSB9に進
む。
【0055】次のステップSB9では、水平に並んでい
るデータd(i,j),d(i,j+1)を、d(i,
j)=0、d(i,j+1)=0にして除去する。そし
て、次のステップSB10では、全てのウィンドウ番号
について終了したかどうかを判定し、この判定がNOの
ときには、ステップSB8に戻ってステップSB8及び
SB9の動作を繰り返す一方、判定がYESのときに
は、ステップSB11に進み、このステップSB11で
は、全てのライン番号について終了したかどうかを判定
し、この判定がNOのときには、ステップSB8に戻っ
てステップSB8〜SB10の動作を繰り返す一方、判
定がYESのときには、ステップSB12に進む。
【0056】ステップSB12では、路面傾斜角bb_
angleを、従来より周知の方法、つまりエンジン出
力と車両Cの走行時の加速度とから演算して、次の第1
のラインデータ処理へ進む。
【0057】上記第1のラインデータ処理(図10のス
テップSA2)は、図12に示すように、第1レンジカ
ット部23でのレンジカット処理と、8隣接点処理部2
5での8隣接点処理と、ライン距離演算部26での重み
付け計算処理とからなり、これらの処理がこの順に行わ
れる。
【0058】上記第1レンジカット部23でのレンジカ
ット処理は、上記包絡線設定部27において包絡線設定
処理を行う上で不要な距離データを除去するために行わ
れるもので、具体的な処理は後述する。図13はこの第
1レンジカット部23で除外される上下方向のレンジカ
ット範囲Z1を、また図14は同左右方向のレンジカッ
ト範囲Z2をそれぞれ例示しており、これらのレンジカ
ット範囲Z1,Z2にある位置の距離データは除去され
てレンジカット範囲Z1,Z2を除いた領域にある位置
の距離データのみが抽出されることになる。尚、図14
中、Fは車両Cの路面であり、Mは道路における車両走
行車線を設定する路面F上の白線であり、F1は道路の
両側に設置された路側帯であり、Hはその植込みであ
る。
【0059】上記8隣接点処理部25での8隣接点処理
動作は、図15に示すように、ある領域E(i,j)の
距離データ(第1レンジカット部23により抽出された
距離データ)に対しそれに隣接する周りの8つの隣接領
域R1〜R8の距離データの相関性を判断するもので、
具体的には図16に示す如く行われる。すなわち、最初
のステップSC1で、ライン数n及びウィンドウ数mに
分割された領域E(i,j)毎の距離データd(i,
j)を読み込み、次のステップSC2で各領域E(i,
j)の有効ポイント数P(i,j)をP(i,j)=0
と初期化する。この有効ポイント数P(i,j)は各領
域E(i,j)に設定されるもので、この値が大きいほ
ど領域の距離データの有効性が高く、信頼性、信憑性が
あると判断される。次のステップSC3では、全ての領
域のうち左右端及び上下端の位置にある領域(格子点)
への有効ポイント数を嵩上げし、周辺の領域には有効ポ
イント数P(i,j)を+1だけ、またその中で4つの
隅角部の領域には有効ポイント数P(i,j)を+2だ
けそれぞれ増やすように設定する。
【0060】この後、ステップSC4において距離しき
い値d0を設定する。この距離しきい値d0は、後述の
付与ポイント数ppを決定するためのもので、この基本
形態では定数Cに設定する。
【0061】次のステップSC5では、隣接領域Riの
距離データd(Ri)を読み込み、次のステップSC6
では上記領域Eと隣接領域R1〜R8との距離差dx=
|d(i,j)−d(Ri)|を演算する。この後、ス
テップSC7において、上記距離差dxと上記距離しき
い値d0との大小判定を行い、この判定がdx≧d0の
NOのときにはステップSC10に進む一方、dx<d
0のYESのときには、ステップSC8において付与す
べきポイント数ppを設定する。この基本形態では、p
p=1に設定する。
【0062】このステップSC8の後、ステップSC9
において、それまでの有効ポイント数P(i,j)に上
記付与ポイント数pp(=1)を加えて新たな有効ポイ
ント数P(i,j)=P(i,j)+ppを設定し、上
記ステップSC10に進む。尚、ステップSC7におい
てdx≧d0のYESのときには、直接ステップSC1
0に進むため、付与ポイント数ppは設定されず(pp
=0)、有効ポイント数P(i,j)は増加しないこと
になる。
【0063】上記ステップSC10では、ステップSC
5〜SC9の処理が8つの隣接領域R1〜R8の各々に
ついて終了したかどうかを判定し、この判定がNOのと
きにはステップSC5に戻って、他の残りの隣接領域に
ついて同様の処理を行う。一方、上記判定がYESにな
ると、ステップSC11に進み、全ての領域E,E,…
についての有効ポイント数P(i,j)の設定(ステッ
プSC5〜SC9の処理)が終了したかどうかを判定す
る。この判定がNOのときには、ステップSC4に戻っ
て他の領域Eについて有効ポイント数P(i,j)の設
定を繰り返す。一方、判定がYESになると、次の重み
付け計算処理(図17参照)に進む。
【0064】図17は上記ライン距離演算部26での重
み付け計算処理動作を示し、上記8隣接点処理部25に
より付与設定された有効ポイント数P(i,j)に基づ
きライン毎に重み付け計算を行ってライン代表距離li
ne_data.xs(i)をそれぞれ演算する。
【0065】まず、ステップSD1において、ライン数
n及びウィンドウ数mに分割された領域E毎の距離デー
タd(i,j)を読み込むとともに、上記8隣接点処理
により付与された領域E毎の有効ポイント数P(i,
j)を読み込み、次のステップSD2では、ライン代表
有効ポイント数line_data.p(i)をlin
e_data.p(i)=0に初期化する。このライン
代表有効ポイント数line_data.p(i)は、
ライン毎の距離演算の際にラインに設定されるもので、
この値が大きいほどラインの距離データの有効性が高
く、信頼性、信憑性があると判断される。
【0066】次のステップSD3では、上記ライン代表
有効ポイント数line_data.p(i)に対応す
るライン代表しきい値P0を設定する。このステップS
D3でのライン代表しきい値P0の設定は以下のように
行う。
【0067】すなわち、ライン代表しきい値P0は各ラ
イン上の領域の中の最大有効ポイント数Pmaxに応じ
て設定する。具体的には、図45に示すように、ライン
i上の領域中から最大有効ポイント数Pmax=max
(P(i,1),P(i,2),…,P(i,m))を
探索する。次いで、上記最大有効ポイント数Pmaxが
所定値(P1+2)よりも大きいかどうかを判定し、こ
の判定がNOのときにはライン代表しきい値P0をP0
=P1に、また判定がYESのときには、ライン代表し
きい値P0を上記NOの場合よりも大きいP0=P2
(>P1)にそれぞれ設定する。すなわち、ライン代表
しきい値P0は、各ライン上の領域の最大有効ポイント
数Pmaxに応じて設定する。
【0068】図17のフローにおいて、ステップSD3
の後はステップSD4に進み、上記領域毎の有効ポイン
ト数P(i,j)がライン代表しきい値P0よりも大き
いかどうかを判定する。この判定がP(i,j)≦P0
のNOのときには、そのままステップSD6に進むが、
判定がP(i,j)>P0のYESのときには、ステッ
プSD5において、ライン毎の代表距離line_da
ta.xs(i)(ライン代表距離)を平均化のために
更新するとともに、上記ライン代表有効ポイント数li
ne_data.p(i)に領域毎の有効ポイント数P
(i,j)を加えてライン代表有効ポイント数line
_data.p(i)の更新を行った後にステップSD
6に進む。すなわち、ライン距離演算部26では、8隣
接点処理部25によって付与設定された有効ポイント数
P(i,j)がライン代表しきい値P0よりも大きい領
域についてライン代表距離の演算(重み付け計算)を行
うようにしている。
【0069】上記ライン代表距離line_data.
xs(i)の更新は、 xs(i)=[xs(i)×p(i)+d(i,j)×
{P(i,j)−P0+1}]÷{p(i)+P(i,
j)−P0+1} の式を用いて行う。尚、上式では、ライン代表距離li
ne_data.xs(i)を単にxs(i)とし、ラ
イン代表有効ポイント数line_data.p(i)
を単にp(i)としている。
【0070】上記ステップSD6では当該ラインの全て
のウィンドウ番号(領域E)について終了したかどうか
を判定し、この判定がYESになるまでラインの各領域
EについてステップSD3〜SD5の動作を繰り返す。
ステップSD6の判定がYESになると、ステップSD
7に進み、全てのライン番号について終了したかどうか
を判定し、この判定がYESになるまでステップSD2
〜SD6の動作を繰り返す。ステップSD7の判定がY
ESになると、次の包絡線設定処理に進む。
【0071】図18は上記ライン距離演算部26での重
み付け処理動作の変形例を示し、各ライン上の領域E,
E,…の最大有効ポイント数となる距離データを基準と
して、該距離データから所定距離以上外れた距離データ
を距離演算に用いないようにしている。尚、図17と同
じ部分についてはその詳細な説明は省略する。
【0072】すなわち、ステップSE1,SE2は上記
ステップSD1,SD2(図17参照)と同じである。
ステップSE3〜SE6では、ラインiにおける最大有
効ポイント数PPと、その最大有効ポイント数PPが得
られる領域の距離Dmaxとを求める。具体的には、ス
テップSE3において、ラインiにおける最大有効ポイ
ント数PPをPP=0に初期化した後、ステップSE4
で、領域E毎の有効ポイント数P(i,j)が上記最大
有効ポイント数PPよりも大きいかどうかを判定する。
この判定がP(i,j)≦PPのNOのときには、その
ままステップSE6に進むが、判定がP(i,j)>P
PのYESのときには、ステップSE5において、その
領域E毎の有効ポイント数P(i,j)を上記最大有効
ポイント数PPとし、かつ該領域Eでの距離d(i,
j)を距離Dmaxとした後、ステップSE6に進む。
そして、ステップSE6では、全てのウィンドウ番号に
ついて終了した、つまりライン中の全ての領域について
最大有効ポイント数PP及びそれに対応する領域の距離
Dmaxが得られたかどうかを判定し、この判定がYE
SになるまでステップSE4〜SE6の動作を繰り返
す。
【0073】ステップSE6の判定がYESになると、
ステップSE7に進み、距離判定のための下限値Dlo
wer(=Dmax−d0)及び上限値Dupper
(=Dmax+d0)を設定する。その後、ステップS
E8において、上記領域毎の距離d(i,j)が上記下
限値Dlowerよりも大きくかつ上限値Dupper
よりも小さい、すなわちDlower<d(i,j)<
Dupperかどうかを判定し、この判定がNOのとき
にはそのままステップSE10に、また判定がYESの
ときにはステップSE9を経てステップSE10にそれ
ぞれ進む。上記ステップSE9は図17におけるステッ
プSD5と、またステップSE10は同ステップSD6
とそれぞれ同じである。そして、このステップSE10
の後、図17におけるステップSD7と同じ処理を行う
ステップSE11に進む。
【0074】尚、以上に説明した各領域E毎の距離デー
タd(i,j)から8隣接点処理を行って有効ポイント
数P(i,j)を付与し、その後にライン代表距離li
ne_data.xs(i)を演算する過程の具体例を
図19に示しており、図19(a)は各領域毎の距離デ
ータd(i,j)を、また図19(b)は領域毎の有効
ポイント数P(i,j)を、さらに図19(c)はライ
ン代表距離line_data.xs(i)をそれぞれ
表している。
【0075】上記包絡線設定処理(図10のステップS
A3)は、具体的には図20に示すように行われる。す
なわち、最初のステップSF1で、ドアミラー6(検知
センサユニット10)の位置を原点(0,0)としかつ
車両Cの前後方向をx方向としかつ車幅方向をy方向と
する2次元の座標(単位:m)において、設定する包絡
線を2次曲線y=c2・x2+c1・x+c0で表した
ときの各項の係数c0,c1,c2を初期値に設定す
る。この基本形態では、c1=c2=0、c0=3.5
mとする。
【0076】次のステップSF2では、上記ライン代表
距離line_data.xs(i)を読み込むととも
に、包絡線処理の母集団のデータ数Num_lineを
0に設定する。そして、次のステップSF3では、ライ
ン代表距離line_data.xs(i)が0かどう
かを判定し、この判定がline_data.xs
(i)=0のYESのときには、ステップSF5に進む
一方、判定がline_data.xs(i)≠0のN
Oのときには、ステップSF4に進み、このステップS
F4で、包絡線処理の母集団のデータ数Num_lin
eをNum_line+1に更新する。
【0077】次のステップSF5では、全てのライン番
号について終了したかどうかを判定し、この判定がNO
のときには、ステップSF3に戻ってステップSF3及
びSF4の動作を繰り返す一方、判定がYESのときに
は、ステップSF6に進み、このステップSF6で、包
絡線処理の母集団のデータ数Num_lineがしきい
値Num_0よりも大きいかどうか、つまり、包絡線処
理の母集団の数が十分にあるかどうかを判定する。この
判定がNum_line≦Num_0のNOのときに
は、ステップSF7に進んで、包絡線の各項の係数c
0,c1,c2を初期値と同じく、c1=c2=0、c
0=3.5mとする。一方、上記ステップSF6の判定
がNum_line>Num_0のYESのときには、
ステップSF8に進んで包絡線を演算する(包絡線の各
項の係数c0,c1,c2を新たに設定する)。したが
って、包絡線処理の母集団の数が十分にあるときだけ、
包絡線を演算する。上記ステップSF7又はSF8の後
は次の第2のラインデータ処理に進む。
【0078】上記ステップSF8の包絡線演算処理動作
は、具体的には図21に示す如く行われる。すなわち、
ステップSG1で、上記各ライン代表距離line_d
ata.xs(i)(単位:m)を読み込み、次のステ
ップSG2〜SG4でそれぞれ第1〜第3の候補点T1
〜T3を抽出する。具体的に例示すると、図22に示す
ように、上記2次元の座標において、各ライン代表距離
に対応する複数の物体検出位置があるとき、ステップS
G2では、それら物体検出位置の車両Cに対する略水平
面上の位置T,T,…(2次元の座標位置)の中から車
両Cに対し車幅方向に最も離れた位置を第1候補点T1
として選択抽出する。
【0079】尚、上記各点Tの座標(xi,yi)は、
ラインiの車両C前後方向に対する水平方向角度(比較
的小さい)の正弦値をf_sin_i(i)としたと
き、 xi=line_data.xs(i) yi=line_data.xs(i)・f_sin_i(i) となる。
【0080】次のステップSG3では、上記のようにし
て抽出した第1候補点T1との間を結んだ直線Lが全て
の検出位置T,T,…の車幅方向外側を通るような位置
を第2候補点T2とする。例えば図22中の直線L′は
幾つかの位置T,T,…よりも車幅方向内側を通るの
で、第2候補点の選択には不良である。尚、第1候補点
T1の座標を(x1,y1)とし、第2候補点T2とな
るべき選択点の座標を(xi,yi)とするとき、両点
を通る直線は、 y={(xi−x)/(xi−x1)}・y1+{(x
−x1)/(xi−x1)}・yi の式で表される。
【0081】さらに、ステップSG4では、上記のよう
にして抽出した第1及び第2候補点T1,T2との間を
結んだ2次曲線Vが全ての検出位置T,T,…の車幅方
向外側を通るような位置を第3候補点T3とする。例え
ば図22中の曲線V′は幾つかの位置T,T,…よりも
車幅方向内側を通るので、第3候補点の選択には不良で
ある。第1及び第2候補点T1,T2の座標をそれぞれ
(x1,y1),(x2,y2)とし、第3候補点T3
となるべき選択点の座標を(xi,yi)とするとき、
3つの点を通る2次曲線は、 y={(x−x1)・(x−x2)/(xi−x1)・(xi−x2)}・yi +{(x−xi)・(x−x1)/(x2−xi)・(x2−x1)}・y2 +{(x−xi)・(x−x2)/(x1−xi)・(x1−x2)}・y1 の式で表される。
【0082】上記ステップSG4の後はステップSG5
において上記第1〜第3候補点T1〜T3を通る2次曲
線を包絡線Vとして設定する。したがって、その包絡線
Vは、 y={(x−x1)・(x−x2)/(x3−x1)・(x3−x2)}・y3 +{(x−x3)・(x−x1)/(x2−x3)・(x2−x1)}・y2 +{(x−x3)・(x−x2)/(x1−x3)・(x1−x2)}・y1 =c2・x2+c1・x+c0 の式のように表され、包絡線Vの各項の係数c0,c
1,c2が求まることになる。
【0083】図23は、上記包絡線設定処理動作の第1
の変形例を示しており、包絡線Vの設定精度を高めるよ
うにしたものである。
【0084】すなわち、この変形例では、上記図20の
ステップSF8の包絡線演算処理において、上記図21
に示す包絡線演算処理(以下の第1及び第2の変形例の
説明では、包絡線基本演算処理という)と、この包絡線
基本演算処理動作に対する前処理動作とを行うようにな
っており、この前処理動作では、まず、ステップSG1
1で物体検出位置のデータ番号i(ライン番号)をi=
0にセットした後、ステップSG12でデータ番号iを
i=i+1にインクリメントし、ステップSG13にお
いて上記データ番号iが1以上でかつ検出されているデ
ータ数Nよりも小さい(1≦i<N)かどうかを判定す
る。この判定がi=NのNOのときには、そのまま上記
図21に示す包絡線基本演算処理動作に進むが、YES
のときにはステップSG14に進み、データ番号iと次
のデータ番号i+1との両位置の車幅方向の位置の差y
(i+1)−y(i)を演算して、その差が所定距離y
threshold以上あるか否かを判定する。この判
定がy(i+1)−y(i)<ythresholdの
NOのときには、上記ステップSG12に戻ってデータ
番号iをインクリメントするが、判定がy(i+1)−
y(i)≧ythresholdのYESのときには、
ステップSG15に進んで上記検出データ数NをN=N
+1に更新し、補助点TSをN+1番目のデータとして
座標(x(N),y(N))の位置に登録した後、上記
図21に示す包絡線基本演算処理動作に進む。そして、
図24に示すように、上記補助点TSの座標のx座標x
(N)はx(N)=0で、y座標y(N)はy(N)=
y(i+1)であり、このことで、データ番号iと次の
データ番号i+1との両位置のうち、車両前後方向の遠
い側の距離データに対応する位置TS′を車両Cの車幅
方向に延びる線W上に投影して補助点TSを設定してい
る。
【0085】この変形例の場合、包絡線設定部27は、
上記水平方向に配列された複数のラインにおける距離デ
ータ間の車幅方向の位置が所定距離ythreshol
d以上異なるときに、上記ライン上の車両前後方向の遠
い側の距離データに対応する位置TS′を車両Cの車幅
方向に延びる線W上に投影した位置に補助点TSを設定
し、該補助点TSを含めて包絡線Vを設定するようにな
っている。したがって、ラインの距離データ間の車幅方
向の位置が所定距離ythreshold以上異なって
いるとき、その車両前後方向の遠い側の距離データをそ
のまま用いては包絡線Vが設定されず、図24に示す如
く、その車両前後方向の遠い側の距離データに対応する
位置TS′を車両Cの車幅方向に延びる線W上に投影し
た位置に補助点TSが設定され、この補助点TSを含め
て包絡線Vが設定される(尚、図24中、V′は補助点
TSを使わない場合に設定される包絡線である)。
【0086】図25は包絡線設定処理動作の第2の変形
例を示しており、設定した包絡線Vが前回の包絡線に比
べて所定以上に変化したときに包絡線の更新を行わない
ようにしたものである。すなわち、この変形例では、最
初のステップSG21で上記検出データ数Nが所定数N
0以上かどうかを判定し、この判定がN<N0のNOの
ときにはステップSG22に進み、包絡線Vの各項の係
数c0,c1,c2をそれぞれ更新前の前回の値c0=
c0′、c1=c1′、c2=c2′に設定した後、ス
テップSG25に進む。
【0087】一方、ステップSG21の判定がN≧N0
のYESのときには、ステップSG23に進んで上記図
21に示す包絡線基本演算処理動作を行い、次のステッ
プSG25に進む。
【0088】上記ステップSG25では、上記各係数の
変化量│c0−c0′│,│c1−c1′│,│c2−
c2′│がそれぞれ設定値Δc0,Δc1,Δc2より
も小さいかどうかを判定する。この判定が│c0−c
0′│<Δc0かつ│c1−c1′│<Δc1かつ│c
2−c2′│<Δc2のYESであると、ステップSG
26においてカウンタのカウント値を0にリセットした
後、ステップSG31に進む。
【0089】一方、ステップSG25の判定がNOのと
きには、ステップSG27に進んでカウンタのカウント
値を「1」だけインクリメントし、次のステップSG2
8でカウント値が設定値Kよりも小さいかどうかを判定
する。この判定がカウント値≧KのNOのときには、ス
テップSG30においてカウント値を0にリセットした
後にステップSG31に進むが、カウント値<KのYE
SのときにはステップSG29に進み、包絡線Vの2次
式の各項の係数c0,c1,c2をそれぞれ更新前の前
回の値c0=c0′、c1=c1′、c2=c2′に設
定した後、ステップSG31に進む。そして、上記ステ
ップSG31では、包絡線Vの各項の係数を前回の値c
0′,c1′,c2′から今回の値c0,c1,c2に
更新する。
【0090】この変形例では、包絡線設定部27は、検
出した距離データ数Nが所定数N0以上あるときに包絡
線Vを更新し、設定した包絡線Vが前回の包絡線に比べ
て所定以上に変化したときに包絡線の更新を行わないよ
うに構成されている。
【0091】図26及び図27はそれぞれ第3及び第4
の変形例を示す。図26に示す変形例では、ステップS
G41において、予め走行案内システム(ナビゲーショ
ンシステム)により入力される情報、例えば走行路の急
カーブ状態、他車線の合流状態、道路工事や清掃等の情
報から道路(走行路)の急変化があるかどうかを判定
し、この判定が「道路の急変化なし」のNOのときに
は、ステップSG42で包絡線Vの更新を抑制状態(O
N状態)にする一方、「道路の急変化あり」のYESの
ときには、ステップSG43で包絡線Vの更新を抑制禁
止状態(OFF状態)にする。
【0092】この変形例では、ステップSG41によ
り、車両Cの走行環境が変化したことを検出する走行環
境検出手段41が構成されている。そして、この走行環
境検出手段41により車両Cの走行環境が所定以上に変
化したことが検出されたときに、包絡線設定部27は、
設定した包絡線Vが前回の包絡線Vに比べて所定以上に
変化しても包絡線Vの更新を行うように構成されてい
る。
【0093】一方、図27に示す変形例では、最初のス
テップSG51において、舵角センサ14からのハンド
ル舵角θHの角速度│dθH/dt│とその設定値(d
θH/dt)thresholdとの大小を比較し、│
dθH/dt│≦(dθH/dt)threshold
のNOのときには、ステップSG52で包絡線Vの更新
を抑制状態(ON状態)にする一方、│dθH/dt│
>(dθH/dt)thresholdのYESのとき
には、ステップSG53で包絡線Vの更新を抑制禁止状
態(OFF状態)にする。この変形例では、ステップS
G51により走行環境検出手段41が構成されている。
【0094】上記第2のラインデータ処理(図10のス
テップSA4)は、基本的には上記第1のラインデータ
処理と同じであって、レンジカット処理、8隣接点処理
及び重み付け計算処理が順に行われる(図12参照)。
この第2のラインデータ処理におけるレンジカット処理
は、物体Oを認識する上で不要な距離データを除去する
ために第2レンジカット部24で行われるものであっ
て、上記第1レンジカット部23により抽出された距離
データ及び抽出されなった(除去した)距離データのう
ち、上記包絡線設定処理により設定された包絡線Vの車
幅方向内側にある位置の距離データを抽出するものであ
る。
【0095】上記第2レンジカット部24でのレンジカ
ット処理動作は、上記第1レンジカット部23で行われ
るものと同じであるが、上記包絡線設定部27での包絡
線設定処理により設定された包絡線の各項の係数c0,
c1,c2を用いて行う点が第1レンジカット部23で
のレンジカット処理と異なる。尚、第1レンジカット部
23でのレンジカット処理では、上記係数c0,c1,
c2がc2=c1=0、c0=3.5mに設定される。
つまり、車両Cの前後方向に延びかつ車両Cから車幅方
向に3.5m(車線幅に相当)離れた直線y=3.5が
仮の包絡線として設定される)。このため、包絡線設定
処理において十分な数の母集団がないために包絡線が設
定されなかった場合には、両レンジカット処理は全く同
じになる。
【0096】上記第2レンジカット部24でのレンジカ
ット処理動作では、横方向(車幅方向)においては、図
28に示すように、設定した包絡線Vの0次の項の係数
c0をdy0としたレンジカット線V0(dy0はc0
に比べてかなり小さく、0であってもよい)と、同係数
c0をc0−dy1としたレンジカット線V1(dy1
はc0に比べてかなり小さく、0であってもよい)との
間に位置する距離データを抽出する。つまり、車両Cか
らラインiと上記レンジカット線V0との交点までのラ
インiに沿った距離Hw0(i)と、車両Cからライン
iと上記レンジカット線V1との交点までのラインiに
沿った距離Hw1(i)とを求め、距離データd(i,
j)がHw0(i)よりも大きくかつHw1(i)より
も小さいかどうかを判定する。また、上下方向において
は、図29に示すように、路面(直線)と平行な2つの
レンジカット線U0,U1間に位置する距離データを抽
出する。この両レンジカット線U0,U1は、路面に対
してそれぞれLl,Lhだけ高い位置(路面に対して上
下方向にそれぞれLl,Lhだけずれた位置)に設定し
たものである(尚、検知センサユニット10は路面に対
してL0だけ高い位置にある)。つまり、車両Cからウ
ィンドウjと上記レンジカット線U0との交点までのウ
ィンドウjに沿った距離LL(j)と、車両Cからウィ
ンドウjと上記レンジカット線U1との交点までのウィ
ンドウjに沿った距離LH(j)とを求め、距離データ
d(i,j)がLL(j)よりも大きくかつLH(j)
よりも小さいかどうかを判定する。
【0097】図30〜図32は上記レンジカット処理動
作を示す。すなわち、最初のステップSH1で、包絡線
Vの各項の係数c0,c1,c2と路面傾斜角bb_a
ngleとを読み込み、次のステップSH2で、横方向
のしきい値dy0,dy1を設定するとともに、上下方
向のしきい値Lh,Llを設定し、次のステップSH3
で検知センサユニット10の設置高さL0を設定する。
【0098】続いて、ステップSH4では、Hw1
(i)=100m、Hw0(i)=0に初期化し、次の
ステップSH5で、包絡線Vの二次の項の係数c2が0
(包絡線V及びレンジカット線V0,V1が直線)かど
うかを判定する。この判定がc2=0のNO(包絡線V
が二次曲線)のときには、ステップSH6に進み、ステ
ップSH6〜SH12でラインiとレンジカット線V1
との交点を求めてHw1(i)を求める(ラインiの車
両C前後方向に対する水平方向角度は比較的小さいの
で、ラインiとレンジカット線V1との交点のx座標の
値がHw1(i)となる)。すなわち、ラインiは、 y=f_sin_i(i)・x の式で表される一方、レンジカット線V1は、 y=c2・x2+c1・x+c0−dy1 の式で表されるので、二次方程式 c2・x2+c1・x+c0−dy1=f_sin_i
(i)・x を解くことになる。
【0099】具体的には、ステップSH6では、caに
c1−f_sin_i(i)を代入し、dbにca・c
a−4・c2・(c0−dy1)を代入する。そして、
次のステップSH7で、db>0(二次方程式の実根が
存在する)かどうかを判定する。この判定がdb≦0の
NOのときには、ステップSH13に進む一方、db>
0のYESのときには、ステップSH8に進んで、db
の平方根を演算してdbをその値に更新する。次のステ
ップSH9では、dd1に(−ca+db)/2/c2
を、またdd2に(−ca−db)/2/c2をそれぞ
れ代入し、次のステップSH10で、dd2>0かつd
d1<0、又はdd2>0かつdd1>0かつdd2<
dd1かどうかを判定する。この判定がNOのときに
は、ステップSH12に進む一方、判定がYESのとき
には、ステップSH11に進んでdd1をdd2に設定
し、次のステップSH12でHw1(i)をdd1に設
定する。したがって、Hw1(i)の値は、dd2>0
かつdd1<0、又はdd2>0かつdd1>0かつd
d2<dd1の場合にはdd2となり、その他の場合に
はdd1となる。
【0100】次に、ステップSH13〜SH19で、上
記ステップSH6〜SH12と同様に、二次方程式 c2・x2+c1・x+dy0=f_sin_i(i)
・x を解くことでラインiとレンジカット線V0との交点の
x座標を求めてHw0(i)を求め、その後にステップ
SH24に進む。尚、ステップSH13〜SH19はス
テップSH6〜SH12とそれぞれ略同じであるので詳
細な説明は省略する。
【0101】上記ステップSH5の判定がc2=0のY
ES(包絡線V及びレンジカット線V0,V1が直線)
の場合には、ステップSH20に進み、ステップSH2
0〜SH22で、2つの一次方程式 c1・x+c0−dy1=f_sin_i(i)・x c1・x+dy0=f_sin_i(i)・x を解いてHw1(i)、Hw0(i)を求める。
【0102】具体的には、ステップSH20では、ca
にc1−f_sin_i(i)を代入し、次のステップ
SH21でcaが0よりも大きいかどうかを判定する。
この判定がca≦0のNOのときには、ステップSH2
2に進み、Hw1(i)に−(c0−dy1)/ca
を、またHw0(i)に−dy0/caをそれぞれ代入
してステップSH24に進む一方、上記判定がca>0
のYESのときには、ステップSH23に進み、Hw1
(i)及びHw0(i)に100mを代入してステップ
SH24に進む。つまり、ca>0のときには、x>0
においてラインiとレンジカット線V0,V1とが交わ
らないため、Hw1(i)及びHw0(i)を100m
にしておく。
【0103】ステップSH24では、全てのライン番号
について終了したかどうかを判定し、この判定がNOの
ときには、ステップSH4に戻る一方、判定がYESの
ときには、ステップSH25に進み、ステップSH25
〜SH27でLH(j)とLL(j)とを求める。すな
わち、ドアミラー6(検知センサユニット10)からL
0だけ下側に下がった位置を原点(0,0)としかつ車
両Cの前後方向をx方向としかつ上下方向をz方向とす
る2次元の座標(単位:m)において、レンジカット線
U0,U1は、 z=bb_angle・x+Ll z=bb_angle・x+Lh の式でそれぞれ表され、ウィンドウjは、 z=f_sin_j(j)・x+L0 の式で表される。
【0104】そして、ウィンドウjの水平方向に対する
上下方向角度が比較的小さいことから、レンジカット線
U1とウィンドウjとの交点のx座標の値がLH(j)
となり、レンジカット線U0とウィンドウjとの交点の
x座標の値がLL(j)となるので、一次方程式 bb_angle・x+Lh=f_sin_j(j)・
x+L0 bb_angle・x+Ll=f_sin_j(j)・
x+L0 をそれぞれ解くことになる(尚、図29で示すLL
(j)は負の値になる)。
【0105】具体的には、ステップSH25では、f_
sin_j(j)がbb_angleよりも大きいかど
うかを判定し、この判定がf_sin_j(j)>bb
_angleのYESのときには、ステップSH26に
進み、LH(j)を(Lh−L0)/(f_sin_j
(j)−bb_angle)に、またLL(j)を(L
l−L0)/(f_sin_j(j)−bb_angl
e)にそれぞれ設定してステップSH28に進む。一
方、上記判定がf_sin_j(j)≦bb_angl
eのNOのときには、ステップSH27に進み、LH
(j)を(Ll−L0)/(f_sin_j(j)−b
b_angle)に、またLL(j)を(Lh−L0)
/(f_sin_j(j)−bb_angle)にそれ
ぞれ設定してステップSH28に進む。
【0106】ステップSH28では、全てのウィンドウ
番号について終了したかどうかを判定し、この判定がN
Oのときには、ステップSH25に戻る一方、判定がY
ESのときには、ステップSH29に進む。
【0107】ステップSH29では、距離データd
(i,j)が0かどうかを判定し、この判定がd(i,
j)=0のYESのときには、ステップSH33に進む
一方、判定がd(i,j)≠0のNOのときには、ステ
ップSH30に進む。このステップSH30では、距離
データd(i,j)がHw0(i)よりも大きくかつH
w1(i)よりも小さいかどうかを判定し、この判定が
Hw0(i)<d(i,j)<Hw1(i)のYESの
ときには、ステップSH31に進んで、距離データd
(i,j)がLL(j)よりも大きくかつLH(j)よ
りも小さいかどうかを判定し、この判定がLL(j)<
d(i,j)<LH(j)のYESのときには、ステッ
プSH33に進む。一方、ステップSH30の判定がN
Oのとき、及びステップSH31の判定がNOのときに
は、共にステップSH32に進み、距離データd(i,
j)をd(i,j)=0に初期化してステップSH33
に進む。
【0108】ステップSH33では、全てのウィンドウ
番号について終了したかどうかを判定し、この判定がN
Oのときには、ステップSH29に戻る一方、判定がY
ESのときには、ステップSH34に進んで全てのライ
ン番号について終了したかどうかを判定する。この判定
がNOのときには、ステップSH29に戻る一方、判定
がYESのときには、次の8隣接点処理(図16参照)
に進む。
【0109】したがって、車幅方向においてレンジカッ
ト線V0,V1間に位置しかつ上下方向においてレンジ
カット線U0,U1間に位置する距離データd(i,
j)のみが抽出され、他の距離データd(i,j)は除
去された状態で、次の8隣接点処理に進むことになる。
尚、第1のラインデータ処理におけるレンジカット処理
では、ステップSH32で距離データd(i,j)を初
期化しても、その距離データd(i,j)は別のところ
に保存されており、第2のラインデータ処理におけるレ
ンジカット処理で、その保存した距離データd(i,
j)も含めて、レンジカット線V0,V1間及びレンジ
カット線U0,U1間に位置するかどうかを判定する。
また、第1のラインデータ処理におけるレンジカット処
理では、仮の包絡線y=3.5に基づいてレンジカット
線V0,V1が設定される。
【0110】上記第2のラインデータ処理の8隣接点処
理及び重み付け計算処理は、第1のラインデータ処理と
同じであり、第2レンジカット部24で抽出した距離デ
ータd(i,j)に対して改めて8隣接点処理及び重み
付け計算処理を行う。
【0111】上記オブジェクトデータ処理(図10のス
テップSA5)は、図33に示すように、前回のサイク
ルで登録済みの物体Oの位置の修正(位置修正処理)を
行い、その後、新規物体Oの位置の登録(新規物体登録
処理)を行う。
【0112】上記位置修正処理動作は、重心設定部20
bにおいて、今回得られたラインデータのうち、前回に
登録した物体Oの位置(重心位置)から所定範囲にある
ものをその物体Oに含まれるデータであると判断して、
その物体Oに含まれるラインデータから物体Oの新たな
位置(重心位置)を求めるもので、具体的には図34及
び図35に示す如く行われる。
【0113】すなわち、最初のステップSI1で、ライ
ン代表距離line_data.xs(i)とライン代
表有効ポイント数line_data.p(i)とを読
み込むとともに、前回に登録した物体Oの距離Obje
ct_data.xs(k)、物体Oの車両C前後方向
に対する水平方向角度Object_data.the
ta(k)及び物体Oの有効ポイント数Object_
data.p(k)とを読み込む。尚、kは物体番号で
あり、この基本形態ではk=1〜4としている。また、
Object_data.xs(k)の初期値は100
mに設定されている(登録物体Oの数が3つ以下の場
合、Object_data.xs(k)=100mと
なる物体番号が存在する)。
【0114】次のステップSI2では、登録物体Oを車
両Cに近いものから順に並べ、以下のステップSI3〜
SI10の動作をその近いものから順に行う。まず、ス
テップSI3では、Object_data.thet
a(k)が比較的小さいことから、登録物体Oの前後方
向距離xsをxs=Object_data.xs
(k)により計算し、横方向(車幅方向)距離ysをy
s=Object_data.xs(k)・Objec
t_data.theta(k)により計算する。次の
ステップSI4では、物体Oの位置の計算に使用する参
考値としての前後方向距離Object_value.
xs(k)、角度Object_value.thet
a(k)及び有効ポイント数Object_valu
e.p(k)を全て0に設定する。
【0115】次のステップSI5では、今回のラインデ
ータの前後方向距離xをx=line_data.xs
(i)により計算し、横方向距離yをy=line_d
ata.xs(i)・f_sin_i(i)により計算
し、有効ポイント数pをp=line_data.p
(i)にする。そして、ステップSI6で、ライン代表
距離line_data.xs(i)が0かどうかを判
定し、この判定がline_data.xs(i)=0
のYESのときには、ステップSI10に進む一方、判
定がline_data.xs(i)≠0のNOのとき
には、ステップSI7に進む。ステップSI7では、今
回のラインデータと前回に登録した物体Oの位置の隔た
りを計算する。つまり、前後方向の隔たりdxaをdx
a=|xs−x|により計算し、横方向の隔たりdya
をdya=|ys−y|により計算する。
【0116】次のステップSI8では、dxa+dya
の値がK1・xs(K1は定数)よりも小さいかどうか
を判定し、この判定がdxa+dya≧K1・xsのN
Oのときには、ステップSI10に進む一方、判定がd
xa+dya<K1・xsのYESのときには、ステッ
プSI9に進む。つまり、今回のラインデータの位置が
前回に登録した物体Oの位置の近く(K1・xsの範囲
内)にあれば、そのラインデータは該物体Oに含まれる
ものであると判断してステップSI9に進む。
【0117】ステップSI9では、上記参考値の更新を
行う。すなわち、前後方向距離Object_valu
e.xs(k)を(Object_value.xs
(k)・Object_value.p(k)+x・
p)/(Object_value.p(k)+p)
に、また角度Object_value.theta
(k)を(Object_value.theta
(k)・Object_value.p(k)+f_s
in_i(i)・p)/(Object_value.
p(k)+p)に、さらに有効ポイント数Object
_value.p(k)をObject_value.
p(k)+pにそれぞれ設定する。また、ラインデータ
の初期化を行う。つまり、ライン代表距離line_d
ata.xs(i)を0に設定する。
【0118】次のステップSI10では、全てのライン
番号について終了したかどうかを判定し、この判定がN
Oのときには、ステップSI5に戻ってステップSI5
〜SI9の動作を繰り返す一方、上記判定がYESのと
きには、ステップSI11に進んで新しいデータの定義
(位置の修正)を行う。すなわち、物体Oの距離Obj
ect_data.xs(k)をObject_val
ue.xs(k)とし、角度Object_data.
theta(k)をObject_value.the
ta(k)とし、有効ポイント数Object_dat
a.p(k)をObject_value.p(k)と
する。そして、ステップSI12では、全ての物体番号
(1〜4)について終了したかどうかを判定し、この判
定がNOのときには、ステップSI3に戻って、車両C
に対して次に近い物体OについてステップSI3〜SI
11の動作を繰り返す一方、判定がYESのときには、
次の新規物体登録処理へ進む。尚、物体Oの距離Obj
ect_data.xs(k)=100mであるときに
は、ステップSI3以降の処理は行わないで直ちに次の
新規物体登録処理へ進む。
【0119】上記新規物体登録処理動作は、重心設定部
20bにおいて、上記位置修正処理動作のステップSI
9で初期化されずに残ったラインデータから仮の重心位
置を求め、さらにその仮の重心位置から所定範囲内にあ
るラインデータを1つの物体Oを構成するものとし、こ
の物体Oを構成するラインデータにより新規物体Oの位
置(重心位置)等を計算して物体登録部20aにおいて
登録するもので、具体的には図36〜図38に示す如く
行われる。
【0120】すなわち、最初のステップSJ1で、ライ
ン代表距離line_data.xs(i)とライン代
表有効ポイント数line_data.p(i)とを読
み込むとともに、新しい物体Oの位置の計算に使用する
参考値としての距離xs_new、車両C前後方向に対
する水平方向角度theta_new及び有効ポイント
数p_newを全て0に設定する。次のステップSJ2
では、ラインデータの前後方向距離xをx=line_
data.xs(i)により計算し、有効ポイント数p
をp=line_data.p(i)により計算する。
そして、ステップSI6で、line_data.xs
(i)が0かどうかを判定し、この判定がline_d
ata.xs(i)=0のYESのときには、ステップ
SJ5に進む一方、判定がline_data.xs
(i)≠0のNOのときには、ステップSJ4に進む。
ステップSJ4では、上記参考値の更新を行う。すなわ
ち、距離xs_newを(xs_new・p_new+
x・p)/(p_new+p)に、角度theta_n
ewを(theta_new・p_new+f_sin
_i(i)・p)/(p_new+p)に、有効ポイン
ト数p_newをp_new+pにそれぞれ設定する。
【0121】次のステップSJ5では、全てのライン番
号について終了したかどうかを判定し、この判定がNO
のときには、ステップSJ2に戻ってステップSJ2〜
SJ4の動作を繰り返す一方、上記判定がYESのとき
には、ステップSJ6に進んで新規物体Oの横方向の位
置ys_newをxs_new・theta_newに
設定する。以上の動作により、上記位置修正処理動作で
初期化されずに残ったラインデータから仮の重心位置座
標(xs_new,ys_new)が求まることにな
る。そして、次のステップSJ7では、新規物体Oの距
離New_object.xs、角度New_obje
ct.theta及び有効ポイント数New_obje
ct.pを0に設定して、ステップSJ8に進む。
【0122】ステップSJ8では、ラインデータの前後
方向距離xをx=line_data.xs(i)によ
り計算し、横方向距離yをy=line_data.x
s(i)・f_sin_i(i)により計算し、有効ポ
イント数pをp=line_data.p(i)にす
る。そして、次のステップSJ9では、ライン代表距離
line_data.xs(i)が0かどうかを判定
し、この判定がline_data.xs(i)=0の
YESのときには、ステップSJ13に進む一方、判定
がline_data.xs(i)≠0のNOのときに
は、ステップSJ10に進む。ステップSJ10では、
ラインデータと上記仮の重心位置の隔たりを計算する。
つまり、前後方向の隔たりdxbをdxb=|xs_n
ew−x|により計算し、横方向の隔たりdybをdy
b=|ys_new−y|により計算する。
【0123】次のステップSJ11では、dxb+dy
bの値がK2・xs_new(K2は定数)よりも小さ
いかどうかを判定し、この判定がdxb+dyb≧K2
・xs_newのNOのときには、ステップSJ13に
進む一方、判定がdxb+dyb<K2・xs_new
のYESのときには、スップSJ12に進む。つまり、
ラインデータの位置が仮の重心位置の近く(K2・xs
_newの範囲内)にあれば、そのラインデータは新規
物体Oに含まれるものであると判断してステップSJ1
2に進む。
【0124】ステップSJ12では、新しい物体Oの定
義を行う。すなわち、距離New_object.xs
を(New_object.xs・New_objec
t.p+x・p)/(New_object.p+p)
に、また角度New_object.thetaを(N
ew_object.theta・New_objec
t.p+f_sin_i(i)・p)/(New_ob
ject.p+p)に、さらに有効ポイント数New_
object.pをNew_object.p+pにそ
れぞれ設定する。そして、次のステップSJ13では、
全てのライン番号について終了したかどうかを判定し、
この判定がNOのときには、ステップSJ8に戻ってス
テップSJ8〜SJ12の動作を繰り返す一方、上記判
定がYESのときには、ステップSJ14へ進む。上記
ステップSJ12により最終的に設定された距離New
_object.xs、角度New_object.t
heta及び有効ポイント数New_object.p
が新規物体Oの情報として登録されることになる。
【0125】ステップSJ14では、上記車速センサ1
3により検出された車速vと舵角センサ14により検出
されたハンドル舵角θHとを読み込み、次のステップS
J15で上記ハンドル舵角θHの速度を算出するととも
に、車両Cの走行している走行路の曲率半径Rを、 R=(1+A・v2)・(Lb/θH) の式により算出する。尚、上式中、Aは車両Cの回頭性
の良さを表すスタビリティファクタ、Lbは車両Cのホ
ィールベースである。
【0126】次のステップSJ16では、上記ハンドル
舵角θHを大小2つの設定値と比較し、ハンドル舵角θ
Hが小さい側の設定値よりも小さいときには、車両Cは
直進走行状態にあると見倣して、そのまま表示処理動作
(図10のステップSA6)へ進む。
【0127】上記ハンドル舵角θHが大小2つの基準値
の間にある中状態のときには、車両Cは車線変更の状態
にあると判定し、ステップSJ17に進んで上記走行路
の曲率半径Rが所定値以上かどうかを判定する。ここで
R<所定値のNOと判定されたときには、上記表示処理
動作に進むが、R≧所定値のYESと判定されると、ス
テップSJ19に進む。
【0128】また、上記ステップSJ16でハンドル舵
角θHが大きい側の設定値よりも大きいときには、車両
Cはカーブ走行状態にあると見倣してステップSJ18
に進み、上記算出したハンドル舵角θHの速度がある
か、つまりハンドルが動いてハンドル舵角θHが変化し
ているか否かを判定する。この判定がNOのときには、
上記表示処理動作に進むが、YESのときには、上記ス
テップSJ19に進む。
【0129】上記ステップSJ19では、表示装置31
により表示する最大表示距離xmaxを演算し、次のス
テップSJ20で、車両Cに最も近い物体Oまでの距離
の検出値xs1(Object_data.xs(k)
(k=1〜4)の最小値)を読み込み、ステップSJ2
1において上記物体Oの車両C(自車)との相対速度v
ssを演算する。次いで、ステップSJ22に進んで上
記物体Oの所定時間Δt経過後の位置xpredict
を、 xpredict=xs1+Δt・vss の式より推定し、ステップSJ23において上記推定位
置xpredictが最大表示距離xmax以上かどう
かを判定する。この判定がxpredict<xmax
のNOのときには、上記表示処理動作に進むが、xpr
edict≧xmaxのYESのときには、ステップS
J24において該物体Oが車両Cから離れつつあるもの
か否かを判定し、この判定がNOのとき(物体Oが接近
しているとき)には表示処理動作に進む。一方、ステッ
プSJ24の判定がYESであると、ステップSJ25
に進んで表示装置31での物体Oの距離の表示をキャン
セルしてリターンする。
【0130】上記表示処理動作は、上記表示装置31で
の物体表示のための表示処理を行うもので、具体的には
図39の如く行われる。すなわち、最初のステップSK
1で、上記物体Oと自車Cとの間の距離xs1が、比較
的長い設定値40m以下かどうかを判定し、この判定が
xs1>40mのNOのときには、物体Oは自車Cから
遠く離れて車線変更の障害物となり得ないと判断して、
物体表示を行わないでリターンする。一方、ステップS
K1の判定がxs1≦40mのYESのときには、ステ
ップSK2に進んで今度は上記距離xs1が、極めて短
い設定値10m(物体Oが自車Cのミラーの死角に入る
ような距離)以下かどうかを判定する。この判定がxs
1≦10mのYESのときには、物体Oが自車Cに極め
て近接していると判断し、ステップSK3に進んで、そ
の物体Oに関する情報を上記表示装置31の表示画面3
1aにおけるセグメント34の表示輝度(点灯輝度)の
レベルを「設定3」にセットし、次のステップSK4に
おいてセグメント34の表示色を「赤」にセットした
後、ステップSK10に進み、上記表示装置31の表示
画面31aでセグメント列33のセグメント34,3
4,…の点灯により物体Oとの間の現在の距離を表示し
た後にリターンする。
【0131】上記ステップSK2の判定がxs1>10
mのNOのとき(xs1=10〜40mのとき)には、
ステップSK5に進み、上記物体Oの自車Cに対する相
対速度vssが正か否か、つまり物体Oが自車Cに対し
て接近しているか否かを判定し、この判定がYES(v
ss>0)で物体Oが接近状態であるときには、ステッ
プSK6に進み、上記表示装置31の表示画面31aに
おけるセグメント34,34,…の表示輝度のレベルを
中間程度の「設定2」にセットし、次のステップSK7
でセグメント34,34,…の表示色を「黄」にセット
した後、上記ステップSK10に進む。
【0132】一方、上記ステップSK5の判定がNO
(vss≦0)のときには、物体Oが離隔状態であると
見倣してステップSK8に進み、上記表示画面31aに
おけるセグメント34,34,…の表示輝度のレベルを
最も小さい(暗い)「設定1」にセットし、次のステッ
プSK9でセグメント34,34,…の表示色を「青」
にセットした後、上記ステップSK10に進む。
【0133】上記表示装置31における各セグメント列
33のセグメント34の表示輝度レベルは、図40に示
すように、「設定」の数値が大きくなるほど輝度が大き
く(明るく)なるように設定されている。また、上記図
39に示すステップSK10で行う距離表示について
は、表示画面31aの各セグメント列33の8個のセグ
メント34,34,…をそれぞれ5mの間隔を表すもの
とし、図41に示す如く、物体Oが40mから5mずつ
自車Cに接近する毎にセグメント34,34…の点灯個
数が1個ずつ増加するようになっている。したがって、
上記のようにステップSK2でxs1≦10mと判定さ
れた場合、その距離xs1の算出結果に応じて、セグメ
ント列33の8個のセグメント34,34,…のうち下
から7個目までのセグメント34,34,…(xs1=
5〜10mの場合)、又は全てのセグメント34,3
4,…(xs1<5mの場合)が点灯し、そのセグメン
ト34,34,…の点灯が最も明るい「設定3」の輝度
レベルでかつ最も注意を喚起させる「赤」の色で行われ
る。尚、図42では、全てのセグメント34,34,…
が「設定3」の輝度レベルでかつ「赤」色で点灯してい
る表示状態を例示している。
【0134】したがって、この基本形態では、左右後側
方検知センサユニット10,10の1対のCCDチップ
11,11により画像が輝度情報として捕らえられる
と、まず、コントローラ15の各測距回路16におい
て、各CCDチップ11の画像がライン列及びウィンド
ウ方向にそれぞれ分割されて各領域Eについて距離d
(i,j)が測定される。続いて、白線除去部22にお
いて、水平に並んでいる距離データが路面上の白線等と
して除去される。そして、第1レンジカット部23にお
いて、車両Cの前後方向に延びかつ車両Cから車幅方向
に3.5m離れた直線を仮の包絡線として、この仮の包
絡線に基づいて水平方向のレンジカット線V0,V1が
設定されるとともに、路面と平行な2つの上下方向のレ
ンジカット線U0,U1が設定され、これら水平方向の
レンジカット線V0,V1間及び上下方向のレンジカッ
ト線U0,U1間に位置する距離データが抽出される。
【0135】次いで、8隣接点処理部25で、上記抽出
された領域E毎の距離d(i,j)及び隣接領域R1〜
R8の距離の差dxに基づいて各領域E毎の距離データ
の有効ポイント数P(i,j)が付与され、ライン距離
演算部26において上記有効ポイント数P(i,j)に
基づき重み付け計算によりライン毎のライン代表距離l
ine_data.xs(i)が演算される。そして、
包絡線設定部27においてライン距離演算部26により
演算されたライン代表距離line_data.xs
(i)から包絡線Vが設定される。すなわち、検出され
た複数の距離データにそれぞれ対応する物体検出位置の
略水平面上の位置T,T,…が求められて、これらの位
置T,T,…に基づき該位置T,T,…を車幅方向外側
から含むような包絡線Vが設定される。このように、包
絡線Vを設定する上で不要と考えられる距離データ)
を、仮の包絡線を設定して、包絡線Vを設定する上で不
要と考えられる距離データを除去し、残った各領域Eに
ついての距離データの有効性を隣接領域R1〜R8との
関係から有効ポイント数P(i,j)として判定し、こ
の有効ポイント数P(i,j)に基づいてライン代表距
離line_data.xs(i)を求めて、その距離
から包絡線Vを設定するので、測距データのばらつきや
ノイズ等があっても、その影響を可及的に低減すること
ができ、高精度の距離演算が可能となって正確でかつ適
正な包絡線Vを設定することができる。
【0136】次に、第2レンジカット部24において、
上記設定した包絡線Vに基づいて水平方向のレンジカッ
ト線V0,V1が設定されるとともに、路面と平行な2
つの上下方向のレンジカット線U0,U1が設定され、
第1レンジカット部23により抽出された距離データ及
び抽出されなった距離データから、上記水平方向のレン
ジカット線V0,V1間及び上下方向のレンジカット線
U0,U1間に位置する(包絡線Vの車幅方向内側に位
置する)距離データが抽出される。そして、この抽出さ
れた距離データに対して、再度8隣接点処理と重み付け
計算処理とが行われてライン代表距離line_dat
a.xs(i)が演算され、物体認識部20においてこ
のライン代表距離line_data.xs(i)から
物体Oが認識される。このように、上記包絡線Vに基づ
いて再度レンジカットラインを設定することにより必要
な距離データのみを抽出して物体Oを認識するので、他
の車両をガードレール等と区別して確実にかつ正確に認
識することができる。よって、物体Oの認識精度及び識
別精度を高めることができる。
【0137】また、上記8隣接点処理部25では、領域
Eと隣接領域R1〜R8との距離差dxがしきい値d0
よりも小さいときに有効ポイント数P(i,j)(付与
ポイント数pp)を付与するようにしているので、領域
Eの隣接領域R1〜R8との距離差dxがしきい値d0
よりも小さいときのみを有効ポイント数P(i,j)の
付与によって有効と判断でき、距離演算の精度を高める
ことができる。
【0138】上記ライン距離演算部26では、有効ポイ
ント数P(i,j)がライン代表しきい値P0よりも大
きい領域についてライン毎の距離演算を行うので、ライ
ン代表距離line_data.xs(i)を正確に演
算することができる。
【0139】そのとき、図45に示す如く、上記ライン
代表しきい値P0は、各ライン毎の距離データの検出状
況に応じて設定することで、ライン代表しきい値P0が
検出状況に応じて変化して設定され、距離演算の精度を
さらに高めることができる。すなわち、ライン代表しき
い値P0は、各ライン上の領域の最大有効ポイント数P
maxに応じて、その最大有効ポイント数Pmaxが大
きいほど大きくなるように設定すると、ライン代表しき
い値P0は、各ライン上の領域の最大有効ポイント数P
maxに応じて変化する。したがって、距離演算の精度
を高めることができる。
【0140】図18に示すように、上記ライン距離演算
部26において、各ライン上の領域の最大有効ポイント
数となる距離Dmaxを基準として、該距離Dmaxか
ら所定距離d0以上外れた距離データを距離演算に用い
ないように構成すれば、各ライン上の領域の最大有効ポ
イント数となる距離Dmaxから所定距離d0の範囲内
にある距離データのみで距離演算が行われ、高精度の距
離演算を行うことができる。
【0141】そして、上記包絡線設定部27において、
図23及び図24に示す如く、水平方向に配列された複
数のラインにおける距離データ間の車幅方向の位置が所
定距離ythreshold以上異なるときに、上記ラ
イン上の車両前後方向の遠い側の距離データに対応する
位置TS′を車両Cの車幅方向に延びる線W上に投影し
た位置に補助点TSを設定し、該補助点TSを含めて包
絡線Vを設定すれば、車両Cの斜め後方に、例えば物体
Oとしてのトラックやガードレールが混在しているとき
でも、それらのデータをより一層正しく処理することが
できる。
【0142】また、図25に示すように、検出した距離
データNが所定数N0以上あるときに包絡線Vを更新
し、設定した包絡線Vが前回の包絡線Vに比べて所定以
上に変化したときに包絡線Vの更新を行わないようにす
れば、検出距離データ数Nが多い分だけ包絡線Vの設定
精度を高めることができ、しかも、更新した今回の包絡
線Vの各項の係数c0,c1,c2と前回の包絡線Vの
同係数c0′,c1′,c2′とを比較して、両者の差
│c0−c0′│,│c1−c1′│,│c2−c2′
│がそれぞれ所定値Δc0,Δc1,Δc2以上大きく
て今回の包絡線Vが前回の包絡線Vに比べて所定以上に
変化したとき、それはガードレールの形状変化やブッシ
ュの変化等による一時的な外乱によるものと判定され
る。このときには、その包絡線Vの更新が禁止されるの
で、包絡線Vの設定を安定して行って信頼性を向上させ
ることができる。
【0143】さらに、図26及び図27に示す如く、走
行環境検出手段41により車両Cの走行環境が所定以上
に変化したことが検出されたときに、設定した包絡線V
が前回の包絡線Vに比べて所定以上に変化しても包絡線
Vの更新を行うようにすれば、このような車両Cの走行
環境の変化時に包絡線Vの更新を行うことで、包絡線V
の設定精度を高めることができる。
【0144】上記物体認識部20においては、今回のラ
インデータの位置が前回に登録した物体Oの位置から所
定範囲内にあれば、そのラインデータは該物体Oに含ま
れるものであると判断してその物体Oの位置を修正する
とともに、残りのラインデータから新規物体Oを認識す
るので、既に登録済みの物体Oと新規物体Oとを正確に
区別することができる。しかも、新規物体Oを認識する
際、上記残りのラインデータから仮の重心位置を求め、
この重心位置から所定範囲内にあるラインデータを1つ
の物体Oを構成するものとし、この所定範囲内にあるラ
インデータにより新規物体Oの位置等を計算して登録す
るので、ノイズ等が誤って新規物体Oとして登録される
のを抑制することができる。
【0145】そして、上記登録物体Oが車両Cの車線変
更の障害物と判定されて、車両Cに最も近い車両Cとの
間の距離xs1に関する情報が表示部31のセグメント
34,34,…の点灯表示により乗員に報知されるの
で、乗員は車線変更の障害物としての物体O(他の車
両)を容易に知ることができる。
【0146】また、上記測距回路16の測距特性は、遠
距離側ラインを基準として、他のラインを補完するよう
に構成されているので、検知センサユニット10後方の
ドアミラー6のミラー等の測距精度への影響を避ける目
的で、ライン毎の測距特性を所定ラインを基準にして他
のラインを補完するとき、遠距離側の距離データの有効
性を高めつつ、全てのラインの検出精度を良好に補正す
ることができる。
【0147】(実施形態)ここで、本発明の実施形態に
係る走行環境認識手段を備えた車両の位置認識装置につ
いて説明する。この実施形態では、図10のステップS
A1の白線除去処理が上記基本形態と異なっており、こ
の実施形態は、距離データに基づき路面の形状を求め、
この路面形状に基づいて該路面を検出しているデータの
除去を行うようにしている。
【0148】すなわち、上記基本形態の白線除去処理で
は、ライン毎にデータが水平に並んでいるか否かを判定
し、水平に並んでいるときには該データは白線を検出し
ているとして、当該データを除去するようにしている
(図11のステップSB4参照)。
【0149】ところが、検出誤差等に起因して距離デー
タはばらつくため、例えば図46に示すように、路面を
検出しているデータ(T1〜T6)であってもT3やT
4のように水平に並ばないデータが発生する場合があ
る。この場合、上記基本形態の白線除去処理では、上記
T3及びT4のようなばらついたデータを除去すること
が困難になってしまう。
【0150】また、走行環境によっては、路面を検出し
ているデータが水平に並ばないため、路面データを除去
することが困難な場合がある。すなわち、図47(a)
に示すように、加速をすること等によって自車Cの後部
が下がるピッチングを起こしたときは検知センサユニッ
ト10の向きが変わるため、路面Fの白線Mを検出した
データが水平に並ばなくなってしまう。また、例えば同
図(b)に示すように、自車Cが下り坂を降りた直後等
のときには、該下り坂である路面Fの白線Mを検出した
データは、路面Fのデータであるにも拘わらず水平に並
ばない状態となる。さらに、例えば同図(c)に示すよ
うに、他車Oのヘッドライトが点灯しているときの路面
Fの反射部分M′を検知センサユニット10が検出する
場合があり、この場合も、該路面Fを検出しているデー
タが水平に並ばなくなる虞がある。加えて、上記の条件
が重なってしまうと、除去されずに残ってしまう路面デ
ータの数がより一層増加してしまい、正確な物体認識が
より一層困難になってしまう虞がある。
【0151】さらに、同図(a)及び(b)に示すよう
な、自車Cがピッチングを起こしている場合や自車Cが
下り坂を降りた直後等では、路面データが確実に除去で
きないという不都合の他にも、物体の認識を行う上で不
要な距離データを除去するレンジカット処理が正確に行
えなくなる虞があるという不都合がある。
【0152】すなわち、上記基本形態では、エンジン出
力と車両Cの走行時の加速度とから路面傾斜角bb_a
ngleを演算し、この路面傾斜角bb_angleに
基づき、直線とみなした路面と平行な2つのレンジカッ
ト線U0,U1間に位置する距離データを抽出するよう
にしている(図29参照)。
【0153】ところが、例えば図47(b)に示すよう
に、路面Fの形状が自車の後方で変化していて他車Oが
下り坂の部分に存在している場合には、路面の形状を直
線で近似したレンジカットを行うと、物体Oを検出して
いるデータが残らなくなってしまう虞がある。このよう
に物体を検出しているデータの数が少なくなれば、該他
車の認識精度の低下を招いてしまう。
【0154】そこで、本実施形態では、ラインデータに
基づき路面の形状を正確に認識するようにし、このよう
な路面形状の正確な認識によって、他車の認識精度をよ
り向上させるようにしている。
【0155】図48は本発明の実施形態に係る物体認識
装置の詳細構成を示し、白線除去部22の代わりに走行
環境認識手段としての走行環境認識部28が設けられて
いる点が上記基本形態と異なる。
【0156】上記走行環境認識部28は、図49に示す
ように、上記各領域毎の距離データからライン毎に略水
平方向に並んだデータを抽出する水平データ抽出手段と
しての水平データ抽出部28aと、この水平データ抽出
部28aによって抽出されたデータからウィンドウ毎に
最大距離のデータを抽出する最大距離データ抽出手段と
しての最大距離データ抽出部28bと、この最大距離デ
ータ抽出部28bによって抽出されたデータに基づいて
路面の形状を算出する路面形状算出手段としての路面形
状算出部28cと、この路面形状算出部28cによって
算出された路面形状に基づき路面上の白線等のデータを
除去する路面データ除去手段としての路面データ除去部
28dとを有している。
【0157】そして、図50は本発明の実施形態に係る
走行環境認識動作を示し、ここでは、各領域の距離デー
タの内、条件を満たすものを順に抽出することによっ
て、路面を検出しているデータのみを残すようにしてい
る。
【0158】先ず、最初のステップSL1で、水平デー
タ抽出部28aにおいて各ライン毎に水平方向に並んだ
データD(i,j)を抽出する。具体的には、図11の
ステップSB1〜ステップSB7に基づき行われ、水平
に並んでいるかどうかの判定変数hj(i,j)が0で
あるデータを抽出してD(i,j)とする。これによ
り、図59A(a)に示すように、X−Z平面にプロッ
トした全ての領域の距離データから、同図(b)に示す
ように水平方向に並んだデータD(i,j)、つまり路
面を検出しているデータの候補が抽出される。尚、同図
において、同一符号の点は同一ライン列のデータである
ことを示し、同図(a)において車両1及び車両2の囲
い内のデータは、他車を検出しているデータであること
を示している。
【0159】次いで、ステップSL2では、最大距離デ
ータ抽出部28bにおいて水平方向に並んだデータD
(i,j)から、ウィンドウ毎に距離データが最大のデ
ータD0(j)を抽出する(図59(c)参照)。これ
により、路面を検出していると思われるデータが抽出さ
れる。
【0160】すなわち、図51(a)に示すように、例
えば同一のウィンドウjの異なるライン列の領域が点A
と点Bとをそれぞれ検出した場合を考える。このとき、
物体を検出している点Bは、路面Fと検知センサユニッ
ト10との間に位置するため、該路面Fを検出している
点Aよりも距離が短くなる。このように同一ウィンドウ
jの領域は上下方向に同じ方向を測距しているため、路
面Fを検出したときに最も距離が長くなる。そこで、上
記ステップSL2のように、ウィンドウ毎に距離データ
が最大のデータを抽出することによって、路面を検出し
ていると思われるデータを残すことができる。
【0161】続くステップSL3では、上記最大距離の
データD0(j)の内、第1所定距離以下のデータを除
去して、残ったデータをD1(j)とする。
【0162】ここで、上記第1所定距離Lminは、図
51(a)に示すように、検知センサユニット10の設
置高さL0(一対のCCDチップ11,11の中間位置
から路面までの高さ)と、該検知センサユニット10に
おける最も下向きの(ウィンドウ1の)測距方向θmi
nとに基づき、 Lmin=L0/θmin により算出される。従って、第1所定距離Lminは検
知センサユニット10の検知範囲における該検知センサ
ユニット10と路面Fとの最短距離に設定されることと
なる。このため、この第1所定距離Lminよりも短い
距離データは、例えば同図(a)の点B及び点Cのよう
に、路面Fよりも上側にある物体、例えば水平方向に並
んでいると判定され易い他車Oのボンネットやルーフを
検出しているデータであると考えられる。そこで、図5
9B(a)に示すように、上記第1所定距離Lmin以
下のデータ(同図の円で囲った点)を除去することによ
って、路面データD1(j)のみを抽出することができ
る。
【0163】尚、第1所定距離Lminの算出方法とし
ては、路面の形状を考慮するようにしてもよい。すなわ
ち、図51(b)に示すように、前回に算出した路面F
の勾配τと、検知センサユニット10の設置高さL0
と、該検知センサユニット10における最も下向きの測
距方向θminとに基づいて、 Lmin=L0/(θmin+τ) により算出してもよい。これにより、第1所定距離Lm
inを、より正確に検知センサユニット10の検知範囲
における該検知センサユニット10と路面Fとの最短距
離に設定することができる。
【0164】続くステップSL4では、上記データD1
(j)から第2所定距離以上であるデータを除去し、残
ったデータをD2(j)とする。
【0165】ここで、上記第2所定距離Lmax(i)
は、各ライン毎に設定するようになっている。具体的に
は、図52に示すように、ライン毎に、該検知センサユ
ニット10から、当該ラインの測距方向に延びる線(同
図の細線参照)と自車Cに対して車幅方向外側に所定距
離Wだけ離れて前後方向に延びる仮想線L1との交点ま
での距離に設定しており、 Lmax(i)=W/ψ(i) によって算出する。ここで、ψ(i)は各ラインの自車
Cの側面に対する水平方向角度である。尚、上記設定距
離Wは道幅に設定されており、このように第2所定距離
Lmax(i)を設定すれば、この第2所定距離Lma
x(i)以上の距離データは、自車Cが走行する車線に
隣接した隣接車線よりも遠くに存在する物体を検出して
いることになる。従って、該データは路側構造物又は他
車Oのボンネットやルーフを検出していると考えられ
る。そこで、図59B(b)に示すように、上記第2所
定距離Lmax(i)以上のデータ(同図の円で囲った
点参照)を除去することによって、路面データD2
(j)のみを抽出することができるようになる。
【0166】次に、ステップSL5では、以上のステッ
プSL1〜ステップSL4を経て残ったデータD2
(j)の高さZ2(j)を演算する。具体的には、 Z2(j)=L0−θ(j)・D2(j) によって算出する。ここで、L0は検知センサユニット
10の設置高さであり、θ(j)は各ウィンドウの水平
方向に対する上下角度である。
【0167】そして、ステップSL6においては、物体
と思われるデータを除去する。
【0168】これは、図53に示すように、Z2(j)
/D2(j)が所定値よりも小さいものを抽出すること
によって行われる(ステップSL6a)。
【0169】すなわち、検知センサユニット10から鉛
直下方に降ろした垂線と路面との交点を原点としたX−
Z平面において、路面の勾配角度は所定値以下になると
考えられる。このため、図59C(a)に示すように、
上記所定値によって規定されるしきい線L2を設定し、
このしきい線L2よりも上側に存在するデータ(同図の
T2参照)は、該データは路面を検出しているデータで
はないと思われる。そこで、これらのデータを除去すべ
く、Z2(j)/D2(j)が所定値内のものを抽出す
るようにする。
【0170】尚、上記ステップSL6における物体と思
われるデータを除去する動作としては、例えば以下の第
1の変形例〜第4の変形例のようにしてもよい。
【0171】第1の変形例は、図54に示すように、|
Z2(j+1)−Z2(j)|<K・|D2(j+1)
−D2(j)|を満たすデータのみを抽出する(ステッ
プSL6b)。つまり、上記ステップSL1〜ステップ
SL4の各ステップを経て抽出されたデータD2(j)
に対して、上記ステップSL1の処理と同様に、水平方
向に並んでいるデータのみを抽出するようにする。例え
ば図59C(a)においては、点T2のデータが除去さ
れる対象となる。
【0172】第2の変形例は、図55に示すように、D
2(j+1)>D2(j)を満たすデータのみを抽出す
る(ステップSL6c)。つまり、ウィンドウ方向にデ
ータを比較した場合、ウィンドウ番号が大きい方が遠く
を測距するウィンドウとなる。このため、番号が小さい
ウィンドウの距離データよりも短い距離データは物体を
検出していると思われるため、D2(j+1)>D2
(j)を満たすデータのみを抽出するようにする。
【0173】例えば図59C(a)では、点T4と点T
5とを比較して(点T4のデータは点T5のデータより
もウィンドウ番号が小さいとする)、点T5は点T4よ
りもX軸方向の距離が短くなっているため、点T5のデ
ータを除去する。
【0174】第3の変形例は、図56に示すように、|
Z2(j+1)−Z2(j)|<Z0を満たすデータの
みを抽出する(ステップSL6d)。ここで、Z0は固
定値である。つまり、ウィンドウ方向に隣り合うデータ
を比較した場合、路面を検出しているデータであればZ
軸方向に大きくずれることはなく、Z軸方向に大きくず
れるデータは物体を検出しているデータと思われる。そ
こで、このようなデータを除去すべく、|Z2(j+
1)−Z2(j)|<Z0を満たすデータのみを抽出す
るようにする。
【0175】例えば図59C(a)では、点T1と点T
2とを比較して、点T2は点T1に比べて大きくZ軸方
向にずれているため、点T2のデータを除去する。
【0176】第4の変形例は、図57に示すように、Z
2(j)>k(j−1)・D2(j)+ZZ0を満たす
データのみを抽出する(ステップSL6e)。ここで、
ZZ0は固定値であり、k(j−1)は前回に算出した
路面形状である。
【0177】すなわち、前回算出した路面形状に対して
Z軸方向に大きく異なるようなデータは、物体を検出し
ているデータと思われる。そこで、これらのデータを除
去すべく、Z2(j)>k(j−1)・D2(j)+Z
Z0を満たすデータのみを抽出するようにする。
【0178】例えば図59C(a)では、点T2のデー
タは、前回算出した路面の形状L3に対してZ軸方向に
大きくずれているため、これを除去する。
【0179】尚、上記ステップSL6における物体と思
われるデータを除去する動作は、図53〜図57に示す
それぞれの動作(ステップSL6a〜ステップSL6
e)の内いずれか一つのみ行うようにしてもよいし、複
数の動作を組み合わせて行うようにしてもよい。特に、
図55に示すD2(j+1)>D2(j)を満たすデー
タのみを抽出する動作(ステップSL6c)と、図57
に示すZ2(j)>k(j−1)・D2(j)+ZZ0
を満たすデータのみを抽出する動作(ステップSL6
e)との組み合わせて行うと、効果的に路面のデータの
みを抽出することができる。また、全ての動作を行うよ
うにしてもよい。
【0180】そして、続くステップSL7では、上記ス
テップSL1〜ステップSL6を経て抽出された路面デ
ータのX−Z平面上における補間を行う。これは路面形
状算出部20cによって行われ、この補間の動作は、具
体的には、図58に示すフローチャートに基づいて行わ
れる。
【0181】先ず、最初のステップSL10において、
残ったデータ数が所定数よりも多いか否かが判定され
る。データ数が所定数以下であるのNOのときには、ス
テップSL11に進み、Z6(j)=a・D(j)とな
るような原点を通る一次式で補間を行う(図59C
(b)の実線参照)。これは、データ数が少ない場合、
後述する二次式での補間や原点を通らない一次式での補
間といった、未知数が複数存在する補間を行うのでは、
正確な補間が行えない虞があるためである。
【0182】一方、上記ステップSL10でデータ数が
所定数よりも多いのYESのときにはステップSL12
に進み、該ステップSL12で車両のバンプリバウンド
の動きが激しいか否かを判定する。動きが激しくないの
NOのときには、ステップSL13に進み、Z6(j)
=a・D6(j)+b・D6(j)・D6(j)となる
ような原点を通る二次式で補間を行う(図59C(b)
の破線参照)。このように、二次式での補間を行えば、
路面の形状をより正確に認識することができる。
【0183】一方、上記ステップSL12で動きが激し
いのYESのときには、ステップSL14に進み、Z6
(j)=a・D(j)+bとなるような原点を通らない
一次式で補間を行う(図59C(b)の一点鎖線参
照)。これは、次の理由によるものである。すなわち、
例えば荷物が積載されている等により車両が沈んでいる
場合等では、検知センサユニット10の高さが設定高さ
よりも低くなる場合がある。この状態のときに検知セン
サユニット10の設定高さに基づき路面形状を算出した
のでは、正確な路面の形状を認識することができない虞
がある。そこで、バンプリバウンドの動きが激しい場合
は車両が沈んでいる場合と考え、原点を通らない一次式
で補間を行うことによって、より正確な路面の形状を算
出することができる。
【0184】尚、上記実施形態では、残ったデータの数
及び車両のバンプリバウンドの動きによって、補間に用
いる式を選択するようにしているが、これに限らず、例
えば補間の際の計算負荷と、路面形状の精度との観点か
ら補間に用いる式を選択するようにしてもよい。すなわ
ち、より計算負荷を軽くするのであれば原点を通る一次
式で補間を行うようにすればよいし、より正確に路面の
形状を算出するのであれば、二次式又はさらに高次の式
で補間を行うようにすればよい。さらに、上記計算負荷
と路面検出精度とを比較考慮して、原点を通らない一次
式で補間を行うようにしてもよい。
【0185】そして、上記路面形状算出部28cにおい
て路面の形状が算出されれば、路面データ除去部28d
において、全ての領域のデータに対して、上記算出した
路面に近いデータであるか否かを判定し、路面に近いデ
ータは白線等のデータであるとして除去する。そして、
ステップSA2の第1のラインデータ処理に進む。
【0186】また、ステップSA4の第2のラインデー
タ処理(第2レンジカット部24でのレンジカット処理
動作)における上下方向のレンジカット処理では、レン
ジカット線U0,U1を、上記路面形状算出部20dに
おいて算出した路面形状を用いて、該路面と平行なレン
ジカット線U0,U1を該路面に対してそれぞれLl,
Lhだけ高い位置に設定する。そして、この両レンジカ
ット線U0,U1間に位置する距離データを抽出し、物
体の認識を行うようにする。
【0187】したがって、上記実施形態では、検出した
距離データに基づき路面Fの形状を算出し、この路面F
の形状に基づいて白線等の路面データを除去するため、
より正確かつ確実に路面データの除去が可能になる。
【0188】また、上記算出した路面形状に基づいて物
体Oの検出範囲の設定であるレンジカット処理を行うた
め、自車Cの姿勢の変化や自車C後方の路面形状の変化
等によって検知センサユニット10の向きと路面Fとが
平行になっていない場合でも、物体Oを検出したデータ
のみを正確にかつ確実に抽出することができる。その結
果、物体Oの認識精度を向上させることができる。
【0189】
【発明の効果】以上説明したように、本発明における車
両の走行環境認識装置によれば、検出した全てのデータ
から路面を検出しているデータのみを抽出し、該抽出し
たデータに基づいて路面の形状を算出するため、自車周
囲の走行環境を正確に認識することができる。
【0190】また、算出した正確な路面形状に基づい
て、物体を検出しているデータを抽出し物体の認識を行
うため、該物体の認識精度を向上させることができる。
【図面の簡単な説明】
【図1】基本形態に係る物体認識装置の各構成部品の車
両での位置を示す斜視図である。
【図2】物体認識装置の概略構成を示すブロック図であ
る。
【図3】基本形態に係る物体認識装置の詳細構成を示す
ブロック図である。
【図4】検知センサにより物体を測距する概念を示す側
面図である。
【図5】CCDチップにより捕らえた画像を示す図であ
る。
【図6】CCDチップにより捕らえた画像の中のライン
をウィンドウ方向に分割して領域を区分する概念を示す
図である。
【図7】上下のCCDチップにより得られた画像が同じ
ラインでずれて視差が生じる状態を示す説明図である。
【図8】上下のCCDチップにより物体までの距離を測
定する原理を示す図である。
【図9】CCDチップにより得られた画像におけるCC
Dラインの測距方向を示す平面図である。
【図10】コントローラの制御動作を概略的に示すフロ
ーチャートである。
【図11】白線除去処理動作を示すフローチャートであ
る。
【図12】第1のラインデータ処理を概略的に示すフロ
ーチャートである。
【図13】上下方向のレンジカット領域を示す側面図で
ある。
【図14】水平方向のレンジカット領域を示す平面図で
ある。
【図15】領域に隣接する8隣接領域の配置を示す図で
ある。
【図16】第1及び第2のラインデータ処理における8
隣接点処理動作を示すフローチャートである。
【図17】第1及び第2のラインデータ処理における重
み付け計算処理動作を示すフローチャートである。
【図18】重み付け計算処理動作の変形例を示すフロー
チャートである。
【図19】8隣接点処理から重み付け計算処理までの具
体例を示す図である。
【図20】包絡線設定処理動作を示すフローチャートで
ある。
【図21】包絡線設定処理における包絡線演算処理動作
を示すフローチャートである。
【図22】物体検出位置から包絡線を演算するための原
理を示す平面模式図である。
【図23】包絡線設定処理動作の第1の変形例を示すフ
ローチャートである。
【図24】物体検出位置の補助点を登録する原理を示す
平面模式図である。
【図25】包絡線設定処理動作の第2の変形例を示すフ
ローチャートである。
【図26】包絡線設定処理動作の第3の変形例を示すフ
ローチャートである。
【図27】包絡線設定処理動作の第4の変形例を示すフ
ローチャートである。
【図28】水平方向のレンジカットを行うための原理を
示す平面模式図である。
【図29】上下方向のレンジカットを行うための原理を
示す側面模式図である。
【図30】第1及び第2のラインデータ処理におけるレ
ンジカット処理動作を示すフローチャートである。
【図31】図30のフローチャートの一部から続くレン
ジカット処理動作を示すフローチャートである。
【図32】図31のフローチャートの一部から続くレン
ジカット処理動作を示すフローチャートである。
【図33】オブジェクトデータ処理を概略的に示すフロ
ーチャートである。
【図34】オブジェクトデータ処理における登録済み物
体の位置修正処理動作を示すフローチャートである。
【図35】図34のフローチャートの一部から続く位置
修正処理動作を示すフローチャートである。
【図36】オブジェクトデータ処理における新規物体登
録処理を示すフローチャートである。
【図37】図36のフローチャートの一部から続く新規
物体登録処理を示すフローチャートである。
【図38】図37のフローチャートの一部から続く新規
物体登録処理を示すフローチャートである。
【図39】表示処理動作を示すフローチャートである。
【図40】表示処理動作で用いる表示輝度マップの特性
を示す図である。
【図41】表示処理動作で用いるセグメント点灯個数マ
ップの説明図である。
【図42】表示部での表示状態を示す図である。
【図43】視差に応じた距離補正のための特性を示す特
性図である。
【図44】検出率に応じて昼夜判定するための説明図で
ある。
【図45】ライン代表しきい値の設定方法を示すフロー
チャートである。
【図46】従来の白線除去処理では、十分な精度で白線
除去が行えないデータの例を示すX−Z平面説明図であ
る。
【図47】従来の白線除去処理では、十分な精度で白線
除去が行えない状況を示す説明図である。
【図48】本発明の実施形態に係る物体認識装置の詳細
構成を示す図3対応図である。
【図49】走行環境認識部の構成を示すブロック図であ
る。
【図50】実施形態に係る走行環境認識動作を示すフロ
ーチャートである。
【図51】第1所定距離を設定する原理を示す側面説明
図である。
【図52】第2所定距離を設定する原理を示す平面説明
図である。
【図53】図50のステップSL6の動作を詳細に示す
フローチャートである。
【図54】図50のステップSL6の動作の第1の変形
例を示すフローチャートである。
【図55】図50のステップSL6の動作の第2の変形
例を示すフローチャートである。
【図56】図50のステップSL6の動作の第3の変形
例を示すフローチャートである。
【図57】図50のステップSL6の動作の第4の変形
例を示すフローチャートである。
【図58】図50のステップSL7の動作を詳細に示す
フローチャートである。
【図59A】走行環境認識処理のステップSL1及びス
テップSL2の動作を行うことによって抽出されるデー
タの例を示す説明図である。
【図59B】走行環境認識処理のステップSL3及びス
テップSL4の動作を行うことによって抽出されるデー
タの例を示す説明図である。
【図59C】走行環境認識処理のステップSL5〜ステ
ップSL7の動作を行うことによって抽出されるデータ
の例を示す説明図である。
【符号の説明】
C 車両 E 領域 O 物体 10 後側方検知センサユニット 11 CCDチップ(検知センサ) 15 コントローラ 16 測距回路(測距手段) 20 物体認識部(物体認識手段) 28 走行環境認識部(走行環境認識手段) 20a 物体登録部(物体登録手段) 20b 重心設定部(重心設定手段) 20c 物体位置認識部(物体位置認識手段) 28a 水平データ抽出部(水平データ抽出手段) 28b 最大距離データ抽出部(最大距離データ抽出手
段) 28c 路面形状算出部(路面形状算出手段) 28d 路面データ除去部(路面データ除去手段)
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08G 1/16 G06F 15/62 380 (72)発明者 吉岡 透 広島県安芸郡府中町新地3番1号 マツダ 株式会社内 Fターム(参考) 2F065 AA06 AA17 AA51 CC40 DD04 FF01 FF05 FF64 FF65 JJ03 JJ05 JJ26 QQ51 RR06 SS01 SS13 2F112 AC03 AC06 BA06 BA07 CA20 DA28 FA14 FA36 GA05 5B057 AA16 AA19 BA02 CA08 CA13 CB08 CB12 CC02 CE09 DA07 DB03 DB06 DB09 DC03 5H180 CC04 FF33 LL02 LL04

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 上下方向たるウィンドウ方向に配置され
    た複数の受光素子からなる素子ラインをライン列方向に
    多段に並設してなる複数の検知センサと、該複数の検知
    センサにより得られた画像を上記ライン毎にかつウィン
    ドウ方向に複数の領域に分割して、該各領域について距
    離を測定する測距手段と、該測距手段により測定された
    各領域毎の距離データに基づいて車両周囲の走行環境を
    認識する走行環境認識手段とを備えた車両の走行環境認
    識装置であって、 上記走行環境認識手段は、上記各領域毎の距離データか
    ら上記ライン列毎に検出位置が略水平方向に並んだデー
    タを抽出する水平データ抽出手段と、該水平データ抽出
    手段によって抽出されたデータから上記ウィンドウ毎に
    最大距離のデータを抽出する最大距離データ抽出手段
    と、該最大距離データ抽出手段によって抽出されたデー
    タに基づいて路面の形状を算出する路面形状算出手段と
    を有していることを特徴とする車両の走行環境認識装
    置。
  2. 【請求項2】 請求項1において、 路面形状算出手段は、最大距離データ抽出手段によって
    抽出されたデータから第1所定距離以下のデータを除去
    し、残ったデータに基づいて路面の形状を算出するよう
    に構成されていることを特徴とする車両の走行環境認識
    装置。
  3. 【請求項3】 請求項2において、 路面形状算出手段は、第1所定距離を、検知センサの路
    面からの高さと該検知センサにおける最も下向きの測距
    方向とによって決まる上記測距方向に沿った上記検知セ
    ンサと路面との間の距離に設定するように構成されてい
    ることを特徴とする車両の走行環境認識装置。
  4. 【請求項4】 請求項2において、 測距手段は、各領域について距離を繰り返し測定するよ
    うに構成され、 走行環境認識手段は、車両周囲の走行環境を繰り返し認
    識するように構成され、 路面形状算出手段は、第1所定距離を、検知センサか
    ら、該検知センサにおける最も下向きの測距方向に延び
    る線と前回算出した路面との交点までの距離に設定する
    ように構成されていることを特徴とする車両の走行環境
    認識装置。
  5. 【請求項5】 請求項1又は請求項2において、 路面形状算出手段は、最大距離データ抽出手段によって
    抽出されたデータから第2所定距離以上のデータを除去
    し、残ったデータに基づいて路面の形状を算出するよう
    に構成されていることを特徴とする車両の走行環境認識
    装置。
  6. 【請求項6】 請求項5において、 走行環境認識手段は、車両の後側方の走行環境を認識す
    るように構成され、 路面形状算出手段は、第2所定距離を、検知センサのラ
    イン列毎に、該検知センサから当該ライン列の測距方向
    に延びる線と上記車両に対して車幅方向外側に所定距離
    だけ離れて前後方向に延びる仮想線との交点までの距離
    に設定するように構成されていることを特徴とする車両
    の走行環境認識装置。
  7. 【請求項7】 上下方向たるウィンドウ方向に配置され
    た複数の受光素子からなる素子ラインをライン列方向に
    多段に並設してなる複数の検知センサと、該複数の検知
    センサにより得られた画像を上記ライン毎にかつウィン
    ドウ方向に複数の領域に分割して、該各領域について距
    離を測定する測距手段と、該測距手段により測定された
    各領域毎の距離データに基づいて車両周囲の走行環境を
    認識する走行環境認識手段と、該走行環境認識手段によ
    り認識された走行環境に基づいて車両の周囲に存在する
    物体を認識する物体認識手段とを備えた車両の走行環境
    認識装置であって、 上記走行環境認識手段は、上記各領域毎の距離データか
    ら上記ライン列毎に検出位置が略水平方向に並んだデー
    タを抽出する水平データ抽出手段と、該水平データ抽出
    手段によって抽出されたデータから上記ウィンドウ毎に
    最大距離のデータを抽出する最大距離データ抽出手段
    と、該最大距離データ抽出手段によって抽出されたデー
    タに基づいて路面の形状を算出する路面形状算出手段
    と、該路面形状算出手段によって算出された路面形状に
    基づいて上記各領域毎の距離データから該路面を検出し
    た路面データを除去する路面データ除去手段とを有し、 上記物体認識手段は、上記路面データ除去手段によって
    除去されずに残った距離データに基づいて車両の周囲に
    存在する物体を認識するように構成されていることを特
    徴とする車両の走行環境認識装置。
JP2000034994A 2000-02-14 2000-02-14 車両の走行環境認識装置 Pending JP2001227944A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000034994A JP2001227944A (ja) 2000-02-14 2000-02-14 車両の走行環境認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000034994A JP2001227944A (ja) 2000-02-14 2000-02-14 車両の走行環境認識装置

Publications (1)

Publication Number Publication Date
JP2001227944A true JP2001227944A (ja) 2001-08-24

Family

ID=18559252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000034994A Pending JP2001227944A (ja) 2000-02-14 2000-02-14 車両の走行環境認識装置

Country Status (1)

Country Link
JP (1) JP2001227944A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010020867A1 (de) 2009-05-22 2011-05-19 Fuji Jukogyo Kabushiki Kaisha Strassenform-Erkennungsvorrichtung
JP2011128844A (ja) * 2009-12-17 2011-06-30 Fuji Heavy Ind Ltd 路面形状認識装置
GB2488238A (en) * 2011-02-18 2012-08-22 Jaguar Cars Vehicular collision avoidance system
JP2017162116A (ja) * 2016-03-08 2017-09-14 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2017207874A (ja) * 2016-05-17 2017-11-24 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2017211791A (ja) * 2016-05-25 2017-11-30 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010020867A1 (de) 2009-05-22 2011-05-19 Fuji Jukogyo Kabushiki Kaisha Strassenform-Erkennungsvorrichtung
US8340896B2 (en) 2009-05-22 2012-12-25 Fuji Jukogyo Kabushiki Kaisha Road shape recognition device
DE102010020867B4 (de) * 2009-05-22 2017-12-28 Subaru Corporation Strassenform-Erkennungsvorrichtung
JP2011128844A (ja) * 2009-12-17 2011-06-30 Fuji Heavy Ind Ltd 路面形状認識装置
GB2488238A (en) * 2011-02-18 2012-08-22 Jaguar Cars Vehicular collision avoidance system
GB2488238B (en) * 2011-02-18 2013-12-25 Jaguar Land Rover Ltd Monitoring apparatus and method
US9947225B2 (en) 2011-02-18 2018-04-17 Jaguar Land Rover Limited Apparatus and method for monitoring a target object
JP2017162116A (ja) * 2016-03-08 2017-09-14 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
US10650271B2 (en) 2016-03-08 2020-05-12 Ricoh Company, Ltd. Image processing apparatus, imaging device, moving object device control system, and image processing method
JP2017207874A (ja) * 2016-05-17 2017-11-24 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2017211791A (ja) * 2016-05-25 2017-11-30 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム

Similar Documents

Publication Publication Date Title
US10241206B2 (en) Sensor system for a vehicle for detecting bridges or tunnel entrances
US6831591B2 (en) Radar device for a vehicle
JP3556766B2 (ja) 道路白線検出装置
CN102959600B (zh) 车辆行进路线推定装置
JP3227741B2 (ja) オーバースピード予測装置
JP4052650B2 (ja) 障害物検出装置、方法及びプログラム
US6498983B2 (en) Navigation apparatus, navigation method and information recording medium containing navigation program readable by computer
JP4643436B2 (ja) 自車位置判定装置
US6753902B1 (en) Image processing apparatus, image processing method, navigation apparatus, program storage device and computer data signal embodied in carrier wave
EP3654235A1 (en) Method and apparatus for determining road line
CN111044066B (zh) 支援控制系统
EP2169500A1 (en) Method of assessing vehicle paths in a road environment and a vehicle path assessment system.
JP2001331787A (ja) 道路形状推定装置
JPH06266828A (ja) 車輌用車外監視装置
JPH05265547A (ja) 車輌用車外監視装置
CN111469127B (zh) 代价地图更新方法、装置、机器人及存储介质
CN109426261A (zh) 自动驾驶装置
CN114670840A (zh) 死角推测装置、车辆行驶系统、死角推测方法
JP2001227944A (ja) 車両の走行環境認識装置
KR101588787B1 (ko) 전방차량의 횡방향 거리 결정 방법 및 이를 이용한 헤드 업 디스플레이 장치
KR20090070936A (ko) 네비게이션 시스템 및 방법, 방법 프로그램을 기록한저장매체
JPH09159473A (ja) ナビゲーション装置及びマップマッチング方法
JP4400980B2 (ja) 車両の物体認識装置
JPH0668391A (ja) 車両走行案内装置
JP2001227913A (ja) 車両の物体認識装置及び物体認識方法