JP2002099907A - 物体認識装置 - Google Patents

物体認識装置

Info

Publication number
JP2002099907A
JP2002099907A JP2000288955A JP2000288955A JP2002099907A JP 2002099907 A JP2002099907 A JP 2002099907A JP 2000288955 A JP2000288955 A JP 2000288955A JP 2000288955 A JP2000288955 A JP 2000288955A JP 2002099907 A JP2002099907 A JP 2002099907A
Authority
JP
Japan
Prior art keywords
detection
vehicle
detected
image
wave
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000288955A
Other languages
English (en)
Inventor
Koichi Kojima
浩一 小嶋
Masaki Chiba
正基 千葉
Takehiko Fujioka
健彦 藤岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2000288955A priority Critical patent/JP2002099907A/ja
Publication of JP2002099907A publication Critical patent/JP2002099907A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Traffic Control Systems (AREA)

Abstract

(57)【要約】 【課題】 検出範囲の異なる2種類の検出処理に、他方
の検出処理の結果を利用する応答性に優れた物体認識装
置の提供。 【解決手段】 画像センサ(IS)2の検出範囲は、距
離センサ(LR)1の検出範囲を内包しており、ECU
は、IS2による単独の検出範囲において物体が検出さ
れているときに、LR1がIS2による検出結果を参照
するように制御し、その結果、当該両センサからそれぞ
れ入手した検出結果に基づいて、それら2つのセンサに
よって個別に検出された前記物体を、監視対象である1
つの物体として認識処理を行う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、物体認識装置に関
し、例えば、周囲の物体を認識すべく自動車等の車両に
搭載して好適な物体認識装置に関する。
【0002】
【従来の技術】従来より、物体の存在を検出する技術分
野においては、複数種類のセンサによってそれぞれ同じ
検出対象を検出するように設定し、それらセンサの検出
結果を総合的に考慮して最終的な検出結果を求める、所
謂センサフュージョン技術が提案されており、このよう
な技術の一例として、例えば特開平9−236672号
には、超音波センサと赤外線センサとの検出結果に基づ
いてトイレ内に人が存在するか否かを判定する技術が提
案されており、超音波センサでは人体とそれ以外の物体
との判別が困難なため、赤外線センサの検出範囲が超音
波センサの検出範囲を内包するように配設されている。
【0003】
【発明が解決しようとする課題】従って、上記従来例で
は、検出範囲が重複していない領域で物体が検出された
ときには、その物体が人体であるかそれ以外の物体であ
るかの判別は困難であり、検出範囲が重複している領域
への当該物体の移動があってはじめて検出可能となる。
このため、物体の迅速な検出が行えない場合も想定さ
れ、この問題は、上記従来例に開示されている検出方法
を、迅速な処理が要求される自動車等の車両における周
囲の障害物の認識に採用する場合には致命的な障害とな
る。
【0004】そこで本発明は、検出範囲の異なる2種類
の検出処理に、他方の検出処理の結果を利用する応答性
に優れた物体認識装置の提供を目的とする。
【0005】
【課題を解決するための手段】上記の目的を達成するた
め、本発明に係る物体認識装置は、以下の構成を特徴と
する。
【0006】即ち、所定の検出波を送出すると共に、そ
の検出波の物体からの反射波に基づいて、その物体の存
在及び移動状態を検出する第1の検出手段と、前記検出
波の伝搬範囲を内包する領域を撮像装置によって撮像す
ると共に、撮影された画像に基づいて、その画像に含ま
れる物体の存在及び移動状態を検出する第2の検出手段
と、前記第1及び第2の検出手段による両方の検出結果
に基づいて、それら2つの検出手段によって個別に検出
された前記物体を、監視対象である1つの物体として認
識する物体認識制御手段とを備え、前記物体認識制御手
段は、前記第2の検出手段による単独の検出範囲におい
て物体が検出されたときに、前記第1の検出手段が前記
第2の検出手段による検出結果を参照するように制御
し、その結果、前記第1及び第2の検出手段からそれぞ
れ入手した検出結果に基づいて、それら2つの検出手段
によって個別に検出された前記物体を、監視対象である
1つの物体として認識することを特徴とする。
【0007】好適な実施形態において、前記第1の検出
手段は、検出した前記反射波のうち、所定のしきい値よ
り大きな強度の反射波から移動方向及び速度が近似する
ものを1ブロックにまとめるブロック化手段と、前記ブ
ロック化手段によってまとめられた複数のブロックのう
ち、近傍に位置する2つのブロックを、検出すべき物体
として1つのグループにまとめるグループ化手段と、前
記グループ化手段によって検出されたグループ単位で、
存在及び移動状態を判定する物体判定手段とを含むと良
い。
【0008】また、上記の場合において、前記物体認識
制御手段は、前記第2の検出手段による単独の第1検出
範囲において検出されていた物体が前記第1及び第2の
検出手段による重複した第2検出範囲に移動したとき
に、その物体が前回までの制御周期において前記第1の
検出手段によって既に検出されている物体であるときに
は、その物体に対する前記ブロック化手段によるブロッ
ク化が省略されるように、前記第1の検出手段を制御す
ると良い。
【0009】また、上記の同目的を達成するため、本発
明に係る物体認識装置は、以下の構成を特徴とする。
【0010】即ち、所定の検出波を送出すると共に、そ
の検出波の物体からの反射波に基づいて、その物体の存
在及び移動状態を検出する第1の検出手段と、前記検出
波の伝搬範囲を内包する領域を撮像装置によって撮像す
ると共に、撮影された画像に基づいて、その画像に含ま
れる物体の存在及び移動状態を検出する第2の検出手段
と、前記第1及び第2の検出手段による両方の検出結果
に基づいて、それら2つの検出手段によって個別に検出
された前記物体を、監視対象である1つの物体として認
識する物体認識制御手段とを備え、前記物体認識制御手
段は、前記第1及び第2の検出手段による重複した第2
検出範囲において検出されていた物体が前記第2の検出
手段による単独の第1検出範囲に移動したときに、それ
まで該第2検出範囲において前記第1の検出手段によっ
て検出されていた所定項目の情報(例えば距離情報)を
参照することによって物体の検出処理が継続されるよう
に、前記第2の検出手段を制御することを特徴とする。
【0011】尚、上記の何れの装置構成においても、好
ましくは、検出すべき物体の存在する周囲の環境を検出
する周囲環境検出手段を更に備え、前記物体認識制御手
段は、前記周囲環境検出手段による検出結果に応じて、
前記第1及び第2の検出手段のうち、何れか一方の検出
手段による検出結果の他方の検出手段の検出処理への反
映の度合を変更すると良い。
【0012】より具体的に、例えば前記物体認識制御手
段は、前記周囲環境検出手段によって前記第1の検出手
段の検出特性が晴天状態と比較して影響を受け易い荒天
状態であることが検出されたときに、前記第1の検出手
段による検出結果の、前記第2の検出手段による検出処
理への反映を抑制すると良い。
【0013】
【発明の効果】上記の本発明によれば、検出範囲の異な
る2種類の検出処理に、他方の検出処理の結果を利用す
る応答性に優れた物体認識装置の提供が実現する。
【0014】即ち、請求項1、請求項3の発明によれ
ば、第1検出領域から第2検出領域に物体が移動した場
合、或いはその逆の場合において、一方の検出手段にお
ける検出結果が他方の検出手段における検出結果に利用
されるので、応答性良く迅速に物体を検出することがで
きる。
【0015】また、請求項2の発明によれば、多数検出
される反射波の中から必要なものを効率良く抽出でき、
迅速に物体を判定することができる。
【0016】また、請求項3の発明によれば、予め物体
と特定されている場合は、その物体に対応する反射波に
対するブロック化処理が省略されるので、その分処理を
高速化することができるまた、請求項5の発明によれ
ば、一方の検出手段の検出精度が周囲の環境に影響さ
れ、測定結果の信頼性が低下する場合に、そのことを最
終的な物体認識結果に考慮することができ、確度の高い
処理が実現する。
【0017】
【発明の実施の形態】以下、本発明を、自動車等の車両
の警報システムに適用した実施形態として、図面を参照
して詳細に説明する。
【0018】図1は、本実施形態における警報システム
が搭載された車両の装置構成を示すブロック図である。
【0019】同図に示す車両100において、1は、自
車両の前方を走行する他車両との車間距離を検出するレ
ーザーレーダ、或いはミリ波レーダ等の距離センサ(以
下、LR)である。2は、赤外線(近赤外線及び遠赤外
線を含む)を利用した撮像装置(赤外線カメラ)を用い
て、自車両の前方の所定の撮像範囲を撮影する画像セン
サ(以下、IS)である。
【0020】3は、自車両の速度を減速させるブレーキ
アクチュエータである。4は、自車両の速度を調整する
エンジンスロットルの開度を調整するスロットルアクチ
ュエータである。尚、車両100の速度調整には、自動
変速機を併用しても良い。
【0021】ここで、LR1とIS2とは、図1(b)
に示すように、車両100の車幅方向に略同じであっ
て、バンパー近傍において車両上下方向に重ねられるよ
うに搭載されており、上述したLR1及びIS2は、図
2に示すように当該センサの搭載位置から垂直上方向を
+Y方向、右横方向を+X方向、そして自車両の前方方
向を+Z方向とする座標系を基準としている。
【0022】また、本実施形態において、IS2が図1
(b)に示すようにバンパーの下方に搭載される理由
は、検出対象である他車両の後部バンパーの下方に位置
する排気管の周辺を、IS2による撮影を容易にするた
めである。
【0023】また、これら2種類のセンサLR1及びI
S2の検出範囲は、図3に示すように、IS2の検出範
囲がLR1の検出範囲を内包するように設定されてい
る。また、LR1の検出範囲(所定の検出波の走査範囲
(伝搬範囲))は、垂直方向に所定の仰角をなす立体的
な領域であり、その領域範囲内に存在する物体までの距
離と方向(角度)とを検出する。
【0024】尚、本実施形態では、説明の便宜上、LR
1及びIS2の搭載位置を図1(b)に示すように配置
するが、搭載スペースの関係から実際には車幅方向にず
らして実装する場合には、それらセンサのずれ量がオフ
セットされた同一の座標系に変換することにより、計算
上は図2に示す座標系に調整すると良い。
【0025】次に、5は、本実施形態において少なくと
も自車両と前方の他車両との車間距離に関する警報音の
出力を行うスピーカである。6は、車両100のワイパ
ーの動作オン・オフ、動作速度、並びに動作周期の設定
をドライバが可能なワイパスイッチであり、本実施形態
では、ワイパスイッチ6の操作状態により、周囲の走行
環境が雨天や濃霧等の荒天状態であるかを推定する。
【0026】7は、IS2によって撮像した画像(以
下、赤外画像)の表示や、各種情報の表示を行う表示装
置である。8は、車両100に対する日光の照度を検出
することにより、周囲の走行環境が晴天状態であるかを
検出する照度センサである。
【0027】9は、車両100の速度を検出する速度セ
ンサである。10は、外部より受信したGPS(グロー
バル・ポジショニング・システム)信号に基づいて車両
100の現在位置を検出するGPSセンサであり、本実
施形態では、現在時刻の検出にも利用する。
【0028】そして、ECU(電子制御ユニット)11
は、上述した各種センサにより入手した情報に基づい
て、車間距離に関する警報をドライバに対してスピーカ
5から報知すると共に、ブレーキアクチュエータ3及び
/またはスロットルアクチュエータ4を制御することに
より、自車両の前方に存在する他車両との車間距離が所
定距離に維持する。ECU11には、不図示のマイクロ
コンピュータが搭載されており、予めメモリに格納され
たプログラムやパラメータに従って、CPUが動作する
ことにより、以下に説明する警報・制御処理を実現す
る。
【0029】[警報・制御処理]図4は、本実施形態に
おけるECU11が実行する警報・制御処理のフローチ
ャートを示す図であり、例えばイグニッションスイッチ
(不図示)がドライバによってオン状態に設定されるこ
とによって開始される。
【0030】同図において、ステップS1:LR1及び
IS2のそれぞれの検出結果に基づくセンサフュージョ
ンにより、車両100の前方に存在する車両(先行車
両)の存在を認識すると共に、その車両と自車両との相
対的な距離情報(車間距離、速度)を取得する(詳細は
後述する)。
【0031】ステップS2:車速センサ9の検出結果に
より、自車速を検出する。
【0032】ステップS3〜ステップS5:例えば図5
に示すような危険判断の基準特性を予めルックアップテ
ーブル(LUT)としてROM等の記憶デバイスに記憶
しておき、ステップS1及びステップS2にて取得した
距離情報及び自車速に基づいて相対速度を算出すると共
に、該LUTを、算出した相対速度と、ステップS1に
て求めた車間距離とに従って参照することにより、ブレ
ーキアクチュエータ3及び/またはスロットルアクチュ
エータ4を駆動する車間距離制御を実行すべき危険な状
態か、スピーカ5からの警報音の出力を実行すべき危険
な状態かを判断する(ステップS3)。そして、この判
断結果により、危険ではないときにはステップS1にリ
ターンし、警報が必要な場合にはスピーカ5による警報
音の出力及び表示装置7へのガイダンス表示等を行い
(ステップS4)、警報に加えて車間距離制御の実行が
必要な場合には、ブレーキアクチュエータ3及び/また
はスロットルアクチュエータ4を駆動を制御することに
より、車間距離を制御し(ステップS5)、その後、ス
テップS1にリターンする。
【0033】[車両認識処理]以下、本実施形態におい
て図4のステップS1にて行われるところの、車両認識
処理について詳細に説明する。
【0034】図6は、本実施形態におけるECU11が
実行する車両認識処理を示すフローチャートであり、同
図に示すように、ステップS1(図4)では、IS2を
用いた車両の認定処理(ステップS11)と、LR1を
用いた車両の認定処理(ステップS12)とが並行して
行われ、ステップS13における車両認識処理では、ス
テップS11及びステップS12におけるIS2及びL
R1の検出結果に基づくセンサフュージョンにより、最
終的な車両認識結果が算出される。そして、ステップS
13にて算出された車両認識結果は、本実施形態ではス
テップS3の危険判断に利用される。
【0035】以下、図6に示す各ステップの詳細な処理
手順について説明する。
【0036】<IS2による車両の認定処理>まず、I
S2による車両の認定処理について、図7乃至図14を
参照して説明する。
【0037】はじめに、IS2による車両の認定処理を
概説する。本実施形態において、IS2による車両の認
定処理は、大別して、赤外線カメラ(IS2)によって
撮像された赤外画像の全体を対象として行われる「車両
画像の概略推定処理」と、その概略推定処理によって推
定された部分画像領域に対して個別に行われる「車両検
出処理」とにより構成される。
【0038】まず、車両画像の概略推定処理では、赤外
画像(図7に例示する赤外画像21参照)の全体に含ま
れるところの、車両(車両の断面形状)である可能性が
高い部分画像領域(図7に例示する部分画像領域24)
を推定する。
【0039】次に、車両検出処理は、内燃機関によって
駆動される一般的な車両を検出対象の物体として、車両
画像の概略推定処理によって推定された部分画像領域か
ら、その領域内に含まれる所定輝度より高輝度な箇所
を、排気管の取り付け位置(図7に例示する排気管の領
域画像23)として検出し、検出した高輝度な箇所を基
準とする所定サイズのフレームを該部分画像領域に対し
て用いるパターンマッチング処理を施すことにより、該
部分画像領域が表わす物体が車両であることを特定する
と共に、特定された物体の位置及び速度を検出する。
【0040】このとき、ECU11には、当該所定輝度
として、赤外線カメラによって排気管を含む一般的な車
両が撮像されたときの、その排気管の領域の標準的な輻
射熱量に基づく値を予めROM等のメモリに記憶してお
くと共に、係る車両における排気管の標準的な取り付け
位置と、その車両の断面形状との関係を表わす特徴情報
とを予めROM等のメモリに記憶しておく。
【0041】そして、パターンマッチング処理に際して
は、上記の特徴情報を参照することにより、所定輝度よ
り高輝度な排気管の取り付け位置を基準として上下左右
に所定割合のサイズを有するフレームと、注目している
部分画像領域に対して設定すする(詳細は図11を参照
して後述する)。
【0042】図8は、本実施形態におけるECU11が
実行するIS2による車両の認定処理を示すフローチャ
ートであり、図6のステップS11の詳細な処理手順を
示す。
【0043】図8において、ステップS21〜ステップ
S23:赤外線カメラの1フレーム分の撮影画像(赤外
画像)を入力し(ステップS21)、上記の如く概説し
た車両画像の概略推定処理を行うタイミングを決定する
ために使用するカウンタCの計数値を0にリセットし
(ステップS22)、当該1フレーム分の赤外画像の中
から検出された部分画像領域の数量(物体数X)を0に
リセットする(ステップS23)。
【0044】尚、赤外線カメラ及びECU11の制御周
期と比較して、検出対象である車両の動作は緩慢なた
め、本実施形態では、ECU11の演算処理の負担を軽
減すべく、赤外線カメラの制御周期(本実施形態では1
00msec)毎に入力される赤外画像に対して行われ
る車両検出処理の実行頻度に対して、車両画像の概略推
定処理は10フレーム毎に行う。
【0045】ステップS24,ステップS25:カウン
タCの計数値が0であるかを判断し(ステップS2
4)、この判断でカウンタC=0のときには、新たに入
力された1フレーム分の赤外画像全体に対して車両画像
の概略推定処理を行うことにより、車両の断面形状であ
ると推定した部分画像領域の赤外画像内における位置の
特定すると共に、推定した部分画像領域の全数量を物体
数Xに設定し(ステップS25:詳細は図9を参照して
後述する)、ステップS26に進む。
【0046】ステップS26〜ステップS28:一方、
カウンタC≠0のときには、上記の如く概説した車両検
出処理を、ステップS25にて設定されたX個の部分画
像領域(物体の画像)に対して個々に行うステップS2
6の一連の処理(詳細は図10を参照して後述する)
を、そのステップS26の処理が終了する度にカウンタ
Cの計数値を1加算しながら、計数値が9になるまで繰
り返し(ステップS27,ステップS28)、当該計数
値が9になったときにはステップS21にリターンす
る。
【0047】(車両画像の概略推定処理)図9は、IS
2による車両の認定処理のうち、車両画像の概略推定処
理(図8のステップS25)の詳細を示すフローチャー
トである。
【0048】同図において、ステップS31:赤外線カ
メラから新たな処理対象として、1フレーム分の赤外画
像を入力する。
【0049】ステップS32,ステップS33:入力さ
れた赤外画像の特徴を検出すべく、まず、縦方向(Y方
向)の微分画像(ステップS32)と、横方向(X方
向)の微分画像(ステップS33)とを生成する。より
具体的に、ステップS32では、[1,0,−1]T
1−3行列を用いて、赤外画像の全体に対して、縦方向
のデジタルフィルタ処理を施す。また、ステップS33
では、[1,0,−1]の3−1行列を用いて、赤外画
像の全体に対して横方向のデジタルフィルタ処理を施
す。
【0050】ステップS34,ステップS35:上記の
両ステップにて生成した2方向の微分画像の論理積(A
ND)を採り(ステップS34)、その結果得られる微
分画像の縦方向の微分値の累積を採り、算出した累積値
は、後述するステップS39及びステップS40におい
て当該赤外画像から車両の部分画像領域以外の領域を除
去するためのしきい値として設定する(ステップS3
5)。
【0051】ステップS36,ステップS37:後述す
るステップS39及びステップS40において当該赤外
画像から車両の部分画像領域以外の領域(即ち、空領
域、道路領域)を除去する際の濃度基準とすべく、入力
された赤外画像の中央上方の所定画素の濃度値を、当該
赤外画像における空領域の濃度値としてサンプリングし
(ステップS36)、中央下方の所定画素の濃度値を、
当該赤外画像における道路領域の濃度値としてサンプリ
ングする(ステップS37)。
【0052】尚、本実施形態では、濃度値を参照する所
定画素を、一例として赤外画像の中央上方及び下方とし
たが、ナビゲーション装置等によって外部より自車両前
方の道路形状に関する情報を取得可能な場合は、その情
報に応じて、参照すべき画素位置を適宜変更すると良
い。
【0053】ステップS38:後述するステップS39
及びステップS40において横方向の領域判定しきい値
として使用するところの、当該赤外画像の左右濃度(左
端と右端)の差分値を設定する。
【0054】ステップS39:本ステップでは、当該赤
外画像の全体領域から空領域の画像部分を除去する。即
ち、ステップS36にてサンプリングした濃度値以下で
あってステップS38にて設定した左右濃度のしきい値
以下という条件により、ステップS1にて入力された赤
外画像を当該画像の上から走査すると共に、ステップS
35にて設定した微分累積値のしきい値以下という条件
により、ステップS34にて算出した微分画像を当該画
像の上から走査する。そして、走査によって除去された
空領域の画像部分には、所定の濃度値(例えば黒)を設
定する。
【0055】ステップS40:本ステップでは、当該赤
外画像の全体領域から道路領域の画像部分を除去する。
即ち、ステップS37にてサンプリングした濃度値以下
であってステップS38にて設定した左右濃度のしきい
値以下という条件により、ステップS1にて入力された
赤外画像を当該画像の下から走査すると共に、ステップ
S35にて設定した微分累積値のしきい値以下という条
件により、ステップS34にて算出した微分画像を当該
画像の下から走査する。そして、走査によって除去され
た道路領域の画像部分には、所定の濃度値(例えば黒)
を設定する。
【0056】ステップS41:ステップS37にてサン
プリングした道路領域の濃度値を参照することにより、
当該赤外画像に含まれる車両の画像部分の濃度値Bを、
B=(サンプリング濃度値)×A(本実施形態では、A
>T1=1.0)なる計算によって推定する。
【0057】ステップS42:ステップS41にて算出
した濃度値Bを利用して、ステップS1にて入力された
赤外画像を2値化する。本ステップにて算出される2値
化画像は、車両である可能性が高い高濃度部分の画像で
ある。
【0058】ステップS43:ステップS339及びス
テップS40にて空領域及び道路領域が除去された2つ
の画像と、ステップS42にて算出された2値化画像と
の論理積(AND)を採ることにより、車両の輪郭画像
(図7の領域24)である可能性が高い部分画像領域
(エッジ画像領域)が得られる。
【0059】(車両検出処理)図10は、IS2による
車両の認定処理のうち、車両検出処理(図8のステップ
S26)の詳細を示すフローチャートである。
【0060】同図において、ステップS51,ステップ
S52:赤外線カメラから新たな処理対象として、1フ
レーム分の赤外画像を入力し(ステップS51)、その
赤外画像の中央下方の画素の濃度値をサンプリングする
ことにより、図9のステップS37と同様に道路領域の
濃度値を入手する(ステップS52)。
【0061】ステップS53:ステップS52にてサン
プリングした道路領域の濃度値を参照することにより、
当該赤外画像に含まれる排気管領域の画像部分の濃度値
Dを、D=(サンプリング濃度値)×F(本実施形態で
は、F>T2=2.0>T1)なる計算によって推定す
る。
【0062】ステップS54:ステップS53にて算出
した濃度値Dをしきい値として利用して、ステップS5
1にて入力された赤外画像を2値化する。本ステップに
て算出される2値化画像は、排気管である可能性が高い
高濃度部分の画像(図7の領域23)であり、この2値
化画像の当該赤外画像の全体における位置を、排気管部
分の画像位置として設定する。
【0063】ここで、本ステップにて使用する濃度値D
が十分に大きくない場合、算出される2値化画像は、車
両の排気口周辺を含む画像(図7の領域22)となって
しまうので、排気管の画像位置を基準として利用する本
実施形態には好ましくない。
【0064】ステップS55:本実施形態において、E
CU11には、赤外線カメラの撮像範囲である画角(図
3参照)と、その赤外線カメラの撮像デバイス(例えば
CCD:Charge Coupled Device)を構成する画素との
距離に関する対応関係が予め記憶されている。そこで、
本ステップでは、ステップS54にて設定した排気管部
分の画像位置(図11の排気管領域の画像26)を基準
として、当該赤外画像の下辺から当該排気管部分の画像
位置までの画素数と、上記の距離に関する対応関係とに
基づいて、自車両の前方に存在する他車両との距離(即
ち、他車両の位置:図11の距離ZIR)を推定すると
共に、前回の制御周期における本ステップにて推定した
当該他車両との距離を参照することにより、単位時間当
たりの変化率を、自車両と当該他車両との相対速度とし
て算出する。
【0065】ステップS56:ECU11には、図12
に示すように、検出対象である車両までの距離と、その
距離に応じた該車両の標準的な車幅に対応するところ
の、赤外画像における画素数との対応関係が予めルック
アップテーブルとして記憶されており、本ステップで
は、当該赤外画像を利用して推定した距離ZIRに従っ
て図12のルックアップテーブルを参照することより、
排気管領域の画像26に排気管が撮影されている車両の
車幅W(画素数)を推定する。
【0066】尚、IS2による赤外画像に基づく距離検
出の精度と、LR1による障害物までの距離検出の精度
とを比較した場合は、LR1による場合の方が検出精度
に優れる。
【0067】そこで、上記のステップS56では、車幅
W(画素数)の推定を、赤外画像に基づいて算出した距
離ZIRと、図12に示すルックアップテーブルとを利
用して算出したが、この方法は、LR1及びIS2によ
る重複した検出領域(以下、第2検出範囲)に車両が検
出されている場合に採用する。
【0068】そして、前回までの制御周期において後述
するセンサフュージョンによる最終的な車両特定がなさ
れており(即ち、両方式によって個別に検出された車両
が同一車両であるか否かの認定結果が求められてお
り)、且つLR1による検出結果によって対応する車両
(グループ)までの距離ZLRが検出されている場合に
は、検出されていた車両が、第2検出範囲から検出領域
が重複していないIS2による単独の検出領域(以下、
第1検出範囲)に移動したとき、その距離ZLRに従っ
て図12に示すルックアップテーブルを参照することに
より、精度の高い車幅W(画素数)の推定を行う。或い
は、センサフュージョンによる最終的な車両特定が同様
になされている場合には、後述するLR1による車両の
認定処理のグループ化処理(図15のステップS75)
において2つのブロックを1グループにまとめるとき
に、それらブロック間の距離(車体後面の左右端部にあ
るリフレクタ間の距離に対応する長さ)に応じて標準的
な車幅(画素数)を求めておき、その値をステップS5
6において採用しても良い。
【0069】ステップS57:本ステップでは、上述し
た車両画像の概略推定処理にて算出した部分画像領域に
対して採用するフレーム(テンプレート)のサイズを決
定する。
【0070】即ち、ECU11には、決定すべきフレー
ムに関するサイズ情報として、排気管領域の画像位置を
基準とする上下左右の所定の割合情報(図11に示す横
方向の1/2、縦方向の2/7、5/7)が予め記憶さ
れており、この割合情報は、検出対象の車両(車種)の
断面形状における排気管位置の標準的な値に基づいて設
定されている。そこで、ステップS57では、ステップ
S56にて推定した車幅Wに基づいて当該割合情報を参
照することにより、ステップS54にて設定した排気管
部分の画像位置を基準として、上下左右に所定割合のサ
イズを有するフレーム(図11では、正方形で示すテン
プレート27)を設定する。
【0071】従って、本実施形態によれば、フレームサ
イズの決定に際して、前段の処理で検出されるであろう
赤外画像に含まれる車両画像の位置(即ち車両との距
離)に応じて多数のフレーム情報を、検出対象の車種毎
に予め記憶する必要は無く、フレームサイズの演算は車
幅Wと割合情報とに基づく車種毎に1回の処理で済むた
め、後述するパターンマッチング処理にて使用すべき最
適なフレームサイズを迅速に決定することができると共
に、ECU11に必要なメモリ領域を節約できる。
【0072】ステップS58:上述した車両画像の概略
推定処理にて算出した部分画像領域に対して、ステップ
S57にて設定したフレームを用いてパターンマッチン
グを施すことにより、注目している部分画像領域が車両
を表わす画像であるかを判定する。より具体的には、注
目している部分画像領域のエッジ画像と、ステップS5
7にて設定したフレームとの論理積(AND)を採り、
その演算結果、当該両画像の重複部分が所定値より大き
いときには、検出対象である車両と判断すれば良い。
【0073】また、ECU11にて複数車種を検出対象
とする場合は、上記の割合情報を車種毎に予め記憶して
おき、ステップS57にて検出対象の車種毎に1つ最適
なフレームサイズを決定し、ステップS58では、注目
している部分画像領域に対して当該車種毎のフレームを
用いてパターンマッチングを順次行い、最も重複部分が
多かったフレームを選択することにより、選択されたフ
レームに対応する車種の車両が、自車両の前方に存在す
ると判定することもできる。
【0074】ステップS59,ステップS60:ステッ
プS59におけるパターンマッチングの結果に対する重
み付け処理を行い(ステップS59)、その結果に基づ
いて、現在(今回の制御周期において)注目している部
分画像領域が検出対象の車両であるか否かを認定する
(ステップS60)。以下にステップS59及びステッ
プS60の詳細を説明する。
【0075】ステップS59において、IS2による車
両検出結果の時刻tにおける点数(重み付け値)WIS (t)
は、以下の(1)式: WIS (t) = WIS (t-1) + KAR*WAR (t) + KEP*WEP (t) + KCER*WCER (t) + KTA*WTA (t, t-1) + KTEP*WTEP (t, t-1) - KIS*e-1 ・・・・・(1), によって求めることができる。
【0076】但し、上記の式において、 ・時刻t−1において算出した点数: WIS (t-1), ・時刻tにおけるアスペクト比に関する点数: KAR*W
AR (t), ・時刻tにおける排気管の位置に関する点数: KEP*W
EP (t), ・排気管領域の画像面積/車両領域の画像面積の比に関
する点数: KCER*WCER ( t), ・車両領域の画像面積の時間変化に関する点数: KTA*
WTA (t, t-1), ・排気管の位置の時間変化に関する点数: KTEP*WTEP
(t, t-1), ・正規分布にするための係数: KIS*e-1, である。
【0077】尚、本実施形態においてアスペクト比と
は、算出結果に対する信頼性を表わす値であり、信頼性
が高いほど1に近く、信頼性が低いほど0に近い値を採
る。
【0078】ここで、定数項WAR (t)は、図13(a)に
示すところの、時刻tにおける演算結果のアスペクト比
に関する定数であり、赤外画像の全体領域における部分
画像領域の位置に応じて設定される。この定数は、赤外
線カメラによって撮像された赤外画像に基づいて距離を
算出する場合、赤外画像の端に位置する画素(画角の端
の画素)ほど画像の信頼性が劣化するという一般的な特
性が有るので、その特性を反映するための値である。
【0079】定数項WEP (t)は、図13(b)に示すとこ
ろの、時刻tにおける排気管の位置に関する定数であ
り、赤外画像の全体領域における排気管の画像位置に応
じて設定される。
【0080】定数項WCER (t)は、図13(c)に示すと
ころの、排気管領域の画像面積/車両領域の画像面積の
比に関するであり、注目している部分画像領域の面積に
対する排気管位置の画像部分の面積が所定値(本実施形
態では1/10)から大きく異なるほど小さな値が選択
される。
【0081】定数項WTA (t, t-1)は、図14(d)に示
すところの、車両領域の画像面積の時間変化に関する定
数であり、赤外線カメラの1回の制御周期(本実施形態
ではt=100msec)の僅かな時間間隔にも関ら
ず、注目している部分画像領域の面積が大きく異なるほ
ど小さな値が選択される。
【0082】定数項WTEP (t, t-1)は、図14(e)に示
すところの、排気管の位置の時間変化に関する定数であ
り、赤外線カメラの1回の制御周期(本実施形態ではt
=100msec)の僅かな時間間隔にも関らず、注目
している部分画像領域の内部における排気管領域の画像
位置が大きく異なるほど小さな値が選択される。
【0083】尚、上述した図13及び図14に示した特
性は、ECU11に予めルックアップテーブルとして記
憶されている。
【0084】また、係数KISは、 係数KIS = KAR + KEP + KCER + KTA + KTEP, なる関係がある。
【0085】そして、ステップS60における認定処理
では、上記のステップS59の処理にて算出された点数
(重み付け値)WIS (t)の値が1以上のときには、今回の
制御周期において注目している部分画像領域の画像が検
出対象の車両を表わすと認定する。また、本ステップに
おいて車両であると認定した場合には、後述するセンサ
ーフュージョンの処理の都合から、点数WIS (t)の値を1
に設定する。
【0086】以上説明したIS2による車両の認定処理
によれば、車両画像の概略推定処理(図9)によって検
出された車両(車両である可能性の高いエッジ画像)毎
に車両検出処理(図10)が行われることにより、それ
ら車両の位置(相対距離)及び速度(図10のステップ
S55)と、その演算結果の信頼性に関する値(図10
のステップS60)とを、高精度に算出することができ
る。
【0087】<LR1による車両の認定処理>次に、L
R1による車両の認定処理について、図15乃至図18
を参照して説明する。
【0088】はじめに、本実施形態におけるLR1によ
る車両の認定処理を概説する。LR1による車両の認定
処理では、検出した反射波のうち、所定のしきい値より
大きな強度の反射波から移動方向及び速度が近似するも
のを1ブロックにまとめるブロック化処理と、ブロック
化によってまとめられた複数のブロックのうち、近傍に
位置する2つのブロックを、検出対象である車両として
1つのグループにまとめるグループ化処理と、検出され
たグループ単位で、存在及び移動状態を判定する認定処
理とにより構成される。
【0089】尚、本実施形態の前提として、検出対象で
ある車両の後部バンパーの両端部付近には、それぞれ反
射板(リフレクタ)が取り付けられており、LR1によ
る車両の検出は、反射板からの検出波の反射波に基づい
て行われる。以下、LR1による車両の認定処理につい
て、図15乃至図19を参照して説明する。
【0090】図15は、本実施形態におけるECU11
が実行するLR1による車両の認定処理を示すフローチ
ャートであり、図6のステップS12の詳細な処理手順
を示す。
【0091】図15において、ステップS71:LR1
によって図3に示す検出波の伝搬範囲を走査し、その結
果、車両100の前方に存在する障害物から戻ってくる
反射波に基づいて、当該障害物までの距離及び存在方向
(位置)の情報を入手する。本ステップにて入手する情
報は、図16(a)に「レーザレーダの出力データ」に
示すように、図3に示す検出波の伝搬範囲において複数
の点状に離散した状態の検出結果である。
【0092】ステップS72:ステップS71にて検出
された障害物までの距離(位置)と、前回までの制御周
期において後述するステップS74にて既にブロック化
されている障害物までの距離(位置)とを参照すること
により、今回の制御周期においてステップS71にて検
出された障害物が既にブロック化されているかを判断す
る。
【0093】ステップS73:ステップS72の判断に
てブロック化済みであるので、対象となる障害物からの
反射波の強度が所定値より大きな検出値であるものを選
択し、1つのブロックとしてまとめる。
【0094】ステップS74:ステップS72の判断に
て未だブロック化されていないので、ステップS71に
て検出された障害物に対して、所定のしきい値より大き
な強度の反射波から移動方向及び速度が近似するものを
1ブロックにまとめるブロック化処理(ブロックラベリ
ング)を行う。これにより、図16(a)の「レーザレ
ーダの出力データ」は、図16(b)の「ブロックラベ
リング」に示すように、複数のブロックにまとめられ
る。このとき、レーザレーダの出力データを1ブロック
としてまとめる基準は、標準的なリフレクタの大きさに
基づいて設定する。
【0095】ステップS75:ステップS74にて入手
した複数のブロック、またはステップS73にて入手し
たブロックのうち、相対速度が略等しく、且つ近傍に位
置する2つのブロックを、検出対象である車両として1
つのグループにまとめるグループ化処理(グループラベ
リング)を行う。これにより、図16(b)の「ブロッ
クラベリング」に示す各ブロックは、図16(C)の
「グループラベリング」に示すように、複数のグループ
にまとめられる。そして、本ステップによれば、例え
ば、1つのグループを構成するために参照した2つのブ
ロックをなすLR1の検出結果の平均値を求めることに
より、グループ(車両)毎に、自車両との相対的な位置
関係(距離)が求まる。
【0096】尚、IS2による単独の第1検出範囲にお
いて検出されていた車両が、LR1及びIS2による重
複した第2検出範囲に移動したときに、その車両が前回
までの制御周期においてIS2によって既に検出されて
いる車両(グループ)であるときには、その車両に対す
る上記ステップS75に記載したブロック化処理を簡略
化することができる。即ち、前述したIS2による車両
位置(距離)及びIS2による車幅データに基づいて、
LR1の検出範囲に存在する同一車両のリフレクタから
の反射波データの存在すべき領域を推定し、推定した領
域内に存在する2つのブロックについては、1つのグル
ープとしてまとめれば良い。但し、この処理は、IS2
による車幅データの信頼性が低いとき(例えば、夕方等
のように路面温度が比較的高いとき)には行わないもの
とする。この場合、第2検出範囲から第1検出範囲に移
動した車両に対するIS2による検出結果は、所定時間
にわたって記憶しておけば良い。これにより、自車両先
方における割り込み車両を迅速に認識することができ
る。
【0097】ステップS76:検出されたグループ単位
で、ステップS75におけるグループ化によって検出さ
れた車両(グループ)の移動状態を検出するトラッキン
グ処理を行う。即ち、時刻tにおける先行車両の位置情
報と、その車両の時刻tー1における位置情報とによ
り、当該車両の車両100に対する速度(相対速度)ベ
クトルVは算出可能であり(図17参照)、算出した速
度ベクトルVのX方向成分を算出することにより、当該
車両の横移動速度が求まる。
【0098】即ち、自車両前方に存在する他車両の横方
向速度は、 ・平滑化距離Xsk = 予測距離Xpk + α(検出距離Xk - 予測距離Xpk) ・・・ (2), ・横移動速度Vsk = 前回の横移動速度Vsk-1 + β/サンプリング周期T(検出 距離Xk - 予測距離Xpk) ・・・(3), ・予測距離Xpk+1 = 平滑化距離Xsk + サンプリング周期T×横移動速度Vsk ・・・(4), なる数式によって表現することができる。
【0099】ここで、他車両の速度に関する上記の式
(2)乃至(4)において、αは移動量に関し、検出値
と予測値をどれくらいの割合で合成するかを表わすパラ
メータである。βは次の予測距離を決定するのに、どれ
くらいの割合で合成するかを表わすパラメータである。
また、縦方向速度は、上記の各式においてxをyに置き
換える式によって同様に算出できる。
【0100】従って、LR1からの出力信号がECU1
1に時系列に入力される限り、このようなトラッキング
処理をグループ化によって検出された車両(グループ)
毎に行うことにより、それら車両の次回の制御周期にお
ける挙動(位置及び速度)を正確に予測することができ
る。この次回の制御周期における挙動予測の結果は、後
述するセンサフュージョンの処理において特定しいてい
た車両が第2検出範囲から第1検出範囲に移動してしま
い、実測値を利用したLR1による検出結果が求められ
ない場合においても、センサフュージョンを継続する際
に使用される(詳細は後述する)。
【0101】ステップS77,ステップS78:検出さ
れたグループ単位で、ステップS76におけるトラッキ
ング処理の結果に対する重み付け処理を行い(ステップ
S77)、その結果に基づいて、現在(今回の制御周期
において)注目している各車両(1つの注目グループ)
が検出対象の車両であるか否かを認定する(ステップS
78)。以下にステップS77及びステップS78の詳
細を説明する。
【0102】ステップS77において、LR1による車
両検出結果の時刻tにおける点数(重み付け値)WLR (t)
は、以下の式(5): WLR (t) = WLR (t-1) + KBL*WBL (t) + KDB*WDB (t) + KTDR*WTDR (t, t-1) + KE PR *WEPR (t) - KBL - (KDB + KTDR + KEPR)*e-1 ・・・・・(5), によって求めることができる。
【0103】但し、上記の式において、 ・時刻t−1において算出した点数: WLR (t-1), ・注目グループについて検出したブロック数に関する点
数: KBL*WBL (t), ・注目グループをなす2つのブロック間の距離に関する
点数: KDB*WDB (t), ・注目グループをなす2つのブロック間の距離変化に関
する点数: KTDR*WTDR ( t, t-1), ・注目グループの予測位置と検出位置との差に関する点
数: KEPR*WEPR (t), ・正規分布にするための係数: KBL - (KDB + KTDR +
KEPR)*e-1 である。
【0104】ここで、定数項WBL (t)は、図18(a)に
示すところの、注目グループについて検出したブロック
数に関する定数であり、本実施形態では1台の車両に2
つのリフレクタが取り付けられていることを前提として
いるので、検出されたブロック(リフレクタ)数が2の
ときに当該定数として1が選択される。
【0105】定数項WDB (t)は、図18(b)に示すとこ
ろの、注目グループをなす2つのブロック間の距離に関
する定数であり、ブロック(リフレクタ)間の距離が検
出対象の車両における2つのリフレクタ間の標準的な距
離(本実施形態では1.2m)に近いほど当該定数は1
に近い値が選択される。
【0106】定数項WTDR (t, t-1)は、図19(c)に示
すところの、注目グループをなす2つのブロック間の距
離変化に関する定数であり、LR1の1回の制御周期の
僅かな時間間隔にも関らず、ブロック(リフレクタ)間
の距離が大きく異なるほど小さな値が選択される。
【0107】定数項WEPR (t)は、図19(d)に示すと
ころの、注目グループの予測位置と検出位置との差に関
する定数であり、上記の式(2)乃至(4)を用いてス
テップS76にて算出した予測位置と、ステップS75
のグループ化の時点で入手した実際の検出位置との差が
大きいほど、小さな値が選択される。
【0108】尚、上述した図18及び図19に示した特
性は、ECU11に予めルックアップテーブルとして記
憶されている。
【0109】そして、ステップS78における認定処理
では、上記のステップS77の処理にて算出された点数
(重み付け値)WLR (t)の値が1以上のときには、注目グ
ループが検出対象の車両を表わすと認定する。また、本
ステップにおいて車両であると認定した場合には、後述
するセンサーフュージョンの処理の都合から、点数WL R
(t)の値を1に設定する。
【0110】以上説明したLR1による車両の認定処理
によれば、車両検出処理(図15)が行われることによ
り、車両を表わすグループ毎に、位置(相対距離)及び
速度(図15のステップS75及びステップS76)
と、その演算結果の信頼性に関する値(図15のステッ
プS78)とを算出することができる。
【0111】<センサフュージョンによる車両の認識処
理>上述した各工程により、LR1及びIS2を用いた
車両の認定処理による検出結果とその信頼性に関する値
が求まったので、それらの値に基づくセンサフュージョ
ンによる車両の認識処理について、図20及び図21を
参照して説明する。
【0112】はじめに、本実施形態に係るセンサフュー
ジョンによる車両の認識処理を概説する。この認識処理
では、上述したLR1及びIS2による車両の認定処理
によって車両であると認定されたそれぞれの物体の位置
及び速度の相関関係を表わす値を算出すると共に、その
相関関係を表わす値と、LR1及びIS2による車両の
認定処理によってそれぞれ検出された位置及び速度の信
頼性に関する値との和が所定のしきい値より大きいとき
に、それら物体を、監視対象である1つの車両として正
式に認識する処理を行う。
【0113】(LR1及びIS2の検出結果によるセン
サフュージョン)以下、センサフュージョンによる車両
の認識処理について、図20及び図21を参照して説明
する。本実施形態において、センサフュージョンによる
LR1及びIS2を用いた車両の認定処理結果の評価
は、赤外画像の座標系において行う。
【0114】但し、IS2による距離推定は、光学系及
び撮像デバイスを利用した方法であるため、赤外画像の
中央部分と比較して左右の端部の信頼性に劣り、且つ自
車両から遠方方向(Z方向)の信頼性もある程度の距離
を越えると徐々に低くなることが一般的に知られてい
る。また、検出対象の物体の一部が画角から外れてしま
った場合には正確な検出を行うことができない。そこ
で、図20に示すように、IS2に関して、X方向(横
方向)の信頼性の定義(図20(a))と、Z方向(縦
方向)の信頼性の定義(図20(b))とをECU11
に予め記憶しておくことにより、IS2による距離推定
の信頼性を定義する。
【0115】一方、LR1による距離推定は、IS2を
用いた場合と比較して検出範囲が長く、検出結果の信頼
性も高いが、左右方向に対する検出範囲が狭い。そこ
で、図21に示すように、LR1に関して、X方向(横
方向)の信頼性の定義(図21(a))と、Z方向(縦
方向)の信頼性の定義(図21(b))とをECU11
に予め記憶しておくことにより、LR1による距離推定
の信頼性を定義する。
【0116】次に、センサフュージョンのアルゴリズム
について説明する。
【0117】図3を参照して示したように、IS2の検
出範囲は、LR1の検出範囲を内包するように設定され
ているので、当該2種類の検出方式には、検出領域が重
複していない第1検出範囲と、重複している第2検出範
囲とがある。これに対して、センサフュージョンの基本
概念としては、同じ検出対象に対して複数の検出結果が
存在することが前提となるため、本実施形態において
も、基本的には、LR1及びIS2による実測値に基づ
く2種類の検出結果が存在する場合にセンサフュージョ
ンを行う。
【0118】(LR1及びIS2による検出結果のセン
サフュージョン)LR1及びIS2によるそれぞれの検
出結果が存在する場合に、センサフュージョンでは、当
該2種類のセンサによって検出された物体が本当に車両
であるのか、或いは何等かのノイズによるものなのかを
判断しなければならない。
【0119】ここで、第2検出範囲に車両が存在する場
合には、 ・LR1及びIS2によって検出される信頼性の点数
(WIS,WLR)が高い、 ・LR1及びIS2によって検出される車両の位置と速
度との相関度が高い、 ・そして、LR1及びIS2の両センサに時間的に比較
的長く反応する、 という特徴がある。
【0120】また、第2検出範囲にノイズが存在する場
合には、 ・LR1及びIS2によって検出される信頼性(WIS
LR)が低い、 ・LR1及びIS2によって検出される車両の位置と速
度との相関度が低い、 ・そして、LR1及びIS2の両センサに反応する時間
が比較的短い、 という特徴がある。
【0121】そこで、本実施形態では、上記の第2検出
範囲における特徴を踏まえたセンサフュージョンの式
を、下記の式(6)のように定式化することにより、セ
ンサフュージョンの点数SFを求める。
【0122】
【数1】
【0123】また、係数θIS()及びθLR()について
は、式(13)及び式(14)を参照して後述する。
【0124】そして、上記の式(6)によって算出した
センサフュージョンの点数SFが1以上であるときに
は、「車両である」と認定する。また、このとき、時系
列なデータに基づいて算出した位置と速度との相関度、
或いはLR1及びIS2による検出結果の信頼性の点数
ISまたはWLRの何れか一方が1点満点に近い点数であ
れば、他方の値が比較的低い点数であっても、「車両で
ある」と認定する。
【0125】ここで、式(6)の第1項の位置と速度と
の相関度を表す関係式において、f() は位置の相関
度、 g()は速度の相関度を表しており、0≦f()
≦1、0≦g()≦1の範囲の値を採る。これらの関数
の具体的な式を、下記の式(7)及び式(8)に示す。
【0126】
【数2】
【0127】ここで、ωX()、ωZ()は、以下に示すX方
向(自車両の横方向)、Z方向(自車両の前方方向)の
相対的な信頼性の関数であり、ωX()+ωZ()=1 を満
たす。また、LX()、LZ()は、X方向、Z方向の限界偏差
であり、共に距離ZIS,ZLRの関数である。更に、
Tは、サンプリング時間である。
【0128】例えば、車両(先行車両)が自車両より遠く
に存在する場合、LR1と比較してIS2の検出精度が
劣化するため、当該両センサによって検出されるZ方向
の位置の偏差は大きくなる。従ってこのような場合は、
ωZ()の値がωX()に比べて低くなるように調整する。ま
た、Z方向において車両(先行車両)が自車両の至近距離
に存在する場合には、ωX()>ωZ()となるように調整す
る。これにより、周囲の環境変化を認識結果の確度(信
頼性)に反映することができる。
【0129】同様な考え方により、車両(先行車両)が自
車両の前方を基準として左右に存在する(X方向の)場
合には、ωX()<ωZ()となるように調整する。また、車
両(先行車両)が自車両の前方(Z軸上)の比較的近距離
な位置に存在する場合は、何れのセンサによる検出結果
の信頼性も同じであるとみなせるので、ωX()=ωZ()と
する。
【0130】また、一般にレーザレーダによる検出結果
は、雨天や霧等の天候の影響を受け易い。そこで、本実
施形態において、ECU11は、上記の如くセンサフュ
ージョンを行うに際して、悪天候を検出した場合にはL
R1による検出結果に対する信頼性を晴天時と比較して
低く調整する。このとき、自車両周囲の天候の検出は、
ワイパースイッチ6の操作状態(当該スイッチがオン状
態であれば悪天候と推定する)及び照度センサ8の検出
結果に基づいて判断すれば良い。
【0131】また、一般に赤外線カメラによる検出結果
は、路面温度が高くなる夏季や夕方の時間、並びに夕方
の時間帯に大きく傾いた太陽光の方向に自車両が進む場
合には影響を受け易い。特に本実施形態では、前方に存
在する車両の排気管位置の撮影を容易にすべくIS2の
取り付け位置を低くしているので何等かの対策が必要で
ある。そこで、ECU11は、上記の如くセンサフュー
ジョンを行うに際して、例えばGPSセンサ10を介し
て入手した時間情報やナビゲーションユニット(不図
示)から入手した進行方向やカレンダー情報、並びに照
度センサ8の検出結果を参照することにより、係る走行
環境であるか否かを推定し、検出結果が影響を受け易い
走行環境であると判断した場合には、IS2による検出
結果に対する信頼性を、そうでない場合と比較して低く
調整する。これにより、周囲の環境変化を認識結果の確
度(信頼性)に反映することができる。
【0132】信頼性の関数ωX()、ωZ()、LX()、LZ()
を、以下の式(9)乃至式(12)の如く定式化する。
【0133】
【数3】
【0134】また、φf(),φg()は係数であり、車
両(先行車両)の位置により変動する関数であり、0≦φ
f()≦1、0≦φg()≦1の範囲の値を採り、
φf()+φg()=1なる関係を満たす。そして、係数
φf(),φg()のECU11による具体的な調整の傾
向としては、 ・φf()<φg():即ち、車両(先行車両)が自車両に
近いほど速度に比重を置く(IS2を優先する)。 ・φf()>φg():即ち、車両(先行車両)が自車両か
ら遠いほど位置に比重を置く(LR1を優先する)。
【0135】実際のパラメータとしては、同様に、LR
1及びIS2のX方向及びZ方向の信頼性の関数を用い
る。
【0136】以下にφ()とφ()とを定式化する。
【0137】
【数4】
【0138】式(6)の第2項のLR1及びIS2の信頼
性を表す式において、WISはIS2における信頼性の点
数であり、WLRはLR1における信頼性の点数であり、
0≦WIS≦1、0≦WLR≦1の範囲の値を採る。また、
θIS、θLRは係数であり、車両の位置により変動する関
数であり、0≦θIS≦1、0≦θLR≦1の範囲の値を採
り、θIS+θLR=1を満たす。
【0139】そして、係数θIS,θLRのECU11によ
る具体的な調整の傾向としては、 ・係数θIS<θLR:即ち、基本的にはIS2よりLR1
に大きい比重を置く(LR1を優先する)。 ・係数θIS<<θLR:但し、車両(先行車両)が自車両か
ら遠方になるほどLR1により大きな比重を置く。
【0140】これらの実際のパラメータも同じようにL
R1及びIS2のX方向及びZ方向の信頼性の関数を用
いる。
【0141】以下に示す式(13)及び式(14)によ
り、θIR()とθLR()を定式化する。
【0142】
【数5】
【0143】本実施形態におけるLR1及びIS2によ
る検出結果のセンサフュージョンによれば、より正確な
車両位置を特定することができる。但し、LR1及びI
S2による検出範囲が重複する第2検出範囲では、実際
には、自車両の前後方向(Z方向)に存在する先行車両の
位置特定はLR1による検出結果だけで十分であり、X
方向に存在する先行車両の位置特定は、以下に示す式
(15)乃至式(16)によるセンサフュージョンによ
って求めることができる。
【0144】 XSF=ηISX()×XIS+ηLRX()×XLR ・・・・・・・・・(15) , 但し、式(15)は、(X座標(SF)) = (LR1に対す
るIS2のX方向に対する信頼性)×(X座標(IS2))
+ (IS2に対するLR1のX方向に対する信頼性)×
(X座標(LR1))である。
【0145】 ZSF=ηISZ()×ZIS+ηLRZ×ZLR ・・・・・・・・・(16), 但し、式(16)は、 (Z座標(SF)) = (LR1に対するIS2のZ方向に対
する信頼性)×(Z座標(IS2)) + (IS2に対するL
R1のZ方向に対する信頼性)×(Z座標(LR1)) である。
【0146】式(15)及び式(16)において、0≦
ηISX()≦1,0≦ηLRX()≦1,0≦ηISZ()≦
1,0≦ηLRZ()≦1の値を採り、ηISX()+ηLRX
()=1、ηISZ()+ηLRZ()=1を満たす。
【0147】そして、これらの係数のECU11による
具体的な調整の傾向としては、 ・ηISX()=ηLRX():X方向においては、基本的に
はLR1とIS2に同等の比重を置く。 ・ηISX()>ηLRX():但し、赤外画像の両端に近づ
くほどIS2に比重を置く(IS2を優先する)。 ・ηISZ()<ηLRZ():Z方向においては基本的にI
S2よりLR1に大きい比重を置く(LR1を優先す
る)。 ・ηISZ()<<ηLRZ():但し、車両(先行車両)が自
車両から遠方になるほどLR1により大きな比重を置
く。
【0148】以下に示す式(17)及び式(20)によ
り、ηISX(),ηLRX(),ηISZ(),ηLRZ()を定
式化する。
【0149】
【数6】
【0150】このように、上述したLR1及びIS2に
よって個別に検出した車両の位置、速度、検出結果の信
頼性に基づいて相関関係を算出する上記のセンサフュー
ジョンによれば、監視すべき物体を高精度且つ高確度に
認識することができる。
【0151】<第1検出範囲に他車両(先行車両)が存
在する場合>上記のセンサフュージョンの手順は、上述
したようにLR1及びIS2による実測値に基づく検出
結果が存在する場合に行うことを基本としている。この
ため、第1検出範囲に他車両(先行車両)が存在する場
合は、LR1による検出が行えないため、上記のセンサ
フュージョンを行うことができない。
【0152】そこで、本実施形態では、第1検出範囲に
他車両(先行車両)が存在する場合に、以下に説明する
2つの処理を行う。
【0153】(IS2の検出結果のみによるセンサフュ
ージョン)式(21)に示す評価関数により、IS2の
検出結果のみによるセンサフュージョンを行う。
【0154】
【数7】
【0155】但し、式(21)において、(SFの点数)
= (位置によるIS2の信頼性の関数)×(IS2の点
数)である。ECU11が実際に使用するパラメータと
しては、図20に示したIS2のX方向及びZ方向の信
頼性の関数を用いる。
【0156】また、式(22)は、IS2の点数に車両
(先行車)の位置によって変動する係数を掛けることによ
り、自車両の前方に他車両が存在する可能性を定式化し
たものである。この式(22)の5つめのパラメータV
は、車両(先行車)の横方向(X方向)ベクトルであり、
この速度ベクトルが所定の時間にわたって赤外画面の略
中央に向いているならば、θ'IR()=1と設定すること
により、自車両前方への飛び出し車両と認識する。これ
は純粋にIS2による点数を評価の対象としていること
を意味している。
【0157】このように、LR1及びIS2による実測
値に基づく検出結果が第1検出範囲において行えない場
合には、上記の如く車両(先行車)の横方向ベクトルが所
定の時間にわたって赤外画面の略中央に向いているとき
に限って上記のIS2の検出結果のみによるセンサフュ
ージョンを行うことにより、自車両前方への飛び出し車
両を早期の段階で迅速に検出することができる。
【0158】(トラッキング処理による車両の挙動予測
情報を用いたセンサフュージョンの継続)上述したLR
1の車両認定処理(図15)を行っているときに、第2
検出範囲から第1検出範囲に車両が移動してしまい、L
R1からの実測データが入力されなくなった場合には、
他車両が第2検出範囲に存在するときにトラッキング処
理(図15のステップS76)において行っていた車両
の挙動予測情報を用いて所定時間(例えば1秒程度)に
わたってLR1の車両認定処理(図15)を継続する。
ここで、係る挙動予測情報を利用したLR1の車両認定
処理の継続を上記の所定時間に限る理由は、車両の挙動
予測情報を用いたLR1の車両認定処理の継続時間が長
くなるほど演算結果の信頼性が低くなっていくからであ
る。
【0159】このように、車両の挙動予測情報を用いて
LR1の車両認定処理(図15)を継続するように構成
すれば、上述したLR1及びIS2による検出結果に基
づくセンサフュージョンに必要な情報が揃うので、係る
センサフュージョンを継続することができる。但し、L
R1による検出結果は、雨天の場合等のように、先行車
両によって撒き上げられた雨滴の影響等の影響を受け易
いので、上記の挙動予測情報を用いた継続処理は、悪天
候の場合は行わないほうが良い。
【0160】尚、上述した本実施形態では、LR1及び
IS2の検出結果に基づいて算出した車両認識の結果
を、一例として、車間距離警報を行う警報・制御処理
(図4)に適用したが、本実施形態におけるセンサフュ
ージョンによる車両認識処理(図6)は、係るシステム
構成に限られるものではなく、他の警報システムや自動
走行システム、或いは走行支援装置等における他車両の
認識に広く利用して好適である。
【0161】また、本実施形態では、自車両の先方に存
在するところの、当該自車両と同方向に進む他車両を検
出する場合を例として、LR1による車両の検出に、検
出対象の車両後部に取り付けられた2つのリフレクタか
らの反射波を利用したが、この処理構成に限られるもの
ではなく、車両前部にリフレクタが設けられている場
合、或いはリフレクタと同等な反射率の部位があるとき
には、それらからの反射波を利用して上述した本実施形
態と同様な手順の処理を行うことにより、対向車の検出
を行っても良い。
【図面の簡単な説明】
【図1】本実施形態における警報システムが搭載された
車両の装置構成を示すブロック図である。
【図2】本実施形態におけるXYZ座標の定義を説明す
る図である。
【図3】本実施形態におけるLR1及びIS2の検出範
囲を示す図である。
【図4】本実施形態におけるECU11が実行する警報
・制御処理のフローチャートを示す図である。
【図5】警報・制御処理においてECU11が参照する
判断基準を例示する図である。
【図6】本実施形態におけるECU11が実行する車両
認識処理を示すフローチャートである。
【図7】自車両の前方に存在する車両を撮像した赤外画
像を例示する図である。
【図8】本実施形態におけるECU11が実行するIS
2による車両の認定処理を示すフローチャートである。
【図9】IS2による車両の認定処理のうち、車両画像
の概略推定処理(図8のステップS25)の詳細を示す
フローチャートである。
【図10】IS2による車両の認定処理のうち、車両検
出処理(図8のステップS26)の詳細を示すフローチ
ャートである。
【図11】赤外画像を利用した距離ZISの推定方法
と、排気管領域の画像を基準として設定されるフレーム
のサイズの決定方法とを説明する図である。
【図12】距離ZISと車幅Wとの関係を表わす特性曲
線を示す図である。
【図13】IS2による検出結果の重み付け処理におい
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
【図14】IS2による検出結果の重み付け処理におい
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
【図15】本実施形態におけるECU11が実行するL
R1による車両の認定処理を示すフローチャートであ
る。
【図16】LR1による車両の認定処理におけるグルー
プ化までの手順を説明する図である。
【図17】トラッキング処理における車両の横方向移動
速度説明する図である。
【図18】LR1による検出結果の重み付け処理におい
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
【図19】LR1による検出結果の重み付け処理におい
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
【図20】IS2のX方向及びZ方向に対する検出結果
の信頼性の定義を示す図である。
【図21】LR1のX方向及びZ方向に対する検出結果
の信頼性の定義を示す図である。
【符号の説明】
1:距離センサ(LR), 2:画像センサ(IS), 3:ブレーキアクチュエータ, 4:スロットルアクチュエータ, 5:スピーカ, 6:ワイパースイッチ, 7:表示装置, 8:照度センサ, 9:車速センサ, 10:GPSセンサ, 11:電子制御ユニット(ECU), 100:車両,
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G01B 11/00 G01B 11/00 H 5J084 G01S 13/93 G01S 13/93 Z 5L096 17/93 G06T 7/20 100 G06T 7/20 100 G01S 5/14 // G01S 5/14 G08G 1/16 E G08G 1/16 G01S 17/88 A (72)発明者 藤岡 健彦 東京都文京区本郷7−3−1 東京大学 工学部 産業機械工学科内 Fターム(参考) 2F065 AA06 BB15 CC11 FF04 FF64 FF67 JJ26 QQ01 QQ08 QQ13 QQ24 QQ39 QQ41 QQ52 SS09 UU05 5B057 AA16 AA19 BA01 BA08 CH07 CH08 DA07 DA15 DC02 5H180 AA01 CC02 CC03 CC04 CC12 CC14 LL01 LL04 LL07 LL09 5J062 AA13 BB01 CC07 5J070 AB24 AC02 AE01 AF03 BF12 5J084 AB01 AC02 BA03 EA22 EA29 5L096 BA04 CA04 CA27 DA03 FA06 FA54 FA64 FA66 FA67 GA04 GA22 GA34 GA51 HA03 HA05 HA08 JA09 JA16

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 所定の検出波を送出すると共に、その検
    出波の物体からの反射波に基づいて、その物体の存在及
    び移動状態を検出する第1の検出手段と、前記検出波の
    伝搬範囲を内包する領域を撮像装置によって撮像すると
    共に、撮影された画像に基づいて、その画像に含まれる
    物体の存在及び移動状態を検出する第2の検出手段と、 前記第1及び第2の検出手段による両方の検出結果に基
    づいて、それら2つの検出手段によって個別に検出され
    た前記物体を、監視対象である1つの物体として認識す
    る物体認識制御手段とを備え、 前記物体認識制御手段は、前記第2の検出手段による単
    独の検出範囲において物体が検出されたときに、前記第
    1の検出手段が前記第2の検出手段による検出結果を参
    照するように制御し、その結果、前記第1及び第2の検
    出手段からそれぞれ入手した検出結果に基づいて、それ
    ら2つの検出手段によって個別に検出された前記物体
    を、監視対象である1つの物体として認識することを特
    徴とする物体認識装置。
  2. 【請求項2】 前記第1の検出手段は、 検出した前記反射波のうち、所定のしきい値より大きな
    強度の反射波から移動方向及び速度が近似するものを1
    ブロックにまとめるブロック化手段と、 前記ブロック化手段によってまとめられた複数のブロッ
    クのうち、近傍に位置する2つのブロックを、検出すべ
    き物体として1つのグループにまとめるグループ化手段
    と、 前記グループ化手段によって検出されたグループ単位
    で、存在及び移動状態を判定する物体判定手段と、を含
    むことを特徴とする請求項1記載の物体認識装置。
  3. 【請求項3】 前記物体認識制御手段は、前記第2の検
    出手段による単独の第1検出範囲において検出されてい
    た物体が前記第1及び第2の検出手段による重複した第
    2検出範囲に移動したときに、その物体が前回までの制
    御周期において前記第1の検出手段によって既に検出さ
    れている物体であるときには、その物体に対する前記ブ
    ロック化手段によるブロック化が省略されるように、前
    記第1の検出手段を制御することを特徴とする請求項2
    記載の物体認識装置。
  4. 【請求項4】 所定の検出波を送出すると共に、その検
    出波の物体からの反射波に基づいて、その物体の存在及
    び移動状態を検出する第1の検出手段と、 前記検出波の伝搬範囲を内包する領域を撮像装置によっ
    て撮像すると共に、撮影された画像に基づいて、その画
    像に含まれる物体の存在及び移動状態を検出する第2の
    検出手段と、 前記第1及び第2の検出手段による両方の検出結果に基
    づいて、それら2つの検出手段によって個別に検出され
    た前記物体を、監視対象である1つの物体として認識す
    る物体認識制御手段とを備え、 前記物体認識制御手段は、前記第1及び第2の検出手段
    による重複した第2検出範囲において検出されていた物
    体が前記第2の検出手段による単独の第1検出範囲に移
    動したときに、それまで該第2検出範囲において前記第
    1の検出手段によって検出されていた所定項目の情報を
    参照することによって物体の検出処理が継続されるよう
    に、前記第2の検出手段を制御することを特徴とする物
    体認識装置。
  5. 【請求項5】 更に、検出すべき物体の存在する周囲の
    環境を検出する周囲環境検出手段を備え、 前記物体認識制御手段は、前記周囲環境検出手段による
    検出結果に応じて、前記第1及び第2の検出手段のう
    ち、何れか一方の検出手段による検出結果の他方の検出
    手段の検出処理への反映の度合を変更することを特徴と
    する請求項1または請求項4記載の物体認識装置。
  6. 【請求項6】 前記物体認識制御手段は、前記周囲環境
    検出手段によって前記第1の検出手段の検出特性が晴天
    状態と比較して影響を受け易い荒天状態であることが検
    出されたときに、前記第1の検出手段による検出結果
    の、前記第2の検出手段による検出処理への反映を抑制
    することを特徴とする請求項5記載の物体認識装置。
JP2000288955A 2000-09-22 2000-09-22 物体認識装置 Withdrawn JP2002099907A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000288955A JP2002099907A (ja) 2000-09-22 2000-09-22 物体認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000288955A JP2002099907A (ja) 2000-09-22 2000-09-22 物体認識装置

Publications (1)

Publication Number Publication Date
JP2002099907A true JP2002099907A (ja) 2002-04-05

Family

ID=18772446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000288955A Withdrawn JP2002099907A (ja) 2000-09-22 2000-09-22 物体認識装置

Country Status (1)

Country Link
JP (1) JP2002099907A (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198323A (ja) * 2002-12-19 2004-07-15 Denso Corp 車両用物体認識装置
JPWO2003092291A1 (ja) * 2002-04-25 2005-09-08 松下電器産業株式会社 物体検出装置、物体検出サーバおよび物体検出方法
WO2006016445A1 (ja) * 2004-08-10 2006-02-16 Murata Manufacturing Co., Ltd. レーダ
US7136753B2 (en) 2002-12-05 2006-11-14 Denso Corporation Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus
JP2007091208A (ja) * 2005-08-31 2007-04-12 Honda Motor Co Ltd 車両の走行安全装置
JP2007107912A (ja) * 2005-10-11 2007-04-26 Alpine Electronics Inc レーダ精度予測装置およびシステム
JP2007232409A (ja) * 2006-02-27 2007-09-13 Toyota Motor Corp 物標検出装置および物標検出方法
JP2007272441A (ja) * 2006-03-30 2007-10-18 Denso Corp 物体検出装置
JP2008122292A (ja) * 2006-11-14 2008-05-29 Denso Corp 検知中心軸のずれ量検出方法
JP2009031296A (ja) * 2008-08-11 2009-02-12 Omron Corp 検知装置及び錠制御装置
JP2009037284A (ja) * 2007-07-31 2009-02-19 Daihatsu Motor Co Ltd 移動物認識装置
US7729858B2 (en) 2005-08-31 2010-06-01 Honda Motor Co., Ltd Travel safety apparatus for vehicle
US7889116B2 (en) 2006-03-01 2011-02-15 Toyota Jidosha Kabushiki Kaisha Object detecting apparatus
JP2012058079A (ja) * 2010-09-09 2012-03-22 Ricoh Co Ltd レーザレーダシステム及び移動体
JP2013190957A (ja) * 2012-03-13 2013-09-26 Toyota Motor Corp 周辺監視装置及び周辺監視方法
JP2014190747A (ja) * 2013-03-26 2014-10-06 Nec Personal Computers Ltd 情報処理装置
JP2015071361A (ja) * 2013-10-03 2015-04-16 株式会社デンソー 先行車選択装置
JP2018205879A (ja) * 2017-05-31 2018-12-27 本田技研工業株式会社 物標認識システム、物標認識方法、およびプログラム
JP2019046251A (ja) * 2017-09-04 2019-03-22 株式会社デンソーテン 物標検出装置、運転支援システムおよび物標検出方法
JP2019078725A (ja) * 2017-10-27 2019-05-23 ファナック株式会社 複数のセンサを備えた物体監視装置
JP2019133671A (ja) * 2019-02-07 2019-08-08 本田技研工業株式会社 物標認識システム、物標認識方法、およびプログラム
JP2019200773A (ja) * 2018-05-18 2019-11-21 財團法人工業技術研究院Industrial Technology Research Institute 物体検出システム、それを用いた自律走行車、およびその物体検出方法
CN110501709A (zh) * 2018-05-18 2019-11-26 财团法人工业技术研究院 目标检测系统、自主车辆以及其目标检测方法
JP2020140225A (ja) * 2019-02-26 2020-09-03 コニカミノルタ株式会社 画像処理装置、及び画像処理方法
JP2022517371A (ja) * 2019-01-16 2022-03-08 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 車両の軌道を学習する方法、および電子車両誘導システム
DE102011017540B4 (de) 2010-04-27 2024-04-11 Denso Corporation Verfahren und Vorrichtung zum Erkennen einer Anwesenheit von Objekten

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2003092291A1 (ja) * 2002-04-25 2005-09-08 松下電器産業株式会社 物体検出装置、物体検出サーバおよび物体検出方法
US7180050B2 (en) 2002-04-25 2007-02-20 Matsushita Electric Industrial Co., Ltd. Object detection device, object detection server, and object detection method
US7136753B2 (en) 2002-12-05 2006-11-14 Denso Corporation Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus
US7496449B2 (en) 2002-12-05 2009-02-24 Denso Corporation Inter-vehicle control apparatus and distance measurement apparatus
US7761236B2 (en) 2002-12-05 2010-07-20 Denso Corporation Object recognition apparatus for vehicle and distance measurement apparatus
JP2004198323A (ja) * 2002-12-19 2004-07-15 Denso Corp 車両用物体認識装置
WO2006016445A1 (ja) * 2004-08-10 2006-02-16 Murata Manufacturing Co., Ltd. レーダ
US7425917B2 (en) 2004-08-10 2008-09-16 Murata Manufacturing Co., Ltd. Radar for detecting the velocity of a target
US7453374B2 (en) 2005-08-31 2008-11-18 Honda Motor Co., Ltd. Travel safety apparatus for vehicle
JP2007091208A (ja) * 2005-08-31 2007-04-12 Honda Motor Co Ltd 車両の走行安全装置
US7729858B2 (en) 2005-08-31 2010-06-01 Honda Motor Co., Ltd Travel safety apparatus for vehicle
JP2007107912A (ja) * 2005-10-11 2007-04-26 Alpine Electronics Inc レーダ精度予測装置およびシステム
JP2007232409A (ja) * 2006-02-27 2007-09-13 Toyota Motor Corp 物標検出装置および物標検出方法
US7889116B2 (en) 2006-03-01 2011-02-15 Toyota Jidosha Kabushiki Kaisha Object detecting apparatus
JP2007272441A (ja) * 2006-03-30 2007-10-18 Denso Corp 物体検出装置
JP4561674B2 (ja) * 2006-03-30 2010-10-13 株式会社デンソー 物体検出装置
JP2008122292A (ja) * 2006-11-14 2008-05-29 Denso Corp 検知中心軸のずれ量検出方法
JP2009037284A (ja) * 2007-07-31 2009-02-19 Daihatsu Motor Co Ltd 移動物認識装置
JP2009031296A (ja) * 2008-08-11 2009-02-12 Omron Corp 検知装置及び錠制御装置
DE102011017540B4 (de) 2010-04-27 2024-04-11 Denso Corporation Verfahren und Vorrichtung zum Erkennen einer Anwesenheit von Objekten
JP2012058079A (ja) * 2010-09-09 2012-03-22 Ricoh Co Ltd レーザレーダシステム及び移動体
JP2013190957A (ja) * 2012-03-13 2013-09-26 Toyota Motor Corp 周辺監視装置及び周辺監視方法
JP2014190747A (ja) * 2013-03-26 2014-10-06 Nec Personal Computers Ltd 情報処理装置
JP2015071361A (ja) * 2013-10-03 2015-04-16 株式会社デンソー 先行車選択装置
US10634779B2 (en) 2017-05-31 2020-04-28 Honda Motor Co., Ltd. Target recognition system, target recognition method, and storage medium
JP2018205879A (ja) * 2017-05-31 2018-12-27 本田技研工業株式会社 物標認識システム、物標認識方法、およびプログラム
JP2019046251A (ja) * 2017-09-04 2019-03-22 株式会社デンソーテン 物標検出装置、運転支援システムおよび物標検出方法
JP2019078725A (ja) * 2017-10-27 2019-05-23 ファナック株式会社 複数のセンサを備えた物体監視装置
CN110501709A (zh) * 2018-05-18 2019-11-26 财团法人工业技术研究院 目标检测系统、自主车辆以及其目标检测方法
JP2019200773A (ja) * 2018-05-18 2019-11-21 財團法人工業技術研究院Industrial Technology Research Institute 物体検出システム、それを用いた自律走行車、およびその物体検出方法
US10852420B2 (en) 2018-05-18 2020-12-01 Industrial Technology Research Institute Object detection system, autonomous vehicle using the same, and object detection method thereof
CN110501709B (zh) * 2018-05-18 2023-03-07 财团法人工业技术研究院 目标检测系统、自主车辆以及其目标检测方法
JP2022517371A (ja) * 2019-01-16 2022-03-08 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 車両の軌道を学習する方法、および電子車両誘導システム
JP2019133671A (ja) * 2019-02-07 2019-08-08 本田技研工業株式会社 物標認識システム、物標認識方法、およびプログラム
JP2020140225A (ja) * 2019-02-26 2020-09-03 コニカミノルタ株式会社 画像処理装置、及び画像処理方法

Similar Documents

Publication Publication Date Title
JP2002099907A (ja) 物体認識装置
JP2002099906A (ja) 物体認識装置
JP4856612B2 (ja) 物体検出装置
JP4598653B2 (ja) 衝突予知装置
JP3671825B2 (ja) 車間距離推定装置
JP4830604B2 (ja) 物体検出方法および物体検出装置
JP4914234B2 (ja) 先行車両検出装置
US5249128A (en) System and method for determining the distance to an energy emitting object
JP4857839B2 (ja) 物体検出装置
JP4275378B2 (ja) ステレオ画像処理装置およびステレオ画像処理方法
JP2003296736A (ja) 障害物検知装置及びその方法
US20060210113A1 (en) Object detector for a vehicle
JP2000030197A (ja) 温体検出装置
WO2020196513A1 (ja) 物体検出装置
JP3823782B2 (ja) 先行車両認識装置
JP4067340B2 (ja) 対象物認識装置および対象物認識方法
JP2002098509A (ja) 車両検出装置
JP4321142B2 (ja) 標識認識装置
JP3351340B2 (ja) オプティカルフロー式後方情報検出装置
JP7003972B2 (ja) 距離推定装置、距離推定方法及び距離推定用コンピュータプログラム
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム
JP4804202B2 (ja) ステレオ式監視装置
JP3742152B2 (ja) 車両用撮像装置
JP3719029B2 (ja) 割り込み車両検出装置
JPH11259792A (ja) 車輌認識方法およびその装置

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071204