JP3562278B2 - Environment recognition device - Google Patents

Environment recognition device Download PDF

Info

Publication number
JP3562278B2
JP3562278B2 JP34231797A JP34231797A JP3562278B2 JP 3562278 B2 JP3562278 B2 JP 3562278B2 JP 34231797 A JP34231797 A JP 34231797A JP 34231797 A JP34231797 A JP 34231797A JP 3562278 B2 JP3562278 B2 JP 3562278B2
Authority
JP
Japan
Prior art keywords
environment
information
change
environment recognition
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34231797A
Other languages
Japanese (ja)
Other versions
JPH11142168A (en
Inventor
宏 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP34231797A priority Critical patent/JP3562278B2/en
Publication of JPH11142168A publication Critical patent/JPH11142168A/en
Application granted granted Critical
Publication of JP3562278B2 publication Critical patent/JP3562278B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、車両の走行環境を多変量分析によって認識する環境認識装置に関する。
【0002】
【従来の技術】
従来より、車両の運転においては、人によらず走行を妨げる障害物を自動的に検出することが望まれている。とくに走行車などの移動体に対する検出が自動的に行なわれるようになれば、過度接近時の警報、自動ブレーキ、追尾走行といったような機能が実現でき、走行安全性が向上するとともに運転負担を軽減することができる。
【0003】
移動体の検出装置としては、例えば特開平3−260813号公報に記載されているものがある。その構成は図9に示すように移動体の検出方向を撮像するカメラ51と、カメラ51の撮像画像を所定時間毎に入力する画像入力装置52と、画像の明暗分布により検出対象域を割り出す領域分割装置53と、割り出された検出対象域の重心と面積を計算する重心計算装置54と、重心と面積の時間的変化から移動体を検出し、その変化具合で移動体の移動量を推定する移動量推定装置55とからなっている。
【0004】
また、特開昭64−26913号公報では、カメラの撮像情報において明度情報の差分処理を行なうことによってエッジを検出し、物体の輪郭として認識したうえで、エッジ情報に基づいて移動量を算出する。さらに時間的に物体の輪郭や明度が違う領域で囲まれた閉区間の重心位置や面積の変化を検出し、時間的な距離の変化に対応する重心位置の変化や面積変化の値と照合し、同一物体であることを確認して、物体をトラッキングすることが行なわれている。これにより、移動体の追尾や移動体の変化から移動速度を求めることができる。
【0005】
しかしながら、上記両公報に示された移動体検出は、前提として明度情報の差分や閉区間領域を抽出することに主眼がおかれている。差分処理は、図10に示すように画像を横方向走査しながら明度値の差分演算をし、差分値が得られる位置を特定する。差分値は明暗差の大きいところで検出されるので、1画面を走査したあと一定距離内という条件を設けて各差分値の検出位置を線で結べば輪郭が検出される。
【0006】
移動体は明度差の大きい輪郭情報と明度差の低い内部情報をもっており、輪郭を鮮明に抽出できれば、とくに内部情報を扱うこともなく、情報量が減ずることで処理速度が向上する。しかし車両を取り巻く照明条件が刻々変わり、外乱光などの影響で輪郭が完全にかつ鮮明に抽出できることは少ない。よって輪郭のみを用いる画像認識は、情報量の少なさから環境変化への対応が弱く、車両に搭載して先行車の検出に使用する場合、制限を受けるなど最適な移動体検出手段とは言いがたい。
【0007】
また明度情報から直接閉区間を抽出することは、影や外乱光などの影響を受けやすく、外乱光によって変化した明度が直接に重心や面積の変化に影響を与えるため、外乱光に対してロバスト性の低い認識ロジックとなっている問題があった。
【0008】
このほか、テンプレートマッチングやテクシュチャマッチングなど輪郭情報に内部情報を加えた検出手法もあるが、処理時間やテンプレートに関する情報を予め用意するための処理が必要などの問題を有している。
【0009】
こうした背景で、近年、画像情報を圧縮する技術の派生として、カメラの撮像情報を明度データの分布ととらえ、多変量解析の1つである主成分分析などを行ない、撮像情報を正規化主成分特徴量で張られた情報空間に写像し、情報空間内でのデータの挙動を解析することによって画像認識する手法が提案されている。
【0010】
正規化主成分特徴量で構成される情報空間では、例えば周りの風景に関しての写像後のデータ分布と背景の中に割り込んできた移動体や撮像面上で情報が大きく変化しない追従車両のデータ分布が異なる。よって背景と移動体、相対的に移動が少ない物体などが変換後の正規化主成分特徴量による空間内のデータクラスタの変化によって検出できる。このような検出方法は全画像の情報が処理対象となり、照明の変化など上記従来の処理では対処不可能の画面も処理できるようになる。
【0011】
【発明が解決しようとする課題】
しかし、上記のような多変量分析による画像認識は主として静止画像に用いられるもので自動車の走行環境認識に用いようとすると、次の問題点がある。
(1)、背景が静止している場合なら、背景に対応した変換後のデータクラスタと背景に混入した新しい動きをもった移動体の変換後のデータクラスタの分離が容易であるが、自動車の場合背景が走行に従って変化するので、正規化主成分特徴量による情報空間が時間的に一意に決まらず、よって、その変換関数も固定できない。
【0012】
(2)、上記問題を解決するために画像毎に情報空間と変換関数を求めればよいが、演算量が多くなり時間がかかり過ぎて、通常の演算素子では車載装置に必要なリアルタイム処理ができなくなる。
(3)、また、画像の変化によって情報空間と変換関数が異なると、処理の結果によって正規化主成分の物理的な意味付けが変化してしまうことにより、変換後のデータクラスタの意味付けやデータクラスタ間の有意な差の判定が困難となる。
本発明は上記の問題点に鑑み、情報空間と変換関数を画像に変化があると認められたときのみ求め、それ以外は従来の情報空間と変換関数を用い、検出精度を損なわずに演算量を減少した環境認識装置を提供することを目的としている。
【0013】
【課題を解決するための手段】
このため請求項1記載の発明は、環境認識のための空間的、もしくは平面的位置情報を入力する情報入力手段と、
環境認識に適用する内部変数情報と、
前記位置情報を前記内部変数情報に解析的に変換する変換関数と、
前記変換関数を用いて前記位置情報を前記内部変数情報に変換させて、環境認識を行なう環境認識手段とを有する環境認識装置において、
変換関数変更手段と、
環境変化検出手段とを設けて、
該環境変化検出手段は環境に変化があることを検知し、前記変換関数変更手段は前記変換関数の変換時期周期、もしくはパラメータ、構造を変更するものとした。
【0014】
請求項2〜9記載の発明は、前記環境認識装置は車両の走行環境の認識に使用され、前記位置情報入力手段は前記車両の走行方向を撮像する撮像手段とし、前記変換関数は正規化主成分特徴量への変換関数とし、前記内部変数情報は前記正規化主成分特徴量を軸として構成された情報空間とし、
前記環境変化検出手段はレーザレーダ、照度センサ、ナビゲーション装置またはインフラ受信装置、走行速度センサ、アクセル開度センサ、ハンドル操舵角センサの何れか1つもしくは複数個の組み合わせを含む構成で、
前記レーザレーダで障害物が検出されない、
レーザレーダで障害物の移動を時間的に追尾している、
照度が急激に変化しない、
前記ナビゲーション装置やインフラ受信装置の情報から前方道路の変化が検出されない、
走行速度の平均値が数学的に有意に変化しない、
アクセル操作の分散値が数学的に有意に変化しない、
ハンドルが大きく操舵されない
のいずれかの場合、環境に変化がないものとして前記環境認識手段は従来の変換関数を用い、画像情報を正規化主成分特徴量で張られた情報空間への変換を行なうものとした。
環境に変化がある場合は、前記変換関数変更手段は画像情報を主成分分析し、新たな正規化主成分特徴量を見つけ、変換関数および情報空間を更新し、前記環境認識手段は更新後の変換関数と情報空間を用いる。
【0015】
請求項10〜16記載の発明は、前記環境認識は、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行ない、
クラスタが複数でかつ情報空間を構成する正規化主成分軸の原点近傍でクラスタを検出した場合に車両に超接近物体があったと認識し、
クラスタが1つでかつ移動していると検出した場合に先行車がなく景色のみを撮像していると認識し、
クラスタが1つでかつ移動していないと検出した場合に自車と相対速度の小さい先行車が走行していると認識し、
新しいクラスタは出現せず従来のクラスタを検出できなくなった場合に先行車が視界から消失する、あるいは走行路の混雑度が軽減したと認識し、
多数のクラスタを検出した場合に走行路の混雑度が上昇し多数の先行車があると認識し、
新しいクラスタが出現し、従来のクラスタが遠方に向かって移動していると検出した場合に自車が前方車群に接近していると認識し、あるいは
新しいクラスタが出現し、従来のクラスタが移動していないと検出した場合に先行車と自車両の間に割り込み車両が出現したと認識するものとした。
【0016】
請求項17記載の発明は、前記環境変化検出手段にレーザレーダが用いられ、前記レーザレーダの検出結果と画像による環境認識の結果を照合して前記環境認識装置の作動状況を診断するものとした。
請求項18記載の発明は、前記作動状況の診断は、前記レーザレーダが障害物を検出した場合、前記情報空間上にデータクラスタが存在しないとき、あるいはデータクラスタの平面的分布に時間的な連続性変化が見受けられないとき、またはデータクラスタの分布が空間的に相関関係をもたなくなたとき前記環境認識装置が故障と判断するものとした。
【0017】
【作用】
請求項1記載の発明では、環境変化検知手段は環境変化を検知し、変換関数変更手段は変換関数を更新するようにしたので、動く環境も認識の対象とすることができる。時間毎に変換関数を求めて動く環境を認識するのと比べて、変換関数を求める演算量が大幅に減少するとともに、激しく変化する環境でも適切な変換関数を用いて画像認識することができる。
また変換関数を更新されない場合、位置情報の変換は同一条件で行なわれ、物理的意味付けによる認識が行なえるとともに、位置情報の時間的移動で高速移動体、低速移動体、固定体などの認識が可能となる。
【0018】
請求項2〜9記載の発明では、情報入力手段としての撮像手段が車両の走行方向を撮像し、環境変化検出手段はレーザレーダ、照度センサ、ナビゲーション装置、インフラ受信装置、走行速度センサ、アクセル開度センサ、あるいはハンドル操舵角センサなどを用いて画像に変化をもたらす状況を検出するから、先行車がない走行路あるいは先行車と一定距離を保って走行している場合など環境に変化がないときは、変換関数を更新せず、従来の変換関数を流用することによって、その走行路状況が保っているかどうかの認識ができるとともに、割り込み車両の発生や曲がり道などで画像に大きな変化がある時に画像に対応した変換関数を用いて走行路状況を認識する。
その際画像情報を主成分分析し、正規化主成分特徴量の表示式を変換関数とする。内部変数情報は正規化主成分特徴量を軸とした情報空間を使用する。これによって、全画面の明度情報を利用することになり、照明の変化等の影響が排除されロバスト性の高い環境認識ができる。
【0019】
請求項10〜16記載の発明では、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行なうから、走行環境の分析に有効で、走行路の混雑度や割り込み車両の発生、先行車への接近状態といった状況を高精度に検出できる。
【0020】
請求項17記載の発明では、前記環境変化検出手段にレーザレーダを用い、レーザレーダの検出結果と画像による環境認識の結果を照合して前記環境認識装置の作動状況を診断するから、装置の故障による誤認識が防止され車載装置として必要な信頼性が向上する。
請求項18記載の発明では、作動状況の診断は、レーザレーダの検出結果とデータクラスタに対する分析の結果との照合によって行なうから、走行路状況を認識する際のクラスタ分析の結果を利用でき診断のための処理が不要で、演算負担にならない効果が得られる。
【0021】
【発明の実施の形態】
以下、本発明を自動車の走行環境認識に適用する実施例について説明する。
まず主成分分析による走行環境認識について説明する。
主成分分析とは、情報を総合的に分析し、その特徴を表わす主成分を見つけ、情報を主成分軸に変換して特徴を読み取る処理である。
【0022】
自動車の走行環境認識には走行環境の明度情報が用いられるから、まずカメラにより走行路を撮像する。撮像によって得られた明度情報を画像位置と対応させて撮像空間を作る。これによって二次元の平面位置に明度情報が加えられ三次元の画像情報が得られる。画像情報は画像位置に応じて幾つかのデータ集団に分け、説明変量とする。
【0023】
説明変量からの情報を抽出するため線形の変数情報が与えられる。そしてこの変数情報から情報を損失最少に抽出するため、固有値方程式を用い、固有値方程式から、例えば値の大きい2つの固有値を取り出す。固有値は変数情報から取り出せる情報量の多さを表わしているので、2つの値の大きい固有値からは変数情報として最も多くの情報を取り出せる第1正規化主成分特徴量、第2正規化主成分特徴量が作られる。
第1主成分特徴量と第2主成分特徴量は空間的に直交し1つの情報空間を構成し、その表示式は撮像空間の情報を情報空間に変換する際の変換関数となる。
【0024】
撮像空間の明度情報を正規化主成分特徴量で張られた情報空間に写像すれば、その情報特性に応じてデータグループとしてのクラスタが形成される。例えば周りの風景に関しての写像後のデータクラスタと背景の中に割り込んできた移動体や撮像面上の情報が大きく変化しない物体のデータクラスタ分布が異なる。よって、情報空間内のデータクラスタの時間的変化で背景と移動体、相対的に移動の少ない物体を認識することができる。
【0025】
走行路画像は車両の走行にしたがって変化するが、先行車を追従して走行するあるいは先行車のない走行路を直進する場合、画像の変化が緩やかなので、このとき情報空間を固定すれば、情報空間での情報の時間的変化で走行路状況が続いているかどうかを認識できる。走行路画像に例えば先行車等が現われる場合、情報空間を新たに求めれば、画像の変化が大きいので、情報空間が異なってもデータの出現や分解で先行車の出現や消失を検知できる。
【0026】
図1は装置の構成を示すブロック図である。撮像手段としてのCCDカメラ1は、車両の走行環境を撮像するように図示しない車両の前方に取り付けられている。その画像信号は環境認識装置9に出力され、ここで主成分分析による画像認識が行なわれる。環境認識装置9には車両の走行制御を行なうアダプティブクルーズコントロール装置10が接続されている。
【0027】
アダプティブクルーズコントロール装置10は、車両の走行を定速に制御するもので、ドライバーの操作によって設定される。走行目標速度は設定時の車両走行速度となるが、環境認識装置9での認識結果によって定速走行が出来なくなる状態では制御特性を変更し走行路状況に適合した走行制御を行う。
即ち先行車が検出される場合、走行速度を目標速度以下に低下させ車間距離管理を目標とする制御特性に変化する。車間距離の管理は走行目標速度に対応した車間距離を制御目標としてもよい。この場合車両が追尾走行となる。アダプティブクルーズコントロール装置10には警報機能が備えられ、車速を減速制御させても先行車に近づく場合警報をし、ドライバ−にブレ−キの使用を促す。
【0028】
環境認識装置9にはさらに走行路状況検出装置20が接続され、その検出値に基づいて情報空間を変更するタイミングを求めている。
レーザレーダ2はCCDカメラ1と同じように前方に向けて車両に取付られ、測定値は画像認識装置9に出力されるようになっている。障害物を検出していないことを示すため例えば200mなどの遠方距離を出力するようになっている。
【0029】
ナビゲーション装置3は自車両の位置を検出しデータ処理装置30によって地図情報から走行路情報を環境認識装置9に出力する。
インフラ受信機4は走行路情報の放送を受信して走行路情報を環境認識装置9に出力する。
照度センサ5は走行環境の照度を検出し環境認識装置9に出力する。
アクセル開度センサ6と車速センサ7およびハンドル操舵角センサ8が車両の走行状態を検出し検出値を環境認識装置9に出力するようになっている。環境認識装置9はそれらの検出結果で画像変化があると認定した場合変換関数を新たに求める主成分演算を行なう。
【0030】
図2は環境認識装置9の詳細を示す。環境変化認識部91は走行路状況検出装置20の検出信号あるいは信号の時間的変化から車両の走行状況を検出する。例えばレーザレーダ2の検出値から障害物があるかどうかを判断する。また障害物がある場合に時間的変化があるかどうかによってレーザレーダ2が追尾検出中かどうかを判断する。追尾検出中の場合には画像変化がないので走行路状況が変化していないと判断する。
【0031】
トリガ信号発生部92は環境変化認識部の認識の結果によって情報空間を求めるタイミングをトリガ信号によって主成分分析部93に伝える。トリガ信号の発生は画像に変化があり情報空間を求める必要のあるとき行なわれるので、例えば以下の状況が検出された場合従来の情報空間を流用できるため、トリガ信号が出力されない。
【0032】
(1)、レーザレーダ2の検出値によって障害物が検出されないあるいは障害物を追尾している場合、
(2)、ナビゲーション情報やインフラ情報から前方道路曲率の急激な変化や構築物が出現しない場合、
【0033】
(3)、照度センサ5から照度値が急激に変化しない場合、
(4)、アクセル開度センサ6よりドライバのアクセル操作の分散値が数学的に有意に変化しない場合、
(5)、車速センサ7より走行速度の平均値が数学的意味ある変化がない場合、
(6)、ハンドルが大きく操舵されない場合、
これにより、画像に変化がないあるいは緩やに変化した場合に従来の情報空間を利用し、画像に大きな変化が現われるときのみ情報空間を再構築することになる。
【0034】
主成分分析部93はCCDカメラ1からカメラ画像信号を入力するとともに、トリガ信号が出力されているかどうかをチェックする。トリガ信号がない場合、画像に大きな変化がないものとして従来の情報空間を利用し、トリガ信号がある場合は、画像の明度情報から主成分分析して固有値計算によって新しい情報空間を求める。撮像空間の画像情報を変換関数で情報空間に変換する。
【0035】
クラスタ判断部94はクラスタリング処理で情報空間での情報分布を分類してクラスタを作る。そしてクラスタの出現や分解あるいは位置の変動から走行環境を認識する。
制御信号作成部は画像認識の結果によって、アダプティブクルーズコントロール装置10の制御特性を変更させる制御信号を出力する。これによってアダプティブクルーズコントロール機能が高められる。
【0036】
次に図3のフローチャートに従って主成分分析部における主成分分析の流れを説明する。
まず、ステップ201において、CCDカメラ1から撮像画像を入力する。撮像画像は例えば横方向p画素、縦方向n画素で構成され、各画素に番号を与えて縦横位置を特定できるようにする。画素信号はメモリに格納される。
【0037】
ステップ202においては、画素信号を画素位置と対応させて3次元の撮像空間Sを作る。
図4は撮像空間の構成を示す平面図である。ここで画素信号をXijとし、iは画像の縦方向の位置を示し、jは横方向の位置を示している。画素色が白ならばXij=0、黒ならばXij=1とする。グレーならば1から0の間の値とする。
【0038】
ステップ203においては、トリガ信号発生部92からトリガ信号があったか否かをチェックする。トリガ信号があった場合、情報空間と変換関数を新たに求める必要があるとしてステップ204へ進み、トリガ信号が無かった場合、従来の情報空間と変換関数をそのまま流用できるのでステップ206へ進む。
【0039】
ステップ204においては、まず図4に示す撮像空間内の画素信号を横方向に画素毎に分割してp個のデータ集団(画素列)を作る。データ集団内にはn個の画素信号データが含まれる。
各データ集団iに対し画素信号の分散、共分散を演算するよう式(1)に基づいてSii を演算する。
【数1】

Figure 0003562278
ここで、i、i’はデータ集団の位置を示し、それぞれ独立に選ばれることを示している。すなわちi’を1からpまでの各データ集団に対して式(1)を適用して演算を行なう。
【0040】
各Sii の演算値とデータ集団内の画素信号数nを式(2)に代入して分散、共分散Vii を演算する。ここでiとi’は同じ数字ならその画素列の分散値で、異なる数字ならそれぞれの画素列の共分散の演算値となる。
【数2】
Figure 0003562278
【0041】
演算された各分散および共分散の演算値を式(3)の固有値方程式に代入し、固有値方程式を解くと、p個の固有値λが得られる。
【数3】
Figure 0003562278
p個の固有値λを、
λ≧λ≧…≧λ≧…≧λとすれば、
{λ}をそれを求めたVii の固有値に対応する。ここでk=1〜pである。
【0042】
このとき式(4)から、
【数4】
Figure 0003562278
ki(l11、l12、…、l1p、l21、l22、…、l2p、lp1、lp2、…、lpp)を求めると、n組の固有ベクトルが得られる。これによって、n個の正規化主成分特徴量が得られるが、寄与率が70〜80%で画像の特徴認識ができるので、例えば式(5)に示すような第1正規化主成分特徴量と第2正規化主成分特徴量が用いられる。
【数5】
Figure 0003562278
ここで*は任意行の画素信号を表示する。
【0043】
ステップ205では、第1正規化主成分特徴量と第2正規化主成分特徴量を軸とした新たな情報空間を定義する。第1正規化主成分特徴量と第2正規化主成分特徴量の線形表示式は変換関数となる。
ここで前画像も同じ2つの正規化主成分特徴量であるならば、情報空間は同じで、変換関数は同じ構造としパラメータが変更されることになる。
【0044】
ステップ206では、撮像空間上の情報信号Xijを行ごとに式(5)に代入して第1正規化主成分特徴量Z1、第2正規化主成分特徴量Z2を演算し、撮像空間での撮像情報を情報空間へ変換する。図5は変換前後のデータの分布状態を示す。撮像空間Sでは物体a、bの明度情報as、bsとその平面位置情報(X、Y)が関数Fによって第1正規化主成分特徴量と第2正規化主成分特徴量で構成された情報空間Mに変換すると、その特徴に応じて情報空間Mでは異なる分布となる。
【0045】
第1正規化主成分特徴量および第2正規化主成分特徴量の物理的意味付けによって認識できる。物理的意味付けができない場合、車両が走行にしたがったクラスタの移動や分解などで先行車の有無や割り込み車両の発生、走行路の混雑度を認識することができる。物理的意味付けは分析者の機知によって行なわれるが、クラスタの移動や分解が客観的に検知できる。
【0046】
ステップ207では、情報空間上のデータに対し、データクラスタリング解析を行なう。データクラスタリング解析は従来と同じように行なう。例えばデータ間の距離によって幾つかのデータグルプに分類することができる。
ステップ208においては、データクラスタの時間的変化を分析して環境認識を行なう。
【0047】
次に図6、図7のフローチャートにしたがってクラスタ判断部94におけるクラスタ分析および制御信号作成部95での制御信号の作成を説明する
まずステップ301において、クラスタがあるか否かを判定する。ない場合、ステップ302でCCDカメラを含めた撮像部が故障と判定する。このとき制御信号作成部95は先行車検出不能の信号をアダプティブクルーズコントロール装置10に出力し車間距離管理不能の警報を出させてドライバーに注意を促す。
【0048】
そしてクラスタがあると判定された場合は、ステップ303へ進み、ここではクラスタの数について判定を行なう。クラスタが2つ以上ある場合ステップ304へ進む。ステップ304では情報空間を構成する正規化主成分特徴量の原点近傍にクラスタが存在するかどうかを判定する。
原点の近傍にクラスタが存在するならば、画角が異常に大きい物体が検出されるので、ステップ305において超接近物体を検出したものと判断する。このとき制御信号作成部95は注意を促す警報や減速制御を行なうよう制御信号をアダプティブクルーズコントロール装置10に出力する。
【0049】
そしてステップ304で原点近傍にクラスタがないと判定されればステップ306において新しいクラスタが出現したかどうかの判定を行なう。新しいクラスタが出現していない、かつステップ307でクラスタが消失したと判定されれば、前方車両がCCDカメラ1の視界からなくなった、あるいは走行路の混雑度が軽減したと認識する。このとき制御信号作成部95は車両が減速中なら車速を目標速度まで戻すよう制御信号をアダプティブクルーズコントロール装置10に出力する。
ステップ307で、クラスタが消失していないと判定されれば走行状況の認識が不能としてステップ309において次の画像が入力されるまで判断を保留する。
【0050】
そしてステップ303で1つのクラスタが存在すると判定されれば、ステップ310でクラスタが移動しているかどうかを判定する。クラスタが移動いているならば、ステップ313で前方に追従車がなく、景色のみの画像と判断する。
ステップ310でクラスタが移動してしないと判定されればステップ312で相対速度が極めて小さい近接物体を一定距離で追従していると判断する。
制御信号作成部95は画像が景色のみの場合車両を目標速度で走行できるよう制御信号を出力する。先行車を追従しているならば制御特性を維持する制御信号を出力する。
【0051】
ステップ306で新しいクラスタが出現したと判定されれば、ステップ314へ進む。ステップ314でクラスタが多数出現したと判定されればステップ315において前方の走行路の混雑度が上昇し多数の車両が検出されたと判定する。このとき制御信号作成部95は車両が減速中ならそれを維持し、目標速度で走行するなら減速信号をアダプティブクルーズコントロール装置10に出力する。
【0052】
そしてステップ314での判定で多数のクラスタが出現していないならば、ステップ316においてクラスタが遠方に向かって移動しているか否かを判定する。移動する場合ステップ318で自車が早く前方車群に接近中と判断する。クラスタが移動していないならば先行車と自車の間に車両割り込みが発生したと判断する。
制御信号作成部95は何れの場合も車両を減速するよう制御信号をアダプティブクルーズコントロール装置10に出力する。
【0053】
次に、主成分分析による画像認識の結果とレーザレーダの検出結果を照合してCCDカメラ1と環境認識装置9からなる画像認識システムの作動状態を診断することを説明する。
この診断は図1に示すようにフェール監視装置11を環境認識装置に接続して使用される。
フェール監視装置11が画像認識システムが故障したと判断した場合、フェール信号を出しアダプティブクルーズコントロール機能を停止させ、車両を安全な操作に切り替える。
【0054】
フェール監視装置11はレーザレーダ2の検出値と主成分分析による画像認識の結果を入力して診断を行なう。
診断の原理は、レーザレーダ2で障害物が検出されたにも拘わらず、情報空間内でクラスタが長期間存在しないとき、検出結果の相反でCCDカメラ1からの信号に異常があるとし、画像認識システムが故障と判断できる。これは時間的にある対象をある範囲の中に捉らえているならば、必ず情報空間内にデータのクラスタが存在するからである。
【0055】
また、データクラスタが時間的、もしくは同一時間内でも情報空間内で分散して、ばらつく場合もCCDカメラのトラブルか、霧などによる影響が考えられる。いずれにしても、正確に走行環境を認識できないため、フェール信号を発生する。
【0056】
次に、フェール監視装置11における診断の流れを説明する。
まずステップ401において、環境認識装置に入力されたレーザレーダの検出値からレーザレーダが障害物を検出したかを判定する。障害物が検出された場合、ステップ402においてクラスタ分析の結果を入力しクラスタが存在するならば、環境認識装置は良好として診断を終了する。
【0057】
レーザレーダが障害物を検出しているにも拘わらずステップ402でクラスタが存在しないという検出結果となればステップ404でCCDカメラを含めた撮像部が故障すると判断する。
そしてステップ401でレーザレーダが障害物を検出していない場合ステップ403へ進む。ここでクラスタの時間的変化があるかどうかを判定する。変化がなかった場合ステップ404で撮像部が故障と判断する。クラスタの時間的変化がある場合、ステップ405でクラスタ分布がランダムかどうかの判定を行なって診断を終了する。
ステップ405で判定でクラスタ分布がランダムであるとなれば406において撮像部故障もしくは視界不良と判断する。
【0058】
本実施例は以上のように構成され、主成分分析を用いて走行路画像を認識するから、走行路状況の変化を誤検出することなく検知できる。例えば前方車両追従時に側方から車両が自車車線内に進入してきた場合、その変化を情報空間におけるデータクラスタの変化として素早く捉らえられる。これによってアダプティブクルーズコントロール装置は迅速に制御特性を変えることができ、走行路状況に適合した走行制御が行なえる。
【0059】
また刻々の情報空間を求める演算が不要で、演算負担が軽減され、線形結合のみの処理で空間の変換ができる。リアルタイムで走行路状況を認識することができるとともに走行環境を選ばない効果が得られる。
本実施例では、アダプティブクルーズコントロール装置を制御対象としたが、これに限らず、アダプティブクルーズコントロール装置が装備されていない車両ではエンジンブレーキを制御の対象としてもよい。このとき、アダプティブクルーズコントロール装置による減速制御をエンジンブレーキで行なう。また車両が既にエンジンブレーキ中の場合、エンジンブレーキをより利くように制御する。
【0060】
また、画像認識システムの作動状態をクラスタの分布と撮像空間における関係により、診断を行なうので、画像認識のデータをそのまま利用し、演算負担にならずに装置の作動状況を判別できる。
CCDカメラ1は撮像手段を構成している。
走行路状況検出装置20、環境変化認識部91、トリガ信号発生部92は環境変化検出手段を構成している。
主成分分析部93、クラスタ判断部94は環境認識手段を構成している。
ステップ204、ステップ205は変換関数変更手段を構成している。
【0061】
【発明の効果】
請求項1記載の発明では、位置情報を内部変数情報に変換して環境認識するとともに、環境変化検出手段が環境変化を検出し、その出力を変換関数を求めるタイミングとするから、環境に変化がないあるいはないと認められるとき、従来の変換関数を流用し、環境変化を認識するときの精度が維持されるとともに変換関数を求める演算が少なくなり環境認識の演算負担が軽減される。
また環境に変化がないとき変換関数を求めないから位置情報の変換は同一条件で行なわれ、物理的意味付けによる認識が行なえるとともに、内部変数情報上で位置情報の位置変化により高速移動体、低速移動体、固定体などの認識が可能となる。
【0062】
請求項2〜9記載の発明では、撮像手段は車両の走行方向を撮像し、環境変化検出手段は画像に変化をもたらす状況を検出し、画像に変化が少ない場合正規化主成分特徴量を新たに求めず従来の情報空間を利用する。画像に変化があることが検出された場合のみ正規化主成分特徴量を求めるから、情報を総合的に認識でき、画像情報を正確に抽出でき、車載装置に求められる高速性や高信頼性が得られる。
【0063】
請求項10〜16記載の発明では、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行なうから、走行環境の分析に有効で、走行路の混雑度や割り込み車両の発生、先行車への接近状態といった状況を高精度に検出できる。
【0064】
請求項17記載の発明では、前記環境変化検出手段にレーザレーダを用い、レーザレーダの検出結果と画像による環境認識の結果を照合して前記環境認識装置の作動状況を診断するから、装置の故障による誤認識が防止され車載装置として求められる信頼性が向上する。
請求項18記載の発明では、作動状況の診断は、レーザレーダのデータクラスタの照合によって行なうから、走行路状況を認識する際のクラスタ分析の結果を利用でき診断のための処理が不要で、演算負担にならない効果が得られる。
【図面の簡単な説明】
【図1】実施例の構成を示すブロック図である。
【図2】環境認識装置の詳細を示すブロック図である。
【図3】環境認識するためのフローチャートである
【図4】画像空間の構成を示す図である。
【図5】画像情報が撮像空間と情報空間での表示の差異を示す図である。
【図6】クラスタ分析の流れを示すフローチャートである。
【図7】クラスタ分析の流れを示すフローチャートである。
【図8】装置診断のためのフローチャートである。
【図9】従来例を示すブロック図である。
【図10】差分演算値と輪郭の関係を示す図である。
【符号の説明】
1 CCDカメラ
2 レーザレーダ
3 ナビゲーション装置
4 インフラ受信機
5 照度センサ
6 アクセル開度センサ
7 車速センサ
8 ハンドル操舵角センサ
9 環境認識装置
10 変速装置コントローラ
11 フェール監視装置
30 データ処理装置
52 画像入力装置
53 領域分割装置
54 重心計算装置
55 移動量推定装置
91 環境変化認識部
92 トリガ信号発生部
93 主成分分析部
94 クラスタ判断部
95 制御信号作成部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an environment recognition device that recognizes a running environment of a vehicle by multivariate analysis.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in driving a vehicle, it has been desired to automatically detect an obstacle that hinders traveling regardless of a person. In particular, if the detection of moving objects such as traveling vehicles is automatically performed, functions such as warning of excessive approach, automatic braking, and tracking can be realized, improving driving safety and reducing driving burden. can do.
[0003]
As a moving object detecting device, there is one described in, for example, JP-A-3-260813. As shown in FIG. 9, the configuration is such that a camera 51 that captures an image of a detection direction of a moving object, an image input device 52 that inputs a captured image of the camera 51 at predetermined time intervals, and an area that determines a detection target area based on the brightness distribution of the image. A dividing device 53, a center of gravity calculating device 54 for calculating the center of gravity and area of the determined detection target area, and a moving object is detected from a temporal change in the center of gravity and the area, and the moving amount of the moving object is estimated based on the change. And a moving amount estimating device 55.
[0004]
In Japanese Patent Application Laid-Open No. 64-26913, an edge is detected by performing difference processing of brightness information in image pickup information of a camera, an edge is recognized as a contour of an object, and a movement amount is calculated based on the edge information. . Furthermore, it detects changes in the center of gravity and area of a closed section surrounded by regions with different temporal contours and brightness, and compares them with changes in the center of gravity and changes in area corresponding to changes in distance over time. The tracking of an object is performed by confirming that the object is the same. Thereby, the moving speed can be obtained from the tracking of the moving object and the change of the moving object.
[0005]
However, the moving object detection disclosed in both of the above publications focuses on extracting a difference in brightness information and a closed section area as a premise. In the difference processing, as shown in FIG. 10, while calculating the difference in the brightness value while scanning the image in the horizontal direction, the position where the difference value is obtained is specified. Since the difference value is detected at a place where the difference in brightness is large, a contour is detected by scanning one screen and connecting the detection positions of each difference value with a line under a condition that the difference value is within a certain distance.
[0006]
The moving object has outline information with a large difference in brightness and internal information with a small difference in brightness. If the outline can be clearly extracted, the processing speed is improved by reducing the amount of information without handling the internal information. However, the lighting conditions surrounding the vehicle change every moment, and it is rare that the contour can be completely and clearly extracted due to the influence of disturbance light or the like. Therefore, image recognition using only contours is not suitable for detecting moving objects because of its small amount of information and poor response to environmental changes. It is hard.
[0007]
In addition, extracting a closed section directly from brightness information is susceptible to shadows and disturbance light, and the brightness changed by the disturbance light directly affects changes in the center of gravity and area. There was a problem of low recognition logic.
[0008]
In addition, there are detection methods in which internal information is added to contour information, such as template matching and texture matching. However, there is a problem that processing for preparing processing time and information on a template in advance is required.
[0009]
Against this background, in recent years, as a derivative of the technology for compressing image information, the imaging information of a camera is regarded as a distribution of brightness data, and a principal component analysis, which is one of multivariate analyses, is performed. A method has been proposed in which an image is recognized by mapping onto an information space spanned by feature amounts and analyzing the behavior of data in the information space.
[0010]
In the information space composed of the normalized principal component features, for example, the data distribution of the surrounding scenery after mapping and the data distribution of the following vehicle where the information does not change significantly on the moving object or the imaging surface interrupted in the background Are different. Therefore, a background, a moving object, an object that moves relatively little, and the like can be detected by a change in a data cluster in a space due to the normalized main component feature amount after conversion. In such a detection method, information of all images is processed, and a screen that cannot be dealt with by the above-described conventional processing such as a change in illumination can be processed.
[0011]
[Problems to be solved by the invention]
However, the image recognition based on the multivariate analysis as described above is mainly used for still images, and the following problems arise when it is used for the recognition of the driving environment of a car.
(1) If the background is stationary, it is easy to separate the converted data cluster corresponding to the background and the converted data cluster of a moving object having a new motion mixed into the background. In such a case, since the background changes as the vehicle travels, the information space based on the normalized principal component feature is not uniquely determined temporally, and therefore, its conversion function cannot be fixed.
[0012]
(2) In order to solve the above problem, the information space and the conversion function may be obtained for each image. However, the amount of calculation increases and it takes too much time. Disappears.
(3) Also, if the information space and the conversion function are different due to a change in the image, the physical meaning of the normalized principal component changes depending on the processing result, so that the meaning of the data cluster after the conversion and the It is difficult to determine a significant difference between data clusters.
In view of the above problems, the present invention obtains the information space and the conversion function only when it is recognized that there is a change in the image, and otherwise uses the conventional information space and the conversion function, and does not impair the detection accuracy and the amount of calculation. It is an object of the present invention to provide an environment recognition device in which the number is reduced.
[0013]
[Means for Solving the Problems]
Therefore, the invention according to claim 1 includes an information input unit for inputting spatial or planar position information for environment recognition,
Internal variable information applied to environment recognition,
A conversion function that analytically converts the position information into the internal variable information,
An environment recognition device having environment recognition means for converting the position information into the internal variable information using the conversion function and performing environment recognition.
Conversion function changing means;
Providing environmental change detection means,
The environment change detecting means detects that there is a change in the environment, and the conversion function changing means changes a conversion time period, a parameter, or a structure of the conversion function.
[0014]
Claims 2-9According to the invention described above, the environment recognition device is used for recognizing a traveling environment of a vehicle, the position information input unit is an imaging unit that captures an image of a traveling direction of the vehicle, and the conversion function is a normalized principal component feature amount. A conversion function, the internal variable information is an information space configured with the normalized principal component feature amount as an axis,
The environment change detecting means includes a laser radar, an illuminance sensor, and a navigation device.OrIn a configuration including any one or a combination of an infrastructure receiving device, a traveling speed sensor, an accelerator opening sensor, and a steering angle sensor,
No obstacle is detected by the laser radar,
Laser radar tracks the movement of obstacles in time,
Illuminance does not change rapidly,
No change in the road ahead is detected from the information of the navigation device and the infrastructure receiving device,
The average of the running speed does not change mathematically significantly,
The variance of the accelerator operation does not change mathematically significantly,
Steering wheel does not steer greatly
In either case, it is assumed that there is no change in the environmentThe environment recognizing means uses a conventional conversion function to convert image information into an information space spanned by normalized principal component features.I was foolish.
If the environment changes,The conversion function changing means performs principal component analysis on the image information, finds a new normalized principal component feature, updates the conversion function and the information space, and the environment recognition means uses the updated conversion function and information space.
[0015]
Claims 10 to 16In the described invention, the environment recognition is performed by analyzing a data cluster classified according to a distribution of image information converted into an information space,
When a cluster is detected in the vicinity of the origin of the normalized principal component axis constituting the information space with a plurality of clusters, it is recognized that the vehicle has a super approaching object,
If it detects that there is only one cluster and it is moving, it recognizes that there is no preceding vehicle and only the scenery is imaged,
When it is detected that the number of clusters is one and the vehicle is not moving, it recognizes that the preceding vehicle having a lower relative speed to the own vehicle is running,
If the new cluster does not appear and the conventional cluster can no longer be detected, it recognizes that the preceding vehicle has disappeared from view or that the congestion degree of the traveling road has been reduced,
When a large number of clusters are detected, the degree of congestion on the road increases, and it is recognized that there are many preceding vehicles,
When a new cluster appears and the conventional cluster detects that it is moving away, it recognizes that the vehicle is approaching the group of vehicles in front,Or
When a new cluster appears and it is detected that the conventional cluster has not moved, it is recognized that an interrupted vehicle has appeared between the preceding vehicle and the host vehicle.
[0016]
Claim 17In the described invention, a laser radar is used for the environment change detecting means, and the operation result of the environment recognition device is diagnosed by collating a detection result of the laser radar with a result of environment recognition by an image.
Claim 18According to the described invention, the diagnosis of the operating condition is performed when the laser radar detects an obstacle, when no data cluster exists on the information space, or when a temporal continuity change occurs in a planar distribution of the data cluster. When no data is found or when the distribution of the data clusters is no longer spatially correlated, the environment recognition device determines that a failure has occurred.
[0017]
[Action]
According to the first aspect of the present invention, the environment change detecting means detects the environmental change, and the conversion function changing means updates the conversion function, so that a moving environment can be recognized. Compared with recognizing a moving environment by obtaining a conversion function every time, the amount of calculation for obtaining the conversion function is greatly reduced, and image recognition can be performed using an appropriate conversion function even in an environment that changes drastically.
If the conversion function is not updated, the conversion of the position information is performed under the same conditions, and recognition based on physical meaning can be performed. In addition, recognition of a high-speed moving body, a low-speed moving body, a fixed body, and the like can be performed by temporally moving the position information. Becomes possible.
[0018]
Claims 2-9In the described invention, the imaging means as the information input means captures an image of the traveling direction of the vehicle, and the environment change detecting means includes a laser radar, an illuminance sensor, a navigation device, an infrastructure receiving device, a traveling speed sensor, an accelerator opening sensor,OrWhen a situation that causes a change in the image is detected by using a steering angle sensor or the like, the vehicle is traveling on a traveling road with no preceding vehicle or at a fixed distance from the preceding vehicleIf there is no change in the environmentBy using the conventional conversion function instead of updating the conversion function, it is possible to recognize whether or not the traveling road condition is maintained, and to use the image when there is a large change in the image due to the occurrence of an interrupted vehicle or a curved road. Is recognized using the conversion function corresponding to.
At this time, the image information is subjected to principal component analysis, and the display formula of the normalized principal component feature amount is set as a conversion function. The internal variable information uses an information space centered on the normalized principal component feature amount. As a result, the brightness information of the entire screen is used, and the influence of a change in lighting or the like is eliminated, and a highly robust environment can be recognized.
[0019]
Claims 10 to 16In the described invention, the analysis is performed by analyzing the data clusters classified according to the distribution of the image information converted into the information space, so that it is effective for analyzing the traveling environment, and the congestion degree of the traveling road, the occurrence of interrupted vehicles, and the A situation such as an approaching state can be detected with high accuracy.
[0020]
Claim 17In the invention described above, a laser radar is used for the environment change detecting means, and the operation result of the environment recognition device is diagnosed by collating the detection result of the laser radar with the result of environment recognition by an image. And reliability required as an on-vehicle device is improved.
Claim 18In the described invention, the diagnosis of the operating condition is performed by comparing the detection result of the laser radar with the result of the analysis on the data cluster. Is unnecessary, and an effect of not burdening the operation can be obtained.
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment in which the present invention is applied to recognition of a driving environment of an automobile will be described.
First, the driving environment recognition by the principal component analysis will be described.
Principal component analysis is a process of comprehensively analyzing information, finding a principal component representing the feature, converting the information into a principal component axis, and reading the feature.
[0022]
Since the brightness information of the driving environment is used for the recognition of the driving environment of the automobile, the driving path is first imaged by a camera. An imaging space is created by associating the brightness information obtained by the imaging with the image position. Thereby, brightness information is added to the two-dimensional plane position, and three-dimensional image information is obtained. The image information is divided into several data groups according to the image position, and is used as an explanatory variable.
[0023]
Linear variable information is provided to extract information from the explanatory variables. Then, in order to extract information from the variable information to minimize loss, an eigenvalue equation is used, and two eigenvalues having large values are extracted from the eigenvalue equation. Since the eigenvalues represent a large amount of information that can be extracted from the variable information, the first normalized principal component feature and the second normalized principal feature from which the largest amount of information can be extracted as variable information from the two eigenvalues having large values. The quantity is made.
The first principal component feature and the second principal component feature are spatially orthogonal to each other to form one information space, and the display formula thereof is a conversion function for converting information in the imaging space into the information space.
[0024]
If the brightness information of the imaging space is mapped to the information space spanned by the normalized principal component feature amounts, a cluster as a data group is formed according to the information characteristics. For example, the data cluster distribution after mapping of the surrounding scenery differs from the data cluster distribution of a moving object interrupted in the background or an object whose information on the imaging surface does not change significantly. Therefore, it is possible to recognize the background and the moving object, and the object that moves relatively little by the temporal change of the data cluster in the information space.
[0025]
The traveling road image changes as the vehicle travels.However, if the vehicle follows the preceding vehicle or travels straight on a traveling road with no preceding vehicle, the image changes slowly, so if the information space is fixed at this time, the information It is possible to recognize whether or not the traveling road condition continues due to the temporal change of the information in the space. For example, when a preceding vehicle or the like appears in the traveling road image, if the information space is newly obtained, the image changes greatly. Therefore, even if the information space is different, the appearance or disappearance of the preceding vehicle can be detected by the appearance or decomposition of data.
[0026]
FIG. 1 is a block diagram showing the configuration of the apparatus. The CCD camera 1 as an imaging unit is mounted in front of a vehicle (not shown) so as to capture an image of a traveling environment of the vehicle. The image signal is output to the environment recognition device 9 where image recognition is performed by principal component analysis. The environment recognition device 9 is connected to an adaptive cruise control device 10 for controlling the running of the vehicle.
[0027]
The adaptive cruise control device 10 controls the running of the vehicle at a constant speed, and is set by a driver's operation. The traveling target speed is the vehicle traveling speed at the time of setting, but in a state where the constant speed traveling cannot be performed due to the recognition result by the environment recognizing device 9, the control characteristics are changed and the traveling control adapted to the traveling road condition is performed.
That is, when the preceding vehicle is detected, the traveling speed is reduced to the target speed or less, and the control characteristic changes to the control characteristic for the inter-vehicle distance management. The control of the inter-vehicle distance may use the inter-vehicle distance corresponding to the traveling target speed as the control target. In this case, the vehicle performs the tracking operation. The adaptive cruise control device 10 is provided with an alarm function, which gives an alarm when approaching a preceding vehicle even if the vehicle speed is controlled to decelerate, and urges the driver to use a brake.
[0028]
The traveling road condition detecting device 20 is further connected to the environment recognizing device 9 and obtains a timing for changing the information space based on the detected value.
The laser radar 2 is mounted on the vehicle in a forward direction like the CCD camera 1, and the measured values are output to the image recognition device 9. In order to indicate that no obstacle is detected, a distant distance such as 200 m is output.
[0029]
The navigation device 3 detects the position of the own vehicle, and outputs travel route information from the map information to the environment recognition device 9 by the data processing device 30.
The infrastructure receiver 4 receives the broadcast of the travel route information and outputs the travel route information to the environment recognition device 9.
The illuminance sensor 5 detects the illuminance of the traveling environment and outputs it to the environment recognition device 9.
The accelerator opening sensor 6, the vehicle speed sensor 7, and the steering angle sensor 8 detect the running state of the vehicle and output the detected value to the environment recognition device 9. When the environment recognition device 9 determines that there is an image change based on the detection result, the environment recognition device 9 performs a principal component operation for newly obtaining a conversion function.
[0030]
FIG. 2 shows details of the environment recognition device 9. The environment change recognition unit 91 detects the traveling state of the vehicle from the detection signal of the traveling road condition detection device 20 or the temporal change of the signal. For example, it is determined whether there is an obstacle from the detection value of the laser radar 2. In addition, it is determined whether the laser radar 2 is performing tracking detection based on whether there is a temporal change when there is an obstacle. If tracking is being detected, there is no image change, so it is determined that the traveling road condition has not changed.
[0031]
The trigger signal generation unit 92 informs the principal component analysis unit 93 of the timing for obtaining the information space based on the recognition result of the environment change recognition unit by the trigger signal. Since the trigger signal is generated when there is a change in the image and it is necessary to obtain the information space, for example, when the following situation is detected, the conventional information space can be used, and the trigger signal is not output.
[0032]
(1) When no obstacle is detected or the obstacle is tracked by the detection value of the laser radar 2,
(2) If there is no rapid change in the curvature of the road ahead or no building appears from the navigation information or infrastructure information,
[0033]
(3) When the illuminance value does not change rapidly from the illuminance sensor 5,
(4) If the variance of the accelerator operation by the driver from the accelerator opening sensor 6 does not change mathematically significantly,
(5) When the average value of the traveling speed from the vehicle speed sensor 7 has no mathematically significant change,
(6) If the steering wheel is not steered significantly,
As a result, the conventional information space is used when the image does not change or changes slowly, and the information space is reconstructed only when a large change appears in the image.
[0034]
The principal component analysis unit 93 receives a camera image signal from the CCD camera 1 and checks whether a trigger signal is output. If there is no trigger signal, the conventional information space is used assuming that there is no significant change in the image. If there is a trigger signal, a new information space is obtained by principal component analysis from the brightness information of the image and eigenvalue calculation. The image information in the imaging space is converted into the information space by a conversion function.
[0035]
The cluster judging unit 94 forms a cluster by classifying the information distribution in the information space by a clustering process. Then, the traveling environment is recognized from the appearance or decomposition of the cluster or the change in the position.
The control signal generator outputs a control signal for changing the control characteristics of the adaptive cruise control device 10 according to the result of the image recognition. This enhances the adaptive cruise control function.
[0036]
Next, the flow of the principal component analysis in the principal component analysis unit will be described with reference to the flowchart of FIG.
First, in step 201, a captured image is input from the CCD camera 1. The captured image is composed of, for example, p pixels in the horizontal direction and n pixels in the vertical direction, and a number is given to each pixel so that the vertical and horizontal positions can be specified. The pixel signals are stored in a memory.
[0037]
In step 202, a three-dimensional imaging space S is created by associating pixel signals with pixel positions.
FIG. 4 is a plan view showing the configuration of the imaging space. Here, the pixel signal is XijHere, i indicates the vertical position of the image, and j indicates the horizontal position of the image. X if the pixel color is whiteij= 0, X for blackij= 1. If it is gray, a value between 1 and 0 is used.
[0038]
In step 203, it is checked whether or not a trigger signal has been received from the trigger signal generator 92. If there is a trigger signal, it is determined that a new information space and a conversion function need to be obtained, and the process proceeds to step 204. If there is no trigger signal, the conventional information space and the conversion function can be used as they are, and the process proceeds to step 206.
[0039]
In step 204, the pixel signals in the imaging space shown in FIG. 4 are first divided in the horizontal direction for each pixel to generate p data groups (pixel columns). The data group includes n pixel signal data.
S is calculated based on equation (1) to calculate the variance and covariance of the pixel signal for each data group i.ii 'Is calculated.
(Equation 1)
Figure 0003562278
Here, i and i 'indicate the position of the data group, and indicate that they are independently selected. That is, the calculation is performed by applying the equation (1) to each data group from i 'to 1 to p.
[0040]
Each Sii 'And the number n of pixel signals in the data group are substituted into equation (2) to obtain the variance and covariance Vii 'Is calculated. Here, if i and i 'are the same numbers, they are the variance values of the pixel row. If i and i' are different numbers, they are the calculated values of the covariance of the respective pixel rows.
(Equation 2)
Figure 0003562278
[0041]
By substituting the calculated values of the respective variances and covariances into the eigenvalue equation of equation (3) and solving the eigenvalue equation, p eigenvalues λ are obtained.
(Equation 3)
Figure 0003562278
Let p eigenvalues λ be
λ1≧ λ2≧… ≧ λk≧… ≧ λpgiven that,
{ΛkV the V that sought itii 'Corresponding to the eigenvalue of. Here, k = 1 to p.
[0042]
At this time, from equation (4),
(Equation 4)
Figure 0003562278
lki(L11, L12, ..., l1p, L21, L22, ..., l2p, Lp1, Lp2, ..., lpp) Yields n sets of eigenvectors. As a result, n normalized principal component features can be obtained. However, since the feature ratio of the image can be recognized at a contribution rate of 70 to 80%, the first normalized principal component feature as shown in Expression (5), for example, And the second normalized principal component feature amount.
(Equation 5)
Figure 0003562278
Here, * indicates a pixel signal of an arbitrary row.
[0043]
In step 205, a new information space is defined with the first normalized principal component feature and the second normalized principal component feature as axes. The linear display expression of the first normalized principal component feature and the second normalized principal component feature is a conversion function.
Here, if the previous image also has the same two normalized principal component feature amounts, the information space is the same, the transformation function has the same structure, and the parameters are changed.
[0044]
In step 206, the information signal X in the imaging spaceijIs substituted into equation (5) for each row to calculate a first normalized principal component feature Z1 and a second normalized principal component feature Z2, and to convert imaging information in an imaging space into an information space. FIG. 5 shows the distribution state of data before and after conversion. In the imaging space S, the brightness information as and bs of the objects a and b and the plane position information (X, Y) thereof are composed of a first normalized principal component feature amount and a second normalized principal component feature amount by a function F. When converted into the space M, the distribution becomes different in the information space M according to the feature.
[0045]
It can be recognized by the physical meaning of the first normalized principal component feature and the second normalized principal component feature. If the physical meaning cannot be given, the presence or absence of a preceding vehicle, the occurrence of an interrupted vehicle, and the degree of congestion of the traveling road can be recognized by the movement or disassembly of the cluster according to the traveling of the vehicle. Although the physical meaning is determined by the knowledge of the analyst, movement or decomposition of the cluster can be objectively detected.
[0046]
In step 207, data clustering analysis is performed on the data in the information space. Data clustering analysis is performed in the same manner as in the prior art. For example, it can be classified into several data groups according to the distance between data.
In step 208, environment change is performed by analyzing a temporal change of the data cluster.
[0047]
Next, cluster analysis in the cluster determination unit 94 and generation of a control signal in the control signal generation unit 95 will be described with reference to the flowcharts of FIGS.
First, in step 301, it is determined whether or not there is a cluster. If not, in step 302, it is determined that the imaging unit including the CCD camera has failed. At this time, the control signal creation unit 95 outputs a signal indicating that the preceding vehicle cannot be detected to the adaptive cruise control device 10 and issues an alarm indicating that the following distance cannot be managed to alert the driver.
[0048]
If it is determined that there is a cluster, the process proceeds to step 303, where the number of clusters is determined. If there are two or more clusters, go to step 304. In step 304, it is determined whether or not a cluster exists near the origin of the normalized principal component feature amount forming the information space.
If a cluster exists near the origin, an object having an abnormally large angle of view is detected. Therefore, it is determined in step 305 that a super approaching object has been detected. At this time, the control signal creation unit 95 outputs a control signal to the adaptive cruise control device 10 so as to perform a warning to call attention or a deceleration control.
[0049]
If it is determined in step 304 that there is no cluster near the origin, it is determined in step 306 whether a new cluster has appeared. If it is determined that no new cluster has appeared and that the cluster has disappeared in step 307, it is recognized that the preceding vehicle has disappeared from the field of view of the CCD camera 1 or the degree of congestion on the traveling road has been reduced. At this time, if the vehicle is decelerating, the control signal generator 95 outputs a control signal to the adaptive cruise control device 10 to return the vehicle speed to the target speed.
If it is determined in step 307 that the cluster has not disappeared, it is impossible to recognize the driving situation, and the determination is suspended in step 309 until the next image is input.
[0050]
If it is determined in step 303 that one cluster exists, it is determined in step 310 whether the cluster has moved. If the cluster is moving, it is determined in step 313 that there is no following vehicle ahead and the image is only a scene.
If it is determined in step 310 that the cluster has not moved, it is determined in step 312 that an approaching object having an extremely low relative speed is following a predetermined distance.
The control signal generator 95 outputs a control signal so that the vehicle can run at the target speed when the image is only a scene. If the vehicle is following the preceding vehicle, a control signal for maintaining the control characteristics is output.
[0051]
If it is determined in step 306 that a new cluster has appeared, the process proceeds to step 314. If it is determined in step 314 that a large number of clusters have appeared, it is determined in step 315 that the degree of congestion on the front traveling road has increased and that a large number of vehicles have been detected. At this time, the control signal generating unit 95 maintains the deceleration signal if the vehicle is decelerating, and outputs a deceleration signal to the adaptive cruise control device 10 if the vehicle is traveling at the target speed.
[0052]
Then, if a large number of clusters do not appear in the determination in step 314, it is determined in step 316 whether or not the cluster has moved far away. If the vehicle is moving, it is determined in step 318 that the own vehicle is approaching the group of vehicles in front soon. If the cluster has not moved, it is determined that a vehicle interruption has occurred between the preceding vehicle and the own vehicle.
In any case, the control signal generator 95 outputs a control signal to the adaptive cruise control device 10 to decelerate the vehicle.
[0053]
Next, a description will be given of diagnosing the operation state of the image recognition system including the CCD camera 1 and the environment recognition device 9 by comparing the result of image recognition by principal component analysis with the result of laser radar detection.
This diagnosis is used by connecting the fail monitoring device 11 to the environment recognition device as shown in FIG.
If the failure monitoring device 11 determines that the image recognition system has failed, it issues a failure signal, stops the adaptive cruise control function, and switches the vehicle to safe operation.
[0054]
The failure monitoring device 11 performs a diagnosis by inputting a detection value of the laser radar 2 and a result of image recognition by principal component analysis.
The principle of the diagnosis is that, when an obstacle is detected by the laser radar 2 and no cluster exists in the information space for a long time, it is determined that the signal from the CCD camera 1 is abnormal due to the reciprocal of the detection result. The recognition system can be determined to be faulty. This is because if an object is temporally captured within a certain range, a data cluster always exists in the information space.
[0055]
Further, when the data clusters are temporally or dispersed in the information space even within the same time, the data clusters may fluctuate due to trouble of the CCD camera or fog. In any case, a failure signal is generated because the traveling environment cannot be recognized accurately.
[0056]
Next, the flow of diagnosis in the failure monitoring device 11 will be described.
First, in step 401, it is determined whether or not the laser radar has detected an obstacle from the detected value of the laser radar input to the environment recognition device. If an obstacle is detected, the result of the cluster analysis is input in step 402, and if a cluster exists, the environment recognition device determines that the condition is good and ends the diagnosis.
[0057]
If it is determined in step 402 that no cluster exists even though the laser radar has detected an obstacle, in step 404 it is determined that the imaging unit including the CCD camera has failed.
If it is determined in step 401 that the laser radar has not detected an obstacle, the process proceeds to step 403. Here, it is determined whether there is a temporal change in the cluster. If there is no change, it is determined in step 404 that the imaging unit has failed. If there is a temporal change in the cluster, it is determined in step 405 whether the cluster distribution is random, and the diagnosis is terminated.
If it is determined in step 405 that the cluster distribution is random, it is determined in 406 that the imaging unit has failed or visibility is poor.
[0058]
The present embodiment is configured as described above, and recognizes the travel road image using the principal component analysis. Therefore, it is possible to detect a change in the travel road condition without erroneous detection. For example, when the vehicle enters the lane of the host vehicle from the side when following the preceding vehicle, the change can be quickly grasped as a change of the data cluster in the information space. As a result, the adaptive cruise control device can quickly change the control characteristics, and can perform traveling control suitable for traveling road conditions.
[0059]
In addition, there is no need to perform an operation for obtaining an instantaneous information space, the operation load is reduced, and space conversion can be performed by processing using only linear combination. It is possible to recognize the traveling road condition in real time and to obtain the effect of selecting the traveling environment.
In the present embodiment, the adaptive cruise control device is controlled. However, the present invention is not limited to this. For a vehicle not equipped with the adaptive cruise control device, the engine brake may be controlled. At this time, the deceleration control by the adaptive cruise control device is performed by the engine brake. If the vehicle is already under engine braking, control is exercised to make the engine braking more effective.
[0060]
In addition, since the operation state of the image recognition system is diagnosed based on the relationship between the distribution of clusters and the imaging space, the image recognition data can be used as it is, and the operation state of the apparatus can be determined without burdening the calculation.
The CCD camera 1 constitutes an imaging unit.
The travel road condition detection device 20, the environment change recognition unit 91, and the trigger signal generation unit 92 constitute an environment change detection unit.
The principal component analysis unit 93 and the cluster determination unit 94 constitute an environment recognition unit.
Steps 204 and 205 constitute a conversion function changing means.
[0061]
【The invention's effect】
According to the first aspect of the present invention, the position information is converted into the internal variable information to recognize the environment, and the environment change detecting means detects the environment change and sets its output as the timing for obtaining the conversion function. When it is recognized that there is no or no, the conventional conversion function is diverted, the accuracy in recognizing the environmental change is maintained, and the calculation for obtaining the conversion function is reduced, so that the calculation load of the environment recognition is reduced.
In addition, when the environment does not change, the conversion function is not obtained, so that the conversion of the position information is performed under the same condition, the recognition by the physical meaning can be performed, and the high-speed moving body, Recognition of low-speed moving objects, fixed objects, and the like becomes possible.
[0062]
Claims 2-9In the described invention, the imaging means captures an image of the traveling direction of the vehicle, and the environment change detection means detects a situation that causes a change in the image. Use information space. Since the normalized principal component feature is obtained only when a change is detected in the image, the information can be comprehensively recognized, the image information can be accurately extracted, and the high speed and high reliability required for the in-vehicle device are achieved. can get.
[0063]
Claims 10 to 16In the described invention, the analysis is performed by analyzing the data clusters classified according to the distribution of the image information converted into the information space, so that it is effective for analyzing the traveling environment, and the congestion degree of the traveling road, the occurrence of interrupted vehicles, and the A situation such as an approaching state can be detected with high accuracy.
[0064]
Claim 17In the invention described above, a laser radar is used for the environment change detection means, and the operation result of the environment recognition device is diagnosed by collating the detection result of the laser radar with the result of environment recognition by an image. Is prevented, and the reliability required as an in-vehicle device is improved.
Claim 18In the invention described in the above, since the operation status is diagnosed by collating the data cluster of the laser radar, the result of the cluster analysis when recognizing the traveling road condition can be used, and the process for the diagnosis is not required, and the calculation load is not required. The effect is obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an embodiment.
FIG. 2 is a block diagram illustrating details of an environment recognition device.
FIG. 3 is a flowchart for environment recognition.
FIG. 4 is a diagram showing a configuration of an image space.
FIG. 5 is a diagram illustrating a difference between display of image information in an imaging space and information space.
FIG. 6 is a flowchart showing a flow of cluster analysis.
FIG. 7 is a flowchart illustrating a flow of cluster analysis.
FIG. 8 is a flowchart for device diagnosis.
FIG. 9 is a block diagram showing a conventional example.
FIG. 10 is a diagram illustrating a relationship between a difference operation value and an outline.
[Explanation of symbols]
1 CCD camera
2 Laser radar
3 Navigation device
4 Infrastructure receiver
5 Ambient light sensor
6 Accelerator opening sensor
7 Vehicle speed sensor
8. Steering angle sensor
9 Environment recognition device
10 Transmission controller
11 Failure monitoring device
30 Data processing device
52 Image input device
53 area dividing device
54 Center of gravity calculator
55 Movement Estimation Device
91 Environmental Change Recognition Department
92 Trigger signal generator
93 Principal Component Analysis Department
94 Cluster judgment unit
95 Control signal generator

Claims (18)

環境認識のための空間的、もしくは平面的位置情報を入力する情報入力手段と、
環境認識のための内部変数情報と、
前記位置情報を前記内部変数情報に解析的に変換する変換関数と、
前記変換関数を用いて前記位置情報を前記内部変数情報に変換させて、環境認識を行なう環境認識手段とを有する環境認識装置において、
変換関数変更手段と、
環境変化検出手段とを設けて、
該環境変化検出手段は環境に変化があることを検知し、前記変換関数変更手段は前記変換関数の変換時期周期、もしくはパラメータ、構造を変更することを特徴とする環境認識装置。
Information input means for inputting spatial or planar position information for environment recognition,
Internal variable information for environment recognition,
A conversion function that analytically converts the position information into the internal variable information,
An environment recognition device having environment recognition means for converting the position information into the internal variable information using the conversion function and performing environment recognition.
Conversion function changing means;
Providing environmental change detection means,
An environment recognition apparatus, wherein the environment change detecting means detects a change in the environment, and the conversion function changing means changes a conversion time period, a parameter, or a structure of the conversion function.
前記環境認識装置は、車両の走行環境の認識に使用され、前記情報入力手段は前記車両の走行方向を撮像する撮像手段とし、前記変換関数は正規化主成分特徴量への変換関数とし、前記内部変数情報は前記正規化主成分特徴量を軸として構成された情報空間とし、
前記環境変化検出手段が環境に変化がないことを検出した場合には、前記環境認識手段は従来の変換関数を用い、画像情報を正規化主成分特徴量で張られた情報空間への変換を行なことを特徴とする請求項1記載の環境認識装置。
The environment recognition device is used for recognizing a traveling environment of a vehicle, the information input unit is an imaging unit that captures an image of a traveling direction of the vehicle, the conversion function is a conversion function to a normalized principal component feature amount, The internal variable information is an information space configured with the normalized principal component feature amount as an axis,
When the environment change detecting means detects that there is no change in the environment, the environment recognizing means uses a conventional conversion function to convert the image information into an information space spanned by normalized principal component features. environment recognition apparatus according to claim 1, wherein the I rows.
前記環境変化検出手段はレーザレーダを備え、
該レーザレーダで障害物が検出されないか、あるいは障害物の移動を時間的に追尾している場合は、環境に変化がないと判断することを特徴とする請求項1または2記載の環境認識装置。
The environment change detection means includes a laser radar,
3. The environment recognition apparatus according to claim 1, wherein when the obstacle is not detected by the laser radar or the movement of the obstacle is temporally tracked, it is determined that there is no change in the environment. .
前記環境変化検出手段は照度センサを備え、
該照度センサによって検出された照度が急激に変化しない場合は、環境に変化がないと判断することを特徴とする請求項1〜3のいずれか1に記載の環境認識装置。
The environment change detection means includes an illuminance sensor,
The environment recognition device according to any one of claims 1 to 3, wherein when the illuminance detected by the illuminance sensor does not change rapidly, it is determined that there is no change in the environment.
前記環境変化検出手段はナビゲーション装置またはインフラ受信装置の少なくともいずれかを備え、
前記ナビゲーション装置またはインフラ受信装置の少なくともいずれかの情報から前方道路の曲率変化が生じていない場合は、環境に変化がないと判断することを特徴とする請求項1〜4のいずれか1に記載の環境認識装置。
The environment change detecting means includes at least one of a navigation device and an infrastructure receiving device,
The method according to any one of claims 1 to 4, wherein it is determined that there is no change in the environment if the curvature of the road ahead does not change based on at least one of the information of the navigation device and the infrastructure receiving device. Environment recognition device.
前記環境変化検出手段は走行速度センサを備え、The environment change detection means includes a traveling speed sensor,
該走行速度センサによって検出された走行速度の平均値が数学的に有意に変化しない場合は、環境に変化がないと判断することを特徴とする請求項1〜5のいずれか1に記載の環境認識装置。The environment according to any one of claims 1 to 5, wherein when the average value of the traveling speed detected by the traveling speed sensor does not mathematically change significantly, it is determined that there is no change in the environment. Recognition device.
前記環境変化検出手段はアクセル開度センサを備え、The environment change detecting means includes an accelerator opening sensor,
該アクセル開度センサによって検出されたアクセル操作の分散値が数学的に有意に変化しない場合は、環境に変化がないと判断することを特徴とする請求項1〜6のいずれか1に記載の環境認識装置。The method according to any one of claims 1 to 6, wherein when the variance of the accelerator operation detected by the accelerator opening sensor does not mathematically change significantly, it is determined that there is no change in the environment. Environment recognition device.
前記環境変化検出手段はハンドル操舵角センサを備え、The environment change detection means includes a steering angle sensor,
ハンドルが大きく操舵されない場合は、環境に変化がないと判断することを特徴とする請求項1〜7のいずれか1に記載の環境認識装置。The environment recognition device according to any one of claims 1 to 7, wherein when the steering wheel is not largely steered, it is determined that there is no change in the environment.
前記環境変化検出手段が環境に変化があることを検出した場合には、前記変換関数変更手段は画像情報を主成分分析し、新たな正規化主成分特徴量を見つけ、変換関数および情報空間を更新し、前記環境認識手段は更新された変換関数と情報空間を用いることを特徴とする請求項2〜8のいずれか1に記載の環境認識装置。When the environment change detecting unit detects that there is a change in the environment, the conversion function changing unit performs principal component analysis on the image information, finds a new normalized principal component feature amount, and converts the conversion function and the information space. The environment recognition apparatus according to any one of claims 2 to 8, wherein the environment recognition unit is updated and uses the updated conversion function and information space. 前記環境認識は、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行ない、The environment recognition is performed by analyzing a data cluster classified according to a distribution of the image information transformed into the information space,
クラスタが複数でかつ情報空間を構成する正規化主成分軸の原点近傍でクラスタを検出した場合に車両に超接近物体があったと認識することを特徴とする請求項2〜9のいずれか10. A vehicle according to claim 2, wherein when a plurality of clusters are detected near the origin of the normalized principal component axis constituting the information space, the vehicle is recognized as having a super approaching object. 1に記載の環境認識装置。2. The environment recognition device according to 1.
前記環境認識は、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行ない、The environment recognition is performed by analyzing a data cluster classified according to a distribution of the image information transformed into the information space,
クラスタが1つでかつ移動していると検出した場合に先行車がなく景色のみの走行路と認識することを特徴とする請求項2〜10のいずれか1に記載の環境認識装置。The environment recognition apparatus according to any one of claims 2 to 10, wherein when it is detected that the number of clusters is one and the vehicle is moving, it is recognized that there is no preceding vehicle and there is only a scenery-only travel path.
前記環境認識は、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行ない、The environment recognition is performed by analyzing a data cluster classified according to a distribution of the image information transformed into the information space,
クラスタが1つでかつ移動していないと検出した場合に自車と相対速度の小さい先行車が走行していると認識することを特徴とする請求項2〜11のいずれか1に記載の環境認識装置。The environment according to any one of claims 2 to 11, wherein when it is detected that the number of clusters is one and the vehicle does not move, the preceding vehicle having a lower relative speed to the own vehicle is recognized as traveling. Recognition device.
前記環境認識は、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行ない、The environment recognition is performed by analyzing a data cluster classified according to a distribution of the image information transformed into the information space,
新しいクラスタは出現せず従来のクラスタが検出できなくなった場合に先行車が視界から消失する、あるいは走行路の混雑度が軽減したと認識することを特徴とする請求項2〜12のいずれか1に記載の環境認識装置。13. A vehicle according to claim 2, wherein when a new cluster does not appear and the conventional cluster cannot be detected, the preceding vehicle disappears from view or the degree of congestion on the traveling road is reduced. The environment recognition device according to 1.
前記環境認識は、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行ない、The environment recognition is performed by analyzing a data cluster classified according to a distribution of the image information transformed into the information space,
多数のクラスタを検出した場合に走行路の混雑度が上昇し多数の先行車があると認識することを特徴とする請求項2〜13のいずれか1に記載の環境認識装置。The environment recognition device according to any one of claims 2 to 13, wherein when a large number of clusters are detected, the degree of congestion of the traveling road increases and there is a large number of preceding vehicles.
前記環境認識は、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行ない、The environment recognition is performed by analyzing a data cluster classified according to a distribution of the image information transformed into the information space,
新しいクラスタが出現し、従来のクラスタが遠方に向かって移動していると検出した場合に自車が高速に前方車群に接近していると認識することを特徴とする請求項2〜14のいずれか1に記載の環境認識装置。15. The method according to claim 2, wherein when a new cluster appears and the conventional cluster is detected to be moving far away, it is recognized that the own vehicle is approaching the group of vehicles in front at high speed. An environment recognition device according to any one of the preceding claims.
前記環境認識は、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行ない、The environment recognition is performed by analyzing a data cluster classified according to a distribution of the image information transformed into the information space,
新しいクラスタが出現し、従来のクラスタが移動していないと検出した場合に先行車と自車両の間に割り込み車両が出現したと認識することを特徴とする請求項2〜15のいずれか1に記載の環境認識装置。16. The method according to claim 2, wherein when a new cluster appears and the conventional cluster is detected as not moving, it recognizes that an interrupted vehicle has appeared between the preceding vehicle and the own vehicle. Environmental recognition device as described.
前記環境変化検出手段にレーザレーダが用いられ、前記レーザレーダの検出結果と画像による環境認識の結果を照合して前記環境認識装置の作動状況を診断することを特徴とする請求項1記載の環境認識装置。2. The environment according to claim 1, wherein a laser radar is used as said environment change detecting means, and a detection result of said laser radar is compared with a result of environment recognition based on an image to diagnose an operation state of said environment recognition device. Recognition device. 前記作動状況の診断は、前記レーザレーダが障害物を検出したとき、前記情報空間上にデータクラスタが存在しない、あるいはデータクラスタの平面的分布に時間的な連続性変化が見受けられない、またはデータクラスタの分布が空間的に相関関係をもたなくなった何れかの場合、前記環境認識装置が故障であると判断することを特徴とする請求項17記載の環境認識装置。The diagnosis of the operating condition may be such that when the laser radar detects an obstacle, no data cluster exists in the information space, or a temporal continuity change is not found in the planar distribution of the data cluster, or data 18. The environment recognition apparatus according to claim 17, wherein when any of the distributions of the clusters has no spatial correlation, the environment recognition apparatus is determined to be faulty.
JP34231797A 1997-11-07 1997-11-07 Environment recognition device Expired - Fee Related JP3562278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34231797A JP3562278B2 (en) 1997-11-07 1997-11-07 Environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34231797A JP3562278B2 (en) 1997-11-07 1997-11-07 Environment recognition device

Publications (2)

Publication Number Publication Date
JPH11142168A JPH11142168A (en) 1999-05-28
JP3562278B2 true JP3562278B2 (en) 2004-09-08

Family

ID=18352798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34231797A Expired - Fee Related JP3562278B2 (en) 1997-11-07 1997-11-07 Environment recognition device

Country Status (1)

Country Link
JP (1) JP3562278B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4426436B2 (en) * 2004-12-27 2010-03-03 株式会社日立製作所 Vehicle detection device
JP4608631B2 (en) 2005-06-08 2011-01-12 国立大学法人名古屋大学 Image processing device for vehicle, driving support device
US7545956B2 (en) 2005-08-12 2009-06-09 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
ES2343296B1 (en) * 2008-12-18 2011-06-06 Fundacion Para La Promocion De La Innovacion, Investigacion Y Desarrollo Tecn.Ind.Automocion Galicia ADAPTIVE CRUISE CONTROL SYSTEM PROVIDED FOR VISION ASSISTANCE.
JP2010219865A (en) * 2009-03-17 2010-09-30 Toyota Infotechnology Center Co Ltd Image processing system
JP2011188134A (en) * 2010-03-05 2011-09-22 Panasonic Corp Monitoring system, control method thereof, and monitoring device
DE102012210608A1 (en) * 2012-06-22 2013-12-24 Robert Bosch Gmbh Method and device for generating a control parameter for a distance assistance system of a vehicle
JP6299182B2 (en) * 2013-11-28 2018-03-28 サクサ株式会社 Life and death monitoring system
US10267908B2 (en) * 2015-10-21 2019-04-23 Waymo Llc Methods and systems for clearing sensor occlusions
WO2018055449A2 (en) * 2016-09-20 2018-03-29 Innoviz Technologies Ltd. Lidar systems and methods
CN110171417B (en) * 2019-05-24 2020-08-11 无锡佶达德光电子技术有限公司 Constant-speed cruise device based on laser radar
DE112019007519B4 (en) 2019-07-30 2023-10-19 Mitsubishi Electric Corporation SENSOR DIAGNOSIS DEVICE AND SENSOR DIAGNOSIS PROGRAM

Also Published As

Publication number Publication date
JPH11142168A (en) 1999-05-28

Similar Documents

Publication Publication Date Title
CN107609522B (en) Information fusion vehicle detection system based on laser radar and machine vision
JP5297078B2 (en) Method for detecting moving object in blind spot of vehicle, and blind spot detection device
KR101891460B1 (en) Method and apparatus for detecting and assessing road reflections
US11308717B2 (en) Object detection device and object detection method
US9975550B2 (en) Movement trajectory predicting device and movement trajectory predicting method
CN111382768A (en) Multi-sensor data fusion method and device
Aytekin et al. Increasing driving safety with a multiple vehicle detection and tracking system using ongoing vehicle shadow information
JP2018516799A5 (en)
JP3562278B2 (en) Environment recognition device
CN104321665A (en) Multi-surface model-based tracking
US20220301320A1 (en) Controller, method, and computer program for controlling vehicle
US8160300B2 (en) Pedestrian detecting apparatus
CN109421730B (en) Cross traffic detection using cameras
CN111222441A (en) Point cloud target detection and blind area target detection method and system based on vehicle-road cooperation
CN106778907A (en) A kind of intelligent travelling crane early warning system based on multi-sensor information fusion
JPWO2018025632A1 (en) Imaging device
KR20170138842A (en) System and Method for Tracking Vehicle on the basis on Template Matching
US11741718B2 (en) Light interference detection during vehicle navigation
US11769337B2 (en) Traffic signal recognition method and traffic signal recognition device
JP5452518B2 (en) Vehicle white line recognition device
Thiem et al. Datafusion of two driver assistance system sensors
JP2019074839A (en) White line recognition device for vehicle
KR102225387B1 (en) Apparatus and method for monitoring images capable of deterrmining traveling status of vehicle based on lidar data
KR20180048519A (en) System and Method for Tracking Vehicle on the basis on Template Matching
US20230177844A1 (en) Apparatus, method, and computer program for identifying state of lighting

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040524

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees