JP3562278B2 - Environment recognition device - Google Patents
Environment recognition device Download PDFInfo
- Publication number
- JP3562278B2 JP3562278B2 JP34231797A JP34231797A JP3562278B2 JP 3562278 B2 JP3562278 B2 JP 3562278B2 JP 34231797 A JP34231797 A JP 34231797A JP 34231797 A JP34231797 A JP 34231797A JP 3562278 B2 JP3562278 B2 JP 3562278B2
- Authority
- JP
- Japan
- Prior art keywords
- environment
- information
- change
- environment recognition
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
この発明は、車両の走行環境を多変量分析によって認識する環境認識装置に関する。
【0002】
【従来の技術】
従来より、車両の運転においては、人によらず走行を妨げる障害物を自動的に検出することが望まれている。とくに走行車などの移動体に対する検出が自動的に行なわれるようになれば、過度接近時の警報、自動ブレーキ、追尾走行といったような機能が実現でき、走行安全性が向上するとともに運転負担を軽減することができる。
【0003】
移動体の検出装置としては、例えば特開平3−260813号公報に記載されているものがある。その構成は図9に示すように移動体の検出方向を撮像するカメラ51と、カメラ51の撮像画像を所定時間毎に入力する画像入力装置52と、画像の明暗分布により検出対象域を割り出す領域分割装置53と、割り出された検出対象域の重心と面積を計算する重心計算装置54と、重心と面積の時間的変化から移動体を検出し、その変化具合で移動体の移動量を推定する移動量推定装置55とからなっている。
【0004】
また、特開昭64−26913号公報では、カメラの撮像情報において明度情報の差分処理を行なうことによってエッジを検出し、物体の輪郭として認識したうえで、エッジ情報に基づいて移動量を算出する。さらに時間的に物体の輪郭や明度が違う領域で囲まれた閉区間の重心位置や面積の変化を検出し、時間的な距離の変化に対応する重心位置の変化や面積変化の値と照合し、同一物体であることを確認して、物体をトラッキングすることが行なわれている。これにより、移動体の追尾や移動体の変化から移動速度を求めることができる。
【0005】
しかしながら、上記両公報に示された移動体検出は、前提として明度情報の差分や閉区間領域を抽出することに主眼がおかれている。差分処理は、図10に示すように画像を横方向走査しながら明度値の差分演算をし、差分値が得られる位置を特定する。差分値は明暗差の大きいところで検出されるので、1画面を走査したあと一定距離内という条件を設けて各差分値の検出位置を線で結べば輪郭が検出される。
【0006】
移動体は明度差の大きい輪郭情報と明度差の低い内部情報をもっており、輪郭を鮮明に抽出できれば、とくに内部情報を扱うこともなく、情報量が減ずることで処理速度が向上する。しかし車両を取り巻く照明条件が刻々変わり、外乱光などの影響で輪郭が完全にかつ鮮明に抽出できることは少ない。よって輪郭のみを用いる画像認識は、情報量の少なさから環境変化への対応が弱く、車両に搭載して先行車の検出に使用する場合、制限を受けるなど最適な移動体検出手段とは言いがたい。
【0007】
また明度情報から直接閉区間を抽出することは、影や外乱光などの影響を受けやすく、外乱光によって変化した明度が直接に重心や面積の変化に影響を与えるため、外乱光に対してロバスト性の低い認識ロジックとなっている問題があった。
【0008】
このほか、テンプレートマッチングやテクシュチャマッチングなど輪郭情報に内部情報を加えた検出手法もあるが、処理時間やテンプレートに関する情報を予め用意するための処理が必要などの問題を有している。
【0009】
こうした背景で、近年、画像情報を圧縮する技術の派生として、カメラの撮像情報を明度データの分布ととらえ、多変量解析の1つである主成分分析などを行ない、撮像情報を正規化主成分特徴量で張られた情報空間に写像し、情報空間内でのデータの挙動を解析することによって画像認識する手法が提案されている。
【0010】
正規化主成分特徴量で構成される情報空間では、例えば周りの風景に関しての写像後のデータ分布と背景の中に割り込んできた移動体や撮像面上で情報が大きく変化しない追従車両のデータ分布が異なる。よって背景と移動体、相対的に移動が少ない物体などが変換後の正規化主成分特徴量による空間内のデータクラスタの変化によって検出できる。このような検出方法は全画像の情報が処理対象となり、照明の変化など上記従来の処理では対処不可能の画面も処理できるようになる。
【0011】
【発明が解決しようとする課題】
しかし、上記のような多変量分析による画像認識は主として静止画像に用いられるもので自動車の走行環境認識に用いようとすると、次の問題点がある。
(1)、背景が静止している場合なら、背景に対応した変換後のデータクラスタと背景に混入した新しい動きをもった移動体の変換後のデータクラスタの分離が容易であるが、自動車の場合背景が走行に従って変化するので、正規化主成分特徴量による情報空間が時間的に一意に決まらず、よって、その変換関数も固定できない。
【0012】
(2)、上記問題を解決するために画像毎に情報空間と変換関数を求めればよいが、演算量が多くなり時間がかかり過ぎて、通常の演算素子では車載装置に必要なリアルタイム処理ができなくなる。
(3)、また、画像の変化によって情報空間と変換関数が異なると、処理の結果によって正規化主成分の物理的な意味付けが変化してしまうことにより、変換後のデータクラスタの意味付けやデータクラスタ間の有意な差の判定が困難となる。
本発明は上記の問題点に鑑み、情報空間と変換関数を画像に変化があると認められたときのみ求め、それ以外は従来の情報空間と変換関数を用い、検出精度を損なわずに演算量を減少した環境認識装置を提供することを目的としている。
【0013】
【課題を解決するための手段】
このため請求項1記載の発明は、環境認識のための空間的、もしくは平面的位置情報を入力する情報入力手段と、
環境認識に適用する内部変数情報と、
前記位置情報を前記内部変数情報に解析的に変換する変換関数と、
前記変換関数を用いて前記位置情報を前記内部変数情報に変換させて、環境認識を行なう環境認識手段とを有する環境認識装置において、
変換関数変更手段と、
環境変化検出手段とを設けて、
該環境変化検出手段は環境に変化があることを検知し、前記変換関数変更手段は前記変換関数の変換時期周期、もしくはパラメータ、構造を変更するものとした。
【0014】
請求項2〜9記載の発明は、前記環境認識装置は車両の走行環境の認識に使用され、前記位置情報入力手段は前記車両の走行方向を撮像する撮像手段とし、前記変換関数は正規化主成分特徴量への変換関数とし、前記内部変数情報は前記正規化主成分特徴量を軸として構成された情報空間とし、
前記環境変化検出手段はレーザレーダ、照度センサ、ナビゲーション装置またはインフラ受信装置、走行速度センサ、アクセル開度センサ、ハンドル操舵角センサの何れか1つもしくは複数個の組み合わせを含む構成で、
前記レーザレーダで障害物が検出されない、
レーザレーダで障害物の移動を時間的に追尾している、
照度が急激に変化しない、
前記ナビゲーション装置やインフラ受信装置の情報から前方道路の変化が検出されない、
走行速度の平均値が数学的に有意に変化しない、
アクセル操作の分散値が数学的に有意に変化しない、
ハンドルが大きく操舵されない
のいずれかの場合、環境に変化がないものとして前記環境認識手段は従来の変換関数を用い、画像情報を正規化主成分特徴量で張られた情報空間への変換を行なうものとした。
環境に変化がある場合は、前記変換関数変更手段は画像情報を主成分分析し、新たな正規化主成分特徴量を見つけ、変換関数および情報空間を更新し、前記環境認識手段は更新後の変換関数と情報空間を用いる。
【0015】
請求項10〜16記載の発明は、前記環境認識は、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行ない、
クラスタが複数でかつ情報空間を構成する正規化主成分軸の原点近傍でクラスタを検出した場合に車両に超接近物体があったと認識し、
クラスタが1つでかつ移動していると検出した場合に先行車がなく景色のみを撮像していると認識し、
クラスタが1つでかつ移動していないと検出した場合に自車と相対速度の小さい先行車が走行していると認識し、
新しいクラスタは出現せず従来のクラスタを検出できなくなった場合に先行車が視界から消失する、あるいは走行路の混雑度が軽減したと認識し、
多数のクラスタを検出した場合に走行路の混雑度が上昇し多数の先行車があると認識し、
新しいクラスタが出現し、従来のクラスタが遠方に向かって移動していると検出した場合に自車が前方車群に接近していると認識し、あるいは
新しいクラスタが出現し、従来のクラスタが移動していないと検出した場合に先行車と自車両の間に割り込み車両が出現したと認識するものとした。
【0016】
請求項17記載の発明は、前記環境変化検出手段にレーザレーダが用いられ、前記レーザレーダの検出結果と画像による環境認識の結果を照合して前記環境認識装置の作動状況を診断するものとした。
請求項18記載の発明は、前記作動状況の診断は、前記レーザレーダが障害物を検出した場合、前記情報空間上にデータクラスタが存在しないとき、あるいはデータクラスタの平面的分布に時間的な連続性変化が見受けられないとき、またはデータクラスタの分布が空間的に相関関係をもたなくなたとき前記環境認識装置が故障と判断するものとした。
【0017】
【作用】
請求項1記載の発明では、環境変化検知手段は環境変化を検知し、変換関数変更手段は変換関数を更新するようにしたので、動く環境も認識の対象とすることができる。時間毎に変換関数を求めて動く環境を認識するのと比べて、変換関数を求める演算量が大幅に減少するとともに、激しく変化する環境でも適切な変換関数を用いて画像認識することができる。
また変換関数を更新されない場合、位置情報の変換は同一条件で行なわれ、物理的意味付けによる認識が行なえるとともに、位置情報の時間的移動で高速移動体、低速移動体、固定体などの認識が可能となる。
【0018】
請求項2〜9記載の発明では、情報入力手段としての撮像手段が車両の走行方向を撮像し、環境変化検出手段はレーザレーダ、照度センサ、ナビゲーション装置、インフラ受信装置、走行速度センサ、アクセル開度センサ、あるいはハンドル操舵角センサなどを用いて画像に変化をもたらす状況を検出するから、先行車がない走行路あるいは先行車と一定距離を保って走行している場合など環境に変化がないときは、変換関数を更新せず、従来の変換関数を流用することによって、その走行路状況が保っているかどうかの認識ができるとともに、割り込み車両の発生や曲がり道などで画像に大きな変化がある時に画像に対応した変換関数を用いて走行路状況を認識する。
その際画像情報を主成分分析し、正規化主成分特徴量の表示式を変換関数とする。内部変数情報は正規化主成分特徴量を軸とした情報空間を使用する。これによって、全画面の明度情報を利用することになり、照明の変化等の影響が排除されロバスト性の高い環境認識ができる。
【0019】
請求項10〜16記載の発明では、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行なうから、走行環境の分析に有効で、走行路の混雑度や割り込み車両の発生、先行車への接近状態といった状況を高精度に検出できる。
【0020】
請求項17記載の発明では、前記環境変化検出手段にレーザレーダを用い、レーザレーダの検出結果と画像による環境認識の結果を照合して前記環境認識装置の作動状況を診断するから、装置の故障による誤認識が防止され車載装置として必要な信頼性が向上する。
請求項18記載の発明では、作動状況の診断は、レーザレーダの検出結果とデータクラスタに対する分析の結果との照合によって行なうから、走行路状況を認識する際のクラスタ分析の結果を利用でき診断のための処理が不要で、演算負担にならない効果が得られる。
【0021】
【発明の実施の形態】
以下、本発明を自動車の走行環境認識に適用する実施例について説明する。
まず主成分分析による走行環境認識について説明する。
主成分分析とは、情報を総合的に分析し、その特徴を表わす主成分を見つけ、情報を主成分軸に変換して特徴を読み取る処理である。
【0022】
自動車の走行環境認識には走行環境の明度情報が用いられるから、まずカメラにより走行路を撮像する。撮像によって得られた明度情報を画像位置と対応させて撮像空間を作る。これによって二次元の平面位置に明度情報が加えられ三次元の画像情報が得られる。画像情報は画像位置に応じて幾つかのデータ集団に分け、説明変量とする。
【0023】
説明変量からの情報を抽出するため線形の変数情報が与えられる。そしてこの変数情報から情報を損失最少に抽出するため、固有値方程式を用い、固有値方程式から、例えば値の大きい2つの固有値を取り出す。固有値は変数情報から取り出せる情報量の多さを表わしているので、2つの値の大きい固有値からは変数情報として最も多くの情報を取り出せる第1正規化主成分特徴量、第2正規化主成分特徴量が作られる。
第1主成分特徴量と第2主成分特徴量は空間的に直交し1つの情報空間を構成し、その表示式は撮像空間の情報を情報空間に変換する際の変換関数となる。
【0024】
撮像空間の明度情報を正規化主成分特徴量で張られた情報空間に写像すれば、その情報特性に応じてデータグループとしてのクラスタが形成される。例えば周りの風景に関しての写像後のデータクラスタと背景の中に割り込んできた移動体や撮像面上の情報が大きく変化しない物体のデータクラスタ分布が異なる。よって、情報空間内のデータクラスタの時間的変化で背景と移動体、相対的に移動の少ない物体を認識することができる。
【0025】
走行路画像は車両の走行にしたがって変化するが、先行車を追従して走行するあるいは先行車のない走行路を直進する場合、画像の変化が緩やかなので、このとき情報空間を固定すれば、情報空間での情報の時間的変化で走行路状況が続いているかどうかを認識できる。走行路画像に例えば先行車等が現われる場合、情報空間を新たに求めれば、画像の変化が大きいので、情報空間が異なってもデータの出現や分解で先行車の出現や消失を検知できる。
【0026】
図1は装置の構成を示すブロック図である。撮像手段としてのCCDカメラ1は、車両の走行環境を撮像するように図示しない車両の前方に取り付けられている。その画像信号は環境認識装置9に出力され、ここで主成分分析による画像認識が行なわれる。環境認識装置9には車両の走行制御を行なうアダプティブクルーズコントロール装置10が接続されている。
【0027】
アダプティブクルーズコントロール装置10は、車両の走行を定速に制御するもので、ドライバーの操作によって設定される。走行目標速度は設定時の車両走行速度となるが、環境認識装置9での認識結果によって定速走行が出来なくなる状態では制御特性を変更し走行路状況に適合した走行制御を行う。
即ち先行車が検出される場合、走行速度を目標速度以下に低下させ車間距離管理を目標とする制御特性に変化する。車間距離の管理は走行目標速度に対応した車間距離を制御目標としてもよい。この場合車両が追尾走行となる。アダプティブクルーズコントロール装置10には警報機能が備えられ、車速を減速制御させても先行車に近づく場合警報をし、ドライバ−にブレ−キの使用を促す。
【0028】
環境認識装置9にはさらに走行路状況検出装置20が接続され、その検出値に基づいて情報空間を変更するタイミングを求めている。
レーザレーダ2はCCDカメラ1と同じように前方に向けて車両に取付られ、測定値は画像認識装置9に出力されるようになっている。障害物を検出していないことを示すため例えば200mなどの遠方距離を出力するようになっている。
【0029】
ナビゲーション装置3は自車両の位置を検出しデータ処理装置30によって地図情報から走行路情報を環境認識装置9に出力する。
インフラ受信機4は走行路情報の放送を受信して走行路情報を環境認識装置9に出力する。
照度センサ5は走行環境の照度を検出し環境認識装置9に出力する。
アクセル開度センサ6と車速センサ7およびハンドル操舵角センサ8が車両の走行状態を検出し検出値を環境認識装置9に出力するようになっている。環境認識装置9はそれらの検出結果で画像変化があると認定した場合変換関数を新たに求める主成分演算を行なう。
【0030】
図2は環境認識装置9の詳細を示す。環境変化認識部91は走行路状況検出装置20の検出信号あるいは信号の時間的変化から車両の走行状況を検出する。例えばレーザレーダ2の検出値から障害物があるかどうかを判断する。また障害物がある場合に時間的変化があるかどうかによってレーザレーダ2が追尾検出中かどうかを判断する。追尾検出中の場合には画像変化がないので走行路状況が変化していないと判断する。
【0031】
トリガ信号発生部92は環境変化認識部の認識の結果によって情報空間を求めるタイミングをトリガ信号によって主成分分析部93に伝える。トリガ信号の発生は画像に変化があり情報空間を求める必要のあるとき行なわれるので、例えば以下の状況が検出された場合従来の情報空間を流用できるため、トリガ信号が出力されない。
【0032】
(1)、レーザレーダ2の検出値によって障害物が検出されないあるいは障害物を追尾している場合、
(2)、ナビゲーション情報やインフラ情報から前方道路曲率の急激な変化や構築物が出現しない場合、
【0033】
(3)、照度センサ5から照度値が急激に変化しない場合、
(4)、アクセル開度センサ6よりドライバのアクセル操作の分散値が数学的に有意に変化しない場合、
(5)、車速センサ7より走行速度の平均値が数学的意味ある変化がない場合、
(6)、ハンドルが大きく操舵されない場合、
これにより、画像に変化がないあるいは緩やに変化した場合に従来の情報空間を利用し、画像に大きな変化が現われるときのみ情報空間を再構築することになる。
【0034】
主成分分析部93はCCDカメラ1からカメラ画像信号を入力するとともに、トリガ信号が出力されているかどうかをチェックする。トリガ信号がない場合、画像に大きな変化がないものとして従来の情報空間を利用し、トリガ信号がある場合は、画像の明度情報から主成分分析して固有値計算によって新しい情報空間を求める。撮像空間の画像情報を変換関数で情報空間に変換する。
【0035】
クラスタ判断部94はクラスタリング処理で情報空間での情報分布を分類してクラスタを作る。そしてクラスタの出現や分解あるいは位置の変動から走行環境を認識する。
制御信号作成部は画像認識の結果によって、アダプティブクルーズコントロール装置10の制御特性を変更させる制御信号を出力する。これによってアダプティブクルーズコントロール機能が高められる。
【0036】
次に図3のフローチャートに従って主成分分析部における主成分分析の流れを説明する。
まず、ステップ201において、CCDカメラ1から撮像画像を入力する。撮像画像は例えば横方向p画素、縦方向n画素で構成され、各画素に番号を与えて縦横位置を特定できるようにする。画素信号はメモリに格納される。
【0037】
ステップ202においては、画素信号を画素位置と対応させて3次元の撮像空間Sを作る。
図4は撮像空間の構成を示す平面図である。ここで画素信号をXijとし、iは画像の縦方向の位置を示し、jは横方向の位置を示している。画素色が白ならばXij=0、黒ならばXij=1とする。グレーならば1から0の間の値とする。
【0038】
ステップ203においては、トリガ信号発生部92からトリガ信号があったか否かをチェックする。トリガ信号があった場合、情報空間と変換関数を新たに求める必要があるとしてステップ204へ進み、トリガ信号が無かった場合、従来の情報空間と変換関数をそのまま流用できるのでステップ206へ進む。
【0039】
ステップ204においては、まず図4に示す撮像空間内の画素信号を横方向に画素毎に分割してp個のデータ集団(画素列)を作る。データ集団内にはn個の画素信号データが含まれる。
各データ集団iに対し画素信号の分散、共分散を演算するよう式(1)に基づいてSii ’を演算する。
【数1】
ここで、i、i’はデータ集団の位置を示し、それぞれ独立に選ばれることを示している。すなわちi’を1からpまでの各データ集団に対して式(1)を適用して演算を行なう。
【0040】
各Sii ’の演算値とデータ集団内の画素信号数nを式(2)に代入して分散、共分散Vii ’を演算する。ここでiとi’は同じ数字ならその画素列の分散値で、異なる数字ならそれぞれの画素列の共分散の演算値となる。
【数2】
【0041】
演算された各分散および共分散の演算値を式(3)の固有値方程式に代入し、固有値方程式を解くと、p個の固有値λが得られる。
【数3】
p個の固有値λを、
λ1≧λ2≧…≧λk≧…≧λpとすれば、
{λk}をそれを求めたVii ’の固有値に対応する。ここでk=1〜pである。
【0042】
このとき式(4)から、
【数4】
lki(l11、l12、…、l1p、l21、l22、…、l2p、lp1、lp2、…、lpp)を求めると、n組の固有ベクトルが得られる。これによって、n個の正規化主成分特徴量が得られるが、寄与率が70〜80%で画像の特徴認識ができるので、例えば式(5)に示すような第1正規化主成分特徴量と第2正規化主成分特徴量が用いられる。
【数5】
ここで*は任意行の画素信号を表示する。
【0043】
ステップ205では、第1正規化主成分特徴量と第2正規化主成分特徴量を軸とした新たな情報空間を定義する。第1正規化主成分特徴量と第2正規化主成分特徴量の線形表示式は変換関数となる。
ここで前画像も同じ2つの正規化主成分特徴量であるならば、情報空間は同じで、変換関数は同じ構造としパラメータが変更されることになる。
【0044】
ステップ206では、撮像空間上の情報信号Xijを行ごとに式(5)に代入して第1正規化主成分特徴量Z1、第2正規化主成分特徴量Z2を演算し、撮像空間での撮像情報を情報空間へ変換する。図5は変換前後のデータの分布状態を示す。撮像空間Sでは物体a、bの明度情報as、bsとその平面位置情報(X、Y)が関数Fによって第1正規化主成分特徴量と第2正規化主成分特徴量で構成された情報空間Mに変換すると、その特徴に応じて情報空間Mでは異なる分布となる。
【0045】
第1正規化主成分特徴量および第2正規化主成分特徴量の物理的意味付けによって認識できる。物理的意味付けができない場合、車両が走行にしたがったクラスタの移動や分解などで先行車の有無や割り込み車両の発生、走行路の混雑度を認識することができる。物理的意味付けは分析者の機知によって行なわれるが、クラスタの移動や分解が客観的に検知できる。
【0046】
ステップ207では、情報空間上のデータに対し、データクラスタリング解析を行なう。データクラスタリング解析は従来と同じように行なう。例えばデータ間の距離によって幾つかのデータグルプに分類することができる。
ステップ208においては、データクラスタの時間的変化を分析して環境認識を行なう。
【0047】
次に図6、図7のフローチャートにしたがってクラスタ判断部94におけるクラスタ分析および制御信号作成部95での制御信号の作成を説明する
まずステップ301において、クラスタがあるか否かを判定する。ない場合、ステップ302でCCDカメラを含めた撮像部が故障と判定する。このとき制御信号作成部95は先行車検出不能の信号をアダプティブクルーズコントロール装置10に出力し車間距離管理不能の警報を出させてドライバーに注意を促す。
【0048】
そしてクラスタがあると判定された場合は、ステップ303へ進み、ここではクラスタの数について判定を行なう。クラスタが2つ以上ある場合ステップ304へ進む。ステップ304では情報空間を構成する正規化主成分特徴量の原点近傍にクラスタが存在するかどうかを判定する。
原点の近傍にクラスタが存在するならば、画角が異常に大きい物体が検出されるので、ステップ305において超接近物体を検出したものと判断する。このとき制御信号作成部95は注意を促す警報や減速制御を行なうよう制御信号をアダプティブクルーズコントロール装置10に出力する。
【0049】
そしてステップ304で原点近傍にクラスタがないと判定されればステップ306において新しいクラスタが出現したかどうかの判定を行なう。新しいクラスタが出現していない、かつステップ307でクラスタが消失したと判定されれば、前方車両がCCDカメラ1の視界からなくなった、あるいは走行路の混雑度が軽減したと認識する。このとき制御信号作成部95は車両が減速中なら車速を目標速度まで戻すよう制御信号をアダプティブクルーズコントロール装置10に出力する。
ステップ307で、クラスタが消失していないと判定されれば走行状況の認識が不能としてステップ309において次の画像が入力されるまで判断を保留する。
【0050】
そしてステップ303で1つのクラスタが存在すると判定されれば、ステップ310でクラスタが移動しているかどうかを判定する。クラスタが移動いているならば、ステップ313で前方に追従車がなく、景色のみの画像と判断する。
ステップ310でクラスタが移動してしないと判定されればステップ312で相対速度が極めて小さい近接物体を一定距離で追従していると判断する。
制御信号作成部95は画像が景色のみの場合車両を目標速度で走行できるよう制御信号を出力する。先行車を追従しているならば制御特性を維持する制御信号を出力する。
【0051】
ステップ306で新しいクラスタが出現したと判定されれば、ステップ314へ進む。ステップ314でクラスタが多数出現したと判定されればステップ315において前方の走行路の混雑度が上昇し多数の車両が検出されたと判定する。このとき制御信号作成部95は車両が減速中ならそれを維持し、目標速度で走行するなら減速信号をアダプティブクルーズコントロール装置10に出力する。
【0052】
そしてステップ314での判定で多数のクラスタが出現していないならば、ステップ316においてクラスタが遠方に向かって移動しているか否かを判定する。移動する場合ステップ318で自車が早く前方車群に接近中と判断する。クラスタが移動していないならば先行車と自車の間に車両割り込みが発生したと判断する。
制御信号作成部95は何れの場合も車両を減速するよう制御信号をアダプティブクルーズコントロール装置10に出力する。
【0053】
次に、主成分分析による画像認識の結果とレーザレーダの検出結果を照合してCCDカメラ1と環境認識装置9からなる画像認識システムの作動状態を診断することを説明する。
この診断は図1に示すようにフェール監視装置11を環境認識装置に接続して使用される。
フェール監視装置11が画像認識システムが故障したと判断した場合、フェール信号を出しアダプティブクルーズコントロール機能を停止させ、車両を安全な操作に切り替える。
【0054】
フェール監視装置11はレーザレーダ2の検出値と主成分分析による画像認識の結果を入力して診断を行なう。
診断の原理は、レーザレーダ2で障害物が検出されたにも拘わらず、情報空間内でクラスタが長期間存在しないとき、検出結果の相反でCCDカメラ1からの信号に異常があるとし、画像認識システムが故障と判断できる。これは時間的にある対象をある範囲の中に捉らえているならば、必ず情報空間内にデータのクラスタが存在するからである。
【0055】
また、データクラスタが時間的、もしくは同一時間内でも情報空間内で分散して、ばらつく場合もCCDカメラのトラブルか、霧などによる影響が考えられる。いずれにしても、正確に走行環境を認識できないため、フェール信号を発生する。
【0056】
次に、フェール監視装置11における診断の流れを説明する。
まずステップ401において、環境認識装置に入力されたレーザレーダの検出値からレーザレーダが障害物を検出したかを判定する。障害物が検出された場合、ステップ402においてクラスタ分析の結果を入力しクラスタが存在するならば、環境認識装置は良好として診断を終了する。
【0057】
レーザレーダが障害物を検出しているにも拘わらずステップ402でクラスタが存在しないという検出結果となればステップ404でCCDカメラを含めた撮像部が故障すると判断する。
そしてステップ401でレーザレーダが障害物を検出していない場合ステップ403へ進む。ここでクラスタの時間的変化があるかどうかを判定する。変化がなかった場合ステップ404で撮像部が故障と判断する。クラスタの時間的変化がある場合、ステップ405でクラスタ分布がランダムかどうかの判定を行なって診断を終了する。
ステップ405で判定でクラスタ分布がランダムであるとなれば406において撮像部故障もしくは視界不良と判断する。
【0058】
本実施例は以上のように構成され、主成分分析を用いて走行路画像を認識するから、走行路状況の変化を誤検出することなく検知できる。例えば前方車両追従時に側方から車両が自車車線内に進入してきた場合、その変化を情報空間におけるデータクラスタの変化として素早く捉らえられる。これによってアダプティブクルーズコントロール装置は迅速に制御特性を変えることができ、走行路状況に適合した走行制御が行なえる。
【0059】
また刻々の情報空間を求める演算が不要で、演算負担が軽減され、線形結合のみの処理で空間の変換ができる。リアルタイムで走行路状況を認識することができるとともに走行環境を選ばない効果が得られる。
本実施例では、アダプティブクルーズコントロール装置を制御対象としたが、これに限らず、アダプティブクルーズコントロール装置が装備されていない車両ではエンジンブレーキを制御の対象としてもよい。このとき、アダプティブクルーズコントロール装置による減速制御をエンジンブレーキで行なう。また車両が既にエンジンブレーキ中の場合、エンジンブレーキをより利くように制御する。
【0060】
また、画像認識システムの作動状態をクラスタの分布と撮像空間における関係により、診断を行なうので、画像認識のデータをそのまま利用し、演算負担にならずに装置の作動状況を判別できる。
CCDカメラ1は撮像手段を構成している。
走行路状況検出装置20、環境変化認識部91、トリガ信号発生部92は環境変化検出手段を構成している。
主成分分析部93、クラスタ判断部94は環境認識手段を構成している。
ステップ204、ステップ205は変換関数変更手段を構成している。
【0061】
【発明の効果】
請求項1記載の発明では、位置情報を内部変数情報に変換して環境認識するとともに、環境変化検出手段が環境変化を検出し、その出力を変換関数を求めるタイミングとするから、環境に変化がないあるいはないと認められるとき、従来の変換関数を流用し、環境変化を認識するときの精度が維持されるとともに変換関数を求める演算が少なくなり環境認識の演算負担が軽減される。
また環境に変化がないとき変換関数を求めないから位置情報の変換は同一条件で行なわれ、物理的意味付けによる認識が行なえるとともに、内部変数情報上で位置情報の位置変化により高速移動体、低速移動体、固定体などの認識が可能となる。
【0062】
請求項2〜9記載の発明では、撮像手段は車両の走行方向を撮像し、環境変化検出手段は画像に変化をもたらす状況を検出し、画像に変化が少ない場合正規化主成分特徴量を新たに求めず従来の情報空間を利用する。画像に変化があることが検出された場合のみ正規化主成分特徴量を求めるから、情報を総合的に認識でき、画像情報を正確に抽出でき、車載装置に求められる高速性や高信頼性が得られる。
【0063】
請求項10〜16記載の発明では、情報空間に変換された画像情報の分布により分類されたデータクラスタの分析によって行なうから、走行環境の分析に有効で、走行路の混雑度や割り込み車両の発生、先行車への接近状態といった状況を高精度に検出できる。
【0064】
請求項17記載の発明では、前記環境変化検出手段にレーザレーダを用い、レーザレーダの検出結果と画像による環境認識の結果を照合して前記環境認識装置の作動状況を診断するから、装置の故障による誤認識が防止され車載装置として求められる信頼性が向上する。
請求項18記載の発明では、作動状況の診断は、レーザレーダのデータクラスタの照合によって行なうから、走行路状況を認識する際のクラスタ分析の結果を利用でき診断のための処理が不要で、演算負担にならない効果が得られる。
【図面の簡単な説明】
【図1】実施例の構成を示すブロック図である。
【図2】環境認識装置の詳細を示すブロック図である。
【図3】環境認識するためのフローチャートである
【図4】画像空間の構成を示す図である。
【図5】画像情報が撮像空間と情報空間での表示の差異を示す図である。
【図6】クラスタ分析の流れを示すフローチャートである。
【図7】クラスタ分析の流れを示すフローチャートである。
【図8】装置診断のためのフローチャートである。
【図9】従来例を示すブロック図である。
【図10】差分演算値と輪郭の関係を示す図である。
【符号の説明】
1 CCDカメラ
2 レーザレーダ
3 ナビゲーション装置
4 インフラ受信機
5 照度センサ
6 アクセル開度センサ
7 車速センサ
8 ハンドル操舵角センサ
9 環境認識装置
10 変速装置コントローラ
11 フェール監視装置
30 データ処理装置
52 画像入力装置
53 領域分割装置
54 重心計算装置
55 移動量推定装置
91 環境変化認識部
92 トリガ信号発生部
93 主成分分析部
94 クラスタ判断部
95 制御信号作成部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an environment recognition device that recognizes a running environment of a vehicle by multivariate analysis.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in driving a vehicle, it has been desired to automatically detect an obstacle that hinders traveling regardless of a person. In particular, if the detection of moving objects such as traveling vehicles is automatically performed, functions such as warning of excessive approach, automatic braking, and tracking can be realized, improving driving safety and reducing driving burden. can do.
[0003]
As a moving object detecting device, there is one described in, for example, JP-A-3-260813. As shown in FIG. 9, the configuration is such that a
[0004]
In Japanese Patent Application Laid-Open No. 64-26913, an edge is detected by performing difference processing of brightness information in image pickup information of a camera, an edge is recognized as a contour of an object, and a movement amount is calculated based on the edge information. . Furthermore, it detects changes in the center of gravity and area of a closed section surrounded by regions with different temporal contours and brightness, and compares them with changes in the center of gravity and changes in area corresponding to changes in distance over time. The tracking of an object is performed by confirming that the object is the same. Thereby, the moving speed can be obtained from the tracking of the moving object and the change of the moving object.
[0005]
However, the moving object detection disclosed in both of the above publications focuses on extracting a difference in brightness information and a closed section area as a premise. In the difference processing, as shown in FIG. 10, while calculating the difference in the brightness value while scanning the image in the horizontal direction, the position where the difference value is obtained is specified. Since the difference value is detected at a place where the difference in brightness is large, a contour is detected by scanning one screen and connecting the detection positions of each difference value with a line under a condition that the difference value is within a certain distance.
[0006]
The moving object has outline information with a large difference in brightness and internal information with a small difference in brightness. If the outline can be clearly extracted, the processing speed is improved by reducing the amount of information without handling the internal information. However, the lighting conditions surrounding the vehicle change every moment, and it is rare that the contour can be completely and clearly extracted due to the influence of disturbance light or the like. Therefore, image recognition using only contours is not suitable for detecting moving objects because of its small amount of information and poor response to environmental changes. It is hard.
[0007]
In addition, extracting a closed section directly from brightness information is susceptible to shadows and disturbance light, and the brightness changed by the disturbance light directly affects changes in the center of gravity and area. There was a problem of low recognition logic.
[0008]
In addition, there are detection methods in which internal information is added to contour information, such as template matching and texture matching. However, there is a problem that processing for preparing processing time and information on a template in advance is required.
[0009]
Against this background, in recent years, as a derivative of the technology for compressing image information, the imaging information of a camera is regarded as a distribution of brightness data, and a principal component analysis, which is one of multivariate analyses, is performed. A method has been proposed in which an image is recognized by mapping onto an information space spanned by feature amounts and analyzing the behavior of data in the information space.
[0010]
In the information space composed of the normalized principal component features, for example, the data distribution of the surrounding scenery after mapping and the data distribution of the following vehicle where the information does not change significantly on the moving object or the imaging surface interrupted in the background Are different. Therefore, a background, a moving object, an object that moves relatively little, and the like can be detected by a change in a data cluster in a space due to the normalized main component feature amount after conversion. In such a detection method, information of all images is processed, and a screen that cannot be dealt with by the above-described conventional processing such as a change in illumination can be processed.
[0011]
[Problems to be solved by the invention]
However, the image recognition based on the multivariate analysis as described above is mainly used for still images, and the following problems arise when it is used for the recognition of the driving environment of a car.
(1) If the background is stationary, it is easy to separate the converted data cluster corresponding to the background and the converted data cluster of a moving object having a new motion mixed into the background. In such a case, since the background changes as the vehicle travels, the information space based on the normalized principal component feature is not uniquely determined temporally, and therefore, its conversion function cannot be fixed.
[0012]
(2) In order to solve the above problem, the information space and the conversion function may be obtained for each image. However, the amount of calculation increases and it takes too much time. Disappears.
(3) Also, if the information space and the conversion function are different due to a change in the image, the physical meaning of the normalized principal component changes depending on the processing result, so that the meaning of the data cluster after the conversion and the It is difficult to determine a significant difference between data clusters.
In view of the above problems, the present invention obtains the information space and the conversion function only when it is recognized that there is a change in the image, and otherwise uses the conventional information space and the conversion function, and does not impair the detection accuracy and the amount of calculation. It is an object of the present invention to provide an environment recognition device in which the number is reduced.
[0013]
[Means for Solving the Problems]
Therefore, the invention according to
Internal variable information applied to environment recognition,
A conversion function that analytically converts the position information into the internal variable information,
An environment recognition device having environment recognition means for converting the position information into the internal variable information using the conversion function and performing environment recognition.
Conversion function changing means;
Providing environmental change detection means,
The environment change detecting means detects that there is a change in the environment, and the conversion function changing means changes a conversion time period, a parameter, or a structure of the conversion function.
[0014]
Claims 2-9According to the invention described above, the environment recognition device is used for recognizing a traveling environment of a vehicle, the position information input unit is an imaging unit that captures an image of a traveling direction of the vehicle, and the conversion function is a normalized principal component feature amount. A conversion function, the internal variable information is an information space configured with the normalized principal component feature amount as an axis,
The environment change detecting means includes a laser radar, an illuminance sensor, and a navigation device.OrIn a configuration including any one or a combination of an infrastructure receiving device, a traveling speed sensor, an accelerator opening sensor, and a steering angle sensor,
No obstacle is detected by the laser radar,
Laser radar tracks the movement of obstacles in time,
Illuminance does not change rapidly,
No change in the road ahead is detected from the information of the navigation device and the infrastructure receiving device,
The average of the running speed does not change mathematically significantly,
The variance of the accelerator operation does not change mathematically significantly,
Steering wheel does not steer greatly
In either case, it is assumed that there is no change in the environmentThe environment recognizing means uses a conventional conversion function to convert image information into an information space spanned by normalized principal component features.I was foolish.
If the environment changes,The conversion function changing means performs principal component analysis on the image information, finds a new normalized principal component feature, updates the conversion function and the information space, and the environment recognition means uses the updated conversion function and information space.
[0015]
When a cluster is detected in the vicinity of the origin of the normalized principal component axis constituting the information space with a plurality of clusters, it is recognized that the vehicle has a super approaching object,
If it detects that there is only one cluster and it is moving, it recognizes that there is no preceding vehicle and only the scenery is imaged,
When it is detected that the number of clusters is one and the vehicle is not moving, it recognizes that the preceding vehicle having a lower relative speed to the own vehicle is running,
If the new cluster does not appear and the conventional cluster can no longer be detected, it recognizes that the preceding vehicle has disappeared from view or that the congestion degree of the traveling road has been reduced,
When a large number of clusters are detected, the degree of congestion on the road increases, and it is recognized that there are many preceding vehicles,
When a new cluster appears and the conventional cluster detects that it is moving away, it recognizes that the vehicle is approaching the group of vehicles in front,Or
When a new cluster appears and it is detected that the conventional cluster has not moved, it is recognized that an interrupted vehicle has appeared between the preceding vehicle and the host vehicle.
[0016]
Claim 17In the described invention, a laser radar is used for the environment change detecting means, and the operation result of the environment recognition device is diagnosed by collating a detection result of the laser radar with a result of environment recognition by an image.
Claim 18According to the described invention, the diagnosis of the operating condition is performed when the laser radar detects an obstacle, when no data cluster exists on the information space, or when a temporal continuity change occurs in a planar distribution of the data cluster. When no data is found or when the distribution of the data clusters is no longer spatially correlated, the environment recognition device determines that a failure has occurred.
[0017]
[Action]
According to the first aspect of the present invention, the environment change detecting means detects the environmental change, and the conversion function changing means updates the conversion function, so that a moving environment can be recognized. Compared with recognizing a moving environment by obtaining a conversion function every time, the amount of calculation for obtaining the conversion function is greatly reduced, and image recognition can be performed using an appropriate conversion function even in an environment that changes drastically.
If the conversion function is not updated, the conversion of the position information is performed under the same conditions, and recognition based on physical meaning can be performed. In addition, recognition of a high-speed moving body, a low-speed moving body, a fixed body, and the like can be performed by temporally moving the position information. Becomes possible.
[0018]
Claims 2-9In the described invention, the imaging means as the information input means captures an image of the traveling direction of the vehicle, and the environment change detecting means includes a laser radar, an illuminance sensor, a navigation device, an infrastructure receiving device, a traveling speed sensor, an accelerator opening sensor,OrWhen a situation that causes a change in the image is detected by using a steering angle sensor or the like, the vehicle is traveling on a traveling road with no preceding vehicle or at a fixed distance from the preceding vehicleIf there is no change in the environmentBy using the conventional conversion function instead of updating the conversion function, it is possible to recognize whether or not the traveling road condition is maintained, and to use the image when there is a large change in the image due to the occurrence of an interrupted vehicle or a curved road. Is recognized using the conversion function corresponding to.
At this time, the image information is subjected to principal component analysis, and the display formula of the normalized principal component feature amount is set as a conversion function. The internal variable information uses an information space centered on the normalized principal component feature amount. As a result, the brightness information of the entire screen is used, and the influence of a change in lighting or the like is eliminated, and a highly robust environment can be recognized.
[0019]
[0020]
Claim 17In the invention described above, a laser radar is used for the environment change detecting means, and the operation result of the environment recognition device is diagnosed by collating the detection result of the laser radar with the result of environment recognition by an image. And reliability required as an on-vehicle device is improved.
Claim 18In the described invention, the diagnosis of the operating condition is performed by comparing the detection result of the laser radar with the result of the analysis on the data cluster. Is unnecessary, and an effect of not burdening the operation can be obtained.
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment in which the present invention is applied to recognition of a driving environment of an automobile will be described.
First, the driving environment recognition by the principal component analysis will be described.
Principal component analysis is a process of comprehensively analyzing information, finding a principal component representing the feature, converting the information into a principal component axis, and reading the feature.
[0022]
Since the brightness information of the driving environment is used for the recognition of the driving environment of the automobile, the driving path is first imaged by a camera. An imaging space is created by associating the brightness information obtained by the imaging with the image position. Thereby, brightness information is added to the two-dimensional plane position, and three-dimensional image information is obtained. The image information is divided into several data groups according to the image position, and is used as an explanatory variable.
[0023]
Linear variable information is provided to extract information from the explanatory variables. Then, in order to extract information from the variable information to minimize loss, an eigenvalue equation is used, and two eigenvalues having large values are extracted from the eigenvalue equation. Since the eigenvalues represent a large amount of information that can be extracted from the variable information, the first normalized principal component feature and the second normalized principal feature from which the largest amount of information can be extracted as variable information from the two eigenvalues having large values. The quantity is made.
The first principal component feature and the second principal component feature are spatially orthogonal to each other to form one information space, and the display formula thereof is a conversion function for converting information in the imaging space into the information space.
[0024]
If the brightness information of the imaging space is mapped to the information space spanned by the normalized principal component feature amounts, a cluster as a data group is formed according to the information characteristics. For example, the data cluster distribution after mapping of the surrounding scenery differs from the data cluster distribution of a moving object interrupted in the background or an object whose information on the imaging surface does not change significantly. Therefore, it is possible to recognize the background and the moving object, and the object that moves relatively little by the temporal change of the data cluster in the information space.
[0025]
The traveling road image changes as the vehicle travels.However, if the vehicle follows the preceding vehicle or travels straight on a traveling road with no preceding vehicle, the image changes slowly, so if the information space is fixed at this time, the information It is possible to recognize whether or not the traveling road condition continues due to the temporal change of the information in the space. For example, when a preceding vehicle or the like appears in the traveling road image, if the information space is newly obtained, the image changes greatly. Therefore, even if the information space is different, the appearance or disappearance of the preceding vehicle can be detected by the appearance or decomposition of data.
[0026]
FIG. 1 is a block diagram showing the configuration of the apparatus. The
[0027]
The adaptive
That is, when the preceding vehicle is detected, the traveling speed is reduced to the target speed or less, and the control characteristic changes to the control characteristic for the inter-vehicle distance management. The control of the inter-vehicle distance may use the inter-vehicle distance corresponding to the traveling target speed as the control target. In this case, the vehicle performs the tracking operation. The adaptive
[0028]
The traveling road
The
[0029]
The navigation device 3 detects the position of the own vehicle, and outputs travel route information from the map information to the environment recognition device 9 by the
The infrastructure receiver 4 receives the broadcast of the travel route information and outputs the travel route information to the environment recognition device 9.
The
The accelerator opening sensor 6, the vehicle speed sensor 7, and the
[0030]
FIG. 2 shows details of the environment recognition device 9. The environment
[0031]
The trigger
[0032]
(1) When no obstacle is detected or the obstacle is tracked by the detection value of the
(2) If there is no rapid change in the curvature of the road ahead or no building appears from the navigation information or infrastructure information,
[0033]
(3) When the illuminance value does not change rapidly from the
(4) If the variance of the accelerator operation by the driver from the accelerator opening sensor 6 does not change mathematically significantly,
(5) When the average value of the traveling speed from the vehicle speed sensor 7 has no mathematically significant change,
(6) If the steering wheel is not steered significantly,
As a result, the conventional information space is used when the image does not change or changes slowly, and the information space is reconstructed only when a large change appears in the image.
[0034]
The principal
[0035]
The
The control signal generator outputs a control signal for changing the control characteristics of the adaptive
[0036]
Next, the flow of the principal component analysis in the principal component analysis unit will be described with reference to the flowchart of FIG.
First, in
[0037]
In
FIG. 4 is a plan view showing the configuration of the imaging space. Here, the pixel signal is XijHere, i indicates the vertical position of the image, and j indicates the horizontal position of the image. X if the pixel color is whiteij= 0, X for blackij= 1. If it is gray, a value between 1 and 0 is used.
[0038]
In
[0039]
In
S is calculated based on equation (1) to calculate the variance and covariance of the pixel signal for each data group i.ii 'Is calculated.
(Equation 1)
Here, i and i 'indicate the position of the data group, and indicate that they are independently selected. That is, the calculation is performed by applying the equation (1) to each data group from i 'to 1 to p.
[0040]
Each Sii 'And the number n of pixel signals in the data group are substituted into equation (2) to obtain the variance and covariance Vii 'Is calculated. Here, if i and i 'are the same numbers, they are the variance values of the pixel row. If i and i' are different numbers, they are the calculated values of the covariance of the respective pixel rows.
(Equation 2)
[0041]
By substituting the calculated values of the respective variances and covariances into the eigenvalue equation of equation (3) and solving the eigenvalue equation, p eigenvalues λ are obtained.
(Equation 3)
Let p eigenvalues λ be
λ1≧ λ2≧… ≧ λk≧… ≧ λpgiven that,
{ΛkV the V that sought itii 'Corresponding to the eigenvalue of. Here, k = 1 to p.
[0042]
At this time, from equation (4),
(Equation 4)
lki(L11, L12, ..., l1p, L21, L22, ..., l2p, Lp1, Lp2, ..., lpp) Yields n sets of eigenvectors. As a result, n normalized principal component features can be obtained. However, since the feature ratio of the image can be recognized at a contribution rate of 70 to 80%, the first normalized principal component feature as shown in Expression (5), for example, And the second normalized principal component feature amount.
(Equation 5)
Here, * indicates a pixel signal of an arbitrary row.
[0043]
In
Here, if the previous image also has the same two normalized principal component feature amounts, the information space is the same, the transformation function has the same structure, and the parameters are changed.
[0044]
In
[0045]
It can be recognized by the physical meaning of the first normalized principal component feature and the second normalized principal component feature. If the physical meaning cannot be given, the presence or absence of a preceding vehicle, the occurrence of an interrupted vehicle, and the degree of congestion of the traveling road can be recognized by the movement or disassembly of the cluster according to the traveling of the vehicle. Although the physical meaning is determined by the knowledge of the analyst, movement or decomposition of the cluster can be objectively detected.
[0046]
In
In
[0047]
Next, cluster analysis in the
First, in
[0048]
If it is determined that there is a cluster, the process proceeds to step 303, where the number of clusters is determined. If there are two or more clusters, go to step 304. In step 304, it is determined whether or not a cluster exists near the origin of the normalized principal component feature amount forming the information space.
If a cluster exists near the origin, an object having an abnormally large angle of view is detected. Therefore, it is determined in
[0049]
If it is determined in step 304 that there is no cluster near the origin, it is determined in
If it is determined in
[0050]
If it is determined in
If it is determined in
The
[0051]
If it is determined in
[0052]
Then, if a large number of clusters do not appear in the determination in
In any case, the
[0053]
Next, a description will be given of diagnosing the operation state of the image recognition system including the
This diagnosis is used by connecting the
If the
[0054]
The
The principle of the diagnosis is that, when an obstacle is detected by the
[0055]
Further, when the data clusters are temporally or dispersed in the information space even within the same time, the data clusters may fluctuate due to trouble of the CCD camera or fog. In any case, a failure signal is generated because the traveling environment cannot be recognized accurately.
[0056]
Next, the flow of diagnosis in the
First, in
[0057]
If it is determined in
If it is determined in
If it is determined in
[0058]
The present embodiment is configured as described above, and recognizes the travel road image using the principal component analysis. Therefore, it is possible to detect a change in the travel road condition without erroneous detection. For example, when the vehicle enters the lane of the host vehicle from the side when following the preceding vehicle, the change can be quickly grasped as a change of the data cluster in the information space. As a result, the adaptive cruise control device can quickly change the control characteristics, and can perform traveling control suitable for traveling road conditions.
[0059]
In addition, there is no need to perform an operation for obtaining an instantaneous information space, the operation load is reduced, and space conversion can be performed by processing using only linear combination. It is possible to recognize the traveling road condition in real time and to obtain the effect of selecting the traveling environment.
In the present embodiment, the adaptive cruise control device is controlled. However, the present invention is not limited to this. For a vehicle not equipped with the adaptive cruise control device, the engine brake may be controlled. At this time, the deceleration control by the adaptive cruise control device is performed by the engine brake. If the vehicle is already under engine braking, control is exercised to make the engine braking more effective.
[0060]
In addition, since the operation state of the image recognition system is diagnosed based on the relationship between the distribution of clusters and the imaging space, the image recognition data can be used as it is, and the operation state of the apparatus can be determined without burdening the calculation.
The
The travel road
The principal
[0061]
【The invention's effect】
According to the first aspect of the present invention, the position information is converted into the internal variable information to recognize the environment, and the environment change detecting means detects the environment change and sets its output as the timing for obtaining the conversion function. When it is recognized that there is no or no, the conventional conversion function is diverted, the accuracy in recognizing the environmental change is maintained, and the calculation for obtaining the conversion function is reduced, so that the calculation load of the environment recognition is reduced.
In addition, when the environment does not change, the conversion function is not obtained, so that the conversion of the position information is performed under the same condition, the recognition by the physical meaning can be performed, and the high-speed moving body, Recognition of low-speed moving objects, fixed objects, and the like becomes possible.
[0062]
Claims 2-9In the described invention, the imaging means captures an image of the traveling direction of the vehicle, and the environment change detection means detects a situation that causes a change in the image. Use information space. Since the normalized principal component feature is obtained only when a change is detected in the image, the information can be comprehensively recognized, the image information can be accurately extracted, and the high speed and high reliability required for the in-vehicle device are achieved. can get.
[0063]
[0064]
Claim 17In the invention described above, a laser radar is used for the environment change detection means, and the operation result of the environment recognition device is diagnosed by collating the detection result of the laser radar with the result of environment recognition by an image. Is prevented, and the reliability required as an in-vehicle device is improved.
Claim 18In the invention described in the above, since the operation status is diagnosed by collating the data cluster of the laser radar, the result of the cluster analysis when recognizing the traveling road condition can be used, and the process for the diagnosis is not required, and the calculation load is not required. The effect is obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an embodiment.
FIG. 2 is a block diagram illustrating details of an environment recognition device.
FIG. 3 is a flowchart for environment recognition.
FIG. 4 is a diagram showing a configuration of an image space.
FIG. 5 is a diagram illustrating a difference between display of image information in an imaging space and information space.
FIG. 6 is a flowchart showing a flow of cluster analysis.
FIG. 7 is a flowchart illustrating a flow of cluster analysis.
FIG. 8 is a flowchart for device diagnosis.
FIG. 9 is a block diagram showing a conventional example.
FIG. 10 is a diagram illustrating a relationship between a difference operation value and an outline.
[Explanation of symbols]
1 CCD camera
2 Laser radar
3 Navigation device
4 Infrastructure receiver
5 Ambient light sensor
6 Accelerator opening sensor
7 Vehicle speed sensor
8. Steering angle sensor
9 Environment recognition device
10 Transmission controller
11 Failure monitoring device
30 Data processing device
52 Image input device
53 area dividing device
54 Center of gravity calculator
55 Movement Estimation Device
91 Environmental Change Recognition Department
92 Trigger signal generator
93 Principal Component Analysis Department
94 Cluster judgment unit
95 Control signal generator
Claims (18)
環境認識のための内部変数情報と、
前記位置情報を前記内部変数情報に解析的に変換する変換関数と、
前記変換関数を用いて前記位置情報を前記内部変数情報に変換させて、環境認識を行なう環境認識手段とを有する環境認識装置において、
変換関数変更手段と、
環境変化検出手段とを設けて、
該環境変化検出手段は環境に変化があることを検知し、前記変換関数変更手段は前記変換関数の変換時期周期、もしくはパラメータ、構造を変更することを特徴とする環境認識装置。Information input means for inputting spatial or planar position information for environment recognition,
Internal variable information for environment recognition,
A conversion function that analytically converts the position information into the internal variable information,
An environment recognition device having environment recognition means for converting the position information into the internal variable information using the conversion function and performing environment recognition.
Conversion function changing means;
Providing environmental change detection means,
An environment recognition apparatus, wherein the environment change detecting means detects a change in the environment, and the conversion function changing means changes a conversion time period, a parameter, or a structure of the conversion function.
前記環境変化検出手段が環境に変化がないことを検出した場合には、前記環境認識手段は従来の変換関数を用い、画像情報を正規化主成分特徴量で張られた情報空間への変換を行なうことを特徴とする請求項1記載の環境認識装置。The environment recognition device is used for recognizing a traveling environment of a vehicle, the information input unit is an imaging unit that captures an image of a traveling direction of the vehicle, the conversion function is a conversion function to a normalized principal component feature amount, The internal variable information is an information space configured with the normalized principal component feature amount as an axis,
When the environment change detecting means detects that there is no change in the environment, the environment recognizing means uses a conventional conversion function to convert the image information into an information space spanned by normalized principal component features. environment recognition apparatus according to claim 1, wherein the I rows.
該レーザレーダで障害物が検出されないか、あるいは障害物の移動を時間的に追尾している場合は、環境に変化がないと判断することを特徴とする請求項1または2記載の環境認識装置。The environment change detection means includes a laser radar,
3. The environment recognition apparatus according to claim 1, wherein when the obstacle is not detected by the laser radar or the movement of the obstacle is temporally tracked, it is determined that there is no change in the environment. .
該照度センサによって検出された照度が急激に変化しない場合は、環境に変化がないと判断することを特徴とする請求項1〜3のいずれか1に記載の環境認識装置。The environment change detection means includes an illuminance sensor,
The environment recognition device according to any one of claims 1 to 3, wherein when the illuminance detected by the illuminance sensor does not change rapidly, it is determined that there is no change in the environment.
前記ナビゲーション装置またはインフラ受信装置の少なくともいずれかの情報から前方道路の曲率変化が生じていない場合は、環境に変化がないと判断することを特徴とする請求項1〜4のいずれか1に記載の環境認識装置。The environment change detecting means includes at least one of a navigation device and an infrastructure receiving device,
The method according to any one of claims 1 to 4, wherein it is determined that there is no change in the environment if the curvature of the road ahead does not change based on at least one of the information of the navigation device and the infrastructure receiving device. Environment recognition device.
該走行速度センサによって検出された走行速度の平均値が数学的に有意に変化しない場合は、環境に変化がないと判断することを特徴とする請求項1〜5のいずれか1に記載の環境認識装置。The environment according to any one of claims 1 to 5, wherein when the average value of the traveling speed detected by the traveling speed sensor does not mathematically change significantly, it is determined that there is no change in the environment. Recognition device.
該アクセル開度センサによって検出されたアクセル操作の分散値が数学的に有意に変化しない場合は、環境に変化がないと判断することを特徴とする請求項1〜6のいずれか1に記載の環境認識装置。The method according to any one of claims 1 to 6, wherein when the variance of the accelerator operation detected by the accelerator opening sensor does not mathematically change significantly, it is determined that there is no change in the environment. Environment recognition device.
ハンドルが大きく操舵されない場合は、環境に変化がないと判断することを特徴とする請求項1〜7のいずれか1に記載の環境認識装置。The environment recognition device according to any one of claims 1 to 7, wherein when the steering wheel is not largely steered, it is determined that there is no change in the environment.
クラスタが複数でかつ情報空間を構成する正規化主成分軸の原点近傍でクラスタを検出した場合に車両に超接近物体があったと認識することを特徴とする請求項2〜9のいずれか10. A vehicle according to claim 2, wherein when a plurality of clusters are detected near the origin of the normalized principal component axis constituting the information space, the vehicle is recognized as having a super approaching object. 1に記載の環境認識装置。2. The environment recognition device according to 1.
クラスタが1つでかつ移動していると検出した場合に先行車がなく景色のみの走行路と認識することを特徴とする請求項2〜10のいずれか1に記載の環境認識装置。The environment recognition apparatus according to any one of claims 2 to 10, wherein when it is detected that the number of clusters is one and the vehicle is moving, it is recognized that there is no preceding vehicle and there is only a scenery-only travel path.
クラスタが1つでかつ移動していないと検出した場合に自車と相対速度の小さい先行車が走行していると認識することを特徴とする請求項2〜11のいずれか1に記載の環境認識装置。The environment according to any one of claims 2 to 11, wherein when it is detected that the number of clusters is one and the vehicle does not move, the preceding vehicle having a lower relative speed to the own vehicle is recognized as traveling. Recognition device.
新しいクラスタは出現せず従来のクラスタが検出できなくなった場合に先行車が視界から消失する、あるいは走行路の混雑度が軽減したと認識することを特徴とする請求項2〜12のいずれか1に記載の環境認識装置。13. A vehicle according to claim 2, wherein when a new cluster does not appear and the conventional cluster cannot be detected, the preceding vehicle disappears from view or the degree of congestion on the traveling road is reduced. The environment recognition device according to 1.
多数のクラスタを検出した場合に走行路の混雑度が上昇し多数の先行車があると認識することを特徴とする請求項2〜13のいずれか1に記載の環境認識装置。The environment recognition device according to any one of claims 2 to 13, wherein when a large number of clusters are detected, the degree of congestion of the traveling road increases and there is a large number of preceding vehicles.
新しいクラスタが出現し、従来のクラスタが遠方に向かって移動していると検出した場合に自車が高速に前方車群に接近していると認識することを特徴とする請求項2〜14のいずれか1に記載の環境認識装置。15. The method according to claim 2, wherein when a new cluster appears and the conventional cluster is detected to be moving far away, it is recognized that the own vehicle is approaching the group of vehicles in front at high speed. An environment recognition device according to any one of the preceding claims.
新しいクラスタが出現し、従来のクラスタが移動していないと検出した場合に先行車と自車両の間に割り込み車両が出現したと認識することを特徴とする請求項2〜15のいずれか1に記載の環境認識装置。16. The method according to claim 2, wherein when a new cluster appears and the conventional cluster is detected as not moving, it recognizes that an interrupted vehicle has appeared between the preceding vehicle and the own vehicle. Environmental recognition device as described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34231797A JP3562278B2 (en) | 1997-11-07 | 1997-11-07 | Environment recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34231797A JP3562278B2 (en) | 1997-11-07 | 1997-11-07 | Environment recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11142168A JPH11142168A (en) | 1999-05-28 |
JP3562278B2 true JP3562278B2 (en) | 2004-09-08 |
Family
ID=18352798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP34231797A Expired - Fee Related JP3562278B2 (en) | 1997-11-07 | 1997-11-07 | Environment recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3562278B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4426436B2 (en) * | 2004-12-27 | 2010-03-03 | 株式会社日立製作所 | Vehicle detection device |
JP4608631B2 (en) | 2005-06-08 | 2011-01-12 | 国立大学法人名古屋大学 | Image processing device for vehicle, driving support device |
US7545956B2 (en) | 2005-08-12 | 2009-06-09 | Visteon Global Technologies, Inc. | Single camera system and method for range and lateral position measurement of a preceding vehicle |
ES2343296B1 (en) * | 2008-12-18 | 2011-06-06 | Fundacion Para La Promocion De La Innovacion, Investigacion Y Desarrollo Tecn.Ind.Automocion Galicia | ADAPTIVE CRUISE CONTROL SYSTEM PROVIDED FOR VISION ASSISTANCE. |
JP2010219865A (en) * | 2009-03-17 | 2010-09-30 | Toyota Infotechnology Center Co Ltd | Image processing system |
JP2011188134A (en) * | 2010-03-05 | 2011-09-22 | Panasonic Corp | Monitoring system, control method thereof, and monitoring device |
DE102012210608A1 (en) * | 2012-06-22 | 2013-12-24 | Robert Bosch Gmbh | Method and device for generating a control parameter for a distance assistance system of a vehicle |
JP6299182B2 (en) * | 2013-11-28 | 2018-03-28 | サクサ株式会社 | Life and death monitoring system |
US10267908B2 (en) * | 2015-10-21 | 2019-04-23 | Waymo Llc | Methods and systems for clearing sensor occlusions |
WO2018055449A2 (en) * | 2016-09-20 | 2018-03-29 | Innoviz Technologies Ltd. | Lidar systems and methods |
CN110171417B (en) * | 2019-05-24 | 2020-08-11 | 无锡佶达德光电子技术有限公司 | Constant-speed cruise device based on laser radar |
DE112019007519B4 (en) | 2019-07-30 | 2023-10-19 | Mitsubishi Electric Corporation | SENSOR DIAGNOSIS DEVICE AND SENSOR DIAGNOSIS PROGRAM |
-
1997
- 1997-11-07 JP JP34231797A patent/JP3562278B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11142168A (en) | 1999-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107609522B (en) | Information fusion vehicle detection system based on laser radar and machine vision | |
JP5297078B2 (en) | Method for detecting moving object in blind spot of vehicle, and blind spot detection device | |
KR101891460B1 (en) | Method and apparatus for detecting and assessing road reflections | |
US11308717B2 (en) | Object detection device and object detection method | |
US9975550B2 (en) | Movement trajectory predicting device and movement trajectory predicting method | |
CN111382768A (en) | Multi-sensor data fusion method and device | |
Aytekin et al. | Increasing driving safety with a multiple vehicle detection and tracking system using ongoing vehicle shadow information | |
JP2018516799A5 (en) | ||
JP3562278B2 (en) | Environment recognition device | |
CN104321665A (en) | Multi-surface model-based tracking | |
US20220301320A1 (en) | Controller, method, and computer program for controlling vehicle | |
US8160300B2 (en) | Pedestrian detecting apparatus | |
CN109421730B (en) | Cross traffic detection using cameras | |
CN111222441A (en) | Point cloud target detection and blind area target detection method and system based on vehicle-road cooperation | |
CN106778907A (en) | A kind of intelligent travelling crane early warning system based on multi-sensor information fusion | |
JPWO2018025632A1 (en) | Imaging device | |
KR20170138842A (en) | System and Method for Tracking Vehicle on the basis on Template Matching | |
US11741718B2 (en) | Light interference detection during vehicle navigation | |
US11769337B2 (en) | Traffic signal recognition method and traffic signal recognition device | |
JP5452518B2 (en) | Vehicle white line recognition device | |
Thiem et al. | Datafusion of two driver assistance system sensors | |
JP2019074839A (en) | White line recognition device for vehicle | |
KR102225387B1 (en) | Apparatus and method for monitoring images capable of deterrmining traveling status of vehicle based on lidar data | |
KR20180048519A (en) | System and Method for Tracking Vehicle on the basis on Template Matching | |
US20230177844A1 (en) | Apparatus, method, and computer program for identifying state of lighting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040524 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |