JP4752158B2 - Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device - Google Patents

Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device Download PDF

Info

Publication number
JP4752158B2
JP4752158B2 JP2001258170A JP2001258170A JP4752158B2 JP 4752158 B2 JP4752158 B2 JP 4752158B2 JP 2001258170 A JP2001258170 A JP 2001258170A JP 2001258170 A JP2001258170 A JP 2001258170A JP 4752158 B2 JP4752158 B2 JP 4752158B2
Authority
JP
Japan
Prior art keywords
environment
obstacle
red
complexity
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001258170A
Other languages
Japanese (ja)
Other versions
JP2003067727A (en
Inventor
哲郎 倉橋
祥之 梅村
浩之 古西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2001258170A priority Critical patent/JP4752158B2/en
Publication of JP2003067727A publication Critical patent/JP2003067727A/en
Application granted granted Critical
Publication of JP4752158B2 publication Critical patent/JP4752158B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、環境複雑度演算装置、環境認識度合推定装置及び障害物警報装置に係り、特に、車両周囲の交通環境に応じてドライバの障害物認識支援を行う環境複雑度演算装置、環境認識度合推定装置及び障害物警報装置に関する。
【0002】
【従来の技術及び発明が解決しようとする課題】
車両の運転において、車両の直進時では左右からの飛び出しの確認をすることや、車両の右左折時では進行方向に対して左右の横断物の確認を行うことは、事故を防止する上で重要である。左右から飛び出したり横断する移動体は、例えば、歩行者、2輪車、4輪車などの種々のものが考えられる。
【0003】
特開平3−260813号公報では、このような移動体を検出する環境認識装置が提案されている。環境認識装置は、明度情報の差分や閉区間領域を抽出することで輪郭情報を得て、輪郭情報から移動物体を認識している。しかし、車両を取り巻く照明条件は刻々と変わり、また外乱光などの影響があるため、輪郭を完全にかつ鮮明に抽出できることは少ない。したがって、上記環境認識装置は、輪郭情報のみを用いて画像認識を行うので、情報量の少なさから環境変化への対応が弱い。特に、車両に搭載されて障害物等を検出する場合では、上述した影響を大きく受けるので、最適に移動体を検出することができるとは言いがたい。また、明度情報から直接閉区間を抽出する処理は、影や外乱光などの影響を受けやすく、外乱光によって変化した明度が直接に重心や面積の変化に影響を与えるため、困難である。
【0004】
このほか、テンプレートマッチングやテクスチャーマッチングなど輪郭情報に内部情報を加えた検出手法も提案されている。しかし、処理時間がかかってしまったり、テンプレートに関する膨大な情報を予め用意する手間がかかってしまうなどの問題がある。
【0005】
こうした背景の下、例えば近年、画像情報を圧縮する技術から派生して、カメラの撮像情報を明度データの分布ととらえる技術が提案されている。
【0006】
特開平11−142168号公報では、多変量解析の1つである主成分分析などを行い、撮像情報を正規化主成分特徴量で張られた情報空間に写像し、情報空間内でのデータの挙動を解析することによって画像認識する手法を改良した技術が提案されている。この技術は、正規化主成分特徴量を車両運動情報、操作情報を用いてよりロバストな環境認識を行うものである。また、特開2000−19259号公報では、可視光線映像情報と可視光以外の赤外線映像情報とを用いて物体を認識する技術が提案されている。
【0007】
しかし、これらの技術は、例えばガードレールや停止車輌等の物体の認識を妨げる要因が多く存在する場合、移動体を認識することが困難である。例えば、車両が通行する路面上以外の歩道や交差点における歩行者、自転車の待機場所や停止車輌間から飛び出してきた歩行者を認識することができない問題がある。
【0008】
これに対して、例えば特開平11−301343号では、障害物そのものだけでなく、カメラ(可視光、赤外)を用いた、環境(道路形状)認識により移動障害物の出現確率を予測する車両用照明装置が提案されている。また、特開平11−232569号では、交差点等に歩行者が近づいたか否かを車輌側へ発信する装置をもつ歩行者警報システムが提案されている。さらに、特開平6−144129号公報では、移動障害物を積極的に認識することなく、同一の注意すべき状態に対して複数用意されていた注意項目をランダムに1つ選択して運転手に報知することで注意喚起を図る注意喚起アシスト装置が提案されている。
【0009】
このように、移動障害物の自動認識、移動物体の出現確率を考慮したもの、あるいは歩行者の接近警告などを行うことによって、ドライバに対して障害物認識支援をする移動障害物認識支援が提案されている。
【0010】
しかし、最終的に移動障害物を認識するのはドライバ自身である。そのドライバの視覚認知、認知特性を考慮しなければ、大量の情報をドライバに提示しすぎたために、かえってドライバーを混乱させる可能性がある。また、注意項目を場所にあわせてランダムに提示する方法は、情報提示量は少ないものの非効率である。
【0011】
本発明は、上述した課題を解決するために提案されたものであり、ドライバに過剰な情報を提示することなく効率的かつ的確に障害物認識支援を行うことができる環境複雑度演算装置、環境認識度合推定装置及び障害物警報装置を提供することを目的とする。
【0012】
【課題を解決するための手段】
請求項1記載の発明は、環境からの撮像光に基づいて撮像画像を生成する撮像手段と、前記撮像手段で生成された撮像画像に輝度分割ブロックを設定し、設定された輝度分割ブロック内において各画素の輝度値が均質であると判断されるまで、前記輝度分割ブロックを分割して新たな輝度分割ブロックを設定することを繰り返し、前記撮像画像に対して、各画素の輝度値が均質になった輝度分割ブロックの数に基づいて環境の複雑度を演算する複雑度演算手段と、を備えている。
【0013】
請求項1記載の発明では、撮像手段は、例えば車両前席から正面の交通環境を撮像するように設置されているのが好ましい
【0015】
雑度演算手段は、撮像画像に対して輝度分割ブロックを設定する。最初に設定される輝度分割ブロックは、複雑度を演算する領域を示している。そして、輝度分割ブロック内において、各画素の輝度値が均質であると判断されるまで、前記輝度分割ブロックを分割し、分割された輝度分割ブロックを新たな輝度分割ブロックとして設定し、この処理を繰り返す。ここで、各画素の輝度値が均質であるとは、各画素の輝度値が一致する場合に限らず、輝度値の最大値と輝度値の最小値の差が所定値以下であればよい。すなわち、各画素の輝度値のばらつきが所定値以下になっていればよい。
【0016】
そして、すべての輝度分割領域内の各画素の輝度値が均質であると判断されると、これらのすべての輝度分割ブロックの数を環境の複雑度として求める。このような輝度分割ブロックの数は空間周波数に対応している。すなわち、総数が多いと高周波成分が多く、撮像画像が複雑である。また、総数が少ないと高周波成分が少なく、撮像画像は単純である。このように、輝度分割ブロックの数を求めることで、環境の複雑度を求めることができる。
【0017】
請求項記載の発明は、環境からの撮像光に基づいて撮像画像を生成する撮像手段と、前記撮像手段で生成された撮像画像に赤色系分割ブロックを設定し、設定された赤色系分割ブロックが所定の赤色系画素のみで構成されるまで、前記赤色系分割ブロックを分割して新たな赤色系分割ブロックを設定することを繰り返し、前記撮像画像に対して、前記所定の赤色系画素のみで構成される赤色系分割ブロックの数に基づいて環境の複雑度を演算する複雑度演算手段と、を備えたことを特徴とする。
【0018】
請求項記載の発明では、複雑度演算手段は、撮像画像に対して赤色系分割ブロックを設定する。最初に設定される赤色系分割ブロックは、複雑度を演算する領域を示している。赤色系分割ブロックが所定の赤色系画素のみで構成されるまで、当該赤色系分割ブロックを分割する。そして、分割された赤色系分割ブロックを新たな赤色系分割ブロックとして設定し、この処理を繰り返す。すべての赤色系分割ブロックが所定の赤色系画素のみで構成されると、これらのすべての赤色系分割ブロックの数を環境の複雑度として求める。赤色は緑色に比べて誘目性が高い特性があり、赤色系分割ブロックの数は画像の複雑さを示している。したがって、上記赤色系分割ブロックの数を演算することで、環境の複雑度を求めることができる。
【0019】
請求項記載の発明は、環境からの撮像光に基づいて撮像画像を生成する撮像手段と、前記撮像手段で生成された撮像画像に輝度分割ブロックを設定し、設定された輝度分割ブロック内において各画素の輝度値が均質であると判断されるまで、前記輝度分割ブロックを分割して新たな輝度分割ブロックを設定することを繰り返し、前記撮像画像に対して、各画素の輝度値が均質になった輝度分割ブロックの数を演算し、前記撮像手段で生成された撮像画像に赤色系分割ブロックを設定し、設定された赤色系分割ブロックが所定の赤色系画素のみで構成されるまで、前記赤色系分割ブロックを分割して新たな赤色系分割ブロックを設定することを繰り返し、前記撮像画像に対して、前記所定の赤色系画素のみで構成される赤色系分割ブロックの数を演算し、前記輝度分割ブロックの数と、赤色系分割ブロックの数と、に基づいて環境の複雑度を演算する複雑度演算手段と、を備えたことを特徴とする。
【0020】
請求項記載の発明では、複雑度演算手段は、請求項記載の発明と同様にして輝度分割ブロックの数を求め、さらに、請求項記載の発明と同様にして赤色系分割ブロックの数を求め、これらの総数に基づいて環境の複雑度を求める。環境の複雑度としては、輝度分割ブロックの数、赤色系分割ブロックの数、輝度分割ブロックの数と赤色系分割ブロックの数との積、にそれぞれ所定の重み付け係数を乗して、これらの総和を求めるのが好ましい。
【0021】
請求項記載の発明は、請求項1からのいずれか1項記載の環境複雑度演算装置と、前記複雑度演算装置で演算された複雑度に基づいて、環境の認識度合を推定する環境認識度合推定手段と、を備えている。
【0022】
請求項記載の発明では、環境複雑度演算装置で演算された複雑度は、環境の撮像画像の複雑さを示していることから、観察者の環境の認識度合を推定するためのパラメータとして用いられる。すなわち、環境認識度合推定手段は、上記複雑度に基づいて環境の認識度合を推定することができる。
【0023】
請求項記載の発明は、請求項記載の発明において、前記環境認識度合推定手段は、前記複雑度演算装置で演算された複雑度が閾値以上であるときは環境の認識度合が低いと推定し、前記複雑度演算装置で演算された複雑度が閾値より小さいときは環境の認識度合が高いと推定することを特徴とする。
【0024】
請求項記載の発明では、環境の認識度合の基準値となる閾値を設定する。すなわち、閾値は、環境が複雑と単純の中間を示す複雑度の値である。そこで、環境認識度合推定手段は、この閾値を用いることで、複雑度が閾値以上であるときは環境の認識度合が低いと推定し、複雑度が閾値より小さいときは環境の認識度合が高いと推定することができる。
【0025】
請求項記載の発明は、請求項5載の発明において、環境の照度を検出する照度検出手段を更に備え、前記環境認識度合推定手段は、前記環境の照度に対応する前記閾値が記述された閾値テーブルに基づいて、前記照度検出手段により検出された照度に対応する前記閾値を設定ることを特徴とする。
【0026】
請求項記載の発明では、複雑度が一定であっても、車両外部が明るかったり暗くなったりすると、観察者は環境が複雑と感じたり単純と感じることがあることがある。そこで、このような照度の変化による環境の認識度合の変化を補正するため、照度に対応する閾値が予め記述された閾値テーブルを用いるこれにより、照度検出手段により照度が検出されると、検出された照度に対応する閾値を設定することができる。そして、設定された閾値を用いて環境の認識度合を推定することができる。この結果、照度がどのような値であっても、環境の認識度合を正確に推定することができる。
【0027】
請求項記載の発明は、請求項記載の発明において、観察者の姿勢変化を検出する姿勢変化検出手段を更に備え、前記環境認識度合推定手段は、前記姿勢変化検出手段で検出された観察者の姿勢変化が大きくなるに従って前記閾値テーブルに記述された前記閾値の最大値を大きく設定し、前記姿勢変化検出手段で検出された観察者の姿勢変化が小さくなるに従って前記閾値の最大値を小さく設定ることを特徴とする。
【0028】
請求項記載の発明では、観察者は、姿勢変化が大きい場合には、環境を認識する度合が高い傾向にある。環境認識度合推定手段は、観察者の姿勢変化が大きくなるに従って閾値テーブルに記述された閾値の最大値を大きく設定し、観察者の姿勢変化が小さくなるに従って閾値の最大値を小さく設定することで、観察者の実際の視覚特性に合致するように、環境の認識度合を正確に推定することができる。
【0029】
請求項記載の発明は、所定領域毎に環境の認識度合を推定する請求項からのいずれか1項記載の環境認識度合推定装置と、障害物の位置を検出する障害物位置検出手段と、前記障害物検出手段で検出された障害物の位置を含む所定領域が、前記環境認識度合推定手段によって環境の認識度合が低いと推定されたときに、前記障害物に関する警報を行う警報手段と、を備えている。
【0030】
請求項記載の発明では、障害物位置検出手段は、障害物の位置を検出する。このとき、環境認識度合推定装置は、障害物が検出された位置を含む所定領域の環境の認識度合を推定する。ここで、環境の認識度合が高い場合、観察者は、障害物位置検出手段によって検出された障害物を十分認識することができる。一方、環境の認識度合が低い場合、観察者は、障害物位置検出手段によって検出された障害物を認識することができない可能性がある。そこで、警報手段は、障害物の位置を含む所定領域が環境の認識度合が低いと推定されたときに、障害物に関する警報を行う。これにより、観察者は、環境の認識度合が低い領域に障害物がある場合でも、障害物があることを事前に認識して、事故を回避することができる。なお、警報手段は、画像又は音声を出力することによって、観察者に注意を喚起させることができる
また、警報手段は、障害物の位置を含む所定領域が環境の認識度合が高いと推定されたときに、障害物に関する警報は行わない。これにより、観察者は、環境の認識度合が高い領域に障害物がある場合では、その障害物を認識することができるので、余計な警報によって煩わしさを受けることがない。
【0031】
請求項記載の発明は、請求項記載の発明において、前記環境認識度合推定装置は、撮像画像の下部を除く領域を複数の推定領域に分割し、分割された推定領域毎に環境の認識度合を推定し、前記警報手段は、前記障害物位置検出手段により検出された障害物の位置が前記推定領域のいずれにあり、かつ、当該推定領域の環境の認識度合が前記環境認識度合推定手段によって低いと推定されたときに、優先度の高い推定領域に存在する障害物に関する警報を行うことを特徴とする。
【0032】
請求項記載の発明では、環境認識度合推定装置は、撮像画像の下部を除く領域を複数の推定領域に分割し、分割された推定領域毎に環境の認識度合を推定する。つまり、撮像画像の下部については環境の認識度合を推定しない。その理由は、撮像画面の下部は、観察者直前の環境の画像を示しており、その環境の認識の度合を推定する意味がないからである。
【0033】
警報手段は、前記障害物位置検出手段により検出された障害物の位置が前記推定領域のいずれにあり、かつ、当該推定領域の環境の認識度合が前記環境認識度合推定手段によって低いと推定されたかを判定する。ここでは、障害物が検出され、かつ環境の認識度合が低い推定領域をすべて選択する。そして、選択された指定領域のうち優先度の高い推定領域について、障害物が存在する旨の警報を行う。これにより、最も危険な領域を観察者に注意させることで大きな事故を回避することができると共に、あまり危険でない領域については観察者に報知しないことで観察者が情報過多になって混乱するのを防止することができる。
【0034】
【発明の実施の形態】
以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。
【0035】
[第1の実施の形態]
本発明の第1の実施の形態は、例えば図1に示す構成の障害物警報装置1に適用することができる。障害物警報装置1は、車両外部のインフラからインフラ情報を検出するインフラ情報をインフラ情報検出部10と、道路及びその周辺の障害物に関する情報を検出する障害物情報検出部20と、自車両の動作状態を検出する自車状態検出部30と、ドライバや車両外部の環境を検出する環境情報検出部40と、ドライバの環境認識の度合を示す視覚特性を入力するためのスライダパネル50と、障害物情報を出力する障害物情報出力部60と、各部において検出された情報に基づいて全体の制御を行うマイクロコンピュータ70と、を備えている。
【0036】
インフラ情報検出部10は、GPS(Global PositioningSystem)信号を受信するGPS受信回路11と、DVDディスクに記録されている地図情報を読み出すDVDドライブ12と、接近情報を受信する接近情報受信回路13と、を備えている。
【0037】
GPS受信回路11は、GPSアンテナ11aを介して、時刻及びGPS衛星の位置情報を有するGPS信号を受信し、データバス5を介してマイクロコンピュータ70に供給する。DVDドライブ12は、車両が現在走行している位置情報に基づいて、DVDディスクから地図情報を読み出し、データバス5を介して、マイクロコンピュータ70に供給する。接近情報受信回路13は、後述するデータキャリアリーダから送信された接近情報を受信し、データバス5を介して、マイクロコンピュータ70に供給する。
【0038】
障害物情報検出部20は、道路上や道路周囲の障害物を撮影するための障害物撮影用CCDカメラ21と、道路上や道路周囲の障害物を赤外線により撮影するための赤外カメラ22と、前方障害物を認識するためのレーダ送受信機23と、を備えている。
【0039】
障害物撮影用CCDカメラ21及び赤外カメラ22は、車両前方方向の物体を撮像できるように設置されている。そして、障害物撮影用CCDカメラ21及び赤外カメラ22は、撮影した撮影画像を、データバス5を介してマイクロコンピュータ70に供給する。レーダ送受信機23は、前方障害物を認識するために、当該障害物に対してパルス状の光レーダを鋭く絞って2次元方向に送信すると共に、障害物によって反射された光レーダを受光する。なお、レーダ送受信機23は、光レーダを送受信するもの限らず、電波レーダを送受信するものであってもよい。
【0040】
自車状態検出部30は、例えば、車輪速センサ、操舵角センサ、スロットルバルブセンサ、マスタシリンダ油圧センサ、ヨーレートセンサ、前後加速度センサ、横加速度センサ等を備えている。そして、自車状態検出部30は、車速、ハンドル操舵角度、アクセル操作量、ブレーキ操作量、ヨーレート、ロールレート、ピッチレート、前後加速度、横加速度、ウィンカ操作量を検出して、マイクロコンピュータ70に供給する。
【0041】
環境情報検出部40は、車両外部の照度を検出する照度センサ41と、ドライバを撮影するドライバ撮影用CCDカメラ42と、を備えている。ここでは、ドライバ撮影用CCDカメラ42は1つだけ設けられているが、ドライバの姿勢変化を容易に検出できるように、ドライバの正面前方、右前方、左前方をそれぞれ撮像する3つのCCDカメラを設けてもよい。
【0042】
スライダパネル50は、外部環境の複雑さを示す視覚特性をドライバの主観に従って操作入力するためのものである。スライダパネル50、図2に示すように、左右に移動可能なスライダ51を有している。ドライバは、例えば、自分自身が交通環境を見落としがちである場合、つまり車両外部の交通環境を認識しにくいと判断する場合は、スライダ51を「弱」の方向に操作する。また、ドライバは、交通環境をよく見ることができる場合、つまり車両外部の交通環境を認識しやすい場合はスライダ51を「強」の方向に操作する。これにより、詳しくは後述するが、マイクロコンピュータ70は、ドライバの現在の視覚特性を考慮して環境認識度合を推定することができる。
【0043】
障害物情報出力部60は、画像により障害物情報を出力するLCD(Liquid Crystal Display)61と、音声により障害物情報を出力するスピーカ62と、を備えている。
【0044】
マイクロコンピュータ70は、図示されていないCPU(Central Processing Unit)、データのワークエリアであるRAM(Random Access Memory)、後述する各種のルーチン処理を実行するプログラムや出現範囲推定テーブルや閾値テーブルが記憶されているROM(Read Only Memory)により構成されている。マイクロコンピュータ70は、各部からの情報に基づいて、出現可能性のある障害物を推定したり、ドライバの環境認識度合を推定したり、障害物情報の警報を行う。
【0045】
(メインルーチン)
以上のように構成された障害物警報装置1において、マイクロコンピュータ70は、図3に示すステップST1からステップST3までの処理を実行する。ここでは、最初にステップST1からステップST3までの処理を簡単に説明し、その後各処理の具体的なサブルーチンについて説明する。
【0046】
マイクロコンピュータ70は、インフラ情報検出部10で検出された情報に基づいて自車位置を検出すると共に、自車の進行方向に出現する可能性のある障害物を推定する(ステップST1)。そして、自車の進行方向の環境の撮像画像を分割し、分割された領域毎にドライバが認識しやすいかを示す環境認識度合を推定する(ステップST2)。最後に、マイクロコンピュータ70は、出現可能性のある障害物情報と、所定の領域毎の環境認識度合とに基づき、必要に応じて画像又は音声によりドライバに対して障害物に関する警報を行う(ステップST3)。
【0047】
(ステップST1)
ステップST1では、マイクロコンピュータ70は、自車の進行方向に出現する可能性のある障害物を推定すべく、具体的には図4に示すステップST11からステップST14までの処理を実行する。
【0048】
ステップST11では、マイクロコンピュータ70は、自車の位置を検出すると共に、自車位置周辺であってドライバの視界範囲外の移動障害物を検出する。なお、ここでは、例えば以下に説明するようなインフラが用いられている。
【0049】
例えば図5に示すように、歩行者は、データキャリア16が設けられた物品(例えば、携帯電話)を常時携帯している。また、2輪車や4輪車には、データキャリア16が設けられている。データキャリア16は数種類の接近情報を出力することができ、歩行者、2輪車及び4輪車のデータキャリア16はそれぞれ異なる接近情報を出力する。一方、見通しの悪い交差点や横断歩道には、接近情報を受信するデータキャリアリーダ17が設置されている。データキャリアリーダ17は、データキャリア16が接近すると、接近情報を受信して、この接近情報を障害物警報装置1に送信する。
【0050】
障害物警報装置1のマイクロコンピュータ70は、データキャリアリーダ17から送信された接近情報を接近情報受信回路13で受信すると、障害物の場所を特定することができ、さらにその障害物が歩行者、2輪車、4輪車のいずれであるかを認識することができる。
【0051】
そして、マイクロコンピュータ70は、GPS受信回路11により受信されたGPS信号と、DVDドライブ12から読み出された地図情報と、接近情報受信回路13により受信された接近情報と、に基づいて自車の位置を検出すると共に、自車位置周辺であってドライバの視界範囲外の移動障害物を検出し、当該移動障害物の種別(人、2輪車、4輪車のいずれか)を認識する。
【0052】
さらに、マイクロコンピュータ70は、図6に示す出現範囲推定テーブルを参照して、移動障害物の種別に基づいて、自車周辺の路上における移動障害物が出現する可能性のある範囲を推定する。例えば、マイクロコンピュータ70は、移動障害物として4輪車を認識したときは、当該4輪車は現在の位置から進行方向に10mの範囲内に出現する可能性があると推定する。また、移動障害物として歩行者を認識したときは、当該歩行者は現在位置から半径1mの範囲内に出現する可能性があると推定する。
【0053】
マイクロコンピュータ70は、自車の進行方向軸及び進行方向軸に直交する軸からなる座標系(以下「自車周辺座標系」という。)を設定し、移動障害物の出現可能性範囲を自車周辺座標系に記述して、ステップST12に移行する。
【0054】
ステップST12では、マイクロコンピュータ70は、ドライバの視界範囲内にある障害物を検出する。ここでは、マイクロコンピュータ70は、障害物撮影用CCDカメラ21及び赤外カメラ22を駆動させ、障害物撮影用CCDカメラ21及び赤外カメラ22により生成された撮像画像を取得する。そして、各カメラにより生成された画像の差分を求めることで、安全上特に問題となる人間や車をそれ以外のものと十分にコントラストを付けた画像を得ることによって、移動障害物を検出する。
【0055】
また、マイクロコンピュータ70は、レーダ送受信機23による送信から受信までの光レーダの往復時間に基づいて、自車の前方障害物の距離画像を得て、前方障害物を認識する。マイクロコンピュータ70は、このようにして認識された移動障害物を自車周辺座標系に記述して、ステップST13に移行する。
【0056】
ステップST13では、マイクロコンピュータ70は、自車状態検出部30からの情報に基づいて自車状態を検出する。ここでは、例えば特開平11−301343号公報に記載されているように、マイクロコンピュータ70は、車速、ハンドル操舵角度、アクセル操作量、ブレーキ操作量、ヨーレート、ロールレート、ピッチレート、前後加速度、横加速度及びウィンカ操作量を検出し、自車の進行方向を推定して、自車の進行方向の推定結果を自車周辺座標系に記述して、ステップST14に移行する。
【0057】
ステップST14では、マイクロコンピュータ70は、ステップST11からステップST13までの処理によって得られた自車周辺座標系に対して、自車の進行予測範囲内に出現する可能性のある移動障害物の情報のみを残し、その他の情報を除去する。そして、マイクロコンピュータ70は、自車周辺座標系に記述された移動障害物に関する情報を障害物表示画面としてLCD61に表示させると、サブルーチンを抜けて図3に示したステップST2に移行する。
【0058】
ここで、障害物表示画面は、例えば図7に示すように、自車が走行している周囲の地図と、自車の現在位置と、自車の進行予測範囲と、移動障害物(人や車など)及びその出現可能範囲を表示している。障害物表示画面に表示された移動障害物の大きさは、当該移動障害物が出現する可能性のある範囲を示している。
【0059】
(ステップST2)
ステップST2では、マイクロコンピュータ70は、車両周囲環境をドライバが認識する度合を推定すべく、具体的には図8に示すステップST21からステップST24までの処理を実行する。
【0060】
ステップST21では、マイクロコンピュータ70は、環境情報検出部40からの情報を用いてドライバの姿勢の変化を検出する。すなわち、マイクロコンピュータ70は、ドライバ撮影用CCDカメラ42からの撮像画像についてフレーム間毎に差分を求め、撮像画像の差分値をドライバの移動領域量として検出する。
【0061】
マイクロコンピュータ70は、移動領域量が所定の閾値以上のときは「1」をカウントし、移動領域量が所定の閾値より小さいときはカウントを行わない。そして、例えば過去5分間のカウント値を求め、当該カウント値が閾値TH1未満のときは姿勢変化が「小」であると判定し、当該カウント値が閾値TH1以上であり閾値TH2(>TH1)未満のときは姿勢変化が「中」であると判定し、当該カウント値が閾値TH2以上のときは姿勢変化が「大」であると判定する。また、マイクロコンピュータ70は、照度センサ41により検出された車両外部の照度を取得して、ステップST22に移行する。
【0062】
ステップST22では、マイクロコンピュータ70は、図7に示した障害物表示画面の所定領域毎に、環境の複雑度Cを演算する。なお、ここにいう複雑度Cとは、ドライバの交通環境の認識度合を推定するために用いられるパラメータをいう。
【0063】
最初に、マイクロコンピュータ70は、ステップST1で得られた障害物表示画面のうち、障害物及びその出現可能範囲のある領域を、距離・方向で4分割する。ここでは図9に示すように、障害物表示画面を領域A,領域B,領域C及び領域Dに分割する。これにより、上記障害物表示画面は、自車の前方正面近距離の領域である領域Aと、領域Aに隣接し、かつ自車の前方正面遠距離の領域である領域Bと、領域A及びBに隣接し、かつ自車の前方左遠距離の領域である領域Cと、領域A及びBに隣接し、かつ自車の前方右遠距離の領域である領域Dと、を有している。なお、障害物表示画面領域Aから領域Dは、模式的には図10に示すように分割される。
【0064】
次に、マイクロコンピュータ70は、領域B、領域C及び領域Dのそれぞれについて、次の式(1)に基づいて交通環境の複雑度Cを演算する。
【0065】
【数1】

Figure 0004752158
【0066】
指標C1は輝度分割ブロックの数、指標C2は赤色系分割ブロックの数を示している。また、α、β、γは、重み付け係数であり、それぞれ所定の値をとる。
【0067】
ここで、指標C1の演算について説明する。なお、マイクロコンピュータ70は、上述したように領域B、領域C及び領域Dについて指標C1を演算するが、ここでは、領域Bについて図11に示す撮像画像を用いて指標C1を演算することについて説明する。
【0068】
マイクロコンピュータ70は、障害物撮影用CCDカメラ21を駆動させ、例えば図11に示すような撮像画像を得る。そして、当該撮像画像全体を輝度分割ブロックとして設定する。
【0069】
マイクロコンピュータ70は、設定された輝度分割ブロック内において各画素の輝度値の最大値と最小値の差を演算する。マイクロコンピュータ70は、輝度値の最大値と最小値の差が所定の閾値以上であるかを判定し、上記差が所定の閾値を超えているときは輝度分割ブロックを4つに分割する。このとき、マイクロコンピュータ70は、縦横ほぼ同じ画素数で構成されるように、かつ可能な限り大きくするように、輝度分割ブロックを分割するのが好ましい。
【0070】
撮像画像の輝度値が例えば図12(A)に示すようになっている場合、マイクロコンピュータ70は、輝度値の最大値(180)と最小値(000)の差を演算する。そして、輝度値の最大値と最小値の差(180)が閾値(例えば40)以上であるかを判定し、ここでは上記差が閾値(40)を超えているので、図12(A)に示すように輝度分割ブロックを4つに分割する。
【0071】
マイクロコンピュータ70は、分割された各輝度分割ブロック内において各画素の輝度値の最大値と最小値の差が所定の閾値以下になるまで、前記輝度分割ブロックを4つに分割し、新たな輝度分割ブロックを設定することを繰り返す。
【0072】
例えば、図12(A)に示す輝度分割ブロックBK1は4×4画素で構成され、輝度値の最大値は180、輝度値の最小値は20である。マイクロコンピュータ70は、輝度分割ブロックBK1の輝度値の最大値と最小値の差(160)を求め、上記差が閾値(40)以上であるので、図12(B)に示すように、輝度分割ブロックBK1を4つ(BK2,BK3,BK4,BK5)に分割する。
【0073】
そして、マイクロコンピュータ70は、輝度分割ブロックBK2の輝度値の最大値と最小値の差(39)は閾値(40)以上でないので、輝度分割ブロックBK2に対しては分割を行わない。一方、輝度分割ブロックBK3,BK4,BK5については、輝度値の最大値と最小値の差は閾値(40)以上であるので、図12(C)に示すように、各輝度分割ブロックBKを分割する。
【0074】
このような処理を経て、マイクロコンピュータ70は、各画素の輝度値の最大値と最小値の差が所定の閾値(40)以下になった輝度分割ブロックの数を示す指標C1を求める。これにより、マイクロコンピュータ70は、輝度分割ブロックを構成する各画素の輝度値を均質にする。
【0075】
なお、指標C1は、各画素の輝度値の最大値と最小値の差が所定の閾値以下になった輝度分割ブロックの数に限定されるものではない。例えば、指標C1は、撮像画像の輝度値の分散値であってもよい。また、指標C1は、撮像画像の2次元高速フーリエ変換(FFT:Fast Fourier Transform)の高周波成分の総和であってもよい。
【0076】
また、マイクロコンピュータ70は、図12(C)に示すように、輝度分割ブロックBKが1×1画素になるまで分割したが、輝度分割ブロックBKを分割して予め定めた大きさ(例えば、4×4画素)になったときに、分割を終了してもよい。
【0077】
つぎに、指標C2の演算について説明する。なお、マイクロコンピュータ70は、上述したように所定領域毎に赤色系分割ブロックの数を示すC2を演算するが、ここでは、領域Bについて、図13(A)に示す撮像画像を用いて指標C2を演算することについて説明する。
【0078】
マイクロコンピュータ70は、障害物撮影用CCDカメラ21を駆動させ、例えば図13(A)に示すような撮像画像を得る。そして、当該撮像画像から明度0.3以上、彩度0.1以上を抽出して、例えば図13(B)に示すような撮像画像を得る。さらに、マイクロコンピュータ70は、0.1以下又は0.75以上の色相を抽出すると、図13(C)に示すような撮像画像を得る。
【0079】
マイクロコンピュータ70は、図13(C)に示すような撮像画像に対して、同一の赤色系分割ブロック内が赤色系画素のみで占めるようにブロック分割を繰り返し、図13(D)に示すように、赤色系画素(1)又は赤色系画素以外の画素(0)で構成された赤色系分割ブロックを得る。そして、マイクロコンピュータ70は、赤色系画素のみで構成された赤色系分割ブロックの数である指標C2を求める。
【0080】
マイクロコンピュータ70は、求められた輝度分割ブロックの数を示す指標C1及び赤色系分割ブロックの数を示す指標C2を用いて、上述した式(1)に従って環境の複雑度Cを演算して、ステップST23に移行する。なお、以上のようにして演算された複雑度Cの値は、例えば図14に示すように、時刻によって変化する。
【0081】
なお、指標C2は、赤色系分割ブロックの数に限定されるものではなく、例えば、次のような値でもよい。
【0082】
マイクロコンピュータ70は、所定の領域の撮像画像に対して、マンセル色票において色票が2.5RP,5RP,7.5RP,10RP,2.5R,5R,7.5R,10R,2.5YR,5YRに属し、クロマ2以上、明度3以上の赤色系の画素のみを抽出してもよい。そして、同一の分割ブロック内が上記赤色系画素のみ、赤色系画素以外の画素のみで構成されるまで、上記分割ブロックを分割することを繰り返し、得られた分割ブロックの数を指標C2とすればよい。
【0083】
また、マイクロコンピュータ70は、所定の領域の撮像画像に対して、マンセル色票において色票が2.5RP,5RP,7.5RP,10RP,2.5R,5R,7.5R,10R,2.5YR,5YRに属し、クロマ2以上、明度3以上の赤色系の画素のみを抽出し、上記赤色系の画素の数を指標C2としてもよい。あるいは、撮像画像の中央から上述した各赤色系画素の距離の総和を指標C2としてもよい。
【0084】
ステップST23では、マイクロコンピュータ70は、環境認識度合を判定するための閾値thを設定する。閾値thは、車両外部の環境照度によって異なるように設定される。その理由は、複雑度Cの値が一定であっても、車両外部が明るかったり暗くなったりすると、ドライバは交通環境が複雑と感じたり単純と感じることがあるからである。
【0085】
マイクロコンピュータ70には、例えば図15に示すように、環境照度に対する閾値thを記述した閾値テーブルが記憶されている。図15によると、閾値thは、環境照度がゼロからS1までの場合は最小値(一定)となり、環境照度がS1からS2まで大きくなるに従って一定の割合で大きくなる。そして、閾値thは、環境照度がS2からS3までの場合は最大値(一定)となり、環境照度がS3より大きくなるに従って一定の割合で小さくなる。なお、図15に示す閾値テーブルは本実施の形態の一例であり、本発明はこれに限定されるものではない。
【0086】
そこで、マイクロコンピュータ70は、上記閾値テーブルを参照して、照度センサ41によって検出された環境照度に基づいて、閾値thを設定する。さらに、マイクロコンピュータ70は、ドライバの操作入力値やドライバの姿勢変化に応じて、閾値thの最大値を再設定することができる。
【0087】
最初に、マイクロコンピュータ70は、スライダパネル50に設けられたスライダ51の入力値に応じて、閾値thの最大値を設定する。例えば、ドライバがスライダ51を「強」の方にスライドしている場合は、図15に示すように、マイクロコンピュータ70は閾値thの最大値を大きく設定する。逆に、ドライバがスライダ51を「弱」の方にスライドしている場合は、マイクロコンピュータ70は閾値thの最大値を小さく設定する。なお、スライダ51が「強」と「弱」の中間にある場合は、マイクロコンピュータ70は、環境照度に基づいて設定されたデフォルトの閾値thのままでよい。
【0088】
次に、マイクロコンピュータ70は、ドライバの姿勢変化に応じて、閾値thの最大値を設定する。その理由は、ドライバは、頻繁に姿勢の変化がある場合では種々の環境を認識し易い傾向があり、姿勢の変化がない場合では環境を認識しにくい傾向があるからである。そこで、マイクロコンピュータ70は、交通環境の認識のしやすさとドライバの姿勢変化の関係を考慮して、以下のように閾値thを設定する。
【0089】
マイクロコンピュータ70は、例えば上述したステップST21においてドライバの姿勢変化が「小」であると判定した場合、図16に示すように、閾値thの最大値を小さく設定する。逆に、例えばステップST21においてドライバの姿勢変化が「大」であると判定した場合は、閾値thの最大値を大きく設定する。なお、マイクロコンピュータ70は、ドライバの姿勢変化が「中」であると判定した場合は、環境照度に基づいて設定されたデフォルトの閾値thのままでよい。
【0090】
このように、マイクロコンピュータ70は、環境照度に対応する閾値thが記述された閾値テーブルと、スライダパネル50に設けられたスライダ51の入力値と、更にドライバの姿勢変化と、に基づいて閾値thを設定すると、ステップST24に移行する。
【0091】
ステップST24では、マイクロコンピュータ70は、図17に示すように、ステップST22で演算された複雑度Cと、ステップST23で設定された閾値thとを比較する。そして、複雑度Cが閾値thを超えていなかったときは、環境は複雑でない、すなわち単純であると判定する。また、複雑度Cが閾値thを超えていたときは、環境は複雑であると判定する。
【0092】
マイクロコンピュータ70は、障害物撮影用CCDカメラ21で得られた撮像画像が例えば図18に示すような前方風景の場合は、交通環境が「単純」であると判定し、例えば図19に示すような前方風景の場合は、交通環境が「複雑」であると判定する。そして、サブルーチン処理を終了して、図3に示すステップST3に移行する。
【0093】
(ステップST3)
ステップST3では、マイクロコンピュータ70は、ドライバに対して障害物の警報を行う。ここでは、領域毎に警報要請フラグがあるかを判定し、優先順位の高いフラグを用いてドライバに所定の警報を行う。なお、ここにいう警報要請フラグとは、上記所定領域について障害物等の存在によりドライバに警報を行う必要があることを示すフラグをいう。そして、マイクロコンピュータ70は、具体的には図20に示すステップST31からステップST42までの処理を実行する。
【0094】
ステップST31では、マイクロコンピュータ70は、領域Aの警報要請フラグを生成するか否かを判定する。ここでは、具体的には図21に示すステップST51からステップST54までのサブルーチンを実行する。
【0095】
ステップST51では、マイクロコンピュータ70は、領域Aにおいて障害物を検出したか、又は現在の自車位置が障害物出現範囲内にあるかを判定し、いずれか一方の条件を満たすときはステップST52に移行し、いずれの条件も満たさないときはサブルーチン処理を終了する。
【0096】
ステップST52では、マイクロコンピュータ70は、上述したステップST13で検出された自車状態に基づいて、障害物に対して自車が回避行動をとっているかを判定し、回避行動をとっているときはステップST53に移行し、回避行動をとっていないときはサブルーチン処理を終了する。
【0097】
ステップST53では、マイクロコンピュータ70は、ステップST1において検出された障害物に関する情報及び自車状態に基づいて、自車が障害物を回避することが不可能であるかを判定する。そして、例えばドライバがブレーキペダルを踏んだり、ハンドルを操作して、障害物に対する回避行動をとっていたとしても、自車が障害物を回避することができないときはステップST54に移行し、自車が障害物を回避することができるときはサブルーチン処理を終了する。
【0098】
ステップST54では、マイクロコンピュータ70は、領域Aにおける警報要請フラグを発生してサブルーチン処理を終了する。マイクロコンピュータ70は、このようなサブルーチン処理を終了すると、図20に示すステップST32に移行する。
【0099】
ステップST32では、マイクロコンピュータ70は、領域B,C及びDのそれぞれに対して警報要請フラグを生成するか否かの判定を行う。具体的には図22に示すステップST61からステップST64までのサブルーチン処理を実行する。なお、ここではいずれの領域でも同じ処理を行うので、領域Bの処理を例に挙げて説明する。
【0100】
ステップST61では、マイクロコンピュータ70は、領域Bにおいて障害物を検出したか、又は現在の自車位置が障害物出現範囲内にあるかを判定し、いずれか一方の条件を満たすときはステップST62に移行し、いずれの条件も満たさないときはサブルーチン処理を終了する。
【0101】
ステップST62では、マイクロコンピュータ70は、上述したステップST2において領域Bは複雑であると判定したか、すなわち、ステップST2において領域Bの複雑度Cが閾値thを超えたかを判定する。そして、領域Bの複雑度Cが閾値thを超えたときはステップST63に移行し、閾値thを超えていないときはサブルーチン処理を終了する。
【0102】
ステップST63では、マイクロコンピュータ70は、障害物又は障害物出現範囲の場所が初めて警報を発する場所であるかを判定し、初めて警報を発する場所であるときはステップST64に移行し、初めて警報を発する場所でないときはサブルーチン処理を終了する。
【0103】
ステップST64では、マイクロコンピュータ70は、領域Bにおける警報要請フラグを発生してサブルーチン処理を終了する。マイクロコンピュータ70は、以上のようなサブルーチン処理を終了すると、図20に示すステップST33に移行する。
【0104】
ステップST33では、マイクロコンピュータ70は、領域Aの警報要請フラグがあるか否かを判定し、領域Aの警報要請フラグがあったときはステップST39に移行し、領域Aの警報要請フラグがなかったときはステップST34に移行する。
【0105】
ステップST34では、マイクロコンピュータ70は、領域C又は領域Dの警報要請フラグがあるか否かを判定する。そして、各領域の少なくとも一方に警報要請フラグがあったときはステップST38に移行し、各領域のいずれにも警報要請フラグがないときはステップST35に移行する。
【0106】
ステップST35では、マイクロコンピュータ70は、領域Bの警報要請フラグがあるか否かを判定し、領域Bの警報要請フラグがあったときはステップST36に移行し、領域Bの警報要請フラグがなかったときはサブルーチン処理を終了する。
【0107】
このように、マイクロコンピュータ70は、ステップST33からステップST35の順に処理を実行することで、領域A、領域C又は領域D、領域Bの順に優先順位を設定し、優先順位の高い領域から障害物の警報を行っている。
【0108】
ステップST36では、マイクロコンピュータ70は、前回の判定処理で領域Aの警報要請フラグがあったかを判定し、領域Aの警報要請フラグがあったときはステップST37に移行し、領域Aの警報要請フラグがなかったときはサブルーチン処理を終了する。
【0109】
ステップST37では、マイクロコンピュータ70は、ドライバに領域Bの警報を行う。マイクロコンピュータ70は、ドライバに対する警報として、「前方障害物に注意してください。」、「交差点に近づきます。歩行者の飛び出しに注意してください。」などをLCD61に表示させたり、音声によりスピーカ62から出力させて、サブルーチン処理を終了する。
【0110】
また、ステップST34で領域C、領域Dの少なくとも一方の警報要請フラグがあったと判定して移行したときのステップST38では、マイクロコンピュータ70は、警報要請フラグのあった領域について、ドライバに対して警報を行う。警報要請の一例としては、ステップST37と同様である。
【0111】
一方、ステップST33で領域Aの警報要請フラグがあったと判定して移行したときのステップST39では、領域Aの警報要請フラグが所定数以上あるか否かを判定し、警報要請フラグが所定数以上あるときはステップST40に移行し、警報要請フラグが所定数以上ないときはステップST42に移行する。
【0112】
ステップST40では、マイクロコンピュータ70は、自車状態検出部30により検出された車速が所定値以上であるかを判定し、車速が所定値以上であるときはステップST41に移行し、車速が所定値以上でないときはステップST42に移行する。
【0113】
ステップST41では、マイクロコンピュータ70は、ドライバに対して領域Aにおける第1警報を行う。マイクロコンピュータ70は、ドライバに対する第1警報として、例えば「衝突注意。減速してください。」などをLCD61に表示させたり、音声によりスピーカ62から出力させて、サブルーチン処理を終了する。
【0114】
ステップST42では、マイクロコンピュータ70は、ドライバに対して領域Aにおける第2警報を行う。マイクロコンピュータ70は、ドライバに対する第2警報として、例えば「障害物を回避してください。」などをLCD61に表示させたり、音声によりスピーカ62から出力させて、サブルーチン処理を終了する。
【0115】
マイクロコンピュータ70は、ステップST3のサブルーチン処理を終了すると、ドライバに対する警報を終了する。このように、マイクロコンピュータ70は、各領域の警報要請フラグに優先順位を設定して処理を行うことによって、ドライバに対する警報を最小限に抑制し、情報過多になってドライバが混乱することを防止することができる。
【0116】
以上のように、第1の実施の形態に係る障害物警報装置1は、移動障害物を自動的に認識し、移動障害物の出現可能範囲を推定し、更に、移動障害物の出現場所において、ドライバの交通環境の認識度合を考慮することによって、ドライバを混乱させることなく、移動障害物をドライバに認識させることができる。また、障害物警報装置1は、ドライバに提示するべき情報量が多いときは、自車の車速を低下させるように促して、事故を未然に防止することができる。
【0117】
障害物警報装置1は、図10に示した領域Aから領域Dのいずれにおいても障害物を検出した場合には、自車直前の領域Aを最優先し、領域Aに存在する障害物に対して警報を行う。これにより、障害物警報装置1は、直前に迫った危機を回避することができる。
【0118】
[他の実施の形態]
つぎに、本発明の他の実施の形態について説明する。なお、第1の実施の形態と重複する箇所については同一の符号を付し、詳細な説明は省略する。
【0119】
(撮像画像の分割の態様)
第1の実施の形態では、マイクロコンピュータ70は、図10に示すように、撮像領域を領域Aから領域Dまでの4つに分割し、領域B、領域C及び領域Dにおいて指標C1及び指標C2を演算していた
これに対して、マイクロコンピュータ70は、例えば図23(A)に示す撮像画像を、図23(B)に示すように4つの領域に分割してもよい。つまり、マイクロコンピュータ70は、長方形状の撮像画像を2つの対角線に沿って分割することによって、撮像画像を4つの領域に分割している。そして、第1の実施の形態と同様に、各領域について指標C1及び指標C2を演算すればよい。
【0120】
また、マイクロコンピュータ70は、例えば図24(A)に示す撮像画像を、図24(B)に示すように、領域(1)、2つの領域(2)、領域(3)の4つの領域に分割してもよい。ここで、領域(1)は、自車の前方直前の車両を示す領域である。領域(2)は、領域(1)の両外側の領域である。領域(3)は、領域(1)及び領域(2)以外の領域である。
【0121】
マイクロコンピュータ70は、領域(1)については輝度分割ブロックを1×1画素まで分割し、領域(2)については2×2画素まで分割し、領域(3)については2×2画素まで分割して、各領域で指標C1を演算することができる。さらに、マイクロコンピュータ70は、各領域において赤色系分割ブロックを1×1画素まで分割して、図24(C)に示す画像を得て、各領域で指標C2を演算することができる。
【0122】
さらに、マイクロコンピュータ70は、撮像画像を次のように分割することもできる。例えば図25に示すように、撮像画像を「画面下部」、「画面中央」、「画面左方」、「画面右方」に分割してもよい。「画面下部」は、撮像画像の下側の縦方向約1/5から1/4までの長方形状の領域である。「画面中央」は、三角形状の領域であり、その三角形の一辺が「画面下部」に隣接し、その一辺の対角が撮像画面の上端に位置している。「画面左方」は、「画面下部」及び「画面中央」以外の領域のうち左側の台形状の領域である。「画面右方」は、「画面下部」及び「画面中央」以外の領域のうち右側の台形状の領域である。
【0123】
画面中央については、図26に示すように、さらに分割してもよい。
【0124】
(閾値thの設定)
マイクロコンピュータ70は、第1の実施の形態のように、ドライバ個人によって操作されたスライダ51の入力値に従って閾値thを設定する場合に限らず、例えば複数のドライバによって操作されたスライダ51の各入力値に従って設定するようにしてもよい。
【0125】
図27は、10名のドライバに10枚の撮像画像を提示した場合に、ドライバによって入力された環境の認識度合をプロットした図である。マイクロコンピュータ70は、例えばこれらの値の平均を演算することで妥当な閾値thを設定することができる。
【0126】
(複雑度Cの他の演算手法)
マイクロコンピュータ70は、式(1)に従って複雑度Cを演算し、複雑度Cと閾値thとを比較することによって環境認識度合を推定していたが、本発明はこれに限定されるものではない。
【0127】
マイクロコンピュータ70は、例えば図28に示すように、指標C1及び指標C2によって決定される認識度合を示す認識度合マップを記憶してもよい。このとき、マイクロコンピュータ70は、第1の実施の形態と同様にして指標C1及び指標C2を演算し、上記認識度合マップを参照して環境の認識度合を推定すればよい。例えば、マイクロコンピュータ70は、(C1,C2)=(a,b)のときは環境の認識度合が高いと判定し、(C1,C2)=(c,d)のときは環境の認識度合が低いと判定することができる。
【0128】
(3次元空間配置)
マイクロコンピュータ70は、撮像画像を予め所定領域に分割し、所定領域毎に、第1の実施の形態と同様に指標C1及び指標C2を演算し、さらに、指標C1・C2を演算する。そして、指標C1、指標C2、指標C1・C2を、図29に示すように、3次元ベクトル空間に配置し、各画素上での移動ベクトルの値(大きさ、向き)を複雑度Cとして用いることもできる。
【0129】
このとき、例えば図30に示すように、3次元ベクトル空間内に、環境の認識度合が低いと推定される第1の領域と、環境の認識度合が高いと推定される第2の領域とを設けてもよい。マイクロコンピュータ70は、上記3次元空間を用いて求められた複雑度Cが上記領域のいずれに属するかを判定し、複雑度Cが第1の領域にあるとドライバは環境認識の度合が低いと推定し、複雑度Cが第2の領域にあるとドライバは環境認識の度合が高いと推定することができる。
【0130】
(ニューラルネット)
マイクロコンピュータ70は、ニューラルネットを用いて環境の認識度合を推定してもよい。図31は、ニューラルネットを用いて環境の認識度合を推定するマイクロコンピュータ70の機能的な構成を示すブロック図である。
【0131】
マイクロコンピュータ70は、更新可能なデータベースを有する変換関数からなるニューラルネット71と、ドライバの環境の認識度合を推定する認識度合推定部72と、入力値から推定値を減算する処理を行う演算器73と、を備えている。なお、ニューラルネット71の代わりに、統計的手法によって学習機能を備えたものであってもよい
演算器73は、図2に示したスライダ51の入力値から、認識度合推定部72で推定された環境の認識度合の推定値を減算する。ニューラルネット71は、演算器73により減算された減算値と、複雑度Cとに基づいて逐次学習し、学習済みの複雑度Cを認識度合推定部72に供給する。認識度合推定部72は、ニューラルネット71からの学習済みの複雑度Cを用いて、ドライバ毎に環境の認識度合を推定すればよい。
【0132】
この結果、マイクロコンピュータ70は、ドライバの実際の環境認識を考慮して逐次学習し、ドライバ個人の視覚特性に応じて、交通環境の認識度合を正確に推定することができる。
【0133】
【発明の効果】
本発明に係る環境複雑度演算装置は、前記撮像手段で生成された撮像画像に含まれる輝度の変化の分布、前記撮像画像に含まれる赤色系画素の分布の少なくとも一方に基づいて、環境の複雑度を演算することによって、環境の認識のしにくさ、すなわち環境の複雑さを示す複雑度を求めることができる。
【0134】
本発明に係る環境認識度合推定装置は、複雑度演算装置で演算された複雑度に基づいて環境の認識度合を推定することによって、観察者の環境の認識度合を客観的かつ正確に推定することができる。
【0135】
本発明に係る障害物警報装置は、障害物の位置を検出し、検出された障害物の位置を含む所定領域が環境の認識度合が低いと推定されたときに、前記障害物に関する警報を行うことによって、環境の認識度合の低い領域に障害物があるときに当該障害物の存在を観察者に警報することができる。一方、環境の認識度合の高い領域に障害物があるときに警報を行わないので、観察者が余計な警報によって煩わしさを受けることを防止することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る障害物警報装置の構成を示すブロック図である。
【図2】障害物警報装置に備えられたスライダパネルの構成を示す図である。
【図3】障害物警報装置に備えられたマイクロコンピュータの動作手順のメインルーチンを示すフローチャートである。
【図4】メインルーチンにおけるステップST1の具体的な動作手順を示すフローチャートである。
【図5】データキャリアとデータキャリアリーダの概要を説明するための図である。
【図6】マイクロコンピュータに記憶された出現範囲推定テーブルを示す図である。
【図7】LCDに表示される障害物表示画面を示す図である。
【図8】メインルーチンにおけるステップST2の具体的な動作手順を示すフローチャートである。
【図9】障害物表示画面を領域Aから領域Dに分割した状態を説明する図である。
【図10】障害物表示画面を模式的に領域Aから領域Dに分割した状態を説明する図である。
【図11】領域Bで指標C1を演算するときの撮像画像の一例を示す図である。
【図12】撮像画像の輝度値の一例を示す図である。
【図13】撮像画像の一例を示す図である。
【図14】複雑度Cが時刻によって変化する状態を説明する図である。
【図15】環境照度に対する閾値が記述された閾値テーブルを示す図である。
【図16】ドライバの姿勢変化に応じて閾値thが変化する状態を説明する図である。
【図17】複雑度Cと閾値thとを比較して環境の認識度合を推定するための図である。
【図18】交通環境が単純である風景画像の一例を示す図である。
【図19】交通環境が複雑である風景画像の一例を示す図である。
【図20】メインルーチンにおけるステップST3の具体的な動作手順を示すフローチャートである。
【図21】サブルーチンにおけるステップST31の具体的な動作手順を示すフローチャートである。
【図22】サブルーチンにおけるステップST32の具体的な動作手順を示すフローチャートである。
【図23】撮像画像の分割の他の手法を説明するための図である。
【図24】撮像画像の分割の他の手法を説明するための図である。
【図25】撮像画像の分割の他の手法を説明するための図である。
【図26】画面中央の分割の一例を示す図である。
【図27】10名のドライバに10枚の撮像画像を提示した場合に、ドライバによって入力された環境の認識度合をプロットした図である。
【図28】指標C1及び指標C2によって決定される認識度合を示す認識度合マップを示す図である。
【図29】指標C1、指標C2、指標C1・C2からなる3次元ベクトル空間を示す図である。
【図30】3次元ベクトル空間内に、環境の認識度合が低いと推定される第1の領域と、環境の認識度合が高いと推定される第2の領域とを設けた状態を説明する図である。
【図31】ニューラルネットを用いて環境の認識度合を推定するマイクロコンピュータの機能的な構成を示すブロック図である。
【符号の説明】
1 障害物警報装置
10 インフラ情報検出部
20 障害物情報検出部
40 環境情報検出部
60 障害物情報出力部
70 マイクロコンピュータ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an environment complexity calculation device, an environment recognition degree estimation device, and an obstacle alarm device, and more particularly, to an environment complexity calculation device and an environment recognition degree that support a driver's obstacle recognition according to the traffic environment around the vehicle. The present invention relates to an estimation device and an obstacle alarm device.
[0002]
[Prior art and problems to be solved by the invention]
When driving a vehicle, it is important to confirm that the vehicle is jumping out from the left and right when the vehicle is going straight ahead, and to check the crossing objects on the left and right in the direction of travel when the vehicle is turning left and right. It is. As the moving body that jumps out or crosses from the left and right, various things such as a pedestrian, a two-wheeled vehicle, and a four-wheeled vehicle can be considered.
[0003]
Japanese Patent Laid-Open No. 3-260813 proposes an environment recognition device that detects such a moving body. The environment recognition apparatus obtains contour information by extracting a difference in brightness information and a closed section region, and recognizes a moving object from the contour information. However, the lighting conditions surrounding the vehicle change from moment to moment, and because of the influence of ambient light, it is rare that the contour can be extracted completely and clearly. Therefore, since the environment recognition apparatus performs image recognition using only the contour information, the response to environmental changes is weak due to the small amount of information. In particular, when detecting an obstacle or the like mounted on a vehicle, it is difficult to say that a moving body can be detected optimally because the influence described above is greatly affected. Further, the process of directly extracting the closed section from the brightness information is difficult to perform because it is easily affected by shadows, disturbance light, and the like, and the brightness changed by the disturbance light directly affects the change of the center of gravity and area.
[0004]
In addition, detection methods in which internal information is added to contour information, such as template matching and texture matching, have been proposed. However, there are problems such as it takes time for processing and it takes time to prepare a large amount of information about the template in advance.
[0005]
Under such a background, for example, in recent years, a technique derived from a technique for compressing image information and capturing camera image information as a distribution of brightness data has been proposed.
[0006]
In Japanese Patent Laid-Open No. 11-142168, principal component analysis, which is one of multivariate analyses, is performed, and imaging information is mapped to an information space spanned by normalized principal component features, and data in the information space is mapped. There has been proposed a technique in which an image recognition technique is improved by analyzing a behavior. This technique performs more robust environment recognition using normalized principal component feature values using vehicle motion information and operation information. Japanese Patent Laid-Open No. 2000-19259 proposes a technique for recognizing an object using visible light image information and infrared image information other than visible light.
[0007]
However, these techniques have difficulty in recognizing a moving object when there are many factors that hinder recognition of an object such as a guardrail or a stopped vehicle. For example, there is a problem that it is impossible to recognize a pedestrian on a sidewalk or intersection other than on a road surface on which a vehicle passes, a pedestrian jumping out from a waiting place for a bicycle or between stopped vehicles.
[0008]
In contrast, for example, in JP-A-11-301343, a vehicle that predicts the appearance probability of a moving obstacle by environment (road shape) recognition using not only the obstacle itself but also a camera (visible light, infrared). Lighting devices have been proposed. Japanese Patent Laid-Open No. 11-232569 proposes a pedestrian warning system having a device for transmitting to the vehicle side whether or not a pedestrian has approached an intersection or the like. Furthermore, in Japanese Patent Laid-Open No. 6-144129, without actively recognizing a moving obstacle, a plurality of caution items prepared for the same cautionary state are selected at random and the driver is selected. There has been proposed an attention-assisting assisting device that alerts the user by informing.
[0009]
In this way, moving obstacle recognition support that supports obstacle recognition to the driver by performing automatic recognition of moving obstacles, considering the appearance probability of moving objects, or approaching pedestrians is proposed Has been.
[0010]
However, it is the driver itself that ultimately recognizes the moving obstacle. If the driver's visual perception and cognitive characteristics are not taken into account, too much information is presented to the driver, which may confuse the driver. In addition, the method of presenting attention items at random according to the location is inefficient although the amount of information presentation is small.
[0011]
The present invention has been proposed to solve the above-described problems, and is an environment complexity calculation device and environment that can efficiently and accurately support obstacle recognition without presenting excessive information to the driver. It is an object of the present invention to provide a recognition degree estimation device and an obstacle warning device.
[0012]
[Means for Solving the Problems]
  According to the first aspect of the present invention, an imaging unit that generates a captured image based on imaging light from an environment, and a captured image generated by the imaging unitSetting a luminance division block, and repeatedly dividing the luminance division block and setting a new luminance division block until it is determined that the luminance value of each pixel is uniform within the set luminance division block, Based on the number of luminance division blocks in which the luminance value of each pixel is uniform for the captured imageAnd complexity calculation means for calculating the complexity of the environment.
[0013]
  In the first aspect of the present invention, it is preferable that the imaging means is installed so as to image the traffic environment in front of the front seat of the vehicle, for example..
[0015]
  DuplicateThe coarseness calculation means sets a luminance division block for the captured image. The luminance division block set first shows an area for calculating the complexity. Then, in the luminance division block, the luminance division block is divided until it is determined that the luminance value of each pixel is uniform, and the divided luminance division block is set as a new luminance division block. repeat. Here, the brightness value of each pixel being homogeneous is not limited to the case where the brightness values of each pixel match, and it is sufficient that the difference between the maximum value of brightness values and the minimum value of brightness values is equal to or less than a predetermined value. That is, it is only necessary that the variation in the luminance value of each pixel is a predetermined value or less.
[0016]
When it is determined that the luminance values of the pixels in all the luminance division regions are uniform, the number of all these luminance division blocks is obtained as the environmental complexity. The number of such luminance division blocks corresponds to the spatial frequency. That is, if the total number is large, there are many high-frequency components, and the captured image is complicated. Further, when the total number is small, the high-frequency component is small and the captured image is simple. Thus, the complexity of the environment can be obtained by obtaining the number of luminance division blocks.
[0017]
  Claim2The described inventionImaging means for generating a captured image based on imaging light from the environment;A red-based divided block is set in the captured image generated by the imaging unit, and the red-based divided block is divided into new red colors until the set red-based divided block is configured by only predetermined red-based pixels. Repeat the setting of the system division block, and calculate the complexity of the environment based on the number of red system division blocks composed only of the predetermined red system pixels for the captured image.And a complexity calculation means.It is characterized by that.
[0018]
  Claim2In the described invention, the complexity calculation means sets a red-based divided block for the captured image. The red-type divided block set first indicates an area for calculating the complexity. The red-based divided block is divided until the red-based divided block is composed of only predetermined red-based pixels. Then, the divided red-based divided block is set as a new red-based divided block, and this process is repeated. If all the red divided blocks are composed of only predetermined red pixels, the number of all these red divided blocks is determined as the environmental complexity. Red has a characteristic that is more attractive than green, and the number of red-based divided blocks indicates the complexity of the image. Therefore, the complexity of the environment can be obtained by calculating the number of the red divided blocks.
[0019]
  Claim3The described inventionImaging means for generating a captured image based on imaging light from the environment;A luminance division block is set in the captured image generated by the imaging unit, and the luminance division block is divided into new ones until it is determined that the luminance value of each pixel is uniform within the set luminance division block. Repeating the setting of the luminance division block, calculating the number of luminance division blocks in which the luminance values of the respective pixels are uniform for the captured image, and adding the red division block to the captured image generated by the imaging means Until the set red-based divided block is composed of only predetermined red-based pixels, and repeatedly setting the new red-based divided block by dividing the red-based divided block into the captured image. On the other hand, the number of red-based divided blocks composed of only the predetermined red-based pixels is calculated, and the number of red-colored divided blocks and the number of red-based divided blocks are calculated based on the number of red-colored divided blocks. To calculate the complexity of theAnd a complexity calculation means.It is characterized by that.
[0020]
  Claim3In the described invention, the complexity calculation means is the claim.1The number of luminance division blocks is determined in the same manner as described in the invention, and further,2The number of red-type divided blocks is obtained in the same manner as described above, and the complexity of the environment is obtained based on the total number of these blocks. The complexity of the environment is calculated by multiplying the number of luminance division blocks, the number of red division blocks, the product of the number of luminance division blocks and the number of red division blocks by a predetermined weighting factor, Is preferred.
[0021]
  Claim4The invention described is from claim 13Any one ofenvironmentA complexity computing device; and environment recognition degree estimating means for estimating the environment recognition degree based on the complexity computed by the complexity computing device.
[0022]
  Claim4In the described invention,environmentSince the complexity calculated by the complexity calculation device indicates the complexity of the captured image of the environment, it is used as a parameter for estimating the degree of recognition of the environment of the observer. That is, the environment recognition degree estimation means can estimate the environment recognition degree based on the complexity.
[0023]
  Claim5The described invention is claimed.4In the described invention, the environment recognition degree estimation means estimates that the degree of recognition of the environment is low when the complexity calculated by the complexity calculation apparatus is equal to or greater than a threshold, and is calculated by the complexity calculation apparatus. When the complexity is smaller than the threshold, it is estimated that the degree of recognition of the environment is high.
[0024]
  Claim5In the described invention, a threshold value that serves as a reference value for the degree of environmental recognition is set. In other words, the threshold value is a complexity value indicating an intermediate between a complex environment and a simple environment. Therefore, by using this threshold, the environment recognition level estimation means estimates that the environment recognition level is low when the complexity is equal to or higher than the threshold, and that the environment recognition level is high when the complexity is lower than the threshold. Can be estimated.
[0025]
  Claim6The invention described in claim 5RecordIn the described invention, the apparatus further comprises illuminance detection means for detecting the illuminance of the environment, and the environment recognition degree estimation means comprises:Based on a threshold table describing the threshold corresponding to the illuminance of the environment,The threshold value corresponding to the illuminance detected by the illuminance detection means is set.YouIt is characterized by that.
[0026]
  Claim6In the described invention, even if the complexity is constant, when the outside of the vehicle becomes bright or dark, the observer may feel that the environment is complicated or simple. Therefore, in order to correct the change in the degree of recognition of the environment due to such a change in illuminance, a threshold table in which threshold values corresponding to the illuminance are described in advance is used..Thereby, when the illuminance is detected by the illuminance detection means, a threshold value corresponding to the detected illuminance can be set. And the recognition degree of an environment can be estimated using the set threshold value. As a result, it is possible to accurately estimate the degree of recognition of the environment regardless of the illuminance.
[0027]
  Claim7The described invention is claimed.6In the described invention, the apparatus further includes posture change detection means for detecting a change in the posture of the observer, and the environment recognition degree estimation means increases as the posture change of the observer detected by the posture change detection means increases.The above described in the threshold tableThresholdMaximum value ofIs set larger, and as the posture change of the observer detected by the posture change detection means becomes smallerSaidThresholdMaximum value ofSet to smallerYouIt is characterized by that.
[0028]
  Claim7In the described invention, the observer tends to recognize the environment when the posture change is large. The environmental recognition level estimation means can be used as the posture change of the observer increases.Described in the threshold tableThresholdMaximum value ofIs set to a large value, and the threshold becomes smaller as the observer's posture changesMaximum value ofBy setting small, it is possible to accurately estimate the degree of recognition of the environment so as to match the actual visual characteristics of the observer.
[0029]
  Claim8The invention described in claim 1 estimates the degree of recognition of the environment for each predetermined area.4From7The environment recognition degree estimation device according to any one of the above, obstacle position detection means for detecting the position of an obstacle, and a predetermined area including the position of the obstacle detected by the obstacle detection means, Alarm means for giving an alarm regarding the obstacle when the degree of environment recognition is estimated to be low by the degree estimating means.
[0030]
  Claim8In the described invention, the obstacle position detecting means detects the position of the obstacle. At this time, the environment recognition degree estimation device estimates the degree of recognition of the environment in the predetermined area including the position where the obstacle is detected. Here, when the recognition degree of the environment is high, the observer can sufficiently recognize the obstacle detected by the obstacle position detecting means. On the other hand, if the recognition degree of the environment is low, the observer may not be able to recognize the obstacle detected by the obstacle position detection means. Therefore, the alarm means issues an alarm regarding the obstacle when it is estimated that the predetermined area including the position of the obstacle has a low degree of environment recognition. As a result, the observer can avoid an accident by recognizing in advance that there is an obstacle even if there is an obstacle in a region where the degree of environmental recognition is low. The alarm means can alert the observer by outputting an image or sound.
  The alarm means does not perform an alarm regarding the obstacle when it is estimated that the predetermined area including the position of the obstacle has a high recognition degree of the environment. Thus, the observer can recognize the obstacle when there is an obstacle in a region where the degree of recognition of the environment is high, and is not bothered by an extra alarm.
[0031]
  Claim9The described invention is claimed.8In the described invention, the environment recognition degree estimation device divides an area excluding the lower part of the captured image into a plurality of estimation areas, estimates an environment recognition degree for each of the divided estimation areas, and the warning means When the position of the obstacle detected by the obstacle position detecting means is in any of the estimated areas, and the environment recognition degree of the estimated area is estimated to be low by the environment recognition degree estimating means, the priority A warning regarding an obstacle existing in a high estimated area is provided.
[0032]
  Claim8In the described invention, the environment recognition degree estimation device divides an area excluding the lower part of the captured image into a plurality of estimation areas, and estimates the environment recognition degree for each of the divided estimation areas. That is, the recognition degree of the environment is not estimated for the lower part of the captured image. The reason is that the lower part of the imaging screen shows an image of the environment immediately before the observer, and it is meaningless to estimate the degree of recognition of the environment.
[0033]
Whether the warning means has estimated that the position of the obstacle detected by the obstacle position detection means is in any of the estimated areas, and that the environment recognition degree of the estimation area is low by the environment recognition degree estimation means Determine. Here, all estimated regions where obstacles are detected and the degree of environmental recognition is low are selected. Then, an alarm indicating that there is an obstacle is given to an estimated area having a high priority among the selected designated areas. This makes it possible to avoid a major accident by letting the observer be aware of the most dangerous area, and not to inform the observer about the less dangerous area so that the observer is overconfused due to excessive information. Can be prevented.
[0034]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
[0035]
[First Embodiment]
The first embodiment of the present invention can be applied to, for example, the obstacle alarm device 1 having the configuration shown in FIG. The obstacle alarm device 1 includes an infrastructure information detection unit 10 that detects infrastructure information from infrastructure outside the vehicle, an obstacle information detection unit 20 that detects information about roads and surrounding obstacles, An own vehicle state detection unit 30 for detecting an operation state, an environment information detection unit 40 for detecting an environment outside the driver and the vehicle, a slider panel 50 for inputting visual characteristics indicating the degree of environment recognition of the driver, and a fault An obstacle information output unit 60 that outputs object information and a microcomputer 70 that performs overall control based on information detected by each unit are provided.
[0036]
The infrastructure information detection unit 10 includes a GPS receiving circuit 11 that receives a GPS (Global Positioning System) signal, a DVD drive 12 that reads map information recorded on a DVD disc, an approach information receiving circuit 13 that receives approach information, It has.
[0037]
The GPS receiving circuit 11 receives a GPS signal having time and GPS satellite position information via the GPS antenna 11 a and supplies the GPS signal to the microcomputer 70 via the data bus 5. The DVD drive 12 reads the map information from the DVD disk based on the position information where the vehicle is currently traveling, and supplies it to the microcomputer 70 via the data bus 5. The approach information receiving circuit 13 receives approach information transmitted from a data carrier reader, which will be described later, and supplies it to the microcomputer 70 via the data bus 5.
[0038]
The obstacle information detection unit 20 includes an obstacle photographing CCD camera 21 for photographing obstacles on and around the road, and an infrared camera 22 for photographing obstacles on and around the road with infrared rays. A radar transceiver 23 for recognizing a front obstacle.
[0039]
The obstacle photographing CCD camera 21 and the infrared camera 22 are installed so that an object in the vehicle front direction can be imaged. The obstacle photographing CCD camera 21 and the infrared camera 22 supply the photographed photographed image to the microcomputer 70 via the data bus 5. In order to recognize a front obstacle, the radar transceiver 23 sharply squeezes a pulsed optical radar with respect to the obstacle and transmits it in a two-dimensional direction, and receives the optical radar reflected by the obstacle. The radar transmitter / receiver 23 is not limited to transmitting / receiving an optical radar, but may be a transmitter / receiver of radio radar.
[0040]
The own vehicle state detection unit 30 includes, for example, a wheel speed sensor, a steering angle sensor, a throttle valve sensor, a master cylinder oil pressure sensor, a yaw rate sensor, a longitudinal acceleration sensor, a lateral acceleration sensor, and the like. The own vehicle state detection unit 30 detects the vehicle speed, the steering angle, the accelerator operation amount, the brake operation amount, the yaw rate, the roll rate, the pitch rate, the longitudinal acceleration, the lateral acceleration, and the blinker operation amount. Supply.
[0041]
The environment information detection unit 40 includes an illuminance sensor 41 that detects illuminance outside the vehicle, and a driver photographing CCD camera 42 that photographs a driver. Here, only one driver photographing CCD camera 42 is provided. However, in order to easily detect a change in the posture of the driver, three CCD cameras that capture the front front, right front, and left front of the driver are provided. It may be provided.
[0042]
The slider panel 50 is used to input a visual characteristic indicating the complexity of the external environment according to the driver's subjectivity. As shown in FIG. 2, the slider panel 50 has a slider 51 that can move left and right. For example, when the driver tends to overlook the traffic environment, that is, when determining that it is difficult to recognize the traffic environment outside the vehicle, the driver operates the slider 51 in the “weak” direction. Further, the driver operates the slider 51 in the “strong” direction when the traffic environment can be seen well, that is, when it is easy to recognize the traffic environment outside the vehicle. Thereby, as will be described in detail later, the microcomputer 70 can estimate the degree of environment recognition in consideration of the current visual characteristics of the driver.
[0043]
The obstacle information output unit 60 includes an LCD (Liquid Crystal Display) 61 that outputs obstacle information using images, and a speaker 62 that outputs obstacle information using voice.
[0044]
The microcomputer 70 stores a CPU (Central Processing Unit) (not shown), a RAM (Random Access Memory) that is a data work area, a program that executes various routine processes to be described later, an appearance range estimation table, and a threshold table. ROM (Read Only Memory). The microcomputer 70 estimates obstacles that may appear based on information from each unit, estimates the degree of environment recognition of the driver, and performs obstacle information alarms.
[0045]
(Main routine)
In the obstacle alarm device 1 configured as described above, the microcomputer 70 executes the processing from step ST1 to step ST3 shown in FIG. Here, the process from step ST1 to step ST3 will be briefly described first, and then specific subroutines for each process will be described.
[0046]
The microcomputer 70 detects the position of the host vehicle based on the information detected by the infrastructure information detection unit 10 and estimates an obstacle that may appear in the traveling direction of the host vehicle (step ST1). Then, the captured image of the environment in the traveling direction of the host vehicle is divided, and the environment recognition degree indicating whether the driver can easily recognize each divided area is estimated (step ST2). Finally, the microcomputer 70 issues an alarm about the obstacle to the driver by an image or sound as necessary based on the obstacle information that may appear and the degree of environment recognition for each predetermined area (step). ST3).
[0047]
(Step ST1)
In step ST1, the microcomputer 70 executes processing from step ST11 to step ST14 shown in FIG. 4 specifically to estimate an obstacle that may appear in the traveling direction of the host vehicle.
[0048]
In step ST11, the microcomputer 70 detects the position of the host vehicle, and also detects a moving obstacle around the host vehicle position and outside the driver's field of view. Here, for example, the infrastructure described below is used.
[0049]
For example, as shown in FIG. 5, the pedestrian always carries an article (for example, a mobile phone) provided with the data carrier 16. In addition, a data carrier 16 is provided in a two-wheeled vehicle or a four-wheeled vehicle. The data carrier 16 can output several types of approach information, and the pedestrian, two-wheeled vehicle, and four-wheeled vehicle data carrier 16 output different approach information. On the other hand, a data carrier reader 17 for receiving approach information is installed at intersections and pedestrian crossings with poor visibility. When the data carrier 16 approaches, the data carrier reader 17 receives the approach information and transmits the approach information to the obstacle alarm device 1.
[0050]
When the access information transmitted from the data carrier reader 17 is received by the access information receiving circuit 13, the microcomputer 70 of the obstacle alarm device 1 can specify the location of the obstacle, and the obstacle is a pedestrian, Whether the vehicle is a two-wheeled vehicle or a four-wheeled vehicle can be recognized.
[0051]
Then, the microcomputer 70 is based on the GPS signal received by the GPS receiving circuit 11, the map information read from the DVD drive 12, and the approach information received by the approach information receiving circuit 13. In addition to detecting the position, a moving obstacle around the vehicle position and outside the driver's field of view is detected, and the type of the moving obstacle (person, two-wheeled vehicle, or four-wheeled vehicle) is recognized.
[0052]
Further, the microcomputer 70 refers to the appearance range estimation table shown in FIG. 6 and estimates a range where a moving obstacle may appear on the road around the own vehicle based on the type of the moving obstacle. For example, when the microcomputer 70 recognizes a four-wheeled vehicle as a moving obstacle, the microcomputer 70 estimates that the four-wheeled vehicle may appear within a range of 10 m from the current position in the traveling direction. When a pedestrian is recognized as a moving obstacle, it is estimated that the pedestrian may appear within a radius of 1 m from the current position.
[0053]
The microcomputer 70 sets a coordinate system (hereinafter referred to as “own vehicle peripheral coordinate system”) composed of a travel direction axis of the host vehicle and an axis orthogonal to the travel direction axis, and sets the range of possible occurrence of moving obstacles. After describing in the peripheral coordinate system, the process proceeds to step ST12.
[0054]
In step ST12, the microcomputer 70 detects an obstacle within the driver's field of view. Here, the microcomputer 70 drives the obstacle photographing CCD camera 21 and the infrared camera 22 to acquire a captured image generated by the obstacle photographing CCD camera 21 and the infrared camera 22. Then, by obtaining the difference between the images generated by the respective cameras, a moving obstacle is detected by obtaining an image in which a person or a car that is particularly problematic in terms of safety is sufficiently contrasted with the others.
[0055]
Further, the microcomputer 70 obtains a distance image of the front obstacle of the host vehicle based on the round-trip time of the optical radar from transmission to reception by the radar transceiver 23 to recognize the front obstacle. The microcomputer 70 describes the moving obstacle recognized in this way in the own vehicle peripheral coordinate system, and proceeds to step ST13.
[0056]
In step ST <b> 13, the microcomputer 70 detects the own vehicle state based on the information from the own vehicle state detection unit 30. Here, as described in, for example, Japanese Patent Application Laid-Open No. 11-301343, the microcomputer 70 includes a vehicle speed, a steering angle, an accelerator operation amount, a brake operation amount, a yaw rate, a roll rate, a pitch rate, a longitudinal acceleration, a lateral acceleration, The acceleration and turn signal operation amount are detected, the traveling direction of the host vehicle is estimated, the estimation result of the traveling direction of the host vehicle is described in the host vehicle peripheral coordinate system, and the process proceeds to step ST14.
[0057]
In step ST14, the microcomputer 70 only has information on moving obstacles that may appear within the predicted travel range of the host vehicle with respect to the host vehicle peripheral coordinate system obtained by the processes from step ST11 to step ST13. And remove other information. And if the microcomputer 70 displays the information regarding the moving obstruction described in the own vehicle periphery coordinate system on the LCD 61 as an obstruction display screen, it will escape from a subroutine and will transfer to step ST2 shown in FIG.
[0058]
Here, for example, as shown in FIG. 7, the obstacle display screen is a map of the surrounding area where the vehicle is traveling, the current position of the vehicle, the predicted travel range of the vehicle, and a moving obstacle (human or Car etc.) and its possible range of appearance. The size of the moving obstacle displayed on the obstacle display screen indicates a range where the moving obstacle may appear.
[0059]
(Step ST2)
In step ST2, the microcomputer 70 specifically executes the processes from step ST21 to step ST24 shown in FIG. 8 in order to estimate the degree to which the driver recognizes the surrounding environment of the vehicle.
[0060]
In step ST <b> 21, the microcomputer 70 detects a change in the driver's posture using information from the environment information detection unit 40. That is, the microcomputer 70 obtains a difference between frames of the captured image from the driver photographing CCD camera 42 and detects the difference value of the captured image as the moving area amount of the driver.
[0061]
The microcomputer 70 counts “1” when the moving area amount is equal to or larger than the predetermined threshold, and does not count when the moving area amount is smaller than the predetermined threshold. Then, for example, a count value for the past 5 minutes is obtained, and when the count value is less than the threshold value TH1, it is determined that the posture change is “small”, and the count value is greater than or equal to the threshold value TH1 and less than the threshold value TH2 (> TH1). Is determined to be “medium”, and when the count value is equal to or greater than the threshold value TH2, it is determined that the posture change is “large”. Moreover, the microcomputer 70 acquires the illuminance outside the vehicle detected by the illuminance sensor 41, and proceeds to step ST22.
[0062]
In step ST22, the microcomputer 70 calculates the complexity C of the environment for each predetermined area of the obstacle display screen shown in FIG. The complexity C here refers to a parameter used to estimate the degree of recognition of the driver's traffic environment.
[0063]
First, the microcomputer 70 divides the obstacle and the region where the appearance is possible in the obstacle display screen obtained in step ST1 into four in the distance and direction. Here, as shown in FIG. 9, the obstacle display screen is divided into an area A, an area B, an area C, and an area D. As a result, the obstacle display screen includes an area A that is a near-front area of the host vehicle, an area B that is adjacent to the area A and is a far-front area of the host vehicle, an area A, and A region C that is adjacent to B and is a region at the far left front of the host vehicle, and a region D that is adjacent to the regions A and B and is a region at the far right front of the host vehicle. . Obstacle display screen area A to area D are typically divided as shown in FIG.
[0064]
Next, the microcomputer 70 calculates the complexity C of the traffic environment for each of the region B, the region C, and the region D based on the following equation (1).
[0065]
[Expression 1]
Figure 0004752158
[0066]
The index C1 indicates the number of luminance divided blocks, and the index C2 indicates the number of red-based divided blocks. Further, α, β, and γ are weighting coefficients, each having a predetermined value.
[0067]
Here, the calculation of the index C1 will be described. As described above, the microcomputer 70 calculates the index C1 for the regions B, C, and D. Here, the calculation of the index C1 for the region B using the captured image shown in FIG. 11 will be described. To do.
[0068]
The microcomputer 70 drives the obstacle photographing CCD camera 21 to obtain a captured image as shown in FIG. 11, for example. Then, the entire captured image is set as a luminance division block.
[0069]
The microcomputer 70 calculates the difference between the maximum value and the minimum value of the luminance values of each pixel in the set luminance division block. The microcomputer 70 determines whether the difference between the maximum value and the minimum value of the luminance value is equal to or greater than a predetermined threshold value, and divides the luminance division block into four when the difference exceeds the predetermined threshold value. At this time, it is preferable that the microcomputer 70 divides the luminance division block so as to be configured with substantially the same number of pixels in the vertical and horizontal directions and as large as possible.
[0070]
For example, when the brightness value of the captured image is as shown in FIG. 12A, the microcomputer 70 calculates the difference between the maximum value (180) and the minimum value (000) of the brightness values. Then, it is determined whether the difference (180) between the maximum value and the minimum value of the luminance value is a threshold value (for example, 40) or more. Here, the difference exceeds the threshold value (40). As shown, the luminance division block is divided into four.
[0071]
The microcomputer 70 divides the luminance division block into four until the difference between the maximum value and the minimum value of the luminance value of each pixel in the divided luminance division blocks is equal to or less than a predetermined threshold value, and obtains a new luminance. Repeat setting the division block.
[0072]
For example, the luminance division block BK1 shown in FIG. 12A is composed of 4 × 4 pixels, the maximum luminance value is 180, and the minimum luminance value is 20. The microcomputer 70 obtains the difference (160) between the maximum value and the minimum value of the luminance value of the luminance division block BK1, and since the difference is equal to or greater than the threshold value (40), as shown in FIG. The block BK1 is divided into four (BK2, BK3, BK4, BK5).
[0073]
The microcomputer 70 does not divide the luminance division block BK2 because the difference (39) between the maximum value and the minimum value of the luminance values of the luminance division block BK2 is not equal to or greater than the threshold value (40). On the other hand, with respect to the luminance divided blocks BK3, BK4, and BK5, the difference between the maximum value and the minimum value of the luminance values is equal to or greater than the threshold (40), so that each luminance divided block BK is divided as shown in FIG. To do.
[0074]
Through such processing, the microcomputer 70 obtains an index C1 indicating the number of luminance division blocks in which the difference between the maximum and minimum luminance values of each pixel is equal to or less than a predetermined threshold (40). Thereby, the microcomputer 70 makes the luminance values of the pixels constituting the luminance division block uniform.
[0075]
The index C1 is not limited to the number of luminance division blocks in which the difference between the maximum and minimum luminance values of each pixel is equal to or less than a predetermined threshold value. For example, the index C1 may be a variance value of the luminance value of the captured image. In addition, the index C1 may be a sum of high-frequency components of a two-dimensional fast Fourier transform (FFT) of the captured image.
[0076]
Further, as shown in FIG. 12C, the microcomputer 70 divides the luminance division block BK until it becomes 1 × 1 pixel, but the luminance division block BK is divided to have a predetermined size (for example, 4 The division may be terminated when (× 4 pixels) is reached.
[0077]
Next, the calculation of the index C2 will be described. As described above, the microcomputer 70 calculates C2 indicating the number of red-based divided blocks for each predetermined area. Here, for the area B, the index C2 is obtained using the captured image shown in FIG. The operation will be described.
[0078]
The microcomputer 70 drives the obstacle imaging CCD camera 21 to obtain a captured image as shown in FIG. Then, a brightness of 0.3 or more and a saturation of 0.1 or more are extracted from the captured image to obtain a captured image as shown in FIG. 13B, for example. Further, when the microcomputer 70 extracts a hue of 0.1 or less or 0.75 or more, a captured image as shown in FIG. 13C is obtained.
[0079]
The microcomputer 70 repeats block division for the captured image as shown in FIG. 13C so that only the red pixels occupy the same red division block, as shown in FIG. 13D. Then, a red-based divided block composed of red-based pixels (1) or pixels (0) other than red-based pixels is obtained. Then, the microcomputer 70 obtains an index C2 that is the number of red-based divided blocks composed of only red-based pixels.
[0080]
The microcomputer 70 calculates the complexity C of the environment according to the above-described equation (1) using the index C1 indicating the number of obtained luminance divided blocks and the index C2 indicating the number of red-based divided blocks. Move on to ST23. Note that the value of the complexity C calculated as described above changes depending on time as shown in FIG. 14, for example.
[0081]
The index C2 is not limited to the number of red-based divided blocks, and may be the following value, for example.
[0082]
The microcomputer 70 has a color chart of 2.5RP, 5RP, 7.5RP, 10RP, 2.5R, 5R, 7.5R, 10R, 2.5YR, in the Munsell color chart for a captured image of a predetermined area. Only red pixels belonging to 5YR and having chroma 2 or higher and brightness 3 or higher may be extracted. Then, until the same divided block is composed of only the red pixels and only pixels other than the red pixels, the division block is repeatedly divided, and the number of obtained divided blocks is set as the index C2. Good.
[0083]
Further, the microcomputer 70 has a color chart of 2.5RP, 5RP, 7.5RP, 10RP, 2.5R, 5R, 7.5R, 10R, 2. 5YR and 5YR, and only red pixels having chroma 2 or more and lightness 3 or more may be extracted, and the number of red pixels may be used as the index C2. Alternatively, the sum of the distances of the red pixels described above from the center of the captured image may be used as the index C2.
[0084]
In step ST23, the microcomputer 70 sets a threshold th for determining the degree of environment recognition. The threshold th is set to be different depending on the ambient illuminance outside the vehicle. The reason is that even if the value of complexity C is constant, the driver may feel that the traffic environment is complex or simple when the outside of the vehicle becomes bright or dark.
[0085]
For example, as shown in FIG. 15, the microcomputer 70 stores a threshold value table describing the threshold value th for the ambient illuminance. According to FIG. 15, the threshold th is the minimum value (constant) when the ambient illuminance is from zero to S1, and increases at a constant rate as the ambient illuminance increases from S1 to S2. The threshold th is the maximum value (constant) when the environmental illuminance is from S2 to S3, and decreases at a constant rate as the environmental illuminance increases from S3. Note that the threshold table shown in FIG. 15 is an example of the present embodiment, and the present invention is not limited to this.
[0086]
Therefore, the microcomputer 70 sets the threshold th based on the environmental illuminance detected by the illuminance sensor 41 with reference to the threshold table. Furthermore, the microcomputer 70 can reset the maximum value of the threshold th in accordance with the operation input value of the driver and the change in the posture of the driver.
[0087]
First, the microcomputer 70 sets the maximum value of the threshold th according to the input value of the slider 51 provided on the slider panel 50. For example, when the driver slides the slider 51 toward “strong”, the microcomputer 70 sets the maximum value of the threshold th large as shown in FIG. On the other hand, when the driver slides the slider 51 toward “weak”, the microcomputer 70 sets the maximum value of the threshold th small. If the slider 51 is between “strong” and “weak”, the microcomputer 70 may remain at the default threshold th set based on the ambient illuminance.
[0088]
Next, the microcomputer 70 sets the maximum value of the threshold th in accordance with the change in the posture of the driver. The reason is that the driver tends to recognize various environments when there is frequent posture change, and tends to be difficult to recognize the environment when there is no posture change. Therefore, the microcomputer 70 sets the threshold th as follows in consideration of the relationship between the ease of recognition of the traffic environment and the change in the posture of the driver.
[0089]
For example, when the microcomputer 70 determines that the change in the posture of the driver is “small” in step ST21 described above, the microcomputer 70 sets the maximum value of the threshold th as shown in FIG. On the other hand, for example, when it is determined in step ST21 that the change in the posture of the driver is “large”, the maximum value of the threshold th is set large. When the microcomputer 70 determines that the change in the posture of the driver is “medium”, the microcomputer 70 may keep the default threshold th set based on the environmental illuminance.
[0090]
As described above, the microcomputer 70 determines the threshold th based on the threshold value table in which the threshold value th corresponding to the ambient illuminance is described, the input value of the slider 51 provided in the slider panel 50, and the change in the attitude of the driver. Is set, the process proceeds to step ST24.
[0091]
In step ST24, as shown in FIG. 17, the microcomputer 70 compares the complexity C calculated in step ST22 with the threshold th set in step ST23. When the complexity C does not exceed the threshold th, it is determined that the environment is not complicated, that is, simple. When the complexity C exceeds the threshold th, it is determined that the environment is complex.
[0092]
The microcomputer 70 determines that the traffic environment is “simple” when the captured image obtained by the obstacle photographing CCD camera 21 is, for example, a forward scenery as shown in FIG. 18. For example, as shown in FIG. 19. In the case of a forward scenery, it is determined that the traffic environment is “complex”. Then, the subroutine processing is terminated, and the process proceeds to step ST3 shown in FIG.
[0093]
(Step ST3)
In step ST3, the microcomputer 70 issues an obstacle warning to the driver. Here, it is determined whether there is an alarm request flag for each area, and a predetermined alarm is given to the driver using a flag having a high priority. The warning request flag here refers to a flag indicating that it is necessary to give a warning to the driver due to the presence of an obstacle or the like in the predetermined area. Specifically, the microcomputer 70 executes processing from step ST31 to step ST42 shown in FIG.
[0094]
In step ST31, the microcomputer 70 determines whether or not to generate a warning request flag for the area A. Specifically, the subroutine from step ST51 to step ST54 shown in FIG. 21 is executed.
[0095]
In step ST51, the microcomputer 70 determines whether an obstacle has been detected in the area A or whether the current vehicle position is within the obstacle appearance range, and if either condition is satisfied, the microcomputer 70 proceeds to step ST52. When the process proceeds and none of the conditions are satisfied, the subroutine processing is terminated.
[0096]
In step ST52, the microcomputer 70 determines whether the vehicle is taking an avoidance action against the obstacle based on the own vehicle state detected in step ST13 described above. When the process proceeds to step ST53 and the avoidance action is not taken, the subroutine process is terminated.
[0097]
In step ST53, the microcomputer 70 determines whether it is impossible for the own vehicle to avoid the obstacle based on the information on the obstacle detected in step ST1 and the own vehicle state. For example, even if the driver steps on the brake pedal or operates the steering wheel to take an avoidance action against the obstacle, if the own vehicle cannot avoid the obstacle, the process proceeds to step ST54. When the obstacle can be avoided, the subroutine processing is terminated.
[0098]
In step ST54, the microcomputer 70 generates an alarm request flag in the area A and ends the subroutine processing. When the microcomputer 70 completes such a subroutine process, the microcomputer 70 proceeds to step ST32 shown in FIG.
[0099]
In step ST32, the microcomputer 70 determines whether to generate an alarm request flag for each of the regions B, C, and D. Specifically, the subroutine processing from step ST61 to step ST64 shown in FIG. 22 is executed. Here, since the same processing is performed in any region, the processing in region B will be described as an example.
[0100]
In step ST61, the microcomputer 70 determines whether an obstacle has been detected in the region B or whether the current vehicle position is within the obstacle appearance range, and if either condition is satisfied, the microcomputer 70 proceeds to step ST62. When the process proceeds and none of the conditions are satisfied, the subroutine processing is terminated.
[0101]
In step ST62, the microcomputer 70 determines whether or not the region B is complicated in step ST2 described above, that is, whether or not the complexity C of the region B exceeds the threshold th in step ST2. When the complexity C of the region B exceeds the threshold th, the process proceeds to step ST63, and when it does not exceed the threshold th, the subroutine processing is terminated.
[0102]
In step ST63, the microcomputer 70 determines whether the place of the obstacle or the obstacle appearance range is a place where an alarm is issued for the first time, and when it is a place where an alarm is issued for the first time, the microcomputer 70 proceeds to step ST64 and issues an alarm for the first time. If it is not a place, the subroutine processing is terminated.
[0103]
In step ST64, the microcomputer 70 generates an alarm request flag in the area B and ends the subroutine processing. When the microcomputer 70 completes the above subroutine processing, the microcomputer 70 proceeds to step ST33 shown in FIG.
[0104]
In step ST33, the microcomputer 70 determines whether or not there is an alarm request flag for area A. If there is an alarm request flag for area A, the microcomputer 70 proceeds to step ST39 and there is no alarm request flag for area A. If so, the process proceeds to step ST34.
[0105]
In step ST34, the microcomputer 70 determines whether or not there is an alarm request flag for area C or area D. Then, when there is an alarm request flag in at least one of the areas, the process proceeds to step ST38, and when there is no alarm request flag in any of the areas, the process proceeds to step ST35.
[0106]
In step ST35, the microcomputer 70 determines whether or not there is an alarm request flag for area B. If there is an alarm request flag for area B, the microcomputer 70 proceeds to step ST36 and there is no alarm request flag for area B. If so, the subroutine processing is terminated.
[0107]
As described above, the microcomputer 70 sets the priority order in the order of the area A, the area C or the area D, and the area B by executing the processes in the order from step ST33 to step ST35. The warning is performed.
[0108]
In step ST36, the microcomputer 70 determines whether or not there is an alarm request flag for area A in the previous determination process. If there is an alarm request flag for area A, the microcomputer 70 proceeds to step ST37, and the alarm request flag for area A is set. If not, the subroutine processing is terminated.
[0109]
In step ST <b> 37, the microcomputer 70 issues a warning for area B to the driver. The microcomputer 70 displays a warning to the driver on the LCD 61 such as “Please be careful about obstacles ahead” and “Be close to the intersection. Then, the subroutine processing is terminated.
[0110]
Further, in step ST38 when it is determined that there is at least one warning request flag for area C or area D in step ST34, the microcomputer 70 issues a warning to the driver regarding the area having the warning request flag. I do. An example of the alarm request is the same as step ST37.
[0111]
On the other hand, in step ST39 when it is determined that there is an alarm request flag for area A in step ST33, it is determined whether the alarm request flag for area A is equal to or greater than a predetermined number, and the alarm request flag is equal to or greater than a predetermined number. If there is, the process proceeds to step ST40, and if there is not a predetermined number of warning request flags, the process proceeds to step ST42.
[0112]
In step ST40, the microcomputer 70 determines whether or not the vehicle speed detected by the own vehicle state detection unit 30 is equal to or higher than a predetermined value. When the vehicle speed is higher than or equal to a predetermined value, the microcomputer 70 proceeds to step ST41 and the vehicle speed is equal to the predetermined value. If not, the process proceeds to step ST42.
[0113]
In step ST41, the microcomputer 70 issues a first alarm in the area A to the driver. As the first alarm for the driver, the microcomputer 70 displays, for example, “Collision warning. Please decelerate” on the LCD 61 or outputs from the speaker 62 by voice, and ends the subroutine processing.
[0114]
In step ST42, the microcomputer 70 gives a second alarm in the area A to the driver. The microcomputer 70 displays, for example, “Avoid obstacles” on the LCD 61 as the second alarm for the driver, or outputs it from the speaker 62 by voice, and the subroutine processing is terminated.
[0115]
When the microcomputer 70 completes the subroutine processing in step ST3, the microcomputer 70 terminates the alarm for the driver. As described above, the microcomputer 70 sets the priority order to the alarm request flag of each area and performs processing, thereby suppressing the alarm to the driver to the minimum and preventing the driver from being confused due to excessive information. can do.
[0116]
As described above, the obstacle alarm device 1 according to the first embodiment automatically recognizes a moving obstacle, estimates the possible range of appearance of the moving obstacle, and further at the place where the moving obstacle appears. By considering the recognition degree of the traffic environment of the driver, the driver can recognize the moving obstacle without confusing the driver. In addition, the obstacle alarm device 1 can prevent accidents by encouraging the vehicle speed of the host vehicle to be reduced when the amount of information to be presented to the driver is large.
[0117]
When the obstacle warning device 1 detects an obstacle in any of the areas A to D shown in FIG. 10, the area A immediately before the host vehicle is given the highest priority, and the obstacle existing in the area A is detected. Alarm. Thereby, the obstacle alarm device 1 can avoid the crisis that has just approached.
[0118]
[Other embodiments]
Next, another embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected about the location which overlaps with 1st Embodiment, and detailed description is abbreviate | omitted.
[0119]
(Division of captured image)
In the first embodiment, as shown in FIG. 10, the microcomputer 70 divides the imaging region into four regions from region A to region D, and indexes C1 and C2 in region B, region C, and region D. Was calculating
On the other hand, for example, the microcomputer 70 may divide the captured image shown in FIG. 23A into four regions as shown in FIG. That is, the microcomputer 70 divides the captured image into four regions by dividing the rectangular captured image along two diagonal lines. Then, similarly to the first embodiment, the index C1 and the index C2 may be calculated for each region.
[0120]
Further, the microcomputer 70, for example, converts the captured image shown in FIG. 24A into four areas, that is, an area (1), two areas (2), and an area (3) as shown in FIG. It may be divided. Here, the region (1) is a region indicating the vehicle immediately before the host vehicle. Region (2) is a region on both outer sides of region (1). Region (3) is a region other than region (1) and region (2).
[0121]
The microcomputer 70 divides the luminance division block into 1 × 1 pixels for the region (1), divides up to 2 × 2 pixels for the region (2), and divides up to 2 × 2 pixels for the region (3). Thus, the index C1 can be calculated in each region. Furthermore, the microcomputer 70 can divide the red-based divided block into 1 × 1 pixels in each region, obtain an image shown in FIG. 24C, and calculate the index C2 in each region.
[0122]
Furthermore, the microcomputer 70 can also divide the captured image as follows. For example, as shown in FIG. 25, the captured image may be divided into “bottom of screen”, “center of screen”, “left of screen”, and “right of screen”. The “lower part of the screen” is a rectangular area from about 1/5 to 1/4 in the vertical direction below the captured image. The “center of the screen” is a triangular area, and one side of the triangle is adjacent to the “lower part of the screen”, and the diagonal of the one side is located at the upper end of the imaging screen. The “left side of the screen” is a trapezoidal region on the left side of the region other than “the lower part of the screen” and “the center of the screen”. The “right side of the screen” is a trapezoidal region on the right side of the region other than the “bottom of the screen” and the “center of the screen”.
[0123]
The center of the screen may be further divided as shown in FIG.
[0124]
(Setting of threshold th)
The microcomputer 70 is not limited to the case where the threshold th is set according to the input value of the slider 51 operated by the driver as in the first embodiment. For example, each input of the slider 51 operated by a plurality of drivers is used. You may make it set according to a value.
[0125]
FIG. 27 is a diagram in which the recognition degree of the environment input by the driver is plotted when ten captured images are presented to ten drivers. The microcomputer 70 can set an appropriate threshold th by, for example, calculating the average of these values.
[0126]
(Other calculation methods of complexity C)
The microcomputer 70 calculates the complexity C according to the equation (1) and compares the complexity C with the threshold th to estimate the degree of environment recognition. However, the present invention is not limited to this. .
[0127]
For example, as shown in FIG. 28, the microcomputer 70 may store a recognition degree map indicating the recognition degrees determined by the indices C1 and C2. At this time, the microcomputer 70 may calculate the index C1 and the index C2 in the same manner as in the first embodiment, and estimate the environment recognition level with reference to the recognition level map. For example, the microcomputer 70 determines that the degree of recognition of the environment is high when (C1, C2) = (a, b), and the degree of recognition of the environment when (C1, C2) = (c, d). It can be determined that the value is low.
[0128]
(3D space layout)
The microcomputer 70 divides the captured image into predetermined areas in advance, calculates the index C1 and the index C2 for each predetermined area as in the first embodiment, and further calculates the indices C1 and C2. Then, the index C1, the index C2, and the indices C1 and C2 are arranged in a three-dimensional vector space as shown in FIG. 29, and the value (magnitude, direction) of the movement vector on each pixel is used as the complexity C. You can also.
[0129]
At this time, for example, as shown in FIG. 30, a first area that is estimated to have a low degree of environmental recognition and a second area that is estimated to have a high degree of environmental recognition are included in a three-dimensional vector space. It may be provided. The microcomputer 70 determines which of the areas the complexity C obtained using the three-dimensional space belongs, and if the complexity C is in the first area, the driver has a low degree of environmental recognition. Assuming that the complexity C is in the second region, the driver can estimate that the degree of environment recognition is high.
[0130]
(Neural network)
The microcomputer 70 may estimate the degree of environment recognition using a neural network. FIG. 31 is a block diagram showing a functional configuration of the microcomputer 70 that estimates the degree of recognition of the environment using a neural network.
[0131]
The microcomputer 70 includes a neural network 71 composed of a conversion function having an updatable database, a recognition degree estimation unit 72 that estimates the recognition degree of the driver environment, and an arithmetic unit 73 that performs a process of subtracting the estimated value from the input value. And. Instead of the neural network 71, a learning function may be provided by a statistical method.
The computing unit 73 subtracts the estimated value of the environment recognition level estimated by the recognition level estimation unit 72 from the input value of the slider 51 shown in FIG. The neural network 71 sequentially learns based on the subtraction value subtracted by the computing unit 73 and the complexity C, and supplies the learned complexity C to the recognition degree estimation unit 72. The recognition degree estimation unit 72 may estimate the environment recognition degree for each driver using the learned complexity C from the neural network 71.
[0132]
As a result, the microcomputer 70 can sequentially learn in consideration of the driver's actual environment recognition, and can accurately estimate the degree of recognition of the traffic environment according to the driver's individual visual characteristics.
[0133]
【The invention's effect】
The environmental complexity computing device according to the present invention is based on at least one of a luminance change distribution included in a captured image generated by the imaging unit and a red pixel distribution included in the captured image. By calculating the degree, it is possible to obtain the difficulty of recognizing the environment, that is, the complexity indicating the complexity of the environment.
[0134]
The environment recognition degree estimation device according to the present invention estimates the recognition degree of the environment of the observer objectively and accurately by estimating the recognition degree of the environment based on the complexity calculated by the complexity calculation device. Can do.
[0135]
The obstacle alarm device according to the present invention detects the position of an obstacle, and performs an alarm regarding the obstacle when a predetermined area including the detected obstacle position is estimated to have a low degree of environmental recognition. Thus, when there is an obstacle in an area where the degree of environmental recognition is low, the observer can be warned of the presence of the obstacle. On the other hand, since an alarm is not issued when there is an obstacle in a region where the degree of environmental recognition is high, it is possible to prevent the observer from being bothered by an extra alarm.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an obstacle alarm device according to an embodiment of the present invention.
FIG. 2 is a diagram showing a configuration of a slider panel provided in the obstacle alarm device.
FIG. 3 is a flowchart showing a main routine of an operation procedure of a microcomputer provided in the obstacle alarm device.
FIG. 4 is a flowchart showing a specific operation procedure of step ST1 in the main routine.
FIG. 5 is a diagram for explaining an outline of a data carrier and a data carrier reader;
FIG. 6 is a diagram showing an appearance range estimation table stored in a microcomputer.
FIG. 7 is a diagram showing an obstacle display screen displayed on the LCD.
FIG. 8 is a flowchart showing a specific operation procedure of step ST2 in the main routine.
FIG. 9 is a diagram illustrating a state in which an obstacle display screen is divided from region A to region D.
FIG. 10 is a diagram for explaining a state in which an obstacle display screen is divided into a region A and a region D schematically.
11 is a diagram illustrating an example of a captured image when calculating an index C1 in a region B. FIG.
FIG. 12 is a diagram illustrating an example of a luminance value of a captured image.
FIG. 13 is a diagram illustrating an example of a captured image.
FIG. 14 is a diagram illustrating a state in which complexity C changes with time.
FIG. 15 is a diagram illustrating a threshold value table in which threshold values for environmental illuminance are described.
FIG. 16 is a diagram illustrating a state in which a threshold th changes according to a change in the posture of a driver.
FIG. 17 is a diagram for estimating the recognition degree of the environment by comparing the complexity C and the threshold th.
FIG. 18 is a diagram illustrating an example of a landscape image with a simple traffic environment.
FIG. 19 is a diagram illustrating an example of a landscape image having a complicated traffic environment.
FIG. 20 is a flowchart showing a specific operation procedure of step ST3 in the main routine.
FIG. 21 is a flowchart showing a specific operation procedure of step ST31 in the subroutine.
FIG. 22 is a flowchart showing a specific operation procedure of step ST32 in the subroutine.
FIG. 23 is a diagram for explaining another method for dividing a captured image;
FIG. 24 is a diagram for explaining another technique for dividing a captured image;
FIG. 25 is a diagram for explaining another technique for dividing a captured image;
FIG. 26 is a diagram illustrating an example of division at the center of the screen.
FIG. 27 is a diagram plotting the recognition degree of the environment input by a driver when ten captured images are presented to ten drivers.
FIG. 28 is a diagram showing a recognition degree map showing the recognition degrees determined by the indicators C1 and C2.
FIG. 29 is a diagram illustrating a three-dimensional vector space including an index C1, an index C2, and indices C1 and C2.
FIG. 30 is a diagram illustrating a state in which a first region estimated to have a low degree of environmental recognition and a second region estimated to have a high degree of environmental recognition are provided in a three-dimensional vector space. It is.
FIG. 31 is a block diagram showing a functional configuration of a microcomputer that estimates the degree of recognition of an environment using a neural network.
[Explanation of symbols]
1 Obstacle alarm device
10 Infrastructure information detector
20 Obstacle information detector
40 Environmental Information Detection Unit
60 Obstacle information output section
70 Microcomputer

Claims (9)

環境からの撮像光に基づいて撮像画像を生成する撮像手段と、
前記撮像手段で生成された撮像画像に輝度分割ブロックを設定し、設定された輝度分割ブロック内において各画素の輝度値が均質であると判断されるまで、前記輝度分割ブロックを分割して新たな輝度分割ブロックを設定することを繰り返し、前記撮像画像に対して、各画素の輝度値が均質になった輝度分割ブロックの数に基づいて環境の複雑度を演算する複雑度演算手段と、
を備えた環境複雑度演算装置。
Imaging means for generating a captured image based on imaging light from the environment;
A luminance division block is set in the captured image generated by the imaging unit, and the luminance division block is divided into new ones until it is determined that the luminance value of each pixel is uniform within the set luminance division block. Complexity calculating means for calculating the complexity of the environment based on the number of luminance divided blocks in which the luminance value of each pixel is uniform with respect to the captured image, repeatedly setting luminance divided blocks ;
Environmental complexity computing device.
環境からの撮像光に基づいて撮像画像を生成する撮像手段と、
前記撮像手段で生成された撮像画像に赤色系分割ブロックを設定し、設定された赤色系分割ブロックが所定の赤色系画素のみで構成されるまで、前記赤色系分割ブロックを分割して新たな赤色系分割ブロックを設定することを繰り返し、前記撮像画像に対して、前記所定の赤色系画素のみで構成される赤色系分割ブロックの数に基づいて環境の複雑度を演算する複雑度演算手段と、
備えた環境複雑度演算装置。
Imaging means for generating a captured image based on imaging light from the environment;
A red-based divided block is set in the captured image generated by the imaging unit, and the red-based divided block is divided into new red colors until the set red-based divided block is configured by only predetermined red-based pixels. Repetitively setting a system division block, and for the captured image, a complexity calculation means for calculating the complexity of the environment based on the number of red system division blocks composed of only the predetermined red system pixels ;
Environmental complexity computation device equipped with.
環境からの撮像光に基づいて撮像画像を生成する撮像手段と、
前記撮像手段で生成された撮像画像に輝度分割ブロックを設定し、設定された輝度分割ブロック内において各画素の輝度値が均質であると判断されるまで、前記輝度分割ブロックを分割して新たな輝度分割ブロックを設定することを繰り返し、前記撮像画像に対して、各画素の輝度値が均質になった輝度分割ブロックの数を演算し、前記撮像手段で生成された撮像画像に赤色系分割ブロックを設定し、設定された赤色系分割ブロックが所定の赤色系画素のみで構成されるまで、前記赤色系分割ブロックを分割して新たな赤色系分割ブロックを設定することを繰り返し、前記撮像画像に対して、前記所定の赤色系画素のみで構成される赤色系分割ブロックの数を演算し、前記輝度分割ブロックの数と、赤色系分割ブロックの数と、に基づいて環境の複雑度を演算する複雑度演算手段と、
備えた環境複雑度演算装置。
Imaging means for generating a captured image based on imaging light from the environment;
A luminance division block is set in the captured image generated by the imaging unit, and the luminance division block is divided into new ones until it is determined that the luminance value of each pixel is uniform within the set luminance division block. Repeating the setting of the luminance division block, calculating the number of luminance division blocks in which the luminance values of the respective pixels are uniform for the captured image, and adding the red division block to the captured image generated by the imaging means Until the set red-based divided block is composed of only predetermined red-based pixels, and repeatedly setting the new red-based divided block by dividing the red-based divided block into the captured image. On the other hand, the number of red-based divided blocks composed of only the predetermined red-based pixels is calculated, and the number of red-colored divided blocks and the number of red-based divided blocks are calculated based on the number of red-colored divided blocks. A complexity calculating means for calculating a complexity of,
Environmental complexity computation device equipped with.
請求項1からのいずれか1項記載の環境複雑度演算装置と、
前記複雑度演算装置で演算された複雑度に基づいて、環境の認識度合を推定する環境認識度合推定手段と、
を備えた環境認識度合推定装置。
The environmental complexity computing device according to any one of claims 1 to 3 ,
An environment recognition degree estimating means for estimating an environment recognition degree based on the complexity computed by the complexity computing device;
An environment recognition degree estimation device comprising:
前記環境認識度合推定手段は、前記複雑度演算装置で演算された複雑度が閾値以上であるときは環境の認識度合が低いと推定し、前記複雑度演算装置で演算された複雑度が閾値より小さいときは環境の認識度合が高いと推定すること
を特徴とする請求項記載の環境認識度合推定装置。
The environment recognition degree estimation means estimates that the degree of recognition of the environment is low when the complexity calculated by the complexity calculator is equal to or greater than a threshold, and the complexity calculated by the complexity calculator is greater than the threshold. The environment recognition level estimation device according to claim 4, wherein when it is small, the environment recognition level is estimated to be high.
環境の照度を検出する照度検出手段を更に備え、
前記環境認識度合推定手段は、前記環境の照度に対応する前記閾値が記述された閾値テーブルに基づいて、前記照度検出手段により検出された照度に対応する前記閾値を設定ること
を特徴とする請求項5載の環境認識度合推定装置。
It further comprises illuminance detection means for detecting the illuminance of the environment,
The environment recognition degree estimating means, on the basis of the threshold table to which the threshold has been described corresponding to the illuminance of the environment, characterized in that you set the threshold value corresponding to the detected illuminance by the illuminance detecting means 5. Symbol mounting environment recognition degree estimation device.
観察者の姿勢変化を検出する姿勢変化検出手段を更に備え、
前記環境認識度合推定手段は、前記姿勢変化検出手段で検出された観察者の姿勢変化が大きくなるに従って前記閾値テーブルに記述された前記閾値の最大値を大きく設定し、前記姿勢変化検出手段で検出された観察者の姿勢変化が小さくなるに従って前記閾値の最大値を小さく設定ること
を特徴とする請求項記載の環境認識度合推定装置。
It further comprises posture change detecting means for detecting the posture change of the observer,
The environment recognition degree estimation means sets the maximum value of the threshold value described in the threshold value table as the observer's posture change detected by the posture change detection means increases, and is detected by the posture change detection means. observers of environment recognition degree estimation apparatus according to claim 6, wherein the posture change is characterized that you set smaller the maximum value of the threshold in accordance reduced.
所定領域毎に環境の認識度合を推定する請求項からのいずれか1項記載の環境認識度合推定装置と、
障害物の位置を検出する障害物位置検出手段と、
前記障害物検出手段で検出された障害物の位置を含む所定領域が、前記環境認識度合推定手段によって環境の認識度合が低いと推定されたときに、前記障害物に関する警報を行う警報手段と、
を備えた障害物警報装置。
The environment recognition degree estimation device according to any one of claims 4 to 7 , which estimates an environment recognition degree for each predetermined area;
Obstacle position detecting means for detecting the position of the obstacle;
A warning unit that issues a warning about the obstacle when the predetermined area including the position of the obstacle detected by the obstacle detection unit is estimated by the environment recognition degree estimation unit to have a low degree of environment recognition;
Obstacle alarm device with.
前記環境認識度合推定装置は、撮像画像の下部を除く領域を複数の推定領域に分割し、分割された推定領域毎に環境の認識度合を推定し、
前記警報手段は、前記障害物位置検出手段により検出された障害物の位置が前記推定領域のいずれにあり、かつ、当該推定領域の環境の認識度合が前記環境認識度合推定手段によって低いと推定されたときに、優先度の高い推定領域に存在する障害物に関する警報を行うこと
を特徴とする請求項記載の障害物警報装置。
The environment recognition degree estimation device divides an area excluding a lower part of a captured image into a plurality of estimation areas, estimates an environment recognition degree for each divided estimation area,
The warning means is estimated that the position of the obstacle detected by the obstacle position detecting means is in any of the estimated areas, and the environment recognition degree of the estimated area is low by the environment recognition degree estimating means. The obstacle alarm device according to claim 8 , wherein an alarm regarding an obstacle existing in an estimated area having a high priority is issued.
JP2001258170A 2001-08-28 2001-08-28 Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device Expired - Fee Related JP4752158B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001258170A JP4752158B2 (en) 2001-08-28 2001-08-28 Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001258170A JP4752158B2 (en) 2001-08-28 2001-08-28 Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device

Publications (2)

Publication Number Publication Date
JP2003067727A JP2003067727A (en) 2003-03-07
JP4752158B2 true JP4752158B2 (en) 2011-08-17

Family

ID=19085738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001258170A Expired - Fee Related JP4752158B2 (en) 2001-08-28 2001-08-28 Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device

Country Status (1)

Country Link
JP (1) JP4752158B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3931860B2 (en) 2003-07-30 2007-06-20 アイシン精機株式会社 Mobile communication device
WO2005093657A1 (en) * 2004-03-29 2005-10-06 Pioneer Corporation Road view analyzing device and method
JP4650079B2 (en) * 2004-11-30 2011-03-16 日産自動車株式会社 Object detection apparatus and method
JP4628135B2 (en) * 2005-02-23 2011-02-09 ユーテック株式会社 Ultrasonic identification device and control device using the ultrasonic identification device
JP4811201B2 (en) * 2005-12-06 2011-11-09 日産自動車株式会社 Runway boundary line detection apparatus and runway boundary line detection method
JP4730131B2 (en) * 2006-02-27 2011-07-20 マツダ株式会社 Vehicle travel support device
JP4670805B2 (en) * 2006-12-13 2011-04-13 株式会社豊田中央研究所 Driving support device and program
JP2008191781A (en) * 2007-02-01 2008-08-21 Hitachi Ltd Collision avoidance system
JP2010141755A (en) * 2008-12-15 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> System, method and program for monitoring road
WO2011117974A1 (en) * 2010-03-23 2011-09-29 パイオニア株式会社 Dangerous spot warning device and dangerous spot warning method
US9070023B2 (en) * 2013-09-23 2015-06-30 Toyota Motor Engineering & Manufacturing North America, Inc. System and method of alerting a driver that visual perception of pedestrian may be difficult
JP6384534B2 (en) * 2016-09-29 2018-09-05 マツダ株式会社 Vehicle target detection system
JP6332383B2 (en) * 2016-09-29 2018-05-30 マツダ株式会社 Vehicle target detection system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6462784A (en) * 1987-09-03 1989-03-09 Ricoh Kk Identifying method for picture attribute
JP2839100B2 (en) * 1989-05-15 1998-12-16 マツダ株式会社 Apparatus and method for recognizing forward vehicle of moving vehicle
JP3082507B2 (en) * 1993-04-07 2000-08-28 日産自動車株式会社 Mobile image processing device
JP3138135B2 (en) * 1994-04-27 2001-02-26 日野自動車株式会社 Turn alarm
JPH0995194A (en) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd Detecting device for object in front of vehicle
US6633611B2 (en) * 1997-04-24 2003-10-14 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for region-based moving image encoding and decoding
US6154559A (en) * 1998-10-01 2000-11-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for classifying an individual's gaze direction
JP4366758B2 (en) * 1999-05-27 2009-11-18 コニカミノルタホールディングス株式会社 Region extraction apparatus, region extraction method, and recording medium recording region extraction program
JP2000348184A (en) * 1999-06-01 2000-12-15 Toshiba Corp Method and device for background picture generation

Also Published As

Publication number Publication date
JP2003067727A (en) 2003-03-07

Similar Documents

Publication Publication Date Title
CN111133447B (en) Method and system for object detection and detection confidence for autonomous driving
CN110494863B (en) Determining drivable free space of an autonomous vehicle
CN111095291B (en) Real-time detection of lanes and boundaries by autonomous vehicles
US11508049B2 (en) Deep neural network processing for sensor blindness detection in autonomous machine applications
CN113811886B (en) Intersection detection and classification in autonomous machine applications
CN113168505B (en) Regression-based line detection for autonomous driving machines
US11675359B2 (en) Path detection for autonomous machines using deep neural networks
US20200218979A1 (en) Distance estimation to objects and free-space boundaries in autonomous machine applications
CN113785302A (en) Intersection attitude detection in autonomous machine applications
JP4678110B2 (en) Environmental risk calculator
JP5179686B2 (en) Driving behavior risk calculation device
CN108082037A (en) Brake lamp detects
CN114450724A (en) Future trajectory prediction in a multi-actor environment for autonomous machine applications
US10336252B2 (en) Long term driving danger prediction system
CN112825134A (en) Deep neural network for detecting obstacles using RADAR sensors in autonomous machine applications
JP4752158B2 (en) Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device
WO2020098004A1 (en) Lane traffic status reminder method and device
JPWO2012169029A1 (en) Lane departure prevention support apparatus, lane departure prevention method, and storage medium
CN116263688A (en) Single and cross sensor object tracking using feature descriptor mapping in autonomous systems and applications
CN114684062A (en) Restraint device positioning
CN112970029A (en) Deep neural network processing for sensor blind detection in autonomous machine applications
US20240046779A1 (en) Driving determination system, driving determination method, and recording medium
JP2024045551A (en) Information Output Device
JP2021144311A (en) Information processor
CN114913507A (en) Pedestrian detection method and device based on bus tail screen and bus tail screen

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110509

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees