JP2010146284A - 車両用対象物検出装置及び車両用運転支援システム - Google Patents

車両用対象物検出装置及び車両用運転支援システム Download PDF

Info

Publication number
JP2010146284A
JP2010146284A JP2008322762A JP2008322762A JP2010146284A JP 2010146284 A JP2010146284 A JP 2010146284A JP 2008322762 A JP2008322762 A JP 2008322762A JP 2008322762 A JP2008322762 A JP 2008322762A JP 2010146284 A JP2010146284 A JP 2010146284A
Authority
JP
Japan
Prior art keywords
image
vehicle
parallax
feature point
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008322762A
Other languages
English (en)
Other versions
JP5267101B2 (ja
Inventor
Satoru Matsuoka
悟 松岡
Haruhisa Kore
治久 是
Koji Iwase
耕二 岩瀬
Takanori Kume
孝則 久米
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2008322762A priority Critical patent/JP5267101B2/ja
Publication of JP2010146284A publication Critical patent/JP2010146284A/ja
Application granted granted Critical
Publication of JP5267101B2 publication Critical patent/JP5267101B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車両前方を車室内からフロントウィンドガラスを通して撮像する撮像カメラを備え、その撮像画像を基に障害物検出を行う車両用障害物検出装置において、演算処理負担の低減を図りつつ、撮像画像中の障害物画像を非障害物画像とは識別して検出する。
【解決手段】撮像カメラを基準カメラと比較カメラとの一対のカメラで構成するとともに、フロントウィンドガラスへの車両固定物(ダッシュボード等)の映り込みにより生じる基準画像内の映り込み画像と比較画像内の映り込み画像との視差データを予め記憶しておき、この視差データを基に、基準画像内に含まれる映り込み画像の特徴点の対応点が存在するであろう比較画像内の予測領域を推定して(ステップS304の処理を実行して)、予測領域内にて対応点が見つかった特徴点を抽出することで(ステップS308の処理を実行する)基準画像内に含まれる非障害物画像を推定するようにした。
【選択図】図8

Description

本発明は、車両外方をウィンドガラスを通して撮像する基準カメラ及び比較カメラを備え、該基準カメラにより撮像された基準画像と該比較カメラより撮像された比較画像との比較を基に、車両外方に存在する歩行者などの障害物である対象物を検出する車両用対象物検出装置、及び、該車両用対象物検出装置を備えた車両用運転支援システムに関する技術分野に属する。
従来より、車両の車室内に設けられた車載カメラによりウィンドガラスを通して撮像した車両外の画像を画像処理することで、走行道路上の白線検出や障害物検出を行うようにした車両用対象物検出装置は知られている。このような検出装置では、例えば、車載カメラによりフロントウィンドガラスを通して車両外方を撮像する場合に、その周辺のダッシュボードやダッシュボード上の載置物が光の反射によりフロントウィンドガラスに映り込んで、画像処理時にその映り込み画像を検出対象物として誤検出してしまうという問題があり、この誤検出を防止するべく、これまでにも様々な技術が提案されている。
例えば、特許文献1に示すものでは、車載カメラの撮像タイミングに合わせて点灯、消滅を交互に繰り返す照明装置をダッシュボード付近に設けるとともに、照明時の撮像画像と非照明時の撮像画像との差分画像を作成し、この作成した差分画像の各画素の画素値の時間的ばらつきが小さい画素を抽出する(ローパスフィルタ処理を施す)ことで映り込み画像を検出するようにしている。
特開2002−230563号公報
ところで、車載カメラによる撮像画像を基に歩行者などの障害物である対象物検出を行う従来の車両用対象物検出装置では、検出対象物の検出精度の低下要因として、ウィンドガラスへの映り込み画像の他に、ウィンドガラスに付着した汚れ等の付着物画像が挙げられる。すなわち、ウィンドガラス上に付着物があると、撮像画像中の検出対象物の画像が不鮮明になってその検出精度が低下したり、付着物画像を検出対象物として誤検出したりするという問題がある。
この問題を解決するべく、撮像画像に対して、上述の特許文献1と同様にローパスフィルタ処理を施すことが考えられる。こうすることで、風景画像とは異なり各画素の画素値の時間変化が小さい付着物画像を映り込み画像と同様に撮像画像中から抽出(識別)することができて、検出対象物の検出精度を向上させることが可能となる。
しかしながら、上述の特許文献1に示す車両用対象物検出装置では、撮像画像に対してローパスフィルタ処理を施す必要があるため、演算処理負担が増大するという問題があり、また、映り込み画像を検出するべく照明装置を車室内に搭載する必要があるため、装置の高コスト化及び複雑化を招くという問題がある。
本発明は、斯かる点に鑑みてなされたものであり、その目的とするところは、車両外方を車室内からウィンドガラスを通して撮像する撮像カメラを備え、該撮像カメラにより撮像された撮像画像を基に該車両外方に存在する対象物を検出する車両用対象物検出装置に対して、その構成に工夫を凝らすことで、演算処理負担の低減を図りながら、簡単な構成で、撮像画像中に含まれるフロントウィンドガラスの映り込み画像やフロントウィンドガラスの付着物画像からなる非対象物画像を容易に抽出(識別)しようとすることにある。
上記の目的を達成するために、請求項1の発明では、車両外方を撮像する撮像手段を基準カメラと比較カメラとの一対のカメラで構成するとともに、ウィンドガラスへの車両固定物の映り込みを両カメラにより撮像したときに該各カメラにより撮像された基準画像及び比較画像間に生じるであろう視差データ(第1視差データ)を予め記憶しておき、基準カメラにより撮像された基準画像中の特徴点が映り込み画像の特徴点である場合にその対応点が存在すると予測される比較画像内の予測領域を、上記第1視差データを基に推定し、該推定した予測領域内にて対応点を見つかった特徴点を抽出することで非対象物画像である映り込み画像を識別するようにした。
具体的には、この発明では、車両外方をウィンドガラスを通して撮像する基準カメラ及び比較カメラを備え、該基準カメラにより撮像された基準画像と、該比較カメラより撮像された比較画像との比較を基に該基準画像中に含まれる対象物の画像を非対象物画像とは識別して検出することで、該車両外方に存在する該対象物を検出する車両用対象物検出装置を対象とする。
そして、上記非対象物画像は、上記ウィンドガラスにその周辺が映り込むことに起因して上記基準画像中に写し出された映り込み画像であり、上記基準画像中にて特徴点を検出する特徴点検出手段と、上記ウィンドガラスへの車両固定物の映り込みを上記両カメラにより撮像した場合に、該各カメラから該ウィンドガラスまでの距離と該ウィンドガラスから該車両固定物までの距離との合計距離に応じて生じる、上記基準画像及び上記比較画像の互いに対応する画素間の視差量である第1視差量を第1視差データとして記憶する映り込み視差データ記憶手段と、上記特徴点検出手段により検出された上記基準画像中の特徴点が上記映り込み画像の特徴点であるとした場合に、その対応点が存在すると予測される比較画像内の予測領域を、上記第1視差データを基に推定するとともに、該推定した予測領域内において当該特徴点の対応点を探索する対応点探索手段と、上記基準画像中に含まれる上記特徴点のうち上記対応点探索手段による対応点探索によって対応点が見つかった特徴点を基に上記映り込み画像を推定する非対象物画像推定手段と、上記基準カメラにより撮像された上記基準画像と、上記非対象物画像推定手段により推定された該基準画像中の映り込み画像とを基に、該基準画像中に含まれる対象物画像を検出することで、上記車両外方の対象物検出を行う対象物検出手段と、を備えているものとする。
この構成によれば、車両外方の対象物検出を行う際には、特徴点検出手段によって基準画像内の特徴点が検出され、対応点探索手段によって、該検出された特徴点が映り込み画像の特徴点である場合にその対応点が存在すると予測される比較画像内の予測領域が推定されるとともに、該予測領域内において当該特徴点に対応する対応点探索が実行される。そして、上記特徴点が映り込み画像の特徴点である場合には、予測領域内にてその対応点が見つかるため、対応点が見つかった特徴点を非対象物画像推定手段により抽出することで、基準画像中の映り込み画像を推定することができる。そうして、対象物検出手段によって、この推定された映り込み画像と基準画像とを基に対象物画像を検出して、車両外方の対象物を検出することができる。
ここで、ウィンドガラスへの車両固定物(例えばダッシュボード等)の映り込みにより生じる基準画像内の映り込み画像と比較画像の映り込み画像とは、互いに対応する画素間で、各カメラからウィンドガラスまでの距離とウィンドガラスから車両固定物までの距離との合計距離に応じた視差量(=第1視差量)が生じる。このため、両画素の画像原点からの座標位置は、互いに一致せずに該視差量に対応する量だけずれることになる。
本発明では、この座標位置のずれ量(=第1視差量)を基準画像の各画素ごとに、又は基準画像を複数に分割した小領域ごとに第1視差データとして記憶しておくとともに、対応点探索手段による上記予測領域の推定を該第1視差データを基に行うようにしたから、予測領域を容易に推定することができる。尚、上記特徴点が例えば車両固定物の周辺に置かれた載置物の映り込み画像の特徴点である場合であっても、各カメラからウィンドガラスまでの距離とウィンドガラスから載置物での距離との合計距離と、上記第1視差量に対応する合計距離との大小関係から、第1視差データを基に予測領域を容易に推定することができる。
そして本発明では、上記推定した予測領域内に限定して、対応点探索手段による対応点探索を実行するようにしたから、対応点探索に伴う演算処理負担を低減することができる。
請求項2の発明では、請求項1の発明において、上記ウィンドガラスは、上記車両のフロントウィンドガラスであり、上記車両固定物は、上記フロントウィンドガラスの下端縁に沿って車室内側に設けられるダッシュボードを含み、上記特徴点検出手段は、上記基準画像内における上記映り込み画像が生じる領域に対応して予め設定された所定領域内に含まれる特徴点を検出するように構成されており、上記第1視差データは、上記基準画像における上記所定領域内の各画素ごとに、又は該所定領域を複数に分割した小領域ごとに上記第1視差量を設定してなるデータであり、上記対応点探索手段は、上記第1視差データを基に、上記特徴点検出手段により検出された上記基準画像中の特徴点に対応する上記第1視差量を求めるとともに、上記比較画像中において、当該特徴点に対応するエピポーラ線上に位置しかつ該特徴点との間の視差量が該求めた第1視差量以上となる画素範囲を上記予測領域として推定するように構成されている
ものとする。
この構成によれば、基準画像中に含まれるダッシュボードの映り込み画像のように、基準画像及び比較画像間の視差量が第1視差量に一致する画像のみならず、ダッシュボード上に置かれた載置物の映り込み画像のように、基準画像及び比較画像間の視差量が第1視差量を超える画像を映り込み画像として推定することができる。
また、対応点探索を実行する探索領域が、比較画像中におけるエピポーラ線上で、基準画像内の特徴点との間の視差量が1視差量以上の領域に限定されるため、対応点探索に伴う演算処理負担を確実に低減することができる。
請求項3の発明では、請求項2の発明において、上記ウィンドガラスを上記両カメラにより撮像した場合に、該各カメラから該ウィンドガラスまでの距離に応じて生じる、上記基準画像及び上記比較画像の互いに対応する画素間の視差量である第2視差量を第2視差データとして記憶するウィンド視差データ記憶手段をさらに備え、上記第2視差データは、上記基準画像における少なくとも上記所定領域内の各画素ごとに、又は該所定領域を複数に分割した小領域ごとに上記第2視差量を設定してなるデータであり、上記対応点探索手段は、上記第1視差データ及び第2視差データを基に、上記特徴点検出手段により検出された上記基準画像中の特徴点に対応する上記第1視差量及び第2視差量を求めるとともに、上記比較画像中において、当該特徴点に対応するエピポーラ線上に位置するとともに該特徴点との間の視差量が該求めた第1視差量以上でかつ第2視差量以下となる画素範囲を上記予測領域として推定するように構成されているものとする。
この構成によれば、対応点探索を実行する探索領域を、請求項2の発明における探索領域よりもさらに絞り込むことができ、対応点探索に伴う演算処理負担をより一層確実に低減することができる。
ここで、ダッシュボード上の載置物の映り込みにより生じる基準画像内の映り込み画像と比較画像内の映り込み画像との間の視差量は、各カメラからウィンドガラスまでの距離とウィンドガラスから載置物までの距離との合計距離(つまり各カメラからウィンドガラスまでの距離以上の距離)に応じて生じる視差量であるため上記第2視差量を超えることはない。したがって、本発明の如く、対応点探索領域(予測領域)として、基準画像内にて検出された特徴点との間の視差量が第2視差量以下となる画素範囲を設定したとしても、映り込み画像の推定精度が低下することもない。
請求項4の発明では、請求項1乃至3のいずれか一つの発明において、上記第1視差データを上記映り込み視差データ記憶手段に記憶させるための視差データ記憶モードと、上記対象物検出を行うための対象物検出モードとを切り換えて設定するモード切換え手段をさらに備え、上記第1視差データは、上記モード切換え手段により上記視差データ記憶モードが設定されている場合において、上記ウィンドガラスに上記車両固定物が映り込む所定条件下で、上記両カメラにより当該映り込みを撮像することで得られる上記基準画像及び比較画像内の映り込み画像を基に設定されるデータであるものとする。
これによれば、メータフード等をダッシュボードに後付けすることで車両固定物の形状が変化した場合であっても、モード切換え手段により視差データ記憶モードを設定して、車両固定物の映り込みを撮像し直すことで、第1視差データを現在の車両固定物の形状に対応した最新のデータに更新することができる。
請求項5の発明では、請求項4の発明において、上記モード切換え手段は、上記車両のイグニッションキースイッチを含んでいて、該キースイッチを所定操作することで上記両モードを切り換え可能に構成されているものとする。
これによれば、視差データ記憶モードと対象物検出モードとを、イグニッションキースイッチを操作するだけで容易に切り換えることができる。
請求項6の発明では、請求項1乃至5のいずれか一つの発明において、上記基準カメラにより撮像された基準画像と、上記非対象物画像推定手段により推定された非対象物画像との差分画像を生成する差分画像生成手段をさらに備え、上記対象物検出手段は、上記差分画像生成手段により生成された差分画像内の対象物画像を検出することで、上記車両外方の対象物検出を行うように構成されているものとする。
この構成によれば、上記基準カメラにより撮像された基準画像中から非対象物画像を差し引いた差分画像を基に対象物検出を行うことで、非対象物を対象物として誤検出するのを確実に防止し、対象物の検出精度を向上させることができる。
請求項7の発明では、車両外方をウィンドガラスを通して撮像する基準カメラ及び比較カメラを備え、該基準カメラにより撮像された基準画像と、該比較カメラより撮像された比較画像との比較を基に該基準画像中に含まれる対象物の画像を非対象物画像とは識別して検出することで、該車両外方に存在する該対象物を検出する車両用対象物検出装置を対象とする。
そして、上記非対象物画像は、上記ウィンドガラスに付着した付着物が上記基準画像中に写し出されてなる付着物画像であり、上記基準画像中に含まれる特徴点を検出する特徴点検出手段と、上記ウィンドガラスを上記両カメラにより撮像した場合に、該各カメラから該ウィンドガラスまでの距離に応じて生じる、上記基準画像及び上記比較画像の互いに対応する画素間の視差量であるウィンド視差量を視差データとして記憶するウィンド視差データ記憶手段と、上記特徴点検出手段により検出された特徴点が上記付着物画像の特徴点であるとした場合に、その対応点が存在すると予測される比較画像内の予測領域を、上記視差データを基に推定するとともに、該推定した予測領域内において当該特徴点の対応点を探索する対応点探索手段と、上記基準画像中に含まれる上記特徴点のうち上記対応点探索手段による対応点探索によって対応点が見つかった特徴点を基に上記付着物画像を推定する非対象物画像推定手段と、上記基準カメラにより撮像された上記基準画像と、上記非対象物画像推定手段により推定された付着物画像とを基に、該基準画像中に含まれる対象物画像を検出することで、上記車両外方の対象物検出を行う対象物検出手段と、を備えているものとする。
この構成によれば、車両外方の対象物検出を行う際には、特徴点検出手段によって基準画像内の特徴点が検出され、対応点探索手段によって、該検出された特徴点が付着物画像の特徴点である場合にその対応点が存在すると予測される比較画像内の予測領域が推定されるとともに、該予測領域内において当該特徴点に対応する対応点探索が実行される。そして、上記特徴点が付着物画像の特徴点であるときには、予測領域内にてその対応点が見つかるため、対応点が見つかった特徴点を非対象物画像推定手段により抽出することで、基準画像中の付着物画像を推定することができる。そうして、対象物検出手段によって、この推定された付着物画像と基準画像とを基に対象物画像を検出して、車両外方の対象物を検出することができる。
ここで、ウィンドガラス上の付着物により生じる基準画像内の付着物画像と比較画像内の付着物画像との間では、互いに対応する画素間で、各カメラからウィンドガラスまでの距離に応じた視差量(=ウィンド視差量)が生じる。このため、両画素の画像原点からの座標位置は、互いに一致せずに該視差量に対応する量だけずれることになる。
本発明では、この座標位置のずれ量(=ウィンド視差量)を基準画像の各画素ごとに、又は該基準画像内を複数に分割した小領域ごとにウィンド視差データとして記憶しておくとともに、対応点探索手段による上記予測領域の推定をウィンド視差データを基に行うようにしたから、予測領域を容易に推定することができる。
そして、本発明では、上記推定した予測領域内に限定して、対応点探索を実行するようにしたから、対応点探索に伴う演算処理負担を低減することができる。
請求項8の発明では、請求項7の発明において、上記視差データは、上記基準画像内の各画素ごとに、又は該基準画像内を複数に分割した小領域ごとに上記ウィンド視差量を設定してなるデータであり、上記対応点探索手段は、上記視差データを基に、上記特徴点検出手段により検出された上記基準画像中の特徴点に対応する上記ウィンド視差量を求めるとともに、上記比較画像中において、当該特徴点に対応するエピポーラ線上に位置するとともに該特徴点との間の視差量が該求めたウィンド視差量に一致する画素範囲を上記予測領域として推定するように構成されているものとする。
この構成によれば、対応点探索を実行する探索領域が、比較画像中におけるエピポーラ線上で、かつ基準画像内の特徴点との間の視差量が上記ウィンド視差量に一致する画素範囲に限定されるため、対応点探索に伴う演算処理負担を確実に低減することができる。
請求項9の発明では、請求項7又は8の発明において、上記基準カメラにより撮像された基準画像と、上記非対象物画像推定手段により推定された非対象物画像との差分画像を生成する差分画像生成手段をさらに備え、上記対象物検出手段は、上記差分画像生成手段により生成された差分画像内の対象物画像を検出することで、上記車両外方の対象物検出を行うように構成されているものとする。
この構成によれば、上記基準カメラにより撮像された基準画像中から非対象物画像を差し引いた差分画像を基に対象物検出を行うことで、非対象物を対象物として誤検出するのを確実に防止し、対象物の検出精度を向上させることができる。
請求項10の発明では、請求項7乃至9のいずれか一つに記載の車両用対象物検出装置を備えた車両用運転支援システムを対象とする。
そして、上記付着物は、少なくとも形状特性が異なる複数種類の付着物からなり、上記付着物を除去するべく該付着物の種類に応じてそれぞれ設けられた付着物除去手段と、上記付着物の種類に応じた形状画像をそれぞれテンプレート画像として記憶するテンプレート画像記憶手段と、上記車両用対象物検出装置が有する非対象物画像推定手段により推定された付着物画像に対して、上記テンプレート画像を基に形状マッチング処理を実行することで、上記付着物の種類を判別する付着物種類判別手段と、上記付着物種類判別手段により判別された付着物の種類に応じた付着物除去手段を作動させる作動制御手段と、を備えているものとする。
これによれば、請求項7乃至9に記載の車両用対象物検出装置を利用して付着物画像を推定し、この推定した付着物画像に対し、形状マッチング処理を実行することで付着物の種類を判別し、この判別した付着物の種類に応じた適切な付着物除去手段を作動させることが可能となる。したがって、車両のウィンドガラスに付着した付着物を、乗員の操作を伴わずに効率的に除去して、乗員のウィンドガラスを介した視界を十分に確保することができ、乗員の運転支援が可能となる。
請求項11の発明では、請求項7の発明において、上記ウィンド視差量の視差データを上記ウィンド視差データ記憶手段に記憶させるための視差データ記憶モードと、上記対象物検出を行うための対象物検出モードとを切り換えて設定するモード切換え手段をさらに備え、上記ウィンド視差データは、上記モード切換え手段により上記視差データ記憶モードが設定されている場合において、上記ウィンドガラスにテストパターンを貼り付けた状態で、上記両カメラにより当該テストパターンを撮像することで得られる上記基準画像及び比較画像内の画像を基に設定されるデータであるものとする。
これによれば、上記請求項4の発明と同様に、各カメラの取り付け場所の変更などにより、カメラとウィンドウガラス間の距離が変化した場合であっても、モード切換え手段により視差データ記憶モードを設定して、ウィンドウガラス上に貼り付けたテストパターンを撮像し直すことで、ウィンド視差データを現在のカメラ位置に対応した最新のデータに更新することができる。
以上説明したように、本発明の車両用対象物検出装置によると、演算処理負担の増加を抑制しつつ、基準画像内に含まれる対象物画像を、非対象物画像である映り込み画像とは識別して確実に検出することができ、延いては、車両外方の対象物の検出精度を向上させることが可能となる。
本発明の他の車両用対象物検出装置によると、演算処理負担の増加を抑制しつつ、基準画像内に含まれる対象物画像を、非対象物画像である付着物画像とは識別して確実に検出することができ、延いては、車両外方の対象物の検出精度を向上させることが可能となる。
本発明の車両用運転支援システムによると、基準画像内に含まれる非対象物画像である付着物画像を識別して、この識別した付着物画像を基に、ウィンドガラスに付着した付着物の種類に応じた付着物除去手段を作動させることができる。したがって、ウィンドガラスに付着した付着物を、乗員の操作を伴わずに効率的に除去することができる。
以下、本発明の実施形態を図面に基づいて詳細に説明する。
図1は、本発明の実施形態に係る車両用対象物検出装置としての障害物検出装置1、及び該障害物検出装置1を含む車両用運転支援システムSを搭載した車両Aを示す。この障害物検出装置1は、車両前方に存在する歩行者や2輪車等の障害物(対象物)を検出する機能を有しており、上記車両用運転支援システムSは、障害物検出装置1により障害物が検出された場合にはその旨を車両の乗員に報知する。障害物検出装置1は、後述するように、車両Aのフロントウィンドガラス2に付着した付着物F(本実施形態では、汚れ、雨、及び雪。図2参照)を障害物として誤検出しないための付着物識別機能を有しており、車両用運転支援システムSは、障害物検出装置1により識別された付着物Fの種類に応じて、不図示のワイパーやデフロスタ等のアクチュエータを作動させて該付着物Fを除去するようになっている。
障害物検出装置1は、フロントウィンドガラス2を通して車両前方を撮像する左右一対のカメラ3L,3Rからなるステレオカメラ3を備えていて、右側カメラ3R(基準カメラに相当)の撮像画像を基準画像GRとして画像処理することで、車両前方の障害物を検出する。
障害物検出装置1は、基準画像GRの画像処理を行うにあたって、後述するように左側カメラ3L(比較カメラに相当)の撮像画像である比較画像GLとの間で対応点探索処理を実行することで、フロントウィンドガラス2(図2参照)に車両固定物10(本実施形態では、フロントウィンドガラス2の下端縁に沿って車室内側に設けられるダッシュボード6、ダッシュボード6上に設置されたスピーカ8及びメータフード9とされる)やその上に置かれた雑誌等の載置物7が映り込むことで生じる基準画像内GRの映り込み画像や、フロントウィンドガラス2に付着物Fが付着することで生じる基準画像内GRの付着物画像を識別して、これらの画像を障害物画像として誤検出するのを防止する。
障害物検出装置1は、図3に示すように、上記各カメラ3L,3Rから出力される画像データを処理して障害物検出を行う検出ECU100を備えており、検出ECU100は、障害物を検出したときには、乗員に対して警報を行うべく警報装置150に作動信号を出力する。尚、警報装置150としては、作動信号を受けて警告音を発するスピーカや、ディスプレイに警告表示を行う表示装置等を採用することができる。
上記各カメラ3L,3Rは、互いの撮像領域が重複するように、車室前部の車幅方向中央部に(ルームミラーの裏側付近に)配設されている。各カメラ3L,3Rは、例えばCCDカメラやCMOSカメラからなる。
各カメラ3L,3Rはそれぞれ、撮像した画像(基準画像GR及び比較画像GL)を、輝度情報(輝度値(画素値に相当))を有するn個の画素からなる画像として検出ECU100に出力する。
検出ECU100は、CPUやROM及びRAM等を有する周知のマイクロコンピュータからなるものであって、モード設定部101と、画像記憶部102と、映り込み視差データ生成部103と、ウィンド視差データ生成部104と、映り込み視差データ記憶部105と、ウィンド視差データ記憶部106と、映り込み画像抽出部107と、付着物画像抽出部108と、非障害物画像生成部109と、差分画像生成部110と、障害物検出部111と、付着物画像記憶部112と、付着物種類判別部113と、除去装置駆動部114とを備えている。
モード設定部101は、エンジン始動用のイグニッションキースイッチ15に信号の授受可能に接続されていて、該キースイッチ15からの操作信号を基に、後述する映り込み視差データ(第1視差データに相当)を記憶する第1視差データ記憶モードと、ウィンド視差データ(第2視差データに相当)を記憶する第2視差データ記憶モードと、障害物検出を行う障害物検出モードとを切り換えて設定する。
具体的には、モード設定部101は、乗員によるイグニッションキースイッチ15の所定操作(例えば、ACCオンとオフとの切り換えを連続して5回実行する等の操作)信号を検知した場合には、乗員によるモード切り換え要求があったものとしてモード切り換えを行う。モードの切り換えは、予め設定した順序(本実施形態では、検出モード→第1記憶モード→第2記憶モードの順)で行われる。すなわち、モード設定部101は、例えば検出モードが設定されている場合に上記所定操作信号を検知したときには、現モードを第1記憶モードに切り換え、第1記憶モードが設定されている場合に上記所定操作信号を検知したときには、現モードを第2記憶モードに切り換える。
画像記憶部102は、各カメラ3L,3Rによりそれぞれ撮像された画像GL,GRをそれぞれ一時的に記憶する。
映り込み視差データ生成部103は、モード設定部101からのモード情報を基に、第1視差データ記憶モードが設定されていると判定した場合には、各カメラ3L,3Rにより撮像された画像GL,GRを読み込んで、読み込んだ両画像GL,GRを基に両者の視差量情報を含む映り込み視差データを生成し、生成した映り込み視差データをEE−PROMなどからなる映り込み視差データ記憶部に出力して記憶させる。
ここで、第1記憶モード設定状態での各カメラ3L,3Rによる撮像処理は、主として、工場出荷時又はディーラでの車両点検時における第1所定環境下で行われる。第1所定環境下とは、車両固定物10上に載置物7が存在せず、かつ、フロントウィンドガラス2に該車両固定物10の映り込みが強制的に生じるような照度環境(車両固定物10周辺の照度等により決まる環境)にある状態をいい、作業者は、上述のキースイッチ操作により第1記憶モードを設定する前に、各カメラ3L,3Rによる撮像環境を上記第1所定環境になるように調整しておけばよい。
映り込み視差データ生成部103における視差データの生成処理は、以下の手順で行われる。先ず、基準画像GR内の特徴点を画素の輝度変化などにより抽出し、次いで、比較画像GL内にて基準画像GR内の特徴点の画素の輝度変化と同じ輝度変化する画素を該各特徴点に対応する対応点として探索する。この対応点の探索は、公知の方法であるArea-based matching手法に基づいて行われる。そして、各特徴点ごとにそれぞれに対応する対応点との視差量を算出して映り込み視差データを生成するとともに、生成した映り込み視差データを映り込み視差データ記憶部105に出力して記憶させる。ここで、基準画像GR内にて特徴点が検出されなかった画素については、視差量を算出することができないため例えば当該画素に最も近い特徴点における視差量を使用すればよい。
そうして生成される映り込み視差データは、図4に示すように、基準画像GR内における車両固定物10の映り込みが生じる領域内の各画素ごとに、又は上記所定領域を複数に分割した小領域ごとに、比較画像GL内の対応点との視差量である第1視差量aijを設定したデータであって、各画素の座標原点Oからの座標位置(xi,yj)と、該各画素が所属する小領域ごとに設定された第1視差量aijとに関する情報を含んでいる。映り込み視差データは、各カメラ3L,3Rからフロントウィンドガラス2までの距離L2(図10参照)と該フロントウィンドガラス2から該車両固定物10までの距離L1との合計距離LAに応じて生じる両画像GL,GRの互いに対応する画素間の視差量aijを設定したデータである。
同様に、ウィンド視差データ生成部104は、モード設定部101からのモード情報を基に、第2記憶部モードが設定されていると判定した場合には、各カメラ3L,3Rにより撮像された画像GL,GRを読み込んで、読み込んだ両画像GL,GR間を基に両者の視差量情報を含むウィンド視差データを生成するとともに、生成したウィンド視差データをEE−PROMなどからなるウィンド視差データ記憶部106に出力して記憶させる。
ここで、第2記憶モード設定状態での各カメラ3L,3Rによる撮像処理は、主として、工場出荷時又はディーラでの車両点検時における第2所定環境下で行われる。第2所定環境下とは、フロントウィンドガラス2の全面にテストパターンを貼り付けた状態で、かつ、各カメラ3L,3Rによる撮像画像にテストパターンのパターンがはっきりと映し出されるような照度環境にある状態をいい、作業者は、上述のキースイッチ操作により第2記憶モードを設定する前に、各カメラ3L,3Rによる撮像環境を上記第2所定環境になるように調整しておけばよい。尚、テストパターンとしては、例えばフロントウィンドガラス上の座標位置に応じてそれぞれ異なる濃淡値を有するグラディエーションパターンを採用すればよい。
ウィンド視差データ生成部104における視差データの生成処理は、映り込み視差データ生成部103における処理と同様に、基準画像GR内の特徴点に対応する比較画像GL内の対応点を探索して、各特徴点ごとにそれぞれの対応点との視差量を算出するという手順で行われる。
そうして生成されるウィンド視差データは、図5に示すように、基準画像GR内におけるフロントウィンドガラス2に対応する領域(本実施形態では基準画像GRの全域)内の各画素ごとに又は上記領域を複数に分割した小領域ごとに比較画像GL内の対応点との視差量である第2視差量bij(ウィンド視差量)を設定したデータであって、各画素の座標原点Oからの座標位置(xi,yj)と、該各画素が所属する小領域ごとに設定された第2視差量bijとに関する情報を含んでいる。ウィンド視差データは、各カメラ3L,3Rからフロントウィンドガラス2までの距離L2(図10参照)に応じて生じる両画像GL,GRの互いに対応する画素間の視差量bijを設定したデータである。
映り込み画像抽出部107は、基準画像GR中からフロントウィンドガラス2に映り込んだ車両固定物10やその上の載置物7の画像(映り込み画像)を抽出する。
付着物画像抽出部108は、基準画像GR中からフロントウィンドガラス2上の付着物Fの画像を抽出する。
非障害物画像生成部109は、映り込み画像抽出部107にて抽出した映り込み画像と、付着物画像抽出部108にて抽出した付着物画像とを重畳して非障害物画像として生成する(図6参照)。
差分画像生成部110は、図6に示すように、画像記憶部102に記憶された基準画像GRと、非障害物画像生成部109にて生成された非障害物画像との差分画像を生成する。
障害物検出部111は、差分画像生成部110にて生成された差分画像に対して障害物検出処理を実行する。具体的には、本実施形態では、障害物として、歩行者、車両、及び二輪車等を検出するようになっており、障害物検出部111は、予め記憶したこれらのテンプレート画像を基に、上記差分画像に対してパターンマッチング処理を実行することで、車両前方に障害物が存在するか否かを検出する。そして、該障害物検出部111は、障害物を検出したときには、警報装置150に対して作動信号を出力する。
警報装置150は、障害物検出部111からの作動信号を受けて、乗員に対して警告音を発することで車両前方に障害物が存在する旨を報知する。
付着物画像記憶部112は、付着物Fのうちその形状に特徴があるもの(本実施形態では雨及び雪)の形状データを予め記憶している。具体的には、雨粒に対応する形状は縦長の粒形状とされ、雪に対応する形状は星型形状とされている。
付着物種類判別部113は、付着物画像抽出部108にて抽出された付着物画像に対して、付着物画像記憶部112に記憶された形状データをテンプレート画像として形状マッチング処理を実行することで付着物Fの種類を判別する。具体的には、付着物種類判別部113は、形状マッチング処理を実行した結果、付着物画像と雪形状データとのマッチング度が所定値以上である場合には、付着物Fを雪と判定し、付着物画像と雨粒形状データとのマッチング度が所定値以上である場合には、付着物Fを雨と判定し、いずれのデータに基づくマッチング度も所定値を下回る場合には、付着物Fを汚れと判定する。
尚、この判定は、形状マッチング処理に限らず、例えば、雪や雨の特性を利用した画像処理によって行うようにしてもよい。具体的には、付着物画像が直ぐに消えてなくなる場合には該付着物Fは雪であると判定し、付着物画像の位置がフロントウィンドガラス2の下方に向かって移動していく場合には、付着物Fは雨であると判定し、付着物画像の位置が変化しない場合には、付着物Fは汚れであると判定するようにすればよい。
除去装置駆動部114は、付着物種類判別部113にて判定された付着物Fの種類に応じて、該付着物Fを除去するために必要な除去装置120(本実施形態では、ワイパー駆動装置120a、デフロスタ120b、及びウォッシャ装置120cからなる)を駆動する。具体的には、除去装置駆動部114は、付着物種類判別部113にて、付着物Fが雨であると判定された場合には、ワイパー駆動装置120aを駆動し、付着物Fが雪であると判定された場合には、ワイパー駆動装置120a及びデフロスタ120bを駆動し、付着物Fが汚れであると判定された場合には、ワイパー駆動装置120a及びウォッシャ装置120cを駆動する。これにより、フロントウィンドガラス2に付着した付着物Fをその種類に応じて効率的に除去することができる。
さらに、ワイパー駆動装置120によりワイパー駆動させたにもかかわらず、付着物Fが除去されないことが検出されるときには、ワイパーブレードの劣化と判定して、ワイパーブレードの交換を指示する警報を出力させることとしても良い。
次に、検出ECU100における画像処理の全体の流れについて、図7のフローチャートを基に説明する。
先ず、最初のステップS1では、各カメラ3L,3Rからの画像情報、及びモード設定部101にて現在設定されているモード設定情報を読み込む。
ステップS2では、ステップS1で読み込んだモード設定情報を基に、検出モードが設定されているか否かを判定し、このステップS2の判定がNOであるときにはステップS7に進む一方、YESであるときにはステップS3に進む。
ステップS3では、映り込み画像抽出部107において、ステップS1で読み込んだ基準画像GR内に含まれる映り込み画像を抽出する。このステップS3の処理の詳細については後述する。
ステップS4では、付着物画像抽出部108において、ステップS1で読み込んだ基準画像GR内に含まれる付着物画像を抽出する。このステップS4の処理の詳細については後述する。
ステップS5では、非障害物画像生成部109にて、ステップS3で抽出した映り込み画像とステップS4で抽出した付着物画像とを基に障害物画像を生成し、差分画像生成部110にて、基準画像GRと障害物画像との差分画像を生成し、障害物検出部111にて差分画像を基に障害物検出を行う。
ステップS6では、付着物種類判別部113において、ステップS4で抽出した付着物画像を基に付着物Fの種類を判定し、その判定情報を除去装置駆動部114へと出力する。そして、除去装置駆動部114において、この判定情報を基に、付着物Fの種類に応じて予め設定された除去装置120a乃至120cに対して必要な作動信号を出力し、しかる後にリターンする。
ステップS2の判定がNOであるときに進むステップS7では、ステップS1で読み込んだモード設定情報を基に、第1記憶モードが設定されているか否かを判定し、このステップS7の判定がNOであるときにはステップS9に進み、YESであるときにはステップS8に進む。
ステップS8では、映り込み視差データ生成部103において、ステップS1で読み込んだ基準画像GR及び比較画像GLを基に映り込み視差データを生成するとともに、生成した映り込み視差データを映り込み視差データ記憶部105に記憶させ、しかる後にリターンする。
ステップS9では、上記第2記憶モードが設定されているものと判断し、ウィンド視差データ生成部104において、ステップS1で読み込んだ基準画像GR及び比較画像GLを基にウィンド視差データを生成するとともに、生成したウィンド視差データをウィンド視差データ記憶部106に記憶させ、しかる後にリターンする。
次に、検出ECU100(映り込み画像抽出部107)における映り込み画像抽出処理の詳細を、図8のフローチャートを参照しながら説明する。
ステップS301では、基準画像GR内における映り込み画像が生じる領域として予め設定された所定領域内にて画素の輝度変化により特徴点を検出するとともにその座標位置(xi,yj)を算出する。
ステップS302では、映り込み視差データ記憶部105に記憶された映り込み視差データ(図4参照)と、ステップS301で検出した特徴点の座標位置(xi,yj)とを基に、当該特徴点の座標位置(xi,yj)が属する小領域の視差データである第1視差量aijを読み込む(算出する)。例えば、特徴点の座標位置が図4のX方向に左から2番目、Y方向に下から3番目の小領域に属するものであればaij=510pixelが読み込まれる
ステップS303では、ウィンド視差データ記憶部106に記憶されたウィンド視差データ(図5参照)と、ステップS301で検出した特徴点の座標位置(xi,yj)とを基に、当該特徴点の座標位置(xi,yj)が属する小領域の視差データである第2視差量bijを読み込む(算出する)。例えば、特徴点の座標位置が図5のX方向に左から2番目、Y方向に下から3番目の小領域に属するものであればbij=710pixelが読み込まれる
ステップS304では、ステップS301で検出した基準画像GR中の特徴点が映り込み画像の特徴点である場合にその対応点が存在すると予測される比較画像GL内の予測領域を設定する。具体的には、比較画像GL内において、y=yjでかつxi+aij≦x≦xi+bijとなる画素範囲、換言すると、該特徴点に対応するエピポーラ線上に位置しかつxi+aij≦x≦xi+bijとなる画素範囲を予測領域として設定する。上記例であれば、比較画像GL内において、基準画像の特徴点位置から、510pixel〜710pixelの位置にある領域を予測領域として設定する。
尚、映り込み視差データに含まれる誤差等を考慮して当該画素範囲を含む若干大きめの領域を予測領域として設定するようにしてもよい。
ステップS305では、ステップS304で設定した予測領域内にて(予測領域内のみで)、ステップS301で検出した特徴点との対応点を探索するとともに、この探索の結果、対応点が見つかったか否かを判定する。そして、このステップS305の判定がNOであるときにはステップS307に進み、YESであるときにはステップS306に進む。尚、本ステップS305における対応点探索は、公知の方法であるArea-based matching手法に基づいて行われる。
ステップS306では、ステップS301で算出した特徴点の座標位置(xi,yj)と輝度からなる画素データを記憶する。
ステップS307では、基準画像GRの上記所定領域内に含まれる全ての特徴点を検出し終えたか否かを判定し、この判定がNOであるときにはステップS301に戻る一方、YESであるときにはステップS308に進む。
ステップS308では、ステップS306で記憶した画素を読み出して、読み出した画素により形成される画像を映り込み画像として抽出し、しかる後にリターンする。
次に、検出ECU100(付着物画像抽出部108)における付着物画像抽出処理の詳細を、図9のフローチャートを参照しながら説明する。
上記映り込み画像抽出処理と同様に、ステップS401では、基準画像GR内の特徴点を検出するとともにその座標位置(xi,yj)を算出する。
ステップS402では、ウィンド視差データ記憶部106に記憶されたウィンド視差データと、ステップS401で検出した特徴点の座標位置(xi,yj)とを基に、当該特徴点の座標位置(xi,yj)が属する小領域の視差データである第2視差量bijを読み込む(算出する)。例えば、特徴点の座標位置が図5のX方向に左から2番目、Y方向に下から4番目の小領域に属するものであればbij=730pixelが読み込まれる。
ステップS403では、ステップS401にて検出した特徴点が付着物画像の特徴点である場合にその対応点が存在すると予測される比較画像GL内の予測領域を設定する。具体的には、比較画像GL内において、y=yjでかつx=xi+bijとなる画素、換言すると、該特徴点に対応するエピポーラ線上に位置しかつx=xi+bijとなる画素を該予測領域(画素)として設定する。上記例であれば、比較画像GL内において、基準画像の特徴点位置から、730pixelの位置にある領域(画素)を予測領域として設定する。尚、ウィンド視差データに含まれる誤差等を考慮して当該画素を含む若干大きめの領域(例えば3×3の画素領域)を予測領域として設定するようにしてもよい。
ステップS404では、ステップS403の処理で設定した対応点探索画素が、ステップS401で検出した特徴点の対応点であるか否かを、公知の方法であるArea-based matching手法に基づいて判定し、この判定がNOであるときにはステップS406に進む一方、YESであるときにはステップS405に進む。
ステップS405では、ステップS401で算出した特徴点の座標位置(xi,yj)と輝度からなる画素データを記憶する。
ステップS406では、基準画像GR内に含まれる全ての特徴点を検出し終えたか否かを判定し、この判定がNOであるときにはステップS401に戻る一方、YESであるときにはステップS407に進む。
ステップS407では、ステップS405で記憶した画素を読み出して、読み出した画素により形成される画像を付着物画像として抽出し、しかる後にリターンする。
ところで、フロントウィンドガラス2への車両固定物10の映り込みにより生じる基準画像GR内の映り込み画像と比較画像GL内の映り込み画像とは、互いに対応する画素間で、各カメラ3L,3Rからフロントウィンドガラス2までの距離L2と該ウィンドガラス2から車両固定物10までの距離L1(図10参照)との合計距離LA(=L1+L2)に応じた第1視差量aijが生じる。このため、両画素の画像原点Oからの座標位置は、図11に示すように、互いに一致せずに第1視差量aij分だけずれる。
一方、車両固定物10上に載置される載置物7がフロントウィンドガラス2に映り込むことにより生じる基準画像GR内の映り込み画像と比較画像GL内の映り込み画像とは、互いに対応する画素間で、各カメラ3L,3Rからフロントウィンドガラス2までの距離L2と、該ウィンドガラス2から載置物7までの距離L1′(図10参照)との合計距離LB(=L1′+L2)に応じた視差量を生じる。この視差量(つまり両画素間の位置ずれ量)は、LB<LAであることから第1視差量aijよりも大きくなるがLB≧L2であることから第2視差量bij(各カメラ3L,3Rからフロントウィンドガラス2までの距離L2に応じた視差量)以下となる。
したがって、上記実施形態のように、予め第1視差量aijを含む映り込み視差データ及び第2視差量bijを含むウィンド視差データをそれぞれ各視差データ記憶部105,106に記憶しておくことで、基準画像GR内にて検出された特徴点が映り込み画像の特徴点である場合にその対応点が存在するであろう比較画像GL内の予測領域を、y=yjで(特徴点に対応するエピポーラ線上に位置し)かつxi+aij≦x≦xi+bijの範囲内の画素領域として容易に推定することができる。
そして、上記実施形態では、ステップS305の処理で、比較画像GL内のうち上記推定した予測領域内に限定して対応点探索を実行するとともに、ステップS308の処理で、対応点が見つかった特徴点の集合を映り込み画像として抽出するようにしたことで、演算処理負担の低減を図りつつ、基準画像GR内に含まれる映り込み画像を容易に抽出することができ、延いては、ステップS5における障害物検出精度を向上させることが可能となる。
また、基準画像GR内の付着物画像と比較画像GL内の付着物画像とは、互いに対応する画素間で、各カメラ3L,3Rから付着物Fまでの距離、すなわち各カメラ3L,3Rからフロントウィンドガラス2までの距離に応じた視差量bijを生じることから、上記実施形態におけるステップS403の処理で基準画像GR内の特徴点が付着物画像の特徴点である場合にその対応点が存在すると予測される比較画像GL内の画素を、y=yjで(特徴点に対応するエピポーラ線上に位置し)かつx=xi+bijに位置する画素として容易に推定することができる。
そして、上記実施形態では、ステップS404の処理で比較画像GL内のうち上記推定した予測画素に限定して対応点探索を実行するとともに、ステップS407の処理で対応点が見つかった特徴点を集合をして付着物画像として抽出するようにしたことで、演算処理負担の低減を図りつつ、基準画像GR内に含まれる付着物画像を容易に抽出することができる。
(他の実施形態)
本発明の構成は、上記実施形態に限定されるものではなく、それ以外の種々の構成を包含するものである。すなわち、上記実施形態では、検出ECU100において付着物画像と映り込み画像とを抽出するようにしているが、これに限ったものではなく、映り込み画像のみを抽出して非障害物画像としてもよいし、付着物画像のみを抽出して非障害物画像としてもよい。
また、上記実施形態では、映り込み視差データ及びウィンド視差データをそれぞれ、第1記憶モード及び第2モードにおいて各カメラ3L,3Rにより実際に撮像した画像GR,GLを基に設定するようにしているが、これに限ったものではなく、理論計算により求めるようにしてもよい。具体的には、各カメラ3L,3Rから車両固定物10上の各撮像点までの距離は設計段階で既知とされるため、この距離値から三角測量の原理に基づいて映り込み視差データを求めることができ、同様に、各カメラ3L,3Rからフロントウィンドガラス2上の各撮像点までの距離は設計段階で既知とされるため、この距離値から三角測量の原理に基づいてウィンド視差データを求めることができる。
また、上記実施形態では、各カメラ3L,3Rによりフロントウィンドガラス2を通して撮像される車両前方の撮像画像GR,GLを基に、車両前方に存在する障害物を検出する例を示したが、これに限ったものではなく、例えば、各カメラ3L,3Rによりリヤウィンドガラスを通して車両後方を撮像して、撮像した画像を基に後方車両等を検出するようにしてもよい。
また、上記実施形態では、映り込み視差データとウィンド視差データとを基に、y=yjでかつxi+aij≦x≦xi+bijとなる画素範囲を予測領域として設定するようにしているが、例えば、映り込み視差データのみに基づいて、y=yjでかつxi+aij≦xとなる画素範囲を予測領域として設定するようにしてもよい。
また、上記実施形態では、対象物検出装置の一例として、車両前方の障害物を検出する障害物検出装置1を示したが、これに限ったものではなく、例えば、走行道路上の白線を検出する白線検出装置等であってもよい。
本発明は、車両外方をウィンドガラスを通して撮像する基準カメラ及び比較カメラを備え、該基準カメラにより撮像された基準画像と該比較カメラより撮像された比較画像との比較を基に、車両外方に存在する対象物を検出する車両用対象物検出装置、及び、該車両用対象物検出装置を備えた車両用運転支援システムに有用であり、特に、車両前方に存在する歩行者等の障害物を検出する場合に有用である。
本発明の実施形態に係る車両用障害物検出装置及び該障害物検出装置を含む車両用運転支援システムを搭載した車両を示す、その上側から視た模式図である。 フロントウィンドガラスへの映り込み画像を示す、該フロントウィンドガラスを車室内側から見た模式図である。 車両用障害物検出装置を含む車両用運転支援システムの制御構成を示すブロック図である。 映り込み視差データを示す模式図である。 ウィンド視差データを示す模式図である。 基準画像と非障害物画像との差分処理を示す模式図である。 検出ECU100における画像処理の全体流れを示すフローチャートである。 検出ECU100における映り込み画像抽出処理を示すフローチャートである。 検出ECU100における付着物画像抽出処理を示すフローチャートである。 各カメラと車両固定物と車両固定物上の載置物との位置関係を示す車両左側から見た模式図である。 基準画像及び比較画像間に生じる視差量についての説明図である。
符号の説明
A 車両
F 付着物
GR 基準画像
GL 比較画像
aij 第1視差量
bij 第2視差量(ウィンド視差量)
1 障害物検出装置(車両用対象物検出装置)
2 フロントウィンドガラス
3R 右側カメラ(基準カメラ)
3L 左側カメラ(比較カメラ)
6 ダッシュボード(車両固定物)
8 スピーカ(車両固定物)
9 メータフード(車両固定物)
10 車両固定物
15 イグニッションキースイッチ(モード切換え手段)
101 モード設定部(モード切換え手段)
105 映り込み視差データ記憶部(映り込み視差データ記憶手段)
106 ウィンド視差データ記憶部(ウィンド視差データ記憶手段)
107 映り込み画像抽出部(特徴点検出手段、対応点探索手段、非対象物画像推定手段)
108 付着物画像抽出部(特徴点検出手段、対応点探索手段、非対象物画像推定手段)
110 差分画像生成部(差分画像生成手段)
111 障害物検出部(対象物検出手段)
112 付着物画像記憶部(テンプレート画像記憶手段)
113 付着物種類判別部(付着物種類判別手段)
114 除去装置駆動部(作動制御手段)
120 除去装置(付着物除去手段)

Claims (11)

  1. 車両外方をウィンドガラスを通して撮像する基準カメラ及び比較カメラを備え、該基準カメラにより撮像された基準画像と、該比較カメラより撮像された比較画像との比較を基に該基準画像中に含まれる対象物の画像を非対象物画像とは識別して検出することで、該車両外方に存在する該対象物を検出する車両用対象物検出装置であって、
    上記非対象物画像は、上記ウィンドガラスにその周辺が映り込むことに起因して上記基準画像中に写し出された映り込み画像であり、
    上記基準画像中にて特徴点を検出する特徴点検出手段と、
    上記ウィンドガラスへの車両固定物の映り込みを上記両カメラにより撮像した場合に、該各カメラから該ウィンドガラスまでの距離と該ウィンドガラスから該車両固定物までの距離との合計距離に応じて生じる、上記基準画像及び上記比較画像の互いに対応する画素間の視差量である第1視差量を第1視差データとして記憶する映り込み視差データ記憶手段と、
    上記特徴点検出手段により検出された上記基準画像中の特徴点が上記映り込み画像の特徴点であるとした場合に、その対応点が存在すると予測される比較画像内の予測領域を、上記第1視差データを基に推定するとともに、該推定した予測領域内において当該特徴点の対応点を探索する対応点探索手段と、
    上記基準画像中に含まれる上記特徴点のうち上記対応点探索手段による対応点探索によって対応点が見つかった特徴点を基に上記映り込み画像を推定する非対象物画像推定手段と、
    上記基準カメラにより撮像された上記基準画像と、上記非対象物画像推定手段により推定された該基準画像中の映り込み画像とを基に、該基準画像中に含まれる対象物画像を検出することで、上記車両外方の対象物検出を行う対象物検出手段と、を備えていることを特徴とする車両用対象物検出装置。
  2. 請求項1記載の車両用対象物検出装置において、
    上記ウィンドガラスは、上記車両のフロントウィンドガラスであり、
    上記車両固定物は、上記フロントウィンドガラスの下端縁に沿って車室内側に設けられるダッシュボードを含み、
    上記特徴点検出手段は、上記基準画像内における上記映り込み画像が生じる領域に対応して予め設定された所定領域内に含まれる特徴点を検出するように構成されており、
    上記第1視差データは、上記基準画像における上記所定領域内の各画素ごとに、又は該所定領域を複数に分割した小領域ごとに上記第1視差量を設定してなるデータであり、
    上記対応点探索手段は、上記第1視差データを基に、上記特徴点検出手段により検出された上記基準画像中の特徴点に対応する上記第1視差量を求めるとともに、上記比較画像中において、当該特徴点に対応するエピポーラ線上に位置しかつ該特徴点との間の視差量が該求めた第1視差量以上となる画素範囲を上記予測領域として推定するように構成されていることを特徴とする車両用対象物検出装置。
  3. 請求項2記載の車両用対象物検出装置において、
    上記ウィンドガラスを上記両カメラにより撮像した場合に、該各カメラから該ウィンドガラスまでの距離に応じて生じる、上記基準画像及び上記比較画像の互いに対応する画素間の視差量である第2視差量を第2視差データとして記憶するウィンド視差データ記憶手段をさらに備え、
    上記第2視差データは、上記基準画像における少なくとも上記所定領域内の各画素ごとに、又は該所定領域を複数に分割した小領域ごとに上記第2視差量を設定してなるデータであり、
    上記対応点探索手段は、上記第1視差データ及び第2視差データを基に、上記特徴点検出手段により検出された上記基準画像中の特徴点に対応する上記第1視差量及び第2視差量を求めるとともに、上記比較画像中において、当該特徴点に対応するエピポーラ線上に位置するとともに該特徴点との間の視差量が該求めた第1視差量以上でかつ第2視差量以下となる画素範囲を上記予測領域として推定するように構成されていることを特徴とする車両用対象物検出装置。
  4. 請求項1乃至3のいずれか一項に記載の車両用対象物検出装置において、
    上記第1視差データを上記映り込み視差データ記憶手段に記憶させるための視差データ記憶モードと、上記対象物検出を行うための対象物検出モードとを切り換えて設定するモード切換え手段をさらに備え、
    上記第1視差データは、上記モード切換え手段により上記視差データ記憶モードが設定されている場合において、上記ウィンドガラスに上記車両固定物が映り込む所定条件下で、上記両カメラにより当該映り込みを撮像することで得られる上記基準画像及び比較画像内の映り込み画像を基に設定されるデータであることを特徴とする車両用対象物検出装置。
  5. 請求項4記載の車両用対象物検出装置において、
    上記モード切換え手段は、上記車両のイグニッションキースイッチを含んでいて、該キースイッチを所定操作することで上記両モードを切り換え可能に構成されていることを特徴とする車両用対象物検出装置。
  6. 請求項1乃至5のいずれか一項に記載の車両用対象物検出装置において、
    上記基準カメラにより撮像された基準画像と、上記非対象物画像推定手段により推定された映り込み画像との差分画像を生成する差分画像生成手段をさらに備え、
    上記対象物検出手段は、上記差分画像生成手段により生成された差分画像内の対象物画像を検出することで、上記車両外方の対象物検出を行うように構成されていることを特徴とする車両用対象物検出装置。
  7. 車両外方をウィンドガラスを通して撮像する基準カメラ及び比較カメラを備え、該基準カメラにより撮像された基準画像と、該比較カメラより撮像された比較画像との比較を基に該基準画像中に含まれる対象物の画像を非対象物画像とは識別して検出することで、該車両外方に存在する該対象物を検出する車両用対象物検出装置であって、
    上記非対象物画像は、上記ウィンドガラスに付着した付着物が上記基準画像中に写し出されてなる付着物画像であり、
    上記基準画像中に含まれる特徴点を検出する特徴点検出手段と、
    上記ウィンドガラスを上記両カメラにより撮像した場合に、該各カメラから該ウィンドガラスまでの距離に応じて生じる、上記基準画像及び上記比較画像の互いに対応する画素間の視差量であるウィンド視差量を視差データとして記憶するウィンド視差データ記憶手段と、
    上記特徴点検出手段により検出された特徴点が上記付着物画像の特徴点であるとした場合に、その対応点が存在すると予測される比較画像内の予測領域を、上記視差データを基に推定するとともに、該推定した予測領域内において当該特徴点の対応点を探索する対応点探索手段と、
    上記基準画像中に含まれる上記特徴点のうち上記対応点探索手段による対応点探索によって対応点が見つかった特徴点を基に上記付着物画像を推定する非対象物画像推定手段と、
    上記基準カメラにより撮像された上記基準画像と、上記非対象物画像推定手段により推定された付着物画像とを基に、該基準画像中に含まれる対象物画像を検出することで、上記車両外方の対象物検出を行う対象物検出手段と、を備えていることを特徴とする車両用対象物検出装置。
  8. 請求項7記載の車両用対象物検出装置において、
    上記視差データは、上記基準画像内の各画素ごとに、又は該基準画像内を複数に分割した小領域ごとに上記ウィンド視差量を設定してなるデータであり、
    上記対応点探索手段は、上記視差データを基に、上記特徴点検出手段により検出された上記基準画像中の特徴点に対応する上記ウィンド視差量を求めるとともに、上記比較画像中において、当該特徴点に対応するエピポーラ線上に位置するとともに該特徴点との間の視差量が該求めたウィンド視差量に一致する画素範囲を上記予測領域として推定するように構成されていることを特徴とする車両用対象物検出装置。
  9. 請求項7又は8記載の車両用対象物検出装置において、
    上記基準カメラにより撮像された基準画像と、上記非対象物画像推定手段により推定された付着物画像との差分画像を生成する差分画像生成手段をさらに備え、
    上記対象物検出手段は、上記差分画像生成手段により生成された差分画像内の対象物画像を検出することで、上記車両外方の対象物検出を行うように構成されていることを特徴とする車両用対象物検出装置。
  10. 請求項7乃至9のいずれか一項に記載の車両用対象物検出装置を備えた車両用運転支援システムであって、
    上記付着物は、形状特性が異なる複数種類の付着物からなり、
    上記付着物を除去するべく該付着物の種類に応じてそれぞれ設けられた付着物除去手段と、
    上記付着物の種類に応じた形状画像をそれぞれテンプレート画像として記憶するテンプレート画像記憶手段と、
    上記車両用対象物検出装置が有する非対象物画像推定手段により推定された付着物画像に対して、上記テンプレート画像を基に形状マッチング処理を実行することで、上記付着物の種類を判別する付着物種類判別手段と、
    上記付着物種類判別手段により判別された付着物の種類に応じた付着物除去手段を作動させる作動制御手段と、を備えていることを特徴とする車両用運転支援システム。
  11. 請求項7に記載の車両用対象物検出装置において、
    上記ウィンド視差量の視差データを上記ウィンド視差データ記憶手段に記憶させるための視差データ記憶モードと、上記対象物検出を行うための対象物検出モードとを切り換えて設定するモード切換え手段をさらに備え、
    上記ウィンド視差データは、上記モード切換え手段により上記視差データ記憶モードが設定されている場合において、上記ウィンドガラスにテストパターンを貼り付けた状態で、上記両カメラにより当該テストパターンを撮像することで得られる上記基準画像及び比較画像内の画像を基に設定されるデータであることを特徴とする車両用対象物検出装置。
JP2008322762A 2008-12-18 2008-12-18 車両用対象物検出装置 Expired - Fee Related JP5267101B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008322762A JP5267101B2 (ja) 2008-12-18 2008-12-18 車両用対象物検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008322762A JP5267101B2 (ja) 2008-12-18 2008-12-18 車両用対象物検出装置

Publications (2)

Publication Number Publication Date
JP2010146284A true JP2010146284A (ja) 2010-07-01
JP5267101B2 JP5267101B2 (ja) 2013-08-21

Family

ID=42566664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008322762A Expired - Fee Related JP5267101B2 (ja) 2008-12-18 2008-12-18 車両用対象物検出装置

Country Status (1)

Country Link
JP (1) JP5267101B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012201178A (ja) * 2011-03-24 2012-10-22 Fuji Heavy Ind Ltd 車外監視装置
WO2014007286A1 (ja) * 2012-07-03 2014-01-09 クラリオン株式会社 状態認識システム及び状態認識方法
JP2014523716A (ja) * 2011-07-05 2014-09-11 オムロン株式会社 射影空間監視のための方法および装置
CN104590258A (zh) * 2013-10-31 2015-05-06 富士重工业株式会社 车辆控制系统
JP2015139182A (ja) * 2014-01-24 2015-07-30 株式会社日立国際電気 テレビジョンカメラシステム
JP2015190929A (ja) * 2014-03-28 2015-11-02 富士重工業株式会社 車両における積雪検知システム
US9600988B2 (en) 2012-11-22 2017-03-21 Fujitsu Limited Image processing device and method for processing image
US9956941B2 (en) 2012-07-03 2018-05-01 Clarion Co., Ltd. On-board device controlling accumulation removing units
JP2019050462A (ja) * 2017-09-08 2019-03-28 トヨタ自動車株式会社 映り込み判定装置及び撮影装置
WO2021075299A1 (ja) * 2019-10-18 2021-04-22 株式会社小糸製作所 車両用灯具システム、異物判定装置および異物判定方法
WO2021095666A1 (ja) * 2019-11-11 2021-05-20 株式会社小糸製作所 車両用灯具、車両用システム及びその車両用システムにおいて実行される方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09189533A (ja) * 1996-01-11 1997-07-22 Tokai Rika Co Ltd 付着物センサ及び付着物感応ワイパ
JP2000003434A (ja) * 1998-06-15 2000-01-07 Toshiba Corp 画像処理装置及びその方法
JP2003296736A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 障害物検知装置及びその方法
WO2004106858A1 (ja) * 2003-05-29 2004-12-09 Olympus Corporation ステレオカメラシステム及びステレオ光学モジュール
JP2005301517A (ja) * 2004-04-08 2005-10-27 Toyota Motor Corp 画像処理装置および画像処理方法
JP2006090896A (ja) * 2004-09-24 2006-04-06 Fuji Heavy Ind Ltd ステレオ画像処理装置
JP2006259627A (ja) * 2005-03-18 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置及び画像処理方法とそのプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09189533A (ja) * 1996-01-11 1997-07-22 Tokai Rika Co Ltd 付着物センサ及び付着物感応ワイパ
JP2000003434A (ja) * 1998-06-15 2000-01-07 Toshiba Corp 画像処理装置及びその方法
JP2003296736A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 障害物検知装置及びその方法
WO2004106858A1 (ja) * 2003-05-29 2004-12-09 Olympus Corporation ステレオカメラシステム及びステレオ光学モジュール
JP2005301517A (ja) * 2004-04-08 2005-10-27 Toyota Motor Corp 画像処理装置および画像処理方法
JP2006090896A (ja) * 2004-09-24 2006-04-06 Fuji Heavy Ind Ltd ステレオ画像処理装置
JP2006259627A (ja) * 2005-03-18 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置及び画像処理方法とそのプログラム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012201178A (ja) * 2011-03-24 2012-10-22 Fuji Heavy Ind Ltd 車外監視装置
JP2014523716A (ja) * 2011-07-05 2014-09-11 オムロン株式会社 射影空間監視のための方法および装置
US9542605B2 (en) 2012-07-03 2017-01-10 Clarion Co., Ltd. State recognition system and state recognition method
WO2014007286A1 (ja) * 2012-07-03 2014-01-09 クラリオン株式会社 状態認識システム及び状態認識方法
US9956941B2 (en) 2012-07-03 2018-05-01 Clarion Co., Ltd. On-board device controlling accumulation removing units
US9600988B2 (en) 2012-11-22 2017-03-21 Fujitsu Limited Image processing device and method for processing image
JP2015088048A (ja) * 2013-10-31 2015-05-07 富士重工業株式会社 車両制御システム
US9676333B2 (en) 2013-10-31 2017-06-13 Fuji Jukogyo Kabushiki Kaisha Vehicle control system
CN104590258A (zh) * 2013-10-31 2015-05-06 富士重工业株式会社 车辆控制系统
JP2015139182A (ja) * 2014-01-24 2015-07-30 株式会社日立国際電気 テレビジョンカメラシステム
JP2015190929A (ja) * 2014-03-28 2015-11-02 富士重工業株式会社 車両における積雪検知システム
JP2019050462A (ja) * 2017-09-08 2019-03-28 トヨタ自動車株式会社 映り込み判定装置及び撮影装置
US10559084B2 (en) 2017-09-08 2020-02-11 Toyota Jidosha Kabushiki Kaisha Reflection determining apparatus
WO2021075299A1 (ja) * 2019-10-18 2021-04-22 株式会社小糸製作所 車両用灯具システム、異物判定装置および異物判定方法
JP7478747B2 (ja) 2019-10-18 2024-05-07 株式会社小糸製作所 車両用灯具システム、異物判定装置および異物判定方法
WO2021095666A1 (ja) * 2019-11-11 2021-05-20 株式会社小糸製作所 車両用灯具、車両用システム及びその車両用システムにおいて実行される方法

Also Published As

Publication number Publication date
JP5267101B2 (ja) 2013-08-21

Similar Documents

Publication Publication Date Title
JP5267101B2 (ja) 車両用対象物検出装置
JP5022609B2 (ja) 撮像環境認識装置
US9902323B2 (en) Periphery surveillance apparatus and program
JP5233583B2 (ja) 車載用監視装置
JP5399027B2 (ja) 自動車の運転を支援するための、立体画像を捕捉することができるシステムを有するデバイス
WO2017068701A1 (ja) 駐車スペース検出方法および装置
EP1600909A2 (en) Vehicle lane detector
JP6045889B2 (ja) 車載用制御装置
JP2008067086A (ja) 車両検出装置、およびライト制御装置
EP3036131B1 (en) Imaging system and method with ego motion detection
JP2008250904A (ja) 車線区分線情報検出装置、走行車線維持装置、車線区分線認識方法
EP3396938B1 (en) Imaging device and method for determining foreign matter
JP2014104853A (ja) 車載用制御装置
JP5680436B2 (ja) 車載カメラレンズ用異物付着判定装置
JP5543938B2 (ja) 車外監視装置
JP5226641B2 (ja) 車両用障害物検出装置
JP2007293672A (ja) 車両用撮影装置、車両用撮影装置の汚れ検出方法
WO2016072300A1 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP4768499B2 (ja) 車載周辺他車検出装置
JP5723561B2 (ja) 運転支援装置
JP2019153932A (ja) 汚れ報知装置
US11100353B2 (en) Apparatus of controlling region of interest of image and method for controlling the same
JP2013146029A (ja) 車両周辺監視装置
JP6875940B2 (ja) 相互間距離算出装置
WO2018074076A1 (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111125

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120305

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130422

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5267101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees