JP2014013453A - 車載用周囲環境認識装置 - Google Patents

車載用周囲環境認識装置 Download PDF

Info

Publication number
JP2014013453A
JP2014013453A JP2012149867A JP2012149867A JP2014013453A JP 2014013453 A JP2014013453 A JP 2014013453A JP 2012149867 A JP2012149867 A JP 2012149867A JP 2012149867 A JP2012149867 A JP 2012149867A JP 2014013453 A JP2014013453 A JP 2014013453A
Authority
JP
Japan
Prior art keywords
reflection
vehicle
background
unit
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012149867A
Other languages
English (en)
Other versions
JP6035065B2 (ja
Inventor
Masayuki Takemura
雅幸 竹村
Shoji Muramatsu
彰二 村松
Masahiro Kiyohara
將裕 清原
Rei Udagawa
玲 宇田川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2012149867A priority Critical patent/JP6035065B2/ja
Publication of JP2014013453A publication Critical patent/JP2014013453A/ja
Application granted granted Critical
Publication of JP6035065B2 publication Critical patent/JP6035065B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】路面への背景物の映り込みが車両として誤検出されることで警報が誤ったタイミングで出力されるのを防止する。
【解決手段】車載用周囲環境認識装置100は、カメラ1により取得された撮影画像に基づいて、制御部2の処理により、車両の周囲を走行している他車両を認識し、この認識結果に基づいて警報出力部3から警報を出力する。また、制御部2の処理により、撮影画像に基づいて、車両の周囲の路面への背景物の映り込みの有無を判定し、映り込みがあると判定した場合、警報出力部3による警報の出力を抑制する。
【選択図】図1

Description

本発明は、自車両の周囲環境の物体を認識する車載用周囲環境認識装置に関する。
従来、車両に搭載され、カメラにより撮影して得られた画像から他の車両を検出して、自車両と衝突する可能性がある場合に警報を出力する装置が提案されている。このような装置に関して、画像中でヘッドライトによる路面反射の領域を検出し、その領域を除外して処理を行うことにより、ヘッドライトによる路面反射が1つになり広がってしまった場合でも、正確に車両の車頭および車尾を検出するようにする技術が知られている(特許文献1)。
特開2007−265016号公報
従来の装置では、路面が濡れており反射係数が高い場合などに、路面に映り込んだ背景物が車両として誤検出されてしまう場合がある。しかし、特許文献1に記載の技術は、ヘッドライトの路面反射による高輝度領域を抽出し、誤検出を防止するためのものである。したがって、高輝度でない路面への背景物の映り込みが車両として誤検出されることで警報が誤ったタイミングで出力されることを防止することはできない。
本発明による車載用周囲環境認識装置は、車両の周囲の路面を撮影して撮影画像を取得する撮影部と、撮影部により取得された撮影画像に基づいて、車両の周囲を走行している他車両を認識するアプリ実行部と、アプリ実行部による他車両の認識結果に基づいて、警報信号の出力を制御する警報制御部と、撮影画像に基づいて路面への背景物の映り込みの有無を判定する映り込み判定部と、を備え、映り込み判定部による判定結果に基づいて、警報制御部による警報信号の出力を制御するものである。
本発明によれば、路面への背景物の映り込みが車両として誤検出されることで警報が誤ったタイミングで出力されるのを防止することができる。
本発明の一実施形態による車載用周囲環境認識装置の構成を示すブロック図である。 カメラの撮影領域を示す図である。 カメラの取り付け位置の例を示す図である。 路面映り込み時の警報抑制に関する制御ブロック図である。 路面映り込み時の警報抑制で実行される処理のフローチャートである。 撮影画像に設定される背景領域および映り込み領域の例を示す図である。 領域設定部の機能ブロック例を示す図である。 特徴量算出部の機能ブロック例を示す図である。 映り込み判定部の機能ブロック例を示す図である。 アプリ実行部の機能ブロック例を示す図である。 三次元での路面領域および背景領域の設定を説明する図である。
図1は、本発明の一実施形態による車載用周囲環境認識装置100の構成を示すブロック図である。図1に示す車載用周囲環境認識装置100は、車両に搭載されて使用されるものであり、カメラ1と、制御部2と、警報出力部3と、動作状態報知部4と、を備える。
カメラ1は、車両の後方に向けて設置されており、車両後方の路面を含む撮影領域内の画像を所定の時間間隔ごとに撮影する。このカメラ1には、たとえばCCDやCMOSなどの撮像素子が用いられる。カメラ1により取得された撮影画像は、カメラ1から制御部2へ出力される。
図2は、カメラ1の撮影領域を示す図であり、カメラ1を横方向から見た様子を示している。カメラ1は、この撮影領域において、車両後方の路面を含む画像を撮影する。ここで、カメラ1の撮影領域(画角)は、車両後方の路面を左右方向について十分に広い範囲で撮影できるように比較的広く設定されている。
図3は、カメラ1の取り付け位置の例を示す図である。自車両の後方部分において、車体20にはナンバープレート21が設置されている。このナンバープレート21の直上の位置に、斜め下に向けてカメラ1が取り付けられている。なお、ここで示した取り付け位置はあくまで一例であるため、他の位置にカメラ1を取り付けてもよい。サイドカメラやフロントカメラにおいても、本手法を利用しても良い。
制御部2は、カメラ1からの撮影画像を用いて所定の画像処理を行い、その処理結果に応じた各種制御を行う。この制御部2が行う制御により、車載用周囲環境認識装置100において、たとえば、レーン認識、他車両認識、歩行者検知、標識検知、巻き込み防止検知、駐車枠認識、移動体検知、と呼ばれる様々な機能が実現される。
警報出力部3は、警報ランプや警報ブザー等による警報を車両の運転者に対して出力するための部分である。この警報出力部3の動作は、制御部2によって制御される。たとえば、前述のレーン認識において自車両が走行中の車線から逸脱しそうと判断された場合や、他車両検知、歩行者検知、巻き込み防止、移動体検知などにおいて、自車両と衝突する可能性のある車両が検出された場合に、制御部2の制御に応じて警報出力部3から警報が出力される。
動作状態報知部4は、車載用周囲環境認識装置100の動作状態を車両の運転者に報知するための部分である。たとえば、所定の動作条件が満たされておらずに車載用周囲環境認識装置100が非動作状態にある場合、制御部2の制御により、動作状態報知部4として車両の運転席付近に設置されたランプを点灯させる。これにより、車載用周囲環境認識装置100が非動作状態であることを運転者に報知する。
次に、車載用周囲環境認識装置100において行われる路面映り込み時の警報抑制について説明する。前述の他車両認識部や歩行者検知部、移動体検知部などで物体を検出する際に、路面が濡れており反射係数が高い場合などでは、撮影画像の背景部分にある様々な背景物が、路面に形成された水膜等に映り込むことがある。このような場合、路面に映り込んだ背景物を認識対象物として誤検出してしまい、運転者に対する警報が誤ったタイミングで出力されてしまう場合がある。そこで、車載用周囲環境認識装置100では、こうした水膜等による路面への背景物の映り込みの有無を判定し、映り込みがあると判定した場合は警報の出力を抑制する。これにより、路面への背景物の映り込みが他車両として誤検出されることで警報が誤ったタイミングで出力されるのを防止する。
図4は、路面映り込み時の警報抑制に関する制御部2の制御ブロック図である。制御部2は、路面映り込み時の警報抑制に関して、領域設定部201、特徴量算出部202、映り込み判定部203、アプリ実行部204および警報制御部205の各制御ブロックを有する。制御部2では、たとえば、これらの各制御ブロックに対応するプログラムをマイクロコンピュータで実行することにより、図4の各制御ブロックを実現している。
領域設定部201は、カメラ1により取得された撮影画像に対して、背景部分に当たる背景領域と、この背景領域に対応する路面上の映り込み領域とを、左右にそれぞれ複数ずつ設定する。図7は、領域設定部201の機能ブロック例を示す図である。図7に示すように、領域設定部201は、たとえば、路面領域設定部201a、背景横位置設定部201b、反射背景領域設定部201c、および画像領域変換部201dからなる。
領域設定部201では、カメラ1により取得された撮影画像に対して、他車両認識に利用する隣接車線の路面領域を路面領域設定部201aにて設定する。図11は、三次元での路面領域および背景領域の設定を説明する図である。路面領域設定部201aでは、図11に示すように、隣接車線の車両を検知するために、自車両カメラ位置を中心に左右の処理領域110、111を設定し、車両検知の路面領域を更に分割した局所領域を複数ずつ設定する。この路面領域設定後に、自車両カメラ位置と、路面領域の三次元位置が既知であるため、入射角と反射角が等しい鏡面反射の性質を利用して、路面に映り込むであろう背景位置を、反射背景領域設定部201cにて特定する。ただし、自車両カメラから路面で鏡面反射したベクトル方向は算出可能であるが、これが自車両カメラからどの横位置の背景であるかは特定できない。すなわち、路面に映り込む背景が、すぐ近くの障害物なのか、20m離れた街灯なのかは、未知数である。このため、背景横位置設定部201bにおいて、横位置をある規定値を設けて設定することとする。映り込む背景がある程度絞り込めるような条件においては、この横位置を動的に指定することで、より高精度に水膜映り込みを判定しても良い。ただし、ある規定値を設けても処理領域の多少のずれであれば許容可能である。反射背景領域設定部201cでは、図11に示すように横位置112を決定し、ここに大きな壁113が立っていることを仮定し、先ほど求めた路面局所領域の各頂点での反射ベクトルを延長し、壁113とぶつかりあう三次元位置114を推定する。これにより、反射背景領域の推定計算を実施する。最後に、これまでの説明では、自車両を中心とした世界座標での推定計算であったため、画像領域変換部201dにおいて画像上でどの位置になるかをそれぞれの領域について実施する。
特徴量算出部202は、領域設定部201により設定された各背景領域および各映り込み領域について、これらの各領域内での画像の特徴を示す特徴量をそれぞれ算出する。図8は、特徴量算出部202の機能ブロック例を示す図である。図8に示すように、特徴量算出部202は、たとえば、路面エッジ角度ヒストグラム抽出部202a、白線エッジ角度推定部202b、背景エッジ角度ヒストグラム抽出部202c、背景路面エッジ角度相関性推定部202d、および背景路面立体物エッジ推定部202eからなる。
映り込み判定部203は、特徴量算出部202により算出された特徴量を基に、撮影画像のうち各背景領域内の画像と、撮影画像のうち各映り込み領域内の画像とを、対応するもの同士でそれぞれ比較する。この比較結果から、路面への背景物の映り込みの有無を判定し、映り込みありと判定した場合はその旨を警報制御部205へ通知する。図9は、映り込み判定部203の機能ブロック例を示す図である。図9に示すように、映り込み判定部203は、たとえば、エッジ強度解析部203a、白線エッジ抑制部203b、立体物エッジ強調部203c、局所領域別相関性解析部203d、および左右別相関性解析部203eからなる。
図10は、アプリ実行部204の機能ブロック例を示す図である。図10に示すように、アプリ実行部204は、たとえば、レーン認識部204a、他車両認識部204b、歩行者検知部204c、標識検知部204d、巻き込み防止認識部204e、駐車枠認識部204f、移動体検知部204gからなる。
レーン認識部204aは、カメラ1により取得された撮影画像に基づいて、自車両左右のレーンを認識する。撮像画像の中から、白線特徴量を抽出し、この白線特徴量が並ぶ直線を抽出し、最終的に画像上の線から世界座標における自車両と白線の相対位置、相対姿勢を算出し、車線外に逸脱しそうかどうかを判定する。車線逸脱すると予測した場合には、警報制御部205に対して警報出力の指示を行う。
他車両認識部204bは、カメラ1により取得された撮影画像に基づいて、自車両の左後方または右後方に存在する他車両を認識する。このときアプリ実行部204は、オプティカルフローのように背景と異なる動きの領域を他車両として認識する。もしくは、パターンマッチング等の周知の画像処理技術を用いて、撮影画像の中から他車両に相当する部分を特定しても良い。この他車両の認識結果を基に、アプリ実行部204は、自車両と衝突する可能性がある他車両の有無を判断する。たとえば、自車両が車線変更を開始しようとしており、その車線変更方向に存在する他車両が自車両に接近しているような場合に、自車両と衝突する可能性があると判断し、警報制御部205に対して警報出力の指示を行う。
歩行者検知部204cは、カメラ1により取得された撮像画像に基づいて、撮像画像の中から歩行者を検知する。自車両進行方向で、衝突可能性がある歩行者について検知し、衝突の恐れがある場合に警報する。
標識検知部204dは、カメラ1により取得された撮像画像に基づいて、撮像画像中の中から標識を検知し、ユーザに音声やディスプレイ表示にて、標識の種類を伝える。
巻き込み防止認識部204eは、カメラ1により取得された撮像画像に基づいて、交差点を曲がる際に、巻き込む2輪車などが存在しないかを認識し、自車両に接触の恐れがある場合に、警報する。
駐車枠認識部204fは、自動駐車や、駐車支援を目的として、駐車枠を認識し、駐車枠の位置、姿勢から、自車両を駐車するためのアシスト、もしくは制御を実施する。
移動体検知部204gは、カメラ1により取得された撮影画像に基づいて、低車速時における自車両周囲の移動体を認識する。撮像画像の中から、移動体を検出し移動方向と自車挙動に基づいて接触の可能性が高いと判定した場合には、警報制御部205に対して警報出力の指示を行う。
警報制御部205は、アプリ実行部204からの指示に応じて、警報出力部3へ警報出力信号を出力する。この警報出力信号の出力により、警報出力部3から運転者に対して警報が出力される。以上説明したようなアプリ実行部204および警報制御部205の動作により、車載用周囲環境認識装置100において障害物などの衝突の危険がある場合に警報が実現される。
なお、警報制御部205は、映り込み判定部203から映り込みありの通知を受けた場合、警報出力部3に対する警報出力信号の出力を停止する。このときアプリ実行部204から警報出力の指示が行われても、警報制御部205から警報出力部3に警報出力信号は出力されない。これにより、路面への背景物の映り込みがあるときには、警報出力部3による警報出力が抑制されるようにする。
図5は、以上説明した路面映り込み時の警報抑制で実行される処理のフローチャートである。このフローチャートに示す処理は、アプリケーション(アプリ)の実行中に、制御部2において所定の処理周期ごとに行われる。
ステップS10において、制御部2は、カメラ1を用いて、車両の周囲の路面を含む所定の撮影領域内を撮影し、撮影画像を取得する。この撮影画像は、カメラ1から制御部2へ出力され、以降の処理において利用される。
ステップS20において、制御部2は、ステップS10で取得した撮影画像に、背景領域および映り込み領域を設定する。ここでは、後方車線検知、後側方車両認識、巻き込み防止認識部に利用する例として、領域設定部201により、撮影画像内の所定部分に、背景領域および映り込み領域をそれぞれ複数ずつ設定する。他、歩行者検知、標識検知であればフロントカメラを前提とする。レーン認識、他車両認識、移動体検知に関しては、フロントカメラや、サイドカメラ、リアカメラのどれを利用しても良い。巻き込み防止や、駐車枠認識はサイドカメラ、リアカメラのどちらを利用しても良い。どのカメラを利用しても基本的な手法や考え方に関しては、そのまま適用可能である。
図6は、撮影画像に設定される背景領域および映り込み領域の例を示す図である。図6に示す撮影画像30は、路面が撮影されている路面画像領域32と、背景画像領域33とに分けられている。ステップS20では、この撮影画像30に対して、図6に示すように、車両の右後方に対応する位置に背景領域34a〜34fおよび映り込み領域35a〜35fを設定し、左後方に対応する位置に背景領域36a〜36fおよび映り込み領域37a〜37fを設定する。路面領域設定部201aでは、左隣接車線の映り込み領域35a〜35fと右隣接車線の映り込み領域37a〜37fを設定する。反射背景領域設定部201cでは、左背景領域34a〜34fと右背景領域36a〜36fを設定する。
背景領域34a〜34fおよび36a〜36fは、背景画像領域33内において、車両の走行に応じて生じる撮影画像30中での背景物の位置変化の方向に沿って、左右対称の位置にそれぞれ設定される。この背景領域34a〜34fおよび36a〜36fにそれぞれ対応して、路面画像領域32内に、映り込み領域35a〜35fおよび37a〜37fが設定される。たとえば、撮影画像30内で左右端側、すなわち実空間上では車両から最も近い側の位置に設定されている背景領域34a、36aは、映り込み領域35a、37aにそれぞれ対応している。また、撮影画像30内で中央寄り、すなわち実空間上では車両から最も遠い側の位置に設定されている背景領域34f、36fは、映り込み領域35f、37fにそれぞれ対応している。このようにして、映り込み領域35a〜35f、37a〜37fを路面画像領域32内にそれぞれ設定し、これらの各映り込み領域に対して背景物の映り込みが生じる背景画像領域33内の位置に、背景領域34a〜34f、36a〜36fをそれぞれ設定する。なお、撮影画像30において、映り込み領域35a〜35fおよび37a〜37fの設定位置は、アプリの検出を行う領域に対応する位置とすることが好ましい。
ステップS30において、制御部2は、特徴量算出部202により、ステップS20で設定した背景領域34a〜34fおよび36a〜36fと、映り込み領域35a〜35fおよび37a〜37fとに対して、これらの各領域内での画像の特徴を表す特徴量をそれぞれ算出する。たとえば、背景領域34a〜34f、36a〜36fにそれぞれ対応する画像の各画素と、映り込み領域35a〜35f、37a〜37fにそれぞれ対応する画像の各画素とについて、その周囲の各画素の輝度に基づき、撮影画像30内でのエッジ角度をそれぞれ算出する。こうして算出された各画素のエッジ角度を領域ごとにヒストグラム化することで、各領域の画像のエッジ角度に応じた各領域の特徴量を算出することができる。なお、各領域での画像の特徴を適切に表すことができるものであれば、特徴量の算出方法はこれに限定されるものではない。
特徴量抽出部202の詳細の処理を図8の機能ブロック図により説明する。まず、路面エッジ角度ヒストグラム抽出部202aにおいて、路面映り込み領域の局所領域毎35a〜35f、37a〜37fのそれぞれについて、輝度の勾配方向を示すベクトルであるエッジ角度を抽出する。各画素についてエッジ角度を抽出し、これを局所領域毎にヒストグラム化することにより、局所領域内のエッジ角度の分布を調べる。次に、路面の白線エッジ角度が、路面のエッジ角度ヒストグラムに入ってくる可能性が比較的高い。背景領域と路面映り込み領域の相関をとる場合には、あらかじめ路面のみにあることが既知であれば白線のエッジ角度は除いて相関をとった方が相関性の精度が上がる。このため、白線エッジ角度推定部202bにおいて、各局所処理領域の、白線のエッジ角度を推定し、後処理において相関をとる際に抑制に利用する。次に、背景エッジ角度ヒストグラム抽出部202cにおいて、背景領域の局所領域毎34a〜34f、36a〜36fにそれぞれについて、エッジ角度を抽出し、局所領域毎にヒストグラム化する。背景路面エッジ角度相関性推定部202dでは、対応する局所領域毎、例えば、路面領域が35aであれば対応する背景領域は34aであり、この対応領域毎に、背景のエッジ角度と路面のエッジ角度の対応を推定する。背景領域に角度45度のエッジがあった場合に、そのエッジが路面に映り込むと画像上何度のエッジ角度になるかという対応表を生成する。最後に、最も誤検知要因となりやすい、立体物の背景と路面のエッジ角度も、背景路面立体物エッジ推定部202eにおいて対応表とは別に対応する局所領域毎に推定する。
ステップS40において、制御部2は、映り込み判定部203により、ステップS30で算出した各領域の特徴量に基づいて、路面への背景物の映り込みの有無を判定するための映り込み判定を行う。ここではまず、背景領域34a〜34f、36a〜36fに対してそれぞれ算出された特徴量と、映り込み領域35a〜35f、37a〜37fに対してそれぞれ算出された特徴量とを、対応するもの同士でそれぞれ比較する。たとえば、背景領域34aの特徴量と、これに対応する映り込み領域35aの特徴量とを比較し、背景領域36aの特徴量と、これに対応する映り込み領域37aの特徴量とを比較する。また、背景領域34fの特徴量と、これに対応する映り込み領域35fの特徴量とを比較し、背景領域36fの特徴量と、これに対応する映り込み領域37fの特徴量とを比較する。他の背景領域および映り込み領域についても同様に、対応するもの同士で特徴量をそれぞれ比較する。こうして各背景領域と各映り込み領域の特徴量をそれぞれ比較することにより、各背景領域内の画像と各映り込み領域内の画像とをそれぞれ比較し、その組み合わせごとに相関性を解析する。
映り込み判定部203の詳細な処理を図9の機能ブロック図により説明する。まず、路面での映り込みを判定したい理由は路面で反射する映り込みを誤検知するためである。つまり、路面のエッジ強度が弱ければ、そもそもレーン認識、他車両認識、歩行者検知などで、誤検知しない。また、背景のエッジ強度が低い場合は、そもそも背景に映り込むような物体が存在しない可能性が高く、路面に映り込む物体が存在しない可能性が高い。このため、映り込み判定実施の前に、路面にも、背景にもそれなりのエッジ分布があることをエッジ強度解析部203aで解析する。次に、白線エッジ抑制部203bで推定した白線エッジ角度を利用して、路面映り込み領域のエッジ角度ヒストグラムの中から白線エッジ角度近辺のヒストグラムの大きさを抑制しても良い。例えば、実際のヒストグラムの高さから0.3倍をかけて白線の影響を小さくして背景との相関性をとる前処理を白線エッジ抑制部203bにて実行する。これにより映り込み誤判定要因である白線の影響を軽減することができる。
次に、立体物エッジ強調部203cにて、エッジ角度ヒストグラムの中から、背景路面立体物エッジ推定部202eで推定した背景領域は立体物エッジ角度、路面映り込み領域は立体物映り込みエッジ角度について、ヒストグラムの高さを2倍にして強調する。これにより立体物のエッジ角度の相関性を見ることができるために、アプリの認識ロジックが誤検知しやすい立体物エッジの相関性を安定して得ることが可能となる。
次に、局所領域別相関性解析部203dでは、対応する路面映り込み領域と背景領域のエッジ角度ヒストグラムの相関性を解析する。
なお、上記のような特徴量の比較においては、映り込みによるエッジ角度の変化を考慮して、各領域の特徴量として算出した前述のエッジ角度のヒストグラム同士を比較することが好ましい。すなわち、各背景領域のエッジ角度のヒストグラムにおける配列位置が、各映り込み領域のエッジ角度のヒストグラムにおいてどの配列位置に対応するかを予め背景路面エッジ角度相関性推定部202dにおいて計算しておき、この計算結果を基に両ヒストグラムの比較を行う。このようにすれば、各背景領域の特徴量を表すエッジ角度のヒストグラムと、各映り込み領域の特徴量を表すエッジ角度のヒストグラムとを、映り込み状態を反映して正しく相関性を解析することができる。局所領域における相関性のチェックは、画面左側から、映り込み領域35aと背景領域34aの対応する処理領域同士で比較する。続けると、映り込み領域35bと背景領域34b、映り込み領域35cと背景領域34c、映り込み領域35dと背景領域34d、映り込み領域35eと背景領域34e、映り込み領域35fと背景領域34fで、それぞれ路面映り込みと対応する背景領域の特徴量に相関性があるかを解析する。同様に、画面右側も、映り込み領域37aと背景領域36a、映り込み領域37bと背景領域36b、映り込み領域37cと背景領域36c、映り込み領域37dと背景領域36d、映り込み領域37eと背景領域36e、映り込み領域37fと背景領域36fで相関性をそれぞれ解析する。
以上説明したようにして各背景領域と各映り込み領域の対応する領域同士で特徴量をそれぞれ比較する。すなわち、画面左側では、背景領域34a〜34fの各々に対して算出された特徴量を路面映り込み領域35a〜35fと比較する。画面右側も同様に、背景領域36a〜36fの各々に対して算出された特徴量を路面映り込み領域37a〜37fと比較する。対応する領域は同一のアルファベットの添え字どうしで比較する。
次に、左右別相関性解析部203eでは、局所領域毎に見るのではなく、局所領域をまとめて解析する。まずは、自車速で移動するため、各局所領域の特徴が、背景も路面映り込み領域も後方へ移動するかを確認する。例えば、画面左の映り込み領域35bに角度45度のエッジ角度特徴量があった場合に、次のフレームでは、この特徴量が後方に流れて例えば映り込み領域35eで同様な傾向が伺える。また、背景には相関性の高い背景のエッジ角度が存在し、これも時系列で背景領域34bから背景領域34eに移動していると背景映り込みの可能性が高まる。
また、背景領域と路面の映り込み領域の局所的な相関性以外に、特徴量の有無や、奥行き方向についてそれぞれ相関性があるかどうかも判定する。例えば、画面左側で、背景領域34bと映り込み領域35bにのみ相関性があり、他領域には特徴量があるにも関わらず相関性が低ければ、偶然、相関性がある局所領域が存在した可能性が高いと考える。反対に、背景領域34bと映り込み領域35bにのみ相関性があり、他領域においては背景領域、路面映り込み領域それぞれの特徴量が少なく相関性がとれない状態であれば、これは画面左側の路面映り込みが発生している可能性が高く画面左側の相関性が高いといえる。局所領域毎の相関性の後には、このように左右別でみた局所領域の相関性の並び方と動き方を参考に左右別の相関性を解析し、左右別の路面映り込みの判定を実施する。
ステップS40では、以上説明したような各領域の特徴量の比較を行い、その比較結果に基づいて、背景領域34a〜34fと映り込み領域35a〜35fの間、および背景領域36a〜36fと映り込み領域37a〜37fの間で、背景物の映り込みがあるか否かをそれぞれ判定する。たとえば、背景領域34a〜34fと映り込み領域35a〜35fの間の相関性がそれぞれ十分に高く、かつ背景領域群34a〜34f内の各画像と映り込み領域群35a〜35f内の各画像が全体的に車両に対して遠ざかるような方向に移動している場合、車両の右後方において、路面への背景物の映り込みがあると判定する。同様に、背景領域36a〜36fと映り込み領域37a〜37fの間の相関性がそれぞれ十分に高く、かつ背景領域群36a〜36f内の各画像と映り込み領域群37a〜37f内の各画像が全体的に車両に対して遠ざかるような方向に移動している場合、車両の左後方において、路面への背景物の映り込みがあると判定する。
ステップS50において、制御部2は、ステップS40の映り込み判定の結果から、路面への背景物の映り込みの有無を判定する。車両の左後方および右後方のいずれか少なくとも一方において路面への背景物の映り込みがあるとステップS40で判定した場合は、ステップS50からステップS60へ進む。一方、車両の左右後方のいずれにおいても路面への背景物の映り込みがないとステップS40で判定した場合は、ステップS60を実行せずに図5のフローチャートを終了する。
ステップS60において、制御部2は、警報出力部3に対して、警報出力信号の出力を停止させる。このとき制御部2は、映り込み判定部203から警報制御部205に対して所定の通知を行うことにより、警報制御部205から警報出力部3への警報出力信号を停止し、警報出力部3による警報の出力を抑制する。これにより、自車両の左後方または右後方において路面に映り込んだ背景物が、アプリ実行部204によって自車両と衝突する可能性がある他車両として誤検出された場合でも、誤って警報出力部3から警報が出力されないようにする。なお、ステップS60では、車両の左後方および右後方のうち、ステップS40で路面への背景物の映り込みがあると判定された方についてのみ、警報の出力を停止させることが好ましい。ステップS60を実行したら、制御部2は図5のフローチャートを終了する。
また、上記と同様に、レーン認識部204aにおいても、認識結果の横位置が不安定かつ映り込み判定された場合には、レーン認識を利用した車線逸脱時の警報を抑制することで、誤警報を抑制する効果が得られる。
また、歩行者検知部204cにおいても、映り込みを移動体と誤検知する恐れがあるために、警報の出力を抑制することで、誤警報抑制する効果が得られる。標識検知部204dにおいても、映り込みを標識と誤検知する恐れがあるために、警報の出力を抑制することで、誤警報抑制する効果が得られる。巻き込み防止認識部204eにおいても、映り込みを障害物と誤検知する恐れがあるために、警報の出力を抑制することで、誤警報抑制する効果が得られる。駐車枠認識部204fにおいても、映り込みにより駐車枠の位置が不安定になったり誤認識する恐れがあるために、駐車枠を利用したアプリケーションの停止により、誤制御などを抑止する。
また、移動体検知部204gにおいても、映り込みを移動体と誤検知する恐れがあるために、警報の出力を抑制することで、誤警報抑制する効果が得られる。
以上説明した実施の形態によれば、次のような作用効果を奏する。
(1)車載用周囲環境認識装置100は、カメラ1により取得された撮影画像に基づいて、アプリ実行部204により、車両の周囲を走行している他車両を認識し、この認識結果に基づいて、警報制御部205および警報出力部3により、警報を出力する。また、映り込み判定部203により、撮影画像に基づいて路面への背景物の映り込みの有無を判定し(ステップS40)、映り込みがあると判定した場合、警報制御部205から警報出力部3への警報出力信号を停止して(ステップS60)、警報出力部3による警報の出力を抑制する。このようにしたので、路面への背景物の映り込みが車両として誤検出されることで警報が誤ったタイミングで出力されるのを防止することができる。
(2)車載用周囲環境認識装置100は、領域設定部201により、カメラ1により取得された撮影画像30に、背景領域34a〜34fおよび36a〜36fと、映り込み領域35a〜35fおよび37a〜37fとを設定する(ステップS20)。ステップS40において、映り込み判定部203は、撮影画像30のうち背景領域34a〜34f、36a〜36f内の画像と、撮影画像30のうち映り込み領域35a〜35f、37a〜37f内の画像とを比較することにより、路面への背景物の映り込みの有無を判定する。また、領域設定部201において、反射の有無を判定したい路面の映り込み領域を設定する。設定した領域は、立体物の鉛直方向のエッジを細かく分割しないような方向に分割することで、相関性を取りやすい領域分割とする。また、路面は自車両と同一の高さとすることで、鏡面反射の性質を利用して背景の映り込み領域を決めることで、映り込みの判定精度を高めている。このようにしたので、撮影画像30に基づいて、路面への背景物の映り込みの有無を確実に判定することができる。
(3)車載用周囲環境認識装置100は、特徴量算出部202により、背景領域34a〜34f、36a〜36f内の画像のエッジ角度に応じた背景領域34a〜34f、36a〜36fの特徴量と、映り込み領域35a〜35f、37a〜37f内の画像のエッジ角度に応じた映り込み領域35a〜35f、37a〜37fの特徴量とを算出することができる(ステップS30)。ステップS40において、映り込み判定部203は、この背景領域34a〜34f、36a〜36fの特徴量と、映り込み領域35a〜35f、37a〜37fの特徴量とを比較することにより、路面への背景物の映り込みの有無を判定することができる。このようにすれば、背景領域34a〜34f、36a〜36f内の画像と、映り込み領域35a〜35f、37a〜37f内の画像とを、容易かつ正確に比較することができる。
(4)ステップS20において、領域設定部201は、車両の走行に応じた撮影画像30中での背景物の位置変化の方向に沿って背景領域34a〜34fおよび36a〜36fを設定すると共に、これらの背景領域にそれぞれ対応する映り込み領域35a〜35fおよび37a〜37fを設定する。ステップS40において、映り込み判定部203は、撮影画像30のうち背景領域34a〜34f、36a〜36f内の各画像と、撮影画像30のうち映り込み領域35a〜35f、37a〜37f内の各画像とをそれぞれ比較する。また、背景領域34a〜34f、36a〜36f内の各画像同士、および映り込み領域35a〜35f、37a〜37f内の各画像同士をそれぞれ比較する。これにより、路面への背景物の映り込みの有無を判定するようにした。そのため、車両の走行に応じた撮影画像の時間的変化を考慮して、路面への背景物の映り込みの有無をより一層確実に判定することができる。
(5)ステップS20において、領域設定部201は、撮影画像30中で車両の右後方に対応する位置に、背景領域34a〜34fおよび映り込み領域35a〜35fをそれぞれ設定し、車両の左後方に対応する位置に、背景領域36a〜36fおよび映り込み領域37a〜37fをそれぞれ設定する。ステップS40において、映り込み判定部203は、車両の右後方に対応する位置に設定された背景領域34a〜34f内の各画像同士および映り込み領域35a〜35f内の各画像同士をそれぞれ比較すると共に、車両の左後方に対応する位置に設定された背景領域36a〜36f内の各画像同士および映り込み領域37a〜37f内の各画像同士をそれぞれ比較する。このようにしたので、他車両の検出を行う車両の左右後方のそれぞれについて、路面への背景物の映り込みの有無を判定することができる。
なお、以上説明した実施の形態では、カメラ1が車両の後方の路面を撮影するようにしたが、車両の前方の路面を撮影してもよい。車両の周囲の路面を撮影できる限り、カメラ1の撮影範囲をどのように設定しても構わない。
また、上記実施の形態では、警報制御部205から警報出力部3への警報出力信号を停止することで、警報出力部3による警報の出力を抑制する例を説明したが、他の方法により警報の出力を抑制してもよい。たとえば、アプリ実行部204において撮影画像から他車両の部分を検出する際の閾値を変化させたり、他車両が自車両に接近していると判断する際の閾値を変化させたりすることで、路面への背景物の映り込みがある場合に、他車両が自車両と衝突する可能性があるとの判断が通常時よりも行われ難くなるようにしてもよい。このようにしても、警報出力部3による警報の出力を抑制して、路面への背景物の映り込みが車両として誤検出されることで警報が誤ったタイミングで出力されるのを防止することができる。
以上説明した実施の形態や各種の変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されるものではない。
1 カメラ
2 制御部
3 警報出力部
4 動作状態報知部
100 車載用周囲環境認識装置
201 領域設定部
202 特徴量算出部
203 映り込み判定部
204 アプリ実行部
205 警報制御部

Claims (5)

  1. 車両の周囲の路面を撮影して撮影画像を取得する撮影部と、
    前記撮影部により取得された撮影画像に基づいて、前記車両の周囲を走行している他車両を認識するアプリ実行部と、
    前記アプリ実行部による前記他車両の認識結果に基づいて、警報信号の出力を制御する警報制御部と、
    前記撮影画像に基づいて前記路面への背景物の映り込みの有無を判定する映り込み判定部と、を備え、
    前記映り込み判定部による判定結果に基づいて、前記警報制御部による前記警報信号の出力を制御することを特徴とする車載用周囲環境認識装置。
  2. 請求項1に記載の車載用周囲環境認識装置において、
    前記撮影画像に背景領域および映り込み領域を設定する領域設定部を備え、
    前記映り込み判定部は、前記撮影画像のうち前記背景領域内の画像と、前記撮影画像のうち前記映り込み領域内の画像とを比較することにより、前記路面への背景物の映り込みの有無を判定することを特徴とする車載用周囲環境認識装置。
  3. 請求項2に記載の車載用周囲環境認識装置において、
    前記背景領域内の画像のエッジ角度に応じた前記背景領域の特徴量と、前記映り込み領域内の画像のエッジ角度に応じた前記映り込み領域の特徴量とを算出する特徴量算出部を備え、
    前記映り込み判定部は、前記背景領域の特徴量と、前記映り込み領域の特徴量とを比較することにより、前記路面への背景物の映り込みの有無を判定することを特徴とする車載用周囲環境認識装置。
  4. 請求項2または3に記載の車載用周囲環境認識装置において、
    前記領域設定部は、前記車両の走行に応じた前記撮影画像中での前記背景物の位置変化の方向に沿って複数の前記背景領域を設定すると共に、複数の前記背景領域にそれぞれ対応する複数の前記映り込み領域を設定し、
    前記映り込み判定部は、前記撮影画像のうち複数の前記背景領域内の各画像と、前記撮影画像のうち複数の前記映り込み領域内の各画像とをそれぞれ比較すると共に、複数の前記背景領域内の各画像同士および複数の前記映り込み領域内の各画像同士をそれぞれ比較することにより、前記路面への背景物の映り込みの有無を判定することを特徴とする車載用周囲環境認識装置。
  5. 請求項4に記載の車載用周囲環境認識装置において、
    前記領域設定部は、前記撮影画像中で前記車両の右後方に対応する位置と、前記車両の左後方に対応する位置とに、前記背景領域および前記映り込み領域をそれぞれ複数ずつ設定し、
    前記映り込み判定部は、前記車両の右後方に対応する位置に設定された複数の前記背景領域内の各画像同士および複数の前記映り込み領域内の各画像同士をそれぞれ比較すると共に、前記車両の左後方に対応する位置に設定された複数の前記背景領域内の各画像同士および複数の前記映り込み領域内の各画像同士をそれぞれ比較することを特徴とする車載用周囲環境認識装置。
JP2012149867A 2012-07-03 2012-07-03 車載用周囲環境認識装置 Active JP6035065B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012149867A JP6035065B2 (ja) 2012-07-03 2012-07-03 車載用周囲環境認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012149867A JP6035065B2 (ja) 2012-07-03 2012-07-03 車載用周囲環境認識装置

Publications (2)

Publication Number Publication Date
JP2014013453A true JP2014013453A (ja) 2014-01-23
JP6035065B2 JP6035065B2 (ja) 2016-11-30

Family

ID=50109113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012149867A Active JP6035065B2 (ja) 2012-07-03 2012-07-03 車載用周囲環境認識装置

Country Status (1)

Country Link
JP (1) JP6035065B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019151156A1 (ja) * 2018-01-30 2019-08-08 株式会社デンソー 物体検知装置および駐車支援装置
CN114379562A (zh) * 2020-10-20 2022-04-22 三菱电机株式会社 车辆位置检测装置及车辆位置检测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203446A (ja) * 1998-01-12 1999-07-30 Toyota Motor Corp 撮影対象認識装置
JP2000163688A (ja) * 1998-11-30 2000-06-16 Japan Aviation Electronics Industry Ltd 障害物検出方法およびこの方法を実施する装置
JP2001043496A (ja) * 1999-07-30 2001-02-16 Fuji Heavy Ind Ltd フェールセーフ機能を有する車外監視装置
JP2002160598A (ja) * 2000-11-24 2002-06-04 Fuji Heavy Ind Ltd 車外監視装置
JP2004282298A (ja) * 2003-03-14 2004-10-07 Natl Inst For Land & Infrastructure Management Mlit 可視画像による夜間における路面状況判定方法およびその装置
US20080042812A1 (en) * 2006-08-16 2008-02-21 Dunsmoir John W Systems And Arrangements For Providing Situational Awareness To An Operator Of A Vehicle
JP2012073821A (ja) * 2010-09-29 2012-04-12 Panasonic Corp 車線検知装置
US20120099766A1 (en) * 2009-03-30 2012-04-26 Conti Temic Microelectronic Gmbh Method and device for lane detection

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203446A (ja) * 1998-01-12 1999-07-30 Toyota Motor Corp 撮影対象認識装置
JP2000163688A (ja) * 1998-11-30 2000-06-16 Japan Aviation Electronics Industry Ltd 障害物検出方法およびこの方法を実施する装置
JP2001043496A (ja) * 1999-07-30 2001-02-16 Fuji Heavy Ind Ltd フェールセーフ機能を有する車外監視装置
JP2002160598A (ja) * 2000-11-24 2002-06-04 Fuji Heavy Ind Ltd 車外監視装置
JP2004282298A (ja) * 2003-03-14 2004-10-07 Natl Inst For Land & Infrastructure Management Mlit 可視画像による夜間における路面状況判定方法およびその装置
US20080042812A1 (en) * 2006-08-16 2008-02-21 Dunsmoir John W Systems And Arrangements For Providing Situational Awareness To An Operator Of A Vehicle
US20120099766A1 (en) * 2009-03-30 2012-04-26 Conti Temic Microelectronic Gmbh Method and device for lane detection
JP2012073821A (ja) * 2010-09-29 2012-04-12 Panasonic Corp 車線検知装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019151156A1 (ja) * 2018-01-30 2019-08-08 株式会社デンソー 物体検知装置および駐車支援装置
JP2019133324A (ja) * 2018-01-30 2019-08-08 株式会社Soken 物体検知装置および駐車支援装置
CN114379562A (zh) * 2020-10-20 2022-04-22 三菱电机株式会社 车辆位置检测装置及车辆位置检测方法

Also Published As

Publication number Publication date
JP6035065B2 (ja) 2016-11-30

Similar Documents

Publication Publication Date Title
JP6254083B2 (ja) 車載用周囲環境認識装置
US10445595B2 (en) Barrier and guardrail detection using a single camera
CN109074651B (zh) 移动体的周围环境识别装置
US9836657B2 (en) System and method for periodic lane marker identification and tracking
JP5774770B2 (ja) 車両周辺監視装置
KR101722258B1 (ko) 선행 차량 차간 거리 산출 방법
EP2928178B1 (en) On-board control device
CN107750213B (zh) 前方车辆碰撞报警装置及报警方法
Aytekin et al. Increasing driving safety with a multiple vehicle detection and tracking system using ongoing vehicle shadow information
KR101103526B1 (ko) 스테레오 카메라를 이용한 충돌회피 방법
CN102765365A (zh) 基于机器视觉的行人检测方法及行人防撞预警系统
JP2008168811A (ja) 車線認識装置、車両、車線認識方法、及び車線認識プログラム
KR20060021922A (ko) 두 개의 카메라를 이용한 장애물 감지 기술 및 장치
KR20140004413A (ko) 안전운전 지원 장치 및 방법
WO2019065970A1 (ja) 車両用外界認識装置
US9524645B2 (en) Filtering device and environment recognition system
JP6483360B2 (ja) 対象物認識装置
JP6035065B2 (ja) 車載用周囲環境認識装置
KR101568683B1 (ko) 영상 분석을 이용한 차간 거리 추정 방법 및 그 장치
JP2011103058A (ja) 誤認識防止装置
US10789850B2 (en) Obstacle detection device, driving assistance system, and obstacle detection method
JP2018077705A (ja) 駐車枠認識装置
JP5957315B2 (ja) 車載用車線認識装置
JP6677142B2 (ja) 駐車枠認識装置
KR20180083625A (ko) 레이저 라인포인터와 후방카메라를 이용한 후방 장애물 검출 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161031

R150 Certificate of patent or registration of utility model

Ref document number: 6035065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250