JP2004200864A - Device and method of monitoring surrounding of vehicle - Google Patents
Device and method of monitoring surrounding of vehicle Download PDFInfo
- Publication number
- JP2004200864A JP2004200864A JP2002365111A JP2002365111A JP2004200864A JP 2004200864 A JP2004200864 A JP 2004200864A JP 2002365111 A JP2002365111 A JP 2002365111A JP 2002365111 A JP2002365111 A JP 2002365111A JP 2004200864 A JP2004200864 A JP 2004200864A
- Authority
- JP
- Japan
- Prior art keywords
- image information
- vehicle
- change area
- density
- uniformity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】
【技術分野】
本発明は、画像処理により車両後方などの車両周囲の監視をし、車両の運転者に対して報知を行うことにより、安全確認の支援を行う車両周囲監視装置及び車両周囲監視方法に関する。
【0002】
【背景技術】
車両の周囲の安全確認のために、車両の停車時に、カメラを用いて撮影した基準画像情報と、当該基準画像情報の撮像後に撮影した比較画像情報とを取得し、当該基準画像情報及び比較画像情報に対して画像処理を行い、比較画像情報上において基準画像情報に対して変化した変化領域を抽出し、当該抽出された変化領域が障害物の侵入による変化であるか否かの判定を行い、当該判定結果に基づいて車両の運転者に対して報知を行う車両周囲監視装置が知られている(例えば、特許文献1及び特許文献2参照)。
【0003】
しかしながら、上記の車両周囲監視装置では、画像情報上に現れた変化領域が、障害物自体であるか、又は、障害物の影であるかの区別されていないため、障害物の影が障害物自体でないにも関わらず、当該影の領域分をも障害物の領域として誤検出され、車両の進行に影響がないにも関わらず報知するおそれがある。
【0004】
また、基準画像情報の取得時から比較画像情報を取得するまでの間に、例えば曇りから晴れに突然変化したり、逆に晴れから曇りに突然変化するように、天候が急変する場合があり、この天候の急変により、太陽の日射量が増減し、自車両の周囲が明るくなったり暗くなったりする場合がある。この日射の急変に伴い、自車両の周囲に存在する柱、看板、建築物、駐車車両等の、基準画像情報には存在しない障害物の影が比較画像情報に出現したり、消失したりする。
【0005】
これらの影は、基準画像情報と比較画像情報との比較の際に、基準画像情報に対する比較画像情報における変化の領域として抽出され、あたかも障害物が車両の後方に出現・消失したかのように誤検出されてしまい、車両の進行に影響がないにも関わらず報知をするおそれがある。
【0006】
【特許文献1】
特開2000−177513号公報
【特許文献2】
特開2000−182027号公報
【発明の開示】
本発明は、車両の周囲を監視して安全確認の支援を行う車両周囲監視装置及び車両周囲監視方法に関し、特に、誤検出、誤報知を防止した車両周囲監視装置及び車両周囲監視方法を提供することを目的とする。
【0007】
上記目的を達成するために、本発明によれば、車両の周囲を撮像する撮像手段と、前記撮像手段が撮像した第1の画像情報、及び前記撮像手段が前記第1の画像情報の撮像後に撮像した第2の画像情報を取得し、前記第1の画像情報と第2の画像情報とを比較し、前記第2の画像情報上において前記第1の画像情報に対して変化している変化領域を抽出する変化領域抽出手段と、前記変化領域抽出手段により抽出された前記変化領域の濃度の一様性を評価する一様性評価手段と、前記評価された変化領域の濃度の一様性を所定値と比較し、前記変化領域が、物体自体であるか否かの判定を行う判定手段と、前記判定手段による判定結果に基づいて、前記車両の運転者に対して報知を行う報知手段とを備えた車両周囲監視装置が提供される。
【0008】
また、上記目的を達成するために、本発明によれば、車両の周囲の第1の画像情報を撮像するステップと、前記第1の画像情報の撮像後に前記車両の周囲の第2の画像情報を撮像するステップと、前記第1の画像情報と第2の画像情報とを比較し、前記第2の画像情報上において前記第1の画像情報に対して変化している変化領域を抽出するステップと、前記抽出された変化領域の濃度の一様性を評価するステップと、前記評価された変化領域の濃度の一様性を所定値と比較し、前記変化領域が、物体自体であるか否かの判定を行うステップと、その判定結果に基づいて、前記車両の運転者に対して報知を行うステップとを備えた車両周囲監視方法が提供される。
【0009】
本発明では、撮像手段が、車両の周囲の第1の画像情報を撮像し、さらに当該撮像手段が、当該第1の画像情報の撮像後に前記車両の周囲の第2の画像情報を撮像する。そして、変化領域抽出手段が、第1の画像情報及び第2の画像情報を取得し、第1の画像情報及び第2の画像情報に対して画像処理を行って、第1の画像情報と第2の画像情報とを比較し、第2の画像情報上において第1の画像情報に対して変化している領域(以下、単に、変化領域ともいう。)を抽出する。この抽出された変化領域の濃度の一様性を、一様性評価手段が評価し、判定手段が、当該評価された変化領域の濃度の一様性と所定値とを比較し、第2の画像情報上において第1の画像情報に対する変化が、物体自体による変化であるか、それとも物体の影による変化かの判定を行い、報知手段が、当該判定に基づいて、車両の運転者に対して報知を行う。
【0010】
本発明によれば、前記変化領域の濃度の一様性の評価を行うことにより、車両の周囲に生じた変化が、物体自体によるものか、それとも当該物体の影によるものであるかの区別をすることが可能となり、画像情報における物体の影の出現・消失による誤検出を防止することができ、誤報知を防止することが可能となる。
【0011】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
図1は本発明の実施形態に係る車両周囲監視装置のシステム構成を示すブロック図、図2は本発明の実施形態に係る車両周囲監視装置を搭載した車両の模式図、図3は図1の画像処理ECUの内部構成を示すブロック図である。
【0012】
本発明の実施形態に係る車両周囲監視装置1は、特に車両100の後方周囲を監視する装置であり、図1に示すように、車両の後方周囲を撮像するカメラ10(撮像手段)と、当該カメラ10より取得した画像情報に基づいて障害物の存在の有無の判定を行う画像処理ECU20(変化領域抽出手段、一様性評価手段、判定手段)と、位置計測機能及び経路誘導機能を有する車両用のナビゲーションECU30と、リバーススイッチ40と、車速センサ50と、スピーカ60(報知手段)と、画像処理ECU20からの後方画像情報Q1又はナビゲーションECU30からのナビゲーション画像情報Q2を車室内に表示するモニタ70とを備えている。なお、図1には、上記のように構成される車両周囲監視装置1を動作させる上で必要な電源等は特に図示していないが、例えば車両100の車載バッテリーなどから当該車両周囲監視装置1に電力が供給される。
【0013】
カメラ10は、図2に示すように、車両100の後方周囲を撮像可能なように、車両100のボディの後方に設置されたCCD方式のカメラであり、その光軸が路面110と交差するように、路面110と平行な面に対してやや下向きに傾斜して設置されており、撮像した後方画像情報Q1を画像処理ECU20に送信可能なように接続されている。なお、カメラ10は上記のようなCCDカメラに限定されることはなく他の方式でも良く、例えば、CMOS方式等のカメラを採用しても良い。
【0014】
画像処理ECU20は、カメラ10により撮像された後方画像情報Q1から、後述する画像処理用の基準画像情報Q11及び比較画像情報Q12を適宜取得し、当該画像情報Q11、Q12に基づいて、車両100の後方周囲の障害物の存在の有無の判定を行うものである。
【0015】
この画像処理ECU20は、図3に示すように、画像処理ECU20全体の動作を制御するためのプログラムを実行するCPU21と、画像情報の濃度値を基に画像フレーム間、画素間での、例えば、算術演算、論理演算、フィルタリング、エッジ抽出処理、2値化処理、ラベリング処理、回転・移動・拡大・縮小等の図形的処理などの画像処理を高速で実行可能な画像処理用プロセッサ22a及び画像データをフレーム単位で複数記憶できる画像メモリ22bを有する画像処理部22と、上記のプログラムの処理過程で必要に応じてデータを一時的に記憶するRAM23と、CPU21の実行するプログラムを格納するROM24と、CPU21の指令に基づいて、画像処理部22で画像処理された後方画像情報Q1又はナビゲーションEUC30からのナビゲーション画像情報Q2を適宜切り替えてモニタ70に出力する画像切替部25と、CPU21とリバーススイッチ40、車速センサ50、スピーカ60との間に位置して信号入出力の仲介を行う入出力インターフェース26とを備えている。
【0016】
図3に示すように、画像処理ECU20のCPU21は、画像処理部22、RAM23、ROM24及び入出力インターフェイス26と信号を入出力可能なように接続されている。また、当該CPU21は、画像切替部25に対して信号を出力可能なように接続されている。
【0017】
この画像処理ECU20は、具体的には、まず、カメラ10により撮像された後方画像情報Q1から、車両100が後方進行中(リバースポジションが選択された状態)に一旦停止した際に基準となる基準画像情報Q11(第1の画像情報)を取得する。さらに、当該基準画像情報Q11の撮像後に車両100の後方で生じた変化を抽出するために、一旦停止が継続されている間に、比較画像情報Q12(第2の画像情報)をカメラ10から取得する。次に、取得した基準画像情報Q11及び比較画像情報Q12に対して画像処理を行い、比較画像情報Q12上で基準画像情報Q11に対して変化している変化領域ARを抽出する。そして、この抽出された変化領域ARにおける濃度の一様性(バラツキ)の評価を行い、当該一様性に基づいて、変化領域ARが障害物の影であるとの判定をする。車両100が後方進行中の一旦停止の間、随時、比較画像情報Q12が更新され、上記の判定が繰り返される。なお、この画像処理ECU20の詳細な動作については、後に詳述する。
【0018】
ナビゲーションECU30は、GPS等により自車両100の位置を計測し、モニタ70を介して、地図上に自車両100の現在位置を示す位置計測機能を有すると共に、自車両100を目的地まで誘導する経路誘導機能を有する。このナビゲーションECU30は、位置計測機能により計測された自車両100の現在位置、及び、経路誘導機能による目的地への誘導のための情報を含むナビゲーション画像情報Q2を、モニタ70の画面を通して運転者に対して出力するために、画像処理ECU20の画像切替部25に接続されている。
【0019】
リバーススイッチ40は、車両100のギヤシフト(不図示)におけるリバースポジションの選択の有無を検出するものである。このリバーススイッチ40は、当該リバーススイッチ40の検出結果を画像処理ECU20のCPU21に出力可能なように、画像処理ECU20の入出力インターフェイス部26に接続されている。
【0020】
車速センサ50は、車両100の移動距離に比例したパルス信号を画像処理ECU20のCPU21に出力するものである。この車速センサ50は、当該車速センサ50での検出結果を画像処理ECU20のCPU21に出力可能なように、画像処理ECU20の入出力インターフェイス部26に接続されている。画像処理ECU20のCPU21は、車速センサ50から取得した所定時間内のパルス数に基づいて車両100の車速を算出する。
【0021】
スピーカ60は、画像処理ECU20における障害物の有無の判定結果に基づいて、例えば、警告音などの運転者の注意や警告を促す報知内容を運転者に対して聴覚的に出力するものであり、車両100の車室内に設置されている。このスピーカ60は、報知内容を報知する指示を入力可能なように、画像処理ECU20の入出力インターフェイス部26に接続されている。
【0022】
モニタ70は、カメラ10により撮像された後方画像情報Q1又はナビゲーションECU30より出力されたナビゲーション画像情報Q2を、運転者に対して視覚的に適宜出力するものであり、車両100の車室内に設置されている。このモニタ70は、後方画像情報Q1及びナビゲーション画像情報Q2を切り替えて出力する画像処理ECU20の画像切替部25に接続されている。
【0023】
以下に、車両周囲監視装置1の全体の処理の流れについて、図6及び図7に示す例と共に説明する。
【0024】
図4は本発明の実施形態に係る車両周囲監視装置のシステム全体の動作を示すフローチャート、図5は図4のステップS120における画像領域の一様性の評価の詳細なフローチャート、図6(A)〜(F)は物体の影を検出する過程を説明するための模式図、図7(A)〜(F)は物体自体を検出する過程を説明するための模式図、図8は画像情報における物体の影の濃度分布の一例を示すグラフ、図9は画像情報における物体自体の濃度分布の一例を示すグラフである。
【0025】
なお、図6(A)〜(F)は、車両周囲監視装置1による車両100の後方周囲の監視中に、日射量が変化し、道路110に並置された柱120の影120’が現れた場合の例を示す。また、図7(A)〜(F)は、車両周囲監視装置1による車両100の後方周囲の監視中に、他の車両130が接近していた場合の他の例を示す。但し、図6(C)〜(E)及び図7(C)〜(E)に示す画像情報は、画像処理ECU20における画像処理の過程を説明するための図であり、実際にモニタ70を介して運転者に対して表示されるものではない。
【0026】
まず、運転者がイグニッションスイッチ(不図示)をオンにし、車両100のエンジンが始動すると、図4に示すステップS10において、画像処理ECU20のCPU21が画像切替部25に対して、ナビゲーションECU30から出力されるナビゲーション画像情報Q2を選択するよう指令を出力し、当該指令に基づいて画像切替部25がモニタ70に対して、ナビゲーション画像情報Q2を選択して出力し、車室内に設置されたモニタ70に、例えば、自車両100の現在位置が表示された地図画面等のナビゲーションの画面が表示される。
【0027】
次に、図4のステップS20において、画像処理ECU20のCPU21は、入出力インターフェイス部26を介して、リバーススイッチ40から検出信号を取得し、当該検出信号に基づいて、リバースポジションの選択の有無を判断する。
【0028】
当該判断において、車両100が通常の前進走行していたり、或いは停車している場合で、リバースポジションが選択されない限り(ステップS20にてNO)、ステップS10を繰り返し、上記のようなナビゲーションの画面のモニタ70での表示を継続する。
【0029】
当該判断において、車両100の駐車等のために、リバースポジションが選択された場合には(ステップS20にてYES)、ステップS30において、画像処理ECU20のCPU21は、画像切替部25に対して画像処理部22から出力される後方画像情報Q1を選択するように指令を出力し、当該指令に基づいて、モニタ70に対してナビゲーション画像情報Q2から後方画像情報Q1に切り替えて出力し、モニタ70の画面にカメラ10により車両100の後方が撮像された例えば、図6(A)や図7(A)に示すような車両100の後方周囲を映し出した後方画像情報Q1が表示される。
【0030】
次に、ステップS40において、画像処理ECU20のCPU21は、入出力インターフェイス部26を介して、車速センサ50からパルス信号を取得し、当該信号に基づいて、車両100の現在の車速値VTが0に等しいか否かの判断(VT=0)を行う。
【0031】
車両100が前進又は後退走行中であり、当該判断において、車速値VTが0でない場合には(VT≠0、ステップS40においてNO)、ステップS45において、画像処理ECU20のCPU21は、RAM23に記憶されている基準画像セットフラグSFをオフにし(SF=0)、再度、ステップS20に戻り、リバースポジションの選択の有無の判断を行う。
【0032】
なお、この基準画像セットフラグSFは、基準画像情報Q11の更新の必要性の有無を示すフラグである。例えば、車両100が後退走行開始後に後方確認等のため初めて一旦停止するような、新たな基準画像情報Q11を取得する必要がある場合にはオフ(SF=0)で表現され、これに対して、車両100が後退走行中の一旦停止を継続しており、新たな基準画像情報Q11を取る必要がない場合にはオン(SF=1)で表現される。
【0033】
従って、ステップS45において、基準画像セットフラグSFをオフ(SF=0)にするのは、車両100が一旦停止の状態から走行を開始(ステップS40にてNO)したために、この走行により後方周囲の状況が変化しており、次の一旦停止時には、新たな基準画像情報Q11を取得して更新する必要があるためである。なお、初期状態において(エンジン始動時)は、基準となる基準画像情報Q11が常に必要とされるため、当該基準画像セットフラグSFはオフ(SF=0)に設定されている。
【0034】
車両100が、リバースポジション選択時に、例えば後方確認のために一旦停止し、ステップS40において、車速値VTが0であると判断された場合には(VT=0、ステップS40においてYES)、ステップS50において、画像処理ECU20のCPU21は、上記の基準画像セットフラグSFがオンであるか否か、即ち、新たな基準画像情報Q11を取得して更新する必要があるか否かの判断を行う。
【0035】
この判断において、基準画像セットフラグSFがオフである(SF=0)と判断された場合には(ステップS50にてNO)、ステップS60において、画像処理ECU20のCPU21は、画像処理部22に対して、カメラ10より入力される後方画像情報Q1から基準画像情報Q11を取得するように指令を出力する。この指令に基づいて、画像処理ECU20の画像処理部22は、カメラ10より入力される後方画像情報Q1から基準画像情報Q11を取得し、当該基準画像情報Q11を、画像処理部22の画像メモリ22bに記憶する。
【0036】
図6に示す例では、画像処理部22の画像メモリ22bに記憶される基準画像情報Q11は、図6(A)に示す画像情報であり、図7に示す例の場合には、図7(A)に示す画像情報である。なお、図6(A)の状態は、太陽が雲に隠れて日照量が比較的少ない状態にあり、図7(A)の状態は、カメラ10の撮像可能範囲内に他の車両130がまだ侵入していない状態である。
【0037】
次に、図4のステップS70において、画像処理ECU20のCPU21が、RAM23に記憶された基準画像セットフラグSFをオンにし(SF=1)、ステップS80に進む。
【0038】
ステップS50の判断において、基準画像セットフラグSFがオンである(SF=1)と判断された場合には(ステップS50にてYES)、例えば、車両100の後方進行中における例えば後方確認などのための一旦停止が継続して行われており、新たな基準画像情報Q11に更新する必要がないので、ステップS80の処理に進む。
【0039】
ステップS80において、画像処理ECU20のCPU21は、画像処理部22に対して、カメラ10より入力される後方画像情報Q1から比較画像情報Q12を取得するように指令を出力する。この指令に基づいて、画像処理ECU20の画像処理部22は、カメラ10より入力される後方画像情報Q1から比較画像情報Q12を取得し、当該比較画像情報Q12を、画像処理部22の画像メモリ22bに記憶する。この比較画像情報Q12は、ステップS60において取得された基準画像情報Q11の撮像時の後に撮像されたものであり、基準画像情報Q11の撮像時から当該比較画像情報Q12撮像時の間に、例えば、日射量の変化による影の出現や他の車両130の接近などの車両100の後方周囲で生じた変化が含まれている。
【0040】
図6に示す例では、画像処理部22の画像メモリ22bに記憶される比較画像情報Q12は、図6(B)に示す画像情報であり、図7に示す例では、図7(B)に示す画像情報である。
【0041】
図6に示す例において、図6(A)に示す基準画像情報Q11が取得された時点から、図6(B)に示す比較画像情報Q12が取得される時点までの間に、太陽を覆っていた雲が移動し、急速に日射量が多くなっている。白黒の濃度階調を0から255の256段階で表現した場合、この天候の急変により、画像情報上において、図6(A)の背景部の平均濃度値は約90であったのに対し、図6(B)の背景部の平均濃度値は約200となり、道路に並置された柱120の影120’が、車両100の後方の路面110に出現している。なお、この柱の影120’の平均濃度値は約80である。
【0042】
図7に示す例においては、図7(A)に示す基準画像情報Q11が所得された時点から図7(B)に示す比較画像情報Q12が取得される時点までの間に、自車両100の後方において他の車両130が接近してきている。
【0043】
次に、図4のステップS90において、画像処理ECU20のCPU21は、画像処理部22に対し、基準画像情報Q11と比較画像情報Q12との差分処理の実行の指令を出力する。画像処理部22は、この指令に基づいて、画像メモリに記憶された基準画像情報Q11と、比較画像情報Q12との差分処理を実行し、基準画像情報Q11と比較画像情報Q12との相違点、即ち、基準画像情報Q11の取得から比較画像情報Q12の取得までの間に車両100の後方周囲において生じた変化が示された差分画像情報を取得する。なお、この差分画像情報には、基準画像情報Q11取得時から比較画像情報Q12取得時までの間に、車両100の後方で生じた変化ではない複数の細かなエッジ140や小領域(不図示)が含まれている。
【0044】
図6に示す例において、基準画像情報Q11と比較画像情報Q12との差分処理後の差分画像情報は、図6(C)に示す画像情報である。当該差分処理の結果、図6(C)に示す差分画像情報には、約110(=|[比較画像情報Q12の背景部平均濃度200]−[基準画像情報Q11の背景部平均濃度約90]|)の平均濃度の背景部が示されている。また、比較画像情報Q12上にのみ存在する柱の影120’が平均濃度約10(=|[基準画像情報Q11の背景部平均濃度90]−[比較画像情報Q12の柱の影120’の平均濃度80]|)で示されている。さらに、差分処理の結果生じた細かなエッジ140が残っている。
【0045】
図7に示す例において、基準画像情報Q11と比較画像情報Q12との差分処理後の差分画像情報は、図7(C)に示す画像情報である。当該差分処理の結果、図7(C)に示す画像情報には、他の車両130の領域と、複数の細かなエッジ140が残されている。
【0046】
次に、図4のステップS100において、画像処理ECU20の画像処理部22は、差分画像情報の各画素の濃度と、予め設定された所定濃度値とを比較して2値化処理を行い、次に、当該2値化処理で残った連結する画素同士にラベルを付与し(ラベリング処理)、所定の面積以上の大きさを持つラベルのみを残し、2値化処理により濃度値0となった領域をテンプレートTPとして設定し、TP画像情報を画像メモリ22bに記憶する。当該TP画像情報において2値化処理によりテンプレートTP以外の領域は濃度値255で示されている。この2値化及びラベリング処理によい、差分処理の結果生じた細かなエッジ140や小領域が除去される。
【0047】
図6に示す例において、2値化及びラベリング処理後のTP画像情報は、図6(D)に示す画像情報である。図6(D)において柱の影120’を示す領域がテンプレートTP1で示されている。この2値化及びラベリング処理により、差分処理の結果生じた複数の細かなエッジ140が除去されている。
【0048】
また、図7に示す例において、2値化及びラベリング処理後のTP画像情報は、図7(D)に示す画像情報である。図7(D)において他の車両130を示す領域がテンプレートTP2で示されている。この2値化及びラベリング処理により、差分処理の結果生じた複数の細かなエッジ140が除去されている。
【0049】
なお、図6(D)及び図7(D)には、同一の比較画像情報Q12上に単一のテンプレートTPしか示されていないが、車両100の後方周囲の状況によっては、TP1、TP2、TP3、・・・、TPn(nは自然数)のように同一のTP画像情報上に複数のテンプレートTPが存在する場合がある。
【0050】
次に、図4のステップS110において、画像処理ECU20の画像処理部22は、ステップS80で取得した比較画像情報Q12に、上記の2値化及びラベリング処理により得られたTP画像情報を適用して、比較画像情報Q12においてTP画像情報のテンプレートTPと一致する部分を、基準画像情報Q11取得時から比較画像情報Q12取得時までの間に生じた変化した変化領域ARとして残し、当該変化領域AR以外の領域を除去する。この動作により、比較画像情報Q12上の変化領域ARのみを切り出すことができる。
【0051】
図6の例において、抽出された変化領域ARのみが示された比較画像情報Q12は、図6(E)に示す画像情報である。図6(E)において、柱の影120’を示す領域のみが変化領域AR1で示されている。また、図7に示す例において、抽出された変化領域ARのみが示された比較画像情報Q12は、図7(E)に示す画像情報である。図7(E)において、他の車両130を示す領域のみが変化領域AR2で示されている。なお、図6(E)及び図7(E)には、同一の比較画像情報Q12上に単一の変化領域ARのみしか存在していないが、同一の比較画像情報Q12上に存在するテンプレートTPの数に対応して、同一の比較画像情報Q12上にn個の変化領域AR1、AR2、AR3、・・・、ARnが存在する場合もある。
【0052】
次に、図4のステップS120において、画像処理ECU20の画像処理部22は、ステップS110で抽出された比較画像領域Q12の変化領域ARの濃度の一様性の評価を行い、変化領域ARが障害物自体であるか物体の影であるかの判定を行う。
【0053】
ここで、図8には、例えば図6(B)に示す柱の影120’のような物体の影の濃度分布の一例が示されており、図9には、例えば図7(B)に示す他の車両130のような物体自体の濃度分布の一例が示されている。例えば、図8に示す物体の影の平均濃度値は83.9であり、図9に示す物体自体の平均濃度値は88.4であり、物体自体でもその影でも平均濃度値上においては大差はない。
【0054】
しかしながら、例えば、図8に示す物体の影の濃度は全体として平均濃度に対して比較的一様であり、その濃度分散値が60.9であるのに対して、図9に示す物体自体の濃度は全体として平均濃度に対して比較的一様性が弱く、その濃度分散値は1058.8であり、物体自体とその影とに著しい差異が存在する。本発明の実施形態では、このような物体自体とその影との濃度の一様性の差異に基づいて、変化領域ARが障害物自体であるか否かの判定を行うものである。なお、図8及び図9の例に伴って上記に示した平均濃度値は、本発明の実施形態における濃度の一様性評価による物体自体の判断方法の説明のために用いた一例にすぎず、実際の日射量等の周囲環境の違いにより異なってくるものである。
【0055】
変化領域ARの濃度の一様性の評価は、図5に示すフローチャートに従って進められる。
【0056】
まず、図5のステップS121において、画像処理ECU20のCPU21は、変化領域ARの数nを、RAM23内に記憶された変化領域数Naにセットする(Na=n)。次に、ステップS122において、画像処理ECU20のCPU21は、RAM23内に記憶されたカウンタcを1にセットする(c=1)。
【0057】
次に、図5のステップS123において、画像処理ECU20の画像処理部22は、変化領域AR(n=1)の平均濃度値Eを式1に基づいて算出する。なお、この平均濃度値Eは、変化領域ARを占めるN個の画素の各濃度P(i)(iは1、2、3、・・・、Nの自然数)の平均で算出される。
【0058】
【式1】
次に、図5のステップS124において、画像処理ECU20の画像処理部22は、上記の平均濃度値Eから変化領域ARの濃度分散値Vを式2に基づいて算出する。
【0059】
【式2】
次に、図5のステップS125において、画像処理ECU20のCPU21は、ステップS124で算出された変化領域ARの濃度分散値Vを予め定められた所定の所定値Wとの比較を行う。この所定の所定値Wの具体的な数値は、上述の図8及び図9の場合を例にとると、例えば、60.9<W<1058.8の間から選択される。
【0060】
当該比較において、変化領域ARの濃度分散値Vが、所定値Wより大きい場合には(V>W、ステップS125にてYES)、ステップS126において、変化領域ARを実体のある障害物と判定し、RAM23に変化領域ARの属性を障害物領域として記憶をする。
【0061】
これに対し、変化領域ARの濃度分散値Vが、所定値W以下である場合には(V≦W、ステップS125にてNO)、ステップS127において、変化領域ARが障害物自体ではなく、日射量の変化による物体の影と判定し、RAM23に変化領域ARの属性を影領域として記憶をする。
【0062】
次に、図5のステップS128において、画像処理ECU20のCPU21は、カウンタcと、変化領域数Naとを比較する。当該比較において、カウンタcが変化領域数Naに満たない場合には(c<Na、ステップS128にてNO)、ステップS129において、画像処理ECU20のCPU21は、RAM23内に記憶されたカウンタcをインクリメントさせて(c=c+1)、ステップS123に戻り、比較画像情報Q12上に存在する次の変化領域ARの判定を行う。従って、カウンタcが変化領域数Naと一致するまで、図5のステップS123からステップS128までの動作が繰り返され、n個の変化領域AR1、AR2、AR3、・・・、ARnに対して、それぞれ平均濃度値E1、E2、E3、・・・、En及び濃度分散値V1、V2、V3、・・・、Vnの算出が行われ、それぞれ障害物の判定が行われる。
【0063】
図5のステップS128の比較において、カウンタcが変化領域数Naと等しい場合には(c=Na、ステップS128にてYES)、同一の比較画像情報Q12上に存在するn個全ての変化領域AR1、AR2、AR3、・・・、ARnの一様性の評価が終了したこととなるので、図4のステップS130に進む。
【0064】
図4のステップS130において、画像処理ECU20のCPU21は、ステップS120での属性が障害物領域として登録された変化領域ARが一つ以上存在するか否かの判断を行う。
【0065】
当該判断において、障害物登録された変化領域ARが一つ以上存在している場合には(ステップS130にてYES)、画像処理ECU20の画像処理部22は、CPU21の指令に基づいて、カメラ10が撮像した後方画像情報Q1上に、障害物登録された変化領域ARに相当する位置に障害物であることを示すマーク150を重畳表示する。これと共に、スピーカ60が、画像処理ECU20のCPU21の指令に基づいて、例えば、ブザー音のような運転者に対して自車両100の後方周囲に障害物が出現したことを知らせる報知内容を報知する。図7に示す例において、図7(F)では、障害物である他の車両130にマーク150が重畳表示されている。これに対し、図6に示す例において、図6(F)では、柱の影120’は、障害物自体でないため、マーク150が重畳表示されていない。
【0066】
図4のステップS130での障害物登録された変化領域ARが存在していない場合(ステップS130にてNO)、或いは、ステップS150においてスピーカ60が報知を行った後、ステップS20に戻り、画像処理ECU20のCPU21が、リバースポジションの選択の有無の判断を行い、上記の動作を繰り返す。
【0067】
以上のように、比較画像情報上において基準画像情報に対して変化している変化領域の濃度の一様性の評価を行い、この評価に基づいて、当該変化領域が物体自体により生じたものか、或いは物体の影により生じたものかの判断を行うことにより、物体の影の誤検出による誤報知を防止することが可能となる。
【0068】
以下に、本発明の実施形態に係る車両周囲監視装置1を具体的な例に則して動作の流れについて説明する。
【0069】
まず、運転者が車両100に乗り込み、エンジンをかけた後、前進走行し、或いは停止中である場合には、車室内のモニタ70にはナビゲーション画面が絶えず表示されている(ステップS10及びS20)。
【0070】
前進走行から、例えば駐車などで後退走行するために、運転者がシフト操作をしてギヤシフトをリバースポジションに入れると、リバーススイッチ40がこれを検出して(ステップS20)、モニタ70がナビゲーション画面から車両後方の撮像画面に切り替えられる(ステップS30)。
【0071】
そして、後退走行している車両100が、例えば後方確認などのために一旦停止すると(ステップS40)、カメラ10により基準画像情報Q11及び比較画像情報Q12を取得する(ステップS50〜S80)。なお、この時点での上記の動作は、エンジン始動後の初めての後退走行であるため、基準画像セットフラグSFが初期状態(SF=0)となっており、無条件で基準画像情報Q11が取得される。取得された画像情報Q11、Q12に対して画像処理を行って変化領域ARを抽出し、この変化領域ARの濃度の一様性の評価をして、当該変化領域ARが物体自体による変化か、或いは物体の影による変化であるかの判定を行う(ステップS90〜130)。当該判定結果に基づいて、モニタ70上の障害物が存在する位置にマーク150を重畳表示する(ステップS140)と共に、スピーカ60が報知を行う(ステップS150)。
【0072】
後方確認などのための一旦停止が継続されている間は、車両100の後方周囲の基準となる画像を更新する必要がなく、基準画像セットフラグSFがオン(SF=1)になっているので、新たな基準画像情報Q11が取得されることはなく、比較画像情報Q12のみが逐次更新されて、2回目以降の上記の動作が行われる。なお、ステップS130において、車両100の後方から障害物が存在しないと判定された場合、マーク150の重畳表示及びスピーカ60による報知は行わない。
【0073】
後方確認が終了し、再び車両100が後退走行を開始すると(ステップS40)、次回の一旦停止時に車両100の後方周囲の様子が変わるため、基準画像セットフラグSFがオフ(SF=0)にされる(ステップS45)。
【0074】
再度、後方確認などのために車両100が一旦停止すると(ステップS40)、上記のように基準画像セットフラグSFがオフ(SF=0)となっているため、新たな基準画像情報Q11を取得して更新し(ステップS60)、一連の動作(ステップS80〜S130)を行い、マーク150の重畳表示及びスピーカ60による報知(ステップS140及びステップS150)が行われる。
【0075】
このように、車両後方進行中に、例えば後方確認などのために一旦停止する毎に、障害物の検出の基準となる基準画像情報を逐次更新することにより、車両の後方周囲の情報を常に最新の状態に維持することができ、正確な後方周囲の監視が可能となる。
【0076】
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。例えば、上記の実施形態では、車両の後方周囲を監視する車両周囲監視装置として説明したが、車両の後方周囲に限定されず、車両の前方周囲や側方周囲等を監視しても良い。また、上記の実施形態では、変化領域の濃度の一様性の評価に、当該変化領域の濃度の分散値を用いたが、特に分散値に限定されず、例えば、当該変化領域の濃度の標準偏差を用いても良い。さらに、上記の実施形態では、ナビゲーションシステムと連動した車両周囲監視装置として説明したが、特にこれに限定されず、ナビゲーション装置、オーディオ、エアコン、車両のメンテナンス情報などの集中的に制御するシステムと連動していても良い。
【図面の簡単な説明】
【図1】図1は本発明の実施形態に係る車両周囲監視装置のシステム構成を示すブロック図である。
【図2】図2は本発明の実施形態に係る車両周囲監視装置を搭載した車両の模式図である。
【図3】図3は図1の画像処理ECUの内部構成を示すブロック図である。
【図4】図4は本発明の実施形態に係る車両周囲監視装置のシステム全体の動作を示すフローチャートである。
【図5】図5は図4のステップS120における画像領域の一様性の評価の詳細なフローチャートである。
【図6】図6(A)〜(F)は物体の影を検出する過程を説明するための模式図である。
【図7】図7(A)〜(F)は物体自体を検出する過程を説明するための模式図である。
【図8】図8は画像情報における物体の影の濃度分布の一例を示すグラフである。
【図9】図9は画像情報における物体自体の濃度分布の一例を示すグラフである。
【符号の説明】
1…車両周囲監視装置
10…カメラ
20…画像処理ECU
30…ナビゲーションECU
40…リバーススイッチ
50…車速センサ
60…スピーカ
70…モニタ
100…自車両
120…柱
120’…柱の影
130…他の車両
AR…変化領域
Q1…後方画像情報
Q11…基準画像情報
Q12…比較画像情報
Q2…ナビゲーション画像情報
TP…テンプレート[0001]
【Technical field】
The present invention relates to a vehicle periphery monitoring device and a vehicle periphery monitoring method that monitor the periphery of a vehicle such as behind a vehicle by image processing and notify a driver of the vehicle to support safety confirmation.
[0002]
[Background Art]
In order to confirm safety around the vehicle, when the vehicle is stopped, reference image information captured using a camera and comparison image information captured after capturing the reference image information are acquired, and the reference image information and the comparison image are acquired. Performs image processing on the information, extracts a changed area that has changed from the reference image information on the comparison image information, and determines whether the extracted changed area is a change due to the intrusion of an obstacle. In addition, a vehicle surroundings monitoring device that notifies a driver of a vehicle based on the determination result is known (for example, see
[0003]
However, in the above-described vehicle periphery monitoring device, it is not distinguished whether the change area that appears on the image information is the obstacle itself or the shadow of the obstacle. In spite of the fact that this is not the case, the shadow area may be erroneously detected as an obstacle area, and there is a possibility that the shadow area may be informed even though it does not affect the progress of the vehicle.
[0004]
Also, during the period from when the reference image information is obtained to when the comparative image information is obtained, for example, the weather may suddenly change, for example, suddenly changing from cloudy to sunny, or conversely, suddenly changing from sunny to cloudy, The sudden change in the weather may increase or decrease the amount of solar radiation, and the surroundings of the vehicle may become brighter or darker. With this rapid change in solar radiation, shadows of obstacles that do not exist in the reference image information, such as pillars, signs, buildings, parked vehicles, etc., existing around the own vehicle appear or disappear in the comparative image information. .
[0005]
These shadows are extracted as a region of change in the comparison image information with respect to the reference image information when comparing the reference image information and the comparison image information, and as if an obstacle appeared and disappeared behind the vehicle. There is a risk that the erroneous detection will give a notification even though the traveling of the vehicle is not affected.
[0006]
[Patent Document 1]
JP 2000-177513 A
[Patent Document 2]
JP 2000-182027 A
DISCLOSURE OF THE INVENTION
The present invention relates to a vehicle surroundings monitoring device and a vehicle surroundings monitoring method for monitoring the surroundings of a vehicle to assist in safety confirmation, and more particularly to a vehicle surroundings monitoring device and a vehicle surroundings monitoring method that prevent erroneous detection and notification. The purpose is to:
[0007]
In order to achieve the above object, according to the present invention, an imaging unit for imaging the periphery of a vehicle, first image information imaged by the imaging unit, and after the imaging unit has imaged the first image information, Acquiring the captured second image information, comparing the first image information with the second image information, and changing the first image information on the second image information with respect to the first image information; Changing area extracting means for extracting an area, uniformity evaluating means for evaluating the uniformity of the density of the changing area extracted by the changing area extracting means, and uniformity of the density of the evaluated changing area Is compared with a predetermined value to determine whether the change area is the object itself, and a notifying means for notifying the driver of the vehicle based on a result of the determination by the determining means. And a vehicle surroundings monitoring device comprising:
[0008]
In order to achieve the above object, according to the present invention, a step of capturing first image information around a vehicle, and a step of capturing second image information around the vehicle after capturing the first image information And extracting a change area that is different from the first image information on the second image information by comparing the first image information with the second image information. Evaluating the uniformity of the density of the extracted change area; comparing the evaluated uniformity of the density of the change area with a predetermined value; determining whether the change area is the object itself. And a step of notifying the driver of the vehicle based on the result of the determination.
[0009]
In the present invention, the imaging unit captures first image information around the vehicle, and the imaging unit captures second image information around the vehicle after capturing the first image information. Then, the change area extracting means acquires the first image information and the second image information, performs image processing on the first image information and the second image information, and obtains the first image information and the second image information. The second image information is compared with the second image information, and an area that changes from the first image information on the second image information (hereinafter, also simply referred to as a changed area) is extracted. The uniformity evaluation means evaluates the uniformity of the density of the extracted change area, and the determination means compares the uniformity of the density of the evaluated change area with a predetermined value. A determination is made as to whether the change to the first image information is a change due to the object itself or a change due to the shadow of the object on the image information, and the notifying unit notifies the driver of the vehicle based on the determination. Make a notification.
[0010]
According to the present invention, by evaluating the uniformity of the density of the change area, it is possible to determine whether the change generated around the vehicle is due to the object itself or to the shadow of the object. It is possible to prevent erroneous detection due to appearance and disappearance of a shadow of an object in image information, and prevent erroneous notification.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a system configuration of a vehicle periphery monitoring device according to an embodiment of the present invention, FIG. 2 is a schematic diagram of a vehicle equipped with the vehicle periphery monitoring device according to the embodiment of the present invention, and FIG. FIG. 3 is a block diagram illustrating an internal configuration of an image processing ECU.
[0012]
The vehicle
[0013]
As shown in FIG. 2, the
[0014]
The
[0015]
As shown in FIG. 3, the
[0016]
As shown in FIG. 3, the
[0017]
Specifically, the
[0018]
The
[0019]
The
[0020]
The
[0021]
The
[0022]
The
[0023]
Hereinafter, the flow of the entire process of the vehicle
[0024]
FIG. 4 is a flowchart showing the operation of the entire system of the vehicle periphery monitoring device according to the embodiment of the present invention, FIG. 5 is a detailed flowchart of the evaluation of the uniformity of the image area in step S120 of FIG. 4, and FIG. 7A to 7F are schematic diagrams for explaining a process of detecting a shadow of an object, FIGS. 7A to 7F are schematic diagrams for explaining a process of detecting an object itself, and FIG. FIG. 9 is a graph showing an example of the density distribution of the shadow of the object, and FIG. 9 is a graph showing an example of the density distribution of the object itself in the image information.
[0025]
6 (A) to 6 (F), during the monitoring of the rear periphery of the
[0026]
First, when the driver turns on an ignition switch (not shown) and the engine of the
[0027]
Next, in step S20 in FIG. 4, the
[0028]
In this determination, if the
[0029]
In this determination, if the reverse position is selected for parking the
[0030]
Next, in step S40, the
[0031]
When the
[0032]
It should be noted that the reference image set flag SF corresponds to the reference image information Q 11 Is a flag indicating whether or not the update is necessary. For example, new reference image information Q such that the
[0033]
Therefore, in step S45, the reference image set flag SF is turned off (SF = 0) because the
[0034]
When the
[0035]
In this determination, when it is determined that the reference image set flag SF is off (SF = 0) (NO in step S50), the
[0036]
In the example shown in FIG. 6, the reference image information Q stored in the
[0037]
Next, in step S70 of FIG. 4, the
[0038]
If it is determined in step S50 that the reference image set flag SF is ON (SF = 1) (YES in step S50), for example, for backward confirmation while the
[0039]
In step S80, the
[0040]
In the example shown in FIG. 6, the comparison image information Q stored in the
[0041]
In the example shown in FIG. 6, the reference image information Q shown in FIG. 11 Is obtained from the time when the comparison image information Q shown in FIG. 12 By the time the sun was acquired, the clouds that had covered the sun were moving and the solar radiation was rapidly increasing. When the black and white density gradation is expressed in 256 levels from 0 to 255, the average density value of the background portion in FIG. The average density value of the background portion in FIG. 6B is about 200, and the
[0042]
In the example shown in FIG. 7, the reference image information Q shown in FIG. 11 The comparison image information Q shown in FIG. 12 By the time when is acquired, another
[0043]
Next, in step S90 of FIG. 4, the
[0044]
In the example shown in FIG. 11 And comparison image information Q 12 The difference image information after the difference processing with the image information is the image information shown in FIG. As a result of the difference processing, the difference image information shown in FIG. 6C includes about 110 (= | [comparison image information Q 12 Background average density 200]-[reference image information Q 11 Background part average density of about 90] |) is shown. Also, the comparison image information Q 12 An average density of about 10 (= | [reference image information Q 11 Background density 90]-[Comparative image information Q 12 The average density of the shadow 120 'of the pillar 120' is 80] |). Further, a
[0045]
In the example shown in FIG. 11 And comparison image information Q 12 The difference image information after the difference processing with the image information is the image information shown in FIG. As a result of the difference processing, an area of another
[0046]
Next, in step S100 of FIG. 4, the
[0047]
In the example shown in FIG. 6, the TP image information after the binarization and labeling processing is the image information shown in FIG. In FIG. 6D, an area showing the shadow 120 'of the pillar is indicated by a template TP1. By this binarization and labeling processing, a plurality of
[0048]
In the example illustrated in FIG. 7, the TP image information after the binarization and labeling processing is the image information illustrated in FIG. In FIG. 7D, an area indicating another
[0049]
6D and FIG. 7D show the same comparative image information Q. 12 Although only a single template TP is shown above, depending on circumstances around the rear of the
[0050]
Next, in step S110 of FIG. 4, the
[0051]
In the example of FIG. 6, the comparison image information Q showing only the extracted change area AR is shown. 12 Is the image information shown in FIG. In FIG. 6E, only the region showing the shadow 120 'of the pillar is shown as the change region AR1. Further, in the example shown in FIG. 7, the comparison image information Q showing only the extracted change area AR is shown. 12 Is the image information shown in FIG. In FIG. 7E, only a region indicating another
[0052]
Next, in step S120 of FIG. 4, the
[0053]
Here, FIG. 8 shows an example of the density distribution of the shadow of the object such as the
[0054]
However, for example, the density of the shadow of the object shown in FIG. 8 is relatively uniform as a whole with respect to the average density, and its density variance is 60.9, whereas the density of the object itself shown in FIG. The density as a whole is relatively less uniform with respect to the average density, and its density variance is 1058.8, indicating that there is a significant difference between the object itself and its shadow. In the embodiment of the present invention, it is determined whether or not the change area AR is the obstacle itself based on the difference in the uniformity of the density between the object itself and the shadow thereof. Note that the average density value described above with reference to the examples of FIGS. 8 and 9 is merely an example used for describing the method of determining the object itself by the density uniformity evaluation in the embodiment of the present invention. It depends on the surrounding environment such as the actual amount of solar radiation.
[0055]
The evaluation of the uniformity of the density of the change area AR proceeds according to the flowchart shown in FIG.
[0056]
First, in step S121 in FIG. 5, the
[0057]
Next, in step S123 of FIG. 5, the
[0058]
(Equation 1)
Next, in step S124 of FIG. 5, the
[0059]
[Equation 2]
Next, in step S125 of FIG. 5, the
[0060]
In this comparison, when the density variance value V of the change area AR is larger than the predetermined value W (V> W, YES in step S125), in step S126, the change area AR is determined to be a substantial obstacle. The attribute of the change area AR is stored in the
[0061]
On the other hand, when the density variance value V of the change area AR is equal to or smaller than the predetermined value W (V ≦ W, NO in step S125), in step S127, the change area AR is not the obstacle itself but the solar radiation. It is determined that the shadow of the object is caused by the change in the amount, and the attribute of the change area AR is stored in the
[0062]
Next, in step S128 of FIG. 5, the
[0063]
In the comparison in step S128 in FIG. 5, when the counter c is equal to the number of change areas Na (c = Na, YES in step S128), the same comparison image information Q 12 All n change regions AR present above 1 , AR 2 , AR 3 , ..., AR n Since the evaluation of the uniformity has been completed, the process proceeds to step S130 in FIG.
[0064]
In step S130 of FIG. 4, the
[0065]
In this determination, if there is one or more change areas AR registered as obstacles (YES in step S130), the
[0066]
If there is no change area AR registered as an obstacle in step S130 in FIG. 4 (NO in step S130), or after the
[0067]
As described above, on the comparative image information, the uniformity of the density of the changed area that is changed with respect to the reference image information is evaluated, and based on the evaluation, whether the changed area is caused by the object itself. Alternatively, it is possible to prevent erroneous notification due to erroneous detection of the shadow of the object by determining whether the shadow is caused by the shadow of the object.
[0068]
Hereinafter, the flow of operation of the vehicle
[0069]
First, when the driver gets into the
[0070]
When the driver performs a shift operation to shift the gear shift to the reverse position in order to travel backward, for example, by parking, etc. from the forward traveling, the
[0071]
Then, when the
[0072]
Since the reference image around the rear of the
[0073]
When the
[0074]
When the
[0075]
In this way, the reference image information serving as a reference for detecting an obstacle is sequentially updated every time the vehicle is temporarily stopped, for example, to check the rear of the vehicle, so that the information around the rear of the vehicle is always updated. , And accurate monitoring of the rear periphery can be performed.
[0076]
The embodiments described above are described for facilitating the understanding of the present invention, and are not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention. For example, in the above embodiment, the vehicle periphery monitoring device that monitors the periphery of the vehicle has been described. However, the invention is not limited to the periphery of the vehicle. Further, in the above embodiment, the variance of the density of the change area is used for evaluating the uniformity of the density of the change area. However, the variance of the density of the change area is not particularly limited. A deviation may be used. Further, in the above embodiment, the vehicle surrounding monitoring device is described as being interlocked with the navigation system. However, the present invention is not particularly limited to this, and is interlocked with a system for centrally controlling navigation devices, audio, air conditioners, vehicle maintenance information, and the like. May be.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a system configuration of a vehicle periphery monitoring device according to an embodiment of the present invention.
FIG. 2 is a schematic diagram of a vehicle equipped with a vehicle periphery monitoring device according to an embodiment of the present invention.
FIG. 3 is a block diagram showing an internal configuration of the image processing ECU of FIG. 1;
FIG. 4 is a flowchart showing an operation of the entire system of the vehicle periphery monitoring device according to the embodiment of the present invention.
FIG. 5 is a detailed flowchart of evaluation of uniformity of an image area in step S120 of FIG.
FIGS. 6A to 6F are schematic diagrams for explaining a process of detecting a shadow of an object.
FIGS. 7A to 7F are schematic diagrams for explaining a process of detecting an object itself.
FIG. 8 is a graph showing an example of a density distribution of a shadow of an object in image information.
FIG. 9 is a graph showing an example of a density distribution of an object itself in image information.
[Explanation of symbols]
1: Vehicle periphery monitoring device
10. Camera
20 ... Image processing ECU
30 ... Navigation ECU
40 ... Reverse switch
50 ... Vehicle speed sensor
60 ... speaker
70 ... Monitor
100 ... own vehicle
120 ... pillar
120 '... pillar shadow
130 ... Other vehicle
AR: change area
Q 1 … Back image information
Q 11 … Reference image information
Q 12 … Comparative image information
Q 2 … Navigation image information
TP… Template
Claims (6)
前記撮像手段が撮像した第1の画像情報、及び前記撮像手段が前記第1の画像情報の撮像後に撮像した第2の画像情報を取得し、前記第1の画像情報と第2の画像情報とを比較し、前記第2の画像情報上において前記第1の画像情報に対して変化している変化領域を抽出する変化領域抽出手段と、
前記変化領域抽出手段により抽出された前記変化領域の濃度の一様性を評価する一様性評価手段と、
前記評価された変化領域の濃度の一様性を所定値と比較し、前記変化領域が、物体自体であるか否かの判定を行う判定手段と、
前記判定手段による判定結果に基づいて、前記車両の運転者に対して報知を行う報知手段とを備えた車両周囲監視装置。Imaging means for imaging the periphery of the vehicle;
Acquiring first image information captured by the image capturing unit and second image information captured by the image capturing unit after capturing the first image information; and obtaining the first image information and the second image information. A change area extracting unit that compares the first image information with a change area on the second image information,
Uniformity evaluation means for evaluating the uniformity of the density of the change area extracted by the change area extraction means,
Determining means for comparing the uniformity of the density of the evaluated change area with a predetermined value, and determining whether or not the change area is the object itself;
A vehicle periphery monitoring device comprising: a notifying unit that notifies a driver of the vehicle based on a result of the determination by the determining unit.
前記第1の画像情報の撮像後に前記車両の周囲の第2の画像情報を撮像するステップと、
前記第1の画像情報と第2の画像情報とを比較し、前記第2の画像情報上において前記第1の画像情報に対して変化している変化領域を抽出するステップと、
前記抽出された変化領域の濃度の一様性を評価するステップと、
前記評価された変化領域の濃度の一様性を所定値と比較し、前記変化領域が、物体自体であるか否かの判定を行うステップと、
その判定結果に基づいて、前記車両の運転者に対して報知を行うステップとを備えた車両周囲監視方法。Imaging first image information around the vehicle;
Imaging second image information around the vehicle after imaging the first image information;
Comparing the first image information with the second image information, and extracting a change area on the second image information that is changed with respect to the first image information;
Evaluating the uniformity of the density of the extracted change area;
Comparing the uniformity of the density of the evaluated change area with a predetermined value, and determining whether the change area is the object itself;
Notifying the driver of the vehicle based on the determination result.
前記変化領域の濃度の分散値を算出することにより、前記変化領域の濃度の一様性を評価する請求項4記載の車両周囲監視方法。In the step of evaluating the uniformity of the density of the extracted change area,
The vehicle surroundings monitoring method according to claim 4, wherein uniformity of the density of the change area is evaluated by calculating a variance value of the density of the change area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002365111A JP2004200864A (en) | 2002-12-17 | 2002-12-17 | Device and method of monitoring surrounding of vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002365111A JP2004200864A (en) | 2002-12-17 | 2002-12-17 | Device and method of monitoring surrounding of vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004200864A true JP2004200864A (en) | 2004-07-15 |
Family
ID=32762760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002365111A Pending JP2004200864A (en) | 2002-12-17 | 2002-12-17 | Device and method of monitoring surrounding of vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004200864A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2004200864B2 (en) * | 2003-03-18 | 2006-05-11 | Francois Joncourt | Device for transporting a load and suitable attaching device |
US7619666B2 (en) | 2006-07-26 | 2009-11-17 | Canon Kabushiki Kaisha | Image processing apparatus, control method therefor, and program correcting image data based on foreign substance information and inhibiting such correction |
US7990419B2 (en) | 2006-07-26 | 2011-08-02 | Canon Kabushiki Kaisha | Image processing apparatus, method, and program storing a correction or modification log |
US8238690B2 (en) | 2006-07-26 | 2012-08-07 | Canon Kabushiki Kaisha | Image processing apparatus, control method therefor, and program |
US8755634B2 (en) | 2009-08-12 | 2014-06-17 | Nec Corporation | Obstacle detection device and method and obstacle detection system |
JP2015177442A (en) * | 2014-03-17 | 2015-10-05 | パイオニア株式会社 | Information processing apparatus, information processing method, information processing program, and computer readable recording medium containing information processing program |
US10325163B2 (en) | 2016-11-22 | 2019-06-18 | Ford Global Technologies, Llc | Vehicle vision |
-
2002
- 2002-12-17 JP JP2002365111A patent/JP2004200864A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2004200864B2 (en) * | 2003-03-18 | 2006-05-11 | Francois Joncourt | Device for transporting a load and suitable attaching device |
US7619666B2 (en) | 2006-07-26 | 2009-11-17 | Canon Kabushiki Kaisha | Image processing apparatus, control method therefor, and program correcting image data based on foreign substance information and inhibiting such correction |
US7990419B2 (en) | 2006-07-26 | 2011-08-02 | Canon Kabushiki Kaisha | Image processing apparatus, method, and program storing a correction or modification log |
US8238690B2 (en) | 2006-07-26 | 2012-08-07 | Canon Kabushiki Kaisha | Image processing apparatus, control method therefor, and program |
US8755634B2 (en) | 2009-08-12 | 2014-06-17 | Nec Corporation | Obstacle detection device and method and obstacle detection system |
JP2015177442A (en) * | 2014-03-17 | 2015-10-05 | パイオニア株式会社 | Information processing apparatus, information processing method, information processing program, and computer readable recording medium containing information processing program |
US10325163B2 (en) | 2016-11-22 | 2019-06-18 | Ford Global Technologies, Llc | Vehicle vision |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3807331B2 (en) | Camera dirt detection device and camera dirt detection method | |
JP5421072B2 (en) | Approaching object detection system | |
JP6272375B2 (en) | Display control device for vehicle | |
CN103523014B (en) | Car-mounted device | |
JP6364797B2 (en) | Image analysis apparatus and image analysis method | |
EP3367084A9 (en) | Road surface state determination device, imaging device, imaging system, and road surface state determination method | |
JP2005001570A (en) | Parking support device | |
US9199536B2 (en) | On-vehicle display device and on-vehicle display program | |
US9001204B2 (en) | Vehicle peripheral monitoring device | |
KR101888960B1 (en) | Apparatus and method for measuring the flatness of the road | |
JP2008027309A (en) | Collision determination system and collision determination method | |
KR20140104954A (en) | Method and device for identifying a braking situation | |
JP2007221200A (en) | Vehicle periphery monitoring system | |
EP3763581A1 (en) | Vehicle cleaner system, and vehicle system | |
US11117520B2 (en) | Display control device, display control system, display control method, and program | |
JP2000207563A (en) | Image recognizing device | |
US10821894B2 (en) | Method and device for visual information on a vehicle display pertaining to cross-traffic | |
JP2006265865A (en) | Car window control device | |
JP2009071539A (en) | Imaging apparatus for vehicle | |
JP2004200864A (en) | Device and method of monitoring surrounding of vehicle | |
JP6131692B2 (en) | Occupant detection device | |
JP2009147906A (en) | Vehicle periphery monitoring device | |
CN112389325B (en) | motor vehicle | |
US20210323470A1 (en) | Display control device, display control method, and storage medium storing program | |
JP5861584B2 (en) | Fluctuation determination device |