JP2010118764A - 車両周辺監視装置および車両周辺監視方法 - Google Patents

車両周辺監視装置および車両周辺監視方法 Download PDF

Info

Publication number
JP2010118764A
JP2010118764A JP2008288988A JP2008288988A JP2010118764A JP 2010118764 A JP2010118764 A JP 2010118764A JP 2008288988 A JP2008288988 A JP 2008288988A JP 2008288988 A JP2008288988 A JP 2008288988A JP 2010118764 A JP2010118764 A JP 2010118764A
Authority
JP
Japan
Prior art keywords
image
vehicle
periphery
determined
wheel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008288988A
Other languages
English (en)
Other versions
JP5109937B2 (ja
Inventor
Shigemitsu Ikegami
茂光 池上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2008288988A priority Critical patent/JP5109937B2/ja
Publication of JP2010118764A publication Critical patent/JP2010118764A/ja
Application granted granted Critical
Publication of JP5109937B2 publication Critical patent/JP5109937B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Rear-View Mirror Devices That Are Mounted On The Exterior Of The Vehicle (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】装置構成を比較的簡略化した場合でも、画像に補助線を適切に合成し、表示することができる車両周辺監視装置を提供する。
【解決手段】車両1の周辺を撮像する一対の撮像手段5a,5bと、前記一対の撮像手段5a,5bにより撮像された画像の一方の画像に合成される第1補助線を記憶する補助線記憶手段と、他方の画像に合成される第2補助線を生成する補助線生成手段と、前記一対の撮像手段により撮像された一対の画像を取得する取得手段と、取得された一対の画像の一方の画像を判断対象とし、当該判断対象とした画像が左側輪3aの周辺および右側輪3bの周辺のいずれの画像であるかを判断する判断手段と、前記判断手段における判断結果に基づいて、前記一対の画像に、前記第1、第2補助線をそれぞれ合成する合成手段と、前記第1、第2補助線が合成された一対の画像のうち、少なくとも一方を表示する表示手段と、を有する。
【選択図】図1

Description

本発明は、車両周辺監視装置および車両周辺監視方法に関するものである。
ドアミラーに設けられた左右一対の撮像装置で車両周囲を撮像し、この左右一対の撮像装置で撮像された画像に、車両の幅寄せや駐車を行う際に指標となる補助線を重ね合わせてディスプレイに表示する車両周辺監視装置が提案されている(特許文献1)。
特開2003−259356号公報
しかしながら、従来技術では、ドアミラーケース内に設けられた左右一対の撮像装置で撮像したそれぞれの画像に、左側のドアミラーケース内に設置した撮像装置で撮像した画像に対応する補助線と、右側のドアミラーケース内に設置した撮像装置で撮像した画像に対応する補助線とを、それぞれ別々の回路装置を用いて重ね合わせていた。そのため、これら別々の撮像装置に対応する補助線をそれぞれ記憶する必要があり、また、ドアミラーケース内に設けられた左右一対の撮像装置で撮像した一対の画像に、補助線を重ね合わせる回路装置が、それぞれ別々に必要となるため、車両周辺監視装置が全体として高価となる問題があった。
本発明が解決しようとする課題は、装置構成を比較的簡略化した場合でも、左右一対の撮像装置で撮像した画像に補助線を適切に合成し、表示することである。
車両の左側輪周辺および右側輪周辺を一対の撮像手段によりそれぞれ撮像し、撮像した一対の画像のうち一方の画像を用いて、該画像が左側輪周辺および右側輪周辺のいずれを撮像した画像かを判断し、この判断に基づき、一対の画像に、予め記憶されている第1補助線または該補助線から生成された第2補助線を、それぞれ合成することにより、上記課題を解決する。
本発明によれば、一対の撮像手段で撮像された画像に対応する補助線のうち一方の補助線のみを記憶していればよく、また、左右一対の撮像手段で撮像された一対の画像に補助線を合成する回路を一つとすることができる。これにより、左右一対の撮像手段で撮像された一対の画像と補助線とを適切に合成、表示することを可能としながら、装置構成を簡略化することができる。
≪第1実施形態≫
以下、本発明の実施形態を図面に基づいて説明する。図1は、本実施形態に係る車両1の構成を示すブロック図である。車両1は、画像処理装置2、一対のドアミラーケース6a,6b内に設置された一対のカメラ5a,5b、灯火制御装置8、操舵角センサ9、およびディスプレイ10を有している。
図1に示すように、一対のカメラ5a,5bのうちの左側カメラ5aは、左側のドアミラーケース6a内に設置され、車両1の左側タイヤ3a,4a、特に、タイヤ3aの周辺を撮像する。一方、一対のカメラ5a,5bのうちの右側カメラ5bは、右側のドアミラーケース6b内に設置され、車両1の右側タイヤ3b,4b、特に、タイヤ3bの周辺を撮像する。また、これら左右一対のカメラ5a,5bは、車両1の両側のタイヤ3a,3bの周辺を同じタイミングで、かつ、同じ所定の時間間隔で連続して撮像するように設定される。
なお、これらカメラ5a,5bは、その撮像素子上に、複数の画素を有し、輝度画像を撮像できるものが好適である。このような撮像素子としては、例えば、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)などが挙げられる。
ドアミラーケース6a,6bは、それぞれカメラ5a,5bを収容し、さらに、ドアミラーケース6a,6bの図示しない撮影窓にガラスまたは透明樹脂のシールドを設けることにより、カメラ5a,5bを水滴や汚れから保護する。
画像処理装置2は、左右一対のカメラ5a,5bで撮像された画像に、補助線を重ね合わせた合成画像を生成する。図2は、左側カメラ5aで撮像された画像に、左側補助線11を重ね合わせた左側合成画像13aを示す図である。また、図3は、右側カメラ5bで撮像された画像に、右側補助線12を重ね合わせた右側合成画像13bを示す図である。ここで、補助線とは、車両1を移動させる際にユーザにとって指標となる線である。ユーザは、このような合成画像13a,13bに表示された補助線11,12を指標として参照することにより、車両1を車両周辺と接触させることなく、幅寄せや駐車等を容易に行うことができる。
図1に示すように、画像処理装置2は、画像の処理を実行するためのプログラムを格納したROM(Read Only Memory)21と、このROM21に格納されたプログラムを実行するCPU(Central Processing Unit)22と、アクセス可能な記憶装置として、または撮像された画像を一時的に記憶する装置として機能するRAM(Random Access Memory)23とから構成される。
CPU22は、左右一対のカメラ5a,5bで撮像した一対の画像に補助線11,12を重ね合わせた合成画像13a,13bを生成するために、以下の機能を備える。すなわち、右側補助線12を生成する補助線生成機能、左右一対のカメラ5a,5bで撮像された一対の画像を取得する取得機能、一対の画像のうち一方の画像を判断対象とし、該画像がカメラ5a,5bのいずれで撮像された画像であるかを判断する判断機能、撮像された一対の画像に、左側、右側補助線11,12をそれぞれ合成する補助線合成機能、および、ディスプレイ10に表示される画像を生成する表示画像生成機能である。
以下に、上述したCPU22の各機能について詳細に説明する。
まず、CPU22の補助線生成機能について説明する。補助線生成機能とは、ROM21に予め記憶されている左側補助線11に基づいて、右側補助線12を生成する機能である。
ここで、右側補助線12を生成するために用いられる左側補助線11は、ROM21に記憶されており、左側カメラ5aにより撮像される画像に対応して、予め、設定された所定の補助線である。例えば、左側補助線11は、図2のように、車両の左側のドアミラーケース6aの左先端に相当する位置を通過する車両前後方向に平行な線11aと、車両前端から前方の所定距離の位置を通過する車両左右方向と平行な線11bと、から形成される。
一方、右側補助線12は、左側補助線11と反対に、右側カメラ5bで撮像した画像に対応する補助線である。すなわち、右側補助線12は、図3のように、車両1の右側のドアミラーケース6bの右先端に相当する位置を通過する車両前後方向に平行な線12aと、車両前端から前方の所定距離の位置を通過する車両左右方向と平行な線12bと、から形成される補助線とされる。
このように、右側補助線12を左側補助線11に基づいて生成することにより、右側補助線12をROM21に予め記憶しておく必要がなく、装置構成を簡略化することができる。
なお、上述の例とは逆に、右側カメラ5bで撮像される画像に対応する右側補助線12を、ROM21に予め記憶しておいてもよい。この場合、補助線生成機能により、右側補助線12に基づいて左側補助線11が生成される。
次に、CPU22の取得機能について説明する。取得機能とは、左右一対のカメラ5a,5bで撮像された一対の画像をカメラ5a,5bから取得する機能である。また、左右一対のカメラ5a,5bは、同じ所定の時間間隔で連続して一対の画像を撮像しており、CPU22の取得機能もその時間間隔に合わせて、その都度、撮像された一対の画像を連続して取得する。
次に、CPU22の判断機能について説明する。判断機能とは、取得された一対の画像のうち、一方の画像を判断対象とし、その画像が、左側カメラ5aで撮像した画像であるか,右側カメラ5bで撮像した画像であるかを判断する。画像の判断は、判断対象とした一方の画像中に記録された所定の特徴を検出することにより行われる。詳しくは後述する。また、判断機能は、取得された一対の画像のうち、判断対象とした画像と異なる他方の画像については、左右一対のカメラ5a,5bのうち、判断対象とした画像を撮像したカメラと異なる他方のカメラで撮像した画像であると判断する。例えば、CPU22の判断機能が、判断対象とした画像が左側カメラ5aで撮像した画像であると判断した場合、他方の画像は、右側カメラ5bで撮像した画像であると判断する。
次に、CPU22の補助線合成機能について説明する。補助線合成機能は、判断機能による判断結果に基づいて、左右一対のカメラ5a,5bで撮像された一対の画像に、左側、右側補助線11,12をそれぞれ合成する機能である。すなわち、左側カメラ5aで撮像した画像に左側補助線11を重ね合わせ、右側カメラ5bで撮像した画像に右側補助線12を重ね合わせる。
次に、CPU22の表示画像生成機能について説明する。表示画像生成機能は、合成機能により合成された画像をディスプレイ10に表示できるように変換し、変換した画像をディスプレイ10に送る。なお、変換の際には、図2のような左側カメラ5aで撮像した画像に左側補助線11を重ね合わせた左側合成画像13aと、図3のような右側カメラ5bで撮像した画像に右側補助線12を重ね合わせた右側合成画像13bを、別々に、ディスプレイ10に表示するための形式に変換してもよく、また、左側合成画像13aと右側合成画像13bとを結合して一枚の合成画像とし、ディスプレイ10に表示するための形式に変換してもよい。
灯火制御装置8は、ユーザによるウィンカースイッチの操作により、車両1の左右側面に設置されている方向指示器7a,7bを点灯するための信号を送信する。また、灯火制御装置8は、方向指示器7aまたは7bへ信号を送信するとともに、画像処理装置2へ一対の方向指示器7a,7bのうちいずれかの方向指示器を点灯させたことを通知する点灯信号を送信する。画像処理装置2は灯火制御装置8から点灯信号を取得することにより、一対の方向指示器7a,7bのうち、いずれの方向指示器が点灯しようとしているのかを判断することができる。
操舵角センサ9は、車両1の図示しないステアリングに設けられ、ステアリングの絶対舵角を検出する。操舵角センサ9は、画像処理装置2に接続されており、検出したステアリングの絶対舵角を画像処理装置2へと送る。画像処理装置2は、操舵角センサ9から絶対舵角を取得することにより、車両1が転舵しようとしている方向を判断することができる。
ディスプレイ10は、左側、右側合成画像13a,13bをディスプレイ10に表示するための形式に変換して生成した表示画像を、画像処理装置2から受け取り、ディスプレイ10に備えられた表示画面上に表示する。なお、表示方法は特に限定されず、左側合成画像13aまたは右側合成画像13bのうち一方の画像から生成した表示画像を表示してもよく、また、左側合成画像13aおよび右側合成画像13bから生成したそれぞれの表示画像を、ディスプレイ10に備えられた別々の表示画面上に表示してもよい。さらに、CPU22の表示画像生成機能において、左側合成画像13aと右側合成画像13bとを結合して1枚の画像とし、この画像から生成した表示画像を、ディスプレイ10に備えられた1つの表示画面上に表示してもよい。なお、ディスプレイ10に備えられた表示画面は、合成画像から生成された表示画像を表示する必要がない場合は、ナビゲーション画像などを表示することで有効に利用される。
次に、本発明の実施形態に係る動作を説明する。
図4は、本発明の実施形態に係る監視制御方法を示すフローチャートである。また、図5は、図4に示す監視制御方法のうち、特に、第1実施形態におけるステップS3の画像判断処理を示すフローチャートである。以下においては、図4,5に基づいて、左右一対のカメラ5a,5bで撮像した一対の画像に、左側、右側補助線11,12を合成して左側、右側合成画像13a,13bとし、この合成画像13a,13bをディスプレイ10に表示するための形式に変換し、この変換した画像をディスプレイ10に備える表示画面上に表示するフローについて説明する。
まず、図4に示すように、ステップS1では、ドアミラーケース6a,6b内に設けられた左右一対のカメラ5a,5bで、車両1のタイヤ3aの周辺およびタイヤ3bの周辺を撮像する。撮像された一対の画像は、画像処理装置2に送られ、CPU22の取得機能により取得される(ステップS2)。
ステップS3では、CPU22の判断機能により、取得された一対の画像のうち一方の画像を判断対象とし、判断対象とした画像が、左側カメラ5aで撮像した画像であるか、右側カメラ5bで撮像した画像であるかを判断する。ステップS3の画像判断処理の具体的なフローについては、図5のステップS311〜315で詳細に説明する。特に、第1実施形態の画像判断処理は、判断対象とした画像中におけるタイヤの位置情報を検出することにより、判断対象とした画像がカメラ5a,5bのいずれで撮像した画像であるかを判断することを特徴とする。ここで、図6は、本実施形態における左側カメラ5aで撮像した画像14aを示す図である。また、図7は、本実施形態における右側カメラ5bで撮像された画像14bを示す図である。
まず、ステップS311において、CPU22の判断機能は、取得機能により取得された一対の画像14a,14bのうち、一方の画像を判断対象として取得する。なお、以下、本実施形態の画像判断処理の説明においては、左側カメラ5aで撮像した画像14aを判断対象とした場合を例示して説明する。
次に、ステップS312において、CPU22の判断機能は、判断対象とした画像14aからタイヤ3aの位置情報を検出する。なお、タイヤの位置情報の検出方法は、一般的な方法を用いて行えば良く、例えば、画像14aからエッジを検出することで、タイヤの位置情報を取得することができる。そして、ステップS313において、CPU22の判断機能は、図6に示すように、判断対象とした画像14aを、中心線Oを境として、左半分領域15aと右半分領域16aとに分ける。
次に、ステップS314では、検出されたタイヤ3aが、判断対象とした画像14a中の左半分領域15aまたは右半分領域16aのいずれの領域に位置するかを判断する。図4に示す判断対象とした画像14aでは、タイヤ3aは、右半分領域16aに位置する。よって、CPU22の判断機能は、タイヤ3aが、判断対象とした画像14aの右半分領域16aに位置すると判断する。
ステップS315においては、判断対象とした画像14aが、左側カメラ5aで撮像した画像であるか、または右側カメラ5bで撮像した画像であるかを判断する。例えば、図6に示すように、左側カメラ5aで撮像した画像14aでは、車両1のタイヤ3aは、右半分領域16aで検出されることとなる。そのため、タイヤ3aが画像14a中の右半分領域16aで検出された場合には、CPU22の判断機能は、判断対象とした画像は、左側カメラ5aで撮像した画像であると判断する。反対に、図7に示すように、右側カメラ5bで撮像した画像14bでは、車両1のタイヤ3bは、左半分領域15bで検出されることとなる。そのため、タイヤ3bが画像14b中の左半分領域15bで検出された場合には、CPU22の判断機能は、判断対象とした画像は、右側カメラ5bで撮像した画像であると判断する。
本実施形態においては、ステップS314で、タイヤ3aが、判断対象とした画像14aの右半分領域16aに位置すると判断されているため、CPU22の判断機能は、取得した一対の画像14a,14bのうち、判断対象とした画像14aは、左側カメラ5aで撮像した画像であると判断する。そして、CPU22の判断機能は、他方の画像14bについては、左右一対のカメラ5a,5bのうち、判断対象とした画像を撮像したカメラと異なる他方のカメラで撮像した画像と判断する。すなわち、本実施形態においては、取得した一対の画像14a,14bのうち、判断対象とした画像14aは、左側カメラ5aで撮像した画像と判断されたため、他方の画像14bは、右側カメラ5bで撮像した画像であると判断される。
なお、取得された一対の画像のうち判断対象とした画像が、図7に示す画像14bであった場合も、CPU22の判断機能は、上述したようにステップS311からステップS315までの処理を行う。すなわち、CPU22の判断機能は、図7に示す判断対象とした画像14bにおいて、タイヤ3bは、左半分領域15bに位置することを検出し、取得した一対の画像14a,14bのうち、判断対象とした画像14bは、右側カメラ5bで撮像した画像であると判断する。そして、他方の画像14aは、左側カメラ5aで撮像された画像であると判断する。
判断対象とした画像14aが、左側カメラ5aで撮像した画像であるか、右側カメラ5bで撮像した画像であるかを判断した後は、再び図4のフローチャートに戻り、ステップS4に進む。ステップS4では、左側カメラ5aで撮像した画像と判断された画像14aに、左側補助線11を重ね合わせて左側合成画像13aを生成する。また、右側カメラ5bで撮像した画像と判断された画像14bに、右側補助線12を重ね合わせて右側合成画像13bを生成する。
ステップS5では、CPU22の表示画像生成機能により、右側合成画像13aと左側合成画像13bとを結合して1枚の合成画像を生成し、この結合した合成画像をディスプレイ10に表示するための形式に変換する。そして、ステップS6では、ディスプレイ10が、この変換された画像を取得し、ディスプレイ10に備えられた表示画面上に画像を表示する。
第1実施形態によれば、左側補助線11または右側補助線12のうち、いずれか一方の補助線を予め記憶しておき、他方の補助線を予め記憶した補助線に基づいて生成するため、車両周辺監視装置全体の記憶量を軽減し、装置構成を簡略化することができる。また、左右一対のカメラ5a,5bで撮像された一対の画像のうち一方の画像を判断対象とし、判断対象とした画像中において検出したタイヤが、この画像中の右半分領域と左半分領域のいずれの領域に位置するかを判断するため、判断対象とした画像が、左右一対のカメラ5a,5bのいずれで撮像した画像であるかを判断することができる。このように、判断対象とした画像が、左側カメラ5aで撮像した画像であるか、右側カメラ5bで撮像した画像であるかを判断することにより、その判断結果に基づいて、取得された一対のそれぞれ画像14a,14bに対して、左側、右側補助線11,12を合成するための回路装置を一つとすることができる。これにより、左右一対のカメラ5a,5bで撮像された一対の画像14a,14bに補助線11,12を適切に合成し、表示することを可能としながら、装置構成を簡略化することができる。
≪第2実施形態≫
本発明の第2実施形態について説明する。第2実施形態では、図1に示す第1実施形態と同様の車両1において、以下に説明するとおり、図4に示す監視制御方法のうち、ステップS3の画像判断処理を、図8に示すフローチャートに従って行う。ここで、図8は、図4に示す監視制御方法のうち、特に、第2実施形態における画像判断処理を示すフローチャートである。また、図9は、第2実施形態における左側カメラ5aで撮像した画像14aを示す図である。そして、図10は、第2実施形態における右側カメラ5bで撮像された画像14bを示す図である。
以下、本発明の第2実施形態に係る動作を説明する。
まず、ドアミラーケース6a,6b内に設けられた左右一対のカメラ5a,5bで、車両1のタイヤ3aの周辺およびタイヤ3bの周辺を撮像する(図4のステップS1)。撮像された一対の画像14a,14bは、画像処理装置2に送られ、CPU22の取得機能により取得される(図4のステップS2)。引き続き、第2実施形態では、図4に示すステップS3の画像判断処理を図8に示すフローチャートに従って行う。
すなわち、ステップS321において、CPU22の判断機能は、取得機能により取得された一対の画像14a,14bのうち、一方の画像を判断対象として取得する。なお、第2実施形態の画像判断処理の説明においても、図9に示す左側カメラ5aで撮像した画像14aを判断対象とした場合を例示して説明する。
次にステップS322において、CPU22の判断機能は、RAM23に一時的に記憶されている画像を読み込む。この画像は、判断対象とした画像14aと同じ左側カメラ5aで撮像された画像であり、かつ、判断対象とした画像14aよりも前の時系列で撮像された画像(例えば、判断対象とした画像14aの1フレーム前の画像)である。以下、この判断対象とした画像14aよりも前の時系列で撮像された画像を「画像14a′」として説明する。
ステップS323では、判断対象とした画像14aおよび画像14a′中から、撮像対象物の位置情報を検出する。なお、画像中の撮像対象物の位置情報の検出方法は、一般的な方法を用いることができ、例えば、これら画像にエッジ処理を施すことで、撮像対象物の位置情報を検出することができる。
次に、ステップ324において、画像14a′中で検出された撮像対象物が、判断対象とした画像14aを撮像した時までに、車両1の移動により、画像中を移動した領域を移動領域として検出する。そのため、まず、CPU22の判断機能は、撮像タイミングの異なる画像14a′および画像14aの画像情報とから、画像14aおよび画像14a′中に撮像された撮像対象物であって、同一の撮像対象物と判断される撮像対象物を検出する。そして、画像14a′中での該撮像対象物の位置から画像14a中での該撮像対象物の位置までの領域を、該撮像対象物の移動領域として算出する。このように、CPU22の判断機能は、画像14a′および画像14a中に撮像される複数の撮像対象物について移動領域を算出する。なお、撮像対象物の移動領域を検出する方法は特に限定されず、例えば、判断対象とした画像14a中で検出された撮像対象物の位置情報と画像14a′で検出された撮像対象物の位置情報とからオプティカルフローを求めることにより、撮像対象物の移動領域を検出することができる。
次に、ステップS325では、CPU22の判断機能は、判断対象とした画像14aを、図9に示す中心線Oを境として、左半分領域15aと右半分領域16aとに分ける。そして、ステップS326において、左半分領域15aにおける移動領域の占める割合、および、右半分領域16aにおける移動領域の占める割合を検出する。この検出結果に基づき、ステップS327において、CPU22の判断機能は、判断対象とした画像14aが、左側カメラ5aで撮像した画像であるか、右側カメラ5bで撮像した画像であるかを判断する。ここで、判断対象とした画像14aおよび画像14a′は、撮像されたタイミングは異なるが、いずれも車両1に固定された同じカメラ5aで撮像された画像であるため、画像14aおよび画像14a′中の同じ位置に車両1の一部が撮像されることとなる。そのため、撮像タイミングの異なる画像14aと画像14a′とから、移動領域を検出する場合、画像中の車両1を撮像した領域は、車両1の移動により撮像対象物である車両1は移動することがないため、移動領域として検出されないこととなる。これに対して、画像中の車両1以外を撮像する領域は、車両1の移動により撮像対象物が移動するため、当該領域では移動領域として検出される。このように、CPU22の判断機能が、画像中の左半分領域15aにおける移動領域の占める割合と、右半分領域16aにおける移動領域の占める割合とを比較し、移動領域の占める割合が低い半分領域に車両1が位置すると判断することができる。すなわち、CPU22の判断機能は、左半分領域15aにおける移動領域が占める割合が、右半分領域16aにおける移動領域の占める割合よりも高い場合は、車両1は右半分領域16aに位置するものと判断し、判断対象とした画像は左側カメラ5aで撮像された画像であると判断する。また、反対に、右半分領域16aにおける移動領域の占める割合が、左半分領域15aにおける移動領域の占める割合よりも高い場合は、車両1は左半分領域15aに位置するものと判断し、取得した一対の画像のうち、判断対象とした画像は右側カメラ5bで撮像された画像であると判断する。そして、CPU22の判断機能は、他方の画像について、左右一対のカメラ5a,5bのうち、判断対象とした画像を撮像したカメラと異なる他方のカメラで撮像した画像と判断する。
本実施形態で判断対象とした画像は、図9に示す画像14aである。図9に示すように、判断対象とした画像14aにおいては、左半分領域15aにおける移動領域の占める割合(図9に記載される矢印は、画像14a中の移動領域を概念的に示す。)が、右半分領域16aにおける移動領域の占める割合よりも高い。よって、CPU22の判断機能は、取得した一対の画像14a,14bのうち、判断対象とした画像14aが、左側カメラ5aで撮像した画像であると判断し、他方の画像14bが、右側カメラ5bで撮像した画像であると判断する(ステップS327)。
次に、ステップS328において、CPU22の判断機能は、今回判断対象とした画像14aを一時的にRAM23に記憶する。この記憶した画像14aを用いて、次回判断対象となる画像における撮像対象物の移動領域を検出することができる。
なお、取得された一対の画像14a,14bのうち判断対象とされた一方の画像が、図10に示す画像14bであった場合も、CPU22の判断機能は、上述したようにステップS321からステップS328までの処理を行う。CPU22の判断機能は、図10に示すように、判断対象とした画像14bにおいて、右半分領域16bにおける移動領域の占める割合(図10に記載される矢印は、画像14b中の移動領域を概念的に示す。)が、左半分領域15bにおける移動領域の占める割合よりも高いと判断し、取得した一対の画像14a,14bのうち、この判断対象とした画像14bは、右側カメラ5bで撮像した画像であると判断する。そして、他方の画像14aは、左側カメラ5aで撮像された画像であると判断する。
一対の画像14a,14bについて、左右一対のカメラ5a,5bのいずれで撮像した画像であるか判断した後は、第1実施形態と同様に、再び図4のフローチャートに戻り、ステップS4以降の処理を行う。すなわち、左右一対のカメラ5a,5bで撮像した画像であるか判断された一対の画像14a,15bに補助線11,12を合成し(ステップS4)、合成した画像を表示に適した形式に変換し(ステップS5)、変換した画像をディスプレイ10に備えられた表示画面に表示する(ステップS6)。
第2実施形態によれば、上述した第1実施形態の効果に加え、次の効果を奏する。すなわち、カメラ5a,5bで撮像した画像14a,14bにおいてタイヤの検出が困難な場合であっても、左右一対のカメラ5a,5bで撮像された一対の画像14a,14bのうち、判断対象とした一方の画像中の右半分領域および左半分領域おける移動領域の占める割合が、この画像中の右半分領域および左半分領域のいずれの領域で高いかを判断することにより、判断対象とした画像が、左右一対のカメラ5a,5bのいずれで撮像した画像であるかを判断することができる。
なお、第2実施形態において、同じ左側カメラ5aで撮像された画像であって、撮像タイミングの異なる画像14aおよび画像14a′に基づいて撮像対象物を検出することで移動領域を検出する方法を例示しているが、移動領域の検出方法はこの方法に限定されない。例えば、カメラのシャッタースピードを長くして撮像した画像情報と図示しない車速センサから取得した車速とに基づいて、判断対象とした画像中の移動領域を検出することが挙げられる。また、第2実施形態においては、判断対象とした画像14aを取得した後に(ステップS321)、画像14a′を読み込んでいるが(ステップS322)、画像14a′を読み込んだ後に、判断対象とした画像14aを取得してもよいし、判断対象とした画像14aの取得と画像14a′の読み込みとを同時に行ってもよい。
≪第3実施形態≫
本発明の第3実施形態について説明する。第3実施形態においても、図1に示す第1実施形態と同様の車両1において、以下に説明するとおり、図4に示す監視制御方法を、図11に示すフローチャートに従って行う。ここで、図11は、第3実施形態における画像判断処理を示すフローチャートである。また、図12は、第3実施形態における左側カメラ5aで撮像した画像14aを示す図である。
以下、本発明の第3実施形態に係る動作を説明する。
まず、ドアミラーケース6a,6b内に設けられた左右一対のカメラ5a,5bで、車両1のタイヤ3aの周辺およびタイヤ3bの周辺を撮像する(図4のステップS1)。撮像された一対の画像14a,14bは、画像処理装置2に送られ、CPU22の取得機能により取得される(図4のステップS2)。引き続き、第3実施形態では、図4に示すステップS3の画像判断処理を、図11に示すフローチャートに従って行う。
すなわち、ステップS331において、ユーザが、一対の方向指示器7a,7bのうち、いずれかの方向指示器を点灯させるためにウィンカースイッチを操作することで、灯火制御装置として機能するCPU8から、ユーザが点灯を要求する方向指示器へ点灯信号が送信される。また、CPU8は、ユーザが点灯を要求した方向指示器に点灯信号を送信するとともに、画像処理装置2のCPU22に対してもユーザが点灯を要求した方向指示器を点灯させるための点灯信号を送信する。これにより、CPU22の判断機能は、灯火制御装置として機能するCPU8から灯火信号を取得する。なお、第3実施形態の画像判断処理の説明において、ユーザは、左側方向指示器7aを点灯するように、図示しないウィンカースイッチを操作した場合を例示して説明する。この場合、灯火制御装置として機能するCPU8は、一対の方向指示器7a,7bのうち、ユーザが要求した左側方向指示器7aを点灯させるための点灯信号を左側方向指示器7aに送信するとともに,画像処理装置2のCPU22に対しても左側方向指示器7aを点灯させるための点灯信号を送信する。これにより、CPU22の判断機能は、この左側方向指示器7aを点灯させるための点灯信号をCPU8から取得することとなる。
次に、ステップS332において、CPU22の判断機能は、取得機能により取得された一対の画像14a,14bのうち、一方の画像を判断対象として取得する。なお、第3実施形態の画像判断処理の説明においても、図12に示す左側カメラ5aで撮像した画像14aを判断対象とした場合を例示して説明する。
次に、ステップS333では、CPU22の判断機能は、RAM23に一時的に記憶されている画像を読み込む。この画像は、判断対象とした画像14aと同じ左側カメラ5aで撮像された画像であり、かつ、判断対象とした画像14aよりも前の時系列で撮像された画像である。以下、この判断対象とした画像14aよりも前の時系列で撮像された画像を「画像14a′」として説明する。また、判断対象とした画像14aは画像中の方向指示器の点灯時のタイミングで撮像された画像であり、画像14a′は画像中の方向指示器の消灯時に撮像された画像として説明する。
ステップS334では、判断対象とした画像14aおよび画像14a′の画像情報から、それぞれの画像における輝度情報を検出する。ここで、図13は、左側方向指示器7aが点灯していない画像14a′の輝度情報を示すグラフである。また、図14は、左側方向指示器7aが点灯している図12に示す判断対象とした画像14aの輝度情報を示すグラフである。なお、図12〜図14中におけるA,A′、及び、Bは、図12中の破線上の左右方向位置を示し、Aはその破線上の左端の位置、A′はその破線上の右端の位置、Bはその破線上にある左側方向指示器7aの位置を示している。また、図13のAの位置の輝度は、図12のAの位置の輝度を表し、図13のA′の位置の輝度は、図12のA′の位置の輝度を表し、図13のBの位置の輝度は、図12のBの位置の輝度を表している。また、図14と図12とのA,A′、及び、Bの位置関係も、図13と図12とのA,A′、及び、Bの位置関係と同じである。
ステップS335では、撮像タイミングの異なる画像14aおよび画像14a′中で検出された輝度情報に基づいて、画像中に撮像された方向指示器7aが点灯しているかを判断する。具体的には、方向指示器7aが消灯しているときは、図13に示すように、画像中のBの位置(図12の方向指示器の位置に相当する位置)における輝度はcの値となる。一方、方向指示器7aが点灯しているときは、図14に示すように、画像中のBの位置(図12の方向指示器の位置に相当する位置)における輝度はc′となる。そこで、判断対象とした画像14a中で検出された輝度情報と、画像14a′中で検出された輝度情報とを比較して、これら画像14a,14a′における輝度情報の変化を検出する。そして、CPU22の判断機能は、この比較の結果、輝度情報の変化を検出した場合は、判断対象とした画像14a中の方向指示器は点灯していると判断し、また反対に、輝度情報の変化を検出しない場合は、判断対象とした画像14a中の方向指示器は消灯していると判断する。
すなわち、本実施形態において、CPU22の判断機能は、図13に示す画像14a′中のBの位置(図12の方向指示器7aの位置に相当する位置)の輝度cから、図14に示す判断対象とした画像14a中のBの位置(図12の方向指示器7aの位置に相当する位置)の輝度c′へ変化したことを検出し、判断対象とした画像14a中における方向指示器7aが点灯していると判断する。なお、CPU22の取得機能は、一対の画像14a,14bを、方向指示器7a,7bが点滅するタイミングに同期して取得することが好適である。このように、方向指示器7a,7bが点滅するタイミングに同期して一対の画像14a,14bを取得することで、輝度情報の変化を適切に検出することができる。
次に、ステップS336では、CPU22の判断機能は、ステップS331で取得した点灯信号から得た点灯している方向指示器の情報と、ステップS335で検出した判断対象とした画像14a中の方向指示器の点灯情報とを比較する。そして、この比較結果に基づいて、ステップS337で、判断対象とした画像14aが、左右一対のカメラ5a,5bのうちのいずれで撮像された画像かを判断する。ここで、点灯信号は、方向指示器7a,7bのいずれかを点灯するための信号であるため、CPU22の判断機能は、点灯信号を取得することにより、点灯している方向指示器を判断することができる。すなわち、本実施形態においては、CPU22の判断機能は、ステップS331で左側方向指示器7aを点灯するための灯火信号を取得することで、左側方向指示器7aが点灯していると判断することができる。そして、ステップS335で得た、判断対象とした画像14a中における方向指示器が点灯しているとの判断結果から、取得した一対の画像14a,14bのうち、判断対象とした画像14aは、左側カメラ5aで撮像した画像であると判断する。そして、CPU22の判断機能は、他方の画像14bは、右側カメラ5bで撮像した画像と判断する。
次に、ステップS338において、CPU22の判断機能は、判断対象とした画像14aを一時的にRAM23に記憶する。この記憶した画像14aを用いて、次回判断対象となる画像における輝度情報の変化を検出することができる。
なお、取得された一対の画像のうち判断対象とした一方の画像14a,14bが、図12に示す画像14aであり、取得した点灯信号が右側方向指示器7bを点灯するための信号である場合も、CPU22の判断機能は、上述したようにステップS331からステップS338までの処理を行う。すなわち、CPU22の判断機能は、判断対象とした画像14aおよび画像14a′中の輝度の変化を検出しないため、取得した一対の画像14a,14bのうち、判断対象とした画像14aは、点灯信号により点灯している右側方向指示器7bと反対側の左側方向指示器7aを撮像する左側カメラ5aで撮像した画像であると判断する。そして、他方の画像14bは、右側カメラ5bで撮像された画像であると判断する。
一対の画像14a,14bについて、左右一対のカメラ5a,5bのいずれで撮像した画像であるか判断した後は、第1実施形態と同様に、再び図4のフローチャートに戻り、ステップS4以降の処理を行う。すなわち、左右一対のカメラ5a,5bで撮像した画像であるか判断された一対の画像14a,15bに補助線11,12を合成し(ステップS4)、合成した画像を表示に適した形式に変換し(ステップS5)、変換した画像をディスプレイ10に備えられた表示画面に表示する(ステップS6)。
第3実施形態によれば、上述した第1実施形態の効果に加えて、次の効果を奏する。すなわち、左右一対のカメラ5a,5bでタイヤや撮像対象物を検出することができない場合であっても、CPU8から点灯信号を受け取り、この点灯信号と、判断対象とした画像、およびこの判断対象とした画像と同じカメラで撮像した画像であり、この判断対象とした画像よりも前の時系列で撮像した画像で検出した輝度情報の変化を比較することにより、判断対象とした画像が、左右一対のカメラ5a,5bのいずれで撮像した画像であるかを判断することができる。
なお、第3実施形態において、同じカメラ5aで撮像された画像であって、撮像タイミングの異なる画像である、画像14aおよび画像14a′中の輝度情報の変化を検出することで、方向指示器の点灯を検出する方法を例示しているが、方向指示器の点灯の検出方法はこの方法に限定されない。例えば、方向指示器の消灯時の輝度情報を予めROM21に記憶しておき、この記憶した方向指示器が消灯時の画像および撮像対象とした画像中の輝度情報の変化を検出することで、方向指示器の点灯を検出することが挙げられる。
≪第4実施形態≫
本発明の第4実施形態について説明する。第4実施形態においても、図1に示す第1実施形態と同様の車両1において、以下に説明するとおり、図4に示す監視制御方法を、図15に示すフローチャートに従って行う。ここで、図15は、第4実施形態における画像判断処理を示すフローチャートである。また、図16は、第4実施形態における左側カメラ5aで撮像した画像14aを示す図であり、図17は、第4実施形態における右側カメラ5bで撮像した画像14bを示す図である。
以下、本発明の第4実施形態に係る動作を説明する。
まず、ドアミラーケース6a,6b内に設けられた左右一対のカメラ5a,5bで、車両1のタイヤ3aの周辺およびタイヤ3bの周辺を撮像する(図4のステップS1)。撮像された一対の画像14a,14bは、画像処理装置2に送られ、CPU22の取得機能により取得される(図4のステップS2)。引き続き、第4実施形態では、ステップS3の画像判断処理を、図15に示すフローチャートに従って行う。
すなわち、ステップS341において、CPU22の判断機能は、操舵角センサ9から絶対舵角を取得し、この絶対舵角に基づいて車両1が転舵しようとしている方向を判断する。第4実施形態の画像判断処理の説明において、車両1が左方向に転舵した場合を例示して説明する。この場合、操舵角センサ9は図示しないステアリングの絶対舵角をCPU22に送り、CPU22の判断機能は、この絶対舵角に基づいて、車両1が左方向に転舵しようとしていると判断する。
次に、ステップS342において、CPU22の判断機能は、取得機能により取得された一対の画像のうち、一方の画像14a,14bを判断対象として取得する。なお、第4実施形態の画像判断処理の説明においても、図16に示す左側カメラ5aで撮像した画像14aを判断対象とした場合を例示して説明する。
次に、ステップS343では、CPU22の判断機能は、ROM21に予め記憶されている車両1の直進時に撮像した画像におけるタイヤの占める割合である直進時側輪占有割合を読み込む。この割合は、判断対象とした画像を撮像するカメラで、予め撮像した画像におけるタイヤの占める割合であり、後述する転舵時側輪占有割合の増減の基準となる割合である。
次に、ステップS344では、判断対象とした画像14aにおけるタイヤ3aの占める転舵時側輪占有割合を検出する。上述したように、判断対象とした画像14aは絶対舵角を取得した時点または取得直後に撮像された画像であるので、画像14aは車両1の転舵時の画像となる。CPU22の判断機能は、判断対象とした画像14a中からタイヤ3aを検出し、判断対象とした画像14a中におけるタイヤ3aの占める割合を転舵時側輪占有割合として算出する。なお、画像中におけるタイヤの検出方法は、一般的な方法を用いて行えば良く、例えば、画像14aからエッジを検出することで、タイヤを検出することができる。
そして、ステップS345では、直進時側輪占有割合と比べた転舵時側輪占有割合の増減を判断する。ここで、車両1が左方向に転舵する場合は、図16に示すように、車両1の転舵方向である左方向にあるタイヤ3aは、車両1の転舵方向である左方向に傾くため、画像中におけるタイヤ3aの占める割合は、直進時に撮像した画像中におけるタイヤ3aの占める割合と比べ、増えることとなる。また反対に、車両1が左方向に転舵する場合は、図17に示すように、車両1の転舵方向である左方向と反対方向である右方向にあるタイヤ4bは、車両1の転舵方向である左方向に傾くため、画面中におけるタイヤ3bの占める割合は、直進時に撮像した画像中におけるタイヤ3bの占める割合と比べ、減ることとなる。このように、直進時側輪占有割合と比べた転舵時側輪占有割合の増減を検出することで、判断対象とした画像14aが、車両1の転舵方向を撮像するカメラで撮像した画像か、車両の転舵方向と反対方向を撮像するカメラで撮像した画像かを判断することができる。
ステップS346では、ステップS341で取得した絶対舵角から得られた車両1が転舵しようとする方向と、ステップS345で判断した直進時側輪占有割合と比べた転舵時側輪占有割合の増減結果とを比較し、ステップS347で、判断対象とした画像14aが、左右一対のカメラ5a,5bのうちのいずれで撮像された画像かを判断する。
本実施形態においては、CPU22の判断機能は、操舵角センサ9から取得した絶対舵角に基づいて、車両1は左方向へ転舵していると判断する。そして、図16に示す判断対象とした画像14aの転舵時側輪占有割合は、直進時側輪占有割合よりも増加しているため、CPU22の判断機能は、一対の画像14a,14bのうち、判断対象とした画像14aは、車両1の転舵方向である左方向を撮像する左側カメラ5aで撮像した画像であると判断する。そして、他方の画像14bは、右側カメラ5bで撮像した画像であると判断する。
なお、取得された一対の画像のうち判断対象とされた一方の画像が、図17に示す画像14bであった場合も、CPU22の判断機能は、上述したようにステップS341からステップS347までの処理を行う。そして、絶対舵角から車両1が左方向へ転舵していると判断した場合は、CPU22の判断機能は、図17に示すように、直進時側輪占有割合と比べ転舵時側輪占有割合が減少したと判断し、一対の画像14a,14bのうち、判断対象とした画像14bは、車両1が転舵している方向である左方向と反対方向の右方向を撮像する右側カメラ5bで撮像した画像であると判断する。そして、他方の画像14aは、左側カメラ5aで撮像された画像であると判断する。
一対の画像14a,14bについて、左右一対のカメラ5a,5bのいずれで撮像した画像であるか判断した後は、第1実施形態と同様に、再び図4のフローチャートに戻り、ステップS4以降の処理を行う。すなわち、左右一対のカメラ5a,5bで撮像した画像であるか判断された一対の画像14a,15bに補助線11,12を合成し(ステップS4)、合成した画像を表示に適した形式に変換し(ステップS5)、変換した画像をディスプレイ10に備えられた表示画面に表示する(ステップS6)。
第4実施形態によれば、上述した第1実施形態の効果に加え、次の効果を奏する。すなわち、直進時側輪占有割合に対する転舵時側輪占有割合と増減と操舵角センサ9から取得した絶対舵角から判断される車両1の転舵方向とを一致させることで、判断対象とした画像が左右一対のカメラ5a,5bのいずれで撮像した画像であるかをより正確に判断するができる。
なお、本発明においては、第1実施形態から第4実施形態で説明した画像判断処理を組み合わせて、判断対象とした画像が左右一対のカメラ5a,5bのいずれで撮像した画像であるかを判断してもよい。
また、上述した実施形態のカメラ5a,5bは本発明の撮像手段に、ROM21は本発明の補助線記憶手段および直進時側輪占有割合記憶手段に、CPU22の補助線生成機能は本発明の補助線生成手段に、CPU22の取得機能は本発明の取得手段に、CPU22の判断機能は本発明の判断手段に、CPU22の合成機能は本発明の合成手段に、および、ディスプレイ10は表示手段に、それぞれ相当する。
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
本実施形態に係る車両1の構成を示すブロック図である。 左側カメラ5aで撮像された画像14aに、左側補助線11を重ね合わせた左側合成画像13aを示す図である。 右側カメラ5aで撮像された画像14bに、右側補助線12を重ね合わせた右側合成画像13bを示す図である。 本発明の実施形態に係る監視制御方法を示すフローチャートである。 第1実施形態における画像判断処理を示すフローチャートである。 第1実施形態における左側カメラ5aで撮像した画像14aを示す図である。 第1実施形態における右側カメラ5bで撮像した画像14bを示す図である。 第2実施形態における画像判断処理を示すフローチャートである。 第2実施形態における左側カメラ5aで撮像した画像14aを示す図である。 第2実施形態における右側カメラ5bで撮像した画像14bを示す図である。 第3実施形態における画像判断処理を示すフローチャートである。 第3実施形態における左側カメラ5aで撮像した画像14aを示す図である 左側方向指示器7aが点灯していない画像14a′の輝度情報を示すグラフである。 左側方向指示器7aが点灯している図12で示す画像14aの輝度情報を示すグラフである。 第4実施形態における画像判断処理を示すフローチャートである。 第4実施形態における左側カメラ5aで撮像した画像14aを示す図である。 第4実施形態における右側カメラ5bで撮像した画像14bを示す図である。
符号の説明
1…車両
2…画像処理装置
21…ROM
22…CPU
23…RAM
3a,3b,4a,4b…タイヤ
5a,5b…カメラ
6a,6b…ドアミラーケース
7a,7b…方向指示器
8…灯火制御装置(CPU)
9…車速センサ
10…ディスプレイ
11…左側補助線
12…右側補助線
14a…左側輪の周辺を撮像した画像
15a…左半分領域
16a…右半分領域
14b…右側輪の周辺を撮像した画像
15b…左半分領域
16b…右半分領域

Claims (12)

  1. 車両の左側輪の周辺と、車両の右側輪の周辺とを、それぞれ撮像する一対の撮像手段と、
    前記一対の撮像手段により撮像された画像のうち、一方の画像に合成される第1補助線を記憶する補助線記憶手段と、
    前記一対の撮像手段により撮像された画像のうち、他方の画像に合成される第2補助線を、前記補助線記憶手段に記憶された第1補助線に基づいて生成する補助線生成手段と、
    前記一対の撮像手段により撮像された一対の画像を取得する取得手段と、
    前記取得手段により取得された一対の画像のうち、一方の画像を判断対象とし、当該判断対象とした画像が、前記車両の左側輪の周辺および右側輪の周辺のいずれを撮像した画像であるかを判断する判断手段と、
    前記一対の画像に、前記第1、第2補助線をそれぞれ合成する合成手段と、
    前記第1、第2補助線が合成された一対の画像のうち、少なくとも一方を表示する表示手段と、を有し、
    前記合成手段は、前記判断手段における判断結果に基づいて、前記一対の画像のうち、判断対象とした前記画像に前記第1補助線または前記第2補助線のうち一方を合成するとともに、前記判断手段により判断対象としなかった他方の画像については、判断対象とした前記画像に前記第1補助線を合成した場合には、前記第2補助線を合成し、判断対象とした前記画像に前記第2補助線を合成した場合には、前記第1補助線を合成することを特徴とする車両周辺監視装置。
  2. 請求項1に記載の車両周辺監視装置であって、
    前記判断手段は、前記判断対象とした画像中における側輪の位置情報に基づいて、前記判断対象とした画像が、前記車両の左側輪の周辺および右側輪の周辺のいずれを撮像した画像であるかを判断することを特徴とする車両周辺監視装置。
  3. 請求項2に記載の車両周辺監視装置であって、
    前記判断手段は、
    前記判断対象とした画像中における側輪が、当該画像中の左半分領域および右半分領域のどちらに位置するかを判断することにより、
    前記判断対象とした画像が、前記車両の左側輪の周辺および右側輪の周辺のいずれを撮像した画像であるかを判断することを特徴とする車両周辺監視装置。
  4. 請求項3に記載の車両周辺監視装置であって、
    前記判断手段は、
    前記判断対象とした画像中における側輪が、当該画像中の右半分領域に位置する場合は、前記判断対象とした画像は、前記車両の左側輪の周辺を撮像した画像であると判断し、
    前記判断対象とした画像中における側輪が、当該画像中の左半分領域に位置する場合は、前記判断対象とした画像は、前記車両の右側輪の周辺を撮像した画像であると判断することを特徴とする車両周辺監視装置。
  5. 請求項1〜4の何れかに記載の車両周辺監視装置であって、
    前記判断手段は、
    前記車両の移動により移動する撮像対象物が記録される領域である移動領域を検出し、
    当該画像中の左半分領域における前記移動領域の占める割合と、当該画像中の右半分領域における前記移動領域の占める割合とを比較することにより、前記判断対象とした画像が、前記車両の左側輪の周辺および右側輪の周辺のいずれを撮像した画像であるかを判断することを特徴とする車両周辺監視装置。
  6. 請求項5に記載の車両周辺監視装置であって、
    前記判断手段は、
    前記左半分領域における移動領域の占める割合が前記右半分領域における移動領域の占める割合よりも高い場合は、前記判断対象とした画像は、前記車両の左側輪の周辺を撮像した画像であると判断し、
    前記右半分領域における前記移動領域の占める割合が前記左半分領域における前記移動領域の占める割合よりも高い場合は、前記判断対象とした画像は、前記車両の右側輪の周辺を撮像した画像であると判断することを特徴とする車両周辺監視装置。
  7. 請求項1〜6の何れかに記載の車両周辺監視装置であって、
    前記判断手段は、
    前記車両の左側および右側に設置された一対の方向指示器のうち少なくても一方の方向指示器を点灯させるための信号である点灯信号を検出した場合に、
    前記判断対象とした画像中の方向指示器の点灯の有無を検出し、
    前記通知信号および前記判断対象とした画像中の方向指示器の点灯の有無に基づいて、前記判断対象とした画像が、前記車両の左側輪の周辺および右側輪の周辺のいずれを撮像した画像であるかを判断することを特徴とする車両周辺監視装置。
  8. 請求項7に記載の車両周辺監視装置であって、
    前記判断手段は、
    前記判断対象とした画像中に記録された方向指示器の点灯を検出した場合には、前記判断対象とした画像は、前記車両の左側輪の周辺および右側輪の周辺を撮像した画像のうち、前記点灯信号により点灯された方向指示器が設置されている側の前記車両の側輪の周辺を撮像した画像であると判断し、
    前記判断対象とした画像中に記録された方向指示器の点灯を検出しなかった場合には、前記判断対象とした画像は、前記車両の左側輪の周辺および右側輪の周辺を撮像した画像のうち、前記点灯信号により点灯された方向指示器が設置されている側と反対側の前記車両の側輪の周辺を撮像した画像であると判断することを特徴とする車両周辺監視装置。
  9. 請求項1〜8の何れかに記載の車両周辺監視装置であって、
    車両直進時に前記判断対象とした画像において側輪が占める割合である直進時側輪占有割合を記憶する直進時側輪占有割合記憶手段をさらに有し、
    前記判断手段は、
    車輪の転舵に関する転舵情報を取得した場合に、車両転舵時に前記判断対象とした画像において側輪が占める割合である転舵時側輪占有割合と、前記直進時側輪占有割合記憶手段により記憶された前記直進時側輪占有割合とを比較し、
    当該比較の結果と前記取得した転舵情報とに基づき、前記判断対象とした画像が、前記車両の左側輪の周辺および右側輪の周辺のいずれを撮像した画像であるかを判断することを特徴とする車両周辺監視装置。
  10. 請求項9に記載の車両周辺監視装置であって、
    前記判断手段は、
    前記転舵時側輪占有割合が前記直進時側輪占有割合よりも高い場合には、前記判断対象とした画像が、前記車両の左側輪の周辺および右側輪の周辺を撮像した画像のうち、前記転舵情報から得た前記車両が転舵しようとする側の前記車両の側輪の周辺を撮像した画像であると判断し、
    前記転舵時側輪占有割合が前記直進時側輪占有割合よりも低い場合には、前記判断対象とした画像が、前記車両の左側輪の周辺および右側輪の周辺を撮像した画像のうち、前記転舵情報から得た前記車両が転舵しようとする側と反対側の前記車両の側輪の周辺を撮像した画像であると判断することを特徴とする車両周辺監視装置。
  11. 請求項1〜10の何れかに記載の車両周辺監視装置であって、
    前記撮像手段はドアミラーケース内に設置した撮像装置であることを特徴とする車両周辺監視装置。
  12. 車両の左側輪周辺および右側輪周辺を一対の撮像手段によりそれぞれ撮像し、
    撮像した一対の画像のうち一方の画像を用いて、該画像が左側輪周辺および右側輪周辺のいずれを撮像した画像かを判断し、
    この判断に基づき、一対の画像に、予め記憶されている第1補助線または該補助線から生成された第2補助線を、それぞれ合成する車両周辺監視方法。
JP2008288988A 2008-11-11 2008-11-11 車両周辺監視装置および車両周辺監視方法 Active JP5109937B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008288988A JP5109937B2 (ja) 2008-11-11 2008-11-11 車両周辺監視装置および車両周辺監視方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008288988A JP5109937B2 (ja) 2008-11-11 2008-11-11 車両周辺監視装置および車両周辺監視方法

Publications (2)

Publication Number Publication Date
JP2010118764A true JP2010118764A (ja) 2010-05-27
JP5109937B2 JP5109937B2 (ja) 2012-12-26

Family

ID=42306150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008288988A Active JP5109937B2 (ja) 2008-11-11 2008-11-11 車両周辺監視装置および車両周辺監視方法

Country Status (1)

Country Link
JP (1) JP5109937B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012215914A (ja) * 2011-03-31 2012-11-08 Mitsubishi Electric Corp 車線逸脱判定装置、車線逸脱警報装置及びナビゲーション装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001006097A (ja) * 1999-06-25 2001-01-12 Fujitsu Ten Ltd 車両の運転支援装置
JP2008003941A (ja) * 2006-06-23 2008-01-10 Nissan Motor Co Ltd 道路端認識装置、自動車、及び道路端認識方法
JP2008049889A (ja) * 2006-08-25 2008-03-06 Denso Corp 駐車支援装置
JP2008077628A (ja) * 2006-08-21 2008-04-03 Sanyo Electric Co Ltd 画像処理装置並びに車両周辺視界支援装置及び方法
JP2008128867A (ja) * 2006-11-22 2008-06-05 Denso Corp タイヤ向き特定装置
JP2008205644A (ja) * 2007-02-16 2008-09-04 Fujitsu Ltd 画像処理装置及び画像処理方法
JP2008236507A (ja) * 2007-03-22 2008-10-02 Alpine Electronics Inc 車両運転支援装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001006097A (ja) * 1999-06-25 2001-01-12 Fujitsu Ten Ltd 車両の運転支援装置
JP2008003941A (ja) * 2006-06-23 2008-01-10 Nissan Motor Co Ltd 道路端認識装置、自動車、及び道路端認識方法
JP2008077628A (ja) * 2006-08-21 2008-04-03 Sanyo Electric Co Ltd 画像処理装置並びに車両周辺視界支援装置及び方法
JP2008049889A (ja) * 2006-08-25 2008-03-06 Denso Corp 駐車支援装置
JP2008128867A (ja) * 2006-11-22 2008-06-05 Denso Corp タイヤ向き特定装置
JP2008205644A (ja) * 2007-02-16 2008-09-04 Fujitsu Ltd 画像処理装置及び画像処理方法
JP2008236507A (ja) * 2007-03-22 2008-10-02 Alpine Electronics Inc 車両運転支援装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012215914A (ja) * 2011-03-31 2012-11-08 Mitsubishi Electric Corp 車線逸脱判定装置、車線逸脱警報装置及びナビゲーション装置

Also Published As

Publication number Publication date
JP5109937B2 (ja) 2012-12-26

Similar Documents

Publication Publication Date Title
JP5421072B2 (ja) 接近物体検知システム
JP5099451B2 (ja) 車両周辺確認装置
JP4412380B2 (ja) 運転支援装置、運転支援方法及びコンピュータプログラム
WO2011108039A1 (ja) 障害物検知装置およびそれを備えた障害物検知システム、並びに障害物検知方法
JP2010184607A (ja) 車両周辺表示装置
JP2009206747A (ja) 車両用周囲状況監視装置及び映像表示方法
WO2011043030A1 (ja) 車両用周囲監視装置
JP2008141578A (ja) 車両周辺視認装置
JP2006131213A (ja) 自動二輪車の後方視認装置
JP2008100596A (ja) 後方視認装置
JP2013017024A (ja) 車両接近物検知装置
JP2009023471A (ja) 車両情報表示装置
JP2006054662A (ja) 運転支援装置
JP2006238131A (ja) 車両周辺監視装置
JP2009056848A (ja) 運転支援装置
JP4857159B2 (ja) 車両運転支援装置
JP5109937B2 (ja) 車両周辺監視装置および車両周辺監視方法
JP2007251880A (ja) 車両用画像表示装置および画像合成方法
JP2010237798A (ja) 画像処理装置および画像処理プログラム
JP2012166689A (ja) 運転支援装置
JP2007329611A (ja) 車両周辺監視装置、車両周辺監視システム、および車両周辺監視方法
JP2008042759A (ja) 画像処理装置
JP2011159186A (ja) 運転支援装置及び運転支援装置の制御方法
JP2008182312A (ja) 撮像画像表示装置
JP2007317128A (ja) 移動距離検出装置及び移動距離検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120924

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5109937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150