JP2007057331A - 車載霧判定装置 - Google Patents

車載霧判定装置 Download PDF

Info

Publication number
JP2007057331A
JP2007057331A JP2005241653A JP2005241653A JP2007057331A JP 2007057331 A JP2007057331 A JP 2007057331A JP 2005241653 A JP2005241653 A JP 2005241653A JP 2005241653 A JP2005241653 A JP 2005241653A JP 2007057331 A JP2007057331 A JP 2007057331A
Authority
JP
Japan
Prior art keywords
vehicle
road
fog
determination
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005241653A
Other languages
English (en)
Inventor
Naoteru Kawasaki
直輝 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2005241653A priority Critical patent/JP2007057331A/ja
Publication of JP2007057331A publication Critical patent/JP2007057331A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車載カメラによって撮像された画像に基づいて精度よく霧判定することができる車載霧判定装置を提供する。
【解決手段】車載カメラによって撮像された画像内において車両が走行している道路領域を決定し、その道路領域内において車両から所定距離遠方にある遠方路面領域Df、および、その道路領域内において自車近傍の領域である近距離路面領域Dsの輝度中央値をそれぞれ決定する(S310、S320)。さらに、画像内における空の輝度を決定し(S330)、遠方路面領域Dfの輝度中央値の、近距離路面領域Dsの輝度中央値および空の輝度に対する相対的大きさを表す相対輝度値を算出する(S340)。そして、その相対輝度値が所定の判定基準値を超えている場合には、霧と判定する。
【選択図】図9

Description

本発明は、車載カメラによって撮像された画像から霧判定する車載霧判定装置に関する。
カメラによって撮像された画像を解析して霧判定を行う方法が知られている。たとえば、特許文献1に記載されている方法がそれである。なお、特許文献1に記載の方法は、霧であるか否か、すなわち視程が所定距離以下であるか否かを判定するのではなく、より具体的に、視程距離を計測する方法である。
特許文献1に記載の方法は、視程を計測しようとする地点にカメラを設け、そのカメラによって撮像された画像全体の輝度分布の標準偏差を求めている。そして、その標準偏差を、予め求めておいた輝度分布の標準偏差と視程との関係を表す相関直線に当てはめることによって、視程を算出している。また、上記相関直線は、その地点で種々の条件下で画像を撮像してその画像の輝度分布の標準偏差を求めるとともに、反射型視程計を用いて視程を計測することによって求めている。
特開平8−219784号公報
近年、車両にもカメラが搭載可能となってきているので、車載カメラによって撮像された画像を用いて霧判定することが望まれている。車載カメラによって撮像された画像を用いて霧判定することができれば、その判定結果に基づいてフォグランプを自動的に点灯させる等の制御が可能になる。
そこで、車載カメラによって撮像された画像に対して特許文献1に記載された方法を適用して霧判定を行うことが考えられる。しかし、車載カメラによって撮像される画像は、車両の走行に伴って撮像範囲(景色)が変化する。そのため、全く霧が生じていないとしても輝度分布の標準偏差は変化することになる。従って、特許文献1の方法を車載カメラに適用すると、精度よく霧判定ができない可能性が高い。
本発明は、この事情に基づいて成されたものであり、その目的とするところは、車載カメラによって撮像された画像に基づいて精度よく霧判定することができる車載霧判定装置を提供することにある。
その目的を達成するための請求項1記載の発明は、車両に搭載された車載カメラにより撮像された画像に基づいて霧判定を行う霧判定手段を備えた車載霧判定装置であって、前記車載カメラによって撮像された画像内において前記車両が走行している道路領域を決定する道路領域決定手段と、その道路領域決定手段によって決定された道路領域に基づいて、前記画像内において前記車両から所定距離遠方にある路面領域である遠方路面領域を決定する遠方路面領域決定手段とを備え、前記霧判定手段は、その遠方路面領域決定手段によって決定された遠方路面領域の輝度に基づいて霧判定を行うことを特徴とする。
この請求項1に記載の発明によれば、遠方路面領域の輝度に基づいて霧判定を行っており、路面は通常黒色であることから、路面の輝度は車両走行に伴ってそれほど大きく変化しない(異なる道路間でそれほど大きく異ならない)。従って、路面領域の輝度に基づいて霧判定を行えば精度よく霧判定を行うことができる。なお、霧判定を行うための路面領域を遠方路面領域、すなわち車両から所定距離遠方にある路面領域としているのは、車両からの距離が近すぎると、霧であっても、輝度は霧でないときとそれほど変わらないからである。
ここで、好ましくは、請求項2に記載のように、前記霧判定手段において用いる遠方路面領域の輝度として、前記遠方路面領域の水平方向の輝度中央値を用いる。遠方路面領域の一部に黒色の路面以外のもの(たとえば道路標示)が含まれているとしても、水平方向の輝度中央値は黒色の路面の輝度を表している可能性が高いので、霧判定の精度が向上する。
請求項1の霧判定手段においては、予め設定された一つまたは複数の基準輝度と、遠方路面領域の輝度とを比較して霧判定を行ってもよいが、路面の黒さは場所によって多少異なる。そこで、請求項3のようにすることが好ましい。
すなわち、請求項3に記載の発明は、請求項1または2に記載の車載霧判定装置において、前記道路領域決定手段によって決定された道路領域に基づいて、前記画像内において前記遠方路面領域よりも車両に近い近距離路面領域を決定する近距離路面領域決定手段をさらに備え、前記霧判定手段は、前記遠方路面領域の輝度と前記近距離路面領域の輝度との比較に基づいて霧判定を行うことを特徴とする。
道路の色は場所によって多少異なることもあるが、車載カメラによって撮像される狭い範囲内での道路の色は、車両からの距離に関らず、通常、同一である。また、前述のように、車両に近い側は、霧であるときと霧でないときとの輝度変化が少ない。従って、請求項3のように、遠方路面領域の輝度と近距離路面領域の輝度とを比較すると、霧でないときは互いの輝度は比較的近くなる一方、霧のときは互いの輝度は比較的大きく異なる。従って、霧判定の精度がより向上する。
また、上記近距離路面領域決定手段は、請求項4記載のように、前記道路領域決定手段によって決定された道路領域と、前記画像内において自車近傍が撮像されている範囲として予め設定された近距離範囲とに基づいて、前記近距離路面領域を決定するものであることが好ましい。このようにすれば、近距離路面領域が自車近傍の路面領域となることから、その近距離路面領域の輝度は、霧の影響による変化が特に少なくなる。従って、霧であるときには、遠方路面領域の輝度と近距離路面領域の輝度との違いが大きくなるので、霧判定の精度がより一層向上する。なお、画像内における自車近傍とは、画像内における自車のボンネットの直上などを意味するが、霧による画像輝度の変化がほとんどない距離であれば、多少、自車から離れていても自車近傍に含まれ、たとえば、自車から50m先の領域などであってもよい。
また、請求項5に記載のように、前記霧判定手段において用いる近距離路面領域の輝度として、前記近距離路面領域の水平方向の輝度中央値を用いることが好ましい。このようにすれば、近距離路面領域の一部に黒色の路面以外のものが含まれているとしても、水平方向の輝度中央値は黒色の路面の輝度を表している可能性が高いので、霧判定の精度が向上する。
また、遠方路面領域の輝度を、近距離路面領域の輝度と比較するのではなく、請求項6のように、画像内の空の輝度と比較してもよい。すなわち、請求項6に記載の発明は、請求項1または2に記載の車載霧判定装置において、前記車載カメラによって撮像された画像内の予め定められた上辺部分の輝度に基づいて、画像内の空の輝度を決定する空輝度決定手段をさらに備え、前記霧判定手段は、前記遠方路面領域の輝度と、空輝度決定手段によって決定された空の輝度との比較に基づいて霧判定を行うことを特徴とする。
霧であって遠方の路面が見えにくくなっている状況では、空の色と遠方路面領域の色とが似てくる。従って、請求項6のように、遠方路面領域の輝度を、空の輝度と比較することによって霧判定することができるのである。また、このように空の輝度を比較基準として用いると、晴天であるか曇天であるかなどの天候の変化などによって空の輝度(および霧である場合には霧がかかっている部分の輝度)が変化しても、その空の輝度の変化に影響されずに、精度よく霧判定を行うことができる。
また、請求項7のように、遠方領域の輝度と、近距離路面領域の輝度と、空の輝度とを用いて霧判定することがより好ましい。すなわち、請求項7に記載の発明は、請求項3乃至5のいずれかに記載の車載霧判定装置において、前記車載カメラによって撮像された画像内の予め定められた上辺部分の輝度に基づいて、画像内の空の輝度を決定する空輝度決定手段をさらに備え、前記霧判定手段は、前記遠方路面領域の輝度と、前記近距離路面領域決定手段によって決定された近距離路面領域の輝度と、前記空輝度決定手段によって決定された空の輝度との比較に基づいて霧判定を行うことを特徴とする。
このように、前記遠方路面領域の輝度と、近距離路面領域の輝度と、空の輝度とを比較すれば、より精度よく霧判定を行うことができる。
また、好ましくは、請求項8のように、車載霧判定装置は、前記道路領域決定手段によって決定された道路領域内における輝度変化に基づいて、その道路領域内において、水平方向の少なくとも一部に道路標示が表示されている垂直座標である道路標示垂直座標を決定する道路標示座標決定手段、および、前記車載カメラにより撮像された画像内における前方車両の存在を判定するとともに、前方車両が存在すると判定した場合には、その前方車両の座標範囲を決定する前方車両判定手段、の少なくとも一方を備え、前記霧判定手段は、前記道路標示座標決定手段によって決定された道路標示垂直座標、または前記前方車両判定手段によって決定された前方車両の座標範囲が、前記遠方路面領域の垂直座標と重なる場合には、霧判定を行わないようになっている。
遠方路面領域に道路標示が含まれていると、道路標示は路面よりも輝度が明るいことから、その道路標示の存在によって、遠方路面領域の輝度は全体として霧でなくても白色の輝度に近くなる。また、遠方路面領域に車両が含まれている場合にも同様に、車両は通常路面よりも輝度が明るいことから、その車両の存在によって、遠方路面領域の輝度は全体として霧でなくても白色の輝度に近くなる。そのため、いずれの場合にも、誤判定をする可能性が高くなる。そこで、請求項8のように、道路標示垂直座標または前方車両の座標範囲が遠方路面領域の垂直座標と重なる場合には、霧判定を行わないようにすることで、誤判定を防止できる。
また、遠方路面領域だけでなく、近距離路面領域についても、同様のことが言える。そこで、好ましくは、請求項9に記載のように、車載霧判定装置は、前記道路領域決定手段によって決定された道路領域内における輝度変化に基づいて、その道路領域内において、水平方向の少なくとも一部に道路標示が表示されている垂直座標である道路標示垂直座標を決定する道路標示座標決定手段、および、前記車載カメラにより撮像された画像内における前方車両の存在を判定するとともに、前方車両が存在すると判定した場合には、その前方車両の座標範囲を決定する前方車両判定手段、の少なくとも一方を備え、前記霧判定手段は、前記道路標示座標決定手段によって決定された道路標示垂直座標、または前記前方車両判定手段によって決定された前方車両の座標範囲が、前記近距離路面領域の垂直座標と重なる場合には、霧判定を行わないようになっている。
このように、道路標示垂直座標または前方車両の座標範囲が近距離路面領域の垂直座標と重なる場合にも、霧判定を行わないようにすると、誤判定を防止できる。
上記道路標示座標決定手段は、請求項10に記載のように、前記道路領域決定手段によって決定された道路領域において水平方向の輝度分布値が所定の上限分布値を超えている垂直方向座標を、道路標示垂直座標として決定するものとすることができる。
また、道路標示座標決定手段は、請求項11に記載のように、前記道路領域決定手段によって決定された道路領域において、水平方向の輝度平均値の垂直方向変化値または水平方向の輝度分布値の垂直方向変化値が、所定の正常変動範囲を超えていることに基づいて、前記道路標示垂直座標を決定するものであってもよい。なお、請求項10および11における水平方向の輝度分布値とは、輝度の水平方向におけるばらつきの程度を表す値であり、たとえば、分散や標準偏差が含まれる。また、変化値とは、たとえば、変化量や変化率などの変化の程度を表す値を意味する。
また、請求項12に記載の発明は、車両前方に向けて信号波を出力するとともに、その信号波の反射波を受信する信号波送受信機をさらに備え、前記前方車両判定手段は、その信号波送受信機によって受信された反射波に基づいて前記前方車両の存在を判定するものであることを特徴とする。このようにすれば、精度よく前方車両の存在を判定することができる。
また、請求項13に記載の発明は、請求項1乃至12のいずれかに記載の車載霧判定装置において、前記道路領域決定手段は、前記車載カメラによって撮像された画像から、道路に沿って設けられている道路上標識を検出し、検出した道路上標識の位置に基づいて前記車両が走行している道路領域を決定するものであることを特徴とする。
このように、道路上標識の位置に基づいて道路領域を決定すれば、道路上標識は道路に沿って設けられているものであるので、道路領域を精度よく決定することができる。
また、霧判定手段は、一時点において撮像された画像のみを用いて霧判定を行ってもよいが、一時点の画像のみを用いる場合、たまたまその画像が誤判定をしてしまうような画像であることもある。そこで、好ましくは、請求項14記載のように、前記霧判定手段は、前記車載カメラによって撮像された複数の時点における遠方路面領域の画像に基づいて、霧判定を行うようにする。このようにすれば、霧判定の精度が向上する。
また、好ましくは、請求項15記載のように、前記霧判定手段は、霧判定を繰り返し行い、且つ、前回の判定において霧であると判定されている場合には、前回の判定で霧と判定されていない場合よりも、霧であると判定されやすくなっているようにする。
霧判定を繰り返し行う場合において、前回の判定結果に関係なく同一判定基準を用いるとすると、比較的薄い霧のときは、判定結果が短時間のうちに繰り返し変動してしまうことも考えられるが、それでは、判定結果をその後の制御(たとえば、フォグランプの自動点灯など)に利用する場合に不都合が生じる。それに対して、請求項15のようにすれば、比較的薄い霧のときにも、判定結果が短時間のうちに繰り返し変動してしまうことが少なくなるので、判定結果に基づいてさらに制御を行う場合の上記不都合が解消される。
以下、本発明の車載霧判定装置の実施の形態を、図面に基づいて説明する。図1は、本発明が適用された車載霧判定装置10の構成を示すブロック図である。
車載霧判定装置10は、車載カメラ12、画像処理ECU14、ヨーレートセンサ16、ステアリングセンサ18、ミリ波レーダ20、車速センサ22を備えており、それらが車内LAN24によって相互に接続されている。また、この車内LAN24には、運転支援制御ECU26およびライト制御ECU28も接続されている。
上記車載カメラ12は、CCDカメラによって構成されており、その取り付け位置は、車両の内部、たとえば運転席近傍の天井とされている。この車載カメラ12によって、車両前方の画像が連続的に撮像され、撮像された画像のデータは、画像処理ECU14において処理される。
画像処理ECU14は、図示しない内部にCPU、ROM、RAM等を備えたコンピュータであり、そのRAMには、車載カメラ12によって連続的に撮像される一定時間分の画像のデータが一時的に記憶される。そして、CPUは、ROMに記憶されたプログラムに従って、そのRAMに記憶された画像データに対して図2に示す処理を実行する。このCPUの処理については後述する。
ヨーレートセンサ16は車両のヨーレートを逐次検出し、ステアリングセンサ18は、ステアリングの操舵角を逐次検出する。また、ミリ波レーダ20は、信号波送受信機として機能するものであり、車両前方に向けて所定周波数のミリ波を出力し、且つ、対象物からの反射波を受信する。運転支援ECU26は、前方車両検出手段としても機能しており、上記ミリ波レーダ20によって受信された反射波に基づいて、前方車両(自車と同一車線において前方を走行している車両)の有無を連続的に判定し、前方車両を検出した場合にはその前方車両との間の距離、相対方位および相対速度を算出する。さらに、算出したそれらの情報に基づいて、車速制御などの運転支援制御を実行する。
ライト制御ECU28は、画像処理ECU14において霧であると判定された場合に、図示しないフォグランプの点灯・消灯の制御を実行する。
図2は、上記画像処理ECU14の制御機能の要部を示すフローチャートである。図2に示す制御は、走行中に所定の周期で実行するものであり、この制御の実行中には、車載カメラ12によって車両前方の画像が連続的に撮像されている。図3、図4は、車載カメラ12によって撮像されている画像例である。
図2に示すように、上記画像処理ECU14は、まず、道路領域決定手段に相当する道路領域決定処理を実行し(ステップS100)、次いで、判定可否決定処理を実行し(ステップS200)、その後、霧判定手段に相当する霧判定画像処理(ステップS300)を実行する。
上記ステップS100の道路領域決定処理は、図5に詳しく示されている。図5において、まず、ステップS110では、車載カメラ12によって連続的に撮像される画像に基づいて、道路に沿って設けられている道路上標識である白線を認識する白線認識処理を実行する。この白線認識処理としては、公知の様々な処理手法を用いることができるが、たとえば、車載カメラ12によって撮像された画像を二値化処理し、二値化処理後の画像から白色部分を抽出することによって白線を認識する。なお、ここにおける白線は、通常の白線認識処理と同様に、白線のみでなく黄線も含むものである。
上記ステップS110における白線認識処理においては、常に白線が認識できるとは限らず、たとえば、道路に白線が描かれていない等の理由により、白線の認識ができないこともある。そこで、続くステップS120では、白線が認識できたか否かを判断する。
上記ステップS120の判断が肯定された場合には、続くステップS130において、上記ステップS110で認識した白線間の領域を道路領域と認識する。なお、図3および4にも示されているように、自車が走行している車線とは別に対向車線が存在する場合には、白線が3本認識されることになり、また、一方向の車線が複数存在する場合には、さらに多数の白線が認識されることになるが、3本以上の白線が認識された場合には、画像内における白線の位置から、自車が走行している車線を区画する一対の白線を用いて道路領域を決定する。
一方、ステップS120の判断が否定された場合には、ステップS140において、運転支援ECU26において前方車両が検出されているか否かを判断する。この判断が肯定された場合には、運転支援ECU26ではその前方車両との間の距離、相対方位が算出されているので、ステップS150において、運転支援ECU26において算出されている前方車両との間の距離および相対方位に基づいて、その前方車両の画像内における位置を決定する。
続くステップS160では、ステアリングセンサ18からの信号に基づいて操舵角を検出する。そして、ステップS165では、ステップS150で決定した前方車両の画像内における位置と、自車付近において自車が走行している車線の幅方向中心線上にある画像内の所定の自車側端点とを、ステップS160で検出した操舵角に基づいて定まる曲率を有する曲線で結ぶことにより、自車が走行している車線の中心線を決定する。なお、画像内における自車側端点の位置は予め設定されており、自車側端点の位置を予め設定することができるのは、車両は通常、左右の白線にかからないように走行していることから、車線内における自車の幅方向位置は、それほど変化しないからである。
このようにして自車が走行している車線の中心線を決定すれば、車線の幅は道路によらずある一定幅以上あり、また、一定幅で遠方まで延びている車線が画像内では遠方に向かうに従ってどのように幅が変化するのかは予め決定できるので、ステップS170では、上記ステップS165で決定した車線の中心線と予め設定された車線幅とに基づいて道路領域を決定する。
前述のステップS140の判断も否定された場合には、ステップS180乃至S190を実行して道路領域を決定する。まず、ステップS180では、前述のステップS160と同様に、ステアリングセンサ18からの信号に基づいて操舵角を検出する。そして、ステップS185では、前述のステップS165と同様に、操舵角に基づいて定まる曲率から車線の中心線を決定するが、このステップS185を実行するのは、前方車両が検出されない場合であるので、前方車両の位置を車線の中心線の遠方側端点とすることはできない。そこで、ステップS185では、前述の画像内における所定の自車側端点において、接線が車両前後方向に対して平行となり、ステップS160で検出した操舵角に基づいて定まる曲率を有する円弧を、車線の中心線に決定する。
続くステップS190では、ステップS170と同様に、ステップS185で決定した車線の中心線と予め設定された車線幅とに基づいて道路領域を決定する。なお、前述のステップS160およびステップS180のいずれか一方、あるいはその両方において、操舵角を検出することに代えて、ヨーレートセンサ16からヨーレートを検出してもよい。
上記ステップS130、S170、S190においてそれぞれ決定される道路領域を比較すると、ステップS130は道路に沿って設けられている白線に基づいて道路領域を決定するため、最も道路領域を正確に決定することができ、また、ステップS170は、操舵角に加えて前方車両の位置を用いていることから、操舵角のみに基づいているステップS190よりも道路領域を正確に決定することができる。その一方で、ステップS130は白線が認識できない場合には道路領域が決定できず、また、ステップS170は前方車両が検出されない場合には道路領域が決定できないが、ステップS190は、確実に道路領域を決定することができる。
このようにして道路領域を決定したら、判定可否決定処理(図2のステップS200)を実行する。この判定可否決定処理は、図6に詳しく示す処理である。
図6において、まず、遠方路面領域決定手段に相当するステップS210では、ステップS100で決定した道路領域内において、遠方路面領域Dfを決定する。この遠方路面領域Dfは、上記道路領域内において車両から所定距離遠方にある領域であり、上記所定距離は、ここでは100mに設定されているとして説明するが、100mに限定されるものではなく、ある程度の濃さの霧の時に画像がぼやける程度に遠方であればよい。
車載カメラ12は車両に固定されていることから、平坦な地面上のある地点が画像内においてどこに位置するかは予め決定することができる。従って、画像内において平坦な地面上で自車から100m先の地点が位置する100m線は予め決定することができる。図7は、画像内における上記100m線Lfを示している。この100m線Lfが画像処理ECU14内のROMあるいは他の記憶装置に記憶されている。そして、ステップS210では、その100m線LfとステップS100で決定した道路領域を基準として、たとえば、その100m線Lfが下辺となり、高さ(下辺と上辺との間の長さ)が所定高さとなり、且つ、ステップS100で決定した道路領域内となるような矩形領域を決定し、その矩形領域を遠方路面領域Dfとする。図3、図4には、上記ステップS210乃至S220で決定した遠方路面領域Dfおよび近距離路面領域Dsが例示されている。
続くステップS220は近距離路面領域決定手段に相当するものであり、道路領域内における近距離路面領域Dsを決定する。この近距離路面領域Dsは、本実施形態では、ステップS100で決定された道路領域内において自車近傍となる領域であり、図7に示す、予め記憶された近距離範囲Rsに基づいて決定する。この近距離範囲Rsは、画像内において自車近傍に設定された矩形範囲であり、水平方向の範囲は画像撮像範囲全体であり、下辺は画像内における自車のボンネットの境界線の直上に設定されている。ステップS220では、この近距離範囲Rsと、ステップS100で決定した道路領域との重なり部分を近距離路面領域Dsとして決定する。
続くステップS230では、運転支援ECU26において前方車両が検出されているか否かを判断する。この判断が肯定された場合には、運転支援ECU26ではその前方車両との間の距離、相対方位が算出されているので、ステップS235において、運転支援ECU26において算出されている前方車両との間の距離および相対方位に基づいて、その前方車両の画像内における座標範囲を決定する。上記ステップS230乃至S235が前方車両判定手段に相当する。
そして、ステップS240では、ステップS235で決定した前方車両の座標範囲が、上記ステップS210で決定した遠方路面領域DfおよびステップS220で決定した近距離路面領域Dsの少なくとも一方と重なるか否かを判断する。
遠方路面領域Dfおよび近距離路面領域Dsの少なくとも一方の画像に路面以外のものが含まれていると、その路面以外のものの存在によって輝度が変化してしまい、輝度に基づく霧判定が困難であることから、上記ステップS240の判断が肯定された場合には、ステップS250において、霧判定不可と決定して図2に示すルーチンを終了する。
一方、前方車両が検出されておらずステップS230の判断が否定された場合、または前方車両は検出されているが領域Df、Dsとは重なっておらずステップS240の判断が否定された場合には、菱形マークや横断歩道などの道路標示を検出するための、ステップS260の道路標示検出処理を実行する。
この道路標示検出処理は道路標示座標決定手段に相当するものであり、その処理内容は図8に詳しく示されている。図8において、まず、ステップS261では、垂直座標毎に、遠方路面領域Dfおよび近距離路面領域Dsの水平方向の輝度分散値を算出する。そして、ステップS263では、ステップS261で垂直座標毎に算出した輝度分散値を、道路標示が何もない画像の輝度分散値の変動幅に基づいて予め設定された上限分散値と比較する。この比較の結果、算出した輝度分散値が上限分散値を超えている場合には、路面とは輝度の異なるものが含まれており、その結果、分散値が大きくなっていると考えられるので、続くステップS265では、上記ステップS263の比較において、輝度分散値が上限分散値を超えている垂直座標を、水平方向の少なくとも一部に道路標示が含まれている座標、すなわち、道路標示垂直座標とする。
続くステップS267では、ステップS261において垂直座標毎に算出した水平方向の輝度分散値の垂直方向変化値を算出する。この垂直方向変化値は、垂直座標毎に算出した水平方向の輝度分散値の垂直方向の変化を表す値、たとえば、変化率や変化量である。道路標示がない場合、垂直座標毎に算出した水平方向の輝度分散値は、互いに近似する値となることから、上記垂直方向変化値は小さな値となる。一方、道路標示が含まれていると、前述のように、水平方向の輝度分散値が大きくなるので、上記垂直方向変化値も大きくなる。そこで、ステップS269では、上記ステップS267で算出した垂直方向変化値が、道路標示が何もない画像に基づいて予め設定された所定の正常変動範囲を超えていることに基づいて道路標示垂直座標を決定する。
この図8の道路標示検出処理では、ステップS261乃至265において、水平方向の輝度分散値から道路標示を検出するとともに、ステップS267乃至269において、水平方向の輝度分散値の垂直方向変化からも道路標示を検出しているので、道路標示を精度よく検出することができる。なお、精度が十分に確保される場合には、水平方向の輝度分散値のみから道路標示を検出してもよいし、水平方向の輝度分散値の垂直方向変化のみから道路標示を検出してもよい。
図6に戻って、ステップS260の実行後は、ステップS270において、遠方路面領域Dfの垂直座標および近距離路面領域Dsの垂直座標の少なくといずれか一方が、ステップS260で決定した道路標示垂直座標と重なるか否かを判断する。この判断が肯定された場合には、遠方路面領域Dfおよび近距離路面領域Dsの少なくといずれか一方に前方車両が含まれている場合と同様に、ステップS250を実行して、霧判定不可と決定して図2に示すルーチンを終了する。
一方、ステップS270の判断が否定された場合には、遠方路面領域Df内および近距離路面領域Dsのいずれにも路面以外のものが含まれていないと考えられるので、ステップS280において霧判定可能と決定し、図2のステップS300の霧判定画像処理を実行する。
図2の霧判定画像処理は、図9に詳しく示されている。図9において、まず、ステップS310では、遠方路面領域Dfの輝度中央値を決定する。この遠方路面領域Dfの輝度中央値は、ここでは、ステップS210で決定した矩形領域内における各画素の輝度値の中央値(メディアン)とするが、ステップS210で決定した矩形領域に対して、垂直座標毎に水平方向の輝度のメディアンを決定し、それらを平均した値を用いてもよい。そして、続くステップS320では、上記ステップS310と同様にして、近距離路面領域Dsの輝度中央値を決定する。
ステップS330は空輝度決定手段に相当するものであり、画像内において予め設定された上辺領域Du(図7参照)の輝度の最高値を、画像内における空の輝度として決定する。上記上辺領域Duは、通常、少なくとも一部分に空が撮像されていると考えられるので、その上辺領域Duの輝度の最高値を空の輝度として決定するのである。
続くステップS340では上記ステップS310で決定した遠方路面領域Dfの輝度中央値の相対輝度値を算出する。この相対輝度値は、遠方路面領域Dfの輝度中央値の、近距離路面領域Dsの輝度中央値および空の輝度に対する相対的大きさを表していればどのような算出式によって算出してもよいが、本実施形態では、式1から算出する。
(式1) 相対輝度値=(遠方路面領域Dfの輝度中央値−近距離路面領域Dsの輝度中央値)/(空の輝度−近距離路面領域Dsの輝度中央値)
たとえば、遠方路面領域Dfの輝度中央値が120、近距離路面領域Dsの輝度中央値が80、空の輝度が500であるとすると、相対輝度値は、(120−80)/(500−80)=0.095となる。
続くステップS350では、次述するステップS360において用いる判定基準値を決定する。この判定基準値は、互いに大きさの異なる2つの値が画像処理ECU14内のROMあるいは他の記憶装置に予め記憶されており、ステップS350では、前回の霧判定、すなわち、繰り返し実行するこの図9のルーチンを前回実行したときに、後述するステップS380において霧と判定しているか否かでいずれの判定基準値に決定するかが異なるようになっている。前回の霧判定において霧と判定している場合には、小さい側の値を判定基準値に決定し、前回の霧判定において霧でないと判定している場合には、大きい側の値を判定基準値に決定する。
そして、ステップS360では、ステップS340で算出した相対輝度値がステップS350で決定した判定基準値よりも大きいか否かを判断し、相対輝度値が判定基準値よりも大きい場合には霧であると判定し、相対輝度値が判定基準値よりも小さい場合には霧でないと判定する。このようにして霧判定できるのは、相対輝度値が判定基準値よりも大きい場合、相対輝度値が判定基準値よりも小さい場合よりも、遠方路面領域Dfの輝度中央値が空の輝度に近いことを意味しており、霧である場合には、遠方路面領域Dfの輝度は空の輝度に近くなるからである。なお、前回の霧判定において霧と判定されている場合には、前回の霧判定において霧と判定されていない場合よりも判定基準値が小さい値に決定されることから霧と判定されやすくなる。換言すれば、前回の霧判定において霧と判定されていない場合には、前回の霧判定において霧と判定されている場合よりも判定基準値が大きい値に決定されることから、霧と判定されにくくなる。従って、短い期間内において霧判定結果が繰り返し変動してしまうことが防止される。
上記ステップS360における判定結果をそのまま最終判定として用いてもよいのであるが、本実施形態では、上記ステップS360における判定結果を複数用いて最終的な霧判定を行うようになっている。すなわち、続くステップS370では、後述するステップS380において最終的な霧判定を行った後、最初に上記ステップS360を実行した時を計時開始時点として、最終判定時期となったか否かを判定する。この最終判定時期は、たとえば、1分間に設定されている。この判断が否定された場合には、前述の図2のステップS100以下を繰り返す。
一方、ステップS370の判断が肯定された場合には、ステップS380において、最終的な霧判定を実行する。ここでの最終的な霧判定は、上記ステップS370が否定されることによって繰り返し実行されるステップS360において判定した複数の判定結果のうち、霧であると判定している割合が予め設定された所定割合以上であれば、霧であると判定する一方、霧でないと判定している割合が上記所定割合以上であれば、霧でないと判定する。このように、ステップS360における複数回の判定結果を用いて最終的な判定を行うようにすれば、たまたま一時点の画像が誤判定をしてしまうような画像であったとしても、最終的な判定としては誤判定を防止できるので、判定の精度が向上する。
なお、上記所定割合が5割とされている場合には、必ず、霧または霧でないと判定することになるが、上記所定割合が5割以外であってもよい。この場合には、霧であるとも、霧でないとも判定されないこともあるが、その場合には、前回の判定結果が維持されることになる。
以上、説明した本実施形態によれば、遠方路面領域Dfの輝度に基づいて霧判定を行っており、路面は通常黒色であることから、路面の輝度は異なる道路間でそれほど大きく異ならないので、本実施形態のように、路面領域の輝度に基づいて霧判定を行えば精度よく霧判定を行うことができる。
また、本実施形態によれば、霧判定に用いる遠方路面領域Dfおよび近距離路面領域Dsの輝度として水平方向の輝度中央値を用いており、遠方路面領域Dfおよび近距離路面領域Dsの一部に黒色の路面以外のものが含まれているとしても、水平方向の輝度中央値は黒色の路面の輝度を表している可能性が高いので、霧判定の精度が向上する。
また、本実施形態によれば、相対輝度値を算出することにより、遠方路面領域Dfの輝度を近距離路面領域Dsの輝度および空の輝度と比較して霧判定を行っていることから、場所によって路面の色(輝度)および空の輝度が変化しても、それら路面の輝度および空の輝度の変化に影響されずに、精度よく霧判定を行うことができる。
以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、次の実施形態も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。
たとえば、前述の実施形態では、遠方路面領域Dfの輝度を近距離路面領域Dsの輝度および空の輝度と比較して霧判定を行っていたが、遠方路面領域Dfの輝度を、近距離路面領域Dsおよび空の輝度のいずれか一方のみと比較することによって霧判定を行ってもよい。このようにしても、特許文献1のように画像全体の輝度に基づいて霧判定を行う態様に比較して精度よく霧判定を行うことができる。
また、遠方路面領域Dfの輝度を、画像内の他の領域の輝度と比較せずに、予め設定された基準輝度と比較することによって霧判定を行ってもよい。この場合、霧であると判定する精度は前述の実施形態の場合よりも低下するが、遠方路面領域Dfの輝度が十分に低ければ(すなわち、遠方路面領域Dfの色が十分に黒ければ)、霧でないと判定できるなど、ある程度の霧判定は可能である。また、霧判定の精度が多少悪くなったとしても、別の霧判定手法と併用して霧判定を行う場合に、その別の霧判定手法を補完するために用いることはできる。
また、前述の実施形態では、霧か霧でないかのみを判定していたが、霧の濃さを判定するようになっていてもよい。たとえば、前述の実施形態のステップS360において、所定の第1判定基準値と、その第1判定基準値よりも大きい第2判定基準値を同時に用い、相対輝度値が第2基準値よりも大きい場合には濃い霧と判定し、相対輝度値が第1判定基準値と第2判定基準値との間の場合には薄い霧と判定するようになっていてもよい。
また、前述の実施形態では、遠方路面領域Dfおよび近距離路面領域Dsはいずれも矩形であったが、領域Df、Dsの形状は矩形以外の図形(たとえば、楕円、横線)であってもよい。
また、前述の実施形態では、遠方路面領域Dfおよび近距離路面領域Dsのいずれか少なくとも一方が、道路標示または前方車両の座標と重なっている場合には霧判定を行わないようになっていたが、遠方路面領域Dfや近距離路面領域Dsから道路標示、前方車両部分を除去して、除去後の領域を用いて霧判定を行ってもよい。
また、前述の実施形態では、遠方路面領域Dfの輝度および近距離路面領域Dsの輝度として、いずれも輝度中央値を用いていたが、輝度中央値に代えて平均値を用いてもよい。
また、前述の実施形態では、道路領域を決定するための道路上標識として白線を認識していたが、道路上標識として、白線と同様に車線を区画するために連続的に配置されている突起物(半球状のものや、棒状のものなど)を認識して道路領域を決定してもよい。また、道路上標識としては、それら車線を区画するために連続的に配置されているもの以外に、中央分離帯、路側の側溝、轍等があり、それらを認識して道路領域を決定してもよい。なお、道路上標識は、前述の車線中心線(ステップS165、S185)を決定するために用いてもよい。
また、前述の実施形態では、前方車両を検出するためにミリ波レーダ20が備えられていたが、ミリ波レーダ20に代えてレーザレーダーを備えていてもよいし、また、画像からテールランプやナンバープレート等の車両に特徴的な形状を検出することによって前方車両を検出するようにしてもよい。
また、車両が走行している道路が、白っぽい色であったり、土色(未舗装の道路)であったりと、稀に黒色でない場合があり、その場合には、本発明による霧判定の精度が低下するので、近距離路面領域Dsの輝度に基づいて車両が走行している道路の色(輝度)を判定し、道路の色が黒色でない場合には、本発明による霧判定を行わないようになっていてもよい。
本発明が適用された車載霧判定装置10の構成を示すブロック図である。 図1の画像処理ECU14が実行する制御機能の要部を示すフローチャートである。 車載カメラ12によって撮像されている画像例である。 車載カメラ12によって撮像されている画像例である。 図1のステップS100の道路領域決定処理を詳しく示すフローチャートである。 図1のステップS200の判定可否決定処理を詳しく示すフローチャートである。 車載カメラ12によって撮像される画像内における予め設定された100m線Lf、近距離範囲Rs、および上辺領域Duを示す図である。 図6のステップS260の道路標示検出処理を詳しく示すフローチャートである。 図1のステップS300の霧判定画像処理を詳しく示すフローチャートである。
符号の説明
10:車載霧判定装置
12:車載カメラ
20:ミリ波レーダ(信号波送受信機)
S100:道路領域決定手段
S210:遠方路面領域決定手段
S220:近距離路面領域決定手段
S230乃至S235:前方車両判定手段
S260:道路標示座標決定手段
S300:霧判定手段
S330:空輝度決定手段

Claims (15)

  1. 車両に搭載された車載カメラにより撮像された画像に基づいて霧判定を行う霧判定手段を備えた車載霧判定装置であって、
    前記車載カメラによって撮像された画像内において前記車両が走行している道路領域を決定する道路領域決定手段と、
    その道路領域決定手段によって決定された道路領域に基づいて、前記画像内において前記車両から所定距離遠方にある路面領域である遠方路面領域を決定する遠方路面領域決定手段とを備え、
    前記霧判定手段は、その遠方路面領域決定手段によって決定された遠方路面領域の輝度に基づいて霧判定を行うことを特徴とする車載霧判定装置。
  2. 前記霧判定手段において用いる遠方路面領域の輝度として、前記遠方路面領域の水平方向の輝度中央値を用いることを特徴とする請求項1に記載の車載霧判定装置。
  3. 前記道路領域決定手段によって決定された道路領域に基づいて、前記画像内において前記遠方路面領域よりも車両に近い近距離路面領域を決定する近距離路面領域決定手段をさらに備え、
    前記霧判定手段は、前記遠方路面領域の輝度と前記近距離路面領域の輝度との比較に基づいて霧判定を行うことを特徴とする請求項1または2に記載の車載霧判定装置。
  4. 前記近距離路面領域決定手段は、前記道路領域決定手段によって決定された道路領域と、前記画像内において自車近傍が撮像されている範囲として予め設定された近距離範囲とに基づいて、前記近距離路面領域を決定するものであることを特徴とする請求項3に記載の車載霧判定装置。
  5. 前記霧判定手段において用いる近距離路面領域の輝度として、前記近距離路面領域の水平方向の輝度中央値を用いることを特徴とする請求項3または4に記載の車載霧判定装置。
  6. 前記車載カメラによって撮像された画像内の予め定められた上辺部分の輝度に基づいて、画像内の空の輝度を決定する空輝度決定手段をさらに備え、
    前記霧判定手段は、前記遠方路面領域の輝度と、空輝度決定手段によって決定された空の輝度との比較に基づいて霧判定を行うことを特徴とする請求項1または2に記載の車載霧判定装置。
  7. 前記車載カメラによって撮像された画像内の予め定められた上辺部分の輝度に基づいて、画像内の空の輝度を決定する空輝度決定手段をさらに備え、
    前記霧判定手段は、前記遠方路面領域の輝度と、前記近距離路面領域決定手段によって決定された近距離路面領域の輝度と、前記空輝度決定手段によって決定された空の輝度との比較に基づいて霧判定を行うことを特徴とする請求項3乃至5のいずれかに記載の車載霧判定装置。
  8. 前記道路領域決定手段によって決定された道路領域内における輝度変化に基づいて、その道路領域内において、水平方向の少なくとも一部に道路標示が表示されている垂直座標である道路標示垂直座標を決定する道路標示座標決定手段、
    および、前記車載カメラにより撮像された画像内における前方車両の存在を判定するとともに、前方車両が存在すると判定した場合には、その前方車両の座標範囲を決定する前方車両判定手段、の少なくとも一方を備え、
    前記霧判定手段は、前記道路標示座標決定手段によって決定された道路標示垂直座標、または前記前方車両判定手段によって決定された前方車両の座標範囲が、前記遠方路面領域の垂直座標と重なる場合には、霧判定を行わないようになっていることを特徴とする請求項1乃至7のいずれかに記載の車載霧判定装置。
  9. 前記道路領域決定手段によって決定された道路領域内における輝度変化に基づいて、その道路領域内において、水平方向の少なくとも一部に道路標示が表示されている垂直座標である道路標示垂直座標を決定する道路標示座標決定手段、
    および、前記車載カメラにより撮像された画像内における前方車両の存在を判定するとともに、前方車両が存在すると判定した場合には、その前方車両の座標範囲を決定する前方車両判定手段、の少なくとも一方を備え、
    前記霧判定手段は、前記道路標示座標決定手段によって決定された道路標示垂直座標、または前記前方車両判定手段によって決定された前方車両の座標範囲が、前記近距離路面領域の垂直座標と重なる場合には、霧判定を行わないようになっていることを特徴とする請求項3、4、5および7のいずれかに記載の車載霧判定装置。
  10. 前記道路標示座標決定手段は、前記道路領域決定手段によって決定された道路領域において水平方向の輝度分布値が所定の上限分布値を超えている垂直方向座標を、道路標示垂直座標として決定するものであることを特徴とする請求項8または9に記載の車載霧判定装置。
  11. 前記道路標示座標決定手段は、前記道路領域決定手段によって決定された道路領域において、水平方向の輝度平均値の垂直方向変化値または水平方向の輝度分布値の垂直方向変化値が、所定の正常変動範囲を超えていることに基づいて、前記道路標示垂直座標を決定するものであることを特徴とする請求項8または9に記載の車載霧判定装置。
  12. 車両前方に向けて信号波を出力するとともに、その信号波の反射波を受信する信号波送受信機をさらに備え、
    前記前方車両判定手段は、その信号波送受信機によって受信された反射波に基づいて前記前方車両の存在を判定するものであることを特徴とする請求項8または9に記載の車載霧判定装置。
  13. 前記道路領域決定手段は、前記車載カメラによって撮像された画像から、道路に沿って設けられている道路上標識を検出し、検出した道路上標識の位置に基づいて前記車両が走行している道路領域を決定するものであることを特徴とする請求項1乃至12のいずれかに記載の車載霧判定装置。
  14. 前記霧判定手段は、前記車載カメラによって撮像された複数の時点における遠方路面領域の画像に基づいて、霧判定を行うものであることを特徴とする請求項1乃至13のいずれかに記載の車載霧判定装置。
  15. 前記霧判定手段は、霧判定を繰り返し行い、且つ、前回の判定において霧であると判定されている場合には、前回の判定で霧と判定されていない場合よりも、霧であると判定されやすくなっていることを特徴とする請求項1乃至14のいずれかに記載の車載霧判定装置。
JP2005241653A 2005-08-23 2005-08-23 車載霧判定装置 Pending JP2007057331A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005241653A JP2007057331A (ja) 2005-08-23 2005-08-23 車載霧判定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005241653A JP2007057331A (ja) 2005-08-23 2005-08-23 車載霧判定装置

Publications (1)

Publication Number Publication Date
JP2007057331A true JP2007057331A (ja) 2007-03-08

Family

ID=37920961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005241653A Pending JP2007057331A (ja) 2005-08-23 2005-08-23 車載霧判定装置

Country Status (1)

Country Link
JP (1) JP2007057331A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070979A (ja) * 2006-09-12 2008-03-27 Denso Corp 車載霧判定装置
JP2009222529A (ja) * 2008-03-14 2009-10-01 Fujitsu Ltd 反射特性評価装置、反射特性評価方法および反射特性評価プログラム
JP2009245200A (ja) * 2008-03-31 2009-10-22 Nohmi Bosai Ltd 煙検出装置
WO2012066609A1 (ja) * 2010-11-19 2012-05-24 三菱電機株式会社 環境推定装置及び車両制御装置
JP2012208751A (ja) * 2011-03-30 2012-10-25 Fujitsu Ltd 警報装置および警報システム並びに警報方法
JP2015075826A (ja) * 2013-10-07 2015-04-20 日立建機株式会社 オフロードダンプトラック
JP2016224593A (ja) * 2015-05-28 2016-12-28 アイシン・エィ・ダブリュ株式会社 道路形状検出システム、道路形状検出方法及びコンピュータプログラム
CN109448397A (zh) * 2018-11-20 2019-03-08 山东交通学院 一种基于大数据的团雾监测方法
JP2020052909A (ja) * 2018-09-28 2020-04-02 株式会社デンソーテン 提供装置および提供方法
US11250275B2 (en) 2018-12-14 2022-02-15 Toyota Jidosha Kabushiki Kaisha Information processing system, program, and information processing method
WO2022039231A1 (ja) * 2020-08-21 2022-02-24 株式会社小糸製作所 車載用センシングシステムおよびゲーティングカメラ
US11780444B2 (en) 2018-10-04 2023-10-10 Samsung Electronics Co., Ltd. Driving assistance apparatus and image processing method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070979A (ja) * 2006-09-12 2008-03-27 Denso Corp 車載霧判定装置
JP2009222529A (ja) * 2008-03-14 2009-10-01 Fujitsu Ltd 反射特性評価装置、反射特性評価方法および反射特性評価プログラム
JP2009245200A (ja) * 2008-03-31 2009-10-22 Nohmi Bosai Ltd 煙検出装置
WO2012066609A1 (ja) * 2010-11-19 2012-05-24 三菱電機株式会社 環境推定装置及び車両制御装置
JP5501477B2 (ja) * 2010-11-19 2014-05-21 三菱電機株式会社 環境推定装置及び車両制御装置
US9262817B2 (en) 2010-11-19 2016-02-16 Mitsubishi Electric Corporation Environment estimation apparatus and vehicle control system
JP2012208751A (ja) * 2011-03-30 2012-10-25 Fujitsu Ltd 警報装置および警報システム並びに警報方法
JP2015075826A (ja) * 2013-10-07 2015-04-20 日立建機株式会社 オフロードダンプトラック
JP2016224593A (ja) * 2015-05-28 2016-12-28 アイシン・エィ・ダブリュ株式会社 道路形状検出システム、道路形状検出方法及びコンピュータプログラム
JP2020052909A (ja) * 2018-09-28 2020-04-02 株式会社デンソーテン 提供装置および提供方法
JP7210208B2 (ja) 2018-09-28 2023-01-23 株式会社デンソー 提供装置
US11780444B2 (en) 2018-10-04 2023-10-10 Samsung Electronics Co., Ltd. Driving assistance apparatus and image processing method
CN109448397A (zh) * 2018-11-20 2019-03-08 山东交通学院 一种基于大数据的团雾监测方法
CN109448397B (zh) * 2018-11-20 2020-11-13 山东交通学院 一种基于大数据的团雾监测方法
US11250275B2 (en) 2018-12-14 2022-02-15 Toyota Jidosha Kabushiki Kaisha Information processing system, program, and information processing method
US11748996B2 (en) 2018-12-14 2023-09-05 Toyota Jidosha Kabushiki Kaisha Information processing system, program, and information processing method
WO2022039231A1 (ja) * 2020-08-21 2022-02-24 株式会社小糸製作所 車載用センシングシステムおよびゲーティングカメラ

Similar Documents

Publication Publication Date Title
JP2007057331A (ja) 車載霧判定装置
JP4784452B2 (ja) 車載霧判定装置
JP4321591B2 (ja) 車載霧判定装置
JP4241834B2 (ja) 車載霧判定装置
US7693629B2 (en) Onboard fog determining apparatus
US7957559B2 (en) Apparatus and system for recognizing environment surrounding vehicle
JP4506573B2 (ja) 車載霧判定装置
EP1909064A1 (en) Object detection device
JP3711405B2 (ja) カメラを利用した車両の道路情報抽出方法及びシステム
CN103523013B (zh) 车道偏离警报装置
JP4676373B2 (ja) 周辺認識装置、周辺認識方法、プログラム
US9827956B2 (en) Method and device for detecting a braking situation
EP2933790A1 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
US8848980B2 (en) Front vehicle detecting method and front vehicle detecting apparatus
CN111727135B (zh) 自动照明系统
JP2005201741A (ja) 路面反射検出装置
JP2013147112A (ja) 車両の走行環境認識装置
JP5065172B2 (ja) 車両灯火判定装置及びプログラム
JP2009217492A (ja) 車線区分線認識装置、車線維持支援装置、車線区分線認識方法
JP2006309313A (ja) 道路認識装置
JP5233696B2 (ja) レーン境界線検出装置、境界線検出プログラム、および逸脱警報装置
EP2347931A1 (en) Headlamp controller
JP4296287B2 (ja) 車両認識装置
JP2008056163A (ja) 車両の障害物検知装置
US11010618B2 (en) Apparatus for identifying line marking on road surface