JP4784452B2 - 車載霧判定装置 - Google Patents

車載霧判定装置 Download PDF

Info

Publication number
JP4784452B2
JP4784452B2 JP2006247125A JP2006247125A JP4784452B2 JP 4784452 B2 JP4784452 B2 JP 4784452B2 JP 2006247125 A JP2006247125 A JP 2006247125A JP 2006247125 A JP2006247125 A JP 2006247125A JP 4784452 B2 JP4784452 B2 JP 4784452B2
Authority
JP
Japan
Prior art keywords
vehicle
image
sky
fog
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006247125A
Other languages
English (en)
Other versions
JP2008070979A (ja
Inventor
直輝 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2006247125A priority Critical patent/JP4784452B2/ja
Priority to DE102007043164.5A priority patent/DE102007043164B4/de
Priority to US11/900,427 priority patent/US7656277B2/en
Publication of JP2008070979A publication Critical patent/JP2008070979A/ja
Application granted granted Critical
Publication of JP4784452B2 publication Critical patent/JP4784452B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

本発明は、車載カメラによって撮像された画像から霧判定する車載霧判定装置に関する。
車載カメラの撮像画像を処理して霧判定を行う装置が知られている(例えば、特許文献1参照。)。この特許文献1における霧判定の方法は、画像のぼけ具合に基づいており、霧である場合にはぼけた画像となるので、画像のぼけ具合を推定することにより霧判定を行っている。画像のぼけ具合の推定は、まず、画像全体に対して画素毎に微分演算によって輝度のエッジ量を算出して、そのエッジ量に基づいて、画像のぼけ具合を推定している。画像がぼけているほどエッジ量は全体的に小さくなることから、エッジ量に基づいて画像のぼけ具合を推定する。
この特許文献1の装置は、霧判定の結果を白線認識に利用している。車載カメラによって撮像された画像から白線認識を行う場合、霧であると、画像がぼけてしまい白線認識が困難になることから、白線認識に先立って霧判定を行うのである。そして、霧であると判定した場合には、フォグランプを点灯させることも記載されている。
また、特許文献2の装置は、霧のみを判定するものではないが、霧等による視界不良や、フロントガラスの汚れによって画像がぼけると、的確な車外監視(自車と車外の対象物との間の距離の監視など)が困難になるので、画像がぼけているかどうかを判定している。
特許文献2における画像ぼけの判定方法は、画像の中央上部に設定された固定領域の画像について輝度のエッジを算出し、そのエッジが所定値を越えた割合に基づいて、画像のぼけ具合を判定している。
特許3444192号公報 特許3312729号公報
特許文献1、2は、いずれも、車載カメラによって撮像された画像がぼけているかを判定することによって、霧判定を行っているのであるが、特許文献1のように、画像全体についてエッジ量を算出することとすると、画像処理の負荷が大きいという問題があった。一方、特許文献2では、エッジを算出するのは画像の中央上部に設定された固定領域のみであるので、画像処理の負荷は特許文献1の場合に比較して少ない。しかし、霧であっても自車から近距離にある物体は、比較的はっきり撮像されることから、その固定領域に自車から近距離に位置する物体が撮像されている場合には、霧判定が精度よく行えないという問題があった。
本出願人は、この点を鑑みて、車載カメラで撮像された画像内において、車両から所定の遠方距離にある道路上の領域である遠方道路領域を決定し、この遠方道路領域の画像を用いて霧判定を行う装置を発明し、出願した(特願2005−175743号)。このように、霧判定の対象とする画像の領域を道路上の領域とすれば、道路は通常、遠方まで続いていることから、その領域には遠方部分が撮像されている可能性が高いので、霧判定の精度が確保できる。
しかしながら、山間部の道路のように森の中を通る道路では、遠方道路領域が森の中であるために黒くつぶれてしまうことがある。このように、遠方道路領域に黒つぶれが発生すると、霧がかかった画像であると誤って判定することがあった。
本発明は、この事情に基づいて成されたものであり、その目的とするところは、遠方道路領域に黒つぶれが発生しても、霧判定の精度を確保することにある。
その目的を達成するための請求項1記載の発明は、車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する画像霧状態判定手段を備えた車載霧判定装置であって、
車載カメラによって撮像された画像内において、車両から、ある程度の濃さの霧の時に画像がぼやける程度の遠方に設定された遠方距離にある道路の路側部分を含む領域である遠方道路領域の輝度を取得する遠方輝度取得手段と、
車両周辺の空の輝度を取得する空輝度取得手段と、を備え、
画像霧状態判定手段は、遠方道路領域の輝度と空の輝度とを用いて判定することを特徴とする。
昼間において霧が発生していない場合、遠方道路領域の輝度は、遠方道路領域における黒つぶれの発生に係わらず、車両周辺の空の輝度に比べて低い輝度を示す。一方、昼間において霧が発生している場合、霧の粒子が太陽光を散乱することで、全体的に白い画像が車載カメラによって撮像されるようになる。そのため、遠方道路領域の輝度と空の輝度とが近いレベルを示す。
このように、本発明は、遠方道路領域の輝度の比較対象として空の輝度を用いることで、遠方道路領域に黒つぶれが発生しても、霧判定の精度を確保することができるのである。
なお、遠方道路領域において黒つぶれが発生していない場合(黒つぶれ不発生時)には、この遠方道路領域のみを用いて霧判定が可能である。このことから、請求項2に記載のように、画像霧状態判定手段は、遠方道路領域において黒つぶれ不発生時には、遠方道路領域の画像を用いて判定し、遠方道路領域において黒つぶれ発生時には、遠方道路領域の輝度と空の輝度とを用いて判定するようにしてもよい。
このように、遠方道路領域における黒つぶれ発生の有無に応じて、霧判定に用いるべく、車載カメラにより撮像された画像内の領域を選択する(切り替える)ことで、常時、遠方道路領域の輝度と空の輝度とを用いて霧判定することがなくなる。その結果、画像処理の負荷を軽減できるようになる。
請求項3に記載の車載霧判定装置によれば、車載カメラによって撮像された画像内において、車両が走行している道路の形状を決定する道路形状決定手段と、道路形状決定手段によって決定された道路の形状に基づき、画像内における遠方道路領域を決定する遠方道路領域決定手段と、を備えることを特徴とする。これにより、画像内における遠方道路領域を決定することができるようになる。
請求項4に記載の車載霧判定装置によれば、車載カメラによって撮像された画像内において、車両周辺の空に相当する領域である空領域の画像を抽出する空領域画像抽出手段を備え、空輝度取得手段は、空領域の輝度を取得するものであることを特徴とする。これにより、車載カメラによって撮像された画像から、空の輝度を取得することができるようになる。
なお、請求項5に記載のように、空領域画像抽出手段は、空領域内において際立って高い輝度を示す高輝度空領域の画像を抽出することが好ましい。空領域の画像には、空だけが映し出されることもあれば、道路周辺に存在する電柱や樹木等の路側物も含めて映し出されることもあるため、空領域において際立って高い輝度を示す高輝度空領域の画像を抽出すれば、空だけが映し出されている領域の画像を抽出できるからである。
また、請求項6に記載のように、空輝度取得手段は、車両に搭載された照度センサの出力輝度値を用いて、車両周辺の空の輝度を取得するようにしてもよい。車両には、ヘッドライトを自動的に点灯・消灯するための照度センサが搭載されていることがあるため、その照度センサの出力輝度値を用いれば、空領域の輝度を取得するための画像処理が不要になるからである。
ところで、霧が発生している場合、空の輝度の値と遠方道路領域の輝度の値とは、近い値を示すことになるため、空の輝度に対する遠方道路領域の輝度の割合(遠方道路領域の輝度/空の輝度のこと。以下、輝度比)は、0.5〜1.0程度の範囲に多く分布する。
そうであれば、霧が発生していない場合には、空の輝度の値と遠方道路領域の輝度の値とは近い値を示さず、輝度比についても0.5〜1.0程度の範囲から外れた範囲に多く分布するものと考えられる。しかしながら、霧が発生していない場合の輝度比は、車両の走行シーンが一様ではないゆえに、0.5〜1.0程度の範囲を含んで幅広い範囲に分布することが本願発明者の実験によって明らかとなった。
ここで、霧が発生している場合の輝度比の分布と、霧が発生していない場合の輝度比の分布とから明らかなことは、霧が発生していない場合の輝度比が0.5〜1.0程度の範囲を含む幅広い範囲に分布するのだから、霧が発生している場合の輝度比が多く分布する0.5〜1.0程度の範囲は、実際に、霧が発生しているか発生していないかどうか不明確であるとともに、霧が発生している場合の輝度比が多く分布する0.5〜1.0程度の範囲から外れた範囲は、少なくとも、霧が発生していない場合である確率が高い、ということである。
請求項7に記載の車載霧判定装置は、上記の特徴的な点に着目したもので、
画像霧状態判定手段は、
空の輝度に対する遠方道路領域の輝度の割合を示す輝度比が小さいほど、車載カメラにより撮像された画像が、霧がかかった画像ではない確率が高くなり、
車載カメラにより撮像された画像が、霧がかかった画像ではない確率と霧がかかった画像である確率とが略等しくなる確率を上限として、輝度比が大きくなるにつれて、車載カメラにより撮像された画像が、霧がかかった画像ではない確率が低くなる確率分布マップを用いて判定する。これにより、車両の走行シーンに関らず、霧判定の精度を確保することができるのである。
以下、本発明の車載霧判定装置の実施の形態を、図面に基づいて説明する。図1は、本発明が適用された車載霧判定装置10の構成を示すブロック図である。
車載霧判定装置10は、車載カメラ12、画像処理ECU14、ヨーレートセンサ16、ステアリングセンサ18、ミリ波レーダ20、照度センサ21、車速センサ22を備えており、それらが車内LAN24によって相互に接続されている。また、この車内LAN24には、運転支援制御ECU26およびライト制御ECU28も接続されている。
上記車載カメラ12は、CCDカメラによって構成されており、その取り付け位置は、車両の内部、たとえば運転席近傍の天井とされている。この車載カメラ12によって、車両前方の画像が連続的に撮像され、撮像された画像のデータは、画像処理ECU14において処理される。
画像処理ECU14は、図示しない内部にCPU、ROM、RAM等を備えたコンピュータであり、そのRAMには、車載カメラ12によって連続的に撮像される一定時間分の画像のデータが一時的に記憶される。そして、CPUは、ROMに記憶されたプログラムに従って、そのRAMに記憶された画像データに対して図2に示す処理を実行する。このCPUの処理については後述する。
ヨーレートセンサ16は車両のヨーレートを逐次検出し、ステアリングセンサ18は、ステアリングの操舵角を逐次検出する。また、ミリ波レーダ20は、車両前方に向けて所定周波数のミリ波を出力し、且つ、対象物からの反射波を受信する。運転支援ECU26は、前方車両検出手段としても機能しており、上記ミリ波レーダ20によって受信された反射波に基づいて、前方車両(自車と同一車線において前方を走行している車両)の有無を連続的に判定し、前方車両を検出した場合にはその前方車両との間の距離、相対方位および相対速度を算出する。さらに、算出したそれらの情報に基づいて、車速制御などの運転支援制御を実行する。
ライト制御ECU28は、照度センサ21からの照度センサの出力輝度値に基づいて、図示しないフォグランプやヘッドライトを自動的に点灯・消灯する制御を実行するほか、画像処理ECU14において霧であると判定された場合にも、フォグランプやヘッドライトの点灯・消灯の制御を実行する。
図2は、上記画像処理ECU14の制御機能の要部を示すフローチャートである。図2に示す制御は、走行中に所定の周期で実行するものであり、この制御の実行中には、車載カメラ12によって車両前方の画像が連続的に撮像されている。図3、図4は、車載カメラ12によって撮像されている画像例である。
図2に示すように、上記画像処理ECU14は、まず、道路形状決定手段に相当する道路形状決定処理を実行し(ステップS100)、次いで、遠方道路領域決定手段に相当する遠方道路領域決定処理を実行し(ステップS200)、その後、画像霧状態判定手段に相当する霧判定画像処理(ステップS300)を実行する。
上記ステップS100の道路形状決定処理は、図5に詳しく示されている。図5において、まず、ステップS110では、車載カメラ12によって連続的に撮像される画像に基づいて、道路に沿って設けられている道路上標識である白線を認識する白線認識処理を実行する。この白線認識処理としては、公知の様々な処理手法を用いることができるが、たとえば、車載カメラ12によって撮像された画像を二値化処理し、二値化処理後の画像から白色部分を抽出することによって白線を認識する。なお、ここにおける白線は、通常の白線認識処理と同様に、白線のみでなく黄線も含むものである。
上記ステップS110における白線認識処理においては、常に白線が認識できるとは限らず、たとえば、道路に白線が描かれていない等の理由により、白線の認識ができないこともある。そこで、続くステップS120では、白線が認識できたか否かを判断する。ここでの判断は、続くステップS130において道路形状を決定できる程度に白線が認識できたかどうかを判断するものであり、両側の白線が認識される必要はなく、また、自車位置から消失点まで連続的に白線が認識できる必要もない。すなわち、ステップS120では、少なくとも一方の白線が、所定長さ連続して、或いは、断続的に認識できたか否かを判断する。
上記ステップ120の判断が肯定された場合には、続くステップS130において、道路形状を決定する。ここでの道路形状とは、自車から前方に延びる道路の曲がり具合(形状)を示す一本の線であり、たとえば、図3、図4に示す一点鎖線である。なお、図3および図4に示す一点鎖線は、自車が走行している車線の幅方向中心線となっているが、それに代えて、自車が走行している車線の左右いずれか一方の白線をそのまま道路形状としてもよいし、また、車線が複数ある場合には道路全体の幅方向中心線を道路形状としてもよい。
一方、ステップS120の判断が否定された場合には、ステップS140において、運転支援ECU26において前方車両が検出されているか否かを判断する。この判断が肯定された場合には、運転支援ECU26ではその前方車両との間の距離、相対方位が算出されているので、ステップS150において、運転支援ECU26において算出されている前方車両との間の距離および相対方位に基づいて、その前方車両の画像内における位置を決定する。
続くステップS160では、ステアリングセンサ18からの信号に基づいて操舵角を検出する。そして、ステップS170では、道路形状を示す線の自車側の端点として予め定められている画像内の所定点(たとえば、画像内におけるボンネットの境界線の車両幅方向中心点)とステップS150で決定した画像内における前方車両の位置とを、ステップS160で決定した操舵角を曲率半径とする円弧で連結することによって、道路形状を決定する。
前述のステップS140の判断も否定された場合には、ステップS180乃至S190を実行して道路形状を決定する。まず、ステップS180では、ステアリングセンサ18からの信号に基づいて操舵角を検出し、続くステップS190では、道路形状を示す線の自車側の端点として予め定められている画像内の所定点において、接線が車両前後方向に対して平行となるような円弧を、道路形状を示す線に決定する。なお、前述のステップS160およびステップS180のいずれか一方、あるいはその両方において、操舵角を検出することに代えて、ヨーレートセンサ16からヨーレートを検出してもよい。
上記ステップS130、S170、S190において、それぞれ決定される道路形状を比較すると、ステップS130は道路に沿って設けられている白線に基づいて道路形状を決定するため、最も道路形状を正確に決定することができ、また、ステップS170は、操舵角に加えて前方車両の位置を用いていることから、操舵角のみに基づいているステップS190よりも道路形状を正確に決定することができる。その一方で、ステップS130は白線が認識できない場合には道路形状が決定できず、また、ステップS170は前方車両が検出されない場合には道路形状が決定できないが、ステップS190は、確実に道路形状を決定することができる。
このようにして道路形状を決定したら遠方道路領域決定処理(図2のステップS200)を実行する。この遠方道路領域決定処理は、図6に詳しく示す処理である。
図6において、まず、ステップS210では、自車が走行している道路上において自車から所定の遠方距離にある画像内の遠方距離点を決定する。上記所定の遠方距離は、ここでは100mに設定されていることとするが、100mに限定されるものではなく、ある程度の濃さの霧の時に画像がぼやける程度に遠方であればよい。
車載カメラ12は車両に固定されていることから、平坦な地面上のある地点までの実距離と、画像内においてその地点がどこに位置するかは予め決定することができる。従って、画像内において平坦な地面上で自車から100m先の地点が位置する100m線は予め決定することができる。図7は、画像内における上記100m線Lfを示している。本実施形態では、この100m線Lfが遠方距離線であり、この100m線Lfが画像処理ECU14内のROMあるいは他の記憶装置に記憶されている。
そして、ステップS210では、その100m線LfとステップS100で決定した道路形状を示す線との交点を、自車が走行している道路上における遠方距離点(すなわち、ここでは100m先の点)に決定する。
続くステップS220では、上記ステップS210で決定した遠方距離点を基準として遠方道路領域の外枠OFを決定する。図3、図4に示されている遠方道路領域の外枠OFは、ステップS210で決定した遠方距離点が外枠OFの下辺の中心となるようにして設定したものである。また、この外枠OFの大きさは、車載カメラ12によって撮像される画像全体の大きさに対して十分小さ大きさに設定されている。
また、図3、図4には、車両周辺の空に相当する領域(以下、空領域)の外枠AFの設定例を示している。この空領域の外枠AFの画像上の位置は、画像処理ECU14内のROMあるいは他の記憶装置に記憶されている。
なお、図3、図4の例に限らず、上記遠方距離点が遠方道路領域の中心となるように外枠OFの位置を決定してもよい。また、道路形状を、走行車線の幅方向中心線としているか、道路全体の幅方向中心線としているか、走行車線の左右いずれかの白線としているかによって、遠方道路領域の外枠OFに対する遠方距離点の位置を変更してもよい。たとえば、道路形状(を示す線)を走行車線の右側白線としている場合には、遠方道路領域の外枠OFの下辺の右から1/4の点が遠方距離点となるように外枠OFの位置を決定してもよい。
続くステップS230では、上記ステップS220で決定した遠方道路領域の外枠OF内の領域から道路部分を除去する。本実施形態では、図8に示す予め設定された固定の道路部分30を除去する。この道路部分は、外枠OFの中心Oを頂点とし、外枠OFの下辺を底辺とする三角形部分である。
外枠OF内に実際に撮像されている道路部分は、走行中の道路の幅や、直線道路であるかカーブ形状の道路であるかなどによってその形状が異なることを考えると、このように道路部分30が固定された領域となっていると、外枠OF内において実際に撮像されている画像から道路部分を正確に除去することは困難である。しかし、道路形状がどのようなものであっても、遠方道路領域内においては、道路部分は下辺から上方へ向かうに従って狭くなるので、このように除去する道路部分30を固定しても、大半の道路部分を除去することは可能であり、また、このように道路部分30を固定することによって演算処理負荷を軽減させることができる。上記ステップS230で道路部分が除去されると、除去後の領域は、路側部分の割合が相対的に多くなる。
なお、道路部分30を固定せずに、ステップS100で決定した道路形状に基づいて道路部分を決定することも可能である。この場合には、たとえば、道路形状を示す線と遠方道路領域の外枠OFとが一点でしか交わっていない場合(図3参照)には、消失点を頂点として外枠OFの下辺を底辺とする三角形を道路部分とし、道路形状を示す線と遠方道路領域の外枠OFとが二点で交わっている場合(図4参照)には、その2つの交点のうち外枠OFの下辺ではない部分において交わっている側の交点(またはそれよりも所定座標だけ上側の点)を頂点として、外枠OFの下辺を底辺とする直角三角形を道路部分とすればよい。また、画像処理によって白線を認識してその白線に基づいて道路部分を決定してもよい。
続くステップS240では、上記ステップS220で決定した遠方道路領域の外枠OF内に車両部分があるか否かを判断する。この判断を行うのは、遠方道路領域として決定する画像に、近距離に位置する車両が含まれていると霧判定が困難となることから、そのような近距離に位置する車両を遠方道路領域内の画像から除去するためである。従って、ステップS240では、運転支援ECU26によって前方車両の存在が検出されているかをまず判断する。そして、前方車両の存在が検出されている場合には、運転支援ECU26によって特定されている前方車両の位置および相対距離に基づいて車両が含まれると考えられる画像処理範囲を決定し、その画像処理範囲に対して、たとえば輝度変化に基づいて車両輪郭線を決定する等の公知の画像処理を実行することにより車両部分を決定し、その決定した車両部分を、上記ステップS220で決定した遠方道路領域の外枠OFと比較する。
上記ステップS240の判断が否定された場合には、そのまま図6に示すルーチンを終了する。この場合には、ステップS220で決定した外枠OF内の領域から道路部分30を除去した領域が遠方道路領域となる。一方、ステップS240の判断が肯定された場合には、ステップS250において、ステップS220で決定した外枠OF内の領域から、前述のステップS240の判断において決定した車両部分を除去した領域を、遠方道路領域に決定する。
以上のようにして、画像内における遠方道路領域を決定されると、決定した遠方道路領域と空領域とに対して、ステップS300において霧判定画像処理を実行する。従って、遠方道路領域と空領域とは、霧判定画像処理が行われる画像処理領域であるということもできる。
ステップS300の霧判定画像処理は図9に詳しく示す処理である。図9において、まず、ステップS310では、遠方道路領域の画像と空領域の画像を抽出する。なお、空領域については、空領域において際立って高い輝度を示す高輝度空領域の画像を抽出することが好ましい。つまり、空領域の画像には、空だけが映し出されることもあれば、道路周辺に存在する電柱や樹木等の路側物も含めて映し出されることもある。そのため、空領域において際立って高い輝度を示す高輝度空領域の画像を抽出すれば、空だけが映し出されている領域の画像を抽出できる。
ステップS320では、ステップS310で抽出した遠方道路領域と空領域の画像から、遠方道路領域及び空領域におけるそれぞれの代表輝度を算出する。例えば、それぞれの領域に含まれる各画素の輝度平均値を代表輝度として算出する。これにより、車載カメラ12によって撮像された画像から、空の輝度を取得することができるようになる。
ステップS330では、遠方道路領域の代表輝度値に基づいて、この遠方道路領域に黒つぶれが発生しているかどうかを判定する。このステップS330にて肯定判断される場合にはステップS340〜ステップS350における、遠方道路領域の代表輝度と空領域の代表輝度とを用いた霧判定の処理を行い、ステップS330にて否定判断される場合には、ステップS360における遠方道路領域におけるエッジ強度に基づく霧判定を行う。
すなわち、ステップS350において、遠方道路領域の輝度の比較対象として空の輝度を用いて霧判定をすることで、遠方道路領域に黒つぶれが発生しても、霧判定の精度を確保することができるが、遠方道路領域において黒つぶれが発生していない場合(黒つぶれ不発生時)には、この遠方道路領域のみを用いて霧判定が可能である。
このことから、本霧判定画像処理では、遠方道路領域において黒つぶれ不発生時には、遠方道路領域の画像を用いて霧判定し、遠方道路領域において黒つぶれ発生時には、遠方道路領域の輝度と空の輝度とを用いて霧判定する。このように、遠方道路領域における黒つぶれ発生の有無に応じて、霧判定に用いるべく、車載カメラ12により撮像された画像内の領域を選択する(切り替える)ことで、常時、遠方道路領域の輝度と空の輝度とを用いて霧判定することがなくなる。その結果、画像処理の負荷を軽減できるようになる。
なお、ステップS360における処理は、本出願人による出願(特願2005−175743号の図9)と同様であるので、その説明は省略する。
ステップS340では、数式1に示すように、空領域の代表輝度に対する遠方道路領域の代表輝度の割合(輝度比)を算出する。
(数1)
輝度比=遠方道路領域の代表輝度/空領域の代表輝度
ステップS350では、図10に示す確率分布マップにステップS340にて算出した輝度比を当てはめることで、車載カメラ12により撮像された画像が、霧がかかった画像であるかどうかの確率を判定する。ここで、図10の確率分布マップについて説明する。
車両周辺に霧が発生している場合、空領域の輝度の値と遠方道路領域の輝度の値とは、近い値を示すことになるため、空領域の輝度に対する遠方道路領域の輝度の割合(輝度比)は、0.5〜1.0程度の範囲に多く分布する。
そうであれば、霧が発生していない場合には、空領域の輝度の値と遠方道路領域の輝度の値とは近い値を示さず、輝度比についても0.5〜1.0程度の範囲から外れた範囲に多く分布するものと考えられる。しかしながら、霧が発生していない場合の輝度比は、車両の走行シーンが一様ではないゆえに、0.5〜1.0程度の範囲を含んで幅広い範囲に分布することが本願発明者の実験によって明らかとなった。
ここで、霧が発生している場合の輝度比の分布と、霧が発生していない場合の輝度比の分布とから明らかなことは、霧が発生していない場合の輝度比が0.5〜1.0程度の範囲を含む幅広い範囲に分布するのだから、霧が発生している場合の輝度比が多く分布する0.5〜1.0程度の範囲は、実際に、霧が発生しているか発生していないかどうか不明確(従って、図10に示すように、輝度比0.5〜1.0程度の範囲の場合は、車載カメラ12により撮像された画像が、霧がかかった画像ではない確率と霧がかかった画像である確率とが同程度(確率50%程度)を示す)である。加えて、霧が発生している場合の輝度比が多く分布する0.5〜1.0程度の範囲から外れた範囲(図10における輝度比0〜0.5程度の範囲)は、少なくとも、霧が発生していない場合である確率が高い、ということである。
従って、ステップS350では、輝度比が小さいほど、車載カメラ12により撮像された画像が、霧がかかった画像ではない(非霧)確率が高くなり、霧がかかった画像ではない確率と霧がかかった画像である確率とが略等しくなる確率(約50%)を上限として、輝度比が大きくなるにつれて、車載カメラ12により撮像された画像が、霧がかかった画像ではない確率が低くなる確率分布マップ(図10)を用いて判定する。これにより、車両の走行シーンに関らず、霧判定の精度を確保することができるのである。
ステップS350にて、車載カメラ12により撮像された画像が、霧がかかった画像であるかどうかの確率の判定結果を車内LAN24を介して出力する。
以上、説明した本実施形態によれば、遠方道路領域の輝度の比較対象として空の輝度を用いて霧判定を行うものである。つまり、昼間において霧が発生していない場合、遠方道路領域の輝度は、遠方道路領域における黒つぶれの発生に係わらず、車両周辺の空の輝度に比べて低い輝度を示す。一方、昼間において霧が発生している場合、霧の粒子が太陽光を散乱することで、全体的に白い画像が車載カメラ12によって撮像されるようになる。そのため、遠方道路領域の輝度と空の輝度とが近いレベルを示す。従って、遠方道路領域の輝度の比較対象として空の輝度を用いて霧判定を行うことで、遠方道路領域に黒つぶれが発生しても、霧判定の精度を確保することができるのである。
以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、次の実施形態も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。
例えば、前述の実施形態では、図9のステップS330にて、遠方道路領域において黒つぶれが発生しているかどうかを判定し、黒つぶれが発生していない場合には遠方道路領域の画像のみを用いて霧判定を行うものであるが、ステップS330の判定処理、及びステップS360の霧判定処理を除いて、常に、ステップS340の輝度比算出を行って、ステップS350の霧判定処理を行うようにしてもよい。
また、前述の実施形態では、図9の霧判定画像処理において、空領域における代表輝度から空の輝度を求めているが、本実施形態のように照度センサ21が搭載されている場合には、この照度センサ21の出力輝度値を用いて、車両周辺の空の輝度を取得するようにしてもよい。照度センサ21の出力輝度値を用いれば、空領域の輝度を取得するための画像処理が不要になるからである。
また、前述の実施形態では、道路の形状を決定するための道路上標識として白線を認識していたが、道路上標識としては、白線以外に、白線と同様に車線を区画するために連続的に配置されている突起物(半球状のものや、棒状のものなど)、中央分離帯、路側の側溝、轍等があり、それらを認識して道路の形状を決定してもよい。
また、前述の実施形態では、遠方道路領域の外枠OFから道路部分を除去し、さらに、車両部分がある場合にはその車両部分も除去した領域を遠方道路領域としていたが、道路部分や車両部分を除去する処理は必須ではなく、遠方道路領域の外枠OF内の画像を全て用いて霧判定を行ってもよい。
また、前述の実施形態では、画像内における自車側の所定の端点と前方車両の位置とを、操舵角を曲率半径とする円弧で連結することによって道路形状を決定していたが、ミリ波レーダ20が車両前後方向線に対して比較的狭い範囲の車両のみを検出するようになっている場合には、自車側の所定の端点と前方車両とを直線で連結して道路形状を決定してもよい。この場合には、ステップS160(操舵角の検出)は不要となる。なお、前方車両を検出するために、ミリ波レーダ20に代えて、レーザレーダーを備えていてもよいし、また、画像からテールランプやナンバープレート等の車両に特徴的な形状を検出することによって前方車両を検出するようにしてもよい。
また、前述の実施形態では、遠方道路領域の外枠OFおよび至近路辺領域32はいずれも矩形であったが、これらは矩形である必要はなく、円形等の他の形状であってもよい。
本発明が適用された車載霧判定装置10の構成を示すブロック図である。 図1の画像処理ECU14が実行する制御機能の要部を示すフローチャートである。 車載カメラ12によって撮像されている画像例である。 車載カメラ12によって撮像されている画像例である。 図1のステップS100の道路形状決定処理を詳しく示すフローチャートである。 図1のステップS200の遠方道路領域決定処理を詳しく示すフローチャートである。 車載カメラ12によって撮像される画像内における予め設定された100m線Lfを示す図である。 予め設定された固定の道路部分30を示す図である。 図1のステップS300の霧判定画像処理を詳しく示すフローチャートである。 空領域の輝度に対する遠方道路領域の輝度の割合を示す輝度比の確率分布マップを示した図である。
符号の説明
10:車載霧判定装置
12:車載カメラ
16:ヨーレートセンサ
18:ステアリングセンサ
32:至近路辺領域
Lf:100m線(遠方距離線)
OF:遠方道路領域の外枠
AF:空領域の外枠

Claims (7)

  1. 車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する画像霧状態判定手段を備えた車載霧判定装置であって、
    前記車載カメラによって撮像された画像内において、前記車両から、ある程度の濃さの霧の時に画像がぼやける程度の遠方に設定された遠方距離にある道路の路側部分を含む領域である遠方道路領域の輝度を取得する遠方輝度取得手段と、
    前記車両周辺の空の輝度を取得する空輝度取得手段と、を備え、
    前記画像霧状態判定手段は、前記遠方道路領域の輝度と前記空の輝度とを用いて判定することを特徴とする車載霧判定装置。
  2. 車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する画像霧状態判定手段を備えた車載霧判定装置であって、
    前記車載カメラによって撮像された画像内において、前記車両から所定の遠方距離にある道路上の領域である遠方道路領域の輝度を取得する遠方輝度取得手段と、
    前記車両周辺の空の輝度を取得する空輝度取得手段と、を備え、
    前記画像霧状態判定手段は、
    前記遠方道路領域において黒つぶれ不発生時には、前記遠方道路領域の画像を用いて判定し、
    前記遠方道路領域において黒つぶれ発生時には、前記遠方道路領域の輝度と前記空の輝度とを用いて判定することを特徴とする車載霧判定装置。
  3. 前記車載カメラによって撮像された画像内において、前記車両が走行している道路の形状を決定する道路形状決定手段と、
    前記道路形状決定手段によって決定された道路の形状に基づき、前記画像内における前記遠方道路領域を決定する遠方道路領域決定手段と、を備えることを特徴とする請求項1又は2記載の車載霧判定装置。
  4. 前記車載カメラによって撮像された画像内において、前記車両周辺の空に相当する領域である空領域の画像を抽出する空領域画像抽出手段を備え、
    前記空輝度取得手段は、前記空領域の輝度を取得するものであることを特徴とする請求項1〜3の何れか1項に記載の車載霧判定装置。
  5. 前記空領域画像抽出手段は、前記空領域内において際立って高い輝度を示す高輝度空領域の画像を抽出することを特徴とする請求項4記載の車載霧判定装置。
  6. 前記空輝度取得手段は、前記車両に搭載された照度センサの出力輝度値を用いて、前記車両周辺の空の輝度を取得することを特徴とする請求項1〜3の何れか1項に記載の車載霧判定装置。
  7. 前記画像霧状態判定手段は、
    前記空の輝度に対する前記遠方道路領域の輝度の割合を示す輝度比が小さいほど、前記車載カメラにより撮像された画像が、霧がかかった画像ではない確率が高くなり、
    前記車載カメラにより撮像された画像が、霧がかかった画像ではない確率と霧がかかった画像である確率とが略等しくなる確率を上限として、前記輝度比が大きくなるにつれて、前記車載カメラにより撮像された画像が、霧がかかった画像ではない確率が低くなる確率分布マップを用いて判定することを特徴とする請求項1〜6の何れか1項に記載の車載霧判定装置。
JP2006247125A 2006-09-12 2006-09-12 車載霧判定装置 Expired - Fee Related JP4784452B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006247125A JP4784452B2 (ja) 2006-09-12 2006-09-12 車載霧判定装置
DE102007043164.5A DE102007043164B4 (de) 2006-09-12 2007-09-11 Nebelerkennungsvorrichtung für Kraftfahrzeuge
US11/900,427 US7656277B2 (en) 2006-09-12 2007-09-12 Apparatus for detecting the presence of fog for automotive vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006247125A JP4784452B2 (ja) 2006-09-12 2006-09-12 車載霧判定装置

Publications (2)

Publication Number Publication Date
JP2008070979A JP2008070979A (ja) 2008-03-27
JP4784452B2 true JP4784452B2 (ja) 2011-10-05

Family

ID=39168995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006247125A Expired - Fee Related JP4784452B2 (ja) 2006-09-12 2006-09-12 車載霧判定装置

Country Status (3)

Country Link
US (1) US7656277B2 (ja)
JP (1) JP4784452B2 (ja)
DE (1) DE102007043164B4 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5363085B2 (ja) * 2008-12-03 2013-12-11 株式会社小糸製作所 前照灯制御装置
US9952046B1 (en) 2011-02-15 2018-04-24 Guardvant, Inc. Cellular phone and personal protective equipment usage monitoring system
US9198575B1 (en) 2011-02-15 2015-12-01 Guardvant, Inc. System and method for determining a level of operator fatigue
JP5792376B2 (ja) * 2011-05-16 2015-10-14 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 車両および車両用のカメラ装置を動作させる方法
JP5754470B2 (ja) * 2012-12-20 2015-07-29 株式会社デンソー 路面形状推定装置
US9514373B2 (en) 2013-08-28 2016-12-06 Gentex Corporation Imaging system and method for fog detection
US9734425B2 (en) 2015-02-11 2017-08-15 Qualcomm Incorporated Environmental scene condition detection
US9846927B2 (en) * 2014-05-20 2017-12-19 Qualcomm Incorporated Systems and methods for haziness detection
EP3156968B1 (en) * 2014-06-12 2019-02-27 EIZO Corporation Haze removal device and image generation method
US10380451B2 (en) 2014-11-06 2019-08-13 Gentex Corporation System and method for visibility range detection
JP6443063B2 (ja) * 2015-01-15 2018-12-26 株式会社デンソー 道路形状情報生成装置、道路形状情報集配システム及び道路形状情報生成プログラム
CN107636751B (zh) * 2015-06-15 2021-06-04 三菱电机株式会社 行驶车道判别装置和行驶车道判别方法
CN107872608B (zh) * 2016-09-26 2021-01-12 华为技术有限公司 图像采集设备及图像处理方法
KR101889645B1 (ko) * 2017-02-06 2018-08-20 부산대학교 산학협력단 도로 기상정보 제공 장치 및 방법
US10803570B2 (en) 2018-05-10 2020-10-13 Eagle Technology, Llc Method and system for a measure of visibility from a single daytime image
JP7210208B2 (ja) * 2018-09-28 2023-01-23 株式会社デンソー 提供装置
JP7515983B2 (ja) 2020-12-02 2024-07-16 アルプスアルパイン株式会社 霧状況検出システム、画像処理システム、及び、霧状況検出方法
US11766938B1 (en) * 2022-03-23 2023-09-26 GM Global Technology Operations LLC Augmented reality head-up display for overlaying a notification symbol over a visually imperceptible object

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0718804B2 (ja) * 1992-06-24 1995-03-06 日本道路公団 画像処理によるトンネル内輝度測定方法
WO1997016926A1 (en) * 1995-10-31 1997-05-09 Sarnoff Corporation Method and apparatus for determining ambient conditions from an image sequence
JPH11139262A (ja) 1997-11-12 1999-05-25 Fuji Heavy Ind Ltd 車両のウィンドウの視界不良検知装置
JP3444192B2 (ja) * 1998-05-21 2003-09-08 日産自動車株式会社 撮像環境推定装置
JP2000259998A (ja) * 1999-03-12 2000-09-22 Yazaki Corp 車両用後側方監視装置
JP3312729B2 (ja) * 1999-07-14 2002-08-12 富士重工業株式会社 フェールセーフ機能を有する車外監視装置
JP3909665B2 (ja) * 2001-10-25 2007-04-25 小糸工業株式会社 煙又は霧等の検出装置
FR2835911B1 (fr) * 2002-02-14 2004-05-07 France Etat Ponts Chaussees Procede de determination de la distance de visisbilite et procede de determination de la presence d'un brouillard
JP4506573B2 (ja) * 2005-06-15 2010-07-21 株式会社デンソー 車載霧判定装置
DE102005035810A1 (de) * 2005-07-27 2007-02-01 Adc Automotive Distance Control Systems Gmbh Verfahren zur Sichtweitenbestimmung mit einer Kamera
JP2007057331A (ja) * 2005-08-23 2007-03-08 Denso Corp 車載霧判定装置

Also Published As

Publication number Publication date
DE102007043164A1 (de) 2008-04-17
US7656277B2 (en) 2010-02-02
US20080061950A1 (en) 2008-03-13
DE102007043164B4 (de) 2016-12-22
JP2008070979A (ja) 2008-03-27

Similar Documents

Publication Publication Date Title
JP4784452B2 (ja) 車載霧判定装置
JP4321591B2 (ja) 車載霧判定装置
JP4506573B2 (ja) 車載霧判定装置
JP4241834B2 (ja) 車載霧判定装置
US7693629B2 (en) Onboard fog determining apparatus
CN113998034B (zh) 骑乘者辅助系统和方法
JP4730267B2 (ja) 車両用視界状況判定装置
CN105981042B (zh) 车辆探测系统及方法
US8543254B1 (en) Vehicular imaging system and method for determining roadway width
JP5617999B2 (ja) 車載周辺物認識装置及びこれを用いる運転支援装置
JP2007057331A (ja) 車載霧判定装置
EP2600329B1 (en) External environment recognition device for vehicle, and light distribution control system using same
JP3716623B2 (ja) 温体検出装置
JP4935586B2 (ja) 画像処理装置、車載用画像処理装置、車載用画像表示装置及び車両制御装置
JP5077184B2 (ja) 車両検出装置
JP2006343322A (ja) 夜間の霧を検出するための方法、およびこの方法を実施するためのシステム
JP5065172B2 (ja) 車両灯火判定装置及びプログラム
EP2482268A1 (en) Vehicle periphery monitoring device
JP4980970B2 (ja) 撮像手段の調整装置および物体検出装置
EP2347931A1 (en) Headlamp controller
JP4913101B2 (ja) 車両用道路形状検出装置
JP2006227876A (ja) 夜間画像による霧検出装置
WO2015190052A1 (ja) 前方状況判定装置
JP4735530B2 (ja) 道路区画線認識装置
US20180181821A1 (en) Recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110627

R151 Written notification of patent or utility model registration

Ref document number: 4784452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees