JP2008170283A - 車載霧判定装置 - Google Patents

車載霧判定装置 Download PDF

Info

Publication number
JP2008170283A
JP2008170283A JP2007003927A JP2007003927A JP2008170283A JP 2008170283 A JP2008170283 A JP 2008170283A JP 2007003927 A JP2007003927 A JP 2007003927A JP 2007003927 A JP2007003927 A JP 2007003927A JP 2008170283 A JP2008170283 A JP 2008170283A
Authority
JP
Japan
Prior art keywords
determination
image
fog
mask
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007003927A
Other languages
English (en)
Other versions
JP4241834B2 (ja
Inventor
Naoteru Kawasaki
直輝 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2007003927A priority Critical patent/JP4241834B2/ja
Priority to US12/008,407 priority patent/US8077921B2/en
Priority to DE102008003948A priority patent/DE102008003948B4/de
Publication of JP2008170283A publication Critical patent/JP2008170283A/ja
Application granted granted Critical
Publication of JP4241834B2 publication Critical patent/JP4241834B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

【課題】誤判定を低減することができる車載霧判定装置を提供する。
【解決手段】車載カメラ12によって撮像された画像の一部を霧判定に用いる判定画像として抽出する(S100)。その判定画像からランプなど霧判定においてノイズ要因となる箇所をマスクする(S200)。このマスク処理後の判定画像から、周波数解析(S400)において用いる各入力信号に対して、マスク処理によって生じた不連続箇所の数を一次細分化度とし、さらに、全部の一次細分化度の中で、その一次細分化度が所定値よりも高いものの割合を全体細分化度とする(S300)。また、判定画像の全体の面積に対するマスクされた画像の面積の割合をマスク割合指標として算出する(S620)。そして、全体細分化度が基準値ST3よりも高い場合、または、マスク割合指標が基準値ST4よりも高い場合には、信頼性のある霧判定が行えないので、霧判定を行わない。誤判定が低減できる。
【選択図】図13

Description

本発明は、車載カメラによって撮像された画像が、霧がかかった画像であるかどうかを判定する車載霧判定装置に関する。
車載カメラの撮像画像を処理して霧判定を行う装置が知られている(たとえば特許文献1)。特許文献1における霧判定の方法は、画像のぼけ具合に基づいており、霧である場合にはぼけた画像となるので、画像のぼけ具合を推定することにより霧判定を行っている。画像のぼけ具合の推定は、まず、画像全体に対して、微分演算によって、画素の明るさを意味する画素値のエッジ強度を画素毎に算出する。そして、そのエッジ強度に基づいて、画像のぼけ具合を推定している。画像がぼけているほどエッジ強度は全体的に小さくなることから、エッジ強度に基づいて画像のぼけ具合が推定できるのである。
また、カメラによって撮像された画像をデジタル化して周波数解析し、周波数分布から霧を判定する手法も知られている(たとえば、特許文献2)。この特許文献2に記載の方法は、周波数分布から人間の視覚感度が良好な領域を抽出して、その領域の強度に基づいて霧かどうかを判定している。そのため、画像の画角や解像度が変化しても判定精度が担保される点でエッジ強度による霧判定よりも優れている。
特許3444192号公報 特開2006−221467号公報
ところで、特許文献1のように画像のエッジ強度を解析して霧判定を行う場合であっても、また、特許文献2のように周波数解析から霧判定を行う場合であっても、解析に用いる画像から霧判定においてノイズ要因となる箇所を取り除く(すなわち、マスクする)必要がある。ノイズ要因となる箇所とは、ランプが写っている箇所や、自車から距離が近い物体が写っている箇所である。これらは霧であっても比較的鮮明に撮像されてしまうからである。
その一方で、マスク部分が多すぎると、解析に用いることができる信号が不十分となってしまうので、霧であるか霧でないかを誤判定してしまう恐れが生じてしまう。
本発明は、この事情に基づいて成されたものであり、その目的とするところは、誤判定を低減することができる車載霧判定装置を提供することにある。
その目的を達成するための請求項1記載の発明は、車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する車載霧判定装置であって、
前記車載カメラによって撮像された画像の少なくとも一部を霧判定に用いる判定画像に決定する判定画像決定手段と、その判定画像決定手段によって決定された判定画像に対して、ノイズ要因となる箇所をマスクするマスク手段と、そのマスク手段によってマスクされた後の判定画像を周波数解析して、解析結果に基づいて霧判定を行う画像霧状態判定手段とを備えるとともに、さらに、マスクされることによる前記判定画像の細分化度を決定する細分化度決定手段を備え、
前記判定画像の細分化度が予め設定された基準値よりも高い場合には、前記画像霧状態判定手段による霧判定を中止するか、その画像霧状態判定手段における判定結果の信頼度を、細分化度が予め設定された基準値以下の場合よりも低下させることを特徴とする。
前述のように、画像の霧判定を行う場合には、ノイズ要因となる箇所をマスクする必要があるが、ノイズ要因となる箇所をマスクすると、マスクの端において画像信号に不連続点が生じてしまう。画像を周波数解析する場合において、周波数解析に用いる画像信号に不連続点が多くなると、周波数解析の信頼度は低下してしまう。そのため、マスク箇所が多すぎると、周波数解析の信頼性が低下して、誤判定をしてしまう恐れがある。しかし、請求項1では、マスクされることによる判定画像の細分化度を決定しており、この細分化度が予め設定された基準値よりも高い場合には、霧判定を中止するか、細分化度が予め設定された基準値以下の場合よりも判定結果の信頼度を低下させている。従って、誤判定が低減できる。
また、上記目的を達成するための請求項2記載の発明は、車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する車載霧判定装置であって、
前記車載カメラによって撮像された画像の少なくとも一部を霧判定に用いる判定画像に決定する判定画像決定手段と、その判定画像決定手段によって決定された判定画像に対して、ノイズ要因となる箇所をマスクするマスク手段と、そのマスク手段によってマスクされた後の判定画像をエッジ強度解析または周波数解析して、解析結果に基づいて霧判定を行う画像霧状態判定手段とを備えるとともに、さらに、前記判定画像において前記マスク手段によってマスクされた部分とマスクされていない部分との割合を表すマスク割合指標を算出するマスク割合指標算出手段を備え、
前記マスク割合指標と予め設定された基準値との比較に基づいて、マスクされた後の判定画像の信号量が不十分であると判断できる場合には、前記画像霧状態判定手段による霧判定を中止するか、その画像霧状態判定手段における判定結果の信頼度を、信号量が十分である場合よりも低下させることを特徴とする。
前述のように、画像の霧判定を行う場合には、判定画像においてノイズ要因となる箇所をマスクする必要があるが、ノイズ要因となる箇所をマスクすると、判定画像の中で霧判定のための解析に使用することができる割合が低下してしまい、その結果、解析に用いる信号量が少なくなる。解析手法がエッジ強度解析であっても、あるいは、周波数解析であっても、解析に用いる信号量が少ないとその解析の信頼度は低下してしまう。そのため、マスク割合が多すぎると誤判定をしてしまう恐れがある。しかし、請求項2では、判定画像においてマスクされた部分とマスクされていない部分との割合を表すマスク割合指標を算出しており、このマスク割合指標と予め設定された基準値との比較に基づいてマスクされた後の判定画像の信号量が不十分であると判断できる場合には、霧判定を中止するか、信号量が十分である場合よりも判定結果の信頼度を低下させている。従って、誤判定が低減できる。
請求項3記載の発明は、請求項1記載の発明に請求項2記載の発明の特徴を組み合わせた発明である。すなわち、請求項3は、請求項1において、さらに、前記判定画像において前記マスク手段によってマスクされた部分とマスクされていない部分との割合を表すマスク割合指標を算出するマスク割合指標算出手段を備え、前記判定画像の細分化度が予め設定された基準値よりも高い場合、または、前記マスク割合指標と予め設定された基準値との比較に基づいてマスクされた後の判定画像の信号量が不十分であると判断できる場合には、前記画像霧状態判定手段による霧判定を中止するか、その画像霧状態判定手段における判定結果の信頼度を、細分化度が予め設定された基準値以下の場合または前記信号量が十分である場合よりも低下させることを特徴とする。
この請求項3によれば、細分化度が予め設定された基準値よりも高い場合にも、また、信号量が不十分であると判断できる場合にも、霧判定を中止するか、判定結果の信頼度を低下させている。従って、より誤判定を低減することができる。
請求項4は、請求項1または3において、前記周波数解析は、前記マスク手段によってマスクされた後の判定画像から一つまたは複数の入力信号を決定して、その入力信号の周波数成分を解析するものであり、前記細分化度決定手段は、一つの入力信号内において前記マスク処理によって生じた不連続箇所の数を細分化度として決定することを特徴とする。
マスク処理による不連続箇所が多いほど、周波数解析に用いる各入力信号は細分化されるので、マスク処理による不連続箇所の数を細分化度とすることができるのである。
請求項5は、上記請求項4において入力信号毎に得られる細分化度をそれぞれ一次細分化度とし、全部の一次細分化度から最終的な細分化度を決定するものである。すなわち、請求項5は、請求項1または3において、前記周波数解析は、前記マスク手段によってマスクされた後の判定画像から複数の入力信号を決定して、各入力信号の周波数成分を解析するものであり、前記細分化度決定手段は、前記各入力信号内の前記マスク処理によって生じた不連続箇所の数をそれぞれ一次細分化度とし、全部の一次細分化度の中で、その一次細分化度が所定値よりも高いものの割合を前記判定画像の細分化度に決定することを特徴とする。
また、マスク割合指標としては、請求項6や請求項7のものを用いることができる。その請求項6は、請求項2または3において、前記マスク割合指標は、前記判定画像の全体の面積に対する前記マスク手段によってマスクされた画像の面積の割合であることを特徴とする。
請求項7は、請求項2または3において、前記画像霧状態判定手段は、前記マスク手段によってマスクされた後の判定画像から複数の入力信号を決定して、各入力信号の周波数成分を解析した結果に基づいて霧判定を行うものであり、前記マスク割合指標は、各入力信号のうち、マスク手段によってマスクされた部分がある入力信号の割合であることを特徴とする。
以下、本発明の車載霧判定装置の実施の形態を、図面に基づいて説明する。図1は、本発明の車載霧判定装置として機能する画像処理ECU14を含む車載霧判定システム10の構成を示すブロック図である。
車載霧判定システム10は、車載カメラ12、画像処理ECU14、ヨーレートセンサ16、ステアリングセンサ18、ミリ波レーダ20、車速センサ22、コンライトセンサ23を備えており、それらが車内LAN24によって相互に接続されている。また、この車内LAN24には、運転支援制御ECU26およびライト制御ECU28も接続されている。
上記車載カメラ12は、レンズとCCDとを備えており、レンズによって集光された光をCCDによって検出する形式であり、グレースケールの画像を撮像する。この車載カメラ12の取り付け位置は、車両の内部、たとえば運転席近傍の天井とされており、車載カメラ12によって、車両前方の画像が連続的に撮像され、撮像された画像のデータは、画像処理ECU14において処理される。
画像処理ECU14は、図示しない内部にCPU、ROM、RAM等を備えたコンピュータであり、そのRAMには、車載カメラ12によって連続的に撮像される一定時間分の画像のデータが一時的に記憶される。そして、CPUは、ROMに記憶されたプログラムに従って、そのRAMに記憶された画像データに対して図2に示す処理を実行する。このCPUの処理については後述する。
ヨーレートセンサ16は車両のヨーレートを逐次検出し、ステアリングセンサ18は、ステアリングの操舵角を逐次検出する。また、ミリ波レーダ20は、車両前方に向けて所定周波数のミリ波を出力し、且つ、対象物からの反射波を受信する。コンライトセンサ23は、たとえば、ダッシュボード上面に設けられ、その設置位置に照射される照度(ルクス:lx)を検出する。
運転支援制御ECU26は、前方車両検出手段としても機能しており、上記ミリ波レーダ20によって受信された反射波に基づいて、前方車両(自車と同一車線において前方を走行している車両)の有無を連続的に判定し、前方車両を検出した場合にはその前方車両との間の距離、相対方位および相対速度を算出する。さらに、算出したそれらの情報に基づいて、車速制御などの運転支援制御を実行する。
ライト制御ECU28は、画像処理ECU14において霧であると判定された場合に、図示しないフォグランプの点灯・消灯の制御を実行する。
図2は、上記画像処理ECU14が霧判定において実行するメインルーチンを示すフローチャートである。図2に示す制御は、走行中に所定の周期で実行するものであり、この制御の実行中には、車載カメラ12によって車両前方の画像が連続的に撮像されている。図3、図4は、車載カメラ12によって撮像された画像例である。
図2に示すように、上記画像処理ECU14は、まず、判定画像抽出処理を実行する(ステップS100)。この処理は、請求項の判定画像決定手段に相当する処理であり、車載カメラ12によって撮像された画像から霧判定に用いる判定画像を抽出する。次いで、マスク手段に相当するマスク処理を実行して、判定画像からノイズ要因となる箇所をマスクする(ステップS200)。
その後、ステップS300において、後述する霧判定の信頼度を算出する。次いで、ステップS400において、判定画像の周波数解析演算を実行する。そして、ステップS500では、ステップS400の周波数解析結果に基づいて霧判定を行う。上記ステップS100、200、S300、S400、S500の処理は、それぞれ、図5、図6、図7、図8、図9に基づいて後に詳述する。
次に、図5に基づいて判定画像抽出処理を詳しく説明する。まず、ステップS110において、自車が走行している道路の道路形状を決定する。ここでの道路形状とは、自車から前方に延びる道路の曲がり具合(形状)を示す一本の線である。道路形状の決定は、たとえば、道路に設けられた白線を認識することによって行う。白線認識処理としては、公知の種々の手法を用いることができるが、たとえば、車載カメラ12によって撮像された画像を二値化処理し、二値化処理後の画像から白色部分を抽出することによって白線を認識する。なお、ここにおける白線は、通常の白線認識処理と同様に、白線のみでなく黄線も含むものである。
上記白線認識処理によって自車が走行している車線の両側の白線が認識できた場合には、その2本の白線の幅方向平均線(すなわち車線の幅方向中央線)を道路形状に決定する。ただし、自車が走行している車線の左右いずれか一方の白線をそのまま道路形状としてもよいし、車線が複数ある場合には道路全体の幅方向中心線を道路形状としてもよい。
また、運転支援制御ECU26では前方車両との間の距離、相対方位が算出されているので、白線認識に代えて、または白線が認識できない場合において、運転支援制御ECU26において算出されている前方車両との間の距離および相対方位に基づいて道路形状を決定してもよい。
この場合には、まず、運転支援制御ECU26において算出されている前方車両との間の距離および相対方位に基づいてその前方車両の画像内における位置を決定し、次いで、ステアリングセンサ18からの信号に基づいて操舵角を検出する。そして、道路形状を示す線の自車側の端点として予め定められている画像内の所定点(たとえば、画像内におけるボンネットの境界線の車両幅方向中心点)と画像内における前方車両の位置とを、上記操舵角を曲率半径とする円弧で連結することによって、道路形状を決定する。
また、操舵角のみから道路形状を決定してもよい。この場合には、まず、ステアリングセンサ18からの信号に基づいて操舵角を検出する。次いで、道路形状を示す線の自車側の端点として予め定められている画像内の所定点において、接線が車両前後方向に対して平行となるような円弧を、道路形状を示す線に決定する。なお、道路形状の決定においては、操舵角に代えてヨーレートセンサ16からヨーレートを用いてもよい。
ステップS110において道路形状を決定したら、ステップS120に進んで、自車が走行している道路上において自車から所定の遠方距離にある画像内の遠方距離点を決定する。上記所定の遠方距離は、ここでは100mに設定されていることとするが、100mに限定されるものではなく、ある程度の濃さの霧の時に画像がぼやける程度に遠方であればよい。
なお、車載カメラ12は車両に固定されていることから、平坦な地面上のある地点までの実距離と、画像内においてその地点がどこに位置するかは予め決定することができる。従って、画像内において平坦な地面上で自車から100m先の地点が位置する100m線は予め決定することができる。この100m線は画像処理ECU14内のROMあるいは他の記憶装置に記憶されている。そして、その100m線とステップS110で決定した道路形状を示す線との交点を、自車が走行している道路上における遠方距離点(すなわち、ここでは100m先の点)に決定する。
続くステップS130では、上記ステップS120で決定した遠方距離点を基準として遠方道路領域の外枠OFを決定する。図3、図4に示されている遠方道路領域の外枠OFは長方形状であって、ステップS130で決定した遠方距離点が外枠OFの下辺の中心となるようにして設定したものである。この外枠OFの大きさは、車載カメラ12によって撮像される画像全体の大きさに対して十分小さ大きさに設定されている。
なお、図3、図4の例にとは異なり、上記遠方距離点が遠方道路領域の中心となるように外枠OFの位置を決定してもよい。また、道路形状を、走行車線の幅方向中心線としているか、道路全体の幅方向中心線としているか、走行車線の左右いずれかの白線としているかによって、遠方道路領域の外枠OFに対する遠方距離点の位置を変更してもよい。たとえば、道路形状(を示す線)を走行車線の右側白線としている場合には、遠方道路領域の外枠OFの下辺の右から1/4の点が遠方距離点となるように外枠OFの位置を決定してもよい。
そして、続くステップS140では、ステップS130で決定した遠方道路領域の外枠OF内を判定画像として抽出する。
次に、図6に基づいてマスク処理を詳しく説明する。まず、ステップS210では、図2のステップS100で抽出した判定画像内に車両部分があるか否かを判断する。この判断を行うのは、他車両は風景よりも自車に対して近距離に位置し、近距離に位置する他車両が判定画像に含まれていると霧判定が困難となることから、そのような近距離に位置する車両を判定画像から除去するためである。
従って、ステップS210では、運転支援制御ECU26によって前方車両の存在が検出されているかをまず判断する。そして、前方車両の存在が検出されている場合には、運転支援制御ECU26によって特定されている前方車両の位置および相対距離に基づいて車両が含まれると考えられる画像処理範囲を決定し、その画像処理範囲に対して、たとえば輝度変化に基づいて車両輪郭線を決定する等の公知の画像処理を実行することにより車両部分CRを決定する。そして、その決定した車両部分CRの一部または全部が図2のステップS100で抽出した判定画像と重なっているかを判断する。図3、図4には、このようにして決定した車両部分CRの一例を示してある。図3、図4の場合、いずれも、車両部分CRの一部が判定画像と重なっている。
上記ステップS210が否定判断である場合には、直接、ステップS230へ進む。一方、ステップS210が肯定判断である場合にはステップS220に進む。ステップS220では、ステップS100で抽出した判定画像内において車両部分CRとなっている領域を除去する。
ステップS220を実行した場合、または、ステップS210が否定判断であった場合には、次に、高輝度物を判定画像から除去するために、ステップS230乃至S280を実行する。ここで、高輝度物とは、空の輝度と同等程度またはそれ以上の輝度を有するものであり、高輝度物は、霧であっても、比較的鮮明に撮像されることから、霧判定においてノイズ要因となるので、判定画像から除去するのである。
まず、ステップS230において、自車が走行している位置における実際の空の輝度(カンデラ/平方メートル(cd/m))を推定する。実際の空の輝度を推定する方法としては、車載カメラ12によって撮像された画像を用いる方法と、コンライトセンサ23によって検出される照度を用いる方法とがあり、2つの方法のうち、予め定められたいずれか一方の方法を用いる。
まず、前者の方法について具体的に説明する。撮像画像内に空が撮像されている場合には、空の撮像位置は常に画像上部であることから、たとえば、車載カメラ12によって撮像された画像の上部の所定範囲を空画像範囲として予め設定しておき、まず、その空画像範囲内の各ピクセルの画素値の平均値を算出する。そして、この平均値と、画素値と実際の輝度との間の予め設定された対応関係から、実際の空の輝度を推定する。
ここで、上記対応関係について説明する。前述のように、車載カメラ12はグレースケールの画像を撮像していることから、上記画素値は明るさを表す値である。そのため、画素値とその画素に対応する実際の領域の輝度とは相関関係があるので、画素値と実際の輝度との間の対応関係(式またはマップ)は予め設定しておくことができるのである。なお、車載カメラ12の露出状態(たとえばシャッタースピードおよびデジタルゲインの値)によって画素値と実際の輝度との対応関係は異なることから、上記対応関係は、露出状態別に設定されているか、露出状態をパラーメータとして持つ関係とされる。
また、上記空画像範囲内の画素値のうち、上位所定割合(たとえば30%)の平均画素値を用いて実際の空の輝度を推定してもよい。上記空画像範囲内には、森や大きな建造物など、空以外のものであって、空よりも輝度の低いものが含まれていることがあり、その場合には、それらのものを除去した後の画素値の平均値を用いて空輝度を推定することが好ましいからである。画像処理によって、それらのものを認識して除去してもよいが、上位所定割合のみを用いて空輝度を推定することにより、簡易に、空よりも輝度の低いものを除去することができる。なお、上位所定割合は、あまり小さくすることは好ましくない。その理由は、空画像範囲にランプなど空よりも輝度の高いものが含まれていることもあり、空輝度の推定に用いる画素数が少なくなると、それら空よりも輝度の高いものの影響を大きく受けてしまうからである。
次に、コンライトセンサ23によって検出される照度を用いる方法を説明する。一般的に、空が明るいときには日射量が多いことが多い。そこで、コンライトセンサ23によって検出される照度を用いる場合には、照度から空輝度を推定する関係を予め設定しておき、その関係と、コンライトセンサ23によって実際に検出される照度とから、実際の空の輝度を推定する。
続くステップS240では、画素値と実際の輝度との間の上記対応関係と、判定画像(ステップS220を実行した場合には車両部分CRを除去した後の判定画像)の各画素の画素値とから、判定画像を構成する各画素について、その画素に対応する風景の実際の輝度(cd/m)を推定する。
続くステップS250では、ステップS230で推定した実際の空輝度に基づいて高輝度物判定値を決定する。前述のように、高輝度物とは、空の輝度と同等程度またはそれ以上の輝度を有するものである。従って、高輝度物判定値は、たとえば0.9など、1以下において1に近い予め定められた係数を空輝度に乗じた値とする。上記高輝度物には、ランプなどの発光物、および、リフレクタなど光の反射率が高い物体があり、これら高輝度物は霧判定においてノイズ要因となってしまうものである。
続くステップS260では、ステップS250で決定した高輝度物判定値と、ステップS240で推定した各画素の輝度とを比較し、高輝度物判定値よりも高い輝度の画素によって定まる領域を高輝度物領域に決定する。
続くステップS270では、上記ステップS260で決定した高輝度物領域を上下左右全方向に拡張した範囲を除去領域HBRに決定する。図3、4にこのようにして決定した除去領域HBRの一例を示してある。なお、ここでは、高輝度物領域の大きさが大きいほど、拡張率を大きく設定している。ただし、拡張率を高輝度物領域の大きさによらず、一定倍率としてもよい。続くステップS280では、ステップS270で決定した除去領域を判定画像から除去する。
このようにしてマスク処理(除去処理)を実行した後は、図2のステップS300の信頼度算出処理を実行する。次に、この信頼度算出処理の内容を図7に基づいて説明する。まず、細分化度決定手段に相当するステップS310乃至S320を実行する。ステップS310では、マスク処理後の判定画像の一次細分化度を決定する。この一次細分化度とは、ステップS200のマスク処理を実行することによって、周波数解析演算(S400)に用いる各入力信号内に生じた不連続箇所の数nである。
より具体的に説明すると、本実施形態の周波数解析演算(S400)では、判定画像内における縦または横の一ライン(すなわち水平座標が同一の画素群または垂直座標が同一の画素群)を一つの入力信号としているので、それら縦または横の一ライン毎に、不連続箇所の数nを一次細分化度として決定する。
図10は、図4に示した画像において、マスク処理後の判定画像の形状を示す図である。図10においては、マスク処理後の判定画像を実線で示している。この図10において、横一ラインずつが入力信号である場合、図10に示すように、上部は不連続箇所の数n=0、中央部分はn=2、下部はn=1である。
続くステップS320では、ステップS310で算出した全部の一次細分化度のうちで、予め設定された判定値(ここではn=2)以上の値となっている一次細分化度の割合を、全体細分化度として算出する。
そして、続くステップS330では、全体細分化度と信頼度との間の予め設定された関係を用いて、上記ステップS320で算出した全体細分化度から、第1信頼度を決定する。図11は、上記全体細分化度と信頼度との間の関係の一例を示す図である。
図11に示すように、上記関係は、全体細分化度が所定の基準値ST1以下では、信頼度は100%であり、その基準値ST1以上では、全体細分化度が大きくなるほど信頼度が低下する関係である。また、信頼度は、全体細分化度の比較的少ない変化量で、100%から0%に近い値まで急激に低下している。全体細分化度と信頼度との関係が図11のようになっているのは、本実施形態では周波数解析結果に基づいて霧判定を行うが、周波数解析は、その特性として、各入力信号の長さがある程度長くないと信頼性のある解析結果が得られず、各入力信号に不連続点が多いほど信頼性が低下するからである。
マスク割合指標算出手段に相当するステップS340では、判定画像の全体の面積(すなわちマスク処理前の面積)に対してマスク処理によって除去された面積の割合を、マスク割合指標として算出する。このようにしてマスク割合指標を算出する場合、マスク割合指標が大きな値になるほど、マスク処理によって除去された面積の割合が多いことになる。本実施形態では、このようにしてマスク割合指標を算出するものとして以下の説明を続けるが、これとは逆に、判定画像の全体の面積に対して、マスク処理によって除去された後の判定画像の面積(すなわちマスク処理されていない面積)の割合をマスク割合指標としてもよい。この場合には、マスク割合指標が大きな値になるほど、マスク処理されていない面積の割合が多いことになる。
ステップS350では、マスク割合指標と信頼度との間の予め設定された関係を用いて、上記ステップS340で算出したマスク割合指標から、第2信頼度を決定する。図12は、上記マスク割合指標と信頼度との間の関係の一例を示す図である。
図12に示すように、上記関係は、マスク割合指標が所定の基準値ST2以下では信頼度は100%であり、その基準値ST2以上では、マスク割合指標が大きい値となるほど信頼度が低下する関係である。また、信頼度は、全体細分化度の比較的少ない変化量で、100%から0%に近い値まで急激に低下している。マスク割合指標と信頼度との関係が図12のようになっているのは、周波数解析結果に基づいて信頼性のある霧判定を行うには、周波数解析する画像の大きさ(すなわち全信号量)がある程度の大きさ以上であることが必要だからであり、マスク割合指標がST2よりも大きい場合には、信号量が不十分と判断できるからである。
ステップS360では、ステップS330で決定した第1信頼度と、ステップS350で決定した第2信頼度との積を、最終信頼度として算出する。
このようにして最終信頼度を算出したら、図2のステップS400の周波数解析演算を実行し、次いで、ステップS500の霧判定処理を実行する。これらステップ400乃至S500が画像霧状態判定手段に相当する処理である。次に、ステップS400の周波数解析演算の内容を図8に基づいて説明する。
まず、ステップS410では、マスク処理後の判定画像を構成する各ライン(すなわち入力信号)の中で、予め設定された条件を満たすラインを周波数解析に使用できる使用可能ラインに決定する。上記条件は、ここでは、ステップS310で算出した一次細分化度が0または1、且つ、マスクによって除去された割合が所定割合以下という条件である。
そして、続くステップS420では、まず、ステップS410で決定した各使用可能ラインに対して高速フーリエ変換処理を行い、次いで、全部の変換結果を合算して合計パワースペクトルを求める。この合計パワースペクトルは、周波数解析した信号内に、どの周波数成分がどの程度含まれているかを示すものであり、横軸を周波数、縦軸をパワーとする二次元グラフとして表せる。
この時点での横軸の単位は、サイクル/画素(cycle per pixel :以下、cppとする)であり、人間の視覚とは無関係であるので、続くステップ430において、これを人間の視覚感度が反映される単位であるサイクル/度(cycle per degree:以下、cpdとする)に換算する。
具体的には、cpp単位における周波数をsとすると、cpd単位の周波数tは下記式1から得られる。
(式1) t=s/(判定画像1ラインの画素数×1画素当たりの画角)
式1において、1画素当たりの画角は、式2に基づいて予め設定されている。
(式2) 1画素当たりの画角=(180/π)×tan−1(CCDの水平サイズ/レンズの焦点距離)
ステップS430を実行した後は図2のステップS500の霧判定処理を実行する。次に、この霧判定処理の内容を図9に基づいて説明する。まず、ステップS510では、人間の視覚感度が良好な領域である1.5cpdから18cpdまでのパワースペクトルの合計値を算出する。なお、この合計値に代えて、1.5cpdから18cpdまでの一部の範囲または一点(たとえば、6.0cpd)のパワースペクトルを用いて、次のステップS520の霧判定を行ってもよい。
続くステップS520では、上記パワースペクトルと比較するために予め設定された判定基準値と、ステップS510で算出したパワースペクトルの合計値とを比較する。そして、パワースペクトルの合計値が判定基準値よりも低い場合には、霧がかかった画像であると判定し、パワースペクトルの合計値が判定基準値以上である場合には、霧がかかった画像でないと判定する。
そして、続くステップS530では、ステップS520の判定結果を、ステップS360で算出した最終信頼度とともに、最終的な霧判定を行う装置へ出力する。上記ステップS520の判定結果は、画像が霧がかかったものであるか否かを判定しているだけであり、走行中の環境が霧であるか否かを判定するものではない。最終的な霧判定を行う装置において、この画像処理ECU14を含む複数の霧判定装置の判定結果が統合されて、最終的な霧判定が行われる。
ただし、上記ステップS520の判定結果をそのまま用いて、走行中の環境が霧であるか否かを判定してもよい。この場合には、ステップS520の判定結果を、たとえば、前述の運転支援制御ECU26やライト制御ECU28など、走行中の環境が霧であるか否かで制御が異なる装置に直接出力する。
以上、説明した本実施形態によれば、判定画像からノイズ要因となる箇所をマスクしており(S200)、しかも、マスクされることによる判定画像の全体細分化度を決定しており(S320)、この全体細分化度が予め設定された基準値ST1よりも高い場合には、細分化度がその基準値ST1よりも小さい場合の信頼度(すなわち100%)よりも信頼度を低下させている。加えて、判定画像の全体に対してマスクされた部分の割合をマスク割合指標として算出しており(S340)、このマスク割合指標が予め設定された基準値ST2よりも大きい場合には、マスク割合指標が基準値以下の場合の信頼度(100%)よりも信頼度を低下させている。そして、それら2つの信頼度の積を最終信頼度としており、その最終信頼度を霧判定結果とともに最終的な霧判定を行う装置へ出力している(S530)。従って、最終的な霧判定を行う装置においては、上記最終信頼度を考慮して、画像処理ECU14の霧判定結果を評価することが可能となる。従って、誤判定が低減できる。
次に、本発明の第2実施形態を説明する。第2実施形態は、機械的構成は第1実施形態と同様であり、制御が第1実施形態と異なるのみである。図13は、第2実施形態の画像処理ECU14が霧判定において実行するメインルーチンを示すフローチャートである。図13の処理において、図2と異なる点は、図2のステップS300に代えて、ステップS600乃至630を実行する点である。その他のステップS100、S200、S400、S500は図2と同じ処理であるので、説明を省略する。
ステップS600では、図7のステップS310、S320と同様にして、一次細分化度および全体細分化度を算出する。続くステップS610では、ステップS600で算出した全体細分化度が予め設定された基準値ST3よりも大きいか否かを判断する。この判断が肯定判断である場合には、霧判定を実行することなく処理を終了する。一方、否定判断である場合にはステップS620に進む。なお、上記基準値ST3は、第1実施形態の基準値ST1と同じか、それよりも小さい値に設定される。
ステップS620では、図7のステップS340と同様にしてマスク割合指標を算出する。そして、ステップS630において、ステップS620で算出したマスク割合指標が予め設定された基準値ST4よりも大きいか否かを判断する。この判断が肯定判断である場合にも、霧判定を実行することなく処理を終了する。一方、否定判断である場合にはステップS400以下を実行して霧判定を行う。なお、上記基準値ST4は、第1実施形態の基準値ST2と同じか、それよりも小さい値に設定される。
この第2実施形態のように、全体細分化度およびマスク割合指標のいずれか一方が、それらに対して予め設定された基準値ST3、ST4よりも大きい場合に、霧判定を中止するようにしても、誤判定を低減することができる。
以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、次の実施形態も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。
たとえば、前述の実施形態では、周波数解析結果に基づいて霧判定を行っていたが、周波数解析に代えて、エッジ強度解析を行い、その解析結果に基づいて霧判定を行ってもよい。エッジ強度解析とは画像のエッジ強度を求める手法であり、エッジ強度は、各画素の画素値を水平方向または垂直方向に連続的に微分処理することにより得られる。なお、エッジ強度解析においては、マスク割合は信頼度に影響を与えるが、細分化度は信頼度に影響を与ない。従って、第1実施形態において、周波数解析に代えてエッジ強度解析を用いる場合には、図7のステップS310乃至S330(細分化度に関する処理)は実行する必要はなく、ステップS350においてマスク割合指標から算出した信頼度をそのまま最終信頼度として決定する。また、第2実施形態において周波数解析に代えてエッジッ強度解析を用いる場合には、ステップS600乃至S610を実行せず、ステップS200の次に、ステップS620を実行する。
また、周波数解析として、高速フーリエ変換処理を行っていたが、ウェーブレット変換など、他の公知の周波数解析を用いてもよい。
また、周波数解析の各入力信号として、判定画像内における縦または横の一ラインを用いていたが、縦または横の一ラインの一部(たとえば数ピクセル)を一つの入力信号としてもよい。また、入力信号をライン状(すなわち、一次元状)に抽出するのではなく、二次元状に抽出してもよい。この場合、判定画像の一部分(たとえば、16×16ピクセル)を一つの入力信号としてもよいし、判定画像全体を一つの入力信号としてもよい。
また、前述の実施形態では、細分化度およびマスク割合指標を算出して、それら細分化度およびマスク割合指標に基づいて、信頼度の決定、または、霧判定の中止判定を行っていたが、いずれか一方のみに基づいて、信頼度の決定、または、霧判定の中止判定を行ってもよい。
また、前述の実施形態では、全部の一次細分化度のうちで、予め設定された判定値以上となっている細分化度の割合を全体細分化度としていたが、予め設定された判定値以上となっている細分化度の数を全体細分化度としてもよい。
また、前述の実施形態では、判定画像の全体の面積に対してマスク処理によって除去された面積の割合をマスク割合指標としていたが、判定画像の全体の面積に対してマスク処理後に残った面積の割合をマスク割合指標としてもよい。また、マスク割合指標として、周波数解析に用いる全部の入力信号のうち、マスクされた部分がある入力信号の割合(またはマスクされた部分がない入力信号の割合)を用いてもよい。マスクされた部分がある入力信号とは、入力信号を構成する画素群の中でマスクによって除去された画素がないものをいう。
また、前述の実施形態では、車載カメラ12によって撮像された画像から、遠方道路領域を判定画像として抽出していたが、車載カメラ12によって撮像された画像の全部を判定画像としてもよい。また、自車から中距離程度の物体が撮像されている中距離領域を判定画像として抽出してもよい。この中距離領域を判定画像として用いる場合、中距離は遠方道路領域よりもぼやけにくいことから、非常に濃い霧であるかどうかが判定できることになる。
また、判定画像として抽出する領域の形状は両方形状である必要はなく、円形等他の形状であってもよい。
また、前述の実施形態では、高輝度物領域を除去するために、実際の空の輝度(cd/m)を推定するとともに(S230)、各画素の輝度(cd/m)を推定し(S240)、それら輝度同士を比較していたが、実際の空の輝度(cd/m)に変えて、各画素の輝度(cd/m)と比較する比較対象として、コンライトセンサ23の照度をそのまま、あるいは、予め設定された係数を乗じて用いてもよい。この場合、比較する数値の単位系が互いに異なることになるが、周知の通り、光源(本実施形態では空)の輝度が一様である場合、輝度と照度とは相互に換算が可能である。従って、各画素の輝度(cd/m)とコンライトセンサ23の照度とを比較してもよいのである。
また、前述の実施形態において、実際の空の輝度(cd/m)を推定する方法として、車載カメラ12によって撮像された画像を用いる方法を説明した。この方法においては、画素値と実際の輝度との間の予め設定された対応関係を用いることになる。一方、各画素の輝度(cd/m)も、同じ対応関係を用いて推定している。そこで、判定画像内における空の画素値と、判定画像を構成する各画素の画素値とを比較して、高輝度物領域を決定してもよい。また、車載カメラ12のダイナミックレンジが狭く、一般的な空の輝度で最大値となってしまう場合には、空が撮像されている部分の画素値を予め最大画素値と設定してもよい。この場合、単純に、各画素の画素値が最大値であることをもって、その画素を高輝度物領域とすることになる。
本発明の車載霧判定装置として機能する画像処理ECU14を含む車載霧判定システム100の構成を示すブロック図である。 画像処理ECU14が霧判定において実行するメインルーチンを示すフローチャートである。 車載カメラ12によって撮像された画像例である。 車載カメラ12によって撮像された画像例である。 図2のステップS100の判定画像抽出処理を詳しく示すフローチャートである。 図2のステップS200のマスク処理を詳しく示すフローチャートである。 図2のステップS300の信頼度算出処理を詳しく示すフローチャートである。 図2のステップS400の周波数解析演算を詳しく示すフローチャートである。 図2のステップS500の霧判定処理を詳しく示すフローチャートである。 図4に示した画像において、マスク処理後の判定画像の形状を示す図である。 全体細分化度と信頼度との間の関係の一例を示す図である。 マスク割合指標と信頼度との間の関係の一例を示す図である。 第2実施形態の画像処理ECU14が霧判定において実行するメインルーチンを示すフローチャートである。
符号の説明
10:車載霧判定システム、 12:車載カメラ、 14:画像処理ECU(車載霧判定装置)、 16:ヨーレートセンサ、 18:ステアリングセンサ、 20:ミリ波レーダ、 22:車速センサ、 23:コンライトセンサ、 24:車内LAN、 26:運転支援制御ECU、 28:ライト制御ECU
S100:判定画像決定手段、 S200:マスク手段、 S310〜S320:細分化度決定手段、 S340:マスク割合指標算出手段、 S400〜500:画像霧状態判定手段

Claims (7)

  1. 車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する車載霧判定装置であって、
    前記車載カメラによって撮像された画像の少なくとも一部を霧判定に用いる判定画像に決定する判定画像決定手段と、
    その判定画像決定手段によって決定された判定画像に対して、ノイズ要因となる箇所をマスクするマスク手段と、
    そのマスク手段によってマスクされた後の判定画像を周波数解析して、解析結果に基づいて霧判定を行う画像霧状態判定手段とを備えるとともに、
    さらに、マスクされることによる前記判定画像の細分化度を決定する細分化度決定手段を備え、
    前記判定画像の細分化度が予め設定された基準値よりも高い場合には、前記画像霧状態判定手段による霧判定を中止するか、その画像霧状態判定手段における判定結果の信頼度を、細分化度が予め設定された基準値以下の場合よりも低下させることを特徴とする車載霧判定装置。
  2. 車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する車載霧判定装置であって、
    前記車載カメラによって撮像された画像の少なくとも一部を霧判定に用いる判定画像に決定する判定画像決定手段と、
    その判定画像決定手段によって決定された判定画像に対して、ノイズ要因となる箇所をマスクするマスク手段と、
    そのマスク手段によってマスクされた後の判定画像をエッジ強度解析または周波数解析して、解析結果に基づいて霧判定を行う画像霧状態判定手段とを備えるとともに、
    さらに、前記判定画像において前記マスク手段によってマスクされた部分とマスクされていない部分との割合を表すマスク割合指標を算出するマスク割合指標算出手段を備え、
    前記マスク割合指標と予め設定された基準値との比較に基づいて、マスクされた後の判定画像の信号量が不十分であると判断できる場合には、前記画像霧状態判定手段による霧判定を中止するか、その画像霧状態判定手段における判定結果の信頼度を、信号量が十分である場合よりも低下させることを特徴とする車載霧判定装置。
  3. 請求項1において、
    さらに、前記判定画像において前記マスク手段によってマスクされた部分とマスクされていない部分との割合を表すマスク割合指標を算出するマスク割合指標算出手段を備え、
    前記判定画像の細分化度が予め設定された基準値よりも高い場合、または、前記マスク割合指標と予め設定された基準値との比較に基づいてマスクされた後の判定画像の信号量が不十分であると判断できる場合には、前記画像霧状態判定手段による霧判定を中止するか、その画像霧状態判定手段における判定結果の信頼度を、細分化度が予め設定された基準値以下の場合または前記信号量が十分である場合よりも低下させることを特徴とする車載霧判定装置。
  4. 請求項1または3において、
    前記周波数解析は、前記マスク手段によってマスクされた後の判定画像から一つまたは複数の入力信号を決定して、その入力信号の周波数成分を解析するものであり、
    前記細分化度決定手段は、一つの入力信号内において前記マスク処理によって生じた不連続箇所の数を細分化度として決定することを特徴とする車載霧判定装置。
  5. 請求項1または3において、
    前記周波数解析は、前記マスク手段によってマスクされた後の判定画像から複数の入力信号を決定して、各入力信号の周波数成分を解析するものであり、
    前記細分化度決定手段は、前記各入力信号内の前記マスク処理によって生じた不連続箇所の数をそれぞれ一次細分化度とし、全部の一次細分化度の中で、その一次細分化度が所定値よりも高いものの割合を前記判定画像の細分化度に決定することを特徴とする車載霧判定装置。
  6. 請求項2または3において、
    前記マスク割合指標は、前記判定画像の全体の面積に対する前記マスク手段によってマスクされた画像の面積の割合であることを特徴とする車載霧判定装置。
  7. 請求項2または3において、
    前記画像霧状態判定手段は、前記マスク手段によってマスクされた後の判定画像から複数の入力信号を決定して、各入力信号の周波数成分を解析した結果に基づいて霧判定を行うものであり、
    前記マスク割合指標は、各入力信号のうち、マスク手段によってマスクされた部分がある入力信号の割合であることを特徴とする車載霧判定装置。
JP2007003927A 2007-01-11 2007-01-11 車載霧判定装置 Expired - Fee Related JP4241834B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007003927A JP4241834B2 (ja) 2007-01-11 2007-01-11 車載霧判定装置
US12/008,407 US8077921B2 (en) 2007-01-11 2008-01-10 Apparatus for determining the presence of fog using image obtained by vehicle-mounted imaging device
DE102008003948A DE102008003948B4 (de) 2007-01-11 2008-01-11 Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007003927A JP4241834B2 (ja) 2007-01-11 2007-01-11 車載霧判定装置

Publications (2)

Publication Number Publication Date
JP2008170283A true JP2008170283A (ja) 2008-07-24
JP4241834B2 JP4241834B2 (ja) 2009-03-18

Family

ID=39510096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007003927A Expired - Fee Related JP4241834B2 (ja) 2007-01-11 2007-01-11 車載霧判定装置

Country Status (3)

Country Link
US (1) US8077921B2 (ja)
JP (1) JP4241834B2 (ja)
DE (1) DE102008003948B4 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101154552B1 (ko) 2009-12-04 2012-06-08 서강대학교산학협력단 전방 카메라를 이용한 차량의 기후 상황 감지 방법
JP2012167983A (ja) * 2011-02-14 2012-09-06 Stanley Electric Co Ltd 霧検出装置
JP2015055474A (ja) * 2013-09-10 2015-03-23 株式会社Screenホールディングス 撮像システムおよび撮像方法
CN111902737A (zh) * 2018-03-12 2020-11-06 三菱电机株式会社 雾确定装置、雾确定方法和雾确定程序

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4776587B2 (ja) * 2007-06-13 2011-09-21 国立大学法人北海道大学 画像処理装置,運転支援装置
US8396324B2 (en) * 2008-08-18 2013-03-12 Samsung Techwin Co., Ltd. Image processing method and apparatus for correcting distortion caused by air particles as in fog
US20100121518A1 (en) * 2008-11-11 2010-05-13 Timothy Arthur Tiernan Map enhanced positioning sensor system
DE102009011866A1 (de) 2009-03-05 2010-09-09 Volkswagen Ag Verfahren und Vorrichtung zum Bestimmen einer Sichtweite für ein Fahrzeug
JP5540537B2 (ja) * 2009-03-24 2014-07-02 株式会社オートネットワーク技術研究所 制御装置、制御方法及びコンピュータプログラム
US8416300B2 (en) * 2009-05-20 2013-04-09 International Business Machines Corporation Traffic system for enhancing driver visibility
US8559673B2 (en) 2010-01-22 2013-10-15 Google Inc. Traffic signal mapping and detection
DE102010002310A1 (de) * 2010-02-24 2011-08-25 Audi Ag, 85057 Verfahren und Vorrichtung zur Freisichtprüfung einer Kamera für ein automobiles Umfeld
EP2385482B1 (en) * 2010-05-05 2016-04-20 Autoliv Development AB A driver assisting system and method for a motor vehicle
DE102010020537A1 (de) 2010-05-14 2011-11-17 H&S Robotic Solutions GbR (vertretungsberechtigter Gesellschafter: Bernd-Helge Schäfer, 67661 Kaiserslautern) Wasserdetektor
US20130100135A1 (en) * 2010-07-01 2013-04-25 Thomson Licensing Method of estimating diffusion of light
EP2688764A4 (en) * 2011-03-25 2014-11-12 Tk Holdings Inc SYSTEM AND METHOD FOR DETERMINING THE GROWTH OF A DRIVER
DE102011017649B3 (de) * 2011-04-28 2012-10-11 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung einer Intensität eines Aerosols in einem Sichtfeld einer Kamera eines Fahrzeugs
US20140092252A1 (en) * 2011-05-12 2014-04-03 Magna Electronics Inc. System and method for annotating video
US9197789B2 (en) * 2011-08-03 2015-11-24 Indian Institute Of Technology, Kharagpur Method and system for removal of fog, mist, or haze from images and videos
DE102011086512B4 (de) * 2011-11-16 2022-12-01 Bayerische Motoren Werke Aktiengesellschaft Nebeldetektion
US20130321627A1 (en) * 2012-05-31 2013-12-05 John C. Turn, JR. Road departure sensing and intelligent driving systems and methods
US9365162B2 (en) 2012-08-20 2016-06-14 Magna Electronics Inc. Method of obtaining data relating to a driver assistance system of a vehicle
KR102089106B1 (ko) * 2013-06-19 2020-03-16 현대모비스 주식회사 안개 발생 여부 판단 방법 및 이를 위한 장치
US9514373B2 (en) 2013-08-28 2016-12-06 Gentex Corporation Imaging system and method for fog detection
JP6087858B2 (ja) * 2014-03-24 2017-03-01 株式会社日本自動車部品総合研究所 走行区画線認識装置及び走行区画線認識プログラム
ES2727929T3 (es) * 2014-06-12 2019-10-21 Eizo Corp Dispositivo de eliminación de neblina y método de generación de imágenes
US9139204B1 (en) 2014-06-12 2015-09-22 GM Global Technology Operations LLC Road surface condition detection with recursive adaptive learning and validation
US9707960B2 (en) 2014-07-31 2017-07-18 Waymo Llc Traffic signal response for autonomous vehicles
US20160048721A1 (en) * 2014-08-12 2016-02-18 Joseph Cole Harper System and method for accurately analyzing sensed data
CN105740792B (zh) * 2016-01-25 2019-03-12 浙江生辉照明有限公司 目标检测方法和装置
US9858675B2 (en) 2016-02-11 2018-01-02 Adobe Systems Incorporated Object segmentation, including sky segmentation
FR3049528B1 (fr) * 2016-04-05 2019-04-05 Valeo Vision Procede de commande d'affichage automatique d'un pictogramme representatif de la presence d'une perturbation en avant du vehicule
CN107872608B (zh) * 2016-09-26 2021-01-12 华为技术有限公司 图像采集设备及图像处理方法
DE102017208384A1 (de) * 2017-05-18 2018-11-22 Ford Global Technologies, Llc Verfahren zum Betrieb eines Kraftfahrzeugs mit einem Stauassistenten
US10691957B2 (en) * 2018-02-12 2020-06-23 ITS Plus, Inc. Method for increasing the accuracy of traffic cameras using optical masking technology
JP6723492B2 (ja) 2018-03-12 2020-07-15 三菱電機株式会社 霧特定装置、霧特定方法及び霧特定プログラム
US11092480B2 (en) * 2018-09-27 2021-08-17 International Business Machines Corporation Light obstruction sensor
JP7143733B2 (ja) * 2018-11-14 2022-09-29 トヨタ自動車株式会社 環境状態推定装置、環境状態推定方法、環境状態推定プログラム
US11127121B2 (en) * 2019-03-29 2021-09-21 Wipro Limited System and method of generating enhanced video by removing fog for vehicle navigation
US11694425B2 (en) * 2021-05-10 2023-07-04 International Business Machines Corporation Multi-spectrum visual object recognition
US20230059808A1 (en) * 2021-08-18 2023-02-23 Zoox, Inc. Determining object characteristics using unobstructed sensor emissions

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE59509929D1 (de) 1994-07-06 2002-01-24 Volkswagen Ag Verfahren zur Ermittlung der Sichtweite, insbesondere für die Bewegung eines Kraftfahrzeuges
DE29811086U1 (de) 1997-08-22 1998-09-17 Kostal Leopold Gmbh & Co Kg Einrichtung zum Erfassen von sich auf die Sichtqualität zum Führen eines Kraftfahrzeuges auswirkenden Einflüssen
JP3444192B2 (ja) 1998-05-21 2003-09-08 日産自動車株式会社 撮像環境推定装置
FR2835911B1 (fr) 2002-02-14 2004-05-07 France Etat Ponts Chaussees Procede de determination de la distance de visisbilite et procede de determination de la presence d'un brouillard
FR2847367B1 (fr) 2002-11-19 2005-01-14 Valeo Vision Procede et dispositif de determination de la distance de visibilite du conducteur d'un vehicule
US8045760B2 (en) * 2003-02-21 2011-10-25 Gentex Corporation Automatic vehicle exterior light control systems
CN100473152C (zh) 2003-07-11 2009-03-25 株式会社日立制作所 图像处理相机系统及图像处理相机控制方法
JP4701383B2 (ja) 2005-02-10 2011-06-15 国立大学法人北海道大学 視界不良評価方法および視界不良評価装置
JP4506573B2 (ja) 2005-06-15 2010-07-21 株式会社デンソー 車載霧判定装置
US20110043603A1 (en) 2006-01-18 2011-02-24 Technion Research & Development Foundation Ltd. System And Method For Dehazing

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101154552B1 (ko) 2009-12-04 2012-06-08 서강대학교산학협력단 전방 카메라를 이용한 차량의 기후 상황 감지 방법
JP2012167983A (ja) * 2011-02-14 2012-09-06 Stanley Electric Co Ltd 霧検出装置
JP2015055474A (ja) * 2013-09-10 2015-03-23 株式会社Screenホールディングス 撮像システムおよび撮像方法
US9609231B2 (en) 2013-09-10 2017-03-28 SCREEN Holdings Co. Ltd. Imaging system and imaging method
US10003752B2 (en) 2013-09-10 2018-06-19 SCREEN Holdings Co., Ltd. Imaging system and imaging method for imaging a sample in a medium carried in a container as an imaging object
US10200626B2 (en) 2013-09-10 2019-02-05 SCREEN Holdings Co., Ltd. Imaging system capable of generating multi-gradation image data representing an image obtained by imaging a sample in a medium in a wide dynamic range
CN111902737A (zh) * 2018-03-12 2020-11-06 三菱电机株式会社 雾确定装置、雾确定方法和雾确定程序
CN111902737B (zh) * 2018-03-12 2022-02-22 三菱电机株式会社 雾确定装置、雾确定方法和计算机能读取的存储介质

Also Published As

Publication number Publication date
DE102008003948A1 (de) 2008-07-17
DE102008003948B4 (de) 2013-10-31
US8077921B2 (en) 2011-12-13
JP4241834B2 (ja) 2009-03-18
US20080170754A1 (en) 2008-07-17

Similar Documents

Publication Publication Date Title
JP4241834B2 (ja) 車載霧判定装置
JP4321591B2 (ja) 車載霧判定装置
JP4784452B2 (ja) 車載霧判定装置
US6690011B2 (en) Infrared image-processing apparatus
JP5065172B2 (ja) 車両灯火判定装置及びプログラム
JP5090321B2 (ja) 物体検知装置
US10339396B2 (en) Vehicle accessibility determination device
WO2016125377A1 (ja) 画像処理装置、および車両システム
JP2009169510A (ja) 車線認識装置、車線認識方法および車線認識プログラム
JP2007057331A (ja) 車載霧判定装置
JP4506573B2 (ja) 車載霧判定装置
JP2000030197A (ja) 温体検出装置
KR101483742B1 (ko) 지능형 차량의 차선 검출방법
EP3115966A1 (en) Object detection device, object detection method, and computer program
JP2009194542A (ja) 車両周辺監視装置、車両、車両周辺監視プログラム
JP2007011490A (ja) 道路パラメータ検出装置および道路パラメータ検出方法
JP2006080752A (ja) カメラ用露光制御装置および制御方法
JP5353531B2 (ja) 車両灯火認識装置及びプログラム
EP4303850A1 (en) Object detection method and object detection device
JP5310162B2 (ja) 車両灯火判定装置
JP3532896B2 (ja) スミア検出方法及びこのスミア検出方法を用いた画像処理装置
JP2007272785A (ja) 画像処理式車両検出装置及び画像処理式車両検出方法
JP2007257242A (ja) 白線認識装置
JP2006302095A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
JP2005215779A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4241834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140109

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees