JP2006349492A - On-vehicle fog determination device - Google Patents

On-vehicle fog determination device Download PDF

Info

Publication number
JP2006349492A
JP2006349492A JP2005175743A JP2005175743A JP2006349492A JP 2006349492 A JP2006349492 A JP 2006349492A JP 2005175743 A JP2005175743 A JP 2005175743A JP 2005175743 A JP2005175743 A JP 2005175743A JP 2006349492 A JP2006349492 A JP 2006349492A
Authority
JP
Japan
Prior art keywords
image
road
vehicle
determined
far
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005175743A
Other languages
Japanese (ja)
Other versions
JP4506573B2 (en
Inventor
Naoteru Kawasaki
直輝 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2005175743A priority Critical patent/JP4506573B2/en
Publication of JP2006349492A publication Critical patent/JP2006349492A/en
Application granted granted Critical
Publication of JP4506573B2 publication Critical patent/JP4506573B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To secure precision of fog determination while reducing a load of image processing for determining the propriety of a foggy image. <P>SOLUTION: A shape of a vehicle traveling road is determined on the basis of recognition of a white line or the like, within an image picked up by an on-vehicle camera (S100), an area (distant road area) on the road in a prescribed far distance from a vehicle is determined on the basis of the determined shape of the road, within the the image, and an area image-processed in the S300 is made to serve as the distant road area. The load for image processing is reduced by this manner compared with that of analyzing the whole image picked up by the on-vehicle camera 12. The distant road area is the area on the road in the prescribed far distance from the vehicle within the image, the road continues usually up to a far distant district, a distant portion may be imaged in the area with high probability, and the precision of the fog determination is secured thereby. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車載カメラによって撮像された画像から霧判定する車載霧判定装置に関する。   The present invention relates to an in-vehicle fog determination device that determines fog from an image captured by an in-vehicle camera.

車載カメラの撮像画像を処理して霧判定を行う装置が知られている(たとえば特許文献1)。特許文献1における霧判定の方法は、画像のぼけ具合に基づいており、霧である場合にはぼけた画像となるので、画像のぼけ具合を推定することにより霧判定を行っている。画像のぼけ具合の推定は、まず、画像全体に対して画素毎に微分演算によって輝度のエッジ量を算出して、そのエッジ量に基づいて、画像のぼけ具合を推定している。画像がぼけているほどエッジ量は全体的に小さくなることから、エッジ量に基づいて画像のぼけ具合が推定できるのである。   There is known an apparatus that performs fog determination by processing a captured image of an in-vehicle camera (for example, Patent Document 1). The fog determination method in Patent Document 1 is based on the degree of blurring of an image, and in the case of fog, the image is blurred. Therefore, the fog determination is performed by estimating the degree of blurring of the image. In estimating the degree of blur of an image, first, an edge amount of luminance is calculated by differential calculation for each pixel with respect to the entire image, and the degree of blur of the image is estimated based on the edge amount. As the image is blurred, the edge amount becomes smaller as a whole. Therefore, the degree of blurring of the image can be estimated based on the edge amount.

この特許文献1の装置は、霧判定の結果を白線認識に利用している。車載カメラによって撮像された画像から白線認識を行う場合、霧であると、画像がぼけてしまい白線認識が困難になることから、白線認識に先立って霧判定を行うのである。そして、霧であると判定した場合には、フォグランプを点灯させることも記載されている。   The apparatus of this patent document 1 uses the result of fog determination for white line recognition. When white line recognition is performed from an image captured by an in-vehicle camera, fog is determined prior to white line recognition because the image is blurred and white line recognition becomes difficult if the image is fog. And when it determines with it being fog, it also describes lighting a fog lamp.

また、特許文献2の装置は、霧のみを判定するものではないが、霧等による視界不良や、フロントガラスの汚れによって画像がぼけると、的確な車外監視(自車と車外の対象物との間の距離の監視など)が困難になるので、画像がぼけているかどうかを判定している。   In addition, the device of Patent Document 2 does not determine only fog, but if the image is blurred due to poor visibility due to fog or dirt on the windshield, it is possible to accurately monitor the outside of the vehicle (the vehicle and the object outside the vehicle). It is difficult to monitor the distance between them, so it is determined whether the image is blurred.

特許文献2における画像ぼけの判定方法は、画像の中央上部に設定された固定領域の画像について輝度のエッジを算出し、そのエッジが所定値を越えた割合に基づいて、画像のぼけ具合を判定している。
特許3444192号公報 特許3312729号公報
The method for determining image blur in Patent Document 2 calculates a brightness edge for an image of a fixed region set at the upper center of the image, and determines the degree of image blur based on the ratio of the edge exceeding a predetermined value. is doing.
Japanese Patent No. 3444192 Japanese Patent No. 3312729

特許文献1、2は、いずれも、車載カメラによって撮像された画像がぼけているかを判定することによって、霧判定を行っているのであるが、特許文献1のように、画像全体についてエッジ量を算出することとすると、画像処理の負荷が大きいという問題があった。一方、特許文献2では、エッジを算出するのは画像の中央上部に設定された固定領域のみであるので、画像処理の負荷は特許文献1の場合に比較して少ない。しかし、霧であっても自車から近距離にある物体は、比較的はっきり撮像されることから、その固定領域に自車から近距離に位置する物体が撮像されている場合には、霧判定が精度よく行えないという問題があった。なお、画像の中央上部に設定された固定領域に自車から近距離に位置する物体が撮像される場合としては、たとえば、同じ車線上における先行車が狭い車間距離で走行している場合が考えられるが、それ以外にも、比較的急なカーブを走行中の場合には、固定領域に、比較的近距離に位置する路側の景色が撮像される。   In each of Patent Documents 1 and 2, fog determination is performed by determining whether an image captured by a vehicle-mounted camera is blurred. However, as in Patent Document 1, the edge amount is set for the entire image. If it is calculated, there is a problem that the load of image processing is large. On the other hand, in Patent Document 2, since the edge is calculated only in the fixed region set at the upper center of the image, the load of image processing is less than that in Patent Document 1. However, since an object at a short distance from the own vehicle is captured relatively clearly even if it is fog, if an object located at a short distance from the own vehicle is captured in the fixed area, the fog determination There was a problem that could not be performed accurately. In addition, as a case where an object located at a short distance from the own vehicle is imaged in the fixed area set at the upper center of the image, for example, a case where a preceding vehicle on the same lane is traveling at a small inter-vehicle distance However, in addition to this, when traveling on a relatively steep curve, a roadside scenery located at a relatively short distance is imaged in the fixed area.

本発明は、この事情に基づいて成されたものであり、その目的とするところは、画像が霧がかかった画像であるかどうかを判定するための画像処理の負荷を軽減させつつ、霧判定の精度を確保することにある。   The present invention has been made based on this situation, and the object of the present invention is to determine the fog while reducing the load of image processing for determining whether the image is a foggy image. This is to ensure the accuracy.

その目的を達成するための請求項1記載の発明は、車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する画像霧状態判定手段を備えた車載霧判定装置であって、前記車載カメラによって撮像された画像内において前記車両が走行している道路の形状を決定する道路形状決定手段と、その道路形状決定手段によって決定された道路の形状に基づいて、前記画像内において前記車両から所定の遠方距離にある道路上の領域である遠方道路領域を決定する遠方道路領域決定手段とを備え、前記画像霧状態判定手段が判定する画像が、前記遠方道路領域決定手段によって決定された遠方道路領域の画像であることを特徴とする。   In order to achieve the object, the invention according to claim 1 is an in-vehicle provided with an image fog state determination unit that determines whether an image captured by an in-vehicle camera mounted on a vehicle is a foggy image. A fog determination device, based on road shape determination means for determining the shape of a road on which the vehicle is traveling in an image captured by the in-vehicle camera, and the road shape determined by the road shape determination means A far road area determining means for determining a far road area that is an area on a road at a predetermined far distance from the vehicle in the image, and the image determined by the image fog state determining means is the far distance It is an image of a far road area determined by the road area determining means.

請求項1の発明によれば、画像霧状態判定手段において解析する画像は、車載カメラにより撮像された画像全体ではなく、遠方道路領域決定手段によって決定された遠方道路領域の画像であるので、車載カメラにより撮像された画像全体を解析するのに比較して、画像処理の負荷が軽減する。加えて、霧がかかった画像であるかどうかを解析する領域は、画像内において車両から所定の遠方距離にある道路上の領域である。このように、解析する画像の領域を道路上の領域とすれば、道路は通常、遠方まで続いていることから、その領域には遠方部分が撮像されている可能性が高いので、画像霧状態判定手段における判定が確保される。   According to the invention of claim 1, since the image to be analyzed in the image fog state determination means is an image of the far road area determined by the far road area determination means, not the entire image captured by the in-vehicle camera. Compared to analyzing the entire image captured by the camera, the load of image processing is reduced. In addition, the region for analyzing whether the image is foggy is a region on the road at a predetermined distance from the vehicle in the image. In this way, if the area of the image to be analyzed is an area on the road, since the road usually continues far away, there is a high possibility that the far portion is imaged in that area. The determination in the determination means is ensured.

ここで、前記道路形状決定手段における道路形状の決定方法としては、次述する第1乃至第3決定手段を単独で用いることもできるが、請求項2のように、それら第1乃至第3決定手段を組み合わせて用いることが好ましい。すなわち、請求項2記載の発明は、請求項1に記載の車載霧判定装置であって、前記道路形状決定手段は、前記車載カメラによって撮像された画像から、道路に沿って設けられている道路上標識を検出することによって、前記車両が走行している道路の形状を決定する第1決定手段、前記画像内における前方車両の位置を検出して、その検出した前方車両の位置に基づいて前記車両が走行している道路の形状を決定する第2決定手段、および、操舵角センサによって検出されるステアリングの操舵角およびヨーレートセンサによって検出される前記車両のヨーレートの少なくとも一方に基づいて、前記車両が走行している道路の形状を決定する第3決定手段、のうちの少なくとも2つの決定手段を備え、前記第1決定手段によって道路の形状が決定可能なときはその第1決定手段を用いて前記車両が走行している道路の形状を決定し、前記第1決定手段によっては道路の形状が決定できないが、前記第2決定手段によって道路の形状が決定可能なときはその第2決定手段を用いて前記車両が走行している道路の形状を決定し、前記第1、第2決定手段によっては道路の形状が決定できないが、前記第3決定手段によって道路の形状が決定できるときはその第3決定手段を用いて前記車両が走行している道路の形状を決定するものであることを特徴とする。   Here, as the road shape determination method in the road shape determination means, the following first to third determination means can be used alone, but the first to third determinations as in claim 2. It is preferable to use a combination of means. That is, the invention according to claim 2 is the in-vehicle fog determination device according to claim 1, wherein the road shape determining means is a road provided along the road from an image captured by the in-vehicle camera. First detection means for determining the shape of the road on which the vehicle is traveling by detecting an upper sign, detecting the position of the preceding vehicle in the image, and based on the detected position of the preceding vehicle Based on at least one of a steering angle detected by a steering angle sensor and a yaw rate of the vehicle detected by a yaw rate sensor, second determining means for determining a shape of a road on which the vehicle is traveling At least two of the third determining means for determining the shape of the road on which the vehicle is traveling, and the shape of the road by the first determining means When it can be determined, the shape of the road on which the vehicle is traveling is determined using the first determining means, and the shape of the road cannot be determined by the first determining means. When the shape can be determined, the second determining means is used to determine the shape of the road on which the vehicle is traveling, and the first and second determining means cannot determine the shape of the road. When the road shape can be determined by the determining means, the third determining means is used to determine the shape of the road on which the vehicle is traveling.

この請求項2記載の発明によれば、第1乃至第3決定手段のうちの一つの手段では道路の形状が決定できない場合であっても、他の決定手段によって道路の形状が決定可能であれば走行中の道路の形状が決定されるので、道路の形状が決定できない可能性が少ない。また、第1乃至第3決定手段を比較すると、第1決定手段は、道路に沿って設けられている道路上標識から道路の形状を決定するものであるので、最も道路の形状を正確に決定することができ、第2決定手段は、実際に前方の道路を走行している車両の位置に基づいて道路の形状を決定するものであることから第1決定手段に次いで正確に道路の形状を決定することができる。従って、上記請求項2記載の発明では、より高い決定精度を有する決定手段を用いて道路の形状を決定するようになっているので、道路の形状を精度よく決定することができる。   According to the second aspect of the present invention, even when one of the first to third determining means cannot determine the shape of the road, the shape of the road can be determined by another determining means. In this case, since the shape of the running road is determined, there is little possibility that the shape of the road cannot be determined. Further, when comparing the first to third determining means, the first determining means determines the shape of the road from the road signs provided along the road, so the most accurate shape of the road is determined. Since the second determining means determines the shape of the road based on the position of the vehicle actually traveling on the road ahead, the second determining means accurately determines the shape of the road next to the first determining means. Can be determined. Therefore, in the invention according to the second aspect, since the road shape is determined using the determination means having higher determination accuracy, the road shape can be determined with high accuracy.

また、前記遠方道路領域は、請求項3記載のように、所定の遠方距離点を基準として決定することができる。すなわち、請求項3記載の発明は、請求項1または2に記載の車載霧判定装置において、前記道路形状決定手段によって決定された道路の形状、および、前記画像内において平坦な地面上で前記車両から所定の遠方距離を示す予め記憶された遠方距離線に基づいて、前記車両が走行している道路上において前記車両から所定の遠方距離にある遠方距離点を決定する遠方距離点決定手段をさらに備え、前記遠方道路領域決定手段は、その遠方距離点決定手段によって決定された遠方距離点を基準として前記遠方道路領域を決定するものである。   The far road area can be determined based on a predetermined far distance point as described in claim 3. That is, the invention according to claim 3 is the vehicle-mounted fog determination device according to claim 1 or 2, wherein the vehicle shape is determined by the road shape determining means and on the flat ground in the image. A far distance point determining means for determining a far distance point at a predetermined far distance from the vehicle on a road on which the vehicle is traveling based on a prestored far distance line indicating a predetermined far distance from The far road area determining means determines the far road area on the basis of the far distance point determined by the far distance point determining means.

さらに、好ましくは、前記遠方道路領域決定手段は、請求項4記載のように、前記遠方距離点決定手段によって決定された遠方距離点を基準として前記遠方道路領域の外枠を決定し、さらに、その外枠内における道路部分およびその外枠内における前方車両部分の少なくとも一方を除去した領域を、前記遠方道路領域に決定する。遠方道路領域の外枠内における領域から道路部分を除去するのは、道路部分は、通常、輝度変化があるのは白線の境界のみであるので、道路部分の画像から霧であるかどうかを判定するのは比較的困難であるからである。また、前方車両部分を除去するのは、着目したい遠方背景に対し、前方車両の距離が至近距離である可能性があり、またテールランプの影響により輝度変化が大きく出てしまう可能性もあることから、前方車両部分の画像から霧であるかどうかを判定するのは困難な場合もあるからである。これらの霧であるかどうかを判定するのが比較的困難な部分を除去することにより、除去後の領域に基づく判定精度が向上する。   Further, preferably, the far road area determining means determines an outer frame of the far road area based on the far distance point determined by the far distance point determining means as defined in claim 4, A region where at least one of the road portion in the outer frame and the front vehicle portion in the outer frame is removed is determined as the far road region. The road part is usually removed from the area within the outer frame of the far road area. Since the road part usually has a brightness change only at the boundary of the white line, it is determined whether or not it is fog from the road part image. This is because it is relatively difficult to do. In addition, the front vehicle part is removed because the distance of the front vehicle may be close to the distant background that you want to focus on, and the brightness may change greatly due to the influence of the tail lamp. This is because it may be difficult to determine whether or not it is fog from the image of the front vehicle portion. By removing a portion that is relatively difficult to determine whether or not it is fog, determination accuracy based on the area after removal is improved.

前記画像霧状態判定手段は、たとえば、請求項5記載のように、前記遠方道路領域の画像の輝度のエッジ強度分布に基づいて、霧がかかった画像であるかどうかを判定することができる。   For example, the image fog state determination means can determine whether or not the image is fogged based on the edge intensity distribution of the luminance of the image of the far road region.

また、そのようにエッジ強度分布に基づいて霧判定を行う場合、たとえば、請求項6記載のように、前記画像霧状態判定手段は、前記遠方道路領域の画像の輝度のエッジ強度分布図において、所定の基準強度以下のエッジ強度の割合に基づいて、霧がかかった画像であるかどうかを判定することができる。霧がかかっている画像の場合には、エッジ強度が全体的に小さくなることから、基準強度以下のエッジ強度の割合に基づいて霧がかかった画像であるかどうかを判定できるのである。   Further, when performing the fog determination based on the edge intensity distribution as described above, for example, as described in claim 6, the image fog state determination unit includes: Whether or not the image is foggy can be determined based on the ratio of the edge intensity below a predetermined reference intensity. In the case of a foggy image, since the edge strength is reduced as a whole, it is possible to determine whether the image is foggy based on the ratio of the edge strength below the reference strength.

なお、画像霧状態判定手段における判定の手法としては、画像の輝度のエッジ強度分布に基づく手法以外にも、その画像の輝度の平均値に基づく判定等、他の手法も可能である。画像の輝度の平均値に基づいて霧の判定が可能であるのは、霧である場合には、全体的に明るい画像となるからである。   In addition to the method based on the edge intensity distribution of the luminance of the image, other methods such as determination based on the average value of the luminance of the image are possible as the determination method in the image fog state determination unit. The reason why the fog can be determined based on the average value of the luminance of the image is that the image is bright as a whole when it is fog.

また、前記画像霧状態判定手段は、前記遠方道路領域決定手段によって決定された遠方道路領域の画像のみを解析することによって、その遠方道路領域の画像が、霧がかかったものであるかどうかを判定してもよい。しかし、この場合、遠方道路領域の画像が、平坦な地形を走行中であるためなどの理由により、霧ではないのにも関らず、霧の場合と同様に、エッジ強度が全体的に小さい画像となったり、全体的に明るい画像となったりすることもある。その場合には、霧ではないのに、誤って霧と判定してしまう恐れもある。   In addition, the image fog state determination means analyzes only the image of the far road area determined by the far road area determination means, thereby determining whether the image of the far road area is fogged. You may judge. However, in this case, the edge strength is generally small as in the case of fog because the image of the far road area is not fog because of traveling on flat terrain. It may be an image or an overall bright image. In that case, there is a possibility that it may be erroneously determined as fog although it is not fog.

そこで、好ましくは、請求項7記載のように、前記画像霧状態判定手段は、前記遠方道路領域決定手段によって決定された遠方道路領域の画像と、前記画像内において車両近くの路辺を撮像している範囲として予め設定された至近路辺領域の画像とを比較することによって、前記遠方道路領域の画像が、霧がかかった画像であるかどうかを判定するようにする。   Therefore, preferably, as described in claim 7, the image fog state determination means captures an image of a far road area determined by the far road area determination means and a roadside near the vehicle in the image. It is determined whether or not the image of the far road area is a foggy image by comparing with an image of the close road area preset as a range.

このように、画像内の予め設定された至近路辺領域の画像と遠方道路領域の画像とを比較する場合、至近路辺距離の画像は、霧の影響を受けにくく、霧であっても比較的はっきり撮像されるので、霧でない場合には、遠方道路領域の画像は至近路辺領域の画像と同様の輝度あるいは輝度のエッジ強度分布を示す。一方、霧である場合には、遠方道路領域の画像は至近路辺領域の画像とは輝度やそのエッジ強度分布が異なる。従って、遠方道路領域の画像と至近路辺領域の画像とを比較すると、霧判定の精度が向上する。   In this way, when comparing the image of the preset close road area and the image of the far road area in the image, the image of the close road distance is not easily affected by fog and is compared even if it is fog. Since the image is clearly captured, when it is not foggy, the image of the far road area shows the same luminance or edge intensity distribution as the image of the close road area. On the other hand, in the case of fog, the image of the far road area is different in brightness and edge intensity distribution from the image of the closest road area. Therefore, comparing the image of the far road area and the image of the closest road area improves the accuracy of fog determination.

請求項7記載のように、遠方道路領域の画像と至近路辺領域の画像とを比較して霧判定を行う場合、たとえば、請求項8記載のように、至近路辺領域の画像のエッジ強度分布に基づいて判定のしきい値を定めるようにする。すなわち、請求項8記載の発明は、請求項7に記載の車載霧判定装置において、前記画像霧状態判定手段は、前記遠方道路領域の画像の輝度のエッジ強度分布図において所定の基準強度以上の割合である強エッジ量を算出するとともに、前記至近路辺領域の画像の輝度のエッジ強度分布図に基づいてしきい値を算出し、前記強エッジ量としきい値との比較に基づいて、霧がかかった画像であるかどうかを判定するものである。   When the fog determination is performed by comparing the image of the distant road area and the image of the close road area as described in claim 7, for example, the edge strength of the image of the close road area is described in claim 8. A threshold value for determination is determined based on the distribution. That is, the invention according to claim 8 is the in-vehicle fog determination device according to claim 7, wherein the image fog state determination means is equal to or higher than a predetermined reference intensity in an edge intensity distribution diagram of luminance of the image of the far road area. A strong edge amount that is a ratio is calculated, and a threshold value is calculated based on an edge intensity distribution diagram of luminance of the image of the nearest roadside region. It is determined whether or not the image is covered.

また、画像霧状態判定手段は、一時点において撮像された画像のみを用いて霧判定を行ってもよいが、一時点の画像のみを用いる場合、たまたまその画像が誤判定をしてしまうような画像であることもある。そこで、好ましくは、請求項9記載のように、前記車載カメラによって撮像された複数の時点における遠方道路領域の画像に基づいて、その画像が霧がかかった画像であるか否かを判定するようにする。このようにすれば、霧判定の精度が向上する。   The image fog state determination means may perform the fog determination using only the image picked up at the temporary point. However, when only the temporary point image is used, the image happens to be erroneously determined. It may be an image. Therefore, preferably, as in claim 9, it is determined whether or not the image is a foggy image based on the images of the distant road area at a plurality of time points captured by the in-vehicle camera. To. In this way, the accuracy of fog determination is improved.

また、好ましくは、請求項10記載のように、前記画像霧状態判定手段は、前記画像が、霧がかかった画像であるかどうかを繰り返し判定するものであり、且つ、前回の判定において霧がかかった画像であると判定されている場合には、前回の判定で霧がかかった画像でないと判定されている場合よりも、霧がかかった画像であると判定されやすくなっているようにする。   Preferably, as described in claim 10, the image fog state determination means repeatedly determines whether the image is a fogged image, and the fog is not detected in the previous determination. When it is determined that the image is fogged, it is easier to determine that the image is fogged than when the previous determination determines that the image is not fogged. .

霧がかかった画像であるかどうかを繰り返し判定する場合において、前回の判定結果に関係なく同一判定基準を用いるとすると、比較的薄い霧のときは、判定結果が短時間のうちに変動してしまうことも考えられるが、それでは、判定結果をその後の制御(たとえば、フォグランプの自動点灯など)に利用する場合に不都合が生じる。それに対して、請求項10のようにすれば、比較的薄い霧のときにも、判定結果が変動してしまうことが少なくなるので、判定結果に基づいてさらに制御を行う場合の上記不都合が解消される。   In the case of repeatedly determining whether or not the image is foggy, if the same criterion is used regardless of the previous determination result, the determination result fluctuates within a short time when the fog is relatively thin. However, this causes inconvenience when the determination result is used for subsequent control (for example, automatic lighting of a fog lamp). On the other hand, according to the tenth aspect, since the determination result is less likely to fluctuate even when the mist is relatively thin, the inconvenience in the case where the control is further performed based on the determination result is solved. Is done.

以下、本発明の車載霧判定装置の実施の形態を、図面に基づいて説明する。図1は、本発明が適用された車載霧判定装置10の構成を示すブロック図である。   Hereinafter, an embodiment of an in-vehicle fog determination device according to the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an in-vehicle fog determination device 10 to which the present invention is applied.

車載霧判定装置10は、車載カメラ12、画像処理ECU14、ヨーレートセンサ16、ステアリングセンサ18、ミリ波レーダ20、車速センサ22を備えており、それらが車内LAN24によって相互に接続されている。また、この車内LAN24には、運転支援制御ECU26およびライト制御ECU28も接続されている。   The in-vehicle fog determination device 10 includes an in-vehicle camera 12, an image processing ECU 14, a yaw rate sensor 16, a steering sensor 18, a millimeter wave radar 20, and a vehicle speed sensor 22, which are connected to each other by an in-vehicle LAN 24. In addition, a driving support control ECU 26 and a light control ECU 28 are also connected to the in-vehicle LAN 24.

上記車載カメラ12は、CCDカメラによって構成されており、その取り付け位置は、車両の内部、たとえば運転席近傍の天井とされている。この車載カメラ12によって、車両前方の画像が連続的に撮像され、撮像された画像のデータは、画像処理ECU14において処理される。   The in-vehicle camera 12 is constituted by a CCD camera, and its mounting position is the interior of the vehicle, for example, the ceiling near the driver's seat. The vehicle-mounted camera 12 continuously captures images in front of the vehicle, and the captured image data is processed in the image processing ECU 14.

画像処理ECU14は、図示しない内部にCPU、ROM、RAM等を備えたコンピュータであり、そのRAMには、車載カメラ12によって連続的に撮像される一定時間分の画像のデータが一時的に記憶される。そして、CPUは、ROMに記憶されたプログラムに従って、そのRAMに記憶された画像データに対して図2に示す処理を実行する。このCPUの処理については後述する。   The image processing ECU 14 is a computer having a CPU, a ROM, a RAM, and the like inside (not shown), and the RAM temporarily stores image data for a predetermined time continuously captured by the in-vehicle camera 12. The Then, the CPU executes the process shown in FIG. 2 on the image data stored in the RAM according to the program stored in the ROM. The processing of this CPU will be described later.

ヨーレートセンサ16は車両のヨーレートを逐次検出し、ステアリングセンサ18は、ステアリングの操舵角を逐次検出する。また、ミリ波レーダ20は、車両前方に向けて所定周波数のミリ波を出力し、且つ、対象物からの反射波を受信する。運転支援ECU26は、前方車両検出手段としても機能しており、上記ミリ波レーダ20によって受信された反射波に基づいて、前方車両(自車と同一車線において前方を走行している車両)の有無を連続的に判定し、前方車両を検出した場合にはその前方車両との間の距離、相対方位および相対速度を算出する。さらに、算出したそれらの情報に基づいて、車速制御などの運転支援制御を実行する。   The yaw rate sensor 16 sequentially detects the yaw rate of the vehicle, and the steering sensor 18 sequentially detects the steering angle of the steering. The millimeter wave radar 20 outputs a millimeter wave having a predetermined frequency toward the front of the vehicle and receives a reflected wave from the object. The driving support ECU 26 also functions as a forward vehicle detection unit, and based on the reflected wave received by the millimeter wave radar 20, there is a forward vehicle (a vehicle traveling ahead in the same lane as the host vehicle). Are continuously determined, and when a preceding vehicle is detected, a distance from the preceding vehicle, a relative direction, and a relative speed are calculated. Furthermore, based on the calculated information, driving support control such as vehicle speed control is executed.

ライト制御ECU28は、画像処理ECU14において霧であると判定された場合に、図示しないフォグランプの点灯・消灯の制御を実行する。   The light control ECU 28 performs control of turning on / off a fog lamp (not shown) when the image processing ECU 14 determines that it is fog.

図2は、上記画像処理ECU14の制御機能の要部を示すフローチャートである。図2に示す制御は、走行中に所定の周期で実行するものであり、この制御の実行中には、車載カメラ12によって車両前方の画像が連続的に撮像されている。図3、図4は、車載カメラ12によって撮像されている画像例である。   FIG. 2 is a flowchart showing a main part of the control function of the image processing ECU 14. The control shown in FIG. 2 is executed at a predetermined cycle during traveling, and images of the front of the vehicle are continuously taken by the in-vehicle camera 12 during execution of this control. 3 and 4 are image examples captured by the in-vehicle camera 12.

図2に示すように、上記画像処理ECU14は、まず、道路形状決定手段に相当する道路形状決定処理を実行し(ステップS100)、次いで、遠方道路領域決定手段に相当する遠方道路領域決定処理を実行し(ステップS200)、その後、画像霧状態判定手段に相当する霧判定画像処理(ステップS300)を実行する。   As shown in FIG. 2, the image processing ECU 14 first executes a road shape determination process corresponding to the road shape determination means (step S100), and then performs a far road area determination process corresponding to the far road area determination means. After that, the fog determination image processing (step S300) corresponding to the image fog state determination means is executed.

上記ステップS100の道路形状決定処理は、図5に詳しく示されている。図5において、まず、ステップS110では、車載カメラ12によって連続的に撮像される画像に基づいて、道路に沿って設けられている道路上標識である白線を認識する白線認識処理を実行する。この白線認識処理としては、公知の様々な処理手法を用いることができるが、たとえば、車載カメラ12によって撮像された画像を二値化処理し、二値化処理後の画像から白色部分を抽出することによって白線を認識する。なお、ここにおける白線は、通常の白線認識処理と同様に、白線のみでなく黄線も含むものである。   The road shape determination process in step S100 is shown in detail in FIG. In FIG. 5, first, in step S <b> 110, white line recognition processing for recognizing a white line that is a road sign provided along the road is executed based on images continuously captured by the in-vehicle camera 12. As this white line recognition processing, various known processing methods can be used. For example, an image captured by the in-vehicle camera 12 is binarized, and a white portion is extracted from the binarized image. The white line is recognized. Note that the white line here includes not only the white line but also the yellow line as in the normal white line recognition process.

上記ステップS110における白線認識処理においては、常に白線が認識できるとは限らず、たとえば、道路に白線が描かれていない等の理由により、白線の認識ができないこともある。そこで、続くステップS120では、白線が認識できたか否かを判断する。ここでの判断は、続くステップS130において道路形状を決定できる程度に白線が認識できたかどうかを判断するものであり、両側の白線が認識される必要はなく、また、自車位置から消失点まで連続的に白線が認識できる必要もない。すなわち、ステップS120では、少なくとも一方の白線が、所定長さ連続して、或いは、断続的に認識できたか否かを判断する。   In the white line recognition process in step S110, the white line cannot always be recognized. For example, the white line may not be recognized because the white line is not drawn on the road. Therefore, in the subsequent step S120, it is determined whether or not the white line has been recognized. The determination here is to determine whether or not the white line has been recognized to the extent that the road shape can be determined in the subsequent step S130, and it is not necessary to recognize the white line on both sides, and from the vehicle position to the vanishing point. There is no need to be able to recognize white lines continuously. That is, in step S120, it is determined whether or not at least one white line can be recognized continuously for a predetermined length or intermittently.

上記ステップ120の判断が肯定された場合には、続くステップS130において、道路形状を決定する。ここでの道路形状とは、自車から前方に延びる道路の曲がり具合(形状)を示す一本の線であり、たとえば、図3、図4に示す一点鎖線である。なお、図3および図4に示す一点鎖線は、自車が走行している車線の幅方向中心線となっているが、それに代えて、自車が走行している車線の左右いずれか一方の白線をそのまま道路形状としてもよいし、また、車線が複数ある場合には道路全体の幅方向中心線を道路形状としてもよい。上記ステップS110乃至ステップS130が第1決定手段に相当する。   If the determination in step 120 is affirmed, the road shape is determined in the subsequent step S130. The road shape here is a single line indicating the degree of bending (shape) of the road extending forward from the host vehicle, for example, a one-dot chain line shown in FIGS. Note that the alternate long and short dash line shown in FIGS. 3 and 4 is the center line in the width direction of the lane in which the host vehicle is traveling, but instead of either the left or right side of the lane in which the host vehicle is traveling. The white line may be used as the road shape as it is, and when there are a plurality of lanes, the center line in the width direction of the entire road may be used as the road shape. The above steps S110 to S130 correspond to the first determining means.

一方、ステップS120の判断が否定された場合には、ステップS140において、運転支援ECU26において前方車両が検出されているか否かを判断する。この判断が肯定された場合には、運転支援ECU26ではその前方車両との間の距離、相対方位が算出されているので、ステップS150において、運転支援ECU26において算出されている前方車両との間の距離および相対方位に基づいて、その前方車両の画像内における位置を決定する。   On the other hand, if the determination in step S120 is negative, it is determined in step S140 whether or not a forward vehicle is detected in the driving assistance ECU 26. If this determination is affirmative, the driving assistance ECU 26 has calculated the distance and relative direction from the preceding vehicle, so in step S150, the driving assistance ECU 26 calculates the distance from the preceding vehicle. Based on the distance and relative orientation, the position of the vehicle ahead in the image is determined.

続くステップS160では、ステアリングセンサ18からの信号に基づいて操舵角を検出する。そして、ステップS170では、道路形状を示す線の自車側の端点として予め定められている画像内の所定点(たとえば、画像内におけるボンネットの境界線の車両幅方向中心点)とステップS150で決定した画像内における前方車両の位置とを、ステップS160で決定した操舵角を曲率半径とする円弧で連結することによって、道路形状を決定する。上記ステップS140乃至S170が第2決定手段に相当する。   In the subsequent step S160, the steering angle is detected based on the signal from the steering sensor 18. In step S170, a predetermined point in the image (for example, the center point in the vehicle width direction of the bonnet boundary line in the image) determined in advance as the end point on the own vehicle side of the line indicating the road shape is determined in step S150. The road shape is determined by connecting the position of the vehicle ahead in the image with an arc having the radius of curvature as the steering angle determined in step S160. Steps S140 to S170 correspond to the second determination unit.

前述のステップS140の判断も否定された場合には、第3決定手段に相当するステップS180乃至S190を実行して道路形状を決定する。まず、ステップS180では、ステアリングセンサ18からの信号に基づいて操舵角を検出し、続くステップS190では、道路形状を示す線の自車側の端点として予め定められている画像内の所定点において、接線が車両前後方向に対して平行となるような円弧を、道路形状を示す線に決定する。なお、前述のステップS160およびステップS180のいずれか一方、あるいはその両方において、操舵角を検出することに代えて、ヨーレートセンサ16からヨーレートを検出してもよい。   When the above-described determination in step S140 is also denied, steps S180 to S190 corresponding to the third determination unit are executed to determine the road shape. First, in step S180, the steering angle is detected based on the signal from the steering sensor 18, and in the subsequent step S190, at a predetermined point in the image that is predetermined as an end point on the own vehicle side of the line indicating the road shape, An arc whose tangent is parallel to the vehicle longitudinal direction is determined as a line indicating the road shape. Note that the yaw rate may be detected from the yaw rate sensor 16 instead of detecting the steering angle in one or both of the above-described steps S160 and S180.

上記ステップS130、S170、S190においてそれぞれ決定される道路形状を比較すると、ステップS130は道路に沿って設けられている白線に基づいて道路形状を決定するため、最も道路形状を正確に決定することができ、また、ステップS170は、操舵角に加えて前方車両の位置を用いていることから、操舵角のみに基づいているステップS190よりも道路形状を正確に決定することができる。その一方で、ステップS130は白線が認識できない場合には道路形状が決定できず、また、ステップS170は前方車両が検出されない場合には道路形状が決定できないが、ステップS190は、確実に道路形状を決定することができる。   When the road shapes determined in steps S130, S170, and S190 are compared, step S130 determines the road shape based on the white line provided along the road. Therefore, the road shape can be determined most accurately. Moreover, since step S170 uses the position of the preceding vehicle in addition to the steering angle, the road shape can be determined more accurately than step S190 based only on the steering angle. On the other hand, step S130 cannot determine the road shape when the white line cannot be recognized, and step S170 cannot determine the road shape when the preceding vehicle is not detected. However, step S190 reliably determines the road shape. Can be determined.

このようにして道路形状を決定したら遠方道路領域決定処理(図2のステップS200)を実行する。この遠方道路領域決定処理は、図6に詳しく示す処理である。   When the road shape is determined in this way, the far road area determination process (step S200 in FIG. 2) is executed. This far road area determination process is a process shown in detail in FIG.

図6において、まず、ステップS210では、自車が走行している道路上において自車から所定の遠方距離にある画像内の遠方距離点を決定する。このステップS210が遠方距離点決定手段に相当する。上記所定の遠方距離は、ここでは100mに設定されていることとするが、100mに限定されるものではなく、ある程度の濃さの霧の時に画像がぼやける程度に遠方であればよい。   In FIG. 6, first, in step S210, a far distance point in an image at a predetermined far distance from the own vehicle on the road on which the own vehicle is traveling is determined. This step S210 corresponds to a long distance point determination means. Here, the predetermined far distance is set to 100 m here, but is not limited to 100 m, and may be far enough that the image is blurred in the case of fog of a certain degree of density.

車載カメラ12は車両に固定されていることから、平坦な地面上のある地点までの実距離と、画像内においてその地点がどこに位置するかは予め決定することができる。従って、画像内において平坦な地面上で自車から100m先の地点が位置する100m線は予め決定することができる。図7は、画像内における上記100m線Lfを示している。本実施形態では、この100m線Lfが遠方距離線であり、この100m線Lfが画像処理ECU14内のROMあるいは他の記憶装置に記憶されている。そして、ステップS210では、その100m線LfとステップS100で決定した道路形状を示す線との交点を、自車が走行している道路上における遠方距離点(すなわち、ここでは100m先の点)に決定する。   Since the in-vehicle camera 12 is fixed to the vehicle, it is possible to determine in advance the actual distance to a point on the flat ground and where the point is located in the image. Therefore, a 100 m line where a point 100 m away from the own vehicle is located on the flat ground in the image can be determined in advance. FIG. 7 shows the 100 m line Lf in the image. In the present embodiment, the 100 m line Lf is a long distance line, and the 100 m line Lf is stored in the ROM or other storage device in the image processing ECU 14. In step S210, the intersection of the 100 m line Lf and the line indicating the road shape determined in step S100 is set as a far distance point on the road on which the vehicle is traveling (that is, a point 100 m ahead here). decide.

続くステップS220では、上記ステップS210で決定した遠方距離点を基準として遠方道路領域の外枠OFを決定する。図3、図4に示されている遠方道路領域の外枠OFは、ステップS210で決定した遠方距離点が外枠OFの下辺の中心となるようにして設定したものである。また、この外枠OFの大きさは、車載カメラ12によって撮像される画像全体の大きさに対して十分小さ大きさに設定されている。   In subsequent step S220, the outer frame OF of the far road area is determined based on the far distance point determined in step S210. The outer frame OF of the far road area shown in FIGS. 3 and 4 is set so that the far distance point determined in step S210 is the center of the lower side of the outer frame OF. Further, the size of the outer frame OF is set to a sufficiently small size with respect to the size of the entire image captured by the in-vehicle camera 12.

なお、図3、図4の例に限らず、上記遠方距離点が遠方道路領域の中心となるように外枠OFの位置を決定してもよい。また、道路形状を、走行車線の幅方向中心線としているか、道路全体の幅方向中心線としているか、走行車線の左右いずれかの白線としているかによって、遠方道路領域の外枠OFに対する遠方距離点の位置を変更してもよい。たとえば、道路形状(を示す線)を走行車線の右側白線としている場合には、遠方道路領域の外枠OFの下辺の右から1/4の点が遠方距離点となるように外枠OFの位置を決定してもよい。   Note that the position of the outer frame OF may be determined so that the far distance point is the center of the far road region, not limited to the examples of FIGS. 3 and 4. Further, depending on whether the road shape is the center line in the width direction of the traveling lane, the center line in the width direction of the entire road, or the white line on the left or right of the traveling lane, the far distance point of the far road area with respect to the outer frame OF of the far road area The position may be changed. For example, when the road shape (the line indicating the road) is the white line on the right side of the traveling lane, the outer frame OF of the outer road OF is set so that a point ¼ from the right of the lower side of the outer frame OF of the far road area becomes a far distance point. The position may be determined.

続くステップS230では、上記ステップS220で決定した遠方道路領域の外枠OF内の領域から道路部分を除去する。本実施形態では、図8に示す予め設定された固定の道路部分30を除去する。この道路部分は、外枠OFの中心Oを頂点とし、外枠OFの下辺を底辺とする三角形部分である。   In the subsequent step S230, the road portion is removed from the area within the outer frame OF of the far road area determined in step S220. In the present embodiment, the preset fixed road portion 30 shown in FIG. 8 is removed. This road portion is a triangular portion having the center O of the outer frame OF as the apex and the lower side of the outer frame OF as the base.

外枠OF内に実際に撮像されている道路部分は、走行中の道路の幅や、直線道路であるかカーブ形状の道路であるかなどによってその形状が異なることを考えると、このように道路部分30が固定された領域となっていると、外枠OF内において実際に撮像されている画像から道路部分を正確に除去することは困難である。しかし、道路形状がどのようなものであっても、遠方道路領域内においては、道路部分は下辺から上方へ向かうに従って狭くなるので、このように除去する道路部分30を固定しても、大半の道路部分を除去することは可能であり、また、このように道路部分30を固定することによって演算処理負荷を軽減させることができる。上記ステップS230で道路部分が除去されると、除去後の領域は、路側部分の割合が相対的に多くなる。   Considering that the road portion actually imaged in the outer frame OF differs in shape depending on the width of the road being traveled, whether it is a straight road or a curved road, and so on. If the portion 30 is a fixed region, it is difficult to accurately remove the road portion from the image actually captured in the outer frame OF. However, whatever the shape of the road, in the far road area, the road portion becomes narrower as it goes upward from the lower side. The road portion can be removed, and the processing load can be reduced by fixing the road portion 30 in this way. When the road portion is removed in step S230, the ratio of the roadside portion in the area after removal becomes relatively large.

なお、道路部分30を固定せずに、ステップS100で決定した道路形状に基づいて道路部分を決定することも可能である。この場合には、たとえば、道路形状を示す線と遠方道路領域の外枠OFとが一点でしか交わっていない場合(図3参照)には、消失点を頂点として外枠OFの下辺を底辺とする三角形を道路部分とし、道路形状を示す線と遠方道路領域の外枠OFとが二点で交わっている場合(図4参照)には、その2つの交点のうち外枠OFの下辺ではない部分において交わっている側の交点(またはそれよりも所定座標だけ上側の点)を頂点として、外枠OFの下辺を底辺とする直角三角形を道路部分とすればよい。また、画像処理によって白線を認識してその白線に基づいて道路部分を決定してもよい。   In addition, it is also possible to determine a road part based on the road shape determined by step S100, without fixing the road part 30. FIG. In this case, for example, when the line indicating the road shape and the outer frame OF of the far road area intersect only at one point (see FIG. 3), the vanishing point is the vertex and the lower side of the outer frame OF is the bottom side. If the triangle to be used is a road portion and the line indicating the road shape and the outer frame OF of the far road area intersect at two points (see FIG. 4), it is not the lower side of the outer frame OF at the two intersections. What is necessary is just to let the right-angled triangle which makes the vertex the intersection of the side which crosses in a part (or a point above predetermined coordinate) and apex the bottom of the outer frame OF as a road part. Alternatively, a white line may be recognized by image processing and a road portion may be determined based on the white line.

続くステップS240では、上記ステップS220で決定した遠方道路領域の外枠OF内に車両部分があるか否かを判断する。この判断を行うのは、遠方道路領域として決定する画像に、近距離に位置する車両が含まれていると霧判定が困難となることから、そのような近距離に位置する車両を遠方道路領域内の画像から除去するためである。従って、ステップS240では、運転支援ECU26によって前方車両の存在が検出されているかをまず判断する。そして、前方車両の存在が検出されている場合には、運転支援ECU26によって特定されている前方車両の位置および相対距離に基づいて車両が含まれると考えられる画像処理範囲を決定し、その画像処理範囲に対して、たとえば輝度変化に基づいて車両輪郭線を決定する等の公知の画像処理を実行することにより車両部分を決定し、その決定した車両部分を、上記ステップS220で決定した遠方道路領域の外枠OFと比較する。   In the subsequent step S240, it is determined whether or not there is a vehicle portion in the outer frame OF of the far road area determined in step S220. This determination is made because if the image determined as the far road area includes a vehicle located at a short distance, fog determination becomes difficult. It is for removing from the image inside. Therefore, in step S240, it is first determined whether or not the presence of the forward vehicle is detected by the driving assistance ECU 26. When the presence of the preceding vehicle is detected, an image processing range that is considered to include the vehicle is determined based on the position and relative distance of the preceding vehicle specified by the driving support ECU 26, and the image processing is performed. For example, the vehicle portion is determined by executing known image processing such as determining a vehicle contour line based on a change in luminance, and the determined vehicle portion is determined in step S220. Compare with the outer frame OF.

上記ステップS240の判断が否定された場合には、そのまま図6に示すルーチンを終了する。この場合には、ステップS220で決定した外枠OF内の領域から道路部分30を除去した領域が遠方道路領域となる。一方、ステップS240の判断が肯定された場合には、ステップS250において、ステップS220で決定した外枠OF内の領域から、前述のステップS240の判断において決定した車両部分を除去した領域を、遠方道路領域に決定する。   If the determination in step S240 is negative, the routine shown in FIG. In this case, the area obtained by removing the road portion 30 from the area in the outer frame OF determined in step S220 is the far road area. On the other hand, if the determination in step S240 is affirmative, in step S250, a region obtained by removing the vehicle portion determined in the determination in step S240 from the region in the outer frame OF determined in step S220 is a far road. Decide on an area.

以上のようにして決定した遠方道路領域に対して、ステップS300において霧判定画像処理を実行する。従って、遠方道路領域は、霧判定画像処理が行われる画像処理領域であるということもできる。   In step S300, fog determination image processing is performed on the far road area determined as described above. Therefore, it can be said that the far road region is an image processing region in which fog determination image processing is performed.

ステップS300の霧判定画像処理は図9に詳しく示す処理である。図9において、まず、ステップS310では、ステップS200で決定した遠方道路領域の画像に対して、輝度値をX方向およびY方向に連続的に微分処理することにより、エッジ強度の二次元分布図を作成する。そして、ステップS320では、上記ステップS310で作成した二次元分布図において、所定のエッジ強度(基準強度)を超えた割合を意味する強エッジ量を算出する。   The fog determination image processing in step S300 is processing shown in detail in FIG. In FIG. 9, first, in step S310, the edge value two-dimensional distribution map is obtained by continuously differentiating the luminance value in the X direction and the Y direction with respect to the image of the far road area determined in step S200. create. In step S320, a strong edge amount that means a ratio exceeding a predetermined edge strength (reference strength) in the two-dimensional distribution chart created in step S310 is calculated.

続くステップS330では、車速センサ22から車速を検出し、ステップS340では、その検出した車速に基づいて、遠方道路領域にあった路辺部分が予め設定された至近路辺領域32まで移動するのに必要な移動時間を算出する。ここで、至近路辺領域32は、霧であっても画像がそれほどぼやけない程度に近距離の路辺が撮像される領域として設定された固定の領域であり、たとえば、図3、図4に示すように、車載カメラ12によって撮像される画像の左右一方の端部であって、その画像の上下方向の中央に位置する所定の大きさの矩形領域である。   In the subsequent step S330, the vehicle speed is detected from the vehicle speed sensor 22, and in step S340, the roadside portion that was in the far road area moves to the nearest roadside area 32 set in advance based on the detected vehicle speed. Calculate the required travel time. Here, the nearest roadside area 32 is a fixed area set as an area where a roadside at a short distance is imaged to such an extent that the image is not so blurred even in fog. For example, FIG. 3 and FIG. As shown, it is a rectangular region of a predetermined size that is located at one of the left and right end portions of the image captured by the in-vehicle camera 12 and at the center in the vertical direction of the image.

上述のように至近路辺領域32は固定領域であり、また、遠方道路領域は、自車からの距離が定まっているので、遠方道路領域にあった路辺部分の物体が至近路辺領域32まで移動する移動距離は予め決定しておくことができる。従って、ステップS340では、この予め決定した移動距離とステップS330で検出した車速から、遠方道路領域にあった路辺部分が予め設定された至近路辺領域32まで移動するのに必要な移動時間を算出する。   As described above, the close road area 32 is a fixed area, and since the distance from the host vehicle is fixed in the far road area, an object on the road side portion in the far road area is the close road area 32. The moving distance to move to can be determined in advance. Therefore, in step S340, the travel time required for the roadside portion in the far road area to move to the closest road area 32 set in advance from the predetermined travel distance and the vehicle speed detected in step S330 is calculated. calculate.

続くステップS350では、ステップS310でエッジ強度の二次元分布図の作成に用いた画像が撮像されてから、上記ステップS340で算出した移動時間を経過した後の至近路辺領域の画像に対して、輝度のエッジ強度の二次元分布図をステップS310と同様にして作成する。   In subsequent step S350, after the image used to create the two-dimensional distribution map of the edge strength in step S310 is captured, the image of the closest road area after the movement time calculated in step S340 has elapsed, A two-dimensional distribution map of luminance edge strength is created in the same manner as in step S310.

そして、続くステップS360では、上記ステップS350で作成した二次元分布図に対して、ステップS320と同様に、強エッジ量を算出し、さらに、ステップS370において、上記ステップS360で算出した至近路辺領域の画像の強エッジ量に基づいて、次述するステップS380において用いるしきい値を決定する。たとえば、上記ステップS360で算出した強エッジ量に1よりも小さい所定値α(たとえば0.7)を乗じた数値をしきい値に決定する。ただし、前回の霧判定、すなわち、繰り返し実行するこの図9のルーチンを前回実行したときに、後述するステップS395において霧と判定したか否かによって、上記しきい値を変更するようになっており、たとえば、前回の判定において霧でないと判定している場合には上記所定値αを0.7とするが、前回の判定において霧と判定している場合には上記所定値を0.6とする。   Then, in step S360, a strong edge amount is calculated for the two-dimensional distribution map created in step S350, as in step S320, and in step S370, the closest road area calculated in step S360 is calculated. Based on the strong edge amount of the image, a threshold value used in step S380 described below is determined. For example, the threshold value is determined by multiplying the strong edge amount calculated in step S360 by a predetermined value α (for example, 0.7) smaller than 1. However, when the previous fog determination, that is, when the routine of FIG. 9 that is repeatedly executed is executed last time, the threshold value is changed depending on whether or not the fog is determined in step S395 described later. For example, if it is determined that it is not fog in the previous determination, the predetermined value α is set to 0.7, but if it is determined to be fog in the previous determination, the predetermined value is set to 0.6. To do.

続くステップS380では、前述のステップS320で算出した遠方道路領域の画像の強エッジ量を、上記ステップS370で決定したしきい値と比較して、ステップS320で算出した強エッジ量が上記しきい値よりも大きい場合には、霧がかかった画像でないと判定し、ステップS320で算出した強エッジ量が上記しきい値以下の場合には、霧がかかった画像であると判定する。なお、上記しきい値は、前述のように、前回の判定結果に基づいて変更されるようになっているため、前回の判定において霧と判定している場合には、前回の判定において霧でないと判定されている場合よりも、霧と判定されやすい。従って、薄い霧の場合であっても、短い期間内における判定結果の変動が防止される。   In the subsequent step S380, the strong edge amount calculated in step S320 is compared with the threshold value determined in step S370 by comparing the strong edge amount of the image of the far road area calculated in step S320 described above. If it is greater than the threshold value, it is determined that the image is not fogged. If the strong edge amount calculated in step S320 is equal to or smaller than the threshold value, it is determined that the image is fogged. In addition, since the threshold value is changed based on the previous determination result as described above, if it is determined as fog in the previous determination, it is not fog in the previous determination. It is easier to determine as fog than when it is determined. Therefore, even in the case of a thin mist, fluctuations in the determination result within a short period are prevented.

そして、続くステップS390では、初回の霧判定(S380)の実行時を計時開始時点として、最終判定時期となったか否かを判定する。この最終判定時期は、たとえば、1分間に設定されている。この判断が否定された場合には、前述のステップS310以下を繰り返す。   Then, in the subsequent step S390, it is determined whether or not the final determination timing has been reached with the time when the first fog determination (S380) is executed as the timing start point. This final determination time is set to 1 minute, for example. If this determination is negative, the above steps S310 and after are repeated.

一方、ステップS390の判断が肯定された場合には、ステップS395において、最終的な霧判定を実行する。ここでの最終的な霧判定は、ステップS310乃至390を繰り返すことによってステップS380で決定した複数の判定結果のうち、霧であると判定している割合が予め設定された所定割合以上であれば、霧であると判定する一方、霧でないと判定している割合が上記所定割合以上であれば、霧でないと判定する。このように、ステップS380における複数回の判定結果を用いて、最終的な判定を行うようにすれば、たまたま一時点の画像が誤判定をしてしまうような画像であったとしても、最終的な判定としては誤判定を防止できるので、判定の精度が向上する。   On the other hand, if the determination in step S390 is affirmed, final fog determination is executed in step S395. The final fog determination here is that if the ratio determined to be fog among the plurality of determination results determined in step S380 by repeating steps S310 to 390 is equal to or greater than a predetermined ratio set in advance. On the other hand, if it is determined that it is fog, if it is determined that the ratio is not fog, the ratio is determined not to be fog. As described above, if the final determination is performed using the determination results obtained in a plurality of times in step S380, even if the temporary image is erroneously determined, the final determination is made. As an incorrect determination, an erroneous determination can be prevented, so that the determination accuracy is improved.

なお、上記所定割合が5割とされている場合には、必ず、霧または霧でないと判定することになるが、上記所定割合が5割以外であってもよい。この場合には、霧であるとも、霧でないとも判定されないこともあるが、その場合には、前回の判定結果が維持されることになる。   In addition, when the predetermined ratio is 50%, it is always determined that it is not fog or mist, but the predetermined ratio may be other than 50%. In this case, it may not be determined whether it is fog or not, but in this case, the previous determination result is maintained.

以上、説明した本実施形態によれば、ステップS300(画像霧状態判定手段)において解析する画像は、車載カメラ12により撮像された画像全体ではなく、ステップS200(遠方道路領域決定手段)において決定した遠方道路領域画像であるので、車載カメラ12により撮像された画像全体を解析するのに比較して、画像処理の負荷が軽減する。加えて、霧がかかった画像であるかどうかを解析する遠方道路領域は、画像内において車両から所定の遠方距離にある道路上の領域である。このように、解析する画像の領域を道路上の領域とすれば、通常、道路は遠方まで続いていることから、その領域には遠方部分が撮像されている可能性が高いので、ステップS300(画像霧状態判定手段)における判定が確保される。   As described above, according to the present embodiment described above, the image to be analyzed in step S300 (image fog state determination unit) is determined in step S200 (far road area determination unit), not the entire image captured by the in-vehicle camera 12. Since it is a far road area image, the load of image processing is reduced compared to analyzing the entire image captured by the in-vehicle camera 12. In addition, the far road area for analyzing whether or not the image is foggy is an area on the road at a predetermined far distance from the vehicle in the image. In this way, if the area of the image to be analyzed is an area on the road, since the road usually continues far away, there is a high possibility that the far portion is imaged in that area. The determination in the image fog state determination means) is ensured.

また、本実施形態によれば、画像内の予め設定された至近路辺領域32の画像と、遠方道路領域の画像とを比較して、遠方道路領域の画像が、霧がかかった画像であるかどうかを判定していることから、霧ではないが、平坦な地形を走行中であるために遠方道路領域の画像のみからでは霧と判定されてしまうような場合であっても、誤って霧と判定されてしまうことが防止される。   Further, according to the present embodiment, the image of the far road area is a fogged image by comparing the image of the preset close road area 32 and the image of the far road area in the image. It is not fog because it is judged whether or not it is fog, but even if it is judged as fog only from the image of the far road area because it is traveling on flat terrain, Is prevented from being determined.

以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、次の実施形態も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。   As mentioned above, although embodiment of this invention was described, this invention is not limited to the above-mentioned embodiment, The following embodiment is also contained in the technical scope of this invention, and also the summary other than the following is also included. Various modifications can be made without departing from the scope.

たとえば、前述の実施形態では、道路の形状を決定するための道路上標識として白線を認識していたが、道路上標識としては、白線以外に、白線と同様に車線を区画するために連続的に配置されている突起物(半球状のものや、棒状のものなど)、中央分離帯、路側の側溝、轍等があり、それらを認識して道路の形状を決定してもよい。   For example, in the above-described embodiment, a white line is recognized as a road sign for determining the shape of the road. However, in addition to the white line, the road sign is a continuous line for dividing the lane in the same manner as the white line. There are protrusions (such as hemispherical or rod-shaped), median strips, roadside gutters, ridges, etc., which may be recognized to determine the shape of the road.

また、前述の実施形態では、遠方道路領域にあった路辺部分が至近路辺領域まで移動する移動時間を算出しており、遠方道路領域の画像と比較する至近路辺領域の画像は、遠方道路領域の画像が撮像されてからその移動時間だけ後の時点で撮像された画像とされていたが、遠方道路領域の画像と比較する至近路辺領域の画像として、遠方道路領域の画像と同一時点の画像を用いてもよい。この場合には、同じ部分(風景)を比較することにはならないが、同じ部分を比較しなくても、平坦な地形を走行している場合に生じる可能性のある前述の誤判定を防止することはできる。   In the above-described embodiment, the travel time for the roadside portion that was in the far road area to move to the close road area is calculated, and the image of the close road area compared with the image of the far road area is The image was taken at the time point after the moving time since the image of the road area was taken, but it is the same as the image of the far road area as the image of the close road area compared with the image of the far road area A point-in-time image may be used. In this case, the same part (landscape) is not compared, but the above-described erroneous determination that may occur when traveling on flat terrain is prevented without comparing the same part. I can.

また、前述の実施形態では、一時点の遠方道路領域の画像毎に強エッジ量を算出し(S320)、その強エッジ量に基づいて一時点の遠方道路画像毎に霧判定を行い(S380)、その判定結果を複数用いて最終的な判定を行っていたが(S395)、一時点の画像毎に算出した強エッジ量を平均し、その平均した強エッジ量に基づいて一つの判定結果(最終的な判定)を決定してもよい。   In the above-described embodiment, a strong edge amount is calculated for each image of the distant road area at the temporary point (S320), and fog determination is performed for each distant road image at the temporary point based on the strong edge amount (S380). The final determination is performed using a plurality of the determination results (S395). The strong edge amount calculated for each temporary image is averaged, and one determination result (based on the average strong edge amount ( Final determination) may be determined.

また、前述の実施形態では、遠方道路領域の外枠OFから道路部分を除去し、さらに、車両部分がある場合にはその車両部分も除去した領域を遠方道路領域としていたが、道路部分や車両部分を除去する処理は必須ではなく、遠方道路領域の外枠OF内の画像を全て用いて霧判定を行ってもよいし、道路部分および車両部分のいずれか一方を除去しなくてもよい。   In the above-described embodiment, the road portion is removed from the outer frame OF of the far road region, and if there is a vehicle portion, the region from which the vehicle portion is also removed is the far road region. The process of removing the part is not essential, and the fog determination may be performed using all the images in the outer frame OF of the far road area, or one of the road part and the vehicle part may not be removed.

また、前述の実施形態の第2決定手段(S140乃至S170)では、画像内における自車側の所定の端点と前方車両の位置とを、操舵角を曲率半径とする円弧で連結することによって道路形状を決定していたが、ミリ波レーダ20が車両前後方向線に対して比較的狭い範囲の車両のみを検出するようになっている場合には、自車側の所定の端点と前方車両とを直線で連結して道路形状を決定してもよい。この場合には、ステップS160(操舵角の検出)は不要となる。なお、前方車両を検出するために、ミリ波レーダ20に代えて、レーザレーダーを備えていてもよいし、また、画像からテールランプやナンバープレート等の車両に特徴的な形状を検出することによって前方車両を検出するようにしてもよい。   In the second determining means (S140 to S170) of the above-described embodiment, a road is obtained by connecting a predetermined end point on the vehicle side in the image and the position of the preceding vehicle with an arc having a steering angle as a curvature radius. Although the shape has been determined, when the millimeter wave radar 20 detects only a vehicle in a relatively narrow range with respect to the vehicle front-rear direction line, the predetermined end point on the own vehicle side and the vehicle ahead The road shape may be determined by connecting the lines with straight lines. In this case, step S160 (detection of the steering angle) is not necessary. In order to detect the vehicle ahead, a laser radar may be provided in place of the millimeter wave radar 20, and the vehicle is detected by detecting a characteristic shape of the vehicle such as a tail lamp or a license plate from the image. You may make it detect a vehicle.

また、前述の実施形態では、遠方道路領域の外枠OFおよび至近路辺領域32はいずれも矩形であったが、これらは矩形である必要はなく、円形等の他の形状であってもよい。   In the above-described embodiment, the outer frame OF of the far road area and the closest road area 32 are both rectangular, but they need not be rectangular, and may be other shapes such as a circle. .

本発明が適用された車載霧判定装置10の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted fog determination apparatus 10 with which this invention was applied. 図1の画像処理ECU14が実行する制御機能の要部を示すフローチャートである。It is a flowchart which shows the principal part of the control function which image processing ECU14 of FIG. 1 performs. 車載カメラ12によって撮像されている画像例である。It is an example of an image captured by the in-vehicle camera 12. 車載カメラ12によって撮像されている画像例である。It is an example of an image captured by the in-vehicle camera 12. 図1のステップS100の道路形状決定処理を詳しく示すフローチャートである。It is a flowchart which shows the road shape determination process of step S100 of FIG. 1 in detail. 図1のステップS200の遠方道路領域決定処理を詳しく示すフローチャートである。It is a flowchart which shows the far road area | region determination process of step S200 of FIG. 1 in detail. 車載カメラ12によって撮像される画像内における予め設定された100m線Lfを示す図である。It is a figure which shows the 100 m line Lf set beforehand in the image imaged with the vehicle-mounted camera. 予め設定された固定の道路部分30を示す図である。It is a figure which shows the fixed road part 30 set beforehand. 図1のステップS300の霧判定画像処理を詳しく示すフローチャートである。It is a flowchart which shows the fog determination image process of step S300 of FIG. 1 in detail.

符号の説明Explanation of symbols

10:車載霧判定装置
12:車載カメラ
16:ヨーレートセンサ
18:ステアリングセンサ
32:至近路辺領域
Lf:100m線(遠方距離線)
OF:遠方道路領域の外枠
10: Vehicle-mounted fog determination device 12: Vehicle-mounted camera 16: Yaw rate sensor 18: Steering sensor 32: Closest road area Lf: 100m line (far distance line)
OF: Outer frame of far road area

Claims (10)

車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する画像霧状態判定手段を備えた車載霧判定装置であって、
前記車載カメラによって撮像された画像内において前記車両が走行している道路の形状を決定する道路形状決定手段と、
その道路形状決定手段によって決定された道路の形状に基づいて、前記画像内において前記車両から所定の遠方距離にある道路上の領域である遠方道路領域を決定する遠方道路領域決定手段とを備え、
前記画像霧状態判定手段が判定する画像が、前記遠方道路領域決定手段によって決定された遠方道路領域の画像であることを特徴とする車載霧判定装置。
An in-vehicle fog determination device including an image fog state determination unit that determines whether an image captured by an in-vehicle camera mounted on a vehicle is a foggy image,
Road shape determining means for determining the shape of the road on which the vehicle is traveling in the image captured by the in-vehicle camera;
Far road area determining means for determining a far road area that is an area on the road at a predetermined far distance from the vehicle in the image based on the shape of the road determined by the road shape determining means,
The in-vehicle fog determination device, wherein the image determined by the image fog state determination means is an image of a far road area determined by the far road area determination means.
前記道路形状決定手段は、
前記車載カメラによって撮像された画像から、道路に沿って設けられている道路上標識を検出することによって、前記車両が走行している道路の形状を決定する第1決定手段、
前記画像内における前方車両の位置を検出して、その検出した前方車両の位置に基づいて前記車両が走行している道路の形状を決定する第2決定手段、
および、操舵角センサによって検出されるステアリングの操舵角およびヨーレートセンサによって検出される前記車両のヨーレートの少なくとも一方に基づいて、前記車両が走行している道路の形状を決定する第3決定手段、のうちの少なくとも2つの決定手段を備え、
前記第1決定手段によって道路の形状が決定可能なときはその第1決定手段を用いて前記車両が走行している道路の形状を決定し、前記第1決定手段によっては道路の形状が決定できないが、前記第2決定手段によって道路の形状が決定可能なときはその第2決定手段を用いて前記車両が走行している道路の形状を決定し、前記第1、第2決定手段によっては道路の形状が決定できないが、前記第3決定手段によって道路の形状が決定できるときはその第3決定手段を用いて前記車両が走行している道路の形状を決定するものである
ことを特徴とする請求項1に記載の車載霧判定装置。
The road shape determining means is
First determining means for determining a shape of a road on which the vehicle is traveling by detecting a road sign provided along the road from an image captured by the in-vehicle camera;
Second determining means for detecting a position of a preceding vehicle in the image and determining a shape of a road on which the vehicle is traveling based on the detected position of the preceding vehicle;
And third determining means for determining the shape of the road on which the vehicle is traveling based on at least one of the steering angle of the steering detected by the steering angle sensor and the yaw rate of the vehicle detected by the yaw rate sensor, With at least two of these decision means,
When the shape of the road can be determined by the first determining means, the shape of the road on which the vehicle is traveling is determined using the first determining means, and the shape of the road cannot be determined by the first determining means. However, when the shape of the road can be determined by the second determining means, the shape of the road on which the vehicle is traveling is determined using the second determining means, and depending on the first and second determining means, the road The shape of the road cannot be determined, but when the shape of the road can be determined by the third determining means, the shape of the road on which the vehicle is traveling is determined using the third determining means. The in-vehicle fog determination device according to claim 1.
前記道路形状決定手段によって決定された道路の形状、および、前記画像内において平坦な地面上で前記車両から所定の遠方距離を示す予め記憶された遠方距離線に基づいて、前記車両が走行している道路上において前記車両から所定の遠方距離にある遠方距離点を決定する遠方距離点決定手段をさらに備え、
前記遠方道路領域決定手段は、その遠方距離点決定手段によって決定された遠方距離点を基準として前記遠方道路領域を決定するものであることを特徴とする請求項1または2に記載の車載霧判定装置。
The vehicle travels based on the road shape determined by the road shape determining means and a pre-stored far distance line indicating a predetermined far distance from the vehicle on the flat ground in the image. Further comprising a long distance point determination means for determining a long distance point at a predetermined long distance from the vehicle on the road,
The in-vehicle fog determination according to claim 1 or 2, wherein the far road area determining means determines the far road area on the basis of the far distance point determined by the far distance point determining means. apparatus.
前記遠方道路領域決定手段は、前記遠方距離点決定手段によって決定された遠方距離点を基準として前記遠方道路領域の外枠を決定し、さらに、その外枠内における道路部分およびその外枠内における前方車両部分の少なくとも一方を除去した領域を、前記遠方道路領域に決定するものであることを特徴とする請求項3に記載の車載霧判定装置。   The far road area determining means determines an outer frame of the far road area on the basis of the far distance point determined by the far distance point determining means, and further, a road portion in the outer frame and in the outer frame The in-vehicle fog determination device according to claim 3, wherein an area from which at least one of the front vehicle portions is removed is determined as the far road area. 前記画像霧状態判定手段は、前記遠方道路領域の画像の輝度のエッジ強度分布に基づいて、霧がかかった画像であるかどうかを判定するものであることを特徴とする請求項1乃至4のいずれかに記載の車載霧判定装置。   The image fog state determination means determines whether the image is fogged based on an edge intensity distribution of luminance of the image of the far road region. The vehicle-mounted fog determination device according to any one of the above. 前記画像霧状態判定手段は、前記遠方道路領域の画像の輝度のエッジ強度分布図において、所定の基準強度以下のエッジ強度の割合に基づいて、霧がかかった画像であるかどうかを判定するものであることを特徴とする請求項5に記載の車載霧判定装置。   The image fog state determination means determines whether or not the image is fogged based on a ratio of edge intensity below a predetermined reference intensity in the luminance edge intensity distribution diagram of the image of the far road area. The in-vehicle fog determination device according to claim 5, wherein 請求項1乃至4のいずれかに記載の車載霧判定装置であって、
前記画像霧状態判定手段は、前記遠方道路領域決定手段によって決定された遠方道路領域の画像と、前記画像内において車両近くの路辺を撮像している範囲として予め設定された至近路辺領域の画像とを比較することによって、前記遠方道路領域の画像が、霧がかかった画像であるかどうかを判定するものであることを特徴とする車載霧判定装置。
The on-vehicle fog determination device according to any one of claims 1 to 4,
The image fog state determination means includes an image of a distant road area determined by the distant road area determination means, and a close road area that is preset as a range in which a roadside near the vehicle is imaged in the image. A vehicle-mounted fog determination device characterized by determining whether or not the image of the far road area is a foggy image by comparing with an image.
前記画像霧状態判定手段は、前記遠方道路領域の画像の輝度のエッジ強度分布図において所定の基準強度以上の割合である強エッジ量を算出するとともに、前記至近路辺領域の画像の輝度のエッジ強度分布図に基づいてしきい値を算出し、前記強エッジ量としきい値との比較に基づいて、霧がかかった画像であるかどうかを判定するものであることを特徴とする請求項7に記載の車載霧判定装置。   The image fog state determination means calculates a strong edge amount that is a ratio equal to or greater than a predetermined reference intensity in the luminance edge intensity distribution diagram of the image of the far road area, and also the luminance edge of the image of the closest road area 8. A threshold value is calculated based on an intensity distribution diagram, and it is determined whether the image is foggy based on a comparison between the strong edge amount and the threshold value. The vehicle-mounted fog determination device described in 1. 前記画像霧状態判定手段は、前記車載カメラによって撮像された複数の時点における遠方道路領域の画像に基づいて、その画像が霧がかかった画像であるか否かを判定するものであることを特徴とする請求項1乃至8のいずれかに記載の車載霧判定装置。   The image fog state determination means determines whether or not the image is a foggy image based on images of distant road areas at a plurality of time points captured by the vehicle-mounted camera. The on-vehicle fog determination device according to any one of claims 1 to 8. 前記画像霧状態判定手段は、前記画像が、霧がかかった画像であるかどうかを繰り返し判定するものであり、且つ、前回の判定において霧がかかった画像であると判定されている場合には、前回の判定で霧がかかった画像でないと判定されている場合よりも、霧がかかった画像であると判定されやすくなっていることを特徴とする請求項1乃至9のいずれかに記載の車載霧判定装置。   The image fog state determination means repeatedly determines whether the image is a foggy image, and when it is determined that the image is a fogged image in the previous determination. 10. The method according to claim 1, wherein it is easier to determine that the image is foggy than when it is determined that the image is not fogged in the previous determination. In-vehicle fog determination device.
JP2005175743A 2005-06-15 2005-06-15 In-vehicle fog determination device Expired - Fee Related JP4506573B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005175743A JP4506573B2 (en) 2005-06-15 2005-06-15 In-vehicle fog determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005175743A JP4506573B2 (en) 2005-06-15 2005-06-15 In-vehicle fog determination device

Publications (2)

Publication Number Publication Date
JP2006349492A true JP2006349492A (en) 2006-12-28
JP4506573B2 JP4506573B2 (en) 2010-07-21

Family

ID=37645511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005175743A Expired - Fee Related JP4506573B2 (en) 2005-06-15 2005-06-15 In-vehicle fog determination device

Country Status (1)

Country Link
JP (1) JP4506573B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008027723A1 (en) 2007-06-13 2008-12-18 Denso Corporation, Kariya Image processing apparatus for reducing effects of fog on images obtained by a vehicle-mounted camera and driver assisting apparatus using resulting processed images
US7656277B2 (en) 2006-09-12 2010-02-02 Denso Corporation Apparatus for detecting the presence of fog for automotive vehicle
US8077921B2 (en) 2007-01-11 2011-12-13 Denso Corporation Apparatus for determining the presence of fog using image obtained by vehicle-mounted imaging device
WO2014104183A1 (en) * 2012-12-26 2014-07-03 株式会社日本自動車部品総合研究所 Boundary recognition device and branch assessment device
JP2014127027A (en) * 2012-12-26 2014-07-07 Nippon Soken Inc Boundary line recognition device
US8786697B2 (en) 2007-01-11 2014-07-22 Denso Corporation Apparatus for determining the presence of fog using image obtained by vehicle-mounted imaging device
CN105629333A (en) * 2015-12-27 2016-06-01 安徽皖通科技股份有限公司 Road weather detection method based on video
KR101748524B1 (en) * 2016-01-26 2017-06-27 (주)스마트테크놀로지 Apparatus and method for fog detection using visibility estimation
KR20180091254A (en) * 2017-02-06 2018-08-16 부산대학교 산학협력단 Apparatus and method for providing road weather information
WO2020130545A1 (en) * 2018-12-18 2020-06-25 주식회사 월드텍 Fog detection device using coordinate system, and method therefor
US10803570B2 (en) 2018-05-10 2020-10-13 Eagle Technology, Llc Method and system for a measure of visibility from a single daytime image

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0737064A (en) * 1993-07-22 1995-02-07 Babcock Hitachi Kk Method and device for detecting intruding object
JPH07137574A (en) * 1993-11-15 1995-05-30 Toyota Motor Corp Headlight device for vehicle
JPH0973545A (en) * 1995-09-07 1997-03-18 Fujitsu Ten Ltd White line recognition device
JPH11326541A (en) * 1998-05-21 1999-11-26 Nissan Motor Co Ltd Image pickup environmental assumer
JP2000259998A (en) * 1999-03-12 2000-09-22 Yazaki Corp Back monitoring device for vehicle
JP2001028746A (en) * 1999-07-14 2001-01-30 Fuji Heavy Ind Ltd External monitoring device having fail/safe function
JP2001167396A (en) * 1999-12-10 2001-06-22 Mitsubishi Electric Corp On-vehicle forward monitoring device
JP2004249891A (en) * 2003-02-21 2004-09-09 Nissan Motor Co Ltd Driving operation auxiliary device for vehicle and vehicle equipped with the device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0737064A (en) * 1993-07-22 1995-02-07 Babcock Hitachi Kk Method and device for detecting intruding object
JPH07137574A (en) * 1993-11-15 1995-05-30 Toyota Motor Corp Headlight device for vehicle
JPH0973545A (en) * 1995-09-07 1997-03-18 Fujitsu Ten Ltd White line recognition device
JPH11326541A (en) * 1998-05-21 1999-11-26 Nissan Motor Co Ltd Image pickup environmental assumer
JP2000259998A (en) * 1999-03-12 2000-09-22 Yazaki Corp Back monitoring device for vehicle
JP2001028746A (en) * 1999-07-14 2001-01-30 Fuji Heavy Ind Ltd External monitoring device having fail/safe function
JP2001167396A (en) * 1999-12-10 2001-06-22 Mitsubishi Electric Corp On-vehicle forward monitoring device
JP2004249891A (en) * 2003-02-21 2004-09-09 Nissan Motor Co Ltd Driving operation auxiliary device for vehicle and vehicle equipped with the device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7656277B2 (en) 2006-09-12 2010-02-02 Denso Corporation Apparatus for detecting the presence of fog for automotive vehicle
US8077921B2 (en) 2007-01-11 2011-12-13 Denso Corporation Apparatus for determining the presence of fog using image obtained by vehicle-mounted imaging device
US8786697B2 (en) 2007-01-11 2014-07-22 Denso Corporation Apparatus for determining the presence of fog using image obtained by vehicle-mounted imaging device
US8098890B2 (en) 2007-06-13 2012-01-17 Denso Corporation Image processing apparatus for reducing effects of fog on images obtained by vehicle-mounted camera and driver support apparatus which utilizes resultant processed images
DE102008027723B4 (en) * 2007-06-13 2015-05-21 Denso Corporation Image processing apparatus for reducing effects of fog on images obtained by a vehicle-mounted camera, and driver assisting apparatus using resulting processed images
DE102008027723A1 (en) 2007-06-13 2008-12-18 Denso Corporation, Kariya Image processing apparatus for reducing effects of fog on images obtained by a vehicle-mounted camera and driver assisting apparatus using resulting processed images
US10002433B2 (en) 2012-12-26 2018-06-19 Nippon Soken, Inc. Boundary line recognition apparatus and branch road determination apparatus
WO2014104183A1 (en) * 2012-12-26 2014-07-03 株式会社日本自動車部品総合研究所 Boundary recognition device and branch assessment device
JP2014127027A (en) * 2012-12-26 2014-07-07 Nippon Soken Inc Boundary line recognition device
US10891738B2 (en) 2012-12-26 2021-01-12 Nippon Soken, Inc. Boundary line recognition apparatus and branch road determination apparatus
CN105629333A (en) * 2015-12-27 2016-06-01 安徽皖通科技股份有限公司 Road weather detection method based on video
KR101748524B1 (en) * 2016-01-26 2017-06-27 (주)스마트테크놀로지 Apparatus and method for fog detection using visibility estimation
KR20180091254A (en) * 2017-02-06 2018-08-16 부산대학교 산학협력단 Apparatus and method for providing road weather information
KR101889645B1 (en) 2017-02-06 2018-08-20 부산대학교 산학협력단 Apparatus and method for providing road weather information
US10803570B2 (en) 2018-05-10 2020-10-13 Eagle Technology, Llc Method and system for a measure of visibility from a single daytime image
WO2020130545A1 (en) * 2018-12-18 2020-06-25 주식회사 월드텍 Fog detection device using coordinate system, and method therefor
KR20200075692A (en) * 2018-12-18 2020-06-26 주식회사 월드텍 Fog detection device using coordinate system and method thereof
KR102257078B1 (en) * 2018-12-18 2021-05-27 허병도 Fog detection device using coordinate system and method thereof

Also Published As

Publication number Publication date
JP4506573B2 (en) 2010-07-21

Similar Documents

Publication Publication Date Title
JP4506573B2 (en) In-vehicle fog determination device
US7693629B2 (en) Onboard fog determining apparatus
JP4784452B2 (en) In-vehicle fog determination device
JP4321591B2 (en) In-vehicle fog determination device
JP4241834B2 (en) In-vehicle fog determination device
JP4730267B2 (en) Visibility state determination device for vehicle
JP6500814B2 (en) Vehicle lighting system
JP4775391B2 (en) Obstacle detection device
US9415718B2 (en) Vehicular headlight apparatus
JP4396400B2 (en) Obstacle recognition device
JP2007057331A (en) In-vehicle system for determining fog
US9821706B2 (en) Illuminating device, illuminating method, program, and medium
CN109982909B (en) Vehicle control device
JP5065172B2 (en) Vehicle lighting determination device and program
CN107209998B (en) Lane line recognition device and lane line recognition method
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
CN111052201B (en) Collision prediction device, collision prediction method, and storage medium
US9372112B2 (en) Traveling environment detection device
JP5233696B2 (en) Lane boundary detection device, boundary detection program, and departure warning device
JP2009252198A (en) Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus
JP4913101B2 (en) Road shape detection device for vehicles
US9469240B2 (en) Apparatus for controlling illumination range of vehicle lights
JP4735530B2 (en) Road marking line recognition device
JP6512044B2 (en) Behavior detection device
JP2015232846A (en) Front situation determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100419

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4506573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees