JP4479532B2 - Fog detection device by night image - Google Patents
Fog detection device by night image Download PDFInfo
- Publication number
- JP4479532B2 JP4479532B2 JP2005040363A JP2005040363A JP4479532B2 JP 4479532 B2 JP4479532 B2 JP 4479532B2 JP 2005040363 A JP2005040363 A JP 2005040363A JP 2005040363 A JP2005040363 A JP 2005040363A JP 4479532 B2 JP4479532 B2 JP 4479532B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- fog
- image
- camera
- fog detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、カメラ画像に映ったライトの光軸を画像認識・処理することで、夜間時における霧の発生状態を検出する霧検出装置に関する。 The present invention relates to a fog detection device that detects a fog generation state at night by recognizing and processing an optical axis of a light reflected in a camera image.
従来より、運転者を支援する運転支援装置や自動運転装置として、前方車両衝突警報装置やACC(Adaptive Cruise Control)装置が知られている。これらの運転支援装置や自動運転装置は、車両外部の環境を認識する装置からの情報をもとに制御出力を決定する。車両外部の環境を認識する装置としては、障害物や先行車両との距離を測定するミリ波レーダ装置やレーザレーダ装置といった装置が知られている。例えば、特開平8−122437号公報で示される距離測定装置では、レーザ光を用いて、霧中の障害物との距離を計測している。
前述の運転支援装置や自動運転装置は、車両外部の環境を反映させた支援内容を決定することが望ましい。例えば、前方車両衝突警報装置が、霧が発生している場合は霧が発生していない場合に比べ早い段階で警報を出力することができれば、運転者はより安全に車間距離を調整可能である。 It is desirable that the above-described driving assistance device and automatic driving device determine the assistance contents reflecting the environment outside the vehicle. For example, if the forward vehicle collision warning device can output a warning at an earlier stage when fog is occurring than when fog is not generated, the driver can adjust the inter-vehicle distance more safely. .
そこで、本発明は、カメラが撮影したライトの光軸を含む画像を処理することで、特に夜間走行時における霧の発生状態を検出し、これを運転支援装置や自動運転装置の制御出力に反映できる霧検出装置を提供することを目的とする。 Therefore, the present invention processes the image including the optical axis of the light photographed by the camera to detect the fog generation state particularly during night driving, and reflects this in the control output of the driving support device and the automatic driving device. An object of the present invention is to provide a fog detection device that can perform this.
上記目的を達成するために請求項1に記載の発明は、夜間走行時に霧の発生を検出する霧検出装置において、少なくともカメラの撮像範囲内を照射する第一ライトと、少なくとも前記第一ライトの光軸を含んだ周辺環境を撮影するカメラと、前記カメラが撮影した少なくとも前記第一ライトの光軸を含んだ周辺環境を含む画像を処理し、霧検出信号を出力する画像処理・霧検出手段を備え、前記画像処理・霧検出手段は、前記カメラが撮影した撮影画像の水平方向走査線の輝度値の極大値が前記第一ライトのライト状態より算出した前記第一ライトの光軸推定位置近傍に存在し、かつ、左右の前記光軸推定位置に存在する前記極大値を含む輝度変化が少ない領域と、前記領域以外の領域間の輝度変化量が所定範囲内の変化量を維持したとき霧発生とみなすことを特徴とする。これにより、夜間走行時において霧の発生を検出することができ、前記撮影画像上に霧検出に用いる第一ライトの光軸以外の輝度変化が少ない領域、例えば走行車線を表す白線が存在した場合にも、誤判定を行うことなく霧を検出可能である。 In order to achieve the above object, according to a first aspect of the present invention, there is provided a fog detecting device that detects the occurrence of fog when traveling at night, a first light that irradiates at least an imaging range of a camera, and at least the first light. A camera for photographing a surrounding environment including an optical axis, and an image processing / fog detecting means for processing an image including the surrounding environment including at least the optical axis of the first light photographed by the camera and outputting a fog detection signal The image processing / fog detection means includes an optical axis estimated position of the first light, wherein a maximum value of a luminance value of a horizontal scanning line of a captured image captured by the camera is calculated from a light state of the first light. When the luminance change amount between the region including the maximum value existing in the vicinity and the left and right optical axis estimation positions including the maximum value is small and the luminance change amount between the regions other than the region maintains a change amount within a predetermined range. fog Characterized in that considered as raw. As a result, it is possible to detect the generation of fog during night driving, and when there is a region on the photographed image where there is little change in luminance other than the optical axis of the first light used for fog detection, for example, a white line representing a driving lane In addition, fog can be detected without erroneous determination.
請求項2に記載の発明は、前記第一ライトに制御指令を送信し、該第一ライトより取得した第一ライトのライト状態を画像処理・霧検出手段に出力するライト制御手段と、前記ライト制御手段から入力された前記第一ライトのライト状態と前記カメラが撮影した画像とに基づいて霧検出信号を出力する画像処理・霧検出手段を備えることを特徴とする。これにより、第一ライトのライト状態、例えば点灯消灯状態や光軸方向に基づいて、霧検出装置は霧検出処理を行うことができ、検出精度が向上する。 According to a second aspect of the present invention, there is provided a light control unit that transmits a control command to the first light and outputs a light state of the first light acquired from the first light to an image processing / fog detection unit; The image processing / fog detection means outputs a fog detection signal based on the light state of the first light input from the control means and the image taken by the camera. Thereby, based on the light state of a 1st light, for example, a lighting / extinguishing state, or an optical axis direction, a fog detection apparatus can perform a fog detection process, and a detection precision improves.
請求項3に記載の発明は、前記第一ライト以外の第二ライトを備え、前記ライト制御手段は、前記第一ライトと前記第二ライトの光軸方向を制御し前記第一ライトと前記第二ライトの両方の制御状態を取得するとともに、前記ライト制御手段から入力された前記第一ライトのライト状態および前記第二ライトのライト状態と前記カメラが撮影した画像とを処理し霧検出信号を出力する画像処理・霧検出手段を備えることを特徴とする。これにより、本霧検出装置は、第一ライトのみが点灯している場合にも複数のライトが点灯している場合にも、第一ライトのライト状態、例えば第一ライトの点灯消灯状態や第一ライトの光軸方向の情報と、第二ライトのライト状態、例えば第二ライトの点灯消灯状態や第二ライトの光軸方向の情報とを用いて撮影した画像を処理するため、霧の発生を検出可能である。また、例えば霧検出装置の出力をライト制御手段に入力することによって、霧の発生状態に応じて第一ライトおよび第二ライトの光軸方向を制御可能である。 The invention according to claim 3 includes a second light other than the first light, and the light control means controls an optical axis direction of the first light and the second light to control the first light and the first light. While acquiring both control states of two lights, the light state of the first light and the light state of the second light input from the light control means and the image taken by the camera are processed to generate a fog detection signal. Image processing / fog detection means for outputting is provided. Thus, the fog detection device can detect the light state of the first light, for example, whether the first light is on or off, regardless of whether only the first light is on or a plurality of lights are on. Occurrence of fog to process images taken using information about the light axis direction of one light and the light state of the second light, for example, whether the second light is on or off, or information about the second light's optical axis direction Can be detected. Further, for example, by inputting the output of the fog detection device to the light control means, it is possible to control the optical axis directions of the first light and the second light according to the fog generation state.
請求項4に記載の発明は、前記ライト制御手段は、前記第一ライトおよび前記第二ライトの制御指令として、スイブル角、チルト角の少なくとも1つの制御指令を出力することを特徴とする。これにより、光軸方向を変更可能な機構を持つ第一ライトおよび第二ライトの光軸を、霧の発生状態に基づき制御可能である。 The invention according to claim 4 is characterized in that the light control means outputs at least one control command of a swivel angle and a tilt angle as a control command for the first light and the second light. Thereby, it is possible to control the optical axes of the first light and the second light having a mechanism capable of changing the optical axis direction based on the fog generation state.
請求項5に記載の発明は、前記ライト制御手段は、前記第一ライトと前記第二ライトとの双方のライト状態として、ハイビームとロービームとの切替状態、スイブル角およびチルト角の少なくとも1つの制御状態を取得することを特徴とする。これにより、ハイビームとロービームを切替可能な機構や光軸方向を変更可能な機構を持つ第一ライトおよび第二ライトの状態を基に、霧検出装置は霧の発生状態を判定可能である。 According to a fifth aspect of the present invention, the light control means controls at least one of a switching state between a high beam and a low beam, a swivel angle, and a tilt angle as a light state of both the first light and the second light. It is characterized by acquiring a state. Accordingly, the fog detecting device can determine the fog generation state based on the state of the first light and the second light having a mechanism capable of switching between the high beam and the low beam and a mechanism capable of changing the optical axis direction.
請求項6に記載の発明は、カメラが撮影した撮影画像を用いて走行車線を認識する走行車線認識装置が前記撮影画像内から座標値を検出する際に用いる前記撮影画像の水平方向走査線の設定アルゴリズムを、前記画像処理・霧検出手段が霧発生を検出するためのアルゴリズムとして転用することを特徴とする。これにより、撮影画像上の一部の画像素子を処理すれば良いため、霧検出処理の処理時間を短縮可能である。 According to the sixth aspect of the present invention, the traveling lane recognition device that recognizes the traveling lane using the captured image captured by the camera detects the horizontal scanning line of the captured image used when detecting a coordinate value from the captured image. The setting algorithm is diverted as an algorithm for the image processing / fog detection means to detect the occurrence of fog. Thereby, since it is sufficient to process a part of the image elements on the photographed image, the processing time of the fog detection process can be shortened.
請求項7に記載の発明は、前記カメラは、前記走行車線認識装置が使用するカメラを併用することを特徴とする。これにより、霧検出装置専用のカメラを設ける必要がないため、装置の生産コストを下げることができる。 The invention described in claim 7 is characterized in that the camera is used in combination with a camera used by the travel lane recognition device. Thereby, since it is not necessary to provide the camera only for a fog detection apparatus, the production cost of an apparatus can be reduced.
請求項8に記載の発明は、前記画像処理・霧検出手段が霧発生を検出するための前記撮影画像内の白い帯状の線の座標値を幾何学変換により道路面の座標値に変換するアルゴリズムは、前記走行車線認識装置が使用する前記撮影画像内の白線の座標値を幾何学変換により道路面の座標値に変換するアルゴリズムを転用することを特徴とする。これにより、霧検出アルゴリズムの製作コストを圧縮可能であるとともに、高い信頼性を得ることができる。 The invention according to claim 8 is an algorithm for converting a coordinate value of a white belt-like line in the photographed image for detecting the occurrence of fog by the image processing / fog detecting means into a coordinate value of a road surface by geometric conversion. Is diverted from an algorithm for converting the coordinate value of the white line in the captured image used by the traveling lane recognition device into the coordinate value of the road surface by geometric conversion. Thereby, the production cost of the fog detection algorithm can be compressed, and high reliability can be obtained.
以下、実施例1から実施例5を用いて、本発明を実施するための最良の形態を述べる。 Hereinafter, the best mode for carrying out the present invention will be described using Examples 1 to 5.
〔実施例1〕
本実施例では、図1から図5を用いて、夜間走行時の自動車に搭載する霧検出装置を例に説明を行う。
[Example 1]
In the present embodiment, an explanation will be given by taking as an example a fog detection device mounted on an automobile during night driving with reference to FIGS.
図1は、霧検出装置の一例を示すブロック図である。自動車のフロントガラス内のルームミラー裏側に車両前方を撮影するカメラ11を取り付ける。カメラ11は、クルーズコントロールの一機能として使用され市販車の多くに搭載されているレーンキープ用の白線検出カメラを共用する。これにより、新たにカメラ11を設置する場合に比べ、コストパフォーマンスに優れる。
FIG. 1 is a block diagram illustrating an example of a fog detection device. A
車体前部には、第一ライトとしてヘッドライト12、第二ライトとしてフォグライト13が装備されている。ヘッドライト12は、ハイとローの切り替え機能に加えAFS(Adaptive Front−lighting System)機能を持つヘッドライトであり、ハイとローの点灯状態およびヘッドライト12のスイブル角をライト制御部14に出力する。フォグライト13は、点灯消灯の状態をライト制御部14に出力する。ライト制御部14は車両内部に設置されており、ヘッドライト12には、図示しないステアリングの操舵角、車速、車高から目標スイブル角を算出し出力、フォグライト13には点灯指令もしくは消灯指令を出力する。また、ヘッドライト12およびフォグライト13の点灯状態とヘッドライト12のスイブル角をライト状態16データとして画像処理・霧検出部17に出力する。
A
画像処理・霧検出部17は車両内部に設置されており、カメラ11から出力された画像15を画像処理して霧の有無を判断する。図2は霧が発生している時に撮影した画像(以下、霧発生画像)である。霧発生画像には、ヘッドライト12の光軸が白い帯状の線として写っている。図2の霧発生画像の中で、ヘッドライト12の光軸が白い帯状の線として表れるのは、光が霧(水の小粒子)によって散乱されているためである。また、霧発生画像の中では、輝度は白い帯状の線から離れるに従って緩やかに低下している。霧発生下においては、ヘッドライト12の点灯状態がハイビームの場合と、ロービームの場合とで、白い帯状の線の現れる場所が異なる。しかし、光軸が白い帯状の線として明確に現れ、輝度が白い帯状の線から離れるに従って緩やかに下がるという点は、どちらの点灯状態においても変わらない。
The image processing /
一方、霧が発生していない時は、光を散乱する水の小粒子が存在しない。そのため、散乱により光軸が白い帯状の線となって明確に出現しないかわりに、路面上で反射率の高い反射物体が明るく写る。このためセンターラインやガードレールといった白い反射物体と、道路面といった黒い反射物体との境界では、黒い反射物体側の輝度が、白い反射物体側の輝度に比べ急激に下がっている。 On the other hand, when no mist is generated, there are no small particles of water that scatter light. For this reason, a reflective object having a high reflectivity appears brightly on the road surface instead of clearly appearing as a white strip line due to scattering. For this reason, at the boundary between a white reflective object such as a center line or a guardrail and a black reflective object such as a road surface, the luminance on the black reflective object side is drastically lower than the luminance on the white reflective object side.
以上より、霧発生画像と霧なしが発生していない時に撮影した画像(以下、霧なし画像)とには2種類の相違点が存在する。1点目の相違点は、霧発生画像にはヘッドライト12の光軸が白い帯状の線として表れ、霧なし画像には白い帯状の線が存在しないという点である。2点目の相違点は、霧発生画像の輝度分布は白い帯状の線から離れるに従って輝度が緩やかに下がり、霧なし画像の輝度分布は黒い反射物体側の輝度が、白い反射物体側の輝度に比べ急激に下がっている点である。
As described above, there are two types of differences between the fog generated image and the image taken when no fog is generated (hereinafter referred to as the fogless image). The first difference is that the optical axis of the
図1における画像処理・霧検出部17では、前述の2種類の相違点を利用して霧を検出するため、検出処理は2段階の処理からなる。第1段階の処理は、ライト状態16から画像15上のどの画像素子に自車両の光軸が白い帯状の線として現れるかを推定し、その画像素子近傍に白い帯状の中心線が明確に現れているかを判別する図5にて後述する極大値探索処理51である。第2段階の処理は、白い帯状の線が現れている場合に白い帯状の中心線から離れるに従って輝度が緩やかに低下しているか判定する図5にて後述する輝度判定処理52である。
In the image processing /
霧検出に前述の2段階処理を使用する理由について述べる。道路上には対向車のヘッドライトや街灯が存在するため、画像15上には、自車両のヘッドライト12以外の光による白い帯状の線も存在する場合がある。そこで、あらかじめライト状態16とカメラ11とヘッドライト12の相対位置から自車両の光軸位置を推定し、その推定位置近傍のみに白い帯状の中心線が存在するかどうかを判定する。しかし、この判定では、光軸推定位置と道路上に引かれた白色のセンターラインやガードレールが画像15上で重なった場合に、ヘッドライト12の光軸による白い帯状の線でなくても光軸推定位置に白い帯状の線が存在するため霧が発生していると誤認する可能性がある。そこで霧発生時には、ヘッドライト12の光軸が白い帯状の線として現れるだけではなく、その白い帯状の線周辺の輝度が緩やかに低下するという特徴も用いる。以上より、光軸推定位置近傍に光軸が白い帯状の中心線として検出できるか探索する極大値探索処理51と、白い帯状の線から離れるに従って緩やかに輝度が低下しているかを判定する輝度判定処理52の2段階処理が必要となる。
The reason why the above-described two-stage process is used for fog detection will be described. Since there are headlights and street lamps of oncoming vehicles on the road, there may be white strip lines on the image 15 due to light other than the
図3(a)から図3(d)を用いて、極大値探索処理51について説明する。図3(a)は、霧発生画像を模式的に現している。画像処理の効率化を図るため、図3(a)に示す横走査線kと横走査線k+1と横走査線k+2のように画像を横方向へnピクセル単位に分割して横走査線上の輝度を調べ、白い帯状の線として現れた光軸を検出する。もし、画像サイズが横方向に640ピクセル、縦方向に480ピクセルであったとするならば、光軸を検出するために使用する横走査線数は、t本となる(ただしt=480/n)。この横走査線をnピクセルおきに処理する画像処理手法は、既に数多くの車両に搭載されている走行車線認識装置用の白線認識アルゴリズムで利用されており、これを霧検出アルゴリズムに転用すればコストパフォーマンスおよび信頼性の点で有利である。
The maximum value search processing 51 will be described with reference to FIGS. 3 (a) to 3 (d). FIG. 3A schematically shows a fog generation image. In order to improve the efficiency of image processing, the luminance on the horizontal scanning line is divided by dividing the image into units of n pixels in the horizontal direction as shown in the horizontal scanning line k, horizontal scanning
図3(b)は横走査線k、図3(c)は横走査線k+1、図3(d)は横走査線k+2の輝度と横方向の画像素子番号の関係、すなわち横走査線毎の輝度分布を表している。図3(b)および図3(c)に示すように、霧の発生により画像15に白い帯状の線が存在する場合は、白い帯状の線の中心部分は輝度が高いため左右ヘッドライト12それぞれにつき極大値が2箇所存在する。ただし、画像の輝度は256階調といったように数値化されているため、光の反射強度が特に強い場合は、一律で階調の最大値(256階調の場合は255)に飽和し輝度分布がπ型となる。図3(d)の横走査線k+2のように輝度が飽和している場合は、飽和した素子集合の中間に位置する素子を極大値とする。以降では、画面左側に存在する極大値を左極大値31および35、右側を右極大値32および36と呼ぶ。
3B is the horizontal scanning line k, FIG. 3C is the horizontal scanning
極大値の座標値を抽出する際は、あらかじめカメラ11とヘッドライト12の取り付け位置、およびライト状態16とから光軸推定位置を推定する。この光軸推定位置に幅も持たせた範囲を極大値探索範囲とし、その範囲に極大値が存在するかどうかを探索する。図3(b)から図3(d)に示すように、極大値と同様、画像15左側の光軸推定位置近傍の範囲を左探索範囲33、右側を右探索範囲34とする。極大値探索処理51は、nピクセル毎に横走査線上の探索を行い、走査線上の左探索範囲33および右探索範囲34の中に、ある一定値以上の輝度をもち輝度値が最大となる画像素子(左極大値31および右極大値32)が存在する場合は極大値が存在すると判断する。
When extracting the coordinate value of the maximum value, the optical axis estimation position is estimated in advance from the mounting position of the
次に図3(a)および図3(e)から図3(g)を用いて、輝度判定処理52について説明する。本処理は、前述の極大値探索処理51で横走査線上に極大値が存在すると判断された場合にのみ実行される。また、極大値探索処理51と同様に、輝度判定処理52もnピクセルおきの横走査線上の輝度分布を処理する。図3(e)から図3(g)に示すように、横走査線上で処理を行う領域を、左輝度判定領域37と中輝度判定領域38と右輝度判定領域39との3領域にわける。左輝度判定領域37とは、最も左側の画像素子から、左極大値31の左隣の画像素子までの領域である。なお、図3(g)のように輝度が飽和している場合には、左極大値31を含む最も左側の画像素子から、輝度が飽和した素子の中で最も左側に位置する画像素子の左隣の画像素子までの領域を左輝度判定領域37とする。中輝度判定領域38とは、左極大値31の右隣の画像素子から右極大値32の左隣の画像素子までの領域である。左輝度判定領域37と同様に、図3(g)のように輝度が飽和している場合には、左極大値31を含む輝度が飽和した素子の中で最も右側に位置する画像素子の右隣の画像素子から、右極大値32を含む輝度が飽和した素子の中で最も左側に位置する画像素子の左隣の画像素子までの領域を中輝度判定領域38とする。右輝度判定領域39とは、最も右側の画像素子から、右極大値32の右隣の画像素子までの領域である。左輝度判定領域37と同様に、図3(g)のように輝度が飽和している場合には、最も右側の画像素子から、右極大値32を含む輝度が飽和した素子の中で最も右側に位置する画像素子の右隣の画像素子までの領域を右輝度判定領域39とする。
Next, the
これらの左輝度判定領域37、中輝度判定領域38、右輝度判定領域39内で、隣接する画像素子あるいは所定画像素子毎の輝度変化量を計算し、ある一定範囲内の変化量を保っているならば、白い帯状の線から離れるに従って輝度が緩やかに低下しているとみなし、霧が発生していると判定する。
Within these left
図4のフローチャートを用いて、霧検出装置が実行するフォグライト13の点灯消灯処理について述べる。処理の初期状態は、検出カウンタおよび解除カウンタは0、モードは“アイドル”となっている。初期状態とは、霧検出装置を始動した時の状態である。始動後は、カメラ11により画像15が撮影されるたびに、ステップS401以降の処理が行われる。後述するようにフォグライト13の点灯消灯処理が一時終了された状態で、カメラ11により画像15が撮影され再び処理が実行された場合には、前回の処理における検出カウンタと解除カウンタとモードとが用いられる。すなわち、検出カウンタと解除カウンタとモードとはグローバル変数で宣言されており、カメラ11による画像取得の割り込み処理が行われた場合に、図4の処理が行われる。なお、モードは“アイドル”、“検出中”、“点灯中”の3種類のいずれかの値をとる。
With reference to the flowchart of FIG. 4, the lighting / extinguishing process of the
ステップS401で、カメラ11により撮影された画像15を取得し、ステップS402へ進む。ステップS402では、ステップS401で取得した画像15に対して、図5を用いて後述する極大値探索処理51および輝度判定処理52からなる霧検出処理を行い、ステップS403へ進む。ステップS403では、ステップS402の霧検出処理によって出力された霧検出信号を用いた条件により分岐判定を行う。もし、霧検出信号が霧発生(霧検出信号=1)と判定されたならステップS404へ進み、霧なし(霧検出信号=0)と判定されたならステップS405へ進む。ステップS404では、モードの値を条件に分岐判定を行う。もし、モードが“検出中”と判定されるならステップS406へ進み、“検出中”でないと判定されるならステップS407へ進む。ステップS406では、検出カウンタに1を加えステップS408へ進む。ステップS408では、検出カウンタと検出規定回数を比較し、もし検出カウンタが検出規定回数を上回っているならステップS409へ進み、上回っていないなら処理を一時終了する。ただし、処理を一時終了した場合は常に、検出カウンタと、解除カウンタと、モードの各3値が保持され、再び処理が実行された場合に使用される。このように、検出カウンタと、解除カウンタと、モードの各3値を保持し、検出カウンタが検出規定回数を超えた場合にフォグライト13を点灯、解除カウンタが解除規定回数を超えた場合にフォグライト13を消灯する理由は、頻繁にフォグライト13の点灯消灯が繰り返されることを防ぐためである。
In step S401, the image 15 photographed by the
ステップS408より続くステップS409では、モードを“点灯中”に設定し、続くステップS410では解除カウンタをリセット(=0)する。ステップS410に続くステップS411では、フォグライト13を点灯し、点灯後に処理を一時終了する。ステップS404において霧なし(霧検出信号=0)である場合に進むステップS407ではモードの値を条件に分岐判定を行い、モードが“アイドル”と判定されたならステップS412に進み、“アイドル”でないと判定されたならステップS414に進む。ステップS412では、検出カウンタに1を加える。ステップS412に続くステップS413ではモードを“検出中”とし、次のステップS414で解除カウンタをリセットする。そして、ステップS414実行後、処理を一時終了する。また、ステップS407でモードが“アイドル”でない場合、モードは“点灯中”であるため、ステップS414で解除カウンタをリセットし、処理を一時終了する。
In step S409 following step S408, the mode is set to “lighting”, and in a subsequent step S410, the release counter is reset (= 0). In step S411 following step S410, the
次に、ステップS403において霧検出信号が霧なしとなった場合の処理について述べる。ステップS405で、モードが“検出中”であるならステップS415において解除カウンタに1を加え、モードが“検出中”でないならステップS416に進む。ステップS415に続くステップS417では、解除カウンタと解除規定回数を比較し、解除カウンタが解除規定回数以上であるならステップS418へ進み、規定回数未満であるなら処理を一時終了する。ステップS418では、モードを“アイドル”に設定する。ステップS418に続くステップS419では検出カウンタをリセットし、その後、処理を一時終了する。ステップS405においてモードが“検出中”でない場合に実行されるステップS416ではモードの値を条件に分岐判定を行い、モードが“点灯中”であるならステップS420へ進み、“点灯中”でないなら処理を一時終了する。ステップS420では、解除カウンタに1を加える。さらにステップS420に続くステップS421では、解除カウンタと解除規定回数を比較し、解除カウンタが解除規定回数以上であるならステップS422へ進み、解除規定回数以下なら処理を一時終了する。ステップS422では、モードを“アイドル”に設定する。ステップS422に続くステップS423では検出カウンタをリセットする。さらに、ステップS423に続くステップS424でフォグライト13を消灯して、処理を一時終了する。
Next, a process when the fog detection signal becomes no fog in step S403 will be described. If the mode is “detecting” in step S405, 1 is added to the release counter in step S415, and if the mode is not “detecting”, the process proceeds to step S416. In step S417 following step S415, the release counter is compared with the specified release count, and if the release counter is equal to or greater than the specified release count, the process proceeds to step S418, and if it is less than the specified count, the process is temporarily terminated. In step S418, the mode is set to “idle”. In step S419 following step S418, the detection counter is reset, and then the process is temporarily terminated. In step S416, which is executed when the mode is not “detecting” in step S405, branch determination is performed based on the mode value. If the mode is “lighting”, the process proceeds to step S420. Is temporarily terminated. In step S420, 1 is added to the release counter. Further, in step S421 following step S420, the release counter is compared with the specified release count, and if the release counter is equal to or greater than the specified release count, the process proceeds to step S422, and if it is less than the specified release count, the process is temporarily terminated. In step S422, the mode is set to “idle”. In step S423 following step S422, the detection counter is reset. Further, the
図4で示したフォグライト13の点灯消灯処理において、検出カウンタが検出規定回数を満たした時にフォグライト13を点灯し、解除カウンタが解除規定回数を満たした時にフォグライト13を消灯するとした理由は、センターラインなどの白線が光軸によって発生した白い帯状の線に一時的に重なった場合に、霧検出の条件が成り立たないケースが発生しフォグライト13の点灯消灯状態が頻繁に切替られることを回避するためである。
In the process of turning on / off the
図5のフローチャートを用いて、図1の画像処理・霧検出部17が実行する処理を説明する。前述の通り、霧検出の処理は2段階で行い、図5の左側が極大値探索処理51、右側が輝度判定処理52である。これらの処理は前述の図4のフローチャートにおけるステップS402である。
The processing executed by the image processing /
まず、極大値探索処理51について述べる。ステップS501では、探索処理を行う横走査線を決定する。初回探索は画像の最上部に位置する横走査線より開始する。ステップS501に続くステップS502では、ライト状態16とカメラ11とヘッドライト12の相対位置を基に、車両のヘッドライト12の光軸がこれから探索を行う横走査線上のどの範囲に存在するかを推定し、その範囲を図3(b)から図3(d)において説明した左探索範囲33および右探索範囲34とする。ステップS502に続くステップS503では、設定した横走査線上の左探索範囲33内において、一定値以上で、かつ左探索範囲33内最大の輝度値を持つ画像素子を探索する。以下、一定値以上かつ探索範囲内最大の輝度値を持つ画像素子を明点、明点の画像素子番号を明点番号と呼ぶ。もし、ステップS503の探索中に明点を検出した場合には、その明点番号を記憶しておく。ステップS503に続くステップS504では、ステップS503で明点を検出したかどうかの判定を行っている。もし、明点を検出したならステップS505へ、検出しなかったならステップS506へ進む。ステップS505では、左探索範囲33内に存在する明点がただ一点である場合、その明点を左極大値31とする。左探索範囲33内に明点が複数存在する場合、すなわち輝度値が階調の最大値に飽和している場合、全明点の中央に位置する画像素子を図3(d)において説明したように左極大値31とする。
First, the maximum value search process 51 will be described. In step S501, a horizontal scanning line to be searched is determined. The initial search starts from the horizontal scanning line located at the top of the image. In step S502 following step S501, based on the relative position of the light state 16 and the
ステップS505に続くステップS507では、右探索範囲34内において明点を探索する。もし、ステップS507の探索中に明点を検出した場合には、その明点番号を記憶しておく。ステップS507に続くステップS508では、ステップS507で明点を検出したかどうかの判定を行っている。もし、明点を検出したならステップS509へ、検出しなかったならステップS506へ進む。ステップS509では、右探索範囲34内に存在する明点がただ一点である場合、その明点を右極大値32とする。右探索範囲34内に明点が複数存在する場合、すなわち輝度値が階調の最大値に飽和している場合、全明点の中央に位置する画像素子を図3(d)において説明したように右極大値32とする。なお、ステップS509を実行することは、左探索範囲33、および右探索範囲34の両方に極大値が存在したことを意味する。ステップS509に続くステップS510では、全横走査線の探索が終了したかどうかを条件に分岐判定を行う。もし、全横走査線の探索が終了したと判定されたなら輝度判定処理52のステップS512へ、探索が終了していないと判定されたならステップS501に戻り次の横走査線による探索を開始する。また、左探索範囲33、もしくは右探索範囲34で明点が検出できなかった場合には、ステップS504もしくはステップS508からステップS506に処理が移り、白い帯状の線が存在しないと判断される。
In step S507 following step S505, a bright spot is searched for in the
次に、輝度判定処理52について述べる。前段の極大値探索処理51で、極大値が存在すると判断された場合、ステップS512にて、輝度判定を行う横走査線を決定する。次に、ステップS512に続くステップS513で、前処理で算出した明点以外の領域内の一定範囲を左輝度判定領域37、中輝度判定領域38、右輝度判定領域39とする。ステップS513に続くステップS514では、輝度判定領域37、38、39における隣接する画像素子同士の輝度変化量を算出する。ステップS514に続くステップS515では、ステップS514で算出した輝度変化量がある一定範囲内であるかどうか判別する。もし、輝度変化量が一定範囲外であるなら前処理で検出した極大値、すなわち白い帯状の線は、ガードレールやセンターラインであったと判断し、ステップS517で霧検出信号を霧なし(霧検出信号=0)として出力する。もし、輝度変化量が一定範囲内であるならステップS516へ進む。ステップS516では、輝度判定領域の全領域、すなわち左輝度判定領域37、中輝度判定領域38、右輝度判定領域39の全領域の輝度変化量を判定したか識別する。もし、全領域を判定したならステップS518へ進み、全領域を判定していないならステップS514に戻る。ステップS516に続くステップS518において、全横走査線の判定が完了していなければステップS512に戻り、全横走査線の判定が完了したならステップS519に進む。ステップS519では、霧検出信号を霧発生(霧検出信号=1)として出力する。
Next, the
本実施例では、ヘッドライト12の光軸を含むカメラ画像15を処理することで、霧を検出した。この霧検出のアルゴリズムは、画像15内にヘッドライト12の光軸が白い帯状の線として現れていて、かつ、白い帯の中心から離れるに従って輝度が緩やかに低下した場合に、霧が発生しているとみなすアルゴリズムである。本装置は霧発生時に、自動的にフォグライト13を点灯させるため、運転者にとって有効な運転支援が可能である。また、多くの車両に装備されている走行車線認識装置の白線認識用カメラを共用するためコストパフォーマンスに優れ、白線認識アルゴリズムを基とした霧検出アルゴリズムを用いるため信頼性が高い。
In this embodiment, fog was detected by processing the camera image 15 including the optical axis of the
〔実施例2〕
図6を用いて実施例2について説明する。この実施例2における前述の実施例1との構成上の相違点は、本実施例では、ACC制御手段61が追加されている点である。なお、実施例1と同等の構成については、実施例1と同様の符号を付し、本実施例2における説明を省略する。
[Example 2]
Example 2 will be described with reference to FIG. The difference in configuration between the second embodiment and the first embodiment is that an ACC control means 61 is added in this embodiment. In addition, about the structure equivalent to Example 1, the code | symbol similar to Example 1 is attached | subjected, and description in this Example 2 is abbreviate | omitted.
ACCとは、先行車との車間距離を一定に保つクルーズコントロールである。画像処理・霧検出部17から出力された霧検出信号が霧発生である場合、ACC制御手段61は、通常の車間距離よりも長い車間距離を開ける、設定できる目標速度に制限をかける、もしくはACC機能自体を使用不可とすることで、視界不良による事故を防止する。
ACC is cruise control that keeps the distance between the vehicle and the preceding vehicle constant. When the fog detection signal output from the image processing /
〔実施例3〕
図7を用いて実施例3について説明する。この実施例3における前述の実施例1との構成上の相違点は、本実施例では、ブレーキアシスト手段71が追加されている点である。なお、前述の実施例と同等の構成については、各実施例と同様の符号を付し、本実施例3における説明を省略する。
Example 3
Example 3 will be described with reference to FIG. The difference in configuration of the third embodiment from the first embodiment described above is that a brake assist means 71 is added in this embodiment. In addition, about the structure equivalent to the above-mentioned Example, the code | symbol similar to each Example is attached | subjected, and description in this Example 3 is abbreviate | omitted.
図7に示すように、実施例3では、ブレーキアシスト手段71が追加されている。ブレーキアシスト手段71は、緊急時に運転者のブレーキペダルへの踏力を増大する比率を通常走行時よりも高めるように設定しておくことで、踏力が少ない運転者でも十分なブレーキングができ、制動距離を短縮することを可能とする手段である。この踏力を増大する比率の設定条件に、霧検出信号を用いる。もし、霧が発生している場合には、運転者のブレーキペダルへの踏力を増大する比率を大きくすることで、霧中の障害物が突然現れた場合でも、運転者は確実にブレーキの性能を引き出すことができる。 As shown in FIG. 7, in the third embodiment, a brake assist means 71 is added. The brake assist means 71 is set so that the ratio of increasing the driver's pedaling force to the brake pedal in an emergency is higher than that during normal driving, so that even a driver with less pedaling force can perform sufficient braking and braking. It is a means that makes it possible to shorten the distance. The fog detection signal is used as a setting condition of the ratio for increasing the pedaling force. If fog is generated, the ratio of increasing the driver's force on the brake pedal can be increased so that the driver can reliably improve the brake performance even if an obstacle in the fog suddenly appears. It can be pulled out.
〔実施例4〕
図8を用いて実施例4について説明する。この実施例4における前述の実施例1との構成上の相違点は、本実施例では、PCS制御手段81と障害物検出手段82が追加されている点である。なお、前述の実施例と同等の構成については、各実施例と同様の符号を付し、本実施例4における説明を省略する。
Example 4
Example 4 will be described with reference to FIG. The difference in configuration between the fourth embodiment and the first embodiment is that a PCS control means 81 and an obstacle detection means 82 are added in this embodiment. In addition, about the structure equivalent to the above-mentioned Example, the code | symbol similar to each Example is attached | subjected, and description in this Example 4 is abbreviate | omitted.
PCS(Pre−crash Safety System)とは、ミリ波レーダなどの障害物検出手段82を用いて、前方障害物を検出し、危険の度合いに応じてシートベルトを巻き上げ乗員に注意を促し、もし衝突が避けられない場合にはその衝撃を軽減するため乗員をベルトによってシートに拘束する手段である。PCS制御手段81に霧検出信号を入力することで、障害物検出手段82が霧中に障害物を検出した場合は、通常よりも早い段階でシートベルトを巻き上げて乗員に注意を促すことができる。 PCS (Pre-Crash Safety System) uses obstacle detection means 82 such as millimeter wave radar to detect obstacles ahead, rolls up the seat belt according to the degree of danger, and alerts the occupant. This is means for restraining the occupant to the seat with a belt in order to reduce the impact when the inevitability cannot be avoided. By inputting the fog detection signal to the PCS control means 81, when the obstacle detection means 82 detects an obstacle in the fog, the seat belt can be wound up earlier than usual to alert the occupant.
〔実施例5〕
実施例5における前述の実施例との相違点は、本実施例では、霧検出信号の内容が霧濃度に応じて、大、中、小、なしの4段階であるのに対し、前述の実施例では霧検出信号は、霧発生、もしくは霧なしの2段階であった点である。
Example 5
The difference between the fifth embodiment and the previous embodiment is that in the present embodiment, the content of the fog detection signal is four levels of large, medium, small, and none according to the fog density, whereas the above-described implementation is performed. In the example, the fog detection signal is a point that has two stages of fog generation or no fog.
本実施例における霧検出信号の段階分けは、実施例1で述べた極大値の輝度値に基づく。具体的には、極大値の輝度値が非常に大きい場合は霧の濃度大、輝度値が大きい場合は霧の濃度中、輝度値が少し大きい場合は霧の濃度小とする。このように霧の濃度を詳細に表現し、ACCやブレーキアシスト、PCSといった運転支援装置と組み合わせることで、より安全性の高い運転支援が可能である。例えば実施例2においてACCと組み合わせた場合、濃度の段階に応じて車間距離および目標速度を調整することができるので、一層きめ細かなACC制御が可能である。人間には霧が濃い時ほど障害物の発見が遅れる傾向があるため、実施例3のブレーキアシストにおいては、霧濃度に応じて運転者のブレーキペダルへの踏力を増大する比率を設定することで乗員はより効果的なブレーキングが可能となる。同様の傾向により、実施例4においても、濃度の度合いに応じて注意を促すタイミングを最適化することで、より効果的なPCS制御が可能である。 The stage detection of the fog detection signal in the present embodiment is based on the maximum luminance value described in the first embodiment. Specifically, when the maximum luminance value is very large, the fog density is high, when the luminance value is high, the fog density is high, and when the luminance value is slightly high, the fog density is low. By expressing the fog concentration in detail and combining it with driving support devices such as ACC, brake assist, and PCS, driving support with higher safety is possible. For example, when combined with ACC in the second embodiment, the inter-vehicle distance and the target speed can be adjusted according to the concentration level, so that finer ACC control is possible. Since humans tend to find obstacles later when the fog is darker, in the brake assist of the third embodiment, the ratio of increasing the driver's pedal force on the brake pedal is set according to the fog density. The occupant can perform more effective braking. Due to the same tendency, also in the fourth embodiment, more effective PCS control can be performed by optimizing the timing to call attention according to the degree of density.
〔その他の実施例〕
前述の実施例では、ヘッドライト12と走行車線認識装置に用いる白線認識用カメラを使用したが、ライトの光軸を撮影できるカメラであれば種類および台数は問わない。
[Other Examples]
In the above-described embodiment, the white light recognition camera used for the
前述の実施例で用いた画像処理・霧検出部17を他の処理装置に組み込んでも良い。例えば、走行車線認識装置のECUを用いて画像処理・霧検出部17の処理を行っても良いし、霧検出アルゴリズムを走行車線判定アルゴリズムに組み込んでも良い。
The image processing /
ライトについては、ヘッドライト12以外のライトであっても霧発生時に光軸が現れるライトであれば良い。また実施例では、AFS機能を有するヘッドライト12を用いたが、AFS機能を持たないヘッドライト12、フォグライト13、ドライビングライトでも良い。またAFS機能も、スイブル角のみを調整し横方向の照射範囲を広げる形式でなく、縦方向のチルト角も設定できる形式でも良い。
As for the light, any light other than the
霧検出のアルゴリズムにおいて、画像上のnピクセル毎の横走査線を処理すると述べたが、mピクセル毎に縦走査線を処理しても良いし、画像上の全画像素子を処理しても良い。 In the fog detection algorithm, it is described that the horizontal scanning line for every n pixels on the image is processed. However, the vertical scanning line may be processed for every m pixels, or all image elements on the image may be processed. .
霧検出信号は2段階もしくは4段階の例を用いて説明を行ったが、3段階以上の複数段階に分けても良いし、段階的表現ではなく、ファジィ集合による度合い的表現で表してもよい。 The fog detection signal has been described using an example of two stages or four stages. However, the fog detection signal may be divided into a plurality of stages of three stages or more, and may be represented by a degree expression by a fuzzy set instead of a step expression. .
11 カメラ
12 ヘッドライト
13 フォグライト
14 ライト制御部
15 画像
16 ライト状態
17 画像処理・霧検出部
31 左極大値
32 右極大値
33 左探索範囲
34 右探索範囲
35 左極大値(明点が複数存在する場合)
36 右極大値(明点が複数存在する場合)
37 左輝度判定領域
38 中輝度判定領域
39 右輝度判定領域
51 極大値探索処理
52 輝度判定処理
61 ACC制御手段
71 ブレーキアシスト手段
81 PCS制御手段
82 障害物検出手段
DESCRIPTION OF
36 Right maximum (when there are multiple bright spots)
37 left
Claims (8)
少なくともカメラの撮像範囲内を照射する第一ライトと、
少なくとも前記第一ライトの光軸を含んだ周辺環境を撮影するカメラと、
前記カメラが撮影した少なくとも前記第一ライトの光軸を含んだ周辺環境を含む画像を処理し、霧検出信号を出力する画像処理・霧検出手段を備え、
前記画像処理・霧検出手段は、前記カメラが撮影した撮影画像の水平方向走査線の輝度値の極大値が前記第一ライトのライト状態より算出した前記第一ライトの光軸推定位置近傍に存在し、かつ、左右の前記光軸推定位置に存在する前記極大値を含む輝度変化が少ない領域と、前記領域以外の領域間の輝度変化量が所定範囲内の変化量を維持したとき霧発生とみなすことを特徴とする霧検出装置。 In a fog detection device that detects the occurrence of fog when traveling at night,
A first light that illuminates at least the imaging range of the camera;
A camera for photographing the surrounding environment including at least the optical axis of the first light;
Image processing / fog detection means for processing an image including the surrounding environment including at least the optical axis of the first light photographed by the camera and outputting a fog detection signal ;
The image processing / fog detection means has a local maximum value of a luminance value of a horizontal scanning line of a photographed image taken by the camera in the vicinity of an optical axis estimated position of the first light calculated from a light state of the first light. And a region where the luminance change including the maximum value present at the left and right optical axis estimation positions is small, and generation of fog when the luminance change amount between the regions other than the region maintains a change amount within a predetermined range; A fog detection device characterized by being regarded .
前記ライト制御手段から入力された前記第一ライトのライト状態と前記カメラが撮影した画像とに基づいて霧検出信号を出力する画像処理・霧検出手段を備えることを特徴とする請求項1に記載の霧検出装置。 A light control means for transmitting a control command to the first light and outputting the light state of the first light acquired from the first light to the image processing / fog detection means;
2. The image processing / fog detection means for outputting a fog detection signal based on a light state of the first light input from the light control means and an image taken by the camera. Fog detector.
前記ライト制御手段は、前記第一ライトと前記第二ライトの光軸方向を制御し前記第一ライトと前記第二ライトの両方の制御状態を取得するとともに、
前記ライト制御手段から入力された前記第一ライトのライト状態および前記第二ライトのライト状態と前記カメラが撮影した画像とを処理し霧検出信号を出力する画像処理・霧検出手段を備えることを特徴とする請求項2に記載の霧検出装置。 A second light other than the first light is provided,
The light control means acquires the control state of both the first light and the second light by controlling the optical axis direction of the first light and the second light,
Image processing / fog detection means for processing the light state of the first light and the light state of the second light input from the light control means and the image taken by the camera and outputting a fog detection signal. The fog detection device according to claim 2, wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005040363A JP4479532B2 (en) | 2005-02-17 | 2005-02-17 | Fog detection device by night image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005040363A JP4479532B2 (en) | 2005-02-17 | 2005-02-17 | Fog detection device by night image |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006227876A JP2006227876A (en) | 2006-08-31 |
JP4479532B2 true JP4479532B2 (en) | 2010-06-09 |
Family
ID=36989218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005040363A Expired - Fee Related JP4479532B2 (en) | 2005-02-17 | 2005-02-17 | Fog detection device by night image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4479532B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011056051A1 (en) * | 2011-12-05 | 2013-06-06 | Conti Temic Microelectronic Gmbh | Method for evaluating image data of a vehicle camera taking into account information about rain |
JP2013235444A (en) * | 2012-05-09 | 2013-11-21 | Denso Corp | Vehicle view support apparatus |
JP6284408B2 (en) * | 2014-04-03 | 2018-02-28 | オリンパス株式会社 | Image processing apparatus, imaging apparatus, determination method, driving method, imaging method, and program |
WO2019175920A1 (en) * | 2018-03-12 | 2019-09-19 | 三菱電機株式会社 | Fog specification device, fog specification method, and fog specification program |
JP7465076B2 (en) * | 2018-12-20 | 2024-04-10 | キヤノン株式会社 | Image processing device and control method thereof |
WO2020189369A1 (en) * | 2019-03-20 | 2020-09-24 | 株式会社小糸製作所 | Sensor system |
CN111516587A (en) * | 2020-04-13 | 2020-08-11 | 奇瑞汽车股份有限公司 | Automobile intelligent fog lamp system and control method thereof |
-
2005
- 2005-02-17 JP JP2005040363A patent/JP4479532B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006227876A (en) | 2006-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4730267B2 (en) | Visibility state determination device for vehicle | |
EP2523174B1 (en) | Vision based night-time rear collision warning system, controller, and method of operating the same | |
US9827956B2 (en) | Method and device for detecting a braking situation | |
JP5680573B2 (en) | Vehicle driving environment recognition device | |
JP5952532B2 (en) | Image processing apparatus and light distribution control method | |
JP6332384B2 (en) | Vehicle target detection system | |
EP2653346B1 (en) | Vehicle safety illumination arrangement and method | |
JP4900211B2 (en) | Driving support device, inter-vehicle distance setting method | |
JP6075331B2 (en) | Vehicle lighting device | |
JP6384534B2 (en) | Vehicle target detection system | |
JP5313638B2 (en) | Vehicle headlamp device | |
JP2010277123A (en) | Driving support system for vehicle | |
EP1887492A1 (en) | Symmetric filter patterns for enhanced performance of single and concurrent driver assistance applications | |
JP5361901B2 (en) | Headlight control device | |
JP2020093766A (en) | Vehicle control device, control system and control program | |
US20200353919A1 (en) | Target detection device for vehicle | |
JP2009217495A (en) | Hazard warning device | |
US11634121B2 (en) | Driving assistance apparatus and driving assistance method for vehicle | |
JP4479532B2 (en) | Fog detection device by night image | |
JP2009116394A (en) | Alarm device for vehicle | |
JP3972300B2 (en) | Brake operation determination device for preceding vehicle and inter-vehicle distance control device | |
JP2004094733A (en) | Vehicular driving support device | |
JP2008137426A (en) | Control device for vehicle | |
JP2006146754A (en) | Preceding car detecting method and preceding car detecting apparatus | |
JP2018163530A (en) | Object detection device, object detection method, and object detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070423 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090804 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20090805 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100223 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100308 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130326 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4479532 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140326 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |