JP6701542B2 - Detection device, mobile device control system, and detection program - Google Patents
Detection device, mobile device control system, and detection program Download PDFInfo
- Publication number
- JP6701542B2 JP6701542B2 JP2015072723A JP2015072723A JP6701542B2 JP 6701542 B2 JP6701542 B2 JP 6701542B2 JP 2015072723 A JP2015072723 A JP 2015072723A JP 2015072723 A JP2015072723 A JP 2015072723A JP 6701542 B2 JP6701542 B2 JP 6701542B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- detection
- light source
- image
- fluctuation component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 306
- 238000003384 imaging method Methods 0.000 claims description 129
- 230000003287 optical effect Effects 0.000 claims description 109
- 238000012545 processing Methods 0.000 claims description 69
- 230000008859 change Effects 0.000 claims description 59
- 238000005286 illumination Methods 0.000 claims description 47
- 238000000034 method Methods 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 37
- 230000002123 temporal effect Effects 0.000 claims description 5
- 230000001464 adherent effect Effects 0.000 claims 2
- 230000010287 polarization Effects 0.000 description 147
- 230000003595 spectral effect Effects 0.000 description 69
- 238000010191 image analysis Methods 0.000 description 32
- 230000005540 biological transmission Effects 0.000 description 21
- 239000000758 substrate Substances 0.000 description 19
- 230000006866 deterioration Effects 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 210000003128 head Anatomy 0.000 description 14
- 238000012937 correction Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 239000000463 material Substances 0.000 description 11
- 238000009826 distribution Methods 0.000 description 7
- 239000000945 filler Substances 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 239000010426 asphalt Substances 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000007257 malfunction Effects 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000008021 deposition Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008014 freezing Effects 0.000 description 2
- 238000007710 freezing Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 239000012466 permeate Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000007738 vacuum evaporation Methods 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000006059 cover glass Substances 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003608 fece Anatomy 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000003566 sealing material Substances 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
Description
本発明は、検出装置、移動体機器制御システム及び検出用プログラムに関するものである。 The present invention relates to a detection device, a mobile device control system, and a detection program.
従来、光源装置からの光源光によって照明される照明領域を撮像手段により撮像して得られる撮像画像データを用い、撮像手段の受光量に基づいて照明領域内の検出対象物を検出する検出装置が知られている。 Conventionally, a detection device that detects a detection target in an illumination area based on the amount of light received by the imaging means, using captured image data obtained by imaging the illumination area illuminated by the light source light from the light source device with the imaging means. Are known.
例えば、特許文献1には、光源装置からの光源光によって照明された自動車のフロントガラスからの反射光を画像センサ(撮像手段)で受光して撮像し、フロントガラス上に付着している雨滴を検出する雨滴検出装置が開示されている。この特許文献1には、付着物が付着していない箇所では光源光がフロントガラスで全反射して撮像手段に入射し、付着物が付着している箇所では光源光がフロントガラスを透過して撮像手段に入射しない雨滴検出装置の一例が開示されている。この例では、フロントガラス上に雨滴が付着することにより撮像手段の受光量が減少して撮像画像の輝度(画素値)が低下するので、撮像画像の輝度低下を検出することによりフロントガラス上の雨滴が検出される。
For example, in
特許文献1に開示の雨滴検出装置は、雨滴の検出精度を低下させる光源光以外の外乱光の影響を抑制するため、光源点灯時(照明期間中)に撮像した点灯時画像と、光源消灯時(非照明期間中)に撮像した消灯時画像との輝度差分値に基づいて雨滴を検出する。消灯時画像は外乱光のみを映し出すものであるため、点灯時画像から消灯時画像を差し引いて得られる輝度差分値は、点灯時画像から外乱光成分を除外した輝度値すなわち光源光の受光量となる。特許文献1には、このような輝度差分値に基づいて雨滴検出を行うことにより、外乱光の影響を抑制した雨滴検出処理が可能となる旨が記載されている。
The raindrop detection device disclosed in
ところが、撮像手段の受光量に基づいて雨滴等の検出対象物を検出する検出装置において、検出精度を低下させる要因は、光源光以外の外乱光の影響だけではない。例えば、光源装置の光源として、発光量の温度依存性が大きいLEDなどの光源を用いる場合には、温度変化に応じて、撮像手段に受光される光源光の光量が変化する。そのため、検出対象物の有無に関わらず撮像手段の受光量が変化してしまい、検出対象物の誤検出を引き起こすおそれがある。また、例えば、光源装置の光源から撮像手段までの光源光の光路上に存在する光学部材の光学特性が温度変化や経時劣化などに起因して変化する場合も、撮像手段に受光される光源光の光量が変化するので、同様に、検出対象物の誤検出を引き起こすおそれがある。 However, in a detection device that detects a detection target such as a raindrop based on the amount of light received by the image pickup unit, the factor that reduces the detection accuracy is not only the influence of ambient light other than the light source light. For example, when a light source such as an LED whose light emission amount has a large temperature dependency is used as the light source of the light source device, the light amount of the light source light received by the imaging means changes according to the temperature change. Therefore, the amount of light received by the imaging unit changes regardless of the presence or absence of the detection target, which may cause erroneous detection of the detection target. Further, for example, even when the optical characteristics of the optical member existing on the optical path of the light source light from the light source of the light source device to the image pickup unit change due to temperature change or deterioration over time, the light source light received by the image pickup unit. Since the amount of light changes, there is a possibility that the detection target may be erroneously detected.
上述した課題を解決するために、本発明は、光源装置からの光源光によって照明される照明領域を前記光源光の点灯と消灯を繰り返しながら撮像手段により撮像して得られる点灯時及び消灯時の撮像画像データを用い、該撮像手段の受光量に基づいて該照明領域内の検出対象物を検出する検出処理を実行する検出処理実行手段を備えた検出装置において、前記照明領域が板状の透過部材上の領域であり、前記検出対象物が前記透過部材の一方の面上に付着する付着物であって、前記光源装置と前記撮像手段とが前記透過部材を挟んで前記一方の面とは反対側の面側に配置されており、前記撮像手段によって所定期間内に前記光源光の点灯時に撮像された複数の前記撮像画像データに基づいて、該撮像手段の受光量の変動成分のうち周波数が所定周波数以下の変動成分である低周波変動成分を検出する低周波変動成分検出手段を有し、前記検出処理実行手段は、前記低周波変動成分検出手段により検出した低周波変動成分を用いて、前記検出処理を実行することを特徴とする検出装置。
ただし、前記所定周波数は、少なくとも、前記光源装置の光源から前記撮像手段の受光素子までの光源光の光路上に存在する光学部材の光学特性の経時変化によって該撮像手段の受光量が変動する変動成分の周波数以上であるか、又は、前記光源装置の光源の温度変化による発光量変化によって該撮像手段の受光量が変動する変動成分の周波数以上である。
In order to solve the above-mentioned problems, the present invention provides an illumination area illuminated by light source light from a light source device at the time of lighting and extinguishing obtained by imaging by an imaging means while repeatedly turning on and off the light source light. In a detection device equipped with detection processing executing means for executing detection processing for detecting a detection target in the illumination area based on the amount of light received by the imaging means using captured image data, the illumination area has a plate-shaped transmission. A region on a member, wherein the detection target is an adhered substance that adheres to one surface of the transmissive member, and the light source device and the imaging means are the one surface with the transmissive member interposed therebetween. It is arranged on the opposite surface side, and the frequency of the fluctuation component of the light receiving amount of the image pickup unit is based on the plurality of imaged image data taken by the image pickup unit during the lighting of the light source light within a predetermined period. Has a low-frequency fluctuation component detecting means for detecting a low-frequency fluctuation component that is a fluctuation component of a predetermined frequency or less, and the detection processing executing means uses the low-frequency fluctuation component detected by the low-frequency fluctuation component detecting means. And a detection device that executes the detection process.
However, the predetermined frequency is at least a fluctuation in which the amount of light received by the image pickup device fluctuates due to a change over time in the optical characteristics of an optical member existing on the optical path of the light source light from the light source of the light source device to the light receiving element of the image pickup device. It is equal to or higher than the frequency of the component, or equal to or higher than the frequency of the fluctuation component in which the amount of light received by the imaging unit fluctuates due to the change in the amount of light emission due to the temperature change of the light source of the light source device.
本発明によれば、光源や光学部材等の温度変化や経時劣化などに起因した検出対象物の誤検出を抑制できるという優れた効果が奏される。 According to the present invention, there is an excellent effect that it is possible to suppress erroneous detection of a detection target due to a temperature change of the light source, an optical member, or the like or deterioration with time.
以下、本発明に係る検出装置を、移動体である自動車等の車両に搭載される対象機器を制御する移動体機器制御システムとしての車載機器制御システムに用いられる付着物検出装置に適用した一実施形態について説明する。
なお、本発明に係る検出装置は、検出対象物の検出結果を利用して各種処理や制御を実行するシステムにおいて広く利用することができ、自動車以外の車両、船舶、航空機などの他の移動体に搭載される種々の移動体搭載機器の制御システム、あるいは、移動体に搭載される機器ではないFA(factory automation)等の処理装置の制御システムなどにも利用することができる。
Hereinafter, one embodiment in which the detection device according to the present invention is applied to an adhering matter detection device used in an in-vehicle device control system as a mobile device control system for controlling a target device mounted on a vehicle such as an automobile that is a mobile object The form will be described.
In addition, the detection device according to the present invention can be widely used in a system that executes various processes and controls by using a detection result of a detection target, and other mobile objects such as vehicles other than automobiles, ships, and aircraft. The present invention can also be used for a control system for various types of mobile device-mounted equipment mounted on a mobile phone, or a control system for a processing device such as FA (factory automation) that is not a device mounted on a mobile body.
図1は、本実施形態における車載機器制御システムの概略構成を示す模式図である。
本車載機器制御システムは、自動車などの自車両100に搭載された撮像部により、自車両周囲(特に進行方向前方領域)を撮像領域として撮像した撮像画像データを利用して、ヘッドランプの配光制御、ワイパーの駆動制御、その他の車載機器の制御を行うものである。
FIG. 1 is a schematic diagram showing a schematic configuration of an in-vehicle device control system according to this embodiment.
The in-vehicle device control system uses the imaged image data obtained by capturing an image of the surroundings of the vehicle (particularly, the front area in the traveling direction) as an imaging area by the imaging unit mounted on the
本実施形態の車載機器制御システムに設けられる撮像部は、撮像ユニット101に設けられており、走行する自車両100の進行方向前方領域を撮像領域として撮像するものであり、例えば、自車両100のフロントガラス105のルームミラー付近に設置される。撮像ユニット101の撮像部で撮像された撮像画像データは、画像解析ユニット102に入力される。画像解析ユニット102は、CPUやRAM等により構成され、撮像部から送信されてくる撮像画像データを解析し、撮像画像データに自車両100の前方に存在する他車両の位置(方角や距離)を算出したり、フロントガラス105に付着する雨滴や異物などの付着物(検出対象物)を検出したり、撮像領域内に存在する路面上の白線(区画線)等を検出したりする。他車両の検出では、他車両のテールランプを識別することで自車両100と同じ進行方向へ進行する先行車両を検出し、他車両のヘッドランプを識別することで自車両100とは反対方向へ進行する対向車両を検出する。
The imaging unit provided in the in-vehicle device control system according to the present embodiment is provided in the imaging unit 101 and images a front area in the traveling direction of the traveling
画像解析ユニット102の算出結果は、ヘッドランプ制御ユニット103に送られる。ヘッドランプ制御ユニット103は、例えば、画像解析ユニット102が算出した他車両の位置データから、自車両100の車載機器であるヘッドランプ104を制御する制御信号を生成する。具体的には、例えば、先行車両や対向車両の運転者の目に自車両100のヘッドランプの強い光が入射するのを避けて他車両の運転者の幻惑防止を行いつつ、自車両100の運転者の視界確保を実現できるように、ヘッドランプ104のハイビームおよびロービームの切り替えを制御したり、ヘッドランプ104の部分的な遮光制御を行ったりする。
The calculation result of the
画像解析ユニット102の算出結果は、ワイパー制御ユニット106にも送られる。ワイパー制御ユニット106は、除去手段としてのワイパー107を制御して、自車両100のフロントガラス105に付着した雨滴や異物などの付着物(検出対象物)を除去する。ワイパー制御ユニット106は、画像解析ユニット102が検出した付着物検出結果を受けて、ワイパー107を制御する制御信号を生成する。ワイパー制御ユニット106により生成された制御信号がワイパー107に送られると、自車両100の運転者の視界を確保するべく、ワイパー107を稼動させる。
The calculation result of the
また、画像解析ユニット102の算出結果は、車両走行制御ユニット108にも送られる。車両走行制御ユニット108は、画像解析ユニット102が検出した白線検出結果に基づいて、白線によって区画されている車線領域から自車両100が外れている場合等に、自車両100の運転者へ警告を報知したり、自車両のハンドルやブレーキを制御するなどの走行支援制御を行ったりする。また、車両走行制御ユニット108は、画像解析ユニット102が検出した他車両の位置データに基づいて、先行車両との距離が近接した場合等に、自車両100の運転者へ警告を報知したり、自車両のハンドルやブレーキを制御するなどの走行支援制御を行ったりする。
The calculation result of the
図2は、撮像ユニット101に設けられる撮像部200と付着物検出装置を構成する画像解析ユニット102との概略構成を示す説明図である。
撮像部200は、主に、撮像レンズ204と、光学フィルタ205と、受光素子が2次元配置された撮像手段としての画像センサ206を含んだセンサ基板207と、センサ基板207から出力されるアナログ電気信号(画像センサ206上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データを生成して出力する信号処理部208とから構成されている。また、本実施形態においては、センサ基板207上に光源装置としての光源部202が実装されている。この光源部202は、フロントガラス105の内壁面(一方の面)側に配置され、外壁面(他方の面)に付着した付着物(以下、付着物が主に雨滴である場合を例に挙げて説明する。)を検出するためのものである。
FIG. 2 is an explanatory diagram showing a schematic configuration of the
The
本実施形態では、撮像レンズ204の光軸が水平方向に一致するように撮像ユニット101を配置するが、これに限定されることはなく、水平方向(図2中のX方向)を基準とした特定方向に向けるような例であってもよい。撮像レンズ204は、例えば、複数のレンズで構成され、焦点がフロントガラス105の位置よりも遠方に設定されるものを用いる。撮像レンズ204の焦点位置は、例えば、無限遠又は無限遠とフロントガラス105との間に設定することができる。
In the present embodiment, the image pickup unit 101 is arranged so that the optical axis of the
画像センサ206は、センサ面を保護するカバーガラスを透過した光を受光する2次元配置された複数の受光素子で構成され、受光素子(撮像画素)ごとに入射光を光電変換する機能を有する。後述の図等では画像センサ206の各画素を簡略化して描いているが、実際には画像センサ206は2次元配置された数十万個程度の画素で構成されている。画像センサ206としては、例えば、全撮像画素を同時露光(グローバルシャッター)して各撮像画素の信号を読み出すCCD(Charge Coupled Device)や、ライン露光(ローリングシャッター)で露光された各撮像画素の信号を読み出すCMOS(Complementary Metal Oxide Semiconductor)などを用いたイメージセンサであり、その受光素子にはフォトダイオードを用いることができる。
The
信号処理部208は、画像センサ206で光電変換され、センサ基板207から出力されるアナログ電気信号(画像センサ206の各受光素子への入射光量)をデジタル電気信号に変換した撮像画像データを生成して出力する機能を有する。信号処理部208は、画像解析ユニット102と電気的に接続されている。信号処理部208は、センサ基板207を経由して画像センサ206から電気信号(アナログ信号)が入力されると、入力された電気信号から、画像センサ206上における各撮像画素の明るさ(輝度)を示すデジタル信号(撮像画像データ)を生成する。そして、この撮像画像データを、画像の水平・垂直同期信号とともに、後段の画像解析ユニット102へ出力する。
The
また、画像解析ユニット102は、撮像ユニット101の撮像動作を制御する機能や、撮像ユニット101から送信される撮像画像データを解析する機能を有する。画像解析ユニット102は、露光量制御手段としての露光量制御部102Cによって、撮像ユニット101から送信された撮像画像データから、画像センサ206の撮像対象(自車両前方領域に存在する他車両等の物体)ごとの最適な露光量を算出し、画像センサ206の撮像対象ごとに最適な露光量(本実施形態では露光時間)を設定する機能を有する。また、画像解析ユニット102は、信号処理部208からの画像信号の取得と連動しながら、光源制御手段としての光源制御部102Bによって、光源部202の発光タイミングなどを制御する機能を有する。また、画像解析ユニット102は、撮像ユニット101から送信されてくる撮像画像データから、路面状態や道路標識などに関する情報を検出する機能を有する。また、画像解析ユニット102は、撮像ユニット101から送信されてくる撮像画像データから、自車両の前方に存在する他車両の位置や方角、距離等を算出する機能を有する。
The
また、画像解析ユニット102は、検出処理部102Aによって、フロントガラス105の状態(雨滴の付着、凍結、曇りなど)を検出する機能を有する。検出処理部102Aは、雨滴の付着を検出する場合、撮像ユニット101から送信された撮像画像データを用い、その撮像画像データの輝度値(画素値)に応じてフロントガラス105上の雨滴量を算出する。このとき、本実施形態では、詳しくは後述するが、撮像ユニット101から所定期間内に送られてくる複数の撮像画像データに基づいて、その撮像画像データの輝度値変動成分のうち所定周波数以下の低周波変動成分を検出する低周波変動成分検出手段としての低周波変動成分検出部102Dを備えている。なお、本明細書において、輝度値変動成分とは輝度値の時間変動成分であり、低周波変動成分とは時間周期が長い変動成分である。
Further, the
図3は、本実施形態における撮像ユニット101の光学系を説明するための説明図である。
本実施形態の光源部202は、フロントガラス105上に付着した付着物(雨滴、凍結、曇り等)を検出するための光源光(照明光)を照射するものである。本実施形態の光源部202は、その光源としてのLEDを複数備え、各LEDから照射される光源光をコリメータレンズ等の光学系を通じて外部へ出射する構成となっている。このように光源を複数具備することにより、光源が1つである場合と比較して、フロントガラス105上の付着物を検出するための検出領域が広がり、フロントガラス105の付着物の検出精度が向上する。
FIG. 3 is an explanatory diagram for explaining an optical system of the image pickup unit 101 in this embodiment.
The
本実施形態では、LEDを画像センサ206と同じセンサ基板207上に実装しているので、これらを別々の基板上に実装する場合よりも基板枚数を減らすことができ、低コストを実現できる。また、LEDの配置方法は、図3中のY方向に沿って1列又は複数列に配置することで、後述するとおり、車両前方領域の画像が映し出される画像領域の下側に映し出されるフロントガラス画像を撮像するための照明を均一化することが可能となる。本実施形態では、光源部202を、画像センサ206と同じセンサ基板207上に実装しているが、画像センサ206とは別基板上に実装してもよい。
In the present embodiment, since the LEDs are mounted on the
光源部202は、光源部202が照射する光の光軸方向と撮像レンズ204の光軸方向とが予め所定の角度を有するように、センサ基板207上に配置されている。また、光源部202は、光源部202が照射する光によって照明されるフロントガラス105上において、その照明範囲が撮像レンズ204の画角範囲内(視野角の範囲内)となるように、配置されている。光源部202の発光波長としては、対向車の運転者や歩行者を眩惑しないように、可視光を避けることが好ましく、例えば、可視光よりも波長が長く、画像センサ206の受光感度が及ぶ波長範囲(例えば800〜1000nm程度の赤外光波長範囲)を用いる。光源部202の発光タイミングなどの駆動制御は、信号処理部208からの画像信号の取得と連動しながら、画像解析ユニット102の光源制御部102Bによって行われる。
The
本実施形態の撮像ユニット101には、図3に示すように、光源部202からの光を反射させてフロントガラス105へ導く反射面231を備えた反射偏向プリズム230が設けられている。反射偏向プリズム230は、光源部202からの光を適切にフロントガラス105の内部に導くために、その一面がフロントガラス105の内壁面に密着するように配置されている。具体的には、反射偏向プリズム230に入射する光源部202からの光の入射角が所定範囲内で変化しても、光源部202から照射されて反射偏向プリズム230の反射面231で正反射した光のうち、フロントガラス105の外壁面上における雨滴(検出対象物)が付着していない非付着箇所で正反射した正反射光が、画像センサ206に受光される関係が維持されるように、反射偏向プリズム230がフロントガラス105の内壁面に取り付けられる。
As shown in FIG. 3, the image pickup unit 101 of the present embodiment is provided with a
反射偏向プリズム230をフロントガラス105の内壁面に取り付ける際、これらの間に、透光性材料からなるジェルやシール材などの充填材を介在させて密着性を高めるのが好ましい。これにより、反射偏向プリズム230とフロントガラス105との間に空気層や気泡などが介在しないようにでき、これらの間で曇りが生じにくいようにしている。また、充填材の屈折率は、反射偏向プリズム230とフロントガラス105の中間屈折率であることが好ましい。これにより、充填材と反射偏向プリズム230との間、及び、充填材とフロントガラス105との間でのフレネル反射ロスを軽減できるからである。ここでいうフレネル反射とは、屈折率の異なる材料間で発生する反射のことである。
When the reflection-deflecting
反射偏向プリズム230は、図3に示すように、光源部202からの入射光を反射面231で一回だけ正反射して、これをフロントガラス105の内壁面に向けて折り返す。折り返した光は、フロントガラス105の外壁面に対して入射角θ(θ≧約42°)となるように構成されている。この適切な入射角θは、空気とフロントガラス105の外壁面との間の屈折率差に起因して、フロントガラス105の内部においてその外壁面で全反射を起こす臨界角である。したがって、本実施形態では、フロントガラス105の外壁面に雨滴等の付着物が付着していない場合には、反射偏向プリズム230の反射面で折り返された光は、フロントガラス105の外壁面を透過することなく、すべて反射される。
As shown in FIG. 3, the reflection-deflecting
一方、フロントガラス105の外壁面上に空気(屈折率1)とは異なる雨滴(屈折率1.38)などの付着物が付着すると、この全反射条件が崩れ、雨滴が付着している箇所では光がフロントガラス105の外壁面を透過する。したがって、フロントガラス105の外壁面に雨滴が付着していない非付着箇所については、その反射光が画像センサ206に受光されて高輝度な画像部分となる一方、雨滴が付着している付着箇所については、その反射光の光量が減り、画像センサ206に受光される光量が少なくなるので、低輝度な画像部分となる。したがって、撮像画像上においては、雨滴付着箇所と非雨滴付着箇所とのコントラストが得られる。
On the other hand, when an adhered matter such as a raindrop (refractive index 1.38) different from air (refractive index 1) adheres to the outer wall surface of the
図4は、本実施形態の撮像ユニット101の概略構成を模式的に示した斜視図である。
本実施形態の撮像ユニット101は、反射偏向プリズム230を固定支持し、フロントガラス105の内壁面に固定配置される第一支持部材としての第一モジュール101Aと、画像センサ206及びLED211が実装されたセンサ基板207、導光体215、撮像レンズ204を固定支持する第二支持部材としての第二モジュール101Bとから構成されている。
FIG. 4 is a perspective view schematically showing the schematic configuration of the image pickup unit 101 of the present embodiment.
The image pickup unit 101 of the present embodiment has the
これらのモジュール101A,101Bは、回転連結機構240によって回動可能に連結されている。この回転連結機構240は、フロントガラス105の傾斜方向及び鉛直方向のいずれにも直交する方向(図3中紙面前後方向)に延びる回転軸241を有し、この回転軸241を中心にして、第一モジュール101Aと第二モジュール101Bとを相対回転させることができる。このように回動可能な構成としているのは、傾斜角度が異なるフロントガラス105に対して第一モジュール101Aが固定配置される場合でも、第二モジュール101Bの撮像部200の撮像方向を目標とする特定方向(本実施形態では水平方向)に向けることができるようにするためである。
These
図5(a)は、水平面に対するフロントガラス105の傾斜角度θgが22°である車両に取り付けた状態の撮像ユニット101を示す側面図である。図5(b)は、図5(a)の状態において雨滴が付着していない場合の撮像ユニット101の光学系を示す説明図である。図5(c)は、図5(a)の状態において雨滴が付着している場合の撮像ユニット101の光学系を示す説明図である。
FIG. 5A is a side view showing the image pickup unit 101 in a state in which the
光源部202からの光L1は、反射偏向プリズム230の反射面231で正反射され、その反射光L2はフロントガラス105の内壁面を透過する。フロントガラス105の外壁面に雨滴が付着していない場合は、その反射光L2は外壁面では全反射し、この反射光L3はフロントガラス105の内壁面を透過して撮像レンズ204に向けて光は進む。一方、フロントガラス105の外壁面に雨滴203が付着している場合、反射偏向プリズム230の反射面231で正反射した反射光L2は、その外壁面を透過する。このような系において、フロントガラス105の角度θgが変わると、第二モジュール101Bの姿勢を維持したまま(撮像方向を水平方向に固定したまま)、フロントガラス105の内壁面に固定される第二モジュール101Bの姿勢が変化し、反射偏向プリズム230がフロントガラス105と一体になって図中Y軸回りに回転することになる。
The light L1 from the
ここで、本実施形態における反射偏向プリズム230の反射面231とフロントガラス105の外壁面との配置関係は、回転連結機構240の回転調整範囲内において、常に、フロントガラス105の外壁面での全反射光L3が、フロントガラス状態変化検出用の画像センサ206の受光領域(以下「付着物検出用受光領域」という。)に受光される関係となっている。したがって、フロントガラス105の角度θgが変わっても、フロントガラス105の外壁面での全反射光L3が画像センサ206の付着物検出用受光領域に受光され、適切な雨滴検出を実現できる。
Here, the positional relationship between the
特に、本実施形態における配置関係は、回転連結機構240の回転調整範囲内において実質的にコーナーキューブの原理が成立するような関係となっている。そのため、フロントガラス105の角度θgが変わっても、フロントガラス105の外壁面での全反射光L3の光軸方向と水平面とのなす角度θは実質的に一定である。よって、画像センサ206の付着物検出用受光領域内におけるフロントガラス105の外壁面での全反射光L3の光軸が通過する箇所の変動を小さく抑えることができ、より適切な雨滴検出を実現できる。
In particular, the positional relationship in the present embodiment is such that the principle of the corner cube is substantially established within the rotation adjustment range of the rotary coupling mechanism 240. Therefore, even if the angle θg of the
反射偏向プリズム230の反射面231とフロントガラス105の外壁面との配置関係が互いに垂直な関係であればコーナーキューブの原理が成立するが、回転連結機構240の回転調整範囲内において実質的にコーナーキューブの原理が成立するのであれば、反射偏向プリズム230の反射面231とフロントガラス105の外壁面との配置関係は互いに垂直な関係である場合に限られない。反射偏向プリズム230の反射面231とフロントガラス105の外壁面との配置関係が互いに垂直な関係でなくても、反射偏向プリズム230の他の面(被入射面や出射面)の角度を調整することにより、フロントガラス105の傾斜角度θgが変わっても、撮像レンズへ向かう全反射光L3の光軸の角度θを略一定に保持することが可能である。
If the arrangement relationship between the
図6は、本実施形態の反射偏向プリズム230を示す斜視図である。
反射偏向プリズム230は、光源部202からの光が入射する被入射面233と、被入射面233から入射した光L1を反射させる反射面231と、フロントガラス105の内壁面と密着する密着面232と、フロントガラス105の外壁面で反射した反射光L3を撮像部200に向けて出射する出射面234とを備えている。本実施形態では、被入射面233と出射面234とは互いに平行な面となるように構成されているが、両者を非平行な面としてもよい。
FIG. 6 is a perspective view showing the
The reflection-deflecting
反射偏向プリズム230の材料は、少なくとも光源部202からの光を透過させる材料であればよく、ガラスやプラスチックなどを用いることができる。本実施形態の光源部202からの光は赤外光であるため、反射偏向プリズム230の材料としては、可視光を吸収するような黒色系の材料を用いてもよい。可視光を吸収する材料を用いることにより、反射偏向プリズム230にLEDからの光(赤外光)以外の光(車外からの可視光など)が入射するのを抑制できる。
The material of the reflection-deflecting
また、反射偏向プリズム230は、回転連結機構240の回転調整範囲内において、その反射面231で光源部202からの光を全反射させる全反射条件が満たされるように形成される。また、回転連結機構240の回転調整範囲内において反射面231で全反射させる条件を満たすことが難しい場合には、反射偏向プリズム230の反射面231に、アルミニウムなどの膜を蒸着させるなどして、反射ミラーを形成してもよい。
Further, the reflection-deflecting
また、本実施形態では、反射面231が平面であるが、反射面を凹面としたものでもよい。このような凹面状の反射面を用いることで、反射面に入射してくる拡散光束を平行化することができる。このことにより、フロントガラス105上での照度低下を抑制することが可能となる。
Further, in the present embodiment, the reflecting
ここで、フロントガラス105の外壁面で反射した光源部202からの赤外波長光を撮像部200で撮像する際、撮像部200の画像センサ206では、光源部202からの赤外波長光のほか、例えば太陽光などの赤外波長光を含む大光量の外乱光も受光される。よって、光源部202からの赤外波長光をこのような大光量の外乱光と区別するためには、光源部202の発光量を外乱光よりも十分に大きくする必要があるが、このような大発光量の光源部202を用いることは困難である場合が多い。
Here, when the infrared ray light from the
そこで、本実施形態においては、例えば、図7に示すように光源部202の発光波長よりも短い波長の光をカットするようなカットフィルタか、もしくは、図8に示すように透過率のピークが光源部202の発光波長とほぼ一致したバンドパスフィルタを介して、光源部202からの光を画像センサ206で受光するように構成する。これにより、光源部202の発光波長以外の光を除去して受光できるので、画像センサ206で受光される光源部202からの光量は、外乱光に対して相対的に大きくなる。その結果、大発光量の光源部202でなくても、光源部202からの光を外乱光と区別することが可能となる。
Therefore, in the present embodiment, for example, a cut filter that cuts light having a wavelength shorter than the emission wavelength of the
ただし、本実施形態においては、撮像画像データから、フロントガラス105上の雨滴203を検出するだけでなく、先行車両や対向車両の検出や白線の検出も行う。そのため、撮像画像全体について光源部202が照射する赤外波長光以外の波長帯を除去してしまうと、先行車両や対向車両の検出や白線の検出に必要な波長帯の光を画像センサ206で受光できず、これらの検出に支障をきたす。そこで、本実施形態では、撮像画像データの画像領域を、フロントガラス105上の雨滴203を検出するための雨滴検出用画像領域と、先行車両や対向車両の検出や白線の検出を行うための車両検出用画像領域とに区分し、雨滴検出用画像領域に対応する部分についてのみ光源部202が照射する赤外波長光以外の波長帯を除去するフィルタを、光学フィルタ205に配置している。
However, in the present embodiment, not only the
図9は、光学フィルタ205に設けられる前段フィルタ210の正面図である。
図10は、撮像画像データの画像例を示す説明図である。
本実施形態の光学フィルタ205は、前段フィルタ210と後段フィルタ220とを光透過方向に重ね合わせた構造となっている。前段フィルタ210は、図9に示すように、車両検出用画像領域213である撮像画像上部2/3に対応する箇所に配置される赤外光カットフィルタ領域211と、雨滴検出用画像領域214である撮像画像下部1/3に対応する箇所に配置される赤外光透過フィルタ領域212とに、領域分割されている。赤外光透過フィルタ領域212には、図7に示したカットフィルタや図8に示したバンドパスフィルタを用いる。
FIG. 9 is a front view of the
FIG. 10 is an explanatory diagram illustrating an image example of captured image data.
The
対向車両のヘッドランプ及び先行車両のテールランプ並びに白線の画像は、主に撮像画像中央部から上部に存在することが多く、撮像画像下部には自車両前方の直近路面の画像が存在するのが通常である。よって、対向車両のヘッドランプ及び先行車両のテールランプ並びに白線の識別に必要な情報は撮像画像上部に集中しており、その識別において撮像画像下部の情報はあまり重要でない。よって、単一の撮像画像データから、対向車両や先行車両あるいは白線の検出と雨滴の検出とを両立して行う場合には、図10に示すように、撮像画像下部を雨滴検出用画像領域214とし、残りの撮像画像上部を車両検出用画像領域213とし、これに対応して前段フィルタ210を領域分割するのが好適である。
Images of headlamps of oncoming vehicles, taillights of preceding vehicles, and white lines are often located mainly from the center of the captured image to the upper part, and the image of the nearest road surface in front of the vehicle is usually present at the lower part of the captured image. Is. Therefore, the information necessary for identifying the headlight of the oncoming vehicle, the taillight of the preceding vehicle, and the white line is concentrated in the upper portion of the captured image, and the information in the lower portion of the captured image is not so important in the identification. Therefore, when the detection of the oncoming vehicle or the preceding vehicle or the white line and the detection of the raindrop are simultaneously performed from the single captured image data, as shown in FIG. 10, the lower portion of the captured image is the raindrop
なお、本実施形態では、撮像画像中における車両検出用画像領域213の下部に雨滴検出用画像領域214を設けた例であるが、車両検出用画像領域213の上部に雨滴検出用画像領域214を設けたり、車両検出用画像領域213の上部と下部の両方に雨滴検出用画像領域214を設けたりしてもよい。
In the present embodiment, the raindrop
撮像部200の撮像方向を下方へ傾けていくと、撮像領域内の下部に自車両のボンネットが入り込んでくる場合がある。この場合、自車両のボンネットで反射した太陽光や先行車両のテールランプなどが外乱光となり、これが撮像画像データに含まれることで対向車両のヘッドランプ及び先行車両のテールランプ並びに白線の誤識別の原因となる。このような場合でも、本実施形態では、撮像画像下部に対応する箇所に図7に示したカットフィルタや図8に示したバンドパスフィルタが配置されているので、ボンネットで反射した太陽光や先行車両のテールランプなどの外乱光が除去される。よって、対向車両のヘッドランプ及び先行車両のテールランプ並びに白線の識別精度が向上する。
When the imaging direction of the
なお、本実施形態では、撮像レンズ204の特性により、撮像領域内の光景と画像センサ206上の像とでは天地が逆になる。よって、撮像画像下部を雨滴検出用画像領域214とする場合には、光学フィルタ205の前段フィルタ210の上部を図7に示したカットフィルタや図8に示したバンドパスフィルタで構成することになる。
In the present embodiment, due to the characteristics of the
ここで、先行車両を検出する際には、撮像画像上のテールランプを識別することで先行車両の検出を行うが、テールランプは対向車両のヘッドランプと比較して光量が少なく、また街灯などの外乱光も多く存在するため、単なる輝度データのみからテールランプを高精度に検出するのは困難である。そのため、テールランプの識別には分光情報を利用し、赤色光の受光量に基づいてテールランプを識別することが必要となる。そこで、本実施形態では、後述するように、光学フィルタ205の後段フィルタ220に、テールランプの色に合わせた赤色フィルタあるいはシアンフィルタ(テールランプの色の波長帯のみを透過させるフィルタ)を配置し、赤色光の受光量を検知できるようにしている。
Here, when the preceding vehicle is detected, the preceding vehicle is detected by identifying the tail lamp on the captured image, but the tail lamp has a smaller amount of light than the head lamp of the oncoming vehicle, and the disturbance of street lights and the like. Since there is a lot of light, it is difficult to detect the tail lamp with high precision only from the brightness data. Therefore, it is necessary to use the spectral information to identify the tail lamp and identify the tail lamp based on the amount of received red light. Therefore, in the present embodiment, as will be described later, a red filter or a cyan filter (a filter that transmits only the wavelength band of the color of the tail lamp) that matches the color of the tail lamp is arranged in the
ただし、本実施形態の画像センサ206を構成する各受光素子は、赤外波長帯の光に対しても感度を有するので、赤外波長帯を含んだ光を画像センサ206で受光すると、得られる撮像画像は全体的に赤みを帯びたものとなってしまう。その結果、テールランプに対応する赤色の画像部分を識別することが困難となる場合がある。そこで、本実施形態では、光学フィルタ205の前段フィルタ210において、車両検出用画像領域213に対応する箇所を赤外光カットフィルタ領域211としている。これにより、テールランプの識別に用いる撮像画像データ部分から赤外波長帯が除外されるので、テールランプの識別精度が向上する。
However, each of the light receiving elements constituting the
図11は、光学フィルタ205と画像センサ206とを光透過方向に対して直交する方向から見たときの模式拡大図である。
画像センサ206は、上述したようにCCDやCMOSなどを用いたイメージセンサであり、その受光素子にはフォトダイオード206Aを用いている。フォトダイオード206Aは、画素ごとに2次元的にアレイ配置されており、フォトダイオード206Aの集光効率を上げるために、各フォトダイオード206Aの入射側にはマイクロレンズ206Bが設けられている。この画像センサ206がワイヤボンディングなどの手法によりPWB(printed wiring board)に接合されてセンサ基板207が形成されている。
FIG. 11 is a schematic enlarged view when the
The
画像センサ206のマイクロレンズ206B側の面には、光学フィルタ205が近接配置されている。光学フィルタ205の後段フィルタ220は、図11に示すように、透明なフィルタ基板221上に偏光フィルタ層222と分光フィルタ層223を順次形成して積層構造としたものである。偏光フィルタ層222と分光フィルタ層223は、いずれも、画像センサ206上における1つのフォトダイオード206Aに対応するように領域分割されている。
An
光学フィルタ205と画像センサ206との間に空隙がある構成としてもよいが、光学フィルタ205を画像センサ206に密着させる構成とした方が、光学フィルタ205の偏光フィルタ層222と分光フィルタ層223の各領域の境界と画像センサ206上のフォトダイオード206A間の境界とを一致させやすくなる。光学フィルタ205と画像センサ206は、例えば、UV接着剤で接合してもよいし、撮像に用いる有効画素範囲外でスペーサにより支持した状態で有効画素外の四辺領域をUV接着や熱圧着してもよい。
There may be a configuration in which there is a gap between the
図12は、本実施形態に係る光学フィルタ205の偏光フィルタ層222と分光フィルタ層223の領域分割パターンを示す説明図である。
偏光フィルタ層222と分光フィルタ層223は、それぞれ、第1領域及び第2領域という2種類の領域が、画像センサ206上の1つのフォトダイオード206Aに対応して配置されたものである。これにより、画像センサ206上の各フォトダイオード206Aによって受光される受光量は、受光する光が透過した偏光フィルタ層222と分光フィルタ層223の領域の種類に応じて、偏光情報や分光情報等として取得することができる。
FIG. 12 is an explanatory diagram showing a region division pattern of the
The
なお、本実施形態では、画像センサ206はモノクロ画像用の撮像素子を前提にして説明するが、画像センサ206をカラー用撮像素子で構成してもよい。カラー用撮像素子で構成する場合、カラー用撮像素子の各撮像画素に付属するカラーフィルタの特性に応じて、偏光フィルタ層222と分光フィルタ層223の各領域の光透過特性を調整してやればよい。
In the present embodiment, the
ここで、本実施形態における光学フィルタ205の一例について説明する。
図13は、本実施形態における光学フィルタ205の層構成を模式的に示す断面図である。
本実施形態における光学フィルタ205の後段フィルタ220は、車両検出用画像領域213に対応する車両検出用フィルタ部220Aと、雨滴検出用画像領域214に対応する雨滴検出用フィルタ部220Bとで、その層構成が異なっている。具体的には、車両検出用フィルタ部220Aは分光フィルタ層223を備えているのに対し、雨滴検出用フィルタ部220Bは分光フィルタ層223を備えていない。また、車両検出用フィルタ部220Aと雨滴検出用フィルタ部220Bとでは、その偏光フィルタ層222,225の構成が異なっている。
Here, an example of the
FIG. 13 is a cross-sectional view schematically showing the layer structure of the
The
図14は、本実施形態における光学フィルタ205の車両検出用フィルタ部220Aを透過して画像センサ206上の各フォトダイオード206Aで受光される受光量に対応した情報(各撮像画素の情報)の内容を示す説明図である。
図15(a)は、図14に示す符号A−Aで切断した光学フィルタ205の車両検出用フィルタ部220A及び画像センサ206を模式的に表した断面図である。
図15(b)は、図14に示す符号B−Bで切断した光学フィルタ205の車両検出用フィルタ部220A及び画像センサ206を模式的に表した断面図である。
FIG. 14 shows the content of information (information of each imaging pixel) corresponding to the amount of light received by each
FIG. 15A is a cross-sectional view schematically showing the vehicle
FIG. 15B is a cross-sectional view schematically showing the vehicle
本実施形態における光学フィルタ205の車両検出用フィルタ部220Aは、図15(a)及び(b)に示すように、透明なフィルタ基板221の上に偏光フィルタ層222を形成した後、その上に分光フィルタ層223を形成して積層構造としたものである。そして、偏光フィルタ層222は、ワイヤーグリッド構造を有するものであり、その積層方向上面(図15中下側面)は凹凸面となる。このような凹凸面上にそのまま分光フィルタ層223を形成しようとすると、分光フィルタ層223がその凹凸面に沿って形成され、分光フィルタ層223の層厚ムラが生じて本来の分光性能が得られない場合がある。そこで、本実施形態の光学フィルタ205は、偏光フィルタ層222の積層方向上面側を充填材で充填して平坦化した後、その上に分光フィルタ層223を形成している。
As shown in FIGS. 15A and 15B, the vehicle
充填材としては、この充填材によって凹凸面が平坦化される偏光フィルタ層222の機能を妨げない材料であればよいので、本実施形態では偏光機能を有しない材料のものを用いる。また、充填材による平坦化処理は、例えば、スピンオングラス法によって充填材を塗布する方法が好適に採用できるが、これに限られるものではない。
As the filling material, any material that does not interfere with the function of the
本実施形態において、偏光フィルタ層222の第1領域は、画像センサ206の撮像画素の縦列(鉛直方向)に平行に振動する鉛直偏光成分のみを選択して透過させる鉛直偏光領域であり、偏光フィルタ層222の第2領域は、画像センサ206の撮像画素の横列(水平方向)に平行に振動する水平偏光成分のみを選択して透過させる水平偏光領域である。
また、分光フィルタ層223の第1領域は、偏光フィルタ層222を透過可能な使用波長帯域に含まれる赤色波長帯(特定波長帯)の光のみを選択して透過させる赤色分光領域であり、分光フィルタ層223の第2領域は、波長選択を行わずに光を透過させる非分光領域である。そして、本実施形態においては、図14に一点鎖線で囲ったように、隣接する縦2つ横2つの合計4つの撮像画素(符号a、b、e、fの4撮像画素)によって撮像画像データの1画像画素が構成される。
In the present embodiment, the first region of the
The first region of the
図14に示す撮像画素aでは、光学フィルタ205の偏光フィルタ層222における鉛直偏光領域(第1領域)と分光フィルタ層223の赤色分光領域(第1領域)を透過した光が受光される。したがって、撮像画素aは、鉛直偏光成分(図14中符号Pで示す。)の赤色波長帯(図14中符号Rで示す。)の光P/Rを受光することになる。
また、図14に示す撮像画素bでは、光学フィルタ205の偏光フィルタ層222における鉛直偏光領域(第1領域)と分光フィルタ層223の非分光領域(第2領域)を透過した光が受光される。したがって、撮像画素bは、鉛直偏光成分Pにおける非分光(図14中符号Cで示す。)の光P/Cを受光することになる。
また、図14に示す撮像画素eでは、光学フィルタ205の偏光フィルタ層222における水平偏光領域(第2領域)と分光フィルタ層223の非分光領域(第2領域)を透過した光が受光される。したがって、撮像画素eは、水平偏光成分(図14中符号Sで示す。)における非分光Cの光S/Cを受光することになる。
図14に示す撮像画素fでは、光学フィルタ205の偏光フィルタ層222における鉛直偏光領域(第1領域)と分光フィルタ層223の赤色分光領域(第1領域)を透過した光が受光される。したがって、撮像画素fは、撮像画素aと同様、鉛直偏光成分Pにおける赤色波長帯Rの光P/Rを受光することになる。
In the imaging pixel a shown in FIG. 14, light transmitted through the vertical polarization region (first region) of the
In the imaging pixel b shown in FIG. 14, light transmitted through the vertical polarization region (first region) of the
In the imaging pixel e shown in FIG. 14, light transmitted through the horizontal polarization region (second region) of the
In the imaging pixel f shown in FIG. 14, light transmitted through the vertical polarization region (first region) of the
以上の構成により、本実施形態によれば、撮像画素aおよび撮像画素fの出力信号から赤色光の鉛直偏光成分画像についての一画像画素が得られ、撮像画素bの出力信号から非分光の鉛直偏光成分画像についての一画像画素が得られ、撮像画素eの出力信号から非分光の水平偏光成分画像についての一画像画素が得られる。よって、本実施形態によれば、一度の撮像動作により、赤色光の鉛直偏光成分画像、非分光の鉛直偏光成分画像、非分光の水平偏光成分画像という3種類の撮像画像データを得ることができる。 With the above configuration, according to the present embodiment, one image pixel of the vertically polarized component image of red light is obtained from the output signals of the image pickup pixel a and the image pickup pixel f, and the non-spectral vertical image is obtained from the output signal of the image pickup pixel b. One image pixel for the polarization component image is obtained, and one image pixel for the non-spectral horizontal polarization component image is obtained from the output signal of the imaging pixel e. Therefore, according to this embodiment, three types of captured image data, that is, the vertically polarized component image of red light, the vertically polarized component image of non-spectral light, and the horizontally polarized component image of non-spectral light can be obtained by one image capturing operation. ..
なお、これらの撮像画像データでは、その画像画素の数が撮像画素数よりも少なくなるが、より高解像度の画像を得る際には一般に知られる画像補間技術を用いてもよい。例えば、より高い解像度である赤色光の鉛直偏光成分画像を得ようとする場合、撮像画素aと撮像画素fに対応する画像画素についてはこれらの撮像画素a,fで受光した赤色光の鉛直偏光成分Pの情報をそのまま使用し、撮像画素bに対応する画像画素については、例えばその周囲を取り囲む撮像画素a,c,f,jの平均値を当該画像画素の赤色光の鉛直偏光成分の情報として使用する。
また、より高い解像度である非分光の水平偏光成分画像を得ようとする場合、撮像画素eに対応する画像画素についてはこの撮像画素eで受光した非分光の水平偏光成分Sの情報をそのまま使用し、撮像画素a,b,fに対応する画像画素については、その周囲で非分光の水平偏光成分を受光する撮像画素eや撮像画素gなどの平均値を使用したり、撮像画素eと同じ値を使用したりしてもよい。
Although the number of image pixels of these captured image data is smaller than the number of captured pixels, a generally known image interpolation technique may be used to obtain an image with higher resolution. For example, in the case of obtaining a vertically polarized component image of red light having a higher resolution, for the image pixels corresponding to the imaging pixel a and the imaging pixel f, the vertically polarized light of the red light received by these imaging pixels a and f. The information of the component P is used as it is, and for the image pixel corresponding to the image pickup pixel b, for example, the average value of the image pickup pixels a, c, f, and j surrounding the image pixel b is used as the information of the vertical polarization component of the red light of the image pixel. To use as.
Further, when trying to obtain a non-spectral horizontal polarization component image having a higher resolution, the information of the non-spectral horizontal polarization component S received by the imaging pixel e is used as it is for the image pixel corresponding to the imaging pixel e. For the image pixels corresponding to the image pickup pixels a, b, and f, the average value of the image pickup pixel e or the image pickup pixel g that receives the non-spectral horizontal polarization component around the image pixels is used, or the same as the image pickup pixel e. You may use the value.
このようにして得られる赤色光の鉛直偏光成分画像は、例えば、テールランプの識別に使用することができる。赤色光の鉛直偏光成分画像は、水平偏光成分Sがカットされているので、路面に反射した赤色光や自車両100の室内におけるダッシュボードなどからの赤色光(映りこみ光)等のように水平偏光成分Sの強い赤色光による外乱要因が抑制された赤色画像を得ることができる。よって、赤色光の鉛直偏光成分画像をテールランプの識別に使用することで、テールランプの認識率が向上する。
The vertically polarized component image of red light thus obtained can be used, for example, for identifying a tail lamp. In the vertically polarized component image of red light, the horizontal polarized component S is cut off, so that the red light reflected on the road surface and the red light (reflected light) from the dashboard in the room of the
また、非分光の鉛直偏光成分画像は、例えば、白線や対向車両のヘッドランプの識別に使用することができる。非分光の水平偏光成分画像は、水平偏光成分Sがカットされているので、路面に反射したヘッドランプや街灯等の白色光や自車両100の室内におけるダッシュボードなどからの白色光(映りこみ光)等のように水平偏光成分Sの強い白色光による外乱要因が抑制された非分光画像を得ることができる。よって、非分光の鉛直偏光成分画像を白線や対向車両のヘッドランプの識別に使用することで、その認識率が向上する。特に、雨路において、路面を覆った水面からの反射光は水平偏光成分Sが多いことが一般に知られている。よって、非分光の鉛直偏光成分画像を白線の識別に使用することで、雨路における水面下の白線を適切に識別することが可能となり、認識率が向上する。
Further, the non-spectral vertically polarized component image can be used, for example, for identifying a white line or a headlamp of an oncoming vehicle. In the non-spectral horizontal polarization component image, the horizontal polarization component S is cut off, so white light from a headlamp, streetlight, etc. reflected on the road surface or white light (reflective light) from a dashboard or the like inside the
また、非分光の鉛直偏光成分画像と非分光の水平偏光成分画像との間で各画素値を比較した指標値を画素値とした比較画像を用いれば、後述するように、撮像領域内の金属物体、路面の乾湿状態、撮像領域内の立体物、雨路における白線の高精度な識別が可能となる。ここで用いる比較画像としては、例えば、非分光の鉛直偏光成分画像と非分光の水平偏光成分画像との間の画素値の差分値を画素値とした差分画像、これらの画像間の画素値の比率を画素値とした比率画像、あるいは、これらの画像間の画素値の合計に対するこれらの画像間の画素値の差分値の比率(差分偏光度)を画素値とした差分偏光度画像などを使用することができる。 Further, if a comparison image in which the index value obtained by comparing each pixel value between the non-spectral vertical polarization component image and the non-spectral horizontal polarization component image is used as the pixel value is used, as described later, It is possible to identify an object, a dry and wet condition of a road surface, a three-dimensional object in an imaging region, and a white line on a rainy road with high accuracy. As the comparison image used here, for example, a difference image in which the difference value of the pixel values between the non-spectral vertical polarization component image and the non-spectral horizontal polarization component image is the pixel value, and the pixel value between these images A ratio image with a pixel value as a ratio, or a difference polarization degree image with a pixel value that is the ratio of the difference value of the pixel values between these images to the sum of the pixel values between these images is used. can do.
図16は、本実施形態における光学フィルタ205の雨滴検出用フィルタ部220Bを透過して画像センサ206上の各フォトダイオード206Aで受光される受光量に対応した情報(各撮像画素の情報)の内容を示す説明図である。
図17(a)は、図16に示す符号A−Aで切断した光学フィルタ205の雨滴検出用フィルタ部220B及び画像センサ206を模式的に表した断面図である。
図17(b)は、図16に示す符号B−Bで切断した光学フィルタ205の雨滴検出用フィルタ部220B及び画像センサ206を模式的に表した断面図である。
FIG. 16 shows the content of information (information of each image pickup pixel) corresponding to the amount of light received by each
17A is a cross-sectional view schematically showing the raindrop
17B is a cross-sectional view schematically showing the raindrop
本実施形態における光学フィルタ205の雨滴検出用フィルタ部220Bは、図17(a)及び(b)に示すように、前記車両検出用フィルタ部220Aと共通のフィルタ基板221の上にワイヤーグリッド構造の偏光フィルタ層225が形成されている。この偏光フィルタ層225は、前記車両検出用フィルタ部220Aの偏光フィルタ層222とともに、積層方向上面側が充填材によって充填されて平坦化されている。ただし、雨滴検出用フィルタ部220Bは、前記車両検出用フィルタ部220Aとは異なり、分光フィルタ層223は積層されていない。
As shown in FIGS. 17A and 17B, the raindrop
本実施形態においては、自車両100の室内側の風景がフロントガラス105の内壁面に映り込むことがある。この映り込みは、フロントガラス105の内壁面で正反射した光によるものである。この映り込みは、正反射光であるのでその光強度が比較的大きい外乱光である。よって、この映り込みが雨滴と一緒に雨滴検出用画像領域214に映し出されると、雨滴の検出精度が低下する。また、光源部202からの光がフロントガラス105の内壁面で正反射した正反射光も、雨滴と一緒に雨滴検出用画像領域214に映し出されると、外乱光となって雨滴の検出精度を低下させる。
In the present embodiment, the landscape on the indoor side of the
このような雨滴の検出精度を低下させる外乱光は、フロントガラス105の内壁面で正反射した正反射光であるので、その偏光成分のほとんどは光源入射面に対して偏光方向が垂直な偏光成分、すなわち、画像センサ206の撮像画素の横列(水平方向)に平行に振動する水平偏光成分Sである。そこで、本実施形態の光学フィルタ205の雨滴検出用フィルタ部220Bにおける偏光フィルタ層225は、フロントガラス105に向かう光源部202からの光の光軸と撮像レンズ204の光軸とを含む仮想面(光源入射面)に対して偏光方向が平行である偏光成分、すなわち、画像センサ206の撮像画素の縦列(鉛直方向)に平行に振動する鉛直偏光成分Pのみを透過するように透過軸が設定されている。
Since the ambient light that reduces the detection accuracy of such raindrops is the regular reflection light that is regularly reflected by the inner wall surface of the
これにより、雨滴検出用フィルタ部220Bの偏光フィルタ層225を透過する光は、鉛直偏光成分Pのみとなり、フロントガラス105の内壁面の映り込みや、フロントガラス105の内壁面で正反射した光源部202からの正反射光などの外乱光の大部分を占める水平偏光成分Sをカットすることができる。その結果、雨滴検出用画像領域214は、外乱光による影響の少ない鉛直偏光成分Pによる鉛直偏光画像となり、その雨滴検出用画像領域214の撮像画像データに基づく雨滴の検出精度が向上する。
As a result, the light transmitted through the
本実施形態では、前段フィルタ210を構成する赤外光カットフィルタ領域211と赤外光透過フィルタ領域212とが、それぞれ層構成の異なる多層膜によって形成されている。このような前段フィルタ210の製造方法としては、赤外光カットフィルタ領域211の部分をマスクで隠しながら赤外光透過フィルタ領域212の部分を真空蒸着などにより成膜した後、今度は赤外光透過フィルタ領域212の部分をマスクで隠しながら赤外光カットフィルタ領域211の部分を真空蒸着などにより成膜するという方法が挙げられる。
In the present embodiment, the infrared light cut
また、本実施形態において、車両検出用フィルタ部220Aの偏光フィルタ層222と、雨滴検出用フィルタ部220Bの偏光フィルタ層225とは、いずれも、2次元方向に領域分割されたワイヤーグリッド構造であるが、前者の偏光フィルタ層222は透過軸が互いに直交する2種類の領域(鉛直偏光領域及び水平偏光領域)が撮像画素単位で領域分割されたものであり、後者の偏光フィルタ層225は鉛直偏光成分Pのみを透過させる透過軸をもつ1種類の領域が撮像画素単位で領域分割されたものである。このような異なる構成をもつ偏光フィルタ層222,225を同一のフィルタ基板221上に形成する場合、例えば、ワイヤーグリッド構造の金属ワイヤーのパターニングを行うテンプレート(型に相当するもの)の溝方向の調整により、各領域の金属ワイヤーの長手方向の調整は容易である。
Further, in the present embodiment, both the
なお、本実施形態では、赤外光カットフィルタ領域211を光学フィルタ205に設けず、例えば、撮像レンズ204に赤外光カットフィルタ領域211を設けてもよい。この場合、光学フィルタ205の作製が容易となる。
また、赤外光カットフィルタ領域211に代えて、後段フィルタ220の雨滴検出用フィルタ部220Bに鉛直偏光成分Pのみを透過させる分光フィルタ層を形成してもよい。この場合、前段フィルタ210には赤外光カットフィルタ領域211を形成する必要はない。
また、偏光フィルタ層は、必ずしも設ける必要はない。
また、本実施形態の光学フィルタ205は、図14に示したように領域分割された偏光フィルタ層222及び分光フィルタ層223を有する後段フィルタ220が、前段フィルタ210よりも画像センサ206側に設けられているが、前段フィルタ210を後段フィルタ220よりも画像センサ206側に設けてもよい。
In the present embodiment, the infrared light cut
Further, instead of the infrared light cut
Further, the polarization filter layer does not necessarily have to be provided.
Further, in the
〔ヘッドランプの配光制御〕
以下、本実施形態におけるヘッドランプの配光制御について説明する。
本実施形態におけるヘッドランプの配光制御は、撮像部200で撮像された撮像画像データを解析して車両のテールランプとヘッドランプを識別し、識別したテールランプから先行車両を検出するとともに、識別したヘッドランプから対向車両を検出する。そして、先行車両や対向車両の運転者の目に自車両100のヘッドランプの強い光が入射するのを避けて他車両の運転者の幻惑防止を行いつつ、自車両100の運転者の視界確保を実現できるように、ヘッドランプ104のハイビームおよびロービームの切り替えを制御したり、ヘッドランプ104の部分的な遮光制御を行ったりする。
[Headlamp light distribution control]
The light distribution control of the headlamp in this embodiment will be described below.
In the light distribution control of the headlamp in the present embodiment, the image data captured by the
本実施形態のヘッドランプ配光制御では、撮像ユニット101から取得することができる情報のうち、撮像領域内の各地点(光源体)から発せられる光の強さ(明るさ情報)、ヘッドランプやテールランプなどの光源体(他車両)と自車両との距離(距離情報)、各光源体から発せられる光の赤色成分と白色成分(非分光)との比較による分光情報、白色成分の水平偏光成分と鉛直偏光成分との比較による偏光情報、水平偏光成分がカットされた白色成分の鉛直偏光成分情報、水平偏光成分がカットされた赤色成分の鉛直偏光成分情報を用いる。 In the headlamp light distribution control of the present embodiment, of the information that can be acquired from the image pickup unit 101, the intensity of light (brightness information) emitted from each point (light source) in the image pickup area, the headlamp, and the like. Distance (distance information) between a light source such as a tail lamp (other vehicle) and the vehicle, spectral information obtained by comparing the red component and white component (non-spectral) of the light emitted from each light source, horizontal polarization component of the white component And the vertical polarization component by comparison between the vertical polarization component, the white polarization component with the horizontal polarization component cut, and the red polarization component information with the horizontal polarization component cut.
明るさ情報について説明すると、夜間に、先行車両や対向車両が自車両から同じ距離に存在する場合、撮像部200によってそれらの先行車両及び対向車両を撮像すると、撮像画像データ上では識別対象物の1つである対向車両のヘッドランプが最も明るく映し出され、識別対象物の1つである先行車両のテールランプはそれよりも暗く映し出される。また、リフレクタが撮像画像データに映し出されている場合、リフレクタは自ら発光する光源ではなく、自車両のヘッドランプを反射することによって明るく映し出されるものに過ぎないので、先行車両のテールランプよりもさらに暗くなる。一方、対向車両のヘッドランプ、先行車両のテールランプ及びリフレクタからの光は、距離が遠くなるにつれて、それを受光する画像センサ206上ではだんだん暗く観測される。よって、撮像画像データから得られる明るさ(輝度情報)を用いることで 2種類の識別対象物(ヘッドランプとテールランプ)及びリフレクタの一次的な識別が可能である。
Explaining the brightness information, when the preceding vehicle and the oncoming vehicle are present at the same distance from the own vehicle at night, when the preceding vehicle and the oncoming vehicle are imaged by the
また、距離情報について説明すると、ヘッドランプやテールランプは、そのほとんどが左右一対のペアランプの構成であるため、この構成の特徴を利用してヘッドランプやテールランプ(すなわち他車両)と自車両との距離を求めることが可能である。ペアとなる左右一対のランプは、撮像部200が撮像した撮像画像データ上では、互いに近接して同じ高さ方向位置に映し出され、当該ランプを映し出すランプ画像領域の広さはほぼ同じで、かつ、当該ランプ画像領域の形状もほぼ同じである。よって、これらの特徴を条件とすれば、その条件を満たすランプ画像領域同士をペアランプであると識別できる。なお、遠距離になるとペアランプを構成する左右のランプを区別して認識できなくなり、単一ランプとして認識される。
In addition, distance information will be explained. Since most headlamps and tail lamps are composed of a pair of left and right pair lamps, the characteristics of this configuration are used to measure the distance between the headlamp or tail lamp (that is, another vehicle) and the host vehicle. It is possible to ask. The paired left and right lamps are projected close to each other in the same height direction position on the captured image data captured by the
このような方法でペアランプを識別できた場合、そのペアランプ構成であるヘッドランプやテールランプの光源までの距離を算出することが可能である。すなわち、車両の左右ヘッドランプ間の距離及び左右テールランプ間の距離は、一定値w0(例えば1.5m程度)で近似することができる。一方、撮像部200における撮像レンズ204の焦点距離fは既知であるため、撮像部200の画像センサ206上における左右ランプにそれぞれ対応した2つのランプ画像領域間の距離w1を撮像画像データから算出することにより、そのペアランプ構成であるヘッドランプやテールランプの光源と自車両までの距離xは、単純な比例計算(x=f×w0/w1)により求めることができる。また、このようにして算出される距離xが適正範囲であれば、その算出に用いた2つのランプ画像領域は他車両のヘッドランプとテールランプであると識別することができる。よって、この距離情報を用いることで、識別対象物であるヘッドランプとテールランプの識別精度が向上する。
When the pair lamp can be identified by such a method, it is possible to calculate the distance to the light source of the head lamp or the tail lamp, which is the pair lamp configuration. That is, the distance between the left and right headlamps and the distance between the left and right taillamps of the vehicle can be approximated by a constant value w0 (for example, about 1.5 m). On the other hand, since the focal length f of the
また、分光情報について説明すると、本実施形態では、上述したとおり、撮像部200で撮像した撮像画像データから、赤色光(鉛直偏光成分)P/Rを受光する画像センサ206上の撮像画素a,c,f,h等に対応した画素データのみを抽出することで、撮像領域内の赤色成分だけを映し出した赤色画像を生成することができる。よって、赤色画像において所定輝度以上の輝度を有する画像領域が存在する場合、その画像領域はテールランプを映し出したテールランプ画像領域であると識別することが可能である。
Further, the spectral information will be described. In the present embodiment, as described above, the imaging pixel a on the
また、撮像部200で撮像した撮像画像データから、白色光(非分光)の鉛直偏光成分P/Cを受光する画像センサ206上の撮像画素b,d等に対応した画素データのみを抽出することで、撮像領域内のモノクロ輝度画像(鉛直偏光成分)を生成することができる。よって、赤色画像上の画像領域と、この画像領域に対応したモノクロ輝度画像上の画像領域との間の輝度比率(赤色輝度比率)を算出することもできる。この赤色輝度比率を用いれば、撮像領域内に存在する物体(光源体)からの光に含まれる相対的な赤色成分の比率を把握することができる。テールランプの赤色輝度比率は、ヘッドランプや他のほとんどの光源よりも十分に高い値をとるので、この赤色輝度比率を用いればテールランプの識別精度が向上する。
In addition, only the pixel data corresponding to the imaged pixels b and d on the
また、偏光情報について説明すると、本実施形態では、上述したとおり、撮像部200で撮像した撮像画像データから、白色光(非分光)の鉛直偏光成分P/Cを受光する画像センサ206上の撮像画素b,d等に対応した画素データと、白色光(非分光)の水平偏光成分S/Cとを受光する画像センサ206上の撮像画素e,g等に対応した画素データとを抽出し、画像画素ごとに、これらの画像データ間の画素値(輝度)を比較した比較画像を得ることができる。具体的には、例えば、白色光(非分光)の鉛直偏光成分Pと白色光(非分光)の水平偏光成分Sとの差分値(S−P)を画素値とした差分画像を、比較画像として得ることができる。このような比較画像によれば、ヘッドランプから撮像部200へ直接入射する直接光の画像領域(ヘッドランプ画像領域)と、ヘッドランプから雨路の水面で反射してから撮像部200へ入射する間接光の画像領域とのコントラストを大きくとることができ、ヘッドランプの識別精度が向上する。
Further, the polarization information will be described. In the present embodiment, as described above, the imaging on the
特に、比較画像としては、白色光(非分光)の鉛直偏光成分Pと白色光(非分光)の水平偏光成分Sとの比率(S/P)を画素値とした比率画像や、差分偏光度((S−P)/(S+P))を画素値とした差分偏光度画像などが好適に使用できる。一般に、水面などの水平な鏡面で反射した光は、水平偏光成分が常に強くなることが知られており、とくに水平偏光成分Sと鉛直偏光成分Pとの比率(S/P)や差分偏光度((S−P)/(S+P))をとった場合、その比率や差分偏光度は特定角度(ブリュースター角度)において最大となることが知られている。雨路では、散乱面であるアスファルト面に水が張られて鏡面に近い状態となるため、路面からのヘッドランプ反射光は水平偏光成分Sの方が強くなる。よって、路面からのヘッドランプ反射光の画像領域は、比率画像や差分偏光度画像においては、その画素値(輝度)が大きいものとなる。一方、ヘッドランプからの直接光は基本的には無偏光なので、比率画像や差分偏光度画像においては、その画素値(輝度)が小さいものとなる。この違いにより、ヘッドランプからの直接光と同じ程度の光量をもつ雨路面からのヘッドランプ反射光を適切に除外でき、ヘッドランプからの直接光をこのようなヘッドランプ反射光と区別して識別することができる。 In particular, as a comparative image, a ratio image in which the ratio (S/P) of the vertical polarization component P of white light (non-spectral) and the horizontal polarization component S of white light (non-spectral) is a pixel value, and the differential polarization degree A differential polarization degree image having a pixel value of ((S−P)/(S+P)) can be preferably used. Generally, it is known that the light reflected by a horizontal mirror surface such as a water surface always has a strong horizontal polarization component. In particular, the ratio (S/P) of the horizontal polarization component S and the vertical polarization component P and the differential polarization degree are known. It is known that when ((S−P)/(S+P)) is taken, the ratio and the degree of differential polarization are maximum at a specific angle (Brewster angle). In a rainy road, water is spread on the asphalt surface, which is a scattering surface, and becomes a state close to a mirror surface. Therefore, the headlamp reflected light from the road surface is stronger in the horizontal polarization component S. Therefore, the image area of the headlamp reflected light from the road surface has a large pixel value (luminance) in the ratio image and the differential polarization degree image. On the other hand, since the direct light from the headlamp is basically non-polarized, its pixel value (luminance) is small in the ratio image and the differential polarization degree image. Due to this difference, it is possible to properly exclude the headlight reflected light from the rain road surface having the same light quantity as the direct light from the headlamp, and to distinguish the direct light from the headlamp by distinguishing it from such headlamp reflected light. be able to.
次に、本実施形態における先行車両及び対向車両の検出処理の流れについて説明する。
図18は、本実施形態における車両検出処理の流れを示すフローチャートである。
本実施形態の車両検出処理では、撮像部200が撮像した画像データに対して画像処理を施し、識別対象物であると思われる画像領域を抽出する。そして、その画像領域に映し出されている光源体の種類が2種類の識別対象物のいずれであるかを識別することで、先行車両、対向車両の検出を行う。
Next, a flow of detection processing of the preceding vehicle and the oncoming vehicle in the present embodiment will be described.
FIG. 18 is a flowchart showing the flow of vehicle detection processing in this embodiment.
In the vehicle detection process of the present embodiment, image processing is performed on the image data captured by the
まず、ステップS1では、撮像部200の画像センサ206によって撮像された自車両前方の画像データをメモリに取り込む。この画像データは、上述したように、画像センサ206の各撮像画素における輝度を示す信号を含む。次に、ステップS2では、自車両の挙動に関する情報を車両挙動センサから取り込む。
First, in step S1, the image data in front of the vehicle captured by the
ステップS3では、メモリに取り込まれた画像データから識別対象物(先行車両のテールランプ及び対向車両のベッドランプ)であると思われる輝度の高い画像領域(高輝度画像領域)を抽出する。この高輝度画像領域は、画像データにおいて、所定の閾値輝度よりも高い輝度を有する明るい領域となり、複数存在する場合が多いが、それらのすべてを抽出する。よって、この段階では、雨路面からの照り返し光を映し出す画像領域も、高輝度画像領域として抽出される。 In step S3, a high-luminance image region (high-luminance image region) that is considered to be an identification target (a tail lamp of a preceding vehicle and a bed lamp of an oncoming vehicle) is extracted from the image data captured in the memory. This high-brightness image area is a bright area having a brightness higher than a predetermined threshold brightness in image data, and a plurality of bright areas often exist, but all of them are extracted. Therefore, at this stage, the image area showing the reflected light from the rain road surface is also extracted as the high-luminance image area.
高輝度画像領域抽出処理では、まず、ステップS31において、画像センサ206上の各撮像画素の輝度値を所定の閾値輝度と比較することにより2値化処理を行う。具体的には、所定の閾値輝度以上の輝度を有する画素に「1」、そうでない画素に「0」を割り振ることで、2値化画像を作成する。次に、ステップS32において、この2値化画像において、「1」が割り振られた画素が近接している場合には、それらを1つの高輝度画像領域として認識するラベリング処理を実施する。これによって、輝度値の高い近接した複数の画素の集合が、1つの高輝度画像領域として抽出される。
In the high-luminance image region extraction processing, first, in step S31, the binarization processing is performed by comparing the luminance value of each image pickup pixel on the
上述した高輝度画像領域抽出処理の後に実行されるステップS4では、抽出された各高輝度画像領域に対応する撮像領域内の物体と自車両との距離を算出する。この距離算出処理では、車両のランプは左右1対のペアランプであることを利用して距離を検出するペアランプ距離算出処理と、遠距離になるとペアランプを構成する左右のランプを区別して認識できなくなって当該ペアランプが単一ランプとして認識される場合の単一ランプ距離算出処理とを実行する。 In step S4 executed after the above-described high-brightness image area extraction processing, the distance between the object and the vehicle in the image pickup area corresponding to each extracted high-brightness image area is calculated. In this distance calculation process, the pair of lamps on the left and right of the vehicle are used to detect the distance, and when the distance becomes long, the left and right lamps forming the pair lamp cannot be distinguished and recognized. A single lamp distance calculation process when the paired lamp is recognized as a single lamp is executed.
まず、ペアランプ距離算出処理のために、ステップS41では、ランプのペアを作成する処理であるペアランプ作成処理を行う。ペアとなる左右一対のランプは、撮像部200が撮像した画像データにおいて、近接しつつほぼ同じ高さとなる位置にあり、高輝度画像領域の面積がほぼ同じで、かつ高輝度画像領域の形が同じであるとの条件を満たす。したがって、このような条件を満たす高輝度画像領域同士をペアランプとする。ペアをとることのできない高輝度画像領域は単一ランプとみなされる。ペアランプが作成された場合には、ステップS42のペアランプ距離算出処理によって、そのペアランプまでの距離を算出する。車両の左右ヘッドランプ間の距離及び左右テールランプ間の距離は、一定値w0(例えば1.5m程度)で近似することができる。一方、撮像部200における焦点距離fは既知であるため、撮像部200の画像センサ206上の左右ランプ距離w1を算出することにより、ペアランプまでの実際の距離xは、単純な比例計算(x=f・w0/w1)により求めることができる。なお、先行車両や対向車両までの距離検出は、レーザレーダやミリ波レーダなどの専用の距離センサを用いてもよい。
First, for pair lamp distance calculation processing, in step S41, pair lamp creation processing, which is processing for creating lamp pairs, is performed. The pair of left and right lamps, which are paired, are close to each other in the image data picked up by the
ステップS5では、鉛直偏光成分Pの赤色画像と鉛直偏光成分Pの白色画像との比率(赤色輝度比率)を分光情報として用い、この分光情報から、ペアランプとされた2つの高輝度画像領域が、ヘッドランプからの光によるものなのか、テールランプからの光によるものなのかを識別するランプ種類識別処理を行う。このランプ種類識別処理では、まずステップS51において、ペアランプとされた高輝度画像領域について、画像センサ206上の撮像画素a,fに対応した画素データと画像センサ206上の撮像画素bに対応した画素データとの比率を画素値とした赤色比画像を作成する。そして、ステップS52において、その赤色比画像の画素値を所定の閾値と比較し、所定の閾値以上である高輝度画像領域についてはテールランプからの光によるテールランプ画像領域であるとし、所定の閾値未満である高輝度画像領域についてはヘッドランプからの光によるヘッドランプ画像領域であるとするランプ種別処理を行う。
In step S5, the ratio of the red image of the vertical polarization component P and the white image of the vertical polarization component P (red luminance ratio) is used as the spectral information, and from this spectral information, two high-luminance image regions that are pair lamps are obtained. A lamp type identification process is performed to identify whether the light is from the headlamp or the tail lamp. In this lamp type identification process, first, in step S51, pixel data corresponding to the imaging pixels a and f on the
続いて、ステップS6では、テールランプ画像領域及びヘッドランプ画像領域として識別された各画像領域について、差分偏光度((S−P)/(S+P))を偏光情報として用いて、テールランプ又はヘッドランプからの直接光か雨路面等の鏡面部で反射して受光された照り返し光かを識別する照り返し識別処理を行う。この照り返し識別処理では、まずステップS61において、テールランプ画像領域について差分偏光度((S−P)/(S+P))を算出し、その差分偏光度を画素値とした差分偏光度画像を作成する。また、同様に、ヘッドランプ画像領域についても差分偏光度((S−P)/(S+P))を算出し、その差分偏光度を画素値とした差分偏光度画像を作成する。そして、ステップS62において、それぞれの差分偏光度画像の画素値を所定の閾値と比較し、所定の閾値以上であるテールランプ画像領域及びヘッドランプ画像領域については、照り返し光によるものであると判断し、それらの画像領域は先行車両のテールランプを映し出したものではない又は対向車両のヘッドランプを映し出したものではないとして、除外する処理を行う。この除外処理を行った後に残るテールランプ画像領域及びヘッドランプ画像領域は、先行車両のテールランプを映し出したものである、あるいは、対向車両のヘッドランプを映し出したものであると識別される。 Subsequently, in step S6, the differential polarization degree ((S−P)/(S+P)) is used as the polarization information for each of the image areas identified as the tail lamp image area and the head lamp image area, and the image is output from the tail lamp or the head lamp. Is performed to determine whether the direct light is reflected light or the reflected light received by being reflected by a mirror surface portion such as a rain road surface. In the reflection identification processing, first, in step S61, the differential polarization degree ((SP)/(S+P)) is calculated for the tail lamp image area, and a differential polarization degree image having the differential polarization degree as a pixel value is created. Similarly, the degree of polarization difference ((S−P)/(S+P)) is calculated for the headlamp image area, and a difference polarization degree image having the pixel value as the difference polarization degree is created. Then, in step S62, the pixel value of each differential polarization degree image is compared with a predetermined threshold value, and the tail lamp image area and the head lamp image area that are equal to or greater than the predetermined threshold value are determined to be due to reflected light, It is determined that these image areas do not show the tail lamp of the preceding vehicle or the head lamp of the oncoming vehicle and are excluded. The tail lamp image area and the head lamp image area remaining after performing this exclusion process are identified as showing the tail lamp of the preceding vehicle or showing the head lamp of the oncoming vehicle.
なお、レインセンサなどを車両に搭載しておき、当該レインセンサにより雨天時であることを確認した場合にのみ、上述した照り返し識別処理S6を実行するようにしてもよい。また、運転者(ドライバー)がワイパーを稼働している場合にのみ、上述した照り返し識別処理S6を実行するようにしてもよい。要するに、雨路面からの照り返しが想定される雨天時のみに上述した照り返し識別処理S6を実行するようにしてもよい。 Note that a rain sensor or the like may be mounted on the vehicle, and the above-described reflection identification processing S6 may be executed only when the rain sensor confirms that it is raining. Further, the above-described reflection identifying process S6 may be executed only when the driver (driver) is operating the wiper. In short, the above-described reflection identifying process S6 may be executed only in rainy weather when reflection from a rain road surface is expected.
以上のような車両検出処理により検出した先行車両及び対向車両の検出結果は、本実施形態では自車両の車載機器であるヘッドランプの配光制御に用いられる。具体的には、車両検出処理によりテールランプが検出されてその先行車両のバックミラーに自車両のヘッドランプ照明光が入射する距離範囲内に近づいた場合に、その先行車両に自車両のヘッドランプ照明光が当たらないように、自車両のヘッドランプの一部を遮光したり、自車両のヘッドランプの光照射方向を上下方向又は左右方向へずらしたりする制御を行う。また、車両検出処理によりベッドランプが検出されて、その対向車両の運転者に自車両のヘッドランプ照明光が当たる距離範囲内に近づいた場合に、その対向車両に自車両のヘッドランプ照明光が当たらないように、自車両のヘッドランプの一部を遮光したり、自車両のヘッドランプの光照射方向を上下方向又は左右方向へずらしたりする制御を行う。 In the present embodiment, the detection results of the preceding vehicle and the oncoming vehicle detected by the vehicle detection processing described above are used for the light distribution control of the headlamp, which is an in-vehicle device of the own vehicle. Specifically, when the tail lamp is detected by the vehicle detection process and the vehicle approaches the rearview mirror of the preceding vehicle within the distance range where the headlamp illumination light of the own vehicle is incident, the preceding vehicle is illuminated by the headlamp illumination of the own vehicle. Control is performed such that a part of the headlamp of the own vehicle is blocked so that the light does not hit, or the light irradiation direction of the headlamp of the own vehicle is shifted in the vertical direction or the horizontal direction. Further, when the bed lamp is detected by the vehicle detection process and the driver of the oncoming vehicle approaches within the distance range where the headlamp illumination light of the own vehicle hits, the oncoming vehicle is illuminated by the headlamp illumination light of the own vehicle. In order to prevent the vehicle from hitting, control is performed such that a part of the headlamp of the own vehicle is shielded from the light or the light irradiation direction of the headlamp of the own vehicle is shifted in the vertical direction or the horizontal direction.
〔白線検出処理〕
以下、本実施形態における白線検出処理について説明する。
本実施形態では、自車両が走行可能領域から逸脱するのを防止する目的で、識別対象物としての白線(区画線)を検出する処理を行う。ここでいう白線とは、実線、破線、点線、二重線等の道路を区画するあらゆる白線を含む。なお、黄色線等の白色以外の色の区画線などについても同様に検出可能である。
[White line detection processing]
The white line detection processing in this embodiment will be described below.
In the present embodiment, a process of detecting a white line (compartment line) as an identification target is performed in order to prevent the own vehicle from deviating from the drivable area. The white line here includes all white lines such as a solid line, a broken line, a dotted line, and a double line that divide the road. It should be noted that it is possible to detect a division line of a color other than white such as a yellow line in the same manner.
本実施形態における白線検出処理では、撮像ユニット101から取得することができる情報のうち、白色成分(非分光)の鉛直偏光成分Pの偏光情報を用いる。なお、この白色成分の鉛直偏光成分にシアン光の鉛直偏光成分を含めても良い。一般に、白線やアスファルト面は、可視光領域においてフラットな分光輝度特性を有することが知られている。一方、シアン光は可視光領域内の広帯域を含んでいるため、アスファルトや白線を撮像するには好適である。よって、前記構成例2における光学フィルタ205を用い、白色成分の鉛直偏光成分にシアン光の鉛直偏光成分を含めることで、使用する撮像画素数が増えるため、結果的に解像度が上がり、遠方の白線も検出することが可能となる。
In the white line detection processing in the present embodiment, of the information that can be acquired from the imaging unit 101, the polarization information of the vertical polarization component P of the white component (non-spectral) is used. The vertically polarized component of the white component may include the vertically polarized component of cyan light. It is generally known that white lines and asphalt surfaces have flat spectral luminance characteristics in the visible light region. On the other hand, since cyan light includes a wide band in the visible light region, it is suitable for imaging asphalt and white lines. Therefore, by using the
本実施形態の白線検出処理において、多くの道路では、黒色に近い色の路面上に白線が形成されており、白色成分(非分光)の鉛直偏光成分Pの画像において白線部分の輝度は路面上の他部分より十分に大きい。そのため、路面部分のうち輝度が所定値以上である部分を白線として判定することにより、白線を検出することができる。特に、本実施形態では、使用する白色成分(非分光)の鉛直偏光成分Pの画像は、水平偏光成分Sがカットされているので、雨路からの照り返し光などを抑制した画像を取得することが可能となる。よって、夜間における雨路などからヘッドランプの照り返し光等の外乱光を白線と誤認識することなく、白線検出を行うことが可能である。 In the white line detection processing of the present embodiment, many roads have white lines formed on the road surface of a color close to black, and in the image of the vertical polarization component P of the white component (non-spectral), the brightness of the white line portion is on the road surface. Larger than other parts. Therefore, the white line can be detected by determining the part of the road surface where the brightness is equal to or higher than the predetermined value as the white line. In particular, in the present embodiment, the image of the vertical polarization component P of the white component (non-spectral light) used has the horizontal polarization component S cut off, and therefore, an image in which reflected light from a rain road is suppressed is acquired. Is possible. Therefore, it is possible to perform white line detection without erroneously recognizing ambient light such as reflected light from a headlamp from a rain road at nighttime as a white line.
また、本実施形態における白線検出処理において、撮像ユニット101から取得することができる情報のうち、白色成分(非分光)の水平偏光成分Sと鉛直偏光成分Pとの比較による偏光情報、例えば、白色成分(非分光)の水平偏光成分Sと鉛直偏光成分Pの差分偏光度((S−P)/(S+P))を用いてもよい。白線からの反射光は、通常、拡散反射成分が支配的であるため、その反射光の鉛直偏光成分Pと水平偏光成分Sとはほぼ同等となり、差分偏光度はゼロに近い値を示す。一方、白線が形成されていないアスファルト面部分は、乾燥状態のときには散乱反射成分が支配的となる特性を示し、その差分偏光度は正の値を示す。また、白線が形成されていないアスファルト面部分は、湿潤状態のときには、鏡面反射成分が支配的となり、その差分偏光度は更に大きな値を示す。したがって、得られた路面部分の偏光差分値が所定閾値よりも小さい部分を白線と判定することができる。 In addition, in the white line detection processing according to the present embodiment, among the information that can be acquired from the imaging unit 101, polarization information obtained by comparing the horizontal polarization component S of the white component (non-spectral) and the vertical polarization component P, for example, white The degree of difference polarization ((S−P)/(S+P)) between the component (non-spectral) horizontal polarization component S and the vertical polarization component P may be used. Since the diffuse reflection component is usually dominant in the reflected light from the white line, the vertical polarization component P and the horizontal polarization component S of the reflected light are almost the same, and the differential polarization degree shows a value close to zero. On the other hand, the asphalt surface portion in which the white line is not formed exhibits the characteristic that the scattered reflection component is dominant in the dry state, and the differential polarization degree thereof shows a positive value. Further, in the asphalt surface portion where the white line is not formed, the specular reflection component becomes dominant in the wet state, and the differential polarization degree thereof shows a larger value. Therefore, it is possible to determine a portion where the obtained polarization difference value of the road surface portion is smaller than the predetermined threshold as a white line.
〔フロントガラス上の雨滴検出処理〕
以下、本実施形態における雨滴検出処理について説明する。
本実施形態では、ワイパー107の駆動制御やウォッシャー液の吐出制御を行う目的で、付着物としての雨滴を検出する処理を行う。なお、ここでは、フロントガラス上に付着した付着物が雨滴である場合を例に挙げて説明するが、鳥の糞、隣接車両からの跳ねてきた路面上の水しぶきなどの付着物についても同様である。
[Raindrop detection processing on the windshield]
Hereinafter, the raindrop detection process in this embodiment will be described.
In the present embodiment, for the purpose of controlling the drive of the
本実施形態における雨滴検出処理では、撮像ユニット101から取得することができる情報のうち、前段フィルタ210の赤外光透過フィルタ領域212及び後段フィルタ220の雨滴検出用フィルタ部220Bにおける偏光フィルタ層225を透過した光を受光する雨滴検出用画像領域214の鉛直偏光成分Pの偏光情報を用いる。そのため、光源部202からフロントガラス105へ入射させる光は鉛直偏光成分Pを多く含むようにする必要がある。そのためには、例えば光源部202の光源として発光ダイオード(LED)を用いる場合、その光源部202とフロントガラス105との間に、鉛直偏光成分Pのみを透過させる偏光子を配置するのがよい。また、光源部202の光源として半導体レーザ(LD)を用いる場合、LDは特定偏光成分の光のみを発光させることができるので、鉛直偏光成分Pのみの光がフロントガラス105に入射するようにLDの軸を合わせてもよい。
In the raindrop detection process according to the present embodiment, the
本実施形態では、上述したとおり、光源部202から照射されて反射偏向プリズム230からフロントガラス105の内壁面に入射した照明光(赤外光)は、フロントガラス105の外壁面上に雨滴が付着していない非付着箇所では、フロントガラス105の外壁面で正反射する。この正反射光は、画像センサ206に受光されて雨滴検出用画像領域214に映し出される。一方、フロントガラス105の外壁面上に雨滴が付着している付着箇所では、照明光がフロントガラス105の外壁面を透過し、その透過光が画像センサ206に受光されることはない。したがって、撮像画像データの雨滴検出用画像領域214は、フロントガラス105の外壁面に雨滴が付着していない非付着箇所は高輝度な画像部分(高い画素値)となる一方、雨滴が付着している付着箇所は低輝度な画像部分(低い画素値)となる。このような違いから、雨滴の有無だけでなく、雨滴の量も把握することが可能である。
In the present embodiment, as described above, the illumination light (infrared light) emitted from the
図19は、本実施形態における雨滴検出処理の説明図である。
本実施形態の雨滴検出処理では、撮像ユニット101から取得した撮像画像データの雨滴検出用画像領域214の情報を用い、雨滴量が一定量を超えたと判断したらワイパー107を駆動させる。詳しくは、雨滴検出用画像領域214を例えば図19に示すように画像横方向に8区分(x=1〜8)に分割し、各雨滴検出区分x内の合計輝度値y(x,t)に基づく雨滴変動成分r(x,t)を算出する。なお、「t」は、雨滴検出処理の実行タイミングである。そして、いずれかの雨滴検出区分xの雨滴変動成分r(x,t)が予め決められた閾値rthを下回ったら、雨滴量が一定量を超えたと判断してワイパー107を駆動させる。逆に、いずれかの雨滴検出区分xの雨滴変動成分r(x,t)が予め決められた閾値rth以上になったら、ワイパー107の駆動を停止させる。なお、ワイパー107の駆動を開始させる条件や停止させる条件は、これに限らず適宜設定できる。例えば、閾値は固定値である必要はなく、撮像部200が搭載される自車両周辺の状況変化等に応じて適宜変更するようにしてもよい。また、開始条件と停止条件の閾値は同じ値でも異なる値でもよい。
FIG. 19 is an explanatory diagram of the raindrop detection process in this embodiment.
In the raindrop detection process of the present embodiment, the information of the raindrop
図20は、本実施形態における撮像フレームと雨滴検出との関係を示す説明図である。
従来は、撮像領域内に存在する路面上の白線(区画線)や他車両等の識別対象物を検出するための撮像フレーム(センシング用フレーム)と、雨滴を検出するための撮像フレーム(雨滴検出用フレーム)とが、異なる撮像フレームであった。この場合、雨滴検出用フレームの前後のセンシング用フレームの間で時間が空くことになるため、前のセンシング用フレームの撮像時点から後のセンシング用フレームの撮像時点までの間に、識別対象物を識別するための画像を取得できない時間が存在し、識別対象物の認識精度が低下するなどの不具合を引き起こす。
FIG. 20 is an explanatory diagram showing the relationship between the imaging frame and raindrop detection in this embodiment.
Conventionally, an imaging frame (sensing frame) for detecting a white line (compartment line) on the road surface or an identification object such as another vehicle existing in the imaging area, and an imaging frame for detecting raindrops (raindrop detection) Frame) was a different imaging frame. In this case, since there is a time lag between the sensing frames before and after the raindrop detection frame, the identification target object is detected between the time when the previous sensing frame is imaged and the time when the later sensing frame is imaged. There is a time during which an image for identification cannot be obtained, which causes a problem such as deterioration in recognition accuracy of the identification target.
これに対し、本実施形態においては、図20に示すように、識別対象物を検出するための画像(車両検出用画像領域)と雨滴203を検出するための雨滴検出用画像領域とを有する画像を、単一の撮像フレームframe2,4,6,8,10,12で得ることができる。この場合、雨滴を検出するための専用の撮像フレーム(雨滴検出用フレーム)が不要であるため、上述した不具合が生じることはない。
On the other hand, in the present embodiment, as shown in FIG. 20, an image having an image (vehicle detection image area) for detecting the identification target and a raindrop detection image area for detecting the
ここで、本実施形態では、好適な車両検出用画像領域(例えばコントラストの高い画像領域)を得るために、撮像領域の状況(明るさ等)に応じて露光量を変更する自動露光制御(AEC)を実施している。具体的には、画像解析ユニット102の露光量制御部102Cにより、前撮像フレームにおける撮像画像中央部(車両検出用画像領域213内の画素)の輝度値に合わせて、次の撮像フレームの露光時間(露光量)を変更する自動露光制御(AEC)を行う。
Here, in the present embodiment, in order to obtain a suitable image area for vehicle detection (for example, an image area with high contrast), automatic exposure control (AEC) that changes the exposure amount according to the situation (brightness, etc.) of the imaging area. ) Is being implemented. Specifically, the exposure amount control unit 102C of the
このような自動露光制御が実施されると、フロントガラス上の雨滴付着状況が全く同じ状況であっても、その露光時間の変更によって雨滴検出用画像領域の輝度やコントラストが変わるおそれがある。例えば、図21に示すように、光源部202からの光照射期間内で自動露光制御により露光期間が変更されると、その露光期間の長短によって画像センサ206による光源光の受光時間(フロントガラス上の非雨滴付着箇所からの光源光の反射光を受光する時間)が変わる。この場合、フロントガラスに付着する雨滴量が同じであっても、画像センサ206に受光される光源光の受光量が変わる。そのため、輝度やコントラスト等が異なる雨滴検出用画像領域214が得られる結果、雨滴量の適切な検出ができなくなり、ワイパー107の誤動作などの問題が生じ得る。
When such automatic exposure control is carried out, even if the raindrops adhered on the windshield are exactly the same, the brightness and contrast of the raindrop detection image area may be changed by changing the exposure time. For example, as shown in FIG. 21, when the exposure period is changed by the automatic exposure control within the light irradiation period from the
そこで、本実施形態では、図22に示すように、光源部202からの光照射期間外で自動露光制御により露光期間が変更されるように設定している。この場合、その露光期間が変更されても画像センサ206による光源光の受光時間は光照射期間で一定であるため、雨滴量の適切な検出が可能であり、ワイパー107の誤動作などの問題を抑制できる。
Therefore, in the present embodiment, as shown in FIG. 22, the exposure period is set to be changed by the automatic exposure control outside the light irradiation period from the
次に、雨滴検出処理で用いる各雨滴検出区分x内の合計輝度値y(x,t)から雨滴変動成分r(x,t)を算出する雨滴量演算処理について説明する。
本実施形態では、上述したとおり、フロントガラス上に雨滴が付着することにより光源部202からの光源光の画像センサ206による受光量が減少し、雨滴検出用画像領域の輝度値が低下することを利用して、フロントガラス上の雨滴を検出する。すなわち、各雨滴検出区分x内の合計輝度値y(x,t)は、雨滴付着による変動成分のほかに変動成分が存在しない場合には、その合計輝度値y(x,t)と基準輝度値y(x,0)との差分を雨滴変動成分r(x,t)とすることができ、雨滴変動成分r(x,t)から雨滴量を把握することができる。
Next, the raindrop amount calculation processing for calculating the raindrop fluctuation component r(x, t) from the total luminance value y(x, t) in each raindrop detection section x used in the raindrop detection processing will be described.
In the present embodiment, as described above, the amount of light received by the
なお、基準輝度値y(x,0)は、雨滴が付着してない状況下、外乱光が存在しない状況下、所定の温度環境下において、雨滴検出区分xごとに取得した合計輝度値である。本実施形態において、光源部202から照射される光源光の光量は、光源の個体差等によってバラツキがあるので、基準輝度値y(x,0)は、実際に測定したものを、予め画像解析ユニット102の記憶手段に記憶しておくのが好ましい。
The reference brightness value y(x, 0) is a total brightness value acquired for each raindrop detection category x under a predetermined temperature environment under the condition that raindrops are not attached, the condition that ambient light does not exist. .. In the present embodiment, the light intensity of the light source light emitted from the
各雨滴検出区分x内の合計輝度値y(x,t)内に雨滴変動成分のほかにも変動成分が存在する場合、その合計輝度値y(x,t)と基準輝度値y(x,0)との差分をそのまま雨滴変動成分r(x,t)とすると、雨滴の誤検出を招き、ワイパー107の誤動作などの問題を引き起こすおそれがある。
When there is a variation component in addition to the raindrop variation component in the total luminance value y(x, t) in each raindrop detection category x, the total luminance value y(x, t) and the reference luminance value y(x, If the difference from 0) is used as the raindrop fluctuation component r(x, t) as it is, the raindrop may be erroneously detected, and the
雨滴の誤検出を引き起こす変動成分としては、画像センサ206の雨滴検出用画像領域に対応するセンサ部分に入射する光源光以外の外乱光による変動成分d(x,t)が挙げられる。
Examples of the fluctuation component that causes erroneous detection of raindrops include a fluctuation component d(x,t) due to ambient light other than the light source light that is incident on the sensor portion of the
また、レンズ、ミラー、プリズム等の光学部材の光学特性や光源の発光量などが温度変化によって変動して雨滴検出用画像領域の輝度値を変動させる温度変動成分や、これらの光学部材の光学特性や光源の発光量などが経時劣化によって変動して雨滴検出用画像領域の輝度値を変動させる経時劣化変動成分なども、雨滴の誤検出を引き起こす変動成分となり得る。特に、本実施形態では、光源として、発光量の温度依存性が高いLEDを用いているので、温度変化によって光源の発光量が雨滴の誤検出を引き起こすほど変動するおそれがある。また、本実施形態では、光源部202内に設けられるコリメータレンズ等の光学部材の光学特性が温度変化によって雨滴の誤検出を引き起こすほど変動するおそれもある。そのため、本実施形態においては、雨滴の誤検出を引き起こす変動成分として、光源部202から照射される光源光の光量が温度変化によって変動することに起因した光源光の温度変動成分e(x,t)が含まれるものとする。
In addition, the optical characteristics of optical members such as lenses, mirrors, and prisms, and the temperature fluctuation component that changes the luminance value of the image area for raindrop detection due to fluctuations in the light emission amount of the light source and the like, and the optical characteristics of these optical members. A variation component that deteriorates over time that varies the brightness value of the raindrop detection image region by varying the light emission amount of the light source or the like due to deterioration over time may also be a variation component that causes erroneous detection of raindrops. In particular, in the present embodiment, since the LED whose light emission amount has a high temperature dependency is used as the light source, the light emission amount of the light source may fluctuate enough to cause an erroneous detection of raindrops due to a temperature change. Further, in the present embodiment, the optical characteristics of the optical member such as the collimator lens provided in the
なお、この光源光の温度変動成分e(x,t)は、雨滴変動成分にも影響を与えるものであるから、光源光の温度変動成分e(x,t)が含まれる場合の雨滴変動成分はr(x,t)×e(x,t)で表される。 Since the temperature fluctuation component e(x,t) of the light source light also affects the raindrop fluctuation component, the raindrop fluctuation component when the temperature fluctuation component e(x,t) of the light source light is included. Is represented by r(x,t)×e(x,t).
以上より、本実施形態において、雨滴検出処理で用いる各雨滴検出区分x内の合計輝度値y(x,t)に含まれる変動成分は、雨滴変動成分r(x,t)×e(x,t)と、外乱光変動成分d(x,t)と、光源光の温度変動成分e(x,t)であると考えることができる。 As described above, in the present embodiment, the fluctuation component included in the total luminance value y(x,t) in each raindrop detection section x used in the raindrop detection process is the raindrop fluctuation component r(x,t)×e(x, t), the ambient light fluctuation component d(x, t), and the temperature fluctuation component e(x, t) of the light source light.
ここで、外乱光変動成分d(x,t)については、例えば、次のようにして得ることができる。すなわち、本実施形態では、図20に示したように、一撮像フレームごとに、光源部202の点灯と消灯とを交互に繰り返して撮像している。具体的には、奇数の撮像フレームframe1,3,5,7,9,11では、光源部202が消灯した状態で撮像された撮像画像データ(消灯時画像データ)を撮像し、偶数の撮像フレームframe2,4,6,8,10,12では、光源部202が点灯した状態で撮像された撮像画像データ(点灯時画像データ)を撮像する。
Here, the disturbance light fluctuation component d(x, t) can be obtained as follows, for example. That is, in the present embodiment, as shown in FIG. 20, the
このとき、消灯時の撮像フレームframe1,3,5,7,9,11により得られる雨滴検出用画像領域の消灯時画像データは、光源部202からの光源光以外の外乱光d(x,t)のみが撮像した画像データである。よって、本実施形態では、点灯時の撮像フレームframe2,4,6,8,10,12から得られる雨滴検出用画像領域の各雨滴検出区分x内の合計輝度値y(x,t)に含まれる外乱光変動成分d(x,t)として、それぞれ、その直前の消灯時撮像フレームframe1,3,5,7,9,11における各雨滴検出区分x内の輝度値総和d(x,t)を用いることとする。
At this time, the off-time image data of the raindrop detection image area obtained by the image frames
一方、光源光の温度変動成分e(x,t)については、例えば、光源部202から照射される光源光の光量と温度との関係を示すデータを予め実験等により取得しておき、光源部202に温度センサを設けて検知した温度検知結果と当該データとから光源部202から照射される光源光の温度変動成分e(x,t)を把握することが可能である。しかしながら、この方法においては、光源部202から照射される光源光の光量と温度との関係について高い信頼性のあるデータを予め実験等により取得しておく必要があるが、そのような高い信頼性のあるデータを得ることは困難である。また、温度センサを設ける必要があることから、省スペース化や高コスト化を招く。
On the other hand, regarding the temperature variation component e(x, t) of the light source light, for example, data indicating the relationship between the light amount of the light source light emitted from the
また、光源部202から照射される光源光の光量を検知する光量センサを設け、その光量センサの検知結果に基づいて、光源部202から照射される光源光の光量が一定になるように光源に供給する駆動電流をフィードバック制御する光源光制御を実施すれば、温度変化によって光源部202内の光学部材の光学特性変化や光源の発光量変化が発生しても、光源部202から照射される光源光の光量が一定になる。この場合、光源光の温度変動成分e(x,t)を考慮する必要がない。しかしながら、このような光源光制御は、光量センサを設ける必要があることから省スペース化や高コスト化を招くうえ、光源光の光量を高精度に制御することを可能にする光源や制御系が必要となり、高コスト化が避けられない。
Further, a light amount sensor for detecting the light amount of the light source light emitted from the
そこで、本実施形態においては、このような光源光制御を実施せずに、次のようにして光源光の温度変動成分e(x,t)を把握する。
光源光の温度変動成分e(x,t)を生じさせる温度変化による光学部材の光学特性変化や光源の発光量変化は、雨滴変動成分r(x,t)を生じさせる雨滴量の変化や、外乱光変動成分d(x,t)を生じさせる外乱光の光量変化と比べて、ゆっくりと変化するものである。すなわち、温度変動成分e(x,t)は、雨滴変動成分r(x,t)や外乱光変動成分d(x,t)と比べて低い周波数で変化する低周波変動成分である。そのため、本実施形態では、点灯時の撮像フレームframe2,4,6,8,10,12から得られる合計輝度値y(x,t)から、所定周波数以下の低周波変動成分を抽出し、これを温度変動成分e(x,t)とする。
Therefore, in the present embodiment, the temperature fluctuation component e(x, t) of the light source light is grasped as follows without performing such light source light control.
The change in the optical characteristics of the optical member and the change in the light emission amount of the light source due to the temperature change that causes the temperature fluctuation component e(x, t) of the light source light cause the change in the raindrop amount that causes the raindrop fluctuation component r(x, t), It changes slowly compared to the change in the amount of ambient light that causes the ambient light fluctuation component d(x, t). That is, the temperature fluctuation component e(x,t) is a low frequency fluctuation component that changes at a lower frequency than the raindrop fluctuation component r(x,t) and the ambient light fluctuation component d(x,t). Therefore, in the present embodiment, a low-frequency fluctuation component of a predetermined frequency or less is extracted from the total luminance value y(x, t) obtained from the imaged frame frames 2, 4, 6, 8, 10, 12 at the time of lighting, Is the temperature fluctuation component e(x, t).
なお、このようにして抽出される低周波変動成分には、温度変化による光学部材の光学特性変化や光源の発光量変化に起因した変動成分のほかにも、低い周波数で各雨滴検出区分x内の合計輝度値y(x,t)に変動を生じさせる未知の変動成分(光学部材や光源の経時劣化による変動成分など)も含まれ得る。よって、本実施形態によれば、このような未知の変動成分に起因した雨滴量の誤検知も抑制することが可能である。 The low-frequency fluctuation component extracted in this way is not only the fluctuation component caused by the change in the optical characteristics of the optical member due to the temperature change or the change in the light emission amount of the light source, but also in each raindrop detection category x at a low frequency. An unknown fluctuation component (such as a fluctuation component due to deterioration over time of an optical member or a light source) that causes fluctuations in the total luminance value y(x, t) can also be included. Therefore, according to the present embodiment, it is possible to suppress erroneous detection of the amount of raindrops due to such an unknown fluctuation component.
図23は、本実施形態における雨滴検出処理の流れを示すブロック図である。
図24は、本実施形態における雨滴検出処理の流れを示すフローチャートである。
画像解析ユニット102の光源制御部102Bは、信号処理部208からの画像信号の取得と連動しながら、光源部202の発光タイミングを制御し、まず、消灯時撮像フレームframe1と点灯時撮像フレームframe2とを撮像する(S11)。なお、本実施形態では、光源部202の光源に供給する駆動電流値は一定であるため、温度変化によって光源部202内の光学部材の光学特性変化や光源の発光量変化が発生すると、光源部202から照射される光源光の光量が変動し、点灯時の撮像フレームframe2から得られる合計輝度値y(x,t)において温度変動成分e(x,t)が生じる。
FIG. 23 is a block diagram showing the flow of raindrop detection processing in this embodiment.
FIG. 24 is a flowchart showing the flow of raindrop detection processing in this embodiment.
The light source control unit 102B of the
次に、画像解析ユニット102は、消灯時の撮像フレームframe1における雨滴検出用画像領域の各雨滴検出区分x内の輝度値総和d(x,t)を算出する(S12)。そして、算出した輝度値総和d(x,t)が所定の外乱判定閾値を超えているかどうかを判定する(S13)。なお、ここでは、強い外乱光が入ってきているかどうかを、画素値の総和を用いて判断するが、強い外乱光が入ってきているかどうかを判断できる情報であれば、これに限られない。
Next, the
このとき、外乱判定閾値を超えている場合には(S13のYes)、適切な雨滴検出処理を実施できないと判断して、雨滴検出処理を終了し、次の雨滴検出処理へ移行する。一方、外乱判定閾値を超えていない場合には(S13のNo)、画像解析ユニット102は、点灯時の撮像フレームframe2における雨滴検出用画像領域の各雨滴検出区分x内の合計輝度値y(x,t)を算出する(S14)。そして、低周波変動成分検出部102Dにおいて、算出した各雨滴検出区分x内の合計輝度値y(x,t)から低周波変動成分を抽出し、これを温度変動成分e(x,t)として検出する(S15)。
At this time, when it exceeds the disturbance determination threshold value (Yes in S13), it is determined that the appropriate raindrop detection process cannot be performed, the raindrop detection process is terminated, and the process proceeds to the next raindrop detection process. On the other hand, when the disturbance determination threshold is not exceeded (No in S13), the
具体的には、雨滴検出用画像領域の雨滴検出区分xごとに、直近の所定期間内に撮像された撮像フレームについて算出した当該雨滴検出区分xの合計輝度値y(x,t),y(x,t−1),y(x,t−2),・・・からなるデータ群ynに対し、所定周波数以下の低周波成分を抽出するローパスフィルタLPFを用いた低周波フィルタ処理を実行して、低周波変動成分である温度変動成分e(x,t)を抽出する。この低周波フィルタ処理では、データ群ynを記憶手段に保持せずに、前回の低周波フィルタ処理で算出した温度変動成分e(x,t−1)を記録手段に保持しておき、この温度変動成分e(x,t−1)と今回の合計輝度値y(x,t)とを用いて今回の温度変動成分e(x,t)を抽出することができる。 Specifically, for each raindrop detection section x in the raindrop detection image area, the total luminance value y(x, t), y( of the raindrop detection section x calculated for the imaging frame imaged within the most recent predetermined period. low-frequency filter processing using a low-pass filter LPF that extracts low-frequency components below a predetermined frequency is performed on a data group yn consisting of x, t-1), y(x, t-2),.... Then, the temperature fluctuation component e(x, t) which is a low frequency fluctuation component is extracted. In this low frequency filter processing, the temperature fluctuation component e(x, t-1) calculated in the previous low frequency filter processing is held in the recording means without holding the data group yn in the storage means, and this temperature The current temperature fluctuation component e(x, t) can be extracted using the fluctuation component e(x, t−1) and the current total brightness value y(x, t).
ただし、このようにして抽出される温度変動成分e(x,t)は、前記所定期間に撮像された最初の撮像フレームの合計輝度値である初期輝度値y(x,1)における初期の温度変動成分e(x,1)に対する相対的な温度変動成分である。そのため、初期の温度変動成分e(x,1)を把握し、今回抽出した相対的な温度変動成分e(x,t)を今回の時点における絶対的な温度変動成分に換算しなければ、今回の合計輝度値y(x,t)に含まれる温度変動成分を除外する補正を行うことができない。 However, the temperature fluctuation component e(x, t) thus extracted is the initial temperature at the initial brightness value y(x, 1) which is the total brightness value of the first imaged frame imaged in the predetermined period. It is a relative temperature fluctuation component with respect to the fluctuation component e(x, 1). Therefore, unless the initial temperature fluctuation component e(x, 1) is grasped and the relative temperature fluctuation component e(x, t) extracted this time is converted into the absolute temperature fluctuation component at this time, The correction for excluding the temperature fluctuation component included in the total luminance value y(x, t) cannot be performed.
そこで、上述したように抽出した各雨滴検出区分xの相対的な温度変動成分e(x,t)を、初期の温度変動成分e(x,1)を用いて絶対的な温度変動成分e’(x,t)に換算し、これを各雨滴検出区分xの合計輝度値y(x,t)に含まれる温度変動成分を除外する補正を行うための補正値ytrendとして算出する(S16)。本実施形態における初期時点は、例えば、画像解析ユニット102を起動した後に、雨滴が付着しておらずかつ外乱光変動成分dが閾値以下である最初の合計輝度値である初期輝度値y(x,1)を取得した時点とする。なお、この閾値は、上述した外乱判定閾値よりも低い値とし、外乱光変動成分dを含まないものとして取り扱うことができるように設定される。
Therefore, the relative temperature fluctuation component e(x, t) of each raindrop detection section x extracted as described above is an absolute temperature fluctuation component e′ using the initial temperature fluctuation component e(x, 1). It is converted into (x, t), and this is calculated as a correction value y trend for performing correction for excluding the temperature fluctuation component included in the total luminance value y(x, t) of each raindrop detection section x (S16). .. The initial time point in this embodiment is, for example, the initial brightness value y(x, which is the first total brightness value after the
もし画像解析ユニット102を起動した時に既に雨滴が付着している状況である場合、そのままでは初期輝度値y(x,1)を取得できないので、ワイパー107を駆動させて雨滴を除外した後のタイミングで初期輝度値y(x,1)を取得するようにする。
If the raindrops have already adhered when the
ここで、画像解析ユニット102を起動した後、雨滴が付着しておらずかつ外乱光変動成分dが閾値以下である最初の初期輝度値y(x,1)は、通常、記憶手段に保持されている基準輝度値y(x,0)と一致しない。この初期輝度値y(x,1)と基準輝度値y(x,0)との違いは、初期輝度値y(x,1)が雨滴変動成分r(x,1)を含まず、かつ、外乱光変動成分d(x,1)も含まないものなので、初期時点における温度変動成分e(x,1)に相当するものと考えることができる。よって、初期輝度値y(x,1)と基準輝度値y(x,0)との違いから、初期の温度変動成分e(x,1)を特定することができる。
Here, after starting the
このようにして初期の温度変動成分e(x,1)が得られることで、その後の雨滴検出処理において抽出される相対的な温度変動成分e(x,t)と初期の温度変動成分e(x,1)との比率は、その後の雨滴検出処理における合計輝度値y(x,t)中の絶対的な温度変動成分e’(x,t)=ytrendと初期輝度値y(x,1)との比率に相当する。したがって、各雨滴検出処理の時点における絶対的な温度変動成分e’(x,t)=ytrendは、その雨滴検出処理で抽出される相対的な温度変動成分e(x,t)と、初期輝度値y(x,1)と、初期の温度変動成分e(x,1)とから、算出することができる。 By thus obtaining the initial temperature variation component e(x, 1), the relative temperature variation component e(x, t) extracted in the subsequent raindrop detection process and the initial temperature variation component e(x x, 1) is the absolute temperature fluctuation component e′(x, t)=y trend in the total luminance value y(x, t) in the subsequent raindrop detection process and the initial luminance value y(x, t). It corresponds to the ratio with 1). Therefore, the absolute temperature variation component e′(x,t)=y trend at the time of each raindrop detection process is equal to the initial temperature variation component e(x,t) extracted in the raindrop detection process. It can be calculated from the brightness value y(x, 1) and the initial temperature fluctuation component e(x, 1).
以上のようにして、雨滴変動成分r(x,t)を除く変動成分を除外するための補正値が得られたことになる。すなわち、処理ステップS12によって外乱光変動成分による補正値d(x,t)が得られ、処理ステップS16によって温度変動成分による補正値ytrendが得られた。よって、画像解析ユニット102は、検出処理部102Aにおいて、処理ステップS14で算出した点灯時の撮像フレームframe2における雨滴検出用画像領域の各雨滴検出区分x内の合計輝度値y(x,t)を、これらの補正値d(x,t),ytrendによって外乱光変動成分と温度変動成分とを除外する補正を行い、雨滴変動成分r(x,t)を算出する雨滴量演算を行う(S17)。この雨滴量演算により得られる雨滴量のデータは、画像解析ユニット102からワイパー制御ユニット106へ出力される(S18)。ワイパー制御ユニット106は、例えば、この雨滴量の算出結果が所定の条件(例えば、連続して作成された20個の時差分画像について、いずれも雨滴量のカウント値が10以上であるという条件)を満たしたときに、ワイパー107の駆動制御やウォッシャー液の吐出制御を行う。
As described above, the correction value for excluding the variation components other than the raindrop variation component r(x,t) is obtained. That is, the correction value d(x, t) due to the ambient light fluctuation component was obtained in the processing step S12, and the correction value y trend according to the temperature fluctuation component was obtained in the processing step S16. Therefore, in the
なお、温度変動成分e(x,t)を抽出するためのサンプルとなるデータ群ynについては、比較的少ないデータ数でも温度変動成分e(x,t)を抽出できるように、初期輝度値y(x,1)と同様、雨滴が付着しておらずかつ外乱光変動成分dが閾値以下である条件を満たす撮像フレームについて算出した当該雨滴検出区分xの合計輝度値だけを用いてもよい。このとき、雨が降っている状況では、そのままではデータ群ynを蓄積することができないが、ワイパー107の動作に同期して、ワイパー107で雨滴を除外した後のタイミングで合計輝度値y(x,t)を取得するようにすれば、雨が降っている状況でもデータ群ynを蓄積することが可能である。なお、もし、データ群ynとして十分なデータ数が得られる場合には、このような条件に限定する必要はない。
Regarding the data group yn that is a sample for extracting the temperature fluctuation component e(x,t), the initial luminance value y is set so that the temperature fluctuation component e(x,t) can be extracted even with a relatively small number of data. Similar to (x, 1), it is possible to use only the total luminance value of the raindrop detection section x calculated for an imaging frame that satisfies the condition that no raindrop is attached and the ambient light fluctuation component d is equal to or less than the threshold value. At this time, in a situation where it is raining, the data group yn cannot be stored as it is, but in synchronization with the operation of the
また、本実施形態の雨滴検出処理では、外乱光成分d(x,t)を除外するための補正も行っているが、必ずしも外乱光成分d(x,t)を除外するための補正を行う必要はない。特に、本実施形態において、雨滴検出用画像領域に対しては、光学フィルタ205の赤外光透過フィルタ領域212や偏光フィルタ層225などによって外乱光が十分に抑制されているので、外乱光成分d(x,t)を除外するための補正を行わなくてもよい。
Further, in the raindrop detection process of the present embodiment, the correction for excluding the disturbance light component d(x, t) is also performed, but the correction for excluding the disturbance light component d(x, t) is not necessarily performed. No need. In particular, in the present embodiment, the disturbance light component d is sufficiently suppressed in the raindrop detection image area by the infrared light
〔変形例〕
次に、本実施形態の一変形例について説明する。
上述した実施形態においては、反射偏向プリズム230を用い、雨滴の付着箇所では照明光がフロントガラス外壁面を透過し、雨滴の非付着箇所では照明光がフロントガラス外壁面で反射して画像センサ206に受光される構成であった。これに対し、本変形例は、雨滴の非付着箇所では照明光がフロントガラス外壁面を透過し、雨滴の付着箇所ではフロントガラス外壁面を透過した照明光が雨滴で反射して画像センサ206に受光される構成である。具体的には、図25に示すような構成である。
[Modification]
Next, a modified example of the present embodiment will be described.
In the embodiment described above, the
なお、図25の例では、光源部202から出射した照明光が直接フロントガラス105の内壁面に入射する構成となっているが、ミラー等の光路変更部材を介する構成としてもよい。この場合、上述した実施形態と同様に、センサ基板207上に光源装置としての光源部202を実装することが可能となる。
Note that in the example of FIG. 25, the illumination light emitted from the
図25中の光線Aは、光源部202から出射してフロントガラス105を通過する光線である。フロントガラス105の外壁面に雨滴203が付着していない場合、光源部202からフロントガラス105に向けて照射された光は、光線Aのように、フロントガラス105を透過してそのまま自車両100の外部に漏れ出る。
Light ray A in FIG. 25 is a light ray emitted from the
図25中の光線Bは、光源部202からの出射光がフロントガラス105の内壁面で正反射して撮像部200へ入射する光線である。光源部202からフロントガラス105へ向かう光の一部はフロントガラス105の内壁面で正反射する。この正反射光(光線B)の偏光成分は、一般に、その入射面に対して直交する方向(図25の紙面に対して垂直な方向)に振動するS偏光成分(水平偏光成分S)が支配的であることが知られている。光源部202から照射されてフロントガラス105の内壁面で正反射した正反射光(光線B)は、フロントガラス105の外壁面に付着する雨滴203の有無によって変動しないので、雨滴検出に不要な光であるばかりか、雨滴検出の検出精度を低下させる外乱光となる。本変形例では、光線B(水平偏光成分S)が雨滴検出用フィルタ部220Bの偏光フィルタ層225によってカットされるので、この光線Bによって雨滴検出精度が低下することを抑制できる。
A light beam B in FIG. 25 is a light beam that is emitted from the
図25中の光線Cは、光源部202からの出射光がフロントガラス105の内壁面を透過し、その後、フロントガラス105の外壁面に付着する雨滴で反射して撮像部200へ入射する光線である。光源部202からフロントガラス105へ向かう光の一部はフロントガラス105の内壁面を透過するが、その透過光は水平偏光成分Sよりも鉛直偏光成分Pの方が多い。そして、フロントガラス105の外壁面上に雨滴203が付着している場合、フロントガラス105の内壁面を透過した光は、前記光線Aのように外部へ漏れ出ずに、雨滴内部で多重反射して撮像部200側に向けて再度フロントガラス105内を透過し、撮像部200に入射する。このとき、撮像部200の光学フィルタ205における前段フィルタ210の赤外光透過フィルタ領域212は、光源部202の発光波長(赤外光)を透過させるように構成されているので、光線Cは赤外光透過フィルタ領域212を通過する。また、続く後段フィルタ220の雨滴検出用フィルタ部220Bの偏光フィルタ層225は、鉛直偏光成分Pを透過するようにワイヤーグリッド構造の金属ワイヤーの長手方向が形成されているため、光線Cは偏光フィルタ層225も透過する。よって、光線Cは、画像センサ206に到達し、その受光量によって雨滴の検出が行われる。
A light ray C in FIG. 25 is a light ray in which light emitted from the
図25中の光線Dは、フロントガラス105の外部からフロントガラス105を透過して撮像部200の雨滴検出用フィルタ部220Bに向かって入射してくる光線である。この光線Dも雨滴検出時の外乱光となり得るが、本変形例では、その光線Dの大部分が、光学フィルタ205における前段フィルタ210の赤外光透過フィルタ領域212によってカットされる。よって、この光線Dによって雨滴検出精度が低下することも抑制できる。
A light ray D in FIG. 25 is a light ray that has passed through the
図25中の光線Eは、フロントガラス105の外部からフロントガラス105を透過して撮像部200の車両検出用フィルタ部220Aに向かって入射してくる光線である。この光線Eは、光学フィルタ205における前段フィルタ210の赤外光カットフィルタ領域211によって赤外光帯域がカットされ、可視域の光のみが撮像される。この撮像画像は、対向車両のヘッドランプ及び先行車両のテールランプ並びに白線の検出などに利用される。
The light ray E in FIG. 25 is a light ray that has passed through the
以上に説明したものは一例であり、次の態様毎に特有の効果を奏する。
(態様A)
光源部202等の光源装置からの光源光によって照明される照明領域を画像センサ206等の撮像手段により撮像して得られる撮像画像データを用い、該撮像手段の受光量に基づいて該照明領域内の雨滴等の検出対象物を検出する検出処理を実行する検出処理部102A等の検出処理実行手段を備えた画像解析ユニット102等の検出装置において、前記撮像手段によって所定期間内に撮像された複数の撮像画像データに基づいて、該撮像手段の受光量の変動成分のうち所定周波数以下の低周波変動成分を検出する低周波変動成分検出部102D等の低周波変動成分検出手段を有し、前記検出処理実行手段は、前記低周波変動成分検出手段により検出した低周波変動成分を用いて、前記検出処理を実行することを特徴とする。
検出対象物の検出処理に用いられる撮像手段による光源光の受光量変化(時間変動成分)のうち、光源や光学部材等の温度変化や経時劣化などに起因して発生する撮像手段による光源光の受光量変化は、検出対象物の有無に起因した受光量変化や、外乱光に起因した受光量変化よりも低い周波数(長い時間周期)で変化するものである。そのため、本態様においては、低周波変動成分検出手段により検出される撮像手段による光源光の受光量の中の低周波変動成分を、光源や光学部材等の温度変化や経時劣化などに起因して発生する撮像手段による光源光の受光量変化として得ることができる。そして、本態様では、このようにして検出した低周波変動成分を用いて検出処理を実行するため、当該撮像手段の受光量変化(変動成分)から、光源や光学部材等の温度変化や経時劣化などに起因した低周波変動成分の影響を低減することが可能となる。よって、本態様によれば、光源や光学部材等の温度変化や経時劣化などに起因した検出対象物の誤検出を抑制できる。
What has been described above is an example, and the following unique effects can be obtained.
(Aspect A)
Using imaged image data obtained by imaging an illumination area illuminated by light source light from a light source device such as the
Of the change in the amount of received light of the light source light (time-varying component) by the image pickup unit used for the detection processing of the detection target, the light source light by the image pickup unit caused by temperature change or deterioration over time of the light source, optical member, etc. The change in the amount of received light changes at a lower frequency (longer time period) than the change in the amount of received light caused by the presence or absence of the detection target and the change in the amount of received light caused by ambient light. Therefore, in the present aspect, the low frequency fluctuation component in the received light amount of the light source light by the image pickup unit detected by the low frequency fluctuation component detection unit is caused by the temperature change of the light source, the optical member, or the like and deterioration over time. It can be obtained as a change in the amount of received light of the light source generated by the image pickup unit. In this aspect, since the detection process is executed using the low-frequency fluctuation component detected in this manner, the change in the amount of light received by the imaging unit (fluctuation component) causes a change in temperature of the light source, the optical member, or the like and deterioration over time. It is possible to reduce the influence of the low frequency fluctuation component caused by the above. Therefore, according to this aspect, it is possible to suppress the erroneous detection of the detection target due to the temperature change of the light source, the optical member, or the like, or the deterioration over time.
(態様B)
前記態様Aにおいて、前記検出処理実行手段は、前記低周波変動成分検出手段により検出した低周波変動成分に基づいて前記検出処理で用いる前記撮像手段の受光量を補正し、補正後の受光量に基づいて検出対象物を検出することを特徴とする。
これによれば、撮像手段の受光量変化(変動成分)から、光源や光学部材等の温度変化や経時劣化などに起因した低周波変動成分の影響を低減することができる。
(Aspect B)
In the aspect A, the detection processing execution means corrects the light reception amount of the image pickup means used in the detection processing based on the low frequency fluctuation component detected by the low frequency fluctuation component detection means, and obtains the corrected light reception amount. It is characterized in that the detection target is detected based on the above.
According to this, it is possible to reduce the influence of the low-frequency fluctuation component caused by the temperature change of the light source, the optical member, or the like, or the deterioration over time, from the change (variation component) in the amount of light received by the imaging unit.
(態様C)
前記態様A又はBにおいて、前記低周波変動成分検出手段は、前記複数の撮像画像データからそれぞれ得られる前記撮像手段の各受光量のデータ群ynの経時変動成分から前記所定周波数以下の低周波成分を抽出する低周波フィルタ処理を実行して、前記低周波変動成分を検出することを特徴とする。
これによれば、光源や光学部材等の温度変化や経時劣化などに起因して発生する撮像手段の受光量の変化を容易に検出することができる。
(Aspect C)
In the aspect A or B, the low-frequency fluctuation component detection unit is a low-frequency component equal to or lower than the predetermined frequency from a temporal fluctuation component of a data group yn of each received light amount of the imaging unit obtained from each of the plurality of captured image data. Is performed to detect the low-frequency fluctuation component.
According to this, it is possible to easily detect a change in the amount of light received by the image pickup unit that occurs due to a change in temperature of the light source, the optical member, or the like, or deterioration over time.
(態様D)
前記態様A〜Cのいずれかの態様において、前記所定周波数は、前記光源装置の光源から前記撮像手段の受光素子までの光源光の光路上に存在する光学部材の光学特性の経時変化(温度変化や経時劣化など)によって該撮像手段の受光量が変動する変動成分の周波数以上であることを特徴とする。
これによれば、光学部材の温度変化あるいは経時劣化などに起因して発生する撮像手段の受光量の変化を検出することができる。
(Aspect D)
In any one of the aspects A to C, the predetermined frequency is a temporal change (temperature change) of an optical characteristic of an optical member existing on an optical path of a light source light from a light source of the light source device to a light receiving element of the imaging unit. Or a deterioration with time), the light receiving amount of the image pickup unit fluctuates or exceeds the frequency of a fluctuation component.
According to this, it is possible to detect a change in the amount of light received by the image pickup unit that occurs due to a change in temperature of the optical member or deterioration over time.
(態様E)
前記態様A〜Dのいずれかの態様において、前記所定周波数は、前記光源装置の光源の温度変化による発光量変化によって該撮像手段の受光量が変動する変動成分の周波数以上であることを特徴とする。
これによれば、光源の温度変化に起因して発生する撮像手段の受光量の変化を検出することができる。
(Aspect E)
In any one of the aspects A to D, the predetermined frequency is equal to or higher than a frequency of a fluctuation component in which the amount of light received by the imaging unit fluctuates due to a change in the amount of light emission due to a temperature change of a light source of the light source device. To do.
According to this, it is possible to detect a change in the amount of light received by the image pickup unit that occurs due to a change in the temperature of the light source.
(態様F)
前記態様A〜Eのいずれかの態様において、前記低周波変動成分検出手段が前記低周波変動成分を検出するのに用いる前記複数の撮像画像データは、前記照明領域内に検出対象物が存在しないときに撮像したものであることを特徴とする。
これによれば、低周波変動成分検出手段が低周波変動成分を検出するのに用いる撮像画像データのデータ数が少なくても、低周波変動成分の検出が可能となる。
(Aspect F)
In any one of the above aspects A to E, the plurality of captured image data used by the low frequency variation component detection unit to detect the low frequency variation component does not have a detection target object in the illumination region. The feature is that it is sometimes captured.
According to this, even if the number of pieces of captured image data used for the low-frequency fluctuation component detecting means to detect the low-frequency fluctuation component is small, the low-frequency fluctuation component can be detected.
(態様G)
前記態様Fにおいて、前記低周波変動成分検出手段は、前記照明領域内に検出対象物が存在するとき、前記複数の撮像画像データとして、前記照明領域内の検出対象物を除去するワイパー107等の除去手段を動作させることにより該検出対象物を除去した後の照明領域を前記撮像手段により撮像して得られる撮像画像データを用いることを特徴とする。
これによれば、照明領域内に検出対象物が付着する状況下であっても、検出対象物が存在しないときの撮像画像データを得ることができる。
(Aspect G)
In the aspect F, the low-frequency fluctuation component detection means includes a
According to this, it is possible to obtain the captured image data when the detection target does not exist even under the situation where the detection target adheres to the illumination area.
(態様H)
前記態様A〜Gのいずれかの態様において、前記検出処理は、前記撮像手段の受光量に基づいて前記照明領域内の検出対象物の量を検出することを特徴とする。
撮像手段の受光量に基づいて照明領域内の検出対象物の量を検出する場合、検出対象物の有無だけを検出する場合よりも、撮像手段の受光量の誤差について高い精度が要求される。そのため、光源や光学部材等の温度変化や経時劣化などに起因して発生する撮像手段の受光量の変化が誤検出を引き起こしやすい。本態様によれば、光源や光学部材等の温度変化や経時劣化などに起因した検出対象物の量の誤検出を抑制できる。
(Aspect H)
In any one of the aspects A to G, the detection processing detects the amount of the detection target object in the illumination area based on the amount of light received by the imaging unit.
When detecting the amount of the detection target object in the illumination area based on the amount of light received by the imaging unit, higher accuracy is required for the error in the amount of light received by the imaging unit than when detecting only the presence or absence of the detection target. Therefore, a change in the amount of light received by the image pickup unit caused by a change in temperature of the light source, the optical member, or the like or deterioration over time easily causes erroneous detection. According to this aspect, it is possible to suppress the erroneous detection of the amount of the detection target due to the temperature change of the light source, the optical member, or the like, or the deterioration over time.
(態様I)
光源部202等の光源装置からの光源光によって照明される照明領域を画像センサ206等の撮像手段により撮像して得られる撮像画像データを用い、該撮像手段の受光量に基づいて該照明領域内の雨滴等の検出対象物を検出する画像解析ユニット102等の検出装置と、前記検出装置の検出結果に基づいて、自車両100等の移動体に搭載されたワイパー107等の所定の機器を制御するワイパー制御ユニット106等の移動体機器制御手段を備えた車載機器制御システム等の移動体機器制御システムにおいて、前記検出装置として、前記態様A〜Fのいずれかの態様に係る検出装置を用いることを特徴とする。
これによれば、光源や光学部材等の温度変化や経時劣化などに起因した検出対象物の誤検出を抑制できるので、その検出結果に基づく移動体搭載機器の制御を高精度に行うことが可能となる。
(Aspect I)
Using imaged image data obtained by imaging an illumination area illuminated by light source light from a light source device such as the
According to this, it is possible to suppress the erroneous detection of the detection target due to the temperature change of the light source or the optical member or the deterioration over time, so that it is possible to highly accurately control the mobile device-equipped device based on the detection result. Becomes
(態様J)
光源部202等の光源装置からの光源光によって照明される照明領域を画像センサ206等の撮像手段により撮像して得られる撮像画像データを用い、該撮像手段の受光量に基づいて該照明領域内の雨滴等の検出対象物を検出する検出処理を実行する検出処理部102A等の検出処理実行手段と、前記撮像手段によって所定期間内に撮像された複数の撮像画像データに基づいて、該撮像手段の受光量の変動成分のうち所定周波数以下の低周波変動成分を検出する低周波変動成分検出部102D等の低周波変動成分検出手段とを備えた画像解析ユニット102等の検出装置のコンピュータを、前記検出処理実行手段及び前記低周波変動成分検出手段として機能させるための検出用プログラムであって、前記検出処理実行手段は、前記低周波変動成分検出手段により検出した低周波変動成分を用いて、前記検出処理を実行することを特徴とする。
これによれば、光源や光学部材等の温度変化や経時劣化などに起因した検出対象物の誤検出を抑制できる。
なお、このプログラムは、CD−ROM等の記録媒体に記録された状態で配布したり、入手したりすることができる。また、このプログラムを乗せ、所定の送信装置により送信された信号を、公衆電話回線や専用線、その他の通信網等の伝送媒体を介して配信したり、受信したりすることでも、配布、入手が可能である。この配信の際、伝送媒体中には、コンピュータプログラムの少なくとも一部が伝送されていればよい。すなわち、コンピュータプログラムを構成するすべてのデータが、一時に伝送媒体上に存在している必要はない。このプログラムを乗せた信号とは、コンピュータプログラムを含む所定の搬送波に具現化されたコンピュータデータ信号である。また、所定の送信装置からコンピュータプログラムを送信する送信方法には、プログラムを構成するデータを連続的に送信する場合も、断続的に送信する場合も含まれる。
(Aspect J)
Using imaged image data obtained by imaging an illumination area illuminated by light source light from a light source device such as the
According to this, it is possible to suppress the erroneous detection of the detection target due to the temperature change of the light source, the optical member, and the like, or the deterioration over time.
It should be noted that this program can be distributed or obtained while being recorded in a recording medium such as a CD-ROM. Also, by distributing this program and distributing or receiving the signal transmitted by a predetermined transmission device via a transmission medium such as a public telephone line, a leased line, or another communication network, distribution or acquisition Is possible. At the time of this distribution, at least a part of the computer program may be transmitted in the transmission medium. That is, it is not necessary that all the data making up the computer program exist on the transmission medium at one time. The signal carrying the program is a computer data signal embodied on a predetermined carrier wave containing the computer program. Further, the transmission method of transmitting a computer program from a predetermined transmission device includes a case of continuously transmitting the data making up the program and a case of transmitting the data intermittently.
100 自車両
101 撮像ユニット
102 画像解析ユニット
102A 検出処理部
102B 光源制御部
102C 露光量制御部
102D 低周波変動成分検出部
105 フロントガラス
106 ワイパー制御ユニット
107 ワイパー
200 撮像部
202 光源部
203 雨滴
204 撮像レンズ
205 光学フィルタ
206 画像センサ
207 センサ基板
208 信号処理部
230 反射偏向プリズム
100 Own vehicle 101
Claims (8)
前記照明領域が板状の透過部材上の領域であり、前記検出対象物が前記透過部材の一方の面上に付着する付着物であって、前記光源装置と前記撮像手段とが前記透過部材を挟んで前記一方の面とは反対側の面側に配置されており、
前記撮像手段によって所定期間内に前記光源光の点灯時に撮像された複数の前記撮像画像データに基づいて、該撮像手段の受光量の変動成分のうち周波数が所定周波数以下の変動成分である低周波変動成分を検出する低周波変動成分検出手段を有し、
前記検出処理実行手段は、前記低周波変動成分検出手段により検出した低周波変動成分を用いて、前記検出処理を実行することを特徴とする検出装置。
ただし、前記所定周波数は、前記光源装置の光源から前記撮像手段の受光素子までの光源光の光路上に存在する光学部材の光学特性の経時変化によって該撮像手段の受光量が変動する変動成分の周波数以上であるか、又は、前記光源装置の光源の温度変化による発光量変化によって該撮像手段の受光量が変動する変動成分の周波数以上である。 Using the imaged image data at the time of lighting and at the time of light-off obtained by imaging the illumination area illuminated by the light source light from the light source device with the light source light being repeatedly turned on and off, the received light amount of the image pickup means is used. In a detection device provided with a detection process executing means for executing a detection process of detecting a detection target in the illumination area based on:
The illumination area is an area on a plate-shaped transparent member, the detection target is an adherent that adheres to one surface of the transparent member, and the light source device and the image capturing unit include the transparent member. It is arranged on the side of the surface opposite to the one surface sandwiched between,
Based on the plurality of imaged image data captured by the image capturing unit during the lighting of the light source light within a predetermined period, a low frequency component of the variable component of the light receiving amount of the image capturing unit, which has a frequency equal to or lower than a predetermined frequency. Having a low-frequency fluctuation component detection means for detecting fluctuation components,
The detection device, wherein the detection processing execution means executes the detection processing by using the low frequency fluctuation component detected by the low frequency fluctuation component detection means.
However, the predetermined frequency is a variation component in which the amount of light received by the image pickup device fluctuates due to the temporal change of the optical characteristics of the optical member existing on the optical path of the light source light from the light source of the light source device to the light receiving element of the image pickup device. It is equal to or higher than the frequency, or equal to or higher than the frequency of the fluctuation component in which the amount of light received by the imaging unit fluctuates due to the change in the amount of light emission due to the temperature change of the light source of the light source device.
前記検出処理実行手段は、前記低周波変動成分検出手段により検出した低周波変動成分に基づいて前記検出処理で用いる前記撮像手段の受光量を補正し、補正後の受光量に基づいて検出対象物を検出することを特徴とする検出装置。 The detection device according to claim 1,
The detection processing execution means corrects the light reception amount of the image pickup means used in the detection processing based on the low frequency fluctuation component detected by the low frequency fluctuation component detection means, and the detection target object based on the corrected light reception amount. A detection device characterized by detecting.
前記低周波変動成分検出手段は、前記複数の撮像画像データからそれぞれ得られる前記撮像手段の各受光量のデータ群の経時変動成分から前記所定周波数以下の周波数成分を抽出する低周波フィルタ処理を実行して、前記低周波変動成分を検出することを特徴とする検出装置。 The detection device according to claim 1 or 2,
The low-frequency fluctuation component detection means executes low-frequency filter processing for extracting a frequency component below the predetermined frequency from a temporal fluctuation component of a data group of each received light amount of the imaging means obtained from each of the plurality of captured image data. And detecting the low frequency fluctuation component.
前記低周波変動成分検出手段が前記低周波変動成分を検出するのに用いる前記複数の撮像画像データは、前記照明領域内に検出対象物が存在しないときに撮像したものであることを特徴とする検出装置。 In the detection apparatus according to any one of claims 1乃Itaru 3,
The plurality of picked-up image data used by the low-frequency fluctuation component detection unit to detect the low-frequency fluctuation component is picked up when a detection target object does not exist in the illumination area. Detection device.
前記低周波変動成分検出手段は、前記照明領域内に検出対象物が存在するとき、前記複数の撮像画像データとして、前記照明領域内の検出対象物を除去する除去手段を動作させることにより該検出対象物を除去した後の照明領域を前記撮像手段により撮像して得られる撮像画像データを用いることを特徴とする検出装置。 The detection device according to claim 4 ,
When the detection target object exists in the illumination region, the low-frequency fluctuation component detection unit operates the removal unit that removes the detection target object in the illumination region as the plurality of captured image data, thereby performing the detection. A detection device characterized by using picked-up image data obtained by picking up an image of an illumination area after removing an object by the image pickup means.
前記検出処理は、前記撮像手段の受光量に基づいて前記照明領域内の検出対象物の量を検出することを特徴とする検出装置。 In the detection apparatus according to any one of claims 1乃Itaru 5,
The said detection process detects the quantity of the detection target object in the said illumination area based on the light reception amount of the said imaging means, The detection apparatus characterized by the above-mentioned.
前記検出装置の検出結果に基づいて、移動体に搭載された所定の機器を制御する移動体機器制御手段を備えた移動体機器制御システムにおいて、
前記検出装置として、請求項1乃至6のいずれか1項に記載の検出装置を用いることを特徴とする移動体機器制御システム。 A detection device for detecting an object to be detected in the illumination area based on the amount of light received by the imaging means, using imaged image data obtained by imaging the illumination area illuminated by the light source light from the light source device. ,
Based on the detection result of the detection device, in a mobile device control system including a mobile device control means for controlling a predetermined device mounted on a mobile,
Examples detecting device, the mobile device control system, which comprises using a detection device according to any one of claims 1乃optimum 6.
前記照明領域が板状の透過部材上の領域であり、前記検出対象物が前記透過部材の一方の面上に付着する付着物であって、前記光源装置と前記撮像手段とが前記透過部材を挟んで前記一方の面とは反対側の面側に配置される検出装置のコンピュータを、前記検出処理実行手段及び前記低周波変動成分検出手段として機能させるための検出用プログラムであって、
前記検出処理実行手段は、前記低周波変動成分検出手段により検出した低周波変動成分を用いて、前記検出処理を実行することを特徴とする検出用プログラム。
ただし、前記所定周波数は、前記光源装置の光源から前記撮像手段の受光素子までの光源光の光路上に存在する光学部材の光学特性の経時変化によって該撮像手段の受光量が変動する変動成分の周波数以上であるか、又は、前記光源装置の光源の温度変化による発光量変化によって該撮像手段の受光量が変動する変動成分の周波数以上である。 Using the imaged image data at the time of lighting and at the time of light-off obtained by imaging the illumination area illuminated by the light source light from the light source device with the light source light being repeatedly turned on and off, the received light amount of the image pickup means is used. Based on a plurality of the imaged image data imaged by the imager when the light source light is turned on within a predetermined period by the imager to detect a target object in the illumination area. A low-frequency fluctuation component detecting means for detecting a low-frequency fluctuation component whose frequency is a fluctuation component whose frequency is equal to or lower than a predetermined frequency among the fluctuation components of the amount of received light of the image pickup means ,
The illumination area is an area on a plate-shaped transparent member, the detection target is an adherent that adheres to one surface of the transparent member, and the light source device and the image capturing unit include the transparent member. sandwiched therebetween and the one surface of the computer detection device is arranged on the side opposite to a detection program for functioning as the detecting process execution means and the low frequency fluctuation component detecting means,
A detection program, wherein the detection processing execution means executes the detection processing using the low frequency fluctuation component detected by the low frequency fluctuation component detection means.
However, the predetermined frequency is a variation component in which the amount of light received by the image pickup device fluctuates due to the temporal change of the optical characteristics of the optical member existing on the optical path of the light source light from the light source of the light source device to the light receiving element of the image pickup device. It is equal to or higher than the frequency, or equal to or higher than the frequency of the fluctuation component in which the amount of light received by the imaging unit fluctuates due to the change in the amount of light emission due to the temperature change of the light source of the light source device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015072723A JP6701542B2 (en) | 2015-03-31 | 2015-03-31 | Detection device, mobile device control system, and detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015072723A JP6701542B2 (en) | 2015-03-31 | 2015-03-31 | Detection device, mobile device control system, and detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016191674A JP2016191674A (en) | 2016-11-10 |
JP6701542B2 true JP6701542B2 (en) | 2020-05-27 |
Family
ID=57246442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015072723A Expired - Fee Related JP6701542B2 (en) | 2015-03-31 | 2015-03-31 | Detection device, mobile device control system, and detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6701542B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6877604B1 (en) * | 2020-02-20 | 2021-05-26 | 三菱電機株式会社 | In-vehicle camera device and in-vehicle camera component temperature estimation method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02295377A (en) * | 1989-05-10 | 1990-12-06 | Canon Inc | Picture reader |
JP2007110179A (en) * | 2005-10-11 | 2007-04-26 | Noritsu Koki Co Ltd | Image reading apparatus and image reading method |
JP2007209506A (en) * | 2006-02-09 | 2007-08-23 | Pentax Corp | Electronic endoscopic apparatus |
JP4926602B2 (en) * | 2006-08-17 | 2012-05-09 | 能美防災株式会社 | Smoke detector |
JP6243160B2 (en) * | 2013-07-25 | 2017-12-06 | 株式会社日立情報通信エンジニアリング | Shading correction method and scanner apparatus to which the method is applied |
-
2015
- 2015-03-31 JP JP2015072723A patent/JP6701542B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016191674A (en) | 2016-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6468482B2 (en) | IMAGING DEVICE, OBJECT DETECTION DEVICE, AND MOBILE DEVICE CONTROL SYSTEM | |
JP5846485B2 (en) | Adhering matter detection apparatus and adhering matter detection method | |
JP6380843B2 (en) | Object detection apparatus, mobile device control system including the same, and object detection program | |
US9726604B2 (en) | Adhering detection apparatus, adhering substance detection method, storage medium, and device control system for controlling vehicle-mounted devices | |
JP2013029451A (en) | Deposit detection device and deposit detection method | |
JP5936098B2 (en) | Imaging apparatus, object detection apparatus including the same, and optical filter | |
JP2013031054A (en) | Image pickup device and object detection device incorporating the same and optical filter and manufacturing method thereof | |
JP5656131B2 (en) | Imaging unit and installation method thereof | |
US9426377B2 (en) | Image capturing apparatus, image capturing method, storage medium, and device control system for controlling vehicle-mounted devices | |
US20160341848A1 (en) | Object detection apparatus, object removement control system, object detection method, and storage medium storing object detection program | |
JP2014032174A (en) | Imaging device, attachment detection device, apparatus control system for transfer device, and transfer device | |
JP2014044196A (en) | Deposit detector, device control system for mobile device, and moble device | |
JP6555569B2 (en) | Image processing apparatus, mobile device control system, and image processing program | |
JP5858327B2 (en) | IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND POLARIZING FILTER | |
WO2016084359A1 (en) | Imaging device, object detector and mobile device control system | |
JP2016146583A (en) | Imaging device, mobile apparatus control system and program | |
JP2015031564A (en) | Deposit detection device, and equipment control system for transfer device | |
JP2016200528A (en) | Object detection device, moving body-mounted equipment control system, and object detection program | |
JP6701542B2 (en) | Detection device, mobile device control system, and detection program | |
JP2017003531A (en) | Object detection device, object removal operation control system, object detection method, and object detection program | |
JP2015169567A (en) | Deposit detection device, mobile device control system, and deposit detection program | |
JP2016218046A (en) | Object detection device, object removal operation control system, object detection method, and program for object detection | |
JP5891723B2 (en) | Imaging method and imaging unit | |
JP5672583B2 (en) | Imaging device, attached matter detection device, device control system for moving device, and moving device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200416 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6701542 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |