JP5936098B2 - Imaging apparatus, object detection apparatus including the same, and optical filter - Google Patents

Imaging apparatus, object detection apparatus including the same, and optical filter Download PDF

Info

Publication number
JP5936098B2
JP5936098B2 JP2011166612A JP2011166612A JP5936098B2 JP 5936098 B2 JP5936098 B2 JP 5936098B2 JP 2011166612 A JP2011166612 A JP 2011166612A JP 2011166612 A JP2011166612 A JP 2011166612A JP 5936098 B2 JP5936098 B2 JP 5936098B2
Authority
JP
Japan
Prior art keywords
light
image
region
imaging
spectral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011166612A
Other languages
Japanese (ja)
Other versions
JP2013031053A (en
Inventor
平井 秀明
秀明 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011166612A priority Critical patent/JP5936098B2/en
Publication of JP2013031053A publication Critical patent/JP2013031053A/en
Application granted granted Critical
Publication of JP5936098B2 publication Critical patent/JP5936098B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、撮像領域内に存在する物体からの光を、光学フィルタを介して、受光素子が2次元配置された画素アレイで構成された画像センサにより受光することで、撮像領域内を撮像する撮像装置及びこれを備えた物体検出装置、並びに、当該光学フィルタ及びその製造方法に関するものである。   In the present invention, light from an object existing in an imaging region is received by an image sensor configured by a pixel array in which light receiving elements are two-dimensionally arranged through an optical filter, thereby imaging the imaging region. The present invention relates to an imaging device, an object detection device including the same, an optical filter, and a method for manufacturing the same.

特許文献1には、自車両に搭載したカメラ1台で自車両前方を撮像領域とした撮像画像を異なる露光時間で撮像可能なシステムが開示されている。このシステムでは、まず、露光時間が短い高輝度検出用画像(低透過率画像)を撮像した後、続いて、露光時間が長い低輝度検出用画像(高透過率画像)を撮像する。そして、先に撮像した高輝度検出用画像に基づいて対向車両のヘッドランプを識別する画像解析処理を行い、後に撮像した低輝度検出用画像に基づいて先行車両のテールランプを識別する画像解析処理を行う。   Patent Document 1 discloses a system that can capture captured images with different exposure times with the front of the host vehicle as an imaging region using one camera mounted on the host vehicle. In this system, first, a high-luminance detection image (low transmittance image) with a short exposure time is captured, and then a low-luminance detection image (high transmittance image) with a long exposure time is captured. Then, an image analysis process for identifying the headlamp of the oncoming vehicle based on the high-intensity detection image captured first is performed, and an image analysis process for identifying the tail lamp of the preceding vehicle based on the low-intensity detection image captured later. Do.

同一車両のテールランプやヘッドランプは、通常、横方向に一定距離だけ離れた2つで1組のものである。よって、先行車両や対向車両の検出に際しては、これを利用して、撮像画像中における2つのテールランプ又は2つのヘッドランプの画像部分が横方向に一定距離離れている場合に、その1組のテールランプ又は1組のヘッドランプを先行車両又は対向車両のものと認識して、先行車両又は対向車両の検出を行う。   The tail lamps and headlamps of the same vehicle are usually one set of two that are separated by a certain distance in the lateral direction. Therefore, when detecting a preceding vehicle or an oncoming vehicle, when the image portions of two tail lamps or two head lamps in the captured image are separated by a certain distance in the lateral direction, the set of tail lamps is used. Alternatively, a set of headlamps is recognized as that of the preceding vehicle or the oncoming vehicle, and the preceding vehicle or the oncoming vehicle is detected.

ヘッドランプの光はテールランプの光よりも光量が大きい。特に、自車両に近い対向車両のヘッドランプと、自車両から遠い先行車両のテールランプとでは、その光量差が非常に大きなものとなる。そのため、仮に、遠方のテールランプでも適切に識別できるようにカメラの露光時間を設定すると、カメラの画像センサによるヘッドランプの受光量が飽和してブルーミング現象が発生してしまう。これにより、特に自車両近傍のヘッドランプについては、ヘッドランプの画像領域がその周辺まで拡大してしまい、本来は離間して認識されるべき2つのヘッドランプ画像領域が一体の画像領域として認識され、対向車両の検出精度が低下する。逆に、近傍のヘッドランプでも適切に識別できるようにカメラの露光時間を設定すると、今度はテールランプの受光量が不足し、テールランプの画像領域を適切に認識できなくなり、先行車両の検出精度が低下する。   The light from the headlamp is larger than the light from the taillamp. In particular, the difference in the amount of light between the headlamp of the oncoming vehicle close to the host vehicle and the tail lamp of the preceding vehicle far from the host vehicle becomes very large. For this reason, if the exposure time of the camera is set so that even a far tail lamp can be properly identified, the amount of light received by the headlamp by the image sensor of the camera is saturated and a blooming phenomenon occurs. As a result, particularly for headlamps in the vicinity of the host vehicle, the image area of the headlamp expands to the periphery, and two headlamp image areas that should be recognized apart from each other are recognized as an integral image area. The detection accuracy of the oncoming vehicle is reduced. Conversely, if the camera exposure time is set so that even nearby headlamps can be properly identified, the amount of light received by the taillamp will be insufficient, the taillamp image area will not be properly recognized, and the detection accuracy of the preceding vehicle will be reduced. To do.

上記特許文献1に記載のシステムによれば、光量が大きなヘッドランプについては露光時間が短い高輝度検出用画像を用いて識別し、光量が小さいテールランプについては露光時間が長い低輝度検出用画像を用いて識別する。したがって、テールランプとヘッドライトの両方を適切に識別することが可能であり、先行車両と対向車両の両方について高い検出精度を実現することが可能である。   According to the system described in Patent Document 1, a headlamp with a large amount of light is identified using a high-intensity detection image with a short exposure time, and a taillight with a small amount of light is identified with a low-luminance detection image with a long exposure time. Use to identify. Therefore, it is possible to appropriately identify both the tail lamp and the headlight, and it is possible to realize high detection accuracy for both the preceding vehicle and the oncoming vehicle.

ところが、上記特許文献1に記載のシステムでは、ヘッドランプとテールランプの両方を適切に識別するため、露光時間を変えた2回の撮像動作が必要となる。同システムのように、撮像領域内を比較的高速に移動し得る先行車両や対向車両を検出対象物とする場合、これらの検出対象物をできるだけ短い時間間隔で連続的に検出することが望まれる。しかしながら、上記特許文献1に記載のシステムでは、先行車両を検出するための低輝度検出用画像と対向車両を検出するための高輝度検出用画像とを1台のカメラで順番に撮像するので、それぞれの画像を連続して取得するときの時間間隔は、使用するカメラで連続撮像できる時間間隔(フレームレート)の2倍の時間を要する。したがって、上記特許文献1に記載のシステムでは、使用するカメラで連続撮像できる時間間隔と同程度の短い時間間隔で、先行車両と対向車両の両方を連続的に検出することはできないという問題があった。   However, the system described in Patent Document 1 requires two imaging operations with different exposure times in order to properly identify both the headlamp and the taillamp. As in the same system, when a preceding vehicle or an oncoming vehicle that can move in the imaging region at a relatively high speed is set as a detection target, it is desired to detect these detection targets continuously at as short a time interval as possible. . However, in the system described in Patent Document 1, a low-intensity detection image for detecting a preceding vehicle and a high-intensity detection image for detecting an oncoming vehicle are sequentially captured by one camera. The time interval when each image is continuously acquired requires twice as long as the time interval (frame rate) at which continuous imaging can be performed with the camera to be used. Therefore, the system described in Patent Document 1 has a problem that it is impossible to continuously detect both the preceding vehicle and the oncoming vehicle at a time interval as short as the time interval at which continuous imaging can be performed by the camera used. It was.

この問題は、撮像画像からヘッドランプとテールランプを識別して先行車両と対向車両の両方を連続的に検出する場合に限らず、同一撮像領域内に光量が大きく異なっている複数の光源体が存在しており、それらの光源体を撮像画像から適切に認識することが要求されるシステムにおいては、同様に問題となる。   This problem is not limited to the case in which both the preceding vehicle and the oncoming vehicle are detected continuously by identifying the headlamp and taillight from the captured image, and there are a plurality of light source bodies with significantly different amounts of light in the same imaging area. In a system where it is required to appropriately recognize these light source bodies from the captured image, there is a problem as well.

本発明は、以上の問題に鑑みなされたものであり、その目的とするところは、光量が大きく異なっている複数の光源体を、より短い時間間隔で連続して検出することを可能にする撮像装置及びこれを備えた物体検出装置、並びに、当該光学フィルタ及びその製造方法を提供することである。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image pickup that can continuously detect a plurality of light source bodies having greatly different light amounts at shorter time intervals. The present invention provides an apparatus, an object detection apparatus including the apparatus, an optical filter, and a manufacturing method thereof.

上記目的を達成するために、本発明は、撮像領域内に存在する物体からの光を、光学フィルタを介して、受光素子が2次元配置された画素アレイで構成された画像センサにより受光することで、撮像領域内を撮像する撮像装置において、上記光学フィルタは、一様な光が入射したときの透過率が互いに異なる複数種類の光透過領域が、上記画像センサ上における1つの受光素子又は2以上の受光素子で構成される単位領域で、上記画素アレイの2次元方向へ交互に配置されている透過率調整層を有し、上記透過率調整層は、特定方向の偏光成分のみを選択して透過させる金属のワイヤーグリッド構造をもつ光透過部と該光透過部の周囲に配置される金属の遮光部とから構成される第1領域と偏光成分の選択を行わずに光を透過させる光透過部又は該特定方向とは異なる方向の偏光成分のみを選択して透過させる金属のワイヤーグリッド構造をもつ光透過部と該光透過部の周囲に配置される金属の遮光部とから構成される第2領域とが、上記単位領域で領域分割された偏光フィルタ層で構成され、上記透過率が相対的に低い種類の光透過領域は、上記透過率が相対的に高い種類の光透過領域よりも上記光透過部の面積が小さいことを特徴とする。 In order to achieve the above object, according to the present invention, light from an object existing in an imaging region is received by an image sensor including a pixel array in which light receiving elements are two-dimensionally arranged through an optical filter. Thus, in the image pickup apparatus for picking up an image in the image pickup region, the optical filter has a plurality of types of light transmission regions having different transmittances when uniform light is incident on one light receiving element or two on the image sensor. The unit area composed of the light receiving elements described above has a transmittance adjustment layer alternately arranged in the two-dimensional direction of the pixel array, and the transmittance adjustment layer selects only a polarization component in a specific direction. A first region composed of a light transmission part having a metal wire grid structure to be transmitted and a metal light-shielding part disposed around the light transmission part, and transmits light without selecting a polarization component Light transmission Or the second composed of a shielding portion of a metal disposed around the light transmitting portion and a light transmitting portion having a wire grid structure of metal to be transmitted by selecting only the polarization component in a direction different from the said specific direction region and is formed by a polarizing filter layer divided into areas above Kitan position region, the light transmission regions of low the transmittance is relatively kind, the transmittance is relatively more high types of light transmissive region Also, the area of the light transmission part is small .

本発明において、画像センサ上では、透過率調整層における低透過率の光透過領域を透過した光を受光する受光素子と、透過率調整層における高透過率の光透過領域を透過した光を受光する受光素子とが、画像アレイの2次元方向へ交互に位置することになる。これにより、前者の受光素子群からは受光量が相対的に少ない低透過率画像を得ることができるとともに、後者の受光素子群からは受光量が相対的に多い高透過率画像を得ることができる。撮像領域内の光量が比較的多い光源体については低透過率画像を用いて検出し、撮像領域内の光量が比較的少ない光源体については高透過率画像を用いて検出することで、撮像領域内に光量が異なる複数の光源体が存在していても、これらの光源体を適切に検出することができる。そして、本発明においては、一度の撮像動作で、低透過率画像と高透過率画像の両方を得ることができる。よって、低透過率画像と高透過率画像を2回の撮像動作に分けて得ていた従来の撮像装置と比較して、これらの画像を連続撮像できる時間間隔を短いものとすることができる。   In the present invention, on the image sensor, a light receiving element that receives light transmitted through the light transmitting region with low transmittance in the transmittance adjusting layer, and light that has passed through the light transmitting region with high transmittance in the transmittance adjusting layer is received. The light receiving elements to be alternately positioned in the two-dimensional direction of the image array. As a result, a low transmittance image with a relatively small amount of received light can be obtained from the former light receiving element group, and a high transmittance image with a relatively large amount of received light can be obtained from the latter light receiving element group. it can. A light source body with a relatively large amount of light in the imaging region is detected using a low transmittance image, and a light source body with a relatively small amount of light in the imaging region is detected using a high transmittance image. Even if there are a plurality of light source bodies having different light amounts, these light source bodies can be appropriately detected. In the present invention, both a low transmittance image and a high transmittance image can be obtained by a single imaging operation. Therefore, the time interval at which these images can be continuously imaged can be shortened as compared with the conventional imaging device in which the low-transmittance image and the high-transmittance image are obtained by dividing them into two imaging operations.

本発明によれば、比較的光量の少ない光源体と比較的光量の多い光源体とを一度の撮像によって得られる画像データから適切に識別することができるので、光量が大きく異なっている複数の光源体をより短い時間間隔で連続して検出することが可能となるという優れた効果が得られる。   According to the present invention, since a light source body with a relatively small amount of light and a light source body with a relatively large amount of light can be appropriately identified from image data obtained by one imaging, a plurality of light sources having greatly different light amounts An excellent effect is obtained that the body can be continuously detected at shorter time intervals.

実施形態における車載機器制御システムの概略構成を示す模式図である。It is a mimetic diagram showing a schematic structure of an in-vehicle device control system in an embodiment. 同車載機器制御システムにおける撮像ユニットの概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of the imaging unit in the same vehicle equipment control system. 同撮像ユニットに設けられる撮像装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the imaging device provided in the imaging unit. 自車両のフロントガラスの外壁面上の雨滴に撮像レンズの焦点が合っている場合における、雨滴検出用の撮像画像データである赤外光画像データを示す説明図である。It is explanatory drawing which shows the infrared light image data which is the picked-up image data for raindrop detection, when the raindrop on the outer wall surface of the front glass of the own vehicle is focused. 無限遠に焦点が合っている場合における、雨滴検出用の撮像画像データである赤外光画像データを示す説明図である。It is explanatory drawing which shows the infrared light image data which is the picked-up image data for raindrop detection in the case where the focus is infinite. 雨滴検出用の撮像画像データに適用可能なカットフィルタのフィルタ特性を示すグラフである。It is a graph which shows the filter characteristic of the cut filter applicable to the picked-up image data for raindrop detection. 雨滴検出用の撮像画像データに適用可能なバンドパスフィルタのフィルタ特性を示すグラフである。It is a graph which shows the filter characteristic of the band pass filter applicable to the picked-up image data for raindrop detection. 同撮像装置の光学フィルタに設けられる前段フィルタの正面図である。It is a front view of the front | former stage filter provided in the optical filter of the imaging device. 同撮像装置の撮像画像データの画像例を示す説明図である。It is explanatory drawing which shows the example of an image of the captured image data of the imaging device. 同撮像装置の詳細を示す説明図である。2 is an explanatory diagram illustrating details of the imaging apparatus. FIG. 同撮像装置の光学フィルタと画像センサとを光透過方向に対して直交する方向から見たときの模式拡大図である。It is a model enlarged view when the optical filter and image sensor of the imaging device are seen from the direction orthogonal to the light transmission direction. 同光学フィルタの偏光フィルタ層と分光フィルタ層の領域分割パターンを示す説明図である。It is explanatory drawing which shows the area | region division pattern of the polarizing filter layer and spectral filter layer of the same optical filter. 構成例1における光学フィルタを透過して画像センサ上の各フォトダイオードで受光される受光量に対応した情報(各撮像画素の情報)の内容を示す説明図である。It is explanatory drawing which shows the content of the information (information of each imaging pixel) corresponding to the light reception amount which permeate | transmits the optical filter in the structural example 1, and is received by each photodiode on an image sensor. (a)は、図13に示す符号A−Aで切断した光学フィルタ及び画像センサを模式的に表した断面図である。(b)は、図13に示す符号B−Bで切断した光学フィルタ及び画像センサを模式的に表した断面図である。(A) is sectional drawing which represented typically the optical filter and image sensor which were cut | disconnected by the code | symbol AA shown in FIG. (B) is sectional drawing which represented typically the optical filter and image sensor which were cut | disconnected by the code | symbol BB shown in FIG. 同光学フィルタの分光フィルタ層の非分光領域を透過する光の受光量を制限する構成の一例を示す説明図である。It is explanatory drawing which shows an example of the structure which restrict | limits the light reception amount of the light which permeate | transmits the non-spectral area | region of the spectral filter layer of the same optical filter. 同光学フィルタの分光フィルタ層の非分光領域を透過する光の受光量を制限する構成の他の例を示す説明図である。It is explanatory drawing which shows the other example of the structure which restrict | limits the light reception amount of the light which permeate | transmits the non-spectral area | region of the spectral filter layer of the same optical filter. 同光学フィルタの分光フィルタ層の非分光領域を透過する光の受光量を制限する構成の更に他の例を示す説明図である。It is explanatory drawing which shows the further another example of the structure which restrict | limits the light reception amount of the light which permeate | transmits the non-spectral area | region of the spectral filter layer of the same optical filter. 同光学フィルタの分光フィルタ層の非分光領域を透過する光の受光量を制限する構成の更に他の例を示す説明図である。It is explanatory drawing which shows the further another example of the structure which restrict | limits the light reception amount of the light which permeate | transmits the non-spectral area | region of the spectral filter layer of the same optical filter. 同光学フィルタの分光フィルタ層の非分光領域を透過する光の受光量を制限する構成の更に他の例を示す説明図である。It is explanatory drawing which shows the further another example of the structure which restrict | limits the light reception amount of the light which permeate | transmits the non-spectral area | region of the spectral filter layer of the same optical filter. 同光学フィルタの分光フィルタ層の非分光領域を透過する光の受光量を制限する構成の更に他の例を示す説明図である。It is explanatory drawing which shows the further another example of the structure which restrict | limits the light reception amount of the light which permeate | transmits the non-spectral area | region of the spectral filter layer of the same optical filter. 構成例2における光学フィルタを透過して画像センサ上の各フォトダイオードで受光される受光量に対応した情報(各撮像画素の情報)の内容を示す説明図である。It is explanatory drawing which shows the content of the information (information of each imaging pixel) corresponding to the light reception amount which permeate | transmits the optical filter in the structural example 2, and is received by each photodiode on an image sensor. (a)は、図21に示す符号A−Aで切断した光学フィルタ及び画像センサを模式的に表した断面図である。(b)は、図21に示す符号B−Bで切断した光学フィルタ及び画像センサを模式的に表した断面図である。(A) is sectional drawing which represented typically the optical filter and image sensor which were cut | disconnected by the code | symbol AA shown in FIG. (B) is sectional drawing which represented typically the optical filter and image sensor which were cut | disconnected by the code | symbol BB shown in FIG. 構成例3における光学フィルタを透過して画像センサ上の各フォトダイオードで受光される受光量に対応した情報(各撮像画素の情報)の内容を示す説明図である。It is explanatory drawing which shows the content of the information (information of each imaging pixel) corresponding to the light reception amount which permeate | transmits the optical filter in the structural example 3, and is received with each photodiode on an image sensor. (a)は、図23に示す符号A−Aで切断した光学フィルタ及び画像センサを模式的に表した断面図である。(b)は、図23に示す符号B−Bで切断した光学フィルタ及び画像センサを模式的に表した断面図である。(A) is sectional drawing which represented typically the optical filter and image sensor which were cut | disconnected by the code | symbol AA shown in FIG. (B) is sectional drawing which represented typically the optical filter and image sensor which were cut | disconnected by the code | symbol BB shown in FIG. 構成例4における光学フィルタの偏光フィルタ層におけるワイヤーグリッド構造の金属ワイヤーの長手方向を示す説明図である。It is explanatory drawing which shows the longitudinal direction of the metal wire of the wire grid structure in the polarizing filter layer of the optical filter in the structural example 4. 偏光フィルタ層を構成するワイヤーグリッド構造の拡大図である。It is an enlarged view of the wire grid structure which comprises a polarizing filter layer. 分光フィルタ層に適用可能なカットフィルタのフィルタ特性を示すグラフである。It is a graph which shows the filter characteristic of the cut filter applicable to a spectral filter layer. 分光フィルタ層に適用可能なバンドパスフィルタのフィルタ特性を示すグラフである。It is a graph which shows the filter characteristic of the band pass filter applicable to a spectral filter layer. 同撮像装置を用いて、雨の日にヘッドランプからの直接光とヘッドランプの雨路面で反射光(照り返し光)とを撮像し、それぞれの差分偏光度を算出したときのヒストグラムである。It is a histogram when the direct light from a headlamp and the reflected light (reflected light) are imaged on the rainy road surface of a headlamp on the rainy day, and the difference polarization degree is calculated using the same imaging device. 雨路面上を自車両が走行しているときにその進行方向前方のほぼ同一距離に先行車両と対向車両の両方が存在する状況を同撮像装置で撮像した場合の一例を示す模式図である。It is a schematic diagram which shows an example at the time of the own vehicle driving | running | working on a rainy road surface, and when the situation where both a preceding vehicle and an oncoming vehicle exist in substantially the same distance ahead of the advancing direction is imaged with the imaging device. 実施形態における車両検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the vehicle detection process in embodiment. (a)は、路面が湿潤状態である場合の反射光の変化を説明するための説明図である。(b)は、路面が乾燥状態である場合の反射光の変化を説明するための説明図である。(A) is explanatory drawing for demonstrating the change of reflected light when a road surface is a wet state. (B) is explanatory drawing for demonstrating the change of reflected light when a road surface is a dry state. 光強度Iの入射光に対する反射光の水平偏光成分Isと鉛直偏光成分Ipの入射角依存性を示すグラフである。It is a graph which shows the incident angle dependence of the horizontal polarization component Is and the vertical polarization component Ip of the reflected light with respect to the incident light of the light intensity I. 路面金属物を検出する際の撮像画像に対する処理ラインの設定例を示す説明図である。It is explanatory drawing which shows the example of a setting of the process line with respect to the captured image at the time of detecting a road surface metal object. (a)は、路面金属物を含む撮像領域を撮像したモノクロ輝度画像(非分光・非偏光)を示す画像例である。(b)は、同じ撮像領域を撮像した非分光の差分偏光度画像を示す画像例である。(A) is an example of an image showing a monochrome luminance image (non-spectral / non-polarized light) obtained by imaging an imaging region including a road surface metal object. (B) is an image example showing a non-spectral differential polarization degree image obtained by imaging the same imaging region. 立体物を検出する際の撮像画像に対する処理ラインの設定例を示す説明図である。It is explanatory drawing which shows the example of a setting of the process line with respect to the captured image at the time of detecting a solid object. (a)は、立体物を含む撮像領域を撮像したモノクロ輝度画像(非分光・非偏光)を示す画像例である。(b)は、同じ撮像領域を撮像した非分光の差分偏光度画像を示す画像例である。(A) is an example of an image showing a monochrome luminance image (non-spectral / non-polarized light) obtained by imaging an imaging region including a three-dimensional object. (B) is an image example showing a non-spectral differential polarization degree image obtained by imaging the same imaging region. 実験室において、被検物に対し、光源位置を変化させ、固定配置されたカメラで水平偏光成分Sの画像と鉛直偏光成分Pの画像を撮影する実験の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the experiment which changes the light source position with respect to the test object, and image | photographs the image of the horizontal polarization component S and the image of the vertical polarization component P with the camera fixedly arranged in a laboratory. 実験室において、アスファルト面と塗装面を被検物として、光源位置を変化させ、固定配置されたカメラで水平偏光成分Sの画像と鉛直偏光成分Pの画像を撮影する実験を行ったときの実験結果を示すグラフである。Experiments in the laboratory where an asphalt surface and a painted surface were used as test objects, the position of the light source was changed, and an image of the horizontal polarization component S and the vertical polarization component P was captured using a fixed camera. It is a graph which shows a result. (a)は、路端を含む撮像領域を撮像したモノクロ輝度画像(非分光・非偏光)を示す画像例である。(b)は、同じ撮像領域を撮像した非分光の差分偏光度画像を示す画像例である。(A) is an image example showing a monochrome luminance image (non-spectral / non-polarized light) obtained by imaging an imaging region including a road edge. (B) is an image example showing a non-spectral differential polarization degree image obtained by imaging the same imaging region. 実験室において、アスファルト面とコンクリート面を被検物として、光源位置を変化させ、固定配置されたカメラで水平偏光成分Sの画像と鉛直偏光成分Pの画像を撮影する実験を行ったときの実験結果を示すグラフである。Experiments in an experiment where an asphalt surface and a concrete surface were used as test objects, the position of the light source was changed, and an image of a horizontal polarization component S and an image of a vertical polarization component P were taken with a fixed camera. It is a graph which shows a result. (a)は、雨天時において白線を含む撮像領域を撮像したモノクロ輝度画像(非分光・非偏光)と非分光の差分偏光度画像とを示す画像例である。(b)は、雨天時において同じ撮像領域を撮像した非分光の差分偏光度画像を示す画像例である。(A) is an image example showing a monochrome luminance image (non-spectral / non-polarized light) obtained by imaging an imaging region including a white line in rainy weather and a non-spectral differential polarization degree image. (B) is an image example which shows the non-spectral difference polarization degree image which imaged the same imaging area at the time of rainy weather. ブリュースタ角での反射光の偏光状態を示す説明図である。It is explanatory drawing which shows the polarization state of the reflected light in a Brewster angle. (a)は、フロントガラスの外壁面に雨滴が付着していないときの、撮像ユニットにおける光源の発光光量に対する撮像装置の受光量の比率を偏光成分ごとに示したグラフである。(b)は、フロントガラスの外壁面に雨滴が付着しているときの、同光源の発光光量に対する同撮像装置の受光量の比率を偏光成分ごとに示したグラフである。(A) is the graph which showed the ratio of the light reception amount of the imaging device with respect to the emitted light amount of the light source in an imaging unit for every polarization | polarized-light component when the raindrop has not adhered to the outer wall surface of a windshield. (B) is the graph which showed the ratio of the light reception amount of the imaging device with respect to the light emission amount of the light source for each polarization component when raindrops are attached to the outer wall surface of the windshield. (a)は、フロントガラスの外壁面に雨滴が付着していないときの差分偏光度を示すグラフである。(b)は、フロントガラスの外壁面に雨滴が付着しているときの差分偏光度を示すグラフである。(A) is a graph which shows a differential polarization degree when the raindrop does not adhere to the outer wall surface of a windshield. (B) is a graph which shows a differential polarization degree when the raindrop has adhered to the outer wall surface of a windshield. 入射角が50度付近となるように配置したときの雨滴が付着しているフロントガラスの差分偏光度画像を示す画像例である。It is an image example which shows the differential polarization degree image of the windshield to which the raindrop has adhered when arrange | positioning so that an incident angle may be near 50 degree | times.

以下、本発明に係る撮像装置を、車載機器制御システムに用いる一実施形態について説明する。
なお、本発明に係る撮像装置は、車載機器制御システムに限らず、例えば、撮像画像に基づいて物体検出を行う物体検出装置を搭載したその他のシステムにも適用できる。
Hereinafter, an embodiment in which an imaging device according to the present invention is used in an in-vehicle device control system will be described.
The imaging device according to the present invention is not limited to the in-vehicle device control system, and can be applied to other systems equipped with an object detection device that detects an object based on a captured image, for example.

図1は、本実施形態における車載機器制御システムの概略構成を示す模式図である。
本車載機器制御システムは、自動車などの自車両100に搭載された撮像装置で撮像した自車両進行方向前方領域(撮像領域)の撮像画像データを利用して、ヘッドランプの配光制御、ワイパーの駆動制御、その他の車載機器の制御を行うものである。
FIG. 1 is a schematic diagram illustrating a schematic configuration of an in-vehicle device control system according to the present embodiment.
The in-vehicle device control system uses the captured image data of the front area (imaging area) in the traveling direction of the host vehicle captured by the imaging device mounted on the host vehicle 100 such as an automobile, and controls the light distribution of the headlamp and the wiper. It controls drive control and other in-vehicle devices.

本実施形態の車載機器制御システムに設けられる撮像装置は、撮像ユニット101に設けられており、走行する自車両100の進行方向前方領域を撮像領域として撮像するものであり、例えば、自車両100のフロントガラス105のルームミラー(図示せず)付近に設置される。撮像ユニット101の撮像装置で撮像された撮像画像データは、画像解析ユニット102に入力される。画像解析ユニット102は、撮像装置から送信されてくる撮像画像データを解析し、撮像画像データに自車両100の前方に存在する他車両の位置、方角、距離を算出したり、フロントガラス105に付着する雨滴や異物などの付着物を検出したり、撮像領域内に存在する路面上の白線(区画線)等の検出対象物を検出したりする。他車両の検出では、他車両のテールランプを識別することで自車両100と同じ進行方向へ進行する先行車両を検出し、他車両のヘッドランプを識別することで自車両100とは反対方向へ進行する対向車両を検出する。   The imaging device provided in the in-vehicle device control system of the present embodiment is provided in the imaging unit 101, and images the traveling region forward area of the traveling vehicle 100 as an imaging region. The windshield 105 is installed in the vicinity of a room mirror (not shown). The captured image data captured by the imaging device of the imaging unit 101 is input to the image analysis unit 102. The image analysis unit 102 analyzes the captured image data transmitted from the imaging device, calculates the position, direction, and distance of another vehicle existing ahead of the host vehicle 100 in the captured image data, or attaches to the windshield 105. For example, a detection object such as a white line (partition line) on the road surface existing in the imaging region is detected. In the detection of other vehicles, a preceding vehicle traveling in the same traveling direction as the own vehicle 100 is detected by identifying the tail lamp of the other vehicle, and traveling in the opposite direction to the own vehicle 100 by identifying the headlamp of the other vehicle. An oncoming vehicle is detected.

画像解析ユニット102の算出結果は、ヘッドランプ制御ユニット103に送られる。ヘッドランプ制御ユニット103は、例えば、画像解析ユニット102が算出した距離データから、自車両100の車載機器であるヘッドランプ104を制御する制御信号を生成する。具体的には、例えば、先行車両や対向車両の運転者の目に自車両100のヘッドランプの強い光が入射するのを避けて他車両の運転者の幻惑防止を行いつつ、自車両100の運転者の視界確保を実現できるように、ヘッドランプ104のハイビームおよびロービームの切り替えを制御したり、ヘッドランプ104の部分的な遮光制御を行ったりする。   The calculation result of the image analysis unit 102 is sent to the headlamp control unit 103. For example, the headlamp control unit 103 generates a control signal for controlling the headlamp 104 that is an in-vehicle device of the host vehicle 100 from the distance data calculated by the image analysis unit 102. Specifically, for example, while avoiding that the strong light of the headlamp of the own vehicle 100 is incident on the driver of the preceding vehicle or the oncoming vehicle, the driver of the other vehicle is prevented from being dazzled. The switching of the high beam and the low beam of the headlamp 104 is controlled, and partial shading control of the headlamp 104 is performed so that the driver's visibility can be secured.

画像解析ユニット102の算出結果は、ワイパー制御ユニット106にも送られる。ワイパー制御ユニット106は、ワイパー107を制御して、自車両100のフロントガラス105に付着した雨滴や異物などの付着物を除去する。ワイパー制御ユニット106は、画像解析ユニット102が検出した異物検出結果を受けて、ワイパー107を制御する制御信号を生成する。ワイパー制御ユニット106により生成された制御信号がワイパー107に送られると、自車両100の運転者の視界を確保するべく、ワイパー107を稼動させる。   The calculation result of the image analysis unit 102 is also sent to the wiper control unit 106. The wiper control unit 106 controls the wiper 107 to remove deposits such as raindrops and foreign matters attached to the windshield 105 of the host vehicle 100. The wiper control unit 106 receives a foreign object detection result detected by the image analysis unit 102 and generates a control signal for controlling the wiper 107. When the control signal generated by the wiper control unit 106 is sent to the wiper 107, the wiper 107 is operated to ensure the visibility of the driver of the host vehicle 100.

また、画像解析ユニット102の算出結果は、車両走行制御ユニット108にも送られる。車両走行制御ユニット108は、画像解析ユニット102が検出した白線検出結果に基づいて、白線によって区画されている車線領域から自車両100が外れている場合等に、自車両100の運転者へ警告を報知したり、自車両のハンドルやブレーキを制御するなどの走行支援制御を行ったりする。   The calculation result of the image analysis unit 102 is also sent to the vehicle travel control unit 108. Based on the white line detection result detected by the image analysis unit 102, the vehicle travel control unit 108 warns the driver of the host vehicle 100 when the host vehicle 100 is out of the lane area defined by the white line. Notification is performed, and driving support control such as controlling the steering wheel and brake of the host vehicle is performed.

図2は、撮像ユニット101の概略構成を示す模式図である。
図3は、撮像ユニット101に設けられる撮像装置200の概略構成を示す説明図である。
撮像ユニット101は、撮像装置200と、光源202と、これらを収容する撮像ケース201とから構成されている。撮像ユニット101は自車両100のフロントガラス105の内壁面側に設置される。撮像装置200は、図3に示すように、撮像レンズ204と、光学フィルタ205と、画像センサ206とから構成されている。光源202は、フロントガラス105に向けて光を照射し、その光がフロントガラス105の外壁面で反射したときにその反射光が撮像装置200へ入射するように配置されている。
FIG. 2 is a schematic diagram illustrating a schematic configuration of the imaging unit 101.
FIG. 3 is an explanatory diagram illustrating a schematic configuration of the imaging device 200 provided in the imaging unit 101.
The imaging unit 101 includes an imaging device 200, a light source 202, and an imaging case 201 that accommodates these. The imaging unit 101 is installed on the inner wall surface side of the windshield 105 of the host vehicle 100. As shown in FIG. 3, the imaging device 200 includes an imaging lens 204, an optical filter 205, and an image sensor 206. The light source 202 emits light toward the windshield 105 and is arranged so that the reflected light enters the imaging device 200 when the light is reflected by the outer wall surface of the windshield 105.

本実施形態において、光源202は、フロントガラス105の外壁面に付着した付着物(以下、付着物が雨滴である場合を例に挙げて説明する。)を検出するためのものである。フロントガラス105の外壁面に雨滴203が付着していない場合、光源202から照射された光は、フロントガラス105の外壁面と外気との界面で反射し、その反射光が撮像装置200へ入射する。一方、図2に示すように、フロントガラス105の外壁面に雨滴203が付着している場合、フロントガラス105の外壁面と雨滴203との間における屈折率差は、フロントガラス105の外壁面と外気との間の屈折率差よりも小さくなる。そのため、光源202から照射された光は、その界面を透過し、撮像装置200には入射しない。この違いによって、撮像装置200の撮像画像データから、フロントガラス105に付着する雨滴203の検出を行う。   In the present embodiment, the light source 202 is for detecting an adhering matter adhering to the outer wall surface of the windshield 105 (hereinafter, the case where the adhering matter is a raindrop will be described as an example). When raindrops 203 are not attached to the outer wall surface of the windshield 105, the light emitted from the light source 202 is reflected at the interface between the outer wall surface of the windshield 105 and the outside air, and the reflected light enters the imaging device 200. . On the other hand, as shown in FIG. 2, when raindrops 203 are attached to the outer wall surface of the windshield 105, the refractive index difference between the outer wall surface of the windshield 105 and the raindrop 203 is the same as that of the outer wall surface of the windshield 105. It becomes smaller than the refractive index difference from the outside air. For this reason, the light emitted from the light source 202 passes through the interface and does not enter the imaging device 200. Due to this difference, the raindrop 203 adhering to the windshield 105 is detected from the captured image data of the imaging apparatus 200.

また、本実施形態において、撮像ユニット101は、図2に示すとおり、撮像装置200や光源202を、フロントガラス105とともに撮像ケース201で覆っている。このように撮像ケース201で覆うことにより、フロントガラス105の内壁面が曇るような状況であっても、撮像ユニット101で覆われたフロントガラス105が曇ってしまう事態を抑制できる。よって、フロントガラスの曇りによって画像解析ユニット102が誤解析するような事態を抑制でき、画像解析ユニット102の解析結果に基づく各種制御動作を適切に行うことができる。   In the present embodiment, the imaging unit 101 covers the imaging device 200 and the light source 202 with the imaging glass 201 together with the windshield 105 as shown in FIG. By covering with the imaging case 201 in this way, it is possible to suppress a situation where the windshield 105 covered with the imaging unit 101 is fogged even in a situation where the inner wall surface of the windshield 105 is clouded. Therefore, a situation in which the image analysis unit 102 misanalyzes due to fogging of the windshield can be suppressed, and various control operations based on the analysis result of the image analysis unit 102 can be appropriately performed.

ただし、フロントガラス105の曇りを撮像装置200の撮像画像データから検出して、例えば自車両100の空調設備を制御する場合には、撮像装置200に対向するフロントガラス105の部分が他の部分と同じ状況となるように、撮像ケース201の一部に空気の流れる通路を形成してもよい。   However, when the fogging of the windshield 105 is detected from the captured image data of the imaging device 200 and, for example, the air conditioning equipment of the host vehicle 100 is controlled, the portion of the windshield 105 facing the imaging device 200 is different from the other portions. A passage through which air flows may be formed in a part of the imaging case 201 so as to achieve the same situation.

ここで、本実施形態では、撮像レンズ204の焦点位置は、無限遠又は無限遠とフロントガラス105との間に設定している。これにより、フロントガラス105上に付着した雨滴203の検出を行う場合だけでなく、先行車両や対向車両の検出や白線の検出を行う場合にも、撮像装置200の撮像画像データから適切な情報を取得することができる。   Here, in this embodiment, the focal position of the imaging lens 204 is set between infinity or infinity and the windshield 105. Thereby, not only when detecting the raindrop 203 attached on the windshield 105, but also when detecting the preceding vehicle and the oncoming vehicle and detecting the white line, appropriate information is obtained from the captured image data of the imaging device 200. Can be acquired.

例えば、フロントガラス105上に付着した雨滴203の検出を行う場合、撮像画像データ上の雨滴画像の形状は円形状であることが多いので、撮像画像データ上の雨滴候補画像が円形状であるかどうかを判断してその雨滴候補画像が雨滴画像であると識別する形状認識処理を行う。このような形状認識処理を行う場合、フロントガラス105の外壁面上の雨滴203に撮像レンズ204の焦点が合っているよりも、上述したように無限遠又は無限遠とフロントガラス105との間に焦点が合っている方が、多少ピンボケして、雨滴の形状認識率(円形状)が高くなり、雨滴検出性能が高い。   For example, when the raindrop 203 attached on the windshield 105 is detected, the shape of the raindrop image on the captured image data is often circular, so whether the raindrop candidate image on the captured image data is circular. A shape recognition process is performed to determine whether the raindrop candidate image is a raindrop image. When performing such shape recognition processing, the imaging lens 204 is focused on the raindrop 203 on the outer wall surface of the windshield 105, as described above, between infinity or infinity and the windshield 105. The in-focus state is slightly out of focus, the raindrop shape recognition rate (circular shape) is high, and the raindrop detection performance is high.

図4は、フロントガラス105の外壁面上の雨滴203に撮像レンズ204の焦点が合っている場合における、雨滴検出用の撮像画像データである赤外光画像データを示す説明図である。
図5は、無限遠に焦点が合っている場合における、雨滴検出用の撮像画像データである赤外光画像データを示す説明図である。
フロントガラス105の外壁面上の雨滴203に撮像レンズ204の焦点が合っている場合、図4に示すように、雨滴に映り込んだ背景画像203aまでが撮像される。このような背景画像203aは雨滴203の誤検出の原因となる。また、図4に示すように雨滴の一部203bだけ弓状等に輝度が大きくなる場合があり、その大輝度部分の形状すなわち雨滴画像の形状は太陽光の方向や街灯の位置などによって変化する。このような種々変化する雨滴画像の形状を形状認識処理で対応するためには処理負荷が大きく、また認識精度の低下を招く。
FIG. 4 is an explanatory diagram showing infrared light image data that is captured image data for raindrop detection when the imaging lens 204 is focused on the raindrop 203 on the outer wall surface of the windshield 105.
FIG. 5 is an explanatory diagram showing infrared light image data, which is captured image data for raindrop detection, when the focus is set to infinity.
When the imaging lens 204 is focused on the raindrop 203 on the outer wall surface of the windshield 105, the background image 203a reflected in the raindrop is captured as shown in FIG. Such a background image 203 a causes erroneous detection of the raindrop 203. Further, as shown in FIG. 4, only a portion 203b of the raindrop may have a brightness that increases in a bow shape or the like, and the shape of the large brightness portion, that is, the shape of the raindrop image changes depending on the direction of sunlight, the position of the streetlight, etc. . In order to cope with the shape of such variously changing raindrop images by the shape recognition processing, the processing load is large and the recognition accuracy is lowered.

これに対し、無限遠に焦点が合っている場合には、図5に示すように、多少のピンボケが発生する。そのため、背景画像203aの映り込みが撮像画像データに反映されず、雨滴203の誤検出が軽減される。また、多少のピンボケが発生することで、太陽光の方向や街灯の位置などによって雨滴画像の形状が変化する度合いが小さくなり。雨滴画像の形状は常に略円形状となる。よって、雨滴203の形状認識処理の負荷が小さく、また認識精度も高い。   On the other hand, when the image is focused at infinity, some blurring occurs as shown in FIG. For this reason, the reflection of the background image 203a is not reflected in the captured image data, and erroneous detection of the raindrop 203 is reduced. In addition, the occurrence of slight blurring reduces the degree to which the shape of the raindrop image changes depending on the direction of sunlight, the position of the streetlight, and the like. The shape of the raindrop image is always substantially circular. Therefore, the load of the shape recognition process of the raindrop 203 is small, and the recognition accuracy is high.

ただし、無限遠に焦点が合っている場合、遠方を走行する先行車両のテールランプを識別する際に、画像センサ206上のテールランプの光を受光する受光素子が1個程度になることがある。この場合、詳しくは後述するが、テールランプの光がテールランプ色(赤色)を受光する赤色用受光素子に受光されないおそれがあり、その際にはテールランプを認識できず、先行車両の検出ができない。このような不具合を回避しようとする場合には、撮像レンズ204の焦点を無限遠よりも手前に合わせることが好ましい。これにより、遠方を走行する先行車両のテールランプがピンボケするので、テールランプの光を受光する受光素子の数を増やすことができ、テールランプの認識精度が上がり先行車両の検出精度が向上する。   However, when focusing at infinity, when identifying the tail lamp of a preceding vehicle traveling far, there may be about one light receiving element that receives the light of the tail lamp on the image sensor 206. In this case, as will be described in detail later, the light from the tail lamp may not be received by the red light receiving element that receives the tail lamp color (red). In this case, the tail lamp cannot be recognized and the preceding vehicle cannot be detected. In order to avoid such a problem, it is preferable that the imaging lens 204 is focused before infinity. As a result, the tail lamp of the preceding vehicle traveling far is out of focus, so that the number of light receiving elements that receive the light of the tail lamp can be increased, the recognition accuracy of the tail lamp is increased, and the detection accuracy of the preceding vehicle is improved.

撮像ユニット101の光源202には、発光ダイオード(LED)や半導体レーザ(LD)などを用いることができる。また、光源202の発光波長は、例えば可視光や赤外光を用いることができる。ただし、光源202の光で対向車両の運転者や歩行者等を眩惑するのを回避する場合には、可視光よりも波長が長くて画像センサ206の受光感度がおよぶ範囲の波長、例えば800nm以上1000nm以下の赤外光領域の波長を選択するのが好ましい。本実施形態の光源202は、赤外光領域の波長を有する光を照射するものである。   For the light source 202 of the imaging unit 101, a light emitting diode (LED), a semiconductor laser (LD), or the like can be used. Further, for example, visible light or infrared light can be used as the emission wavelength of the light source 202. However, in order to avoid dazzling the driver or pedestrian of the oncoming vehicle with the light of the light source 202, the wavelength is longer than the visible light and the light receiving sensitivity of the image sensor 206 reaches, for example, 800 nm or more. It is preferable to select a wavelength in the infrared light region of 1000 nm or less. The light source 202 of the present embodiment emits light having a wavelength in the infrared light region.

ここで、フロントガラス105で反射した光源202からの赤外波長光を撮像装置200で撮像する際、撮像装置200の画像センサ206では、光源202からの赤外波長光のほか、例えば太陽光などの赤外波長光を含む大光量の外乱光も受光される。よって、光源202からの赤外波長光をこのような大光量の外乱光と区別するためには、光源202の発光量を外乱光よりも十分に大きくする必要があるが、このような大発光量の光源202を用いることは困難である場合が多い。   Here, when infrared imaging light from the light source 202 reflected by the windshield 105 is imaged by the imaging device 200, the image sensor 206 of the imaging device 200 uses, for example, sunlight as well as infrared wavelength light from the light source 202. A large amount of disturbance light including the infrared wavelength light is also received. Therefore, in order to distinguish the infrared wavelength light from the light source 202 from such a large amount of disturbance light, it is necessary to make the light emission amount of the light source 202 sufficiently larger than the disturbance light. It is often difficult to use an amount of light source 202.

そこで、本実施形態においては、例えば、図6に示すように光源202の発光波長よりも短い波長の光をカットするようなカットフィルタか、もしくは、図7に示すように透過率のピークが光源202の発光波長とほぼ一致したバンドパスフィルタを介して、光源202からの光を画像センサ206で受光するように構成する。これにより、光源202の発光波長以外の光を除去して受光できるので、画像センサ206で受光される光源202からの光量は、外乱光に対して相対的に大きくなる。その結果、大発光量の光源202でなくても、光源202からの光を外乱交と区別することが可能となる。   Therefore, in the present embodiment, for example, a cut filter that cuts light having a wavelength shorter than the emission wavelength of the light source 202 as shown in FIG. 6, or a peak of transmittance as shown in FIG. The light from the light source 202 is received by the image sensor 206 through a bandpass filter that substantially matches the emission wavelength of 202. As a result, light other than the emission wavelength of the light source 202 can be removed and received, so that the amount of light from the light source 202 received by the image sensor 206 is relatively large with respect to disturbance light. As a result, even if the light source 202 does not have a large light emission amount, the light from the light source 202 can be distinguished from disturbance.

ただし、本実施形態においては、撮像画像データから、フロントガラス105上の雨滴203を検出するだけでなく、先行車両や対向車両の検出や白線の検出も行う。そのため、撮像画像全体について光源202が照射する赤外波長光以外の波長帯を除去してしまうと、先行車両や対向車両の検出や白線の検出に必要な波長帯の光を画像センサ206で受光できず、これらの検出に支障をきたす。そこで、本実施形態では、撮像画像データの画像領域を、フロントガラス105上の雨滴203を検出するための雨滴検出用画像領域と、先行車両や対向車両の検出や白線の検出を行うための車両検出用画像領域とに区分し、雨滴検出用画像領域に対応する部分についてのみ光源202が照射する赤外波長光以外の波長帯を除去するフィルタを、光学フィルタ205に配置している。   However, in the present embodiment, not only the raindrop 203 on the windshield 105 is detected from the captured image data, but also the preceding vehicle and the oncoming vehicle and the white line are detected. Therefore, if the wavelength band other than the infrared wavelength light emitted by the light source 202 is removed from the entire captured image, the image sensor 206 receives light in the wavelength band necessary for detection of the preceding vehicle and oncoming vehicle and detection of the white line. This cannot be done and hinders these detections. Therefore, in the present embodiment, the image area of the captured image data, the raindrop detection image area for detecting the raindrop 203 on the windshield 105, the vehicle for detecting the preceding vehicle and the oncoming vehicle and the white line are detected. A filter that removes a wavelength band other than the infrared wavelength light emitted from the light source 202 only in a portion corresponding to the raindrop detection image region is arranged in the optical filter 205. The filter is divided into detection image regions.

図8は、光学フィルタ205に設けられる前段フィルタ210の正面図である。
図9は、撮像画像データの画像例を示す説明図である。
本実施形態の光学フィルタ205は、図3に示したように、前段フィルタ210と後段フィルタ220とを光透過方向に重ね合わせた構造となっている。前段フィルタ210は、図8に示すように、車両検出用画像領域213である撮像画像上部2/3に対応する箇所に配置される赤外光カットフィルタ領域211と、雨滴検出用画像領域214である撮像画像下部1/3に対応する箇所に配置される赤外光透過フィルタ領域212とに、領域分割されている。赤外光透過フィルタ領域212には、図6に示したカットフィルタや図7に示したバンドパスフィルタを用いる。
FIG. 8 is a front view of the front-stage filter 210 provided in the optical filter 205.
FIG. 9 is an explanatory diagram illustrating an example of captured image data.
As shown in FIG. 3, the optical filter 205 of the present embodiment has a structure in which a front-stage filter 210 and a rear-stage filter 220 are overlapped in the light transmission direction. As shown in FIG. 8, the front-stage filter 210 includes an infrared light cut filter area 211 and a raindrop detection image area 214 that are arranged at locations corresponding to the upper two-third captured image, which is the vehicle detection image area 213. The region is divided into an infrared light transmission filter region 212 arranged at a position corresponding to a lower one third of a captured image. For the infrared light transmission filter region 212, the cut filter shown in FIG. 6 or the band-pass filter shown in FIG. 7 is used.

対向車両のヘッドランプ及び先行車両のテールランプ並びに白線の画像は、主に撮像画像上部に存在することが多く、撮像画像下部には自車両前方の直近路面の画像が存在するのが通常である。よって、対向車両のヘッドランプ及び先行車両のテールランプ並びに白線の識別に必要な情報は撮像画像上部に集中しており、その識別において撮像画像下部の情報はあまり重要でない。よって、単一の撮像画像データから、対向車両や先行車両あるいは白線の検出と雨滴の検出とを両立して行う場合には、図9に示すように、撮像画像下部を雨滴検出用画像領域214とし、残りの撮像画像上部を車両検出用画像領域213とし、これに対応して前段フィルタ210を領域分割するのが好適である。   In many cases, the headlamp of the oncoming vehicle, the tail lamp of the preceding vehicle, and the white line image are mainly present in the upper part of the captured image, and the image of the nearest road surface in front of the host vehicle is usually present in the lower part of the captured image. Therefore, the information necessary for identifying the head lamp of the oncoming vehicle, the tail lamp of the preceding vehicle, and the white line is concentrated on the upper portion of the captured image, and the information on the lower portion of the captured image is not so important in the identification. Therefore, when both oncoming vehicle, preceding vehicle, or white line detection and raindrop detection are performed simultaneously from a single captured image data, as shown in FIG. It is preferable that the upper portion of the remaining captured image is the vehicle detection image region 213 and the pre-filter 210 is divided into regions corresponding to this.

撮像装置200の撮像方向を下方へ傾けていくと、撮像領域内の下部に自車両のボンネットが入り込んでくる場合がある。この場合、自車両のボンネットで反射した太陽光や先行車両のテールランプなどが外乱光となり、これが撮像画像データに含まれることで対向車両のヘッドランプ及び先行車両のテールランプ並びに白線の誤識別の原因となる。このような場合でも、本実施形態では、撮像画像下部に対応する箇所に図6に示したカットフィルタや図7に示したバンドパスフィルタが配置されているので、ボンネットで反射した太陽光や先行車両のテールランプなどの外乱光が除去される。よって、対向車両のヘッドランプ及び先行車両のテールランプ並びに白線の識別精度が向上する。   When the imaging direction of the imaging apparatus 200 is tilted downward, the hood of the host vehicle may enter the lower part of the imaging area. In this case, sunlight reflected by the bonnet of the host vehicle or the tail lamp of the preceding vehicle becomes disturbance light, which is included in the captured image data, which may cause misidentification of the head lamp of the oncoming vehicle, the tail lamp of the preceding vehicle, and the white line. Become. Even in such a case, in this embodiment, the cut filter shown in FIG. 6 and the bandpass filter shown in FIG. Disturbance light such as the tail lamp of the vehicle is removed. Therefore, the head lamp of the oncoming vehicle, the tail lamp of the preceding vehicle, and the white line identification accuracy are improved.

なお、本実施形態では、撮像レンズ204の特性により、撮像領域内の光景と画像センサ206上の像とでは天地が逆になる。よって、撮像画像下部を雨滴検出用画像領域214とする場合には、光学フィルタ205の前段フィルタ210の上部を図6に示したカットフィルタや図7に示したバンドパスフィルタで構成することになる。   In this embodiment, due to the characteristics of the imaging lens 204, the scene in the imaging area and the image on the image sensor 206 are upside down. Therefore, when the lower portion of the captured image is used as the raindrop detection image region 214, the upper portion of the upstream filter 210 of the optical filter 205 is configured by the cut filter shown in FIG. 6 or the bandpass filter shown in FIG. .

ここで、先行車両を検出する際には、撮像画像上のテールランプを識別することで先行車両の検出を行うが、テールランプは対向車両のヘッドランプと比較して光量が少なく、また街灯などの外乱光も多く存在するため、単なる輝度データのみからテールランプを高精度に検出するのは困難である。そのため、テールランプの識別には分光情報を利用し、赤色光の受光量に基づいてテールランプを識別することが必要となる。そこで、本実施形態では、後述するように、光学フィルタ205の後段フィルタ220に、テールランプの色に合わせた赤色フィルタあるいはシアンフィルタ(テールランプの色の波長帯のみを透過させるフィルタ)を配置し、赤色光の受光量を検知できるようにしている。   Here, when the preceding vehicle is detected, the preceding vehicle is detected by identifying the tail lamp on the captured image. However, the tail lamp has a smaller amount of light compared to the headlamp of the oncoming vehicle, and disturbance such as street lights. Since there is a lot of light, it is difficult to detect the tail lamp with high accuracy only from mere luminance data. Therefore, it is necessary to identify the tail lamp based on the amount of received red light using spectral information for identifying the tail lamp. Therefore, in this embodiment, as will be described later, a red filter or a cyan filter (a filter that transmits only the wavelength band of the tail lamp color) that matches the color of the tail lamp is disposed in the subsequent filter 220 of the optical filter 205, and the red color. The amount of light received can be detected.

ただし、本実施形態の画像センサ206を構成する各受光素子は、赤外波長帯の光に対しても感度を有するので、赤外波長帯を含んだ光を画像センサ206で受光すると、得られる撮像画像は全体的に赤みを帯びたものとなってしまう。その結果、テールランプに対応する赤色の画像部分を識別することが困難となる場合がある。そこで、本実施形態では、光学フィルタ205の前段フィルタ210において、車両検出用画像領域213に対応する箇所を赤外光カットフィルタ領域211としている。これにより、テールランプの識別に用いる撮像画像データ部分から赤外波長帯が除外されるので、テールランプの識別精度が向上する。   However, since each light receiving element constituting the image sensor 206 of the present embodiment has sensitivity to light in the infrared wavelength band, it is obtained when the image sensor 206 receives light including the infrared wavelength band. The captured image becomes reddish as a whole. As a result, it may be difficult to identify the red image portion corresponding to the tail lamp. Therefore, in the present embodiment, the portion corresponding to the vehicle detection image region 213 in the upstream filter 210 of the optical filter 205 is the infrared light cut filter region 211. Thereby, since the infrared wavelength band is excluded from the captured image data portion used for identifying the tail lamp, the identification accuracy of the tail lamp is improved.

図10は、本実施形態における撮像装置200の詳細を示す説明図である。
この撮像装置200は、主に、撮像レンズ204と、光学フィルタ205と、2次元配置された画素アレイを有する画像センサ206を含んだセンサ基板207と、センサ基板207から出力されるアナログ電気信号(画像センサ206上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データを生成して出力する信号処理部208とから構成されている。被写体(検出対象物)を含む撮像領域からの光は、撮像レンズ204を通り、光学フィルタ205を透過して、画像センサ206でその光強度に応じた電気信号に変換される。信号処理部208では、画像センサ206から出力される電気信号(アナログ信号)が入力されると、その電気信号から、撮像画像データとして、画像センサ206上における各画素の明るさ(輝度)を示すデジタル信号を、画像の水平・垂直同期信号とともに後段のユニットへ出力する。
FIG. 10 is an explanatory diagram showing details of the imaging apparatus 200 in the present embodiment.
The imaging apparatus 200 mainly includes an imaging lens 204, an optical filter 205, a sensor substrate 207 including an image sensor 206 having a two-dimensionally arranged pixel array, and an analog electrical signal ( The signal processing unit 208 generates and outputs captured image data obtained by converting the received light amount received by each light receiving element on the image sensor 206 into a digital electric signal. Light from the imaging region including the subject (detection target) passes through the imaging lens 204, passes through the optical filter 205, and is converted into an electrical signal corresponding to the light intensity by the image sensor 206. In the signal processing unit 208, when an electrical signal (analog signal) output from the image sensor 206 is input, the brightness (luminance) of each pixel on the image sensor 206 is shown as captured image data from the electrical signal. The digital signal is output to the subsequent unit together with the horizontal / vertical synchronizing signal of the image.

図11は、光学フィルタ205と画像センサ206とを光透過方向に対して直交する方向から見たときの模式拡大図である。
画像センサ206は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いたイメージセンサであり、その受光素子にはフォトダイオード206Aを用いている。フォトダイオード206Aは、画素ごとに2次元的にアレイ配置されており、フォトダイオード206Aの集光効率を上げるために、各フォトダイオード206Aの入射側にはマイクロレンズ206Bが設けられている。この画像センサ206がワイヤボンディングなどの手法によりPWB(printed wiring board)に接合されてセンサ基板207が形成されている。
FIG. 11 is a schematic enlarged view when the optical filter 205 and the image sensor 206 are viewed from a direction orthogonal to the light transmission direction.
The image sensor 206 is an image sensor using a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, and a photodiode 206A is used as a light receiving element thereof. The photodiodes 206A are two-dimensionally arranged for each pixel, and a microlens 206B is provided on the incident side of each photodiode 206A in order to increase the light collection efficiency of the photodiode 206A. The image sensor 206 is bonded to a PWB (printed wiring board) by a technique such as wire bonding to form a sensor substrate 207.

画像センサ206のマイクロレンズ206B側の面には、光学フィルタ205が近接配置されている。光学フィルタ205の後段フィルタ220は、図11に示すように、透明なフィルタ基板221上に偏光フィルタ層222と分光フィルタ層223を順次形成して積層構造としたものである。偏光フィルタ層222と分光フィルタ層223は、いずれも、画像センサ206上における1つのフォトダイオード206Aに対応するように領域分割されている。   An optical filter 205 is disposed close to the surface of the image sensor 206 on the micro lens 206B side. As shown in FIG. 11, the post filter 220 of the optical filter 205 has a laminated structure in which a polarizing filter layer 222 and a spectral filter layer 223 are sequentially formed on a transparent filter substrate 221. Each of the polarizing filter layer 222 and the spectral filter layer 223 is divided into regions corresponding to one photodiode 206A on the image sensor 206.

光学フィルタ205と画像センサ206との間に空隙がある構成としてもよいが、光学フィルタ205を画像センサ206に密着させる構成とした方が、光学フィルタ205の偏光フィルタ層222と分光フィルタ層223の各領域の境界と画像センサ206上のフォトダイオード206A間の境界とを一致させやすくなる。光学フィルタ205と画像センサ206は、例えば、UV接着剤で接合してもよいし、撮像に用いる有効画素範囲外でスペーサにより支持した状態で有効画素外の四辺領域をUV接着や熱圧着してもよい。   A configuration may be adopted in which there is a gap between the optical filter 205 and the image sensor 206, but the configuration in which the optical filter 205 is in close contact with the image sensor 206 is different from the polarization filter layer 222 and the spectral filter layer 223 of the optical filter 205. It becomes easy to make the boundary of each area | region and the boundary between photodiode 206A on the image sensor 206 correspond. The optical filter 205 and the image sensor 206 may be bonded with, for example, a UV adhesive, or UV bonding or thermocompression bonding is performed on the four side areas outside the effective pixel while being supported by the spacer outside the effective pixel range used for imaging. Also good.

図12は、本実施形態に係る光学フィルタ205の偏光フィルタ層222と分光フィルタ層223の領域分割パターンを示す説明図である。
偏光フィルタ層222と分光フィルタ層223は、それぞれ、第1領域及び第2領域という2種類の領域が、画像センサ206上の1つのフォトダイオード206Aに対応して配置されたものである。これにより、画像センサ206上の各フォトダイオード206Aによって受光される受光量は、受光する光が透過した偏光フィルタ層222と分光フィルタ層223の領域の種類に応じて、偏光情報や分光情報等として取得することができる。
FIG. 12 is an explanatory diagram showing a region division pattern of the polarizing filter layer 222 and the spectral filter layer 223 of the optical filter 205 according to the present embodiment.
In the polarizing filter layer 222 and the spectral filter layer 223, two types of regions, a first region and a second region, are arranged corresponding to one photodiode 206A on the image sensor 206, respectively. As a result, the amount of light received by each photodiode 206A on the image sensor 206 is determined as polarization information, spectral information, or the like depending on the types of regions of the polarizing filter layer 222 and the spectral filter layer 223 through which the received light is transmitted. Can be acquired.

なお、本実施形態では、画像センサ206はモノクロ画像用の撮像素子を前提にして説明するが、画像センサ206をカラー用撮像素子で構成してもよい。カラー用撮像素子で構成する場合、カラー用撮像素子の各撮像画素に付属するカラーフィルタの特性に応じて、偏光フィルタ層222と分光フィルタ層223の各領域の光透過特性を調整してやればよい。   In the present embodiment, the image sensor 206 is described on the assumption of an image sensor for monochrome images, but the image sensor 206 may be configured with a color image sensor. In the case of the color image sensor, the light transmission characteristics of the polarizing filter layer 222 and the spectral filter layer 223 may be adjusted according to the characteristics of the color filter attached to each image pickup pixel of the color image sensor.

〔光学フィルタの構成例1〕
ここで、本実施形態における光学フィルタ205の一構成例(以下、本構成例を「構成例1」という。)について説明する。なお、以下の光学フィルタ205の説明では、光学フィルタ205の前段フィルタ210については省略し、後段フィルタ220についてのみ説明する。
図13は、本構成例1における光学フィルタ205を透過して画像センサ206上の各フォトダイオード206Aで受光される受光量に対応した情報(各撮像画素の情報)の内容を示す説明図である。
図14(a)は、図13に示す符号A−Aで切断した光学フィルタ205及び画像センサ206を模式的に表した断面図である。
図14(b)は、図13に示す符号B−Bで切断した光学フィルタ205及び画像センサ206を模式的に表した断面図である。
[Configuration example 1 of optical filter]
Here, a configuration example of the optical filter 205 in the present embodiment (hereinafter, this configuration example will be referred to as “configuration example 1”) will be described. In the following description of the optical filter 205, the pre-filter 210 of the optical filter 205 is omitted, and only the post-filter 220 is described.
FIG. 13 is an explanatory diagram illustrating the content of information (information about each imaging pixel) corresponding to the amount of light received by each photodiode 206A on the image sensor 206 through the optical filter 205 in the first configuration example. .
FIG. 14A is a cross-sectional view schematically showing the optical filter 205 and the image sensor 206 cut along the line AA shown in FIG.
FIG. 14B is a cross-sectional view schematically showing the optical filter 205 and the image sensor 206 cut along the line BB shown in FIG.

本構成例1の光学フィルタ205は、図14(a)及び(b)に示すように、透明なフィルタ基板221の上に偏光フィルタ層222を形成した後、その上に分光フィルタ層223を形成して積層構造としたものである。そして、偏光フィルタ層222は、ワイヤーグリッド構造を有するものであり、その積層方向上面(図14中下側面)は凹凸面となる。このような凹凸面上にそのまま分光フィルタ層223を形成しようとすると、分光フィルタ層223がその凹凸面に沿って形成され、分光フィルタ層223の層厚ムラが生じて本来の分光性能が得られない場合がある。そこで、本実施形態の光学フィルタ205は、偏光フィルタ層222の積層方向上面側を充填材で充填して平坦化した後、その上に分光フィルタ層223を形成している。   As shown in FIGS. 14A and 14B, in the optical filter 205 of Configuration Example 1, after forming the polarizing filter layer 222 on the transparent filter substrate 221, the spectral filter layer 223 is formed thereon. Thus, a laminated structure is obtained. The polarizing filter layer 222 has a wire grid structure, and the upper surface in the stacking direction (the lower side surface in FIG. 14) is an uneven surface. If an attempt is made to form the spectral filter layer 223 directly on such an uneven surface, the spectral filter layer 223 is formed along the uneven surface, resulting in uneven thickness of the spectral filter layer 223 and obtaining the original spectral performance. There may not be. Therefore, in the optical filter 205 of the present embodiment, the upper surface side in the stacking direction of the polarizing filter layer 222 is filled with a filler and planarized, and then the spectral filter layer 223 is formed thereon.

充填材としては、この充填材によって凹凸面が平坦化される偏光フィルタ層222の機能を妨げない材料であればよいので、本実施形態では偏光機能を有しない材料のものを用いる。また、充填材による平坦化処理は、例えば、スピンオングラス法によって充填材を塗布する方法が好適に採用できるが、これに限られるものではない。   As the filler, any material that does not hinder the function of the polarizing filter layer 222 whose uneven surface is flattened by the filler may be used. In this embodiment, a material having no polarization function is used. In addition, as the planarization treatment with the filler, for example, a method of applying the filler by a spin-on-glass method can be suitably employed, but the present invention is not limited to this.

本構成例1において、偏光フィルタ層222の第1領域は、画像センサ206の撮像画素の縦列(鉛直方向)に平行に振動する鉛直偏光成分のみを選択して透過させる鉛直偏光領域であり、偏光フィルタ層222の第2領域は、画像センサ206の撮像画素の横列(水平方向)に平行に振動する水平偏光成分のみを選択して透過させる水平偏光領域である。
また、分光フィルタ層223の第1領域は、偏光フィルタ層222を透過可能な使用波長帯域に含まれる赤色波長帯(特定波長帯)の光のみを選択して透過させる赤色分光領域であり、分光フィルタ層223の第2領域は、波長選択を行わずに光を透過させる非分光領域である。そして、本構成例1においては、図13に一点鎖線で囲ったように、隣接する縦2つ横2つの合計4つの撮像画素(符号a、b、e、fの4撮像画素)によって撮像画像データの1画像画素が構成される。
In the first configuration example, the first area of the polarization filter layer 222 is a vertical polarization area that selects and transmits only a vertical polarization component that vibrates parallel to the column (vertical direction) of the imaging pixels of the image sensor 206. The second region of the filter layer 222 is a horizontal polarization region that selects and transmits only the horizontal polarization component that vibrates in parallel with the row (horizontal direction) of the imaging pixels of the image sensor 206.
The first region of the spectral filter layer 223 is a red spectral region that selectively transmits only light in the red wavelength band (specific wavelength band) included in the usable wavelength band that can be transmitted through the polarizing filter layer 222. The second region of the filter layer 223 is a non-spectral region that transmits light without performing wavelength selection. And in this structural example 1, as enclosed with the dashed-dotted line in FIG. 13, it is a picked-up image by a total of four image pick-up pixels (4 image pick-up pixels of code | symbol a, b, e, and f) which adjoin 2 lengthwise and 2 width. One image pixel of data is constructed.

図13に示す撮像画素aでは、光学フィルタ205の偏光フィルタ層222における鉛直偏光領域(第1領域)と分光フィルタ層223の赤色分光領域(第1領域)を透過した光が受光される。したがって、撮像画素aは、鉛直偏光成分(図13中符号Pで示す。)の赤色波長帯(図13中符号Rで示す。)の光P/Rを受光することになる。
また、図13に示す撮像画素bでは、光学フィルタ205の偏光フィルタ層222における鉛直偏光領域(第1領域)と分光フィルタ層223の非分光領域(第2領域)を透過した光が受光される。したがって、撮像画素bは、鉛直偏光成分Pにおける非分光(図13中符号Cで示す。)の光P/Cを受光することになる。
また、図13に示す撮像画素eでは、光学フィルタ205の偏光フィルタ層222における水平偏光領域(第2領域)と分光フィルタ層223の非分光領域(第2領域)を透過した光が受光される。したがって、撮像画素eは、水平偏光成分(図13中符号Sで示す。)における非分光Cの光S/Cを受光することになる。
図13に示す撮像画素fでは、光学フィルタ205の偏光フィルタ層222における鉛直偏光領域(第1領域)と分光フィルタ層223の赤色分光領域(第1領域)を透過した光が受光される。したがって、撮像画素fは、撮像画素aと同様、鉛直偏光成分Pにおける赤色波長帯Rの光P/Rを受光することになる。
In the imaging pixel a shown in FIG. 13, light that has passed through the vertical polarization region (first region) in the polarization filter layer 222 of the optical filter 205 and the red spectral region (first region) of the spectral filter layer 223 is received. Therefore, the imaging pixel a receives light P / R in the red wavelength band (indicated by symbol R in FIG. 13) of the vertically polarized component (indicated by symbol P in FIG. 13).
In addition, in the imaging pixel b illustrated in FIG. 13, light transmitted through the vertical polarization region (first region) in the polarization filter layer 222 of the optical filter 205 and the non-spectral region (second region) of the spectral filter layer 223 is received. . Therefore, the imaging pixel b receives light P / C of non-spectral light (indicated by symbol C in FIG. 13) in the vertical polarization component P.
In addition, in the imaging pixel e illustrated in FIG. 13, light transmitted through the horizontal polarization region (second region) in the polarization filter layer 222 of the optical filter 205 and the non-spectral region (second region) of the spectral filter layer 223 is received. . Therefore, the imaging pixel e receives the non-spectral C light S / C in the horizontal polarization component (indicated by symbol S in FIG. 13).
In the imaging pixel f illustrated in FIG. 13, light transmitted through the vertical polarization region (first region) in the polarization filter layer 222 of the optical filter 205 and the red spectral region (first region) of the spectral filter layer 223 is received. Therefore, the imaging pixel f receives the light P / R in the red wavelength band R in the vertical polarization component P, similarly to the imaging pixel a.

以上の構成により、本構成例1によれば、撮像画素aおよび撮像画素fの出力信号から赤色光の鉛直偏光成分画像についての一画像画素が得られ、撮像画素bの出力信号から非分光の鉛直偏光成分画像についての一画像画素が得られ、撮像画素eの出力信号から非分光の水平偏光成分画像についての一画像画素が得られる。よって、本構成例1によれば、一度の撮像動作により、赤色光の鉛直偏光成分画像、非分光の鉛直偏光成分画像、非分光の水平偏光成分画像という3種類の撮像画像データを得ることができる。   With the above configuration, according to the present configuration example 1, one image pixel for the vertical polarization component image of red light is obtained from the output signals of the imaging pixel a and the imaging pixel f, and non-spectral is obtained from the output signal of the imaging pixel b. One image pixel for the vertical polarization component image is obtained, and one image pixel for the non-spectral horizontal polarization component image is obtained from the output signal of the imaging pixel e. Therefore, according to the present configuration example 1, three types of captured image data, that is, a vertical polarization component image of red light, a non-spectral vertical polarization component image, and a non-spectral horizontal polarization component image can be obtained by a single imaging operation. it can.

なお、これらの撮像画像データでは、その画像画素の数が撮像画素数よりも少なくなるが、より高解像度の画像を得る際には一般に知られる画像補間技術を用いてもよい。例えば、より高い解像度である赤色光の鉛直偏光成分画像を得ようとする場合、撮像画素aと撮像画素fに対応する画像画素についてはこれらの撮像画素a,fで受光した赤色光の鉛直偏光成分Pの情報をそのまま使用し、撮像画素bに対応する画像画素については、例えばその周囲を取り囲む撮像画素a,c,f,jの平均値を当該画像画素の赤色光の鉛直偏光成分の情報として使用する。
また、より高い解像度である非分光の水平偏光成分画像を得ようとする場合、撮像画素eに対応する画像画素についてはこの撮像画素eで受光した非分光の水平偏光成分Sの情報をそのまま使用し、撮像画素a,b,fに対応する画像画素については、その周囲で非分光の水平偏光成分を受光する撮像画素eや撮像画素gなどの平均値を使用したり、撮像画素eと同じ値を使用したりしてもよい。
In these captured image data, the number of image pixels is smaller than the number of captured pixels, but a generally known image interpolation technique may be used to obtain a higher resolution image. For example, when trying to obtain a vertical polarization component image of red light having a higher resolution, the vertical polarization of the red light received by the imaging pixels a and f for the imaging pixel a and the imaging pixel f. For the image pixel corresponding to the imaging pixel b using the information of the component P as it is, for example, the average value of the imaging pixels a, c, f, and j surrounding the periphery is used as information on the vertical polarization component of the red light of the image pixel. Use as
Further, when obtaining a non-spectral horizontal polarization component image having a higher resolution, the information of the non-spectral horizontal polarization component S received by the imaging pixel e is used as it is for the image pixel corresponding to the imaging pixel e. For the image pixels corresponding to the imaging pixels a, b, and f, an average value of the imaging pixel e and the imaging pixel g that receives the non-spectral horizontal polarized light component around it is used, or the same as the imaging pixel e. Or a value may be used.

このようにして得られる赤色光の鉛直偏光成分画像は、例えば、テールランプの識別に使用することができる。赤色光の鉛直偏光成分画像は、水平偏光成分Sがカットされているので、路面に反射した赤色光や自車両100の室内におけるダッシュボードなどからの赤色光(映りこみ光)等のように水平偏光成分Sの強い赤色光による外乱要因が抑制された赤色画像を得ることができる。よって、赤色光の鉛直偏光成分画像をテールランプの識別に使用することで、テールランプの認識率が向上する。   The vertically polarized component image of red light obtained in this way can be used, for example, for identifying a tail lamp. Since the vertical polarization component image of the red light has the horizontal polarization component S cut off, the red light is horizontal, such as red light reflected on the road surface or red light (reflection light) from the dashboard of the vehicle 100 or the like. It is possible to obtain a red image in which a disturbance factor due to red light having a strong polarization component S is suppressed. Therefore, the recognition rate of the tail lamp is improved by using the vertical polarization component image of the red light for the identification of the tail lamp.

また、非分光の鉛直偏光成分画像は、例えば、白線や対向車両のヘッドランプの識別に使用することができる。非分光の水平偏光成分画像は、水平偏光成分Sがカットされているので、路面に反射したヘッドランプや街灯等の白色光や自車両100の室内におけるダッシュボードなどからの白色光(映りこみ光)等のように水平偏光成分Sの強い白色光による外乱要因が抑制された非分光画像を得ることができる。よって、非分光の鉛直偏光成分画像を白線や対向車両のヘッドランプの識別に使用することで、その認識率が向上する。特に、雨路において、路面を覆った水面からの反射光は水平偏光成分Sが多いことが一般に知られている。よって、非分光の鉛直偏光成分画像を白線の識別に使用することで、雨路における水面下の白線を適切に識別することが可能となり、認識率が向上する。   The non-spectral vertical polarization component image can be used, for example, for identifying a white line or a headlamp of an oncoming vehicle. In the non-spectral horizontal polarization component image, since the horizontal polarization component S is cut off, white light such as a headlamp or a streetlight reflected on the road surface, white light from a dashboard in the interior of the vehicle 100, etc. (reflection light) A non-spectral image in which disturbance factors due to white light with a strong horizontal polarization component S are suppressed can be obtained. Therefore, the recognition rate is improved by using the non-spectral vertically polarized component image for identifying the white line and the headlamp of the oncoming vehicle. In particular, it is generally known that the reflected light from the water surface covering the road surface has a large amount of horizontal polarization component S in a rainy road. Therefore, by using the non-spectral vertical polarization component image for white line identification, it becomes possible to appropriately identify the white line under the water surface in the rainy road, and the recognition rate is improved.

また、非分光の鉛直偏光成分画像と非分光の水平偏光成分画像との間で各画素値を比較した指標値を画素値とした比較画像を用いれば、後述するように、撮像領域内の金属物体、路面の乾湿状態、撮像領域内の立体物、雨路における白線の高精度な識別が可能となる。ここで用いる比較画像としては、例えば、非分光の鉛直偏光成分画像と非分光の水平偏光成分画像との間の画素値の差分値を画素値とした差分画像、これらの画像間の画素値の比率を画素値とした比率画像、あるいは、これらの画像間の画素値の合計に対するこれらの画像間の画素値の差分値の比率(差分偏光度)を画素値とした差分偏光度画像などを使用することができる。   In addition, if a comparison image using pixel values as index values obtained by comparing pixel values between a non-spectral vertical polarization component image and a non-spectral horizontal polarization component image is used, as described later, the metal in the imaging region It is possible to accurately identify an object, a wet and dry state of a road surface, a three-dimensional object in an imaging region, and a white line on a rainy road. As a comparison image used here, for example, a difference image in which a pixel value is a difference value between a non-spectral vertical polarization component image and a non-spectral horizontal polarization component image, or a pixel value between these images. Use a ratio image with the ratio as the pixel value, or a differential polarization degree image with the ratio of the difference value of the pixel values between these images to the sum of the pixel values between these images (difference polarization degree) as the pixel value can do.

なお、本実施形態の光学フィルタ205は、図13に示したように領域分割された偏光フィルタ層222及び分光フィルタ層223を有する後段フィルタ220が、図8に示したように上下2分割された前段フィルタ210よりも画像センサ206側に設けられているが、前段フィルタ210を後段フィルタ220よりも画像センサ206側に設けてもよい。また、図13に示したように領域分割された偏光フィルタ層222及び分光フィルタ層223は、雨滴検出には必ずしも必要ではないため、これらの偏光フィルタ層222及び分光フィルタ層223は、雨滴検出用画像領域214に対応する箇所すなわち前段フィルタ210の赤外光透過フィルタ領域212との対向箇所には設けないように構成してもよい。   In the optical filter 205 of the present embodiment, the rear-stage filter 220 having the polarizing filter layer 222 and the spectral filter layer 223 divided as shown in FIG. 13 is divided into upper and lower parts as shown in FIG. Although it is provided on the image sensor 206 side with respect to the front-stage filter 210, the front-stage filter 210 may be provided on the image sensor 206 side with respect to the rear-stage filter 220. Further, as shown in FIG. 13, the region-divided polarizing filter layer 222 and spectral filter layer 223 are not necessarily required for raindrop detection. Therefore, these polarizing filter layer 222 and spectral filter layer 223 are used for raindrop detection. You may comprise so that it may not provide in the location corresponding to the image area | region 214, ie, the location facing the infrared light transmission filter area | region 212 of the front | former stage filter 210. FIG.

また、本構成例1では、分光フィルタ層223の非分光領域に対応して、受光量を制限するための開口制限部が設けられている。すなわち、分光フィルタ層223の非分光領域は、赤色分光領域よりも透過率が低くなるように構成されている。これにより、本構成例1においては、分光フィルタ層223の非分光領域を介して得られる非分光の鉛直偏光成分画像及び非分光の水平偏光成分画像は、分光フィルタ層223の赤色分光領域を介して得られる赤色光の鉛直偏光成分画像よりも、少ない受光量によって生成されたものとなる。   In the first configuration example, an aperture limiting unit for limiting the amount of received light is provided corresponding to the non-spectral region of the spectral filter layer 223. That is, the non-spectral region of the spectral filter layer 223 is configured to have a lower transmittance than the red spectral region. Thereby, in this configuration example 1, the non-spectral vertical polarization component image and the non-spectral horizontal polarization component image obtained through the non-spectral region of the spectral filter layer 223 are transmitted through the red spectral region of the spectral filter layer 223. Thus, it is generated with a smaller amount of received light than the vertically polarized component image of red light obtained in this way.

分光フィルタ層223の非分光領域を透過する光の受光量を制限する構成(すなわち透過率を低くする構成)としては、分光フィルタ層223の非分光領域に対応して、図15に示すように、透過率調整層としての偏光フィルタ層222の撮像画素中央部に円形状のワイヤーグリッド構造を形成し、その周辺部をアルミニウムのベタ膜とする構成が挙げられる。この構成によれば、アルミニウムのベタ膜では遮光されるので、ワイヤーグリッド構造を形成する領域の広狭(開口率)によって、分光フィルタ層223の非分光領域を透過する光の受光量を制限することができる。なお、ワイヤーグリッド構造を形成する領域形状は、図15に示した円形状に限らず、例えば、図16に示すような略四角形状であってもよい。図16に示すように角部を有する形状とする場合、その角部にRを持たせた方がエッチング加工などで形状寸法を出しやすい。   As a configuration for limiting the amount of light received through the non-spectral region of the spectral filter layer 223 (that is, a configuration for reducing the transmittance), as shown in FIG. 15, corresponding to the non-spectral region of the spectral filter layer 223. A configuration in which a circular wire grid structure is formed in the central portion of the imaging pixel of the polarizing filter layer 222 as a transmittance adjusting layer, and the peripheral portion thereof is a solid aluminum film. According to this configuration, since the solid aluminum film is shielded from light, the amount of light transmitted through the non-spectral region of the spectral filter layer 223 is limited by the width (aperture ratio) of the region forming the wire grid structure. Can do. In addition, the area | region shape which forms a wire grid structure is not restricted to the circular shape shown in FIG. 15, For example, a substantially square shape as shown in FIG. 16 may be sufficient. As shown in FIG. 16, in the case of a shape having a corner, it is easier to obtain a shape dimension by etching or the like if the corner has R.

ワイヤーグリッド構造の偏光フィルタ層222は、例えば、フィルタ基板221上にアルミニウム膜を均一に形成した後にエッチング加工等によりアルミニウム膜を部分的に除去してワイヤーグリッド構造を得るという製造方法が一般的である。本構成例1のように、ワイヤーグリッド構造の周辺部にアルミニウムの遮光領域を設けて開口制限を行う場合には、ワイヤーグリッド構造の形成時にその周辺部のアルミニウム膜を残すように加工することで開口制限することができる。よって、偏光フィルタ層222とは別個に開口制限用の加工を行う場合よりも、製造工程を簡略化できる。   For example, the polarizing filter layer 222 having a wire grid structure is generally manufactured by forming an aluminum film uniformly on the filter substrate 221 and then partially removing the aluminum film by etching or the like to obtain a wire grid structure. is there. In the case where an aluminum light-shielding region is provided in the periphery of the wire grid structure to limit the opening as in the configuration example 1, by processing so as to leave the aluminum film in the periphery when the wire grid structure is formed. The opening can be limited. Therefore, the manufacturing process can be simplified as compared with the case where the aperture limiting process is performed separately from the polarizing filter layer 222.

もちろん、偏光フィルタ層222とは別個に、図17に示すような開口制限層(透過率調整層)を設けてもよい。この場合、その開口制限層の撮像画素中央部にはワイヤーグリッド構造が形成されず、そのまま光を透過する開口部となる。
また、開口制限を行う遮光領域は、上述したようなアルミニウム膜等の反射膜(光反射材)に限定されるものではなく、例えば光を吸収する膜(光吸収材)で形成してもよい。例えば、図18に示すように、ブラックレジストのベタ膜によって遮光領域を形成したものでもよい。この場合も、開口部は、図18に示した円形状に限らず、例えば、図19に示すような略四角形状であってもよい。図19に示すように角部を有する形状とする場合、その角部にRを持たせた方がエッチング加工などで形状寸法を出しやすい。
また、光を透過する開口部は1つの撮像画素に対して1つである必要はなく、1つの撮像画素に対して複数の開口部あるいはワイヤーグリッド構造領域を形成してもよい。また、遮光領域も、1つの撮像画素に対して1つである必要はなく、1つの撮像画素に対して複数の遮光部を形成してもよい。特に、遮光領域は、撮像画素の周辺部に設ける必要はなく、例えば、図20に示すように、ワイヤーグリッド構造の中にアルミニウムのベタ膜を離散的に配置した構成としてもよい。
Of course, an aperture limiting layer (transmittance adjusting layer) as shown in FIG. 17 may be provided separately from the polarizing filter layer 222. In this case, a wire grid structure is not formed in the center of the imaging pixel of the aperture limiting layer, and the aperture is an aperture that transmits light as it is.
Further, the light-shielding region for limiting the opening is not limited to the above-described reflective film (light reflecting material) such as an aluminum film, and may be formed of, for example, a film that absorbs light (light absorbing material). . For example, as shown in FIG. 18, a light shielding region may be formed by a solid film of black resist. Also in this case, the opening is not limited to the circular shape shown in FIG. 18 and may be, for example, a substantially square shape as shown in FIG. As shown in FIG. 19, in the case of a shape having a corner, it is easier to obtain a shape dimension by etching or the like if the corner has R.
Further, the number of openings that transmit light is not necessarily one for one imaging pixel, and a plurality of openings or wire grid structure regions may be formed for one imaging pixel. Further, the number of light shielding regions is not necessarily one for one imaging pixel, and a plurality of light shielding portions may be formed for one imaging pixel. In particular, the light shielding region does not need to be provided in the peripheral portion of the imaging pixel. For example, as shown in FIG. 20, a solid aluminum film may be discretely arranged in a wire grid structure.

本構成例1では、開口制限がされていない高透過率の赤色分光領域を介して得られる赤色光の鉛直偏光成分画像と、開口制限がされていて透過率が低い非分光領域を介して得られる非分光の鉛直偏光成分画像及び非分光の水平偏光成分画像という3種類の撮像画像データを得ることができる。本構成例1において、赤色光の鉛直偏光成分画像を用いてテールランプを識別した結果から先行車両を検出するとともに、非分光の鉛直偏光成分画像や非分光の水平偏光成分画像を用いてヘッドランプを識別した結果から対向車両を検出する。テールランプやヘッドランプは、通常、水平方向に一定距離だけ離れた2つで1組のものである。よって、先行車両や対向車両の検出に際しては、これを利用して、撮像画像中における2つのテールランプ又は2つのヘッドランプの画像部分が一定距離離れている場合に、その1組のテールランプ又は1組のヘッドランプを先行車両又は対向車両のものとして認識する。このとき、ヘッドランプは、テールランプよりも光量が大きい光源体であるため、テールランプの光を適切に受光できる受光感度に設定すると、ヘッドランプの受光量が飽和してしまい、1つのヘッドランプとして認識される画像領域が拡大し、本来は離間して認識される2つのヘッドランプ画像領域が一体の画像領域となってしまい、ヘッドランプの画像領域を適切に認識できず、対向車両の認識率が低下する。逆に、ヘッドランプの光を適切に受光できる受光感度に設定すると、光量の少ない光源体であるテールランプの受光量が不足して、テールランプの画像領域を適切に認識できず、今度は先行車両の認識率が低下する。   In the first configuration example, a vertical polarization component image of red light obtained through a high-transmittance red spectral region that is not aperture-limited, and a non-spectral region that is aperture-limited and has low transmittance. Three types of captured image data can be obtained: a non-spectral vertical polarization component image and a non-spectral horizontal polarization component image. In the first configuration example, the preceding vehicle is detected from the result of identifying the tail lamp using the vertical polarization component image of red light, and the headlamp is mounted using the non-spectral vertical polarization component image and the non-spectral horizontal polarization component image. An oncoming vehicle is detected from the identified result. Tail lamps and head lamps are usually a set of two that are separated by a certain distance in the horizontal direction. Therefore, when detecting the preceding vehicle or the oncoming vehicle, when the image parts of the two tail lamps or the two head lamps in the captured image are separated by a certain distance, the one set of tail lamps or one set is used. Are recognized as those of the preceding vehicle or the oncoming vehicle. At this time, since the headlamp is a light source that has a larger amount of light than the tail lamp, if the light sensitivity is set so that the tail lamp can receive light appropriately, the received light quantity of the head lamp is saturated and recognized as one head lamp. The image area to be enlarged is enlarged, and two headlamp image areas that are originally recognized apart from each other become an integrated image area, and the image area of the headlamp cannot be properly recognized, and the recognition rate of the oncoming vehicle is increased. descend. On the other hand, if the light receiving sensitivity is set so that the light from the headlamp can be received properly, the amount of light received by the tail lamp, which is a light source with a small amount of light, is insufficient, and the tail lamp image area cannot be recognized properly. Recognition rate decreases.

本構成例1によれば、ヘッドランプの識別に用いる非分光の鉛直偏光成分画像及び非分光の水平偏光成分画像は、上述した開口制限により受光量が制限されたものである。よって、受光量が制限されていない赤色光の鉛直偏光成分画像を用いて識別されるテールランプに合わせて受光感度を設定しても、ヘッドランプの受光量が飽和する事態が抑制され、個々のヘッドランプの画像領域を個別に識別できるようになり、対向車両の認識率の低下が抑制される。   According to the first configuration example, the non-spectral vertical polarization component image and the non-spectral horizontal polarization component image used for identification of the headlamps are those in which the received light amount is limited by the aperture limitation described above. Therefore, even if the light reception sensitivity is set according to the tail lamp identified using the vertical polarization component image of red light whose light reception amount is not limited, the situation where the light reception amount of the headlamp is saturated is suppressed, and each head The image area of the lamp can be individually identified, and the decrease in the recognition rate of the oncoming vehicle is suppressed.

なお、例えば受光感度を切り替えて別々に撮像した撮像画像からヘッドランプの識別とテールランプの識別とを行うことにより、ヘッドランプとテールランプの識別を両立させることもできる。しかしながら、この場合には、受光感度を切り替えるなどの制御機構が必要となる上、撮像画像データのフレームレートが半分に落ち込むという不具合がある。これに対し、本構成例1によれば、このような不具合なく、ヘッドランプとテールランプの識別を両立させることができる。   In addition, for example, by identifying the headlamp and the tail lamp from the picked-up images picked up separately by switching the light receiving sensitivity, the head lamp and the tail lamp can be identified at the same time. However, in this case, a control mechanism such as switching the light receiving sensitivity is required, and the frame rate of the captured image data drops to half. On the other hand, according to the present configuration example 1, it is possible to achieve both headlamp and taillamp identification without such problems.

〔光学フィルタの構成例2〕
次に、本実施形態における光学フィルタ205の他の構成例(以下、本構成例を「構成例2」という。)について説明する。
図21は、本構成例2における光学フィルタ205を透過して画像センサ206上の各フォトダイオード206Aで受光される受光量に対応した情報(各撮像画素の情報)の内容を示す説明図である。
図22(a)は、図21に示す符号A−Aで切断した光学フィルタ205及び画像センサ206を模式的に表した断面図である。
図22(b)は、図21に示す符号B−Bで切断した光学フィルタ205及び画像センサ206を模式的に表した断面図である。
[Configuration example 2 of optical filter]
Next, another configuration example of the optical filter 205 in the present embodiment (hereinafter referred to as “configuration example 2”) will be described.
FIG. 21 is an explanatory diagram illustrating the contents of information (information about each imaging pixel) corresponding to the amount of light received by each photodiode 206A on the image sensor 206 through the optical filter 205 in the second configuration example. .
FIG. 22A is a cross-sectional view schematically showing the optical filter 205 and the image sensor 206 cut along the line AA shown in FIG.
FIG. 22B is a cross-sectional view schematically showing the optical filter 205 and the image sensor 206 cut along the line BB shown in FIG.

上記構成例1では、分光フィルタ層223の第1領域が、赤色波長帯の光のみを選択して透過させる赤色分光領域であったが、本構成例2では、偏光フィルタ層222を透過可能な使用波長帯域に含まれるシアン色波長帯(図21中符号Cyで示す。)の光のみを選択して透過させるシアン分光領域である。その他の構成は上記構成例1と同様である。   In the above configuration example 1, the first region of the spectral filter layer 223 is a red spectral region that selectively transmits only light in the red wavelength band, but in this configuration example 2, it can transmit through the polarizing filter layer 222. This is a cyan spectral region in which only light in the cyan wavelength band (indicated by reference numeral Cy in FIG. 21) included in the used wavelength band is selected and transmitted. Other configurations are the same as those in the first configuration example.

本構成例2によれば、撮像画素aおよび撮像画素fの出力信号からシアン光の鉛直偏光成分画像についての一画像画素が得られ、撮像画素bの出力信号から非分光の鉛直偏光成分画像についての一画像画素が得られ、撮像画素eの出力信号から非分光の水平偏光成分画像についての一画像画素が得られる。よって、本構成例2によれば、一度の撮像動作により、シアン光の鉛直偏光成分画像、非分光の鉛直偏光成分画像、非分光の水平偏光成分画像という3種類の撮像画像データを得ることができる。   According to the second configuration example, one image pixel for the vertical polarization component image of cyan light is obtained from the output signals of the imaging pixel a and the imaging pixel f, and the non-spectral vertical polarization component image is obtained from the output signal of the imaging pixel b. One image pixel is obtained, and one image pixel for the non-spectral horizontal polarization component image is obtained from the output signal of the imaging pixel e. Therefore, according to the second configuration example, it is possible to obtain three types of captured image data of a cyan light vertical polarization component image, a non-spectral vertical polarization component image, and a non-spectral horizontal polarization component image by a single imaging operation. it can.

本構成例2では、このようにして得られる3種類の撮像画像データにより、上記構成例1の場合と同様に、各種識別対象(テールランプ、ヘッドランプ、白線等)の認識率が向上する。
更に、本構成例2によれば、シアン光の鉛直偏光成分画像と非分光の鉛直偏光成分画像との比較画像を用いることが可能となり、このような比較画像を用いることでテールランプの高精度な識別が可能となる。すなわち、テールランプの光は、シアン分光領域を透過した撮像画素では受光量が少なく、非分光領域を透過した撮像画素では受光量が多い。よって、この違いが反映されるように、シアン光の鉛直偏光成分画像と非分光の鉛直偏光成分画像との比較画像を生成すれば、テールランプとその周囲の背景部分とのコントラストを大きくでき、テールランプの認識率が向上する。
In the second configuration example, the three types of captured image data obtained in this way improve the recognition rate of various identification objects (tail lamp, headlamp, white line, etc.) as in the first configuration example.
Furthermore, according to the second configuration example, it is possible to use a comparative image between a cyan light vertical polarization component image and a non-spectral vertical polarization component image. By using such a comparison image, the tail lamp has high accuracy. Identification becomes possible. That is, the amount of light received from the tail lamp is small in the imaging pixels that have passed through the cyan spectral region, and the light reception amount is large in the imaging pixels that have passed through the non-spectral region. Therefore, in order to reflect this difference, if the comparison image of the vertical polarization component image of cyan light and the non-spectral vertical polarization component image is generated, the contrast between the tail lamp and the surrounding background portion can be increased. Recognition rate is improved.

また、本構成例2では、上記構成例1の赤色フィルタを用いた赤色分光領域に代えて、シアン色の光のみを透過させるシアンフィルタを用いたシアン分光領域を用いているので、上記構成例1の場合よりも、先行車両が自車両に近いときのテールランプと対向車両のヘッドランプとの識別能力が高い。上記構成例1のように赤色分光領域を用いた場合、自車両に近い先行車両のテールランプについては、その赤色分光領域を通じた受光量が受光感度が無くなるほど大きくなって飽和する場合がある。そのため、自車両に近い先行車両のテールランプの認識率が低下するおそれがある。これに対し、本構成例2のようにシアン分光領域を用いた場合、自車両に近い先行車両のテールランプについて、そのシアン分光領域を通じた受光量が飽和することなく、自車両に近い先行車両のテールランプの認識率が低下するのを抑制できる。   Further, in the present configuration example 2, instead of the red spectral region using the red filter of the above configuration example 1, a cyan spectral region using a cyan filter that transmits only cyan light is used. Compared with the case of 1, the discriminating ability between the tail lamp when the preceding vehicle is close to the host vehicle and the head lamp of the oncoming vehicle is higher. When the red spectral region is used as in the configuration example 1, the tail light of the preceding vehicle close to the host vehicle may become saturated as the amount of light received through the red spectral region becomes larger as the light sensitivity is lost. Therefore, there is a possibility that the recognition rate of the tail lamp of the preceding vehicle close to the host vehicle is lowered. On the other hand, when the cyan spectral region is used as in Configuration Example 2, the amount of light received through the cyan spectral region is not saturated with respect to the tail lamp of the preceding vehicle close to the own vehicle, and the preceding vehicle close to the own vehicle is not saturated. It can suppress that the recognition rate of a tail lamp falls.

〔光学フィルタの構成例3〕
次に、本実施形態における光学フィルタ205の更に他の構成例(以下、本構成例を「構成例3」という。)について説明する。
図23は、本構成例3における光学フィルタ205を透過して画像センサ206上の各フォトダイオード206Aで受光される受光量に対応した情報(各撮像画素の情報)の内容を示す説明図である。
図24(a)は、図23に示す符号A−Aで切断した光学フィルタ205及び画像センサ206を模式的に表した断面図である。
図24(b)は、図23に示す符号B−Bで切断した光学フィルタ205及び画像センサ206を模式的に表した断面図である。
[Configuration Example 3 of Optical Filter]
Next, still another configuration example of the optical filter 205 in the present embodiment (hereinafter referred to as “configuration example 3”) will be described.
FIG. 23 is an explanatory diagram illustrating the content of information (information about each imaging pixel) corresponding to the amount of light received by each photodiode 206A on the image sensor 206 through the optical filter 205 in the third configuration example. .
FIG. 24A is a cross-sectional view schematically showing the optical filter 205 and the image sensor 206 cut along the line AA shown in FIG.
FIG. 24B is a cross-sectional view schematically showing the optical filter 205 and the image sensor 206 cut along the line BB shown in FIG.

上記構成例1では、光学フィルタ205に分光フィルタ層223が設けられていたが、本構成例3では、分光フィルタ層223が光学フィルタ205に設けられていない。
また、上記構成例1では、光学フィルタ205の偏光フィルタ層222が、2×2の撮像画素で構成される1画像画素のうち、3つの撮像画素に鉛直偏光領域が対応し、残り1つの撮像画素に水平偏光領域が対応するように、領域分割された構成であった。これに対し、本構成例3では、鉛直偏光領域と水平偏光領域とが水平方向及び垂直方向について撮像画素単位で交互に配置されている。そのため、2×2の撮像画素で構成される1画像画素のうちの2つの撮像画素が鉛直偏光領域に対応し、残り2つの撮像画素が水平偏光領域に対応している。
In the configuration example 1, the spectral filter layer 223 is provided in the optical filter 205, but in the configuration example 3, the spectral filter layer 223 is not provided in the optical filter 205.
Further, in the above configuration example 1, the polarization filter layer 222 of the optical filter 205 corresponds to three imaging pixels among the one image pixel configured by 2 × 2 imaging pixels, and the remaining one imaging The area was divided so that the horizontal polarization area corresponds to the pixel. On the other hand, in the configuration example 3, the vertical polarization region and the horizontal polarization region are alternately arranged in the imaging pixel unit in the horizontal direction and the vertical direction. Therefore, two image pickup pixels of one image pixel constituted by 2 × 2 image pickup pixels correspond to the vertical polarization region, and the remaining two image pickup pixels correspond to the horizontal polarization region.

そして、本構成例3では、図23に示すように、1画像画素に対応する2つの鉛直偏光領域のうちの一方に受光量を制限するための開口制限部が設けられ、また、1画像画素に対応する2つの水平偏光領域のうちの一方に受光量を制限するための開口制限部が設けられている。したがって、本構成例3によれば、撮像画素aの出力信号に基づいて少ない受光量で生成される非分光の鉛直偏光成分画像が得られ、撮像画素bの出力信号に基づいて少ない受光量で生成される非分光の水平偏光成分画像が得られ、撮像画素eの出力信号に基づいて多くの受光量で生成される非分光の鉛直偏光成分画像が得られ、撮像画素fの出力信号に基づいて多くの受光量で生成される非分光の水平偏光成分画像が得られる。すなわち、受光量(露光量)が互いに異なる2つの非分光の鉛直偏光成分画像と、受光量(露光量)が互いに異なる2つの非分光の水平偏光成分画像とが、一度の撮像動作により入手できる。   And in this structural example 3, as shown in FIG. 23, the opening restriction | limiting part for restrict | limiting a light reception amount is provided in one of the two vertical polarization areas corresponding to 1 image pixel, and 1 image pixel Is provided with an aperture limiting portion for limiting the amount of received light in one of the two horizontal polarization regions corresponding to. Therefore, according to the third configuration example, a non-spectral vertical polarization component image generated with a small amount of received light based on the output signal of the imaging pixel a is obtained, and with a small amount of received light based on the output signal of the imaging pixel b. A generated non-spectral horizontal polarization component image is obtained, and a non-spectral vertical polarization component image generated with a large amount of received light is obtained based on the output signal of the imaging pixel e. Based on the output signal of the imaging pixel f Thus, a non-spectral horizontal polarization component image generated with a large amount of received light can be obtained. That is, two non-spectral vertical polarization component images having different light reception amounts (exposure amounts) and two non-spectral horizontal polarization component images having different light reception amounts (exposure amounts) can be obtained by one imaging operation. .

本構成例3では、光学フィルタ205に分光フィルタ層223が設けられていないので、分光情報は得られないが、上述したように、受光量(露光量)が互いに異なる2つの非分光の鉛直偏光成分画像と、受光量(露光量)が互いに異なる2つの非分光の水平偏光成分画像という4種類の画像が得られる。この場合でも、輝度の違いからテールランプとヘッドランプを識別して、先行車両及び対向車両の検出を行うことが可能である。   In the third configuration example, since the spectral filter layer 223 is not provided in the optical filter 205, spectral information cannot be obtained. However, as described above, two non-spectral vertically polarized light beams having different received light amounts (exposure amounts) are used. Four types of images are obtained: a component image and two non-spectral horizontally polarized component images having different received light amounts (exposure amounts). Even in this case, it is possible to detect the preceding vehicle and the oncoming vehicle by identifying the tail lamp and the head lamp from the difference in luminance.

また、本構成例3によれば、受光量(露光量)が少ない非分光の鉛直偏光成分画像と水平偏光成分画像とから受光量(露光量)が少ない差分偏光度画像を得ることができ、かつ、受光量(露光量)が多い非分光の鉛直偏光成分画像と水平偏光成分画像とから受光量(露光量)が多い差分偏光度画像を、一度の撮影により得ることができる。したがって、差分偏光度画像を用いて識別可能な複数種類の光源体が撮像領域内に存在していて、それらの光源体の光量が大きく異なっている場合でも、本構成例3によれば、各種の光源体に適した受光量(露光量)で撮像した2種類の差分偏光度画像によって、これらの光源体をより短い時間間隔で連続して適切に識別することが可能である。   Further, according to the configuration example 3, a differential polarization degree image with a small amount of received light (exposure amount) can be obtained from a non-spectral vertical polarization component image and a horizontal polarization component image with a small amount of received light (exposure amount). In addition, a differential polarization degree image with a large amount of received light (exposure amount) can be obtained from a non-spectral vertical polarization component image and a horizontal polarization component image with a large amount of received light (exposure amount) by one photographing. Therefore, even when a plurality of types of light source bodies that can be identified using the differential polarization degree image exist in the imaging region and the light amounts of these light source bodies are greatly different, according to the present configuration example 3, By using two types of differential polarization degree images picked up with a light reception amount (exposure amount) suitable for the light source body, it is possible to appropriately identify these light source bodies continuously at shorter time intervals.

〔光学フィルタの構成例4〕
次に、本実施形態における光学フィルタ205の更に他の構成例(以下、本構成例を「構成例4」という。)について説明する。
光学フィルタ205の後段フィルタ220に設けられる偏光フィルタ層222は、上述したように、鉛直偏光成分Pのみを選択して透過させる鉛直偏光領域(第1領域)と、水平偏光成分Sのみを選択して透過させる水平偏光領域(第2領域)とに、撮像画素単位で領域分割されている。これにより、鉛直偏光領域を透過した光を受光する撮像画素の画像データに基づいて、水平偏光成分Sがカットされた鉛直偏光成分画像を得ることができる。また、水平偏光領域を透過した光を受光する撮像画素の画像データからは、鉛直偏光成分Pがカットされた水平偏光成分画像を得ることができる。
[Configuration example 4 of optical filter]
Next, still another configuration example of the optical filter 205 in the present embodiment (hereinafter referred to as “configuration example 4”) will be described.
As described above, the polarizing filter layer 222 provided in the post-stage filter 220 of the optical filter 205 selects only the vertical polarization region (first region) for transmitting only the vertical polarization component P and the horizontal polarization component S. And is divided into horizontal polarization areas (second areas) to be transmitted in units of imaging pixels. Accordingly, a vertical polarization component image in which the horizontal polarization component S is cut can be obtained based on the image data of the imaging pixel that receives light transmitted through the vertical polarization region. In addition, a horizontal polarization component image in which the vertical polarization component P is cut can be obtained from image data of an imaging pixel that receives light transmitted through the horizontal polarization region.

フロントガラス105の面が平坦な面であれば、フロントガラス105の面に対して鉛直偏光領域や水平偏光領域の偏光方向(透過軸)を適切に設定することにより、フロントガラス105への映り込みを適切にカットした鉛直偏光成分画像や水平偏光成分画像を得ることができる。しかしながら、一般に、自動車のフロントガラス105は、空力特性向上のために、前方に向かって下方へ傾斜しているだけでなく、左右方向において中央部から両端部に向けて後方へ大きく湾曲している。そのため、光学フィルタ205の偏光フィルタ層222における鉛直偏光領域や水平偏光領域の偏光方向(透過軸)がどの位置の領域でも一様であると、例えば、撮像画像中央部ではフロントガラス105からの映り込みが適切にカットできていても、撮像画像端部ではフロントガラス105からの映り込みが適切にカットできないことがある。   If the surface of the windshield 105 is flat, reflection on the windshield 105 is performed by appropriately setting the polarization direction (transmission axis) of the vertical polarization region and the horizontal polarization region with respect to the surface of the windshield 105. It is possible to obtain a vertically polarized component image and a horizontally polarized component image that are appropriately cut. However, in general, the windshield 105 of an automobile is not only inclined downward toward the front to improve aerodynamic characteristics, but is also greatly curved backward from the center to both ends in the left-right direction. . Therefore, if the polarization direction (transmission axis) of the vertical polarization region or the horizontal polarization region in the polarization filter layer 222 of the optical filter 205 is uniform in any region, for example, in the central portion of the captured image, the image from the windshield 105 is reflected. Even if the image can be cut appropriately, the reflection from the windshield 105 may not be cut appropriately at the edge of the captured image.

図25は、本構成例4における光学フィルタ205の偏光フィルタ層222におけるワイヤーグリッド構造の金属ワイヤーの長手方向を示す説明図である。
本構成例4の偏光フィルタ層222及び分光フィルタ層223の領域分割構成は、上記構成例1の場合と同じであるが、本構成例4では、偏光フィルタ層222の鉛直偏光領域の偏光方向(透過軸)が一様ではない。具体的には、図25に示すように、フロントガラス105の湾曲に合わせて、偏光フィルタ層222の水平方向端部へ近い鉛直偏光領域ほど、その偏光方向(透過軸)と鉛直方向との角度が大きくなるように、偏光フィルタ層222の鉛直偏光領域が形成されている。すなわち、本構成例4の偏光フィルタ層222は、水平方向端部へ近い鉛直偏光領域ほど、そのワイヤーグリッド構造の金属ワイヤーの長手方向と水平方向との角度が大きくなるように構成されている。本実施形態では、鉛直偏光領域をワイヤーグリッド構造で形成しているので、このように撮像画素という微小な単位で偏光方向が異なる多数の領域を形成することが可能である。
FIG. 25 is an explanatory diagram illustrating the longitudinal direction of a metal wire having a wire grid structure in the polarizing filter layer 222 of the optical filter 205 according to the fourth configuration example.
The area division configuration of the polarizing filter layer 222 and the spectral filter layer 223 of the configuration example 4 is the same as that of the configuration example 1 described above. However, in the configuration example 4, the polarization direction of the vertical polarization region of the polarizing filter layer 222 ( The transmission axis is not uniform. Specifically, as shown in FIG. 25, the angle between the polarization direction (transmission axis) and the vertical direction in the vertical polarization region closer to the horizontal end of the polarizing filter layer 222 in accordance with the curvature of the windshield 105. The vertical polarization region of the polarizing filter layer 222 is formed so that the That is, the polarizing filter layer 222 of the configuration example 4 is configured such that the angle between the longitudinal direction of the metal wire of the wire grid structure and the horizontal direction becomes larger in the vertically polarized region closer to the horizontal end. In the present embodiment, since the vertical polarization region is formed with a wire grid structure, it is possible to form a large number of regions having different polarization directions in such a minute unit as an imaging pixel.

〔光学フィルタの各部詳細〕
次に、光学フィルタ205における後段フィルタ220の各部詳細について説明する。
フィルタ基板221は、使用帯域(本実施形態では可視光域と赤外域)の光を透過可能な透明な材料、例えば、ガラス、サファイア、水晶などで構成されている。本実施形態では、ガラス、特に、安価でかつ耐久性もある石英ガラス(屈折率1.46)やテンパックスガラス(屈折率1.51)が好適に用いることができる。
[Details of each part of the optical filter]
Next, details of each part of the post-stage filter 220 in the optical filter 205 will be described.
The filter substrate 221 is made of a transparent material, such as glass, sapphire, or quartz, that can transmit light in a use band (in this embodiment, visible light region and infrared region). In the present embodiment, glass, particularly inexpensive and durable quartz glass (refractive index 1.46) or Tempax glass (refractive index 1.51) can be suitably used.

フィルタ基板221上に形成される偏光フィルタ層222は、図26に示すようなワイヤーグリッド構造で形成された偏光子で構成される。ワイヤーグリッド構造は、アルミニウムなどの金属で構成された特定方向に延びる金属ワイヤー(導電体線)を特定のピッチで配列した構造である。ワイヤーグリッド構造のワイヤーピッチを、入射光の波長帯に比べて十分に小さいピッチ(例えば1/2以下)とすることで、金属ワイヤーの長手方向に対して平行に振動する電場ベクトル成分の光をほとんど反射し、金属ワイヤーの長手方向に対して直交する方向に振動する電場ベクトル成分の光をほとんど透過させるため、単一偏光を作り出す偏光子として使用できる。   The polarizing filter layer 222 formed on the filter substrate 221 includes a polarizer formed with a wire grid structure as shown in FIG. The wire grid structure is a structure in which metal wires (conductor lines) made of metal such as aluminum and extending in a specific direction are arranged at a specific pitch. By setting the wire pitch of the wire grid structure to a sufficiently small pitch (for example, 1/2 or less) compared to the wavelength band of incident light, the electric field vector component light that vibrates in parallel to the longitudinal direction of the metal wire can be obtained. Since most of the electric field vector component that reflects and vibrates in the direction perpendicular to the longitudinal direction of the metal wire is transmitted, it can be used as a polarizer for producing a single polarized light.

ワイヤーグリッド構造の偏光子は、一般に、金属ワイヤーの断面積が増加すると、消光比が増加し、更に周期幅に対する所定の幅以上の金属ワイヤーでは透過率が減少する。また、金属ワイヤーの長手方向に直交する断面形状がテーパー形状であると、広い帯域において透過率、偏光度の波長分散性が少なく、高消光比特性を示す。   In general, a polarizer having a wire grid structure has an extinction ratio that increases as the cross-sectional area of the metal wire increases. Further, the transmittance of a metal wire having a predetermined width or more with respect to the period width decreases. Moreover, when the cross-sectional shape orthogonal to the longitudinal direction of the metal wire is a taper shape, the wavelength dispersion of transmittance and polarization degree is small in a wide band, and high extinction ratio characteristics are exhibited.

本実施形態では、偏光フィルタ層222をワイヤーグリッド構造で形成していることにより、以下のような効果を有する。
ワイヤーグリッド構造は、広く知られた半導体製造プロセスを利用して形成することができる。具体的には、フィルタ基板221上にアルミニウム薄膜を蒸着した後、パターニングを行い、メタルエッチングなどの手法によってワイヤーグリッドのサブ波長凹凸構造を形成すればよい。このような製造プロセスにより、画像センサ206の撮像画素サイズ相当(数μmレベル)で金属ワイヤーの長手方向すなわち偏光方向(偏光軸)を調整することが可能となる。よって、本実施形態のように、撮像画素単位で金属ワイヤーの長手方向すなわち偏光方向(偏光軸)を異ならせた偏光フィルタ層222を作成することができる。
また、ワイヤーグリッド構造は、アルミニウムなどの金属材料によって作製されるため、耐熱性に優れ、高温になりやすい車両室内などの高温環境下においても好適に使用できるという利点もある。
In the present embodiment, the polarizing filter layer 222 is formed with a wire grid structure, thereby providing the following effects.
The wire grid structure can be formed using a widely known semiconductor manufacturing process. Specifically, after depositing an aluminum thin film on the filter substrate 221, patterning is performed, and the sub-wavelength uneven structure of the wire grid may be formed by a technique such as metal etching. By such a manufacturing process, it is possible to adjust the longitudinal direction of the metal wire, that is, the polarization direction (polarization axis) corresponding to the imaging pixel size (several μm level) of the image sensor 206. Therefore, as in the present embodiment, it is possible to create the polarizing filter layer 222 in which the longitudinal direction of the metal wire, that is, the polarization direction (polarization axis) is different for each imaging pixel.
In addition, since the wire grid structure is made of a metal material such as aluminum, it has an advantage that it can be suitably used even in a high temperature environment such as a vehicle interior that has excellent heat resistance and is likely to become high temperature.

偏光フィルタ層222の積層方向上面を平坦化するために用いられる充填材224は、偏光フィルタ層222の金属ワイヤー間の凹部に充填される。この充填材224は、フィルタ基板221よりも屈折率の低いか又は同等の屈折率を有する無機材料が好適に利用できる。なお、本実施形態における充填材224は、偏光フィルタ層222の金属ワイヤー部分の積層方向上面も覆うように形成される。   The filler 224 used for planarizing the upper surface of the polarizing filter layer 222 in the stacking direction is filled in the recesses between the metal wires of the polarizing filter layer 222. As the filler 224, an inorganic material having a refractive index lower than or equal to that of the filter substrate 221 can be suitably used. In addition, the filler 224 in the present embodiment is formed so as to cover the upper surface in the stacking direction of the metal wire portion of the polarizing filter layer 222.

充填材224の具体的な材料としては、偏光フィルタ層222の偏光特性を劣化させないように、その屈折率が空気の屈折率(屈折率=1)に極力近い低屈折率材料であることが好ましい。例えば、セラミックス中に微細な空孔を分散させて形成してなる多孔質のセラミックス材料が好ましく、具体的には、ポーラスシリカ(SiO2)、ポーラスフッ化マグネシウム(MgF)、ポーラスアルミナ(Al23)などが挙げられる。また、これらの低屈折率の程度は、セラミックス中の空孔の数や大きさ(ポーラス度)によって決まる。フィルタ基板221の主成分がシリカの水晶やガラスからなる場合には、ポーラスシリカ(n=1.22〜1.26)が好適に使用できる。 A specific material of the filler 224 is preferably a low refractive index material whose refractive index is as close as possible to the refractive index of air (refractive index = 1) so as not to deteriorate the polarization characteristics of the polarizing filter layer 222. . For example, a porous ceramic material formed by dispersing fine pores in ceramics is preferable. Specifically, porous silica (SiO 2 ), porous magnesium fluoride (MgF), porous alumina (Al 2 O) 3 ). The degree of these low refractive indexes is determined by the number and size of pores in the ceramic (porosity). When the main component of the filter substrate 221 is made of silica crystal or glass, porous silica (n = 1.2-1.26) can be preferably used.

充填材224の形成方法は、SOG(Spin On Glass)法を好適に用いることができる。具体的には、シラノール(Si(OH)4)をアルコールに溶かした溶剤を、フィルタ基板221上に形成された偏光フィルタ層222上にスピン塗布し、その後に熱処理によって溶媒成分を揮発させ、シラノール自体を脱水重合反応させるような経緯で形成される。 As a method for forming the filler 224, an SOG (Spin On Glass) method can be suitably used. Specifically, a solvent in which silanol (Si (OH) 4 ) is dissolved in alcohol is spin-coated on the polarizing filter layer 222 formed on the filter substrate 221, and then the solvent component is volatilized by heat treatment. It is formed in such a way that it itself undergoes a dehydration polymerization reaction.

偏光フィルタ層222はサブ波長サイズのワイヤーグリッド構造であり、機械的強度が弱く、わずかな外力によって金属ワイヤーが損傷してしまう。本実施形態の光学フィルタ205は、画像センサ206に密着配置することが望まれるため、その製造段階において光学フィルタ205と画像センサ206とが接触する可能性がある。本実施形態では、偏光1フィルタ層222の積層方向上面すなわち画像センサ206側の面が充填材224によって覆われているので、画像センサ206と接触した際にワイヤーグリッド構造が損傷する事態が抑制される。
また、本実施形態のように充填材224を偏光フィルタ層222のワイヤーグリッド構造における金属ワイヤー間の凹部へ充填することで、その凹部への異物進入を防止することができる。
The polarizing filter layer 222 has a sub-wavelength sized wire grid structure, has low mechanical strength, and a metal wire is damaged by a slight external force. Since it is desired that the optical filter 205 of the present embodiment is disposed in close contact with the image sensor 206, there is a possibility that the optical filter 205 and the image sensor 206 come into contact with each other in the manufacturing stage. In the present embodiment, the upper surface in the stacking direction of the polarization 1 filter layer 222, that is, the surface on the image sensor 206 side is covered with the filler 224, so that the situation where the wire grid structure is damaged when contacting the image sensor 206 is suppressed. The
Further, by filling the filler 224 into the recesses between the metal wires in the wire grid structure of the polarizing filter layer 222 as in this embodiment, it is possible to prevent foreign matter from entering the recesses.

なお、本実施形態では、充填材224の上に積層される分光フィルタ層223については充填材224のような保護層を設けていない。これは、本発明者らの実験によれば、画像センサ206に分光フィルタ層223が接触しても、撮像画像に影響を及ぼすような損傷が発生しなかったため、低コスト化を優先して保護層を省略したものである。また、偏光フィルタ層222の金属ワイヤー(凸部)の高さは使用波長の半分以下と低い一方、分光フィルタ層223の赤色分光領域又はシアン分光領域を形成するフィルタ層部分(凸部)の高さは、使用波長と同等から数倍程度の高さとなる。充填材224の厚みが増すほど、その上面の平坦性を確保することが困難になり、光学フィルタ205の特性に影響を与えるので、充填材224を厚くするにも限度がある。そのため、本実施形態では、分光フィルタ層223を充填材で覆っていない。   In this embodiment, the spectral filter layer 223 laminated on the filler 224 is not provided with a protective layer like the filler 224. According to the experiments by the present inventors, even if the spectral filter layer 223 is in contact with the image sensor 206, damage that affects the captured image did not occur. The layer is omitted. Further, the height of the metal wire (convex portion) of the polarizing filter layer 222 is as low as half or less of the used wavelength, while the height of the filter layer portion (convex portion) forming the red spectral region or cyan spectral region of the spectral filter layer 223 is high. The height is about the same as the used wavelength to several times as high. As the thickness of the filler 224 increases, it becomes more difficult to ensure the flatness of the upper surface, which affects the characteristics of the optical filter 205, so that there is a limit to increasing the thickness of the filler 224. Therefore, in this embodiment, the spectral filter layer 223 is not covered with a filler.

本実施形態の分光フィルタ層223における赤色分光領域又はシアン分光領域を形成するフィルタ層部分は、高屈折率の薄膜と低屈折率の薄膜とを交互に多層重ねた多層膜構造で作製されている。このような多層膜構造によれば、光の干渉を利用することで分光透過率の設定自由度が高く、薄膜を多層重ねることで、特定波長(例えば赤色以外の波長帯域帯)に対して100%近い反射率を実現することも可能である。本実施形態においては、撮像画像データの使用波長範囲が略可視光波長帯(可視光と赤外光の波長帯)であるため、当該使用波長範囲に感度を有する画像センサ206を選択するとともに、多層膜部分の透過波長範囲を例えば600nm以上に設定し、それ以外の波長帯は反射する図27に示すようなカットフィルタを形成すればよい。   The filter layer portion that forms the red spectral region or the cyan spectral region in the spectral filter layer 223 of the present embodiment is made of a multilayer film structure in which a thin film having a high refractive index and a thin film having a low refractive index are alternately stacked. . According to such a multilayer film structure, the degree of freedom in setting the spectral transmittance is high by utilizing the interference of light, and by stacking thin films in multiple layers, it is 100 for a specific wavelength (for example, a wavelength band other than red). It is also possible to achieve reflectivity close to%. In the present embodiment, since the use wavelength range of the captured image data is a substantially visible light wavelength band (wavelength band of visible light and infrared light), the image sensor 206 having sensitivity in the use wavelength range is selected, A cut filter as shown in FIG. 27 may be formed in which the transmission wavelength range of the multilayer film portion is set to, for example, 600 nm or more and the other wavelength bands are reflected.

このようなカットフィルタは、光学フィルタ205の積層方向下側から順に、「基板/(0.125L0.25H0.125L)p/媒質A」のような構成の多層膜を作製することで得ることができる。ここでいう「基板」は、上述した充填材224を意味する。また、「0.125L」は、低屈折率材料(例えばSiO2)の膜厚標記方法でnd/λを1Lとしたものであり、したがって「0.125L」の膜は1/8波長の光路長となるような膜厚をもつ低屈折率材料の膜であることを意味する。なお、「n」は屈折率であり、「d」は厚みであり、「λ」はカットオフ波長である。同様に、「0.25H」は、高屈折率材料(例えばTiO2)の膜厚標記方法でnd/λを1Hとしたものであり、したがって「0.25H」の膜は1/4波長の光路長となるような膜厚をもつ高屈折率材料の膜であることを意味する。また、「p」は、かっこ内に示す膜の組み合わせを繰り返す(積層する)回数を示し、「p」が多いほどリップルなどの影響を抑制できる。また、媒質Aは、空気あるいは画像センサ206との密着接合のための樹脂や接着剤を意図するものである。また、 Such a cut filter can be obtained by fabricating a multilayer film having a configuration of “substrate / (0.125L0.25H0.125L) p / medium A” in order from the lower side of the optical filter 205 in the stacking direction. it can. The “substrate” here means the filler 224 described above. Further, “0.125L” is a film thickness marking method of a low refractive index material (for example, SiO 2 ) in which nd / λ is 1 L. Therefore, the film of “0.125L” has an optical path of 1/8 wavelength. It means that the film is of a low refractive index material having such a long film thickness. “N” is a refractive index, “d” is a thickness, and “λ” is a cutoff wavelength. Similarly, “0.25H” is obtained by setting nd / λ to 1H in the film thickness marking method of a high refractive index material (for example, TiO 2 ). Therefore, the film of “0.25H” has a quarter wavelength. It means a film of a high refractive index material having a film thickness that becomes an optical path length. “P” indicates the number of times the film combination shown in parentheses is repeated (laminated), and the more “p”, the more the influence of ripple and the like can be suppressed. The medium A is intended for air or a resin or adhesive for tight bonding with the image sensor 206. Also,

また、分光フィルタ層223における赤色分光領域又はシアン分光領域を形成するフィルタ層部分としては、透過波長範囲が600〜700nmの範囲である、図28に示すようなフィルタ特性を有するバンドパスフィルタであってもよい。このようなバンドパスフィルタであれば、赤色よりも長波長側の近赤外域と赤色領域との識別も可能となる。このようなバンドパスフィルタは、例えば、「基板/(0.125L0.5M0.125L)p(0.125L0.5H0.125L)q(0.125L0.5M0.125L)r/媒質A」のような構成の多層膜を作製することで得ることができる。なお、上記の通り、高屈折率材料として二酸化チタン(TiO2)、低屈折率材料として二酸化珪素(SiO2)などを使用すれば、対候性の高い分光フィルタ層223を実現できる。 Further, the filter layer portion forming the red spectral region or the cyan spectral region in the spectral filter layer 223 is a bandpass filter having a filter characteristic as shown in FIG. 28 having a transmission wavelength range of 600 to 700 nm. May be. With such a bandpass filter, it is possible to distinguish the near-infrared region and red region on the longer wavelength side than red. Such a band pass filter is, for example, “substrate / (0.125L0.5M0.125L) p (0.125L0.5H0.125L) q (0.125L0.5M0.125L) r / medium A”. It can be obtained by producing a multilayer film having the structure. As described above, the spectral filter layer 223 having high weather resistance can be realized by using titanium dioxide (TiO 2 ) as the high refractive index material and silicon dioxide (SiO 2 ) as the low refractive index material.

本実施形態の分光フィルタ層223の作製方法の一例について説明すると、まず、フィルタ基板221及び偏光フィルタ層222上に形成された充填材224の層上に、上述した多層膜を形成する。このような多層膜を形成する方法としては、よく知られる蒸着などの方法を用いればよい。続いて、非分光領域に対応する箇所について多層膜を除去する。この除去方法としては、一般的なリフトオフ加工法を利用すればよい。リフトオフ加工法では、目的とするパターンとは逆のパターンを、金属、フォトレジストなどで、事前に充填材224の層上に形成しておき、その上に多層膜を形成してから、非分光領域に対応する箇所の多層膜を当該金属やフォトレジストと一緒に除去する。   An example of a method for producing the spectral filter layer 223 of the present embodiment will be described. First, the above-described multilayer film is formed on the layer of the filler 224 formed on the filter substrate 221 and the polarizing filter layer 222. As a method for forming such a multilayer film, a well-known method such as vapor deposition may be used. Subsequently, the multilayer film is removed from the portion corresponding to the non-spectral region. As this removal method, a general lift-off processing method may be used. In the lift-off processing method, a pattern opposite to the target pattern is formed on a layer of the filler 224 in advance with a metal, a photoresist, or the like, a multilayer film is formed thereon, and then non-spectral The multilayer film corresponding to the region is removed together with the metal and photoresist.

本実施形態では、分光フィルタ層223として多層膜構造を採用しているので、分光特性の設定自由度が高いといった利点がある。一般に、カラーセンサなどに用いられるカラーフィルタは、レジスト剤によって形成されているが、このようなレジスト剤では多層膜構造に比べて、分光特性のコントロールが困難である。本実施形態では、分光フィルタ層223として多層膜構造を採用しているので、テールランプの波長に最適化された分光フィルタ層223を形成することが可能となる。   In the present embodiment, since the multilayer filter structure is employed as the spectral filter layer 223, there is an advantage that the degree of freedom in setting the spectral characteristics is high. In general, a color filter used in a color sensor or the like is formed of a resist agent, but it is difficult to control spectral characteristics with such a resist agent as compared with a multilayer film structure. In this embodiment, since the multilayer structure is adopted as the spectral filter layer 223, the spectral filter layer 223 optimized for the wavelength of the tail lamp can be formed.

〔ヘッドランプの配光制御〕
以下、本実施形態におけるヘッドランプの配光制御について説明する。
本実施形態におけるヘッドランプの配光制御は、撮像装置200で撮像された撮像画像データを解析して車両のテールランプとヘッドランプを識別し、識別したテールランプから先行車両を検出するとともに、識別したヘッドランプから対向車両を検出する。そして、先行車両や対向車両の運転者の目に自車両100のヘッドランプの強い光が入射するのを避けて他車両の運転者の幻惑防止を行いつつ、自車両100の運転者の視界確保を実現できるように、ヘッドランプ104のハイビームおよびロービームの切り替えを制御したり、ヘッドランプ104の部分的な遮光制御を行ったりする。
なお、以下の説明では、光学フィルタ205の後段フィルタ220として上記構成例1のものを用いる場合について説明する。
[Light distribution control of headlamps]
Hereinafter, the light distribution control of the headlamp in the present embodiment will be described.
In the light distribution control of the headlamp in this embodiment, the captured image data captured by the imaging apparatus 200 is analyzed to identify the tail lamp and the head lamp of the vehicle, the preceding vehicle is detected from the identified tail lamp, and the identified head The oncoming vehicle is detected from the ramp. Then, the driver of the host vehicle 100 can be prevented from being dazzled by avoiding the strong light from the headlamp of the host vehicle 100 entering the eyes of the driver of the preceding vehicle or the oncoming vehicle, and the driver's view of the host vehicle 100 is secured. In order to realize the above, the switching of the high beam and the low beam of the headlamp 104 is controlled, or partial light shielding control of the headlamp 104 is performed.
In the following description, a case in which the configuration filter 1 described above is used as the post-filter 220 of the optical filter 205 will be described.

本実施形態のヘッドランプ配光制御では、撮像ユニット101から取得することができる情報のうち、撮像領域内の各地点(光源体)から発せられる光の強さ(明るさ情報)、ヘッドランプやテールランプなどの光源体(他車両)と自車両との距離(距離情報)、各光源体から発せられる光の赤色成分と白色成分(非分光)との比較による分光情報、白色成分の水平偏光成分と鉛直偏光成分との比較による偏光情報、水平偏光成分がカットされた白色成分の鉛直偏光成分情報、水平偏光成分がカットされた赤色成分の鉛直偏光成分情報を用いる。   In the headlamp light distribution control of the present embodiment, among the information that can be acquired from the imaging unit 101, the intensity (brightness information) of light emitted from each point (light source body) in the imaging region, the headlamp, The distance (distance information) between the light source body (other vehicle) such as the tail lamp and the own vehicle, the spectral information by comparing the red component and the white component (non-spectral) of the light emitted from each light source body, the horizontal polarization component of the white component Information of a white component with a horizontal polarization component cut off, and vertical polarization component information of a red component with a horizontal polarization component cut off are used.

明るさ情報について説明すると、夜間に、先行車両や対向車両が自車両から同じ距離に存在する場合、撮像装置200によってそれらの先行車両及び対向車両を撮像すると、撮像画像データ上では検出対象物の1つである対向車両のヘッドランプが最も明るく映し出され、検出対象物の1つである先行車両のテールランプはそれよりも暗く映し出される。また、リフレクタが撮像画像データに映し出されている場合、リフレクタは自ら発光する光源ではなく、自車両のヘッドランプを反射することによって明るく映し出されるものに過ぎないので、先行車両のテールランプよりもさらに暗くなる。一方、対向車両のヘッドランプ、先行車両のテールランプ及びリフレクタからの光は、距離が遠くなるにつれて、それを受光する画像センサ206上ではだんだん暗く観測される。よって、撮像画像データから得られる明るさ(輝度情報)を用いることで 2種類の検出対象物(ヘッドランプとテールランプ)及びリフレクタの一次的な識別が可能である。   The brightness information will be described. When the preceding vehicle and the oncoming vehicle are present at the same distance from the own vehicle at night, when the preceding vehicle and the oncoming vehicle are imaged by the imaging device 200, the detected object is detected on the captured image data. One headlamp of the oncoming vehicle is projected brightest, and the tail lamp of the preceding vehicle, which is one of the detection objects, is projected darker than that. In addition, when the reflector is displayed in the captured image data, the reflector is not a light source that emits light by itself, but merely a bright image that is reflected by reflecting the headlamp of the host vehicle, so that it is darker than the tail lamp of the preceding vehicle. Become. On the other hand, the light from the headlamp of the oncoming vehicle, the tail lamp of the preceding vehicle, and the reflector is gradually observed on the image sensor 206 that receives the light as the distance increases. Therefore, by using the brightness (luminance information) obtained from the captured image data, primary identification of the two types of detection objects (head lamp and tail lamp) and the reflector is possible.

また、距離情報について説明すると、ヘッドランプやテールランプは、そのほとんどが左右一対のペアランプの構成であるため、この構成の特徴を利用してヘッドランプやテールランプ(すなわち他車両)と自車両との距離を求めることが可能である。ペアとなる左右一対のランプは、撮像装置200が撮像した撮像画像データ上では、互いに近接して同じ高さ方向位置に映し出され、当該ランプを映し出すランプ画像領域の広さはほぼ同じで、かつ、当該ランプ画像領域の形状もほぼ同じである。よって、これらの特徴を条件とすれば、その条件を満たすランプ画像領域同士をペアランプであると識別できる。なお、遠距離になるとペアランプを構成する左右のランプを区別して認識できなくなり、単一ランプとして認識される。   Further, the distance information will be described. Most headlamps and tail lamps have a pair of left and right pair lamps. Therefore, the distance between the headlamps and tail lamps (that is, other vehicles) and the host vehicle is utilized using the characteristics of this configuration. Can be obtained. The pair of left and right lamps that are paired are displayed close to each other at the same height position on the captured image data captured by the image capturing apparatus 200, and the widths of the lamp image areas that project the lamps are substantially the same. The shape of the lamp image area is almost the same. Therefore, if these characteristics are used as conditions, lamp image areas satisfying the conditions can be identified as pair lamps. At a long distance, the left and right lamps constituting the pair lamp cannot be distinguished and recognized as a single lamp.

このような方法でペアランプを識別できた場合、そのペアランプ構成であるヘッドランプやテールランプの光源までの距離を算出することが可能である。すなわち、車両の左右ヘッドランプ間の距離及び左右テールランプ間の距離は、一定値w0(例えば1.5m程度)で近似することができる。一方、撮像装置200における撮像レンズ204の焦点距離fは既知であるため、撮像装置200の画像センサ206上における左右ランプにそれぞれ対応した2つのランプ画像領域間の距離w1を撮像画像データから算出することにより、そのペアランプ構成であるヘッドランプやテールランプの光源と自車両までの距離xは、単純な比例計算(x=f×w0/w1)により求めることができる。また、このようにして算出される距離xが適正範囲であれば、その算出に用いた2つのランプ画像領域は他車両のヘッドランプとテールランプであると識別することができる。よって、この距離情報を用いることで、検出対象物であるヘッドランプとテールランプの識別精度が向上する。   When a pair lamp can be identified by such a method, it is possible to calculate the distance to the light source of the head lamp and tail lamp which are the pair lamp structure. That is, the distance between the left and right headlamps and the distance between the left and right tail lamps of the vehicle can be approximated by a constant value w0 (for example, about 1.5 m). On the other hand, since the focal length f of the imaging lens 204 in the imaging device 200 is known, the distance w1 between the two lamp image areas respectively corresponding to the left and right lamps on the image sensor 206 of the imaging device 200 is calculated from the captured image data. Accordingly, the distance x between the light source of the headlamp or taillamp which is the pair lamp configuration and the host vehicle can be obtained by simple proportional calculation (x = f × w0 / w1). If the distance x calculated in this way is within an appropriate range, the two lamp image areas used for the calculation can be identified as headlamps and taillamps of other vehicles. Therefore, by using this distance information, the identification accuracy of the head lamp and tail lamp, which are detection objects, is improved.

また、分光情報について説明すると、本実施形態では、上述したとおり、撮像装置200で撮像した撮像画像データから、赤色光(鉛直偏光成分)P/Rを受光する画像センサ206上の撮像画素a,c,f,h等に対応した画素データのみを抽出することで、撮像領域内の赤色成分だけを映し出した赤色画像を生成することができる。よって、赤色画像において所定輝度以上の輝度を有する画像領域が存在する場合、その画像領域はテールランプを映し出したテールランプ画像領域であると識別することが可能である。   Further, the spectral information will be described. In the present embodiment, as described above, the imaging pixels a on the image sensor 206 that receive red light (vertical polarization component) P / R from the captured image data captured by the imaging device 200. By extracting only pixel data corresponding to c, f, h, etc., it is possible to generate a red image in which only the red component in the imaging region is projected. Therefore, when there is an image area having a luminance equal to or higher than a predetermined luminance in the red image, the image area can be identified as a tail lamp image area in which a tail lamp is projected.

また、撮像装置200で撮像した撮像画像データから、白色光(非分光)の鉛直偏光成分P/Cを受光する画像センサ206上の撮像画素b,d等に対応した画素データのみを抽出することで、撮像領域内のモノクロ輝度画像(鉛直偏光成分)を生成することができる。よって、赤色画像上の画像領域と、この画像領域に対応したモノクロ輝度画像上の画像領域との間の輝度比率(赤色輝度比率)を算出することもできる。この赤色輝度比率を用いれば、撮像領域内に存在する物体(光源体)からの光に含まれる相対的な赤色成分の比率を把握することができる。テールランプの赤色輝度比率は、ヘッドランプや他のほとんどの光源よりも十分に高い値をとるので、この赤色輝度比率を用いればテールランプの識別精度が向上する。   Further, only pixel data corresponding to the imaging pixels b and d on the image sensor 206 that receives the vertical polarization component P / C of white light (non-spectral) is extracted from the captured image data captured by the imaging apparatus 200. Thus, a monochrome luminance image (vertical polarization component) within the imaging region can be generated. Therefore, the luminance ratio (red luminance ratio) between the image area on the red image and the image area on the monochrome luminance image corresponding to the image area can be calculated. By using this red luminance ratio, it is possible to grasp the ratio of the relative red component contained in the light from the object (light source body) existing in the imaging region. Since the red luminance ratio of the tail lamp is sufficiently higher than that of the headlamp and most other light sources, the identification accuracy of the tail lamp is improved by using this red luminance ratio.

また、偏光情報について説明すると、本実施形態では、上述したとおり、撮像装置200で撮像した撮像画像データから、白色光(非分光)の鉛直偏光成分P/Cを受光する画像センサ206上の撮像画素b,d等に対応した画素データと、白色光(非分光)の水平偏光成分S/Cとを受光する画像センサ206上の撮像画素e,g等に対応した画素データとを抽出し、画像画素ごとに、これらの画像データ間の画素値(輝度)を比較した比較画像を得ることができる。具体的には、例えば、白色光(非分光)の鉛直偏光成分Pと白色光(非分光)の水平偏光成分Sとの差分値(S−P)を画素値とした差分画像を、比較画像として得ることができる。このような比較画像によれば、ヘッドランプから撮像装置200へ直接入射する直接光の画像領域(ヘッドランプ画像領域)と、ヘッドランプから雨路の水面で反射してから撮像装置200へ入射する間接光の画像領域とのコントラストを大きくとることができ、ヘッドランプの識別精度が向上する。   Further, the polarization information will be described. In the present embodiment, as described above, imaging on the image sensor 206 that receives the vertical polarization component P / C of white light (non-spectral) from the captured image data captured by the imaging apparatus 200. Extracting pixel data corresponding to the pixels b, d, and the like, and pixel data corresponding to the imaging pixels e, g, etc. on the image sensor 206 that receives the horizontal polarization component S / C of white light (non-spectral), For each image pixel, a comparison image in which pixel values (luminance) between these image data are compared can be obtained. Specifically, for example, a difference image having a pixel value as a difference value (SP) between a vertical polarization component P of white light (non-spectral) and a horizontal polarization component S of white light (non-spectral) is compared with a comparison image. Can be obtained as According to such a comparative image, an image area (headlamp image area) of direct light directly incident on the imaging device 200 from the headlamp and an incident on the imaging device 200 after being reflected from the water surface of the rain road from the headlamp. The contrast with the image area of indirect light can be increased, and the identification accuracy of the headlamp is improved.

特に、比較画像としては、白色光(非分光)の鉛直偏光成分Pと白色光(非分光)の水平偏光成分Sとの比率(S/P)を画素値とした比率画像や、差分偏光度((S−P)/(S+P))を画素値とした差分偏光度画像などが好適に使用できる。一般に、水面などの水平な鏡面で反射した光は、水平偏光成分が常に強くなることが知られており、とくに水平偏光成分Sと鉛直偏光成分Pとの比率(S/P)や差分偏光度((S−P)/(S+P))をとった場合、その比率や差分偏光度は特定角度(ブリュースター角度)において最大となることが知られている。雨路では、散乱面であるアスファルト面に水が張られて鏡面に近い状態となるため、路面からのヘッドランプ反射光は水平偏光成分Sの方が強くなる。よって、路面からのヘッドランプ反射光の画像領域は、比率画像や差分偏光度画像においては、その画素値(輝度)が大きいものとなる。一方、ヘッドランプからの直接光は基本的には無偏光なので、比率画像や差分偏光度画像においては、その画素値(輝度)が小さいものとなる。この違いにより、ヘッドランプからの直接光と同じ程度の光量をもつ雨路面からのヘッドランプ反射光を適切に除外でき、ヘッドランプからの直接光をこのようなヘッドランプ反射光と区別して識別することができる。   In particular, as a comparative image, a ratio image with a ratio (S / P) of a vertical polarization component P of white light (non-spectral) and a horizontal polarization component S of white light (non-spectral) as a pixel value, or a differential polarization degree A differential polarization degree image having ((S−P) / (S + P)) as a pixel value can be suitably used. In general, it is known that the light reflected by a horizontal mirror such as a water surface always has a high horizontal polarization component. In particular, the ratio (S / P) between the horizontal polarization component S and the vertical polarization component P and the differential polarization degree. When ((S−P) / (S + P)) is taken, it is known that the ratio and the differential polarization degree become maximum at a specific angle (Brewster angle). In rainy roads, water is applied to the asphalt surface, which is a scattering surface, in a state close to a mirror surface, so that the headlamp reflected light from the road surface is stronger in the horizontal polarization component S. Therefore, the image area of the headlamp reflected light from the road surface has a large pixel value (luminance) in the ratio image and the differential polarization degree image. On the other hand, since the direct light from the headlamp is basically non-polarized light, the pixel value (luminance) is small in the ratio image and the differential polarization degree image. Due to this difference, it is possible to appropriately exclude the headlamp reflected light from the rain road surface having the same amount of light as the direct light from the headlamp, and distinguish the direct light from the headlamp from such headlamp reflected light. be able to.

図29は、撮像装置200を用いて、雨の日にヘッドランプからの直接光とヘッドランプの雨路面で反射光(照り返し光)とを撮像し、それぞれの差分偏光度((S−P)/(S+P))を算出したときのヒストグラムである。図29中の縦軸は、頻度を示しており、ここでは1に規格化してある。図29中の横軸は、差分偏光度((S−P)/(S+P))をとったものである。図29からわかるように、ヘッドランプの雨路面で反射光は、ヘッドランプの直接光と比較して、水平偏光成分Sが相対的に大きい側(図中右側)に分布がシフトしていることがわかる。   FIG. 29 shows an image of the direct light from the headlamp and the reflected light (reflected light) on the rainy road surface of the headlamp on the rainy day using the imaging device 200, and the respective differential polarization degrees ((SP)). This is a histogram when / (S + P)) is calculated. The vertical axis in FIG. 29 indicates the frequency, and is normalized to 1 here. The horizontal axis in FIG. 29 is the difference polarization degree ((SP) / (S + P)). As can be seen from FIG. 29, the distribution of the reflected light on the rainy road surface of the headlamp is shifted to the side where the horizontal polarization component S is relatively large (the right side in the figure) compared to the direct light of the headlamp. I understand.

図30は、雨路面上を自車両が走行しているときにその進行方向前方のほぼ同一距離に先行車両と対向車両の両方が存在する状況を撮像装置200で撮像した場合の一例を示す模式図である。
このような状況においては、明るさ情報と距離情報だけでは、先行車両のテールランプ、雨路面からのテールランプの照り返し光、対向車両のヘッドランプ、雨路面からのヘッドランプの照り返し光を、互いに区別して検出することが困難である。
FIG. 30 is a schematic diagram illustrating an example in which the imaging apparatus 200 captures an image of a situation in which both the preceding vehicle and the oncoming vehicle exist at substantially the same distance ahead in the traveling direction when the host vehicle is traveling on a rainy road surface. FIG.
In such a situation, the brightness information and distance information alone distinguish the taillight of the preceding vehicle, the taillight from the rainy road surface, the headlamp from the oncoming vehicle, and the headlight from the rainy road surface. It is difficult to detect.

本実施形態によれば、このような状況でも、まず、先行車両のテールランプ及び雨路面からのテールランプの照り返し光と、対向車両のヘッドランプ及び雨路面からのヘッドランプの照り返し光との区別については、上述した分光情報を用いて高精度に識別できる。具体的には、明るさ情報や距離情報を用いて絞り込んだランプ画像領域において、上述した赤色画像の画素値(輝度値)あるいは赤色輝度比率が所定の閾値を超える画像領域は、先行車両のテールランプ又は雨路面からのテールランプの照り返し光を映し出したテールランプ画像領域であり、当該閾値以下である画像領域は、対向車両のヘッドランプ又は雨路面からのヘッドランプの照り返し光を映し出したヘッドランプ画像領域であると識別する。   According to the present embodiment, even in such a situation, first, the distinction between the taillight reflected from the tail lamp and the rainy road surface of the preceding vehicle and the headlight from the oncoming vehicle and the headlamp from the rainy road surface. , And can be identified with high accuracy using the spectral information described above. Specifically, in the lamp image area narrowed down using the brightness information and the distance information, the image area in which the pixel value (brightness value) or the red luminance ratio of the red image described above exceeds a predetermined threshold is the tail lamp of the preceding vehicle. Alternatively, the tail lamp image area that reflects the taillight reflected light from the rainy road surface, and the image area that is equal to or less than the threshold is the headlamp image area that reflects the headlight of the oncoming vehicle or the headlamp from the rainy road surface. Identify it.

また、本実施形態によれば、このように分光情報により識別した各ランプ画像領域について、上述した偏光情報を用いることにより、テールランプやヘッドランプからの直接光と照り返し光とを高い精度で識別できる。具体的には、例えば、テールランプに関しては、上述した水平偏光成分Sの赤色画像の画素値(輝度値)やその差分偏光度等を元に、水平偏光成分の頻度や強さの違いを利用して、先行車両のテールランプからの直接光と雨路面からのテールランプの照り返し光とを識別する。また、例えば、ヘッドランプに関しては、上述した水平偏光成分の白色画像の画素値(輝度値)やその差分偏光度等を元に、水平偏光成分の頻度や強さの違いを利用して、先行車両のヘッドランプからの直接光と雨路面からのヘッドランプの照り返し光とを識別する。   Further, according to the present embodiment, the direct light and the reflected light from the tail lamp or the head lamp can be identified with high accuracy by using the polarization information described above for each lamp image area identified by the spectral information in this way. . Specifically, for example, regarding the tail lamp, the difference in frequency and intensity of the horizontal polarization component is used based on the pixel value (luminance value) of the red image of the horizontal polarization component S described above and the difference polarization degree thereof. Thus, the direct light from the tail lamp of the preceding vehicle and the reflected light of the tail lamp from the rain road surface are identified. In addition, for example, with respect to the headlamp, based on the pixel value (brightness value) of the white image of the horizontal polarization component described above, the difference polarization degree, and the like, the difference between the frequency and intensity of the horizontal polarization component is used. Discriminate between direct light from the headlamps of the vehicle and reflected light of the headlamps from the rain road surface.

次に、本実施形態における先行車両及び対向車両の検出処理の流れについて説明する。
図31は、本実施形態における車両検出処理の流れを示すフローチャートである。
本実施形態の車両検出処理では、撮像装置200が撮像した画像データに対して画像処理を施し、検出対象物であると思われる画像領域を抽出する。そして、その画像領域に映し出されている光源体の種類が2種類の検出対象物のいずれであるかを識別することで、先行車両、対向車両の検出を行う。
Next, a flow of detection processing for the preceding vehicle and the oncoming vehicle in the present embodiment will be described.
FIG. 31 is a flowchart showing a flow of vehicle detection processing in the present embodiment.
In the vehicle detection process of the present embodiment, image processing is performed on the image data captured by the imaging device 200, and an image region that is considered to be a detection target is extracted. Then, the preceding vehicle and the oncoming vehicle are detected by identifying which of the two types of detection objects is the type of the light source displayed in the image area.

まず、ステップS1では、撮像装置200の画像センサ206によって撮像された自車両前方の画像データをメモリに取り込む。この画像データは、上述したように、画像センサ206の各撮像画素における輝度を示す信号を含む。次に、ステップS2では、自車両の挙動に関する情報を図示しない車両挙動センサから取り込む。   First, in step S1, image data in front of the host vehicle imaged by the image sensor 206 of the imaging device 200 is taken into a memory. As described above, this image data includes a signal indicating the luminance in each imaging pixel of the image sensor 206. Next, in step S2, information related to the behavior of the host vehicle is fetched from a vehicle behavior sensor (not shown).

ステップS3では、メモリに取り込まれた画像データから検出対象物(先行車両のテールランプ及び対向車両のベッドランプ)であると思われる輝度の高い画像領域(高輝度画像領域)を抽出する。この高輝度画像領域は、画像データにおいて、所定の閾値輝度よりも高い輝度を有する明るい領域となり、複数存在する場合が多いが、それらのすべてを抽出する。よって、この段階では、雨路面からの照り返し光を映し出す画像領域も、高輝度画像領域として抽出される。   In step S3, an image area with high brightness (high brightness image area) that is considered to be a detection target (tail lamp of the preceding vehicle and bed lamp of the oncoming vehicle) is extracted from the image data captured in the memory. This high luminance image region is a bright region having a luminance higher than a predetermined threshold luminance in the image data, and there are many cases where a plurality of high luminance image regions are extracted, but all of them are extracted. Therefore, at this stage, an image area that reflects reflected light from the rainy road surface is also extracted as a high-luminance image area.

高輝度画像領域抽出処理では、まず、ステップS31において、画像センサ206上の各撮像画素の輝度値を所定の閾値輝度と比較することにより2値化処理を行う。具体的には、所定の閾値輝度以上の輝度を有する画素に「1」、そうでない画素に「0」を割り振ることで、2値化画像を作成する。次に、ステップS32において、この2値化画像において、「1」が割り振られた画素が近接している場合には、それらを1つの高輝度画像領域として認識するラベリング処理を実施する。これによって、輝度値の高い近接した複数の画素の集合が、1つの高輝度画像領域として抽出される。   In the high luminance image region extraction processing, first, in step S31, binarization processing is performed by comparing the luminance value of each imaging pixel on the image sensor 206 with a predetermined threshold luminance. Specifically, a binary image is created by assigning “1” to pixels having a luminance equal to or higher than a predetermined threshold luminance and assigning “0” to other pixels. Next, in step S32, when pixels assigned with “1” are close to each other in the binarized image, a labeling process for recognizing them as one high luminance image region is performed. Thereby, a set of a plurality of adjacent pixels having a high luminance value is extracted as one high luminance image region.

上述した高輝度画像領域抽出処理の後に実行されるステップS4では、抽出された各高輝度画像領域に対応する撮像領域内の物体と自車両との距離を算出する。この距離算出処理では、車両のランプは左右1対のペアランプであることを利用して距離を検出するペアランプ距離算出処理と、遠距離になるとペアランプを構成する左右のランプを区別して認識できなくなって当該ペアランプが単一ランプとして認識される場合の単一ランプ距離算出処理とを実行する。   In step S4, which is executed after the above-described high-intensity image region extraction process, the distance between the object in the imaging region corresponding to each extracted high-intensity image region and the host vehicle is calculated. In this distance calculation process, the pair lamp distance calculation process that detects the distance by using the pair of left and right lamps of the vehicle and the left and right lamps constituting the pair lamp cannot be distinguished and recognized at a long distance. A single lamp distance calculation process is executed when the pair lamp is recognized as a single lamp.

まず、ペアランプ距離算出処理のために、ステップS41では、ランプのペアを作成する処理であるペアランプ作成処理を行う。ペアとなる左右一対のランプは、撮像装置200が撮像した画像データにおいて、近接しつつほぼ同じ高さとなる位置にあり、高輝度画像領域の面積がほぼ同じで、かつ高輝度画像領域の形が同じであるとの条件を満たす。したがって、このような条件を満たす高輝度画像領域同士をペアランプとする。ペアをとることのできない高輝度画像領域は単一ランプとみなされる。ペアランプが作成された場合には、ステップS42のペアランプ距離算出処理によって、そのペアランプまでの距離を算出する。車両の左右ヘッドランプ間の距離及び左右テールランプ間の距離は、一定値w0(例えば1.5m程度)で近似することができる。一方、撮像装置200における焦点距離fは既知であるため、撮像装置200の画像センサ206上の左右ランプ距離w1を算出することにより、ペアランプまでの実際の距離xは、単純な比例計算(x=f・w0/w1)により求めることができる。なお、先行車両や対向車両までの距離検出は、レーザレーダやミリ波レーダなどの専用の距離センサを用いてもよい。   First, for a pair lamp distance calculation process, in step S41, a pair lamp creation process, which is a process of creating a lamp pair, is performed. The pair of left and right lamps that are paired are close to each other at substantially the same height in the image data captured by the imaging device 200, and the area of the high-luminance image region is substantially the same, and the shape of the high-luminance image region is the same. Satisfy the condition of being the same. Therefore, the high-intensity image areas that satisfy such conditions are used as a pair lamp. High brightness image areas that cannot be paired are considered a single lamp. When a pair lamp is created, the distance to the pair lamp is calculated by the pair lamp distance calculation process in step S42. The distance between the left and right headlamps of the vehicle and the distance between the left and right taillamps can be approximated by a constant value w0 (for example, about 1.5 m). On the other hand, since the focal distance f in the imaging apparatus 200 is known, the actual distance x to the pair lamps can be simply calculated by calculating the left / right lamp distance w1 on the image sensor 206 of the imaging apparatus 200 (x = f · w0 / w1). It should be noted that a dedicated distance sensor such as a laser radar or a millimeter wave radar may be used to detect the distance to the preceding vehicle or the oncoming vehicle.

ステップS5では、鉛直偏光成分Pの赤色画像と鉛直偏光成分Pの白色画像との比率(赤色輝度比率)を分光情報として用い、この分光情報から、ペアランプとされた2つの高輝度画像領域が、ヘッドランプからの光によるものなのか、テールランプからの光によるものなのかを識別するランプ種類識別処理を行う。このランプ種類識別処理では、まずステップS51において、ペアランプとされた高輝度画像領域について、画像センサ206上の撮像画素a,fに対応した画素データと画像センサ206上の撮像画素bに対応した画素データとの比率を画素値とした赤色比画像を作成する。そして、ステップS52において、その赤色比画像の画素値を所定の閾値と比較し、所定の閾値以上である高輝度画像領域についてはテールランプからの光によるテールランプ画像領域であるとし、所定の閾値未満である高輝度画像領域についてはヘッドランプからの光によるヘッドランプ画像領域であるとするランプ種別処理を行う。   In step S5, the ratio (red luminance ratio) between the red image of the vertical polarization component P and the white image of the vertical polarization component P is used as spectral information. From this spectral information, two high-luminance image regions that are paired lamps are A lamp type identification process is performed for identifying whether the light is from the head lamp or from the tail lamp. In this lamp type identification process, first, in step S51, pixel data corresponding to the imaging pixels a and f on the image sensor 206 and pixels corresponding to the imaging pixel b on the image sensor 206 for the high-intensity image area that is a pair of lamps. A red ratio image having a pixel value as a ratio to the data is created. In step S52, the pixel value of the red ratio image is compared with a predetermined threshold, and a high-luminance image region that is equal to or higher than the predetermined threshold is determined to be a tail lamp image region by light from the tail lamp. For a certain high-intensity image area, a lamp type process is performed to determine that the area is a headlamp image area by light from the headlamp.

続いて、ステップS6では、テールランプ画像領域及びヘッドランプ画像領域として識別された各画像領域について、差分偏光度((S−P)/(S+P))を偏光情報として用いて、テールランプ又はヘッドランプからの直接光か雨路面等の鏡面部で反射して受光された照り返し光かを識別する照り返し識別処理を行う。この照り返し識別処理では、まずステップS61において、テールランプ画像領域について差分偏光度((S−P)/(S+P))を算出し、その差分偏光度を画素値とした差分偏光度画像を作成する。また、同様に、ヘッドランプ画像領域についても差分偏光度((S−P)/(S+P))を算出し、その差分偏光度を画素値とした差分偏光度画像を作成する。そして、ステップS62において、それぞれの差分偏光度画像の画素値を所定の閾値と比較し、所定の閾値以上であるテールランプ画像領域及びヘッドランプ画像領域については、照り返し光によるものであると判断し、それらの画像領域は先行車両のテールランプを映し出したものではない又は対向車両のヘッドランプを映し出したものではないとして、除外する処理を行う。この除外処理を行った後に残るテールランプ画像領域及びヘッドランプ画像領域は、先行車両のテールランプを映し出したものである、あるいは、対向車両のヘッドランプを映し出したものであると識別される。   Subsequently, in step S6, for each image area identified as the tail lamp image area and the head lamp image area, the difference polarization degree ((S−P) / (S + P)) is used as the polarization information from the tail lamp or the head lamp. A reflection identification process is performed for identifying whether the light is direct light or reflected light reflected by a mirror surface such as a rainy road surface. In this reflection identification process, first, in step S61, a differential polarization degree ((S−P) / (S + P)) is calculated for the tail lamp image region, and a differential polarization degree image with the differential polarization degree as a pixel value is created. Similarly, a difference polarization degree ((S−P) / (S + P)) is calculated for the headlamp image region, and a difference polarization degree image is created using the difference polarization degree as a pixel value. In step S62, the pixel value of each differential polarization degree image is compared with a predetermined threshold value, and it is determined that the tail lamp image area and the head lamp image area that are equal to or larger than the predetermined threshold value are caused by reflected light. Those image areas are excluded because they do not reflect the tail lamp of the preceding vehicle or the head lamp of the oncoming vehicle. The tail lamp image area and the head lamp image area remaining after performing this exclusion process are identified as those that reflect the tail lamp of the preceding vehicle or those that reflect the head lamp of the oncoming vehicle.

なお、レインセンサなどを車両に搭載しておき、当該レインセンサにより雨天時であることを確認した場合にのみ、上述した照り返し識別処理S6を実行するようにしてもよい。また、運転者(ドライバー)がワイパーを稼働している場合にのみ、上述した照り返し識別処理S6を実行するようにしてもよい。要するに、雨路面からの照り返しが想定される雨天時のみに上述した照り返し識別処理S6を実行するようにしてもよい。   Note that the reflection identification process S6 described above may be executed only when a rain sensor or the like is mounted on the vehicle and it is confirmed that the rain sensor is raining. Further, the above-described reflection identification process S6 may be executed only when the driver (driver) is operating the wiper. In short, the above-described reflection identification process S6 may be executed only in rainy weather when reflection from the rainy road surface is assumed.

以上のような車両検出処理により検出した先行車両及び対向車両の検出結果は、本実施形態では自車両の車載機器であるヘッドランプの配光制御に用いられる。具体的には、車両検出処理によりテールランプが検出されてその先行車両のバックミラーに自車両のヘッドランプ照明光が入射する距離範囲内に近づいた場合に、その先行車両に自車両のヘッドランプ照明光が当たらないように、自車両のヘッドランプの一部を遮光したり、自車両のヘッドランプの光照射方向を上下方向又は左右方向へずらしたりする制御を行う。また、車両検出処理によりベッドランプが検出されて、その対向車両の運転者に自車両のヘッドランプ照明光が当たる距離範囲内に近づいた場合に、その対向車両に自車両のヘッドランプ照明光が当たらないように、自車両のヘッドランプの一部を遮光したり、自車両のヘッドランプの光照射方向を上下方向又は左右方向へずらしたりする制御を行う。   In the present embodiment, the detection results of the preceding vehicle and the oncoming vehicle detected by the vehicle detection process as described above are used for light distribution control of a headlamp that is an in-vehicle device of the host vehicle. Specifically, when the tail lamp is detected by the vehicle detection processing and approaches the distance range in which the headlamp illumination light of the host vehicle is incident on the rearview mirror of the preceding vehicle, the headlamp illumination of the host vehicle is approached to the preceding vehicle. Control is performed to block a part of the headlamp of the host vehicle or to shift the light irradiation direction of the headlamp of the host vehicle in the vertical direction or the horizontal direction so as not to be exposed to light. Further, when the bed lamp is detected by the vehicle detection process and the driver of the oncoming vehicle approaches within the distance range where the headlamp illumination light of the own vehicle hits, the headlamp illumination light of the own vehicle is emitted to the oncoming vehicle. In order to avoid hitting, a part of the headlamp of the host vehicle is shielded from light, or the light irradiation direction of the headlamp of the host vehicle is shifted in the vertical direction or the horizontal direction.

〔路面の乾湿状態の判別処理〕
以下、本実施形態における乾湿情報の判別処理について説明する。
本実施形態では、路面が濡れた状態になっていて自車両が滑りやすい状況になっているかどうかを判断するために、路面の乾湿状態を判別する判別処理を行う。
本実施形態における路面乾湿状態の判別処理では、撮像ユニット101から取得することができる情報のうち、白色成分(非分光)の水平偏光成分と鉛直偏光成分との比較による偏光情報を用いる。
[Distinction processing of wet and dry road surface]
Hereinafter, the determination process of the wet and dry information in the present embodiment will be described.
In this embodiment, in order to determine whether the road surface is wet and the host vehicle is slippery, a determination process is performed to determine the wet and dry state of the road surface.
In the determination process of the road surface wet / dry state in the present embodiment, polarization information obtained by comparing the white component (non-spectral) horizontal polarization component and the vertical polarization component among the information that can be acquired from the imaging unit 101 is used.

図32(a)及び(b)は、路面が湿潤状態である場合と乾燥状態である場合の反射光の変化を説明するための説明図である。
図32(a)に示すように、湿潤状態の路面は、路面の凹凸部分に水が溜まることによって鏡面に近い状態となる。そのため、湿潤状態の路面における反射光は、次のような偏光特性を示す。すなわち、反射光の水平偏光成分および鉛直偏光成分の反射率をそれぞれRs、Rpとすると、光強度Iの入射光に対する反射光の水平偏光成分Isと鉛直偏光成分Ipは、下記の式(1)及び(2)より算出でき、その入射角依存性は、図33に示すようなものとなる。
Is = Rs×I ・・・(1)
Ip = Rp×I ・・・(2)
FIGS. 32A and 32B are explanatory diagrams for explaining changes in reflected light when the road surface is in a wet state and in a dry state.
As shown in FIG. 32A, the wet road surface becomes close to a mirror surface when water accumulates on the uneven portions of the road surface. Therefore, the reflected light on the wet road surface exhibits the following polarization characteristics. That is, when the reflectances of the horizontal polarization component and the vertical polarization component of the reflected light are Rs and Rp, respectively, the horizontal polarization component Is and the vertical polarization component Ip of the reflected light with respect to the incident light having the light intensity I are expressed by the following formula (1). And (2), and the incident angle dependency is as shown in FIG.
Is = Rs × I (1)
Ip = Rp × I (2)

図33から分かるように、鏡面における反射光の水平偏光成分Isの反射率Rsは、入射角がブリュースタ角(53.1°)に等しいときにゼロとなり、水平偏光成分Isの反射光強度はゼロとなる。また、鏡面における反射光の鉛直偏光成分Ipの反射率Rpは、入射角の増大に伴って漸増する特性を示すので、鉛直偏光成分Ipの反射光強度も入射角の増大に伴って漸増する。一方、図32(b)に示すように、乾燥状態の路面は、その表面が粗面であるため、乱反射が支配的となり、反射光は偏光特性を示さず、各偏光成分の反射率Rs,Rpの差は小さくなる。   As can be seen from FIG. 33, the reflectance Rs of the horizontal polarization component Is of the reflected light at the mirror surface becomes zero when the incident angle is equal to the Brewster angle (53.1 °), and the reflected light intensity of the horizontal polarization component Is is It becomes zero. Further, since the reflectance Rp of the vertical polarization component Ip of the reflected light at the mirror surface shows a characteristic that gradually increases as the incident angle increases, the reflected light intensity of the vertical polarization component Ip also increases gradually as the incident angle increases. On the other hand, as shown in FIG. 32B, the road surface in the dry state has a rough surface, so that irregular reflection is dominant, and the reflected light does not exhibit polarization characteristics, and the reflectance Rs, The difference in Rp becomes smaller.

このような路面からの反射光の偏光特性の違いにより、路面が湿潤状態であるか乾燥状態であるかを判別することが可能である。具体的には、本実施形態では、路面の乾湿状態の判別には、下記の式(3)に示す偏光比Hを用いる。この偏光比Hは、例えば、路面を映し出す画像領域について、白色光(非分光)の鉛直偏光成分Pと白色光(非分光)の水平偏光成分Sとの比率(S/P)を算出し、その平均値等から求めることができる。偏光比Hは、下記の式(3)に示すように入射光強度Iに依存しないパラメータであるため、撮像領域内の輝度変動の影響を受けることなく、安定して路面の乾湿状態判別を行うことができる。
H = Is/Ip = Rs/Rp ・・・(3)
It is possible to determine whether the road surface is wet or dry based on the difference in the polarization characteristics of the reflected light from the road surface. Specifically, in the present embodiment, the polarization ratio H shown in the following formula (3) is used to determine the wet and dry state of the road surface. The polarization ratio H is calculated, for example, for the image area that reflects the road surface by calculating the ratio (S / P) of the vertical polarization component P of white light (non-spectral) and the horizontal polarization component S of white light (non-spectral). It can be obtained from the average value. Since the polarization ratio H is a parameter that does not depend on the incident light intensity I as shown in the following formula (3), the wet / dry condition of the road surface can be determined stably without being affected by luminance fluctuations in the imaging region. be able to.
H = Is / Ip = Rs / Rp (3)

このようにして求まる偏光比Hが所定の閾値を超えている場合には路面の湿潤状態であると判別し、所定の閾値以下である場合には路面の乾燥状態であると判別する。路面が乾燥している場合、水平偏光成分Sと鉛直偏光成分Pはほぼ等しいので、偏光比Hは1前後の値となる。一方、路面が完全に濡れている場合、水平偏光成分Sは鉛直偏光成分Pよりもかなり大きい値をとるので偏光比Hは大きな値となり、また、路面が僅かだけ濡れているような場合、偏光比Hはこれらの中間値となる。   When the polarization ratio H obtained in this way exceeds a predetermined threshold value, it is determined that the road surface is wet, and when it is equal to or less than the predetermined threshold value, it is determined that the road surface is dry. When the road surface is dry, the horizontal polarization component S and the vertical polarization component P are substantially equal, so the polarization ratio H is about 1. On the other hand, when the road surface is completely wet, the horizontal polarization component S takes a value much larger than the vertical polarization component P, so the polarization ratio H becomes a large value, and when the road surface is slightly wet, The ratio H is an intermediate value between them.

以上のような路面の乾湿状態の判別処理の判別結果は、本実施形態では、自車両100の運転者へ警告や、自車両のハンドルやブレーキを制御するなどの走行支援制御に利用される。具体的には、路面が湿潤状態であることが判別された場合、その判別結果は車両走行制御ユニット108に送られ、例えば、自車両100の自動ブレーキシステムの制御に利用することで交通事故の低減効果等を期待できる。また、例えば、自車両のカーナビゲーションシステムのCRT画面などに路面が滑りやすいことを警告する情報を報知して、運転者に注意を喚起してもよい。   In this embodiment, the determination result of the determination process of the wet / dry condition of the road surface as described above is used for driving support control such as warning to the driver of the host vehicle 100 and control of the steering wheel and brake of the host vehicle. Specifically, when it is determined that the road surface is wet, the determination result is sent to the vehicle travel control unit 108, and is used for, for example, control of the automatic brake system of the host vehicle 100, thereby causing a traffic accident. A reduction effect can be expected. Further, for example, information that warns that the road surface is slippery may be notified on the CRT screen of the car navigation system of the host vehicle to alert the driver.

〔路面金属物の検出処理〕
以下、本実施形態における路面金属物の検出処理について説明する。
本実施形態では、自車両100の横滑りなどを防止したり、後述するレーダの誤認識を抑制したりすることを目的に、検出対象物としての路面金属物を検出する処理を行う。ここでいう路面金属物は、路面とほぼ同一平面上に存在する金属製の物体であり、例えば、一般道路上のマンホール蓋や高速道路の金属製繋ぎ部などである。マンホール蓋は、マンホールの開口部に嵌められた金属板であり、強固かつ重量のある鋳鉄製であるのが一般的である。
[Detection of road surface metal objects]
Hereinafter, the detection process of the road surface metal object in this embodiment is demonstrated.
In the present embodiment, a process of detecting a road surface metal object as a detection target is performed for the purpose of preventing a side slip of the host vehicle 100 or suppressing erroneous recognition of a radar described later. The road surface metal object here is a metal object that exists on substantially the same plane as the road surface, and is, for example, a manhole cover on a general road or a metal joint on a highway. The manhole cover is a metal plate fitted into the opening of the manhole, and is generally made of strong and heavy cast iron.

本実施形態における路面金属物の検出処理では、まず、検出対象物である路面金属物が存在しない路面以外を映し出す画像領域、具体的には撮像画像の上部領域を除外した識別対象領域を限定する。この識別対象領域を限定は必ずしも必要ではないが、処理時間の短縮のために有効である。続いて、識別対象領域について複数の処理ラインを設定する。本実施形態の処理ラインは、図34に示すように、識別対象領域内の横1列に並んだ画素列ごとに設定される。処理ラインの方向は、必ずしも横方向である必要はなく、縦方向又は斜め方向であってもよい。また、各処理ラインの画素数は、互いに同じであっても異なってもよい。また、処理ラインは、必ずしも、識別対象領域内の全画素に対して設定される必要はなく、識別対象領域内の適切に選択された一部の画素について設定するようにしてもよい。   In the road surface metal object detection process according to the present embodiment, first, an image area that projects other than the road surface where the road surface metal object that is the detection target does not exist, specifically, an identification target area that excludes the upper area of the captured image is limited. . Although it is not always necessary to limit the identification target area, it is effective for shortening the processing time. Subsequently, a plurality of processing lines are set for the identification target area. As shown in FIG. 34, the processing line of the present embodiment is set for each pixel column arranged in one horizontal row in the identification target region. The direction of the processing line is not necessarily the horizontal direction, and may be the vertical direction or the oblique direction. In addition, the number of pixels in each processing line may be the same or different. In addition, the processing line is not necessarily set for all the pixels in the identification target area, and may be set for some appropriately selected pixels in the identification target area.

本実施形態における路面金属物の検出処理では、撮像ユニット101から取得することができる情報のうち、白色成分(非分光)の水平偏光成分Sと鉛直偏光成分Pとの比較による偏光情報を用いる。なお、白色成分の鉛直偏光成分には、赤色光の鉛直偏光成分を含めても良い。本実施形態では、この偏光情報として、白色成分(非分光)の水平偏光成分Sと鉛直偏光成分Pの差分偏光度((S−P)/(S+P))を用いる。具体的には、撮像ユニット101で撮像された、白色成分(非分光)の水平偏光成分Sの画像データと白色成分(非分光)の鉛直偏光成分Pの画像データとから、その差分偏光度((S−P)/(S+P))を画素値とした差分偏光度画像を生成する。そして、上述した処理ラインに沿って、隣接する2つの画素値(差分偏光度)の差分値を算出し、その差分値が路面金属物エッジ用の閾値以上である場合に、当該2つの隣接画素間をエッジとして特定する。そして、特定されたエッジに係る2つの画素の画素値(差分偏光度)を、予め決められた路面金属物特定用の閾値と比較し、当該閾値以上であれば、そのエッジを路面金属物のエッジであるとして抽出する。   In the detection process of the road surface metal object in the present embodiment, the polarization information obtained by comparing the horizontal polarization component S of the white component (non-spectral) and the vertical polarization component P among the information that can be acquired from the imaging unit 101 is used. Note that the vertical polarization component of red light may include the vertical polarization component of red light. In the present embodiment, as the polarization information, the differential polarization degree ((S−P) / (S + P)) between the white component (non-spectral) horizontal polarization component S and the vertical polarization component P is used. Specifically, from the image data of the white component (non-spectral) horizontal polarization component S and the white component (non-spectral) vertical polarization component P imaged by the imaging unit 101, the differential polarization degree ( A differential polarization degree image having a pixel value of (SP) / (S + P)) is generated. Then, a difference value between two adjacent pixel values (difference polarization degree) is calculated along the processing line described above, and the two adjacent pixels are calculated when the difference value is equal to or greater than a threshold value for the road surface metal object edge. Specify the interval as an edge. Then, the pixel value (difference of polarization) of the two pixels related to the specified edge is compared with a predetermined threshold value for specifying the road surface metal object. Extract as an edge.

このようなエッジ抽出処理を全処理ラインについて行うことで、路面金属物のエッジによって囲まれた画像領域を路面金属物の画像領域候補として抽出することができる。その後、このようにして抽出した路面金属物の画像領域候補について形状近似認識処理を施す。具体的には、抽出した路面金属物の画像領域候補の形状を、予め記憶されている路面金属物の形状テンプレートと比較する。そして、路面金属物の画像領域候補の形状が路面金属物の形状テンプレートと一致した場合、その画像領域候補が路面金属物の画像領域であると識別する。   By performing such an edge extraction process for all the processing lines, an image area surrounded by an edge of the road surface metal object can be extracted as an image area candidate of the road surface metal object. After that, shape approximation recognition processing is performed on the image area candidate of the road surface metal object extracted in this way. Specifically, the shape of the extracted image area candidate of the road surface metal object is compared with the shape template of the road surface metal object stored in advance. When the shape of the image area candidate of the road surface metal object matches the shape template of the road surface metal object, the image area candidate is identified as the image area of the road surface metal object.

この形状近似認識処理では、路面金属物の画像領域候補に係るエッジに対して形状近似認識により近似曲線を取得する。形状を認識する手法としては、最小二乗法やハフ変換やモデル方程式などの手法を用いる。なお、近似曲線を取得する際、信頼性の高い撮像画像の下方部分に位置する画像領域候補に係るエッジほど形状近似の投票値に大きな重みを持たせるようにすることが望ましい。このようにすれば、信頼性の低い撮像画像の上方部分で誤認識された画像領域候補に係るエッジが存在しても、信頼性の高い撮像画像の下方部分で正常に認識された画像領域候補に係るエッジが存在すれば、路面金属物を適切に識別することができる。   In this shape approximation recognition process, an approximate curve is acquired by shape approximation recognition for the edges related to the image area candidate of the road surface metal object. As a method for recognizing the shape, a least square method, a Hough transform, a model equation, or the like is used. Note that when obtaining an approximate curve, it is desirable that an edge related to an image region candidate located in a lower portion of a highly reliable captured image is given a higher weight to a shape approximation vote value. In this way, even if there is an edge related to an image region candidate that is misrecognized in the upper part of the image with low reliability, the image region candidate that is normally recognized in the lower part of the image with high reliability If there is an edge related to, the road surface metal object can be appropriately identified.

また、路面金属物の検出精度を高めるために、次のような処理を付加してもよい。
リアルタイムに路面金属物を検出する場合において、撮像装置200にて所定の時間間隔で連続的に撮像して得られる差分偏光度画像に基づいて路面金属物であると識別された画像領域については、その処理結果を所定のメモリに記憶する。このメモリに記憶される一枚前又は二枚以上前の処理結果を利用し、今回の処理により識別された路面金属物の画像領域が、その画像領域に対応する過去の処理結果でも路面金属物であると識別されていれば、今回の処理結果が信頼度の高いものであると判断する。そして、この信頼度を今回の処理において路面金属物の画像領域を識別する際に利用する。今回の処理結果に係る画像領域に対応する過去の処理結果は、例えば、今回の処理結果に係る画像領域の位置と自車量の進行方向や速度とから、対応する過去の処理結果に係る画像領域の位置を検索して、対応する過去の処理結果を特定する。
Moreover, in order to improve the detection accuracy of road surface metal objects, the following processing may be added.
In the case of detecting a road surface metal object in real time, for an image region identified as a road surface metal object based on a differential polarization degree image obtained by continuously capturing images at predetermined time intervals by the imaging device 200, The processing result is stored in a predetermined memory. Using the processing result of the previous sheet or two or more sheets stored in this memory, the road surface metal object image area identified by this process is the road surface metal object even in the past processing result corresponding to the image area. If it is identified that the current processing result is high, the current processing result is determined to be highly reliable. And this reliability is utilized when identifying the image area | region of a road surface metal object in this process. The past processing result corresponding to the image region related to the current processing result is, for example, an image related to the corresponding past processing result from the position of the image region related to the current processing result and the traveling direction and speed of the own vehicle amount. The position of the area is searched and the corresponding past processing result is specified.

以上の説明では、路面金属物のエッジ抽出処理を、処理ラインに沿って実行する場合について説明したが、処理ラインではなく、処理ブロック(縦横それぞれ2画素以上からなるブロック)単位で行ってもよい。この場合、例えば、識別対象領域に対して複数の処理ブロックを設定し、処理ブロックごとに、画素値(差分偏光度)のばらつき度合い(散らばり度合い)を示す標準偏差を算出し、算出した標準偏差が基準偏差閾値以上である場合にその処理ブロック内にエッジが存在すると判定することができる。なお、処理ブロックは、矩形の区域で設定されてもよいし、他の形状の区域で設定されてもよい。処理ブロックの大きさは、例えば10×10画像画素程度であってよい。なお、各処理ブロックは、同じサイズであっても、異なるサイズであってもよい。また、標準偏差に代えて、分散や平均偏差等の統計量が用いられてもよい。   In the above description, the case where the edge extraction process of the road surface metal object is performed along the processing line has been described. However, instead of the processing line, the processing may be performed in units of processing blocks (blocks each including two or more pixels in the vertical and horizontal directions). . In this case, for example, a plurality of processing blocks are set for the identification target region, and a standard deviation indicating a variation degree (scattering degree) of the pixel value (difference polarization degree) is calculated for each processing block. Can be determined that an edge is present in the processing block. Note that the processing block may be set in a rectangular area, or may be set in an area having another shape. The size of the processing block may be about 10 × 10 image pixels, for example. Each processing block may be the same size or a different size. Further, instead of the standard deviation, a statistic such as variance or average deviation may be used.

また、路面金属物を検出する際に用いる閾値は、環境の変化に応じて切り替えてもよい。例えば、昼間と夜間などの時間帯に応じて、あるいは、雨天と晴天などの天候に応じて、切り替えることが可能である。これらの切り替えは、時間情報やレインセンサや日照センサなどの情報を用いてもよい。   Moreover, the threshold value used when detecting the road surface metal object may be switched according to a change in the environment. For example, it is possible to switch according to time zones such as daytime and nighttime, or according to weather such as rainy weather and fine weather. For such switching, information such as time information or a rain sensor or a sunshine sensor may be used.

ここで、差分偏光度を用いることで路面金属物を路面と区別して認識できる理由について説明する。
屈折率が互いに異なる2つの材質の界面に対してある角度(入射角)をもって光が入射するとき、入射面に平行な偏光成分(本実施形態では鉛直偏光成分P)と、入射面に垂直な偏光成分(本実施形態では水平偏光成分S)とでは、反射率が異なる。詳しくは、鉛直偏光成分Pの反射率は、入射角の増大に伴って、ある角度(ブリュースター角)でゼロまで減少し、その後増加する。一方、水平偏光成分Sの反射率は、入射角の増大に伴って単調増加する。このように鉛直偏光成分Pと水平偏光成分Sとの間では反射特性が異なるので、差分偏光度((S−P)/(S+P))も、入射角や屈折率によって変わってくる。
Here, the reason why the road surface metal object can be distinguished from the road surface by using the differential polarization degree will be described.
When light is incident at an angle (incident angle) with respect to an interface between two materials having different refractive indexes, a polarization component parallel to the incident surface (vertical polarization component P in the present embodiment) and a perpendicular to the incident surface. The reflectance is different from that of the polarization component (horizontal polarization component S in this embodiment). Specifically, the reflectivity of the vertical polarization component P decreases to zero at a certain angle (Brewster angle) as the incident angle increases, and then increases. On the other hand, the reflectance of the horizontal polarization component S monotonously increases as the incident angle increases. As described above, since the reflection characteristics are different between the vertical polarization component P and the horizontal polarization component S, the degree of differential polarization ((SP) / (S + P)) also varies depending on the incident angle and the refractive index.

本実施形態では、反射面の材質の違いすなわち屈折率の違いによって差分偏光度((S−P)/(S+P))が異なってくることを利用して、差分偏光度により路面金属物を路面と区別して認識する。すなわち、路面は一般にアスファルトによって形成されているのに対し、路面金属物は金属で形成されている。このような材質の違いがあると、屈折率が異なるため、路面と路面金属物との間で差分偏光度に違いが生じる。この違いにより、上述したように路面と路面金属物との境界(エッジ)を抽出することが可能となり、路面金属物の画像領域の識別が可能となる。そして、形状近似認識処理により、形状テンプレートを用いて路面金属物の種類(マンホール蓋であるのか、金属製繋ぎ部であるのか等)を特定することができる。   In the present embodiment, the difference in polarization degree ((S−P) / (S + P)) varies depending on the difference in the material of the reflecting surface, that is, the difference in refractive index. Recognize with distinction. That is, the road surface is generally formed of asphalt, while the road surface metal object is formed of metal. If there is such a difference in material, since the refractive index is different, there is a difference in the differential polarization degree between the road surface and the road surface metal object. Due to this difference, as described above, the boundary (edge) between the road surface and the road surface metal object can be extracted, and the image area of the road surface metal object can be identified. Then, by the shape approximation recognition process, it is possible to specify the type of road surface metal object (whether it is a manhole cover or a metal connecting portion) using the shape template.

図35(a)及び(b)は、同じ撮像領域を撮像したモノクロ輝度画像(非分光・非偏光)と非分光の差分偏光度画像とを示す画像例である。
撮像領域内が暗いため、図35(a)に示すモノクロ輝度画像では、アスファルト面(路面)とマンホール蓋(路面金属物)とのコントラストが小さいことがわかる。これに対し、図35(b)に示す差分偏光度画像では、アスファルト面(路面)とマンホール蓋(路面金属物)とのコントラストが大きい。よって、モノクロ輝度画像ではマンホール蓋を識別することが困難な状況下であっても、差分偏光度画像を用いればマンホール蓋を高精度に識別することが可能である。
FIGS. 35A and 35B are image examples showing monochrome luminance images (non-spectral / non-polarized light) and non-spectral differential polarization degree images obtained by imaging the same imaging region.
Since the imaging region is dark, it can be seen that the contrast between the asphalt surface (road surface) and the manhole cover (road surface metal object) is small in the monochrome luminance image shown in FIG. In contrast, in the differential polarization degree image shown in FIG. 35B, the contrast between the asphalt surface (road surface) and the manhole cover (road surface metal object) is large. Therefore, even if it is difficult to identify the manhole cover in the monochrome luminance image, the manhole cover can be identified with high accuracy by using the differential polarization degree image.

以上のような路面金属物の検出処理の結果は、本実施形態では、自車両100の運転者へ警告や、自車両のハンドルやブレーキを制御するなどの走行支援制御に利用される。具体的には、路面金属物であることが判別された場合、その判別結果は車両走行制御ユニット108に送られ、例えば、自車両100の自動ブレーキシステムの制御に利用することで交通事故の低減効果等を期待できる。また、例えば、自車両のカーナビゲーションシステムのCRT画面などに車線逸脱情報を報知して、運転者に注意を喚起することにも利用可能である。   In the present embodiment, the result of the road surface metal object detection process as described above is used for driving support control such as warning of the driver of the host vehicle 100 and control of the steering wheel and brake of the host vehicle. Specifically, when it is determined that the road surface is a metal object, the determination result is sent to the vehicle travel control unit 108, and is used for controlling the automatic brake system of the host vehicle 100, for example, to reduce traffic accidents. We can expect effect. Further, for example, it can be used to alert the driver by notifying lane departure information on the CRT screen of the car navigation system of the host vehicle.

更に、路面金属物の検出処理の結果は、レーダの測距結果と撮像装置200の撮像画像とを併用したセンサフュージョンシステムに利用することができる。具体的に説明すると、路面金属物がレーダの測定結果により先行車両やガードレール等の衝突回避物として誤認識されるおそれがある。撮像装置200の撮像画像により路面金属物を検出した結果によりレーダの測定結果を修正することで、レーダにおける衝突回避物の誤認識を抑制することができる。その結果、例えば、自車両の走行中に路面金属物が衝突回避物としてご認識されて、自動ブレーキシステムが作動して自車両の速度が急激に低下してしまうような事態を回避することができる。   Further, the result of the road surface metal object detection process can be used in a sensor fusion system that uses both the radar distance measurement result and the captured image of the imaging apparatus 200. If it demonstrates concretely, there exists a possibility that a road surface metal object may be misrecognized as collision avoidance objects, such as a preceding vehicle and a guardrail, by the measurement result of a radar. By correcting the measurement result of the radar based on the result of detecting the road surface metal object from the captured image of the imaging apparatus 200, it is possible to suppress erroneous recognition of the collision avoidance object in the radar. As a result, for example, it is possible to avoid a situation in which the road surface metal object is recognized as a collision avoidance object while the host vehicle is running, and the speed of the host vehicle is rapidly reduced due to the operation of the automatic brake system. it can.

また、路面金属物の検出処理の結果は、カーナビゲーションにおける位置情報として利用することで、自車両の位置特定精度を向上させることができる。具体的に説明すると、路面上のマンホール位置の位置情報をデータベース化しておく。そして、マンホール蓋の検出結果から、自車両から当該マンホール蓋までの距離や方角等を特定して、当該マンホール蓋に対する相対的な自車両の相対位置情報を生成するとともに、当該マンホール蓋に対応するマンホールIDを特定する。その後、特定したマンホールIDに対応するマンホール位置情報をデータベースから読み出し、そのマンホール位置情報とこのマンホールに対する自車両の相対位置情報とから、カーナビゲーションが特定した自車両の位置を補正する。   Further, the result of the road surface metal object detection process can be used as position information in car navigation, thereby improving the position specifying accuracy of the host vehicle. More specifically, the position information of manhole positions on the road surface is stored in a database. Then, from the detection result of the manhole cover, the distance and direction from the own vehicle to the manhole cover are specified, and the relative position information of the own vehicle relative to the manhole cover is generated, and the manhole cover is supported. Specify the manhole ID. Thereafter, the manhole position information corresponding to the specified manhole ID is read from the database, and the position of the own vehicle specified by the car navigation is corrected from the manhole position information and the relative position information of the own vehicle with respect to the manhole.

なお、路面金属物の検出処理を行う際、後述する白線認識処理の結果を利用して白線を除去した差分偏光度画像に対して路面金属物の検出処理を行ってもよい。この場合、白線を含むノイズを適切に除去して、路面金属物の識別精度を高めることができる。   When performing the road surface metal object detection process, the road surface metal object detection process may be performed on the differential polarization degree image from which the white line has been removed using the result of the white line recognition process described later. In this case, noise including a white line can be appropriately removed, and the road surface metal object identification accuracy can be improved.

〔立体物の検出処理〕
以下、本実施形態における立体物の検出処理について説明する。
本実施形態では、立体物への衝突を回避することを目的に、検出対象物としての立体物を検出する処理を行う。ここでいう立体物としては、走行路面上を走行する他の車両、走行路面の路端近傍に存在するガードレール、電信柱、街灯、標識、路端の段差部等の路外障害物、走行路面上又は路肩に居る人、動物、自転車など、走行路面とは異なる方向を向いた外面を有するあらゆる立体物が含まれる。
[Three-dimensional object detection processing]
Hereinafter, the solid object detection process in the present embodiment will be described.
In the present embodiment, for the purpose of avoiding a collision with a three-dimensional object, a process of detecting a three-dimensional object as a detection target is performed. The three-dimensional objects mentioned here include other vehicles traveling on the road surface, guardrails, telephone poles, street lamps, signs, roadside steps such as roadside steps on the road surface, road surface Any three-dimensional object having an outer surface facing in a direction different from the traveling road surface, such as a person on an upper or shoulder road, an animal, or a bicycle, is included.

本実施形態における立体物の検出処理では、撮像ユニット101から取得することができる情報のうち、白色成分(非分光)の水平偏光成分Sと鉛直偏光成分Pとの比較による偏光情報を用いる。なお、白色成分の鉛直偏光成分には、赤色光の鉛直偏光成分を含めても良い。本実施形態では、この偏光情報として、上記路面金属物の検出処理と同様、白色成分(非分光)の水平偏光成分Sと鉛直偏光成分Pの差分偏光度((S−P)/(S+P))を用いる。   In the three-dimensional object detection process in the present embodiment, polarization information obtained by comparing the white component (non-spectral) horizontal polarization component S and the vertical polarization component P among the information that can be acquired from the imaging unit 101 is used. Note that the vertical polarization component of red light may include the vertical polarization component of red light. In this embodiment, as this polarization information, as in the road surface metal object detection process, the differential polarization degree ((S−P) / (S + P) between the horizontal polarization component S of the white component (non-spectral) and the vertical polarization component P. ) Is used.

まず、撮像ユニット101で撮像された、白色成分(非分光)の水平偏光成分Sの画像データと白色成分(非分光)の鉛直偏光成分Pの画像データとから、その差分偏光度((S−P)/(S+P))を画素値とした差分偏光度画像を生成する。そして、上記路面金属物の検出処理と同様、処理ラインを設定する。ただし、ここでの検出対象物である立体物は、撮像領域全域にわたって存在し得るため、図36に示すように、識別対象領域を限定せずに、撮像画像全体について処理ラインを設定する。なお、処理ライン(あるいは処理ブロック)の設定方法については、上記路面金属物の検出処理と同様である。   First, from the image data of the white component (non-spectral) horizontal polarization component S and the image data of the white component (non-spectral) vertical polarization component P imaged by the imaging unit 101, the differential polarization degree ((S− A differential polarization degree image having P) / (S + P)) as a pixel value is generated. And a processing line is set similarly to the detection process of the said road surface metal object. However, since the three-dimensional object which is the detection target here can exist over the entire imaging region, the processing line is set for the entire captured image without limiting the identification target region as shown in FIG. In addition, about the setting method of a processing line (or processing block), it is the same as that of the detection process of the said road surface metal object.

このようにして処理ラインを設定したら、上述した処理ラインに沿って、隣接する2つの画素値(差分偏光度)の差分値を算出し、その差分値が立体物エッジ用の閾値以上である場合に、当該2つの隣接画素間をエッジとして特定する。そして、特定されたエッジに係る2つの画素の画素値(差分偏光度)を、予め決められた立体物特定用の閾値と比較し、当該閾値以上であれば、そのエッジを立体物のエッジであるとして抽出する。   When the processing line is set in this way, a difference value between two adjacent pixel values (difference polarization degree) is calculated along the processing line described above, and the difference value is equal to or larger than a threshold for the three-dimensional object edge. In addition, the interval between the two adjacent pixels is specified as an edge. Then, the pixel value (difference polarization degree) of the two pixels related to the specified edge is compared with a predetermined threshold for specifying a three-dimensional object. Extract as there is.

このようなエッジ抽出処理を全処理ラインについて行うことで、立体物のエッジによって囲まれた画像領域を立体物の画像領域候補として抽出することができる。その後、このようにして抽出した立体物の画像領域候補について形状近似認識処理を施す。具体的には、抽出した立体物の画像領域候補の形状を、予め記憶されている立体物の形状テンプレートと比較する。そして、立体物の画像領域候補の形状が立体物の形状テンプレートと一致した場合、その画像領域候補が立体物の画像領域であると識別する。この形状近似認識処理は、上述した路面金属物の検出処理の場合と同様である。   By performing such an edge extraction process for all the processing lines, an image region surrounded by the edges of the three-dimensional object can be extracted as an image region candidate for the three-dimensional object. Thereafter, a shape approximation recognition process is performed on the image region candidate of the three-dimensional object extracted in this way. Specifically, the shape of the extracted three-dimensional object image region candidate is compared with a shape object template stored in advance. When the shape of the candidate image area of the three-dimensional object matches the shape template of the three-dimensional object, the candidate image area is identified as the image area of the three-dimensional object. This shape approximation recognition process is the same as in the case of the road surface metal object detection process described above.

また、立体物を検出する際に用いる閾値は、環境の変化に応じて切り替えてもよい。例えば、昼間と夜間などの時間帯に応じて、あるいは、雨天と晴天などの天候に応じて、切り替えることが可能である。これらの切り替えは、時間情報やレインセンサや日照センサなどの情報を用いてもよい。   Further, the threshold value used when detecting the three-dimensional object may be switched according to a change in environment. For example, it is possible to switch according to time zones such as daytime and nighttime, or according to weather such as rainy weather and fine weather. For such switching, information such as time information or a rain sensor or a sunshine sensor may be used.

ここで、差分偏光度を用いることで立体物を認識できる理由について説明する。
既に述べたとおり、屈折率が互いに異なる2つの材質の界面に対してある角度(入射角)をもって光が入射するとき、鉛直偏光成分Pと水平偏光成分Sとの間で反射特性が異なるので、差分偏光度((S−P)/(S+P))が入射角や屈折率によって変わってくる。本実施形態では、反射面の材質の違いすなわち屈折率の違いによって差分偏光度((S−P)/(S+P))が異なってくることを利用して、差分偏光度により立体物を路面と区別して認識することができる。すなわち、路面は一般にアスファルトによって形成されているのに対し、撮像領域内に存在する他車両やガードレールなどの立体物は、金属面に塗装が施されたものである。このような材質の違いがあれば、屈折率が異なるため、路面と立体物との間で差分偏光度に違いが生じる。この違いにより、上述したように路面と塗装面を有する他車両やガードレール等の立体物との境界(エッジ)を抽出することが可能となり、その立体物の画像領域の識別が可能となる。
Here, the reason why a three-dimensional object can be recognized by using the differential polarization degree will be described.
As already described, when light is incident at an angle (incident angle) with respect to the interface between two materials having different refractive indexes, the reflection characteristics are different between the vertical polarization component P and the horizontal polarization component S. The differential polarization degree ((SP) / (S + P)) varies depending on the incident angle and the refractive index. In the present embodiment, the difference in polarization degree ((S−P) / (S + P)) varies depending on the difference in the material of the reflecting surface, that is, the difference in refractive index. Can be distinguished and recognized. That is, while the road surface is generally formed of asphalt, solid objects such as other vehicles and guardrails existing in the imaging region are painted on the metal surface. If there is such a difference in material, since the refractive index is different, there is a difference in the degree of differential polarization between the road surface and the three-dimensional object. Due to this difference, as described above, it is possible to extract a boundary (edge) between a solid object such as another vehicle having a road surface and a painted surface or a guardrail, and it is possible to identify an image area of the solid object.

また、路面は略水平で平坦な面であるのに対し、他車両等の立体物は路面とは異なる方向を向いた側面を有する。したがって、路面と立体物の側面とでは、撮像装置200に取り込まれる反射光の入射角が異なるため、その反射光の鉛直偏光成分Pと水平偏光成分Sとが路面と立体物の側面とで違いが出る。特に、立体物の側面が路面に対して略直立した面であると、立体物の側面からの反射光に含まれる鉛直偏光成分Pと水平偏光成分Sとの間の相対関係は、路面からの反射光に含まれる鉛直偏光成分Pと水平偏光成分Sとの間の相対関係を入れ替えたものに近似する。そして、一般に、反射光に含まれる鉛直偏光成分Pと水平偏光成分Sとの相対関係は、入射面に対して平行な偏光成分である鉛直偏光成分Pよりも、入射面に対して垂直な偏光成分である水平偏光成分Sの方が大きいという関係がある。したがって、路面あるいは路面に平行な面からの反射光を撮像装置200で受光した場合には鉛直偏光成分Pよりも水平偏光成分Sの方が強く、路面に対して略直立した立体物側面からの反射光を撮像装置200で受光した場合には水平偏光成分Sよりも鉛直偏光成分Pの方が強い。このような路面と立体物との間の偏光特性の違いにより、撮像装置200で受光した反射光中の鉛直偏光成分Pと水平偏光成分Sとを比較することで、水平偏光成分Sが強ければ路面に平行な面からの反射光であることが把握でき、鉛直偏光成分Pが強ければ路面に垂直な面からの反射光であることが把握できる。その結果、例えば、撮像装置200で受光した反射光中に含まれる鉛直偏光成分Pと水平偏光成分Sとの差分値(あるいは差分偏光度)をとることで、その差分値(あるいは差分偏光度)の正負により、路面に平行な面を有する物体なのか、路面とは異なる方向を向いた外面を有する物体すなわち立体物なのかを把握することが可能である。   In addition, the road surface is a substantially horizontal and flat surface, while a three-dimensional object such as another vehicle has a side surface facing a direction different from the road surface. Therefore, since the incident angle of the reflected light taken into the imaging device 200 is different between the road surface and the side surface of the three-dimensional object, the vertical polarization component P and the horizontal polarization component S of the reflected light are different between the road surface and the side surface of the three-dimensional object. coming out. In particular, when the side surface of the three-dimensional object is a surface substantially upright with respect to the road surface, the relative relationship between the vertical polarization component P and the horizontal polarization component S included in the reflected light from the side surface of the three-dimensional object is from the road surface. It approximates to the one in which the relative relationship between the vertical polarization component P and the horizontal polarization component S included in the reflected light is switched. In general, the relative relationship between the vertical polarization component P and the horizontal polarization component S included in the reflected light is such that the vertical polarization component P, which is a polarization component parallel to the incidence plane, is polarized perpendicular to the incidence plane. There is a relationship that the horizontal polarization component S which is a component is larger. Therefore, when the reflected light from the road surface or a plane parallel to the road surface is received by the imaging device 200, the horizontal polarization component S is stronger than the vertical polarization component P, and is from the side of the three-dimensional object substantially upright with respect to the road surface. When the reflected light is received by the imaging device 200, the vertical polarization component P is stronger than the horizontal polarization component S. By comparing the vertical polarization component P and the horizontal polarization component S in the reflected light received by the imaging device 200 due to the difference in polarization characteristics between the road surface and the three-dimensional object, if the horizontal polarization component S is strong, It can be understood that the reflected light is from a plane parallel to the road surface. If the vertical polarization component P is strong, it can be understood that the reflected light is from a plane perpendicular to the road surface. As a result, for example, by taking the difference value (or difference polarization degree) between the vertical polarization component P and the horizontal polarization component S included in the reflected light received by the imaging device 200, the difference value (or difference polarization degree) is obtained. Whether the object has a surface parallel to the road surface or an object having an outer surface facing in a direction different from the road surface, that is, a three-dimensional object, can be grasped.

以上のような材質や入射角の違いにより、路面と立体物との境界(エッジ)を抽出することが可能となり、その立体物の画像領域の識別が可能となる。そして、形状近似認識処理により、形状テンプレートを用いて立体物の種類(自動車であるのか、ガードレールであるのか等)を特定することができる。   Due to the difference in material and incident angle as described above, it is possible to extract the boundary (edge) between the road surface and the three-dimensional object, and to identify the image area of the three-dimensional object. Then, by the shape approximation recognition process, it is possible to specify the type of three-dimensional object (whether it is an automobile or a guardrail, etc.) using the shape template.

図37(a)及び(b)は、同じ撮像領域を撮像したモノクロ輝度画像(非分光・非偏光)と非分光の差分偏光度画像とを示す画像例である。
撮像領域内が暗いため、図37(a)に示すモノクロ輝度画像では、路面と先行車両(立体物)とのコントラストが小さいことがわかる。これに対し、図37(b)に示す差分偏光度画像では、路面と先行車両(立体物)とのコントラストが大きい。よって、モノクロ輝度画像では先行車両を識別することが困難な状況下であっても、差分偏光度画像を用いれば先行車両を高精度に識別することが可能である。
FIGS. 37A and 37B are image examples showing monochrome luminance images (non-spectral / non-polarized light) and non-spectral differential polarization degree images obtained by imaging the same imaging region.
Since the imaging region is dark, it can be seen that in the monochrome luminance image shown in FIG. 37A, the contrast between the road surface and the preceding vehicle (three-dimensional object) is small. On the other hand, in the differential polarization degree image shown in FIG. 37 (b), the contrast between the road surface and the preceding vehicle (three-dimensional object) is large. Therefore, even if it is difficult to identify the preceding vehicle with the monochrome luminance image, the preceding vehicle can be identified with high accuracy by using the differential polarization degree image.

ここで、上述した材質の違いに伴う差分偏光度の違いを、路面を構成する材料であるアスファルト(路面)と自動車(立体物)の側面を構成する塗料との間の偏光反射特性の違いを評価解析することにより、それらの偏光反射モデルが異なることを確認し、これによりアスファルト路面と自動車との判別が可能であることを確認した。以下、具体的に説明する。   Here, the difference in the degree of polarization due to the difference in the material described above is the difference in polarization reflection characteristics between the asphalt (road surface) that is the material constituting the road surface and the paint that constitutes the side surface of the automobile (three-dimensional object). By evaluating and analyzing, it was confirmed that the polarization reflection models were different, and as a result, it was confirmed that asphalt road surface and automobile could be distinguished. This will be specifically described below.

物体で反射した反射光には、いわゆる「てかり」である鏡面反射成分、物体表面の微細な凹凸構造であるマットな反射成分である拡散反射成分、物体内部で散乱して出てきた内部散乱成分が含まれている。反射光の強度は、これら3つの成分の和として表現される。なお、鏡面反射成分は、拡散反射成分の一部という考え方もできる。拡散反射成分と内部散乱成分は、物体を照射する光源がいずれの方向に存在しても観測されるが(すなわち、入射角の依存性が低い。)、鏡面反射成分は、反射光の受光部に対してほぼ正反射方向に光源が存在する場合にのみ観測される入射角依存性の強い成分である。これは、偏光特性に関しても成り立つ。拡散反射成分と内部散乱成分は、上述したように、物体を照射する光源がいずれの方向に存在しても観測されるのであるが、その偏光特性は互いに異なっている。具体的には、拡散反射成分は、物体表面を微小領域に分け、それぞれの領域ではフレネルの反射特性を満足するものと想定できるため、無偏光の光が入射した場合には水平偏光成分Sが鉛直偏光成分Pに比べて大きいという偏光特性がある。これに対し、内部散乱成分は、物体内部で散乱されて出てきた成分であるため、無偏光の光が入射した場合は、物体へ入射した光の偏光成分に影響されにくく、物体内部から外部に出てくる際に鉛直偏光成分Pが強くなるという偏光特性がある。   Reflected light reflected from an object includes a specular reflection component that is a so-called “light”, a diffuse reflection component that is a matte reflection component that is a fine uneven structure on the surface of the object, and internal scattering that is scattered inside the object. Contains ingredients. The intensity of the reflected light is expressed as the sum of these three components. The specular reflection component can also be considered as a part of the diffuse reflection component. Although the diffuse reflection component and the internal scattering component are observed regardless of the direction of the light source that irradiates the object (that is, the dependency on the incident angle is low), the specular reflection component is the light receiving unit for the reflected light. On the other hand, it is a component having a strong incident angle dependency that is observed only when a light source is present in a substantially regular reflection direction. This is also true for polarization characteristics. As described above, the diffuse reflection component and the internal scattering component are observed regardless of the direction of the light source that irradiates the object, but their polarization characteristics are different from each other. Specifically, the diffuse reflection component can be assumed to divide the object surface into minute regions and satisfy the Fresnel reflection characteristics in each region. Therefore, when non-polarized light is incident, the horizontal polarization component S is There is a polarization characteristic that is larger than the vertical polarization component P. On the other hand, the internal scattering component is a component that is scattered inside the object, so when non-polarized light is incident, it is less affected by the polarization component of the light incident on the object, There is a polarization characteristic that the vertical polarization component P becomes stronger when it comes out.

そして、本実施形態のように、自車両からのフロントビューを撮影する際にその撮影領域内に存在し得る物体(アスファルトやマンホール蓋等)は、そのほとんどが表面に少なからず凹凸がある物体であるため、鏡面反射成分は少ないものと考えることができる。よって、本実施形態では、撮像装置200の撮像領域内に存在する物体からの反射光は、拡散反射成分及び内部散乱成分が支配的であると考えることができる。この結果、反射光中の水平偏光成分S及び鉛直偏光成分Pの強さを比較することにより、水平偏光成分Sが強ければ反射光には拡散反射成分が多く含まれていることが把握でき、鉛直偏光成分Pが強ければ反射光には内部散乱成分が多く含まれていることが把握できる。   And like this embodiment, when photographing the front view from the host vehicle, the objects (asphalt, manhole cover, etc.) that can exist in the photographing region are mostly objects with irregularities on the surface. Therefore, it can be considered that the specular reflection component is small. Therefore, in the present embodiment, it can be considered that the diffused reflection component and the internal scattering component are dominant in the reflected light from the object existing in the imaging region of the imaging device 200. As a result, by comparing the strengths of the horizontal polarization component S and the vertical polarization component P in the reflected light, it can be understood that if the horizontal polarization component S is strong, the reflected light contains many diffuse reflection components, If the vertical polarization component P is strong, it can be understood that the reflected light contains many internal scattering components.

図38は、実験室において、被検物に対し、光源位置を変化させ、固定配置されたカメラで水平偏光成分Sの画像と鉛直偏光成分Pの画像を撮影する実験の概要を示す説明図である。
本実験では、実験室内において、アスファルト面とスチールに塗料を塗布した塗装面に対し、光源位置を変化させて固定配置されたカメラで水平偏光成分Sの画像と鉛直偏光成分Pの画像を撮影したときの差分偏光度の変化を測定した。図503は評価を行った光学系の説明図である。光源はハロゲンランプを使用し、また、カメラにはビジョンカメラを用い、カメラの前段に偏光子を配置して偏光方向を回転選択可能とした。
FIG. 38 is an explanatory diagram showing an outline of an experiment in which an image of a horizontal polarization component S and an image of a vertical polarization component P are captured by a fixedly arranged camera in a laboratory with a light source position changed. is there.
In this experiment, an image of the horizontal polarization component S and an image of the vertical polarization component P were photographed with a camera that was fixedly arranged by changing the light source position on the asphalt surface and the painted surface of steel coated with paint in the laboratory. The change in the degree of differential polarization was measured. FIG. 503 is an explanatory diagram of the evaluated optical system. A halogen lamp was used as the light source, and a vision camera was used as the camera. A polarizer was placed in front of the camera so that the direction of polarization could be selected.

図39は、本実験結果を示すグラフである。
このグラフは、横軸に入射角(光源位置)をとり、縦軸に差分偏光度をとったものである。カメラ仰角は水平から10度傾けた状態である。差分偏光度は、各入射角度の撮影画像についての略中央部の輝度情報から算出したものである。ただし、この実験における差分偏光度は、鉛直偏光成分Pと水平偏光成分Sの合計値に対する、鉛直偏光成分Pから水平偏光成分Sを差し引いた値の比率であるため、本実施形態における差分偏光度とは正負が逆になる。したがって、本実験における差分偏光度は、水平偏光成分Sよりも鉛直偏光成分Pの方が強い場合には正の値をとり、鉛直偏光成分Pよりも水平偏光成分Sの方が強い場合には負の値をとることになる。
FIG. 39 is a graph showing the results of this experiment.
In this graph, the horizontal axis represents the incident angle (light source position), and the vertical axis represents the differential polarization degree. The camera elevation angle is tilted 10 degrees from the horizontal. The differential polarization degree is calculated from luminance information at a substantially central portion of the captured image at each incident angle. However, since the differential polarization degree in this experiment is the ratio of the value obtained by subtracting the horizontal polarization component S from the vertical polarization component P to the total value of the vertical polarization component P and the horizontal polarization component S, the differential polarization degree in the present embodiment. The opposite is positive and negative. Therefore, the differential polarization degree in this experiment takes a positive value when the vertical polarization component P is stronger than the horizontal polarization component S, and when the horizontal polarization component S is stronger than the vertical polarization component P. It will take a negative value.

図39に示すグラフからわかるように、アスファルト面については、入射角のほぼ全域にわたって、差分偏光度が負の値をとっている。すなわち、鉛直偏光成分Pよりも水平偏光成分Sの方が強いことを示している。これは、アスファルト面からの反射光は拡散反射成分が支配的であるためである。一方、塗装面については、入射角が約60°を超えると差分偏光度が正の値をとる。これは、塗装面からの反射光は、内部散乱成分と拡散反射成分とが混在しているためである。このような違いにより、差分偏光度の違い(偏光特性の違い)によってアスファルト面と塗装面とを区別して認識することが可能である。   As can be seen from the graph shown in FIG. 39, regarding the asphalt surface, the differential polarization degree takes a negative value over almost the entire incident angle. That is, the horizontal polarization component S is stronger than the vertical polarization component P. This is because the diffuse reflection component is dominant in the reflected light from the asphalt surface. On the other hand, with respect to the painted surface, when the incident angle exceeds about 60 °, the differential polarization degree takes a positive value. This is because the reflected light from the painted surface contains both internal scattering components and diffuse reflection components. Due to such differences, it is possible to distinguish and recognize the asphalt surface and the painted surface by the difference in the degree of differential polarization (difference in polarization characteristics).

以上のような立体物の検出処理の結果は、本実施形態では、自車両100の運転者へ警告や、自車両のハンドルやブレーキを制御するなどの走行支援制御に利用される。具体的には、立体物であることが判別された場合、その判別結果は車両走行制御ユニット108に送られ、例えば、自車両100の自動ブレーキシステムの制御に利用することで交通事故の低減効果等を期待できる。また、例えば、自車両のカーナビゲーションシステムのCRT画面などに車線逸脱情報を報知して、運転者に注意を喚起することにも利用可能である。   In the present embodiment, the result of the three-dimensional object detection process as described above is used for driving support control such as warning to the driver of the host vehicle 100 and control of the steering wheel and brake of the host vehicle. Specifically, when it is determined that the object is a three-dimensional object, the determination result is sent to the vehicle travel control unit 108, and is used for controlling the automatic brake system of the host vehicle 100, for example, to reduce the traffic accident. Etc. can be expected. Further, for example, it can be used to alert the driver by notifying lane departure information on the CRT screen of the car navigation system of the host vehicle.

〔路端検出処理〕
以下、本実施形態における路端検出処理について説明する。
本実施形態では、自車両が走行可能領域から逸脱するのを防止する目的で、検出対象物としての路端を検出する処理を行う。ここでいう路端としては、車両走行面と歩行者通路との段差部、側溝部、植栽、ガードレール、コンクリートなどで出来た側壁などを含む。
[Road end detection processing]
Hereinafter, the road edge detection process in this embodiment will be described.
In this embodiment, the process which detects the road end as a detection target is performed for the purpose of preventing the own vehicle from deviating from the travelable region. The road edge here includes a step portion between the vehicle running surface and the pedestrian passage, a side groove portion, planting, a guardrail, a side wall made of concrete, and the like.

本実施形態における路端検出処理では、撮像ユニット101から取得することができる情報のうち、白色成分(非分光)の水平偏光成分Sと鉛直偏光成分Pとの比較による偏光情報を用いる。なお、白色成分の鉛直偏光成分には、赤色光の鉛直偏光成分を含めても良い。本実施形態では、この偏光情報として、上記立体物の検出処理と同様、白色成分(非分光)の水平偏光成分Sと鉛直偏光成分Pの差分偏光度((S−P)/(S+P))を用いる。   In the road edge detection processing in the present embodiment, polarization information obtained by comparing the white component (non-spectral) horizontal polarization component S and the vertical polarization component P among the information that can be acquired from the imaging unit 101 is used. Note that the vertical polarization component of red light may include the vertical polarization component of red light. In the present embodiment, as the polarization information, the degree of differential polarization between the white component (non-spectral) horizontal polarization component S and the vertical polarization component P ((SP) / (S + P)) is used as the polarization information. Is used.

まず、撮像ユニット101で撮像された、白色成分(非分光)の水平偏光成分Sの画像データと白色成分(非分光)の鉛直偏光成分Pの画像データとから、その差分偏光度((S−P)/(S+P))を画素値とした差分偏光度画像を生成する。そして、上記立体物の検出処理と同様、処理ラインを設定する。なお、処理ライン(あるいは処理ブロック)の設定方法については、上記立体物の検出処理と同様である。   First, from the image data of the white component (non-spectral) horizontal polarization component S and the image data of the white component (non-spectral) vertical polarization component P imaged by the imaging unit 101, the differential polarization degree ((S− A differential polarization degree image having P) / (S + P)) as a pixel value is generated. And a processing line is set like the detection process of the said solid object. Note that the processing line (or processing block) setting method is the same as the above three-dimensional object detection processing.

このようにして処理ラインを設定したら、上述した処理ラインに沿って、隣接する2つの画素値(差分偏光度)の差分値を算出し、その差分値が路端エッジ用の閾値以上である場合に、当該2つの隣接画素間をエッジとして特定する。そして、特定されたエッジに係る2つの画素の画素値(差分偏光度)を、予め決められた路端特定用の閾値と比較し、当該閾値以上であれば、そのエッジを路端のエッジであるとして抽出する。   When the processing line is set in this way, a difference value between two adjacent pixel values (difference polarization degree) is calculated along the processing line described above, and the difference value is equal to or greater than a threshold value for the road edge. In addition, the interval between the two adjacent pixels is specified as an edge. Then, the pixel value (difference polarization degree) of the two pixels related to the specified edge is compared with a predetermined threshold value for road edge identification. Extract as there is.

このようなエッジ抽出処理を全処理ラインについて行うことで、路端のエッジによって囲まれた画像領域を路端の画像領域候補として抽出することができる。その後、このようにして抽出した路端の画像領域候補について形状近似認識処理を施す。具体的には、抽出した路端の画像領域候補の形状を、予め記憶されている路端の形状テンプレートと比較する。そして、路端の画像領域候補の形状が路端の形状テンプレートと一致した場合、その画像領域候補が路端の画像領域であると識別する。この形状近似認識処理は、上述した立体物の検出処理の場合と同様である。   By performing such edge extraction processing for all processing lines, an image region surrounded by road edge can be extracted as a road edge image region candidate. Thereafter, shape approximation recognition processing is performed on the image area candidates of the road edge extracted in this way. Specifically, the shape of the extracted road edge image region candidate is compared with a road edge shape template stored in advance. When the shape of the road edge image area candidate matches the road edge shape template, the image area candidate is identified as the road edge image area. This shape approximation recognition process is the same as the above-described solid object detection process.

また、路端を検出する際に用いる閾値は、環境の変化に応じて切り替えてもよい。例えば、昼間と夜間などの時間帯に応じて、あるいは、雨天と晴天などの天候に応じて、切り替えることが可能である。これらの切り替えは、時間情報やレインセンサや日照センサなどの情報を用いてもよい。   Moreover, the threshold value used when detecting the road edge may be switched according to a change in the environment. For example, it is possible to switch according to time zones such as daytime and nighttime, or according to weather such as rainy weather and fine weather. For such switching, information such as time information or a rain sensor or a sunshine sensor may be used.

差分偏光度を用いることで路端を認識できる理由は、上記立体物の場合と同様である。すなわち、材質や入射角の違いによって差分偏光度が異なってくるので、差分偏光度に基づいて路面と路端との境界(エッジ)を抽出することが可能となる。そして、形状近似認識処理により、形状テンプレートを用いて路端の種類も特定可能である。   The reason why the road edge can be recognized by using the differential polarization degree is the same as in the case of the three-dimensional object. That is, since the difference polarization degree varies depending on the difference in material and incident angle, it becomes possible to extract the boundary (edge) between the road surface and the road end based on the difference polarization degree. Then, by the shape approximation recognition process, the type of road edge can be specified using the shape template.

図40(a)及び(b)は、同じ撮像領域を撮像したモノクロ輝度画像(非分光・非偏光)と非分光の差分偏光度画像とを示す画像例である。
この画像例は、自車両がトンネル内を走行しているときに撮像したものであり、その撮像領域内が暗い。そのため、図40(a)に示すモノクロ輝度画像では、路面とトンネル側壁(路端)とのコントラストが小さいことがわかる。これに対し、図40(b)に示す差分偏光度画像では、路面とトンネル側壁(路端)とのコントラストが大きい。よって、モノクロ輝度画像ではトンネル側壁を識別することが困難な状況下であっても、差分偏光度画像を用いればトンネル側壁を高精度に識別することが可能である。
FIGS. 40A and 40B are image examples showing a monochrome luminance image (non-spectral / non-polarized light) and non-spectral differential polarization degree image obtained by imaging the same imaging region.
This image example is taken when the host vehicle is traveling in a tunnel, and the inside of the imaging region is dark. Therefore, in the monochrome luminance image shown in FIG. 40A, it can be seen that the contrast between the road surface and the tunnel side wall (road end) is small. On the other hand, in the differential polarization degree image shown in FIG. 40B, the contrast between the road surface and the tunnel side wall (road end) is large. Therefore, even in a situation where it is difficult to identify the tunnel side wall in the monochrome luminance image, the tunnel side wall can be identified with high accuracy by using the differential polarization degree image.

ここで、上述した材質の違いに伴う差分偏光度の違いを、路面を構成する材料であるアスファルト(路面)とコンクリート側壁(路端)との間の偏光反射特性の違いを評価解析することにより、それらの偏光反射モデルが異なることを確認し、これによりアスファルト路面とコンクリート側壁との判別が可能であることを確認した。以下、具体的に説明する。   Here, the difference in polarization degree due to the difference in material described above is evaluated by analyzing the difference in polarization reflection characteristics between the asphalt (road surface) that is the material constituting the road surface and the concrete side wall (road end). It was confirmed that the polarized reflection models were different, and that it was possible to distinguish the asphalt road surface from the concrete side wall. This will be specifically described below.

図41は、実験室において、アスファルト面とコンクリート面を被検物として、光源位置を変化させ、固定配置されたカメラで水平偏光成分Sの画像と鉛直偏光成分Pの画像を撮影する実験を行ったときの実験結果を示すグラフである。
なお、本実験では、図38に示した実験装置を用い、かつ、実験条件は上述したアスファルト面及び塗装面の実験を行った場合と同じである。
FIG. 41 shows an experiment in which an asphalt surface and a concrete surface are used as test objects, the position of a light source is changed, and an image of a horizontal polarization component S and an image of a vertical polarization component P are captured by a fixedly arranged camera. It is a graph which shows the experimental result at the time.
In this experiment, the experimental apparatus shown in FIG. 38 is used, and the experimental conditions are the same as those in the experiment on the asphalt surface and the painted surface described above.

図41に示すグラフからわかるように、アスファルト面については、既に述べたとおり、入射角のほぼ全域にわたって差分偏光度が負の値をとっており、鉛直偏光成分Pよりも水平偏光成分Sの方が強い。一方、コンクリート面については、上記塗装面に近似した変化を示し、コンクリート面からの反射光には内部散乱成分と拡散反射成分とが混在していることがわかる。このような違いにより、差分偏光度の違い(偏光特性の違い)によってアスファルト面とコンクリート面とを区別して認識することが可能である。   As can be seen from the graph shown in FIG. 41, as described above, the asphalt surface has a negative degree of differential polarization over almost the entire incident angle, and the horizontal polarization component S is more than the vertical polarization component P. Is strong. On the other hand, the concrete surface shows a change similar to the painted surface, and it can be seen that the internal scattering component and the diffuse reflection component are mixed in the reflected light from the concrete surface. Due to such a difference, it is possible to distinguish and recognize the asphalt surface and the concrete surface by the difference in the degree of differential polarization (difference in polarization characteristics).

以上のような路端の検出処理の結果は、本実施形態では、自車両100の運転者へ警告や、自車両のハンドルやブレーキを制御するなどの走行支援制御に利用される。具体的には、路端の判別結果は車両走行制御ユニット108に送られ、例えば、自車両100の自動ブレーキシステムの制御に利用することで交通事故の低減効果等を期待できる。また、例えば、自車両のカーナビゲーションシステムのCRT画面などに車線逸脱情報を報知して、運転者に注意を喚起することにも利用可能である。   In the present embodiment, the result of the road edge detection process as described above is used for driving support control such as warning to the driver of the host vehicle 100 and control of the steering wheel and brake of the host vehicle. Specifically, the road edge determination result is sent to the vehicle travel control unit 108 and, for example, it can be used for controlling the automatic brake system of the host vehicle 100, and the effect of reducing traffic accidents can be expected. Further, for example, it can be used to alert the driver by notifying lane departure information on the CRT screen of the car navigation system of the host vehicle.

〔白線検出処理〕
以下、本実施形態における白線検出処理について説明する。
本実施形態では、自車両が走行可能領域から逸脱するのを防止する目的で、検出対象物としての白線(区画線)を検出する処理を行う。ここでいう白線とは、実線、破線、点線、二重線等の道路を区画するあらゆる白線を含む。なお、黄色線等の白色以外の色の区画線などについても同様に検出可能である。
[White line detection processing]
Hereinafter, the white line detection process in this embodiment will be described.
In the present embodiment, processing for detecting a white line (partition line) as a detection target is performed for the purpose of preventing the vehicle from deviating from the travelable area. Here, the white line includes all white lines that demarcate the road, such as a solid line, a broken line, a dotted line, and a double line. In addition, it can detect similarly about the division line of colors other than white, such as a yellow line.

本実施形態における白線検出処理では、撮像ユニット101から取得することができる情報のうち、白色成分(非分光)の鉛直偏光成分Pの偏光情報を用いる。なお、この白色成分の鉛直偏光成分にシアン光の鉛直偏光成分を含めても良い。一般に、白線やアスファルト面は、可視光領域においてフラットな分光輝度特性を有することが知られている。一方、シアン光は可視光領域内の広帯域を含んでいるため、アスファルトや白線を撮像するには好適である。よって、上記構成例2における光学フィルタ205を用い、白色成分の鉛直偏光成分にシアン光の鉛直偏光成分を含めることで、使用する撮像画素数が増えるため、結果的に解像度が上がり、遠方の白線も検出することが可能となる。   In the white line detection processing in the present embodiment, polarization information of the vertical polarization component P of the white component (non-spectral) among the information that can be acquired from the imaging unit 101 is used. In addition, the vertical polarization component of cyan light may be included in the vertical polarization component of white component. In general, it is known that white lines and asphalt surfaces have flat spectral luminance characteristics in the visible light region. On the other hand, since cyan light includes a wide band in the visible light region, it is suitable for imaging asphalt and white lines. Therefore, by using the optical filter 205 in the above configuration example 2 and including the vertical polarization component of cyan light in the vertical polarization component of the white component, the number of imaging pixels to be used increases, resulting in an increase in resolution and distant white lines. Can also be detected.

本実施形態の白線検出処理において、多くの道路では、黒色に近い色の路面上に白線が形成されており、白色成分(非分光)の鉛直偏光成分Pの画像において白線部分の輝度は路面上の他部分より十分に大きい。そのため、路面部分のうち輝度が所定値以上である部分を白線として判定することにより、白線を検出することができる。特に、本実施形態では、使用する白色成分(非分光)の鉛直偏光成分Pの画像は、水平偏光成分Sがカットされているので、雨路からの照り返し光などを抑制した画像を取得することが可能となる。よって、夜間における雨路などからヘッドランプの照り返し光等の外乱光を白線と誤認識することなく、白線検出を行うことが可能である。   In the white line detection processing of this embodiment, in many roads, white lines are formed on the road surface of a color close to black, and the brightness of the white line portion in the image of the white component (non-spectral) vertical polarization component P is on the road surface. Big enough than other parts. Therefore, it is possible to detect a white line by determining a portion of the road surface portion having a luminance equal to or higher than a predetermined value as a white line. In particular, in the present embodiment, the image of the vertical polarization component P of the white component (non-spectral) to be used is obtained by suppressing the reflected light from the rainy road because the horizontal polarization component S is cut. Is possible. Therefore, it is possible to detect a white line without erroneously recognizing disturbance light such as reflected light from a headlamp from a rainy road at night as a white line.

また、本実施形態における白線検出処理において、撮像ユニット101から取得することができる情報のうち、白色成分(非分光)の水平偏光成分Sと鉛直偏光成分Pとの比較による偏光情報、例えば、白色成分(非分光)の水平偏光成分Sと鉛直偏光成分Pの差分偏光度((S−P)/(S+P))を用いてもよい。白線からの反射光は、通常、拡散反射成分が支配的であるため、その反射光の鉛直偏光成分Pと水平偏光成分Sとはほぼ同等となり、差分偏光度はゼロに近い値を示す。一方、白線が形成されていないアスファルト面部分は、乾燥状態のときには、図39や図41に示したように散乱反射成分が支配的となる特性を示し、その差分偏光度は正の値(図39や図41に示した実験結果とは正負が逆である。)を示す。また、白線が形成されていないアスファルト面部分は、湿潤状態のときには、鏡面反射成分が支配的となり、その差分偏光度は更に大きな値を示す。したがって、得られた路面部分の偏光差分値が所定閾値よりも小さい部分を白線と判定することができる。   Also, in the white line detection processing in the present embodiment, out of the information that can be acquired from the imaging unit 101, polarization information obtained by comparing the horizontal polarization component S of the white component (non-spectral) and the vertical polarization component P, for example, white The differential polarization degree ((S−P) / (S + P)) of the component (non-spectral) horizontal polarization component S and vertical polarization component P may be used. Since the reflected light from the white line is usually dominated by the diffuse reflection component, the vertical polarization component P and the horizontal polarization component S of the reflected light are substantially equal, and the degree of differential polarization shows a value close to zero. On the other hand, the asphalt surface portion where the white line is not formed shows a characteristic in which the scattered reflection component is dominant as shown in FIG. 39 and FIG. 41 in the dry state, and the differential polarization degree is a positive value (FIG. 39 and the experimental results shown in FIG. Further, when the asphalt surface portion where the white line is not formed is in a wet state, the specular reflection component is dominant, and the differential polarization degree shows a larger value. Therefore, a portion where the polarization difference value of the obtained road surface portion is smaller than the predetermined threshold value can be determined as a white line.

図42(a)及び(b)は、雨天時において同じ撮像領域を撮像したモノクロ輝度画像(非分光・非偏光)と非分光の差分偏光度画像とを示す画像例である。
この画像例は、雨天時に撮影したものであるため、撮像領域が比較的暗く、また、路面は湿潤状態となっている。そのため、図42(a)に示すモノクロ輝度画像では、白線と路面とのコントラストが小さい。これに対し、図42(b)に示す差分偏光度画像では、白線と路面とのコントラストが十分に大きい。よって、モノクロ輝度画像では白線を識別することが困難な状況下であっても、差分偏光度画像を用いれば白線を高精度に識別することが可能である。
また、画像例の右側部分の白線は、陰に重なっているため、図42(a)に示すモノクロ輝度画像では、この右側の白線と路面とのコントラストが特に小さい。これに対し、図42(b)に示す差分偏光度画像では、この右側の白線と路面とのコントラストも十分に大きい。よって、モノクロ輝度画像では識別困難な白線についても、差分偏光度画像を用いれば高精度に識別することが可能である。
42A and 42B are image examples showing a monochrome luminance image (non-spectral / non-polarized light) and non-spectral differential polarization degree image obtained by capturing the same imaging region in rainy weather.
Since this image example is taken in rainy weather, the imaging area is relatively dark and the road surface is wet. Therefore, in the monochrome luminance image shown in FIG. 42A, the contrast between the white line and the road surface is small. On the other hand, in the differential polarization degree image shown in FIG. 42B, the contrast between the white line and the road surface is sufficiently large. Therefore, even in a situation where it is difficult to identify a white line in a monochrome luminance image, it is possible to identify the white line with high accuracy by using a differential polarization degree image.
In addition, since the white line in the right part of the image example is shaded, the contrast between the right white line and the road surface is particularly small in the monochrome luminance image shown in FIG. On the other hand, in the differential polarization degree image shown in FIG. 42B, the contrast between the white line on the right side and the road surface is sufficiently large. Therefore, white lines that are difficult to identify in a monochrome luminance image can be identified with high accuracy by using a differential polarization degree image.

〔フロントガラス上の雨滴検出処理〕
以下、本実施形態における雨滴検出処理について説明する。
本実施形態では、ワイパー107の駆動制御やウォッシャー液の吐出制御を行う目的で、検出対象物としての雨滴を検出する処理を行う。なお、ここでは、フロントガラス上に付着した付着物が雨滴である場合を例に挙げて説明するが、鳥の糞、隣接車両からの跳ねてきた路面上の水しぶきなどの付着物についても同様である。
[Raindrop detection processing on the windshield]
Hereinafter, the raindrop detection process in the present embodiment will be described.
In the present embodiment, for the purpose of performing the drive control of the wiper 107 and the discharge control of the washer liquid, a process of detecting raindrops as a detection target is performed. In addition, here, the case where the deposit adhered on the windshield is a raindrop will be described as an example. However, the same applies to deposits such as bird droppings and splashes on the road surface from the adjacent vehicle. is there.

本実施形態における雨滴検出処理では、撮像ユニット101から取得することができる情報のうち、前段フィルタ210の赤外光透過フィルタ領域212を透過した光を受光する雨滴検出用画像領域214の水平偏光成分Sと鉛直偏光成分Pとの比較による偏光情報を用いる。本実施形態では、この偏光情報として、白色成分(非分光)の水平偏光成分Sと鉛直偏光成分Pの差分偏光度((S−P)/(S+P))を用いる。   In the raindrop detection process in the present embodiment, the horizontal polarization component of the raindrop detection image area 214 that receives the light transmitted through the infrared light transmission filter area 212 of the pre-stage filter 210 among the information that can be acquired from the imaging unit 101. Polarization information obtained by comparing S and the vertical polarization component P is used. In the present embodiment, as the polarization information, the differential polarization degree ((S−P) / (S + P)) between the white component (non-spectral) horizontal polarization component S and the vertical polarization component P is used.

上述したように、本実施形態の撮像ユニット101には、光源202が設けられており、フロントガラス105の外壁面に雨滴203が付着していない場合、光源202から照射された光は、フロントガラス105の外壁面と外気との界面で反射し、その反射光が撮像装置200へ入射する。一方、フロントガラス105の外壁面に雨滴203が付着している場合、フロントガラス105の外壁面と雨滴203との間における屈折率差は、フロントガラス105の外壁面と外気との間の屈折率差よりも小さくなる。そのため、光源202から照射された光は、その界面を透過し、撮像装置200には入射しない。   As described above, in the imaging unit 101 of the present embodiment, the light source 202 is provided, and when the raindrop 203 is not attached to the outer wall surface of the windshield 105, the light emitted from the light source 202 is the windshield. The light is reflected at the interface between the outer wall surface 105 and the outside air 105, and the reflected light enters the imaging device 200. On the other hand, when raindrops 203 are attached to the outer wall surface of the windshield 105, the refractive index difference between the outer wall surface of the windshield 105 and the raindrop 203 is the refractive index between the outer wall surface of the windshield 105 and the outside air. Smaller than the difference. For this reason, the light emitted from the light source 202 passes through the interface and does not enter the imaging device 200.

図43は、ブリュースタ角での反射光の偏光状態を示す説明図である。
一般に、ガラスなどで平坦面に光が入射するとき、水平偏光成分Sの反射率は入射角に対して単調増加するのに対し、鉛直偏光成分Pの反射率は特定角度(ブリュースタ角θB)でゼロとなり、鉛直偏光成分Pは、図43に示すように反射せずに透過光のみとなる。したがって、光源202が、鉛直偏光成分Pの光のみをブリュースタ角θBの入射角をもって車両室内側からフロントガラス105に向けて照射するように構成することで、フロントガラス105の内壁面(室内側の面)での反射光は発生せず、フロントガラス105の外壁面(車外側の面)に鉛直偏光成分Pの光が照射される。フロントガラス105の内壁面での反射光が存在すると、その反射光が撮像装置200への外乱光となり、雨滴検出率の低減要因となる。
FIG. 43 is an explanatory diagram showing the polarization state of the reflected light at the Brewster angle.
In general, when light is incident on a flat surface such as glass, the reflectance of the horizontal polarization component S monotonously increases with respect to the incident angle, whereas the reflectance of the vertical polarization component P is a specific angle (Brewster angle θB). As shown in FIG. 43, the vertical polarization component P is not reflected but only transmitted light. Therefore, the light source 202 is configured to irradiate only the light of the vertical polarization component P with an incident angle of Brewster angle θB from the vehicle interior side toward the windshield 105, whereby the inner wall surface (indoor side of the windshield 105) No reflected light is generated on the surface of the front glass 105, and the light of the vertically polarized light component P is irradiated on the outer wall surface (the vehicle outer surface) of the windshield 105. If there is reflected light on the inner wall surface of the windshield 105, the reflected light becomes disturbance light to the imaging device 200, which causes a reduction in the raindrop detection rate.

光源202からフロントガラス105へ入射させる光を鉛直偏光成分Pのみとするためには、光源202として例えば発光ダイオード(LED)を用いる場合、その光源202とフロントガラス105との間に、鉛直偏光成分Pのみを透過させる偏光子を配置するのがよい。また、光源202として半導体レーザ(LD)を用いる場合、LDは特定偏光成分の光のみを発光させることができるので、鉛直偏光成分Pのみの光がフロントガラス105に入射するようにLDの軸を合わせてもよい。   In order to make the light incident on the windshield 105 from the light source 202 only the vertical polarization component P, for example, when a light emitting diode (LED) is used as the light source 202, the vertical polarization component is interposed between the light source 202 and the windshield 105. It is preferable to arrange a polarizer that transmits only P. Further, when a semiconductor laser (LD) is used as the light source 202, the LD can emit only light of a specific polarization component, so that the axis of the LD is adjusted so that only light of the vertical polarization component P is incident on the windshield 105. You may combine them.

図44(a)は、フロントガラス105の外壁面に雨滴が付着していないときの、光源202の発光光量に対する撮像装置200の受光量の比率を偏光成分ごとに示したグラフである。
図44(b)は、フロントガラス105の外壁面に雨滴が付着しているときの、光源202の発光光量に対する撮像装置200の受光量の比率を偏光成分ごとに示したグラフである。
これらのグラフにおいて、横軸には光源202からフロントガラスへの入射角をとり、縦軸には光源202の発光光量に対する撮像装置200の受光量の比率をとったものである。符号Isで示すグラフは水平偏光成分Sについてのグラフを示し、符号Ipで示すグラフは鉛直偏光成分Pについてのグラフを示し、符号Iで示すグラフは水平偏光成分Sと鉛直偏光成分Pとの平均値についてのグラフを示している。なお、これらのグラフは、フロントガラス105の屈折率を1.5とし、雨滴の屈折率を1.38として計算したものである。
FIG. 44A is a graph showing, for each polarization component, the ratio of the amount of light received by the imaging device 200 to the amount of light emitted from the light source 202 when no raindrops are attached to the outer wall surface of the windshield 105.
FIG. 44B is a graph showing, for each polarization component, the ratio of the amount of light received by the imaging device 200 to the amount of light emitted from the light source 202 when raindrops are attached to the outer wall surface of the windshield 105.
In these graphs, the horizontal axis represents the incident angle from the light source 202 to the windshield, and the vertical axis represents the ratio of the amount of light received by the imaging apparatus 200 to the amount of light emitted from the light source 202. The graph indicated by the symbol Is indicates a graph for the horizontal polarization component S, the graph indicated by the symbol Ip indicates a graph for the vertical polarization component P, and the graph indicated by the symbol I indicates an average of the horizontal polarization component S and the vertical polarization component P. A graph of the values is shown. These graphs are calculated by assuming that the refractive index of the windshield 105 is 1.5 and the refractive index of raindrops is 1.38.

本実施形態では、上述のとおり、光源202とフロントガラス105との間に偏光子を配置するなどして、フロントガラス105には鉛直偏光成分Pのみが入射されるように構成するが、実際には、完全に鉛直偏光成分Pの光のみがフロントガラス105へ入射するように偏光子の偏光軸を合わせる等の調整は困難である。そのため、通常は、水平偏光成分Sの光もフロントガラス105へ入射することになる。そのため、通常は、水平偏光成分Sの光も撮像装置200で受光されることとなる。   In the present embodiment, as described above, a polarizer is disposed between the light source 202 and the windshield 105 so that only the vertical polarization component P is incident on the windshield 105. Therefore, it is difficult to make adjustments such as adjusting the polarization axis of the polarizer so that only the light of the vertical polarization component P is completely incident on the windshield 105. Therefore, normally, the light of the horizontal polarization component S also enters the windshield 105. Therefore, normally, the light of the horizontal polarization component S is also received by the imaging device 200.

図45(a)は、フロントガラス105の外壁面に雨滴が付着していないときの差分偏光度を示すグラフである。
図45(b)は、フロントガラス105の外壁面に雨滴が付着しているときの差分偏光度を示すグラフである。
これらのグラフも、フロントガラス105の屈折率を1.5とし、雨滴の屈折率を1.38として計算したものである。
FIG. 45A is a graph showing the degree of differential polarization when raindrops are not attached to the outer wall surface of the windshield 105.
FIG. 45 (b) is a graph showing the degree of differential polarization when raindrops are attached to the outer wall surface of the windshield 105.
These graphs are also calculated assuming that the refractive index of the windshield 105 is 1.5 and the refractive index of raindrops is 1.38.

図45(a)及び(b)に示すグラフを比較すると、雨滴の有無によって差分偏光度の入射角特性が異なることがわかる。そして、これらのグラフによれば、両者の間で最も差分偏光度の違いが出るのは入射角がブリュースタ角に近い50度付近である。したがって、このような入射角となるように光源202を設置することで、差分偏光度画像に基づく雨滴の検出精度を高めることができる。   Comparing the graphs shown in FIGS. 45 (a) and 45 (b), it can be seen that the incident angle characteristics of the differential polarization degree differ depending on the presence or absence of raindrops. According to these graphs, the difference in the degree of differential polarization between the two is most in the vicinity of 50 degrees where the incident angle is close to the Brewster angle. Therefore, by installing the light source 202 so as to have such an incident angle, it is possible to improve the accuracy of raindrop detection based on the differential polarization degree image.

図46は、入射角が50度付近となるように配置したときの差分偏光度画像を示す画像例である。
図46の画像例は、暗中にて車両室内より光源202から光をフロントガラス105に向けて照射したときの差分偏光度画像であり、雨滴が付着しているフロントガラスの画像領域と雨滴が付着していないフロントガラスの画像領域とのコントラストが十分に高いことがわかる。よって、差分偏光度画像を用いれば、フロントガラス105に付着した雨滴を高精度に検出することが可能である。
FIG. 46 is an image example showing a differential polarization degree image when the incident angle is arranged to be around 50 degrees.
The image example in FIG. 46 is a differential polarization degree image when light is emitted from the light source 202 toward the windshield 105 from the vehicle interior in the dark, and the raindrops adhere to the image area of the windshield where the raindrops adhere. It can be seen that the contrast with the image area of the windshield that is not sufficiently high. Therefore, if the differential polarization degree image is used, it is possible to detect raindrops attached to the windshield 105 with high accuracy.

本実施形態の雨滴検出処理では、まず、光源202を点灯し、赤外光透過フィルタ領域212を透過した光に対応する雨滴検出用画像領域214の水平偏光成分Sと鉛直偏光成分Pに基づく差分偏光度((S−P)/(S+P))を画素値とした差分偏光度画像を生成する。そして、その差分偏光度画像に対して、公知であるラプラシアンフィルタを用いてエッジ検出処理を行う。このエッジ検出処理により、雨滴の画像領域候補と雨滴でない画像領域候補との境界を強調した画像を作成することができる。続いて、円形検出処理を実行し、円形として検出された画像領域を雨滴の画像領域として識別する。この円形検出処理では、公知である一般化ハフ変換を行えばよい。   In the raindrop detection process of this embodiment, first, the light source 202 is turned on, and the difference based on the horizontal polarization component S and the vertical polarization component P of the raindrop detection image region 214 corresponding to the light transmitted through the infrared light transmission filter region 212. A differential polarization degree image having the polarization degree ((S−P) / (S + P)) as a pixel value is generated. Then, edge detection processing is performed on the differential polarization degree image using a known Laplacian filter. By this edge detection process, it is possible to create an image in which the boundary between the raindrop image region candidate and the non-raindrop image region candidate is emphasized. Subsequently, a circular detection process is executed, and an image region detected as a circular is identified as an image region of raindrops. In this circular detection process, a known generalized Hough transform may be performed.

その後、本実施形態では、雨滴の画像領域として識別された領域の個数を計測し、その個数を雨量に変換して雨量を算出する。そして、ワイパー制御ユニット106は、このようにして算出された雨量に基づいて、ワイパー107の駆動制御やウォッシャー液の吐出制御を行う。   Thereafter, in the present embodiment, the number of areas identified as raindrop image areas is measured, and the number is converted into rain to calculate rain. The wiper control unit 106 performs drive control of the wiper 107 and washer liquid discharge control based on the rainfall calculated in this way.

上記実施形態の撮像装置200はいわゆる単眼カメラ構成であったが、本変形例の撮像装置は、複眼カメラ構成のステレオカメラである。このステレオカメラが有する2つのカメラ部の構成としては、上記実施形態における撮像装置200と同様の構成を採用できる。   Although the imaging apparatus 200 of the above embodiment has a so-called monocular camera configuration, the imaging apparatus of this modification is a stereo camera having a compound-eye camera configuration. As the configuration of the two camera units included in the stereo camera, the same configuration as that of the imaging device 200 in the above embodiment can be employed.

以上に説明したものは一例であり、本発明は、次の態様毎に特有の効果を奏する。
(態様A)
撮像領域内に存在する物体からの光を、光学フィルタ205を介して、受光素子206Aが2次元配置された画素アレイで構成された画像センサ206により受光することで、撮像領域内を撮像する撮像装置200において、上記光学フィルタ205は、透過率が互いに異なる複数種類の光透過領域が、上記画像センサ206上における1つの受光素子206A又は2以上の受光素子206Aで構成される単位領域で、上記画素アレイの2次元方向へ交互に配置されている偏光フィルタ層222などの透過率調整層を有することを特徴とする。
これによれば、低透過率の光透過領域を透過した光を受光する受光素子(上記構成例1、2及び4においては撮像画素b,e等。上記構成例3においては撮像画素a,b等)から、受光量が相対的に少ない低透過率画像を得ることができるとともに、高透過率の光透過領域を透過した光を受光する受光素子(上記構成例1、2及び4においては撮像画素a,f等。上記構成例3においては撮像画素e,f等)、受光量が相対的に多い高透過率画像を得ることができる。これにより、撮像領域内の光量が比較的多いヘッドランプなどの光源体については低透過率画像を用いて検出し、撮像領域内の光量が比較的少ないテールランプ、白線などの光源体については高透過率画像を用いて検出することで、撮像領域内に光量が異なる複数の光源体が存在していても、これらの光源体を適切に検出することができる。また、このような低透過率画像と高透過率画像の両方を一度の撮像動作で得ることができるので、低透過率画像と高透過率画像を2回の撮像動作に分けて得ていた従来の撮像装置と比較して、これらの画像を連続撮像できる時間間隔を短いものとすることができる。
What has been described above is merely an example, and the present invention has a specific effect for each of the following modes.
(Aspect A)
Imaging in which an image in the imaging area is picked up by receiving light from an object existing in the imaging area by the image sensor 206 configured by a pixel array in which the light receiving elements 206A are two-dimensionally arranged via the optical filter 205. In the apparatus 200, the optical filter 205 is a unit region in which a plurality of types of light transmission regions having different transmittances are configured by one light receiving element 206A or two or more light receiving elements 206A on the image sensor 206. It has a transmittance adjusting layer such as a polarizing filter layer 222 arranged alternately in the two-dimensional direction of the pixel array.
According to this, a light receiving element that receives light transmitted through a light-transmitting region having a low transmittance (the imaging pixels b and e in the configuration examples 1, 2, and 4 above. The imaging pixels a and b in the configuration example 3 above). Etc.) and a light-transmitting element that receives light transmitted through a light-transmitting region with high transmittance (images are taken in the configuration examples 1, 2, and 4). Pixels a, f, etc. In the above configuration example 3, the imaging pixels e, f, etc.) and a high transmittance image with a relatively large amount of received light can be obtained. As a result, a light source body such as a headlamp with a relatively large amount of light in the imaging area is detected using a low transmittance image, and a light source body such as a tail lamp or a white line with a relatively small amount of light in the imaging area is highly transmissive. By detecting using the rate image, even if there are a plurality of light source bodies with different amounts of light in the imaging region, these light source bodies can be appropriately detected. In addition, since both such a low transmittance image and a high transmittance image can be obtained by a single imaging operation, the low transmittance image and the high transmittance image were obtained by dividing the imaging operation into two times. Compared with the imaging apparatus, the time interval at which these images can be continuously captured can be shortened.

(態様B)
態様Aにおいて、上記透過率調整層における透過率が相対的に低い種類の光透過領域は、当該光透過領域の一部がアルミニウム等の金属膜などの光反射材又はブラックレジスト膜などの光吸収材によって遮蔽されていることを特徴とする。
これによれば、光学フィルタの光透過特性(偏光特性や分光特性)に影響を与えずに、透過率を調整することができる。
(Aspect B)
In the aspect A, the light transmission region of a type having a relatively low transmittance in the transmittance adjustment layer is such that a part of the light transmission region is a light absorbing material such as a metal reflecting film such as aluminum or a black resist film. It is characterized by being shielded by a material.
According to this, the transmittance can be adjusted without affecting the light transmission characteristics (polarization characteristics and spectral characteristics) of the optical filter.

(態様C)
態様Bにおいて、上記光学フィルタ205は、特定方向の偏光成分(鉛直偏光成分P)のみを選択して透過させる第1領域と偏光成分の選択を行わずに光を透過させるか又は該特定方向とは異なる方向の偏光成分(水平偏光成分S)のみを選択して透過させる第2領域とが上記単位領域で領域分割された偏光フィルタ層222を有しており、上記偏光フィルタ層222は、上記第1領域又は上記特定方向とは異なる方向の偏光成分のみを選択して透過させる上記第2領域を、一様に形成した金属膜の一部を除去してワイヤーグリッド構造とした偏光子領域で構成し、透過率が相対的に低い種類の光透過領域の一部を遮蔽する光反射材として上記金属膜を用いることにより、上記偏光フィルタ層222を上記透過率調整層としたことを特徴とする。
これによれば、偏光フィルタ層222を有する光学フィルタ205に対し、その偏光フィルタ層222とは別個に透過率調整層を設ける必要がなくなる。しかも、上述したとおり、偏光フィルタ層222のワイヤーグリッド構造を形成する段階で、透過率(開口率)が制限するための遮蔽領域も一緒に形成できるので、製造工程の簡略化を図ることができる。
また、ワイヤーグリッド構造は半導体プロセスで作製できるとともに、サブ波長凹凸構造の溝方向を変えることで偏光軸を調整できるため、撮像画素単位(数ミクロンサイズ)で偏光軸の異なる偏光子パターン(偏光フィルタ領域)、及び、透過率(開口率)が制限するための遮蔽領域を形成できる。また、ワイヤーグリッド構造や遮蔽領域が金属で形成されるので、耐熱性・耐光性について信頼性が高い光学フィルタ205を実現できる。なお、ここでいう耐光性とは、紫外線などによる光学特性の劣化に対する耐性を意味する。このように耐熱性、耐光性に優れることで、車載用の撮像装置にも好適に利用できる。
(Aspect C)
In aspect B, the optical filter 205 transmits or transmits light without selecting a first region and a polarization component that select and transmit only a polarization component in a specific direction (vertical polarization component P). Includes a polarization filter layer 222 that is divided into the unit regions and a second region that selectively transmits only the polarization components in different directions (horizontal polarization component S), and the polarization filter layer 222 includes: The first region or the second region that transmits and transmits only the polarized component in a direction different from the specific direction is a polarizer region in which a part of a uniformly formed metal film is removed to form a wire grid structure. The polarizing filter layer 222 is configured as the transmittance adjusting layer by using the metal film as a light reflecting material configured to shield a part of a light transmitting region of a type having a relatively low transmittance. You .
According to this, it is not necessary to provide a transmittance adjusting layer separately from the polarizing filter layer 222 for the optical filter 205 having the polarizing filter layer 222. In addition, as described above, since the shielding region for limiting the transmittance (aperture ratio) can be formed at the stage of forming the wire grid structure of the polarizing filter layer 222, the manufacturing process can be simplified. .
In addition, the wire grid structure can be manufactured by a semiconductor process, and the polarization axis can be adjusted by changing the groove direction of the sub-wavelength uneven structure. Region) and a shielding region for limiting the transmittance (aperture ratio) can be formed. In addition, since the wire grid structure and the shielding region are made of metal, the optical filter 205 having high reliability in terms of heat resistance and light resistance can be realized. The light resistance here means resistance to deterioration of optical characteristics due to ultraviolet rays or the like. Thus, it is excellent also in heat resistance and light resistance, and can be suitably used for an in-vehicle imaging device.

(態様D)
態様A〜Cのいずれか1つの態様において、上記光学フィルタ205は、特定波長帯の光(赤色波長帯やシアン波長帯)のみを選択して透過させる第1領域と波長選択を行わずに光を透過させるか又は該特定波長帯以外の波長帯の光を選択して透過させる第2領域とが上記単位領域で領域分割された分光フィルタ層223が、上記透過率調整層とともに光透過方向へ積層された構成を有することを特徴とする。
これによれば、撮像画像から分光情報を得ることもできるので、例えば、任意の波長帯についての光量が異なる複数の光源体を適切に検出することができる。
(Aspect D)
In any one of the aspects A to C, the optical filter 205 selects the first region that transmits only light in a specific wavelength band (red wavelength band or cyan wavelength band) and transmits the light without performing wavelength selection. The spectral filter layer 223 in which the second region that transmits or selectively transmits light in a wavelength band other than the specific wavelength band is divided in the unit region in the light transmission direction together with the transmittance adjustment layer. It has a laminated structure.
According to this, spectral information can also be obtained from the captured image, and for example, it is possible to appropriately detect a plurality of light source bodies having different amounts of light for an arbitrary wavelength band.

(態様E)
態様Dにおいて、上記分光フィルタ層223の上記第2領域は波長選択を行わずに光を透過させるものであり、上記分光フィルタ層223は、上記第1領域となるフィルタ膜を一様に形成した後に上記第2領域となる箇所に存在する該フィルタ膜を除去して形成されたものであることを特徴とする。
これによれば、受光素子206Aの1画素あるいは数画素ほどの微小領域ごとに領域分割された分光フィルタ層223を比較的容易に実現することができる。
(Aspect E)
In the aspect D, the second region of the spectral filter layer 223 transmits light without performing wavelength selection, and the spectral filter layer 223 uniformly forms a filter film serving as the first region. The filter film is formed by removing the filter film that is present at a location that will later become the second region.
According to this, it is possible to relatively easily realize the spectral filter layer 223 that is divided into small regions such as one pixel or several pixels of the light receiving element 206A.

(態様F)
態様Eにおいて、上記光学フィルタ205は、上記分光フィルタ層223における上記第1領域には上記透過率調整層における透過率が高い種類の光透過領域を透過する光が透過し、上記分光フィルタ層における上記第2領域には上記透過率調整層における透過率が低い種類の光透過領域を透過する光が透過するように、構成されていることを特徴とする。
これによれば、比較的光量の少ない特定波長帯の光源体(例えばテールランプ)と、比較的光量の多い白色の光源体(例えばヘッドランプ)とを、一度の撮像によって得られる画像データから適切に識別することができる。
(Aspect F)
In the aspect E, in the optical filter 205, the first region in the spectral filter layer 223 transmits light that passes through a light transmission region of a type having a high transmittance in the transmittance adjustment layer. The second region is configured to transmit light that passes through a light transmitting region of a type having a low transmittance in the transmittance adjusting layer.
According to this, a light source body (for example, a tail lamp) having a relatively small amount of light and a white light source body (for example, a headlamp) having a relatively large amount of light is appropriately selected from image data obtained by one imaging. Can be identified.

(態様G)
撮像手段が撮像した撮像画像に基づいて撮像領域内に存在する検出対象物の検出処理を行う物体検出処理手段を有する物体検出装置において、上記撮像手段として、態様A〜Fのいずれか1つの態様に係る撮像装置200を用いたことを特徴とする。
これによれば、一度の撮像で低透過率画像(露光量が少ない画像)と高透過率画像(露光量が多い画像)とを取得できることから、これらの画像を交互に撮像するような構成と比較して、高いフレームレートで低透過率画像と高透過率画像とを連続的に取得できる。よって、低透過率画像と高透過率画像から検出可能な検出対象物が撮像領域内で高速移動するようなものであっても、その移動を適切に把握することができる。
(Aspect G)
In the object detection apparatus having the object detection processing unit that performs the detection process of the detection target existing in the imaging region based on the captured image captured by the imaging unit, any one of modes A to F is used as the imaging unit. The imaging apparatus 200 according to the above is used.
According to this, since a low-transmittance image (image with a small amount of exposure) and a high-transmittance image (an image with a large amount of exposure) can be acquired by one imaging, the configuration is such that these images are alternately captured. In comparison, a low transmittance image and a high transmittance image can be obtained continuously at a high frame rate. Therefore, even if the detection target that can be detected from the low-transmittance image and the high-transmittance image moves at high speed in the imaging region, the movement can be appropriately grasped.

(態様H)
自車両の進行方向前方領域を撮像領域として撮像する撮像手段が撮像した撮像画像に基づいて、自車両とは反対方向へ進行する対向車両と、自車両と同じ進行方向へ進行する先行車両とを検出対象物とした検出処理を行う物体検出処理手段を有する物体検出装置において、上記撮像手段として、態様Fの撮像装置200を用い、上記分光フィルタ層223の第1領域が光を透過させる上記特定波長帯は車両のテールランプ色の波長を含む波長帯であり、上記物体検出処理手段は、上記分光フィルタ層223の第1領域の透過光を受光した画像センサ206上の受光素子206Aの出力信号に基づいて先行車両を検出するとともに、上記分光フィルタ層223の第2領域を透過した透過光を受光した画像センサ206上の受光素子206Aの出力信号に基づいて対向車両を検出することを特徴とする。
これによれば、一度の撮像で得られる画像データから、光量が大きく異なるテールランプとヘッドランプの両方を高精度に識別することができる。
(Aspect H)
An oncoming vehicle that travels in the opposite direction of the host vehicle and a preceding vehicle that travels in the same traveling direction as the host vehicle based on the captured image captured by the imaging means that captures the front area in the traveling direction of the host vehicle as an imaging region. In the object detection apparatus having object detection processing means for performing detection processing as a detection target, the imaging device 200 of aspect F is used as the imaging means, and the first region of the spectral filter layer 223 transmits the light. The wavelength band is a wavelength band including the wavelength of the tail lamp color of the vehicle, and the object detection processing means outputs an output signal of the light receiving element 206A on the image sensor 206 that has received the transmitted light of the first region of the spectral filter layer 223. Based on the detection of the preceding vehicle and the output of the light receiving element 206A on the image sensor 206 that has received the transmitted light transmitted through the second region of the spectral filter layer 223. And detecting the oncoming vehicle based on the signal.
According to this, both tail lamps and head lamps having greatly different light amounts can be identified with high accuracy from image data obtained by one imaging.

(態様I)
受光素子が2次元配置された画素アレイで構成された画像センサを有する撮像装置の該画像センサと撮像領域との間に配置される光学フィルタにおいて、透過率が互いに異なる複数種類の光透過領域を、上記画像センサ上における1つの受光素子又は2以上の受光素子で構成される単位領域で、交互に配置した透過率調整層を有することを特徴とする。
これによれば、比較的光量の少ない光源体と比較的光量の多い光源体とを一度の撮像によって得られる画像データから適切に識別することが可能となるので、光量が大きく異なっている複数の光源体をより短い時間間隔で連続して検出することを可能にすることができる。
(Aspect I)
In an optical filter arranged between an image sensor and an imaging region of an imaging device having an image sensor composed of a pixel array in which a light receiving element is two-dimensionally arranged, a plurality of types of light transmission regions having different transmittances are provided. In addition, the image sensor has a transmittance adjusting layer arranged alternately in a unit region constituted by one light receiving element or two or more light receiving elements on the image sensor.
According to this, since it becomes possible to appropriately discriminate a light source body having a relatively small amount of light and a light source body having a relatively large amount of light from image data obtained by a single imaging operation, It is possible to continuously detect the light source body at shorter time intervals.

(態様J)
受光素子が2次元配置された画素アレイで構成された画像センサを有する撮像装置の該画像センサと撮像領域との間に配置される光学フィルタの製造方法において、特定方向の偏光成分のみを選択して透過させる第1領域と偏光成分の選択を行わずに光を透過させるか又は該特定方向とは異なる方向の偏光成分のみを選択して透過させる第2領域とを、上記画像センサ上における1つの受光素子又は2以上の受光素子で構成される単位領域で、交互に配置した偏光フィルタ層を形成する際、金属膜を一様に形成した後にその一部を除去することで上記第1領域にワイヤーグリッド構造を形成するとともに、少なくとも1つの第1領域についてはワイヤーグリッド構造の一部分で光が遮蔽されるように金属膜を残して透過率を低下させることを特徴とする。
これによれば、比較的光量の少ない光源体と比較的光量の多い光源体とを一度の撮像によって得られる画像データから適切に識別することが可能となるので、光量が大きく異なっている複数の光源体をより短い時間間隔で連続して検出することを可能にすることができる。
(Aspect J)
In a manufacturing method of an optical filter arranged between an image sensor and an imaging region of an imaging device having an image sensor constituted by a pixel array in which a light receiving element is two-dimensionally arranged, only a polarization component in a specific direction is selected. The first region on the image sensor transmits the first region to be transmitted and the second region to transmit light without selecting the polarization component or to select and transmit only the polarization component in a direction different from the specific direction. When forming alternately arranged polarizing filter layers in a unit region composed of two light receiving elements or two or more light receiving elements, the first region is formed by removing a part after forming a metal film uniformly. Forming a wire grid structure and reducing the transmittance of at least one first region by leaving a metal film so that light is shielded by a part of the wire grid structure. And butterflies.
According to this, since it becomes possible to appropriately discriminate a light source body having a relatively small amount of light and a light source body having a relatively large amount of light from image data obtained by a single imaging operation, It is possible to continuously detect the light source body at shorter time intervals.

100 自車両
101 撮像ユニット
102 画像解析ユニット
103 ヘッドランプ制御ユニット
104 ヘッドランプ
105 フロントガラス
106 ワイパー制御ユニット
107 ワイパー
108 車両走行制御ユニット
200 撮像装置
201 撮像ケース
202 光源
203 雨滴
204 撮像レンズ
205 光学フィルタ
206 画像センサ
206A フォトダイオード(受光素子)
210 前段フィルタ
211 赤外光カットフィルタ領域
212 赤外光透過フィルタ領域
213 車両検出用画像領域
214 雨滴検出用画像領域
220 後段フィルタ
221 フィルタ基板
222 偏光フィルタ層
223 分光フィルタ層
224 充填材
DESCRIPTION OF SYMBOLS 100 Own vehicle 101 Imaging unit 102 Image analysis unit 103 Headlamp control unit 104 Headlamp 105 Windshield 106 Wiper control unit 107 Wiper 108 Vehicle travel control unit 200 Imaging device 201 Imaging case 202 Light source 203 Raindrop 204 Imaging lens 205 Optical filter 206 Image Sensor 206A Photodiode (light receiving element)
210 Front filter 211 Infrared light cut filter region 212 Infrared light transmission filter region 213 Vehicle detection image region 214 Raindrop detection image region 220 Rear filter 221 Filter substrate 222 Polarizing filter layer 223 Spectral filter layer 224 Filler

特開2005−92857号公報JP 2005-92857 A

Claims (9)

撮像領域内に存在する物体からの光を、光学フィルタを介して、受光素子が2次元配置された画素アレイで構成された画像センサにより受光することで、撮像領域内を撮像する撮像装置において、
上記光学フィルタは、一様な光が入射したときの透過率が互いに異なる複数種類の光透過領域が、上記画像センサ上における1つの受光素子又は2以上の受光素子で構成される単位領域で、上記画素アレイの2次元方向へ交互に配置されている透過率調整層を有し、
上記透過率調整層は、特定方向の偏光成分のみを選択して透過させる金属のワイヤーグリッド構造をもつ光透過部と該光透過部の周囲に配置される金属の遮光部とから構成される第1領域と偏光成分の選択を行わずに光を透過させる光透過部又は該特定方向とは異なる方向の偏光成分のみを選択して透過させる金属のワイヤーグリッド構造をもつ光透過部と該光透過部の周囲に配置される金属の遮光部とから構成される第2領域とが、上記単位領域で領域分割された偏光フィルタ層で構成され、
上記透過率が相対的に低い種類の光透過領域は、上記透過率が相対的に高い種類の光透過領域よりも上記光透過部の面積が小さいことを特徴とする撮像装置。
In an imaging device that captures light in an imaging region by receiving light from an object existing in the imaging region through an optical filter by an image sensor configured by a pixel array in which a light receiving element is two-dimensionally arranged.
The optical filter is a unit region composed of one light receiving element or two or more light receiving elements on the image sensor, wherein a plurality of types of light transmitting regions having different transmittances when uniform light is incident thereon , Having transmittance adjustment layers alternately arranged in the two-dimensional direction of the pixel array;
The transmittance adjusting layer includes a light transmitting portion having a metal wire grid structure that selectively transmits only a polarized light component in a specific direction, and a metal light shielding portion disposed around the light transmitting portion . A light transmission part that transmits light without selecting a polarization component or a light transmission part having a metal wire grid structure that transmits only a polarization component in a direction different from the specific direction and the light; a second region composed of a shielding portion of a metal disposed around the transparent portion is formed by a polarizing filter layer divided into areas above Kitan displacement range,
The lower the type of the light transmission region transmittance is relatively imaging apparatus, wherein the area of the light-transmitting portion than the transmittance is relatively high types of light transmission region is small.
請求項1に記載の撮像装置において、
上記透過率が相対的に低い種類の光透過領域は、上記第1領域又は上記特定方向とは異なる方向の偏光成分のみを選択して透過させる上記第2領域であることを特徴とする撮像装置。
The imaging device according to claim 1,
The light transmission region of a type having a relatively low transmittance is the first region or the second region that selectively transmits only the polarization component in a direction different from the specific direction. .
請求項1又は2に記載の撮像装置において、
上記光学フィルタは、特定波長帯の光のみを選択して透過させる第1領域と波長選択を行わずに光を透過させるか又は該特定波長帯以外の波長帯の光を選択して透過させる第2領域とが上記単位領域で領域分割された分光フィルタ層が、上記透過率調整層とともに光透過方向へ積層された構成を有することを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
The optical filter is configured to transmit light without performing wavelength selection with the first region that selects and transmits only light in a specific wavelength band, or selects and transmits light in a wavelength band other than the specific wavelength band. An imaging apparatus comprising: a spectral filter layer in which two regions are divided by the unit region, and the transmittance adjusting layer stacked in the light transmission direction.
請求項3の撮像装置において、
上記分光フィルタ層の上記第2領域は波長選択を行わずに光を透過させるものであり、
上記分光フィルタ層は、上記第1領域となるフィルタ膜を一様に形成した後に上記第2領域となる箇所に存在する該フィルタ膜を除去して形成されたものであることを特徴とする撮像装置。
The imaging device according to claim 3.
The second region of the spectral filter layer transmits light without performing wavelength selection,
The spectral filter layer is formed by removing the filter film that exists in the portion that becomes the second region after the filter film that becomes the first region is uniformly formed. apparatus.
請求項4の撮像装置において、
上記光学フィルタは、上記分光フィルタ層における上記第1領域には上記透過率調整層における上記透過率が高い種類の光透過領域を透過する光が透過し、上記分光フィルタ層における上記第2領域には上記透過率調整層における上記透過率が低い種類の光透過領域を透過する光が透過するように、構成されていることを特徴とする撮像装置。
The imaging device according to claim 4.
The optical filter in the first region in the spectral filter layer is light transmitted through the light transmission region of the type described above having a high transmittance in the transmittance adjusting layer is transmitted, to the second region in the spectral filter layer the imaging apparatus characterized by light transmitted through the light transmission region type low the transmittance in the transmittance adjusting layer is to transmit configuration.
撮像手段が撮像した撮像画像に基づいて撮像領域内に存在する検出対象物の検出処理を行う物体検出処理手段を有する物体検出装置において、
上記撮像手段として、請求項1乃至5のいずれか1項に記載の撮像装置を用いたことを特徴とする物体検出装置。
In an object detection apparatus having object detection processing means for performing detection processing of a detection target existing in an imaging region based on a captured image captured by an imaging means,
An object detection apparatus using the imaging apparatus according to claim 1 as the imaging means.
自車両の進行方向前方領域を撮像領域として撮像する撮像手段が撮像した撮像画像に基づいて、自車両とは反対方向へ進行する対向車両と、自車両と同じ進行方向へ進行する先行車両とを検出対象物とした検出処理を行う物体検出処理手段を有する物体検出装置において、
上記撮像手段として、請求項5の撮像装置を用い、
上記分光フィルタ層の第1領域が光を透過させる上記特定波長帯は車両のテールランプ色の波長を含む波長帯であり、
上記物体検出処理手段は、上記分光フィルタ層の第1領域の透過光を受光した画像センサ上の受光素子の出力信号に基づいて先行車両を検出するとともに、上記分光フィルタ層の第2領域を透過した透過光を受光した画像センサ上の受光素子の出力信号に基づいて対向車両を検出することを特徴とする物体検出装置。
An oncoming vehicle that travels in the opposite direction of the host vehicle and a preceding vehicle that travels in the same traveling direction as the host vehicle based on the captured image captured by the imaging means that captures the front area in the traveling direction of the host vehicle as an imaging region. In an object detection apparatus having object detection processing means for performing detection processing as a detection target,
The imaging device of claim 5 is used as the imaging means,
The specific wavelength band through which the first region of the spectral filter layer transmits light is a wavelength band including a wavelength of a tail lamp color of a vehicle,
The object detection processing means detects a preceding vehicle based on the output signal of the light receiving element on the image sensor that has received the transmitted light of the first region of the spectral filter layer, and transmits the second region of the spectral filter layer. An on-coming vehicle is detected based on an output signal of a light receiving element on an image sensor that has received transmitted light.
自車両のフロントガラスを介して自車両の進行方向前方領域を撮像領域として撮像する撮像手段が撮像した撮像画像に基づいて、撮像領域内に存在する検出対象物の検出処理を行う物体検出処理手段を有する物体検出装置において、  Object detection processing means for performing detection processing of a detection target existing in the imaging area based on a captured image captured by an imaging means that captures the front area in the traveling direction of the host vehicle through the windshield of the host vehicle as an imaging area. In an object detection apparatus having
上記撮像手段として、請求項1乃至5のいずれか1項に記載の撮像装置を用い、  As the imaging means, using the imaging device according to any one of claims 1 to 5,
上記偏光フィルタ層の上記第1領域は、上記フロントガラスの湾曲に合わせて、水平方向端部へ近づくにつれて、上記ワイヤーグリッド構造の金属ワイヤーの長手方向と水平方向との角度が変化するように構成されていることを特徴とする物体検出装置。  The first region of the polarizing filter layer is configured such that the angle between the longitudinal direction of the metal wires of the wire grid structure and the horizontal direction changes as it approaches the horizontal end in accordance with the curvature of the windshield. An object detection device characterized by being provided.
受光素子が2次元配置された画素アレイで構成された画像センサを有する撮像装置の該画像センサと撮像領域との間に配置される光学フィルタにおいて、
一様な光が入射したときの透過率が互いに異なる複数種類の光透過領域が、上記画像センサ上における1つの受光素子又は2以上の受光素子で構成される単位領域で、上記画素アレイの2次元方向へ交互に配置されている透過率調整層を有し、
上記透過率調整層は、特定方向の偏光成分のみを選択して透過させる金属のワイヤーグリッド構造をもつ光透過部と該光透過部の周囲に配置される金属の遮光部とから構成される第1領域と偏光成分の選択を行わずに光を透過させる光透過部又は該特定方向とは異なる方向の偏光成分のみを選択して透過させる金属のワイヤーグリッド構造をもつ光透過部と該光透過部の周囲に配置される金属の遮光部とから構成される第2領域とが、上記単位領域で領域分割された偏光フィルタ層で構成され、
上記透過率が相対的に低い種類の光透過領域は、上記透過率が相対的に高い種類の光透過領域よりも上記光透過部の面積が小さいことを特徴とする光学フィルタ。
In an optical filter arranged between the image sensor and an imaging region of an imaging device having an image sensor constituted by a pixel array in which light receiving elements are two-dimensionally arranged,
A plurality of types of light transmission regions having different transmittances when uniform light is incident are unit regions composed of one light receiving element or two or more light receiving elements on the image sensor. Having transmittance adjustment layers arranged alternately in the dimension direction;
The transmittance adjusting layer includes a light transmitting portion having a metal wire grid structure that selectively transmits only a polarized light component in a specific direction, and a metal light shielding portion disposed around the light transmitting portion . A light transmission part that transmits light without selecting a polarization component or a light transmission part having a metal wire grid structure that transmits only a polarization component in a direction different from the specific direction and the light; a second region composed of a shielding portion of a metal disposed around the transparent portion is formed by a polarizing filter layer divided into areas above Kitan displacement range,
The lower the type of the light transmission region transmittance is relatively optical filter, wherein the area of the light-transmitting portion than the transmittance is relatively high types of light transmission region is small.
JP2011166612A 2011-07-29 2011-07-29 Imaging apparatus, object detection apparatus including the same, and optical filter Expired - Fee Related JP5936098B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011166612A JP5936098B2 (en) 2011-07-29 2011-07-29 Imaging apparatus, object detection apparatus including the same, and optical filter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011166612A JP5936098B2 (en) 2011-07-29 2011-07-29 Imaging apparatus, object detection apparatus including the same, and optical filter

Publications (2)

Publication Number Publication Date
JP2013031053A JP2013031053A (en) 2013-02-07
JP5936098B2 true JP5936098B2 (en) 2016-06-15

Family

ID=47787652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011166612A Expired - Fee Related JP5936098B2 (en) 2011-07-29 2011-07-29 Imaging apparatus, object detection apparatus including the same, and optical filter

Country Status (1)

Country Link
JP (1) JP5936098B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014219120A1 (en) * 2013-12-19 2015-06-25 Robert Bosch Gmbh Method and apparatus for determining headlamp leveling of a headlamp
JP2018020585A (en) * 2016-08-01 2018-02-08 株式会社小糸製作所 On-vehicle imaging device and vehicle lighting fixture system
KR101746531B1 (en) 2016-10-19 2017-06-14 주식회사 오디텍 Vehicle rain sensor and vehicle wiper driving device
JP6913162B2 (en) * 2017-05-25 2021-08-04 富士フイルム株式会社 Color separation optical system, imaging unit and imaging device
JP7278764B2 (en) * 2018-12-20 2023-05-22 キヤノン株式会社 IMAGING DEVICE, ELECTRONIC DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM
DE102019135408B3 (en) * 2019-12-20 2021-01-07 Audi Ag Light arrangement for a motor vehicle and motor vehicle
JP2021150877A (en) * 2020-03-23 2021-09-27 ソニーセミコンダクタソリューションズ株式会社 Imaging apparatus
CN111447423A (en) * 2020-03-25 2020-07-24 浙江大华技术股份有限公司 Image sensor, imaging apparatus, and image processing method
CN112965070A (en) * 2021-02-01 2021-06-15 江西欧迈斯微电子有限公司 Sweeper and method for detecting foreign matters on surface of sweeper

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07115643A (en) * 1993-10-19 1995-05-02 Toyota Motor Corp On-vehicle image pickup device
US6909461B1 (en) * 2000-07-13 2005-06-21 Eastman Kodak Company Method and apparatus to extend the effective dynamic range of an image sensing device
JP4253271B2 (en) * 2003-08-11 2009-04-08 株式会社日立製作所 Image processing system and vehicle control system
JP2006163316A (en) * 2004-12-10 2006-06-22 Sanyo Electric Co Ltd Method for manufacturing color filter array
JP4664883B2 (en) * 2006-09-13 2011-04-06 パナソニック株式会社 Headlight control device
JP5152655B2 (en) * 2008-06-18 2013-02-27 株式会社リコー Imaging device
JP5428509B2 (en) * 2009-05-11 2014-02-26 ソニー株式会社 Two-dimensional solid-state imaging device and polarized light data processing method in two-dimensional solid-state imaging device
JP5359541B2 (en) * 2009-05-12 2013-12-04 王子ホールディングス株式会社 Manufacturing method of metal fine wire sheet having uneven shape, and metal thin wire sheet having uneven shape

Also Published As

Publication number Publication date
JP2013031053A (en) 2013-02-07

Similar Documents

Publication Publication Date Title
JP6380843B2 (en) Object detection apparatus, mobile device control system including the same, and object detection program
JP2013031054A (en) Image pickup device and object detection device incorporating the same and optical filter and manufacturing method thereof
JP5936098B2 (en) Imaging apparatus, object detection apparatus including the same, and optical filter
JP2013029451A (en) Deposit detection device and deposit detection method
JP5846485B2 (en) Adhering matter detection apparatus and adhering matter detection method
JP6468482B2 (en) IMAGING DEVICE, OBJECT DETECTION DEVICE, AND MOBILE DEVICE CONTROL SYSTEM
US9726604B2 (en) Adhering detection apparatus, adhering substance detection method, storage medium, and device control system for controlling vehicle-mounted devices
JP2013190416A (en) Deposit detection device and in-vehicle equipment controller including the same
JP4327024B2 (en) Image processing system
JP5995140B2 (en) Imaging apparatus, vehicle system including the same, and image processing method
US9426377B2 (en) Image capturing apparatus, image capturing method, storage medium, and device control system for controlling vehicle-mounted devices
JP5858327B2 (en) IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND POLARIZING FILTER
JP6555569B2 (en) Image processing apparatus, mobile device control system, and image processing program
JP2013095315A (en) Inside rear view mirror device with built-in imaging device, and vehicle equipped with the same
JP5887840B2 (en) Image processing device
JP2016146583A (en) Imaging device, mobile apparatus control system and program
JP2013162492A (en) Image pickup device, vehicle incorporating the same, and position adjustment method
JP6701542B2 (en) Detection device, mobile device control system, and detection program
JP5845820B2 (en) Imaging unit and vehicle equipped with the same
JP6536946B2 (en) Imaging device, imaging method, program, and mobile device control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160428

R151 Written notification of patent or utility model registration

Ref document number: 5936098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees