JP5590457B2 - IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE - Google Patents

IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE Download PDF

Info

Publication number
JP5590457B2
JP5590457B2 JP2010266460A JP2010266460A JP5590457B2 JP 5590457 B2 JP5590457 B2 JP 5590457B2 JP 2010266460 A JP2010266460 A JP 2010266460A JP 2010266460 A JP2010266460 A JP 2010266460A JP 5590457 B2 JP5590457 B2 JP 5590457B2
Authority
JP
Japan
Prior art keywords
region
light
vehicle
filter
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010266460A
Other languages
Japanese (ja)
Other versions
JP2012119838A (en
Inventor
秀明 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2010266460A priority Critical patent/JP5590457B2/en
Publication of JP2012119838A publication Critical patent/JP2012119838A/en
Application granted granted Critical
Publication of JP5590457B2 publication Critical patent/JP5590457B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、受光素子が2次元配置された画素アレイで構成された画像センサを用いて撮像領域内を撮像する撮像装置並びにこれを備えた物体検出装置及び車載機器制御装置に関するものである。   The present invention relates to an imaging device that images an imaging region using an image sensor configured by a pixel array in which light receiving elements are two-dimensionally arranged, an object detection device including the imaging device, and an in-vehicle device control device.

従来、夜間において、車載カメラ(撮像装置)により自車の進行方向前方領域(撮像領域)を撮像し、その撮像画像に基づく物体検出処理を行って先行車両や対向車両などの物体を検出し、自車の運転者(ドライバー)の運転負荷を軽減させる運転者支援システムが知られている。運転者支援システムでは、例えば、先行車両や対向車両等の検出結果を用いて運転者に知らせたり警告したりする情報提供制御を行うものがある。また、例えば、先行車両や対向車両等の検出結果を用いて、自車のヘッドランプの照射方向の切り換え制御(ハイビームとロービームの切り換え制御等)を行ったり、自車のワイパーによる視界確保の制御を行ったりする車載機器の制御を行うものもある。このような運転者支援システムは、運転者の運転に対する負荷を低減させるとともに、交通安全に寄与するものであり、非常に有益なシステムであるが、その先行車両や対向車両等の検出結果を用いた各種制御を適切に行うためには、先行車両や対向車両等の検出精度を高めることが重要となる。   Conventionally, at night, an in-vehicle camera (imaging device) captures a front area (imaging area) in the traveling direction of the host vehicle, and performs object detection processing based on the captured image to detect an object such as a preceding vehicle or an oncoming vehicle, A driver support system that reduces the driving load on the driver of the vehicle is known. Some driver support systems perform, for example, information provision control that notifies or warns the driver using detection results of preceding vehicles, oncoming vehicles, and the like. In addition, for example, by using the detection result of the preceding vehicle or the oncoming vehicle, control of switching the irradiation direction of the headlamp of the own vehicle (switching control between high beam and low beam, etc.), and control of ensuring visibility by the wiper of the own vehicle Some control the in-vehicle devices that perform the operation. Such a driver assistance system reduces the load on driving by the driver and contributes to traffic safety, and is a very useful system. However, the detection result of the preceding vehicle or the oncoming vehicle is used. In order to appropriately perform the various controls, it is important to improve the detection accuracy of the preceding vehicle, the oncoming vehicle, and the like.

特許文献1には、夜間に先行車両や対向車両を検出可能な物体検出装置として、画像センサによって撮像した画像に基づいて先行車両のテールランプや対向車両のヘッドランプを検出するシステムが開示されている。このシステムは、ヘッドランプからの強い白色光とテールランプからの強い赤色光とを抽出し、その抽出結果から対向車両や先行車両を検出している。具体的には、赤色のフィルタ染料で形成されたレンズと緑がかった青色のフィルタ染料で形成されたレンズとを画像センサの前段部に配置し、撮像領域からの入力光をこれらのレンズでそれぞれ画像センサ上の2箇所に集束させる。これにより、前者のレンズによって集束された光の輝度値から入力光の赤色成分が抽出され、後者のレンズによって集束された光の輝度値から入力光の青色成分が抽出される。そして、入力光の赤色成分が所定の明るさ(輝度)以上であるときには撮像領域内に先行車両のテールランプが存在するとみなして先行車両のテールランプを検出し、入力光の青色成分が所定の明るさ(輝度)以上であるときには撮像領域内に対向車両のヘッドランプが存在するとみなして対向車両のヘッドランプを検出する。   Patent Document 1 discloses a system that detects a tail lamp of a preceding vehicle and a headlamp of an oncoming vehicle based on an image captured by an image sensor as an object detection device that can detect the preceding vehicle and the oncoming vehicle at night. . This system extracts strong white light from the headlamp and strong red light from the taillamp, and detects an oncoming vehicle or a preceding vehicle from the extraction result. Specifically, a lens formed with a red filter dye and a lens formed with a greenish blue filter dye are arranged in the front stage of the image sensor, and the input light from the imaging region is respectively received by these lenses. Focusing is performed at two locations on the image sensor. As a result, the red component of the input light is extracted from the luminance value of the light focused by the former lens, and the blue component of the input light is extracted from the luminance value of the light focused by the latter lens. When the red component of the input light is equal to or higher than the predetermined brightness (luminance), it is assumed that the tail lamp of the preceding vehicle exists in the imaging region, and the tail lamp of the preceding vehicle is detected, and the blue component of the input light has the predetermined brightness. When the brightness is equal to or greater than (luminance), the headlamp of the oncoming vehicle is detected in the imaging region, and the headlamp of the oncoming vehicle is detected.

しかしながら、上記特許文献1に開示のシステムでは、テールランプからの赤色光及びヘッドライトからの白色光(青色成分を含んでいる)を抽出するため、フィルタ機能を備える2つのレンズによって入力光を赤色と青色とに分けて集束させる。このようにレンズを複数備える構成では、光学システムが複雑となり、コストが上昇するという不具合がある。また、上記特許文献1に開示のシステムが用いているレンズは染料を使ってフィルタ機能を実現したものである。このような染料を用いたフィルタは、車室内等の温度変化が激しい環境下ではフィルタ機能の劣化の不具合も顕著となる。   However, in the system disclosed in Patent Document 1 described above, in order to extract red light from the tail lamp and white light (including a blue component) from the headlight, the input light is converted to red by two lenses having a filter function. Focus in blue. In such a configuration including a plurality of lenses, there is a problem that the optical system becomes complicated and the cost increases. In addition, the lens used in the system disclosed in Patent Document 1 uses a dye to realize a filter function. A filter using such a dye has a remarkable problem of deterioration of the filter function under an environment where the temperature change is severe, such as in the passenger compartment.

このような不具合を解消し得る赤色光及び白色光を抽出する方法としては、上記2つのレンズを用いる方法に代えて、公知のカラーセンサと同様の半導体プロセスを用いて画像センサ上に配置される画素(単位領域)の一部に赤色成分フィルタを積層させ、赤色成分のみを受光させる画素と白色光を受光する画素とを作り込むという方法が考えられる。しかしながら、このような半導体プロセスは高額な投資が必要とあり、高コスト化が避けられない。   As a method of extracting red light and white light that can solve such a problem, the semiconductor device is arranged on the image sensor using a semiconductor process similar to a known color sensor, instead of using the above-described two lenses. A method is conceivable in which a red component filter is stacked on a part of a pixel (unit region), and a pixel that receives only the red component and a pixel that receives white light are formed. However, such a semiconductor process requires an expensive investment, and an increase in cost is inevitable.

このような不具合を解消するものとしては、赤色成分のみを透過するフィルタ領域(第1領域)と波長制限しない非フィルタ領域(第2領域)とに領域分割された光学フィルタを、モノクロ画像センサの前段に、別素子として設置する方法が考えられる。この光学フィルタは、例えば、赤色成分のみを透過する波長選択フィルタ(赤色成分フィルタ)を蒸着等の方法によって一様にガラス平板上に形成した後、非フィルタ領域とする箇所の赤色成分フィルタをリフトオフなどの手法によって取り除くという比較的簡単かつ低コストな方法で作製できる。よって、この方法によれば、上述した半導体プロセスを用いて画像センサ上に赤色成分フィルタを設ける場合よりも低コスト化を実現できる。   In order to solve such a problem, an optical filter divided into a filter region (first region) that transmits only a red component and a non-filter region (second region) that does not limit the wavelength is used for a monochrome image sensor. A method of installing as a separate element in the previous stage is conceivable. This optical filter is formed by, for example, forming a wavelength selection filter (red component filter) that transmits only the red component uniformly on a glass plate by a method such as vapor deposition, and then lifting off the red component filter at a portion to be a non-filter region. It can be manufactured by a relatively simple and low-cost method of removing by such a method. Therefore, according to this method, it is possible to reduce the cost compared to the case where the red component filter is provided on the image sensor using the semiconductor process described above.

ところが、本発明者は、この方法を採用すると次のような問題が発生することを見いだした。
ガラス平板(フィルタ基板)上に赤色成分フィルタを部分的に形成して赤色光と白色光とを透過させる光学フィルタの場合、赤色成分フィルタが形成されているフィルタ領域と、このような赤色成分フィルタが形成されていなくて波長選択しない非フィルタ領域との間で、透過した光に位相差が生じる。これは、フィルタ領域にはガラス平板上に赤色成分フィルタとして機能するフィルタ材料が存在するのに対し、非フィルタ領域にはこのようなフィルタ材料の代わりに空気層が存在することに起因する。光学フィルタと画像センサとの間は近接配置されるが、互いを押し付け接合することは不可能なため、光学フィルタと画像センサとの間には数ミクロン程度の空隙が存在する。そのため、光学フィルタ上の各フィルタ領域(あるいは非フィルタ領域)を透過した光のごく一部は、光学フィルタ通過時の回折現象によってあるいは屈折現象によって、その対応画素の周囲に位置する周囲画素に受光される。このとき、フィルタ領域の透過光(赤色光)と非フィルタ領域の透過光(白色光)との間で位相差が生じていると、位相差が生じていない場合よりも、対象画素の周囲画素に受光される光量が増えたり減ったりする。これは、例えば、フィルタ領域に対応する対応画素に対し、非フィルタ領域の透過光の一部が回析現象や屈折現象により照射される場合を考えると、非フィルタ領域の透過光の一部(回折光や屈折光)とフィルタ領域の透過光とが干渉して強め合う度合い又は弱め合う度合いが、当該位相差によって増大するためである。対象画素の周囲画素に受光される光量が増えたり減ったりすると、その対応画素の受光量と当該フィルタ領域の透過光量との誤差が大きくなり、当該対応画素による当該フィルタ領域の透過光量の検知精度が悪化する。非フィルタ領域に対応する対応画素についても同様である。その結果、例えばフィルタ領域に対応する画素と非フィルタ領域に対応する画素との切り分けが明確にならないという問題が生じる。この問題は、当該光学フィルタを備えた撮像装置を用いた上述の物体検出装置では、赤色光に基づくテールランプの検出と白色光によるヘッドランプの検出の精度を落とす結果を招く。
However, the present inventor has found that the following problems occur when this method is adopted.
In the case of an optical filter that partially forms a red component filter on a glass plate (filter substrate) and transmits red light and white light, a filter region in which the red component filter is formed, and such a red component filter A phase difference occurs in the transmitted light between the non-filter region where the wavelength is not selected and the wavelength is not selected. This is because a filter material that functions as a red component filter is present on the glass plate in the filter region, whereas an air layer is present instead of such a filter material in the non-filter region. Although the optical filter and the image sensor are arranged close to each other, it is impossible to press and bond them to each other. Therefore, there is a gap of about several microns between the optical filter and the image sensor. Therefore, a small part of the light transmitted through each filter area (or non-filter area) on the optical filter is received by surrounding pixels located around the corresponding pixel by diffraction phenomenon or refraction phenomenon when passing through the optical filter. Is done. At this time, if there is a phase difference between the transmitted light (red light) in the filter area and the transmitted light (white light) in the non-filter area, the surrounding pixels of the target pixel are compared to when there is no phase difference. The amount of light received by the light increases or decreases. This is because, for example, when a part of the transmitted light in the non-filter region is irradiated to the corresponding pixel corresponding to the filter region by diffraction or refraction, a part of the transmitted light in the non-filter region ( This is because the degree to which the diffracted light or refracted light) and the transmitted light through the filter region interfere and strengthen each other increases due to the phase difference. When the amount of light received by the surrounding pixels of the target pixel increases or decreases, the error between the amount of light received by the corresponding pixel and the amount of light transmitted through the filter region increases, and the detection accuracy of the amount of light transmitted through the filter region by the corresponding pixel is increased. Gets worse. The same applies to the corresponding pixels corresponding to the non-filter area. As a result, there arises a problem that, for example, the separation between the pixel corresponding to the filter region and the pixel corresponding to the non-filter region is not clear. This problem results in a decrease in the accuracy of the tail lamp detection based on the red light and the headlamp detection based on the white light in the above-described object detection apparatus using the imaging device including the optical filter.

一方で、各画素の受光量に対して回折現象分又は屈折現象分を補正する処理を施すことにより、上述した問題を解消することも不可能ではない。しかしながら、回折現象や屈折現象は波長依存性を有するため、各画素の受光量に対して特定波長についての回折現象分や屈折現象分を補正しても、他の波長については補正されない。そして、多数の波長について補正を行うことは処理負荷を増大させるので、現実的ではない。よって、各画素の受光量に対して回折現象分や屈折現象分を補正して上記問題に対処することは困難である。   On the other hand, it is not impossible to solve the above-described problem by performing a process of correcting the diffraction phenomenon or the refraction phenomenon with respect to the amount of light received by each pixel. However, since the diffraction phenomenon and the refraction phenomenon have wavelength dependence, even if the diffraction phenomenon and the refraction phenomenon for the specific wavelength are corrected with respect to the received light amount of each pixel, other wavelengths are not corrected. Further, it is not practical to perform correction for a large number of wavelengths because it increases the processing load. Therefore, it is difficult to cope with the above problem by correcting the diffraction phenomenon and the refraction phenomenon with respect to the amount of light received by each pixel.

なお、上記問題は、第1領域であるフィルタ領域とは別に設けられる第2領域が、波長選択を行わずに光を透過させる非フィルタ領域である場合について説明したが、第2領域が、当該フィルタ領域が選択する波長を含む所定の波長範囲の光のみを選択的に透過させる別のフィルタ領域である場合にも、同様に生じ得る問題である。   In addition, although the said problem demonstrated the case where the 2nd area | region provided separately from the filter area | region which is a 1st area | region is a non-filter area | region which permeate | transmits light without performing wavelength selection, a 2nd area | region is the said area | region. The same problem may arise when the filter region is another filter region that selectively transmits only light in a predetermined wavelength range including the wavelength selected.

本発明は、以上の問題に鑑みなされたものであり、その目的とするところは、画像センサの前段に配置する別素子の光学フィルタを第1領域と第2領域とに領域分割して画像センサ上の画素を波長に応じて切り分ける場合に、その切り分けが不明確にならない撮像装置並びにこれを備えた物体検出装置及び車載機器制御装置を提供することである。   The present invention has been made in view of the above problems, and an object of the present invention is to divide an optical filter, which is a separate element arranged in the previous stage of the image sensor, into a first area and a second area, thereby dividing the image sensor. An object of the present invention is to provide an imaging device in which the upper pixel is separated in accordance with the wavelength, and an object detection device and an in-vehicle device control device provided with the same.

上記目的を達成するために、請求項1の発明は、撮像領域内に存在する物体から発せられる光を、受光素子が2次元配置された画素アレイで構成された画像センサにより受光して、撮像領域内を撮像する撮像装置において、特定波長の光のみを選択して透過させる第1領域と波長選択を行わずに光を透過させる第2領域とが、上記画像センサ上における1つの受光素子又は2以上の受光素子群で構成される単位領域で領域分割された光学フィルタが、該画像センサの入射側に配置されており、上記光学フィルタは、フィルタ基板上に上記第1領域となるフィルタ膜を一様に形成した後に上記第2領域となる箇所に存在する該フィルタ膜を除去し、該フィルタ膜を除去した箇所に充填剤を充填することにより、該第1領域を透過する光の光路長と該第2領域を透過する光の光路長とが略同一となるように構成されており、上記光学フィルタは、上記フィルタ膜が形成される側を上記画像センサに対面させた状態で該画像センサに対して接着剤により接着されており、上記充填剤は上記接着剤であることを特徴とするものである
た、請求項の発明は、撮像領域内に存在する物体から発せられる光を、受光素子が2次元配置された画素アレイで構成された画像センサにより受光して、撮像領域内を撮像する撮像装置において、特定波長の光のみを選択して透過させる第1領域と波長選択を行わずに光を透過させる第2領域とが、上記画像センサ上における1つの受光素子又は2以上の受光素子群で構成される単位領域で領域分割された光学フィルタが、該画像センサの入射側に配置されており、上記光学フィルタは、上記第2領域となる箇所に凸部を有するフィルタ基板上に上記第1領域となるフィルタ膜を一様に形成した後、該第2領域となる箇所に存在する該フィルタ膜を除去することにより、該第1領域を透過する光の光路長と該第2領域を透過する光の光路長とが略同一となるように構成されたものであることを特徴とするものである。
また、請求項の発明は、撮像手段が撮像した撮像画像に基づいて互いに異なる波長帯の光を発する少なくとも2種類の検出対象物の検出処理を行う物体検出処理手段を有する物体検出装置において、上記撮像手段として、請求項1又は2に記載の撮像装置を用いたことを特徴とするものである。
また、請求項の発明は、請求項の物体検出装置において、上記撮像装置は、自車両の進行方向前方領域を撮像領域として撮像するものであり、上記少なくとも2種類の検出対象物には、自車両に近づく方向に進行する他車両と自車両から離れる方向に進行する他車両とが含まれており、上記第2領域は、波長選択を行わずに光を透過させる透過領域であり、上記第1領域が光を透過させる上記特定波長は車両のテールランプ色の波長であり、上記物体検出処理手段は、上記第1領域の透過光を受光した画像センサ上の受光素子の出力信号に基づいて自車両から離れる方向に進行する他車両を検出し、上記第2領域の透過光を受光した画像センサ上の受光素子の出力信号に基づいて自車両に近づく方向に進行する他車両を検出することを特徴とするものである。
また、請求項の発明は、車両の周囲を撮像領域として撮像し、該撮像領域内に存在する物体のうち互いに異なる波長帯の光を発する少なくとも2種類の検出対象物を検出する物体検出手段と、該物体検出手段の検出結果に基づいて上記車両に搭載された車載機器の動作を制御する制御手段とを有する車載機器制御装置において、上記物体検出手段として、請求項又は4に記載の物体検出装置を用いたことを特徴とするものである。
また、請求項の発明は、請求項の車載機器制御装置において、上記物体検出手段として、請求項4に記載の物体検出装置を用い、上記制御手段は、上記物体検出手段の検出結果に基づいて、上記車両に搭載された車載機器であるヘッドランプの照射方向を変更し又は該ヘッドランプの発光強度を変更する制御を行うことを特徴とするものである。
In order to achieve the above object, according to the first aspect of the present invention, imaging is performed by receiving light emitted from an object existing in an imaging region by an image sensor including a pixel array in which light receiving elements are two-dimensionally arranged. an imaging device for imaging an area, and a second region where Ru transmits light without first region and a wavelength selection to transmit by selecting only light of a specific wavelength, one light receiving element on the image sensor Alternatively, an optical filter divided into unit areas composed of two or more light receiving element groups is arranged on the incident side of the image sensor, and the optical filter is a filter that becomes the first area on the filter substrate. After the film is uniformly formed, the filter film present at the position to be the second region is removed, and the portion from which the filter film has been removed is filled with a filler, so that the light transmitted through the first region is transmitted. Optical path length The optical path length of light passing through the second region is configured to be substantially the same, the optical filter, the image sensor side the filter film is formed in a state of being opposed to the image sensor And the filler is the adhesive .
Also, the invention of claim 2, the light emitted from the object present in the imaging area, and received by the image sensor constructed with a pixel array in which light receiving elements are arranged two-dimensionally, to image the imaging area In the imaging apparatus, the first region for selecting and transmitting only light of a specific wavelength and the second region for transmitting light without performing wavelength selection are one light receiving element or two or more light receiving elements on the image sensor. An optical filter divided into unit areas composed of groups is arranged on the incident side of the image sensor, and the optical filter is formed on the filter substrate having a convex portion at a location to be the second area. After the filter film to be the first region is uniformly formed, the filter film present at the location to be the second region is removed, so that the optical path length of the light transmitted through the first region and the second region are reduced. Optical path of light passing through Bets are characterized in that which has been configured to be substantially the same.
The invention of claim 3 is an object detection apparatus having an object detection processing means for performing detection processing of at least two types of detection objects that emit light in different wavelength bands based on a captured image captured by the imaging means. The imaging device according to claim 1 or 2 is used as the imaging means.
According to a fourth aspect of the present invention, there is provided the object detection device according to the third aspect , wherein the imaging device captures an area in front of the traveling direction of the host vehicle as an imaging region, and the at least two types of detection objects include The other vehicle that travels in the direction approaching the host vehicle and the other vehicle that travels in the direction away from the host vehicle are included, and the second region is a transmission region that transmits light without performing wavelength selection, The specific wavelength through which the first region transmits light is a wavelength of a tail lamp color of the vehicle, and the object detection processing means is based on an output signal of a light receiving element on the image sensor that has received the transmitted light of the first region. The other vehicle traveling in the direction away from the host vehicle is detected, and the other vehicle traveling in the direction approaching the host vehicle is detected based on the output signal of the light receiving element on the image sensor that has received the transmitted light of the second region. Specially It is an.
Further, the invention according to claim 5 is an object detection unit that captures an image of the periphery of a vehicle as an imaging region and detects at least two types of detection objects that emit light in different wavelength bands among objects existing in the imaging region. And a control means for controlling the operation of the in-vehicle equipment mounted on the vehicle based on the detection result of the object detection means. The in-vehicle equipment control device according to claim 3 or 4 as the object detection means. It is characterized by using an object detection device.
According to a sixth aspect of the present invention, in the in-vehicle device control apparatus according to the fifth aspect , the object detection device according to the fourth aspect is used as the object detection means, and the control means uses the detection result of the object detection means. Based on this, control is performed to change the irradiation direction of a headlamp which is an in-vehicle device mounted on the vehicle or to change the emission intensity of the headlamp.

本発明は、特定波長の光のみを選択して透過させる第1領域を透過する光の光路長と、波長選択を行わずに光を透過させる第2領域を透過する光の光路長とが略同一となるように、光学フィルタが構成されている。これにより、第1領域の透過光と第2領域の透過光との間で生じる位相差を小さくし又はなくすことができる。このような光学フィルタは、例えば、第1領域となる箇所及び第2領域となる箇所の厚みや屈折率を調整することで作製することができる。そして、このように第1領域の透過光と第2領域の透過光との間で位相差が小さくなり又は無くなれば、第1領域に対応する単位領域において、第2領域のから回折光や屈折光と第1領域の透過光とが干渉して強め合う度合い又は弱め合う度合いが増大することを抑制できる。その結果、第1領域に対応する単位領域の受光量と当該第1領域の透過光量との誤差が大きくなることが抑制され、当該単位領域による当該第1領域の透過光量の検知精度が悪化することが抑制される。また、第2領域に対応する単位領域についても同様である。よって、第1領域に対応する画素と第2領域に対応する画素との切り分けが不明確なものとなるのが抑制される。 The present invention comprises an optical path length of the light transmitted through the first region to transmit by selecting only light of a specific wavelength, the optical path length of the light transmitted through the second region Ru transmits light without wavelength selection The optical filter is configured to be substantially the same. Thereby, the phase difference produced between the transmitted light of the first region and the transmitted light of the second region can be reduced or eliminated. Such an optical filter can be produced, for example, by adjusting the thickness and the refractive index of the portion that becomes the first region and the portion that becomes the second region. If the phase difference between the transmitted light in the first region and the transmitted light in the second region is reduced or eliminated in this way, in the unit region corresponding to the first region, the diffracted light and the refracted light from the second region. It is possible to suppress an increase in the degree of strengthening or weakening due to interference between the light and the transmitted light in the first region. As a result, an increase in the error between the received light amount of the unit region corresponding to the first region and the transmitted light amount of the first region is suppressed, and the detection accuracy of the transmitted light amount of the first region by the unit region is deteriorated. It is suppressed. The same applies to the unit area corresponding to the second area. Therefore, it is possible to prevent the pixel corresponding to the first region and the pixel corresponding to the second region from being unclear.

以上、本発明によれば、画像センサの前段に配置する別素子の光学フィルタを第1領域と第2領域とに領域分割して画像センサ上の画素を波長に応じて切り分ける場合に、その切り分けが不明確にならないという優れた効果が得られる。   As described above, according to the present invention, when the optical filter of another element arranged in the previous stage of the image sensor is divided into the first region and the second region, and the pixels on the image sensor are separated according to the wavelength, the separation is performed. It is possible to obtain an excellent effect that does not become unclear.

実施形態に係るヘッドランプ制御システムの機能ブロック図である。It is a functional block diagram of the headlamp control system concerning an embodiment. 同ヘッドランプ制御システムにおける撮像装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the imaging device in the headlamp control system. 同撮像装置における光学フィルタと画像センサとを示す拡大図である。It is an enlarged view which shows the optical filter and image sensor in the imaging device. 同光学フィルタの領域分割パターンと同画像センサの画素との対応関係を示す説明図である。It is explanatory drawing which shows the correspondence of the area | region division pattern of the same optical filter, and the pixel of the same image sensor. 構成例1における光学フィルタの説明図である。6 is an explanatory diagram of an optical filter in Configuration Example 1. FIG. 構成例2における光学フィルタの赤色フィルタ領域を画像センサ上に重ねて示した説明図である。It is explanatory drawing which overlapped and showed the red filter area | region of the optical filter in the structural example 2 on an image sensor. 実施形態における光学フィルタの断面を含む斜視図である。It is a perspective view including the cross section of the optical filter in embodiment. 赤色フィルタ領域の波長フィルタ膜として使用可能なカットフィルタ特性の一例を示すグラフである。It is a graph which shows an example of the cut filter characteristic which can be used as a wavelength filter film | membrane of a red filter area | region. 赤色フィルタ領域の波長フィルタ膜として使用可能なバンドパスフィルタ特性の一例を示すグラフである。It is a graph which shows an example of the band pass filter characteristic which can be used as a wavelength filter film | membrane of a red filter area | region. 参考例における光学フィルタ及び画像センサを示す模式図である。It is a schematic diagram which shows the optical filter and image sensor in a reference example. 実施形態における光学フィルタ及び画像センサを示す模式図である。It is a schematic diagram which shows the optical filter and image sensor in embodiment. 構成例3における光学フィルタ及び画像センサを示す模式図である。It is a schematic diagram which shows the optical filter and image sensor in the structural example 3. 構成例4における光学フィルタ及び画像センサを示す模式図である。It is a schematic diagram which shows the optical filter and image sensor in the structural example 4. 実施形態における車両検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the vehicle detection process in embodiment.

以下、本発明に係る撮像装置を、車載機器制御装置としてのヘッドランプ制御システムに用いる一実施形態について説明する。
なお、本発明に係る撮像装置は、ヘッドランプ制御システムに限らず、例えば、当該物体検出装置により夜間に先行車両や対向車両などの検出対象物を検出して運転者に表示や警告を行う運転者支援システムにも同様に適用できるし、撮像画像に基づいて物体検出を行う物体検出装置を搭載したその他のシステムにも適用できる。
Hereinafter, an embodiment in which an imaging device according to the present invention is used in a headlamp control system as an in-vehicle device control device will be described.
Note that the imaging device according to the present invention is not limited to the headlamp control system. For example, the object detection device detects an object to be detected such as a preceding vehicle or an oncoming vehicle at night and displays or warns the driver. The present invention can be similarly applied to a person support system, and can also be applied to other systems equipped with an object detection device that detects an object based on a captured image.

図1は、本実施形態に係るヘッドランプ制御システムの機能ブロック図である。
このヘッドランプ制御システムは、主に、撮像手段としての撮像装置11と、車両挙動センサ12と、物体検出装置としての車両検出制御装置13と、制御手段としてのヘッドランプ制御装置14とから構成されている。
FIG. 1 is a functional block diagram of the headlamp control system according to the present embodiment.
This headlamp control system mainly includes an imaging device 11 as an imaging means, a vehicle behavior sensor 12, a vehicle detection control device 13 as an object detection device, and a headlamp control device 14 as a control means. ing.

撮像装置11は、自車両の進行方向前方領域を撮影することができるように、自車両に搭載される。具体的には、例えば、車室内に付属されたバックミラーの裏側のフロントガラス付近に取り付けたり、そのバックミラーに内蔵したり、ヘッドランプに内蔵したりする。撮像装置11の搭載時には、撮像装置11の撮影方向が所定の基準方向(例えば水平方向)に一致するように調整して固定される。なお、撮像装置11は、図示しない内蔵の制御部からの指示に応じて、シャッタースピード、フレームレート、及び、車両検出制御装置13へ出力するデジタル信号のゲイン等を調整することができるように構成されている。そして、撮像装置11は、撮像画像データとして、撮影した画像の画素ごとの明るさ(輝度)を示すデジタル信号を、画像の水平・垂直同期信号とともに車両検出制御装置13へ出力する。   The imaging device 11 is mounted on the host vehicle so that the front area in the traveling direction of the host vehicle can be shot. Specifically, for example, it is attached to the vicinity of the windshield on the back side of the rearview mirror attached to the vehicle interior, built into the rearview mirror, or built into the headlamp. When the image pickup apparatus 11 is mounted, the image pickup direction of the image pickup apparatus 11 is adjusted and fixed so as to coincide with a predetermined reference direction (for example, the horizontal direction). The imaging device 11 is configured to be able to adjust the shutter speed, the frame rate, the gain of the digital signal output to the vehicle detection control device 13, and the like according to an instruction from a built-in control unit (not shown). Has been. And the imaging device 11 outputs the digital signal which shows the brightness (luminance) for every pixel of the image | photographed image as captured image data to the vehicle detection control apparatus 13 with the horizontal / vertical synchronizing signal of an image.

車両挙動センサ12は、例えば自車両の4輪のサスペンションに設置されたストロークセンサから構成され、自車両のピッチ方向やロール方向における挙動変化を検出する。自車両が走行して、前後左右に加速度が生じると、自車両の車体はピッチ方向やロール方向に揺動し、それに伴って撮像装置11の撮像方向も基準方向からずれる。車両挙動センサ12は、撮像装置11の撮像方向が基準方向からどの程度ずれたかを算出するための車両の挙動情報を車両検出制御装置13に与える。   The vehicle behavior sensor 12 is composed of, for example, a stroke sensor installed on a four-wheel suspension of the host vehicle, and detects behavior changes in the pitch direction and the roll direction of the host vehicle. When the host vehicle travels and acceleration occurs in the front, rear, left, and right directions, the body of the host vehicle swings in the pitch direction and the roll direction, and accordingly, the imaging direction of the imaging device 11 deviates from the reference direction. The vehicle behavior sensor 12 gives vehicle behavior information to the vehicle detection control device 13 for calculating how much the imaging direction of the imaging device 11 deviates from the reference direction.

車両検出制御装置13は、撮像装置11から入力された撮像画像データと車両挙動センサ12からの上述した車両の挙動情報とを用いて、所定の画像処理を施すことにより、画像に含まれる光源が、先行車両(自車両から離れる方向へ進行する他車両)のテールランプ、対向車両(自車両に近づく方向へ進行する他車両)のヘッドランプのいずれに該当するか又はいずれにも該当しないかを判断する。そして、画像に含まれる光源が先行車両のテールランプや対向車両のヘッドランプに該当すると判断した場合には、その先行車両や対向車両に関する検出情報をヘッドランプ制御装置14に出力する。   The vehicle detection control device 13 performs predetermined image processing using the captured image data input from the imaging device 11 and the above-described vehicle behavior information from the vehicle behavior sensor 12, so that the light source included in the image is detected. , Determine whether the tail lamp of the preceding vehicle (another vehicle traveling in a direction away from the host vehicle) or the headlamp of an oncoming vehicle (another vehicle traveling in a direction approaching the host vehicle) is applicable or not To do. When it is determined that the light source included in the image corresponds to the tail lamp of the preceding vehicle or the head lamp of the oncoming vehicle, detection information regarding the preceding vehicle or the oncoming vehicle is output to the headlamp control device 14.

ヘッドランプ制御装置14は、車両検出制御装置13から入力された、先行車両や対向車両に関する検出情報に基づいて、ヘッドランプの向き(光照射方向)を制御する。例えば、検出情報に基づいて特定される先行車両や対向車両までの距離が所定距離以下である場合には、ヘッドランプの向きをロービームとする。これにより、先行車両や対向車両の運転者が自車両のヘッドランプの光によって眩しさを感じにくくする。一方、先行車両や対向車両までの距離が所定距離を超えていたり、先行車両や対向車両が検出されていなかったりする場合には、ヘッドランプの向きをハイビームとする。これにより、夜間でも自車両の運転者の視界をより遠方まで確保することができるようになる。なお、ヘッドランプ制御装置14は、そのヘッドランプの向きの制御をユーザによってOFFに切り替えることが可能であり、ユーザの認識に応じてハイビームとロービームを手動で切り換えることもできる。   The headlamp control device 14 controls the direction of the headlamp (light irradiation direction) based on the detection information regarding the preceding vehicle and the oncoming vehicle input from the vehicle detection control device 13. For example, when the distance to the preceding vehicle or the oncoming vehicle specified based on the detection information is equal to or less than a predetermined distance, the headlamp direction is set to a low beam. This makes it difficult for the driver of the preceding vehicle or the oncoming vehicle to feel dazzled by the light of the headlamp of the host vehicle. On the other hand, when the distance to the preceding vehicle or the oncoming vehicle exceeds a predetermined distance, or when the preceding vehicle or the oncoming vehicle is not detected, the direction of the headlamp is set as a high beam. As a result, the field of view of the driver of the host vehicle can be secured even further at night. The headlamp control device 14 can switch the headlamp orientation OFF by the user, and can manually switch between the high beam and the low beam according to the user's recognition.

図2は、本実施形態における撮像装置11の概略構成を示す説明図である。
この撮像装置11は、主に、撮像レンズ1と、光学フィルタ2と、2次元配置された画素アレイを有する画像センサ4を含んだセンサ基板3と、センサ基板3から出力されるアナログ電気信号(画像センサ4上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データを生成して出力する信号処理部5とから構成されている。被写体(被検物)を含む撮像領域からの光は、撮像レンズ1を通り、光学フィルタ2を透過して、画像センサ4でその光強度に応じた電気信号に変換される。信号処理部5では、画像センサ4から出力される電気信号(アナログ信号)が入力されると、その電気信号から、撮像画像データとして、画像センサ4上における各画素の明るさ(輝度)を示すデジタル信号を、画像の水平・垂直同期信号とともに後段の機器へ出力する。
FIG. 2 is an explanatory diagram illustrating a schematic configuration of the imaging apparatus 11 according to the present embodiment.
The imaging device 11 mainly includes an imaging lens 1, an optical filter 2, a sensor substrate 3 including an image sensor 4 having a two-dimensionally arranged pixel array, and an analog electrical signal output from the sensor substrate 3 ( The signal processing unit 5 generates and outputs captured image data obtained by converting a received light amount received by each light receiving element on the image sensor 4 into a digital electric signal. Light from the imaging region including the subject (test object) passes through the imaging lens 1, passes through the optical filter 2, and is converted into an electrical signal corresponding to the light intensity by the image sensor 4. When the electrical signal (analog signal) output from the image sensor 4 is input to the signal processing unit 5, the brightness (luminance) of each pixel on the image sensor 4 is indicated as captured image data from the electrical signal. The digital signal is output to the subsequent device together with the horizontal / vertical synchronizing signal of the image.

図3は、光学フィルタ2と画像センサ4とを示す拡大図である。
画像センサ4は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いたイメージセンサであり、その受光素子にはフォトダイオード4aを用いている。フォトダイオード4aは、画素ごとに2次元的にアレイ配置されており、フォトダイオード4aの集光効率を上げるために、各フォトダイオード4aの入射側にはマイクロレンズ4bが設けられている。この画像センサ4がワイヤボンディングなどの手法によりPWB(printed wiring board)に接合されてセンサ基板3が形成されている。撮像する画像の波長範囲は略可視光であるため、画像センサ4としては、可視光の範囲に感度を有するものを選択すればよい。
FIG. 3 is an enlarged view showing the optical filter 2 and the image sensor 4.
The image sensor 4 is an image sensor using a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, and a photodiode 4a is used as a light receiving element thereof. The photodiodes 4a are two-dimensionally arranged for each pixel, and a microlens 4b is provided on the incident side of each photodiode 4a in order to increase the light collection efficiency of the photodiodes 4a. The image sensor 4 is bonded to a PWB (printed wiring board) by a technique such as wire bonding to form a sensor substrate 3. Since the wavelength range of the image to be captured is substantially visible light, an image sensor 4 having sensitivity in the visible light range may be selected.

画像センサ4のマイクロレンズ4b側の面には、光学フィルタ2が近接配置されている。光学フィルタ2の画像センサ4側の面には、図4に示すように、光を透過する第2領域としての透過領域2aと、赤色の波長成分(特定波長)のみを選択的に透過させる第1領域としての赤色フィルタ領域2bとが、特定方向(図4中左右方向)に交互に配置されたストライプ状の領域分割パターンを有している。このようなストライプ状のパターンをもつ光学フィルタ2は、画像センサ4との位置調整を行うにあたっては当該特定方向のみの位置調整を行えばよく、実装精度が緩和されるという利点がある。   The optical filter 2 is disposed close to the surface of the image sensor 4 on the microlens 4b side. As shown in FIG. 4, the surface of the optical filter 2 on the side of the image sensor 4 selectively transmits only a transmissive region 2a as a second region that transmits light and a red wavelength component (specific wavelength). The red filter area 2b as one area has a stripe-shaped area division pattern alternately arranged in a specific direction (left and right direction in FIG. 4). The optical filter 2 having such a striped pattern has an advantage that the mounting accuracy is eased by adjusting the position only in the specific direction when adjusting the position with the image sensor 4.

このような光学フィルタ2を作製する方法としては、フィルタ基板であるガラス平板上に一様な赤色成分のみを透過する波長フィルタ膜を蒸着などの方法で形成した後に、リフトオフなどの手法により波長フィルタ膜をストライプパターン状に部分的に除去すればよい。この場合、波長フィルタ膜が除去された箇所が透過領域2aとなり、波長フィルタ膜が残った箇所が赤色フィルタ領域2bとなる。   As a method for producing such an optical filter 2, a wavelength filter film that transmits only a uniform red component is formed on a glass plate as a filter substrate by a method such as vapor deposition, and then a wavelength filter is formed by a method such as lift-off. The film may be partially removed in a stripe pattern. In this case, the portion where the wavelength filter film is removed becomes the transmission region 2a, and the portion where the wavelength filter film remains is the red filter region 2b.

本実施形態においては、画像センサ4上の画素(フォトダイオード4a)を2画素で1グループとし、各グループは、図4に示すように、車両のテールランプ色(赤色)の波長帯(赤色成分)の光を受光する画素Rと、車両のヘッドランプ色(白色)の波長帯(白色成分)の光(すなわち波長選択しない光)を受光する画素Wとで構成される。つまり、画像センサ4上の各画素は、2種類の画素R,Wのいずれかとして機能する。これにより、画像センサ4上における2つの画素R,Wを1画素とした2種類の画像を得ることができる。つまり、画素Rに対応した赤色画像と、画素Wに対応したモノクロ輝度画像である。   In the present embodiment, the pixels (photodiode 4a) on the image sensor 4 are made into one group with two pixels, and each group has a wavelength band (red component) of the tail lamp color (red) of the vehicle as shown in FIG. And a pixel W that receives light in the wavelength band (white component) of the headlamp color (white) of the vehicle (that is, light that is not wavelength-selected). That is, each pixel on the image sensor 4 functions as one of the two types of pixels R and W. As a result, two types of images with two pixels R and W on the image sensor 4 as one pixel can be obtained. That is, a red image corresponding to the pixel R and a monochrome luminance image corresponding to the pixel W.

〔構成例1〕
ここで、本実施形態における光学フィルタ2の一構成例(以下、本構成例を「構成例1」という。)について説明する。
図5は、本構成例1における光学フィルタ2の説明図である。
本構成例1に係る光学フィルタ2は、画像センサ4上の各画素を上述した2種類の画素R,Wのいずれかとして機能させるように、透過領域2aと赤色フィルタ領域2bとが図5に示すように2次元方向で交互に隣接するように市松状に配置されたものである。これにより、画像センサ4上の画素は、赤色成分を受光する画素Rと白色成分を受光する画素Wとが2次元方向で交互に隣接するように市松状に配置されるように領域分割される。
[Configuration example 1]
Here, a configuration example of the optical filter 2 in the present embodiment (hereinafter, this configuration example will be referred to as “configuration example 1”) will be described.
FIG. 5 is an explanatory diagram of the optical filter 2 in the first configuration example.
In the optical filter 2 according to Configuration Example 1, the transmission region 2a and the red filter region 2b are illustrated in FIG. 5 so that each pixel on the image sensor 4 functions as one of the two types of pixels R and W described above. As shown, they are arranged in a checkered pattern so as to be alternately adjacent in the two-dimensional direction. As a result, the pixels on the image sensor 4 are divided into regions such that the pixels R that receive the red component and the pixels W that receive the white component are arranged in a checkered pattern so that they are alternately adjacent in the two-dimensional direction. .

本構成例1の光学フィルタ2を用いる場合も、画像センサ4上における2つの画素R,Wを1画素とした、画素Rに対応した赤色画像と、画素Wに対応したモノクロ輝度画像とを得ることができる。   Even when the optical filter 2 of the present configuration example 1 is used, a red image corresponding to the pixel R and a monochrome luminance image corresponding to the pixel W are obtained with the two pixels R and W on the image sensor 4 as one pixel. be able to.

〔構成例2〕
また、本実施形態における光学フィルタ2の他の構成例(以下、本構成例を「構成例2」という。)について説明する。
図6は、本構成例2における光学フィルタ2の赤色フィルタ領域2bを画像センサ4上に重ねて示した説明図である。
本構成例2に係る光学フィルタ2は、透過領域2aと赤色フィルタ領域2bとが1次元方向で交互に隣接するように配置されてストライプ状に領域分割されている点で上記実施形態と同様である。しかしながら、上記実施形態では、赤色フィルタ領域2bの長尺方向が画像センサ4上の画素列に平行であったのに対し、本構成例2では、赤色フィルタ領域2bの長尺方向が画像センサ4上の画素列に対して斜めとなっている点で異なっている。本構成例2の光学フィルタ2において、赤色フィルタ領域2bは、図6に示すように、図中横方向に画像センサ4の一画素分の幅をもち、図中縦方向に画像センサ4の二画素分の幅を持っており、図中横方向一画素分について図中縦方向二画素分変位するように、画像センサ4上の画素列に対して斜めに配置される。
[Configuration example 2]
Further, another configuration example of the optical filter 2 in the present embodiment (hereinafter referred to as “configuration example 2”) will be described.
FIG. 6 is an explanatory diagram showing the red filter region 2 b of the optical filter 2 in the second configuration example superimposed on the image sensor 4.
The optical filter 2 according to Configuration Example 2 is the same as the above embodiment in that the transmission regions 2a and the red filter regions 2b are arranged so as to be alternately adjacent in the one-dimensional direction and are divided into stripes. is there. However, in the above embodiment, the long direction of the red filter region 2b is parallel to the pixel column on the image sensor 4, whereas in the present configuration example 2, the long direction of the red filter region 2b is the image sensor 4. The difference is that it is oblique to the upper pixel row. In the optical filter 2 of Configuration Example 2, as shown in FIG. 6, the red filter region 2b has a width corresponding to one pixel of the image sensor 4 in the horizontal direction in the figure, and two of the image sensor 4 in the vertical direction in the figure. The pixel has a width of one pixel and is arranged obliquely with respect to the pixel column on the image sensor 4 so that one pixel in the horizontal direction in the figure is displaced by two pixels in the vertical direction in the figure.

本構成例2の光学フィルタ2を用いる場合も、画像センサ4上における2つの画素R,Wを1画素とした、画素Rに対応した赤色画像と、画素Wに対応したモノクロ輝度画像とを得ることができる。   Even when the optical filter 2 of the present configuration example 2 is used, a red image corresponding to the pixel R and a monochrome luminance image corresponding to the pixel W are obtained with the two pixels R and W on the image sensor 4 as one pixel. be able to.

次に、光学フィルタ2の構成について詳述する。
図7は、本実施形態における光学フィルタ2の断面を含む斜視図である。
光学フィルタ2は、図7に示すように、ガラス平板2c上に赤色の波長フィルタ膜2dが形成された箇所(すなわち赤色フィルタ領域2b)が凸部となり、ガラス平板上から波長フィルタ膜が除去された箇所(すなわち透過領域2a)が凹部となった凹凸の周期構造をもっている。本実施形態における波長フィルタ膜2dは、高屈折率の薄膜と低屈折率の薄膜とを交互に多層重ねた多層構造である。このような多層構造の波長フィルタ膜を用いると、光の干渉を利用することで分光透過率を自由に設定でき、薄膜を多数層重ねることで特定波長に対して100%近い反射率を得ることもできる。ここでは、赤色成分以外の波長帯域の光を反射させる。
Next, the configuration of the optical filter 2 will be described in detail.
FIG. 7 is a perspective view including a cross section of the optical filter 2 in the present embodiment.
As shown in FIG. 7, in the optical filter 2, the portion where the red wavelength filter film 2d is formed on the glass flat plate 2c (that is, the red filter region 2b) becomes a convex portion, and the wavelength filter film is removed from the glass flat plate. The portion (that is, the transmission region 2a) has a concave and convex periodic structure. The wavelength filter film 2d in this embodiment has a multilayer structure in which high refractive index thin films and low refractive index thin films are alternately stacked. Using such a multi-layered wavelength filter film, the spectral transmittance can be set freely by utilizing the interference of light, and a reflectivity close to 100% with respect to a specific wavelength can be obtained by stacking many thin films. You can also. Here, light in a wavelength band other than the red component is reflected.

本実施形態において、光学フィルタ2の波長フィルタ膜2dの透過波長範囲は、赤色波長成分である。撮像する画像の波長範囲は略可視光の範囲であるため、例えば波長が600nm以上の光を透過し、600nm未満の波長をカットする、図8に示すようなフィルタ特性を有するカットフィルタの波長フィルタ膜2dをガラス平板2c上に形成すればよい。このようなカットフィルタは、ガラス平板側から順に、よく知られる「基板/(0.125L0.25H0.125L)p/媒質A」のような構成の多層膜を作製することで得ることができる。ここで、「0.125L」は、低屈折率材料(例えばSiO)の膜厚標記方法でnd/λを1Lとしたものであり、したがって「0.125L」の膜は1/8波長の光路長となるような膜厚をもつ低屈折率材料の膜であることを意味する。なお、「n」は屈折率であり、「d」は厚みであり、λはカットオフ波長である。同様に、「0.25H」は、高屈折率材料(例えばTiO)の膜厚標記方法でnd/λを1Hとしたものであり、したがって「0.25H」の膜は1/4波長の光路長となるような膜厚をもつ高屈折率材料の膜であることを意味する。また、「p」は、かっこ内に示す膜の組み合わせを繰り返す(積層する)回数を示し、「p」が多いほどリップルなどの影響を抑制できる。また、媒質Aは、空気あるいは後述する樹脂や接着剤などの充填剤を意図するものである。 In the present embodiment, the transmission wavelength range of the wavelength filter film 2d of the optical filter 2 is a red wavelength component. Since the wavelength range of the image to be captured is substantially visible light range, for example, a wavelength filter of a cut filter having filter characteristics as shown in FIG. 8 that transmits light having a wavelength of 600 nm or more and cuts a wavelength of less than 600 nm. The film 2d may be formed on the glass flat plate 2c. Such a cut filter can be obtained by preparing a multilayer film having a structure of “substrate / (0.125L0.25H0.125L) p / medium A” in order from the glass flat plate side. Here, “0.125L” is a film thickness marking method of a low refractive index material (for example, SiO 2 ) in which nd / λ is 1 L. Therefore, a film of “0.125L” has a 1/8 wavelength. It means a film of a low refractive index material having a film thickness that becomes an optical path length. “N” is a refractive index, “d” is a thickness, and λ is a cutoff wavelength. Similarly, “0.25H” is obtained by setting nd / λ to 1H in the film thickness marking method of a high refractive index material (for example, TiO 2 ). Therefore, the film of “0.25H” has a quarter wavelength. It means a film of a high refractive index material having a film thickness that becomes an optical path length. “P” indicates the number of times the film combination shown in parentheses is repeated (laminated), and the more “p”, the more the influence of ripple and the like can be suppressed. The medium A is intended for air or a filler such as a resin or an adhesive described later.

また、光学フィルタ2の波長フィルタ膜2dとしては、透過波長範囲が600〜700nmの範囲のみを透過する、図9に示すようなフィルタ特性を有するバンドパスフィルタであってもよい。このようなバンドパスフィルタであれば、赤色よりも長波長側の近赤外域と赤色領域との識別も可能となる。このようなバンドパスフィルタは、例えば、「基板/(0.125L0.5M0.125L)p(0.125L0.5H0.125L)q(0.125L0.5M0.125L)r/媒質A」のような構成の多層膜を作製することで得ることができる。なお、上記の通り、高屈折率材料として二酸化チタン(TiO)、低屈折率材料として二酸化珪素(SiO)などを使用すれば、対候性の高い光学フィルタを実現できる。 Further, the wavelength filter film 2d of the optical filter 2 may be a band-pass filter having a filter characteristic as shown in FIG. 9 that transmits only the transmission wavelength range of 600 to 700 nm. With such a bandpass filter, it is possible to distinguish the near-infrared region and red region on the longer wavelength side than red. Such a band pass filter is, for example, “substrate / (0.125L0.5M0.125L) p (0.125L0.5H0.125L) q (0.125L0.5M0.125L) r / medium A”. It can be obtained by producing a multilayer film having the structure. As described above, if titanium dioxide (TiO 2 ) is used as the high refractive index material and silicon dioxide (SiO 2 ) is used as the low refractive index material, an optical filter with high weather resistance can be realized.

本実施形態の光学フィルタ2の作製方法の一例について説明すると、まず、ガラス平板2c上に上述した多層構造の波長フィルタ膜2dを形成する。このような多層構造の膜を形成する方法としては、よく知られる蒸着などの方法を用いればよい。続いて、透過領域2aに対応する箇所について波長フィルタ膜を除去する。この除去方法としては、一般的なリフトオフ加工法を利用すればよい。リフトオフ加工法では、目的とするパターンとは逆のパターンを事前にガラス平板2c上に金属、フォトレジストなどで形成しておき、その上に波長フィルタ膜を形成してから、透過領域2aに対応する箇所の波長フィルタ膜を当該金属やフォトレジストと一緒に除去する。   An example of a method for producing the optical filter 2 of the present embodiment will be described. First, the above-described multi-layered wavelength filter film 2d is formed on the glass flat plate 2c. As a method for forming such a multilayer film, a well-known method such as vapor deposition may be used. Subsequently, the wavelength filter film is removed at a location corresponding to the transmission region 2a. As this removal method, a general lift-off processing method may be used. In the lift-off processing method, a pattern opposite to the target pattern is formed in advance on the glass flat plate 2c with a metal, a photoresist, etc., and a wavelength filter film is formed thereon, and then the transmission region 2a is supported. The portion of the wavelength filter film to be removed is removed together with the metal and photoresist.

これらの構成例1〜2を含む本実施形態の光学フィルタ2は、画像センサ4の前段に設置される。その設置方法は、光学フィルタ2の凹凸構造面を画像センサ4の受光面と対向するような向きで近接配置の上、固定する。固定方法としては、画像センサ4の受光面周辺にスペーサを配置して光学フィルタ2を保持する方法や、光学フィルタ2のグレーティング面と画像センサ4の受光素子との間に接着剤を充填して接着する方法などが挙げられる。   The optical filter 2 of this embodiment including these structural examples 1 and 2 is installed in the front stage of the image sensor 4. In the installation method, the concave-convex structure surface of the optical filter 2 is arranged in the proximity so as to face the light receiving surface of the image sensor 4 and then fixed. As a fixing method, a spacer is disposed around the light receiving surface of the image sensor 4 to hold the optical filter 2, or an adhesive is filled between the grating surface of the optical filter 2 and the light receiving element of the image sensor 4. The method of adhering is mentioned.

光学フィルタ2を画像センサ4に取り付ける方法としては、画像センサ4をワイヤボンディングなどの手法によりPWB上に設置したセンサ基板3に、光学フィルタ2を後から固定(ASSY)する方法と、光学フィルタ2と画像センサ4を予め固着したものをPWB上に実装する方法とが考えられる。より望ましくは、画像センサ4のウエハと光学フィルタ2が形成されたウエハとを接着したものをダイシング加工することで低コストに作製することができる。本実施形態では、各ウエハ間の位置精度は要求されないため、歩留まりよく作製することが可能である。   As a method of attaching the optical filter 2 to the image sensor 4, a method of fixing the optical filter 2 to the sensor substrate 3 installed on the PWB by a method such as wire bonding (ASSY) later, or an optical filter 2. And a method of mounting the image sensor 4 fixed in advance on the PWB. More desirably, it can be manufactured at a low cost by dicing a wafer obtained by bonding the wafer of the image sensor 4 and the wafer on which the optical filter 2 is formed. In this embodiment, since the positional accuracy between each wafer is not required, it can be manufactured with a high yield.

図10は、参考例における光学フィルタ2及び画像センサ4を示す模式図である。
本実施形態のように、画像センサ4上の画素の一部についてのみ、光学フィルタ2の赤色フィルタ領域2bを対向させる場合、多層の波長フィルタ膜2dが形成されていない透過領域2aが単なる空気層であると、すでに述べたように、多層の波長フィルタ膜2dが形成された赤色フィルタ領域2bと当該透過領域2aとの間で、それらの透過光に位相差が生じる。画像センサ4と光学フィルタ2とは互いに近接して配置されるが、押し付け接合することは不可能なため、一定距離(数ミクロン)は離れて配置されることになる。そのため、画像センサ4上の各領域を透過した光のごく一部は、光学フィルタ通過時の回折現象によってその対向画素の周囲に位置する周囲画素に受光される。このとき、赤色フィルタ領域2bと透過領域2aとの間で透過光の位相差が生じていると、位相差が生じていない場合よりも、対向画素の周囲画素に受光される光量が増えてしまう。その結果、例えば赤色フィルタ領域2bに対向する画素と透過領域2aに対向する画素との切り分けが明確にならない。
FIG. 10 is a schematic diagram showing the optical filter 2 and the image sensor 4 in the reference example.
When the red filter region 2b of the optical filter 2 is opposed to only a part of the pixels on the image sensor 4 as in this embodiment, the transmission region 2a in which the multilayer wavelength filter film 2d is not formed is a simple air layer. As described above, a phase difference occurs in the transmitted light between the red filter region 2b in which the multilayer wavelength filter film 2d is formed and the transmission region 2a. Although the image sensor 4 and the optical filter 2 are arranged close to each other, they cannot be pressed and joined, so that they are arranged at a certain distance (several microns) apart. Therefore, a small part of the light transmitted through each area on the image sensor 4 is received by surrounding pixels located around the counter pixel due to diffraction phenomenon when passing through the optical filter. At this time, if there is a phase difference of the transmitted light between the red filter region 2b and the transmission region 2a, the amount of light received by the surrounding pixels of the counter pixel increases as compared with the case where no phase difference occurs. . As a result, for example, the separation between the pixel facing the red filter region 2b and the pixel facing the transmission region 2a is not clear.

図11は、本実施形態における光学フィルタ2及び画像センサ4を示す模式図である。
本実施形態においては、図11に示すように、図10に示した参考例の光学フィルタ2における凹部(透過領域2a)に樹脂(充填剤)2eを充填し、その凹凸面を平面状にした光学フィルタ2を用いている。すなわち、本実施形態では、上記参考例の透過領域2aの凹部に存在する空気層に代えて、その空気層とは屈折率が異なる樹脂2eを当該凹部に充填し、これにより、赤色フィルタ領域2bと透過領域2aとの間で透過光の位相差を生じさせないようにしている。
FIG. 11 is a schematic diagram showing the optical filter 2 and the image sensor 4 in the present embodiment.
In this embodiment, as shown in FIG. 11, the recess (transmission region 2a) in the optical filter 2 of the reference example shown in FIG. 10 is filled with resin (filler) 2e, and the uneven surface thereof is made flat. An optical filter 2 is used. That is, in the present embodiment, instead of the air layer present in the concave portion of the transmission region 2a of the reference example, the concave portion is filled with a resin 2e having a refractive index different from that of the air layer, whereby the red filter region 2b. And a transmission region 2a are prevented from causing a phase difference of transmitted light.

この位相差を生じさせないためには、多層の波長フィルタ膜2dが介在した赤色フィルタ領域2bと樹脂2eが介在した透過領域2aとの間で、透過する光束に光路長差が発生してはならない。ここで、多層の波長フィルタ膜2d(赤色フィルタ領域2b)を透過する光束の平均光路長L1は、例えば、当該波長フィルタ膜2dが図8に示した特性を有するカットフィルタである場合、下記の式(1)より求めることができる。
L1 = (低屈折率材料1/8波長分+高屈折率材料1/4波長分+低屈折率材料1/8波長分)×p ・・・(1)
In order to prevent this phase difference from occurring, there should be no optical path length difference in the transmitted light beam between the red filter region 2b in which the multilayer wavelength filter film 2d is interposed and the transmission region 2a in which the resin 2e is interposed. . Here, the average optical path length L1 of the light beam passing through the multilayer wavelength filter film 2d (red filter region 2b) is, for example, as follows when the wavelength filter film 2d is a cut filter having the characteristics shown in FIG. It can be obtained from equation (1).
L1 = (low refractive index material 1/8 wavelength + high refractive index material 1/4 wavelength + low refractive index material 1/8 wavelength) × p (1)

本実施形態では、樹脂2e(透過領域2a)を透過する光束の平均光路長L2が、この平均光路長L1と一致するように構成されている。樹脂2eを透過する光束の平均光路長L2は、その樹脂材料の屈折率と、その樹脂の厚み(すなわち多層の波長フィルタ膜2dの厚み)を積算することで算出できる。なお、樹脂2eの屈折率については、樹脂そのものの屈折率が選択可能であるが、樹脂材料中に金属微粒子(主に重金属微粒子など)を混入させて屈折率をコントロールした樹脂を用いる場合には、その調整後の屈折率を選択する。   In the present embodiment, the average optical path length L2 of the light beam passing through the resin 2e (transmission region 2a) is configured to match the average optical path length L1. The average optical path length L2 of the light beam passing through the resin 2e can be calculated by integrating the refractive index of the resin material and the thickness of the resin (that is, the thickness of the multilayer wavelength filter film 2d). As for the refractive index of the resin 2e, the refractive index of the resin itself can be selected. However, in the case of using a resin whose refractive index is controlled by mixing metal fine particles (mainly heavy metal fine particles) into the resin material. Then, the refractive index after the adjustment is selected.

〔構成例3〕
次に、本実施形態における光学フィルタ2の更に他の構成例(以下、本構成例を「構成例3」という。)について説明する。
図12は、本構成例3における光学フィルタ2及び画像センサ4を示す模式図である。
本構成例3は、光学フィルタ2を画像センサ4に固定する固定方法として、光学フィルタ2の凹凸面と画像センサ4との間に接着剤2fを充填して接着する方法を採用し、光学フィルタ2の凹部に充填される接着剤2fに、上記実施形態における樹脂2eとしての役割を与えたものである。本構成例3であれば、画像センサ4に対する光学フィルタ2の固定に用いる接着剤を、光路長を調整するための充填剤として兼用するので、構造の簡素化、作製工程の簡素化を図ることができる。
[Configuration example 3]
Next, still another configuration example of the optical filter 2 in the present embodiment (hereinafter referred to as “configuration example 3”) will be described.
FIG. 12 is a schematic diagram showing the optical filter 2 and the image sensor 4 in the third configuration example.
In this configuration example 3, as a fixing method for fixing the optical filter 2 to the image sensor 4, a method of filling the adhesive 2f between the concave and convex surface of the optical filter 2 and the image sensor 4 and bonding the optical filter 2 is adopted. The role of the resin 2e in the above embodiment is given to the adhesive 2f filled in the two recesses. In the configuration example 3, since the adhesive used for fixing the optical filter 2 to the image sensor 4 is also used as a filler for adjusting the optical path length, the structure can be simplified and the manufacturing process can be simplified. Can do.

〔構成例4〕
次に、本実施形態における光学フィルタ2の更に他の構成例(以下、本構成例を「構成例4」という。)について説明する。
図13は、本構成例4における光学フィルタ2及び画像センサ4を示す模式図である。
本構成例4は、光学フィルタ2の凹部に樹脂2eや接着剤2f等の充填剤を充填することなく、透過領域2aと赤色フィルタ領域2bとの間の透過光の光路長を一致させる光路長調整を行う。具体的には、本構成例4の光学フィルタ2は、ガラス平板(フィルタ基板)2cの画像センサ側の面に、赤色フィルタ領域2bとなる箇所が凹部となり、透過領域2aとなる箇所が凸部となった凹凸の周期構造を形成した後に、一様な多層の波長フィルタ膜2dを形成し、その後、ガラス平板2cの凸部上に形成された波長フィルタ膜を取り除いて作製したものである。
[Configuration Example 4]
Next, still another configuration example of the optical filter 2 in the present embodiment (hereinafter referred to as “configuration example 4”) will be described.
FIG. 13 is a schematic diagram illustrating the optical filter 2 and the image sensor 4 in the fourth configuration example.
In this configuration example 4, the optical path length of the transmitted light between the transmission region 2a and the red filter region 2b is matched without filling the concave portion of the optical filter 2 with a filler such as the resin 2e or the adhesive 2f. Make adjustments. Specifically, in the optical filter 2 of Configuration Example 4, the portion that becomes the red filter region 2b is a concave portion and the portion that becomes the transmission region 2a is a convex portion on the surface of the glass flat plate (filter substrate) 2c on the image sensor side. After forming the irregular periodic structure, a uniform multilayer wavelength filter film 2d is formed, and then the wavelength filter film formed on the convex portion of the glass flat plate 2c is removed.

本構成例4においても、多層の波長フィルタ膜2dが形成された赤色フィルタ領域2bとこの波長フィルタ膜2dが形成されていない透過領域2aとの間で、それらの透過光に位相差を生じさせないようにしている。具体的には、両者の透過光の光路長が一致するように、ガラス平板2cの屈折率と凹部の深さZを選択している。   Also in the present configuration example 4, there is no phase difference between the red filter region 2b in which the multilayer wavelength filter film 2d is formed and the transmission region 2a in which the wavelength filter film 2d is not formed. I am doing so. Specifically, the refractive index of the glass flat plate 2c and the depth Z of the concave portion are selected so that the optical path lengths of both transmitted light coincide.

本構成例4によれば、比較的耐候性が低い樹脂2e等の充填剤を使わないで光路長を調整するため、耐候性の高い光学フィルタ2を実現できる。
なお、本構成例4においても、光学フィルタ2を画像センサ4に固定する固定方法として、光学フィルタ2の凹凸面と画像センサ4との間に接着剤を充填して接着する方法を採用してもよい。この場合、接着剤の屈折率と接着剤が入り込んだ部分の厚みも考慮して光路長を調整する必要がある。
According to the fourth configuration example, the optical path length is adjusted without using a filler such as the resin 2e having relatively low weather resistance, so that the optical filter 2 having high weather resistance can be realized.
In the fourth configuration example, as a fixing method for fixing the optical filter 2 to the image sensor 4, a method in which an adhesive is filled between the concave and convex surface of the optical filter 2 and the image sensor 4 is used. Also good. In this case, it is necessary to adjust the optical path length in consideration of the refractive index of the adhesive and the thickness of the portion where the adhesive enters.

以上のような撮像装置11によって撮像した撮像画像データ(画像センサ4上の各受光素子で受光される受光量を示す画素データ群)からは、種々の情報が得られる。具体的には、撮像領域内の各地点(光源)から発せられる光の強さ(明るさ情報)、ヘッドランプやテールランプなどの光源(他車両)と自車両との距離(距離情報)、各光源から発せられる光の赤色成分と白色成分(非分光)の分光情報などが得られる。   Various information can be obtained from the captured image data (pixel data group indicating the amount of light received by each light receiving element on the image sensor 4) captured by the imaging device 11 as described above. Specifically, the intensity (brightness information) of light emitted from each point (light source) in the imaging region, the distance (distance information) between the light source (other vehicle) such as a headlamp and tail lamp and the own vehicle, Spectral information of the red component and white component (non-spectral) of the light emitted from the light source can be obtained.

明るさ情報について説明すると、夜間に、先行車両や対向車両が自車両から同じ距離に存在する場合、撮像装置11によってそれらの先行車両及び対向車両を撮影すると、撮影画像データ上では検出対象物の1つである対向車両のヘッドランプが最も明るく映し出され、検出対象物の1つである先行車両のテールランプはそれよりも暗く映し出される。また、リフレクタが撮像画像データに映し出されている場合、リフレクタは自ら発光する光源ではなく、自車両のヘッドランプを反射することによって明るく映し出されるものに過ぎないので、先行車両のテールランプよりもさらに暗くなる。一方、対向車両のヘッドランプ、先行車両のテールランプ及びリフレクタからの光は、距離が遠くなるにつれて、それを受光する画像センサ4上ではだんだん暗く観測される。よって、撮像画像データから得られる明るさ(輝度情報)を用いることで 2種類の検出対象物(ヘッドランプとテールランプ)及びリフレクタの一次的な識別が可能である。   The brightness information will be described. When the preceding vehicle and the oncoming vehicle are present at the same distance from the own vehicle at night, when the preceding vehicle and the oncoming vehicle are photographed by the imaging device 11, the detected object is indicated on the photographed image data. One headlamp of the oncoming vehicle is projected brightest, and the tail lamp of the preceding vehicle, which is one of the detection objects, is projected darker than that. In addition, when the reflector is displayed in the captured image data, the reflector is not a light source that emits light by itself, but merely a bright image that is reflected by reflecting the headlamp of the host vehicle, so that it is darker than the tail lamp of the preceding vehicle. Become. On the other hand, the light from the headlamp of the oncoming vehicle, the tail lamp of the preceding vehicle, and the reflector is gradually darkened on the image sensor 4 that receives the light as the distance increases. Therefore, by using the brightness (luminance information) obtained from the captured image data, primary identification of the two types of detection objects (head lamp and tail lamp) and the reflector is possible.

また、距離情報について説明すると、ヘッドランプやテールランプは、そのほとんどが左右一対のペアランプの構成であるため、この構成の特徴を利用してヘッドランプやテールランプ(すなわち他車両)と自車両との距離を求めることが可能である。ペアとなる左右一対のランプは、撮像装置11が撮像した撮像画像データ上では、互いに近接して同じ高さ方向位置に映し出され、当該ランプを映し出すランプ画像領域の広さはほぼ同じで、かつ、当該ランプ画像領域の形状もほぼ同じである。よって、これらの特徴を条件とすれば、その条件を満たすランプ画像領域同士をペアランプであると識別できる。なお、遠距離になるとペアランプを構成する左右のランプを区別して認識できなくなり、単一ランプとして認識される。   Further, the distance information will be described. Most headlamps and tail lamps have a pair of left and right pair lamps. Therefore, the distance between the headlamps and tail lamps (that is, other vehicles) and the host vehicle is utilized using the characteristics of this configuration. Can be obtained. The pair of left and right lamps that are paired are displayed close to each other on the same image in the height direction on the captured image data captured by the imaging device 11, and the widths of the lamp image areas that project the lamps are substantially the same. The shape of the lamp image area is almost the same. Therefore, if these characteristics are used as conditions, lamp image areas satisfying the conditions can be identified as pair lamps. At a long distance, the left and right lamps constituting the pair lamp cannot be distinguished and recognized as a single lamp.

このような方法でペアランプを識別できた場合、そのペアランプ構成であるヘッドランプやテールランプの光源までの距離を算出することが可能である。すなわち、車両の左右ヘッドランプ間の距離及び左右テールランプ間の距離は、一定値w0(例えば1.5m程度)で近似することができる。一方、撮像装置11における撮像レンズ1の焦点距離fは既知であるため、撮像装置11の画像センサ4上における左右ランプにそれぞれ対応した2つのランプ画像領域間の距離w1を撮像画像データから算出することにより、そのペアランプ構成であるヘッドランプやテールランプの光源と自車両までの距離xは、単純な比例計算(x=f×w0/w1)により求めることができる。また、このようにして算出される距離xが適正範囲であれば、その算出に用いた2つのランプ画像領域は他車両のヘッドランプとテールランプであると識別することができる。よって、この距離情報を用いることで、検出対象物であるヘッドランプとテールランプの識別精度が向上する。   When a pair lamp can be identified by such a method, it is possible to calculate the distance to the light source of the head lamp and tail lamp which are the pair lamp structure. That is, the distance between the left and right headlamps and the distance between the left and right tail lamps of the vehicle can be approximated by a constant value w0 (for example, about 1.5 m). On the other hand, since the focal length f of the imaging lens 1 in the imaging device 11 is known, the distance w1 between the two lamp image areas respectively corresponding to the left and right lamps on the image sensor 4 of the imaging device 11 is calculated from the captured image data. Accordingly, the distance x between the light source of the headlamp or taillamp which is the pair lamp configuration and the host vehicle can be obtained by simple proportional calculation (x = f × w0 / w1). If the distance x calculated in this way is within an appropriate range, the two lamp image areas used for the calculation can be identified as headlamps and taillamps of other vehicles. Therefore, by using this distance information, the identification accuracy of the head lamp and tail lamp, which are detection objects, is improved.

また、分光情報について説明すると、本実施形態では、上述したとおり、撮像装置11で撮像した撮像画像データから、画像センサ4上の画素Rに対応した画素データのみを抽出することで、撮像領域内の赤色成分だけを映し出した赤色画像を生成することができる。同様に、撮像装置11で撮像した撮像画像データから、画像センサ4上の画素Wに対応した画素データのみを抽出することで、撮像領域内のモノクロ輝度画像を生成することができる。よって、赤色画像において所定輝度以上の輝度を有する画像領域が存在する場合、その画像領域はテールランプを映し出したテールランプ画像領域であると識別することができる。さらに、赤色画像上の画像領域と、この画像領域に対応したモノクロ輝度画像上の画像領域との間の輝度比率(赤色輝度比率)を算出することもできる。この赤色輝度比率を用いれば、撮像領域内に存在する物体(光源)から発せられる光に含まれる相対的な赤色成分の比率を把握することができる。テールランプの赤色輝度比率は、ヘッドランプや他のほとんどの光源よりも十分に高い値をとるので、この赤色輝度比率を用いればテールランプの識別精度が向上する。   Further, the spectral information will be described. In the present embodiment, as described above, by extracting only pixel data corresponding to the pixel R on the image sensor 4 from the captured image data captured by the imaging device 11, It is possible to generate a red image in which only the red component is projected. Similarly, by extracting only pixel data corresponding to the pixel W on the image sensor 4 from the captured image data captured by the imaging device 11, a monochrome luminance image in the imaging region can be generated. Therefore, when there is an image area having a luminance equal to or higher than a predetermined luminance in the red image, the image area can be identified as a tail lamp image area in which a tail lamp is projected. Furthermore, it is possible to calculate the luminance ratio (red luminance ratio) between the image area on the red image and the image area on the monochrome luminance image corresponding to the image area. By using this red luminance ratio, it is possible to grasp the ratio of the relative red component contained in the light emitted from the object (light source) existing in the imaging region. Since the red luminance ratio of the tail lamp is sufficiently higher than that of the headlamp and most other light sources, the identification accuracy of the tail lamp is improved by using this red luminance ratio.

次に、本実施形態における先行車両及び対向車両の検出処理の流れについて説明する。
図14は、本実施形態における車両検出処理の流れを示すフローチャートである。
本実施形態の車両検出処理では、撮像装置11が撮像した画像データに対して画像処理を施し、検出対象物であると思われる画像領域を抽出する。そして、その画像領域に映し出されている光源の種類が2種類の検出対象物のいずれであるかを識別することで、先行車両、対向車両の検出を行う。
Next, a flow of detection processing for the preceding vehicle and the oncoming vehicle in the present embodiment will be described.
FIG. 14 is a flowchart showing a flow of vehicle detection processing in the present embodiment.
In the vehicle detection process of the present embodiment, image processing is performed on the image data captured by the imaging device 11, and an image region that is considered to be a detection target is extracted. Then, the preceding vehicle and the oncoming vehicle are detected by identifying which of the two types of detection objects is the type of light source displayed in the image area.

まず、ステップS1では、撮像装置11の画像センサ4によって撮像された自車両前方の画像データをメモリに取り込む。この画像データは、上述したように、画像センサ4の各画素における輝度を示す信号を含む。次に、ステップS2では、自車両の挙動に関する情報を車両挙動センサ12から取り込む。   First, in step S1, image data in front of the host vehicle imaged by the image sensor 4 of the imaging device 11 is taken into a memory. As described above, this image data includes a signal indicating the luminance in each pixel of the image sensor 4. Next, in step S <b> 2, information regarding the behavior of the host vehicle is acquired from the vehicle behavior sensor 12.

ステップS3では、メモリに取り込まれた画像データから検出対象物(先行車両のテールランプ及び対向車両のベッドランプ)であると思われる輝度の高い画像領域(高輝度画像領域)を抽出する。この高輝度画像領域は、画像データにおいて、所定の閾値輝度よりも高い輝度を有する明るい領域となり、複数存在する場合が多いが、それらのすべてを抽出する。   In step S3, an image area with high brightness (high brightness image area) that is considered to be a detection target (tail lamp of the preceding vehicle and bed lamp of the oncoming vehicle) is extracted from the image data captured in the memory. This high luminance image region is a bright region having a luminance higher than a predetermined threshold luminance in the image data, and there are many cases where a plurality of high luminance image regions are extracted, but all of them are extracted.

高輝度画像領域抽出処理では、まず、ステップS31において、画像センサ4上の各画素の輝度値を所定の閾値輝度と比較することにより2値化処理を行う。具体的には、所定の閾値輝度以上の輝度を有する画素に「1」、そうでない画素に「0」を割り振ることで、2値化画像を作成する。次に、ステップS32において、この2値化画像において、「1」が割り振られた画素が近接している場合には、それらを1つの高輝度画像領域として認識するラベリング処理を実施する。これによって、輝度値の高い近接した複数の画素の集合が、1つの高輝度画像領域として抽出される。   In the high-luminance image region extraction processing, first, in step S31, binarization processing is performed by comparing the luminance value of each pixel on the image sensor 4 with a predetermined threshold luminance. Specifically, a binary image is created by assigning “1” to pixels having a luminance equal to or higher than a predetermined threshold luminance and assigning “0” to other pixels. Next, in step S32, when pixels assigned with “1” are close to each other in the binarized image, a labeling process for recognizing them as one high luminance image region is performed. Thereby, a set of a plurality of adjacent pixels having a high luminance value is extracted as one high luminance image region.

上述した高輝度画像領域抽出処理の後に実行されるステップS4では、抽出された各高輝度画像領域に対応する撮像領域内の物体と自車両との距離を算出する。この距離算出処理では、車両のランプは左右1対のペアランプであることを利用して距離を検出するペアランプ距離算出処理と、遠距離になるとペアランプを構成する左右のランプを区別して認識できなくなって当該ペアランプが単一ランプとして認識される場合の単一ランプ距離算出処理とを実行する。   In step S4, which is executed after the above-described high-intensity image region extraction process, the distance between the object in the imaging region corresponding to each extracted high-intensity image region and the host vehicle is calculated. In this distance calculation process, the pair lamp distance calculation process that detects the distance by using the pair of left and right lamps of the vehicle and the left and right lamps constituting the pair lamp cannot be distinguished and recognized at a long distance. A single lamp distance calculation process is executed when the pair lamp is recognized as a single lamp.

まず、ペアランプ距離算出処理のために、ステップS41では、ランプのペアを作成する処理であるペアランプ作成処理を行う。ペアとなる左右一対のランプは、撮像装置11が撮像した画像データにおいて、近接しつつほぼ同じ高さとなる位置にあり、高輝度画像領域の面積がほぼ同じで、かつ高輝度画像領域の形が同じであるとの条件を満たす。したがって、このような条件を満たす高輝度画像領域同士をペアランプとする。ペアをとることのできない高輝度画像領域は単一ランプとみなされる。ペアランプが作成された場合には、ステップS42のペアランプ距離算出処理によって、そのペアランプまでの距離を算出する。車両の左右ヘッドランプ間の距離及び左右テールランプ間の距離は、一定値w0(例えば1.5m程度)で近似することができる。一方、撮像装置11における焦点距離fは既知であるため、撮像装置11の画像センサ4上の左右ランプ距離w1を算出することにより、ペアランプまでの実際の距離xは、単純な比例計算(x=f・w0/w1)により求めることができる。なお、先行車両や対向車両までの距離検出は、レーザレーダやミリ波レーダなどの専用の距離センサを用いてもよい。   First, for a pair lamp distance calculation process, in step S41, a pair lamp creation process, which is a process of creating a lamp pair, is performed. The pair of left and right lamps that are paired are in the position where they are close to each other and have substantially the same height in the image data captured by the imaging device 11, the area of the high-luminance image region is substantially the same, and the shape of the high-luminance image region is the same. Satisfy the condition of being the same. Therefore, the high-intensity image areas that satisfy such conditions are used as a pair lamp. High brightness image areas that cannot be paired are considered a single lamp. When a pair lamp is created, the distance to the pair lamp is calculated by the pair lamp distance calculation process in step S42. The distance between the left and right headlamps of the vehicle and the distance between the left and right taillamps can be approximated by a constant value w0 (for example, about 1.5 m). On the other hand, since the focal length f in the imaging device 11 is known, the actual distance x to the pair lamps is calculated by a simple proportional calculation (x = f · w0 / w1). It should be noted that a dedicated distance sensor such as a laser radar or a millimeter wave radar may be used to detect the distance to the preceding vehicle or the oncoming vehicle.

ステップS5では、赤色画像とモノクロ輝度画像との比率を分光情報として用い、この分光情報から、ペアランプとされた2つの高輝度画像領域が、ヘッドランプからの光によるものなのか、テールランプからの光によるものなのかを識別するランプ種類識別処理を行う。このランプ種類識別処理では、まずステップS51において、ペアランプとされた高輝度画像領域について、画像センサ4上の画素Rに対応した画素データと画像センサ4上の画素Wに対応した画素データとの比率を画素値とした赤色比画像を作成する。そして、ステップS52において、その赤色比画像の画素値を所定の閾値と比較し、所定の閾値以上である高輝度画像領域についてはテールランプからの光によるテールランプ画像領域であるとし、所定の閾値未満である高輝度画像領域についてはヘッドランプからの光によるヘッドランプ画像領域であるとするランプ種別処理を行う。   In step S5, the ratio between the red image and the monochrome luminance image is used as spectral information. From this spectral information, whether the two high-intensity image regions that are paired lamps are due to light from the headlamp or light from the tail lamp. Lamp type identification processing is performed to identify whether or not In this lamp type identification process, first, in step S51, the ratio of the pixel data corresponding to the pixel R on the image sensor 4 to the pixel data corresponding to the pixel W on the image sensor 4 for the high-intensity image area that is a pair lamp. A red ratio image with the pixel value as is created. In step S52, the pixel value of the red ratio image is compared with a predetermined threshold, and a high-luminance image region that is equal to or higher than the predetermined threshold is determined to be a tail lamp image region by light from the tail lamp. For a certain high-intensity image area, a lamp type process is performed to determine that the area is a headlamp image area by light from the headlamp.

以上のような車両検出処理により検出した先行車両及び対向車両の検出結果は、本実施形態では自車両の車載機器であるヘッドランプの光照射方向の制御に用いられる。
具体的には、車両検出処理によりテールランプが検出されてその先行車両のバックミラーに自車両のヘッドライト照明光が入射する距離範囲A内に近づいた場合に、その先行車両に自車両のヘッドライト照明光が当たらないように、自車両のヘッドライトの一部を遮光したり、自車両のヘッドライトの光照射方向を上下方向又は左右方向へずらしたりする制御を行う。
また、車両検出処理によりベッドランプが検出されて、その対向車両の運転者に自車両のヘッドライト照明光が当たる距離範囲B内に近づいた場合に、その対向車両に自車両のヘッドライト照明光が当たらないように、自車両のヘッドライトの一部を遮光したり、自車両のヘッドライトの光照射方向を上下方向又は左右方向へずらしたりする制御を行う。
In the present embodiment, the detection results of the preceding vehicle and the oncoming vehicle detected by the vehicle detection process as described above are used for controlling the light irradiation direction of the headlamp that is an in-vehicle device of the host vehicle.
Specifically, when the tail lamp is detected by the vehicle detection process and approaches the distance range A where the headlight illumination light of the host vehicle is incident on the rearview mirror of the preceding vehicle, the headlight of the host vehicle is approached to the preceding vehicle. Control is performed to block a part of the headlight of the host vehicle or to shift the light irradiation direction of the headlight of the host vehicle in the vertical direction or the horizontal direction so that the illumination light does not strike.
Further, when the bed lamp is detected by the vehicle detection process and the driver of the oncoming vehicle approaches within the distance range B where the headlight illumination light of the own vehicle hits, the headlight illumination light of the own vehicle is approached to the oncoming vehicle. In order not to hit the vehicle, a part of the headlight of the host vehicle is blocked, or the light irradiation direction of the headlight of the host vehicle is shifted in the vertical direction or the horizontal direction.

以上の説明では、本発明に係る撮像装置11を、車載機器制御装置としてのヘッドランプ制御システムに用いる物体検出装置に適用した例であったが、これに限られるものではない。例えば、本発明に係る撮像装置11を、車載機器である表示モニターを制御して他車両の接近を警告する例や、自車両が他車両に衝突することを回避したり衝突時の衝撃を軽減したりするために車載機器であるブレーキを制御する例、先行車両との車間距離を維持するために車載機器であるアクセル調整機器を制御して自車両の速度を自動調整する例など、本発明は、様々な車載機器制御装置に適用することができる。
また、本発明は、このような車載機器制御装置に限らず、画像センサ上の画素を波長に応じて切り分けて波長が異なる複数種類の画像データを用いる装置であれば、広く利用可能である。
また、以上の説明では、第1領域である赤色フィルタ領域2bとは別に設けられる第2領域が、波長選択を行わずに光を透過させる透過領域2aである場合について説明したが、第2領域としては、赤色フィルタ領域2bが選択する赤色波長を含む所定範囲の光のみを選択的に透過させるフィルタ領域であってもよい。
In the above description, the imaging device 11 according to the present invention is applied to an object detection device used in a headlamp control system as an in-vehicle device control device. However, the present invention is not limited to this. For example, the imaging device 11 according to the present invention controls the display monitor which is an in-vehicle device to warn of the approach of another vehicle, avoids the own vehicle colliding with another vehicle, or reduces the impact at the time of the collision The present invention includes an example in which a brake that is an in-vehicle device is controlled in order to automatically adjust the speed of the host vehicle by controlling an accelerator adjusting device that is an in-vehicle device in order to maintain the inter-vehicle distance from the preceding vehicle. Can be applied to various in-vehicle device control devices.
In addition, the present invention is not limited to such an in-vehicle device control apparatus, and can be widely used as long as it is an apparatus that uses a plurality of types of image data having different wavelengths by separating pixels on the image sensor according to the wavelength.
In the above description, the case where the second region provided separately from the red filter region 2b that is the first region is the transmission region 2a that transmits light without performing wavelength selection has been described. As the filter region, the red filter region 2b may selectively transmit only a predetermined range of light including the red wavelength.

以上、本実施形態に係るヘッドランプ制御システムは、自車両の周囲を撮像領域として撮像し、その撮像領域内に存在する物体のうち互いに異なる波長帯の光を発する少なくとも2種類の検出対象物である対向車両のヘッドランプと先行車両のテールランプを検出する物体検出手段である物体検出装置と、物体検出装置の検出結果に基づいて自車両に搭載された車載機器であるヘッドランプの動作を制御する制御手段としてのヘッドランプ制御装置14とを有する車載機器制御装置である。このヘッドランプ制御システムで用いられる物体検出装置は、撮像領域内に存在する物体から発せられる光を画像センサ4で受光して撮像領域内を撮像する撮像手段としての撮像装置11を備えていて、撮像装置11が撮像した撮像画像に基づいて対向車両のヘッドランプと先行車両のテールランプの検出処理を行う物体検出処理手段としての車両検出制御装置13とを有する。この車両検出制御装置13に用いられる撮像装置11は、撮像領域内に存在する物体から発せられる光を受光素子4aが2次元配置された画素アレイで構成された画像センサ4により受光して撮像領域内を撮像するものであり、特定波長である赤色波長の光のみを選択して透過させる第1領域としての赤色フィルタ領域2bと波長選択を行わずに光を透過させる第2領域としての透過領域2aとが画像センサ4上における1つの受光素子又は2以上の受光素子群で構成される単位領域で領域分割された光学フィルタ2を、画像センサの入射側に備えている。そして、光学フィルタ2における赤色フィルタ領域2b及び透過領域2aは、赤色フィルタ領域2bを透過する光の光路長と透過領域2aを透過する光の光路長とが略同一となるように形成されている。これにより、赤色フィルタ領域2bと透過領域2aとの間でそれらの透過光の位相差を生じさせないようにすることができ、赤色フィルタ領域2bに対向する画素と透過領域2aに対向する画素とを明確に切り分けることができ、テールランプ及びヘッドランプの識別精度が向上する。
また、本実施形態(上記構成例4を除く。)において、光学フィルタは、フィルタ基板であるガラス平板2c上に赤色フィルタ領域2bとなる波長フィルタ膜2dを一様に形成した後に透過領域2aとなる箇所に存在する波長フィルタ膜を除去し、その波長フィルタ膜を除去した箇所に充填剤である樹脂2eや接着剤2fを充填することにより、赤色フィルタ領域2bを透過する光の光路長と透過領域2aを透過する光の光路長とが略同一となるように構成することができる。
特に、上記構成例3では、波長フィルタ膜2dが形成される側を画像センサ4に対面させた状態で画像センサ4に対して接着剤2fにより接着することで、画像センサ4に対する光学フィルタ2の固定に用いる接着剤2fを、光路長を調整するための充填剤として兼用できるので、構造の簡素化、作製工程の簡素化を図ることができる。
また、上記構成例4では、透過領域2aとなる箇所に凸部を有するフィルタ基板上に赤色フィルタ領域2bとなる波長フィルタ膜を一様に形成した後、透過領域2aとなる箇所に存在する波長フィルタ膜を除去することにより、赤色フィルタ領域2bを透過する光の光路長と透過領域2aを透過する光の光路長とが略同一となるように構成されている。この構成では、比較的耐候性が低い樹脂2e等の充填剤を使わないで光路長を調整することが可能であり、耐候性の高い光学フィルタ2を実現することが可能となる。
As described above, the headlamp control system according to the present embodiment captures the surroundings of the host vehicle as an imaging region, and includes at least two types of detection objects that emit light in different wavelength bands among objects existing in the imaging region. Controls the operation of an object detection device that is an object detection means for detecting a headlamp of an oncoming vehicle and a tail lamp of a preceding vehicle, and a headlamp that is an in-vehicle device mounted on the host vehicle based on the detection result of the object detection device. It is an in-vehicle device control device having a headlamp control device 14 as control means. The object detection device used in the headlamp control system includes an imaging device 11 as an imaging unit that receives light emitted from an object existing in the imaging region by the image sensor 4 and images the imaging region. It has a vehicle detection control device 13 as an object detection processing means for detecting a headlamp of an oncoming vehicle and a tail lamp of a preceding vehicle based on a captured image captured by the imaging device 11. The imaging device 11 used in the vehicle detection control device 13 receives light emitted from an object existing in the imaging region by the image sensor 4 including a pixel array in which the light receiving elements 4a are two-dimensionally arranged, and the imaging region. A red filter region 2b as a first region for selecting and transmitting only light having a red wavelength that is a specific wavelength, and a transmission region as a second region for transmitting light without performing wavelength selection. The optical filter 2 is divided into unit areas composed of one light receiving element or two or more light receiving element groups on the image sensor 4 on the incident side of the image sensor. The red filter region 2b and the transmission region 2a in the optical filter 2 are formed so that the optical path length of the light transmitted through the red filter region 2b and the optical path length of the light transmitted through the transmission region 2a are substantially the same. . Thereby, it is possible to prevent the phase difference of the transmitted light between the red filter region 2b and the transmission region 2a from occurring, and the pixel facing the red filter region 2b and the pixel facing the transmission region 2a It can be clearly separated, and the identification accuracy of the tail lamp and the head lamp is improved.
In the present embodiment (excluding the above configuration example 4), the optical filter is formed by uniformly forming the wavelength filter film 2d to be the red filter region 2b on the glass plate 2c that is a filter substrate, and then transmitting the transmission region 2a. By removing the wavelength filter film existing at the location and filling the location from which the wavelength filter film is removed with resin 2e or adhesive 2f as a filler, the optical path length and transmission of the light transmitted through the red filter region 2b The optical path length of the light transmitted through the region 2a can be configured to be substantially the same.
In particular, in the configuration example 3 described above, the optical filter 2 with respect to the image sensor 4 is bonded to the image sensor 4 with the adhesive 2f with the side on which the wavelength filter film 2d is formed facing the image sensor 4. Since the adhesive 2f used for fixing can also be used as a filler for adjusting the optical path length, the structure can be simplified and the manufacturing process can be simplified.
In the above configuration example 4, after the wavelength filter film to be the red filter region 2b is uniformly formed on the filter substrate having the convex portion at the portion to be the transmission region 2a, the wavelength existing at the location to be the transmission region 2a By removing the filter film, the optical path length of the light transmitted through the red filter region 2b and the optical path length of the light transmitted through the transmission region 2a are made substantially the same. In this configuration, it is possible to adjust the optical path length without using a filler such as the resin 2e having relatively low weather resistance, and it is possible to realize the optical filter 2 having high weather resistance.

1 撮像レンズ
2 光学フィルタ
2a 透過領域
2b 赤色フィルタ領域
2c ガラス平板
2d 波長フィルタ膜
2e 樹脂
2f 接着剤
3 センサ基板
4 画像センサ
4a フォトダイオード(受光素子)
5 信号処理部
11 撮像装置
12 車両挙動センサ
13 車両検出制御装置
14 ヘッドランプ制御装置
DESCRIPTION OF SYMBOLS 1 Imaging lens 2 Optical filter 2a Transmission area 2b Red filter area 2c Glass plate 2d Wavelength filter film 2e Resin 2f Adhesive 3 Sensor substrate 4 Image sensor 4a Photodiode (light receiving element)
DESCRIPTION OF SYMBOLS 5 Signal processing part 11 Imaging apparatus 12 Vehicle behavior sensor 13 Vehicle detection control apparatus 14 Headlamp control apparatus

特開2004-189229号公報JP 2004-189229 A

Claims (6)

撮像領域内に存在する物体から発せられる光を、受光素子が2次元配置された画素アレイで構成された画像センサにより受光して、撮像領域内を撮像する撮像装置において、
特定波長の光のみを選択して透過させる第1領域と波長選択を行わずに光を透過させる第2領域とが、上記画像センサ上における1つの受光素子又は2以上の受光素子群で構成される単位領域で領域分割された光学フィルタが、該画像センサの入射側に配置されており、
上記光学フィルタは、フィルタ基板上に上記第1領域となるフィルタ膜を一様に形成した後に上記第2領域となる箇所に存在する該フィルタ膜を除去し、該フィルタ膜を除去した箇所に充填剤を充填することにより、該第1領域を透過する光の光路長と該第2領域を透過する光の光路長とが略同一となるように構成されており、
上記光学フィルタは、上記フィルタ膜が形成される側を上記画像センサに対面させた状態で該画像センサに対して接着剤により接着されており、
上記充填剤は上記接着剤であることを特徴とする撮像装置。
In an imaging device that receives light emitted from an object existing in an imaging region by an image sensor configured by a pixel array in which light receiving elements are two-dimensionally arranged, and images the imaging region.
And a second region where Ru transmits light without first region and the wavelength selection to transmit by selecting only light of a specific wavelength, consists of one light receiving element or two or more light receiving element group on the image sensor An optical filter divided into unit areas is disposed on the incident side of the image sensor,
The optical filter is formed by uniformly forming the filter film to be the first region on the filter substrate, and then removing the filter film present at the location to be the second region, and filling the location from which the filter film has been removed. By filling the agent, the optical path length of the light transmitted through the first region and the optical path length of the light transmitted through the second region are configured to be substantially the same ,
The optical filter is adhered to the image sensor with an adhesive in a state where the side on which the filter film is formed faces the image sensor,
The imaging apparatus, wherein the filler is the adhesive .
撮像領域内に存在する物体から発せられる光を、受光素子が2次元配置された画素アレイで構成された画像センサにより受光して、撮像領域内を撮像する撮像装置において、  In an imaging device that receives light emitted from an object existing in an imaging region by an image sensor configured by a pixel array in which light receiving elements are two-dimensionally arranged, and images the imaging region.
特定波長の光のみを選択して透過させる第1領域と波長選択を行わずに光を透過させる第2領域とが、上記画像センサ上における1つの受光素子又は2以上の受光素子群で構成される単位領域で領域分割された光学フィルタが、該画像センサの入射側に配置されており、  The first region for selecting and transmitting only light of a specific wavelength and the second region for transmitting light without performing wavelength selection are configured by one light receiving element or two or more light receiving element groups on the image sensor. An optical filter divided into unit areas is disposed on the incident side of the image sensor,
上記光学フィルタは、上記第2領域となる箇所に凸部を有するフィルタ基板上に上記第1領域となるフィルタ膜を一様に形成した後、該第2領域となる箇所に存在する該フィルタ膜を除去することにより、該第1領域を透過する光の光路長と該第2領域を透過する光の光路長とが略同一となるように構成されたものであることを特徴とする撮像装置。  The optical filter is formed by uniformly forming a filter film serving as the first region on a filter substrate having a convex portion at the site serving as the second region, and then presenting the filter film present at the site serving as the second region. The image pickup apparatus is configured so that the optical path length of the light transmitted through the first region and the optical path length of the light transmitted through the second region are substantially the same by removing .
撮像手段が撮像した撮像画像に基づいて互いに異なる波長帯の光を発する少なくとも2種類の検出対象物の検出処理を行う物体検出処理手段を有する物体検出装置において、
上記撮像手段として、請求項1又は2に記載の撮像装置を用いたことを特徴とする物体検出装置。
In an object detection apparatus having an object detection processing unit that performs detection processing of at least two types of detection objects that emit light in different wavelength bands based on a captured image captured by an imaging unit,
An object detection apparatus using the imaging apparatus according to claim 1 or 2 as the imaging means.
請求項の物体検出装置において、
上記撮像装置は、自車両の進行方向前方領域を撮像領域として撮像するものであり、
上記少なくとも2種類の検出対象物には、自車両に近づく方向に進行する他車両と自車両から離れる方向に進行する他車両とが含まれており、
上記第2領域は、波長選択を行わずに光を透過させる透過領域であり、
上記第1領域が光を透過させる上記特定波長は車両のテールランプ色の波長であり、
上記物体検出処理手段は、上記第1領域の透過光を受光した画像センサ上の受光素子の出力信号に基づいて自車両から離れる方向に進行する他車両を検出し、上記第2領域の透過光を受光した画像センサ上の受光素子の出力信号に基づいて自車両に近づく方向に進行する他車両を検出することを特徴とする物体検出装置。
The object detection device according to claim 3 .
The imaging device captures an area in the traveling direction of the host vehicle as an imaging area,
The at least two types of detection objects include an other vehicle that travels in a direction approaching the host vehicle and another vehicle that travels in a direction away from the host vehicle,
The second region is a transmission region that transmits light without performing wavelength selection,
The specific wavelength through which the first region transmits light is a wavelength of a tail lamp color of a vehicle,
The object detection processing means detects another vehicle traveling in a direction away from the own vehicle based on an output signal of a light receiving element on an image sensor that has received the transmitted light of the first region, and transmits the transmitted light of the second region. An object detection apparatus for detecting another vehicle traveling in a direction approaching the host vehicle based on an output signal of a light receiving element on an image sensor that receives the light.
車両の周囲を撮像領域として撮像し、該撮像領域内に存在する物体のうち互いに異なる波長帯の光を発する少なくとも2種類の検出対象物を検出する物体検出手段と、
該物体検出手段の検出結果に基づいて上記車両に搭載された車載機器の動作を制御する制御手段とを有する車載機器制御装置において、
上記物体検出手段として、請求項又は4に記載の物体検出装置を用いたことを特徴とする車載機器制御装置。
An object detection means for imaging the periphery of the vehicle as an imaging region, and detecting at least two types of detection objects that emit light in different wavelength bands among the objects present in the imaging region;
In an in-vehicle device control device having a control means for controlling the operation of the in-vehicle device mounted on the vehicle based on the detection result of the object detection means,
An in-vehicle device control device using the object detection device according to claim 3 or 4 as the object detection means.
請求項の車載機器制御装置において、
上記物体検出手段として、請求項4に記載の物体検出装置を用い、
上記制御手段は、上記物体検出手段の検出結果に基づいて、上記車両に搭載された車載機器であるヘッドランプの照射方向を変更し又は該ヘッドランプの発光強度を変更する制御を行うことを特徴とする車載機器制御装置。
In the in-vehicle device control device according to claim 5 ,
The object detection device according to claim 4 is used as the object detection means.
The control means performs control to change the irradiation direction of a headlamp which is an in-vehicle device mounted on the vehicle or to change the emission intensity of the headlamp based on the detection result of the object detection means. In-vehicle device control device.
JP2010266460A 2010-11-30 2010-11-30 IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE Expired - Fee Related JP5590457B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010266460A JP5590457B2 (en) 2010-11-30 2010-11-30 IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010266460A JP5590457B2 (en) 2010-11-30 2010-11-30 IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE

Publications (2)

Publication Number Publication Date
JP2012119838A JP2012119838A (en) 2012-06-21
JP5590457B2 true JP5590457B2 (en) 2014-09-17

Family

ID=46502219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010266460A Expired - Fee Related JP5590457B2 (en) 2010-11-30 2010-11-30 IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE

Country Status (1)

Country Link
JP (1) JP5590457B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10229946B2 (en) 2015-10-06 2019-03-12 Samsung Electronics Co., Ltd. Image sensor including color separation element

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015025835A (en) * 2013-07-24 2015-02-05 セイコーエプソン株式会社 Color filter substrate, electro-optic device, projection type display device, and manufacturing method of color filter substrate
CN209926252U (en) * 2019-02-26 2020-01-10 华域视觉科技(上海)有限公司 Car lamp module for detection lighting and detection lighting system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007040114B4 (en) * 2007-08-24 2010-10-28 Robert Bosch Gmbh Color mask for an image sensor of a vehicle camera
JP2009258618A (en) * 2008-03-27 2009-11-05 Olympus Corp Filter switching device, photographing lens, camera and image pickup system
JP2010027875A (en) * 2008-07-18 2010-02-04 Panasonic Corp Solid-state imaging element device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10229946B2 (en) 2015-10-06 2019-03-12 Samsung Electronics Co., Ltd. Image sensor including color separation element

Also Published As

Publication number Publication date
JP2012119838A (en) 2012-06-21

Similar Documents

Publication Publication Date Title
JP5761143B2 (en) Imaging unit, vehicle equipped with imaging unit
JP6468482B2 (en) IMAGING DEVICE, OBJECT DETECTION DEVICE, AND MOBILE DEVICE CONTROL SYSTEM
EP2786558B1 (en) Image processing system, vehicle including the same, image processing method, and computer program product
EP2618304B1 (en) Imaging apparatus, vehicle system having the same, and image-processing method
JP2013031054A (en) Image pickup device and object detection device incorporating the same and optical filter and manufacturing method thereof
JP5899957B2 (en) Image processing system and vehicle equipped with the same
JP2013029451A (en) Deposit detection device and deposit detection method
JP5936098B2 (en) Imaging apparatus, object detection apparatus including the same, and optical filter
EP2869021B1 (en) Multiple imager vehicle optical sensor system
JP5858327B2 (en) IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND POLARIZING FILTER
JP5839253B2 (en) Object detection device and in-vehicle device control device including the same
JP5590457B2 (en) IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE
JP2013095315A (en) Inside rear view mirror device with built-in imaging device, and vehicle equipped with the same
US10900770B2 (en) Distance measuring device, imaging apparatus, moving device, robot device, and recording medium
JP5887840B2 (en) Image processing device
EP2674893A2 (en) Travelable area recognition system, travelable area recognition method, travelable area recognition program executed on the travelable area recognition system, and recording medium storing travelable area recognition program
JP2013097223A (en) Imaging method and imaging unit
JP2013162492A (en) Image pickup device, vehicle incorporating the same, and position adjustment method
JP5891723B2 (en) Imaging method and imaging unit
JP6111514B2 (en) Image processing system and vehicle equipped with the same
JP6536946B2 (en) Imaging device, imaging method, program, and mobile device control system
JP5879937B2 (en) Imaging unit
JP2015027104A (en) Image processing system, wiper control system and vehicle having image processing system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140717

R151 Written notification of patent or utility model registration

Ref document number: 5590457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees