JP5590457B2 - IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE - Google Patents
IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE Download PDFInfo
- Publication number
- JP5590457B2 JP5590457B2 JP2010266460A JP2010266460A JP5590457B2 JP 5590457 B2 JP5590457 B2 JP 5590457B2 JP 2010266460 A JP2010266460 A JP 2010266460A JP 2010266460 A JP2010266460 A JP 2010266460A JP 5590457 B2 JP5590457 B2 JP 5590457B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- light
- vehicle
- filter
- image sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、受光素子が2次元配置された画素アレイで構成された画像センサを用いて撮像領域内を撮像する撮像装置並びにこれを備えた物体検出装置及び車載機器制御装置に関するものである。 The present invention relates to an imaging device that images an imaging region using an image sensor configured by a pixel array in which light receiving elements are two-dimensionally arranged, an object detection device including the imaging device, and an in-vehicle device control device.
従来、夜間において、車載カメラ(撮像装置)により自車の進行方向前方領域(撮像領域)を撮像し、その撮像画像に基づく物体検出処理を行って先行車両や対向車両などの物体を検出し、自車の運転者(ドライバー)の運転負荷を軽減させる運転者支援システムが知られている。運転者支援システムでは、例えば、先行車両や対向車両等の検出結果を用いて運転者に知らせたり警告したりする情報提供制御を行うものがある。また、例えば、先行車両や対向車両等の検出結果を用いて、自車のヘッドランプの照射方向の切り換え制御(ハイビームとロービームの切り換え制御等)を行ったり、自車のワイパーによる視界確保の制御を行ったりする車載機器の制御を行うものもある。このような運転者支援システムは、運転者の運転に対する負荷を低減させるとともに、交通安全に寄与するものであり、非常に有益なシステムであるが、その先行車両や対向車両等の検出結果を用いた各種制御を適切に行うためには、先行車両や対向車両等の検出精度を高めることが重要となる。 Conventionally, at night, an in-vehicle camera (imaging device) captures a front area (imaging area) in the traveling direction of the host vehicle, and performs object detection processing based on the captured image to detect an object such as a preceding vehicle or an oncoming vehicle, A driver support system that reduces the driving load on the driver of the vehicle is known. Some driver support systems perform, for example, information provision control that notifies or warns the driver using detection results of preceding vehicles, oncoming vehicles, and the like. In addition, for example, by using the detection result of the preceding vehicle or the oncoming vehicle, control of switching the irradiation direction of the headlamp of the own vehicle (switching control between high beam and low beam, etc.), and control of ensuring visibility by the wiper of the own vehicle Some control the in-vehicle devices that perform the operation. Such a driver assistance system reduces the load on driving by the driver and contributes to traffic safety, and is a very useful system. However, the detection result of the preceding vehicle or the oncoming vehicle is used. In order to appropriately perform the various controls, it is important to improve the detection accuracy of the preceding vehicle, the oncoming vehicle, and the like.
特許文献1には、夜間に先行車両や対向車両を検出可能な物体検出装置として、画像センサによって撮像した画像に基づいて先行車両のテールランプや対向車両のヘッドランプを検出するシステムが開示されている。このシステムは、ヘッドランプからの強い白色光とテールランプからの強い赤色光とを抽出し、その抽出結果から対向車両や先行車両を検出している。具体的には、赤色のフィルタ染料で形成されたレンズと緑がかった青色のフィルタ染料で形成されたレンズとを画像センサの前段部に配置し、撮像領域からの入力光をこれらのレンズでそれぞれ画像センサ上の2箇所に集束させる。これにより、前者のレンズによって集束された光の輝度値から入力光の赤色成分が抽出され、後者のレンズによって集束された光の輝度値から入力光の青色成分が抽出される。そして、入力光の赤色成分が所定の明るさ(輝度)以上であるときには撮像領域内に先行車両のテールランプが存在するとみなして先行車両のテールランプを検出し、入力光の青色成分が所定の明るさ(輝度)以上であるときには撮像領域内に対向車両のヘッドランプが存在するとみなして対向車両のヘッドランプを検出する。 Patent Document 1 discloses a system that detects a tail lamp of a preceding vehicle and a headlamp of an oncoming vehicle based on an image captured by an image sensor as an object detection device that can detect the preceding vehicle and the oncoming vehicle at night. . This system extracts strong white light from the headlamp and strong red light from the taillamp, and detects an oncoming vehicle or a preceding vehicle from the extraction result. Specifically, a lens formed with a red filter dye and a lens formed with a greenish blue filter dye are arranged in the front stage of the image sensor, and the input light from the imaging region is respectively received by these lenses. Focusing is performed at two locations on the image sensor. As a result, the red component of the input light is extracted from the luminance value of the light focused by the former lens, and the blue component of the input light is extracted from the luminance value of the light focused by the latter lens. When the red component of the input light is equal to or higher than the predetermined brightness (luminance), it is assumed that the tail lamp of the preceding vehicle exists in the imaging region, and the tail lamp of the preceding vehicle is detected, and the blue component of the input light has the predetermined brightness. When the brightness is equal to or greater than (luminance), the headlamp of the oncoming vehicle is detected in the imaging region, and the headlamp of the oncoming vehicle is detected.
しかしながら、上記特許文献1に開示のシステムでは、テールランプからの赤色光及びヘッドライトからの白色光(青色成分を含んでいる)を抽出するため、フィルタ機能を備える2つのレンズによって入力光を赤色と青色とに分けて集束させる。このようにレンズを複数備える構成では、光学システムが複雑となり、コストが上昇するという不具合がある。また、上記特許文献1に開示のシステムが用いているレンズは染料を使ってフィルタ機能を実現したものである。このような染料を用いたフィルタは、車室内等の温度変化が激しい環境下ではフィルタ機能の劣化の不具合も顕著となる。 However, in the system disclosed in Patent Document 1 described above, in order to extract red light from the tail lamp and white light (including a blue component) from the headlight, the input light is converted to red by two lenses having a filter function. Focus in blue. In such a configuration including a plurality of lenses, there is a problem that the optical system becomes complicated and the cost increases. In addition, the lens used in the system disclosed in Patent Document 1 uses a dye to realize a filter function. A filter using such a dye has a remarkable problem of deterioration of the filter function under an environment where the temperature change is severe, such as in the passenger compartment.
このような不具合を解消し得る赤色光及び白色光を抽出する方法としては、上記2つのレンズを用いる方法に代えて、公知のカラーセンサと同様の半導体プロセスを用いて画像センサ上に配置される画素(単位領域)の一部に赤色成分フィルタを積層させ、赤色成分のみを受光させる画素と白色光を受光する画素とを作り込むという方法が考えられる。しかしながら、このような半導体プロセスは高額な投資が必要とあり、高コスト化が避けられない。 As a method of extracting red light and white light that can solve such a problem, the semiconductor device is arranged on the image sensor using a semiconductor process similar to a known color sensor, instead of using the above-described two lenses. A method is conceivable in which a red component filter is stacked on a part of a pixel (unit region), and a pixel that receives only the red component and a pixel that receives white light are formed. However, such a semiconductor process requires an expensive investment, and an increase in cost is inevitable.
このような不具合を解消するものとしては、赤色成分のみを透過するフィルタ領域(第1領域)と波長制限しない非フィルタ領域(第2領域)とに領域分割された光学フィルタを、モノクロ画像センサの前段に、別素子として設置する方法が考えられる。この光学フィルタは、例えば、赤色成分のみを透過する波長選択フィルタ(赤色成分フィルタ)を蒸着等の方法によって一様にガラス平板上に形成した後、非フィルタ領域とする箇所の赤色成分フィルタをリフトオフなどの手法によって取り除くという比較的簡単かつ低コストな方法で作製できる。よって、この方法によれば、上述した半導体プロセスを用いて画像センサ上に赤色成分フィルタを設ける場合よりも低コスト化を実現できる。 In order to solve such a problem, an optical filter divided into a filter region (first region) that transmits only a red component and a non-filter region (second region) that does not limit the wavelength is used for a monochrome image sensor. A method of installing as a separate element in the previous stage is conceivable. This optical filter is formed by, for example, forming a wavelength selection filter (red component filter) that transmits only the red component uniformly on a glass plate by a method such as vapor deposition, and then lifting off the red component filter at a portion to be a non-filter region. It can be manufactured by a relatively simple and low-cost method of removing by such a method. Therefore, according to this method, it is possible to reduce the cost compared to the case where the red component filter is provided on the image sensor using the semiconductor process described above.
ところが、本発明者は、この方法を採用すると次のような問題が発生することを見いだした。
ガラス平板(フィルタ基板)上に赤色成分フィルタを部分的に形成して赤色光と白色光とを透過させる光学フィルタの場合、赤色成分フィルタが形成されているフィルタ領域と、このような赤色成分フィルタが形成されていなくて波長選択しない非フィルタ領域との間で、透過した光に位相差が生じる。これは、フィルタ領域にはガラス平板上に赤色成分フィルタとして機能するフィルタ材料が存在するのに対し、非フィルタ領域にはこのようなフィルタ材料の代わりに空気層が存在することに起因する。光学フィルタと画像センサとの間は近接配置されるが、互いを押し付け接合することは不可能なため、光学フィルタと画像センサとの間には数ミクロン程度の空隙が存在する。そのため、光学フィルタ上の各フィルタ領域(あるいは非フィルタ領域)を透過した光のごく一部は、光学フィルタ通過時の回折現象によってあるいは屈折現象によって、その対応画素の周囲に位置する周囲画素に受光される。このとき、フィルタ領域の透過光(赤色光)と非フィルタ領域の透過光(白色光)との間で位相差が生じていると、位相差が生じていない場合よりも、対象画素の周囲画素に受光される光量が増えたり減ったりする。これは、例えば、フィルタ領域に対応する対応画素に対し、非フィルタ領域の透過光の一部が回析現象や屈折現象により照射される場合を考えると、非フィルタ領域の透過光の一部(回折光や屈折光)とフィルタ領域の透過光とが干渉して強め合う度合い又は弱め合う度合いが、当該位相差によって増大するためである。対象画素の周囲画素に受光される光量が増えたり減ったりすると、その対応画素の受光量と当該フィルタ領域の透過光量との誤差が大きくなり、当該対応画素による当該フィルタ領域の透過光量の検知精度が悪化する。非フィルタ領域に対応する対応画素についても同様である。その結果、例えばフィルタ領域に対応する画素と非フィルタ領域に対応する画素との切り分けが明確にならないという問題が生じる。この問題は、当該光学フィルタを備えた撮像装置を用いた上述の物体検出装置では、赤色光に基づくテールランプの検出と白色光によるヘッドランプの検出の精度を落とす結果を招く。
However, the present inventor has found that the following problems occur when this method is adopted.
In the case of an optical filter that partially forms a red component filter on a glass plate (filter substrate) and transmits red light and white light, a filter region in which the red component filter is formed, and such a red component filter A phase difference occurs in the transmitted light between the non-filter region where the wavelength is not selected and the wavelength is not selected. This is because a filter material that functions as a red component filter is present on the glass plate in the filter region, whereas an air layer is present instead of such a filter material in the non-filter region. Although the optical filter and the image sensor are arranged close to each other, it is impossible to press and bond them to each other. Therefore, there is a gap of about several microns between the optical filter and the image sensor. Therefore, a small part of the light transmitted through each filter area (or non-filter area) on the optical filter is received by surrounding pixels located around the corresponding pixel by diffraction phenomenon or refraction phenomenon when passing through the optical filter. Is done. At this time, if there is a phase difference between the transmitted light (red light) in the filter area and the transmitted light (white light) in the non-filter area, the surrounding pixels of the target pixel are compared to when there is no phase difference. The amount of light received by the light increases or decreases. This is because, for example, when a part of the transmitted light in the non-filter region is irradiated to the corresponding pixel corresponding to the filter region by diffraction or refraction, a part of the transmitted light in the non-filter region ( This is because the degree to which the diffracted light or refracted light) and the transmitted light through the filter region interfere and strengthen each other increases due to the phase difference. When the amount of light received by the surrounding pixels of the target pixel increases or decreases, the error between the amount of light received by the corresponding pixel and the amount of light transmitted through the filter region increases, and the detection accuracy of the amount of light transmitted through the filter region by the corresponding pixel is increased. Gets worse. The same applies to the corresponding pixels corresponding to the non-filter area. As a result, there arises a problem that, for example, the separation between the pixel corresponding to the filter region and the pixel corresponding to the non-filter region is not clear. This problem results in a decrease in the accuracy of the tail lamp detection based on the red light and the headlamp detection based on the white light in the above-described object detection apparatus using the imaging device including the optical filter.
一方で、各画素の受光量に対して回折現象分又は屈折現象分を補正する処理を施すことにより、上述した問題を解消することも不可能ではない。しかしながら、回折現象や屈折現象は波長依存性を有するため、各画素の受光量に対して特定波長についての回折現象分や屈折現象分を補正しても、他の波長については補正されない。そして、多数の波長について補正を行うことは処理負荷を増大させるので、現実的ではない。よって、各画素の受光量に対して回折現象分や屈折現象分を補正して上記問題に対処することは困難である。 On the other hand, it is not impossible to solve the above-described problem by performing a process of correcting the diffraction phenomenon or the refraction phenomenon with respect to the amount of light received by each pixel. However, since the diffraction phenomenon and the refraction phenomenon have wavelength dependence, even if the diffraction phenomenon and the refraction phenomenon for the specific wavelength are corrected with respect to the received light amount of each pixel, other wavelengths are not corrected. Further, it is not practical to perform correction for a large number of wavelengths because it increases the processing load. Therefore, it is difficult to cope with the above problem by correcting the diffraction phenomenon and the refraction phenomenon with respect to the amount of light received by each pixel.
なお、上記問題は、第1領域であるフィルタ領域とは別に設けられる第2領域が、波長選択を行わずに光を透過させる非フィルタ領域である場合について説明したが、第2領域が、当該フィルタ領域が選択する波長を含む所定の波長範囲の光のみを選択的に透過させる別のフィルタ領域である場合にも、同様に生じ得る問題である。 In addition, although the said problem demonstrated the case where the 2nd area | region provided separately from the filter area | region which is a 1st area | region is a non-filter area | region which permeate | transmits light without performing wavelength selection, a 2nd area | region is the said area | region. The same problem may arise when the filter region is another filter region that selectively transmits only light in a predetermined wavelength range including the wavelength selected.
本発明は、以上の問題に鑑みなされたものであり、その目的とするところは、画像センサの前段に配置する別素子の光学フィルタを第1領域と第2領域とに領域分割して画像センサ上の画素を波長に応じて切り分ける場合に、その切り分けが不明確にならない撮像装置並びにこれを備えた物体検出装置及び車載機器制御装置を提供することである。 The present invention has been made in view of the above problems, and an object of the present invention is to divide an optical filter, which is a separate element arranged in the previous stage of the image sensor, into a first area and a second area, thereby dividing the image sensor. An object of the present invention is to provide an imaging device in which the upper pixel is separated in accordance with the wavelength, and an object detection device and an in-vehicle device control device provided with the same.
上記目的を達成するために、請求項1の発明は、撮像領域内に存在する物体から発せられる光を、受光素子が2次元配置された画素アレイで構成された画像センサにより受光して、撮像領域内を撮像する撮像装置において、特定波長の光のみを選択して透過させる第1領域と波長選択を行わずに光を透過させる第2領域とが、上記画像センサ上における1つの受光素子又は2以上の受光素子群で構成される単位領域で領域分割された光学フィルタが、該画像センサの入射側に配置されており、上記光学フィルタは、フィルタ基板上に上記第1領域となるフィルタ膜を一様に形成した後に上記第2領域となる箇所に存在する該フィルタ膜を除去し、該フィルタ膜を除去した箇所に充填剤を充填することにより、該第1領域を透過する光の光路長と該第2領域を透過する光の光路長とが略同一となるように構成されており、上記光学フィルタは、上記フィルタ膜が形成される側を上記画像センサに対面させた状態で該画像センサに対して接着剤により接着されており、上記充填剤は上記接着剤であることを特徴とするものである。
また、請求項2の発明は、撮像領域内に存在する物体から発せられる光を、受光素子が2次元配置された画素アレイで構成された画像センサにより受光して、撮像領域内を撮像する撮像装置において、特定波長の光のみを選択して透過させる第1領域と波長選択を行わずに光を透過させる第2領域とが、上記画像センサ上における1つの受光素子又は2以上の受光素子群で構成される単位領域で領域分割された光学フィルタが、該画像センサの入射側に配置されており、上記光学フィルタは、上記第2領域となる箇所に凸部を有するフィルタ基板上に上記第1領域となるフィルタ膜を一様に形成した後、該第2領域となる箇所に存在する該フィルタ膜を除去することにより、該第1領域を透過する光の光路長と該第2領域を透過する光の光路長とが略同一となるように構成されたものであることを特徴とするものである。
また、請求項3の発明は、撮像手段が撮像した撮像画像に基づいて互いに異なる波長帯の光を発する少なくとも2種類の検出対象物の検出処理を行う物体検出処理手段を有する物体検出装置において、上記撮像手段として、請求項1又は2に記載の撮像装置を用いたことを特徴とするものである。
また、請求項4の発明は、請求項3の物体検出装置において、上記撮像装置は、自車両の進行方向前方領域を撮像領域として撮像するものであり、上記少なくとも2種類の検出対象物には、自車両に近づく方向に進行する他車両と自車両から離れる方向に進行する他車両とが含まれており、上記第2領域は、波長選択を行わずに光を透過させる透過領域であり、上記第1領域が光を透過させる上記特定波長は車両のテールランプ色の波長であり、上記物体検出処理手段は、上記第1領域の透過光を受光した画像センサ上の受光素子の出力信号に基づいて自車両から離れる方向に進行する他車両を検出し、上記第2領域の透過光を受光した画像センサ上の受光素子の出力信号に基づいて自車両に近づく方向に進行する他車両を検出することを特徴とするものである。
また、請求項5の発明は、車両の周囲を撮像領域として撮像し、該撮像領域内に存在する物体のうち互いに異なる波長帯の光を発する少なくとも2種類の検出対象物を検出する物体検出手段と、該物体検出手段の検出結果に基づいて上記車両に搭載された車載機器の動作を制御する制御手段とを有する車載機器制御装置において、上記物体検出手段として、請求項3又は4に記載の物体検出装置を用いたことを特徴とするものである。
また、請求項6の発明は、請求項5の車載機器制御装置において、上記物体検出手段として、請求項4に記載の物体検出装置を用い、上記制御手段は、上記物体検出手段の検出結果に基づいて、上記車両に搭載された車載機器であるヘッドランプの照射方向を変更し又は該ヘッドランプの発光強度を変更する制御を行うことを特徴とするものである。
In order to achieve the above object, according to the first aspect of the present invention, imaging is performed by receiving light emitted from an object existing in an imaging region by an image sensor including a pixel array in which light receiving elements are two-dimensionally arranged. an imaging device for imaging an area, and a second region where Ru transmits light without first region and a wavelength selection to transmit by selecting only light of a specific wavelength, one light receiving element on the image sensor Alternatively, an optical filter divided into unit areas composed of two or more light receiving element groups is arranged on the incident side of the image sensor, and the optical filter is a filter that becomes the first area on the filter substrate. After the film is uniformly formed, the filter film present at the position to be the second region is removed, and the portion from which the filter film has been removed is filled with a filler, so that the light transmitted through the first region is transmitted. Optical path length The optical path length of light passing through the second region is configured to be substantially the same, the optical filter, the image sensor side the filter film is formed in a state of being opposed to the image sensor And the filler is the adhesive .
Also, the invention of
The invention of
According to a fourth aspect of the present invention, there is provided the object detection device according to the third aspect , wherein the imaging device captures an area in front of the traveling direction of the host vehicle as an imaging region, and the at least two types of detection objects include The other vehicle that travels in the direction approaching the host vehicle and the other vehicle that travels in the direction away from the host vehicle are included, and the second region is a transmission region that transmits light without performing wavelength selection, The specific wavelength through which the first region transmits light is a wavelength of a tail lamp color of the vehicle, and the object detection processing means is based on an output signal of a light receiving element on the image sensor that has received the transmitted light of the first region. The other vehicle traveling in the direction away from the host vehicle is detected, and the other vehicle traveling in the direction approaching the host vehicle is detected based on the output signal of the light receiving element on the image sensor that has received the transmitted light of the second region. Specially It is an.
Further, the invention according to claim 5 is an object detection unit that captures an image of the periphery of a vehicle as an imaging region and detects at least two types of detection objects that emit light in different wavelength bands among objects existing in the imaging region. And a control means for controlling the operation of the in-vehicle equipment mounted on the vehicle based on the detection result of the object detection means. The in-vehicle equipment control device according to
According to a sixth aspect of the present invention, in the in-vehicle device control apparatus according to the fifth aspect , the object detection device according to the fourth aspect is used as the object detection means, and the control means uses the detection result of the object detection means. Based on this, control is performed to change the irradiation direction of a headlamp which is an in-vehicle device mounted on the vehicle or to change the emission intensity of the headlamp.
本発明は、特定波長の光のみを選択して透過させる第1領域を透過する光の光路長と、波長選択を行わずに光を透過させる第2領域を透過する光の光路長とが略同一となるように、光学フィルタが構成されている。これにより、第1領域の透過光と第2領域の透過光との間で生じる位相差を小さくし又はなくすことができる。このような光学フィルタは、例えば、第1領域となる箇所及び第2領域となる箇所の厚みや屈折率を調整することで作製することができる。そして、このように第1領域の透過光と第2領域の透過光との間で位相差が小さくなり又は無くなれば、第1領域に対応する単位領域において、第2領域のから回折光や屈折光と第1領域の透過光とが干渉して強め合う度合い又は弱め合う度合いが増大することを抑制できる。その結果、第1領域に対応する単位領域の受光量と当該第1領域の透過光量との誤差が大きくなることが抑制され、当該単位領域による当該第1領域の透過光量の検知精度が悪化することが抑制される。また、第2領域に対応する単位領域についても同様である。よって、第1領域に対応する画素と第2領域に対応する画素との切り分けが不明確なものとなるのが抑制される。 The present invention comprises an optical path length of the light transmitted through the first region to transmit by selecting only light of a specific wavelength, the optical path length of the light transmitted through the second region Ru transmits light without wavelength selection The optical filter is configured to be substantially the same. Thereby, the phase difference produced between the transmitted light of the first region and the transmitted light of the second region can be reduced or eliminated. Such an optical filter can be produced, for example, by adjusting the thickness and the refractive index of the portion that becomes the first region and the portion that becomes the second region. If the phase difference between the transmitted light in the first region and the transmitted light in the second region is reduced or eliminated in this way, in the unit region corresponding to the first region, the diffracted light and the refracted light from the second region. It is possible to suppress an increase in the degree of strengthening or weakening due to interference between the light and the transmitted light in the first region. As a result, an increase in the error between the received light amount of the unit region corresponding to the first region and the transmitted light amount of the first region is suppressed, and the detection accuracy of the transmitted light amount of the first region by the unit region is deteriorated. It is suppressed. The same applies to the unit area corresponding to the second area. Therefore, it is possible to prevent the pixel corresponding to the first region and the pixel corresponding to the second region from being unclear.
以上、本発明によれば、画像センサの前段に配置する別素子の光学フィルタを第1領域と第2領域とに領域分割して画像センサ上の画素を波長に応じて切り分ける場合に、その切り分けが不明確にならないという優れた効果が得られる。 As described above, according to the present invention, when the optical filter of another element arranged in the previous stage of the image sensor is divided into the first region and the second region, and the pixels on the image sensor are separated according to the wavelength, the separation is performed. It is possible to obtain an excellent effect that does not become unclear.
以下、本発明に係る撮像装置を、車載機器制御装置としてのヘッドランプ制御システムに用いる一実施形態について説明する。
なお、本発明に係る撮像装置は、ヘッドランプ制御システムに限らず、例えば、当該物体検出装置により夜間に先行車両や対向車両などの検出対象物を検出して運転者に表示や警告を行う運転者支援システムにも同様に適用できるし、撮像画像に基づいて物体検出を行う物体検出装置を搭載したその他のシステムにも適用できる。
Hereinafter, an embodiment in which an imaging device according to the present invention is used in a headlamp control system as an in-vehicle device control device will be described.
Note that the imaging device according to the present invention is not limited to the headlamp control system. For example, the object detection device detects an object to be detected such as a preceding vehicle or an oncoming vehicle at night and displays or warns the driver. The present invention can be similarly applied to a person support system, and can also be applied to other systems equipped with an object detection device that detects an object based on a captured image.
図1は、本実施形態に係るヘッドランプ制御システムの機能ブロック図である。
このヘッドランプ制御システムは、主に、撮像手段としての撮像装置11と、車両挙動センサ12と、物体検出装置としての車両検出制御装置13と、制御手段としてのヘッドランプ制御装置14とから構成されている。
FIG. 1 is a functional block diagram of the headlamp control system according to the present embodiment.
This headlamp control system mainly includes an
撮像装置11は、自車両の進行方向前方領域を撮影することができるように、自車両に搭載される。具体的には、例えば、車室内に付属されたバックミラーの裏側のフロントガラス付近に取り付けたり、そのバックミラーに内蔵したり、ヘッドランプに内蔵したりする。撮像装置11の搭載時には、撮像装置11の撮影方向が所定の基準方向(例えば水平方向)に一致するように調整して固定される。なお、撮像装置11は、図示しない内蔵の制御部からの指示に応じて、シャッタースピード、フレームレート、及び、車両検出制御装置13へ出力するデジタル信号のゲイン等を調整することができるように構成されている。そして、撮像装置11は、撮像画像データとして、撮影した画像の画素ごとの明るさ(輝度)を示すデジタル信号を、画像の水平・垂直同期信号とともに車両検出制御装置13へ出力する。
The
車両挙動センサ12は、例えば自車両の4輪のサスペンションに設置されたストロークセンサから構成され、自車両のピッチ方向やロール方向における挙動変化を検出する。自車両が走行して、前後左右に加速度が生じると、自車両の車体はピッチ方向やロール方向に揺動し、それに伴って撮像装置11の撮像方向も基準方向からずれる。車両挙動センサ12は、撮像装置11の撮像方向が基準方向からどの程度ずれたかを算出するための車両の挙動情報を車両検出制御装置13に与える。
The
車両検出制御装置13は、撮像装置11から入力された撮像画像データと車両挙動センサ12からの上述した車両の挙動情報とを用いて、所定の画像処理を施すことにより、画像に含まれる光源が、先行車両(自車両から離れる方向へ進行する他車両)のテールランプ、対向車両(自車両に近づく方向へ進行する他車両)のヘッドランプのいずれに該当するか又はいずれにも該当しないかを判断する。そして、画像に含まれる光源が先行車両のテールランプや対向車両のヘッドランプに該当すると判断した場合には、その先行車両や対向車両に関する検出情報をヘッドランプ制御装置14に出力する。
The vehicle
ヘッドランプ制御装置14は、車両検出制御装置13から入力された、先行車両や対向車両に関する検出情報に基づいて、ヘッドランプの向き(光照射方向)を制御する。例えば、検出情報に基づいて特定される先行車両や対向車両までの距離が所定距離以下である場合には、ヘッドランプの向きをロービームとする。これにより、先行車両や対向車両の運転者が自車両のヘッドランプの光によって眩しさを感じにくくする。一方、先行車両や対向車両までの距離が所定距離を超えていたり、先行車両や対向車両が検出されていなかったりする場合には、ヘッドランプの向きをハイビームとする。これにより、夜間でも自車両の運転者の視界をより遠方まで確保することができるようになる。なお、ヘッドランプ制御装置14は、そのヘッドランプの向きの制御をユーザによってOFFに切り替えることが可能であり、ユーザの認識に応じてハイビームとロービームを手動で切り換えることもできる。
The
図2は、本実施形態における撮像装置11の概略構成を示す説明図である。
この撮像装置11は、主に、撮像レンズ1と、光学フィルタ2と、2次元配置された画素アレイを有する画像センサ4を含んだセンサ基板3と、センサ基板3から出力されるアナログ電気信号(画像センサ4上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データを生成して出力する信号処理部5とから構成されている。被写体(被検物)を含む撮像領域からの光は、撮像レンズ1を通り、光学フィルタ2を透過して、画像センサ4でその光強度に応じた電気信号に変換される。信号処理部5では、画像センサ4から出力される電気信号(アナログ信号)が入力されると、その電気信号から、撮像画像データとして、画像センサ4上における各画素の明るさ(輝度)を示すデジタル信号を、画像の水平・垂直同期信号とともに後段の機器へ出力する。
FIG. 2 is an explanatory diagram illustrating a schematic configuration of the
The
図3は、光学フィルタ2と画像センサ4とを示す拡大図である。
画像センサ4は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いたイメージセンサであり、その受光素子にはフォトダイオード4aを用いている。フォトダイオード4aは、画素ごとに2次元的にアレイ配置されており、フォトダイオード4aの集光効率を上げるために、各フォトダイオード4aの入射側にはマイクロレンズ4bが設けられている。この画像センサ4がワイヤボンディングなどの手法によりPWB(printed wiring board)に接合されてセンサ基板3が形成されている。撮像する画像の波長範囲は略可視光であるため、画像センサ4としては、可視光の範囲に感度を有するものを選択すればよい。
FIG. 3 is an enlarged view showing the
The
画像センサ4のマイクロレンズ4b側の面には、光学フィルタ2が近接配置されている。光学フィルタ2の画像センサ4側の面には、図4に示すように、光を透過する第2領域としての透過領域2aと、赤色の波長成分(特定波長)のみを選択的に透過させる第1領域としての赤色フィルタ領域2bとが、特定方向(図4中左右方向)に交互に配置されたストライプ状の領域分割パターンを有している。このようなストライプ状のパターンをもつ光学フィルタ2は、画像センサ4との位置調整を行うにあたっては当該特定方向のみの位置調整を行えばよく、実装精度が緩和されるという利点がある。
The
このような光学フィルタ2を作製する方法としては、フィルタ基板であるガラス平板上に一様な赤色成分のみを透過する波長フィルタ膜を蒸着などの方法で形成した後に、リフトオフなどの手法により波長フィルタ膜をストライプパターン状に部分的に除去すればよい。この場合、波長フィルタ膜が除去された箇所が透過領域2aとなり、波長フィルタ膜が残った箇所が赤色フィルタ領域2bとなる。
As a method for producing such an
本実施形態においては、画像センサ4上の画素(フォトダイオード4a)を2画素で1グループとし、各グループは、図4に示すように、車両のテールランプ色(赤色)の波長帯(赤色成分)の光を受光する画素Rと、車両のヘッドランプ色(白色)の波長帯(白色成分)の光(すなわち波長選択しない光)を受光する画素Wとで構成される。つまり、画像センサ4上の各画素は、2種類の画素R,Wのいずれかとして機能する。これにより、画像センサ4上における2つの画素R,Wを1画素とした2種類の画像を得ることができる。つまり、画素Rに対応した赤色画像と、画素Wに対応したモノクロ輝度画像である。
In the present embodiment, the pixels (
〔構成例1〕
ここで、本実施形態における光学フィルタ2の一構成例(以下、本構成例を「構成例1」という。)について説明する。
図5は、本構成例1における光学フィルタ2の説明図である。
本構成例1に係る光学フィルタ2は、画像センサ4上の各画素を上述した2種類の画素R,Wのいずれかとして機能させるように、透過領域2aと赤色フィルタ領域2bとが図5に示すように2次元方向で交互に隣接するように市松状に配置されたものである。これにより、画像センサ4上の画素は、赤色成分を受光する画素Rと白色成分を受光する画素Wとが2次元方向で交互に隣接するように市松状に配置されるように領域分割される。
[Configuration example 1]
Here, a configuration example of the
FIG. 5 is an explanatory diagram of the
In the
本構成例1の光学フィルタ2を用いる場合も、画像センサ4上における2つの画素R,Wを1画素とした、画素Rに対応した赤色画像と、画素Wに対応したモノクロ輝度画像とを得ることができる。
Even when the
〔構成例2〕
また、本実施形態における光学フィルタ2の他の構成例(以下、本構成例を「構成例2」という。)について説明する。
図6は、本構成例2における光学フィルタ2の赤色フィルタ領域2bを画像センサ4上に重ねて示した説明図である。
本構成例2に係る光学フィルタ2は、透過領域2aと赤色フィルタ領域2bとが1次元方向で交互に隣接するように配置されてストライプ状に領域分割されている点で上記実施形態と同様である。しかしながら、上記実施形態では、赤色フィルタ領域2bの長尺方向が画像センサ4上の画素列に平行であったのに対し、本構成例2では、赤色フィルタ領域2bの長尺方向が画像センサ4上の画素列に対して斜めとなっている点で異なっている。本構成例2の光学フィルタ2において、赤色フィルタ領域2bは、図6に示すように、図中横方向に画像センサ4の一画素分の幅をもち、図中縦方向に画像センサ4の二画素分の幅を持っており、図中横方向一画素分について図中縦方向二画素分変位するように、画像センサ4上の画素列に対して斜めに配置される。
[Configuration example 2]
Further, another configuration example of the
FIG. 6 is an explanatory diagram showing the
The
本構成例2の光学フィルタ2を用いる場合も、画像センサ4上における2つの画素R,Wを1画素とした、画素Rに対応した赤色画像と、画素Wに対応したモノクロ輝度画像とを得ることができる。
Even when the
次に、光学フィルタ2の構成について詳述する。
図7は、本実施形態における光学フィルタ2の断面を含む斜視図である。
光学フィルタ2は、図7に示すように、ガラス平板2c上に赤色の波長フィルタ膜2dが形成された箇所(すなわち赤色フィルタ領域2b)が凸部となり、ガラス平板上から波長フィルタ膜が除去された箇所(すなわち透過領域2a)が凹部となった凹凸の周期構造をもっている。本実施形態における波長フィルタ膜2dは、高屈折率の薄膜と低屈折率の薄膜とを交互に多層重ねた多層構造である。このような多層構造の波長フィルタ膜を用いると、光の干渉を利用することで分光透過率を自由に設定でき、薄膜を多数層重ねることで特定波長に対して100%近い反射率を得ることもできる。ここでは、赤色成分以外の波長帯域の光を反射させる。
Next, the configuration of the
FIG. 7 is a perspective view including a cross section of the
As shown in FIG. 7, in the
本実施形態において、光学フィルタ2の波長フィルタ膜2dの透過波長範囲は、赤色波長成分である。撮像する画像の波長範囲は略可視光の範囲であるため、例えば波長が600nm以上の光を透過し、600nm未満の波長をカットする、図8に示すようなフィルタ特性を有するカットフィルタの波長フィルタ膜2dをガラス平板2c上に形成すればよい。このようなカットフィルタは、ガラス平板側から順に、よく知られる「基板/(0.125L0.25H0.125L)p/媒質A」のような構成の多層膜を作製することで得ることができる。ここで、「0.125L」は、低屈折率材料(例えばSiO2)の膜厚標記方法でnd/λを1Lとしたものであり、したがって「0.125L」の膜は1/8波長の光路長となるような膜厚をもつ低屈折率材料の膜であることを意味する。なお、「n」は屈折率であり、「d」は厚みであり、λはカットオフ波長である。同様に、「0.25H」は、高屈折率材料(例えばTiO2)の膜厚標記方法でnd/λを1Hとしたものであり、したがって「0.25H」の膜は1/4波長の光路長となるような膜厚をもつ高屈折率材料の膜であることを意味する。また、「p」は、かっこ内に示す膜の組み合わせを繰り返す(積層する)回数を示し、「p」が多いほどリップルなどの影響を抑制できる。また、媒質Aは、空気あるいは後述する樹脂や接着剤などの充填剤を意図するものである。
In the present embodiment, the transmission wavelength range of the
また、光学フィルタ2の波長フィルタ膜2dとしては、透過波長範囲が600〜700nmの範囲のみを透過する、図9に示すようなフィルタ特性を有するバンドパスフィルタであってもよい。このようなバンドパスフィルタであれば、赤色よりも長波長側の近赤外域と赤色領域との識別も可能となる。このようなバンドパスフィルタは、例えば、「基板/(0.125L0.5M0.125L)p(0.125L0.5H0.125L)q(0.125L0.5M0.125L)r/媒質A」のような構成の多層膜を作製することで得ることができる。なお、上記の通り、高屈折率材料として二酸化チタン(TiO2)、低屈折率材料として二酸化珪素(SiO2)などを使用すれば、対候性の高い光学フィルタを実現できる。
Further, the
本実施形態の光学フィルタ2の作製方法の一例について説明すると、まず、ガラス平板2c上に上述した多層構造の波長フィルタ膜2dを形成する。このような多層構造の膜を形成する方法としては、よく知られる蒸着などの方法を用いればよい。続いて、透過領域2aに対応する箇所について波長フィルタ膜を除去する。この除去方法としては、一般的なリフトオフ加工法を利用すればよい。リフトオフ加工法では、目的とするパターンとは逆のパターンを事前にガラス平板2c上に金属、フォトレジストなどで形成しておき、その上に波長フィルタ膜を形成してから、透過領域2aに対応する箇所の波長フィルタ膜を当該金属やフォトレジストと一緒に除去する。
An example of a method for producing the
これらの構成例1〜2を含む本実施形態の光学フィルタ2は、画像センサ4の前段に設置される。その設置方法は、光学フィルタ2の凹凸構造面を画像センサ4の受光面と対向するような向きで近接配置の上、固定する。固定方法としては、画像センサ4の受光面周辺にスペーサを配置して光学フィルタ2を保持する方法や、光学フィルタ2のグレーティング面と画像センサ4の受光素子との間に接着剤を充填して接着する方法などが挙げられる。
The
光学フィルタ2を画像センサ4に取り付ける方法としては、画像センサ4をワイヤボンディングなどの手法によりPWB上に設置したセンサ基板3に、光学フィルタ2を後から固定(ASSY)する方法と、光学フィルタ2と画像センサ4を予め固着したものをPWB上に実装する方法とが考えられる。より望ましくは、画像センサ4のウエハと光学フィルタ2が形成されたウエハとを接着したものをダイシング加工することで低コストに作製することができる。本実施形態では、各ウエハ間の位置精度は要求されないため、歩留まりよく作製することが可能である。
As a method of attaching the
図10は、参考例における光学フィルタ2及び画像センサ4を示す模式図である。
本実施形態のように、画像センサ4上の画素の一部についてのみ、光学フィルタ2の赤色フィルタ領域2bを対向させる場合、多層の波長フィルタ膜2dが形成されていない透過領域2aが単なる空気層であると、すでに述べたように、多層の波長フィルタ膜2dが形成された赤色フィルタ領域2bと当該透過領域2aとの間で、それらの透過光に位相差が生じる。画像センサ4と光学フィルタ2とは互いに近接して配置されるが、押し付け接合することは不可能なため、一定距離(数ミクロン)は離れて配置されることになる。そのため、画像センサ4上の各領域を透過した光のごく一部は、光学フィルタ通過時の回折現象によってその対向画素の周囲に位置する周囲画素に受光される。このとき、赤色フィルタ領域2bと透過領域2aとの間で透過光の位相差が生じていると、位相差が生じていない場合よりも、対向画素の周囲画素に受光される光量が増えてしまう。その結果、例えば赤色フィルタ領域2bに対向する画素と透過領域2aに対向する画素との切り分けが明確にならない。
FIG. 10 is a schematic diagram showing the
When the
図11は、本実施形態における光学フィルタ2及び画像センサ4を示す模式図である。
本実施形態においては、図11に示すように、図10に示した参考例の光学フィルタ2における凹部(透過領域2a)に樹脂(充填剤)2eを充填し、その凹凸面を平面状にした光学フィルタ2を用いている。すなわち、本実施形態では、上記参考例の透過領域2aの凹部に存在する空気層に代えて、その空気層とは屈折率が異なる樹脂2eを当該凹部に充填し、これにより、赤色フィルタ領域2bと透過領域2aとの間で透過光の位相差を生じさせないようにしている。
FIG. 11 is a schematic diagram showing the
In this embodiment, as shown in FIG. 11, the recess (
この位相差を生じさせないためには、多層の波長フィルタ膜2dが介在した赤色フィルタ領域2bと樹脂2eが介在した透過領域2aとの間で、透過する光束に光路長差が発生してはならない。ここで、多層の波長フィルタ膜2d(赤色フィルタ領域2b)を透過する光束の平均光路長L1は、例えば、当該波長フィルタ膜2dが図8に示した特性を有するカットフィルタである場合、下記の式(1)より求めることができる。
L1 = (低屈折率材料1/8波長分+高屈折率材料1/4波長分+低屈折率材料1/8波長分)×p ・・・(1)
In order to prevent this phase difference from occurring, there should be no optical path length difference in the transmitted light beam between the
L1 = (low refractive index material 1/8 wavelength + high refractive index material 1/4 wavelength + low refractive index material 1/8 wavelength) × p (1)
本実施形態では、樹脂2e(透過領域2a)を透過する光束の平均光路長L2が、この平均光路長L1と一致するように構成されている。樹脂2eを透過する光束の平均光路長L2は、その樹脂材料の屈折率と、その樹脂の厚み(すなわち多層の波長フィルタ膜2dの厚み)を積算することで算出できる。なお、樹脂2eの屈折率については、樹脂そのものの屈折率が選択可能であるが、樹脂材料中に金属微粒子(主に重金属微粒子など)を混入させて屈折率をコントロールした樹脂を用いる場合には、その調整後の屈折率を選択する。
In the present embodiment, the average optical path length L2 of the light beam passing through the
〔構成例3〕
次に、本実施形態における光学フィルタ2の更に他の構成例(以下、本構成例を「構成例3」という。)について説明する。
図12は、本構成例3における光学フィルタ2及び画像センサ4を示す模式図である。
本構成例3は、光学フィルタ2を画像センサ4に固定する固定方法として、光学フィルタ2の凹凸面と画像センサ4との間に接着剤2fを充填して接着する方法を採用し、光学フィルタ2の凹部に充填される接着剤2fに、上記実施形態における樹脂2eとしての役割を与えたものである。本構成例3であれば、画像センサ4に対する光学フィルタ2の固定に用いる接着剤を、光路長を調整するための充填剤として兼用するので、構造の簡素化、作製工程の簡素化を図ることができる。
[Configuration example 3]
Next, still another configuration example of the
FIG. 12 is a schematic diagram showing the
In this configuration example 3, as a fixing method for fixing the
〔構成例4〕
次に、本実施形態における光学フィルタ2の更に他の構成例(以下、本構成例を「構成例4」という。)について説明する。
図13は、本構成例4における光学フィルタ2及び画像センサ4を示す模式図である。
本構成例4は、光学フィルタ2の凹部に樹脂2eや接着剤2f等の充填剤を充填することなく、透過領域2aと赤色フィルタ領域2bとの間の透過光の光路長を一致させる光路長調整を行う。具体的には、本構成例4の光学フィルタ2は、ガラス平板(フィルタ基板)2cの画像センサ側の面に、赤色フィルタ領域2bとなる箇所が凹部となり、透過領域2aとなる箇所が凸部となった凹凸の周期構造を形成した後に、一様な多層の波長フィルタ膜2dを形成し、その後、ガラス平板2cの凸部上に形成された波長フィルタ膜を取り除いて作製したものである。
[Configuration Example 4]
Next, still another configuration example of the
FIG. 13 is a schematic diagram illustrating the
In this configuration example 4, the optical path length of the transmitted light between the
本構成例4においても、多層の波長フィルタ膜2dが形成された赤色フィルタ領域2bとこの波長フィルタ膜2dが形成されていない透過領域2aとの間で、それらの透過光に位相差を生じさせないようにしている。具体的には、両者の透過光の光路長が一致するように、ガラス平板2cの屈折率と凹部の深さZを選択している。
Also in the present configuration example 4, there is no phase difference between the
本構成例4によれば、比較的耐候性が低い樹脂2e等の充填剤を使わないで光路長を調整するため、耐候性の高い光学フィルタ2を実現できる。
なお、本構成例4においても、光学フィルタ2を画像センサ4に固定する固定方法として、光学フィルタ2の凹凸面と画像センサ4との間に接着剤を充填して接着する方法を採用してもよい。この場合、接着剤の屈折率と接着剤が入り込んだ部分の厚みも考慮して光路長を調整する必要がある。
According to the fourth configuration example, the optical path length is adjusted without using a filler such as the
In the fourth configuration example, as a fixing method for fixing the
以上のような撮像装置11によって撮像した撮像画像データ(画像センサ4上の各受光素子で受光される受光量を示す画素データ群)からは、種々の情報が得られる。具体的には、撮像領域内の各地点(光源)から発せられる光の強さ(明るさ情報)、ヘッドランプやテールランプなどの光源(他車両)と自車両との距離(距離情報)、各光源から発せられる光の赤色成分と白色成分(非分光)の分光情報などが得られる。
Various information can be obtained from the captured image data (pixel data group indicating the amount of light received by each light receiving element on the image sensor 4) captured by the
明るさ情報について説明すると、夜間に、先行車両や対向車両が自車両から同じ距離に存在する場合、撮像装置11によってそれらの先行車両及び対向車両を撮影すると、撮影画像データ上では検出対象物の1つである対向車両のヘッドランプが最も明るく映し出され、検出対象物の1つである先行車両のテールランプはそれよりも暗く映し出される。また、リフレクタが撮像画像データに映し出されている場合、リフレクタは自ら発光する光源ではなく、自車両のヘッドランプを反射することによって明るく映し出されるものに過ぎないので、先行車両のテールランプよりもさらに暗くなる。一方、対向車両のヘッドランプ、先行車両のテールランプ及びリフレクタからの光は、距離が遠くなるにつれて、それを受光する画像センサ4上ではだんだん暗く観測される。よって、撮像画像データから得られる明るさ(輝度情報)を用いることで 2種類の検出対象物(ヘッドランプとテールランプ)及びリフレクタの一次的な識別が可能である。
The brightness information will be described. When the preceding vehicle and the oncoming vehicle are present at the same distance from the own vehicle at night, when the preceding vehicle and the oncoming vehicle are photographed by the
また、距離情報について説明すると、ヘッドランプやテールランプは、そのほとんどが左右一対のペアランプの構成であるため、この構成の特徴を利用してヘッドランプやテールランプ(すなわち他車両)と自車両との距離を求めることが可能である。ペアとなる左右一対のランプは、撮像装置11が撮像した撮像画像データ上では、互いに近接して同じ高さ方向位置に映し出され、当該ランプを映し出すランプ画像領域の広さはほぼ同じで、かつ、当該ランプ画像領域の形状もほぼ同じである。よって、これらの特徴を条件とすれば、その条件を満たすランプ画像領域同士をペアランプであると識別できる。なお、遠距離になるとペアランプを構成する左右のランプを区別して認識できなくなり、単一ランプとして認識される。
Further, the distance information will be described. Most headlamps and tail lamps have a pair of left and right pair lamps. Therefore, the distance between the headlamps and tail lamps (that is, other vehicles) and the host vehicle is utilized using the characteristics of this configuration. Can be obtained. The pair of left and right lamps that are paired are displayed close to each other on the same image in the height direction on the captured image data captured by the
このような方法でペアランプを識別できた場合、そのペアランプ構成であるヘッドランプやテールランプの光源までの距離を算出することが可能である。すなわち、車両の左右ヘッドランプ間の距離及び左右テールランプ間の距離は、一定値w0(例えば1.5m程度)で近似することができる。一方、撮像装置11における撮像レンズ1の焦点距離fは既知であるため、撮像装置11の画像センサ4上における左右ランプにそれぞれ対応した2つのランプ画像領域間の距離w1を撮像画像データから算出することにより、そのペアランプ構成であるヘッドランプやテールランプの光源と自車両までの距離xは、単純な比例計算(x=f×w0/w1)により求めることができる。また、このようにして算出される距離xが適正範囲であれば、その算出に用いた2つのランプ画像領域は他車両のヘッドランプとテールランプであると識別することができる。よって、この距離情報を用いることで、検出対象物であるヘッドランプとテールランプの識別精度が向上する。
When a pair lamp can be identified by such a method, it is possible to calculate the distance to the light source of the head lamp and tail lamp which are the pair lamp structure. That is, the distance between the left and right headlamps and the distance between the left and right tail lamps of the vehicle can be approximated by a constant value w0 (for example, about 1.5 m). On the other hand, since the focal length f of the imaging lens 1 in the
また、分光情報について説明すると、本実施形態では、上述したとおり、撮像装置11で撮像した撮像画像データから、画像センサ4上の画素Rに対応した画素データのみを抽出することで、撮像領域内の赤色成分だけを映し出した赤色画像を生成することができる。同様に、撮像装置11で撮像した撮像画像データから、画像センサ4上の画素Wに対応した画素データのみを抽出することで、撮像領域内のモノクロ輝度画像を生成することができる。よって、赤色画像において所定輝度以上の輝度を有する画像領域が存在する場合、その画像領域はテールランプを映し出したテールランプ画像領域であると識別することができる。さらに、赤色画像上の画像領域と、この画像領域に対応したモノクロ輝度画像上の画像領域との間の輝度比率(赤色輝度比率)を算出することもできる。この赤色輝度比率を用いれば、撮像領域内に存在する物体(光源)から発せられる光に含まれる相対的な赤色成分の比率を把握することができる。テールランプの赤色輝度比率は、ヘッドランプや他のほとんどの光源よりも十分に高い値をとるので、この赤色輝度比率を用いればテールランプの識別精度が向上する。
Further, the spectral information will be described. In the present embodiment, as described above, by extracting only pixel data corresponding to the pixel R on the
次に、本実施形態における先行車両及び対向車両の検出処理の流れについて説明する。
図14は、本実施形態における車両検出処理の流れを示すフローチャートである。
本実施形態の車両検出処理では、撮像装置11が撮像した画像データに対して画像処理を施し、検出対象物であると思われる画像領域を抽出する。そして、その画像領域に映し出されている光源の種類が2種類の検出対象物のいずれであるかを識別することで、先行車両、対向車両の検出を行う。
Next, a flow of detection processing for the preceding vehicle and the oncoming vehicle in the present embodiment will be described.
FIG. 14 is a flowchart showing a flow of vehicle detection processing in the present embodiment.
In the vehicle detection process of the present embodiment, image processing is performed on the image data captured by the
まず、ステップS1では、撮像装置11の画像センサ4によって撮像された自車両前方の画像データをメモリに取り込む。この画像データは、上述したように、画像センサ4の各画素における輝度を示す信号を含む。次に、ステップS2では、自車両の挙動に関する情報を車両挙動センサ12から取り込む。
First, in step S1, image data in front of the host vehicle imaged by the
ステップS3では、メモリに取り込まれた画像データから検出対象物(先行車両のテールランプ及び対向車両のベッドランプ)であると思われる輝度の高い画像領域(高輝度画像領域)を抽出する。この高輝度画像領域は、画像データにおいて、所定の閾値輝度よりも高い輝度を有する明るい領域となり、複数存在する場合が多いが、それらのすべてを抽出する。 In step S3, an image area with high brightness (high brightness image area) that is considered to be a detection target (tail lamp of the preceding vehicle and bed lamp of the oncoming vehicle) is extracted from the image data captured in the memory. This high luminance image region is a bright region having a luminance higher than a predetermined threshold luminance in the image data, and there are many cases where a plurality of high luminance image regions are extracted, but all of them are extracted.
高輝度画像領域抽出処理では、まず、ステップS31において、画像センサ4上の各画素の輝度値を所定の閾値輝度と比較することにより2値化処理を行う。具体的には、所定の閾値輝度以上の輝度を有する画素に「1」、そうでない画素に「0」を割り振ることで、2値化画像を作成する。次に、ステップS32において、この2値化画像において、「1」が割り振られた画素が近接している場合には、それらを1つの高輝度画像領域として認識するラベリング処理を実施する。これによって、輝度値の高い近接した複数の画素の集合が、1つの高輝度画像領域として抽出される。
In the high-luminance image region extraction processing, first, in step S31, binarization processing is performed by comparing the luminance value of each pixel on the
上述した高輝度画像領域抽出処理の後に実行されるステップS4では、抽出された各高輝度画像領域に対応する撮像領域内の物体と自車両との距離を算出する。この距離算出処理では、車両のランプは左右1対のペアランプであることを利用して距離を検出するペアランプ距離算出処理と、遠距離になるとペアランプを構成する左右のランプを区別して認識できなくなって当該ペアランプが単一ランプとして認識される場合の単一ランプ距離算出処理とを実行する。 In step S4, which is executed after the above-described high-intensity image region extraction process, the distance between the object in the imaging region corresponding to each extracted high-intensity image region and the host vehicle is calculated. In this distance calculation process, the pair lamp distance calculation process that detects the distance by using the pair of left and right lamps of the vehicle and the left and right lamps constituting the pair lamp cannot be distinguished and recognized at a long distance. A single lamp distance calculation process is executed when the pair lamp is recognized as a single lamp.
まず、ペアランプ距離算出処理のために、ステップS41では、ランプのペアを作成する処理であるペアランプ作成処理を行う。ペアとなる左右一対のランプは、撮像装置11が撮像した画像データにおいて、近接しつつほぼ同じ高さとなる位置にあり、高輝度画像領域の面積がほぼ同じで、かつ高輝度画像領域の形が同じであるとの条件を満たす。したがって、このような条件を満たす高輝度画像領域同士をペアランプとする。ペアをとることのできない高輝度画像領域は単一ランプとみなされる。ペアランプが作成された場合には、ステップS42のペアランプ距離算出処理によって、そのペアランプまでの距離を算出する。車両の左右ヘッドランプ間の距離及び左右テールランプ間の距離は、一定値w0(例えば1.5m程度)で近似することができる。一方、撮像装置11における焦点距離fは既知であるため、撮像装置11の画像センサ4上の左右ランプ距離w1を算出することにより、ペアランプまでの実際の距離xは、単純な比例計算(x=f・w0/w1)により求めることができる。なお、先行車両や対向車両までの距離検出は、レーザレーダやミリ波レーダなどの専用の距離センサを用いてもよい。
First, for a pair lamp distance calculation process, in step S41, a pair lamp creation process, which is a process of creating a lamp pair, is performed. The pair of left and right lamps that are paired are in the position where they are close to each other and have substantially the same height in the image data captured by the
ステップS5では、赤色画像とモノクロ輝度画像との比率を分光情報として用い、この分光情報から、ペアランプとされた2つの高輝度画像領域が、ヘッドランプからの光によるものなのか、テールランプからの光によるものなのかを識別するランプ種類識別処理を行う。このランプ種類識別処理では、まずステップS51において、ペアランプとされた高輝度画像領域について、画像センサ4上の画素Rに対応した画素データと画像センサ4上の画素Wに対応した画素データとの比率を画素値とした赤色比画像を作成する。そして、ステップS52において、その赤色比画像の画素値を所定の閾値と比較し、所定の閾値以上である高輝度画像領域についてはテールランプからの光によるテールランプ画像領域であるとし、所定の閾値未満である高輝度画像領域についてはヘッドランプからの光によるヘッドランプ画像領域であるとするランプ種別処理を行う。
In step S5, the ratio between the red image and the monochrome luminance image is used as spectral information. From this spectral information, whether the two high-intensity image regions that are paired lamps are due to light from the headlamp or light from the tail lamp. Lamp type identification processing is performed to identify whether or not In this lamp type identification process, first, in step S51, the ratio of the pixel data corresponding to the pixel R on the
以上のような車両検出処理により検出した先行車両及び対向車両の検出結果は、本実施形態では自車両の車載機器であるヘッドランプの光照射方向の制御に用いられる。
具体的には、車両検出処理によりテールランプが検出されてその先行車両のバックミラーに自車両のヘッドライト照明光が入射する距離範囲A内に近づいた場合に、その先行車両に自車両のヘッドライト照明光が当たらないように、自車両のヘッドライトの一部を遮光したり、自車両のヘッドライトの光照射方向を上下方向又は左右方向へずらしたりする制御を行う。
また、車両検出処理によりベッドランプが検出されて、その対向車両の運転者に自車両のヘッドライト照明光が当たる距離範囲B内に近づいた場合に、その対向車両に自車両のヘッドライト照明光が当たらないように、自車両のヘッドライトの一部を遮光したり、自車両のヘッドライトの光照射方向を上下方向又は左右方向へずらしたりする制御を行う。
In the present embodiment, the detection results of the preceding vehicle and the oncoming vehicle detected by the vehicle detection process as described above are used for controlling the light irradiation direction of the headlamp that is an in-vehicle device of the host vehicle.
Specifically, when the tail lamp is detected by the vehicle detection process and approaches the distance range A where the headlight illumination light of the host vehicle is incident on the rearview mirror of the preceding vehicle, the headlight of the host vehicle is approached to the preceding vehicle. Control is performed to block a part of the headlight of the host vehicle or to shift the light irradiation direction of the headlight of the host vehicle in the vertical direction or the horizontal direction so that the illumination light does not strike.
Further, when the bed lamp is detected by the vehicle detection process and the driver of the oncoming vehicle approaches within the distance range B where the headlight illumination light of the own vehicle hits, the headlight illumination light of the own vehicle is approached to the oncoming vehicle. In order not to hit the vehicle, a part of the headlight of the host vehicle is blocked, or the light irradiation direction of the headlight of the host vehicle is shifted in the vertical direction or the horizontal direction.
以上の説明では、本発明に係る撮像装置11を、車載機器制御装置としてのヘッドランプ制御システムに用いる物体検出装置に適用した例であったが、これに限られるものではない。例えば、本発明に係る撮像装置11を、車載機器である表示モニターを制御して他車両の接近を警告する例や、自車両が他車両に衝突することを回避したり衝突時の衝撃を軽減したりするために車載機器であるブレーキを制御する例、先行車両との車間距離を維持するために車載機器であるアクセル調整機器を制御して自車両の速度を自動調整する例など、本発明は、様々な車載機器制御装置に適用することができる。
また、本発明は、このような車載機器制御装置に限らず、画像センサ上の画素を波長に応じて切り分けて波長が異なる複数種類の画像データを用いる装置であれば、広く利用可能である。
また、以上の説明では、第1領域である赤色フィルタ領域2bとは別に設けられる第2領域が、波長選択を行わずに光を透過させる透過領域2aである場合について説明したが、第2領域としては、赤色フィルタ領域2bが選択する赤色波長を含む所定範囲の光のみを選択的に透過させるフィルタ領域であってもよい。
In the above description, the
In addition, the present invention is not limited to such an in-vehicle device control apparatus, and can be widely used as long as it is an apparatus that uses a plurality of types of image data having different wavelengths by separating pixels on the image sensor according to the wavelength.
In the above description, the case where the second region provided separately from the
以上、本実施形態に係るヘッドランプ制御システムは、自車両の周囲を撮像領域として撮像し、その撮像領域内に存在する物体のうち互いに異なる波長帯の光を発する少なくとも2種類の検出対象物である対向車両のヘッドランプと先行車両のテールランプを検出する物体検出手段である物体検出装置と、物体検出装置の検出結果に基づいて自車両に搭載された車載機器であるヘッドランプの動作を制御する制御手段としてのヘッドランプ制御装置14とを有する車載機器制御装置である。このヘッドランプ制御システムで用いられる物体検出装置は、撮像領域内に存在する物体から発せられる光を画像センサ4で受光して撮像領域内を撮像する撮像手段としての撮像装置11を備えていて、撮像装置11が撮像した撮像画像に基づいて対向車両のヘッドランプと先行車両のテールランプの検出処理を行う物体検出処理手段としての車両検出制御装置13とを有する。この車両検出制御装置13に用いられる撮像装置11は、撮像領域内に存在する物体から発せられる光を受光素子4aが2次元配置された画素アレイで構成された画像センサ4により受光して撮像領域内を撮像するものであり、特定波長である赤色波長の光のみを選択して透過させる第1領域としての赤色フィルタ領域2bと波長選択を行わずに光を透過させる第2領域としての透過領域2aとが画像センサ4上における1つの受光素子又は2以上の受光素子群で構成される単位領域で領域分割された光学フィルタ2を、画像センサの入射側に備えている。そして、光学フィルタ2における赤色フィルタ領域2b及び透過領域2aは、赤色フィルタ領域2bを透過する光の光路長と透過領域2aを透過する光の光路長とが略同一となるように形成されている。これにより、赤色フィルタ領域2bと透過領域2aとの間でそれらの透過光の位相差を生じさせないようにすることができ、赤色フィルタ領域2bに対向する画素と透過領域2aに対向する画素とを明確に切り分けることができ、テールランプ及びヘッドランプの識別精度が向上する。
また、本実施形態(上記構成例4を除く。)において、光学フィルタは、フィルタ基板であるガラス平板2c上に赤色フィルタ領域2bとなる波長フィルタ膜2dを一様に形成した後に透過領域2aとなる箇所に存在する波長フィルタ膜を除去し、その波長フィルタ膜を除去した箇所に充填剤である樹脂2eや接着剤2fを充填することにより、赤色フィルタ領域2bを透過する光の光路長と透過領域2aを透過する光の光路長とが略同一となるように構成することができる。
特に、上記構成例3では、波長フィルタ膜2dが形成される側を画像センサ4に対面させた状態で画像センサ4に対して接着剤2fにより接着することで、画像センサ4に対する光学フィルタ2の固定に用いる接着剤2fを、光路長を調整するための充填剤として兼用できるので、構造の簡素化、作製工程の簡素化を図ることができる。
また、上記構成例4では、透過領域2aとなる箇所に凸部を有するフィルタ基板上に赤色フィルタ領域2bとなる波長フィルタ膜を一様に形成した後、透過領域2aとなる箇所に存在する波長フィルタ膜を除去することにより、赤色フィルタ領域2bを透過する光の光路長と透過領域2aを透過する光の光路長とが略同一となるように構成されている。この構成では、比較的耐候性が低い樹脂2e等の充填剤を使わないで光路長を調整することが可能であり、耐候性の高い光学フィルタ2を実現することが可能となる。
As described above, the headlamp control system according to the present embodiment captures the surroundings of the host vehicle as an imaging region, and includes at least two types of detection objects that emit light in different wavelength bands among objects existing in the imaging region. Controls the operation of an object detection device that is an object detection means for detecting a headlamp of an oncoming vehicle and a tail lamp of a preceding vehicle, and a headlamp that is an in-vehicle device mounted on the host vehicle based on the detection result of the object detection device. It is an in-vehicle device control device having a
In the present embodiment (excluding the above configuration example 4), the optical filter is formed by uniformly forming the
In particular, in the configuration example 3 described above, the
In the above configuration example 4, after the wavelength filter film to be the
1 撮像レンズ
2 光学フィルタ
2a 透過領域
2b 赤色フィルタ領域
2c ガラス平板
2d 波長フィルタ膜
2e 樹脂
2f 接着剤
3 センサ基板
4 画像センサ
4a フォトダイオード(受光素子)
5 信号処理部
11 撮像装置
12 車両挙動センサ
13 車両検出制御装置
14 ヘッドランプ制御装置
DESCRIPTION OF SYMBOLS 1
DESCRIPTION OF SYMBOLS 5
Claims (6)
特定波長の光のみを選択して透過させる第1領域と波長選択を行わずに光を透過させる第2領域とが、上記画像センサ上における1つの受光素子又は2以上の受光素子群で構成される単位領域で領域分割された光学フィルタが、該画像センサの入射側に配置されており、
上記光学フィルタは、フィルタ基板上に上記第1領域となるフィルタ膜を一様に形成した後に上記第2領域となる箇所に存在する該フィルタ膜を除去し、該フィルタ膜を除去した箇所に充填剤を充填することにより、該第1領域を透過する光の光路長と該第2領域を透過する光の光路長とが略同一となるように構成されており、
上記光学フィルタは、上記フィルタ膜が形成される側を上記画像センサに対面させた状態で該画像センサに対して接着剤により接着されており、
上記充填剤は上記接着剤であることを特徴とする撮像装置。 In an imaging device that receives light emitted from an object existing in an imaging region by an image sensor configured by a pixel array in which light receiving elements are two-dimensionally arranged, and images the imaging region.
And a second region where Ru transmits light without first region and the wavelength selection to transmit by selecting only light of a specific wavelength, consists of one light receiving element or two or more light receiving element group on the image sensor An optical filter divided into unit areas is disposed on the incident side of the image sensor,
The optical filter is formed by uniformly forming the filter film to be the first region on the filter substrate, and then removing the filter film present at the location to be the second region, and filling the location from which the filter film has been removed. By filling the agent, the optical path length of the light transmitted through the first region and the optical path length of the light transmitted through the second region are configured to be substantially the same ,
The optical filter is adhered to the image sensor with an adhesive in a state where the side on which the filter film is formed faces the image sensor,
The imaging apparatus, wherein the filler is the adhesive .
特定波長の光のみを選択して透過させる第1領域と波長選択を行わずに光を透過させる第2領域とが、上記画像センサ上における1つの受光素子又は2以上の受光素子群で構成される単位領域で領域分割された光学フィルタが、該画像センサの入射側に配置されており、 The first region for selecting and transmitting only light of a specific wavelength and the second region for transmitting light without performing wavelength selection are configured by one light receiving element or two or more light receiving element groups on the image sensor. An optical filter divided into unit areas is disposed on the incident side of the image sensor,
上記光学フィルタは、上記第2領域となる箇所に凸部を有するフィルタ基板上に上記第1領域となるフィルタ膜を一様に形成した後、該第2領域となる箇所に存在する該フィルタ膜を除去することにより、該第1領域を透過する光の光路長と該第2領域を透過する光の光路長とが略同一となるように構成されたものであることを特徴とする撮像装置。 The optical filter is formed by uniformly forming a filter film serving as the first region on a filter substrate having a convex portion at the site serving as the second region, and then presenting the filter film present at the site serving as the second region. The image pickup apparatus is configured so that the optical path length of the light transmitted through the first region and the optical path length of the light transmitted through the second region are substantially the same by removing .
上記撮像手段として、請求項1又は2に記載の撮像装置を用いたことを特徴とする物体検出装置。 In an object detection apparatus having an object detection processing unit that performs detection processing of at least two types of detection objects that emit light in different wavelength bands based on a captured image captured by an imaging unit,
An object detection apparatus using the imaging apparatus according to claim 1 or 2 as the imaging means.
上記撮像装置は、自車両の進行方向前方領域を撮像領域として撮像するものであり、
上記少なくとも2種類の検出対象物には、自車両に近づく方向に進行する他車両と自車両から離れる方向に進行する他車両とが含まれており、
上記第2領域は、波長選択を行わずに光を透過させる透過領域であり、
上記第1領域が光を透過させる上記特定波長は車両のテールランプ色の波長であり、
上記物体検出処理手段は、上記第1領域の透過光を受光した画像センサ上の受光素子の出力信号に基づいて自車両から離れる方向に進行する他車両を検出し、上記第2領域の透過光を受光した画像センサ上の受光素子の出力信号に基づいて自車両に近づく方向に進行する他車両を検出することを特徴とする物体検出装置。 The object detection device according to claim 3 .
The imaging device captures an area in the traveling direction of the host vehicle as an imaging area,
The at least two types of detection objects include an other vehicle that travels in a direction approaching the host vehicle and another vehicle that travels in a direction away from the host vehicle,
The second region is a transmission region that transmits light without performing wavelength selection,
The specific wavelength through which the first region transmits light is a wavelength of a tail lamp color of a vehicle,
The object detection processing means detects another vehicle traveling in a direction away from the own vehicle based on an output signal of a light receiving element on an image sensor that has received the transmitted light of the first region, and transmits the transmitted light of the second region. An object detection apparatus for detecting another vehicle traveling in a direction approaching the host vehicle based on an output signal of a light receiving element on an image sensor that receives the light.
該物体検出手段の検出結果に基づいて上記車両に搭載された車載機器の動作を制御する制御手段とを有する車載機器制御装置において、
上記物体検出手段として、請求項3又は4に記載の物体検出装置を用いたことを特徴とする車載機器制御装置。 An object detection means for imaging the periphery of the vehicle as an imaging region, and detecting at least two types of detection objects that emit light in different wavelength bands among the objects present in the imaging region;
In an in-vehicle device control device having a control means for controlling the operation of the in-vehicle device mounted on the vehicle based on the detection result of the object detection means,
An in-vehicle device control device using the object detection device according to claim 3 or 4 as the object detection means.
上記物体検出手段として、請求項4に記載の物体検出装置を用い、
上記制御手段は、上記物体検出手段の検出結果に基づいて、上記車両に搭載された車載機器であるヘッドランプの照射方向を変更し又は該ヘッドランプの発光強度を変更する制御を行うことを特徴とする車載機器制御装置。 In the in-vehicle device control device according to claim 5 ,
The object detection device according to claim 4 is used as the object detection means.
The control means performs control to change the irradiation direction of a headlamp which is an in-vehicle device mounted on the vehicle or to change the emission intensity of the headlamp based on the detection result of the object detection means. In-vehicle device control device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010266460A JP5590457B2 (en) | 2010-11-30 | 2010-11-30 | IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010266460A JP5590457B2 (en) | 2010-11-30 | 2010-11-30 | IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012119838A JP2012119838A (en) | 2012-06-21 |
JP5590457B2 true JP5590457B2 (en) | 2014-09-17 |
Family
ID=46502219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010266460A Expired - Fee Related JP5590457B2 (en) | 2010-11-30 | 2010-11-30 | IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5590457B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10229946B2 (en) | 2015-10-06 | 2019-03-12 | Samsung Electronics Co., Ltd. | Image sensor including color separation element |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015025835A (en) * | 2013-07-24 | 2015-02-05 | セイコーエプソン株式会社 | Color filter substrate, electro-optic device, projection type display device, and manufacturing method of color filter substrate |
CN209926252U (en) * | 2019-02-26 | 2020-01-10 | 华域视觉科技(上海)有限公司 | Car lamp module for detection lighting and detection lighting system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007040114B4 (en) * | 2007-08-24 | 2010-10-28 | Robert Bosch Gmbh | Color mask for an image sensor of a vehicle camera |
JP2009258618A (en) * | 2008-03-27 | 2009-11-05 | Olympus Corp | Filter switching device, photographing lens, camera and image pickup system |
JP2010027875A (en) * | 2008-07-18 | 2010-02-04 | Panasonic Corp | Solid-state imaging element device |
-
2010
- 2010-11-30 JP JP2010266460A patent/JP5590457B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10229946B2 (en) | 2015-10-06 | 2019-03-12 | Samsung Electronics Co., Ltd. | Image sensor including color separation element |
Also Published As
Publication number | Publication date |
---|---|
JP2012119838A (en) | 2012-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5761143B2 (en) | Imaging unit, vehicle equipped with imaging unit | |
JP6468482B2 (en) | IMAGING DEVICE, OBJECT DETECTION DEVICE, AND MOBILE DEVICE CONTROL SYSTEM | |
EP2786558B1 (en) | Image processing system, vehicle including the same, image processing method, and computer program product | |
EP2618304B1 (en) | Imaging apparatus, vehicle system having the same, and image-processing method | |
JP2013031054A (en) | Image pickup device and object detection device incorporating the same and optical filter and manufacturing method thereof | |
JP5899957B2 (en) | Image processing system and vehicle equipped with the same | |
JP2013029451A (en) | Deposit detection device and deposit detection method | |
JP5936098B2 (en) | Imaging apparatus, object detection apparatus including the same, and optical filter | |
EP2869021B1 (en) | Multiple imager vehicle optical sensor system | |
JP5858327B2 (en) | IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND POLARIZING FILTER | |
JP5839253B2 (en) | Object detection device and in-vehicle device control device including the same | |
JP5590457B2 (en) | IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE | |
JP2013095315A (en) | Inside rear view mirror device with built-in imaging device, and vehicle equipped with the same | |
US10900770B2 (en) | Distance measuring device, imaging apparatus, moving device, robot device, and recording medium | |
JP5887840B2 (en) | Image processing device | |
EP2674893A2 (en) | Travelable area recognition system, travelable area recognition method, travelable area recognition program executed on the travelable area recognition system, and recording medium storing travelable area recognition program | |
JP2013097223A (en) | Imaging method and imaging unit | |
JP2013162492A (en) | Image pickup device, vehicle incorporating the same, and position adjustment method | |
JP5891723B2 (en) | Imaging method and imaging unit | |
JP6111514B2 (en) | Image processing system and vehicle equipped with the same | |
JP6536946B2 (en) | Imaging device, imaging method, program, and mobile device control system | |
JP5879937B2 (en) | Imaging unit | |
JP2015027104A (en) | Image processing system, wiper control system and vehicle having image processing system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140502 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140717 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5590457 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |