JP2013003482A - Imaging device for visible light and far-infrared light, vehicle imaging device including imaging device, and image forming method - Google Patents

Imaging device for visible light and far-infrared light, vehicle imaging device including imaging device, and image forming method Download PDF

Info

Publication number
JP2013003482A
JP2013003482A JP2011136955A JP2011136955A JP2013003482A JP 2013003482 A JP2013003482 A JP 2013003482A JP 2011136955 A JP2011136955 A JP 2011136955A JP 2011136955 A JP2011136955 A JP 2011136955A JP 2013003482 A JP2013003482 A JP 2013003482A
Authority
JP
Japan
Prior art keywords
image
electromagnetic wave
far
visible light
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011136955A
Other languages
Japanese (ja)
Inventor
Hisaki Tsuboi
央樹 坪井
Atsushi Takayama
淳 高山
Takashi Washisu
貴志 鷲巣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Advanced Layers Inc
Original Assignee
Konica Minolta Advanced Layers Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Advanced Layers Inc filed Critical Konica Minolta Advanced Layers Inc
Priority to JP2011136955A priority Critical patent/JP2013003482A/en
Publication of JP2013003482A publication Critical patent/JP2013003482A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Blocking Light For Cameras (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of photographing an object irrespective of brightness of the object with a simple configuration, a vehicle including an imaging device, and an image forming method.SOLUTION: Visible light and far-infrared light both reflected from an object can be transmitted with the use of a lens 11. Accordingly, an imaging element 12A and an imaging element 12B can be provided at the same position; image processing can be executed in a simplified manner in superposing the imaging elements without the need for considering a difference in the angle of view; and the entire device can be reduced in size.

Description

本発明は、被写体情報を取得して被写体画像を形成する撮像装置、撮像装置を取り付けた撮像装置付車両及び画像形成方法に関し、特に夜間などにおいても適切な被写体画像を形成できる撮像装置、撮像装置付車両及び画像形成方法に関するものである。   The present invention relates to an imaging device that acquires subject information to form a subject image, a vehicle with an imaging device to which the imaging device is attached, and an image forming method, and more particularly to an imaging device and an imaging device that can form an appropriate subject image even at night. The present invention relates to an attached vehicle and an image forming method.

近年、自動車事故件数、死傷者数ともに減少傾向にあるが、依然高い水準にある。また、今後高齢者ドライバーが増加することが見込まれるため、加齢による身体機能低下を補い、安全運転を支援するための技術がより一層求められている。特に最近では、自動車の安全走行を確保するために、進行方向前方にある人、車などの障害物を検出、認識することで、ドライバーの集中力低下、ヒューマンエラーによる事故を未然に防ぐプリクラッシュセーフティ技術が開発され、一部市販されている。   In recent years, both the number of car accidents and the number of casualties have been decreasing, but they are still at a high level. In addition, since it is expected that the number of elderly drivers will increase in the future, there is a further demand for a technology for compensating for a decrease in physical function due to aging and supporting safe driving. Recently, in order to ensure safe driving of automobiles, pre-crash prevents accidents due to reduced driver concentration and human error by detecting and recognizing obstacles such as people and cars ahead in the direction of travel. Safety technology has been developed and is partly on the market.

ところで、前方の障害物を認識するための手段として、電波やレーザーを利用したレーダー装置、可視光や赤外光を利用したカメラ装置などが一般的に利用されているが、各方式とも一長一短あり、信頼性を上げるためには別の方式を組み合わせて利用することが望ましいといえる。例えば、可視光カメラと遠赤外光カメラの組合せを考えた場合、昼間であれば被写体光量が十分なので、可視光カメラを利用することで、障害物の認識が可能であるのに対し、夜間においてヘッドライトが届かない遠方の被写体は、可視光カメラでは撮影が難しい。そこで、かかる場合には、遠赤外光カメラを組み合わせて利用することで、肉眼では見えなくても、ヘッドライトの照射範囲外にいる人物などを早期に認識することができる。   By the way, as a means for recognizing obstacles ahead, radar devices using radio waves and lasers, camera devices using visible light and infrared light, etc. are generally used, but each method has advantages and disadvantages. In order to increase reliability, it can be said that it is desirable to use a combination of different methods. For example, when considering a combination of a visible light camera and a far-infrared light camera, the amount of light in the subject is sufficient during the daytime. In this case, it is difficult to photograph a distant subject where the headlight does not reach with a visible light camera. Therefore, in such a case, by using a combination of a far-infrared light camera, a person outside the headlight irradiation range can be recognized at an early stage even if it cannot be seen with the naked eye.

そこで、特許文献1に示すように、可視光カメラと遠赤外光カメラで撮影した画像、あるいは画像から得られた障害物の情報を運転者に知らしめて、視認性を高めるべく、これらの画像情報を一つにして表示することが行われている。   Therefore, as shown in Patent Document 1, in order to inform the driver of images taken with a visible light camera and a far-infrared light camera, or information on obstacles obtained from the images, these images are improved. Information is displayed in one piece.

特開2000−19259号公報JP 2000-19259 A

しかるに、例えば可視光カメラと遠赤外光カメラでは、検出する光の波長域が異なるため可視光カメラと遠赤外光カメラを共通とすることはできていなかった。つまり、特許文献1のカメラは、実際には成立しないものである。これに対し、可視光カメラと遠赤外光カメラとを別々に設置して、得られた画像を合成することも考えられるが、画像処理に手間がかかる。   However, for example, a visible light camera and a far-infrared light camera have different wavelength ranges of light to be detected, and thus the visible light camera and the far-infrared light camera cannot be used in common. That is, the camera of Patent Document 1 is not actually established. On the other hand, although it is possible to install a visible light camera and a far-infrared light camera separately and synthesize the obtained images, it takes time and effort to perform image processing.

本発明は、上述の問題に鑑みてなされたものであり、簡素な構成でありながら、被写体の輝度に関わらず被写体を撮影することが出来る撮像装置及び画像取得方法を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an imaging apparatus and an image acquisition method that can capture a subject regardless of the brightness of the subject, while having a simple configuration. .

本発明の撮像装置は、
電磁波が入射する光学素子と、
前記光学素子を透過した電磁波の内、可視光域に対応する波長域である第1電磁波に基づく可視光画像成分の電気信号と、遠赤外域に対応する波長域である第2電磁波に基づく遠赤外画像成分の電気信号とに変換する撮像素子と、
前記可視光画像成分の電気信号と前記遠赤外画像成分の電気信号とに基づいて可視画像及び遠赤外画像を生成する画像処理手段とを有する撮像装置であって、
前記光学素子は、メチルペンテンを80重量%以上配合した素材を用いて形成されている事を特徴とする。
The imaging apparatus of the present invention
An optical element on which electromagnetic waves are incident;
Among the electromagnetic waves transmitted through the optical element, an electric signal of a visible light image component based on a first electromagnetic wave that is a wavelength region corresponding to a visible light region and a far electromagnetic wave based on a second electromagnetic wave that is a wavelength region corresponding to a far infrared region. An image sensor for converting into an infrared image component electrical signal;
An image pickup apparatus comprising: an image processing unit that generates a visible image and a far-infrared image based on the electric signal of the visible light image component and the electric signal of the far-infrared image component;
The optical element is formed using a material containing 80% by weight or more of methylpentene.

本発明によれば、電磁波が入射する光学素子に、日中撮影に適した可視光と夜間撮影に適した遠赤外光を共に良好に透過させる素材を用いて形成される構成であるため、後段の撮像素子や当該撮像素子を含む後段の画像処理部での処理により同じ被写体について異なる波長成分の画像を容易に形成することができ、これにより装置全体を小型化しながら、夜間撮影であっても良好なカラー画像を得る事が可能となる。   According to the present invention, the optical element on which the electromagnetic wave is incident is configured to be formed using a material that transmits both visible light suitable for daytime shooting and far-infrared light suitable for nighttime shooting. By processing in the latter stage image sensor or the latter stage image processing unit including the image sensor, it is possible to easily form images of different wavelength components for the same subject. In addition, a good color image can be obtained.

尚、可視光の波長域とは、例えば波長400nm〜700nmの範囲をいう。又、遠赤外光の波長域とは、少なくとも可視光の波長域より長波長の範囲であって、例えば波長8μm程度以上の遠赤外光、テラヘルツ波、ミリ波、マイクロ波などをいい、近赤外光はこの「可視光」と「遠赤外光」との間の波長の範囲をいう。   In addition, the wavelength range of visible light means the range of wavelength 400nm -700nm, for example. Further, the far-infrared light wavelength region is at least a longer wavelength range than the visible light wavelength region, for example, far-infrared light having a wavelength of about 8 μm or more, terahertz wave, millimeter wave, microwave, etc. Near-infrared light refers to the range of wavelengths between this “visible light” and “far-infrared light”.

ここで、4−メチルペンテン重合体とは、以下の化学式(化1)で表されるポリマー樹脂をいう。   Here, the 4-methylpentene polymer refers to a polymer resin represented by the following chemical formula (Formula 1).

本発明の一態様によれば、前記光学素子は、前記撮像素子に入射するように前記第1電磁波と前記第2電磁波とを透過する撮影レンズである事を特徴とする。これにより、撮像素子のカバー部材と兼用できる。   According to an aspect of the present invention, the optical element is a photographic lens that transmits the first electromagnetic wave and the second electromagnetic wave so as to enter the imaging element. Thereby, it can serve as a cover member of an image sensor.

本発明の一態様によれば、前記撮像素子は、入射した前記第1電磁波と前記第2電磁波とを、前記可視光画像成分の電気信号と前記遠赤外画像成分の電気信号とにそれぞれ変換する単一の撮像素子である事を特徴とする。これにより撮像装置が小型化・簡素化される。   According to an aspect of the present invention, the imaging device converts the incident first electromagnetic wave and the second electromagnetic wave into an electric signal of the visible light image component and an electric signal of the far infrared image component, respectively. It is characterized by being a single imaging device. As a result, the imaging apparatus is reduced in size and simplified.

本発明の一態様によれば、前記撮像素子は、入射した前記第1電磁波を前記可視光画像成分の電気信号に変換する第1撮像素子と、入射した前記第2電磁波を前記遠赤外画像成分の電気信号に変換する第2撮像素子とを有する事を特徴とする。可視光画像と遠赤外光画像に特化した撮像素子を用いることで、コストを抑えながらも高画質な画像を形成できる。   According to one aspect of the present invention, the imaging device includes a first imaging device that converts the incident first electromagnetic wave into an electrical signal of the visible light image component, and the incident second electromagnetic wave as the far-infrared image. And a second image sensor for converting the component into an electrical signal. By using an image sensor specialized for visible light images and far-infrared light images, high-quality images can be formed while reducing costs.

本発明の一態様によれば、前記光学素子を透過した前記第1電磁波を反射させる一方、前記第2電磁波を透過する分離光学素子を備え、前記分離光学素子で反射した前記第1電磁波を前記第1撮像素子に入射させる一方、前記分離光学素子で透過した第2電磁波を前記第2撮像素子に入射させる構成であって前記分離光学素子は、メチルペンテンを80重量%以上配合した素材を用いて形成されている事を特徴とする。これにより、可視光と遠赤外光とを切り分けることで、迷光等が発生しにくくなる。   According to an aspect of the present invention, the first electromagnetic wave that has been transmitted through the optical element is reflected, the separation optical element that transmits the second electromagnetic wave is provided, and the first electromagnetic wave that has been reflected by the separation optical element is While making it inject into a 1st image pick-up element, it is the structure which injects into the said 2nd image pick-up element 2nd electromagnetic waves which permeate | transmitted the said separation optical element, Comprising: The said separation optical element uses the raw material which mix | blended methylpentene 80weight% or more. It is characterized by being formed. Thereby, it becomes difficult to generate stray light or the like by separating visible light and far-infrared light.

本発明の一態様によれば、前記光学素子は、メチルペンテンを80重量%以上配合し、且つ飽和吸水率0.3%以下の素材を用いて形成されている事を特徴とする。これにより、車両に搭載した場合に外部から飛散する雨水等に対処できる。   According to an aspect of the present invention, the optical element is formed using a material containing 80% by weight or more of methylpentene and having a saturated water absorption of 0.3% or less. Thereby, when mounted on a vehicle, it is possible to cope with rainwater and the like scattered from the outside.

本発明の一態様によれば、前記撮像素子は、複数の画素がマトリックス状に配列されたイメージセンサ部を備え、前記画素単位で、入射する電磁波から可視光波長領域に対応する複数種類の色要素の内1種類の色要素に対応する波長領域の光と、遠赤外領域に対応する波長領域の光とを分離して各前記色要素に対応した光と遠赤外波長領域の光とを各画素に入射させるカラーフィルタ部を少なくとも含む事を特徴とする。これによりカラー画像を形成できる。   According to an aspect of the present invention, the imaging device includes an image sensor unit in which a plurality of pixels are arranged in a matrix, and a plurality of types of colors corresponding to a visible light wavelength region from an incident electromagnetic wave in the pixel unit. The light of the wavelength region corresponding to one kind of color element and the light of the wavelength region corresponding to the far infrared region are separated, and the light corresponding to each color element and the light of the far infrared wavelength region It is characterized by including at least a color filter part that makes the light incident on each pixel. Thereby, a color image can be formed.

本発明の一態様によれば、前記撮像素子は、複数の画素がマトリックス状に配列された前記第1電磁波を受光する第1イメージセンサ部と、前記画素単位で、入射する電磁波から可視光波長領域に対応する複数種類の色要素の内1種類の色要素に対応する波長領域の光を分離して各前記色要素に対応した光を透過させる第1カラーフィルタ部とを有する第1撮像素子と、前記第1撮像素子から透過する前記第2電磁波が入射する位置に配置され、複数の画素がマトリックス状に配列された前記第2電磁波を受光する第2イメージセンサ部と、前記画素単位で、前記第1撮像素子を透過した前記第2電磁波から遠赤外領域に対応する波長領域の光を各画素に入射させる第2フィルタ部とを有する第2撮像素子と、を有する事を特徴とする。   According to an aspect of the present invention, the imaging element includes a first image sensor unit that receives the first electromagnetic wave in which a plurality of pixels are arranged in a matrix, and a visible light wavelength from the incident electromagnetic wave in the pixel unit. A first image sensor having a first color filter section that separates light in a wavelength region corresponding to one type of color element among a plurality of types of color elements corresponding to the region and transmits light corresponding to each color element A second image sensor unit that receives the second electromagnetic wave, which is arranged at a position where the second electromagnetic wave transmitted from the first imaging element is incident, and in which a plurality of pixels are arranged in a matrix, and for each pixel. And a second image pickup device having a second filter unit for allowing light in a wavelength region corresponding to a far-infrared region from the second electromagnetic wave transmitted through the first image pickup device to be incident on each pixel. To do.

本発明の一態様によれば、前記撮像素子のカラーフィルタ部は、前記画素単位で、入射する電磁波から近赤外領域に対応する波長領域の光を各画素に入射させる部位を更に含む事を特徴とする。   According to an aspect of the present invention, the color filter unit of the image pickup device further includes a portion for allowing light in a wavelength region corresponding to a near infrared region from incident electromagnetic waves to be incident on each pixel in the pixel unit. Features.

本発明の一態様によれば、前記画像処理手段は、前記撮像素子で得られる前記可視光画像成分の電気信号として可視画像に対応する色差信号と第1輝度信号を算出する一方、前記遠赤外画像成分の電気信号として第2輝度信号を算出し、前記色差信号と前記第1輝度信号、前記第2輝度信号とを各画素位置に対応させて合成する事を特徴とする。   According to an aspect of the present invention, the image processing unit calculates a color difference signal and a first luminance signal corresponding to a visible image as an electrical signal of the visible light image component obtained by the imaging device, while the far red A second luminance signal is calculated as an electric signal of the outer image component, and the color difference signal, the first luminance signal, and the second luminance signal are combined in correspondence with each pixel position.

本発明の撮像装置は、
可視光域の第1電磁波を透過する第1撮影レンズと、前記第1撮影レンズとは異なる光軸上に配置され、遠赤外領域の第2電磁波を透過する第2撮影レンズと、
前記第1及び第2撮影レンズに対して物体側に配置されたカバー部材と、
前記第1撮影レンズを透過した前記第1電磁波に基づいて可視光画像成分の電気信号に変換する第1撮像素子と、
前記第2撮影レンズを透過した前記第2電磁波に基づいて遠赤外画像成分の電気信号に変換する前記第1撮像素子とは異なる第2撮像素子と、
前記可視光画像成分の電気信号と前記遠赤外画像成分の電気信号とに基づいて可視画像及び遠赤外画像を生成する画像処理手段とを有する撮像装置であって、
前記カバー部材は、メチルペンテンを80重量%以上配合した素材を少なくとも含む事を特徴とする。
The imaging apparatus of the present invention
A first photographing lens that transmits a first electromagnetic wave in a visible light region; a second photographing lens that is disposed on an optical axis different from the first photographing lens and transmits a second electromagnetic wave in a far infrared region;
A cover member disposed on the object side with respect to the first and second photographing lenses;
A first imaging element that converts an electric signal of a visible light image component based on the first electromagnetic wave transmitted through the first photographing lens;
A second imaging element different from the first imaging element that converts an electric signal of a far-infrared image component based on the second electromagnetic wave transmitted through the second photographing lens;
An image pickup apparatus comprising: an image processing unit that generates a visible image and a far-infrared image based on the electric signal of the visible light image component and the electric signal of the far-infrared image component;
The cover member includes at least a material containing 80% by weight or more of methylpentene.

本発明によれば、電磁波が入射するカバー部材に、日中撮影に適した可視光と夜間撮影に適した遠赤外光を共に良好に透過させる素材を用いて形成される構成であるため、後段の第1,第2撮像素子や当該撮像素子を含む後段の画像処理部での処理により同じ被写体について異なる波長成分の画像を容易に形成することができ、これにより装置全体を小型化しながら、夜間撮影であっても良好なカラー画像を得る事が可能となる。   According to the present invention, the cover member into which electromagnetic waves are incident is a structure formed using a material that transmits both visible light suitable for daytime shooting and far-infrared light suitable for nighttime shooting. Images of different wavelength components can be easily formed with respect to the same subject by processing in the subsequent image processing unit including the first and second imaging elements in the latter stage and the imaging element, thereby reducing the size of the entire apparatus, A good color image can be obtained even at night photography.

本発明の一態様によれば、前記カバー部材は、メチルペンテンを80重量%以上配合し、且つ飽和吸水率0.3%以下の素材を用いて形成されている事を特徴とする。   According to an aspect of the present invention, the cover member is formed using a material containing 80% by weight or more of methylpentene and having a saturated water absorption of 0.3% or less.

本発明の一態様によれば、前記画像処理手段は、前記撮像素子で得られる前記可視光画像成分の電気信号として可視画像に対応する色差信号と第1輝度信号を算出する一方、前記遠赤外画像成分の電気信号として第2輝度信号を算出し、前記色差信号と前記第1輝度信号、前記第2輝度信号とを各画素位置に対応させて合成する事を特徴とする。   According to an aspect of the present invention, the image processing unit calculates a color difference signal and a first luminance signal corresponding to a visible image as an electrical signal of the visible light image component obtained by the imaging device, while the far red A second luminance signal is calculated as an electric signal of the outer image component, and the color difference signal, the first luminance signal, and the second luminance signal are combined in correspondence with each pixel position.

以上の撮像装置を車両に取り付けることにより撮像装置付車両が構成される。   A vehicle with an imaging device is configured by attaching the above imaging device to the vehicle.

本発明の画像取得方法は、
メチルペンテンを80重量%以上配合した素材を用いて形成した光学素子に電磁波を入射させ、当該光学素子を透過した電磁波を撮像素子で可視光域に対応する波長域である第1電磁波に基づく可視光画像成分の電気信号と、遠赤外域に対応する波長域である第2電磁波に基づく遠赤外画像成分の電気信号とに変換し、
変換された前記可視光画像成分の電気信号と前記遠赤外画像成分の電気信号とに基づいて可視画像及び遠赤外画像を生成することを特徴とする。
The image acquisition method of the present invention includes:
An electromagnetic wave is incident on an optical element formed using a material in which 80% by weight or more of methylpentene is blended, and the electromagnetic wave transmitted through the optical element is visible on the imaging element based on the first electromagnetic wave that is a wavelength range corresponding to the visible light range. Converting the electrical signal of the optical image component and the electrical signal of the far-infrared image component based on the second electromagnetic wave in the wavelength range corresponding to the far-infrared region,
A visible image and a far-infrared image are generated based on the converted electric signal of the visible light image component and the electric signal of the far-infrared image component.

本発明によれば、電磁波が入射する光学素子が、日中撮影に適した可視光と夜間撮影に適した遠赤外光を共に良好に透過させる素材を用いて形成されているので、撮像素子からの信号に基づく後段の画像処理により同じ被写体について異なる波長成分の画像を容易に形成することができ、これにより撮像装置全体を小型化しながら、夜間撮影であっても良好なカラー画像を得る事が可能となる。   According to the present invention, the optical element on which the electromagnetic wave is incident is formed by using a material that transmits both visible light suitable for daytime photographing and far infrared light suitable for nighttime photographing. Therefore, it is possible to easily form images of different wavelength components with respect to the same subject by subsequent image processing based on the signal from the signal, thereby obtaining a good color image even at night shooting while downsizing the entire imaging device. Is possible.

本発明によれば、電磁波が入射する光学部材に、日中撮影に適した可視光と夜間撮影に適した遠赤外光を共に良好に透過させる素材を用いて形成される構成であるため、後段の撮像素子や当該撮像素子を含む後段の画像処理部での処理により同じ被写体について異なる波長成分の画像を容易に形成することができ、これにより装置全体を小型化しながら、夜間撮影であっても良好なカラー画像を得る事が可能な撮像装置、撮像装置付車両及び画像形成方法を提供することができる。   According to the present invention, the optical member on which the electromagnetic wave is incident is formed by using a material that transmits both visible light suitable for daytime shooting and far-infrared light suitable for nighttime shooting. By processing in the latter stage image sensor or the latter stage image processing unit including the image sensor, it is possible to easily form images of different wavelength components for the same subject. In addition, it is possible to provide an imaging device, a vehicle with an imaging device, and an image forming method capable of obtaining a good color image.

本実施の形態にかかる撮像装置を搭載した車両の概略図である。It is the schematic of the vehicle carrying the imaging device concerning this Embodiment. 第1の実施の形態にかかる撮像装置10を示すブロック図である。1 is a block diagram illustrating an imaging apparatus 10 according to a first embodiment. フィルタの一例を示す図である。It is a figure which shows an example of a filter. 遠赤外光画像と、可視光画像とをそれぞれ示す図である。It is a figure which shows a far-infrared light image and a visible light image, respectively. 可視光画像に遠赤外光画像を重ね合わせた合成画像の例を示す図である。It is a figure which shows the example of the synthesized image which superimposed the far-infrared light image on the visible light image. 本実施の形態の変形例による撮像素子のフィルタを示す図である。It is a figure which shows the filter of the image pick-up element by the modification of this Embodiment. 別な変形例にかかる撮像素子12’の概略図である。It is the schematic of the image pick-up element 12 'concerning another modification. 第2の実施の形態にかかる撮像装置10’を示すブロック図である。It is a block diagram showing imaging device 10 'concerning a 2nd embodiment. 本実施の形態の撮像装置を用いた画像形成方法を示すフローチャート図である。It is a flowchart figure which shows the image formation method using the imaging device of this Embodiment. 本実施の形態の変形例にかかる概略図である。It is the schematic concerning the modification of this Embodiment. 本実施形態に係る光学素材の分光透過率を示すグラフ。The graph which shows the spectral transmittance of the optical material which concerns on this embodiment. 比較例である素材の分光透過率を示すグラフ。The graph which shows the spectral transmittance of the raw material which is a comparative example.

以下、本発明の実施の形態にかかる撮像装置について説明する。図1は、本実施の形態にかかる撮像装置を搭載した車両の概略図である。図1において、車両VHのフロントグリル付近に撮像装置10が取り付けられており、制御部CONTに画像信号を出力して、モニタMTに表示するようにしている。   Hereinafter, an imaging device according to an embodiment of the present invention will be described. FIG. 1 is a schematic diagram of a vehicle equipped with an imaging apparatus according to the present embodiment. In FIG. 1, an imaging device 10 is mounted near the front grill of a vehicle VH, and an image signal is output to the control unit CONT and displayed on a monitor MT.

図2は、第1の実施の形態にかかる撮像装置10を示すブロック図である。撮像装置10は、可視光及び遠赤外光を透過する光学素子としての撮影レンズ11と、撮影レンズ11を透過した被写体光を受光し、電気信号に変換する撮像素子12と、撮像素子12からの信号を受光する画像処理部13と、撮像装置外部から制御信号を入力し、撮像素子12及び画像処理部13を制御する制御部14とを有している。   FIG. 2 is a block diagram illustrating the imaging apparatus 10 according to the first embodiment. The imaging device 10 includes a photographing lens 11 as an optical element that transmits visible light and far-infrared light, an imaging element 12 that receives subject light that has passed through the photographing lens 11, and converts the subject light into an electrical signal. The image processing unit 13 that receives the above signal and the control unit 14 that inputs a control signal from the outside of the imaging apparatus and controls the imaging element 12 and the image processing unit 13.

撮影レンズ11は、4−メチルペンテン重合体が80重量%以上配合された素材、具体的には85重量%配合され、飽和吸水率が0.3%以下の素材を用いて形成されている。かかる素材は、4−メチルペンテン重合体の数平均分子量(化式1のn)を5万以上に増加させて、水分を入り込みにくくすることで撥水性を維持することで製造できる。またこの素材を撮像レンズ11に対して被写体側に配置され、る、光学素子としてのカバー素子にも同様に用いることで、被写体から反射した可視光と遠赤外光の双方を撮影レンズに対して良好に透過させることができる。   The taking lens 11 is formed using a material in which 4-methylpentene polymer is blended in an amount of 80% by weight or more, specifically, 85% by weight and a material having a saturated water absorption rate of 0.3% or less. Such a material can be produced by maintaining the water repellency by increasing the number average molecular weight (n in Formula 1) of the 4-methylpentene polymer to 50,000 or more and making it difficult for moisture to enter. In addition, this material is disposed on the subject side with respect to the imaging lens 11 and used in the same manner for a cover element as an optical element, so that both visible light and far-infrared light reflected from the subject are directed to the photographing lens. Can be transmitted well.

なお可視光カメラと遠赤外光カメラを、それぞれ異なる光軸上に配置された別の撮影レンズを持つような構成を、上記のようなカバー素子を各撮影レンズに対して被写体側に配置した筐体に組み込んで撮像装置として構成する場合には、カバー素子のみを上記素材で構成すれば良い事は言うまでもない。   The visible light camera and the far-infrared light camera have different photographing lenses arranged on different optical axes, and the cover elements as described above are arranged on the subject side with respect to each photographing lens. Needless to say, when the image pickup apparatus is configured by being incorporated in a housing, only the cover element may be formed of the above material.

このような素材を用いる事により可視光及び遠赤外光の双方を撮像素子12に受光させることが出来、可視光画像と遠赤外光画像とを画像処理にて重ね合わせる際に、画角の違いなどを考慮する必要がなく、短時間で処理を行える。又、撮影レンズ11の飽和吸水率が0.3%以下であるから、雨水が飛散する車両の前方などに設置しても、長期間にわたって安定した透過率を維持できる。   By using such a material, both the visible light and the far-infrared light can be received by the image sensor 12, and when the visible light image and the far-infrared light image are overlapped by image processing, the angle of view. The processing can be performed in a short time without having to consider the difference. Further, since the saturated water absorption rate of the photographing lens 11 is 0.3% or less, a stable transmittance can be maintained over a long period of time even when installed in front of a vehicle where rainwater scatters.

可視光撮影用の撮像素子12は、複数の画素がマトリックス状に配列されたフォトダイオード及びCMOS素子で構成されるイメージセンサ部(図示せず)と、このイメージセンサ部の各画素に、撮影レンズを透過した入射光を所定の1種類の色要素に対応する波長光と、近赤外光と、遠赤外波長とを分離し、分離した光を入射させるフィルター部を有し、イメージセンサ部で出力された画像信号データに基づいて画像データを生成、出力するものである。なおここでのフィルター部の構成としては、図3に示すようにYeフィルタ,Rフィルタ,Wフィルタにて光の三原色(赤色、緑色、青色)R・G・Bの補色フィルタ及び遠赤外光に対応するFIrのいずれかの複数帯域に感度を持つ,FIrフィルタを同一層に配置した一つの単位フィルタ群で構成されたフィルター部で構成されている。   The imaging device 12 for photographing visible light includes an image sensor unit (not shown) composed of a photodiode in which a plurality of pixels are arranged in a matrix and a CMOS device, and a photographing lens for each pixel of the image sensor unit. The image sensor unit has a filter unit that separates the incident light that has passed through the wavelength light corresponding to one predetermined color element, the near-infrared light, and the far-infrared wavelength, and enters the separated light. The image data is generated and output based on the image signal data output in. In addition, as shown in FIG. 3, the filter section here has three primary colors (red, green, blue) of R, G, and B complementary colors and far-infrared light using a Ye filter, R filter, and W filter. The filter unit is composed of a single unit filter group having FIr filters arranged in the same layer and having sensitivity in any of a plurality of bands of FIr corresponding to.

より具体的には、図3の例では、単位フィルタ群において、第1行第1列にRフィルタが配列され、第2行第1列にWフィルタが配列され、第1行第2列にYeフィルタが配列され、第2行第2列にFIrフィルタが配列されている。これらのフィルタにそれぞれ対応した画素を、それぞれR画素、W画素,Ye画素及びFIr画素と呼ぶ。つまり、撮像素子は、複数の画素がマトリックス状に配列されたイメージセンサ部を備え、画素単位で、入射する電磁波から可視光波長領域に対応する複数種類の色要素の内1種類の色要素に対応する波長領域の光と、遠赤外領域に対応する波長領域の光とを分離して各前記色要素に対応した光と遠赤外波長領域の光とを各画素に入射させるカラーフィルタ部を少なくとも含むものである。但し、以上は一例であり、他のパターンでR画素、FIr画素、W画素、及びYe画素を千鳥状に配列してもよい。   More specifically, in the example of FIG. 3, in the unit filter group, an R filter is arranged in the first row and the first column, a W filter is arranged in the second row and the first column, and the first row and the second column are arranged. Ye filters are arranged, and FIr filters are arranged in the second row and the second column. Pixels corresponding to these filters are respectively called R pixel, W pixel, Ye pixel, and FIr pixel. In other words, the imaging device includes an image sensor unit in which a plurality of pixels are arranged in a matrix, and changes from incident electromagnetic waves to one type of color elements corresponding to the visible light wavelength region in units of pixels. A color filter unit that separates light in the corresponding wavelength region and light in the wavelength region corresponding to the far infrared region, and causes light corresponding to each color element and light in the far infrared wavelength region to enter each pixel. Is included at least. However, the above is an example, and the R pixel, the FIr pixel, the W pixel, and the Ye pixel may be arranged in a zigzag pattern in other patterns.

Yeフィルタは、可視波長領域の青色領域を除く前記有感度波長帯域の光を透過する特性を有する。よって、Yeフィルタは主にイエローの光と赤外光とを透過する。Rフィルタは、可視波長領域の青色領域及び緑色領域を除く有感度波長帯域の光を透過する特性を有する。よって、Rフィルタは主に赤の光と赤外光とを透過する。FIrフィルタは、可視波長領域を超えた遠赤外波長帯域の光を透過する特性を有する。Wはフィルタを備えていない場合を示し、画素の有感度波長帯域の光が全て透過される。   The Ye filter has a characteristic of transmitting light in the sensitive wavelength band excluding the blue region of the visible wavelength region. Therefore, the Ye filter mainly transmits yellow light and infrared light. The R filter has a characteristic of transmitting light in a sensitive wavelength band excluding a blue region and a green region in the visible wavelength region. Therefore, the R filter mainly transmits red light and infrared light. The FIr filter has a characteristic of transmitting light in a far-infrared wavelength band exceeding the visible wavelength region. W indicates a case where no filter is provided, and all light in the sensitive wavelength band of the pixel is transmitted.

Ye画素はYeフィルタを備えているため、Yeの可視カラー画像成分である画像成分Ye(原画像成分)および赤外画像成分を撮像する。R画素はRフィルタを備えているため、Rの可視カラー画像成分である画像成分R(原画像成分)および赤外画像成分を撮像する。FIr画素はFIrフィルタを備えているため、遠赤外画像成分である画像成分FIr(原画像成分)を撮像する。W画素はフィルタを備えていないため、可視輝度画像成分と画像成分FIrとを含む輝度画像成分である画像成分W(原画像成分)を撮像する。このように、4つのフィルタは分光透過特性が互いに異なる。   Since the Ye pixel includes a Ye filter, it captures an image component Ye (original image component) and an infrared image component, which are visible color image components of Ye. Since the R pixel includes an R filter, an image component R (original image component) and an infrared image component, which are visible color image components of R, are imaged. Since the FIr pixel includes an FIr filter, an image component FIr (original image component) that is a far-infrared image component is captured. Since the W pixel does not include a filter, an image component W (original image component) that is a luminance image component including a visible luminance image component and an image component FIr is captured. Thus, the four filters have different spectral transmission characteristics.

本実施の形態によれば、単一の撮像素子12のフィルター部の各色要素を透過してYe画素、R画素、W画素、FIr画素により、可視光画像成分Ye、R、Wの信号と、遠赤外光成分FIrの電気信号が得られる。次に画像処理部13が、画像成分Ye,R,FIr,Wに色補間処理を施す。更に、dR=R−FIr、dG=Ye−R、dB=W−Yeの演算を行い、色信号dR、dG、dBを算出することができるから、これにより色空間Y、Cr、Cb(又はR、G、B)を求めて出力し、カラー画像を形成できる。一方、画像成分FIrにより、モノクロの遠赤外画像を形成できる。   According to the present embodiment, the signals of the visible light image components Ye, R, and W are transmitted by the Ye pixel, the R pixel, the W pixel, and the FIr pixel through each color element of the filter unit of the single image sensor 12; An electric signal of the far infrared light component FIr is obtained. Next, the image processing unit 13 performs color interpolation processing on the image components Ye, R, FIr, and W. Further, since the color signals dR, dG, dB can be calculated by calculating dR = R−FIr, dG = Ye−R, and dB = W−Ye, the color spaces Y, Cr, Cb (or R, G, B) can be obtained and output to form a color image. On the other hand, a monochrome far-infrared image can be formed by the image component FIr.

図4(a)は、遠赤外光撮影用の撮像素子2bで夕暮れ時を撮影した画像であり、人物としての被写体HM1,HM2は発熱するので白っぽく写るが、道路や壁面、近年増加している発熱量が少ないLED信号機などは明瞭に写らない。一方、図4(b)は、可視光撮影用の撮像素子2bで同じ被写体を同じタイミングで撮影した画像である。夕暮れ時であるので全体的に被写体輝度が低く、自発光の信号機SGのランプなどは明瞭に写るが、人物HM1,HM2などは明瞭に写らない。   FIG. 4A is an image taken at dusk with the imaging device 2b for far-infrared light photography, and the subjects HM1 and HM2 as people appear white because they generate heat. LED traffic lights with low heat generation are not clearly visible. On the other hand, FIG. 4B is an image obtained by photographing the same subject at the same timing with the imaging element 2b for visible light photography. Since it is dusk, the overall brightness of the subject is low, and the lamp of the self-light-emitting traffic light SG is clearly visible, but the people HM1, HM2, etc. are not clearly visible.

図5は、可視光画像に遠赤外光画像を重ね合わせた場合の合成画像の例を示す図である。図6では、薄暗い夕暮れ時の風景に、白っぽい人物HM1,HM2が浮き上がるように表示されるので、運転者は注意すべき被写体を迅速且つ明瞭に識別できる。   FIG. 5 is a diagram illustrating an example of a composite image when a far-infrared light image is superimposed on a visible light image. In FIG. 6, since the whitish persons HM1 and HM2 are displayed so as to float in the dim sunset scene, the driver can quickly and clearly identify the subject to be noted.

図6は、本実施の形態の変形例による撮像素子のフィルタを示す図である。図6の例では、単位フィルタ群において、第1行第1列にRフィルタが配列され、第2行第1列にWフィルタが配列され、第1行第2列にYeフィルタが配列され、第2行第2列にIrフィルタ又はFIrフィルタが配列されている。Irフィルタは、近赤外帯域を有感度帯域とするものであり、FIrフィルタと交互に配列されている。これらフィルター部のそれぞれ対応した画素を、それぞれR画素、W画素,Ye画素及びIr画素又はFIr画素と呼ぶ。   FIG. 6 is a diagram illustrating a filter of an image sensor according to a modification of the present embodiment. In the example of FIG. 6, in the unit filter group, an R filter is arranged in the first row and the first column, a W filter is arranged in the second row and the first column, and a Ye filter is arranged in the first row and the second column, Ir filters or FIr filters are arranged in the second row and the second column. The Ir filter uses the near-infrared band as a sensitive band, and is arranged alternately with the FIr filter. The corresponding pixels of these filter units are called R pixels, W pixels, Ye pixels, Ir pixels, or FIr pixels, respectively.

本変形例では、dR=R−Ir、dG=Ye−R、dB=W−Yeの演算を行い、色信号dR、dG、dBを算出することができる。それ以外は、上述した実施の形態と同様である。   In this modification, it is possible to calculate color signals dR, dG, and dB by calculating dR = R−Ir, dG = Ye−R, and dB = W−Ye. Other than that, it is the same as the embodiment described above.

図7(a)は、別な変形例にかかる撮像素子12’の概略図である。本変形例では、撮像素子12’が、第1のの撮像素子12a’と第2の撮像素子12b’を光軸方向に重ねて配置している。より具体的には、1つ目のイメージセンサ部のセンサ面12a’は、可視光を受光するセンサ面であり、その前面(物体側面)には図7(b)に示すように、R・G・B・Irいずれかの複数帯域に感度を持つ,フィルタを採用している。一方、2つ目のイメージセンサ部のセンサ面12b’は、第1の撮像素子12a’を透過した遠赤外光を受光するセンサ面であり、図7(c)に示すように、その前面には遠赤外帯域に感度を持つFIrフィルタを採用している。上述したように、センサ面12a’からカラー画像用の信号を取得でき、センサ面12b’から遠赤外光画像用の信号を取得できる。   FIG. 7A is a schematic diagram of an image sensor 12 ′ according to another modification. In the present modification, the image pickup device 12 ′ is arranged such that the first image pickup device 12 a ′ and the second image pickup device 12 b ′ are overlapped in the optical axis direction. More specifically, the sensor surface 12a ′ of the first image sensor unit is a sensor surface that receives visible light, and on the front surface (object side surface), as shown in FIG. A filter having sensitivity in a plurality of bands of G, B, and Ir is employed. On the other hand, the sensor surface 12b ′ of the second image sensor unit is a sensor surface that receives far-infrared light transmitted through the first image sensor 12a ′, and as shown in FIG. Employs a FIr filter having sensitivity in the far-infrared band. As described above, a color image signal can be acquired from the sensor surface 12a ', and a far infrared light image signal can be acquired from the sensor surface 12b'.

このように複数の撮像素子を重ねて配置する構成は、図3や図6のように撮像素子構成がフィルター部で分離した可視光の各色要素の光及び遠赤外光が共通のイメージセンサ部で受光するように構成であるため各画素に対応する受光部で精度良く光を受光するよう製造するのにやや困難を伴うのに比べて、可視光と遠赤外光のセンサ面を別々に構成するため、前述したような製造上の負荷を軽減し、精度良い撮像素子を構成できる、というメリットがある。   The configuration in which a plurality of image pickup devices are arranged in this manner is an image sensor unit in which the light of each color element of visible light and the far infrared light, which are separated from each other by the filter unit as shown in FIGS. Because it is configured to receive light with a light receiving unit corresponding to each pixel, it is somewhat difficult to manufacture so that light is received with high accuracy. Therefore, there is an advantage that the manufacturing load as described above can be reduced and an accurate image sensor can be configured.

図8は、第2の実施の形態にかかる撮像装置10’を示すブロック図である。撮像装置10’は、可視光を透過するレンズ11と、レンズ11を透過した可視光を受光する第1カラーフィルタ部及びセンサ面(第1イメージセンサ部)を有する第1撮像素子12Aと、撮像素子12Aと併設され(双方のセンサ面がレンズ11の結像位置にあり)、レンズ12を透過した遠赤外光を受光する第2フィルタ及びセンサ面(第2イメージセンサ部)を有する第2撮像素子12Bと、撮像素子12A、12Bからの信号を受光する画像処理部12と、外部から制御信号を入力し、撮像素子12及び画像処理部13を制御する制御部14とを有している。尚、一点鎖線で示すように、レンズ11の物体側に、4−メチルペンテン重合体が85重量%配合され、飽和吸水率が0.3%以下の素材を用いて形成されたカバー部材CVを設けることもできる。この場合、カバー部材CVと第1撮像素子12Aとの間には、可視光を透過する第1撮影レンズを設け、カバー部材CVと第2撮像素子12Bとの間には、遠赤外光を透過する第2撮影レンズを設けることが望ましい。   FIG. 8 is a block diagram illustrating an imaging apparatus 10 ′ according to the second embodiment. The imaging device 10 ′ includes a lens 11 that transmits visible light, a first image sensor 12A that includes a first color filter unit and a sensor surface (first image sensor unit) that receive visible light that has transmitted through the lens 11, and imaging. A second filter having a second filter and a sensor surface (second image sensor unit) that receive the far-infrared light that passes through the lens 12 and is provided with the element 12A (both sensor surfaces are at the imaging position of the lens 11). The image sensor 12B, an image processor 12 that receives signals from the image sensors 12A and 12B, and a controller 14 that receives a control signal from the outside and controls the image sensor 12 and the image processor 13 are provided. . As shown by the one-dot chain line, a cover member CV formed by using a material having 85% by weight of 4-methylpentene polymer on the object side of the lens 11 and a saturated water absorption of 0.3% or less. It can also be provided. In this case, a first photographing lens that transmits visible light is provided between the cover member CV and the first image sensor 12A, and far-infrared light is transmitted between the cover member CV and the second image sensor 12B. It is desirable to provide a second photographic lens that transmits light.

第1撮像素子12Aの第1カラーフィルタ部は、図7(b)に示すものと同様に、その単位フィルタ群において、第1行第1列にRフィルタが配列され、第2行第1列にWフィルタが配列され、第1行第2列にYeフィルタが配列され、第2行第2列にIrフィルタが配列されている。第2撮像素子12Bの第2フィルタ部は、図7(c)に示すものと同様にFIrフィルタのみである。   The first color filter section of the first image sensor 12A is similar to that shown in FIG. 7B, in the unit filter group, R filters are arranged in the first row and first column, and the second row and first column. W filters are arranged, Ye filters are arranged in the first row and second column, and Ir filters are arranged in the second row and second column. The second filter section of the second image sensor 12B is only the FIr filter, similar to that shown in FIG.

レンズ11は、4−メチルペンテン重合体が85重量%配合され、飽和吸水率が0.3%以下の素材を用いて形成されている。   The lens 11 is formed using a material containing 85% by weight of 4-methylpentene polymer and a saturated water absorption of 0.3% or less.

次に、本実施の形態の撮像装置を用いた画像取得方法を、図9を参照して説明する。まず、レンズ11を通過した被写体光を、補色フィルタを用いた撮像素子12Aのセンサ面に結像させて、1フレームの原画像データを撮像させる。これにより、画像成分Ye、R、Ir、Wが得られる(ステップS1)。   Next, an image acquisition method using the imaging apparatus of the present embodiment will be described with reference to FIG. First, the subject light that has passed through the lens 11 is imaged on the sensor surface of the image sensor 12A using a complementary color filter to capture one frame of original image data. Thereby, image components Ye, R, Ir, and W are obtained (step S1).

ここで、撮像素子12Aは、Ye画素により画像成分Yeを撮像し、R画素により画像成分Rを撮像し、Ir画素により画像成分Irを撮像し、W画素により画像成分Wを撮像し、色補間処理を行う。   Here, the imaging element 12A images the image component Ye by the Ye pixel, images the image component R by the R pixel, images the image component Ir by the Ir pixel, images the image component W by the W pixel, and performs color interpolation. Process.

次に、画像成分Ye,R,Ir,Wに色補間処理を施す。更に、dR=R−Ir、dG=Ye−R、dB=W−Yeの演算を行い色信号dR、dG、dBを算出する(色分離処理:ステップS2)。   Next, color interpolation processing is performed on the image components Ye, R, Ir, and W. Further, calculation of dR = R−Ir, dG = Ye−R, and dB = W−Ye is performed to calculate color signals dR, dG, and dB (color separation processing: step S2).

次に、レンズ11の可視光吸収率による低下分を補うべく、補間ゲイン処理を行う(ステップS3)。更に、Y=0.3dR+0.59dG+0.11dB、Cb=dB−Y、Cr=dR−Yの演算を行い、輝度信号(第1輝度信号)Y、色差信号Cr,Cbを算出し、可視光画像成分の電気信号を得る(ステップS4)。このとき、色差信号Cr、Cbにスムージング処理を行っても良い。ここで,スムージング処理としては、例えば、5×5等の比較的小サイズのローパスフィルタを用いて繰り返し処理し、色差信号Cb、Crを多重解像度化するフィルタ処理であるカスケードフィルタ処理を採用してもよい。また、比較的サイズの大きな所定サイズのローパスフィルタを用いたフィルタ処理を採用してもよい。   Next, interpolation gain processing is performed in order to compensate for the decrease due to the visible light absorption rate of the lens 11 (step S3). Further, Y = 0.3 dR + 0.59 dG + 0.11 dB, Cb = dB−Y, Cr = dR−Y are calculated to calculate a luminance signal (first luminance signal) Y and color difference signals Cr and Cb, and a visible light image A component electrical signal is obtained (step S4). At this time, the color difference signals Cr and Cb may be smoothed. Here, as the smoothing process, for example, a cascade filter process, which is a filter process that multi-resolutions the color difference signals Cb and Cr by repeatedly using a relatively small size low-pass filter such as 5 × 5, is adopted. Also good. Further, a filter process using a low-pass filter of a predetermined size having a relatively large size may be employed.

また、発光する被写体に対してはぼけることなく、エッジ以外の領域を平滑化するエッジ保存フィルタ(画素間の信号レベル差がある基準値より小さい場合いに平滑化し、基準値より大きい部分は平滑化しないフィルタ)処理を採用してもよい。なお、発光していることを検出するのは、赤外成分と可視光成分とを比較することにより推測できる。   Also, an edge-preserving filter that smoothes areas other than edges without blurring the subject that emits light (smoothing when the signal level difference between pixels is smaller than a certain reference value, and smoothing the part larger than the reference value Filter) processing that does not enable conversion may be employed. Note that it can be estimated that light emission is detected by comparing an infrared component and a visible light component.

このように、色差信号Cb,Crにスムージング処理を行うことで、色差信号Cb、Crに含まれるノイズ成分がぼかされ、色差信号Cb、CrのS/N比を向上させることができる。   As described above, by performing the smoothing process on the color difference signals Cb and Cr, the noise components included in the color difference signals Cb and Cr are blurred, and the S / N ratio of the color difference signals Cb and Cr can be improved.

一方、撮像素子12Aと同期して、レンズ11を通過した被写体光を、撮像素子12Bのセンサ面に結像させて、1フレームの原画像データを撮像させる(ステップS5)。これにより、遠赤外成分のみを含む画像成分FIrの電気信号が得られる。   On the other hand, in synchronization with the image pickup device 12A, the subject light that has passed through the lens 11 is imaged on the sensor surface of the image pickup device 12B, and one frame of original image data is picked up (step S5). Thereby, an electric signal of the image component FIr including only the far infrared component is obtained.

その後、以下の式に基づいてゲイン設定値を求め、ゲイン設定値を上記画像成分FIrに掛け合わせて遠赤外光の輝度信号(第2輝度信号)Y’を算出する(ステップS6)。本発明者らの検討結果によれば、波長帯域が8〜14μmの範囲で、2〜10%の遠赤外光の減衰が確認されたので、これを補うべくゲイン設定値を、例えば1.1とする。尚、昼間時はゲイン設定値を0とするのが好ましい。
ゲイン設定値=1/(撮像素子が所定の感度を持つ波長域における透過率T×撮像素子の分光感度)S
Thereafter, a gain setting value is obtained based on the following formula, and the gain setting value is multiplied by the image component FIr to calculate a far infrared light luminance signal (second luminance signal) Y ′ (step S6). According to the examination results of the present inventors, since the attenuation of far-infrared light of 2 to 10% was confirmed in the wavelength band of 8 to 14 μm, the gain setting value is set to, for example, 1. Set to 1. It should be noted that the gain setting value is preferably 0 during the daytime.
Gain setting value = 1 / (Transmittance T in the wavelength region where the image sensor has a predetermined sensitivity x Spectral sensitivity of the image sensor) S

次に、撮像素子12Aの画像情報から求めた可視光の輝度信号Yと、撮像素子12Bの画像情報から求めた遠赤外光の輝度信号Y’とを足し合わせて、合成輝度信号Yc(=Y+Y’)を得る(ステップS7)。   Next, the luminance signal Y of visible light obtained from the image information of the image pickup device 12A and the luminance signal Y ′ of far infrared light obtained from the image information of the image pickup device 12B are added together to obtain a combined luminance signal Yc (= Y + Y ′) is obtained (step S7).

次に、Crm=Crs×Yc、Cbm=Cbs×Ycとして、色差信号Crm、Cbmを算出し、更にステップS2の逆変換を実行することで、輝度信号Yc、色差信号Crm、Cbmから色信号dR´、dG´、dB´を算出できるので、これを可視画像として外部の制御装置CONTに出力する。これと並行して、遠赤外光の輝度信号Y’を遠赤外画像として外部の制御装置CONTに出力する(ステップS8)。制御装置CONTは、2つの画像を重ね合わせて、1つの画像情報を形成する。このとき、同じ画素座標の信号値を単純に平均化すればよい。得られた画像情報は、モニタMTに出力されて画像が表示される。以上で、フローが終了する。尚、以上の画像処理は上述の実施の形態にも適用できる。   Next, the color difference signals Crm and Cbm are calculated as Crm = Crs × Yc and Cbm = Cbs × Yc, and further the inverse conversion of step S2 is executed, whereby the color signal dR is obtained from the luminance signal Yc and the color difference signals Crm and Cbm. Since ', dG' and dB 'can be calculated, these are output as a visible image to the external control device CONT. In parallel with this, the far-infrared light luminance signal Y 'is output as a far-infrared image to the external control device CONT (step S8). The control device CONT superimposes two images to form one image information. At this time, the signal values of the same pixel coordinates may be simply averaged. The obtained image information is output to the monitor MT and an image is displayed. This is the end of the flow. The image processing described above can also be applied to the above-described embodiment.

本実施の形態によれば、可視光用の撮像素子12Aと、遠赤外光用の撮像素子12Bとを略同じ位置に配置することで、各々が撮影した被写体の位置が画面上で重なるので、得られた画像情報を単純に重ね合わせることができる。これにより、夜間撮影でありながら遠赤外情報にカラー情報を盛り込んだ画像を得ることもできる。   According to the present embodiment, by arranging the image sensor 12A for visible light and the image sensor 12B for far-infrared light at substantially the same position, the positions of the subjects photographed by each overlap on the screen. The obtained image information can be simply superimposed. Thereby, it is also possible to obtain an image in which color information is included in far-infrared information while shooting at night.

図10は、本実施の形態の変形例にかかる概略図である。本変形例では、上述と同様のレンズ11と、撮像素子12A及び撮像素子12Bの間に、分離光学素子であるダイクロイックミラー16を配置している。ダイクロイックミラー16は、4−メチルペンテン重合体が85重量%配合され、飽和吸水率が0.3%以下の素材を用いて形成されており、可視光については反射し、遠赤外光については透過する選択性反射膜16aを設けている。よって、レンズ11を透過した光のうち、可視光については、ダイクロイックミラー16の選択性反射膜16aで反射されて、撮像素子12Aに向かい、遠赤外光については、ダイクロイックミラー16の選択性反射膜16aを透過して、撮像素子12Bに向かうようになっている。それ以外の構成は、上述した実施の形態と同様である。尚、ダイクロイックミラー16は、上述の素材を用いる代わりに、遠赤外光を透過する素材を用いても良い。   FIG. 10 is a schematic diagram according to a modification of the present embodiment. In this modification, a dichroic mirror 16 that is a separation optical element is disposed between the lens 11 similar to that described above, and the imaging element 12A and the imaging element 12B. The dichroic mirror 16 is formed by using a material having 85% by weight of 4-methylpentene polymer and a saturated water absorption of 0.3% or less, reflecting visible light, and far infrared light. A selective reflection film 16a that transmits the light is provided. Therefore, of the light transmitted through the lens 11, visible light is reflected by the selective reflection film 16a of the dichroic mirror 16 and travels toward the image sensor 12A, and far-infrared light is selectively reflected by the dichroic mirror 16. The light passes through the film 16a and travels toward the image sensor 12B. Other configurations are the same as those of the above-described embodiment. The dichroic mirror 16 may use a material that transmits far-infrared light instead of using the above-described material.

尚、以上の実施の形態において、フィルタ構成は例示であって任意であり、例えば可視光撮影用にRGBのフィルタを用いることもできる。   In the above embodiment, the filter configuration is illustrative and arbitrary, and for example, RGB filters can be used for visible light imaging.

図11は、4−メチルペンテン重合体が85重量%配合され、飽和吸水率が0.3%以下の素材の実施例にかかる、分光透過率を示すグラフである。図12は、比較例として従来の素材の一例にかかる、分光透過率を示すグラフである。なお、比較例はポリカーボネートであり、赤外透過の測定は、日本分光社製 FTIR フーリエ変換赤外分光光度計 FT/IR-6200を用いて測定した。   FIG. 11 is a graph showing the spectral transmittance according to an example of a material containing 85% by weight of 4-methylpentene polymer and a saturated water absorption of 0.3% or less. FIG. 12 is a graph showing the spectral transmittance according to an example of a conventional material as a comparative example. The comparative example was polycarbonate, and infrared transmission was measured using an FTIR Fourier transform infrared spectrophotometer FT / IR-6200 manufactured by JASCO Corporation.

図11に示すように、本実施例は、赤外領域(700nm〜)において、800〜2500nm、好ましくは900-1400nmにおいて、ほぼ90%以上の透過率を実現している事がわかる。本材料が可視光域で90%以上の高い透過率を有する事は既に公知であるから、本発明のような可視光域から遠赤外領域の広い波長域に亘って高い透過率を持つ事が望まれる撮像装置に本素材を用いる事により前述したような小型で良好な画像を持つ撮像装置を提供する事ができる。
なおこれに対して比較例として挙げている図12に示すように、ポリカーボネートでは、800nm以上で透過率が減少していることがわかる。
As shown in FIG. 11, it can be seen that this example achieves a transmittance of approximately 90% or more in the infrared region (700 nm to 800 nm) in the range of 800 to 2500 nm, preferably 900 to 1400 nm. Since it is already known that this material has a high transmittance of 90% or more in the visible light region, it has a high transmittance over a wide wavelength region from the visible light region to the far infrared region as in the present invention. By using this material for an imaging device that is desired, an imaging device having a small and good image as described above can be provided.
On the other hand, as shown in FIG. 12, which is cited as a comparative example, it is understood that the transmittance of polycarbonate is reduced at 800 nm or more.

本発明は、例えば車載カメラやロボット搭載カメラ等に特に有効であるが、用途はそれに限られない。   The present invention is particularly effective for an in-vehicle camera or a robot-mounted camera, for example, but the application is not limited thereto.

10、10’ 撮像装置
11 レンズ
12、12’ 撮像素子
12A 撮像素子
12B 撮像素子
12a’ センサ面
12b’ センサ面
13 画像処理部
14 制御部
16 ダイクロイックミラー
16a 選択性反射膜
MT モニタ
CONT 制御部
VH 車両
DESCRIPTION OF SYMBOLS 10, 10 'Image pick-up device 11 Lens 12, 12' Image pick-up element 12A Image pick-up element 12B Image pick-up element 12a 'Sensor surface 12b' Sensor surface 13 Image processing part 14 Control part 16 Dichroic mirror 16a Selective reflection film MT Monitor CONT Control part VH Vehicle

Claims (15)

電磁波が入射する光学素子と、
前記光学素子を透過した電磁波の内、可視光域に対応する波長域である第1電磁波に基づく可視光画像成分の電気信号と、遠赤外域に対応する波長域である第2電磁波に基づく遠赤外画像成分の電気信号とに変換する撮像素子と、
前記可視光画像成分の電気信号と前記遠赤外画像成分の電気信号とに基づいて可視画像及び遠赤外画像を生成する画像処理手段とを有する撮像装置であって、
前記光学素子は、メチルペンテンを80重量%以上配合した素材を用いて形成されている事を特徴とする撮像装置。
An optical element on which electromagnetic waves are incident;
Among the electromagnetic waves transmitted through the optical element, an electric signal of a visible light image component based on a first electromagnetic wave that is a wavelength region corresponding to a visible light region and a far electromagnetic wave based on a second electromagnetic wave that is a wavelength region corresponding to a far infrared region. An image sensor for converting into an infrared image component electrical signal;
An image pickup apparatus comprising: an image processing unit that generates a visible image and a far-infrared image based on the electric signal of the visible light image component and the electric signal of the far-infrared image component;
The optical device is formed using a material in which 80% by weight or more of methylpentene is blended.
前記光学素子は、前記撮像素子に入射するように前記第1電磁波と前記第2電磁波とを透過する撮影レンズである事を特徴とする請求項1記載の撮像装置。   The imaging device according to claim 1, wherein the optical element is a photographic lens that transmits the first electromagnetic wave and the second electromagnetic wave so as to enter the imaging element. 前記撮像素子は、入射した前記第1電磁波と前記第2電磁波とを、前記可視光画像成分の電気信号と前記遠赤外画像成分の電気信号とにそれぞれ変換する単一の撮像素子である事を特徴とする請求項1又は2記載の撮像装置。   The imaging device is a single imaging device that converts the incident first electromagnetic wave and second electromagnetic wave into an electric signal of the visible light image component and an electric signal of the far-infrared image component, respectively. The imaging apparatus according to claim 1, wherein: 前記撮像素子は、入射した前記第1電磁波を前記可視光画像成分の電気信号に変換する第1撮像素子と、入射した前記第2電磁波を前記遠赤外画像成分の電気信号に変換する第2撮像素子とを有する事を特徴とする請求項1又は2記載の撮像装置。   The image pickup device converts the incident first electromagnetic wave into an electric signal of the visible light image component and a second image pickup device that converts the incident second electromagnetic wave into an electric signal of the far-infrared image component. The imaging apparatus according to claim 1, further comprising an imaging element. 前記光学素子を透過した前記第1電磁波を反射させる一方、前記第2電磁波を透過する分離光学素子を備え、前記分離光学素子で反射した前記第1電磁波を前記第1撮像素子に入射させる一方、前記分離光学素子で透過した第2電磁波を前記第2撮像素子に入射させる構成であって
前記分離光学素子は、メチルペンテンを80重量%以上配合した素材を用いて形成されている事を特徴とする請求項4記載の撮像装置。
While including the separation optical element that transmits the second electromagnetic wave while reflecting the first electromagnetic wave transmitted through the optical element, the first electromagnetic wave reflected by the separation optical element is incident on the first imaging element, A structure in which the second electromagnetic wave transmitted through the separation optical element is incident on the second imaging element, wherein the separation optical element is formed using a material containing 80% by weight or more of methylpentene. The imaging device according to claim 4.
前記光学素子は、メチルペンテンを80重量%以上配合し、且つ飽和吸水率0.3%以下の素材を用いて形成されている事を特徴とする請求項1〜5のいずれか一つに記載の撮像装置。   The said optical element is formed using the raw material which mix | blends 80 weight% or more of methyl pentene, and is 0.3% or less of saturated water absorption, It is characterized by the above-mentioned. Imaging device. 前記撮像素子は、複数の画素がマトリックス状に配列されたイメージセンサ部を備え、前記画素単位で、入射する電磁波から可視光波長領域に対応する複数種類の色要素の内1種類の色要素に対応する波長領域の光と、遠赤外領域に対応する波長領域の光とを分離して各前記色要素に対応した光と遠赤外波長領域の光とを各画素に入射させるカラーフィルタ部を少なくとも含む事を特徴とする請求項3記載の撮像装置。   The image pickup device includes an image sensor unit in which a plurality of pixels are arranged in a matrix, and is converted into one type of color elements from a plurality of types of color elements corresponding to a visible light wavelength region from an incident electromagnetic wave in units of pixels. A color filter unit that separates light in the corresponding wavelength region and light in the wavelength region corresponding to the far infrared region, and causes light corresponding to each color element and light in the far infrared wavelength region to enter each pixel. The imaging apparatus according to claim 3, comprising at least 前記撮像素子は、複数の画素がマトリックス状に配列された前記第1電磁波を受光する第1イメージセンサ部と、前記画素単位で、入射する電磁波から可視光波長領域に対応する複数種類の色要素の内1種類の色要素に対応する波長領域の光を分離して各前記色要素に対応した光を透過させる第1カラーフィルタ部とを有する第1撮像素子と、
前記第1撮像素子から透過する前記第2電磁波が入射する位置に配置され、複数の画素がマトリックス状に配列された前記第2電磁波を受光する第2イメージセンサ部と、前記画素単位で、前記第1撮像素子を透過した前記第2電磁波から遠赤外領域に対応する波長領域の光を各画素に入射させる第2フィルタ部とを有する第2撮像素子と、
を有する事を特徴とする請求項3記載の撮像装置。
The imaging element includes a first image sensor unit that receives the first electromagnetic wave in which a plurality of pixels are arranged in a matrix, and a plurality of types of color elements corresponding to a visible light wavelength region from the incident electromagnetic wave in the pixel unit. A first image sensor having a first color filter section that separates light in a wavelength region corresponding to one type of color element and transmits light corresponding to each color element;
A second image sensor unit configured to receive the second electromagnetic wave, wherein the second electromagnetic wave is disposed at a position where the second electromagnetic wave transmitted from the first imaging element is incident, and a plurality of pixels are arranged in a matrix; A second imaging element having a second filter unit that causes light in a wavelength region corresponding to a far-infrared region from the second electromagnetic wave transmitted through the first imaging device to enter each pixel;
The imaging apparatus according to claim 3, further comprising:
前記撮像素子のカラーフィルタ部は、前記画素単位で、入射する電磁波から近赤外領域に対応する波長領域の光を各画素に入射させる部位を更に含む事を特徴とする請求項7記載の撮像装置。   8. The imaging according to claim 7, wherein the color filter unit of the imaging device further includes a part for allowing light in a wavelength region corresponding to a near infrared region from incident electromagnetic waves to be incident on each pixel in the pixel unit. apparatus. 前記画像処理手段は、前記撮像素子で得られる前記可視光画像成分の電気信号として可視画像に対応する色差信号と第1輝度信号を算出する一方、前記遠赤外画像成分の電気信号として第2輝度信号を算出し、前記色差信号と前記第1輝度信号、前記第2輝度信号とを各画素位置に対応させて合成する事を特徴とする請求項1〜9のいずれか一つに記載の撮像装置。   The image processing means calculates a color difference signal and a first luminance signal corresponding to a visible image as an electric signal of the visible light image component obtained by the imaging device, and a second as an electric signal of the far infrared image component. The luminance signal is calculated, and the color difference signal, the first luminance signal, and the second luminance signal are synthesized in correspondence with each pixel position. Imaging device. 可視光域の第1電磁波を透過する第1撮影レンズと、前記第1撮影レンズとは異なる光軸上に配置され、遠赤外領域の第2電磁波を透過する第2撮影レンズと、
前記第1及び第2撮影レンズに対して物体側に配置されたカバー部材と、
前記第1撮影レンズを透過した前記第1電磁波に基づいて可視光画像成分の電気信号に変換する第1撮像素子と、
前記第2撮影レンズを透過した前記第2電磁波に基づいて遠赤外画像成分の電気信号に変換する前記第1撮像素子とは異なる第2撮像素子と、
前記可視光画像成分の電気信号と前記遠赤外画像成分の電気信号とに基づいて可視画像及び遠赤外画像を生成する画像処理手段とを有する撮像装置であって、
前記カバー部材は、メチルペンテンを80重量%以上配合した素材を少なくとも含む事を特徴とする撮像装置。
A first photographing lens that transmits a first electromagnetic wave in a visible light region; a second photographing lens that is disposed on an optical axis different from the first photographing lens and transmits a second electromagnetic wave in a far infrared region;
A cover member disposed on the object side with respect to the first and second photographing lenses;
A first imaging element that converts an electric signal of a visible light image component based on the first electromagnetic wave transmitted through the first photographing lens;
A second imaging element different from the first imaging element that converts an electric signal of a far-infrared image component based on the second electromagnetic wave transmitted through the second photographing lens;
An image pickup apparatus comprising: an image processing unit that generates a visible image and a far-infrared image based on the electric signal of the visible light image component and the electric signal of the far-infrared image component;
The image pickup apparatus, wherein the cover member includes at least a material containing 80% by weight or more of methylpentene.
前記カバー部材は、メチルペンテンを80重量%以上配合し、且つ飽和吸水率0.3%以下の素材を用いて形成されている事を特徴とする請求項11記載の撮像装置。   12. The imaging apparatus according to claim 11, wherein the cover member is formed using a material containing 80% by weight or more of methylpentene and a saturated water absorption of 0.3% or less. 前記画像処理手段は、前記撮像素子で得られる前記可視光画像成分の電気信号として可視画像に対応する色差信号と第1輝度信号を算出する一方、前記遠赤外画像成分の電気信号として第2輝度信号を算出し、前記色差信号と前記第1輝度信号、前記第2輝度信号とを各画素位置に対応させて合成する事を特徴とする請求項11又は12に記載の撮像装置。   The image processing means calculates a color difference signal and a first luminance signal corresponding to a visible image as an electric signal of the visible light image component obtained by the imaging device, and a second as an electric signal of the far infrared image component. The imaging apparatus according to claim 11 or 12, wherein a luminance signal is calculated, and the color difference signal, the first luminance signal, and the second luminance signal are combined in correspondence with each pixel position. 請求項1〜13のいずれかに記載の撮像装置を車両に取り付けたことを特徴とする撮像装置付車両。   A vehicle with an imaging device, wherein the imaging device according to any one of claims 1 to 13 is attached to the vehicle. メチルペンテンを80重量%以上配合した素材を用いて形成した光学素子に電磁波を入射させ、当該光学素子を透過した電磁波を撮像素子で可視光域に対応する波長域である第1電磁波に基づく可視光画像成分の電気信号と、遠赤外域に対応する波長域である第2電磁波に基づく遠赤外画像成分の電気信号とに変換し、
変換された前記可視光画像成分の電気信号と前記遠赤外画像成分の電気信号とに基づいて可視画像及び遠赤外画像を生成することを特徴とする画像形成方法。
An electromagnetic wave is incident on an optical element formed using a material in which 80% by weight or more of methylpentene is blended, and the electromagnetic wave transmitted through the optical element is visible on the imaging element based on the first electromagnetic wave that is a wavelength range corresponding to the visible light range. Converting the electrical signal of the optical image component and the electrical signal of the far-infrared image component based on the second electromagnetic wave in the wavelength range corresponding to the far-infrared region,
An image forming method, wherein a visible image and a far infrared image are generated based on the converted electrical signal of the visible light image component and the electrical signal of the far infrared image component.
JP2011136955A 2011-06-21 2011-06-21 Imaging device for visible light and far-infrared light, vehicle imaging device including imaging device, and image forming method Withdrawn JP2013003482A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011136955A JP2013003482A (en) 2011-06-21 2011-06-21 Imaging device for visible light and far-infrared light, vehicle imaging device including imaging device, and image forming method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011136955A JP2013003482A (en) 2011-06-21 2011-06-21 Imaging device for visible light and far-infrared light, vehicle imaging device including imaging device, and image forming method

Publications (1)

Publication Number Publication Date
JP2013003482A true JP2013003482A (en) 2013-01-07

Family

ID=47672091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011136955A Withdrawn JP2013003482A (en) 2011-06-21 2011-06-21 Imaging device for visible light and far-infrared light, vehicle imaging device including imaging device, and image forming method

Country Status (1)

Country Link
JP (1) JP2013003482A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016021312A1 (en) * 2014-08-08 2016-02-11 ソニー株式会社 Image capturing device and image capturing element
WO2020026115A1 (en) * 2018-07-31 2020-02-06 3M Innovative Properties Company Vehicle assistance systems

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016021312A1 (en) * 2014-08-08 2016-02-11 ソニー株式会社 Image capturing device and image capturing element
US10491791B2 (en) 2014-08-08 2019-11-26 Sony Corporation Imaging apparatus and image sensor
WO2020026115A1 (en) * 2018-07-31 2020-02-06 3M Innovative Properties Company Vehicle assistance systems
CN112840633A (en) * 2018-07-31 2021-05-25 3M创新有限公司 Vehicle assistance system
US20210168269A1 (en) * 2018-07-31 2021-06-03 3M Innovative Properties Company Vehicle assistance systems
EP3831048A4 (en) * 2018-07-31 2022-05-04 3M Innovative Properties Company Vehicle assistance systems

Similar Documents

Publication Publication Date Title
US8018509B2 (en) Image input processing apparatus and method
JP5259381B2 (en) Imaging apparatus and imaging method
JP4346634B2 (en) Target detection device
WO2012067028A1 (en) Image input device and image processing device
US10132971B2 (en) Vehicle camera with multiple spectral filters
US8411176B2 (en) Image input device
US20160119527A1 (en) Vehicle vision system camera with dual filter
WO2019082462A1 (en) Image processing device, image processing method, and imaging device
WO2016162983A1 (en) Vehicle-mounted camera
JP4363207B2 (en) Image processing method, image processing system, and image processing apparatus
CN110493493B (en) Panoramic detail camera and method for acquiring image signal
US20070272837A1 (en) Vehicle occupant detection device
JP2013003482A (en) Imaging device for visible light and far-infrared light, vehicle imaging device including imaging device, and image forming method
US20230140768A1 (en) Imaging element and electronic apparatus
US20230188859A1 (en) Image capturing apparatus
JP2012010141A (en) Image processing apparatus
JP2010276469A (en) Image processor and image processing method of ranging apparatus
JP2012008845A (en) Image processor
Kidono et al. Visibility estimation under night-time conditions using a multiband camera
JP6655504B2 (en) Image processing apparatus, image processing system, moving object, and image processing method
CN108024035B (en) Image forming apparatus and method
JP6260512B2 (en) Imaging apparatus, imaging method, and imaging program
JP2012015834A (en) Imaging device
JP7496183B2 (en) Imaging device
JP2022179259A (en) Light flux separation optical system and image processing apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130415

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902