JP2017118283A - Camera system - Google Patents

Camera system Download PDF

Info

Publication number
JP2017118283A
JP2017118283A JP2015250782A JP2015250782A JP2017118283A JP 2017118283 A JP2017118283 A JP 2017118283A JP 2015250782 A JP2015250782 A JP 2015250782A JP 2015250782 A JP2015250782 A JP 2015250782A JP 2017118283 A JP2017118283 A JP 2017118283A
Authority
JP
Japan
Prior art keywords
signal
infrared
color
filter
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015250782A
Other languages
Japanese (ja)
Other versions
JP6640555B2 (en
Inventor
石崎 修
Osamu Ishizaki
修 石崎
大坪 宏安
Hiroyasu Otsubo
宏安 大坪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Holdings Ltd
Original Assignee
Hitachi Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Ltd filed Critical Hitachi Maxell Ltd
Priority to JP2015250782A priority Critical patent/JP6640555B2/en
Publication of JP2017118283A publication Critical patent/JP2017118283A/en
Application granted granted Critical
Publication of JP6640555B2 publication Critical patent/JP6640555B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Optical Filters (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a camera system that is capable of performing stereo photographing with respect to both of a visible image and an infrared image, and is capable of improving color reproducibility at the time of visible light photographing.SOLUTION: A camera system comprises: two imaging sensors 1; and two DBPFs 5 that have a characteristic of permeability in a visible light band and a second wavelength band, are provided so as to correspond to the two imaging sensors in a one-to-one manner, and are an optical filter. The camera system comprises two color filters that include at least four types of filter units having mutually different spectroscopy permeation characteristics corresponding to wavelengths in the visible light band and mutually approximate permeation characteristics in the second wavelength band, and are provided so as to correspond to the two imaging sensors in a one-to-one manner. The camera system measures a distance to an object 200 on the basis of two visible or infrared image signals.SELECTED DRAWING: Figure 54

Description

本発明は、測距と画像表示とのための撮影を行うカメラシステムに関する。   The present invention relates to a camera system that performs shooting for distance measurement and image display.

近年、監視カメラ等における画像認識技術の向上や、自動車の自動運転に使用されるカメラの開発が進められている。また、映画では、コンピュータグラフィックスによる3D映像が用いられる場合が増えており、コンピュータグラフィックスだけではなく、実写による3D映像の使用頻度も高まる可能性がある。また、ビデオゲームにおける操作入力方法として、ステレオカメラを使用可能である。   In recent years, improvement of image recognition technology in surveillance cameras and the like, and development of cameras used for automatic driving of automobiles have been promoted. In movies, 3D video by computer graphics is increasingly used, and not only computer graphics but also the frequency of use of 3D video by live action may increase. A stereo camera can be used as an operation input method in a video game.

例えば、監視カメラでは、ステレオカメラを用いて距離検出を行い、不審者の侵入を検出するシステムが知られている(例えば、特許文献1参照)。特許文献1には、物体の形状や距離を計測する方法として、「ステレオ画像を用いた距離計測用画像認識装置」が記載されており、ステレオ画像から距離を求めるステレオ法と呼ばれる技術が知られている。このステレオ法においては、まずステレオ画像と呼ばれる左右2枚の画像を入力し、画像中の特徴量の計算により左右画像の対応点を求める。この対応点とは、左画像のある位置の対象物体が、右画像ではどこの位置に写っているかを示している。こういった対応点の求め方の詳細は、例えば。特許文献2に「画像マッチング方法」として記載されている。そして、左右2枚の画像の対応点が求められたならば、三角測量の原理で物体表面までの距離を計算できる。従って、物体までの距離や物体表面の形状を知ることができる。   For example, a surveillance camera is known that detects distance using a stereo camera and detects the intrusion of a suspicious person (see, for example, Patent Document 1). Patent Document 1 describes a “distance measurement image recognition device using a stereo image” as a method for measuring the shape and distance of an object, and a technique called a stereo method for obtaining a distance from a stereo image is known. ing. In this stereo method, first, two left and right images called stereo images are input, and corresponding points of the left and right images are obtained by calculating feature amounts in the images. This corresponding point indicates where the target object at a certain position in the left image appears in the right image. Details of how to find these corresponding points are for example. Patent Document 2 describes this as an “image matching method”. If the corresponding points of the left and right images are obtained, the distance to the object surface can be calculated by the principle of triangulation. Therefore, the distance to the object and the shape of the object surface can be known.

また、特許文献1には、ステレオ画像の既知の対応関係を利用することで、高精度かつ高速に動物体を検出しその形状や距離を測定することができる動物体認識装置が提案されている。   Patent Document 1 proposes a moving object recognition apparatus that can detect a moving object with high accuracy and high speed and measure its shape and distance by using a known correspondence relationship of stereo images. .

このようなステレオ法による測距技術を用いた画像認識技術は、監視カメラや自動運転用カメラやビデオゲーム機等を含む電子機器におけるユーザインターフェース等に有用と思われる。監視カメラや自動運転用カメラでは、その撮影範囲で夜間撮影が行われることになるが、状況によっては、十分な照明が得られない場合がある。例えば、監視カメラの位置を分かり辛くするために、監視カメラの撮影範囲に可視光照明を設けない場合も有りえる。このような場合に、人間には見えない赤外照明を用いて赤外撮影することが考えられる。また、自動運転用カメラにおいても、夜間の対向車へのヘッドライトの影響を考慮して、遠方を照らす照明として赤外光を用いて赤外撮影を行うことが考えられる。いずれにしろ、照明を用いなくとも可視光の光量が十分である可能性が高い昼間は、照明無しで可視光撮影を行い夜間照明を必要とする場合に人間の目には見え難い赤外照明を用いて赤外撮影を行うことが考えられる。   Such an image recognition technique using a distance measuring technique based on the stereo method seems to be useful for a user interface in an electronic device including a surveillance camera, an automatic driving camera, a video game machine, and the like. A surveillance camera or an automatic operation camera performs night shooting within the shooting range. However, depending on the situation, sufficient lighting may not be obtained. For example, in order to make it difficult to understand the position of the monitoring camera, there may be a case where no visible light illumination is provided in the shooting range of the monitoring camera. In such a case, it is conceivable to perform infrared imaging using infrared illumination that is invisible to humans. In addition, in an autonomous driving camera, it is conceivable to perform infrared photographing using infrared light as illumination for illuminating a distant place in consideration of the influence of a headlight on an oncoming vehicle at night. In any case, infrared illumination is difficult to see for human eyes when it is necessary to shoot at night without lighting during daytime when there is a high possibility that the amount of visible light is sufficient without using illumination. It is conceivable to perform infrared imaging using the.

このような状況を考慮すると、用途にもよるが、カメラが可視光と赤外光との撮影を併用できることが好ましい。
例えば、昼夜連続で撮影を行う監視カメラ等の撮像装置においては、夜間時には赤外光を検出して撮影することが行われている。CCDセンサやCMOSセンサといった撮像センサの受光部であるフォトダイオード(受光素子)は、1300nm程度の近赤外の波長帯域まで受光可能であるため、これらの撮像センサを用いた撮像装置であれば、赤外帯域まで撮影することが原理的に可能である。
In consideration of such a situation, it is preferable that the camera can be used for photographing visible light and infrared light, depending on the application.
For example, in an imaging device such as a surveillance camera that continuously shoots day and night, infrared light is detected during shooting at night. Since a photodiode (light receiving element) that is a light receiving portion of an image sensor such as a CCD sensor or a CMOS sensor can receive light in the near-infrared wavelength band of about 1300 nm, if it is an image pickup apparatus using these image sensors, In principle, it is possible to photograph up to the infrared band.

なお、人間の視感度が高い光の波長帯域は400nm〜700nmであることから、撮像センサにおいて近赤外光を検出すると、人間の目には映像が赤みを増して見えることになる。このため、昼間や屋内の明るい場所での撮影時は、撮像センサの感度を人間の視感度に合わせるために、撮像センサの前に赤外帯域の光を遮断する赤外カットフィルタを設けて、波長が700nm以上の光を除去することが望ましい。一方、夜間や暗い場所での撮影時には、赤外カットフィルタを設けずに撮影を行う必要がある。   Since the wavelength band of light with high human visibility is 400 nm to 700 nm, when near-infrared light is detected by the image sensor, the image looks reddish to the human eye. For this reason, when shooting in a bright place in the daytime or indoors, in order to match the sensitivity of the image sensor with human visual sensitivity, an infrared cut filter that blocks infrared band light is provided in front of the image sensor, It is desirable to remove light having a wavelength of 700 nm or more. On the other hand, when shooting at night or in a dark place, it is necessary to perform shooting without providing an infrared cut filter.

このような撮像装置としては、手動で赤外カットフィルタの取り付け・取り外しを行う撮像装置や、自動的に赤外カットフィルタを抜き差しする撮像装置が、従来から知られている。さらに、上述した赤外カットフィルタの抜き差しを不要とした撮像装置が開示されている。例えば、可視光帯域に透過特性を有し、可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、前記第1の波長帯域内の一部分である第2の波長帯域に透過特性を有する光学フィルタが提案されている(例えば、特許文献3参照)。このフィルタによれば、可視光帯域と、可視光帯域の長波長側、すなわち、赤外側で、可視光帯域から離れた第2の波長帯域との両方で光が透過可能となっている。   As such an image pickup apparatus, an image pickup apparatus for manually attaching / detaching an infrared cut filter and an image pickup apparatus for automatically inserting / removing an infrared cut filter are conventionally known. Furthermore, an imaging apparatus is disclosed that eliminates the need to insert and remove the infrared cut filter described above. For example, the second wavelength band which has a transmission characteristic in the visible light band, has a cutoff characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and is a part of the first wavelength band An optical filter having transmission characteristics has been proposed (see, for example, Patent Document 3). According to this filter, light can pass through both the visible light band and the second wavelength band far from the visible light band on the long wavelength side of the visible light band, that is, on the infrared side.

例えば、第2の波長帯域は、赤外照明の波長帯域と重なっており、このフィルタは、可視光撮影と、赤外光照明を用いた夜間の赤外光撮影の両方を可能とする光学フィルタである。以下に、上述のように可視光帯域と、赤外側の第2の波長帯域との光を透過し、他の波長帯域の光を遮断する光学フィルタをDBPF(ダブル・バンド・パス・フィルタ)と称する。   For example, the second wavelength band overlaps with the wavelength band of infrared illumination, and this filter is an optical filter that enables both visible light imaging and nighttime infrared light imaging using infrared light illumination. It is. Hereinafter, as described above, an optical filter that transmits light in the visible light band and the second wavelength band on the infrared side and blocks light in other wavelength bands is referred to as DBPF (double band pass filter). Called.

特開平3−81878号公報Japanese Patent Laid-Open No. 3-81878 特開昭62−107386号公報JP-A-62-107386 特許第5009395号公報Japanese Patent No. 5009395

ところで、特許文献3のDBPFでは、赤外(近赤外)の波長帯域に含まれる第2の波長帯域の光(赤外波長帯域に含まれる比較的狭い波長帯域)が常時遮断されずに光が透過することになる。すなわち、可視光帯域より長波長側をカットする赤外カットフィルタを用いた場合と異なり、可視光帯域での撮影において、第2の波長帯域を透過した赤外光の影響を少なからず受けることになる。   By the way, in DBPF of patent document 3, the light of the 2nd wavelength band contained in the infrared (near-infrared) wavelength band (relatively narrow wavelength band contained in the infrared wavelength band) is not cut off at all times. Will be transmitted. That is, unlike the case of using an infrared cut filter that cuts the longer wavelength side than the visible light band, in the imaging in the visible light band, the influence of the infrared light transmitted through the second wavelength band is not a little. Become.

可視光帯域での撮影として、カラーの撮影を行う撮像センサには、カラーフィルタが用いられている。カラーフィルタは、撮像センサの各画素に対応して赤、緑、青の各色の領域(フィルタ部)が所定のパターンで配置されている。これら各色の領域は、基本的には、各色の波長帯域に光の透過率のピークを有し、他の色の波長帯域の光の透過を制限(遮断)する。   A color filter is used for an imaging sensor that performs color imaging as imaging in the visible light band. In the color filter, areas (filter units) of red, green, and blue are arranged in a predetermined pattern corresponding to each pixel of the image sensor. Each of these color regions basically has a light transmittance peak in the wavelength band of each color, and restricts (blocks) transmission of light in the wavelength bands of other colors.

しかし、可視光帯域より長波長側では、各色の領域および波長によって光透過率が異なるが、基本的に光を透過してしまう。したがって、赤外カットフィルタを用いれば、可視光帯域より長波長側の光がカットされるので問題ないが、上述のDBPFのように赤外側の第2の波長帯域で赤外光を透過すると、この赤外光がカラーフィルタを通過して撮像センサのフォトダイオード(受光素子)に至ってフォトダイオードにおける光電効果による電子の発生量を多くしてしまう。   However, on the longer wavelength side than the visible light band, although the light transmittance differs depending on the region and wavelength of each color, light is basically transmitted. Therefore, if an infrared cut filter is used, there is no problem because light on the longer wavelength side than the visible light band is cut. However, when infrared light is transmitted in the second wavelength band on the infrared side as in the above DBPF, This infrared light passes through the color filter and reaches the photodiode (light receiving element) of the image sensor, increasing the amount of electrons generated by the photoelectric effect in the photodiode.

ここで、可視光でのカラー撮影と、赤外光照明での撮影との両方を行う上では、例えば、赤、緑、青の各色の領域が所定のパターンで配置されたカラーフィルタに、上述の第2の波長帯域に光透過率のピークを有するような赤外光用の領域(赤外領域)を設けることになる。すなわち、カラーフィルタの配列(パターン)は、赤R、緑G、青B、赤外IRの4つの領域からなる。この場合に赤外光用の領域は、可視光帯域の光を遮断し、第2の波長帯域の光を主に透過させるものであるから、カラーフィルタの赤外光用の領域を通過した光を受ける撮像センサから出力される赤外光の画像信号を利用して、赤、緑、青の各色の画像信号から赤外光成分を除去することが考えられる。しかし、このような信号処理によっても、赤外カットフィルタを用いた場合のカラー撮影時と略同等の色再現を行うことが難しかった。また、ステレオ化して距離を算出する場合に、左右の信号レベルにずれがあると、視差算出において誤差を発生させる要因となっていた。   Here, in performing both color photographing with visible light and photographing with infrared light illumination, for example, the above-described color filter in which each color region of red, green, and blue is arranged in a predetermined pattern is used. An infrared light region (infrared region) having a light transmittance peak in the second wavelength band is provided. That is, the arrangement (pattern) of the color filter includes four regions of red R, green G, blue B, and infrared IR. In this case, since the infrared light region blocks light in the visible light band and mainly transmits light in the second wavelength band, the light that has passed through the infrared light region of the color filter. It is conceivable to remove infrared light components from image signals of red, green, and blue colors using an infrared light image signal output from an imaging sensor that receives the light. However, even with such signal processing, it has been difficult to perform substantially the same color reproduction as in color photography when an infrared cut filter is used. In addition, when the distance is calculated by making a stereo, if there is a difference between the left and right signal levels, it is a factor causing an error in the parallax calculation.

ここで、例えば、監視カメラをステレオ法で測距可能な構成とするとともに、可視光と赤外光との両方を用いて昼および夜の撮影を行うことを可能とし、さらに、撮影された像をできるだけノイズの少なく鮮明で解像度の高いものにできれば、犯罪発生時の状況解析の能力が格段に高まると思われる。また、自動運転用カメラにおいても、上述のように赤外と可視による撮影を併用する場合に、ノイズの少ない鮮明な画像を得られることで、画像認識の精度の向上を図ることができる。以上のことから、ステレオ撮影用の2つのカメラで赤外画像と可視画像の両方のステレオ撮影が可能で、かつ、ノイズや解像度、色再現性等の画質を、通常の赤外画像を含まない可視画像と同レベル以上とすることが望まれている。   Here, for example, the surveillance camera is configured to be capable of ranging by the stereo method, and it is possible to shoot day and night using both visible light and infrared light. If we can make it as clear and high-resolution as possible, we will be able to greatly improve the ability to analyze the situation when a crime occurs. Also, in the automatic driving camera, when infrared and visible imaging are used together as described above, a clear image with less noise can be obtained, so that the accuracy of image recognition can be improved. From the above, stereo imaging of both infrared and visible images is possible with two cameras for stereo photography, and image quality such as noise, resolution and color reproducibility does not include normal infrared images It is desired to have a level equal to or higher than that of a visible image.

本発明は、前記事情に鑑みてなされたものであり、可視画像と赤外画像の両方でステレオ撮影可能で、可視光撮影時の色再現性を向上することができるカメラシステムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides a camera system capable of performing stereo photography with both a visible image and an infrared image and improving color reproducibility during visible light photography. Objective.

前記課題を解決するために、本発明のカメラシステムは、各画素に受光素子が配置された2つの撮像センサと、
可視光帯域に透過特性を有し、前記可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、前記第1の波長帯域内の一部分である第2の波長帯域に透過特性を有するとともに、2つの前記撮像センサにそれぞれ対応して2つ設けられた光学フィルタと、
前記可視光帯域における波長に応じた分光透過特性が互いに異なるとともに前記第2の波長帯域における透過率が互いに近似する少なくとも4種類のフィルタ部を有するとともに、2つの前記撮像センサにそれぞれ対応して2つ設けられたカラーフィルタと、
各撮像センサ上に像を結ぶレンズをそれぞれ有するとともに、2つの前記撮像センサにそれぞれ対応して2つ設けられた光学系と、
各撮像センサから出力される信号を処理して2つの可視画像信号および2つの赤外画像信号を出力可能な信号処理デバイスと、
前記信号処理デバイスから出力される2つの可視画像信号および/または2つの赤外画像信号を用いて可視画像信号による可視画像および/または赤外画像信号による赤外画像に写った被写体までの距離を算出する測距算出デバイスとを備え、
前記信号処理デバイスは、前記カラーフィルタの各種類の前記フィルタ部を透過した光に対応して前記撮像センサから出力された信号を用いて、前記第2の波長帯域に対応する赤外成分に基づく赤外画像信号と、前記赤外成分が減算された前記可視光帯域に対応する少なくとも3種類の色成分に基づく可視画像信号とを算出し、
かつ、前記色成分から前記赤外成分を減算するに際して、前記色成分が画素飽和レベル以上となる場合に、前記色成分から減算される前記赤外成分の値を下げるように補正する制御を行う減算制御デバイスを備えることを特徴とする。
In order to solve the above problems, a camera system of the present invention includes two imaging sensors in which a light receiving element is disposed in each pixel,
A transmission characteristic in the visible light band, a cutoff characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and a second wavelength band that is a part of the first wavelength band; Two optical filters having transmission characteristics and provided corresponding to the two imaging sensors,
Spectral transmission characteristics corresponding to the wavelength in the visible light band are different from each other, and the transmittance in the second wavelength band is approximately similar to each other. Two color filters,
Each of the image sensors has a lens for connecting an image, and two optical systems provided corresponding to the two image sensors,
A signal processing device capable of processing a signal output from each imaging sensor and outputting two visible image signals and two infrared image signals;
Using the two visible image signals and / or two infrared image signals output from the signal processing device, the distance to the subject reflected in the visible image by the visible image signal and / or the infrared image by the infrared image signal is determined. A distance measuring device for calculating,
The signal processing device is based on an infrared component corresponding to the second wavelength band by using a signal output from the imaging sensor corresponding to light transmitted through each type of the filter unit of the color filter. Calculating an infrared image signal and a visible image signal based on at least three color components corresponding to the visible light band from which the infrared component is subtracted;
In addition, when subtracting the infrared component from the color component, if the color component is equal to or higher than a pixel saturation level, control is performed to correct the infrared component subtracted from the color component so as to decrease the value. A subtraction control device is provided.

このような構成によれば、赤外成分を含む各色信号がダイナミックレンジを越えて画素飽和レベルに達することにより、クリップされた状態で、未だダイナミックレンジを越えずにクリップされておらず、出力レベルが高くなる可能性がある赤外成分(赤外信号)を各色成分(色信号)から減算した場合に、各色信号がクリップされてから赤外信号の出力レベルが高くなることによって、各色信号の出力レベルが下がってしまう。   According to such a configuration, each color signal including the infrared component exceeds the dynamic range and reaches the pixel saturation level, so that it is not clipped without exceeding the dynamic range in the clipped state, and the output level. When an infrared component (infrared signal) that may increase is subtracted from each color component (color signal), the output level of the infrared signal increases after each color signal is clipped. The output level will drop.

これにより、ハイライト部の輝度が低下する場合に、色信号から減算される赤外信号の値を下げるように補正する制御を行うことによって、色信号が上述のようにクリップされる際に、赤外信号が高くなって、赤外信号が減算された後の色信号の輝度が下がってしまうのを防止できる。例えば、RGBの各色信号の出力レベルおよび赤外信号の出力レベルが高くなる際に、赤外成分を含むRGBの各色信号の出力レベルが先にダイナミックレンジを越えてクリップされた状態で、略赤外成分だけからなる赤外信号がダイナミックレンジを越えずにさらに高くなることにより、色信号から赤外信号を減算した場合に、クリップされなければ、RGBの各色信号の出力レベルがさらに高くなる状態なのに、RGBの各色信号の出力レベルが逆に低下し、白飛びするようなハイライト部の輝度が低下してしまうのを防止できる。   As a result, when the brightness of the highlight portion decreases, the color signal is clipped as described above by performing control so as to reduce the value of the infrared signal subtracted from the color signal. It can be prevented that the luminance of the color signal after the infrared signal becomes high and the infrared signal is subtracted is lowered. For example, when the output level of each RGB color signal and the output level of the infrared signal are high, the output level of each RGB color signal including the infrared component is clipped over the dynamic range first, and is substantially red. A state in which the output level of each RGB color signal is further increased if it is not clipped by subtracting the infrared signal from the color signal because the infrared signal consisting only of the external component is further increased without exceeding the dynamic range. However, it is possible to prevent the output level of each color signal of RGB from decreasing and the brightness of the highlight portion from being overexposed to decrease.

以上のことから、ステレオ撮影用の2つの撮像装置で赤外画像と可視画像の両方のステレオ撮影が可能で、かつ、ノイズや解像度、色再現性等の画質を、通常の赤外画像を含まない可視画像と同レベル以上とすることができる。これにより、可視画像を用いた距離の測定における誤差を抑制し、より正確な距離を計測可能とするとともに、十分な画質の可視の撮影画像を表示することが可能となる、また、2つの画像信号を用いて距離の算出を行う場合に、2つの画像信号の信号レベルを合わせるようにすることも可能で有り、距離の誤差を縮小することができる。すなわち、2つの画像信号の信号レベルやその変化の違いにより被写体の違う部分を同じ部分と認識することなどによる誤差の発生を抑止することができる。なお、被者体までの距離とは、カメラシステムと被写体との間の距離である。この際にカメラシステムの位置をレンズユニットや撮像センサの位置としてもよい。   From the above, stereo imaging of both infrared and visible images is possible with two imaging devices for stereo shooting, and image quality such as noise, resolution, and color reproducibility is included, including normal infrared images There can be no more than the same level as the visible image. As a result, errors in distance measurement using a visible image can be suppressed, a more accurate distance can be measured, and a visible captured image with sufficient image quality can be displayed. When the distance is calculated using the signal, the signal levels of the two image signals can be matched, and the distance error can be reduced. That is, it is possible to suppress the occurrence of an error caused by recognizing different parts of the subject as the same part due to the difference between the signal levels of the two image signals and their changes. It should be noted that the distance to the subject is the distance between the camera system and the subject. At this time, the position of the camera system may be the position of the lens unit or the image sensor.

本発明の前記構成において、前記カラーフィルタは、前記赤外成分と前記可視光帯域の赤成分の光を透過する赤の前記フィルタ部と、前記赤外成分と前記可視光帯域の緑成分の光を透過する緑の前記フィルタ部と、前記赤外成分と前記可視光帯域の青成分の光を透過する青の前記フィルタ部と、前記赤外成分と前記赤成分、前記緑成分および前記青成分を合わせた白成分の光を透過する白の前記フィルタ部とを備えることが好ましい。   In the configuration of the present invention, the color filter includes the red filter section that transmits the infrared component and the red component light in the visible light band, and the infrared component and the green component light in the visible light band. The green filter section that transmits light, the blue filter section that transmits light of the infrared component and the blue component of the visible light band, the infrared component, the red component, the green component, and the blue component It is preferable to include the white filter portion that transmits the light of the white component combined.

このような構成によれば、可視画像と赤外画像との同時撮影において、赤外画像を出力可能とするカラーフィルタにおいて、例えば、可視成分を透過せずに赤外成分だけを透過する赤外成分の赤外の前記フィルタ部を用いた場合に比較して、白成分のフィルタ部を用いることにより、カラーフィルタにおける輝度成分の情報量が多くなり、より人間の目の特性に対応して、解像度の高い画像を出力可能となる。   According to such a configuration, in a color filter capable of outputting an infrared image in simultaneous photographing of a visible image and an infrared image, for example, an infrared that transmits only the infrared component without transmitting the visible component. Compared to the case of using the infrared filter portion of the component, by using the filter portion of the white component, the amount of information of the luminance component in the color filter is increased, corresponding to the characteristics of the human eye, An image with a high resolution can be output.

また、本発明の前記構成において、前記減算制御デバイスは、
前記赤外成分の値を下げる補正として、前記赤外成分の値を前記色成分に基づいて決定される制限値より高くならないように制御することが好ましい。
In the configuration of the present invention, the subtraction control device is
As correction for lowering the value of the infrared component, it is preferable to control the value of the infrared component so as not to be higher than a limit value determined based on the color component.

このような構成によれば、色信号から減算される赤外信号の値を制限値で制限して、制限値でクリップされた状態とすることにより、各色信号が飽和レベルに達してクリップされた状態で、未だ飽和レベルを超えていない赤外信号の値が高くなっても、色信号から減算される値は、基本的に制限値となり、赤外信号を減算された色信号の出力レベルが低くなってしまのを防止できる。   According to such a configuration, the value of the infrared signal subtracted from the color signal is limited by the limit value and is clipped by the limit value, whereby each color signal reaches the saturation level and is clipped. Even if the value of the infrared signal that has not yet exceeded the saturation level in the state is high, the value subtracted from the color signal is basically the limit value, and the output level of the color signal obtained by subtracting the infrared signal is It can be prevented from becoming low.

また、本発明の前記構成において、前記減算制御デバイスは、前記赤外成分の前記制限値を、ホワイトバランス処理で得られる各色の利得に基づいて、前記色成分毎に決定することが好ましい。   In the configuration of the present invention, it is preferable that the subtraction control device determines the limit value of the infrared component for each color component based on a gain of each color obtained by white balance processing.

このような構成によれば、各色成分(色信号)、例えば、RGBの各信号において、それぞれ適切な制限値で制限された赤外信号を減算することが可能になる。   According to such a configuration, it is possible to subtract an infrared signal limited by an appropriate limit value in each color component (color signal), for example, each RGB signal.

また、本発明の前記構成において、前記信号処理デバイスは、前記色成分の前記画素飽和レベルから前記赤外成分の前記制限値を減算した値に対応する信号飽和レベルが各色で略同じになるように制御することが好ましい。   In the configuration of the present invention, the signal processing device may be configured such that a signal saturation level corresponding to a value obtained by subtracting the limit value of the infrared component from the pixel saturation level of the color component is substantially the same for each color. It is preferable to control.

このような構成によれば、各色信号において、最も出力レベルが高くなった場合、すなわち、信号飽和レベルになった場合に、各色信号の出力レベルが略同じになることで、略白となり、ハイライト部に青などの色が付くことがなく、ハイライト部を白くすることにより、自然な色再現性を維持することができる。信号飽和レベルとは、可視光の各色信号が画素飽和レベルでクリップされた状態で、制限値で制限された赤外信号を減算した場合の値のレベルである。   According to such a configuration, when the output level is the highest in each color signal, that is, when the signal saturation level is reached, the output level of each color signal is substantially the same, so that it is substantially white and high. A color such as blue is not attached to the light portion, and natural color reproducibility can be maintained by making the highlight portion white. The signal saturation level is a value level when each color signal of visible light is clipped at the pixel saturation level and the infrared signal limited by the limit value is subtracted.

また、本発明の前記構成において、前記信号処理デバイスは、2つの可視画像信号の信号レベルおよび/または2つの赤外画像信号の信号レベルが互いに近似するように補正することが好ましい。   In the configuration of the present invention, it is preferable that the signal processing device corrects the signal levels of the two visible image signals and / or the signal levels of the two infrared image signals to be close to each other.

このような構成によれば、2つ可視画像信号や、2つの赤外画像信号から得られるステレオ画像から対象物(被写体)までの距離を測定する場合に、ステレオ画像としての2つの画像における対象物(2つの画像の対応点)が信号レベルの違いにより正確に認識できず、正確な視差が求められなくなって誤差が大きくなるのを抑制できる。   According to such a configuration, when measuring the distance from the two visible image signals and the stereo image obtained from the two infrared image signals to the object (subject), the object in the two images as the stereo image An object (corresponding point between two images) cannot be accurately recognized due to a difference in signal level, and it is possible to suppress an increase in error due to an inaccurate parallax.

本発明によれば、赤外画像と可視画像の両方で、対象物の距離をより正確に測定できる。   According to the present invention, the distance of an object can be measured more accurately in both an infrared image and a visible image.

本発明の第1の実施の形態のカメラシステムの像センサを示す概略図である。It is the schematic which shows the image sensor of the camera system of the 1st Embodiment of this invention. 同、前記撮像センサのDBPFとカラーフィルタの透過率スペクトルを示すグラフである。It is a graph which shows the transmittance | permeability spectrum of DBPF of the said image sensor, and a color filter similarly. 同、前記撮像センサのDBPFとカラーフィルタの透過率スペクトルと、赤外照明の発光スペクトルを示すグラフである。It is a graph which shows the transmittance | permeability spectrum of DBPF and the color filter of the said image sensor, and the emission spectrum of infrared illumination. 同、前記撮像センサのDBPFとカラーフィルタの透過率スペクトルと、赤外照明の発光スペクトルを示すグラフである。It is a graph which shows the transmittance | permeability spectrum of DBPF and the color filter of the said image sensor, and the emission spectrum of infrared illumination. 同、撮像センサのカラーフィルタの配列を説明するための図であって、(a)は赤外のフィルタ部がない従来の配列を示す図であり、(b)、(c)、(d)は赤外のフィルタ部を有する配列を示す図である。FIG. 6 is a diagram for explaining the arrangement of color filters of the image sensor, wherein (a) is a diagram showing a conventional arrangement without an infrared filter section, and (b), (c), (d). FIG. 4 is a diagram showing an array having an infrared filter section. 同、前記カメラシステムの前記撮像センサを有する撮像装置を示す概略図である。It is the schematic which shows the imaging device which has the said imaging sensor of the said camera system. 同、前記撮像装置の信号処理部における信号処理を説明するためのブロック図である。FIG. 3 is a block diagram for explaining signal processing in a signal processing unit of the imaging apparatus. 同、前記撮像装置の信号処理における内装処理を説明するための図である。It is a figure for demonstrating the interior process in the signal processing of the said imaging device. 本発明の第2の実施の形態の撮像装置を示す概略図である。It is the schematic which shows the imaging device of the 2nd Embodiment of this invention. 本発明の第3の実施の形態の撮像センサのカラーフィルタの配列を説明するための図である。It is a figure for demonstrating the arrangement | sequence of the color filter of the imaging sensor of the 3rd Embodiment of this invention. 同、前記撮像センサのDBPFとカラーフィルタの透過率スペクトルを示すグラフである。It is a graph which shows the transmittance | permeability spectrum of DBPF of the said image sensor, and a color filter similarly. 同、撮像センサのカラーフィルタの配列を説明するための図である。It is a figure for demonstrating the arrangement | sequence of the color filter of an image sensor similarly. 同、カラーフィルタの配列を説明するための図である。It is a figure for demonstrating the arrangement | sequence of a color filter similarly. 同、カラーフィルタの配列を説明するための図である。It is a figure for demonstrating the arrangement | sequence of a color filter similarly. 同、各カラーフィルタの特性を説明するための図である。It is a figure for demonstrating the characteristic of each color filter similarly. 同、撮像装置における信号処理を説明するためのブロック図である。It is a block diagram for demonstrating the signal processing in an imaging device equally. 本発明の第4の実施の形態のカラーフィルタの配列を説明するための図である。It is a figure for demonstrating the arrangement | sequence of the color filter of the 4th Embodiment of this invention. 同、前記撮像センサのDBPFとカラーフィルタの青Bの透過率スペクトルを示すグラフである。It is a graph which shows the transmittance | permeability spectrum of DBPF of the said image sensor, and the blue B of a color filter similarly. 同、前記撮像センサのDBPFとカラーフィルタの緑Gの透過率スペクトルを示すグラフである。It is a graph which shows the transmittance | permeability spectrum of DBPF of the said image sensor, and green G of a color filter similarly. 同、前記撮像センサのDBPFとカラーフィルタの赤Rの透過率スペクトルを示すグラフである。It is a graph which shows the transmittance | permeability spectrum of DBPF of the said image sensor, and red R of a color filter. 同、前記撮像センサのDBPFとカラーフィルタのクリアCの透過率スペクトルを示すグラフである。It is a graph which shows the transmittance | permeability spectrum of DBPF of the said image sensor, and the clear C of a color filter similarly. 本発明の第5の実施の形態の撮像センサを示すブロック図である。It is a block diagram which shows the imaging sensor of the 5th Embodiment of this invention. 同、撮像センサを示す断面図である。It is sectional drawing which shows an image sensor same as the above. 同、撮像センサの他の例を示す断面図である。It is sectional drawing which shows the other example of an image sensor same as the above. 同、撮像センサによる2系統の画像信号の出力を説明するための図である。It is a figure for demonstrating the output of the image signal of 2 systems by an image sensor similarly. 本発明の第6の実施の形態の撮像装置を示すブロック図である。It is a block diagram which shows the imaging device of the 6th Embodiment of this invention. 同、撮像センサを示す概略図である。It is the schematic which shows an image sensor same as the above. 同、赤外領域を有するカラーフィルタの配列パターンを説明するための図である。It is a figure for demonstrating the arrangement pattern of the color filter which has an infrared region similarly. 同、前記撮像センサのDBPFとカラーフィルタの透過率スペクトルを示すグラフである。It is a graph which shows the transmittance | permeability spectrum of DBPF of the said image sensor, and a color filter similarly. 同、ハイライト部で輝度が下がる理由を説明するためのR信号の図である。FIG. 10 is a diagram of an R signal for explaining the reason why the luminance decreases in the highlight portion. 同、ハイライト部で輝度が下がる理由を説明するためのG信号の図である。It is a figure of G signal for demonstrating the reason a brightness | luminance falls in a highlight part similarly. 同、ハイライト部で輝度が下がる理由を説明するためのB信号の図である。It is a figure of B signal for demonstrating the reason a brightness | luminance falls in a highlight part similarly. 同、ハイライト部で輝度が下がる理由を説明するためのIR信号の図である。FIG. 11 is a diagram of an IR signal for explaining the reason why the luminance decreases in the highlight portion. 同、IR信号のRGBの各色信号に対応したクリップレベルを示す図である。It is a figure which shows the clip level corresponding to each RGB color signal of IR signal. 同、RGBの各色信号からクリップされたIR信号を減算することを説明するための図であって、(a)はR信号の場合を示し、(b)はG信号の場合を示し、(c)はB信号の場合を示す図である。FIG. 6 is a diagram for explaining subtraction of clipped IR signals from RGB color signals, where (a) shows the case of the R signal, (b) shows the case of the G signal, and (c ) Is a diagram showing a case of a B signal. 同、ホワイトバランス処理を説明するための図であって、(a)は、R−Y信号とB−Y信号の平面における白に設定される領域を示し、(b)は白に設定される輝度レベルの範囲を示す図である。FIG. 6 is a diagram for explaining white balance processing, where (a) shows a region set to white in the plane of the RY signal and BY signal, and (b) shows white. It is a figure which shows the range of a luminance level. 同、IR信号が減算された後のRGBの各信号のクリップの出力レベルを合わせる方法を説明するための図である、FIG. 6 is a diagram for explaining a method for adjusting the output level of each RGB signal clip after the IR signal is subtracted; 同、前記撮像処理装置の信号処理部を示すブロック図である。FIG. 2 is a block diagram illustrating a signal processing unit of the imaging processing apparatus. 同、別例としての信号処理部を示すブロック図である。It is a block diagram which shows the signal processing part as another example same as the above. 本発明の第7の実施の形態のRGBCのカラーフィルタの飽和レベルを説明するための図である。It is a figure for demonstrating the saturation level of the RGBC color filter of the 7th Embodiment of this invention. 同、計算により求められるIR信号が実際のIR信号より信号レベルが高くなることを説明するための図である。It is a figure for demonstrating that the signal level of IR signal calculated | required by calculation becomes higher than an actual IR signal. 同、ハイライト部で輝度が下がる理由を説明するためのRGBC信号の図である。FIG. 6 is an RGBC signal diagram for explaining the reason why the brightness decreases in the highlight portion. 同、分離デバイスを説明するためのブロック図である。It is a block diagram for demonstrating a separation device equally. 同、クリップレベル計算デバイスを説明するためのブロック図である。It is a block diagram for demonstrating a clip level calculation device same as the above. 同、RGBC信号のクリップレベルを説明するための図である。It is a figure for demonstrating the clip level of an RGBC signal similarly. 同、IR信号のクリップレベルを説明するための図である。It is a figure for demonstrating the clip level of IR signal similarly. 同、RGBC信号のクリップレベルを説明するための図である。It is a figure for demonstrating the clip level of an RGBC signal similarly. 同、分離デバイスを説明するためのブロック図である。It is a block diagram for demonstrating a separation device equally. 同、RGBCY信号のクリップ処理を説明するための図である。It is a figure for demonstrating the clipping process of an RGBCY signal similarly. 本発明の第8の実施の形態のIR信号のクリップレベルを説明するための図である。It is a figure for demonstrating the clip level of IR signal of the 8th Embodiment of this invention. 同、RGBCY信号のクリップ処理を説明するための図である。It is a figure for demonstrating the clipping process of an RGBCY signal similarly. 同、分離デバイスを説明するためのブロック図である。It is a block diagram for demonstrating a separation device equally. 同、IR信号生成デバイスを説明するためのブロック図である。FIG. 2 is a block diagram for explaining an IR signal generation device. 本発明の実施の形態のカメラシステムによる信号処理を説明するためのブロック図である。It is a block diagram for demonstrating the signal processing by the camera system of embodiment of this invention.

以下、図面を参照しながら、本発明の実施の形態について説明する。
ここで、本実施の形態のカメラシステムを説明する前に、カメラシステムに用いられる撮像センサ1を説明するとともに、撮像センサ1を備える撮像装置10を説明する。撮像センサ1および撮像装置10には、形態が異なるものがあり、カメラシステムを説明する前にこれら撮像センサ1および撮像装置10の第1〜第4の実施の形態を説明する。なお、カメラシステムは、撮像装置10を用いて可視画像のステレオ画像と、赤外画像のステレオ画像を同時に撮影できるようにしたものである。また、基本的に2組の撮像装置10を組み合わせて(一部共用できる部分有り)カメラシステムが構成されるが、各撮像装置10は、可視画像と赤外画像とを1つの光学系と1つの撮像センサ1で撮影可能な構造となっている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
Here, before describing the camera system of the present embodiment, the imaging sensor 1 used in the camera system and the imaging device 10 including the imaging sensor 1 will be described. The imaging sensor 1 and the imaging device 10 have different forms, and the first to fourth embodiments of the imaging sensor 1 and the imaging device 10 will be described before describing the camera system. The camera system is configured to be able to simultaneously capture a stereo image of a visible image and a stereo image of an infrared image using the imaging device 10. In addition, a camera system is basically configured by combining two sets of imaging devices 10 (some parts can be shared), but each imaging device 10 has a visible image and an infrared image as one optical system and one. The image pickup sensor 1 can take a picture.

撮像センサ(イメージセンサ)1は、例えば、図1に示すように、CCD(Charge Coupled Device)イメージセンサであるセンサ本体2と、センサ本体2の各画素に対応して赤(R)、緑(G)、青(B)、赤外(IR)の各領域(各色のフィルタ)を所定の配列で配置したカラーフィルタ3と、センサ本体2およびカラーフィルタ3上を覆うカバーガラス4と、カバーガラス4上に形成されたDBPF(ダブル・バンド・パス・フィルタ)5とを備える。   For example, as shown in FIG. 1, the imaging sensor (image sensor) 1 includes a sensor body 2 that is a CCD (Charge Coupled Device) image sensor, and red (R) and green (corresponding to each pixel of the sensor body 2. G), blue (B), infrared (IR) regions (filters of each color) arranged in a predetermined arrangement, a color filter 3, a cover glass 4 covering the sensor body 2 and the color filter 3, and a cover glass 4 and a DBPF (double band pass filter) 5 formed on the substrate 4.

センサ本体2は、CCDイメージセンサであり、各画素に受光素子としてのフォトダイオードが配置されている。なお、センサ本体2は、CCDイメージセンサに代えてCMOS(Complementary Metal・Oxide Semiconductor)イメージセンサであってもよい。   The sensor body 2 is a CCD image sensor, and a photodiode as a light receiving element is disposed in each pixel. The sensor main body 2 may be a CMOS (Complementary Metal Oxide Semiconductor) image sensor instead of the CCD image sensor.

センサ本体2には、カラーフィルタ3が設けられている。カラーフィルタ3は、図5(a)に示す一般的なベイヤ配列で各画素に配列されるR,G,Bの3つのフィルタ部を有するカラーフィルタ3xに対して、IRのフィルタが加えられている。なお、ベイヤ配列のフィルタにおいては、基本のパターンは、4行(横の並び)×4列(縦の並び)の16個の各色のフィルタ部からなっており、例えば、各フィルタ部をFと行数と列数で表すと、1行目がF11,F12,F13,F14で、2行目がF21、F22,F23,F24で、3行目がF31,F32,F33,F34で、4行目がF41,F42,F43、F44である。   The sensor body 2 is provided with a color filter 3. The color filter 3 is obtained by adding an IR filter to the color filter 3x having three filter parts of R, G, and B arranged in each pixel in the general Bayer arrangement shown in FIG. Yes. In the Bayer array filter, the basic pattern is composed of 16 color filter sections of 4 rows (horizontal arrangement) × 4 columns (vertical arrangement). In terms of the number of rows and columns, the first row is F11, F12, F13, F14, the second row is F21, F22, F23, F24, the third row is F31, F32, F33, F34, and four rows The eyes are F41, F42, F43, and F44.

ベイヤ配列では、F12,F14,F21,F23,F32,F34,F41,F43の8個のフィルタ部がGとされ、F11,F13,F31,F33の4個のフィルタ部がRとされ、F22,F24,F42,F44の4個のフィルタ部がBとされている。なお、Gのフィルタ部の数をR,Bのフィルタ部の数の2倍としているのは、人間の目が緑に対して高い感受性を有することに基づく。なお、感受性の低い方を高解像度としても人間の目では認識できない可能性があるが、感受性の高い方を高解像度とすれば人間の目で認識できる可能性が高く、より解像度の高い画像と認識される。このベイヤ配列においては、Gのフィルタが行方向(水平方向)および列方向(垂直方向)にそれぞれ一つ置きに配置されて市松模様状とされ、残りの部分にRのフィルタ部と、Bのフィルタ部が互いに隣接することなく配置されている。   In the Bayer array, eight filter units F12, F14, F21, F23, F32, F34, F41, and F43 are G, and four filter units F11, F13, F31, and F33 are R, and F22, Four filter parts F24, F42, and F44 are designated as B. The reason why the number of G filter units is twice the number of R and B filter units is based on the fact that human eyes are highly sensitive to green. In addition, even if the lower sensitivity is set to high resolution, it may not be recognized by the human eye, but if the higher sensitivity is set to high resolution, it is more likely to be recognized by the human eye. Be recognized. In this Bayer arrangement, the G filters are arranged in a checkered pattern every other row in the row direction (horizontal direction) and in the column direction (vertical direction). The filter parts are arranged without being adjacent to each other.

それに対して、本実施の形態のカラーフィルタ3としては、図5(b)に示すように、ベイヤ配列における8個のGのフィルタ部うちの4個をIRとすることにより、Rが4個、Gが4個、Bが4個、IRが4個となるカラーフィルタ3aが含まれる。すなわち、4行4列の基本配列において、R,G,B,IRの4種類のフィルタ部が、それぞれ4つずつ配置されるとともに、同じ種類のフィルタ部同士は互いに行方向および列方向で隣接しないように離れて配置され、各列にR,G,B,IRのフィルタ部がそれぞれ1つずつ配置され、1行置きにR,G,B,IRのフィルタ部のうちの2種類のフィルタ部がそれぞれ2つずつ配置されている。   On the other hand, as shown in FIG. 5B, the color filter 3 according to the present embodiment has four Rs by setting four of the eight G filter units in the Bayer array as IR. , G, 4 B, and 4 IR filters 3 a are included. That is, in the basic arrangement of 4 rows and 4 columns, four types of R, G, B, and IR filter units are arranged four by four, and the same type of filter units are adjacent to each other in the row direction and the column direction. The R, G, B, and IR filter units are arranged one by one in each column, and two types of filters of the R, G, B, and IR filter units are arranged every other row. Two parts are arranged respectively.

具体的には、F11,F13,F32,F34の4個のフィルタ部がRとされ、F12,F14,F31,F33の4個のフィルタ部がIRとされ、F21,F23,F42,F44の4個のフィルタ部がGとされ、F32,F34,F41,F42の4個のフィルタ部がBとされている。   Specifically, four filter units F11, F13, F32, and F34 are R, and four filter units F12, F14, F31, and F33 are IR, and four filter units F21, F23, F42, and F44 are used. The number of filter sections is G, and the four filter sections F32, F34, F41, and F42 are B.

この場合にGのフィルタ部が減ることにより、人間の目からは解像度が悪くなったように見える虞があるが、IRを含む各色が均等に配置され、補完(内挿)処理が容易になる。また、1、2行目と、3,4行目とで、各色の位置が横に一列ずれるように配置されている。言い換えれば、1、2行目と、3,4行目とで、色の配置が左右反転した配置となっている。   In this case, the reduction of the G filter unit may cause the resolution to appear to the human eye to be deteriorated, but each color including IR is evenly arranged to facilitate the interpolation (interpolation) process. . Further, the positions of the respective colors are arranged so as to be shifted by one column in the first, second and third and fourth lines. In other words, the color arrangement is reversed left and right in the first, second and third and fourth lines.

このようにすることで、4×4の配置において、各列に各色が1つずつ配置され、1行置きに各色が2つずつ配置されるので、縦方向(垂直方向)より横方向(水平方向)の解像度が高くなり、IRのフィルタ部を設けることによる水平方向の解像度の低下を抑制できる。なお、カラーフィルタ3aには、図5(b)に示すカラーフィルタ3aのパターンを左右反転したもの、上下反転したもの、180回転させたものも含まれる。また、時計回りに90度回転したもの、270度回転したものを含めてもよい。ただし、90度および270度回転したものは、水平方向より垂直方向の解像度が高くなる。   In this manner, in the 4 × 4 arrangement, each color is arranged in each column and two colors are arranged in every other row, so the horizontal direction (horizontal direction) rather than the vertical direction (vertical direction). The resolution in the horizontal direction due to the IR filter portion can be suppressed. In addition, the color filter 3a includes a color filter 3a shown in FIG. 5B that is horizontally reversed, vertically inverted, and 180-degree rotated. Moreover, what rotated 90 degree | times clockwise and what rotated 270 degree | times may be included. However, those rotated 90 degrees and 270 degrees have higher resolution in the vertical direction than in the horizontal direction.

また、カラーフィルタ3では、図5(c)に示すカラーフィルタ3bのように、人間の感受性が高いGを減らさずに、上述のベイヤ配列のカラーフィルタ3xのパターンの4つのBのうちの2つをIRとしてもよい。このカラーフィルタ3bは、4行4列の基本配列において、R,G,B,IRの4種類のフィルタ部のうちのGのフィルタ部が8つ、Rのフィルタ部が4つ、Bのフィルタ部およびIRのフィルタ部が2つずつ配置されるとともに、同じ種類のフィルタ部同士は互いに行方向および列方向で隣接しないように離れて配置されている。   Further, in the color filter 3, as in the color filter 3 b shown in FIG. 5C, 2 of the four Bs of the pattern of the color filter 3 x in the Bayer array described above without reducing G that is highly sensitive to humans. One may be IR. This color filter 3b has a basic arrangement of 4 rows and 4 columns, 8 filter units for G, 4 filter units for R, and B filter among 4 types of filter units of R, G, B, and IR. And two IR filter units are arranged, and the same type of filter units are arranged so as not to be adjacent to each other in the row direction and the column direction.

具体的には、カラーフィルタ3bでは、F12,F14,F21,F23,F32,F34,F41,F43の8個のフィルタ部がGとされ、F11,F13,F31,F33の4個のフィルタ部がRとされ、F22,F44の2個のフィルタ部がBとされ、F24,F42の2個のフィルタ部がIRとされている。この場合、ベイヤ配列よりBの解像度が劣るがG、Rは、ベイヤ配列と同様の解像度となる。なお、カラーフィルタ3bには、図5(c)に示すカラーフィルタ3bのパターンを左右反転したもの、上下反転したもの、180回転させたものも含まれる。また、時計回りに90度回転したもの、270度回転したものは、左右反転したもの、上下反転したものと同じパターンとなる。   Specifically, in the color filter 3b, eight filter units F12, F14, F21, F23, F32, F34, F41, and F43 are set to G, and four filter units F11, F13, F31, and F33 are set to G. R, two filter parts F22 and F44 are B, and two filter parts F24 and F42 are IR. In this case, the resolution of B is inferior to that of the Bayer array, but G and R have the same resolution as that of the Bayer array. Note that the color filter 3b includes a color filter 3b shown in FIG. 5C that is horizontally reversed, vertically inverted, and 180-degree rotated. Moreover, what rotated 90 degree | times clockwise and what rotated 270 degree | times become the same pattern as what turned right and left and what turned upside down.

また、IRの解像度を上げるために、図5(d)に示すカラーフィルタ3cのようにGを減らさずに、上述のベイヤ配列のカラーフィルタ3xのパターンの4つのBのうちの2つをIRとし、4つのRのうちの2つをIRとしてもよい。すなわち、カラーフィルタ3cは、4行4列の基本配列において、R,G,B,IRの4種類のフィルタ部のうちのGのフィルタ部が8つ、IRのフィルタ部が4つ、Rのフィルタ部およびBのフィルタ部が2つずつ配置されるとともに、同じ種類のフィルタ部同士は互いに行方向および列方向で隣接しないように離れて配置されている。   Further, in order to increase the resolution of the IR, two of the four B of the pattern of the color filter 3x in the Bayer arrangement described above are IR-reduced without reducing G as in the color filter 3c shown in FIG. And two of the four Rs may be IRs. That is, the color filter 3c has a basic arrangement of 4 rows and 4 columns, including 8 G filter units, 4 IR filter units, and 4 R filter units of R, G, B, and IR. Two filter units and two B filter units are arranged, and the same type of filter units are arranged so as not to be adjacent to each other in the row direction and the column direction.

より具体的には、図5(d)に示すように、カラーフィルタ3cでは、F12,F14,F21,F23,F32,F34,F41,F43の8個のフィルタ部がGとされ、F11、F33の2個のフィルタ部がRとされ、F22、F44の2個のフィルタ部がBとされ、F13,F24,F31,F42の4個のフィルタ部がIRとされている。この場合には、RとBの解像度はベイヤ配列より低下するが、Gの解像度は維持され、IRの解像度を確保することができる。なお、カラーフィルタ3cには、図5(d)に示すカラーフィルタ3bのパターンを左右反転したもの、上下反転したもの、180回転させたものも含まれる。また、時計回りに90度回転したもの、270度回転したものは、左右反転したもの、上下反転したものと同じパターンとなる。   More specifically, as shown in FIG. 5D, in the color filter 3c, eight filter portions F12, F14, F21, F23, F32, F34, F41, and F43 are G, and F11, F33. These two filter sections are R, two filter sections F22 and F44 are B, and four filter sections F13, F24, F31 and F42 are IR. In this case, the resolution of R and B is lower than that of the Bayer array, but the resolution of G is maintained and the IR resolution can be ensured. Note that the color filter 3c includes a color filter 3b shown in FIG. 5D that is inverted horizontally, vertically inverted, and rotated 180 times. Moreover, what rotated 90 degree | times clockwise and what rotated 270 degree | times become the same pattern as what turned right and left and what turned upside down.

カラーフィルタ3のRのフィルタ部、Gのフィルタ部およびBのフィルタ部は、それぞれ周知のフィルタを用いることができる。本実施の形態におけるRのフィルタ部、Gのフィルタ部およびBのフィルタ部の透過率スペクトルは、図2、図3および図4のグラフに示すようになっている。図2、図3および図4には、カラーフィルタ3の赤(R)、緑(G)、青(B)、赤外(IR)の各フィルタの透過率スペクトルが示されており、縦軸が透過率を示し、横軸が波長となっている。グラフにおける波長の範囲は、可視光帯域と近赤外帯域の一部を含むもので、例えば、300nm〜1100nmの波長範囲を示している。   Known filters can be used for the R filter portion, the G filter portion, and the B filter portion of the color filter 3, respectively. The transmittance spectra of the R filter unit, the G filter unit, and the B filter unit in the present embodiment are as shown in the graphs of FIGS. 2, 3, and 4. 2, 3 and 4 show the transmittance spectra of the red (R), green (G), blue (B), and infrared (IR) filters of the color filter 3, and the vertical axis. Indicates the transmittance, and the horizontal axis indicates the wavelength. The wavelength range in the graph includes a part of the visible light band and the near-infrared band, and indicates a wavelength range of 300 nm to 1100 nm, for example.

例えば、Rのフィルタ部は、グラフのR(二重線)に示すように、波長600nmで略最大の透過率となり、その長波長側は、1000nmを超えても透過率が略最大の状態が維持された状態となる。   For example, as shown by R (double line) in the graph, the R filter portion has a substantially maximum transmittance at a wavelength of 600 nm, and the long wavelength side has a substantially maximum transmittance even when the wavelength exceeds 1000 nm. It will be maintained.

Gのフィルタ部は、グラフのG(間隔の広い破線)に示すように、波長が540nm程度の部分に透過率極大となるピークを有し、その長波長側の620nm程度の部分に、透過率極小となる部分がある。また、Gのフィルタ部は、透過率極小となる部分より長波長側が上昇傾向となり、850nm程度で透過率が略最大となる。それより長波長側では、1000nmを超えても透過率が略最大となった状態となっている。Bのフィルタ部は、グラフのB(間隔の狭い破線)に示すように、波長が460nm程度の部分に透過率が極大となるピークを有し、その長波長側の630nm程度の部分に、透過率が極小となる部分がある。また、それより長波長側が上昇傾向となり、860nm程度で透過率が略最大となり、それより長波長側では、1000nmを超えても透過率が略最大となった状態となっている。IRのフィルタ部は、780nm程度から短波長側の光を遮断し、1020nm程度から長波長側の光を遮断し、820nm〜920nm程度の部分が透過率が略最大となっている。   The G filter portion has a peak at which the transmittance is maximized at a portion where the wavelength is about 540 nm, as indicated by G (broken line having a wide interval) in the graph, and the transmittance at a portion where the wavelength is about 620 nm on the long wavelength side. There is a part that becomes minimal. Further, the G filter portion tends to rise on the longer wavelength side from the portion where the transmittance is minimized, and the transmittance is substantially maximum at about 850 nm. On the longer wavelength side, the transmittance is substantially maximum even when the wavelength exceeds 1000 nm. As shown by B (broken line with a narrow interval) in the graph, the B filter portion has a peak at which the transmittance is maximized at a portion where the wavelength is about 460 nm, and is transmitted through the portion at about 630 nm on the long wavelength side. There is a part where the rate is minimal. Further, the longer wavelength side tends to increase, and the transmittance is substantially maximized at about 860 nm. On the longer wavelength side, the transmittance is substantially maximized even if it exceeds 1000 nm. The IR filter section blocks light on the short wavelength side from about 780 nm, blocks light on the long wavelength side from about 1020 nm, and the portion of about 820 nm to 920 nm has a substantially maximum transmittance.

R,G,B,IRの各フィルタ部の透過率スペクトルは、図2等に示すものに限られるものではないが、現在、一般的に使用されているカラーフィルタ3では、これに近い透過率スペクトルを示すと思われる。なお、透過率を示す横軸の1は、光を100%透過することを意味するものではなく、カラーフィルタ3において、例えば、最大の透過率を示すものである。   The transmittance spectrum of each of the R, G, B, and IR filter units is not limited to that shown in FIG. 2 and the like, but the color filter 3 that is currently used generally has a transmittance close to this. It seems to show a spectrum. In addition, 1 on the horizontal axis indicating the transmittance does not mean that 100% of light is transmitted, but the color filter 3 indicates, for example, the maximum transmittance.

カバーガラス4は、センサ本体2およびカラーフィルタ3を覆って保護するものである。
DBPF5は、ここでは、カバーガラス4に成膜された光学フィルタである。DBPF5は、可視光帯域に透過特性を有し、可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、前記第1の波長帯域内の一部分である第2の波長帯域に透過特性を有する光学フィルタである。
The cover glass 4 covers and protects the sensor body 2 and the color filter 3.
Here, the DBPF 5 is an optical filter formed on the cover glass 4. The DBPF 5 has a transmission characteristic in the visible light band, a cutoff characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and a second wavelength that is a part of the first wavelength band. An optical filter having transmission characteristics in a band.

すなわち、図2のグラフに示すように、DBPF5は、グラフでDBPF(実線)に示すように、DBPF(VR)で示す可視光帯域と、可視光帯域に対して長波長側の少し離れた位置のDBPF(IR)で示す赤外帯域(第2の波長帯域)の2つの帯域の透過率が高くなっている。また、可視光帯域の透過率の高い帯域としてのDBPF(VR)は、例えば、370nm〜700nm程度の波長帯域となっている。また、赤外側で透過率が高い第2の波長帯域としてのDBPF(IR)は、例えば、830nm〜970nm程度の帯域となっている。   That is, as shown in the graph of FIG. 2, the DBPF 5 is located at a position slightly apart from the visible light band indicated by DBPF (VR) on the long wavelength side with respect to the visible light band, as indicated by DBPF (solid line) in the graph. The transmittance of the two bands of the infrared band (second wavelength band) indicated by DBPF (IR) is high. Further, DBPF (VR) as a band having a high transmittance in the visible light band has a wavelength band of about 370 nm to 700 nm, for example. Further, DBPF (IR) as the second wavelength band having a high transmittance on the infrared side is, for example, a band of about 830 nm to 970 nm.

本実施の形態では、上述のカラーフィルタ3の各フィルタ部の透過率スペクトルと、DBPF5の透過率スペクトルの関係が以下のように規定されている。すなわち、DBPF5の透過率スペクトルの赤外光を透過する第2の波長帯域となるDBPF(IR)は、Rのフィルタ部、Gのフィルタ部、Bのフィルタ部の全てがほぼ最大の透過率となって各フィルタ部で透過率が略同じとなる図2に示す波長帯域A内に含まれ、かつ、IRのフィルタ部の略最大の透過率で光を透過する波長帯域B内に含まれるようになっている。   In the present embodiment, the relationship between the transmittance spectrum of each filter section of the color filter 3 and the transmittance spectrum of DBPF 5 is defined as follows. That is, DBPF (IR), which is the second wavelength band that transmits infrared light in the transmittance spectrum of DBPF5, has an almost maximum transmittance in all of the R filter unit, the G filter unit, and the B filter unit. 2 is included in the wavelength band A shown in FIG. 2 where the transmittance is substantially the same in each filter unit, and is also included in the wavelength band B that transmits light at the substantially maximum transmittance of the IR filter unit. It has become.

ここで、R,G,Bの各フィルタ部の透過率が略同じになる波長帯域Aとは、各フィルタ部の透過率の差が透過率で10%以下である部分とする。なお、この波長帯域Aより短波長側では、透過率が略最大のRのフィルタ部に対して、G、Bのフィルタ部の透過率が低くなる。DBPF5では、このR,G,Bの各フィルタ部の透過率に差がある部分が、可視光帯域の透過率が高い部分であるDBPF(VR)と、赤外光帯域の第2の波長帯域の透過率の高い部分であるDBPF(IR)との間のDBPF5の光を略遮断する透過率が極小となる部分に対応する。すなわち、赤外側では、R,G,Bの各フィルタ部の透過率の差が大きくなる部分の光の透過がカットされ、それより長波長側で各フィルタ部の透過率が略最大となって透過率が略同じになる波長帯域Aで光を透過するようになっている。   Here, the wavelength band A in which the transmittances of the R, G, and B filter portions are substantially the same is a portion where the transmittance difference of each filter portion is 10% or less. Note that, on the shorter wavelength side than the wavelength band A, the transmittances of the G and B filter units are lower than the R filter unit having the maximum transmittance. In DBPF5, the difference in transmittance of the R, G, and B filter portions is DBPF (VR), which is a portion with high transmittance in the visible light band, and the second wavelength band in the infrared light band. This corresponds to a portion where the transmittance for substantially blocking the light of DBPF 5 between DBPF (IR) and the portion having a high transmittance is minimal. That is, on the infrared side, the transmission of light in a portion where the difference in transmittance between the R, G, and B filter portions becomes large is cut, and the transmittance of each filter portion becomes substantially maximum on the longer wavelength side. Light is transmitted in the wavelength band A where the transmittance is substantially the same.

以上のことから、本実施の形態において、赤外光カットフィルタに代えて用いられるDBPF5では、可視光帯域だけではなく、赤外光側の第2の波長帯域にも光を透過する領域があるため、可視光によるカラー撮影に際して、第2の波長帯域を通過した光の影響を受けることになるが、上述のように第2の波長帯域がR,G,Bの各フィルタ部で透過率が異なる部分の光を透過せず、各フィルタ部の透過率が略最大となって略同じ透過率となる波長帯域の光だけを透過するようになっている。   From the above, in the present embodiment, DBPF 5 used in place of the infrared light cut filter has a region that transmits light not only in the visible light band but also in the second wavelength band on the infrared light side. Therefore, in color imaging with visible light, it is affected by the light that has passed through the second wavelength band. However, as described above, the second wavelength band has transmittance in each of the R, G, and B filter units. The light of different portions is not transmitted, and only the light in the wavelength band in which the transmittance of each filter unit is substantially maximized and has substantially the same transmittance is transmitted.

また、DBPF5の第2の波長帯域においては、IRのフィルタ部で透過率が略最大となる部分の光を透過するようになっている。したがって、略同じ光が照射される極めて近接した4つの画素にR,G,B,IRのフィルタ部がそれぞれ設けられていると仮定した場合に、第2の波長帯域においては、Rのフィルタ部、Gのフィルタ部、Bのフィルタ部、IRのフィルタ部で略同様に光が通過することになり、赤外側の光としては、IRを含む各フィルタ部で略同じ光量の光が撮像センサ本体の上述の画素のフォトダイオードに至ることになる。すなわち、R,G,Bの各フィルタを透過する光のうちの赤外側の第2の波長帯域を通過する光の光量は、IRのフィルタ部を通過する光の光量と同様となる。上述のように仮定した場合に、基本的にR,G,Bの各フィルタを透過した光を受光したセンサ本体2からの上述のように仮定された画素の出力信号とIRのフィルタを通過した光を受光したセンサ本体2からの上述のように仮定された画素の出力信号との差分が、各R,G,Bのフィルタ部で通過した赤外側の光をカットしたR,G,Bそれぞれの可視光部分の出力信号となる。   Further, in the second wavelength band of DBPF 5, light in a portion where the transmittance is substantially maximum in the IR filter portion is transmitted. Therefore, when it is assumed that R, G, B, and IR filter units are respectively provided in four very close pixels irradiated with substantially the same light, the R filter unit is used in the second wavelength band. , G filter part, B filter part, IR filter part, light passes through in substantially the same manner, and as infrared light, light of substantially the same amount of light in each filter part including IR is image sensor body To the photodiode of the above-mentioned pixel. That is, the amount of light that passes through the second wavelength band on the infrared side of the light that passes through the R, G, and B filters is the same as the amount of light that passes through the IR filter section. When assumed as described above, basically, the output signal of the assumed pixel from the sensor body 2 receiving the light transmitted through the R, G, and B filters and the IR filter as described above are passed. R, G, and B obtained by cutting off the infrared light that has passed through the R, G, and B filter sections as the difference from the assumed pixel output signal from the sensor body 2 that has received the light as described above. The output signal of the visible light portion.

実際には、カラーフィルタ3(3a,3b,3c)の各パターンに示したように、センサ本体2の各画素にR,G,B,IRのいずれか1つのフィルタ部が配置されることになり、各画素に照射される各色の光のそれぞれの光量が異なるものとなる可能性が高いので、例えば、各画素において、周知の内挿法(補間法)を用いて、各画素の各色の輝度を求め、この補間された各画素のR,G,Bの輝度と、同じく補間されたIRの輝度との差分をそれぞれR,G,Bの輝度とすることが可能である。なお、R,G,Bの各色の輝度から赤外光成分を除く画像処理方法は、これに限られるものではなく、最終的にR,G,Bの各輝度から第2の波長帯域を通過した光の影響をカットできる方法であれば、いずれの方法を用いてもよい。いずれの方法においても、DBPF5が、赤外側でR,G,Bのフィルタ部の透過率が10%より異なる部分、すなわち、透過率が所定割合より異なる部分をカットしているので、各画素において、赤外光の影響を除く処理が容易となる。   Actually, as shown in each pattern of the color filter 3 (3a, 3b, 3c), one of the R, G, B, and IR filter sections is arranged in each pixel of the sensor body 2. Therefore, there is a high possibility that the amount of light of each color irradiated to each pixel is different. For example, in each pixel, using a well-known interpolation method (interpolation method), for each color of each pixel Luminance is obtained, and the difference between the interpolated R, G, and B luminances of the interpolated pixels and the interpolated IR luminance can be set as the R, G, and B luminances, respectively. Note that the image processing method for removing the infrared light component from the luminance of each color of R, G, B is not limited to this, and finally passes through the second wavelength band from each luminance of R, G, B. Any method may be used as long as it can cut the influence of light. In any method, the DBPF 5 cuts a portion where the transmittance of the R, G, B filter portion on the infrared side is different from 10%, that is, a portion where the transmittance is different from a predetermined ratio. This makes it easy to remove the influence of infrared light.

また、この撮像センサ1の用途としては、カラー撮影と、赤外光撮影との両方が可能な撮像装置において、撮像センサとして用いることである。一般的には、通常の撮影をカラー撮影で行い、夜間に可視光の照明を用いることなく、人間には認識困難な赤外光の照明を用いて赤外撮影することが考えられる。例えば、各種監視カメラ等において、夜間照明を必要としないか、夜間照明されないことが好ましい場所での夜間撮影に際し、赤外光照明を用いた赤外光による夜間撮影を行うことが考えられる。また、野生動物の観察のための昼間の撮影と夜間の撮影などの用途にも用いることができる。   The imaging sensor 1 is used as an imaging sensor in an imaging apparatus capable of both color photography and infrared photography. In general, it is conceivable to perform normal photographing by color photographing and perform infrared photographing using infrared light illumination that is difficult for humans to recognize without using visible light illumination at night. For example, in various types of surveillance cameras, it is conceivable to perform night photographing with infrared light using infrared light illumination at the time of night photographing in a place where night illumination is not required or preferably not illuminated at night. It can also be used for daytime photography and nighttime photography for wildlife observation.

赤外光撮影を夜間撮影として用いる場合には、赤外光であっても可視光と同様に、夜間は光量が不足するので、赤外光照明が必要となる。図3に示すDBPF5の透過率スペクトルは、R,G,B,IRの各フィルタ部の透過率スペクトルと、赤外光照明用の光、例えば、照明用赤外光LEDの発光スペクトルを考慮して決定されたものである。図3では、図2と同様の各色のフィルタ部の透過率スペクトルR,G,B,IRと、DBPF5の透過率スペクトルDBPFに加えて、LED照明の発光スペクトルIR−lightが図示されている。   When infrared light photographing is used as night photographing, the amount of light is insufficient at night as in the case of visible light, so infrared light illumination is necessary. The transmittance spectrum of DBPF 5 shown in FIG. 3 takes into account the transmittance spectrum of each of the R, G, B, and IR filter sections and the emission spectrum of light for infrared illumination, for example, the infrared LED for illumination. Determined. 3, in addition to the transmittance spectra R, G, B, IR of the filter portions of the same colors as in FIG. 2 and the transmittance spectrum DBPF of DBPF5, an emission spectrum IR-light of LED illumination is shown.

図3に示すDBPFの赤外光を透過する部分であるDBPF(IR)で示す第2の波長帯域は、図2に示すDBPFと同様に、Rのフィルタ部、Gのフィルタ部、Bのフィルタ部の全てが略最大の透過率となって各フィルタ部で透過率が略同じとなる図2に示す波長帯域A内に含まれ、かつ、IRのフィルタ部の最大の透過率で光を透過する波長帯域B内に含まれるようになっている。   As in the DBPF shown in FIG. 2, the second wavelength band indicated by DBPF (IR), which is a part that transmits infrared light of the DBPF shown in FIG. 3, is an R filter unit, a G filter unit, and a B filter. 2 are included in the wavelength band A shown in FIG. 2 where the transmittance is substantially the same in each filter portion, and light is transmitted with the maximum transmittance of the IR filter portion. In the wavelength band B to be included.

それに加えて、上述の波長帯域Aと波長帯域Bとの両方に含まれる赤外光照明の発光スペクトルのピークとなる波長帯域の略全体がDBPF(IR)の波長帯域に含まれるようになっている。なお、赤外光撮影を夜間の自然光ではなく、赤外光照明下で行う場合にDBPF(IR)で示す第2の波長帯域が赤外光照明の光学スペクトルのピーク幅より広い必要はなく、赤外光照明のスペクトルが上述の波長帯域Aおよび波長帯域Bの両方に含まれる場合に、赤外光照明の発光スペクトルの例えば860程度を頂点とするピークのピーク幅と略同様のピーク幅で第2の波長帯域としてDBPF(IR)で示されるDBPF5の透過率のピーク部分を設けてもよい。   In addition, substantially the entire wavelength band that is the peak of the emission spectrum of infrared illumination included in both the wavelength band A and the wavelength band B described above is included in the DBPF (IR) wavelength band. Yes. Note that the second wavelength band indicated by DBPF (IR) does not have to be wider than the peak width of the optical spectrum of infrared light illumination when infrared light photography is performed under infrared light illumination instead of nighttime natural light. When the spectrum of the infrared light illumination is included in both the wavelength band A and the wavelength band B described above, the peak width of the emission spectrum of the infrared light illumination is approximately the same as the peak width having a peak at about 860, for example. You may provide the peak part of the transmittance | permeability of DBPF5 shown by DBPF (IR) as a 2nd wavelength band.

すなわち、図3においては、IR−lightで示す赤外光照明の発光スペクトルにおけるピークが上述の波長帯域Aおよび波長帯域Bの短波長側にあり、DBPF(IR)で示すDBPFの第2の波長帯域が波長帯域Aおよび波長帯域Bの短波長側部分のIR−lightにおける発光スペクトルのピークと略重なるようになっている。   That is, in FIG. 3, the peak in the emission spectrum of infrared illumination indicated by IR-light is on the short wavelength side of the above-described wavelength band A and wavelength band B, and the second wavelength of DBPF indicated by DBPF (IR) The band substantially overlaps the peak of the emission spectrum in the IR-light of the short wavelength side portion of the wavelength band A and the wavelength band B.

また、図4に示すグラフも、図3に示すフラフと同様に、図2に示すグラフに赤外光照明の発光スペクトルを加えるとともに、DBPF5の透過率スペクトルの赤外側の透過率が高い部分であるDBPF(IR)で示す第2の波長帯域を上述の赤外光照明のIR−lightで示す発光スペクトルのピークに合わせたものである。   Also, the graph shown in FIG. 4 is similar to the fluff shown in FIG. 3 in that the emission spectrum of infrared illumination is added to the graph shown in FIG. 2 and the infrared side transmittance of the DBPF5 transmittance spectrum is high. The second wavelength band indicated by a certain DBPF (IR) is matched with the peak of the emission spectrum indicated by IR-light of the above-mentioned infrared light illumination.

図4においては、赤外光照明として、図3に示す場合よりも発光スペクトルのピークの波長が長いものを用いており、このピークは、上述の波長帯域Aおよび波長帯域Bに含まれるとともに、波長帯域Aおよび波長帯域Bの長波長側に存在する。それに対応してDBPF5のDBPF(IR)で示す第2の波長帯域が上述の波長帯域Aおよび波長帯域B内で赤外照明のIR−lightで示されるピークと略重なるように設けられている。   In FIG. 4, infrared light illumination having a longer emission spectrum peak wavelength than that shown in FIG. 3 is used, and this peak is included in the above-described wavelength band A and wavelength band B. It exists on the long wavelength side of the wavelength band A and the wavelength band B. Correspondingly, the second wavelength band indicated by DBPF (IR) of DBPF 5 is provided so as to substantially overlap with the peak indicated by IR-light of the infrared illumination in the above-described wavelength band A and wavelength band B.

なお、DBPF5の第2の波長帯域は、図2、図3、図4のいずれに示すものであってもよく、第2の波長帯域が上述の波長帯域Aと波長帯域Bとの両方に含まれていればよい。また、夜間の赤外光撮影で用いられる赤外光照明の発光スペクトルのピークとなる波長帯域が決まっている場合に、その波長帯域を上述の波長帯域Aと波長帯域Bの両方に含まれるようにするとともに、赤外光照明の発光スペクトルのピークにDBPF5の第2の波長帯域を合わせることが好ましい。   The second wavelength band of DBPF 5 may be that shown in any of FIGS. 2, 3, and 4, and the second wavelength band is included in both wavelength band A and wavelength band B described above. It only has to be done. Further, when the wavelength band that is the peak of the emission spectrum of infrared light illumination used for nighttime infrared light photography is determined, the wavelength band is included in both the wavelength band A and the wavelength band B described above. In addition, it is preferable to match the second wavelength band of DBPF 5 with the peak of the emission spectrum of infrared illumination.

このような撮像センサにあっては、DBPF5の赤外側で光を透過する第2の波長帯域が、R,G,B,IRの各フィルタ部の赤外側で、各フィルタ部の透過率が略最大となって、各フィルタ部の透過率が略同じと波長帯域Aに含まれるとともに、IRのフィルタ部の透過率が略最大となる波長帯域Bに含まれる。言い換えれば、可視光帯域より長波長側で、R,G,Bの各フィルタの透過率がRのフィルタ部だけ略最大となって、G、Bのフィルタ部は透過率が略最大となっていないことにより、R,G,Bの各フィルタ部の透過率が略同じとならずに異なる部分の光は、DBPF5によりカットされる。   In such an image sensor, the second wavelength band that transmits light on the infrared side of the DBPF 5 is the infrared side of each of the R, G, B, and IR filter units, and the transmittance of each filter unit is substantially the same. The maximum is included in the wavelength band A when the transmittance of each filter part is substantially the same, and is included in the wavelength band B where the transmittance of the IR filter part is substantially maximum. In other words, on the longer wavelength side of the visible light band, the transmittance of each of the R, G, and B filters is substantially maximum only for the R filter portion, and the transmittance of the G and B filter portions is substantially maximum. Due to the absence, the transmittances of the R, G, and B filter portions are not substantially the same, and different portions of light are cut by the DBPF 5.

すなわち、R,G,B,IRの各フィルタ部では、赤外側で第2の波長帯域の光が透過するようになっていることから各フィルタ部における赤外側の透過率が全て略同じとなり、第2の波長帯域となる光が同じ光量で照射されれば、R,G,B,IRの各フィルタ部における透過光量が同じになる。これにより、上述のようにR,G,Bの各フィルタ部に対応する画素からの出力信号に基づく色を補正し、カラー撮影時の色の第2の波長帯域を通過する赤外光による影響を抑制した画像を容易に得ることができる。   That is, in each filter part of R, G, B, IR, since the light of the second wavelength band is transmitted on the infrared side, the infrared side transmittance in each filter part is substantially the same, If the light in the second wavelength band is irradiated with the same light amount, the transmitted light amounts in the R, G, B, and IR filter units are the same. Thereby, as described above, the color based on the output signal from the pixel corresponding to each of the R, G, and B filter units is corrected, and the influence of the infrared light passing through the second wavelength band of the color at the time of color photographing is performed. It is possible to easily obtain an image in which the above is suppressed.

また、第2の波長帯域を上述の波長帯域Aと波長帯域Bに含まれる赤外光照明の発光スペクトルのピークに対応させることにより、赤外光照明の光を効率的に用いられるとともに、第2の波長帯域の幅を狭めて、カラー撮影時に、第2の波長帯域を通過する赤外光の影響を小さくすることができる。   Further, by making the second wavelength band correspond to the peak of the emission spectrum of the infrared light illumination included in the wavelength band A and the wavelength band B described above, the light of the infrared light illumination can be used efficiently, The width of the second wavelength band can be narrowed to reduce the influence of infrared light passing through the second wavelength band during color photography.

図6は、本実施の形態の撮像センサ1を用いた撮像装置10を示すものである。撮像装置10は、撮影用のレンズ11と、DBPF5を備えた撮像センサ1と、撮像センサ1から出力される出力信号13を処理して、上述の内装処理や、カラー撮影時の第2の波長帯域を通過した赤外光の影響を除去する画像処理や、ガンマ補正や、ホワイトバランスや、RGBマトリックス補正等の画像処理を画像信号に施す信号処理部(信号処理デバイス)12とを備える。画像処理部からは可視のカラー画像の出力信号14と、赤外光画像の出力信号15が出力可能になっている。   FIG. 6 shows an imaging apparatus 10 using the imaging sensor 1 of the present embodiment. The imaging device 10 processes the imaging lens 11, the imaging sensor 1 including the DBPF 5, and the output signal 13 output from the imaging sensor 1, and performs the above-described interior processing or the second wavelength during color imaging. A signal processing unit (signal processing device) 12 that performs image processing for removing the influence of infrared light that has passed through the band, image processing such as gamma correction, white balance, and RGB matrix correction on the image signal is provided. A visible color image output signal 14 and an infrared light image output signal 15 can be output from the image processing unit.

レンズ11は、撮像装置10の撮像センサ1上に像を結ぶ光学系を構成するものである。レンズ11は、例えば、複数のレンズから構成されている。   The lens 11 constitutes an optical system that forms an image on the imaging sensor 1 of the imaging device 10. The lens 11 is composed of a plurality of lenses, for example.

図7は、撮像装置10の信号処理部12における信号処理をブロック図で示したものである。R,G,B,IRの各画素の出力信号は、各内装処理ブロック21r、21g、21b、21irに送られる。各内装処理ブロック21r、21g、21b、21irでは、例えば、図8に示すように、上述のカラーフィルタ3bの場合に、内挿処理(補間処理)により各フレーム毎の画像データにおいて、それぞれ、全ての画素が赤Rで表された画像データ20r、全ての画素が緑Gで表された画像データ20gと、全ての画素が青Bで表された画像データ20bと、全ての画素が赤外IRで表された画像データ20irとするようにR,G,B,IRの信号を変換する。なお、内挿処理方法は、周知の方法を用いることができる。   FIG. 7 is a block diagram showing signal processing in the signal processing unit 12 of the imaging apparatus 10. Output signals from the R, G, B, and IR pixels are sent to the interior processing blocks 21r, 21g, 21b, and 21ir. In each of the interior processing blocks 21r, 21g, 21b, and 21ir, for example, as shown in FIG. 8, in the case of the above-described color filter 3b, all of the image data for each frame by interpolation processing (interpolation processing) Image data 20r in which all pixels are represented by red R, image data 20g in which all pixels are represented by green G, image data 20b in which all pixels are represented by blue B, and all pixels are infrared IR The R, G, B, and IR signals are converted so that the image data is represented by 20ir. A known method can be used as the interpolation processing method.

次に、赤外光除去信号作成ブロック22r、22g、22b、22irにおいて、上述の第2の波長帯域から受光される赤外光の影響を除去するために、R,G,Bの各色の信号から減算する信号をIRの信号から生成する。この赤外光除去信号作成ブロック22r、22g、22bでR,G,B毎に作成された信号を、R,G,Bの各色の信号から減算する。この場合に、上述のように同じ画素では、基本的にR,G,Bの各信号からIRの信号を除去すればいいので、処理が容易になる。実際には、各画素のフィルタ部の特性等により各色の画素毎に感度が異なるので、R,G,Bの各画像毎にR,G,Bの各信号から減算する信号をIRの信号から作成する。   Next, in the infrared light removal signal creation blocks 22r, 22g, 22b, and 22ir, in order to remove the influence of the infrared light received from the second wavelength band described above, signals of each color of R, G, and B are used. A signal to be subtracted from is generated from the IR signal. The signals created for each of R, G, and B by the infrared light removal signal creation blocks 22r, 22g, and 22b are subtracted from the signals of the R, G, and B colors. In this case, for the same pixel as described above, the IR signal is basically removed from the R, G, and B signals, which facilitates processing. Actually, the sensitivity differs for each color pixel depending on the characteristics of the filter section of each pixel, and therefore, a signal to be subtracted from each R, G, B signal for each R, G, B image from the IR signal. create.

次に、R,G,Bの各信号は、画像処理ブロック23において、行列式を用いてR,G,Bの各信号を変換して色を補正する周知のRGBマトリックス処理と、画像で白となる部分でR,G,Bの各信号の出力値が同じとなるようにする周知のホワイトバランス処理、ディスプレイ等への画像出力のための補正である周知のガンマ補正を行う。次いで、輝度マトリックスブロック24において、R,G,Bの各色の信号に係数を乗算して輝度Yの信号を生成する。また、青Bの信号と、赤Rの信号から輝度Yの信号を除算することにより、R−YとB−Yの色差信号を算出し、Y、R−Y、B−Yの信号を出力する。
また、IRの信号は、基本的に白黒のグラディエーションの画像として出力される。
Next, in the image processing block 23, the R, G, and B signals are converted into R, G, and B signals using a determinant to correct the colors, and a known RGB matrix process is performed. The well-known gamma correction which is the correction for the image output to a known white balance process and a display etc. which makes the output value of each signal of R, G, B become the same is performed. Next, in the luminance matrix block 24, a signal of luminance Y is generated by multiplying the R, G, B color signals by coefficients. Also, by dividing the signal of luminance Y from the signal of blue B and red R, the color difference signals of RY and BY are calculated, and Y, RY, and BY signals are output. To do.
The IR signal is basically output as a monochrome gradation image.

このような撮像装置10では、上述の撮像センサ1で説明したように、カラー画像から赤外光の影響を除去する画像処理を容易に行うことができ、色再現性に優れた可視のカラー画像を得られる。また、このような撮像装置の開発コストの低減を図ることができる。
上述のように、可視光撮影における画像処理により第2の波長帯域を通過した赤外光の影響をカットする際に、R,G,Bの各フィルタ部の互いに透過率が大きく異なる部分は、DBPFにより物理的にカットされていることになり、画像処理では、R,G,Bの各フィルタ部の赤外側で透過率が略最大となった部分のIR光をカットする処理を行えばいいことになる。この場合に、画像処理が容易になり、従来の赤外光カットフィルタを用いた場合と同様の色再現性を有するカラー画像データを得ることが可能となる。
In such an imaging apparatus 10, as described in the above-described imaging sensor 1, it is possible to easily perform image processing for removing the influence of infrared light from a color image, and a visible color image having excellent color reproducibility. Can be obtained. In addition, the development cost of such an imaging apparatus can be reduced.
As described above, when the influence of infrared light that has passed through the second wavelength band is cut by image processing in visible light imaging, the R, G, and B filter units have mutually different transmittances. Since it is physically cut by the DBPF, in the image processing, it is only necessary to perform a process of cutting the IR light at a portion where the transmittance is substantially maximum on the infrared side of each of the R, G, and B filter portions. It will be. In this case, image processing becomes easy, and it becomes possible to obtain color image data having the same color reproducibility as when a conventional infrared light cut filter is used.

例えば、R,G,Bの各フィルタ部を通過してフォトダイオードに至る光は、可視光域の各フィルタ部を透過した可視光と、R,G,Bの各フィルタ部で同様となるとともに、IRのフィルタ部で同様となる第2の波長帯域を通過した赤外光となる。したがって、撮像センサ1のR,G,Bの内挿処理後の各出力信号から、例えば、各色のフィルタ部に基づく感度等の特性に合わせて補正した内挿処理後のIRの出力信号を減算することにより、赤外カットフィルタを用いた場合に近い色再現性を得ることができる。   For example, the light that passes through the R, G, and B filter sections and reaches the photodiode is the same as the visible light that has passed through the respective filter sections in the visible light region and the R, G, and B filter sections. The infrared light that has passed through the second wavelength band that is the same in the IR filter section. Therefore, for example, the output signal of the IR after the interpolation processing corrected according to the characteristics such as the sensitivity based on the filter unit of each color is subtracted from each output signal after the interpolation processing of the R, G, B of the imaging sensor 1. By doing this, it is possible to obtain color reproducibility close to that when an infrared cut filter is used.

なお、光を透過する第2の波長帯域に、R,G,Bの各フィルタ部での透過率に透過率で10%より大きな差がある波長帯域が含まれると、実質的に各フィルタ部を通過した光からカットすべき赤外光の量を求めることが困難になり、赤外光カットフィルタを用いた場合と同様の色再現性を有する画像データを画像処理で得ることが困難である。   When the second wavelength band that transmits light includes a wavelength band in which the transmittance in each of the R, G, and B filter units has a difference of greater than 10% in transmittance, each filter unit substantially It is difficult to obtain the amount of infrared light that should be cut from the light that has passed through the image, and it is difficult to obtain image data having the same color reproducibility by using image processing as when an infrared light cut filter is used. .

次に、本発明の第2の実施の形態の撮像装置を説明する。図9に示すように第2の実施の形態の撮像装置10aは、撮像センサ1にDBPF5を設けるのではなく、レンズ11にDPBF5を設けたものである。撮像装置10aは、DBPF5を備えた撮影用のレンズ11と、撮像センサ1と、撮像センサ1から出力される出力信号13を処理して、上述の内装処理や、カラー撮影時の第2の波長帯域を通過した赤外光の影響を除去する画像処理や、ガンマ補正や、ホワイトバランスや、RGBマトリックス補正等の画像処理を画像信号に施す信号処理部12とを備える。画像処理部からは可視のカラー画像の出力信号14と、赤外光画像の出力信号15が出力可能になっている。   Next, an imaging device according to a second embodiment of the present invention will be described. As illustrated in FIG. 9, the imaging apparatus 10 a according to the second embodiment is configured such that the DBPF 5 is not provided in the imaging sensor 1 but the DPBF 5 is provided in the lens 11. The imaging device 10a processes the imaging lens 11 provided with the DBPF 5, the imaging sensor 1, and the output signal 13 output from the imaging sensor 1, and performs the above-described interior processing and the second wavelength during color imaging. And a signal processing unit 12 that performs image processing for removing the influence of infrared light that has passed through the band, image processing such as gamma correction, white balance, and RGB matrix correction on the image signal. A visible color image output signal 14 and an infrared light image output signal 15 can be output from the image processing unit.

DBPF5とカラーフィルタ3は、第1の実施の形態のDBPF5とカラーフィルタ3と同様のものであり、カラーフィルタ3のR,G,B,IRの各フィルタ部の透過率と、DPBF5の第2の波長帯域DBPF(IR)の関係も第1の実施の形態と同様になっている。したがって、第1の実施の形態と異なり、レンズ11にDBPF5が設けられていても、第1の実施の形態の撮像装置10と同様の作用効果を奏することができる。なお、DBPF5は、撮像装置10aの光学系に設けられ、撮像センサ1に至る光に対して、可視光帯域(DBPF(VR))と、赤外側の第2の波長帯域(DBPF(IR))との光を透過させ、可視光帯域の短波長側と、第2の波長帯域の長波長側と、可視光帯域と第2の波長帯域との間の波長帯域とで光を遮断するようになっていればどこに設けられていてもよい。   The DBPF 5 and the color filter 3 are the same as the DBPF 5 and the color filter 3 of the first embodiment. The transmittance of each of the R, G, B, and IR filter portions of the color filter 3 and the second of the DPBF 5 The relationship of the wavelength band DBPF (IR) is the same as that of the first embodiment. Therefore, unlike the first embodiment, even if the lens 11 is provided with the DBPF 5, the same operational effects as those of the imaging device 10 of the first embodiment can be obtained. The DBPF 5 is provided in the optical system of the imaging device 10a, and has a visible light band (DBPF (VR)) and a second wavelength band on the infrared side (DBPF (IR)) with respect to light reaching the imaging sensor 1. So that the light is blocked at the short wavelength side of the visible light band, the long wavelength side of the second wavelength band, and the wavelength band between the visible light band and the second wavelength band. It may be provided anywhere as long as it is.

次に、本発明の第3の実施の形態の撮像センサおよび撮像装置を説明する。第3の実施の形態の撮像センサ1および撮像装置は、カラーフィルタ3の一部の構成と、RGBの各信号からのIR成分の除去方法が異なるものとなっているが、その他の構成は第1の実施の形態と同様となっており、以下にカラーフィルタ3と、IR成分の除去方法について説明する。   Next, an imaging sensor and an imaging apparatus according to the third embodiment of the present invention will be described. The imaging sensor 1 and the imaging apparatus according to the third embodiment are different in the configuration of a part of the color filter 3 and the IR component removal method from the RGB signals. The color filter 3 and the IR component removal method will be described below.

本実施の形態において、カラーフィルタ3e(RGBCの構成1)は、例えば、図10に示すように、上述のベイヤ配列のカラーフィルタ3xのパターンの4つのBのうちの2つをCとし、4つのRのうちの2つをCとし、8つのGのうちの4つをCとしている。すなわち、カラーフィルタ3eは、4行4列の基本配列において、R,G,B,Cの4種類のフィルタ部のうちのGのフィルタ部が4つ、Cのフィルタ部が8つ、Rのフィルタ部およびBのフィルタ部が2つずつ配置されるとともに、同じ種類のフィルタ部同士は互いに行方向および列方向で隣接しないように離れて配置されている。したがって、8つ配置されるCのフィルタ部は市松模様となるように配置される。ここで、Cとは、クリアなフィルタ部として素通しの状態を示すもので、基本的に可視光帯域から近赤外の波長帯域まで透過特性を有するものとなっており、ここでは、可視光帯域においてC=R+G+Bとしている。なお、クリアとなるCは、RGBの3色が透過することから白色光、すなわちホワイト(W)ということができ、C=W=R+G+Bとなる。したがって、Cは、可視光帯域の略全波長帯域の光量に対応することになる。   In the present embodiment, the color filter 3e (RGBC configuration 1), for example, as shown in FIG. 10, two of the four B of the pattern of the color filter 3x in the Bayer array described above are represented as C. Two of the two R's are C, and four of the eight G's are C. That is, the color filter 3e has a basic arrangement of 4 rows and 4 columns, of 4 types of R, G, B, and C filter units, 4 G filter units, 8 C filter units, Two filter units and two B filter units are arranged, and the same type of filter units are arranged so as not to be adjacent to each other in the row direction and the column direction. Accordingly, the eight C filter units are arranged in a checkered pattern. Here, C indicates a transparent state as a clear filter part, and basically has transmission characteristics from the visible light band to the near-infrared wavelength band. Here, the visible light band C = R + G + B. Note that C, which is clear, can be referred to as white light, that is, white (W) because three colors of RGB are transmitted, and C = W = R + G + B. Therefore, C corresponds to the amount of light in substantially the entire wavelength band of the visible light band.

ここで、図11のカラーフィルタ3eおよびDBPF5の透過率スペクトル(分光透過特性)を示すグラフに示すように、R、G、Bの各フィルタ部で可視光帯域の長波長側では透過特性があり、クリアなフィルタ部であるCのフィルタ部においても可視光帯域の長波長側で光が透過するようにうなっている。これに対してDBPF5を用いることにより、第1の実施の形態と同様に、可視光帯域より長波長側を透過する赤外を第2の波長帯域となるように制限することになり、R、G、B、Cのフィルタ部とDBPF5を通過する光量がR、G、B、Cの各フィルタ部でほぼ同じ(近似)になり、可視光帯域では、R、G、B、Cの各フィルタ部の波長に応じた透過特性が異なる。   Here, as shown in the graph showing the transmittance spectra (spectral transmission characteristics) of the color filter 3e and the DBPF 5 in FIG. 11, the R, G, and B filter sections have transmission characteristics on the long wavelength side of the visible light band. Even in the C filter section, which is a clear filter section, light is transmitted on the long wavelength side of the visible light band. On the other hand, by using DBPF5, similarly to the first embodiment, the infrared that transmits the longer wavelength side than the visible light band is limited to the second wavelength band, and R, The amount of light passing through the G, B, and C filter units and the DBPF 5 is almost the same (approximate) in each of the R, G, B, and C filter units, and in the visible light band, the R, G, B, and C filters The transmission characteristics differ according to the wavelength of the part.

なお、第1および第2の実施の形態においても、可視光帯域より長波長側を透過する赤外を第2の波長帯域となるように制限することになり、R、G、B、IRのフィルタ部とDBPF5を通過する光量がR、G、B、IRの各フィルタ部でほぼ同じになり、可視光帯域では、R、G、B、IRの各フィルタ部の波長に応じた透過特性が異なる。   In the first and second embodiments as well, the infrared that transmits longer wavelengths than the visible light band is limited to the second wavelength band, and R, G, B, IR The amount of light passing through the filter unit and the DBPF 5 is substantially the same in each of the R, G, B, and IR filter units, and in the visible light band, transmission characteristics corresponding to the wavelengths of the R, G, B, and IR filter units are provided. Different.

これにより、第3の実施の形態においても、各画素のIR補正を精度良く行い、色再現性が高い可視画像の生成が可能になる。すなわち、第1の実施の形態のように可視光帯域の略全波長域に遮断特性を有し、可視光帯域より長波長側の赤外に透過特性を有する上述のIRのフィルタ部を備えなくても、Cのフィルタ部を備えることにより、IR信号を下記の式で計算できる。   Thereby, also in the third embodiment, IR correction of each pixel can be performed with high accuracy, and a visible image with high color reproducibility can be generated. In other words, unlike the first embodiment, it does not include the above-described IR filter unit that has a cutoff characteristic in substantially the entire wavelength range of the visible light band and has a transmission characteristic in the infrared on a longer wavelength side than the visible light band. However, by providing the C filter unit, the IR signal can be calculated by the following equation.

以下の説明で、C(W)、R、G、B、IRは、撮像センサ1からの出力信号のレベルを示すが、C(W)、R、G、Bは、可視光帯域のレベルを示し、赤外成分を含まないものとする。
ここで、カラーフィルタ3eをC=W≒R+G+Bと設計し、RGBの各信号から除去すべきIR信号をIR’とすると、
IR’=((R+IR)+(G+IR)+(B+IR)−(C+IR))/2=IR+(R+G+B−C)/2
IR’≒IRとなる。なお、IRは計測等により求められる実際の値を示し、IR’は、計算により求められる値を示す。各フィルタより、IR’を減算することにより、IR補正ができる。
すなわち、
Rフィルタ(R+IR):
R’=(R+IR)−IR’=R−(R+G+B−C)/2
Gフィルタ(G+IR):
G’=(G+IR)−IR’=G−(R+G+B−C)/2
Bフィルタ(B+IR):
B’=(B+IR)−IR’=B−(R+G+B−C)/2
C(=W)フィルタ(W+IR):
W’=(C+IR)−IR’=C−(R+G+B−C)/2
となる。
In the following description, C (W), R, G, B, and IR indicate the level of the output signal from the imaging sensor 1, but C (W), R, G, and B indicate the level of the visible light band. It is assumed that the infrared component is not included.
Here, when the color filter 3e is designed as C = W≈R + G + B, and the IR signal to be removed from the RGB signals is IR ′,
IR ′ = ((R + IR) + (G + IR) + (B + IR) − (C + IR)) / 2 = IR + (R + G + B−C) / 2
IR′≈IR. IR represents an actual value obtained by measurement or the like, and IR ′ represents a value obtained by calculation. IR correction can be performed by subtracting IR ′ from each filter.
That is,
R filter (R + IR):
R ′ = (R + IR) −IR ′ = R− (R + G + B−C) / 2
G filter (G + IR):
G ′ = (G + IR) −IR ′ = G− (R + G + B−C) / 2
B filter (B + IR):
B ′ = (B + IR) −IR ′ = B− (R + G + B−C) / 2
C (= W) filter (W + IR):
W ′ = (C + IR) −IR ′ = C− (R + G + B−C) / 2
It becomes.

これにより、カラーフィルタ3において、IRのフィルタ部に代えてクリアなCのフィルタ部を用いてもDBPF5により各フィルタ部のIRの透過率を近似させることができ、上述のようにIR成分を求めて、これを各フィルタ部の信号から取り除くことで、色再現性を向上することができる。   Thus, even if a clear C filter unit is used instead of the IR filter unit in the color filter 3, the IR transmittance of each filter unit can be approximated by the DBPF 5, and the IR component is obtained as described above. By removing this from the signal of each filter unit, color reproducibility can be improved.

なお、このような計算は、上述のように内挿法により、例えば、各画素で、R+IR、G+IR、B+IR、C+IRを求め、各画素で上述の計算を行うことになる。なお、C=W≒R+G+Bと設計するものとしたが、必ずしも略正確にこの式に一致する必要はなく、近似していれば、誤差やその他の要によりずれがあってもよく、例えば、10%程度のずれがあってもよい。   Note that such calculation is performed by interpolation as described above, for example, R + IR, G + IR, B + IR, C + IR is obtained for each pixel, and the above calculation is performed for each pixel. The design is made such that C = W≈R + G + B. However, it is not always necessary to agree with this expression almost exactly, and if approximate, there may be a deviation due to an error or other necessity. There may be a deviation of about%.

また、Cについては、R+G+Bとなることで、画素の受光量が多く飽和し易くなることから、Cのフィルタ部において、可視光帯域における受光量を下げたり、赤外の波長帯域と可視光帯域とを含む波長帯域に渡って受光量を下げたり、各画素における画素を構成する素子部において、受光量に対して蓄積される電荷を減少させたりしてもよい。その際には、それに応じて上述の式を変更する必要がある。   For C, since R + G + B, the amount of light received by the pixel is likely to be saturated and the C filter section reduces the amount of light received in the visible light band, and the infrared wavelength band and visible light band. The amount of received light may be lowered over a wavelength band including the above, or the charge accumulated with respect to the amount of received light may be reduced in the element portion constituting the pixel in each pixel. In that case, it is necessary to change the above formula accordingly.

なお、図12は、R、G、B、Cのカラーフィルタの別の配列を示すもので、2×2の配列において、R、G、B、Cが均等に1つずつ配置されたものである。
また、従来のR、G、Bのベイヤ配列の場合に、図13に示すように、2×2の配列中では、R,Bが1つずつ配置されるとともにGが2つ配置される。
また、この従来のCやIRを含まない配列のうちの1つのGをIRに変更したR、G、B、IRのカラーフィルタの2×2の配列は、図14に示すように、R、G、B、IRが1つずつ配置された配列となる。
FIG. 12 shows another arrangement of R, G, B, and C color filters. In a 2 × 2 arrangement, R, G, B, and C are evenly arranged one by one. is there.
Further, in the case of the conventional R, G, B Bayer array, as shown in FIG. 13, in the 2 × 2 array, R and B are arranged one by one and two G are arranged.
In addition, a 2 × 2 array of R, G, B, and IR color filters in which one of the conventional arrays that does not include C or IR is changed to IR is, as shown in FIG. G, B, and IR are arranged one by one.

このようなカラーフィルタとして、図10に示すRGB−Cの構成1、図12に示すRGB-Cの構成2、図13に示す従来のRGB配列(ベイヤ配列)、図14に示すRGB―IR配列の一例では、図15に示すような特性の違いがある。なお、Cは、RGB等の色の情報を含まないが、光量として輝度の情報を含むものである。
したがって、RGB−C(構成1)センサは、Cの市松配置により、輝度解像度は高いが、RGBの画素がまばらであり、かつ、非対称な配置になるため、解像度が低く、モアレが生じやすい。但し、色信号は、輝度信号に対して、求められる解像度は、1/2以下であり低いので、問題ない。また感度が高い。
As such color filters, RGB-C configuration 1 shown in FIG. 10, RGB-C configuration 2 shown in FIG. 12, conventional RGB array (Bayer array) shown in FIG. 13, RGB-IR array shown in FIG. In one example, there is a difference in characteristics as shown in FIG. C does not include color information such as RGB, but includes luminance information as the amount of light.
Therefore, the RGB-C (Configuration 1) sensor has a high luminance resolution due to the checkered arrangement of C, but the RGB pixels are sparse and asymmetrical, so the resolution is low and moire tends to occur. However, the resolution required for the color signal is lower than that of the luminance signal, which is 1/2 or less, so that there is no problem. Also, the sensitivity is high.

RGB−C(構成2)は、従来のRGBセンサと輝度解像度、色解像度は、同程度であり、感度はRGBセンサより高い。RGB−IRセンサは、可視光帯域に透過特性を持たないIRを設けていることで、RGBセンサより、感度が低く、輝度の解像度も低くなる。すなわち、上述の第1の実施の形態および第2の実施の形態のIRを有するカラーフィルタより、Cを有するカラーフィルタの方が、解像度や感度で有利になる可能性が高い。   RGB-C (Configuration 2) has the same luminance resolution and color resolution as the conventional RGB sensor, and has higher sensitivity than the RGB sensor. The RGB-IR sensor is provided with an IR that does not have transmission characteristics in the visible light band, so that the sensitivity is lower than that of the RGB sensor, and the luminance resolution is also lower. That is, the color filter having C is more likely to be advantageous in resolution and sensitivity than the color filter having IR of the first embodiment and the second embodiment.

図16は、図9の信号処理部12における信号処理をブロック図で示したものである。撮像センサ1として、上述のRGB−Cのカラーフィルタ3eを備えたRGB−Cセンサ(撮像センサ)1を備えるとともに、光学系を構成するレンズ11と、DBPF5を備えている。
RGB−Cセンサ1からR+IR、G+IR、B+IR、C+IRの信号が色分離、IR分離、IR補正を行う分離デバイス51に入力され、内挿処理とIR補正等により、各画素において、R、G、B、W、IRの各信号が求められて出力される。この処理は、上述の式を用いた演算に基づいて行われる。
FIG. 16 is a block diagram showing signal processing in the signal processing unit 12 of FIG. The imaging sensor 1 includes an RGB-C sensor (imaging sensor) 1 including the above-described RGB-C color filter 3e, and also includes a lens 11 and a DBPF 5 that constitute an optical system.
R + IR, G + IR, B + IR, and C + IR signals are input from the RGB-C sensor 1 to a separation device 51 that performs color separation, IR separation, and IR correction, and R, G, B, W, and IR signals are obtained and output. This process is performed based on the calculation using the above-described equation.

分離デバイス51から出力されるR、G、B、W、IR信号のうちのR,G、Bの各信号が色マトリクスデバイス52に送られ、周知のRGBマトリックス補正等が行われ、RGBの信号が出力される。また。分離デバイス51からのR、G、B、W、IR信号は、輝度生成デバイス53に送られ、設定された輝度を求める式に基づいて、各信号から輝度信号を生成する。   Of the R, G, B, W, and IR signals output from the separation device 51, R, G, and B signals are sent to the color matrix device 52, where known RGB matrix correction and the like are performed, and RGB signals. Is output. Also. The R, G, B, W, and IR signals from the separation device 51 are sent to the luminance generation device 53, and a luminance signal is generated from each signal based on an equation for obtaining the set luminance.

色マトリクスデバイスから出力されたRGB信号は、ガンマ処理および色差生成デバイス54に入力されて、周知のガンマ処理が施されるとともに、色差信号として、例えば、B−YおよびR−Y信号が生成される。また、分離デバイス51およびRGB−Cセンサ1から出力された信号は、BPF(バンドパスフィルタ)55を介して、所定の波長帯域の信号として、ノイズ低減デバイス56でノイズを低減された後に、輝度生成デバイス53から出力される輝度信号とともにエンハンス処理デバイス57で増幅されて、ガンマ処理デバイス58でのガンマ処理を経て輝度・色差信号の輝度信号(Y信号)として出力される。また、分離デバイス51から出力されるIR信号は、エンハンス処理デバイス59、ガンマ処理デバイス60を経てIR信号として出力される。なお、画像信号の処理においては、後述のクリップ処理が行われるようになっており、クリップ処理については後述する。   The RGB signals output from the color matrix device are input to the gamma processing and color difference generation device 54, where known gamma processing is performed, and for example, BY and RY signals are generated as the color difference signals. The Further, the signals output from the separation device 51 and the RGB-C sensor 1 are reduced in noise after being reduced in noise by the noise reduction device 56 as a signal of a predetermined wavelength band via a BPF (band pass filter) 55. The signal is amplified by the enhancement processing device 57 together with the luminance signal output from the generation device 53, and is output as a luminance signal (Y signal) of the luminance / chrominance signal through the gamma processing in the gamma processing device 58. The IR signal output from the separation device 51 is output as an IR signal via the enhancement processing device 59 and the gamma processing device 60. In the image signal processing, clip processing described later is performed, and the clip processing will be described later.

次に、本発明の第4の実施の形態の撮像センサおよび撮像装置を説明する。第4の実施の形態は、カラーフィルタの各色を一般化したものであり、本発明のカラーフィルタがRGB−IRやRGB−Cに限定されるものでないことを示すものである。以下に、一般化した4色のフィルタ部を持つカラーフィルタを備えた撮像センサにおけるIR成分の除去方法を説明する。なお、4色(4種類)のフィルタ部は、基本的に可視光帯域における波長に応じた透過特性が異なり、かつ、上述のDBPFの第2の波長帯域が含まれる波長帯域に、可視光帯域より長波長側の他のフィルタ部との透過率の差が10%以下となる第3の波長帯域を備え、この第3の波長帯域に、DBPF5の第2の波長帯域が含まれるものとなっている。これにより、カラーフィルタとDPBF5とを用いた場合に、可視光帯域より赤外側の波長に応じた透過特性が各色のフィルタ部で近似することになる。   Next, an imaging sensor and an imaging apparatus according to a fourth embodiment of the present invention will be described. In the fourth embodiment, each color of the color filter is generalized, and the color filter of the present invention is not limited to RGB-IR or RGB-C. Hereinafter, a method for removing an IR component in an imaging sensor including a color filter having a generalized four-color filter unit will be described. The four color (four types) filter units basically have different transmission characteristics according to the wavelength in the visible light band, and the wavelength band including the second wavelength band of the DBPF described above includes a visible light band. A third wavelength band having a transmittance difference of 10% or less with other filter units on the longer wavelength side is provided, and the third wavelength band includes the second wavelength band of DBPF5. ing. Thereby, when the color filter and DPBF 5 are used, the transmission characteristics according to the wavelength on the infrared side from the visible light band are approximated by the filter portions of the respective colors.

さらに、4種類の画素のフィルタ配置において、カラーフィルタを下記の条件で、設計するとIRを分離できる。フィルタ配置は、図17に示すように2×2の配置において、4類のフィルタ部A、B、C、Dが1つずつ備えられることが好ましい。
また、可視の波長帯においてなるべく下記の関係が成り立つようにA,B,C,Dの各フィルタ部を設計することが好ましい。すなわち、可視光帯域において、
KaA+KbB+KcC+KdD≒0
とする。なお、A,B,C,Dは、各フィルタ部の可視光帯域の撮像センサ1からの出力信号のレベルを示すものである。
Furthermore, IR can be separated by designing a color filter under the following conditions in a filter arrangement of four types of pixels. As shown in FIG. 17, the filter arrangement is preferably a 2 × 2 arrangement, and each of the four types of filter sections A, B, C, and D is provided.
In addition, it is preferable to design each of the A, B, C, and D filter units so that the following relationship is established as much as possible in the visible wavelength band. That is, in the visible light band,
KaA + KbB + KcC + KdD≈0
And A, B, C, and D indicate the level of the output signal from the imaging sensor 1 in the visible light band of each filter unit.

可視光帯域より長波長側のIR領域は、IRの透過率が、A、B、C、Dの各フィルタ部の上述の第3の波長帯域で略一定となるものとする。なお、IRの透過率が、A、B、C、Dの各フィルタ部で、あるIR透過率の略整数倍になるものであってもよい。このように設計すると(ここでは、IRの透過率が上述のように一定とする)、
Ka(A+IR)+Kb(B+IR)+Kc(C+IR)+Kd(D+IR)≒IR(Ka+Kb+Kc+Kd)
であるから、IR信号は、
IR’=(Ka(A+IR)+Kb(B+IR)+Kc(C+IR)+Kd(D+IR))/(Ka+Kb+Kc+Kd)
により計算できる。
下記の計算により、A,B,C,Dの各画素に含まれるIR成分を補正できる。
A’=(A+IR)−(Ka(A+IR)+Kb(B+IR)+Kc(C+IR)+Kd(D+IR))/(Ka+Kb+Kc+Kd)=A−(KaA+KbB+KcC+KdD)/(Ka+Kb+Kc+Kd)
B’=B+IR−(Ka(A+IR)+Kb(B+IR)+Kc(C+IR)+Kd(D+IR))/(Ka+Kb+Kc+Kd)=B−(KaA+KbB+KcC+KdD)/(Ka+Kb+Kc+Kd)
C’=C+IR−(Ka(A+IR)+Kb(B+IR)+Kc(C+IR)+Kd(D+IR))/(Ka+Kb+Kc+Kd)=C−(KaA+KbB+KcC+KdD)/(Ka+Kb+Kc+Kd)
D’=D+IR−(Ka(A+IR)+Kb(B+IR)+Kc(C+IR)+Kd(D+IR))/(Ka+Kb+Kc+Kd)=D−(KaA+KbB+KcC+KdD)/(Ka+Kb+Kc+Kd)
ここで、誤差分は、
(KaA+KbB+KcC+KdD)/(Ka+Kb+Kc+Kd)である。この誤差分は、RGBマトリクスにおいて補正ができる。
実際、各フィルタ部についてのIR成分の透過率は、多少異なるため、下記のとおり、係数補正した信号で補正する。
In the IR region longer than the visible light band, the IR transmittance is substantially constant in the above-described third wavelength bands of the A, B, C, and D filter units. The IR transmittance may be approximately an integral multiple of a certain IR transmittance in each of the A, B, C, and D filter units. When designed in this way (here, IR transmittance is constant as described above),
Ka (A + IR) + Kb (B + IR) + Kc (C + IR) + Kd (D + IR) ≈IR (Ka + Kb + Kc + Kd)
Therefore, the IR signal is
IR ′ = (Ka (A + IR) + Kb (B + IR) + Kc (C + IR) + Kd (D + IR)) / (Ka + Kb + Kc + Kd)
Can be calculated by
The IR component contained in each pixel of A, B, C, and D can be corrected by the following calculation.
A ′ = (A + IR) − (Ka (A + IR) + Kb (B + IR) + Kc (C + IR) + Kd (D + IR)) / (Ka + Kb + Kc + Kd) = A− (KaA + KbB + KcC + KdD) / (Ka + Kb + Kc + Kd)
B ′ = B + IR− (Ka (A + IR) + Kb (B + IR) + Kc (C + IR) + Kd (D + IR)) / (Ka + Kb + Kc + Kd) = B− (KaA + KbB + KcC + KdD) / (Ka + Kb + Kc + Kd)
C ′ = C + IR− (Ka (A + IR) + Kb (B + IR) + Kc (C + IR) + Kd (D + IR)) / (Ka + Kb + Kc + Kd) = C− (KaA + KbB + KcC + KdD) / (Ka + Kb + Kc + Kd)
D ′ = D + IR− (Ka (A + IR) + Kb (B + IR) + Kc (C + IR) + Kd (D + IR)) / (Ka + Kb + Kc + Kd) = D− (KaA + KbB + KcC + KdD) / (Ka + Kb + Kc + Kd)
Here, the error is
(KaA + KbB + KcC + KdD) / (Ka + Kb + Kc + Kd). This error can be corrected in the RGB matrix.
Actually, the transmittance of the IR component for each filter unit is slightly different, so that correction is performed using a coefficient-corrected signal as described below.

A’=A+IR*KIRa−KIRa(Ka(A+IR*KIRa)+Kb(B+IR*KIRb)+Kc(C+IR*KIRc)+Kd(D+IR*KIRd)) /(Ka*KIRa+Kb*KIRb+Kc*KIRc+Kd*KIRd)   A '= A + IR * KIRa-KIRa (Ka (A + IR * KIRa) + Kb (B + IR * KIRb) + Kc (C + IR * KIRc) + Kd (D + IR * KIRd)) / (Ka * KIRa + Kb * KIRb + Kc * KIRc + Kd * KIRd)

B’=B+IR*KIRb−KIRb(Ka(A+IR*KIRa)+Kb(B+IR*KIRb)+Kc(C+IR*KIRc)+Kd(D+IR*KIRd)) /(Ka*KIRa+Kb*KIRb+Kc*KIRc+Kd*KIRd)   B '= B + IR * KIRb-KIRb (Ka (A + IR * KIRa) + Kb (B + IR * KIRb) + Kc (C + IR * KIRc) + Kd (D + IR * KIRd)) / (Ka * KIRa + Kb * KIRb + Kc * KIRc + Kd * KIRd)

C’=C+IR*KIRc−KIRc(Ka(A+IR*KIRa)+Kb(B+IR*KIRb)+Kc(C+IR*KIRc)+Kd(D+IR*KIRd))/(Ka*KIRa+Kb*KIRb+Kc*KIRc+Kd*KIRd)   C '= C + IR * KIRc-KIRc (Ka (A + IR * KIRa) + Kb (B + IR * KIRb) + Kc (C + IR * KIRc) + Kd (D + IR * KIRd)) / (Ka * KIRa + Kb * KIRb + Kc * KIRc + Kdd + KIRd)

D’=D+IR*KIRd−KIRd(Ka(A+IR*KIRa)+Kb(B+IR*KIRb)+Kc(C+IR*KIRc)+Kd(D+IR*KIRd)) /(Ka*KIRa+Kb*KIRb+Kc*KIRc+Kd*KIRd)   D '= D + IR * KIRd-KIRd (Ka (A + IR * KIRa) + Kb (B + IR * KIRb) + Kc (C + IR * KIRc) + Kd (D + IR * KIRd)) / (Ka * KIRa + Kb * KIRb + Kc * KIRc + Kd * KIRd)

なお、DBPFを使った時の各フィルタの分光透過特性は、図11に示すようになる。なお、フィルタ部の例としては、R+IR、G+IR、B+IR、C+IRとなる4種類のフィルタ部を使った例であるが、IRの部分が一定または互いに整数倍の関係となり、KaA+KbB+KcC+KdD≒0となるようにカラーフィルタが設計されていれば、各フィルタ部は、R+IR、G+IR、B+IR、C+IRに限られるものではない。   The spectral transmission characteristics of each filter when using DBPF are as shown in FIG. As an example of the filter unit, four types of filter units of R + IR, G + IR, B + IR, and C + IR are used. However, the IR portion is constant or an integer multiple of each other, so that KaA + KbB + KcC + KdD≈0. As long as a color filter is designed, each filter unit is not limited to R + IR, G + IR, B + IR, and C + IR.

図18に、Bのフィルタ部とDBPF5を合わせた分光透過を示し、図19に、Gのフィルタ部とDBPF5を合わせた分光透過を示し、図20に、Bのフィルタ部とDBPF5を合わせた分光透過を示し、図21に、C(W)のフィルタ部とDBPF5を合わせた分光透過を示す。   18 shows spectral transmission combining the B filter unit and DBPF5, FIG. 19 shows spectral transmission combining the G filter unit and DBPF5, and FIG. 20 shows spectral transmission combining the B filter unit and DBPF5. FIG. 21 shows the spectral transmission obtained by combining the C (W) filter unit and the DBPF 5.

各分光透過特性は、上述の各式に示すように、可視のR透過域、可視のG透過域、可視のB透過域、IR透過領域の4つの透過率を足し合わせたものになっている。このことから、4種類以上のフィルタの値から、各可視のR透過域、可視のG透過域、可視のB透過域、IR透過領域の信号値を計算できる。なお、分光透過特性は、上述の各A、B、C、Dの各分光透過特性を示す式に基づいて決定され。これらのうちの二つのフィルタの分光透過特性の組み合わせから6通り決定される。   Each spectral transmission characteristic is obtained by adding four transmittances of a visible R transmission region, a visible G transmission region, a visible B transmission region, and an IR transmission region, as shown in the above-described equations. . From this, the signal values of each visible R transmission region, visible G transmission region, visible B transmission region, and IR transmission region can be calculated from the values of four or more types of filters. The spectral transmission characteristics are determined based on the above-described formulas indicating the spectral transmission characteristics of A, B, C, and D. Six types are determined from combinations of spectral transmission characteristics of two of these filters.

次に、本発明の第5の実施の形態を説明する。可視光帯域の信号と、それより長波長側の赤外の信号を出力する撮像センサ1をスマートフォン等に搭載する場合に、スマートフォン側では、撮像センサ1からの信号を処理する回路が、メインの演算処理装置として機能するSOC(System On Chip)上にある場合に、撮像センサから出力されるRGBの信号が上述のようにIR成分を含み、このIR成分を除去するような処理を必要とすると、SOCの設計変更を余儀なくされる可能性がある。また、スマートフォンにSOC以外に上述のIR補正を行う回路を設ける必要が生じる。これらの場合に、可視光と赤外の両方の画像信号を出力可能な撮像センサのスマートフォン等の機器への導入に際して、撮像センサ以外の部分でもコストの増加が生じてしまう。   Next, a fifth embodiment of the present invention will be described. When the imaging sensor 1 that outputs a signal in the visible light band and an infrared signal on the longer wavelength side is mounted on a smartphone or the like, on the smartphone side, a circuit that processes a signal from the imaging sensor 1 is a main circuit. When the signal is on an SOC (System On Chip) functioning as an arithmetic processing unit, the RGB signal output from the image sensor includes an IR component as described above, and processing that removes the IR component is required. There is a possibility that the design change of the SOC will be forced. In addition to the SOC, the smartphone needs to be provided with a circuit for performing the IR correction described above. In these cases, when an imaging sensor capable of outputting both visible light and infrared image signals is introduced into a device such as a smartphone, an increase in cost occurs in a portion other than the imaging sensor.

そこで、本実施の形態では、撮像センサ1からの可視光帯域から出力される画像信号を従来と同様の信号とする回路を撮像センサに組み込んだものである。図22に示すように、撮像センサ101は、上述の撮像センサ1と略同様の構成となる撮像部102と、IR補正・分離回路103を備えるものとなっており、IR補正・分離回路103からは、例えば、可視のRGB信号と、IR信号が出力される。なお、IR補正・分離回路103は、字後述の信号レベルのクリップに係わる処理行う回路を含む。   Therefore, in the present embodiment, a circuit that uses an image signal output from the visible light band from the image sensor 1 as a conventional signal is incorporated in the image sensor. As shown in FIG. 22, the imaging sensor 101 includes an imaging unit 102 and an IR correction / separation circuit 103 having substantially the same configuration as the above-described imaging sensor 1. For example, a visible RGB signal and an IR signal are output. Note that the IR correction / separation circuit 103 includes a circuit that performs processing related to clipping of a signal level described later.

この場合に、RGB信号とIR信号を出力するため、撮像センサ101のピン数が増加するが、CSI−2などのシリアル出力規格で出力することにより、ピン数の増加を抑えることができる。ここで、可視のRGB信号は、RGBGのベイヤ配列の撮像センサのRAW信号出力、または、YUYV(YCb、YCr)信号として出力する。また、IR信号を単色の信号として出力することにより、スマートフォンやフューチャーフォンのSOCを変更することなく、RGB−IRセンサ、RGB−Cセンサにより、可視と近赤
外の同時撮像を活用できる。
In this case, since the RGB signal and the IR signal are output, the number of pins of the image sensor 101 increases. However, the increase in the number of pins can be suppressed by outputting with a serial output standard such as CSI-2. Here, the visible RGB signal is output as a RAW signal output of a RGBG Bayer array image sensor or a YUYV (YCb, YCr) signal. Further, by outputting the IR signal as a monochromatic signal, simultaneous visible and near-infrared imaging can be utilized by the RGB-IR sensor and the RGB-C sensor without changing the SOC of the smartphone or the future phone.

撮像センサ101の構造は、例えば、図23に示すように積層型のスタック構造となり、例えば、1枚の基板110上にIR補正・分離回路103を構成する集積回路のチップを搭載するとともに、その上に重ねて、撮像部102を構成するチップが配置される。撮像部102の上にはカバーガラス111が配置されている。基板110の底面には、半田ボール115が配置されている。   The structure of the image sensor 101 is, for example, a stacked stack structure as shown in FIG. 23. For example, an integrated circuit chip constituting the IR correction / separation circuit 103 is mounted on one substrate 110, and A chip that constitutes the imaging unit 102 is placed over the top. A cover glass 111 is disposed on the imaging unit 102. Solder balls 115 are disposed on the bottom surface of the substrate 110.

また、図24に示すように、撮像センサ101の構造は、2枚の基板110を上下に間隔をあけて上下に重ねて配置し、下の基板110上にIR補正・分離回路103のチップを配置し、上の基板110上に撮像部102のチップを配置し、その上にカバーガラス111を配置するようになっていてもよい。   Further, as shown in FIG. 24, the structure of the image sensor 101 is such that two substrates 110 are stacked one above the other at an interval in the vertical direction, and the chip of the IR correction / separation circuit 103 is placed on the lower substrate 110. The chip of the imaging unit 102 may be disposed on the upper substrate 110, and the cover glass 111 may be disposed thereon.

現在、積層のスタック構造で、小型のパッケージを実現することが可能である。すなわち、IR補正・分離回路103と撮像部102を上述のように上下に積層して、1パッケージのセンサとすることは可能である。この方法でも、1パッケージで、IR補正・分離回路を内蔵する撮像センサ101を実現することができる。このように、補正分離回路を内蔵しなくても、小型の可視/近赤外光の同時撮像が可能で、スマートフォンなどに活用できる小型のセンサを実現できる。スマートフォンでは、IRセンサにより虹彩認証などの生体認証、3Dキャプチャなどの機能をもち、かつ、可視の動画/静止画の撮像を、1つのセンサで実現できる。   Currently, it is possible to realize a small package with a stacked stack structure. That is, the IR correction / separation circuit 103 and the imaging unit 102 can be stacked one above the other as described above to form a single package sensor. Even with this method, the image sensor 101 incorporating the IR correction / separation circuit can be realized with a single package. In this manner, a small sensor that can simultaneously capture small visible / near infrared light and can be used in a smartphone or the like can be realized without including a correction separation circuit. A smartphone has functions such as biometric authentication such as iris authentication and 3D capture using an IR sensor, and can capture a moving image / still image with a single sensor.

すなわち、赤外センサを用いて、生体認証等を行う場合には、例えば、赤外センサをカメラと別に設置することが考えられるが、この場合に新たな赤外センサの追加により、コストアップやスペース効率の悪化等が考えられるがこれらを抑制することができる。   That is, when performing biometric authentication or the like using an infrared sensor, for example, it may be possible to install the infrared sensor separately from the camera. Although deterioration of space efficiency etc. can be considered, these can be suppressed.

図25に、IR補正+内挿によるRGBのベイヤ配置と同様の信号出力の模式図を示す。水平垂直走査で、R、IR、R、IR、・・・/G、B、G、B、・・・と線順次で、R/IRとG/Bが出力され、この信号に対して、IR補正/IR分離を行い、また、IRの画素の位置は、近傍のG信号より内挿してG’信号を生成して、R、G’、R、G’、・・・/G、B、G、B、・・・と線順次で、可視のR/G’とG/B信号、および、分離したIR信号を出力する。可視のR/G’とG/B信号は、従来のRGBのベイヤ配列のセンサの出力形式と同じであるため、信号処理側では、従来と同じ信号処理回路で処理を行うことができる。また、IR信号は、そのまま、単色の信号であるため、信号処理部では、やはり、通常の白黒信号の処理で処理が可能である。   FIG. 25 shows a schematic diagram of signal output similar to the RGB Bayer arrangement by IR correction + interpolation. In horizontal and vertical scanning, R / IR and G / B are output line-sequentially with R, IR, R, IR,... / G, B, G, B,. IR correction / IR separation is performed, and the position of the IR pixel is interpolated from the neighboring G signal to generate a G ′ signal, and R, G ′, R, G ′,... / G, B , G, B,..., And outputs visible R / G ′ and G / B signals and separated IR signals. Since the visible R / G ′ and G / B signals have the same output format as the conventional RGB Bayer array sensor, the signal processing side can perform processing using the same signal processing circuit. In addition, since the IR signal is a single color signal as it is, the signal processing unit can also perform processing by normal monochrome signal processing.

以上の構成により、従来の信号処理回路で、処理回路の変更を最少にして、RGB−IRセンサの出力を処理することができ、また、スマートフォンなどで、スペースの増加なく、IR撮像による生体認証、3Dキャプチャなどの新規の機能を実装することが可能となる。   With the above configuration, it is possible to process the output of the RGB-IR sensor with a conventional signal processing circuit with minimal changes to the processing circuit, and biometric authentication by IR imaging without increasing space on a smartphone or the like. It is possible to implement new functions such as 3D capture.

また、以上は、RGB−IRセンサについて、説明したが、RGB−Cセンサを使う可視/近赤外同時撮像においても、IR補正分離の回路をセンサに内蔵して、従来のRGBのベイヤ配列のセンサの出力形式の可視信号と、IR信号を出力するように構成することにより、同様の効果を得ることができる。   In the above description, the RGB-IR sensor has been described. Even in the visible / near-infrared simultaneous imaging using the RGB-C sensor, an IR correction / separation circuit is incorporated in the sensor, and the conventional RGB Bayer array is used. A similar effect can be obtained by configuring the sensor output format to output a visible signal and an IR signal.

次に、本発明の第6の実施の形態を説明する。
図26に示すように、本実施の形態の撮像装置10は、撮影用の光学系であるレンズ11と、DBPF5を備えた撮像センサ1と、撮像センサ1から出力される出力信号13を処理して、上述の内装処理や、カラー撮影時の第2の波長帯域を通過した赤外光の影響を除去する画像処理や、ガンマ補正や、ホワイトバランスや、RGBマトリックス補正等の画像処理を画像信号に施す信号処理部(信号処理デバイス:減算制御デバイス)12とを備える。信号処理部12からは可視のカラー画像の出力信号14(可視画像信号)と、赤外光画像の出力信号15(赤外画像信号)が出力可能になっている。
Next, a sixth embodiment of the present invention will be described.
As shown in FIG. 26, the imaging apparatus 10 according to the present embodiment processes a lens 11 that is an optical system for photographing, an imaging sensor 1 that includes a DBPF 5, and an output signal 13 that is output from the imaging sensor 1. The image processing includes image processing such as the above-described interior processing, image processing that removes the influence of infrared light that has passed through the second wavelength band during color shooting, gamma correction, white balance, and RGB matrix correction. And a signal processing unit (signal processing device: subtraction control device) 12. The signal processing unit 12 can output a visible color image output signal 14 (visible image signal) and an infrared light image output signal 15 (infrared image signal).

レンズ11は、撮像装置10の撮像センサ1上に像を結ぶ光学系を構成するものである。レンズ11は、例えば、複数のレンズから構成されている。   The lens 11 constitutes an optical system that forms an image on the imaging sensor 1 of the imaging device 10. The lens 11 is composed of a plurality of lenses, for example.

撮像センサ(イメージセンサ)1は、例えば、図27に示すように、CCD(Charge Coupled Device)イメージセンサであるセンサ本体2と、センサ本体2の各画素に対応して赤(R)、緑(G)、青(B)、赤外(IR)の各領域(各色のフィルタ)を所定の配列で配置したカラーフィルタ3と、センサ本体2およびカラーフィルタ3上を覆うカバーガラス4と、カバーガラス4上に形成されたDBPF(ダブル・バンド・パス・フィルタ)5とを備える。   As shown in FIG. 27, the imaging sensor (image sensor) 1 includes a sensor body 2 that is a CCD (Charge Coupled Device) image sensor, and red (R) and green (corresponding to each pixel of the sensor body 2, for example. G), blue (B), infrared (IR) regions (filters of each color) arranged in a predetermined arrangement, a color filter 3, a cover glass 4 covering the sensor body 2 and the color filter 3, and a cover glass 4 and a DBPF (double band pass filter) 5 formed on the substrate 4.

センサ本体2は、CCDイメージセンであり、各画素に受光素子としてのフォトダイオードが配置されている。なお、センサ本体2は、CCDイメージセンサに代えてCMOS(Complementary Metal・Oxide Semiconductor)イメージセンサであってもよい。   The sensor body 2 is a CCD image sensor, and a photodiode as a light receiving element is arranged in each pixel. The sensor main body 2 may be a CMOS (Complementary Metal Oxide Semiconductor) image sensor instead of the CCD image sensor.

センサ本体2には、カラーフィルタ3が設けられている。ここで、赤R、緑G、青Bの各領域があるが赤外IRの領域がないベイヤー配列のカラーフィルタは、基本パターンとなる縦4×横4の16個の領域を有し、8個の領域がGの領域とされ、4個の領域がRとされ、4個の領域がBとされている。それに対して、本実施の形態のカラーフィルタ3としては、図28に示すように、ベイヤー配列における8個のGの領域のうちの4個をIRの領域とすることにより、Rが4個、Gが4個、Bが4個、IRが4個となっている。なお、IRの領域を含むカラーフィルタは、図28に示すカラーフィルタ3に限られるものではなく、様々な配列のカラーフィルタを用いることができる。また、RGBの各領域は、一般的なRGBのフィルタであるが、各色の波長範囲に透過率のピークを備えるとともに、近赤外の波長域に透過性を備えることから、図28において、赤の領域をR+IRとし、緑の領域をG+IRとし、青の領域をB+IRとした。   The sensor body 2 is provided with a color filter 3. Here, a Bayer array color filter that has red R, green G, and blue B regions but no infrared IR region has 16 regions of 4 × 4 in length, which is a basic pattern. Each region is a G region, four regions are R, and four regions are B. On the other hand, as shown in FIG. 28, as the color filter 3 of the present embodiment, four of the eight G regions in the Bayer array are IR regions, so that four Rs are obtained. G is 4, B is 4, IR is 4. Note that the color filter including the IR region is not limited to the color filter 3 illustrated in FIG. 28, and various color filters can be used. Each of the RGB regions is a general RGB filter, but has a transmittance peak in the wavelength range of each color and transparency in the near-infrared wavelength region. The R region was R + IR, the green region was G + IR, and the blue region was B + IR.

本実施の形態におけるRの領域、Gの領域およびBの領域の透過率スペクトルは、図29のグラフに示すようになっている。すなわち、カラーフィルタ3の赤(R)、緑(G)、青(B)、赤外(IR)の各フィルタの透過率スペクトルが示されており、縦軸が透過率を示し、横軸が波長となっている。グラフにおける波長の範囲は、可視光帯域と近赤外帯域の一部を含むもので、例えば、300nm〜1100nmの波長範囲を示している。   The transmittance spectra of the R region, the G region, and the B region in the present embodiment are as shown in the graph of FIG. That is, the transmittance spectrum of each of the red (R), green (G), blue (B), and infrared (IR) filters of the color filter 3 is shown, the vertical axis indicates the transmittance, and the horizontal axis indicates the transmittance. It is a wavelength. The wavelength range in the graph includes a part of the visible light band and the near-infrared band, and indicates a wavelength range of 300 nm to 1100 nm, for example.

例えば、Rの領域は、グラフのR(二重線)に示すように、波長600nmで略最大の透過率となり、その長波長側は、1000nmを超えても透過率が略最大の状態が維持された状態となる。Gの領域は、グラフのG(間隔の広い破線)に示すように、波長が540nm程度の部分に透過率極大となるピークを有し、その長波長側の620nm程度の部分に、透過率極小となる部分がある。また、Gの領域は、透過率極小となる部分より長波長側が上昇傾向となり、850nm程度で透過率が略最大となる。それより長波長側では、1000nmを超えても透過率が略最大となった状態となっている。Bの領域は、グラフのB(間隔の狭い破線)に示すように、波長が460nm程度の部分に透過率が極大となるピークを有し、その長波長側の630nm程度の分部に、透過率が極小となる部分がある。また、それより長波長側が上昇傾向となり、860nm程度で透過率が略最大となり、それより長波長側では、1000nmを超えても透過率が略最大となった状態となっている。IRの領域は、780nm程度から短波長側の光を遮断し、1020nm程度から長波長側の光を遮断し、820nm〜920nm程度の部分が、透過率が略最大となっている。   For example, as indicated by R (double line) in the graph, the R region has a substantially maximum transmittance at a wavelength of 600 nm, and the long wavelength side maintains a substantially maximum transmittance even when the wavelength exceeds 1000 nm. It will be in the state. The G region has a peak at which the transmittance is maximized at a portion where the wavelength is about 540 nm, as shown by G (broken line having a wide interval) in the graph, and the transmittance is minimized at a portion where the wavelength is about 620 nm on the long wavelength side. There is a part that becomes. In the G region, the longer wavelength side tends to increase from the portion where the transmittance is minimized, and the transmittance is substantially maximum at about 850 nm. On the longer wavelength side, the transmittance is substantially maximum even when the wavelength exceeds 1000 nm. The region B has a peak at which the transmittance is maximized at a portion where the wavelength is about 460 nm, as shown by B (dashed broken line) in the graph, and is transmitted at a portion around 630 nm on the long wavelength side. There is a part where the rate is minimal. Further, the longer wavelength side tends to increase, and the transmittance is substantially maximized at about 860 nm. On the longer wavelength side, the transmittance is substantially maximized even if it exceeds 1000 nm. The IR region blocks light on the short wavelength side from about 780 nm, blocks light on the long wavelength side from about 1020 nm, and the portion of about 820 nm to 920 nm has a substantially maximum transmittance.

R,G,B,IRの各領域の透過率スペクトルは、図29に示すものに限られるものではないが、現在、一般的に使用されているカラーフィルタ3では、これに近い透過率スペクトルを示すと思われる。なお、透過率を示す縦軸の1は、光を100%透過することを意味するものではなく、カラーフィルタ3において、例えば、最大の透過率を示すものである。   The transmittance spectrum in each of the R, G, B, and IR regions is not limited to that shown in FIG. 29. However, the color filter 3 that is currently used generally has a transmittance spectrum close to this. It seems to show. In addition, 1 on the vertical axis indicating the transmittance does not mean that 100% of the light is transmitted, but in the color filter 3, for example, indicates the maximum transmittance.

カバーガラス4は、センサ本体2およびカラーフィルタ3を覆って保護するものである。DBPF5は、ここでは、カバーガラス4に成膜された光学フィルタである。DBPF5は、可視光帯域に透過特性を有し、可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、前記第1の波長帯域内の一部分である第2の波長帯域に透過特性を有する光学フィルタである。なお、DBPF5の配置位置は、カバーガラス4に限られるものではなく、撮像センサ1の他の場所に配置されてもよい。また、DBPF5の配置位置は、撮像センサ1に限られるものではなく、レンズ11を含み、撮像センサ1に像を結ばせる光学系に配置されてもよい。   The cover glass 4 covers and protects the sensor body 2 and the color filter 3. Here, the DBPF 5 is an optical filter formed on the cover glass 4. The DBPF 5 has a transmission characteristic in the visible light band, a cutoff characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and a second wavelength that is a part of the first wavelength band. An optical filter having transmission characteristics in a band. Note that the arrangement position of the DBPF 5 is not limited to the cover glass 4, and may be arranged at another location of the imaging sensor 1. Further, the arrangement position of the DBPF 5 is not limited to the image sensor 1 and may be arranged in an optical system that includes the lens 11 and forms an image on the image sensor 1.

図29のグラフに示すように、DBPF5は、グラフでDBPF(実線)に示すように、DBPF(VR)で示す可視光帯域と、可視光帯域に対して長波長側の少し離れた位置のDBPF(IR)で示す赤外帯域(第2の波長帯域)の2つの帯域の透過率が高くなっている。また、可視光帯域の透過率の高い帯域としてのDBPF(VR)は、例えば、370nm〜700nm程度の波長帯域となっている。また、赤外側で透過率が高い第2の波長帯域としてのDBPF(IR)は、例えば、830nm〜970nm程度の帯域となっている。   As shown in the graph of FIG. 29, the DBPF 5 has a visible light band indicated by DBPF (VR) as shown by a DBPF (solid line) in the graph, and a DBPF at a position slightly distant from the visible light band on the long wavelength side. The transmittance of two bands of the infrared band (second wavelength band) indicated by (IR) is high. Further, DBPF (VR) as a band having a high transmittance in the visible light band has a wavelength band of about 370 nm to 700 nm, for example. Further, DBPF (IR) as the second wavelength band having a high transmittance on the infrared side is, for example, a band of about 830 nm to 970 nm.

本実施の形態では、上述のカラーフィルタ3の各領域の透過率スペクトルと、DBPF5の透過率スペクトルの関係が以下のように規定されている。すなわち、DBPF5の透過率スペクトルの赤外光を透過する第2の波長帯域となるDBPF(IR)は、Rの領域、Gの領域、Bの領域の全てがほぼ最大の透過率となって各領域で透過率が略同じとなる図29に示す波長帯域A内に含まれ、かつ、IRの領域の略最大の透過率で光を透過する波長帯域B内に含まれるようになっている。   In the present embodiment, the relationship between the transmittance spectrum of each region of the color filter 3 and the transmittance spectrum of DBPF 5 is defined as follows. That is, DBPF (IR), which is the second wavelength band that transmits infrared light in the transmittance spectrum of DBPF5, has almost maximum transmittance in each of the R region, the G region, and the B region. It is included in the wavelength band A shown in FIG. 29 in which the transmittance is substantially the same in the region, and is also included in the wavelength band B that transmits light with the substantially maximum transmittance in the IR region.

ここで、R,G,Bの各領域の透過率が略同じになる波長帯域Aとは、各領域の透過率の差が透過率で10%以下である部分とする。なお、この波長帯域Aより短波長側(波長帯域C)では、透過率が略最大のRの領域に対して、G、Bの領域の透過率が低くなる。DBPF5では、このR,G,Bの各領域の透過率に差がある部分が、可視光帯域の透過率が高い部分であるDBPF(VR)と、赤外光帯域の第2の波長帯域の透過率の高い部分であるDBPF(IR)との間のDBPF5の光を略遮断する透過率が極小となる部分に対応する。すなわち、赤外側では、R,G,Bの各領域の透過率の差が大きくなる部分の光の透過がカットされ、それより長波長側で各領域の透過率が略最大となって透過率が略同じになる波長帯域Aで光を透過するようになっている。   Here, the wavelength band A in which the transmittance in each of the R, G, and B regions is substantially the same is a portion where the transmittance difference in each region is 10% or less. Note that, on the shorter wavelength side (wavelength band C) than the wavelength band A, the transmittance of the G and B regions is lower than the R region where the transmittance is substantially maximum. In DBPF5, the portion where the transmittance of each region of R, G, and B is different is DBPF (VR) which is a portion where the transmittance in the visible light band is high, and the second wavelength band in the infrared light band. This corresponds to the portion where the transmittance that substantially blocks the light of the DBPF 5 between the DBPF (IR) and the portion having a high transmittance is minimized. That is, on the infrared side, the transmission of light in a portion where the difference in transmittance between the R, G, and B regions is large is cut, and the transmittance in each region is substantially maximized on the longer wavelength side. The light is transmitted in the wavelength band A in which are substantially the same.

以上のことから、本実施の形態において、赤外光カットフィルタに代えて用いられるDBPF5では、可視光帯域だけではなく、赤外光側の第2の波長帯域にも光を透過する領域があるため、可視光によるカラー撮影に際して、第2の波長帯域を通過した光の影響を受けることになるが、上述のように第2の波長帯域がR,G,Bの各領域で透過率が異なる部分の光を透過せず、各領域の透過率が略最大となって略同じ透過率となる波長帯域の光だけを透過するようになっている。   From the above, in the present embodiment, DBPF 5 used in place of the infrared light cut filter has a region that transmits light not only in the visible light band but also in the second wavelength band on the infrared light side. Therefore, in color imaging with visible light, it is affected by light that has passed through the second wavelength band, but the second wavelength band has different transmittances in the R, G, and B regions as described above. A portion of light is not transmitted, and only the light in the wavelength band in which the transmittance of each region is substantially maximized and becomes substantially the same transmittance is transmitted.

また、DBPF5の第2の波長帯域においては、IRの領域で透過率が略最大となる部分の光を透過するようになっている。したがって、略同じ光が照射される極めて近接した4つの画素にR,G,B,IRの領域がそれぞれ設けられていると仮定した場合に、第2の波長帯域においては、Rの領域、Gの領域、Bの領域、IRの領域で略同様に光が通過することになり、赤外側の光としては、IRを含む各領域で略同じ光量の光が撮像センサ本体2の上述の画素のフォトダイオードに至ることになる。すなわち、R,G,Bの各フィルタを透過する光のうちの赤外側の第2の波長帯域を通過する光の光量は、IRの領域を通過する光の光量と同様となる。上述のように仮定した場合に、基本的にR,G,Bの各フィルタを透過した光を受光したセンサ本体2からの上述のように仮定された画素の出力信号とIRのフィルタを通過した光を受光したセンサ本体2からの上述のように仮定された画素の出力信号との差分が、各R,G,Bの領域で通過した赤外側の光をカットしたR,G,Bそれぞれの可視光部分の出力信号となる。   Further, in the second wavelength band of DBPF 5, light in a portion where the transmittance is substantially maximum in the IR region is transmitted. Therefore, when it is assumed that R, G, B, and IR regions are respectively provided in four pixels that are very close to each other and irradiated with substantially the same light, in the second wavelength band, the R region, G The light passes substantially the same in the region B, the region B, and the IR region, and the light on the infrared side has substantially the same amount of light in each of the regions including the IR. This leads to a photodiode. That is, the amount of light that passes through the second wavelength band on the infrared side of the light that passes through the R, G, and B filters is the same as the amount of light that passes through the IR region. When assumed as described above, basically, the output signal of the assumed pixel from the sensor body 2 receiving the light transmitted through the R, G, and B filters and the IR filter as described above are passed. The difference from the output signal of the pixel assumed as described above from the sensor main body 2 that has received the light is that of each of R, G, and B obtained by cutting the infrared light that has passed through the R, G, and B regions. It becomes the output signal of the visible light part.

実際には、カラーフィルタ3(3a,3b,3c)の各パターンに示したように、センサ本体2の画素毎にR,G,B,IRのいずれか1つの領域が配置されることになり、各画素に照射される各色の光のそれぞれの光量が異なるものとなる可能性が高いので、例えば、各画素において、周知の内挿法(補間法)を用いて、各画素の各色の輝度を求め、この補間された各画素のR,G,Bの輝度と、同じく補間されたIRの輝度との差分をそれぞれR,G,Bの輝度とすることが可能である。なお、R,G,Bの各色の輝度から赤外光成分を除く画像処理方法は、これに限られるものではなく、最終的にR,G,Bの各輝度から第2の波長帯域を通過した光の影響をカットできる方法であれば、いずれの方法を用いてもよい。いずれの方法においても、DBPF5が、赤外側でR,G,Bの領域の透過率が10%より異なる部分、すなわち、透過率が所定割合より異なる部分をカットしているので、各画素において、赤外光の影響を除く処理が容易となる。   Actually, as shown in each pattern of the color filter 3 (3a, 3b, 3c), any one region of R, G, B, IR is arranged for each pixel of the sensor body 2. Since it is highly possible that the amount of light of each color irradiated to each pixel is different, for example, the brightness of each color of each pixel using a known interpolation method (interpolation method) in each pixel. And the difference between the R, G, and B luminances of each interpolated pixel and the interpolated IR luminance can be set as the R, G, and B luminances, respectively. Note that the image processing method for removing the infrared light component from the luminance of each color of R, G, B is not limited to this, and finally passes through the second wavelength band from each luminance of R, G, B. Any method may be used as long as it can cut the influence of light. In any method, the DBPF 5 cuts a portion where the transmittance of the R, G, B region on the infrared side is different from 10%, that is, a portion where the transmittance is different from a predetermined ratio. Processing that removes the influence of infrared light becomes easy.

また、この撮像センサ1の用途としては、カラー撮影と、赤外光撮影との両方が可能な撮像装置において、撮像センサとして用いることである。一般的には、通常の撮影をカラー撮影で行い、夜間に可視光の照明を用いることなく、人間には認識困難な赤外光の照明を用いて赤外撮影することが考えられる。例えば、各種監視カメラ等において、夜間照明を必要としないか、夜間照明されないことが好ましい場所での夜間撮影に際し、赤外光照明を用いた赤外光による夜間撮影を行うことが考えられる。また、野生動物の観察のための昼間の撮影と夜間の撮影などの用途にも用いることができる。   The imaging sensor 1 is used as an imaging sensor in an imaging apparatus capable of both color photography and infrared photography. In general, it is conceivable to perform normal photographing by color photographing and perform infrared photographing using infrared light illumination that is difficult for humans to recognize without using visible light illumination at night. For example, in various types of surveillance cameras, it is conceivable to perform night photographing with infrared light using infrared light illumination at the time of night photographing in a place where night illumination is not required or preferably not illuminated at night. It can also be used for daytime photography and nighttime photography for wildlife observation.

赤外光撮影を夜間撮影として用いる場合には、赤外光であっても可視光と同様に、夜間は光量が不足するので、赤外光照明が必要となる。図29に示すDBPF5の透過率スペクトルは、R,G,B,IRの各領域の透過率スペクトルと、赤外光照明用の光、例えば、照明用赤外光LEDの発光スペクトルを考慮して決定する。   When infrared light photographing is used as night photographing, the amount of light is insufficient at night as in the case of visible light, so infrared light illumination is necessary. The transmittance spectrum of DBPF 5 shown in FIG. 29 takes into account the transmittance spectrum of each region of R, G, B, and IR and the emission spectrum of light for infrared light illumination, for example, the infrared light LED for illumination. decide.

このような撮像センサにあっては、DBPF5の赤外側で光を透過する第2の波長帯域が、R,G,B,IRの各領域の赤外側で、各領域の透過率が略最大となって、各領域の透過率が略同じとなる波長帯域Aに含まれるとともに、IRの領域の透過率が略最大となる波長帯域Bに含まれる。言い換えれば、可視光帯域より長波長側で、R,G,Bの各フィルタの透過率がRのフィルタ部だけ略最大となって、G、Bの領域は透過率が略最大となっていないことにより、R,G,Bの各領域の透過率が略同じとならずに異なる部分の光は、DBPF5によりカットされる。   In such an imaging sensor, the second wavelength band that transmits light on the infrared side of the DBPF 5 is the infrared side of each of the R, G, B, and IR regions, and the transmittance of each region is substantially maximum. Thus, it is included in the wavelength band A in which the transmittance in each region is substantially the same, and is included in the wavelength band B in which the transmittance in the IR region is substantially maximum. In other words, on the longer wavelength side than the visible light band, the transmittance of each of the R, G, and B filters is substantially maximum only for the filter portion of R, and the transmittance of the G and B regions is not substantially maximum. As a result, the transmittances of the R, G, and B regions are not substantially the same, but different portions of light are cut by the DBPF 5.

すなわち、R,G,B,IRの各領域では、赤外側で第2の波長帯域の光が透過するようになっていることから各領域における赤外側の透過率が全て略同じとなり、第2の波長帯域となる光が同じ光量で照射されれば、R,G,B,IRの各領域における透過光量が同じになる。これにより、上述のようにR,G,Bの各領域に対応する画素からの出力信号に基づく色を補正し、カラー撮影時の色の第2の波長帯域を通過する赤外光による影響を抑制した画像を容易に得ることができる。   That is, in each of the R, G, B, and IR regions, light in the second wavelength band is transmitted on the infrared side, so that the infrared side transmittance in each region is substantially the same. If the light having the same wavelength band is irradiated with the same light amount, the transmitted light amounts in the R, G, B, and IR regions are the same. Thus, as described above, the color based on the output signal from the pixel corresponding to each of the R, G, and B regions is corrected, and the influence of the infrared light passing through the second wavelength band of the color at the time of color photographing is affected. A suppressed image can be easily obtained.

また、第2の波長帯域を上述の波長帯域Aと波長帯域Bに含まれる赤外光照明の発光スペクトルのピークに対応させることにより、赤外光照明の光を効率的に用いられるとともに、第2の波長帯域の幅を狭めて、カラー撮影時に、第2の波長帯域を通過する赤外光の影響を小さくすることができる。   Further, by making the second wavelength band correspond to the peak of the emission spectrum of the infrared light illumination included in the wavelength band A and the wavelength band B described above, the light of the infrared light illumination can be used efficiently, The width of the second wavelength band can be narrowed to reduce the influence of infrared light passing through the second wavelength band during color photography.

すなわち、DBPF5を使うことにより、撮像センサ1のRGBの各信号の値からそれぞれIRの信号の値を減算することにより高精度の補正が可能になる。ここで、信号処理部12を詳細に説明する前に撮像装置における撮像処理方法を説明する。例えば、撮像センサ1の各色の画素の受光成分は、以下に示すように、各色の成分にIRの成分を加えた状態となっている。   That is, by using the DBPF 5, it is possible to perform highly accurate correction by subtracting the value of each IR signal from the value of each RGB signal of the imaging sensor 1. Here, before describing the signal processing unit 12 in detail, an imaging processing method in the imaging apparatus will be described. For example, the light receiving components of the pixels of each color of the image sensor 1 are in a state in which an IR component is added to the components of each color as shown below.

R画素R+IR
G画素G+IR
B画素B+IR
IR画素IR
R pixel R + IR
G pixel G + IR
B pixel B + IR
IR pixel IR

そこで、以下に示すように、IRの画素を除くRGBの各画素の受光成分からIR成分を除くIR補正を行う。   Therefore, as shown below, IR correction is performed by removing the IR component from the light receiving components of the RGB pixels excluding the IR pixels.

R信号(R画素出力)―(IR画素出力)=(R+IR)−IR=R
G画素(R画素出力)―(IR画素出力)=(G+IR)−IR=G
B画素(R画素出力)―(IR画素出力)=(B+IR)−IR=B
これにより、DBPF5を透過するとともにカラーフィルタを透過するIR成分をカラーフィルタのIR以外の各色の領域から除外することができる。
R signal (R pixel output) − (IR pixel output) = (R + IR) −IR = R
G pixel (R pixel output) − (IR pixel output) = (G + IR) −IR = G
B pixel (R pixel output) − (IR pixel output) = (B + IR) −IR = B
As a result, the IR component that passes through the DBPF 5 and passes through the color filter can be excluded from each color region other than the IR of the color filter.

但し、R画素、G画素、B画素は、それぞれ各光源に対する感度が異なることと、撮像センサ1の各画素にはダイナミックレンジがあり、ダイナミックレンジを超えた電荷は読み出せず、撮像センサからの出力はクリップされて頭打ちとなる。すなわち、入力される光がダイナミックレンジを越えると、出力される信号がクリップされて切り取られた状態となる。この結果、下記のとおり、補正後のR信号、G信号、B信号には、誤差が生じ、不自然な輝度レベル(ハイライト部の輝度が落ちる)、ハイライトでの色付きなどの問題が生じる。   However, the R pixel, the G pixel, and the B pixel have different sensitivities to each light source, and each pixel of the image sensor 1 has a dynamic range, and charges that exceed the dynamic range cannot be read out. The output is clipped and capped. That is, when the input light exceeds the dynamic range, the output signal is clipped and cut off. As a result, as described below, errors occur in the corrected R signal, G signal, and B signal, causing problems such as unnatural luminance level (the luminance of the highlight portion decreases) and coloring in highlights. .

図30〜図32は、ダイナミックレンジを越えた状態で、各色の成分からIRの成分を減算した場合の問題を説明するための図であり、図30がRの場合を示し、図31がGの場合を示し、図32がBの場合を示す。図30〜図32に示されるグラフは、縦軸が撮像センサ1の各色の画素からの信号の出力レベルを示し。横軸が撮像センサ1の1つの画素の出力レベルの時間経過を示すか、または、画素の列上の位置(例えば、Y軸上の各画素の位置)を示す。ここでは、例えば、横軸をY軸上の画素の位置とする。したがって、グラフは、各色の各画素におけるY軸上の位置による信号の出力レベルの変化を示している。図33は、図30〜図32に示す各色に対して、IRの信号の出力レベルを示すもので、上述の各グラフのRGBの各画素の場合と同様にY軸上の各画素の位置の出力レベルを示している。   30 to 32 are diagrams for explaining a problem when the IR component is subtracted from each color component in a state where the dynamic range is exceeded. FIG. 30 shows the case of R, and FIG. And FIG. 32 shows the case of B. In the graphs shown in FIGS. 30 to 32, the vertical axis indicates the output level of the signal from each color pixel of the image sensor 1. The horizontal axis indicates the time lapse of the output level of one pixel of the image sensor 1, or the position on the pixel column (for example, the position of each pixel on the Y axis). Here, for example, the horizontal axis is the pixel position on the Y axis. Therefore, the graph shows the change in the output level of the signal depending on the position on the Y axis in each pixel of each color. FIG. 33 shows the output level of the IR signal for each color shown in FIGS. 30 to 32, and the position of each pixel on the Y-axis is the same as in the case of each RGB pixel in each graph described above. Indicates the output level.

図30〜図32のそれぞれに示す上側のグラフがY軸上の位置の違いに伴ってダイナミックレンジを越えた状態の信号の出力レベルを示している、すなわち、各画素の信号の出力レベルは、Y軸上の位置が右方向に変化するのに伴って上昇した後に下降し、IRを除くRGBでは、ダイナミックレンジを越えてクリップされた状態となっている。なお、撮像センサ1の各画素においては、画素飽和レベルまでしか電荷を読み取ることができず、画素飽和レベル以上は電荷を読み出せずに出力レベルがクリップされた状態となる。また、RGBの各画素の信号の出力レベルには、IRの信号の出力レベルが含まれているので、それぞれ、R+IR、G+IR、B+IRとなり、RGBの出力レベルはIRの信号の出力レベルよりそれぞれRGBのIRを含まない単独の出力レベル分だけ高くなっている。したがって、IRの画素ではダイナミックレンジを越えず、RGBではダイナミックレンジを越える状態が発生し易い   The upper graph shown in each of FIGS. 30 to 32 shows the output level of a signal that exceeds the dynamic range with the difference in position on the Y axis, that is, the output level of the signal of each pixel is As the position on the Y-axis changes to the right, it rises and then descends. In RGB except IR, the clipped state exceeds the dynamic range. Each pixel of the image sensor 1 can read the charge only up to the pixel saturation level, and the output level is clipped without reading the charge above the pixel saturation level. Further, since the output level of each RGB pixel signal includes the output level of the IR signal, it becomes R + IR, G + IR, and B + IR, respectively, and the RGB output level is RGB from the output level of the IR signal. It is higher by a single output level not including IR. Therefore, IR pixels do not exceed the dynamic range, and RGB easily exceeds the dynamic range.

図30〜図32において、画素飽和レベルを超えて点線で示されるグラフは、クリップされなかった場合の出力レベルを示すものである。図30〜図32に示す下側のグラフは、上側のIRを含む出力レベルからIRの出力レベルを減算した場合を示す。ここで、上に凸となった部分は、上述の点線で示されるクリップされなかった場合のRGBの各信号の出力レベルからIRの信号の出力レベルを減算した場合を示している。しかし、実際には、減算前のRGBの各信号は、クリップされた状態なので、ここから出力レベルが位置の違いに伴って山状となったIRの出力レベルを減算した場合が、上に凸となった下側のグラフから矢印で示すように下側に凹んだ状態の下側のグラフで示される状態となる。   In FIGS. 30 to 32, a graph indicated by a dotted line exceeding the pixel saturation level indicates an output level when not clipped. The lower graphs shown in FIGS. 30 to 32 show a case where the IR output level is subtracted from the output level including the upper IR. Here, the upwardly convex portion indicates a case where the output level of the IR signal is subtracted from the output level of each of the RGB signals when not clipped as indicated by the dotted line. However, since RGB signals before subtraction are actually clipped, the output level of the IR, which has a mountain shape with a difference in position, is subtracted upward. As shown by the arrow from the lower graph, the lower graph becomes a state indicated by the lower graph.

このように元々は、一列の各画素の中央部の出力レベルが高くなる山状の出力レベルのはずが、上述のように元の出力レベルがダイナミックレンジを越えてクリップされ、画素飽和レベルで水平となった出力レベルからダイナミックレンジを越えずに山状となっているIRの出力レベルを減算することによって、本来は、最も出力レベルが高い部分が逆に凹んだ状態となっている。   In this way, the output level should be a mountain-like output level where the output level at the center of each pixel in a row becomes higher, but the original output level is clipped beyond the dynamic range as described above, and the pixel saturation level is horizontal. By subtracting the output level of the IR that has a mountain shape without exceeding the dynamic range from the output level that has become, the portion with the highest output level is originally recessed.

画素飽和レベルを超えた場合に、各色の画素の画像信号の出力レベルは頭打ちとなるが、その時にIRは、未だ、画素飽和レベルより低く、他の色が画素飽和レベルを超えた後も輝度が高くなればなるほど、IRの出力レベルが高くなる。すなわち、輝度がさらに高くなってもRGBの各画素の信号の出力レベルは、クリップされて高くならないのに、これらから減算されるIRの出力信号は高くなる。したがって、RGBの各出力レベルからIRの出力レベルを減算した出力レベルは輝度が高くなると下がることになる。これにより、出力レベルが最も高いはずの部分で出力レベルが逆に落ちてしまうことになり、ハイライト部で輝度が落ちることになる。また、RGBの各出力レベルが全て画素飽和レベルを超えた部分は、白となるはずが、RGBそれぞれで下に凸となる際の出力レベルに差が生じ、ハイライト部が白とならずに色が付いた状態となってしまう。   When the pixel saturation level is exceeded, the output level of the image signal of the pixel of each color reaches its peak, but at that time IR is still lower than the pixel saturation level, and the brightness is exceeded after other colors exceed the pixel saturation level. The higher the value, the higher the IR output level. That is, even if the luminance is further increased, the output level of each RGB pixel signal is not increased due to clipping, but the IR output signal subtracted from these is increased. Therefore, the output level obtained by subtracting the IR output level from the RGB output levels decreases as the luminance increases. As a result, the output level drops in the portion where the output level should be the highest, and the brightness drops in the highlight portion. In addition, the portion where all the RGB output levels exceed the pixel saturation level should be white, but there is a difference in the output level when convex downward in each RGB, and the highlight portion does not become white. It will be in a colored state.

そこで、RGBの各画素の信号の出力レベルからIRの信号の出力レベルを減算する際に、RGBの各画素の信号の出力レベルがダイナミックレンジを越えることにより、画素飽和レベルでクリップされる場合に、減算するIRの出力レベルを下げてから減算する。すなわち、RGBの各出力レベルから減算されるIR信号の出力レベルの値においては、図33、図34に示すように、RGBの各画素の信号の出力レベルから減算されるIRの信号の出力レベルは、ダイナミックレンジを越えずに、画素飽和レベルより下側であっても、出力レベルがクリップされるように、RGBの各信号(各成分)に対応して制限値を設定し、当該制限値以上となる出力レベルは、設定された制限値でクリップ(頭打ちとなるように制限)された状態とする。   Therefore, when the output level of the IR signal is subtracted from the output level of the RGB pixel signal, the output level of the RGB pixel signal exceeds the dynamic range, and is clipped at the pixel saturation level. Subtract after lowering the output level of IR to be subtracted. That is, in the output level value of the IR signal subtracted from each RGB output level, as shown in FIGS. 33 and 34, the output level of the IR signal subtracted from the output level of each RGB pixel signal. Sets a limit value corresponding to each RGB signal (each component) so that the output level is clipped even if it is below the pixel saturation level without exceeding the dynamic range. The output level as described above is in a state of being clipped (limited so as to reach a peak) with a set limit value.

このようにRGB毎に設定された制限値でクリップされるIR信号をRGBの各信号から減算した場合に、図30〜32に示した場合と異なり、減算するIR信号が制限値でクリップされているので、図35(a)、(b)、(c)に示すように、輝度が高くなった際に逆にRGBの各信号の出力レベルが低くなるようなことなく、減算後の信号飽和レベルでクリップされた状態となる。この信号飽和レベルは、RGBの各信号の画素飽和レベルからIR信号のRGBに対応する各制限値を減算した値である。したがって、ハイライト部での輝度の低下といった現象が生じなくなる。なお、RGBの各信号のIR信号減算後に生じる信号飽和レベルは、RGBの各信号がダイナミックレンジを越えた場合に、画素飽和レベルからIR信号の制限値が減算されることから、画素飽和レベルより低いレベルとなる。また、IR信号減算後のRGBの各信号の信号飽和レベルは、後述のように色毎に異なる。なお、図34に示すIR信号の出力レベルのクリップされる位置(IR信号の制限値)は、減算されるRGBの信号毎に異なるとともに状況により変化する。   In this way, when the IR signal clipped with the limit value set for each RGB is subtracted from each RGB signal, the IR signal to be subtracted is clipped with the limit value unlike the cases shown in FIGS. Therefore, as shown in FIGS. 35A, 35B, and 35C, when the luminance increases, the output level of each RGB signal does not decrease, and the signal saturation after subtraction is reduced. Clipped by level. This signal saturation level is a value obtained by subtracting each limit value corresponding to RGB of the IR signal from the pixel saturation level of each RGB signal. Therefore, a phenomenon such as a decrease in luminance at the highlight portion does not occur. Note that the signal saturation level that occurs after subtracting the IR signal of each RGB signal is less than the pixel saturation level because the limit value of the IR signal is subtracted from the pixel saturation level when each RGB signal exceeds the dynamic range. It becomes a low level. Further, the signal saturation level of each RGB signal after the IR signal subtraction differs for each color as described later. Note that the position where the output level of the IR signal shown in FIG. 34 is clipped (IR signal limit value) differs for each RGB signal to be subtracted and changes depending on the situation.

すなわち、各RGB信号の補正を行う時のIR信号の出力レベルの制限値(クリップレベル)は、RGBの各色に対応して、撮像センサ1の分光感度、光源の色温度、光源の種類により、適切なクリップレベルは変わる。このレベルは、計算により一律に求めるのは難しいが、各光源(色温度)に対してセンサより出力される各RGB信号の出力レベル、IR信号の出力レベルを測定することにより、決定できる。なお、撮像センサ1の分光感度は、撮像センサ1によって決まる。また、光源の種類によって、色温度がある程度決まることになる。したがって、色温度に基づいて、上述のIRの出力レベルがクリップされる各RGBの信号に対応したIR信号の値の制限値を求める必要がある。   That is, the limit value (clip level) of the output level of the IR signal when correcting each RGB signal depends on the spectral sensitivity of the image sensor 1, the color temperature of the light source, and the type of light source corresponding to each color of RGB. The appropriate clip level varies. This level is difficult to obtain uniformly by calculation, but can be determined by measuring the output level of each RGB signal and the output level of the IR signal output from the sensor for each light source (color temperature). Note that the spectral sensitivity of the image sensor 1 is determined by the image sensor 1. In addition, the color temperature is determined to some extent depending on the type of light source. Therefore, it is necessary to obtain the limit value of the IR signal value corresponding to each RGB signal to which the IR output level is clipped, based on the color temperature.

カメラでは、光源の色温度の変化により、各RGB信号のレベルが変わる。例えば、色温度が低い光源に対しては、R信号が増加し、B信号が減少する。また、色温度が高い光源に対しては、B信号が増加し、R信号が減少する。この結果、色温度が低い場合は、赤みがかった画像になり、色温度が高い場合は、青みがかった画像となる。このため、色の再現性が、光源の色温度変化により変わる。この色再現性を安定化するため、RGB信号のレベルを一定にするホワイトバランス処理(WB)が行われる。   In the camera, the level of each RGB signal changes due to the change in the color temperature of the light source. For example, for a light source with a low color temperature, the R signal increases and the B signal decreases. For a light source having a high color temperature, the B signal increases and the R signal decreases. As a result, when the color temperature is low, the image becomes reddish, and when the color temperature is high, the image becomes bluish. For this reason, the color reproducibility changes depending on the color temperature change of the light source. In order to stabilize this color reproducibility, white balance processing (WB) is performed to keep the RGB signal levels constant.

ホワイトバランス処理は、色信号より、光源の色温度を測定して、RGBの各色信号の利得を調整することにより行う。現在は、画像信号よりホワイトバランス検出を行い、検出した結果により、制御する方式が一般的である。例えば、RGBのゲイン調整回路(図38の制御回路21に含まれる)と、ホワイトバランス検出回路26(図38に図示)とにより、フィードバック制御ループを構成して、ホワイトバランス検出回路26で、R−Y信号、B−Y信号、または、R、G、B信号を積分する。R−Y信号、B−Y信号を積分する場合は、これらの積分値が0となるように制御し、また、R、G、B信号を積分する場合は、各積分値が等しくなるように各RGB信号の利得を制御する。   The white balance processing is performed by measuring the color temperature of the light source from the color signal and adjusting the gain of each RGB color signal. At present, a method of performing white balance detection from an image signal and controlling based on the detection result is common. For example, an RGB gain adjustment circuit (included in the control circuit 21 in FIG. 38) and a white balance detection circuit 26 (shown in FIG. 38) constitute a feedback control loop. -Y signal, BY signal, or R, G, B signals are integrated. When integrating the RY signal and BY signal, control is performed so that these integral values become 0. When integrating the R, G, and B signals, the integral values are made equal. Control the gain of each RGB signal.

この時、各RGB信号の利得より、R信号、G信号、B信号のそれぞれの比を求めることができ、光源の色温度を決定する情報となる。この情報により、IR補正時のIR信号の各RGB信号に対する制限値(クリップレベル)を決定する。   At this time, the respective ratios of the R signal, the G signal, and the B signal can be obtained from the gain of each RGB signal, which is information for determining the color temperature of the light source. Based on this information, the limit value (clip level) for each RGB signal of the IR signal at the time of IR correction is determined.

なお、映像信号のコンポーネント方式は、三原色に対応したRGBを成分とするRGB方式と、RGBから輝度信号および色差信号に変換した輝度−色差を用いる色差方式とがある。色差方式には、Y、Cb、Crを用いる方式やY、Pb、Pr用いる方式などが知られている。Yは輝度であり、CbおよびPbは、(B(青)−Y(輝度))に係数を乗算したものであり、CrおよびPrは、(R(赤)−Y(輝度))に係数を乗算したものであり、CbおよびPbがB−Y信号であり、CrおよびPrがR−Y信号である。   The video signal component method includes an RGB method using RGB corresponding to the three primary colors as a component and a color difference method using a luminance-color difference converted from RGB into a luminance signal and a color difference signal. As the color difference method, a method using Y, Cb and Cr, a method using Y, Pb and Pr are known. Y is luminance, Cb and Pb are (B (blue) -Y (luminance)) multiplied by a coefficient, and Cr and Pr are coefficients (R (red)-Y (luminance)). Multiplication is performed. Cb and Pb are BY signals, and Cr and Pr are RY signals.

例えば、Y、Cb、Crは、R、G、Bに対して以下の式で表される。
Y=0.299*R+0.587*G+0.114*B
Cb=0.564*(B−Y)=−0.169*R−0.331*G+0.500*B
Cr=0.713*(R−Y)=0.500*R−0.419*G−0.081*B
色差方式は、明るさを表す成分(輝度)と、二つの色信号と輝度信号の差分を表す成分(色差)とにRGB信号を再構成するもので、人間の目は色の解像度が劣化しても気づきにくいことから、例えば、伝送時には色差の情報量を1/2に削減することで、RGBと比較すると2/3の処理量となる。
For example, Y, Cb, and Cr are expressed by the following equations for R, G, and B.
Y = 0.299 * R + 0.587 * G + 0.114 * B
Cb = 0.564 * (B−Y) = − 0.169 * R−0.331 * G + 0.500 * B
Cr = 0.713 * (R−Y) = 0.500 * R−0.419 * G−0.081 * B
The color difference method reconstructs an RGB signal into a component that represents brightness (luminance) and a component that represents the difference between two color signals and the luminance signal (color difference). However, since the amount of color difference information is reduced by half during transmission, the amount of processing is 2/3 compared to RGB.

以下、このクリップレベル(制限値)の設定方法を、例を用いて説明する。まず、ホワイトバランス処理において、RGBの各信号の利得を求める処理を説明する。ホワイトバランス検出は、白色と考える領域を設定するとともに、設定された白色の領域を検知して、この領域において行う。すなわち、白と考えられる領域の各画素の色差信号のB−Y信号とR−Y信号とをそれぞれ積分した場合に、これらの積分した値が0となるように、B−Y信号とR−Y信号の利得を調整する。または、RGBの各信号をそれぞれ積分した値が互いに等しくなるように各R、G、B信号の利得を調整する。   Hereinafter, a method for setting the clip level (limit value) will be described using an example. First, in white balance processing, processing for obtaining the gain of each RGB signal will be described. The white balance detection is performed in this region by setting a region considered white and detecting the set white region. That is, when the BY signal and the RY signal of the color difference signal of each pixel in the region considered to be white are integrated, the BY signal and the R− signal are set so that the integrated value becomes zero. Adjust the gain of the Y signal. Alternatively, the gains of the R, G, and B signals are adjusted so that the values obtained by integrating the RGB signals are equal to each other.

ホワイトバランス検出における白と考えらえる領域の一例を図36(a)、(b)に示す。図36(a)に示すように、B−Y、R−Y平面上において、白となる点の色温度による移動軌跡の近傍に、白の検出エリアを設定する。また、図36(b)に示すように、輝度信号レベルに対して白の検出範囲(例えば白レベルの70%以上105%未満)を設定する。色差方式において、色差信号が白の検出エリアにあり、かつ、輝度信号が白の検出範囲内にある時に、その画素が白の領域にあることになり、この領域内にある画素のR、G、Bの各信号または色差方式のB−Y信号およびR−Y信号を積分する。
または、R、G、Bの積分値が等しくなるように各R、G、B信号の利得を調整する。
An example of a region considered white in white balance detection is shown in FIGS. As shown in FIG. 36A, on the BY and RY planes, a white detection area is set in the vicinity of the movement locus due to the color temperature of the point that becomes white. In addition, as shown in FIG. 36B, a white detection range (for example, 70% or more and less than 105% of the white level) is set with respect to the luminance signal level. In the color difference method, when the color difference signal is in the white detection area and the luminance signal is in the white detection range, the pixel is in the white area, and R, G of the pixels in this area , B signals or color difference type BY signals and RY signals are integrated.
Alternatively, the gain of each R, G, B signal is adjusted so that the integral values of R, G, B are equal.

例えば、R、G、Bの積分値が等しくなるように各R、G、B信号の利得を調整した際のR、G、B、の調整された各利得が色温度情報を示す情報になる。ホワイトバランス処理においては、このように調整されたRGBの各利得をそれぞれ対応するRGBの各信号に乗算することにより、ホワイトバランス処理後のRGBの各信号を得ることができる。すなわち、ホワイトバランス後のRGBの各信号は、
(WB後のR信号)=(R信号の利得)×(WB前のR信号)
(WB後のG信号)=(G信号の利得)×(WB前のG信号)
(WB後のB信号)=(B信号の利得)×(WB前のB信号)
となる。
For example, the adjusted gains of R, G, B when the gains of the R, G, B signals are adjusted so that the integrated values of R, G, B are equal become information indicating the color temperature information. . In the white balance processing, the RGB signals after the white balance processing can be obtained by multiplying the corresponding RGB signals by the RGB gains thus adjusted. That is, each RGB signal after white balance is
(R signal after WB) = (Gain of R signal) × (R signal before WB)
(G signal after WB) = (Gain of G signal) × (G signal before WB)
(B signal after WB) = (Gain of B signal) × (B signal before WB)
It becomes.

次に、上述のようにホワイトバランス処理で調整されたRGBの各利得を用いて、R(R+IR)、G(G+IR)、B(B+IR)のそれぞれの信号から減算されるIR信号の値の補正値としての制限値を求める方法を説明する。なお、R(R+IR)、G(G+IR)、B(B+IR)の各信号から減算されるIR信号の制限値は、R(R+IR)、G(G+IR)、B(B+IR)の各色信号が画素飽和レベルを超える状態となって、画素飽和レベルでクリップされた場合に、各色信号からIR信号の値を減算する場合の上限となる値である。   Next, correction of the value of the IR signal subtracted from each of the R (R + IR), G (G + IR), and B (B + IR) signals using the RGB gains adjusted by the white balance processing as described above. A method for obtaining a limit value as a value will be described. The limit value of the IR signal subtracted from the R (R + IR), G (G + IR), and B (B + IR) signals is the pixel saturation of the R (R + IR), G (G + IR), and B (B + IR) color signals. This value is the upper limit when the value of the IR signal is subtracted from each color signal when the level exceeds the level and clipping is performed at the pixel saturation level.

IR信号のRGBの各信号に対応する制限値(クリップレベル)は、画素の飽和レベルをLsat、ある色温度において、白色を撮像した時、IR信号に対してのR信号の比をKrとして、R信号におけるIR信号の制限値(クリップレベル)をLclip−Rとすると次式で表される。   The limit value (clip level) corresponding to each RGB signal of the IR signal is such that the saturation level of the pixel is Lsat, and when white is imaged at a certain color temperature, the ratio of the R signal to the IR signal is Kr. When the limit value (clip level) of the IR signal in the R signal is Lclip-R, it is expressed by the following equation.

Lsat = Lclip−R + Kr*Lclip−R
Lclip−R=Lsat/(1+Kr)
同様に、IR信号に対してのG信号の比をKgとし、IR信号に対してのB信号の比をKbとするとともに、G信号におけるIR信号の制限値(クリップレベル)をLclip−Gとし、B信号におけるIR信号の制限値(クリップレベル)をLclip−Bとすると
Lclip−G = Lsat/(1+Kg)
Lclip−B = Lsat/(1+Kb)
となる。
今、白色を撮像した時、R信号に対してのG信号比率をKg/rとし、R信号に対してB信号の比率をKb/rとすると、上述のように、
(WB後のR信号)=(R信号の利得)×(WB前のR信号)
(WB後のG信号)=(G信号の利得)×(WB前のG信号)
(WB後のB信号)=(B信号の利得)×(WB前のB信号)
であり、よって、
(WB前のR信号)=(WB後のR信号)/(R信号の利得)
(WB前のG信号)=(WB後のG信号)/(G信号の利得)
(WB前のB信号)=(WB後のB信号)/(B信号の利得)
となる。
Lsat = Lclip-R + Kr * Lclip-R
Lclip-R = Lsat / (1 + Kr)
Similarly, the ratio of the G signal to the IR signal is Kg, the ratio of the B signal to the IR signal is Kb, and the limit value (clip level) of the IR signal in the G signal is Lclip-G. , If the limit value (clip level) of the IR signal in the B signal is Lclip-B, then Lclip-G = Lsat / (1 + Kg)
Lclip-B = Lsat / (1 + Kb)
It becomes.
Now, when imaging white, assuming that the G signal ratio to the R signal is Kg / r and the B signal ratio to the R signal is Kb / r, as described above,
(R signal after WB) = (Gain of R signal) × (R signal before WB)
(G signal after WB) = (Gain of G signal) × (G signal before WB)
(B signal after WB) = (Gain of B signal) × (B signal before WB)
And therefore
(R signal before WB) = (R signal after WB) / (R signal gain)
(G signal before WB) = (G signal after WB) / (G signal gain)
(B signal before WB) = (B signal after WB) / (Gain of B signal)
It becomes.

また、WB後のR信号、G信号、B信号は、白色に対しては、等しくなる。したがって、
Kg/r = (R信号の利得)/(G信号の利得)
Kb/r = (R信号の利得)/(B信号の利得)
であり、また、
Kg = Kr × Kg/r
Kb = Kr × Kb/r
であるから、
Lclip−G = Lsat/(1+ Kr×Kg/r)
Lclip−B = Lsat/(1+ Kr×Kb/r)
となり、IR信号の赤のクリップレベルLclip−R、緑のクリップレベルLclip−G、青のクリップレベルLclip−Bを求めることができる。また、Kb/rは、色温度を示すパラメータとして使用することができる。各色温度において、Kb/rに対するKrを測定して、メモリなどに予め記録しておくことにより、ホワイトバランス検出により得た利得と上述の式に基づいて、Kb/r、および、このKb/rに対するKrより、各色補正用のIR信号のクリップレベルが決定できる。
Also, the R signal, G signal, and B signal after WB are equal to white. Therefore,
Kg / r = (R signal gain) / (G signal gain)
Kb / r = (R signal gain) / (B signal gain)
And also
Kg = Kr x Kg / r
Kb = Kr × Kb / r
Because
Lclip-G = Lsat / (1 + Kr × Kg / r)
Lclip-B = Lsat / (1 + Kr × Kb / r)
Thus, the red clip level Lclip-R, the green clip level Lclip-G, and the blue clip level Lclip-B of the IR signal can be obtained. Kb / r can be used as a parameter indicating the color temperature. At each color temperature, Kr with respect to Kb / r is measured and recorded in advance in a memory or the like, so that Kb / r and this Kb / r are obtained based on the gain obtained by white balance detection and the above formula. The clip level of the IR signal for color correction can be determined from Kr.

また、上記のようにIR補正(IR信号のクリップレベルの算出)を行った場合、RGBの各信号のハイライトでの信号飽和レベル(画素飽和レベルに達してクリップされたRGBの各信号から補正後のIR信号(制限値:クリップレベル)を減算した際の各信号のレベル)が必ずしも同じにならない。これは、ハイライトの色付きの原因となり、画質を劣化させる要因になる。このため、ホワイトバランス後に、図37(a)、(b)、(c)に示すように、RGBのハイライト部分を同じレベル(RGBクリップレベル)でクリップするように補正する。このことにより、ハイライトでの色付き、輝度の諧調の不自然さはなくなる。   In addition, when IR correction (calculation of IR signal clip level) is performed as described above, signal saturation level at the highlight of each RGB signal (corrected from each RGB signal clipped by reaching the pixel saturation level) The level of each signal when the subsequent IR signal (limit value: clip level) is subtracted is not necessarily the same. This causes the highlight to be colored and causes the image quality to deteriorate. For this reason, after white balance, as shown in FIGS. 37A, 37B, and 37C, correction is performed so that the highlight portion of RGB is clipped at the same level (RGB clip level). This eliminates the unnaturalness of highlighting and brightness gradation.

図37において、縦軸は、RGB(R+IR,G+IR,B+IR)の各信号からIR信号を減算した際の出力レベルであり、横軸は、例えば、撮像センサ1上のY軸方向の画素の位置または1画素の時間経過を示している。図37の各グラフにおいて、RGBそれぞれの信号が画素飽和レベルに達した状態で、光源の色温度が変わらず、上述のように求められたRGBそれぞれのクリップレベル(制限値)が一定の場合に、画素飽和レベルのRGBの各信号から制限値(クリップレベル)で制限された(クリップされた)I
R信号を減算した場合に、RGBの各信号がそれぞれ画素飽和レベルが一定で、RGBにそれぞれ対応するIR信号の各制限値が一定なので、減算後のRGB信号は一定の状態すなわち、信号飽和レベルで一定の状態となる。しかし、図37に示すように、信号飽和レベルは、RGBで異なり、このままでは、ハイライト部で、RGBの信号の出力レベルが異なることにより、白とならない。そこで、信号飽和レベルが最も低いR信号の信号飽和レベルをRGBのそれぞれの信号で共通のRGBクリップレベル(R信号飽和レベル)として、RGB各信号の信号飽和レベルを共通のRGBクリップレベルに合わせる。
In FIG. 37, the vertical axis represents the output level when the IR signal is subtracted from the RGB (R + IR, G + IR, B + IR) signals, and the horizontal axis represents, for example, the position of the pixel on the image sensor 1 in the Y-axis direction. Or the time passage of one pixel is shown. In each graph of FIG. 37, when the RGB color signals have reached the pixel saturation level, the color temperature of the light source does not change, and the RGB clip levels (limit values) obtained as described above are constant. , I is limited (clipped) by a limit value (clip level) from each RGB signal of pixel saturation level
When the R signal is subtracted, each RGB signal has a constant pixel saturation level and each IR signal limit value corresponding to RGB is constant, so that the RGB signal after subtraction is in a constant state, that is, the signal saturation level. It becomes a certain state. However, as shown in FIG. 37, the signal saturation level is different for RGB, and as it is, white is not white because the output level of the RGB signal is different in the highlight portion. Therefore, the signal saturation level of the R signal having the lowest signal saturation level is set to the RGB clip level common to the RGB signals (R signal saturation level), and the signal saturation levels of the RGB signals are adjusted to the common RGB clip level.

すなわち、図37(a)に示すように、R信号に対応するクリップレベル(制限値)が設定されたIR信号をR信号から減算することにより、減算後のR信号に生じた信号飽和レベル(クリップレベル)を基準とする。IR信号を減算した後のRGBの各信号の信号飽和レベルは、R信号が最も低くなるので、上述のようにR信号を基準とし、IR信号を減算した後のG信号の信号飽和レベルとB信号の信号飽和レベルを図37(b)および図37(c)に示すように、R信号の信号飽和レベルと等しいRGBクリップレベルに合わせて下げることで、RGBの各信号のIR信号減算後の信号飽和レベルを合わせる。これにより、ハイライト部での各信号のハイレベルが同じになり、ハイライトの色付きを防ぐことができる。   That is, as shown in FIG. 37A, by subtracting the IR signal in which the clip level (limit value) corresponding to the R signal is set from the R signal, the signal saturation level ( Clip level). Since the R signal has the lowest signal saturation level of each RGB signal after subtracting the IR signal, the signal saturation level and B of the G signal after subtracting the IR signal are based on the R signal as described above. As shown in FIGS. 37 (b) and 37 (c), the signal saturation level of the signal is lowered in accordance with the RGB clip level equal to the signal saturation level of the R signal, so that the RGB signals after the IR signal subtraction is performed. Adjust the signal saturation level. Thereby, the high level of each signal in a highlight part becomes the same, and coloring of a highlight can be prevented.

なお、以上説明した構成では、IR信号をクリップしてから、R信号、G信号、B信号より、減算する構成としているが、IR信号が上記のR信号、G信号、B信号が飽和するレベルに(上記のIR信号のクリップレベル)以上になった時に、IR信号を乗算器により利得を下げた後にR信号、G信号、B信号より減算するものとしてもよい。このように、減算量を抑制するように構成することによって、ハイライト部でのR信号、G信号、B信号の輝度諧調の不自然さを防止してもよい。また、RGB信号から輝度信号を生成して、RGB信号の信号飽和レベルが異なることにより色付きが起きる部分以上のレベルにおいて、R−Y信号、B−Y信号の利得を減少させ、色を消す処理により、色付きを防止しても良い。   In the configuration described above, the IR signal is clipped and then subtracted from the R signal, G signal, and B signal. However, the IR signal is a level at which the R signal, G signal, and B signal are saturated. (IR signal clipping level) or more, the IR signal may be subtracted from the R, G, and B signals after the gain is lowered by a multiplier. In this way, by configuring so as to suppress the subtraction amount, unnaturalness of luminance gradation of the R signal, the G signal, and the B signal in the highlight portion may be prevented. Also, a process of generating a luminance signal from the RGB signal and reducing the gain of the RY signal and BY signal to erase the color at a level higher than a portion where coloring occurs due to a difference in the signal saturation level of the RGB signal. Therefore, coloring may be prevented.

図38は、撮像装置10(図26に図示)の信号処理部12(図26に図示)における信号処理をブロック図で示したものである。撮像センサ1からのR,G,B,IRの各画素の出力信号(この信号処理では撮像センサ1からの入力信号)は、通常、RAW出力であれば、R、G、B、IRが線順次または点順次で出力されるため、例えば、撮像センサ1からのRAW信号の入力部に各色信号の同時化回路(図示略)を設ける。   FIG. 38 is a block diagram showing signal processing in the signal processing unit 12 (shown in FIG. 26) of the imaging apparatus 10 (shown in FIG. 26). If the output signals of the R, G, B, and IR pixels from the image sensor 1 (input signals from the image sensor 1 in this signal processing) are usually RAW outputs, R, G, B, and IR are lines. Since the signals are output sequentially or dot-sequentially, for example, a synchronization circuit (not shown) for each color signal is provided at the input portion of the RAW signal from the image sensor 1.

この場合に、同時化回路において、内挿処理(補間処理)によりフレーム毎の画像データにおいて、それぞれ、全ての画素が赤Rで表された画像データ、全ての画素が緑Gで表された画像データ、全ての画素が青Bで表された画像データと、全ての画素が赤外IRで表された画像データとするようにR,G,B,IRの信号を変換する。言い換えれば全ての画素において、R、G、BおよびIRの信号が出力される状態とする。なお、内挿処理方法は、周知の方法を用いることができる。   In this case, in the image data for each frame by interpolation processing (interpolation processing) in the synchronization circuit, image data in which all pixels are represented by red R and image in which all pixels are represented by green G, respectively. Data, R, G, B, IR signals are converted so that all pixels are image data represented by blue B and all pixels are image data represented by infrared IR. In other words, R, G, B, and IR signals are output in all pixels. A known method can be used as the interpolation processing method.

すなわち、信号処理部12は、図示しないR+IR,G+IR,B+IRおよびIRのセンサ出力それぞれのための同時化回路を備え、図38のR+IR,G+IR,B+IRおよびIRの各センサ出力は、同時化回路を経た後の信号である。信号処理部12は、RGB信号から減算されるIR信号をRGB毎に決められるクリップレベル(制限値)でクリップするためのリミッタ27r、27g、27bと、各リミッタ27r,27g,27bから出力されるIR信号に補正値を乗算して補正するための乗算器28r、28g、28bと、乗算器28r、28g、28bから出力されるクリップされたIR信号をR+IR,G+IR,B+IRの各信号から減算する減算器23r、23g、23bと、ホワイトバランス用のRGBの各利得を、IR信号が減算されたRGBの各信号に乗算する乗算器24r、24g、24bと、IR信号が減算されるとともにホワイトバランスがとられたRGBの各信号における信号飽和レベルを合わせるためのリミッタ25r、25g、25bとが設けられている。   That is, the signal processing unit 12 includes synchronization circuits for R + IR, G + IR, B + IR, and IR sensor outputs (not shown), and the R + IR, G + IR, B + IR, and IR sensor outputs of FIG. It is a signal after passing. The signal processing unit 12 outputs the IR signal subtracted from the RGB signal from the limiters 27r, 27g, and 27b and the limiters 27r, 27g, and 27b for clipping at the clip level (limit value) determined for each RGB. Multipliers 28r, 28g, and 28b for multiplying the IR signal by a correction value, and the clipped IR signals output from the multipliers 28r, 28g, and 28b are subtracted from the R + IR, G + IR, and B + IR signals. Subtractors 23r, 23g, and 23b, multipliers 24r, 24g, and 24b for multiplying the RGB signals obtained by subtracting the IR signal by the RGB gains for white balance, and the white balance while the IR signal is subtracted Limiters 25r, 25g, and 25b for matching the signal saturation levels in the RGB signals for which It is provided.

また、信号処理部12は、リミッタ27r、27g、27bに、RGBの信号毎のIR信号のクリップレベル(制限値)を算出して出力する制御回路21を備える。また、制御回路21は、乗算器28r、28g、28bに補正値を出力し、乗算器24r、24g、24bにホワイトバランス用に算出されたRGBの各利得を出力し、リミッタ25r、25g、25bにRGBの各信号の信号飽和レベルを合わせるためのRGBクリップレベル(R信号飽和レベル)を出力する。また、信号処理部は、信号処理部12からのRGBの出力信号からホワイトバランス用の利得を求めるためのホワイトバランス検出回路26を備える。   In addition, the signal processing unit 12 includes a control circuit 21 that calculates and outputs the clip level (limit value) of the IR signal for each RGB signal in the limiters 27r, 27g, and 27b. The control circuit 21 outputs correction values to the multipliers 28r, 28g, and 28b, and outputs RGB gains calculated for white balance to the multipliers 24r, 24g, and 24b, and the limiters 25r, 25g, and 25b. Output an RGB clip level (R signal saturation level) for matching the signal saturation level of each RGB signal. The signal processing unit also includes a white balance detection circuit 26 for obtaining a white balance gain from the RGB output signals from the signal processing unit 12.

IRのセンサ出力としてのIR信号は、信号処理部12に設けられたR用リミッタ27r、G用リミッタ27g、B用リミッタ27bにそれぞれ送られ、上述のように色毎に設定されるIR信号用の制限値(クリップレベル)でクリップされる。この際には、制御回路21で算出されるIR信号の上述の赤のクリップレベルLclip−R、緑のクリップレベルLclip−Gおよび青のクリップレベルLclip−Bがそれぞれ対応するR用リミッタ27r、G用リミッタ27g、B用リミッタ27bに出力され、それぞれのR用リミッタ27r、G用リミッタ27g、B用リミッタ27bのリミット値となる。これにより、IR信号は、各リミッタ27r、27g、27bにより、クリップレベル(制限値)を超える出力レベルは、クリップレベルでクリップされる。   IR signals as IR sensor outputs are respectively sent to an R limiter 27r, a G limiter 27g, and a B limiter 27b provided in the signal processing unit 12, and for IR signals set for each color as described above. Clipped with the limit value (clip level). At this time, the R limiters 27r and G for the IR signals calculated by the control circuit 21 correspond to the red clip level Lclip-R, the green clip level Lclip-G, and the blue clip level Lclip-B, respectively. The limiter 27g and the B limiter 27b output to the limiter 27g, the limiter 27g for G, and the limiter 27b for B, respectively. Thereby, the output level exceeding the clip level (limit value) is clipped at the clip level by the limiters 27r, 27g, and 27b.

また、R用リミッタ27r、G用リミッタ27g、B用リミッタ27bから出力された各値は、RGBの各信号から減算されるIRの信号であるが、このIRの各信号に乗算器28r、28g、28bにより制御回路21から出力される補正値を乗算する。R画素、G画素、B画素に含まれるIR成分は、本構成では、ほぼ、IR画素と同じレベルであるが、R画素、G画素、B画素のそれぞれの開口差、または、センサ内部のアンプ利得のバラツキなどにより、信号レベルに多少の誤差が生じる可能性がある。すなわち、リミッタ27r、27g、27bから出力された値は、例えば、必要な値より少しだけ大きくなる傾向があり、RGBの各信号に対応して乗算器28r、28g、28bにより補正値を乗算して補正するようになっている。   The values output from the R limiter 27r, the G limiter 27g, and the B limiter 27b are IR signals that are subtracted from the RGB signals. The IR signals are multiplied by multipliers 28r and 28g. 28b, the correction value output from the control circuit 21 is multiplied. In this configuration, the IR component included in the R pixel, G pixel, and B pixel is substantially the same level as that of the IR pixel. However, the aperture difference between the R pixel, the G pixel, and the B pixel, or the amplifier in the sensor. There may be some error in the signal level due to variations in gain. That is, the values output from the limiters 27r, 27g, and 27b tend to be slightly larger than necessary values, for example, and the correction values are multiplied by the multipliers 28r, 28g, and 28b corresponding to the RGB signals. To correct.

減算器23r、23g、23bは、このようにクリップされるとともに補正されたRGBそれぞれに対応するIR信号をR+IR,G+IR,B+IRのそれぞれの信号から減算する。各乗算器24r、24g、24bは、各減算器23r、23g、23bから出力される信号に、ホワイトバランス処理で算出されるRGBの各利得を乗算してホワイトバランスをとる。各乗算器24r、24g、24bには、ホワイトバランス検出回路26で検出される各RGBの信号に基づいて制御回路21で算出されたRGBそれぞれの利得が入力される。また、各乗算器24r、24g、24bから出力されたRGBの各信号はクリップされたIR信号が減算されることで、クリップされた状態となる。   The subtractors 23r, 23g, and 23b subtract the IR signals corresponding to RGB that have been clipped and corrected in this way from the R + IR, G + IR, and B + IR signals. Each multiplier 24r, 24g, 24b multiplies the signal output from each subtractor 23r, 23g, 23b by each gain of RGB calculated by the white balance processing to obtain white balance. The RGB gains calculated by the control circuit 21 based on the RGB signals detected by the white balance detection circuit 26 are input to the multipliers 24r, 24g, and 24b. The RGB signals output from the multipliers 24r, 24g, and 24b are clipped by subtracting the clipped IR signal.

すなわち、RGBの各信号が画素飽和レベルでクリップされた状態で、上述のように制限値で制限されたIR信号が減算されると、画素飽和レベルから制限値を減算した値である信号飽和レベルでクリップされる。これらRGBの各信号の信号飽和レベルが異なると、ハイライト部に色が付くことになるので、リミッタ25r、25g、25bは、RGBの各信号飽和レベルを合わせるために、RGBの各信号で同じRGBクリップレベルとなるようにリミット値がセットされる。ここでは、R信号の信号飽和レベルをRGBクリップレベルをリミット値としてG信号およびB信号のクリップレベルを合わせるようになっている。   That is, when the IR signal limited by the limit value as described above is subtracted in a state where each RGB signal is clipped at the pixel saturation level, the signal saturation level is a value obtained by subtracting the limit value from the pixel saturation level. Clipped with. If the signal saturation levels of these RGB signals are different, the highlight portion is colored. Therefore, the limiters 25r, 25g, and 25b are the same for each RGB signal in order to match the RGB signal saturation levels. The limit value is set so as to be the RGB clip level. Here, the signal saturation level of the R signal is set to the RGB clip level as a limit value, and the clip levels of the G signal and the B signal are matched.

上述のような信号処理を、R(R+IR)信号を例に取って説明する。撮像センサ1から出力されたR信号は、同時化回路により内挿されて撮像センサ1で画像として利用される全ての画素毎のR信号とされる。同様にG信号、B信号、IR信号も同時化回路で処理され、画像として利用される全ての画素毎のG信号、B信号、IR信号とされる。   The signal processing as described above will be described by taking an R (R + IR) signal as an example. The R signal output from the imaging sensor 1 is interpolated by a synchronization circuit and is used as an R signal for every pixel used as an image by the imaging sensor 1. Similarly, the G signal, the B signal, and the IR signal are processed by the synchronization circuit, and are converted into the G signal, the B signal, and the IR signal for every pixel used as an image.

IR信号は、リミッタ27rに送られる。リミッタ27rには、制御回路21で上述のように算出されたR信号用のIR信号の制限値であるLclip−Rが出力され、これがリミッタ27rのリミット値となる。したがって、リミッタ27rを通過したIR信号は、制限値で頭打ちとなるようにクリップされる。すなわち、制限値を超えるIR信号の出力レベルは、制限値となる。   The IR signal is sent to the limiter 27r. The limiter 27r outputs Lclip-R, which is the limit value of the IR signal for the R signal calculated by the control circuit 21 as described above, and this becomes the limit value of the limiter 27r. Therefore, the IR signal that has passed through the limiter 27r is clipped so as to reach the limit value. That is, the output level of the IR signal exceeding the limit value becomes the limit value.

このように制限値でクリップされるIR信号は、乗算器28rに送られ、制御回路21で算出される(または、記憶されている)補正値が乗算されて補正された後に減算器23rに送られる。減算器23rには、上述の同時化されたR信号が入力されるとともに、上述のように制限されるとともに補正されたIR信号が入力され、R信号からIR信号の値が減算される。次に、IR信号が減算されたR信号は、乗算器24rに送られる。乗算器24rには、R信号と、上述のホワイトバランス検出回路26と制御回路21により求められたR信号の利得が入力されR信号に利得が乗算される。   The IR signal clipped with the limit value is sent to the multiplier 28r, multiplied by the correction value calculated (or stored) by the control circuit 21 and corrected, and then sent to the subtractor 23r. It is done. The subtractor 23r receives the above-described synchronized R signal, and the IR signal that is limited and corrected as described above, and the value of the IR signal is subtracted from the R signal. Next, the R signal from which the IR signal has been subtracted is sent to the multiplier 24r. The multiplier 24r receives the R signal and the gain of the R signal obtained by the white balance detection circuit 26 and the control circuit 21, and multiplies the R signal by the gain.

乗算器24rからホワイトバランス処理が施されたR信号が出力される。このR信号は、リミッタ25rに入力される。リミッタ25rには、制御回路21から上述のRGBクリップレベルが送られ、これがリミット値とされ、RGBクリップレベルを超えるR信号は、クリップされる。但し、この信号処理部12では、RGBクリップレベルは、R信号飽和レベルと等しく、IR信号を減算されたR信号は、既に、R信号飽和レベルでクリップされた状態なので、R信号に関しては、リミッタ25rの処理は必ずしも必要ない。なお、G信号およびB信号は、リミッタ25g、25bで、R信号飽和レベルに等しい、RGBクリップレベルをリミット値として、RGBクリップレベルでクリップされる。   An R signal subjected to white balance processing is output from the multiplier 24r. This R signal is input to the limiter 25r. The RGB clip level described above is sent from the control circuit 21 to the limiter 25r, which is set as a limit value, and the R signal exceeding the RGB clip level is clipped. However, in this signal processing unit 12, the RGB clip level is equal to the R signal saturation level, and the R signal from which the IR signal has been subtracted is already clipped at the R signal saturation level. The process of 25r is not necessarily required. The G signal and the B signal are clipped at the RGB clip level by the limiters 25g and 25b with the RGB clip level equal to the R signal saturation level as a limit value.

同様にG信号、B信号が処理され、処理されたRGBの各信号が、図1に示すように、可視光のカラー画像の出力信号14として出力される。また、IR信号は、同時化回路を経た後に、赤外光画像の出力信号15として出力される。なお、赤外画像信号として出力されるIR信号は、上述の制限値で制限されることはない。   Similarly, the G signal and the B signal are processed, and the processed RGB signals are output as an output signal 14 of a visible color image as shown in FIG. The IR signal is output as an infrared image output signal 15 after passing through a synchronization circuit. The IR signal output as the infrared image signal is not limited by the above limit value.

図39に示すブロック図は、図38に示すブロック図の変形例である。図39に示すブロック図の図38に示すブロック図との違いは、図38のブロック図において、ホワイトバランス用の乗算器24r、24g、24bの後に、IR信号を減算した後の各RGB信号の信号飽和レベルを合わせるためのリミッタ25r、25g、25bが配置されていたのに対して、図39では、IR信号を減算した後の各RGB信号のクリップレベルを合わせるためのリミッタ25r、25g、25bの後に、ホワイトバランス用の乗算器24r、24g、24bが配置されている。   The block diagram shown in FIG. 39 is a modification of the block diagram shown in FIG. The difference between the block diagram shown in FIG. 39 and the block diagram shown in FIG. 38 is that each RGB signal after the IR signal is subtracted after the white balance multipliers 24r, 24g, and 24b in the block diagram of FIG. Whereas limiters 25r, 25g, and 25b for adjusting the signal saturation level are arranged, in FIG. 39, limiters 25r, 25g, and 25b for adjusting the clip level of each RGB signal after the IR signal is subtracted. Is followed by white balance multipliers 24r, 24g, and 24b.

これにより、図38では、ホワイトバランスを取った後のRGBの各信号において信号飽和レベルが合わせられるのに対して、図39では、RGBの各信号の信号飽和レベルを合わせた後にホワイトバランス処理を行うことになる。   Thus, in FIG. 38, the signal saturation level is adjusted in each RGB signal after white balance is achieved, whereas in FIG. 39, the white balance processing is performed after the signal saturation level of each RGB signal is adjusted. Will do.

このような撮像処理システムおよび撮像処理方法によれば、DBPF5を用いることにより、赤外カットフィルタの使用、非使用を切り替えることなく、可視光でのカラー撮影と、赤外光での撮影を可能とするカメラ(撮像装置)において、上述のように、ハイライト部の輝度の低下と、ハイライト部が白ではなく、色が付いた状態となるのを防止できる。   According to such an imaging processing system and an imaging processing method, by using DBPF5, it is possible to perform color imaging with visible light and imaging with infrared light without switching use or non-use of an infrared cut filter. In the camera (imaging device), as described above, it is possible to prevent the brightness of the highlight portion from being lowered and the highlight portion from being colored instead of white.

次に、第7の実施の形態について説明する。上述の第6の実施の形態では、RGB−IRのカラーフィルタを用いた場合におけるクリップレベル(制御値)を説明したが、本実施の形態では、RGB−Cのクリップレベルについて説明する。   Next, a seventh embodiment will be described. In the sixth embodiment described above, the clip level (control value) when the RGB-IR color filter is used has been described, but in this embodiment, the RGB-C clip level will be described.

RGB−IRの撮像センサ1では、RGBの各信号にIR成分が含まれるのに対して、IRの信号は、IR成分のみとなるので、RGBの各信号が飽和してもIRの信号は飽和しない。ここで、RGBの信号が飽和した後も、レベルが高くなるIR成分を除くと、上述のようにRGBが飽和に達した後に、IR成分を除去することで、飽和レベル以下に下がるとともに、基本的にIRの光量が多くなるほど、RGBの飽和後の値が低くなってしまう。それに対して、RGB−Cの撮像センサ1では、可視光帯域において、C=R+G+Bとなるので、RGBにレンジを合わせた場合に、図40に示すように、Cの画素が飽和レベルに達することになる。   In the RGB-IR imaging sensor 1, each RGB signal includes an IR component, whereas the IR signal includes only the IR component. Therefore, even if each RGB signal is saturated, the IR signal is saturated. do not do. Here, if the IR component whose level increases even after the RGB signal is saturated, the RGB component is saturated as described above, and then the IR component is removed to lower the saturation level or lower. In particular, as the amount of IR light increases, the RGB values after saturation become lower. On the other hand, in the RGB-C imaging sensor 1, C = R + G + B in the visible light band. Therefore, when the range is adjusted to RGB, the C pixel reaches a saturation level as shown in FIG. become.

この場合に、Cの画素が飽和レベルに達した際に、可視光帯域では、C<R+G+Bとなる。これにより、上述のように計算により、IR’を求めた場合に、IR’=IR+(R+G+B−C)/2となることから、Cが飽和レベルに達すると、(R+G+B−C)が0より大きくなるので、図41に示すように、計算で求めたIR’>実際のIRとなる。   In this case, when the C pixel reaches the saturation level, C <R + G + B in the visible light band. Thus, when IR ′ is obtained by calculation as described above, IR ′ = IR + (R + G + B−C) / 2. Therefore, when C reaches the saturation level, (R + G + B−C) is less than 0. Therefore, as shown in FIG. 41, IR ′ obtained by calculation is greater than the actual IR.

このようにCが飽和レベルに達した際に、R、G、B、Cから計算で求めたIR’成分を除去すると、Cに関しては、飽和レベルで信号レベルが頭打ちとなっているのに、IR成分は、Cが飽和レベルに達した後も上昇可能であり、かつ、Cが飽和した後には、図41に示すように、IR’>IRとなるので、これを飽和したCから除去すると、図42に示すように、実際の光量のレベルが高くなると信号レベルが下がることになる。また、C以外のRGBの信号レベルもCが飽和した後にIR’>IRとなるので、Cほどではないが、実際の光量のレベルが高くなるにつれて、信号レベルが低下する虞がある。   When the IR ′ component obtained by calculation from R, G, B, and C is removed when C reaches the saturation level as described above, the signal level reaches the peak at the saturation level for C. The IR component can be increased even after C reaches the saturation level, and after C is saturated, IR ′> IR as shown in FIG. As shown in FIG. 42, the signal level decreases as the actual light amount level increases. Further, since the RGB signal levels other than C are also IR '> IR after C is saturated, the signal level may decrease as the actual light quantity level increases, although not as high as C.

そこで、第7の実施の形態では、各信号が所定の値以上とならないようにクリップし、かつ、このRGBの各信号からIRの信号を分離するようになっている。
まず。R/G/B/W/IRの信号レベルを検出する。
次に、以下のようにR、G、B、Wでクリップレベルを求める。
(Wクリップレベル)=(W画素(C画素)の飽和レベルにより算出)
(Rクリップレベル)=(Wクリップレベル)(Rレベル+IRレベル)/(Wレベル+IRレベル)
(Gクリップレベル)=(Wクリップレベル)(Gレベル+IRレベル)/(Wレベル+IRレベル)
(Bクリップレベル)=(Wクリップレベル)(Bレベル+IRレベル)/(Wレベル+IRレベル)
Therefore, in the seventh embodiment, clipping is performed so that each signal does not exceed a predetermined value, and an IR signal is separated from each RGB signal.
First. R / G / B / W / IR signal level is detected.
Next, the clip level is obtained by R, G, B, and W as follows.
(W clip level) = (calculated from the saturation level of W pixel (C pixel))
(R clip level) = (W clip level) (R level + IR level) / (W level + IR level)
(G clip level) = (W clip level) (G level + IR level) / (W level + IR level)
(B clip level) = (W clip level) (B level + IR level) / (W level + IR level)

Wクリップのレベルは、Wの信号レベルを検出した際に、この信号レベルが頭打ちとなって、それ以上高くならない飽和レベルに基づいて算出される。RGBの各クリップレベルは、上述の式により算出され、Wレベルが飽和レベルに達することによりクリップレベルが算出される。   The level of the W clip is calculated based on a saturation level at which the signal level reaches its peak when the W signal level is detected and does not increase any more. Each RGB clip level is calculated by the above formula, and the clip level is calculated when the W level reaches the saturation level.

このようなクリップ処理を行う場合に、上述の分離デバイス51は、図43に示すようなブロック図となる。色分離デバイス61で内挿法等により各画素のR、G、B、Wの信号レベルが分離されて、レベル検出・クリップレベル計算デバイス63と、クリップ処理デバイス62に送られる。レベル検出・クリップレベル計算デバイス63においては、上述の式と、検出されたR、G、B、Wのレベルに基づいて、R、G、B、Wの各クリップレベルが算出される。クリップレベル計算デバイス63で算出されたR、G、B、Wそれぞれのクリップレベルがクリップ処理デバイス62に送られ、クリップ処理デバイス62に入力されたR、G、B、Wの信号レベルがクリップレベルを超える場合にクリップする処理が行われる。このようなクリップ処理デバイス62から出力されたR、G、B、Wの信号レベルがIR補正・IR生成デバイス64に入力される。IR補正・IR生成デバイス64では、R、G、B、Wの各信号からIR信号が除去されるとともに、IR信号が生成される。クリップレベル計算デバイス63は、図44に示すように、色分離デバイス61で分離されたR、G、B、Wの各信号レベルに基づいて、IRマトリクスデバイス66でIR信号レベルを求め、IR補正デバイス67にIR信号とIR成分を含むR、G、B、Wの各信号レベルを入力し、R、G、B、Wの各信号レベルからIR信号レベルを取り除くIR補正を行う。レベル検出デバイス68に、IRマトリクスデバイス66からIRの信号レベルが入力され、IR補正デバイス67からIR成分を除去したR、G、B、Wの各信号レベルが入力される。   When such clip processing is performed, the above-described separation device 51 is a block diagram as shown in FIG. The R, G, B, and W signal levels of each pixel are separated by the color separation device 61 by interpolation or the like and sent to the level detection / clip level calculation device 63 and the clip processing device 62. The level detection / clip level calculation device 63 calculates R, G, B, and W clip levels based on the above formula and the detected levels of R, G, B, and W. The R, G, B, and W clip levels calculated by the clip level calculation device 63 are sent to the clip processing device 62, and the R, G, B, and W signal levels input to the clip processing device 62 are clip levels. If it exceeds, clipping is performed. The R, G, B, and W signal levels output from the clip processing device 62 are input to the IR correction / IR generation device 64. The IR correction / IR generation device 64 removes the IR signal from the R, G, B, and W signals and generates an IR signal. As shown in FIG. 44, the clip level calculation device 63 obtains the IR signal level by the IR matrix device 66 based on the R, G, B, and W signal levels separated by the color separation device 61, and performs IR correction. The R, G, B, and W signal levels including the IR signal and the IR component are input to the device 67, and IR correction is performed to remove the IR signal level from the R, G, B, and W signal levels. An IR signal level is input from the IR matrix device 66 to the level detection device 68, and R, G, B, and W signal levels from which IR components are removed are input from the IR correction device 67.

レベル検出デバイス68で検出されたR、G、B、W、IRの各信号レベルがクリップレベル計算デバイス69に入力され、クリップレベル計算デバイス69では、上述のようにR、G、B、Wの各信号レベルのクリップレベルが算出される。このように求められたR、G、B、Wの各クリップレベルに基づいて、クリップ処理デバイス62では、R、G、B、Wの各信号レベルがクリップレベルを超える場合に、図45に示すように、各信号レベルをクリップレベルで頭打ちとする。   The R, G, B, W, and IR signal levels detected by the level detection device 68 are input to the clip level calculation device 69, and the clip level calculation device 69 outputs the R, G, B, and W signals as described above. The clip level for each signal level is calculated. Based on the R, G, B, and W clip levels obtained in this way, the clip processing device 62 shown in FIG. 45 when the R, G, B, and W signal levels exceed the clip level. As described above, each signal level reaches its peak at the clip level.

このようにクリップされるR、G、B、Wの各信号に基づいて、上述の第3の実施の形態と同様に、IR成分を求めるとともに、IR成分を含むR、G、B、W信号からIR成分を分離する。この際に、図46に示すように計算で求められるIR信号もWが飽和レベルとなる際のIRの信号レベルでクリップされて頭打ち状態となる。これにより、図47に示すようにR、G、B、Wの各信号レベルからIR成分を除去した後も、IR成分除去後のクリップレベルでクリップされた状態となる。   Based on the R, G, B, and W signals clipped in this way, the IR component is obtained and the R, G, B, and W signals including the IR component are obtained in the same manner as in the third embodiment. From the IR component. At this time, as shown in FIG. 46, the IR signal obtained by calculation is also clipped at the IR signal level when W becomes the saturation level and reaches a peak state. As a result, as shown in FIG. 47, even after the IR component is removed from each of the R, G, B, and W signal levels, the clipped state is obtained at the clip level after the IR component is removed.

この場合に、R、G、B、Wの各信号レベルから求められる輝度信号もクリップされた状態となってしまう。そこで、図48に示すように色分離、IR分離、IR補正を行う分離デバイス51の変形例を用いることにより、輝度レベルがクリップされるのを防止、Wの画素が飽和レベルに達した後も、輝度レベルに諧調を持たせることができる。   In this case, the luminance signal obtained from the R, G, B, and W signal levels is also clipped. Therefore, by using a modification of the separation device 51 that performs color separation, IR separation, and IR correction as shown in FIG. 48, the luminance level is prevented from being clipped, and even after the W pixel reaches the saturation level. It is possible to give gradation to the luminance level.

この分離デバイス51の変形例は、図48に示すように、色分離デバイス61で内挿法等により各画素のR、G、B、Wの信号レベルが分離されて、レベル検出・クリップレベル計算・IR信号生成デバイス63と、クリップ処理デバイス62に送られる。レベル検出・クリップレベル計算デバイス63においては、上述の式と、検出されたR、G、B、Wのレベルに基づいて、R、G、B、Wの各クリップレベルが算出される。クリップレベル計算デバイス63で算出されたR、G、B、Wそれぞれのクリップレベルがクリップ処理デバイス62に送られ、クリップ処理デバイス62に入力されたR、G、B、Wの信号レベルがクリップレベルを超える場合にクリップする処理が行われる。このようなクリップ処理デバイス62から出力されたR、G、B、Wの信号レベルが第1のIR補正・IR生成デバイス64に入力される。第1のIR補正・IR生成デバイス64では、クリップされるR、G、B、Wの各信号からIR信号が除去されるとともに、IR信号が生成される。第1のIR補正・IR生成デバイス64で求められたRGBの信号は色信号、例えば、色差信号として利用される。また、この変形例の第2のIR補正:IR生成デバイス65を有する。第2のIR補正・IR生成デバイス65には、色分離デバイス61からクリップされることがないR、G、B、W信号が入力され、IR生成およびIR補正が行われ、IR成分が除去されたRGB信号が出力される。ここで、RGB信号は、W信号に比べて飽和レベルに達しづらいものとなっており、頭打ちとなりづらい。輝度の算出にこのRGB信号を用いることにより、図49に示すように、輝度レベルがクリップされるのを防止し、輝度が高い状態でも、輝度に少しであるが諧調を持たせることができる。   48, as shown in FIG. 48, the color separation device 61 separates the R, G, B, and W signal levels of each pixel by an interpolation method or the like, and performs level detection / clip level calculation. It is sent to the IR signal generation device 63 and the clip processing device 62. The level detection / clip level calculation device 63 calculates R, G, B, and W clip levels based on the above formula and the detected levels of R, G, B, and W. The R, G, B, and W clip levels calculated by the clip level calculation device 63 are sent to the clip processing device 62, and the R, G, B, and W signal levels input to the clip processing device 62 are clip levels. If it exceeds, clipping is performed. The R, G, B, and W signal levels output from the clip processing device 62 are input to the first IR correction / IR generation device 64. The first IR correction / IR generation device 64 removes the IR signal from the clipped R, G, B, and W signals and generates an IR signal. The RGB signals obtained by the first IR correction / IR generation device 64 are used as color signals, for example, color difference signals. Further, the second IR correction: IR generation device 65 of this modification is provided. The R, G, B, and W signals that are not clipped from the color separation device 61 are input to the second IR correction / IR generation device 65, IR generation and IR correction are performed, and IR components are removed. RGB signals are output. Here, the RGB signal is less likely to reach the saturation level than the W signal, and it is difficult to reach the peak. By using this RGB signal to calculate the luminance, as shown in FIG. 49, it is possible to prevent the luminance level from being clipped and to give a slight gradation even in a high luminance state.

次に、第8の実施の形態を説明する。第8の実施の形態では、第7の実施の形態と同様にR、G、B、Wの各信号のクリップレベルを決めるようになっている。第8の実施の形態では、第7の実施の形態のように、R、G、Bの各信号のクリップレベルを決定することなく、IR信号とW信号のクリップレベルを決定するようになっており、図50に示すように、リミット処理により制御値でクリップされるIR信号により、IR補正を行う。Wのクリップレベルは、Wの飽和レベルに基づいて設定される。
(Wクリップレベル)=(W画素(C画素)の飽和レベルにより算出)
IRのクリップレベルは、以下の式に基づいて決定される。
(IRクリップレベル)=(Wクリップレベル)(IRレベル)/(Wレベル+IRレベル)
これにより、図50に示すように。飽和レベルに達するWの信号レベルからWの信号が略飽和した際に、上述のようにクリップされるIRの信号レベルを除去する場合に、Wの信号レベルが飽和レベルより低い信号レベルでクリップされることになる。
Next, an eighth embodiment will be described. In the eighth embodiment, the clip level of each of the R, G, B, and W signals is determined as in the seventh embodiment. In the eighth embodiment, as in the seventh embodiment, the clip levels of the IR signal and the W signal are determined without determining the clip levels of the R, G, and B signals. As shown in FIG. 50, IR correction is performed by an IR signal clipped with a control value by limit processing. The clip level of W is set based on the saturation level of W.
(W clip level) = (calculated from the saturation level of W pixel (C pixel))
The IR clip level is determined based on the following equation.
(IR clip level) = (W clip level) (IR level) / (W level + IR level)
Thereby, as shown in FIG. When removing the IR signal level that is clipped as described above when the W signal is substantially saturated from the W signal level that reaches the saturation level, the W signal level is clipped at a signal level lower than the saturation level. Will be.

RGBの各信号レベルからクリップされるIR信号を除去する補正を行う場合に、RGBの各信号レベルが使用条件の範囲内で飽和レベルに達しないものとすると、図51に示すように、RGBの各信号レベルは、IR信号を除去する場合に、IR信号がクリップレベルに達した後も、RGBの信号レベルが上昇することが可能なので、RGBの各信号は、クリップされずに上昇することが可能となっている。   When performing correction to remove the IR signal clipped from each RGB signal level, assuming that each RGB signal level does not reach the saturation level within the range of use conditions, as shown in FIG. When the IR signal is removed, each signal level can be increased without being clipped because the RGB signal level can be increased even after the IR signal reaches the clip level. It is possible.

第8の実施の形態の図52に示す分離デバイス51では、色分離デバイス61で内挿法等により各画素のR、G、B、Wの信号レベルが分離されて、IR信号生成デバイス71と、IR補正デバイス64に分離されたR、G、B、Wの信号が出力される。IR信号生成デバイス71では、生成さるIR信号のクリップレベルが求められ、クリップレベルを超えるとクリップされるIR信号がIR補正デバイス64に出力される。IR補正デバイス64では、R、G、B、Wの各信号レベルからIR信号が除去される。   In the separation device 51 shown in FIG. 52 of the eighth embodiment, the color separation device 61 separates the R, G, B, and W signal levels of each pixel by interpolation or the like, and the IR signal generation device 71 The R, G, B, and W signals separated by the IR correction device 64 are output. The IR signal generation device 71 obtains the clip level of the IR signal to be generated, and when the clip level is exceeded, the IR signal to be clipped is output to the IR correction device 64. In the IR correction device 64, the IR signal is removed from the R, G, B, and W signal levels.

図53に示すように、IR信号生成デバイス71では、色分離デバイス61からR、G、B、Wの各信号がIR補正デバイス72と、IRマトリックスデバイス73に送られ、IRマトリックスデバイス73で生成されたIR信号は、IR補正デバイス72とリミット処理デバイス74に出力され、IR補正デバイス72では、R、G、B、Wの各信号レベルからIR信号が除去されるIR補正が行われ、補正されたR、G、B、W信号とIR信号がレベル検出デバイス75に送られ、R、G、B、W信号とIR信号がリミットレベル計算デバイス76に送られ、IR信号のリミットレベル(クリップレベル)がリミット処理デバイス74に入力される。リミット処理デバイス74には、IRマトリックスデバイス73からIR信号レベルが入力しており、IR信号レベルがリミットレベルを超える場合に、リミットレベルにクリップされた状態となる。   As shown in FIG. 53, in the IR signal generation device 71, the R, G, B, and W signals are sent from the color separation device 61 to the IR correction device 72 and the IR matrix device 73, and are generated by the IR matrix device 73. The IR signal thus output is output to the IR correction device 72 and the limit processing device 74. The IR correction device 72 performs IR correction in which the IR signal is removed from each of the R, G, B, and W signal levels. The R, G, B, W signal and IR signal thus transmitted are sent to the level detection device 75, and the R, G, B, W signal and IR signal are sent to the limit level calculation device 76, and the IR signal limit level (clip) Level) is input to the limit processing device 74. When the IR signal level is input from the IR matrix device 73 to the limit processing device 74 and the IR signal level exceeds the limit level, the limit processing device 74 is clipped to the limit level.

このような第8の実施の形態においては、第7の実施の形態と同様に、R、G、B、Wの信号レベルが上がる状況で逆に下がってしまうような事態を防止できるとともに、Wの信号レベルが飽和した状態でも、RGBの各信号レベルに諧調を持たせることができる。また、これにより輝度信号にもWの信号レベルが飽和する状況で、諧調を持たせることができる。なお、輝度信号の生成式は、
Y=(Kr*R+Kg*G+Kb*B+Kw*W)+Kir*IR
とすることができる。
IRの比率を変えることにより、感度のコントロールができる。なお、夜間において、IR照明を行う場合、可視信号はなくなり全画素IR信号のみとなる。この場合は、IR補正をOFFして、全画素の信号から輝度信号を生成することにより、高解像度で高感度の輝度信号が生成できる。カメラにIR照明を内蔵した場合、これに連動して、信号処理を切り替える。
この場合のIR照明時の輝度生成式は、
Y=Kr*R+Kg*G+Kb*B+Kw*W (IR補正OFF)
となる。
なお、各画素では、可視光帯域の受光量よりDBPF5の第2の波長帯域と各フィルタを透過する赤外照明の光の受光量が多くなり、基本的に各画素では、赤外光の信号レベルを出力している状態となる。
In the eighth embodiment, similarly to the seventh embodiment, it is possible to prevent a situation in which the signal level of R, G, B, W is lowered in a situation where the signal level is increased and W Even in a state where the signal level is saturated, it is possible to give gradation to each signal level of RGB. In addition, it is possible to give gradation to the luminance signal in a situation where the W signal level is saturated. The luminance signal generation formula is
Y = (Kr * R + Kg * G + Kb * B + Kw * W) + Kir * IR
It can be.
Sensitivity can be controlled by changing the IR ratio. Note that when IR illumination is performed at night, the visible signal disappears and only the all-pixel IR signal is obtained. In this case, it is possible to generate a high-resolution and high-sensitivity luminance signal by turning off IR correction and generating a luminance signal from signals of all pixels. When IR illumination is built in the camera, signal processing is switched in conjunction with this.
In this case, the brightness generation formula for IR illumination is
Y = Kr * R + Kg * G + Kb * B + Kw * W (IR correction OFF)
It becomes.
In each pixel, the amount of received light of the infrared illumination that passes through the second wavelength band of the DBPF 5 and each filter is larger than the amount of received light in the visible light band. The level is output.

次に、上述のような第1〜第4の実施の形態の撮像センサ1および撮像装置10、10aを用いたカメラシステムを説明する。カメラシステムにおいては、上述のいずれかの実施の形態の撮像装置10(10a)を2つ左右に配置し、可視光と赤外光とでそれぞれ左右2つの画像からなるステレオ画像を撮影可能となっている。   Next, a camera system using the imaging sensor 1 and the imaging devices 10 and 10a according to the first to fourth embodiments as described above will be described. In the camera system, two imaging devices 10 (10a) according to any of the above-described embodiments are arranged on the left and right, and a stereo image composed of two images on the left and right can be captured with visible light and infrared light, respectively. ing.

この実施の形態のカメラシステムについて、図54を用いて説明する。対象(被写体)200からの光がレンズユニット(レンズ、光学系)201で集光され、DBPF5、カラーフィルタ3を通して撮像センサ1にて電気信号に変換される。撮像センサ1から出力された信号は、上述の信号処理部12としての画像入力部202、画像信号補正処理部203および補正パラメータ算出部204に入力される。   The camera system of this embodiment will be described with reference to FIG. Light from the target (subject) 200 is collected by a lens unit (lens, optical system) 201 and converted into an electrical signal by the image sensor 1 through the DBPF 5 and the color filter 3. The signal output from the imaging sensor 1 is input to the image input unit 202, the image signal correction processing unit 203, and the correction parameter calculation unit 204 as the signal processing unit 12 described above.

信号処理部12では、画像入力部202、画像信号補正処理部203、補正パラメータ算出部204の順に信号が入出力されることになり、例えば、画像入力部202で上述の内挿処理が行われ、画像信号補正処理部203で上述の赤外成分の算出、上述の各色成分からの赤外成分の除去(減算)、赤外成分を算出および除去する際の上述のクリップ処理等が行われる。補正パラメータ算出部204では、上述のクリップ処理におけるクリップレベルの決定等が行われ、画像信号補正処理部203に出力され、上述の赤外信号の除去の際に利用される。また、補正パラメータ算出部204は、左右2つの画像信号補正処理部203から出力されるそれぞれの可視画像の信号強度(信号レベル)を近似させるようにクリップレベルや信号レベルの補正値(例えば、上述の可視画像信号や赤外画像信号や上述の赤外信号や各色信号等の信号に加算や減算や乗算や除算される補正値)等のパラメータを設定して、2つの可視画像信号(2つの赤外画像信号)の信号レベルが近似するようにしている。画像信号補正処理部203における補正量については、2つの画像信号補正処理部203からの出力を見て、それぞれに設定することで画像信号のレベル合わせ込む。左右の画像信号のレベルを合わせ込む処理は、赤外画像信号と可視画像信号の両方で行うことが可能である。   In the signal processing unit 12, signals are input / output in the order of the image input unit 202, the image signal correction processing unit 203, and the correction parameter calculation unit 204. For example, the above-described interpolation processing is performed in the image input unit 202. The image signal correction processing unit 203 performs the above-described infrared component calculation, the above-described removal (subtraction) of the infrared component from each color component, the above-described clip processing when calculating and removing the infrared component, and the like. The correction parameter calculation unit 204 determines the clip level in the above-described clip processing, etc., and outputs it to the image signal correction processing unit 203 to be used when the above-described infrared signal is removed. The correction parameter calculation unit 204 also corrects clip level and signal level correction values (for example, the above-described values) so as to approximate the signal intensity (signal level) of each visible image output from the two left and right image signal correction processing units 203. Parameters such as addition, subtraction, multiplication, and division) are set on the visible image signal, infrared image signal, and the above-described infrared signal and each color signal, and two visible image signals (two The signal level of the infrared image signal is approximated. Regarding the correction amount in the image signal correction processing unit 203, the output from the two image signal correction processing units 203 is viewed and set to each level to match the level of the image signal. The process of matching the levels of the left and right image signals can be performed on both the infrared image signal and the visible image signal.

すなわち、補正パラメータ算出部204が2つの画像信号補正処理部203から出力される画像信号の信号レベルに基づいて補正量を決定して、2つの画像信号補正処理部203から出力される画像信号の信号レベルが近似するようにする。これにより、2つの画像データで例えば輝度レベルが異なることにより、被写体の異なる部分を同じ部分(対応点)と認知して、測定する距離に誤差が生じたり、エラーが発生したりするのを抑制することができる。   That is, the correction parameter calculation unit 204 determines a correction amount based on the signal levels of the image signals output from the two image signal correction processing units 203, and the image signal output from the two image signal correction processing units 203 is determined. Try to approximate the signal level. This makes it possible to recognize different parts of the subject as the same part (corresponding point), for example, because the brightness levels of the two image data are different, and prevent errors in measurement distances and errors. can do.

なお、カメラシステムの撮像センサ1は、カラーフィルタ3としてRGB−C(W)を用いることが好ましい。カラーフィルタ3の赤外用のフィルタとして可視光を透過せずに赤外を透過させるフィルタを用いることもできるが、上述のように赤R、緑G、青Bのフィルタ部と、クリアC(ホワイトW)のフィルタ部を有するカラーフィルタ3を用いることにより、上述のように可視光の輝度が0の赤外のフィルタ部に代えて可視光の輝度の高いCのフィルタ部が設けられることになり、輝度解像度が高くなる。   Note that the image sensor 1 of the camera system preferably uses RGB-C (W) as the color filter 3. As the infrared filter of the color filter 3, a filter that does not transmit visible light but transmits infrared light can be used. As described above, the red R, green G, and blue B filter sections and the clear C (white) By using the color filter 3 having the filter portion W), a C filter portion having high visible light luminance is provided in place of the infrared filter portion having zero visible light luminance as described above. , The luminance resolution becomes high.

また、カメラシステムは、上述のようにレンズユニット201、DBPF5、カラーフィルタ3、撮像センサ1、画像入力部202、画像信号補正処理部203等からなる撮像装置10を2組有するものであり、左右2箇所から撮影することによりステレオ画像が得られるようになっている。また、2つのレンズユニット201は、それぞれの光軸が互いに平行になるように配置されている。カメラシステムの距離算出デバイスとしての距離算出部205は、2つの画像信号補正処理部203からそれぞれ入力される左右2つの可視画像信号および左右2つの赤外画像信号を用いて対象200までの距離を計測する。この場合に、2つの画像から同一の被写体(対応点)を決定し、これら同一の被写体の画像上の位置の違いとしての視差を検出し、従来と同様に距離を求める。すなわち、差の測定用の対応点は、画像認識により決定し、対応点の画像中の位置の違いである視差に基づいて距離を算出する。また、このカメラシステムには、不審者検出部206を有し、上述の可視画像および赤外画像と対象200までの距離に基づいて不審者か否かを判定するようになっている。   In addition, the camera system includes two sets of the imaging device 10 including the lens unit 201, the DBPF 5, the color filter 3, the imaging sensor 1, the image input unit 202, the image signal correction processing unit 203, and the like as described above. Stereo images can be obtained by shooting from two locations. The two lens units 201 are arranged so that their optical axes are parallel to each other. A distance calculation unit 205 as a distance calculation device of the camera system calculates the distance to the target 200 using two left and right visible image signals and two left and right infrared image signals respectively input from the two image signal correction processing units 203. measure. In this case, the same subject (corresponding point) is determined from the two images, the parallax as a difference in the position of the same subject on the image is detected, and the distance is obtained as in the conventional case. That is, the corresponding point for measuring the difference is determined by image recognition, and the distance is calculated based on the parallax that is the difference in the position of the corresponding point in the image. In addition, this camera system includes a suspicious person detection unit 206, and determines whether or not the person is a suspicious person based on the above-described distance between the visible image and the infrared image and the target 200.

この場合に、例えば、対象200となる人物までの距離と画像上の位置から立ち入り禁止区域に、対象となっている人物が入っているか否かを判定し、立ち入り禁止区域に入っていると判定した場合に不審者と判定してもよい。また、予め登録された人物の顔のデータ等に基づいて、顔認識により登録された人物か否かを判定するものであってもよい。   In this case, for example, it is determined whether or not the subject person is in the restricted entry area from the distance to the person who is the subject 200 and the position on the image, and it is determined that the subject person is in the restricted entry area. If you do, you may determine that you are a suspicious person. Further, it may be determined whether or not the person is registered by face recognition based on face data of a person registered in advance.

このようなカメラシステムは、例えば、監視カメラに用いられ、二次元画像や、三次元画像を人間の目で確認できるとともに、例えば、被写体までの距離を計測可能なものである。これにより、画像に写っている人間や車や障害物等の位置関係を距離から把握可能であり、自動車事故の検証(解析)等に用いることが可能である。また、人間の顔の各部分までの距離により、人間の顔の凹凸を計測したりすることも可能であり、例えば、顔認識において、顔の三次元データを取得したり、三次元データを人物の認証や、人物の特定に利用することができる。   Such a camera system is used, for example, in a surveillance camera, and can confirm a two-dimensional image or a three-dimensional image with human eyes, and can measure a distance to a subject, for example. Thereby, it is possible to grasp the positional relationship between a person, a car, an obstacle, and the like shown in the image from the distance, and it can be used for verification (analysis) of an automobile accident. It is also possible to measure the unevenness of the human face according to the distance to each part of the human face. For example, in face recognition, three-dimensional data of a face is acquired or three-dimensional data is It can be used for authentication and identification of people.

また、このカメラシステムによれば、昼間は自然光により可視光で撮影し、夜は赤外照明を用いて赤外撮影を行うことができ、かつ、可視画像から距離を求めことができるとともに赤外画像から距離を求めることができる。この際に、可視の撮影と赤外の撮影は、同じ撮像装置10で同じ撮像センサ1やレンズユニット201を用いることになり、可視画像と赤外画像が同じ対象を同じ範囲で撮影したものとなり、同じ画角で撮影されたものとなる。例えば、昼と夜との境となる時間で、赤外撮影と可視撮影を切り替えるようなことがあっても切り替え時に対象200の位置が変わらず、距離の測定を継続することが可能である。また、このカメラシステムの製造時やメンテナンス時に赤外画像と可視画像の位置合わせ等の処理が不要である。   In addition, according to this camera system, it is possible to photograph with visible light using natural light in the daytime, perform infrared photographing using infrared illumination at night, and obtain the distance from the visible image and perform infrared imaging. The distance can be obtained from the image. At this time, the visible imaging and the infrared imaging use the same imaging sensor 1 and lens unit 201 in the same imaging device 10, and the visible image and the infrared image are captured in the same range. , Taken with the same angle of view. For example, even when switching between infrared imaging and visible imaging at the time between day and night, the position of the target 200 does not change at the time of switching, and distance measurement can be continued. In addition, processing such as alignment of an infrared image and a visible image is not required during manufacturing or maintenance of the camera system.

また、自動車の自動運転等にこのカメラシステムを利用する場合に赤外画像と可視画像との両方で測距できるので、夜間にヘッドライトの明かりで可視画像により距離を測定するとともに、ヘッドライトの明かりが届かない遠方を対向車への影響を考慮して赤外照明を用いた赤外画像で測距することができる。この際に、ヘッドライトの照明範囲と赤外照明の照明範囲との境界部分における距離の計測に際して、上述のように赤外画像と可視画像の位置があっているので、計測される距離が変化してしまうのを防止できる。   In addition, when using this camera system for automatic driving of automobiles, it is possible to measure the distance with both infrared and visible images, so the distance of the headlight can be measured with the light of the headlight at night and the headlight It is possible to measure the distance in a far place where the light does not reach with an infrared image using infrared illumination in consideration of the influence on the oncoming vehicle. At this time, when measuring the distance at the boundary between the illumination range of the headlight and the illumination range of the infrared illumination, since the positions of the infrared image and the visible image are as described above, the measured distance changes. Can be prevented.

1 撮像センサ
3 カラーフィルタ
5 DBPF(光学フィルタ)
11 レンズ(光学系)
12 信号処理部(信号処理デバイス:減算制御デバイス)
101 レンズユニット(光学系)
105 距離算出部(距離算出デバイス)
1 imaging sensor 3 color filter 5 DBPF (optical filter)
11 Lens (optical system)
12 Signal processor (Signal processing device: Subtraction control device)
101 Lens unit (optical system)
105 Distance calculation unit (distance calculation device)

Claims (6)

各画素に受光素子が配置された2つの撮像センサと、
可視光帯域に透過特性を有し、前記可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、前記第1の波長帯域内の一部分である第2の波長帯域に透過特性を有するとともに、2つの前記撮像センサにそれぞれ対応して2つ設けられた光学フィルタと、
前記可視光帯域における波長に応じた分光透過特性が互いに異なるとともに前記第2の波長帯域における透過率が互いに近似する少なくとも4種類のフィルタ部を有するとともに、2つの前記撮像センサにそれぞれ対応して2つ設けられたカラーフィルタと、
各撮像センサ上に像を結ぶレンズをそれぞれ有するとともに、2つの前記撮像センサにそれぞれ対応して2つ設けられた光学系と、
各撮像センサから出力される信号を処理して2つの可視画像信号および2つの赤外画像信号を出力可能な信号処理デバイスと、
前記信号処理デバイスから出力される2つの可視画像信号および/または2つの赤外画像信号を用いて可視画像信号による可視画像および/または赤外画像信号による赤外画像に写った被写体までの距離を算出する距離算出デバイスとを備え、
前記信号処理デバイスは、前記カラーフィルタの各種類の前記フィルタ部を透過した光に対応して前記撮像センサから出力された信号を用いて前記第2の波長帯域に対応する赤外成分に基づく赤外画像信号と、前記赤外成分が減算された前記可視光帯域に対応する少なくとも3種類の色成分に基づく可視画像信号とを算出し、
かつ、前記色成分から前記赤外成分を減算するに際して、前記色成分が画素飽和レベル以上となる場合に、前記色成分から減算される前記赤外成分の値を下げるように補正する制御を行う減算制御デバイスを備えることを特徴とするカメラシステム。
Two imaging sensors in which a light receiving element is arranged in each pixel;
A transmission characteristic in the visible light band, a cutoff characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and a second wavelength band that is a part of the first wavelength band; Two optical filters having transmission characteristics and provided corresponding to the two imaging sensors,
Spectral transmission characteristics corresponding to the wavelength in the visible light band are different from each other, and the transmittance in the second wavelength band is approximately similar to each other. Two color filters,
Each of the image sensors has a lens for connecting an image, and two optical systems provided corresponding to the two image sensors,
A signal processing device capable of processing a signal output from each imaging sensor and outputting two visible image signals and two infrared image signals;
Using the two visible image signals and / or two infrared image signals output from the signal processing device, the distance to the subject reflected in the visible image by the visible image signal and / or the infrared image by the infrared image signal is determined. A distance calculating device for calculating,
The signal processing device is a red based on an infrared component corresponding to the second wavelength band by using a signal output from the imaging sensor corresponding to light transmitted through each type of the filter unit of the color filter. Calculating an outer image signal and a visible image signal based on at least three color components corresponding to the visible light band from which the infrared component is subtracted;
In addition, when subtracting the infrared component from the color component, if the color component is equal to or higher than a pixel saturation level, control is performed to correct the infrared component subtracted from the color component so as to decrease the value. A camera system comprising a subtraction control device.
前記カラーフィルタは、前記赤外成分と前記可視光帯域の赤成分の光を透過する赤の前記フィルタ部と、前記赤外成分と前記可視光帯域の緑成分の光を透過する緑の前記フィルタ部と、前記赤外成分と前記可視光帯域の青成分の光を透過する青の前記フィルタ部と、前記赤外成分と前記赤成分、前記緑成分および前記青成分を合わせた白成分の光を透過する白の前記フィルタ部とを備えることを特徴とする請求項1に記載のカメラシステム。   The color filter includes the red filter unit that transmits the infrared component and the red component light in the visible light band, and the green filter that transmits the infrared component and the green component light in the visible light band. Part, the blue filter part that transmits the infrared component and the blue component light in the visible light band, and the white component light that combines the infrared component, the red component, the green component, and the blue component The camera system according to claim 1, further comprising: the white filter unit that transmits light. 前記減算制御デバイスは、
前記赤外成分の値を下げる補正として、前記赤外成分の値を前記色成分に基づいて決定される制限値より高くならないように制御することを特徴とする請求項1または請求項2に記載のカメラシステム。
The subtraction control device is:
The correction for lowering the value of the infrared component is controlled so that the value of the infrared component does not become higher than a limit value determined based on the color component. Camera system.
前記減算制御デバイスは、前記赤外成分の前記制限値を、ホワイトバランス処理で得られる各色の利得に基づいて、前記色成分毎に決定することを特徴とする請求項3に記載のカメラシステム。   The camera system according to claim 3, wherein the subtraction control device determines the limit value of the infrared component for each color component based on a gain of each color obtained by white balance processing. 前記信号処理デバイスは、前記色成分の前記画素飽和レベルから前記赤外成分の前記制限値を減算した値に対応する信号飽和レベルが各色で略同じになるように制御することを特徴とする請求項3または請求項4に記載のカメラシステム。   The signal processing device controls the signal saturation level corresponding to a value obtained by subtracting the limit value of the infrared component from the pixel saturation level of the color component to be substantially the same for each color. Item 5. The camera system according to Item 3 or Item 4. 前記信号処理デバイスは、2つの可視画像信号の信号レベルおよび/または2つの赤外画像信号の信号レベルが互いに近似するように補正することを特徴とする請求項1から請求項5のいずれか1項に記載のカメラシステム。   The said signal processing device correct | amends so that the signal level of two visible image signals and / or the signal level of two infrared image signals may approximate each other. The camera system according to item.
JP2015250782A 2015-12-23 2015-12-23 Camera system Active JP6640555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015250782A JP6640555B2 (en) 2015-12-23 2015-12-23 Camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015250782A JP6640555B2 (en) 2015-12-23 2015-12-23 Camera system

Publications (2)

Publication Number Publication Date
JP2017118283A true JP2017118283A (en) 2017-06-29
JP6640555B2 JP6640555B2 (en) 2020-02-05

Family

ID=59232109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015250782A Active JP6640555B2 (en) 2015-12-23 2015-12-23 Camera system

Country Status (1)

Country Link
JP (1) JP6640555B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021530875A (en) * 2018-07-19 2021-11-11 維沃移動通信有限公司Vivo Mobile Communication Co., Ltd. Image sensor and mobile terminal
EP4163864A1 (en) * 2021-10-08 2023-04-12 ARM Limited System, devices and/or processes for processing infrared pixel values

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021530875A (en) * 2018-07-19 2021-11-11 維沃移動通信有限公司Vivo Mobile Communication Co., Ltd. Image sensor and mobile terminal
US11463642B2 (en) 2018-07-19 2022-10-04 Vivo Mobile Communication Co., Ltd. Image sensor including pixel array and mobile terminal
EP4163864A1 (en) * 2021-10-08 2023-04-12 ARM Limited System, devices and/or processes for processing infrared pixel values
US11877073B2 (en) 2021-10-08 2024-01-16 Arm Limited System, devices and/or processes for processing infrared pixel values

Also Published As

Publication number Publication date
JP6640555B2 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
JP6503485B2 (en) Imaging processing apparatus and imaging processing method
US8125543B2 (en) Solid-state imaging device and imaging apparatus with color correction based on light sensitivity detection
EP3343911B1 (en) Image signal processing method and system
US7460160B2 (en) Multispectral digital camera employing both visible light and non-visible light sensing on a single image sensor
CN106911876B (en) Method and apparatus for outputting image
US10469779B2 (en) Image capturing apparatus
KR101639382B1 (en) Apparatus and method for generating HDR image
JP6734647B2 (en) Imaging device
US20070177004A1 (en) Image creating method and imaging device
US10630920B2 (en) Image processing apparatus
US20130002936A1 (en) Image pickup apparatus, image processing apparatus, and storage medium storing image processing program
US9936172B2 (en) Signal processing device, signal processing method, and signal processing program for performing color reproduction of an image
EP3270587A1 (en) Image processing device, image processing method, and program
TW201944773A (en) Image demosaicer and method
US20200014858A1 (en) Control systems and image sensors
JPWO2016143134A1 (en) Image processing apparatus, image processing method, and program
TW202205847A (en) Imaging element, and electronic instrument
JP6640555B2 (en) Camera system
US20130128083A1 (en) High dynamic range image sensing device and image sensing method and manufacturing method thereof
JP4993275B2 (en) Image processing device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191226

R150 Certificate of patent or registration of utility model

Ref document number: 6640555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250