JP2011243862A - Imaging device and imaging apparatus - Google Patents

Imaging device and imaging apparatus Download PDF

Info

Publication number
JP2011243862A
JP2011243862A JP2010116498A JP2010116498A JP2011243862A JP 2011243862 A JP2011243862 A JP 2011243862A JP 2010116498 A JP2010116498 A JP 2010116498A JP 2010116498 A JP2010116498 A JP 2010116498A JP 2011243862 A JP2011243862 A JP 2011243862A
Authority
JP
Japan
Prior art keywords
light
visible light
image
imaging device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010116498A
Other languages
Japanese (ja)
Inventor
Takayasu Kanazawa
孝恭 金沢
Yoshiharu Shimano
嘉治 島野
Hiroshi Kawamura
洋 川村
Hideaki Ishioka
秀昭 石岡
Kazumasa Kaneda
一賢 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010116498A priority Critical patent/JP2011243862A/en
Publication of JP2011243862A publication Critical patent/JP2011243862A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To realize functions of a distance image sensor acquiring a distance to a target subject utilizing light irradiated from a light source and a biometric detection sensor detecting a living body with light irradiated from a light source, using one imaging device acquiring an image in an RGB system or the like and an image of near-infrared light.SOLUTION: An imaging device according to the present invention includes an optical filter 32, and an output part 40 separately outputting a visible light image and a near-infrared light image by arranging a visible light sensor (visible light sensor constituted of two layers 38 and 39) and a near-infrared light sensor (non-visible light sensor constituted of two layers 36 and 37) along a direction of incoming light. Therefore, functions of distance measurement and/or biometric detection can be realized using one imaging device capable of high resolution imaging without image displacement between the both images and without reduction in resolution.

Description

本発明は、距離画像センサと生体検出センサの機能を、RGB等の撮影(可視光)画像及び近赤外光画像を取得する1つの撮像デバイスを用いて実現する撮像装置と、その撮像デバイスに関する。   The present invention relates to an imaging apparatus that realizes the functions of a distance image sensor and a living body detection sensor using a single imaging device that acquires a captured (visible light) image such as RGB and a near-infrared light image, and the imaging device. .

例えば体を使ったモーション認識やジェスチャー認識の用途のために、画像に距離情報を付加した距離画像カメラが提案されている。距離測定方式としては、光源から近赤外光を発光し、被写体によって反射された光の遅れ時間を計測して距離を測定するTOF(Time of flight)方式が一般的である。
TOF方式では距離画像センサは近赤外光を検出するセンサであり、TOF方式の距離画像カメラの多くは近赤外光による明暗画像と距離画像を出力するものになっている。
For example, a distance image camera in which distance information is added to an image has been proposed for use in motion recognition and gesture recognition using the body. As a distance measuring method, a TOF (Time of Flight) method is generally used in which near-infrared light is emitted from a light source, and a distance is measured by measuring a delay time of light reflected by a subject.
In the TOF method, the range image sensor is a sensor that detects near-infrared light, and many TOF-type range image cameras output light and dark images and distance images using near-infrared light.

しかし、例えばセキュリティ用途や画像合成等の用途によっては、可視光のカラー画像との合成が求められ、その場合は距離画像カメラとカラー画像用カメラの2カメラ構成となっている。
2カメラ構成の場合、視点が異なるため、被写体の位置によっては2カメラ間の視差により2つの画像に位置ずれが生じる、2カメラ間でフレーム同期制御が必要になる、ズームを行いたい場合に2カメラ間で視野の同期制御が必要になり複雑な構成になる、といった短所がある。
距離画像とカラー画像を一体の撮像デバイスで撮像することで、前記の問題を解消することができる。従来から、距離画像とカラー画像を一体の撮像デバイスで撮像する手法が提案されている(例えば特許文献1,2参照)。
However, for example, depending on applications such as security applications and image composition, composition with a visible light color image is required, and in this case, a two-camera configuration of a distance image camera and a color image camera is adopted.
In the case of the two-camera configuration, since the viewpoints are different, the two images may be misaligned due to the parallax between the two cameras, and frame synchronization control is required between the two cameras. There is a disadvantage that it requires a synchronous control of the field of view between cameras, resulting in a complicated configuration.
The above-mentioned problem can be solved by capturing the distance image and the color image with an integrated imaging device. Conventionally, a method of capturing a distance image and a color image with an integrated imaging device has been proposed (see, for example, Patent Documents 1 and 2).

特許文献1には、赤(R)、緑(G)、青(B)の可視光検出用と近赤外光(NIR)検出用の2つの撮像デバイスを使用する方法と、RGBとNIRを1つの撮像デバイスで検出する方法が挙げられている。   Patent Document 1 discloses a method using two imaging devices for red (R), green (G), and blue (B) visible light detection and near-infrared light (NIR) detection, and RGB and NIR. A method of detecting with one imaging device is mentioned.

特許文献2に記載の方法は、撮像デバイスのカラーフィルタでベイヤー配列と呼ばれる赤(R)、緑(G)、緑(G)、青(B)の並び内で、Gの1つを近赤外(NIR)に置き換えてR,G,B,NIRを検出する。   In the method described in Patent Document 2, a color filter of an imaging device uses a red (R), green (G), green (G), or blue (B) array called a Bayer array, and one of G is near red. R, G, B, NIR is detected by replacing with outside (NIR).

一方、画像の中から人の皮膚部のみを検出する方法が提案されている(例えば、特許文献3参照)。
特許文献3に記載の方法により、生体(例えば人の皮膚部のみ)を検出する画像を抽出することが可能である。
得られた生体画像は平面画像であり、かつ近赤外光による明暗画像になる。
On the other hand, a method for detecting only a human skin from an image has been proposed (see, for example, Patent Document 3).
By the method described in Patent Document 3, it is possible to extract an image for detecting a living body (for example, only a human skin).
The obtained biological image is a planar image and becomes a bright and dark image by near infrared light.

特表2007−526453号公報Special table 2007-526453 特開2008−8700号公報JP 2008-8700 A 特許第2823564号Japanese Patent No. 2823564

上記特許文献1に記載された、2つの撮像デバイスを使用する方法は、RGBとNIRの波長を分光するプリズムが撮像レンズと撮像デバイスの間に存在するため、撮像レンズの焦点距離を短くすることに制約がある。その結果、画角を広げることが困難である。
特許文献1に記載された、1つの撮像デバイスを使用する他の方法を採用するならば、画角拡大の困難さは解消される。この方法で使用される撮像デバイスは、RGBの可視光画素の間に、NIRの画素がちりばめられているものである。
そのため、この撮像デバイスから取得された画像においてはRGB画像や距離測定画像の各々に対し十分な解像度が得られない、また被写体の同一箇所に対し距離測定画素(NIR画素)とRGB画素とが同じ位置の情報を取得できないという不利益を伴う。
In the method using two imaging devices described in Patent Document 1, the focal length of the imaging lens is shortened because a prism that separates RGB and NIR wavelengths exists between the imaging lens and the imaging device. There are restrictions. As a result, it is difficult to widen the angle of view.
If another method using one image pickup device described in Patent Document 1 is employed, the difficulty of expanding the angle of view is eliminated. The imaging device used in this method is one in which NIR pixels are interspersed between RGB visible light pixels.
Therefore, in the image acquired from this imaging device, sufficient resolution cannot be obtained for each of the RGB image and the distance measurement image, and the distance measurement pixel (NIR pixel) and the RGB pixel are the same for the same portion of the subject. The disadvantage is that location information cannot be obtained.

上記特許文献2に記載された方法においても同様な不利益がある。特許文献2に記載された方法においては、繰り返し色配列の複数画素内で緑(G)の画素を1つ減らすことにより、本来同じ画素数を持った原色系撮像デバイスが出し得るRGB画像より解像度が低いという不利益がある。
また、被写体の同一箇所に対し距離測定画素がRGB画素と同じ位置で情報を取得できないため、RGB画像と異なる画像の位置で距離を計測せざるを得ない。
The method described in Patent Document 2 has a similar disadvantage. In the method described in Patent Document 2, by reducing one green (G) pixel in a plurality of pixels of a repetitive color array, the resolution is higher than that of an RGB image that can be produced by a primary color imaging device having the same number of pixels. Is disadvantageous.
In addition, since the distance measurement pixel cannot acquire information at the same position as the RGB pixel for the same portion of the subject, the distance must be measured at a position of an image different from the RGB image.

上記特許文献3に記載された生体画像を取得可能な方法において、仮に距離情報を付加することができれば、例えば、人の顔や手を立体画像として取り込むことが可能になる。また、生体画像にカラー画像を合成することで、色情報も付加することが可能である。
しかし、特許文献3に記載の方法は、上記特許文献1と同様に、画角を広げることが困難である。
また、上記特許文献1,2と同様に、画角を広げた場合でも距離測定画素が撮像デバイス内に占める割合がある程度高い。そのため、RGB画像や距離測定画像の各々に対し十分な解像度が得られない、また距離測定画素(NIR画素)がRGB画素と同じ位置の情報を取得できないという不利益がある。
If distance information can be added in the method capable of acquiring a biological image described in Patent Document 3, for example, a human face or hand can be captured as a stereoscopic image. Color information can also be added by synthesizing a color image with a biological image.
However, in the method described in Patent Document 3, it is difficult to widen the angle of view, as in Patent Document 1.
Similarly to Patent Documents 1 and 2, even when the angle of view is widened, the ratio of the distance measurement pixels in the imaging device is high to some extent. Therefore, there are disadvantages that a sufficient resolution cannot be obtained for each of the RGB image and the distance measurement image, and that the distance measurement pixel (NIR pixel) cannot acquire information at the same position as the RGB pixel.

同一被写体を同じ画角で別々に撮像したNIR画像とRGBカラー画像とを用いて、生体画像の抽出は可能である。この場合、NIR画像で生体検出し、検出された生体部分と同じ画素アドレス範囲のRGB画像の部分を抽出すればよい。
しかし、同一被写体を同じ画角で撮像しても得られた2つの画像に多少なりともずれがあるのが常であるから、この画像のずれが生体画像の誤差成分となり、生体画像の高精度な抽出は困難である。
A biological image can be extracted using NIR images and RGB color images obtained by separately capturing the same subject at the same angle of view. In this case, the living body is detected from the NIR image, and the RGB image portion having the same pixel address range as the detected living body portion may be extracted.
However, since the two images obtained even when the same subject is imaged at the same angle of view are usually somewhat different, the deviation of the image becomes an error component of the biological image, and the high accuracy of the biological image is obtained. Extraction is difficult.

本発明は、それぞれの解像度が高く、また画像内位置の対応がとりやすいため距離の測定や生体検出が容易な可視光画像と近赤外光画像を別々に出力可能な構成を有する撮像デバイスを提供するものである。また、本発明は、かかる構成の撮像デバイスを用いて、通常のRGB等の画像取得とともに、距離測定と生体検出の少なくとも一方の処理が可能な撮像装置(例えば、カメラシステム)を提供するものである。   The present invention provides an imaging device having a configuration capable of separately outputting a visible light image and a near-infrared light image, each of which has a high resolution and can easily correspond to a position in the image, and can easily measure a distance and detect a living body. It is to provide. In addition, the present invention provides an imaging apparatus (for example, a camera system) capable of performing at least one of distance measurement and living body detection as well as normal RGB image acquisition using the imaging device having such a configuration. is there.

本発明の一形態に係る撮像デバイスは、画像光が入射する側に光学フィルタが配設された画素アレイを備え、前記画素アレイの画素が、第1フィルタ領域、可視光センサ部および非可視光センサ部を有する。
前記第1フィルタ領域は、原色系または補色系の複数色のうち、少なくとも1色に対応した波長の可視光、および、可視光より波長が長い非可視光を透過する。
前記可視光センサ部は、前記第1フィルタ領域からの前記可視光に主感度を有する。
前記非可視光センサ部は、前記可視光センサ部よりも前記画像光が進入する側から遠い位置に形成され、前記第1フィルタ領域からの前記非可視光に主感度を有する。
An imaging device according to an aspect of the present invention includes a pixel array in which an optical filter is disposed on a side on which image light is incident, and the pixels of the pixel array include a first filter region, a visible light sensor unit, and invisible light. It has a sensor part.
The first filter region transmits visible light having a wavelength corresponding to at least one of a plurality of colors of primary colors or complementary colors, and invisible light having a wavelength longer than that of visible light.
The visible light sensor unit has a main sensitivity to the visible light from the first filter region.
The invisible light sensor unit is formed at a position farther from the side where the image light enters than the visible light sensor unit, and has a main sensitivity to the invisible light from the first filter region.

本発明では、出力部が前記画素アレイの画素ごとに設けられ、または、出力信号線に共通接続された複数の画素で共有して設けられている。出力部は、前記可視光センサ部の光電変換により発生する可視光画像の信号と、前記非可視光センサ部の光電変換により発生する非可視光画像の信号とを分離して出力する。
本発明では好適に、前記出力部は、複数の電荷蓄積部と、前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、を有する。
In the present invention, the output unit is provided for each pixel of the pixel array, or is shared by a plurality of pixels commonly connected to the output signal line. The output unit separates and outputs a signal of a visible light image generated by photoelectric conversion of the visible light sensor unit and a signal of a non-visible light image generated by photoelectric conversion of the non-visible light sensor unit.
In the present invention, it is preferable that the output unit includes a plurality of charge storage units and a switch that distributes the generated charges of the invisible light sensor unit to the plurality of charge storage units.

このような構成によれば、可視光センサ部と非可視光センサ部とが同一画素に設けられている。このため、可視光センサ部の光電変換により画素データが発生した可視光画像と、非可視光センサ部の光電変換により画素データが発生した非可視光画像との各画素データが位置的に対応する。出力部が画素ごとに、あるいは、出力信号線に共通接続された複数画素に共有されて設けられている。したがって、画素データが位置的に対応する可視光画像と非可視光画像を分離して出力することが可能である。このとき、画素ごとに可視光センサ部を有する場合、可視光画像の解像度、言い換えると1フレーム画像に含まれる画素データ密度は最大となることから、画像品質が損なわれない。   According to such a configuration, the visible light sensor unit and the invisible light sensor unit are provided in the same pixel. For this reason, each pixel data of the visible light image in which the pixel data is generated by the photoelectric conversion of the visible light sensor unit and the invisible light image in which the pixel data is generated by the photoelectric conversion of the invisible light sensor unit correspond in position. . The output unit is provided for each pixel or shared by a plurality of pixels commonly connected to the output signal line. Therefore, it is possible to separate and output a visible light image and a non-visible light image corresponding to pixel data in position. At this time, when the visible light sensor unit is provided for each pixel, the resolution of the visible light image, in other words, the pixel data density included in one frame image is maximized, so that the image quality is not impaired.

一方、非可視光画像の各画素データは、可視光画像の画素データより通常、電荷量として少ない。特に距離測定や生体検出の場合、被写体に非可視光を当てて、その反射により散乱された反射光(戻り光)を受光する。このため、これらの用途だと、1画素分の非可視光センサ部から得られる非可視光画素のデータ量(電荷量)は可視光画素のデータ量より桁違いに小さいことがある。   On the other hand, each pixel data of the non-visible light image is usually less in charge amount than the pixel data of the visible light image. In particular, in the case of distance measurement or living body detection, non-visible light is applied to a subject, and reflected light (returned light) scattered by the reflection is received. Therefore, in these applications, the data amount (charge amount) of the non-visible light pixel obtained from the non-visible light sensor unit for one pixel may be orders of magnitude smaller than the data amount of the visible light pixel.

本発明で好ましい形態では、複数の電荷蓄積部を出力部に有し、その電荷の入力をスイッチで制御する構成を有することから、複数画素分の非可視光データを1つにまとめる(合成する)ことができる。合成後の非可視光データは、非可視光画像の一部であるが、データ量が増大しているためノイズに埋もれることなく撮像デバイス内の処理部に入力され、または処理のために外部に排出可能である。   In a preferred embodiment of the present invention, since a plurality of charge storage units are provided in the output unit and the input of the charges is controlled by a switch, the non-visible light data for a plurality of pixels are combined (combined). )be able to. The non-visible light data after synthesis is a part of the non-visible light image, but since the amount of data increases, it is input to the processing unit in the imaging device without being buried in noise, or externally for processing. It can be discharged.

この出力部の望ましい構成は、距離測定や生体検出のためにも有用である。
例えば、TOF方式の距離測定の場合、被写体に非可視光を一定時間だけ被写体にパルス照射し、非可視光の戻り光が撮像デバイスに入射され、一定の決まった受光時間を経て可視光センサ部から検出信号として出力される。例えば、出射パルスの出射時を基準に検出信号が得られるまでの遅延を検出する。具体的には、例えば、非可視光の出射パルス長に対応する検出信号のパルス持続時間の途中でパルス信号電荷を2分し、その2分した信号電荷量の比から遅延時間を求める方法がある。
複数の電荷蓄積部とその振り分けのためのスイッチとを有する出力部の構成は、この方法の実施に適合している。
This desirable configuration of the output unit is also useful for distance measurement and living body detection.
For example, in the case of the distance measurement of the TOF method, the object is pulsed with invisible light for a certain time, the return light of the invisible light is incident on the imaging device, and the visible light sensor unit passes through a fixed light receiving time. Is output as a detection signal. For example, the delay until the detection signal is obtained is detected with reference to the time when the emission pulse is emitted. Specifically, for example, there is a method in which the pulse signal charge is divided into two in the middle of the pulse duration of the detection signal corresponding to the emission pulse length of invisible light, and the delay time is obtained from the ratio of the divided signal charge amount. is there.
The configuration of the output unit having a plurality of charge storage units and switches for distributing them is suitable for implementation of this method.

また、生体検出の場合、一方は人の皮膚で主に反射され他方は主に吸収される異なる波長領域をもつ2つの非可視光を被写体に当てる。なお、この2つの非可視光は、その非可視光領域の短波長側の一部が可視光領域に重なることは許容される。
そして、それぞれの非可視光の戻り光を同一の撮像デバイスで受光する。このとき、2つの非可視光に対応する2つの戻り光を光電変換して得られた2つの検出信号を分離するのに、複数の電荷蓄積部とその振り分けのためのスイッチとを有する出力部の構成を好適に利用できる。
In the case of living body detection, two non-visible lights having different wavelength regions, one of which is mainly reflected by human skin and the other is mainly absorbed, are applied to the subject. In addition, as for these two invisible lights, it is permitted that a part of the short wavelength side of the invisible light region overlaps the visible light region.
Then, the return light of each invisible light is received by the same imaging device. At this time, in order to separate two detection signals obtained by photoelectrically converting two return lights corresponding to two invisible lights, an output unit having a plurality of charge storage units and a switch for distributing them The configuration can be suitably used.

本発明の他の一形態に係る撮像装置は、画像光が入射する側に光学フィルタが配設された画素アレイを備える撮像デバイスと、発光部、レンズ、制御部および信号処理部を有する。
前記発光部は、可視光の波長領域より長波長側に単一または互いに異なる複数の波長領域をもつ少なくとも1つの非可視光を発光して投射し、投射光の一部が被写体で反射した戻り光が前記撮像デバイスに到達するように仕向けられている。
前記レンズは、前記戻り光を前記撮像デバイスに結像させる。
前記制御部は、前記発光部の発光タイミング等を制御する。
前記信号処理部は、前記撮像デバイスから出力される可視光画像の信号を処理する。
An imaging apparatus according to another aspect of the present invention includes an imaging device including a pixel array in which an optical filter is disposed on an image light incident side, a light emitting unit, a lens, a control unit, and a signal processing unit.
The light emitting unit emits and projects at least one invisible light having a plurality of wavelength regions that are single or different from each other on the longer wavelength side than the wavelength region of visible light, and a part of the projection light is reflected by the subject. Light is directed to reach the imaging device.
The lens focuses the return light on the imaging device.
The control unit controls a light emission timing of the light emitting unit.
The signal processing unit processes a signal of a visible light image output from the imaging device.

本発明では、撮像装置内の撮像デバイスが、上記した本発明の一形態に係る撮像デバイスと同様に構成されている。そのため、可視光画像を処理して出力する以外に、前述した距離測定や生体検出のための処理が可能である。
より詳細には、前記信号処理部は前記可視光画像の信号を信号処理する。また、前記信号処理部と前記制御部は、前記撮像デバイスの受光時間と近赤外光の発光を制御し、得られた前記非可視光画像の信号に基づいて、前記被写体までの距離を測定する演算処理と前記被写体の肌の画像を検出する生体検出の処理との少なくとも一方を実行する。
In the present invention, the imaging device in the imaging apparatus is configured similarly to the imaging device according to one aspect of the present invention described above. Therefore, in addition to processing and outputting a visible light image, the above-described processing for distance measurement and living body detection can be performed.
More specifically, the signal processing unit processes the signal of the visible light image. In addition, the signal processing unit and the control unit control the light reception time and near infrared light emission of the imaging device, and measure the distance to the subject based on the obtained signal of the invisible light image. At least one of an arithmetic processing to perform and a biological detection processing to detect an image of the skin of the subject.

本発明によれば、それぞれの解像度が高く、また画像内位置の対応がとりやすいため距離の測定や生体検出が容易な可視光画像と近赤外光画像を別々に出力可能な構成を有する撮像デバイスを提供することができる。また、本発明によれば、かかる構成の撮像デバイスを用いて、通常のRGB等の画像取得とともに、距離測定と生体検出の少なくとも一方の処理が可能な撮像装置(例えば、カメラシステム)を提供することができる。   According to the present invention, an imaging device having a configuration capable of separately outputting a visible light image and a near-infrared light image, each of which has a high resolution and can easily correspond to a position in the image, and can easily measure a distance and detect a living body. A device can be provided. In addition, according to the present invention, there is provided an imaging device (for example, a camera system) capable of performing at least one of distance measurement and living body detection while obtaining an image such as normal RGB using the imaging device having such a configuration. be able to.

第1〜第11の実施形態に関わる、距離測定と生体検出の両方が可能な構成例を含む撮像装置の構成図である。It is a block diagram of the imaging device containing the structural example in which both distance measurement and biometric detection which concern on the 1st-11th embodiment are possible. 撮像デバイスの画素アレイにおける断面構成を模式的に示す図である。It is a figure which shows typically the cross-sectional structure in the pixel array of an imaging device. (A)は、原色系光学フィルタの基本的な色配列を示す図である。(B)は、第1の実施形態における原色系光学フィルタの色および波長透過特性の配列を示す図である。(A) is a figure which shows the basic color arrangement | sequence of a primary color type | system | group optical filter. FIG. 6B is a diagram illustrating an arrangement of colors and wavelength transmission characteristics of the primary color optical filter in the first embodiment. 基板深部側からRGBの3つのセンサ部の縦積みを実現する多重拡散層構造の模式図である。It is a schematic diagram of the multiple diffused layer structure which implement | achieves the vertical stacking of the RGB three sensor parts from the board | substrate deep part side. 一般的な半導体基板材であるシリコン内の光吸収長対波長を表すグラフである。It is a graph showing the light absorption length in a silicon | silicone which is a common semiconductor substrate material versus wavelength. 第1の実施形態に関わる撮像デバイスの、より詳細な模式断面図である。It is a more detailed schematic cross-sectional view of the imaging device according to the first embodiment. 距離測定のタイミングを示すためのパルス波形を含む測定手法の説明図である。It is explanatory drawing of the measuring method containing the pulse waveform for showing the timing of distance measurement. 補色系光学フィルタの基本的な色配列と、第2の実施形態における補色系光学フィルタの色および波長透過特性の配列とを示す図である。It is a figure which shows the basic color arrangement | sequence of a complementary color type | system | group optical filter, and the arrangement | sequence of the color and wavelength transmission characteristic of a complementary color type | system | group optical filter in 2nd Embodiment. 第2の実施形態に関わる撮像デバイスの画素アレイにおける模式断面図である。It is a schematic cross section in the pixel array of the imaging device concerning 2nd Embodiment. 第3の実施形態に関わる撮像デバイスの画素アレイにおける模式断面図である。It is a schematic cross section in the pixel array of the imaging device concerning 3rd Embodiment. 第4の実施形態に関わる撮像デバイスの画素アレイにおける模式断面図である。It is a schematic cross section in the pixel array of the imaging device concerning 4th Embodiment. 第5の実施形態に関わる撮像デバイスの画素アレイにおける模式断面図である。It is a schematic cross section in the pixel array of the imaging device concerning 5th Embodiment. 第6の実施形態に関わる撮像デバイスの画素アレイにおける模式断面図である。It is a schematic cross section in the pixel array of the imaging device concerning 6th Embodiment. 第6の実施形態において、4つの画素につき電荷蓄積部を共通で使用する場合の配線図である。FIG. 16 is a wiring diagram when a charge storage unit is commonly used for four pixels in the sixth embodiment. データ補間方法の説明に用いた画素配列図である。It is the pixel arrangement | sequence figure used for description of the data interpolation method. 補間手法の説明図である。It is explanatory drawing of the interpolation method. 補間手法の説明図である。It is explanatory drawing of the interpolation method. 補間手法の説明図である。It is explanatory drawing of the interpolation method. 補間手法の説明図である。It is explanatory drawing of the interpolation method. 第7の実施形態において、4つの画素につき電荷蓄積部を共通で使用する場合の配線図である。FIG. 16 is a wiring diagram when a charge storage unit is commonly used for four pixels in the seventh embodiment. 第9の実施形態に関わる撮像デバイスの画素アレイにおける模式断面図である。It is a schematic cross section in the pixel array of the imaging device concerning 9th Embodiment. 第9の実施形態において、4つの画素につき電荷蓄積部を共通で使用する場合の配線図である。In the ninth embodiment, it is a wiring diagram in the case where a charge storage unit is commonly used for four pixels. 第10の実施形態に関わる撮像デバイスの画素アレイにおける模式断面図である。It is a schematic cross section in the pixel array of the imaging device concerning 10th Embodiment. 第10の実施形態において、4つの画素につき電荷蓄積部を共通で使用する場合の配線図である。In a 10th embodiment, it is a wiring diagram in case a charge storage part is used in common for four pixels. 第11の実施形態に関わる撮像デバイスの画素アレイにおける模式断面図である。It is a schematic cross section in the pixel array of the imaging device concerning 11th Embodiment. 第11の実施形態において、4つの画素につき電荷蓄積部を共通で使用する場合の配線図である。In an 11th embodiment, it is a wiring diagram in case a charge storage part is used in common for four pixels.

本発明の実施形態を、図面を参照して以下の順に説明する。
1.第1の実施の形態:原色系色配置の画素でセンサ部を基板深さ方向で2層配置した実施形態である。
2.第2の実施の形態:補色系色配置の画素でセンサ部を基板深さ方向で3層配置した実施形態である。
3.第3の実施の形態:単一画素に全ての色のセンサ部を有する実施形態である。
4.第4の実施の形態:補色系色配置の画素でセンサ部を基板深さ方向で2層配置した実施形態である。
5.第5の実施の形態:原色系色配置の画素でセンサ部を基板深さ方向で4層配置した実施形態である。
6.第6の実施の形態:電荷蓄積部を専用と共用に分けてNIR画素データの混合を行う実施形態である。
7.第7の実施の形態:第6の実施形態の撮像デバイスを補色系に変更しセンサ部を3層配置とした実施形態である。
8.第8の実施の形態:第7の実施形態からセンサ部を2層配置に変更した実施形態である。
9.第9の実施の形態:画素共通のNIRセンサ部を有する実施形態である。
10.第10の実施の形態:画素共通のNIRセンサ部を有する他の実施形態である。
11.第11の実施の形態:画素共通のNIRセンサ部を有する他の実施形態である。
Embodiments of the present invention will be described in the following order with reference to the drawings.
1. First Embodiment: An embodiment in which two layers of sensor portions are arranged in the substrate depth direction in pixels of primary color arrangement.
2. Second Embodiment: This is an embodiment in which three layers of sensor portions are arranged in the substrate depth direction with pixels of complementary color arrangement.
3. Third Embodiment: An embodiment having sensor units for all colors in a single pixel.
4). Fourth Embodiment: This is an embodiment in which two layers of sensor units are arranged in the substrate depth direction with pixels of complementary color arrangement.
5). Fifth embodiment: an embodiment in which four layers of sensor units are arranged in the substrate depth direction in pixels of primary color arrangement.
6). Sixth Embodiment: This is an embodiment in which NIR pixel data is mixed by dividing the charge storage section into dedicated and shared.
7). Seventh embodiment: an embodiment in which the imaging device of the sixth embodiment is changed to a complementary color system and the sensor unit is arranged in three layers.
8). Eighth embodiment: an embodiment in which the sensor unit is changed to a two-layer arrangement from the seventh embodiment.
9. Ninth embodiment: an embodiment having an NIR sensor unit common to pixels.
10. Tenth Embodiment: Another embodiment having an NIR sensor unit common to pixels.
11. Eleventh embodiment: Another embodiment having a common NIR sensor unit for pixels.

<1.第1の実施の形態>
[撮像装置の構成]
図1に、距離測定と生体検出の両方が可能な構成例を含む撮像装置の構成図を示す。
図1に図解する撮像装置1は、ゲーム機等の民生用電子機器、車載センサ機器あるいは計測機などの産業用電子機器等に用いることができる。
撮像装置1は、被写体100との距離を測定するための第1の発光部2Aと、第1の発光部2Aとの反射光量差を検出するための第2の発光部2Bとを有する。詳細は後述するが、第1および第2の発光部2A,2Bは、互いに異なる波長領域の非可視光を被写体100に向けて出射し、そのときの反射光量差は、第1の発光部2Aと第2の発光部2Bの両方を用いた生体検出時に取得される。被写体100との距離を測定するためには、第1の発光部2Aと第2の発光部2Bの少なくとも一方から非可視光を照射すればよいため、ここでは一例として第1の発光部2Aを用いる。
本発明の明細書中、非可視光というとき可視光の波長領域より長波長側の非可視光に限定される。非可視光は、可視光の波長領域に対し長波長側に近接した近赤外(NIR)光、赤外(IR)光、NIR光を主体としてIR領域を一部含む光の何れでもよいが、以下、非可視光がNIR光とする。
<1. First Embodiment>
[Configuration of imaging device]
FIG. 1 shows a configuration diagram of an imaging apparatus including a configuration example capable of both distance measurement and living body detection.
The imaging device 1 illustrated in FIG. 1 can be used for consumer electronic devices such as game machines, industrial electronic devices such as in-vehicle sensor devices and measuring machines.
The imaging apparatus 1 includes a first light emitting unit 2A for measuring the distance from the subject 100 and a second light emitting unit 2B for detecting a difference in reflected light amount between the first light emitting unit 2A. Although the details will be described later, the first and second light emitting units 2A and 2B emit non-visible light in different wavelength regions toward the subject 100, and the difference in the amount of reflected light at that time is the first light emitting unit 2A. And at the time of living body detection using both the second light emitting unit 2B. In order to measure the distance from the subject 100, it is only necessary to irradiate invisible light from at least one of the first light emitting unit 2A and the second light emitting unit 2B. Therefore, here, the first light emitting unit 2A is used as an example. Use.
In the specification of the present invention, when it is referred to as invisible light, it is limited to invisible light having a wavelength longer than the wavelength region of visible light. The invisible light may be any of near-infrared (NIR) light, infrared (IR) light close to the long wavelength side with respect to the wavelength range of visible light, and light partially including the IR region, mainly NIR light. Hereinafter, invisible light is referred to as NIR light.

撮像装置1は、第1および第2の発光部2A,2Bからの近赤外光(NIR光)が被写体100で反射したときの戻り光を受光する撮像デバイス3と、被写体100と撮像デバイス3間に配設され、戻り光の像を撮像デバイス3に結像させるレンズ4とを有する。
撮像装置1は、さらに、撮像デバイス3の出力信号を処理する信号処理部5と制御部6を有する。制御部6は、第1および第2の発光部2A,2B、撮像デバイス3および信号処理部5を統括制御し、場合によってはレンズ4を含む光学系を統括制御する。
具体的に、制御部6は、第1の発光部2A(および第2の発光部2B:生体検出の場合)の発光タイミング、撮像デバイス3の電子シャッタ及びスイッチ43(後述)のタイミング等を制御する。信号処理部5は、撮像デバイス3による出力データから、RGB等の可視光画像の処理(ノイズ除去や色補正等)を行うほか、画像距離測定や生体検出の処理を実行可能な構成である。
The imaging apparatus 1 includes an imaging device 3 that receives return light when near-infrared light (NIR light) from the first and second light emitting units 2A and 2B is reflected by the subject 100, and the subject 100 and the imaging device 3 And a lens 4 that is disposed between them and forms an image of the return light on the imaging device 3.
The imaging apparatus 1 further includes a signal processing unit 5 and a control unit 6 that process the output signal of the imaging device 3. The control unit 6 performs overall control of the first and second light emitting units 2A and 2B, the imaging device 3, and the signal processing unit 5, and controls the optical system including the lens 4 in some cases.
Specifically, the control unit 6 controls the light emission timing of the first light emitting unit 2A (and the second light emitting unit 2B: in the case of biological detection), the electronic shutter of the imaging device 3, and the timing of the switch 43 (described later). To do. The signal processing unit 5 has a configuration capable of executing processing of image distance measurement and living body detection in addition to processing of visible light images such as RGB (noise removal, color correction, etc.) from output data from the imaging device 3.

第1の発光部2Aは、例えば発光ダイオード(LED)等の発光部材21とそれを発光させるためのドライバ回路22を含んで構成されている。
第1の発光部2Aの発光部材21は非可視光、例えば近赤外光を発光し、近赤外光の発光部材21への発光方向は被写体100に向けられている。
第2の発光部2Bも、第1の発光部2Aと同様に発光部材21とそれを発光させるためのドライバ回路22を含んで構成されている。第2の発光部2Bにおける発光部材21の波長も主として近赤外光であり、発光部材21の発光方向は被写体100に向けられている。但し、第1の発光部2Aからの近赤外光と、第2の発光部2Bからの近赤外光は異なる波長領域の光である。
The first light emitting unit 2A includes a light emitting member 21 such as a light emitting diode (LED) and a driver circuit 22 for causing it to emit light.
The light emitting member 21 of the first light emitting unit 2A emits invisible light, for example, near infrared light, and the light emitting direction of the near infrared light toward the light emitting member 21 is directed to the subject 100.
Similarly to the first light emitting unit 2A, the second light emitting unit 2B includes a light emitting member 21 and a driver circuit 22 for causing it to emit light. The wavelength of the light emitting member 21 in the second light emitting unit 2B is also mainly near infrared light, and the light emitting direction of the light emitting member 21 is directed to the subject 100. However, the near-infrared light from the first light emitting unit 2A and the near-infrared light from the second light emitting unit 2B are light in different wavelength regions.

人間の眼の色や明るさに対する感度特性は、可視光領域に感度をもつ。可視光領域は定義が様々であるが、一般には、700乃至750nm付近(例えば780nm)を上限とし、400nm弱(例えば380nm)を下限とする電磁波の波長領域である。可視光領域に隣接した赤外領域を近赤外領域といい、この領域は、700乃至800nmの下限から、1.5乃至3μm(例えば2.5μm)の上限までの電磁波の波長領域である。ただし、人間の目は約700nmより長波長側では殆ど感度を有さない。   Sensitivity characteristics for the color and brightness of the human eye have sensitivity in the visible light region. Although the visible light region has various definitions, it is generally a wavelength region of electromagnetic waves having an upper limit in the vicinity of 700 to 750 nm (for example, 780 nm) and a lower limit of slightly less than 400 nm (for example, 380 nm). An infrared region adjacent to the visible light region is referred to as a near infrared region, and this region is a wavelength region of electromagnetic waves from a lower limit of 700 to 800 nm to an upper limit of 1.5 to 3 μm (for example, 2.5 μm). However, the human eye has little sensitivity on the longer wavelength side than about 700 nm.

ところで、生体(代表的には人の皮膚)の反射率は光の波長が750〜800nm近辺で大きくなり、970nmで小さくなると言われる。最も好ましい光の波長としては、第1の発光部2Aの波長が800nm近辺(近赤外光の下限付近)、第2の発光部2Bの波長が970nm近辺となる。
ただし、生体を検出するためには、認識可能なレベルまで反射光量の差がつけばよいので、その範囲で波長の差をつけられれば、第1,第2の発光部2Bからの光の波長は、この限りではない。
第1の発光部2Aの波長領域と第2の発光部2Bの波長領域は重ならないほうが望ましいが、LEDの発光波長はある幅を有するため、2つの波長領域が一部重なることは許容される。
第1および第2の発光部2A,2Bが発光する2つの非可視光は、可視光の波長定義によっては、その非可視光領域の短波長側の一部が可視光領域に重なることは許容される。例えば、可視光の長波長側境界を800nmと定義した場合、第1の発光部2Aの波長が800nm近辺とすると、その波長範囲は短波長側の一部が可視光領域と重なることになる。一方、可視光の長波長側境界を750nm近辺と定義した場合は、第1の発光部2Aの波長範囲が可視光領域と重なることは通常ない。
By the way, it is said that the reflectance of a living body (typically human skin) increases when the wavelength of light is around 750 to 800 nm and decreases at 970 nm. As the most preferable wavelength of light, the wavelength of the first light emitting unit 2A is around 800 nm (near the lower limit of near infrared light), and the wavelength of the second light emitting unit 2B is around 970 nm.
However, in order to detect a living body, the difference in the amount of reflected light only needs to be set to a recognizable level. Therefore, if the wavelength difference can be set within that range, the wavelength of light from the first and second light emitting units 2B This is not the case.
Although it is desirable that the wavelength region of the first light emitting unit 2A and the wavelength region of the second light emitting unit 2B do not overlap, the emission wavelength of the LED has a certain width, and thus it is allowed that the two wavelength regions partially overlap. .
The two non-visible lights emitted by the first and second light emitting units 2A and 2B are allowed to overlap a part of the short wavelength side of the non-visible light region with the visible light region depending on the wavelength definition of the visible light. Is done. For example, when the long-wavelength side boundary of visible light is defined as 800 nm, if the wavelength of the first light emitting unit 2A is around 800 nm, a part of the short wavelength side of the wavelength range overlaps the visible light region. On the other hand, when the long-wavelength side boundary of visible light is defined as around 750 nm, the wavelength range of the first light emitting unit 2A does not usually overlap with the visible light region.

撮像レンズ4は、カメラやカムコーダ等で使用される一般的なものであり、撮像デバイス3のサイズや画角等の仕様により選択されるものである。レンズ4は、望ましくは、制御部6の制御により被写体100との距離に応じて焦点調整機能を有する光学系の一部品として配置されている。   The imaging lens 4 is a general lens used in cameras, camcorders, and the like, and is selected according to specifications such as the size and angle of view of the imaging device 3. The lens 4 is desirably arranged as a part of an optical system having a focus adjustment function according to the distance from the subject 100 under the control of the control unit 6.

[撮像デバイスの構成]
図2に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
RGB画像等の撮影画像(本明細書では可視光画像と呼ぶ)を高解像度で発生させるための撮像デバイス3は、図2に示すように、光の入射側からマイクロレンズアレイ31、光学フィルタ32、画素回路層33、フォトセンサを半導体基板35に形成したものである。
フォトセンサと画素回路の一部は半導体基板35の活性領域(例えば複数のウエル)を利用して形成されている。画素回路層33は、半導体基板35に形成される基板トランジスタなどの回路素子以外の配置領域であり、例えば、誘電膜を介して積層された導電層を利用してキャパシタ等の受動素子が画素回路層33に配置される。フォトセンサと画素回路の基板トランジスタ等とは素子分離またはチャネルストッパ領域により電気的干渉が防止される。なお、TFTなどから一部のトランジスタを画素回路層33内に形成することは可能である。
[Configuration of imaging device]
FIG. 2 schematically shows a cross-sectional configuration of the pixel array of the imaging device 3.
An imaging device 3 for generating a captured image (referred to as a visible light image in this specification) such as an RGB image at a high resolution includes a microlens array 31 and an optical filter 32 from the light incident side as shown in FIG. The pixel circuit layer 33 and the photosensor are formed on the semiconductor substrate 35.
A part of the photosensor and the pixel circuit are formed using an active region (for example, a plurality of wells) of the semiconductor substrate 35. The pixel circuit layer 33 is an arrangement region other than a circuit element such as a substrate transistor formed on the semiconductor substrate 35. For example, a passive element such as a capacitor is used as a pixel circuit by using a conductive layer stacked via a dielectric film. Arranged in layer 33. Electrical interference between the photosensor and the substrate transistor of the pixel circuit is prevented by element isolation or a channel stopper region. It is possible to form some transistors in the pixel circuit layer 33 from TFTs or the like.

撮像レンズ4で集光された光は、マイクロレンズアレイ31によって画素ごとにさらに集光されて、光学フィルタ32を透過してフォトセンサに入射される。光学フィルタ32は、マイクロレンズアレイ31で集光された光が透過する波長選択性をもつフィルタ部と、フィルタ部間で光を遮断する部分(いわゆるブラックマトリクス)とで区分される。光遮断部は必須ではないが、混色や外光の混入防止のためには、これを有することが望ましい。
波長選択された光は、画素回路層33の配線や導電層などにより光を遮断しないように設けられた画素開口を通ることで損失を受けずにフォトセンサに入射され、そこで光電変換される。光電変換により発生した電荷(受光電荷あるいは光電荷という)は、フォトセンサ内で一定時間蓄積された後、画素回路の出力部を経由して画像データとして画素アレイから排出される。撮像デバイス3における画素アレイ以外の周辺領域には出力処理(ノイズ抑圧や信号変換)のための処理回路が配置される場合もあり、その場合、周辺回路における出力処理を経てから画素データが図1の信号処理部5に出力される。
The light condensed by the imaging lens 4 is further condensed for each pixel by the microlens array 31, passes through the optical filter 32, and enters the photosensor. The optical filter 32 is divided into a filter portion having wavelength selectivity through which light collected by the microlens array 31 is transmitted and a portion (so-called black matrix) that blocks light between the filter portions. The light blocking part is not essential, but it is desirable to have it in order to prevent color mixing and external light mixing.
The wavelength-selected light passes through the pixel opening provided so as not to block the light by the wiring or conductive layer of the pixel circuit layer 33, and is incident on the photosensor without loss, and is photoelectrically converted there. Charges generated by photoelectric conversion (referred to as light received charges or photo charges) are accumulated in the photosensor for a certain period of time and then discharged from the pixel array as image data via the output portion of the pixel circuit. In some cases, a processing circuit for output processing (noise suppression and signal conversion) is arranged in a peripheral region other than the pixel array in the imaging device 3, and in this case, the pixel data is processed after the output processing in the peripheral circuit. Is output to the signal processing unit 5.

マイクロレンズアレイ31は、フォトセンサへの集光効率を向上させるためのものである。
本発明では図2に示す構成部品の中で、光学フィルタ32、フォトセンサ34に特徴があり、以下に詳述する。
The microlens array 31 is for improving the light collection efficiency to the photosensor.
The present invention is characterized by the optical filter 32 and the photosensor 34 among the components shown in FIG. 2, which will be described in detail below.

光学フィルタ32は、基本的な色配列に関しては、例えば図3(A)に示すように、一般的な撮像デバイス3の原色系カラーフィルタであるベイヤー配列と呼ばれる色配列となっている。ベイヤー配列では、赤(R)、緑(G)、緑(G)、青(B)の並びで、各色を透過させるフィルタ部が配列されている。
各色のフィルタ部の各フィルタ部は、各々が対応する1色の透過に加えて、近赤外(NIR)の波長も透過する特性になっている。各フィルタ部はR+NIR、G+NIR、B+NIRの透過特性をもつ。
図3(B)に示す光学フィルタ配列は、R+NIR、G+NIR、B+NIRにより示す表記によって、各色の可視光透過特性に加えて近赤外波長の透過特性をもつことを示している。第1実施形態では、図3(B)の配列をもつ光学フィルタ32が用いられる。
Regarding the basic color arrangement, the optical filter 32 has a color arrangement called a Bayer arrangement which is a primary color filter of the general imaging device 3 as shown in FIG. In the Bayer array, filter portions that transmit each color are arranged in an array of red (R), green (G), green (G), and blue (B).
Each filter section of each color filter section has a characteristic of transmitting a near-infrared (NIR) wavelength in addition to the transmission of one corresponding color. Each filter unit has transmission characteristics of R + NIR, G + NIR, and B + NIR.
The optical filter array shown in FIG. 3B indicates that it has a transmission characteristic of near infrared wavelength in addition to the visible light transmission characteristic of each color by the notation shown by R + NIR, G + NIR, and B + NIR. In the first embodiment, an optical filter 32 having the arrangement shown in FIG. 3B is used.

光学フィルタ32の特性を実現する手法としては、酸化金属膜等からなる複数の高屈折率膜を低屈折率の光透過膜を間に介在させて幾層にも重ねる手法が例示できる。このときの高屈折率膜の種類(例えば酸化金属膜の材質)や層数、低屈折率膜の種類(例えば光透過膜の材質)や厚さを制御することにより所望の波長選択特性の多層膜を実現できる。   As a technique for realizing the characteristics of the optical filter 32, a technique in which a plurality of high-refractive index films made of a metal oxide film or the like are stacked in layers with a low-refractive index light-transmitting film interposed therebetween can be exemplified. By controlling the type of the high refractive index film (for example, the material of the metal oxide film) and the number of layers, the type of the low refractive index film (for example, the material of the light transmitting film), and the thickness, a multilayer having a desired wavelength selection characteristic. A membrane can be realized.

図2に示すフォトセンサ34は、基板表面に近いRGBの可視光を検出する可視光センサ部と、可視光センサ部よりも光の入射方向において遠い位置(基板深部側)に形成されたNIRを検出する非可視光センサ部(以下、NIRセンサ部と呼ぶ)との2つのセンサ部の縦積み構造になっている。   The photosensor 34 shown in FIG. 2 includes a visible light sensor unit that detects visible light of RGB close to the substrate surface, and an NIR formed at a position farther in the light incident direction (substrate deeper side) than the visible light sensor unit. It has a vertically stacked structure of two sensor parts with a non-visible light sensor part to be detected (hereinafter referred to as an NIR sensor part).

可視光センサ部は、検出波長が長いセンサ部ほど基板深部側に位置する可視光センサ部を実現するために、複数の色に対応した検出波長に応じた複数の層として、N型とP型の半導体層の多層構造となっている。
言い換えると、3色あるいは4色の可視光を光電変換する可視光センサ部は、異なる波長域に主感度を有する3つまたは4つのセンサ部を、波長が長い波長域に対応したセンサ部ほど画像光が進入する光学フィルタ32の側から遠い位置に配置して構成している。
In order to realize a visible light sensor unit located on the deeper side of the substrate as the sensor unit with a longer detection wavelength, the visible light sensor unit has N-type and P-type as a plurality of layers corresponding to the detection wavelengths corresponding to a plurality of colors. The semiconductor layer has a multilayer structure.
In other words, in the visible light sensor unit that photoelectrically converts three or four colors of visible light, three or four sensor units having main sensitivities in different wavelength regions are imaged as the sensor units corresponding to the wavelength regions having longer wavelengths. It is arranged at a position far from the optical filter 32 side through which light enters.

なお、本実施形態における撮像デバイス3はRGBの原色系であるため3色の可視光を受光するが、後述する他の実施形態のように、例えば補色系の場合、4色の可視光を受光する。また、原色系でもRGBに加えて白(W)の受光画素をもつ4色配列の場合もある。   Note that since the imaging device 3 in this embodiment is an RGB primary color system, it receives three colors of visible light. However, as in other embodiments described later, for example, in the case of a complementary color system, it receives four colors of visible light. To do. Further, even in the primary color system, there is a case of a four-color arrangement having light receiving pixels of white (W) in addition to RGB.

図3(B)に示す色配列の場合は、可視光センサ部は3色に主感度をもつ3つのセンサ部の縦積み構造を採る。
図4は、基板深部側から順にRGBに対応した3つのセンサ部(PN接合をもつフォトダイオード)の縦積みを実現する多重拡散層構造の模式図である。また、図5は、一般的な半導体基板材であるシリコン内の光吸収長対波長を表すグラフである。
In the case of the color arrangement shown in FIG. 3B, the visible light sensor unit has a vertically stacked structure of three sensor units having main sensitivity for three colors.
FIG. 4 is a schematic diagram of a multiple diffusion layer structure that realizes vertical stacking of three sensor units (photodiodes having a PN junction) corresponding to RGB in order from the deep side of the substrate. FIG. 5 is a graph showing the light absorption length versus wavelength in silicon, which is a general semiconductor substrate material.

図4に示す多重拡散層で実現した3つのセンサ部の縦積み構造は、図5のシリコンの光学特性を利用したものである。
図5に示されるように、シリコン表面(基板表面)側では、短波長側の光吸収係数が高く、逆に基板深部側では長波長側の光吸収係数が高くなる。これは、シリコン基板への入射光の波長が大きくなればなるほど、その光は吸収される前により深くシリコン内に入り込むことに起因する。よって、フォトダイオードを半導体基板内部の表面付近に形成した場合、長波長光に対して短波長光の吸収係数が相対的に高く、短波長光の方が表面付近でキャリアに変換される割合が高いため、短波長光に対する感度が相対的に高くなる。
The vertically stacked structure of the three sensor units realized by the multiple diffusion layers shown in FIG. 4 utilizes the optical characteristics of silicon in FIG.
As shown in FIG. 5, the light absorption coefficient on the short wavelength side is high on the silicon surface (substrate surface) side, and conversely, the light absorption coefficient on the long wavelength side is high on the deep side of the substrate. This is due to the fact that the greater the wavelength of light incident on the silicon substrate, the deeper the light enters the silicon before being absorbed. Therefore, when the photodiode is formed near the surface inside the semiconductor substrate, the absorption coefficient of short-wavelength light is relatively high with respect to long-wavelength light, and the proportion of short-wavelength light converted into carriers near the surface is higher. Since it is high, sensitivity to short wavelength light is relatively high.

400〜490nmの波長をもつ青色光は、その大部分が約0.2〜0.5μmの深さでシリコン基板に吸収される。このため、図4に示すように最も浅いn型層39と次に深いp型ウェル38とによって、青(B)の波長に主感度をもつフォトダイオード(センサ部)が、図4の例では基板表面から0.2μm程度の深さを中心に形成されている。
一方、600〜750nmと最も波長が長い赤色光は、その大部分が約2.0〜7.5μmの深さでシリコンに吸収される。このため、図4に示すように最も深いn型ウェル37とp型の半導体基板35とによって、赤(R)の波長に主感度をもつ他のフォトダイオード(センサ部)が、図4の例では基板表面から2.8μm程度の深さを中心に形成されている。
500〜560nmと青と赤の間の波長をもつ緑色光は、その大部分が約0.8〜1.5μmの深さでシリコンに吸収される。そのため、図4の例では、p型ウェル38とn型ウェル37によって、緑(G)の波長に主感度をもつ他のフォトダイオード(センサ部)が、図4の例では基板表面から0.8μmの深さを中心に形成されている。
図4の各センサ部中心(pn接合面)の深さは一例であり、青(B)センサ部は0.2〜0.5μm、緑(G)センサ部は0.8〜1.5μm、赤(R)センサ部は2.0〜7.5μmの各深さ範囲内で任意に設定される。
Most of the blue light having a wavelength of 400 to 490 nm is absorbed by the silicon substrate at a depth of about 0.2 to 0.5 μm. For this reason, as shown in FIG. 4, the photodiode (sensor part) having the main sensitivity to the wavelength of blue (B) by the shallowest n-type layer 39 and the next deepest p-type well 38 in the example of FIG. It is formed around a depth of about 0.2 μm from the substrate surface.
On the other hand, most of red light having the longest wavelength of 600 to 750 nm is absorbed by silicon at a depth of about 2.0 to 7.5 μm. Therefore, as shown in FIG. 4, the deepest n-type well 37 and p-type semiconductor substrate 35 allow another photodiode (sensor unit) having a main sensitivity to the red (R) wavelength to be the example of FIG. Then, it is formed around a depth of about 2.8 μm from the substrate surface.
Green light having a wavelength between 500 and 560 nm and between blue and red is mostly absorbed by silicon at a depth of about 0.8 to 1.5 μm. Therefore, in the example of FIG. 4, the p-type well 38 and the n-type well 37 allow another photodiode (sensor part) having a main sensitivity to the green (G) wavelength to reach 0. It is formed around a depth of 8 μm.
The depth of the center of each sensor part (pn junction surface) in FIG. 4 is an example, the blue (B) sensor part is 0.2 to 0.5 μm, the green (G) sensor part is 0.8 to 1.5 μm, The red (R) sensor unit is arbitrarily set within each depth range of 2.0 to 7.5 μm.

一方、800〜900nmの波長の近赤外光は30μm以下程度の深さでシリコン基板に吸収される。そのため、図4には図示していないが、n型ウェル37より更に深いp型ウェルを設けることで近赤外光センサ部が形成される。   On the other hand, near-infrared light having a wavelength of 800 to 900 nm is absorbed by the silicon substrate at a depth of about 30 μm or less. Therefore, although not shown in FIG. 4, a near-infrared light sensor portion is formed by providing a p-type well deeper than the n-type well 37.

図6に、第1の実施形態に関わる撮像デバイス3の、より詳細な模式断面図を示す。図6は図2の構成をさらに詳細表示した図であり、両図に共通な構成は同一符号で示す。
図6に示す断面は、図3(B)に示す光学フィルタ配列において、A−A線の断面に相当する。
図6に示されるように、近赤外光(NIR)のセンサ部を図4の構成に付加するために、半導体基板35に画素に共通なp型ウェル36が形成されている。
FIG. 6 shows a more detailed schematic cross-sectional view of the imaging device 3 according to the first embodiment. FIG. 6 is a diagram showing the configuration of FIG. 2 in more detail, and configurations common to both diagrams are denoted by the same reference numerals.
The cross section shown in FIG. 6 corresponds to a cross section taken along line AA in the optical filter array shown in FIG.
As shown in FIG. 6, a p-type well 36 common to the pixels is formed in the semiconductor substrate 35 in order to add a near infrared light (NIR) sensor unit to the configuration of FIG. 4.

フィルタ部(R+NIR)を透過した光を受光する画素のフォトセンサ34Rは、画素に共通なp型ウェル36の内部に形成されている。
最も深い1層目のn型ウェル37が、第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。3層目のn型層39Rは、赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。2層目のp型ウェル38Rは、上記1層目と3層目の深さ方向の間に形成されている。
p型ウェル36と1層目のn型ウェル37によるpn接合位置にNIR検出のための非可視光センサ部が形成され、2層目のp型ウェル38Rと3層目のn型層39Rによるpn接合位置にR検出のための可視光線センサ部が形成されている。
A photosensor 34R of a pixel that receives light transmitted through the filter unit (R + NIR) is formed inside a p-type well 36 that is common to the pixels.
The deepest n-type well 37 in the first layer is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting portion 2A (FIG. 1). . The third n-type layer 39R is formed at a depth (about 2.0 to 7.5 μm from the surface) that is highly sensitive to red light. The second p-type well 38R is formed between the first and third layers in the depth direction.
A non-visible light sensor portion for NIR detection is formed at a pn junction position between the p-type well 36 and the first n-type well 37, and the second p-type well 38R and the third n-type layer 39R. A visible light sensor unit for R detection is formed at the pn junction position.

本例では信号電荷(受光電荷)が電子であるため、各センサ部のn型層が電荷蓄積層となる。よって、n型ウェル37からNIR画像(非可視光画像)を構成するNIR画素データが出力される。また、n型層39Rから可視光画像のR画素成分のデータが出力される。   In this example, since the signal charge (light-receiving charge) is an electron, the n-type layer of each sensor unit is a charge storage layer. Therefore, NIR pixel data constituting an NIR image (non-visible light image) is output from the n-type well 37. In addition, the R pixel component data of the visible light image is output from the n-type layer 39R.

このように、フィルタ部(R+NIR)を透過したRとNIRの光は、フォトセンサ34Rの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。   As described above, the R and NIR lights transmitted through the filter unit (R + NIR) are dispersed by the depth of the photosensor 34R, separated by the output unit formed in the pixel circuit layer 33, and output.

フィルタ部(G+NIR)を透過した光を受光するフォトセンサ34Gにおいて、1層目のn型ウェル37はフォトセンサ34Rと同じである。ただし、2層目のp型ウェル38Gと3層目のn型層39Gの深さが緑(G)の感度範囲に両者の境界(pn接合)が位置するように形成される。
具体的には、3層目のn型層39Gが緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されており、2層目のp型ウェル38Gは1層目と3層目の間の深さに形成されている。
n型層39Gから可視光画像のG画素成分のデータが出力され、n型ウェル37から非可視光画像のNIR画素データが出力される。
このように、フィルタ部(G+NIR)を透過したGとNIRの光は、フォトセンサ34Gの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
In the photosensor 34G that receives light transmitted through the filter portion (G + NIR), the n-type well 37 in the first layer is the same as the photosensor 34R. However, the p-type well 38G of the second layer and the n-type layer 39G of the third layer are formed so that the boundary (pn junction) between them is located in the sensitivity range of green (G).
Specifically, the third n-type layer 39G is formed at a depth (about 0.8 to 1.5 μm from the surface) that is strongly sensitive to green light, and the second p-type well 38G It is formed at a depth between the first and third layers.
The G pixel component data of the visible light image is output from the n-type layer 39G, and the NIR pixel data of the non-visible light image is output from the n-type well 37.
As described above, the G and NIR lights transmitted through the filter unit (G + NIR) are dispersed by the depth of the photosensor 34G, and are separated and output by the output unit formed in the pixel circuit layer 33.

フィルタ部(B+NIR)を透過した光を受光するフォトセンサ34Bにおいて、1層目のn型ウェル37はフォトセンサ34R、34Gと同じである。ただし、2層目のp型ウェル38Bと3層目のn型層39Bの深さが青(B)の感度範囲に両者の境界(pn接合)が位置するように形成される。
具体的には、3層目のn型層39Bが青色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されており、2層目のp型ウェル38Bは1層目と3層目の間の深さに形成されている。
n型層39Bから可視光画像のB画素成分のデータが出力され、n型ウェル37から非可視光画像のNIR画素データが出力される。
このように、フィルタ部(B+NIR)を透過したBとNIRの光は、フォトセンサ34Bの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
In the photosensor 34B that receives light transmitted through the filter portion (B + NIR), the n-type well 37 in the first layer is the same as the photosensors 34R and 34G. However, the p-type well 38B of the second layer and the n-type layer 39B of the third layer are formed so that the boundary (pn junction) between them is located within the sensitivity range of blue (B).
Specifically, the third n-type layer 39B is formed at a depth (approximately 0.8 to 1.5 μm from the surface) that is highly sensitive to blue light, and the second p-type well 38B It is formed at a depth between the first and third layers.
Data of the B pixel component of the visible light image is output from the n-type layer 39B, and NIR pixel data of the non-visible light image is output from the n-type well 37.
As described above, the B and NIR lights transmitted through the filter unit (B + NIR) are dispersed by the depth of the photosensor 34B, separated by the output unit formed in the pixel circuit layer 33, and output.

[出力部]
本例の場合、各画素ごとに出力部40が設けられている。
出力部40は、複数の電荷蓄積部41と、n型ウェル37からの受光電荷の出力先を複数の電荷蓄積部41の何れかに切り替えるスイッチ43とを有する。出力部40に出力回路42を含む。出力回路42は、セレクタの機能を基本として、必要に応じて増幅やリセットの機能を併せもつ。1つの出力回路42に対し、n型層39R,39G,39Bの何れかの可視光画素データと、電荷蓄積部41の少なくとも1つからのNIR画素データとが入力可能となっている。出力回路42は、基本的には、これらの画素データを選択して出力するセレクタの一種である。
出力部40は、図1の制御部6からの制御信号を不図示の外部端子を介して入力するか、または、制御部6によって統括制御される撮像デバイス3の内部の制御回路によって制御信号が与えられる。これにより、スイッチ切り替え、電荷蓄積制御および出力選択制御が実行される。
[Output section]
In the case of this example, an output unit 40 is provided for each pixel.
The output unit 40 includes a plurality of charge storage units 41 and a switch 43 that switches the output destination of the received light charges from the n-type well 37 to one of the plurality of charge storage units 41. The output unit 40 includes an output circuit 42. The output circuit 42 has a function of amplification and reset as necessary based on the function of the selector. The visible light pixel data of any of the n-type layers 39R, 39G, and 39B and the NIR pixel data from at least one of the charge storage units 41 can be input to one output circuit 42. The output circuit 42 is basically a kind of selector that selects and outputs these pixel data.
The output unit 40 inputs a control signal from the control unit 6 of FIG. 1 via an external terminal (not shown), or the control signal is received by a control circuit inside the imaging device 3 that is controlled by the control unit 6. Given. Thereby, switch switching, charge accumulation control and output selection control are executed.

出力部40から可視光画素データが出力される場合、不図示の出力信号線(垂直信号線ともいう)から撮像デバイス3内の周辺回路を経て、可視光画素データが順次出力され、図1の信号処理部5に送られる。信号処理部5は、ノイズ除去や色補正等の必要な信号処理を行って可視光画像(本例ではRGB画像)を生成する。
一方、出力部40から非可視光データ(NIR画素データ)が出力されると、これを明暗画像の構成データとして利用してもよいが、本例では距離検出や生体検出にNIR画素データを利用する。この検出処理は図1の信号処理部5により行われる。
When visible light pixel data is output from the output unit 40, visible light pixel data is sequentially output from an unillustrated output signal line (also referred to as a vertical signal line) through a peripheral circuit in the imaging device 3, as shown in FIG. It is sent to the signal processing unit 5. The signal processing unit 5 performs necessary signal processing such as noise removal and color correction to generate a visible light image (in this example, an RGB image).
On the other hand, when non-visible light data (NIR pixel data) is output from the output unit 40, this may be used as configuration data of a bright and dark image. In this example, NIR pixel data is used for distance detection and biological detection. To do. This detection process is performed by the signal processing unit 5 of FIG.

なお、撮像デバイス3がCCDであるか、あるいはCMOSイメージセンサであるかといったデバイスの種類によっては、出力部40の構成や配置箇所が異なることがある。
例えば、CMOSイメージセンサの場合、画素回路と呼ばれ信号電荷のリセットと増幅読み出しの動作を行う回路が画素ごとに設けられる。そのため、画素ごとの画素回路内に、出力部40を形成することが可能である。その場合、画素回路の規模が大きくなるが、電荷蓄積部41は、例えば2つの導電層間に誘電体膜を挟むキャパシタ等で構成されるため、基板トランジスタ回路の上層に積層される。また、出力回路42も複数のスイッチ程度で構成可能である。よって、CMOSイメージセンサの場合、画素サイズを大きくしなくとも出力部40を実装可能である。
Depending on the type of device, such as whether the imaging device 3 is a CCD or a CMOS image sensor, the configuration and location of the output unit 40 may differ.
For example, in the case of a CMOS image sensor, a circuit called a pixel circuit that performs signal charge resetting and amplification readout operations is provided for each pixel. Therefore, the output unit 40 can be formed in the pixel circuit for each pixel. In this case, although the scale of the pixel circuit is increased, the charge storage unit 41 is formed of, for example, a capacitor having a dielectric film sandwiched between two conductive layers, and is thus stacked on the upper layer of the substrate transistor circuit. The output circuit 42 can also be configured with a plurality of switches. Therefore, in the case of a CMOS image sensor, the output unit 40 can be mounted without increasing the pixel size.

一方、CCDの場合は、垂直電荷転送のための垂直レジスタと受光部で画素面積のほとんどが占められ、スイッチの類は、読み出しゲートと呼ばれるトランジスタが画素ごとに設けられる。そのためトランジスタの付加はCMOSイメージセンサほど容易でない。
ただし、読み出しゲートや垂直CCDを広く覆う遮光膜上にTFTによってトランジスタ回路を形成することが可能である。また、裏面照射型の撮像デバイスでは、マイクロレンズアレイやカラーフィルタが基板裏面に貼られ、基板裏面から光を受光し、表面側から排出可能となっている。そのため、表面側に比較的大きな回路を形成しても、そのことが画素サイズの拡大要因になりにくい。
よって、撮像デバイス3がCCDの場合でも出力部40の実装が可能である。
On the other hand, in the case of a CCD, most of the pixel area is occupied by a vertical register and a light receiving unit for vertical charge transfer, and in a switch type, a transistor called a read gate is provided for each pixel. Therefore, the addition of a transistor is not as easy as a CMOS image sensor.
However, it is possible to form a transistor circuit with TFTs on a light shielding film that covers the readout gate and the vertical CCD widely. In the backside illumination type imaging device, a microlens array and a color filter are attached to the backside of the substrate, and light can be received from the backside of the substrate and discharged from the frontside. For this reason, even if a relatively large circuit is formed on the surface side, it is unlikely that the pixel size is increased.
Therefore, the output unit 40 can be mounted even when the imaging device 3 is a CCD.

なお、撮像デバイス3の種類によらず、複数の画素で出力部40を共用する構成も可能である。例えば、1本の出力信号線に共通接続される画素ならば、複数の画素に対して出力部40への入力を切り替えるスイッチをさらに付加することで出力部40の共用が可能である。   A configuration in which the output unit 40 is shared by a plurality of pixels is possible regardless of the type of the imaging device 3. For example, in the case of pixels commonly connected to one output signal line, the output unit 40 can be shared by further adding a switch for switching the input to the output unit 40 for a plurality of pixels.

[距離測定手法]
被写体までの距離測定について説明する。
光を投射し、被写体100からの反射光を検出し、その遅れ時間を計測するTOF(Time of flight)を利用した距離測定方式は、既にいくつか提案されている。
[Distance measurement method]
The distance measurement to the subject will be described.
Several distance measurement methods using TOF (Time of Flight) that project light, detect reflected light from the subject 100, and measure the delay time have already been proposed.

本発明の実施形態では、以下の方式が採用可能である。
図1に示すように、第1の発光部2Aから被写体100に向け、非可視(ここではNIR)のパルス光を発光する。
被写体100からの反射光(戻り光)を撮像デバイス3にて受光し、内部の非可視光(NIR)のセンサ部にて、戻り光が光電変換され電荷が発生する。発生した電荷は、パルス光の発光と同期して交互に作動するスイッチ43により、第1,第2の電荷蓄積部41,41へと振り分けられ、出力回路42から画素外部の出力信号線やレジスタ等で転送される。
このとき第1,第2の電荷蓄積部に振り分けられる電荷の配分比から、被写体100までの距離を求める。その際、パルス状の照射光に対応して被写体での反射光がセンサ部に入射されない期間を存在させる。この期間はセンサ部で光電変換される光は被写体の背景光や周りからのノイズ光であるため、この期間の発生電荷をスイッチ43を作動させることで第3の電荷蓄積部41へ転送する。この背景光の電荷は、検出電荷とは識別可能に外部の信号処理部5まで送られ、信号処理部5によって背景光除去のための処理に使用される。
背景光やノイズのみの期間以外が距離測定期間となる。
In the embodiment of the present invention, the following method can be employed.
As shown in FIG. 1, invisible (NIR in this case) pulsed light is emitted toward the subject 100 from the first light emitting unit 2A.
Reflected light (return light) from the subject 100 is received by the imaging device 3, and the return light is photoelectrically converted by the internal invisible light (NIR) sensor unit to generate electric charges. The generated charges are distributed to the first and second charge storage units 41 and 41 by the switch 43 that operates alternately in synchronization with the emission of the pulsed light, and the output circuit 42 outputs an output signal line or register outside the pixel. Etc. are transferred.
At this time, the distance to the subject 100 is obtained from the distribution ratio of the charges distributed to the first and second charge storage units. At this time, there is a period in which the reflected light from the subject is not incident on the sensor unit corresponding to the pulsed irradiation light. During this period, the light photoelectrically converted by the sensor unit is background light of the subject or noise light from the surroundings. Therefore, the generated charge in this period is transferred to the third charge storage unit 41 by operating the switch 43. The background light charge is sent to the external signal processing unit 5 so as to be distinguishable from the detected charge, and is used by the signal processing unit 5 for processing for background light removal.
The period other than the background light or noise period is the distance measurement period.

図7に、具体的なパルス波形に対する距離測定タイミングの設定例を示す。
図7(A)に発光パルスを示し、発光パルスに時間的に遅れた受光パルス、即ち光電変換により発生した信号のパルス(以下、受光パルスという)を図7(B)に示す。
図7(A)に示す発光パルスは、ここでは1パルスのみ示すが、実際には発光パルスが周期的に被写体に向けて繰り返し発光される。被写体で反射して発生した戻り光が撮像デバイスで受光される。このときの受光開始点は、対応する発光パルスの発行開始点より時間的に遅れる。この発光開始から受光開始までの時間差が被写体の距離におおよそ比例するため、この時間差が検出対象である。
FIG. 7 shows a setting example of distance measurement timing for a specific pulse waveform.
FIG. 7A shows a light emission pulse, and FIG. 7B shows a light reception pulse delayed in time with respect to the light emission pulse, that is, a pulse of a signal generated by photoelectric conversion (hereinafter referred to as a light reception pulse).
The light emission pulse shown in FIG. 7A shows only one pulse here, but in actuality, the light emission pulse is repeatedly emitted toward the subject periodically. Return light generated by reflection from the subject is received by the imaging device. The light reception start point at this time is delayed in time from the corresponding light emission pulse issuance start point. Since the time difference from the start of light emission to the start of light reception is approximately proportional to the distance of the subject, this time difference is the detection target.

時間差測定のために、本例では距離測定期間を設定する。ここでは、受光開始から受光終了までの受光パルスの持続時間を距離測定期間とする。距離測定期間は確実に受光パルスが持続している期間であればよいため、受光パルスの持続期間内であれば、任意に設定可能である。
CPU等の制御部は、この距離測定期間内のあるタイミングで図6に示すスイッチ43を切り替えて、それより前の受光パルス部分のA電荷と、それより後の受光パルス部分のB電荷との2つに、受光パルスの電荷を振り分ける。振り分けられたA電荷とB電荷は図6に示す異なる2つの電荷蓄積部41,41で蓄積され、互いに識別が可能なように、例えば異なるタイミングで出力信号線を通して電圧値として読み出される。
In this example, a distance measurement period is set for time difference measurement. Here, the duration of the light reception pulse from the start of light reception to the end of light reception is defined as a distance measurement period. Since the distance measurement period only needs to be a period in which the light reception pulse is reliably maintained, it can be arbitrarily set as long as it is within the duration of the light reception pulse.
A control unit such as a CPU switches the switch 43 shown in FIG. 6 at a certain timing within the distance measurement period, so that the A charge in the light receiving pulse part before that and the B charge in the light receiving pulse part after that change. The charge of the received light pulse is divided into two. The distributed A charges and B charges are stored in two different charge storage units 41 and 41 shown in FIG. 6, and are read out as voltage values through output signal lines, for example, at different timings so that they can be distinguished from each other.

読み出されたA電荷とB電荷(電荷量に比例した2つの電圧値)は、図1に示す信号処理部5に入力され、両電荷(両電圧値)の比が計算される。そして、この計算の結果から、検出対象である上記時間差、つまり発光開始から受光開始までの時間差におおよそ比例した被写体までの距離が信号処理部5にて算出される。   The read A charge and B charge (two voltage values proportional to the charge amount) are input to the signal processing unit 5 shown in FIG. 1, and the ratio of both charges (both voltage values) is calculated. From the result of this calculation, the signal processing unit 5 calculates the distance to the subject that is approximately proportional to the time difference that is the detection target, that is, the time difference from the start of light emission to the start of light reception.

なお、本発明の距離測定方法について、その方法は上記したものに限定されない。非可視光(NIR)センサ部より後段のスイッチ43や電荷蓄積部41、配線、信号処理部5等を変更することにより、他の方法でも実現可能である。
また、この距離測定は、RGBのセンサ部と別のセンサ部を使用しているため、RGB画像の取得と距離測定を同時に並行して行うことができる。さらに、距離測定をRGB画像と対応させた画素アドレスのデータを用いて行うことができるため、測定結果と被写体との対応関係が取りやすい。例えば、被写体の画像位置(画素アドレス範囲)と距離測定の戻り光が検出された画素アドレスが大きく異なる場合は、エラーとして測定結果を無効化することが可能である。
In addition, about the distance measuring method of this invention, the method is not limited to what was mentioned above. Other methods can be realized by changing the switch 43, the charge storage unit 41, the wiring, the signal processing unit 5 and the like at the subsequent stage from the non-visible light (NIR) sensor unit.
Further, since this distance measurement uses a sensor unit different from the RGB sensor unit, acquisition of RGB images and distance measurement can be performed simultaneously in parallel. Furthermore, since the distance measurement can be performed using pixel address data corresponding to the RGB image, the correspondence between the measurement result and the subject can be easily obtained. For example, when the image position of the subject (pixel address range) and the pixel address where the return light of distance measurement is detected are greatly different, the measurement result can be invalidated as an error.

[生体検出手法]
つぎに、人の皮膚等の生体検出方法について説明する。
図1において、第1の発光部2Aから被写体100に向け、第1の波長領域をもつ非可視光(第1NIR光)が投射される。
被写体100からの反射光(戻り光)を撮像デバイス3にて受光し、内部の非可視光(NIR)センサ部にて光電変換される。
第2の発光部2Bからは、第1の波長領域とは異なる波長領域の非可視光(第2NIR光)が投射される。
被写体100からの反射光(戻り光)は、同様にして撮像デバイス3にて光電変換される。
第1の発光部2Aによる投射と第2の発光部2Bによる投射は交互になされるように制御される。また非可視光(NIR)センサ部の出力を複数の電荷蓄積部41に対して振り分けるスイッチ43が、第1および第2の発光部2A,2Bによる投射と同期して開閉される。その結果、第1の発光部2Aからの反射光は第1の電荷蓄積部41へ、第2の発光部2Bからの反射光は他の第2の電荷蓄積部41へ入力されて蓄積される。
[Biological detection method]
Next, a method for detecting a living body such as human skin will be described.
In FIG. 1, invisible light (first NIR light) having a first wavelength region is projected from the first light emitting unit 2 </ b> A toward the subject 100.
Reflected light (returned light) from the subject 100 is received by the imaging device 3 and subjected to photoelectric conversion by an internal invisible light (NIR) sensor unit.
Invisible light (second NIR light) in a wavelength region different from the first wavelength region is projected from the second light emitting unit 2B.
The reflected light (return light) from the subject 100 is photoelectrically converted by the imaging device 3 in the same manner.
The projection by the first light emitting unit 2A and the projection by the second light emitting unit 2B are controlled so as to be alternately performed. Further, a switch 43 that distributes the output of the invisible light (NIR) sensor unit to the plurality of charge storage units 41 is opened and closed in synchronization with the projection by the first and second light emitting units 2A and 2B. As a result, the reflected light from the first light emitting unit 2A is input to the first charge storage unit 41, and the reflected light from the second light emitting unit 2B is input to the other second charge storage unit 41 and stored. .

それぞれの検出信号は、配線を介して信号処理部5に取り込まれる。第1の発光部2Aから出射された第1NIR光の反射光により発生したNIR画素データから第1の非可視光画像が取得される。第2の発光部2Bから出射された第2NIR光の反射光により発生したNIR画素データから第2の非可視光画像が取得される。
第1および第2の非可視光画像は、同じ対象を同じ画角で同じ時間だけ撮像した画像であるため、照射光の波長が同じならば画像内の各アドレスにおけるデータ量は基本的に同じとなる。
Each detection signal is taken into the signal processing unit 5 through the wiring. A first invisible light image is obtained from NIR pixel data generated by reflected light of the first NIR light emitted from the first light emitting unit 2A. A second invisible light image is acquired from NIR pixel data generated by the reflected light of the second NIR light emitted from the second light emitting unit 2B.
Since the first and second invisible light images are images of the same object captured at the same angle of view for the same time, the amount of data at each address in the image is basically the same if the wavelength of the irradiation light is the same. It becomes.

ここでは2つの照射光の波長が人の肌で反射率の差が大きくなるように選択されている。このため、第1の非可視光画像と第2の非可視光画像において各アドレスの画素データ間で差分を取ると、人の肌の画像箇所だけ、この差分が増大し、その増大箇所を閾値判定することで生体検出を行う。
その際、第1の発光部2Aと第2の発光部2Bの照射光の波長差による非可視光(NIR)センサ部の感度差を補正した後、両者の差を演算する。この生体検出では、RGBのセンサ部と別のセンサ部を使用しているため、RGB画像の取得と生体検出を同時に並行して行うことができる。
生体検出の結果は、RGB画像(可視光画像)から人の肌部分を抜き取る処理等に用いられる。
本実施形態の撮像デバイス3においては、可視光センサ部と非可視光センサ部がデバイス内で光の入射方向に並んで(基板深部方向に重ねて)配設されている。そのため、RGB画像のアドレスと非可視光画像のアドレスが同じならば、被写体100の同じ点を撮像したものであることが保証される。そのため、生体検出の精度が高く、肌画像の抽出が正確に行える。
Here, the wavelengths of the two irradiation lights are selected so that the difference in reflectance between human skins becomes large. For this reason, when the difference is taken between the pixel data of each address in the first invisible light image and the second invisible light image, this difference increases only in the image portion of the human skin, and the increased portion is determined as a threshold value. Living body detection is performed by determining.
At that time, after correcting the sensitivity difference of the invisible light (NIR) sensor unit due to the wavelength difference of the irradiation light of the first light emitting unit 2A and the second light emitting unit 2B, the difference between the two is calculated. In this living body detection, since an RGB sensor unit and another sensor unit are used, acquisition of RGB images and living body detection can be performed simultaneously in parallel.
The result of living body detection is used for a process of extracting a human skin portion from an RGB image (visible light image).
In the imaging device 3 of the present embodiment, the visible light sensor unit and the invisible light sensor unit are arranged side by side in the light incident direction (overlapping in the substrate deep portion direction) in the device. Therefore, if the address of the RGB image and the address of the invisible light image are the same, it is guaranteed that the same point of the subject 100 is captured. Therefore, the accuracy of living body detection is high, and skin images can be extracted accurately.

[近赤外光画像(明暗画像)]
つぎに近赤外光画像について説明する。
各画素の非可視光(NIR)センサ部は、近赤外光(NIR)を検出するものであり、非可視光(NIR)センサ部からの検出信号は、通常の近赤外光画像(NIR画像)として利用してもよい。
NIR画像は、一般的なCCDやCMOSイメージセンサと同様、フレームごとに出力部(画素回路または垂直・水平転送レジスタ等)を経由して外部に出力され、図1の信号処理部5にて必要な処理が施される。
[Near-infrared light image (bright and dark image)]
Next, a near infrared light image will be described.
The non-visible light (NIR) sensor unit of each pixel detects near infrared light (NIR), and the detection signal from the non-visible light (NIR) sensor unit is a normal near infrared light image (NIR). (Image).
The NIR image is output to the outside via an output unit (pixel circuit or vertical / horizontal transfer register, etc.) for each frame, as in a general CCD or CMOS image sensor, and is required by the signal processing unit 5 in FIG. Is processed.

夜間等のように近赤外光が少ない場合は、第1,第2の発光部2A,2Bの一方または両方により被写体100を照らす。この近赤外光画像の取得は、RGB画像の取得時とは別のフォトセンサ(フォトセンサ内のセンサ部)を使用しているため、RGB画像の取得と近赤外光画像の取得を同時に並行して行うことができる。
距離測定、生体検出、RGB画像、近赤外光画像を取得する際、RGBセンサ部を使用するRGB画像の取得と、NIRセンサ部を使用する距離測定、生体検出、近赤外光画像取得の3動作の1つは同時に実行することが可能である。NIRセンサ部を使用する上記3動作のうち複数を実行するためには、これを時系列で順番に行う必要がある。
When there is little near-infrared light, such as at night, the subject 100 is illuminated by one or both of the first and second light emitting units 2A and 2B. This near-infrared light image acquisition uses a different photosensor (sensor unit in the photosensor) than the RGB image acquisition time, so the acquisition of the RGB image and the acquisition of the near-infrared light image are performed simultaneously. Can be done in parallel.
When acquiring distance measurement, living body detection, RGB image, near infrared light image, acquisition of RGB image using RGB sensor part, distance measurement using NIR sensor part, living body detection, near infrared light image acquisition One of the three operations can be performed simultaneously. In order to execute a plurality of the above three operations using the NIR sensor unit, it is necessary to perform this in time series.

<2.第2の実施形態>
本発明の第2の実施形態について説明する。
第1の実施形態と異なるのは、撮像デバイス3の光学フィルタ32とフォトセンサ34の構造である。
第1の実施形態では撮像デバイス3のカラーフィルタとして、赤、緑、青の原色系のもの(図3(B))を用いた。第2の実施形態では、シアン(Cy=B+G)、マゼンタ(Mg=B+R)、黄(Ye=G+R)、緑(G)の補色系カラーフィルタ(図8(A))に、NIR波長を透過する機能を付加したもの(図8(B))を用いる。
<2. Second Embodiment>
A second embodiment of the present invention will be described.
The difference from the first embodiment is the structure of the optical filter 32 and the photosensor 34 of the imaging device 3.
In the first embodiment, as the color filter of the imaging device 3, red, green, and blue primary colors (FIG. 3B) are used. In the second embodiment, NIR wavelengths are transmitted through complementary color filters (FIG. 8A) of cyan (Cy = B + G), magenta (Mg = B + R), yellow (Ye = G + R), and green (G). The one to which the function to be added is added (FIG. 8B) is used.

図8(B)に示す光学フィルタ32において、各色のフィルタ部は、各々の色の透過に加えて近赤外(NIR)の波長も透過する特性になっている。各フィルタ部は、シアン(Cy)をB+G+NIR(以下、Cy+NIR)と表記する。また、マゼンタ(Mg)をB+R+NIR(以下、Mg+NIR)と表記し、黄(Ye)をG+R+NIR(以下、Ye+NIR)と表記し、緑(G)をG+NIRと表記する。各フィルタ部は、それぞれの光の透過特性をもつ。
Cy、Mg、Ye、Gの補色系カラーフィルタについては、その基本は既に広く一般的に使用されているもの(図8(A))である。この基本構成にNIRの透過特性を付加して図8(B)のフィルタを形成する方法は、前述した原色系フィルタと同様な多層膜構造の方法で実現可能である。
In the optical filter 32 shown in FIG. 8B, each color filter section has a characteristic of transmitting near-infrared (NIR) wavelengths in addition to transmission of each color. Each filter unit represents cyan (Cy) as B + G + NIR (hereinafter, Cy + NIR). Further, magenta (Mg) is represented as B + R + NIR (hereinafter, Mg + NIR), yellow (Ye) is represented as G + R + NIR (hereinafter, Ye + NIR), and green (G) is represented as G + NIR. Each filter unit has a light transmission characteristic.
The basic color filters of Cy, Mg, Ye, and G are already widely used (FIG. 8A). The method of forming the filter shown in FIG. 8B by adding NIR transmission characteristics to this basic configuration can be realized by a multilayer film structure method similar to the primary color filter described above.

図9に、デバイス断面の模式図を示す。
第2の実施形態のフォトセンサも表面に近いRGBの可視光を検出する層と、深い位置に形成されたNIRを検出する層で構成される。
Cy、Mg、YeについてはそれぞれRGBの可視光が2色ずつ混ざっている。そのため、このフォトセンサは、RGBの2色をそれぞれ検出するn型の層が2層必要となり、その間を分離するp型のバッファ層PBが追加されている。
第2の実施形態の構造も、光の波長によってシリコン基板へ入り込む深さが異なることを利用したものである。
FIG. 9 shows a schematic view of a device cross section.
The photosensor according to the second embodiment is also composed of a layer that detects RGB visible light close to the surface and a layer that detects NIR formed at a deep position.
For Cy, Mg, and Ye, two colors of visible light of RGB are mixed. For this reason, this photosensor requires two n-type layers for detecting two colors of RGB, respectively, and a p-type buffer layer PB for separating the layers is added.
The structure of the second embodiment also utilizes the fact that the depth entering the silicon substrate differs depending on the wavelength of light.

フィルタ部(Cy+NIR)を透過した光を受光するフォトセンサは、最表面側の3層目のn型層39Bが青色光に強く感度をもつ深さ(表面から0.2〜0.5μm程度)に形成されている。2層目のn型層が緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。一番深い1層目のセンサ部のn型層(n型ウェル37)は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。   The photo sensor that receives the light transmitted through the filter unit (Cy + NIR) has a depth that the third n-type layer 39B on the outermost surface side is strongly sensitive to blue light (about 0.2 to 0.5 μm from the surface). Is formed. The second n-type layer is formed at a depth (about 0.8 to 1.5 μm from the surface) that is strongly sensitive to green light. The n-type layer (n-type well 37) of the deepest first sensor part has a depth (30 μm from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light-emitting part 2A (FIG. 1). Or less).

フィルタ部(Cy+NIR)を透過したBとGとNIRの光は、センサ部の深さによって分光され、Bが第3層のn型層39B、Gが2層目のn型層、NIRが第1層のn型ウェル37で蓄積され可視光または非可視光の画素データとして分離して出力される。   The B, G, and NIR light transmitted through the filter unit (Cy + NIR) is dispersed according to the depth of the sensor unit, where B is the third n-type layer 39B, G is the second n-type layer, and NIR is the first layer. It is accumulated in one layer of n-type well 37 and separated and output as pixel data of visible light or invisible light.

フィルタ部(Mg+NIR)を透過した光を受光するフォトセンサは、3層目のn型層39Bが青色光に強く感度をもつ深さ(表面から0.2〜0.5μm程度)に形成されている。2層目のn型層が赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。一番深い1層目のn型層(n型ウェル37)は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
光学フィルタ(Mg+NIR)を透過したBとRとNIRの光は、センサ部の深さによって分光され、Bが第3層のn型層39R、Rが第2層のn型層、NIRが第1層のn型ウェル37で蓄積され可視光または非可視光の画素データとして出力される。
The photo sensor that receives the light transmitted through the filter unit (Mg + NIR) is formed with a depth (about 0.2 to 0.5 μm from the surface) at which the third n-type layer 39B has high sensitivity to blue light. Yes. The second n-type layer is formed at a depth (about 2.0 to 7.5 μm from the surface) having strong sensitivity to red light. The deepest n-type layer (n-type well 37) has a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting portion 2A (FIG. 1). Is formed.
The light of B, R, and NIR that has passed through the optical filter (Mg + NIR) is dispersed according to the depth of the sensor portion, where B is the third n-type layer 39R, R is the second n-type layer, and NIR is the first Accumulated in one layer n-type well 37 and output as pixel data of visible light or invisible light.

フィルタ部(Ye+NIR)を透過した光を受光するフォトセンサは、3層目のn型層39Gが緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。2層目のn型層は赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。1層目のn型層(n型ウェル37)は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Ye+NIR)を透過したGとRとNIRの光は、フォトセンサの深さによって分光され、Gが第3層のn型層39G、Rが第2層のn型層、NIRが第1層のn型ウェル37で蓄積され可視光または非可視光の画素データとして分離されて出力される。
The photo sensor that receives light transmitted through the filter unit (Ye + NIR) is formed with a depth (about 0.8 to 1.5 μm from the surface) at which the third n-type layer 39G is strongly sensitive to green light. Yes. The second n-type layer is formed at a depth (approximately 2.0 to 7.5 μm from the surface) that is highly sensitive to red light. The first n-type layer (n-type well 37) is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting portion 2A (FIG. 1). ing.
The light of G, R, and NIR transmitted through the filter unit (Ye + NIR) is dispersed according to the depth of the photosensor, where G is the third n-type layer 39G, R is the second n-type layer, and NIR is the first It is accumulated in one layer of n-type well 37 and is separated and output as pixel data of visible light or invisible light.

フィルタ部(G+NIR)を透過した光を受光するフォトセンサは、2層目のセンサ部は緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。1層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(G+NIR)を透過したGとNIRの光は、センサ部の深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
これに関しては、第1の実施形態のG+NIR部(図6)と同じ構造である。
In the photosensor that receives light transmitted through the filter portion (G + NIR), the sensor portion of the second layer is formed at a depth (about 0.8 to 1.5 μm from the surface) that is sensitive to green light and sensitive. The sensor part of the first layer is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting part 2A (FIG. 1).
The G and NIR lights that have passed through the filter unit (G + NIR) are separated by the depth of the sensor unit, separated by the output unit formed in the pixel circuit layer 33, and output.
This is the same structure as the G + NIR part (FIG. 6) of the first embodiment.

各センサ部の深さについては一例であり、各光の分光特性と検出光量が使用上問題とならない範囲で変更が可能である。
各画素のフィルタ部からはRGBの2色が混合された光がフォトセンサに入射される。この入射光をRGBに分離してセンサ部で検出し、それらの同じ色の原色信号同士(例えばRはR同士)を足し算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。
NIRセンサ部からの検出信号の扱い、即ち、明暗画像として用いるか、距離測定と生体検出の少なくとも一方の処理に用いるかは第1の実施形態と同様に任意である。また、これらの処理自体は第1の実施形態で説明した手法を用いることができる。
The depth of each sensor unit is an example, and can be changed as long as the spectral characteristics and the detected light quantity of each light do not cause a problem in use.
Light mixed with two colors of RGB enters the photosensor from the filter portion of each pixel. This incident light is separated into RGB and detected by the sensor unit, and the primary color signals of the same color (for example, R is R) are added to convert them into RGB signals, which are used as normal RGB color images. The
The handling of the detection signal from the NIR sensor unit, that is, whether it is used as a bright / dark image or at least one of the distance measurement and the living body detection, is arbitrary as in the first embodiment. In addition, these processes themselves can use the method described in the first embodiment.

第2の実施形態は、第1の実施形態と比較して、RGBの光量が2倍に増えるという利点と、3層構造になる分、製造工程が増えるという不利な点がある。   Compared with the first embodiment, the second embodiment has the advantage that the amount of RGB light is doubled and the disadvantage that the manufacturing process is increased by the three-layer structure.

<3.第3の実施形態>
本発明の第3の実施形態について説明する。
図10に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第1,第2の実施形態と異なるのは、撮像デバイス3の光学フィルタ32とフォトセンサ34の構造である。
第3の実施形態では撮像デバイス3に原色系や補色系といった光学フィルタが存在しない。受光した全波長の光がフォトセンサ内に入り込み、センサ部の深さによる分光でR、G、B、NIRを検出する。
<3. Third Embodiment>
A third embodiment of the present invention will be described.
FIG. 10 schematically shows a cross-sectional configuration of the pixel array of the imaging device 3.
The difference from the first and second embodiments is the structure of the optical filter 32 and the photosensor 34 of the imaging device 3.
In the third embodiment, the imaging device 3 has no optical filter such as a primary color system or a complementary color system. The received light of all wavelengths enters the photosensor, and R, G, B, and NIR are detected by spectroscopy based on the depth of the sensor portion.

第3の実施形態のフォトセンサは全ての画素で同じ4層構造のセンサ部(n型層に電荷蓄積するpn接合ダイオード)を有している。第2の実施形態と同様に、n型層の間にはp型のバッファ層PBが介在する。
4層目のセンサ部のpn接合は青色光に強く感度をもつ深さ(表面から0.2〜0.5μm程度)に形成されている。3層目のセンサ部のpn接合は緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。2層目のセンサ部pn接合は赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。1層目のセンサ部のpn接合は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
The photosensor according to the third embodiment has the same four-layer sensor unit (pn junction diode that accumulates charges in an n-type layer) in all pixels. Similar to the second embodiment, a p-type buffer layer PB is interposed between n-type layers.
The pn junction of the sensor portion of the fourth layer is formed at a depth (about 0.2 to 0.5 μm from the surface) that is highly sensitive to blue light. The pn junction of the sensor part of the third layer is formed at a depth (about 0.8 to 1.5 μm from the surface) that is strongly sensitive to green light. The sensor layer pn junction of the second layer is formed at a depth (about 2.0 to 7.5 μm from the surface) that is highly sensitive to red light. The pn junction of the sensor part of the first layer is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting part 2A (FIG. 1).

各センサ部のpn接合深さについては一例であり、各光の分光特性と検出光量が使用上問題とならない範囲で変更が可能である。
各画素にR、G、B、NIRが混合された光が入射され、この光をフォトセンサ34で分離して各々のセンサ部から出力する。RGBの各画素データは、通常のRGBのカラー画像として利用される。
NIRセンサ部からの検出信号の扱い、即ち、明暗画像として用いるか、距離測定と生体検出の少なくとも一方の処理に用いるかは第1の実施形態と同様に任意である。また、これらの処理自体は第1の実施形態で説明した手法を用いることができる。
The pn junction depth of each sensor unit is an example, and can be changed within a range in which the spectral characteristics and the detected light amount of each light do not cause a problem in use.
Light mixed with R, G, B, and NIR is incident on each pixel, and the light is separated by the photosensor 34 and output from each sensor unit. Each RGB pixel data is used as a normal RGB color image.
The handling of the detection signal from the NIR sensor unit, that is, whether it is used as a bright / dark image or at least one of the distance measurement and the living body detection, is arbitrary as in the first embodiment. In addition, these processes themselves can use the method described in the first embodiment.

第3の実施形態は、他の実施形態と比較して、RGBの光量が増える、光学フィルタ32が不要という利点がある一方で、4層構造になる分、製造工程が増えるという不利な点がある。   Compared to the other embodiments, the third embodiment has the advantage that the amount of RGB light is increased and the optical filter 32 is not necessary, but the four-layer structure is disadvantageous in that the manufacturing process is increased. is there.

<4.第4の実施形態>
本発明の第4の実施形態について説明する。
図11に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第1の実施形態(図6)と異なるのは、撮像デバイス3の光学フィルタ32とフォトセンサ34の構造である。
光学フィルタ32は一般的な撮像デバイス3のカラーフィルタであるRGB透過フィルタのうち、少なくともGとBに関しては近赤外(NIR)の波長も透過する特性を加えたものを使用する。
<4. Fourth Embodiment>
A fourth embodiment of the present invention will be described.
FIG. 11 schematically shows a cross-sectional configuration of the pixel array of the imaging device 3.
The difference from the first embodiment (FIG. 6) is the structure of the optical filter 32 and the photosensor 34 of the imaging device 3.
As the optical filter 32, an RGB transmission filter that is a color filter of a general imaging device 3, which has a characteristic of transmitting near infrared (NIR) wavelengths at least for G and B, is used.

第4の実施形態では、Rの画素に関しては、フォトセンサによるNIRの検出をしないので、光学フィルタ32のNIR透過機能は必須ではない。よって第4の実施形態の光学フィルタ32は、RGBフィルタの基本構成がRのみ透過(IRは遮断)、G+NIRを透過、B+NIRを透過の特性をもつ。   In the fourth embodiment, the NIR transmission function of the optical filter 32 is not essential for the R pixel because the NIR is not detected by the photosensor. Therefore, the optical filter 32 of the fourth embodiment has the characteristics that the basic configuration of the RGB filter is such that only R is transmitted (IR is blocked), G + NIR is transmitted, and B + NIR is transmitted.

第4の実施形態はNIRセンサ部を第1〜第3の実施形態と比較して、深さを浅く設定することを特徴とする。
第1〜第3の実施形態では、NIRセンサ部の形成深さを30μm以下程度としていたが、第4の実施形態では製造工程を容易にするようにNIRセンサ部の深さを10μm以下の程度とする。
NIRセンサ部の深さを浅くする場合、第1の実施形態のままだと、R検出用のセンサ部とNIRセンサ部が近接または同じ深さに形成されることになる。そのため、NIRセンサ部とRセンサ部を深さ方向の層構造で形成することが困難になる。
The fourth embodiment is characterized in that the NIR sensor unit is set to a shallower depth than the first to third embodiments.
In the first to third embodiments, the formation depth of the NIR sensor portion is about 30 μm or less. However, in the fourth embodiment, the depth of the NIR sensor portion is about 10 μm or less so as to facilitate the manufacturing process. And
When the depth of the NIR sensor portion is reduced, if the first embodiment is maintained, the R detection sensor portion and the NIR sensor portion are formed close to or at the same depth. Therefore, it becomes difficult to form the NIR sensor portion and the R sensor portion with a layer structure in the depth direction.

その解決策として、赤を透過するフィルタ部をもつ画素ではNIRセンサ部を形成せず、NIRの検出を行わない。NIRの検出を行わない画素では、周辺の画素のNIR検出値から平均化しデータ補間してNIR画素データを生成する。あるいは、RGGBの4画素を1点として、解像度を落として使用する。
またNIRの検出深さを浅くすることの不利な点として、当然NIR波長の光の感度低下が生じる。その分は、第1および第2の発光部2A,2Bの投射光量を増すことで対処が可能になる。
As a solution, an NIR sensor portion is not formed in a pixel having a filter portion that transmits red, and NIR detection is not performed. For pixels that do not perform NIR detection, NIR pixel data is generated by averaging and interpolating data from the NIR detection values of surrounding pixels. Alternatively, four pixels of RGGB are used as one point and the resolution is lowered.
Further, as a disadvantage of reducing the detection depth of NIR, naturally, the sensitivity of light of NIR wavelength is lowered. This can be dealt with by increasing the amount of light projected from the first and second light emitting sections 2A and 2B.

フィルタ部(R)を透過した光を受光するフォトセンサ34Rは、1層目のセンサ部を構成するn型ウェル37が赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。第1層のセンサ部によりRの検出が行われる。
フィルタ部(G+NIR)を透過した光を受光するフォトセンサ34Gと、フィルタ部(B+NIR)を透過した光を受光するフォトセンサ34Bは、図6の場合と同じように形成されている。
The photosensor 34R that receives light transmitted through the filter portion (R) has a depth (2.0 to 7.5 μm from the surface) where the n-type well 37 constituting the first layer sensor portion is highly sensitive to red light. Degree). R is detected by the first layer sensor.
The photosensor 34G that receives light that has passed through the filter section (G + NIR) and the photosensor 34B that receives light that has passed through the filter section (B + NIR) are formed in the same manner as in FIG.

各センサ部の深さについては一例であり、各光の分光特性と検出光量が使用上問題とならない範囲で変更が可能である。また、CCDやCMOSイメージセンサへの適用、距離測定、生体検出、近赤外光画像として使用されることでも第1の実施形態と同じである。この点は、上記第2および第3の実施形態と共通する。   The depth of each sensor unit is an example, and can be changed as long as the spectral characteristics and the detected light quantity of each light do not cause a problem in use. Further, application to a CCD or CMOS image sensor, distance measurement, living body detection, and use as a near infrared light image are also the same as in the first embodiment. This point is common to the second and third embodiments.

<5.第5の実施形態>
本発明の第5の実施形態について説明する。
図12に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第5の実施形態(図12)が第2の実施形態(図9)と異なるのは、撮像デバイス3のフォトセンサの構造である。
カラーフィルタは補色系カラーフィルタを用い、第2の実施形態と同様にシアン(Cy)はCy+NIR(B+G+NIR)、マゼンタ(Mg)はMg+NIR(B+R+NIR)、黄(Ye)はYe+NIR(G+R+NIR)、緑(G)はG+NIRの透過特性をもつ。
<5. Fifth Embodiment>
A fifth embodiment of the present invention will be described.
FIG. 12 schematically shows a cross-sectional configuration of the pixel array of the imaging device 3.
The fifth embodiment (FIG. 12) differs from the second embodiment (FIG. 9) in the structure of the photosensor of the imaging device 3.
As in the second embodiment, cyan (Cy) is Cy + NIR (B + G + NIR), magenta (Mg) is Mg + NIR (B + R + NIR), yellow (Ye) is Ye + NIR (G + R + NIR), and green (Y). G) has G + NIR transmission characteristics.

図12に示すフォトセンサの構造が第2の実施形態(図9)と異なるのは、可視光Cy、Mg、Ye、Gの各々を1層のn型層で検出する点である。表面に近いCy、Mg、Ye、Gの可視光を検出する層と、深い位置に形成されたNIRを検出する層で構成され、合計2層の電荷蓄積層(n型層)構造になっている。一般的な撮像デバイス3でも、Cy、Mg、Ye、Gは1層のフォトセンサで検出しており、実績がある方法である。   The structure of the photosensor shown in FIG. 12 is different from that of the second embodiment (FIG. 9) in that each of visible light Cy, Mg, Ye, and G is detected by one n-type layer. It is composed of a layer that detects visible light of Cy, Mg, Ye, and G close to the surface and a layer that detects NIR formed at a deep position, resulting in a total of two charge storage layer (n-type layer) structures. Yes. Even in a general imaging device 3, Cy, Mg, Ye, and G are detected by a single-layer photosensor, which is a proven method.

フィルタ部(Cy+NIR)を透過した光を受光するフォトセンサは、2層目のセンサ部は可視光に強く感度をもつ深さ(10μm以下程度)に形成されている。1層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Cy+NIR)を透過したCyとNIRの光は、フォトセンサの深さによって分光され、それぞれCyが第2層目の可視光センサ部、NIRが第1層目のNIRセンサ部から検出される。
In the photosensor that receives the light transmitted through the filter portion (Cy + NIR), the sensor portion of the second layer is formed at a depth (about 10 μm or less) that is strong and sensitive to visible light. The sensor part of the first layer is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting part 2A (FIG. 1).
Cy and NIR light transmitted through the filter unit (Cy + NIR) is dispersed by the depth of the photosensor, and Cy is detected from the second-layer visible light sensor unit and NIR is detected from the first-layer NIR sensor unit, respectively. The

フィルタ部(Mg+NIR)を透過した光を受光するフォトセンサは、2層目のセンサ部は可視光に強く感度をもつ深さ(10μm以下程度)に形成されている。1層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Mg+NIR)を透過したMgとNIRの光は、フォトセンサの深さによって分光され、それぞれMgが第2層センサ部、NIRが第1層のNIRセンサ部から検出される。
In the photosensor that receives light transmitted through the filter portion (Mg + NIR), the sensor portion of the second layer is formed at a depth (about 10 μm or less) that is highly sensitive to visible light. The sensor part of the first layer is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting part 2A (FIG. 1).
The light of Mg and NIR transmitted through the filter unit (Mg + NIR) is dispersed by the depth of the photosensor, and Mg is detected from the second layer sensor unit and NIR is detected from the NIR sensor unit of the first layer, respectively.

フィルタ部(Ye+NIR)を透過した光を受光するフォトセンサは、1層目のセンサ部は可視光に強く感度をもつ深さ(10μm以下程度)に形成されている。2層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Ye+NIR)を透過したYeとNIRの光は、フォトセンサの深さによって分光され、それぞれYeが第2層目の可視光センサ部、NIRが第1層目のNIRセンサ部から検出される。
In the photosensor that receives light that has passed through the filter portion (Ye + NIR), the first-layer sensor portion is formed at a depth (about 10 μm or less) that is strong and sensitive to visible light. The sensor part of the second layer is formed at a depth (about 30 μm or less from the surface) that is highly sensitive to the emission wavelength (near infrared light) of the first light emitting part 2A (FIG. 1).
The light of Ye and NIR transmitted through the filter unit (Ye + NIR) is dispersed by the depth of the photo sensor, and Ye is detected from the visible light sensor unit of the second layer and NIR is detected from the NIR sensor unit of the first layer, respectively. The

フィルタ部(G+NIR)を透過した光を受光するフォトセンサは、2層目のセンサ部は可視光に強く感度をもつ深さ(10μm以下程度)に形成されている。1層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(G+NIR)を透過したGとNIRの光は、フォトセンサの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
In the photosensor that receives light transmitted through the filter portion (G + NIR), the sensor portion of the second layer is formed at a depth (about 10 μm or less) that is highly sensitive to visible light. The sensor part of the first layer is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting part 2A (FIG. 1).
The G and NIR lights that have passed through the filter unit (G + NIR) are dispersed according to the depth of the photosensor, separated by the output unit formed in the pixel circuit layer 33, and output.

各センサ部の深さについては一例であり、各光の分光特性と検出光量が使用上問題とならない範囲で変更が可能である。
各画素のCy、Mg、Ye、Gの画素データをセンサ部の出力から検出し、それらを演算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。演算方法は一般的な補色系カラーフィルタを用いた撮像装置と同様である。
NIRセンサ部からの検出信号の扱い、即ち、明暗画像として用いるか、距離測定と生体検出の少なくとも一方の処理に用いるかは第1の実施形態と同様に任意である。また、これらの処理自体は第1の実施形態で説明した手法を用いることができる。
The depth of each sensor unit is an example, and can be changed as long as the spectral characteristics and the detected light quantity of each light do not cause a problem in use.
Cy, Mg, Ye, and G pixel data of each pixel is detected from the output of the sensor unit, and is converted into an RGB signal by calculating them and used as a normal RGB color image. The calculation method is the same as that of an image pickup apparatus using a general complementary color filter.
The handling of the detection signal from the NIR sensor unit, that is, whether it is used as a bright / dark image or at least one of the distance measurement and the living body detection, is arbitrary as in the first embodiment. In addition, these processes themselves can use the method described in the first embodiment.

第2の実施形態と比較して、フォトセンサが3層から2層になり製造が簡単になるといる利点と、可視光がCy、Mg、Ye、Gで検出されるので、検出後にRGBに分光するための演算が必要という不利な点がある。   Compared with the second embodiment, the advantage is that the photo sensor is made from three layers to two layers and the manufacturing is simple, and visible light is detected by Cy, Mg, Ye, and G. There is a disadvantage in that it requires an operation to do.

<6.第6の実施形態>
図13に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第6の実施形態(図13)が第1の実施形態(図6)と異なるのは、出力部40の構成である。例えば色配列のRGBの3画素に共通の共通電荷蓄積部41Cが付加されている。既存の電荷蓄積部を本実施形態では、専用電荷蓄積部41Xと呼ぶ。
この構成の変更に対応して、図13のスイッチ43は切片を4つの接点に切り替えるスイッチとして構成されている。
専用電荷蓄積部41Xは、近赤外画像、生体検出、距離測定で使用され、共通電荷蓄積部41Cは距離測定で使用される。例えば、距離測定時に、距離測定が十分可能な光量をフォトセンサで受光している場合、専用電荷蓄積部41Xを使用し、一画素だけの光量では足りない場合は共通電荷蓄積部41Cを使用する。
<6. Sixth Embodiment>
FIG. 13 schematically shows a cross-sectional configuration of the pixel array of the imaging device 3.
The sixth embodiment (FIG. 13) differs from the first embodiment (FIG. 6) in the configuration of the output unit 40. For example, a common charge storage unit 41C common to three RGB pixels in the color array is added. In the present embodiment, the existing charge storage unit is referred to as a dedicated charge storage unit 41X.
Corresponding to this change in configuration, the switch 43 in FIG. 13 is configured as a switch for switching the intercept to four contact points.
The dedicated charge storage unit 41X is used for near-infrared images, living body detection, and distance measurement, and the common charge storage unit 41C is used for distance measurement. For example, when measuring the distance, if the photosensor receives a sufficient amount of light for distance measurement, the dedicated charge storage unit 41X is used, and if the light amount of only one pixel is insufficient, the common charge storage unit 41C is used. .

図14に、電荷蓄積部を共通で使用する場合の配線図を示す。
図14の場合、距離画像の画素サイズはRGB画像やNIR画像に対して4倍の面積に増え、その分受光する光量も増やすことができる。
一方、RGB画像やNIR画像に対して、距離画像の解像度は1/4倍に落ちる。RGB画像に対する距離データの欠損部は、周辺距離画像の平均値により補間して使用する。補間の方法については後述する。
FIG. 14 shows a wiring diagram in the case where the charge storage unit is used in common.
In the case of FIG. 14, the pixel size of the distance image is increased to four times the area of the RGB image or NIR image, and the amount of light received can be increased accordingly.
On the other hand, the resolution of the distance image is reduced to ¼ times that of the RGB image or NIR image. The missing portion of the distance data for the RGB image is used by interpolating with the average value of the peripheral distance image. An interpolation method will be described later.

距離測定や生体検出を行い、RGB画像や近赤外光画像を取得する際、RGB用フォトセンサを使用するRGB画像の取得と、NIRセンサ部を使用する距離測定、生体検出、近赤外光画像の3動作の1つは同時に実行することが可能である。NIRセンサ部を使用する上記3動作の複数を行うためには、時系列で順番に動作させる必要がある。   When performing distance measurement and biological detection to acquire RGB images and near-infrared light images, acquisition of RGB images using RGB photosensors, distance measurement using NIR sensor unit, biological detection, near-infrared light One of the three image operations can be performed simultaneously. In order to perform a plurality of the above three operations using the NIR sensor unit, it is necessary to operate them in time series.

[データ補間方法]
次に距離画像のデータ補間方法について説明する。
共通電荷蓄積部41Cを使用して距離測定を行う場合、RGB画像、NIR画像、生体検出画像に対して、距離画像の解像度が低くなる。距離画像の解像度が低くなる分は、複数のエリアの平均値を計算して補間する。
[Data interpolation method]
Next, a data interpolation method for the distance image will be described.
When distance measurement is performed using the common charge storage unit 41C, the resolution of the distance image is lower than that of the RGB image, NIR image, and living body detection image. For the lower resolution of the distance image, the average value of a plurality of areas is calculated and interpolated.

図15に示す画素配列を例に挙げる。図16〜図19は補間手法の説明図である。
距離測定画像は反射光検出であるため画素ごとのデータ量が少ないため、ここでは2×2のデータ単位に合成される。この合成は、図14の構成を用いると簡単に行える。
The pixel arrangement shown in FIG. 15 is taken as an example. 16 to 19 are explanatory diagrams of the interpolation method.
Since the distance measurement image is reflected light detection, the amount of data for each pixel is small, and therefore, the distance measurement image is synthesized in 2 × 2 data units here. This synthesis can be easily performed using the configuration shown in FIG.

図16のように、RGB画像、NIR画像、生体検出画像のエリア1と距離測定エリア(NIR_1)が一致している場合は、エリア1の距離データはNIR_1の測定値になる。
図17のように、RGB画像、NIR画像、生体検出画像のエリア2と一致した距離測定エリアがなく、2つの距離測定エリア(NIR_1とNIR_3)にまたがっている場合は、2つの距離測定エリアの出力を平均した平均値を距離データとして与える。エリア2の距離データは距離データ(NIR_1+NIR_3)の半分になる。
As shown in FIG. 16, when the area 1 of the RGB image, the NIR image, and the living body detection image and the distance measurement area (NIR_1) match, the distance data of the area 1 becomes the measurement value of NIR_1.
As shown in FIG. 17, when there is no distance measurement area that coincides with the area 2 of the RGB image, NIR image, and living body detection image and the distance measurement area spans two distance measurement areas (NIR_1 and NIR_3), the two distance measurement areas An average value obtained by averaging the outputs is given as distance data. The distance data of area 2 is half of the distance data (NIR_1 + NIR_3).

図18の場合も、図17と同様であり、エリア3の距離データは距離データ(NIR_1+NIR_2)の半分になり、これをエリア3の距離データとする。
図19のように、RGB画像、NIR画像、生体検出画像のエリア2と一致した距離測定エリアがなく、4つの距離測定エリア(NIR_1〜4)にまたがっている場合は、4つの距離測定エリアの出力を平均した平均値を距離データとする。エリア4の距離データは距離データ(NIR_1+NIR_2+NIR_3+NIR_4)の1/4であり、これがエリア4の距離データとなる。
以上のやり方で、距離データの欠損部に関して、データ補間を行う。
The case of FIG. 18 is the same as that of FIG. 17, and the distance data of area 3 is half of the distance data (NIR_1 + NIR_2), and this is used as the distance data of area 3.
As shown in FIG. 19, when there is no distance measurement area that coincides with area 2 of the RGB image, NIR image, and living body detection image, and it spans four distance measurement areas (NIR_1 to 4), the four distance measurement areas The average value obtained by averaging the outputs is used as distance data. The distance data of area 4 is 1/4 of the distance data (NIR_1 + NIR_2 + NIR_3 + NIR_4), and this becomes the distance data of area 4.
In the above manner, data interpolation is performed for the missing portion of the distance data.

<7.第7の実施形態>
本発明の第7の実施形態について説明する。
第7の実施形態が第6の実施形態と異なるのは、撮像デバイスの光学フィルタとフォトセンサ構造である。第6の実施形態(図13、図14)では撮像デバイス3のカラーフィルタ32に赤、緑、青の原色系のものを用いた。
これに対し、第7の実施形態では、図8(A)の補色系カラーフィルタを基本として、図8(B)のように近赤外(NIR)の波長も透過する特性も与えたものを用いる。
フォトセンサ34の構成は図8(B)と同じであり、画素回路層33の構成は図13と同じである。
<7. Seventh Embodiment>
A seventh embodiment of the present invention will be described.
The seventh embodiment differs from the sixth embodiment in the optical filter and photosensor structure of the imaging device. In the sixth embodiment (FIGS. 13 and 14), the color filters 32 of the imaging device 3 are those of primary colors of red, green, and blue.
On the other hand, the seventh embodiment is based on the complementary color filter of FIG. 8A, and also has a characteristic of transmitting near-infrared (NIR) wavelengths as shown in FIG. 8B. Use.
The configuration of the photosensor 34 is the same as that in FIG. 8B, and the configuration of the pixel circuit layer 33 is the same as that in FIG.

図20に、4つの画素につき電荷蓄積部を共通で使用する場合の第7の実施形態に関わる配線図を示す。
図9を用いて既に述べたように、シアン(Cy)のフィルタ部はB+G+NIRの透過特性をもち、この特性をもつ画素からは、図20に示すようにB,G,NIRの各画素データが分離して出力される。また、マゼンタ(Mg)のフィルタ部はB+R+NIRの透過特性をもつため、その特性をもつ画素からはB,R,NIRの各画素データが分離して出力される。同様に、黄(Ye)のフィルタ部はG+R+NIR、緑(G)のフィルタ部はG+NIRの透過特性をもつため、それぞれの画素からはG,R,NIRの画素データと、G,NIRの画素データが分離して出力される。
このような色ごとの受光とそのセンサ構造については図9の説明で述べたので省略する。
FIG. 20 shows a wiring diagram according to the seventh embodiment in the case where the charge storage unit is commonly used for four pixels.
As already described with reference to FIG. 9, the cyan (Cy) filter unit has a transmission characteristic of B + G + NIR, and each pixel data of B, G, NIR is obtained from a pixel having this characteristic as shown in FIG. Output separately. Further, since the magenta (Mg) filter section has a transmission characteristic of B + R + NIR, each pixel data of B, R, NIR is separated and output from a pixel having the characteristic. Similarly, since the yellow (Ye) filter unit has G + R + NIR and the green (G) filter unit has G + NIR transmission characteristics, G, R, NIR pixel data and G, NIR pixel data are obtained from each pixel. Are output separately.
Such light reception for each color and its sensor structure have been described in the description of FIG.

本実施形態においても、第6の実施形態と同様に、各画素の混合されたR、G、Bを各々RGB分離して出力するフォトセンサから取得する。それらの同じ色の信号(例えば、RはR同士)を足し算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。
NIRフォトセンサからの検出信号の扱いは、第1および第6の実施形態と同様である。また、補間手法も、図15から図19に示すものとフィルタ特性を表す符号が混色系対応とすれば、これらの図をそのまま用いることができ、手法自体も同じであるため、ここでの説明を省略する。
第7の実施形態は、第6の実施形態と比較して、RGBの光量が2倍に増えるという利点と、3層構造になる分、製造工程が増えるという不利な点がある。
Also in the present embodiment, as in the sixth embodiment, the mixed R, G, and B of each pixel are obtained from a photosensor that separates and outputs each RGB. The signals of the same color (for example, R is R) are added to convert them into RGB signals, which are used as normal RGB color images.
The detection signal from the NIR photosensor is handled in the same manner as in the first and sixth embodiments. Also, the interpolation method can be used as it is if the codes shown in FIG. 15 to FIG. 19 and the codes representing the filter characteristics correspond to the mixed color system, and the method itself is the same. Is omitted.
Compared with the sixth embodiment, the seventh embodiment has an advantage that the amount of RGB light is doubled and a disadvantage that the manufacturing process is increased by the three-layer structure.

<8.第8の実施形態>
本発明の第8の実施形態について説明する。
第7の実施形態と異なるのは、撮像デバイスのフォトセンサ構造である。
カラーフィルタは補色系カラーフィルタを用い、第7の実施形態と同様にシアン(Cy)はCy+NIR(B+G+NIR)、マゼンタ(Mg)はMg+NIR(B+R+NIR)、黄(Ye)はYe+NIR(G+R+NIR)、緑(G)はG+NIRの透過特性をもつ。
フォトセンサ構造で第7の実施形態と異なるのは、可視光を1層で検出する点である。表面に近いCy、Mg、Ye、Gの可視光を検出する層と、深い位置に形成されたNIRを検出する層で構成され、合計2層の電荷蓄積層(n型層)構造になっている。この検出構造は、図12を用いて既に説明したことから、ここでの図示を省略する。
一般的な撮像デバイスでも、Cy、Mg、Ye、Gは1層のフォトセンサで検出しており、実績がある方法である。
<8. Eighth Embodiment>
An eighth embodiment of the present invention will be described.
The difference from the seventh embodiment is the photosensor structure of the imaging device.
As in the seventh embodiment, cyan (Cy) is Cy + NIR (B + G + NIR), magenta (Mg) is Mg + NIR (B + R + NIR), yellow (Ye) is Ye + NIR (G + R + NIR), and green (Y). G) has G + NIR transmission characteristics.
The photo sensor structure is different from the seventh embodiment in that visible light is detected by one layer. It is composed of a layer that detects visible light of Cy, Mg, Ye, and G close to the surface and a layer that detects NIR formed at a deep position, resulting in a total of two charge storage layer (n-type layer) structures. Yes. Since this detection structure has already been described with reference to FIG. 12, illustration is omitted here.
Even in a general imaging device, Cy, Mg, Ye, and G are detected by a single-layer photosensor, which is a proven method.

各画素のCy、Mg、Ye、Gをフォトセンサから検出し、それらを演算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。演算方法は一般的な補色系カラーフィルタを用いた撮像装置と同様である。
NIRフォトセンサからの検出信号の扱いは、実施形態1と同様である。第7の実施形態と比較して、フォトセンサが3層から2層になり製造が簡単になるという利点と、可視光がCy、Mg、Ye、Gで検出されるので、検出後にRGBに分光するための演算が必要という不利な点がある。
Cy, Mg, Ye, and G of each pixel are detected from the photosensor, are converted to RGB signals by calculating them, and are used as a normal RGB color image. The calculation method is the same as that of an image pickup apparatus using a general complementary color filter.
The detection signal from the NIR photosensor is handled in the same manner as in the first embodiment. Compared with the seventh embodiment, the advantage is that the photosensor is changed from three layers to two layers and manufacturing is simplified, and visible light is detected by Cy, Mg, Ye, and G. There is a disadvantage in that it requires an operation to do.

<9.第9〜第11の実施形態>
以下の3つの実施形態は、第6〜第8の実施形態の変形に関する。この変形は、図6、図9、図12に示す他の実施形態への適用も可能である。
図21に、第9の実施形態に関わる撮像デバイス3の画素アレイにおける断面構成を模式的に示す。図22には、4つの画素につき電荷蓄積部を共通で使用する場合の配線図を示す。以下、図21および図22を用いて主に第9の実施形態で、この変形の内容を説明する。
本発明の第9の実施形態が第6の実施形態および図6に関わる第1の実施形態と異なるのは、撮像デバイスのフォトセンサ構造である。カラーフィルタは原色系カラーフィルタを用い、第1の実施形態と同様に赤(R)はR+NIR、緑(G)はG+NIR、青(B)はB+NIRの透過特性をもつ。
<9. Ninth to eleventh embodiments>
The following three embodiments relate to variations of the sixth to eighth embodiments. This modification can also be applied to the other embodiments shown in FIGS. 6, 9, and 12.
FIG. 21 schematically illustrates a cross-sectional configuration of the pixel array of the imaging device 3 according to the ninth embodiment. FIG. 22 shows a wiring diagram in the case where the charge storage unit is commonly used for four pixels. The contents of this modification will be described below mainly in the ninth embodiment with reference to FIGS. 21 and 22.
The ninth embodiment of the present invention differs from the sixth embodiment and the first embodiment related to FIG. 6 in the photosensor structure of the imaging device. As the color filter, a primary color filter is used, and red (R) has transmission characteristics of R + NIR, green (G) has G + NIR, and blue (B) has transmission characteristics of B + NIR, as in the first embodiment.

フォトセンサ構造での相違点は、NIRフォトセンサの構造である。第6の実施形態等では、各画素に1つずつNIR用検出用フォトセンサが配置され電荷蓄積部41にて複数のNIRフォトセンサから電荷を集める構造を有する。
これに対し、第9の実施形態では、図21に示すように、第6の実施形態では複数の画素でNIRフォトセンサ自体が一体化され、複数の画素にまたがって面積の大きなNIRフォトセンサが形成されている。具体的には、符号71で示す第1層目のn型層が、3画素共通な大きな面積で形成されている。
この点以外のフォトセンサ構造と、光学フィルタの構成(波長透過特性)に変更はない。
The difference in the photosensor structure is the structure of the NIR photosensor. In the sixth embodiment, one NIR detection photosensor is arranged for each pixel, and the charge storage unit 41 collects charges from a plurality of NIR photosensors.
On the other hand, in the ninth embodiment, as shown in FIG. 21, in the sixth embodiment, the NIR photosensor itself is integrated with a plurality of pixels, and an NIR photosensor having a large area extending over the plurality of pixels is provided. Is formed. Specifically, the first n-type layer denoted by reference numeral 71 is formed with a large area common to three pixels.
There is no change in the photosensor structure and the configuration of the optical filter (wavelength transmission characteristics) other than this point.

各画素の第2層のセンサ部は、既出の実施形態と同様に、赤、緑、青(RGB)を検出するものであり、第2層のセンサ部(n型層)からの検出信号は、通常のカラー画像(RGB画像)として利用される。
RGGBの4画素で共通の大面積の第1層のセンサ部は、NIRを検出するものであり、第1層のセンサ部からの検出信号は、距離測定と生体検出と近赤外光画像に利用される。
The sensor part of the second layer of each pixel detects red, green, and blue (RGB) as in the previous embodiments, and the detection signal from the sensor part (n-type layer) of the second layer is It is used as a normal color image (RGB image).
The first layer sensor unit having a large area common to the four pixels of RGGB detects NIR, and detection signals from the first layer sensor unit are used for distance measurement, living body detection, and near-infrared light image. Used.

前述したように、NIRフォトセンサは複数のRGBの複数の画素にわたって配置されており、RGBの複数の画素を透過してきたNIR光を検出する。
第1層のセンサ部には、各画素共通に使用する複数の共通電荷蓄積部41Cがスイッチ43を介して接続されている。このスイッチ43を制御することで、第1層のセンサ部(厳密には大面積のn型ウェル37)から出力される電荷を複数の電荷蓄積部へ移すことが可能になっている(図22参照)。
第9の実施形態では、第6の実施形態と比較して、フォトセンサが電荷蓄積部を含む出力部40の構成が簡素化される利点と、NIR画像、生体検出の解像度が下がる、RGB画像に対してデータ補間が必須になる等の不利な点がある。
As described above, the NIR photosensor is arranged over a plurality of RGB pixels, and detects NIR light transmitted through the RGB pixels.
A plurality of common charge storage units 41 </ b> C used in common for each pixel are connected to the first layer sensor unit via a switch 43. By controlling the switch 43, it is possible to transfer charges output from the first layer sensor unit (strictly, the n-type well 37 having a large area) to a plurality of charge storage units (FIG. 22). reference).
In the ninth embodiment, compared with the sixth embodiment, the advantage is that the configuration of the output unit 40 including the charge storage unit of the photosensor is simplified, and the resolution of the NIR image and the living body detection is reduced. However, there is a disadvantage that data interpolation is essential.

図23と図24に、第10の実施形態に関わり、図21と図22に対応した模式断面図と配線図を示す。
第10の実施形態では、図21と同様に、n型ウェル37(第1層のセンサ部のn型層であるn型ウェル37)が4画素共通に広い面積で形成されている以外は、フォトセンサ構造が第7の実施形態および図9と同じ構成となっている。画素回路層33の構成は、第9の実施形態と同様である。
また、効果および利点と不利な点も、第9の実施形態と同様である。
23 and 24 are schematic cross-sectional views and wiring diagrams corresponding to FIGS. 21 and 22 relating to the tenth embodiment.
In the tenth embodiment, as in FIG. 21, except that the n-type well 37 (the n-type well 37, which is the n-type layer of the first layer sensor portion) is formed in a large area common to four pixels, The photosensor structure is the same as that of the seventh embodiment and FIG. The configuration of the pixel circuit layer 33 is the same as that of the ninth embodiment.
The effects, advantages, and disadvantages are the same as in the ninth embodiment.

図25と図26に、第11の実施形態に関わり、図21と図22に対応した模式断面図と配線図を示す。
第11の実施形態では、図21と同様に、n型ウェル37(第1層のセンサ部のn型層であるn型ウェル37)が4画素共通に広い面積で形成されている以外は、フォトセンサ構造が第8の実施形態および図12と同じ構成となっている。画素回路層33の構成は、第9の実施形態と同様である。また、効果および利点と不利な点も、第9の実施形態と同様である。
25 and 26 are schematic cross-sectional views and wiring diagrams corresponding to FIGS. 21 and 22 relating to the eleventh embodiment.
In the eleventh embodiment, as in FIG. 21, except that the n-type well 37 (the n-type well 37, which is the n-type layer of the first layer sensor portion) is formed in a large area common to four pixels, The photosensor structure is the same as that of the eighth embodiment and FIG. The configuration of the pixel circuit layer 33 is the same as that of the ninth embodiment. The effects, advantages, and disadvantages are the same as in the ninth embodiment.

なお、以上の第9〜第11の実施形態のように、第1層のNIRセンサ部の面積を大面積とすることは、RGGBやCyYeMgG等の色配列の基本単位(本例では4画素)に限定する必要はない。この色配列の基本単位の複数倍の大きさまでNIRセンサ部の大きさを拡張してNIR光の検出単位を構成してもよい。   As in the above ninth to eleventh embodiments, increasing the area of the NIR sensor portion of the first layer is a basic unit of color arrangement such as RGGB or CyYeMgG (four pixels in this example). It is not necessary to limit to. The NIR light detection unit may be configured by extending the size of the NIR sensor unit to a size multiple of the basic unit of the color array.

以上の第1〜第11に関わる実施形態により、距離画像センサ、生体検出センサ、RGB画像、近赤外光画像を1つのカメラシステムで実現が可能になる。また、そのための撮像デバイスを新たに提供できる。   According to the first to eleventh embodiments, the distance image sensor, the living body detection sensor, the RGB image, and the near-infrared light image can be realized by one camera system. In addition, an imaging device for that purpose can be newly provided.

この発明は、一般的なRGB画像や近赤外光画像のビデオカメラやデジタルカメラ、インターネットに繋げるWebカメラにも適用できる。また、モーション認識やジェスチャー認識といった動作を利用したパーソナルコンピュータやゲームのコントローラ分野でも利用が可能である。
他にも人の顔や手を認識したセキュリティ判別の分野でも利用が可能である。その他、障害物の認識や、物体認識の用途でロボット・生産設備の分野でも利用が可能である。
The present invention can also be applied to general RGB image and near-infrared light image video cameras and digital cameras, and Web cameras connected to the Internet. It can also be used in the field of personal computers and game controllers using operations such as motion recognition and gesture recognition.
It can also be used in the field of security discrimination that recognizes human faces and hands. In addition, it can be used in the field of robots and production equipment for obstacle recognition and object recognition.

以上の第1から第11の実施形態によれば、以下の効果が得られる。
以前より、距離測定と近赤外光画像、生体検出と近赤外光画像の各々を1つの撮像デバイスで両立するものは存在する。
According to the first to eleventh embodiments, the following effects can be obtained.
In the past, there has been a single imaging device that combines distance measurement and near-infrared light image, living body detection and near-infrared light image.

しかし、用途によっては(例えばモーション認識、ジェスチャー認識、物や人の顔や手の3D画像認識等)、距離測定とRGB画像、生体検出とRGB画像、生体検出と距離測定、生体検出と距離測定とRGB画像が必要とされることがある。この場合、RGBカメラとのそれらの2カメラ構成でしか実現できない。
2カメラ構成の場合、視点が異なるため、被写体の位置によりカメラ間の位置ずれが生じる、2カメラのフレーム同期が必要になる、ズームを行いたい場合にカメラの同期制御が必要になり複雑な構成になる、等の問題が生じる。
2カメラ構成の場合、視点が異なるため、被写体の位置によっては2カメラ間の視差により2つの画像に位置ずれが生じる、2カメラ間でフレーム同期制御が必要になる、ズームを行いたい場合に2カメラ間で視野の同期制御が必要になり複雑な構成になる、等の問題が生じる。
本発明の第1から第11の実施形態では、撮像デバイスを1つで実現することで前記問題が解消される。
However, depending on the application (for example, motion recognition, gesture recognition, 3D image recognition of objects, human faces, and hands), distance measurement and RGB image, biological detection and RGB image, biological detection and distance measurement, biological detection and distance measurement And RGB images may be required. In this case, it can be realized only by the two-camera configuration with the RGB camera.
In the case of the two-camera configuration, since the viewpoints are different, positional displacement between the cameras occurs depending on the position of the subject. The frame synchronization of the two cameras is necessary. When zooming is desired, the camera synchronization control is necessary and the complicated configuration. Problems arise.
In the case of the two-camera configuration, since the viewpoints are different, the two images may be misaligned due to the parallax between the two cameras, and frame synchronization control is required between the two cameras. Problems such as the need for synchronous control of the field of view between the cameras and a complicated configuration arise.
In the first to eleventh embodiments of the present invention, the above problem is solved by realizing a single imaging device.

次に、取得した情報の処理例について説明する。
距離測定結果とRGB画像を取得し、距離情報によってRGB画像の画素を選択することで、例えば画素単位で視点のずれがない被写体のみの抽出が可能である。
生体検出とRGB画像を取得し、生物体の検出情報によってRGB画像の画素を選択することで、例えば顔や手のみのカラー画像抽出が可能である。
生体検出と距離測定を取得し、生体検出画像に距離情報を加えることで、顔や手の3次元情報の抽出が可能である。
生体検出と距離測定とRGB画像を取得し、生物体の検出情報によってRGB画像の画素を選択し、距離情報を加えることで、顔や手の3次元カラー情報の抽出が可能である。
Next, a processing example of the acquired information will be described.
By acquiring the distance measurement result and the RGB image, and selecting the pixel of the RGB image based on the distance information, it is possible to extract only the subject having no viewpoint deviation in pixel units, for example.
For example, it is possible to extract a color image of only a face or a hand by acquiring a living body detection and an RGB image and selecting a pixel of the RGB image based on detection information of the living organism.
By acquiring biological detection and distance measurement and adding distance information to the biological detection image, it is possible to extract three-dimensional information of the face and hand.
It is possible to extract three-dimensional color information of the face and hands by acquiring a living body detection, distance measurement, and an RGB image, selecting a pixel of the RGB image according to the detection information of the organism, and adding the distance information.

本発明が考案される以前にも、RGB画像と近赤外光画像を両立する技術自体は存在していた。
1つは赤外光カットフィルタを機構的に出し入れして切り替えるタイプで、カムコーダ等で広く適用されている。
もう1つは、赤外光カットフィルタの切り替えは不要な方法である。この方法では、R+NIR,G+NIR,B+NIR,NIRの光学フィルタで画像を取得する。R+NIR,G+NIR,B+NIRの検出結果からNIR成分を削除してRGB信号を取得し、同時にNIRフィルタの画素からNIR信号を取得する。
Even before the present invention was devised, there was a technology itself that made RGB images and near-infrared light images compatible.
One is a type in which the infrared light cut filter is switched in and out mechanically, and is widely applied in camcorders and the like.
The other is a method that does not require switching of the infrared light cut filter. In this method, an image is acquired with optical filters of R + NIR, G + NIR, B + NIR, and NIR. The NIR component is deleted from the detection results of R + NIR, G + NIR, and B + NIR to obtain RGB signals, and at the same time, NIR signals are obtained from the pixels of the NIR filter.

このうち後者は、カラーフィルタのベイヤー配列からGを1つ除くことにより、解像度が落ちるという不利な点がある。
本発明の適用により、赤外光カットフィルタを機構的に切り替える必要がなく、解像度も落ちない、RGB画像と近赤外光画像の両立が可能になる。
また、本発明の適用により、距離画像センサを含む撮像デバイスの画素小型化で問題となる、距離測定の際の光量不足に対し、発光光量を増やすことなく、面積が1/4の画素小型化に対応する手法、撮像デバイス、撮像装置が提供可能になる。
Of these, the latter has the disadvantage of reducing the resolution by removing one G from the Bayer array of color filters.
By applying the present invention, it is not necessary to mechanically switch the infrared light cut filter, and the RGB image and the near-infrared light image can be compatible without reducing the resolution.
In addition, the application of the present invention reduces the size of a pixel with an area of ¼ without increasing the amount of emitted light for the shortage of light in distance measurement, which is a problem in pixel downsizing of an imaging device including a distance image sensor. It is possible to provide a method, an imaging device, and an imaging apparatus corresponding to

1…撮像装置、2…発光部、2A,2B…第1および第2の発光部、3…撮像デバイス、4…レンズ、5…信号処理部、6…制御部、32…光学フィルタ、33…画素回路層、34…フォトセンサ、35…半導体基板、36、37…n型層(n型ウェル等)、40…出力部、41…電荷蓄積部、41C…共通電荷蓄積部、41X…専用電荷蓄積部、42…出力回路、43…スイッチ。   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Light emission part, 2A, 2B ... 1st and 2nd light emission part, 3 ... Imaging device, 4 ... Lens, 5 ... Signal processing part, 6 ... Control part, 32 ... Optical filter, 33 ... Pixel circuit layer, 34 ... photo sensor, 35 ... semiconductor substrate, 36, 37 ... n-type layer (n-type well, etc.), 40 ... output unit, 41 ... charge storage unit, 41C ... common charge storage unit, 41X ... dedicated charge Accumulator, 42 ... output circuit, 43 ... switch.

Claims (21)

画像光が入射する側に光学フィルタが配設された画素アレイを備え、
前記画素アレイの画素が、
原色系または補色系の複数色のうち、少なくとも1色に対応した波長の可視光、および、可視光より波長が長い非可視光を透過する第1フィルタ領域と、
前記第1フィルタ領域からの前記可視光に主感度を有する可視光センサ部と、
前記可視光センサ部よりも前記画像光が進入する側から遠い位置に形成され、前記第1フィルタ領域からの前記非可視光に主感度を有する非可視光センサ部と、
を有し、
前記可視光センサ部の光電変換により発生する可視光画像の信号と前記非可視光センサ部の光電変換により発生する非可視光画像の信号とを分離して出力する出力部が、前記画素アレイの画素ごとに設けられ、または、出力信号線に共通接続された複数の画素で共有して設けられている
撮像デバイス。
A pixel array in which an optical filter is disposed on the side on which image light is incident;
The pixels of the pixel array are
A first filter region that transmits visible light having a wavelength corresponding to at least one of a plurality of primary colors or complementary colors, and invisible light having a wavelength longer than visible light;
A visible light sensor unit having a main sensitivity to the visible light from the first filter region;
A non-visible light sensor unit which is formed at a position farther from the side where the image light enters than the visible light sensor unit, and has a main sensitivity to the non-visible light from the first filter region;
Have
An output unit that separates and outputs a signal of a visible light image generated by photoelectric conversion of the visible light sensor unit and a signal of a non-visible light image generated by photoelectric conversion of the invisible light sensor unit is provided in the pixel array. An imaging device provided for each pixel or shared by a plurality of pixels commonly connected to an output signal line.
前記出力部は、
複数の電荷蓄積部と、
前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、
を有する請求項1に記載の撮像デバイス。
The output unit is
A plurality of charge storage units;
A switch that distributes the generated charges of the invisible light sensor unit to the plurality of charge storage units;
The imaging device according to claim 1, comprising:
前記電荷蓄積部が各出力部内にN×M個(N,Mはそれぞれ2以上の整数)設けられ、
前記スイッチを制御して、前記非可視光画像の画素配列におけるN行、M列分の受光電荷をまとめて検出単位として出力する制御を行う制御回路、または、該制御の信号を外部から入力して前記スイッチに印加するための端子を有する
請求項2に記載の撮像デバイス。
N × M charge storage units are provided in each output unit (N and M are each an integer of 2 or more),
A control circuit that controls the switch so as to collectively output N rows and M columns of received charges in the pixel arrangement of the non-visible light image as a detection unit, or input a control signal from the outside The imaging device according to claim 2, further comprising a terminal for applying to the switch.
前記非可視光センサ部は、前記可視光センサ部の画素配列におけるN行、M列分(NとMはそれぞれ2以上の整数)の大きさを有する
請求項1に記載の撮像デバイス。
The imaging device according to claim 1, wherein the invisible light sensor unit has a size of N rows and M columns (N and M are each an integer of 2 or more) in the pixel array of the visible light sensor unit.
前記出力部は、
複数の電荷蓄積部と、
前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、
を有し、
前記スイッチを制御して、前記非可視光画像の画素配列のN行、M列分の大きさの前記非可視光センサ部の受光電荷をさらに複数にまとめて検出単位として出力する制御を行う制御回路、または、該制御の信号を外部から入力して前記スイッチに印加するための端子を
さらに有する請求項4に記載の撮像デバイス。
The output unit is
A plurality of charge storage units;
A switch that distributes the generated charges of the invisible light sensor unit to the plurality of charge storage units;
Have
Control for controlling the switch so as to further output a plurality of received charges of the non-visible light sensor unit having a size corresponding to N rows and M columns of the pixel arrangement of the non-visible light image as a detection unit. The imaging device according to claim 4, further comprising a circuit or a terminal for inputting the control signal from the outside and applying the signal to the switch.
前記複数の電荷蓄積部は、
複数の前記非可視光センサ部との接続が前記スイッチによって制御され、該スイッチを介して前記複数の非可視光センサ部の全てから受光電荷の供給を受ける2以上の共通電荷蓄積部と、
前記複数の非可視光センサ部の何れか1つとの接続が他の前記スイッチによって制御され、対応するスイッチを介して対応する非可視光センサ部から受光電荷の供給を受ける2以上の専用電荷蓄積部と、
を含む請求項3または5に記載の撮像デバイス。
The plurality of charge storage units include
Two or more common charge storage units that are connected to a plurality of the invisible light sensor units by the switch and receive the received light charges from all of the plurality of invisible light sensor units via the switch,
Connection to any one of the plurality of non-visible light sensor units is controlled by the other switch, and two or more dedicated charge accumulations are supplied with received light charges from the corresponding non-visible light sensor units via the corresponding switches. And
The imaging device according to claim 3 or 5, comprising:
前記第1フィルタ領域が複数色の可視光を透過可能に構成され、
前記複数色の可視光を光電変換する前記可視光センサ部は、異なる波長域に主感度を有する複数のセンサ部を、波長が長い波長域に対応したセンサ部ほど前記画像光が進入する側から遠い位置に配置して構成している
請求項1〜5の何れかに記載の撮像デバイス。
The first filter region is configured to transmit visible light of a plurality of colors;
The visible light sensor unit that photoelectrically converts the visible light of the plurality of colors includes a plurality of sensor units having main sensitivities in different wavelength regions, from a side where the image light enters toward a sensor unit corresponding to a wavelength region having a long wavelength. The imaging device according to claim 1, wherein the imaging device is arranged at a distant position.
前記第1フィルタ領域が原色系または補色系の3色あるいは4色の可視光を透過可能に構成され、
前記3色あるいは4色の可視光を光電変換する前記可視光センサ部は、異なる波長域に主感度を有する3つまたは4つのセンサ部を、波長が長い波長域に対応したセンサ部ほど前記画像光が進入する側から遠い位置に配置して構成している
請求項7に記載の撮像デバイス。
The first filter region is configured to transmit visible light of primary colors or complementary colors of three colors or four colors;
The visible light sensor unit that photoelectrically converts the three or four colors of visible light includes three or four sensor units having main sensitivities in different wavelength regions, and the sensor unit corresponding to a wavelength region having a longer wavelength is the image. The imaging device according to claim 7, wherein the imaging device is arranged at a position far from a light entering side.
前記複数色の可視光を光電変換する前記可視光センサ部は、前記複数色の可視光に対応した可視光域に感度を有する単一のセンサ部である
請求項1〜5の何れかに記載の撮像デバイス。
The said visible light sensor part which photoelectrically converts the said multiple colors visible light is a single sensor part which has a sensitivity in the visible light range corresponding to the said multiple colors visible light. Imaging device.
前記光学フィルタは、原色系の複数色で最も波長が長い色、または、補色系の複数色で最も波長が長い色に対応した波長の可視光を透過し、前記非可視光を遮断する第2フィルタ領域を有し、
前記画素アレイの前記第2フィルタ領域を含む画素に、前記第2フィルタ領域からの前記可視光に主感度を有する可視光センサ部を含む
請求項1〜6の何れかに記載の撮像デバイス。
The optical filter transmits a visible light having a wavelength corresponding to a color having a longest wavelength among a plurality of primary colors or a color having a longest wavelength among a plurality of colors of a complementary color, and blocks the invisible light. Has a filter area,
The imaging device according to claim 1, wherein a pixel including the second filter region of the pixel array includes a visible light sensor unit having main sensitivity to the visible light from the second filter region.
画像光が入射する側に光学フィルタが配設された画素アレイを備える撮像デバイスと、
可視光の波長領域より長波長側に単一または互いに異なる複数の波長領域をもつ少なくとも1つの非可視光を発光して投射し、投射光の一部が被写体で反射した戻り光が前記撮像デバイスに到達するように仕向けられた発光部と、
前記戻り光を前記撮像デバイスに結像させるレンズと、
前記発光部の発光タイミングを制御する制御部と、
前記撮像デバイスから出力される可視光画像の信号を処理する信号処理部と、
を有し、
前記画素アレイの画素が、
原色系または補色系の複数色のうち、少なくとも1色に対応した波長の可視光、および、可視光より波長が長い非可視光を透過する第1フィルタ領域と、
前記第1フィルタ領域からの前記可視光に主感度を有する可視光センサ部と、
前記可視光センサ部よりも前記画像光が進入する側から遠い位置に形成され、前記第1フィルタ領域からの前記非可視光に主感度を有する非可視光センサ部と、
を有し、
前記可視光センサ部の光電変換により発生する可視光画像の信号と前記非可視光センサ部の光電変換により発生する非可視光画像の信号とを分離して出力する出力部が、前記画素アレイの画素ごとに設けられ、または、出力信号線に共通接続された複数の画素で共有して設けられ、
前記信号処理部は前記可視光画像の信号を信号処理し、
前記信号処理部と前記制御部は、前記撮像デバイスの受光時間と近赤外光の発光を制御し、得られた前記非可視光画像の信号に基づいて、前記被写体までの距離を測定する演算処理と前記被写体の肌の画像を検出する生体検出の処理との少なくとも一方を実行する
撮像装置。
An imaging device including a pixel array in which an optical filter is disposed on a side on which image light is incident;
The imaging device emits and projects at least one invisible light having a plurality of wavelength regions that are single or different from each other on the longer wavelength side than the wavelength region of visible light, and a part of the projection light reflected by the subject is the imaging device. A light emitting part that is directed to reach
A lens for imaging the return light on the imaging device;
A control unit for controlling the light emission timing of the light emitting unit;
A signal processing unit that processes a signal of a visible light image output from the imaging device;
Have
The pixels of the pixel array are
A first filter region that transmits visible light having a wavelength corresponding to at least one of a plurality of primary colors or complementary colors, and invisible light having a wavelength longer than visible light;
A visible light sensor unit having a main sensitivity to the visible light from the first filter region;
A non-visible light sensor unit which is formed at a position farther from the side where the image light enters than the visible light sensor unit, and has a main sensitivity to the non-visible light from the first filter region;
Have
An output unit that separates and outputs a signal of a visible light image generated by photoelectric conversion of the visible light sensor unit and a signal of a non-visible light image generated by photoelectric conversion of the invisible light sensor unit is provided in the pixel array. Provided for each pixel or shared by a plurality of pixels commonly connected to the output signal line,
The signal processing unit performs signal processing on the signal of the visible light image,
The signal processing unit and the control unit control light reception time and near infrared light emission of the imaging device, and calculate a distance to the subject based on the obtained signal of the invisible light image An imaging apparatus that executes at least one of a process and a biometric detection process for detecting an image of the skin of the subject.
前記発光部は、1つの前記非可視光の発光と停止のタイミングを独立に制御可能に構成され、
前記出力部は、
複数の電荷蓄積部と、
前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、
前記複数の電荷蓄積部からの各蓄積電荷量に対応した複数の非可視光画像を出力する出力回路と、
を有し、
前記信号処理部および前記制御部は、前記撮像デバイスの受光時間、前記非可視光の発光と停止のタイミングに対して前記スイッチの切り替えタイミングを制御し、該制御により得られた前記複数の非可視光画像に基づいて、前記被写体までの距離を測定する演算処理を実行可能である
請求項11に記載の撮像装置。
The light emitting unit is configured to be able to independently control the timing of light emission and stop of the one invisible light,
The output unit is
A plurality of charge storage units;
A switch that distributes the generated charges of the invisible light sensor unit to the plurality of charge storage units;
An output circuit that outputs a plurality of non-visible light images corresponding to the respective accumulated charge amounts from the plurality of charge storage units;
Have
The signal processing unit and the control unit control a switching timing of the switch with respect to a light reception time of the imaging device, a timing of light emission and stop of the invisible light, and the plurality of invisibles obtained by the control The imaging device according to claim 11, wherein a calculation process for measuring a distance to the subject can be executed based on a light image.
前記発光部は、波長領域が異なる第1および第2の非可視光の発光と停止のタイミングを独立に制御可能に構成され、
前記出力部は、
複数の電荷蓄積部と、
前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、
前記複数の電荷蓄積部からの各蓄積電荷量に対応した複数の非可視光画像を出力する出力回路と、
を有し、
前記信号処理部および前記制御部は、前記撮像デバイスの受光時間、前記スイッチの切り替えタイミングおよび前記複数の近赤外光の発光と停止のタイミングを制御し、該制御により得られた前記複数の非可視光画像に基づいて、前記被写体の肌の画像を検出する生体検出処理を実行可能である
請求項11または12に記載の撮像装置。
The light emitting unit is configured to be capable of independently controlling the timing of light emission and stop of the first and second invisible light having different wavelength regions,
The output unit is
A plurality of charge storage units;
A switch that distributes the generated charges of the invisible light sensor unit to the plurality of charge storage units;
An output circuit that outputs a plurality of non-visible light images corresponding to the respective accumulated charge amounts from the plurality of charge storage units;
Have
The signal processing unit and the control unit control the light reception time of the imaging device, the switch switching timing, and the light emission and stop timings of the plurality of near-infrared light, and the plurality of non-lights obtained by the control are controlled. The imaging device according to claim 11 or 12, wherein a living body detection process for detecting an image of the skin of the subject can be executed based on a visible light image.
前記信号処理部および前記制御部は、前記撮像デバイスの前記戻り光の受光期間内に前記スイッチを第1の電荷蓄積部から第2の電荷蓄積部に切り替え、当該切り替えにより前記第1および第2の電荷蓄積部に振り分けられた前記戻り光の受光電荷量の比に基づいて、前記被写体までの距離を求める
請求項12に記載の撮像装置。
The signal processing unit and the control unit switch the switch from a first charge accumulation unit to a second charge accumulation unit within a light receiving period of the return light of the imaging device, and the first and second charge storage units are switched by the switching. The imaging apparatus according to claim 12, wherein a distance to the subject is obtained based on a ratio of received light amounts of the return light distributed to the charge storage unit.
前記信号処理部および前記制御部は、前記可視光画像の処理において前記被写体の画像内で距離測定範囲を設定し、設定した前記距離測定範囲に対し、前記撮像デバイスの画素アドレスが対応した前記非可視光画像の画像部分を用いて前記距離を測定する演算処理を実行する
請求項11,12または14に記載の撮像装置。
The signal processing unit and the control unit set a distance measurement range in the image of the subject in the processing of the visible light image, and the pixel address of the imaging device corresponds to the set distance measurement range. The imaging device according to claim 11, wherein the arithmetic processing for measuring the distance is performed using an image portion of a visible light image.
前記可視光画像の前記距離測定範囲に対応した非可視光画像が得られない場合、前記非可視光画像において前記距離測定範囲に画素アドレスで対応する非可視光画像部分に隣接する他の複数の非可視光画像部分からデータを取得し、取得した複数の非可視光画像部分のデータを補間処理し、前記演算処理に用いる非可視光画像の画像部分のデータを生成する
請求項15に記載の撮像装置。
When a non-visible light image corresponding to the distance measurement range of the visible light image is not obtained, a plurality of other non-visible light images adjacent to the non-visible light image portion corresponding to the distance measurement range by a pixel address in the non-visible light image. The data of the non-visible light image part which acquires data from a non-visible light image part, interpolates the data of the acquired several non-visible light image parts, and produces | generates the data of the image part of the non-visible light image used for the said calculation process. Imaging device.
前記発光部が発光する前記第1および第2の非可視光は、一方が生体の肌で主に吸収され他方が生体の肌で主に反射される異なる波長領域の非可視光であり、
前記信号処理部および前記制御部は、前記第1および第2の非可視光の各戻り光から得られた第1および第2の生体検出画像を、前記スイッチの切り替えによって第1および第2の電荷蓄積部に分離し、前記第1の電荷蓄積部から得られた第1の生体検出画像と、前記第2の電荷蓄積部から得られた第2の生体検出画像とのレベル差を画素ごとに求め、求めたレベル差が予め設定した閾値以上の前記非可視光画像の範囲を前記被写体の人肌範囲と認定し、当該人肌範囲と画素アドレスが対応する前記可視光画像の範囲を生体画像として抽出する
請求項13に記載の撮像装置。
The first and second invisible light emitted by the light emitting unit is invisible light in different wavelength regions, one of which is mainly absorbed by the skin of the living body and the other is mainly reflected by the skin of the living body,
The signal processing unit and the control unit are configured to switch the first and second living body detection images obtained from the first and second invisible return lights by switching the switches. A level difference between the first living body detection image obtained from the first charge storage unit and the second living body detection image obtained from the second charge storage unit is separated for each pixel. A range of the invisible light image in which the obtained level difference is equal to or greater than a preset threshold is recognized as a human skin range of the subject, and the visible light image range corresponding to the human skin range and a pixel address is defined as a living body. The imaging device according to claim 13, wherein the imaging device is extracted as an image.
前記撮像デバイスにおいて、
前記第1フィルタ領域が複数色の可視光を透過可能に構成され、
前記複数色の可視光を光電変換する前記可視光センサ部は、異なる波長域に主感度を有する複数のセンサ部を、波長が長い波長域に対応したセンサ部ほど前記画像光が進入する側から遠い位置に配置して構成している
請求項11〜17の何れかに記載の撮像装置。
In the imaging device,
The first filter region is configured to transmit visible light of a plurality of colors;
The visible light sensor unit that photoelectrically converts the visible light of the plurality of colors includes a plurality of sensor units having main sensitivities in different wavelength regions, from a side where the image light enters toward a sensor unit corresponding to a wavelength region having a long wavelength. The imaging device according to claim 11, wherein the imaging device is arranged at a distant position.
前記撮像デバイスにおいて、
前記第1フィルタ領域が原色系または補色系の3色あるいは4色の可視光を透過可能に構成され、
前記3色あるいは4色の可視光を光電変換する前記可視光センサ部は、異なる波長域に主感度を有する3つまたは4つのセンサ部を、波長が長い波長域に対応したセンサ部ほど前記画像光が進入する側から遠い位置に配置して構成している
請求項18に記載の撮像装置。
In the imaging device,
The first filter region is configured to transmit visible light of primary colors or complementary colors of three colors or four colors;
The visible light sensor unit that photoelectrically converts the three or four colors of visible light includes three or four sensor units having main sensitivities in different wavelength regions, and the sensor unit corresponding to a wavelength region having a longer wavelength is the image. The imaging device according to claim 18, wherein the imaging device is arranged at a position far from the light entering side.
前記撮像デバイスにおいて、
前記複数色の可視光を光電変換する前記可視光センサ部は、前記複数色の可視光に対応した広い可視光域に感度を有する単一のセンサ部である
請求項11〜17の何れかに記載の撮像装置。
In the imaging device,
The visible light sensor unit that photoelectrically converts the visible light of the plurality of colors is a single sensor unit having sensitivity in a wide visible light range corresponding to the visible light of the plurality of colors. The imaging device described.
前記光学フィルタは、原色系の複数色で最も波長が長い色、または、補色系の複数色で最も波長が長い色に対応した波長の可視光を透過し、前記非可視光を遮断する第2フィルタ領域を有し、
前記画素アレイの前記第2フィルタ領域を含む画素に、前記第2フィルタ領域からの前記可視光に主感度を有する可視光センサ部を含む
請求項11〜18の何れかに記載の撮像装置。
The optical filter transmits a visible light having a wavelength corresponding to a color having a longest wavelength among a plurality of primary colors or a color having a longest wavelength among a plurality of colors of a complementary color, and blocks the invisible light. Has a filter area,
The imaging device according to claim 11, wherein a pixel including the second filter region of the pixel array includes a visible light sensor unit having main sensitivity to the visible light from the second filter region.
JP2010116498A 2010-05-20 2010-05-20 Imaging device and imaging apparatus Pending JP2011243862A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010116498A JP2011243862A (en) 2010-05-20 2010-05-20 Imaging device and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010116498A JP2011243862A (en) 2010-05-20 2010-05-20 Imaging device and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2011243862A true JP2011243862A (en) 2011-12-01

Family

ID=45410195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010116498A Pending JP2011243862A (en) 2010-05-20 2010-05-20 Imaging device and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2011243862A (en)

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012029130A (en) * 2010-07-26 2012-02-09 Konica Minolta Opto Inc Imaging device and image input device
JP2013183460A (en) * 2012-03-01 2013-09-12 Omnivision Technologies Inc Circuit structure and method for flight time sensor
JP2013211836A (en) * 2012-03-01 2013-10-10 Nissan Motor Co Ltd Camera device and image processing method
KR20140111017A (en) * 2012-01-06 2014-09-17 마이크로소프트 코포레이션 Broadband imager
WO2014157086A1 (en) * 2013-03-25 2014-10-02 国立大学法人静岡大学 Imaging device
WO2014196216A1 (en) * 2013-06-05 2014-12-11 株式会社 東芝 Image sensor apparatus and method for manufacturing same
WO2014207983A1 (en) * 2013-06-27 2014-12-31 パナソニックIpマネジメント株式会社 Distance measuring device
JP2015050494A (en) * 2013-08-30 2015-03-16 日立オートモティブシステムズ株式会社 Imaging device
WO2015059897A1 (en) * 2013-10-23 2015-04-30 日本電気株式会社 Image pickup device, image pickup method, code type infrared cut filter, and code type particular-color cut filter
WO2015075926A1 (en) * 2013-11-20 2015-05-28 パナソニックIpマネジメント株式会社 Distance measurement and imaging system
WO2015098063A1 (en) * 2013-12-25 2015-07-02 Panasonic Intellectual Property Management Co., Ltd. Image output apparatus, image output method, and image output system, the image output comprising the detection of a specified substance in a predetermined region
WO2016017407A1 (en) * 2014-08-01 2016-02-04 シャープ株式会社 Laser rangefinder
JP2016024234A (en) * 2014-07-16 2016-02-08 キヤノン株式会社 Imaging apparatus
WO2016031128A1 (en) * 2014-08-27 2016-03-03 パナソニックIpマネジメント株式会社 Substance detection sensor, substance detection method, and substance detection system
US9380242B2 (en) 2013-10-25 2016-06-28 Samsung Electronics Co., Ltd. Image sensor and devices having the same
WO2016125602A1 (en) * 2015-02-05 2016-08-11 ソニー株式会社 Solid-state imaging element and electronic device
WO2016170833A1 (en) * 2015-04-24 2016-10-27 ソニー株式会社 Solid state imaging element, semiconductor device, and electronic instrument
JP2016220019A (en) * 2015-05-20 2016-12-22 日本放送協会 Imaging apparatus
JP2017505907A (en) * 2014-01-29 2017-02-23 エルジー イノテック カンパニー リミテッド Depth information extraction apparatus and method
KR101729563B1 (en) * 2015-02-13 2017-05-11 엘지전자 주식회사 Digital device and method for certifying body thereof
JP2017526945A (en) * 2014-06-18 2017-09-14 ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. Metal dielectric optical filter, sensor device, and manufacturing method
WO2017169122A1 (en) * 2016-03-30 2017-10-05 ソニー株式会社 Photoelectric conversion element and photoelectric conversion device
JP2017229001A (en) * 2016-06-24 2017-12-28 株式会社ニコン Imaging apparatus and distance measuring apparatus
WO2018040307A1 (en) * 2016-08-31 2018-03-08 上海依图网络科技有限公司 Vivo detection method and device based on infrared visible binocular image
US9996726B2 (en) 2013-08-02 2018-06-12 Qualcomm Incorporated Feature identification using an RGB-NIR camera pair
JP2018096988A (en) * 2016-12-15 2018-06-21 パナソニックIpマネジメント株式会社 Imaging device
WO2018116972A1 (en) * 2016-12-22 2018-06-28 日本電気株式会社 Image processing method, image processing device, and recording medium
JPWO2017038203A1 (en) * 2015-08-28 2018-07-05 富士フイルム株式会社 Projector device with distance image acquisition device and projection mapping method
US10197716B2 (en) 2012-12-19 2019-02-05 Viavi Solutions Inc. Metal-dielectric optical filter, sensor device, and fabrication method
JP2019023658A (en) * 2012-03-09 2019-02-14 株式会社半導体エネルギー研究所 Semiconductor device
US10222523B2 (en) 2012-12-19 2019-03-05 Viavi Solutions Inc. Sensor device including one or more metal-dielectric optical filters
JP2019060898A (en) * 2012-03-21 2019-04-18 株式会社半導体エネルギー研究所 Distance measurement device
JP2019086785A (en) * 2018-12-27 2019-06-06 株式会社ニコン Imaging element and imaging device
US10334185B2 (en) 2014-03-06 2019-06-25 Nec Corporation Image capturing device, signal separation device, and image capturing method
US10378955B2 (en) 2012-12-19 2019-08-13 Viavi Solutions Inc. Spectroscopic assembly and method
US10440292B2 (en) 2015-09-18 2019-10-08 Nec Corporation Color signal and near-infrared signal generated by using pattern information defining intensity-corresponding pattern
US10452894B2 (en) 2012-06-26 2019-10-22 Qualcomm Incorporated Systems and method for facial verification
US10863115B2 (en) 2016-06-24 2020-12-08 Nec Corporation Generation of visible and near-infrared images based on estimated incident light spectral characteristics and image capturing device spectral sensitivity characteristics
WO2020259128A1 (en) * 2019-06-28 2020-12-30 北京旷视科技有限公司 Liveness detection method and apparatus, electronic device, and computer readable storage medium
CN112788313A (en) * 2020-12-25 2021-05-11 RealMe重庆移动通信有限公司 Image sensor, imaging system and terminal
WO2021192459A1 (en) * 2020-03-23 2021-09-30 ソニーセミコンダクタソリューションズ株式会社 Image capturing device
WO2022059525A1 (en) * 2020-09-16 2022-03-24 ソニーグループ株式会社 Solid-state imaging device and recognition system
WO2022186074A1 (en) * 2021-03-05 2022-09-09 キヤノン株式会社 Measuring device, storage medium, manufacturing system, and article manufacturing method
WO2023013777A1 (en) * 2021-08-05 2023-02-09 株式会社小糸製作所 Gated camera, vehicular sensing system, and vehicular lamp

Cited By (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012029130A (en) * 2010-07-26 2012-02-09 Konica Minolta Opto Inc Imaging device and image input device
JP2015504249A (en) * 2012-01-06 2015-02-05 マイクロソフト コーポレーション Broadband imaging device
KR20140111017A (en) * 2012-01-06 2014-09-17 마이크로소프트 코포레이션 Broadband imager
KR102000321B1 (en) * 2012-01-06 2019-07-15 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Broadband imager
JP2013183460A (en) * 2012-03-01 2013-09-12 Omnivision Technologies Inc Circuit structure and method for flight time sensor
JP2013211836A (en) * 2012-03-01 2013-10-10 Nissan Motor Co Ltd Camera device and image processing method
US8686367B2 (en) 2012-03-01 2014-04-01 Omnivision Technologies, Inc. Circuit configuration and method for time of flight sensor
KR101465318B1 (en) * 2012-03-01 2014-12-04 옴니비전 테크놀러지즈 인코포레이티드 Circuit configuration and method for time of flight sensor
US9961276B2 (en) 2012-03-01 2018-05-01 Nissan Motor Co., Ltd. Camera apparatus and image processing method
JP2021076609A (en) * 2012-03-09 2021-05-20 株式会社半導体エネルギー研究所 Semiconductor device
JP2021063822A (en) * 2012-03-09 2021-04-22 株式会社半導体エネルギー研究所 Semiconductor device
JP2021063823A (en) * 2012-03-09 2021-04-22 株式会社半導体エネルギー研究所 Semiconductor device
JP2020060575A (en) * 2012-03-09 2020-04-16 株式会社半導体エネルギー研究所 Semiconductor device
JP2019023658A (en) * 2012-03-09 2019-02-14 株式会社半導体エネルギー研究所 Semiconductor device
JP2022000665A (en) * 2012-03-21 2022-01-04 株式会社半導体エネルギー研究所 Device
JP2019060898A (en) * 2012-03-21 2019-04-18 株式会社半導体エネルギー研究所 Distance measurement device
JP6999062B2 (en) 2012-03-21 2022-01-18 株式会社半導体エネルギー研究所 Device
US10452894B2 (en) 2012-06-26 2019-10-22 Qualcomm Incorporated Systems and method for facial verification
US10222523B2 (en) 2012-12-19 2019-03-05 Viavi Solutions Inc. Sensor device including one or more metal-dielectric optical filters
US10928570B2 (en) 2012-12-19 2021-02-23 Viavi Solutions Inc. Metal-dielectric optical filter, sensor device, and fabrication method
US10197716B2 (en) 2012-12-19 2019-02-05 Viavi Solutions Inc. Metal-dielectric optical filter, sensor device, and fabrication method
US11782199B2 (en) 2012-12-19 2023-10-10 Viavi Solutions Inc. Metal-dielectric optical filter, sensor device, and fabrication method
US10378955B2 (en) 2012-12-19 2019-08-13 Viavi Solutions Inc. Spectroscopic assembly and method
US10670455B2 (en) 2012-12-19 2020-06-02 Viavi Solutions Inc. Spectroscopic assembly and method
WO2014157086A1 (en) * 2013-03-25 2014-10-02 国立大学法人静岡大学 Imaging device
WO2014196216A1 (en) * 2013-06-05 2014-12-11 株式会社 東芝 Image sensor apparatus and method for manufacturing same
US9787924B2 (en) 2013-06-05 2017-10-10 Kabushiki Kaisha Toshiba Image sensor device, image processing device and method for manufacturing image sensor device
WO2014207983A1 (en) * 2013-06-27 2014-12-31 パナソニックIpマネジメント株式会社 Distance measuring device
JPWO2014207983A1 (en) * 2013-06-27 2017-02-23 パナソニックIpマネジメント株式会社 Distance measuring device and solid-state imaging device
US10422859B2 (en) 2013-06-27 2019-09-24 Panasonic Intellectual Property Management Co, Ltd. Distance measuring device and solid-state image sensor
US9996726B2 (en) 2013-08-02 2018-06-12 Qualcomm Incorporated Feature identification using an RGB-NIR camera pair
JP2015050494A (en) * 2013-08-30 2015-03-16 日立オートモティブシステムズ株式会社 Imaging device
WO2015059897A1 (en) * 2013-10-23 2015-04-30 日本電気株式会社 Image pickup device, image pickup method, code type infrared cut filter, and code type particular-color cut filter
JPWO2015059897A1 (en) * 2013-10-23 2017-03-09 日本電気株式会社 Video imaging device, video imaging method, code-type infrared cut filter, and code-type specific color cut filter
US20160255286A1 (en) * 2013-10-23 2016-09-01 Nec Corporation Image capturing device, image capturing method, coded infrared cut filter, and coded particular color cut filter
US10171757B2 (en) 2013-10-23 2019-01-01 Nec Corporation Image capturing device, image capturing method, coded infrared cut filter, and coded particular color cut filter
US9380242B2 (en) 2013-10-25 2016-06-28 Samsung Electronics Co., Ltd. Image sensor and devices having the same
WO2015075926A1 (en) * 2013-11-20 2015-05-28 パナソニックIpマネジメント株式会社 Distance measurement and imaging system
US10302766B2 (en) 2013-11-20 2019-05-28 Panasonic Intellectual Property Management Co., Ltd. Range imaging system and solid-state imaging device
US11175406B2 (en) 2013-11-20 2021-11-16 Nuvoton Technology Corporation Japan Range imaging system and solid-state imaging device
JP2018185342A (en) * 2013-11-20 2018-11-22 パナソニックIpマネジメント株式会社 Ranging imaging system
US9819881B2 (en) 2013-12-25 2017-11-14 Panasonic Intellectual Property Management Co., Ltd. Image output apparatus, image output method, and image output system
WO2015098063A1 (en) * 2013-12-25 2015-07-02 Panasonic Intellectual Property Management Co., Ltd. Image output apparatus, image output method, and image output system, the image output comprising the detection of a specified substance in a predetermined region
JP2020126060A (en) * 2014-01-29 2020-08-20 エルジー イノテック カンパニー リミテッド Device and method for extracting depth information
US10802148B2 (en) 2014-01-29 2020-10-13 Lg Innotek Co., Ltd. Device for extracting depth information and method thereof
JP2017505907A (en) * 2014-01-29 2017-02-23 エルジー イノテック カンパニー リミテッド Depth information extraction apparatus and method
US11680789B2 (en) 2014-01-29 2023-06-20 Lg Innotek Co., Ltd. Device for extracting depth information and method thereof
US10338221B2 (en) 2014-01-29 2019-07-02 Lg Innotek Co., Ltd. Device for extracting depth information and method thereof
US10334185B2 (en) 2014-03-06 2019-06-25 Nec Corporation Image capturing device, signal separation device, and image capturing method
JP2017526945A (en) * 2014-06-18 2017-09-14 ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. Metal dielectric optical filter, sensor device, and manufacturing method
JP2016024234A (en) * 2014-07-16 2016-02-08 キヤノン株式会社 Imaging apparatus
WO2016017407A1 (en) * 2014-08-01 2016-02-04 シャープ株式会社 Laser rangefinder
JP2016048196A (en) * 2014-08-27 2016-04-07 パナソニックIpマネジメント株式会社 Substance detection sensor, substance detection method and substance detection system
WO2016031128A1 (en) * 2014-08-27 2016-03-03 パナソニックIpマネジメント株式会社 Substance detection sensor, substance detection method, and substance detection system
US11190711B2 (en) 2015-02-05 2021-11-30 Sony Semiconductor Solutions Corporation Solid-state image sensor and electronic device
WO2016125602A1 (en) * 2015-02-05 2016-08-11 ソニー株式会社 Solid-state imaging element and electronic device
KR101729563B1 (en) * 2015-02-13 2017-05-11 엘지전자 주식회사 Digital device and method for certifying body thereof
US20180109741A1 (en) * 2015-04-24 2018-04-19 Sony Corporation Solid state image sensor, semiconductor device, and electronic device
CN107534049A (en) * 2015-04-24 2018-01-02 索尼公司 Solid-state image element, semiconductor device and electronic equipment
WO2016170833A1 (en) * 2015-04-24 2016-10-27 ソニー株式会社 Solid state imaging element, semiconductor device, and electronic instrument
US10554910B2 (en) 2015-04-24 2020-02-04 Sony Corporation Solid state image sensor, semiconductor device, and electronic device
US11889218B2 (en) * 2015-04-24 2024-01-30 Sony Corporation Stacked substrate solid state image sensor
KR20170141661A (en) * 2015-04-24 2017-12-26 소니 주식회사 A solid-state imaging device, a semiconductor device, and an electronic device
KR102513628B1 (en) * 2015-04-24 2023-03-24 소니그룹주식회사 Solid-state imaging devices, semiconductor devices, and electronic devices
JPWO2016170833A1 (en) * 2015-04-24 2018-02-15 ソニー株式会社 Solid-state imaging device, semiconductor device, and electronic device
US20210409621A1 (en) * 2015-04-24 2021-12-30 Sony Group Corporation Solid state image sensor
CN113658967B (en) * 2015-04-24 2024-03-22 索尼公司 Light detection device
CN113658967A (en) * 2015-04-24 2021-11-16 索尼公司 Light detection equipment
US11153515B2 (en) * 2015-04-24 2021-10-19 Sony Corporation Solid state image sensor comprising stacked substrates, semiconductor device, and electronic device
CN107534049B (en) * 2015-04-24 2021-07-20 索尼公司 Solid-state image element, semiconductor device, and electronic apparatus
JP2016220019A (en) * 2015-05-20 2016-12-22 日本放送協会 Imaging apparatus
JPWO2017038203A1 (en) * 2015-08-28 2018-07-05 富士フイルム株式会社 Projector device with distance image acquisition device and projection mapping method
US10412352B2 (en) 2015-08-28 2019-09-10 Fujifilm Corporation Projector apparatus with distance image acquisition device and projection mapping method
US10440292B2 (en) 2015-09-18 2019-10-08 Nec Corporation Color signal and near-infrared signal generated by using pattern information defining intensity-corresponding pattern
TWI731035B (en) * 2016-03-30 2021-06-21 日商新力股份有限公司 Photoelectric conversion element and photoelectric conversion device
WO2017169122A1 (en) * 2016-03-30 2017-10-05 ソニー株式会社 Photoelectric conversion element and photoelectric conversion device
US10483306B2 (en) 2016-03-30 2019-11-19 Sony Corporation Photoelectric conversion element and photoelectric conversion device
JPWO2017169122A1 (en) * 2016-03-30 2019-02-07 ソニー株式会社 Photoelectric conversion element and photoelectric conversion device
JP2017229001A (en) * 2016-06-24 2017-12-28 株式会社ニコン Imaging apparatus and distance measuring apparatus
US10863115B2 (en) 2016-06-24 2020-12-08 Nec Corporation Generation of visible and near-infrared images based on estimated incident light spectral characteristics and image capturing device spectral sensitivity characteristics
WO2018040307A1 (en) * 2016-08-31 2018-03-08 上海依图网络科技有限公司 Vivo detection method and device based on infrared visible binocular image
JP7065421B2 (en) 2016-12-15 2022-05-12 パナソニックIpマネジメント株式会社 How to get information inside the imager and the object
JP2018096988A (en) * 2016-12-15 2018-06-21 パナソニックIpマネジメント株式会社 Imaging device
US10931895B2 (en) 2016-12-22 2021-02-23 Nec Corporation Image processing method, image processing device, and storage medium
WO2018116972A1 (en) * 2016-12-22 2018-06-28 日本電気株式会社 Image processing method, image processing device, and recording medium
JP2019086785A (en) * 2018-12-27 2019-06-06 株式会社ニコン Imaging element and imaging device
WO2020259128A1 (en) * 2019-06-28 2020-12-30 北京旷视科技有限公司 Liveness detection method and apparatus, electronic device, and computer readable storage medium
WO2021192459A1 (en) * 2020-03-23 2021-09-30 ソニーセミコンダクタソリューションズ株式会社 Image capturing device
WO2022059525A1 (en) * 2020-09-16 2022-03-24 ソニーグループ株式会社 Solid-state imaging device and recognition system
CN112788313B (en) * 2020-12-25 2023-04-07 RealMe重庆移动通信有限公司 Image sensor, imaging system and terminal
CN112788313A (en) * 2020-12-25 2021-05-11 RealMe重庆移动通信有限公司 Image sensor, imaging system and terminal
WO2022186074A1 (en) * 2021-03-05 2022-09-09 キヤノン株式会社 Measuring device, storage medium, manufacturing system, and article manufacturing method
WO2023013777A1 (en) * 2021-08-05 2023-02-09 株式会社小糸製作所 Gated camera, vehicular sensing system, and vehicular lamp

Similar Documents

Publication Publication Date Title
JP2011243862A (en) Imaging device and imaging apparatus
CN208014701U (en) Imaging system and imaging sensor
JP6198366B2 (en) Multilayer image sensor
US8384818B2 (en) Solid-state imaging device including arrays of optical elements and photosensitive cells
US9679933B2 (en) Image sensors and methods of forming the same
US8569700B2 (en) Image sensor for two-dimensional and three-dimensional image capture
US8208052B2 (en) Image capture device
JP2021073722A (en) Imaging element and electronic device
US8988576B2 (en) Solid-state imaging device and digital camera
US20130222603A1 (en) Imaging systems for infrared and visible imaging
JP2015128131A (en) Solid state image sensor and electronic apparatus
JP2016076682A (en) Image sensor and formation method thereof
EP3439038A1 (en) Image capturing element and image capturing device
US11838662B2 (en) Solid-state imaging device and electronic apparatus
KR20110115072A (en) Imaging device
JP2012029130A (en) Imaging device and image input device
EP3021577B1 (en) Imaging device
JP5331119B2 (en) Solid-state imaging device and imaging apparatus
US10490592B2 (en) Stacked image sensor
JPWO2010100896A1 (en) Imaging device and double-sided irradiation type solid-state imaging device
JPWO2018062558A1 (en) Image sensor, focus detection device, and electronic camera
CN113225541B (en) Image sensor
JP6245942B2 (en) Image sensor
JP7042451B2 (en) Solid-state image sensor
WO2017069134A1 (en) Solid-state imaging element