JP2011243862A - Imaging device and imaging apparatus - Google Patents
Imaging device and imaging apparatus Download PDFInfo
- Publication number
- JP2011243862A JP2011243862A JP2010116498A JP2010116498A JP2011243862A JP 2011243862 A JP2011243862 A JP 2011243862A JP 2010116498 A JP2010116498 A JP 2010116498A JP 2010116498 A JP2010116498 A JP 2010116498A JP 2011243862 A JP2011243862 A JP 2011243862A
- Authority
- JP
- Japan
- Prior art keywords
- light
- visible light
- image
- imaging device
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、距離画像センサと生体検出センサの機能を、RGB等の撮影(可視光)画像及び近赤外光画像を取得する1つの撮像デバイスを用いて実現する撮像装置と、その撮像デバイスに関する。 The present invention relates to an imaging apparatus that realizes the functions of a distance image sensor and a living body detection sensor using a single imaging device that acquires a captured (visible light) image such as RGB and a near-infrared light image, and the imaging device. .
例えば体を使ったモーション認識やジェスチャー認識の用途のために、画像に距離情報を付加した距離画像カメラが提案されている。距離測定方式としては、光源から近赤外光を発光し、被写体によって反射された光の遅れ時間を計測して距離を測定するTOF(Time of flight)方式が一般的である。
TOF方式では距離画像センサは近赤外光を検出するセンサであり、TOF方式の距離画像カメラの多くは近赤外光による明暗画像と距離画像を出力するものになっている。
For example, a distance image camera in which distance information is added to an image has been proposed for use in motion recognition and gesture recognition using the body. As a distance measuring method, a TOF (Time of Flight) method is generally used in which near-infrared light is emitted from a light source, and a distance is measured by measuring a delay time of light reflected by a subject.
In the TOF method, the range image sensor is a sensor that detects near-infrared light, and many TOF-type range image cameras output light and dark images and distance images using near-infrared light.
しかし、例えばセキュリティ用途や画像合成等の用途によっては、可視光のカラー画像との合成が求められ、その場合は距離画像カメラとカラー画像用カメラの2カメラ構成となっている。
2カメラ構成の場合、視点が異なるため、被写体の位置によっては2カメラ間の視差により2つの画像に位置ずれが生じる、2カメラ間でフレーム同期制御が必要になる、ズームを行いたい場合に2カメラ間で視野の同期制御が必要になり複雑な構成になる、といった短所がある。
距離画像とカラー画像を一体の撮像デバイスで撮像することで、前記の問題を解消することができる。従来から、距離画像とカラー画像を一体の撮像デバイスで撮像する手法が提案されている(例えば特許文献1,2参照)。
However, for example, depending on applications such as security applications and image composition, composition with a visible light color image is required, and in this case, a two-camera configuration of a distance image camera and a color image camera is adopted.
In the case of the two-camera configuration, since the viewpoints are different, the two images may be misaligned due to the parallax between the two cameras, and frame synchronization control is required between the two cameras. There is a disadvantage that it requires a synchronous control of the field of view between cameras, resulting in a complicated configuration.
The above-mentioned problem can be solved by capturing the distance image and the color image with an integrated imaging device. Conventionally, a method of capturing a distance image and a color image with an integrated imaging device has been proposed (see, for example,
特許文献1には、赤(R)、緑(G)、青(B)の可視光検出用と近赤外光(NIR)検出用の2つの撮像デバイスを使用する方法と、RGBとNIRを1つの撮像デバイスで検出する方法が挙げられている。
特許文献2に記載の方法は、撮像デバイスのカラーフィルタでベイヤー配列と呼ばれる赤(R)、緑(G)、緑(G)、青(B)の並び内で、Gの1つを近赤外(NIR)に置き換えてR,G,B,NIRを検出する。
In the method described in
一方、画像の中から人の皮膚部のみを検出する方法が提案されている(例えば、特許文献3参照)。
特許文献3に記載の方法により、生体(例えば人の皮膚部のみ)を検出する画像を抽出することが可能である。
得られた生体画像は平面画像であり、かつ近赤外光による明暗画像になる。
On the other hand, a method for detecting only a human skin from an image has been proposed (see, for example, Patent Document 3).
By the method described in
The obtained biological image is a planar image and becomes a bright and dark image by near infrared light.
上記特許文献1に記載された、2つの撮像デバイスを使用する方法は、RGBとNIRの波長を分光するプリズムが撮像レンズと撮像デバイスの間に存在するため、撮像レンズの焦点距離を短くすることに制約がある。その結果、画角を広げることが困難である。
特許文献1に記載された、1つの撮像デバイスを使用する他の方法を採用するならば、画角拡大の困難さは解消される。この方法で使用される撮像デバイスは、RGBの可視光画素の間に、NIRの画素がちりばめられているものである。
そのため、この撮像デバイスから取得された画像においてはRGB画像や距離測定画像の各々に対し十分な解像度が得られない、また被写体の同一箇所に対し距離測定画素(NIR画素)とRGB画素とが同じ位置の情報を取得できないという不利益を伴う。
In the method using two imaging devices described in
If another method using one image pickup device described in
Therefore, in the image acquired from this imaging device, sufficient resolution cannot be obtained for each of the RGB image and the distance measurement image, and the distance measurement pixel (NIR pixel) and the RGB pixel are the same for the same portion of the subject. The disadvantage is that location information cannot be obtained.
上記特許文献2に記載された方法においても同様な不利益がある。特許文献2に記載された方法においては、繰り返し色配列の複数画素内で緑(G)の画素を1つ減らすことにより、本来同じ画素数を持った原色系撮像デバイスが出し得るRGB画像より解像度が低いという不利益がある。
また、被写体の同一箇所に対し距離測定画素がRGB画素と同じ位置で情報を取得できないため、RGB画像と異なる画像の位置で距離を計測せざるを得ない。
The method described in
In addition, since the distance measurement pixel cannot acquire information at the same position as the RGB pixel for the same portion of the subject, the distance must be measured at a position of an image different from the RGB image.
上記特許文献3に記載された生体画像を取得可能な方法において、仮に距離情報を付加することができれば、例えば、人の顔や手を立体画像として取り込むことが可能になる。また、生体画像にカラー画像を合成することで、色情報も付加することが可能である。
しかし、特許文献3に記載の方法は、上記特許文献1と同様に、画角を広げることが困難である。
また、上記特許文献1,2と同様に、画角を広げた場合でも距離測定画素が撮像デバイス内に占める割合がある程度高い。そのため、RGB画像や距離測定画像の各々に対し十分な解像度が得られない、また距離測定画素(NIR画素)がRGB画素と同じ位置の情報を取得できないという不利益がある。
If distance information can be added in the method capable of acquiring a biological image described in
However, in the method described in
Similarly to
同一被写体を同じ画角で別々に撮像したNIR画像とRGBカラー画像とを用いて、生体画像の抽出は可能である。この場合、NIR画像で生体検出し、検出された生体部分と同じ画素アドレス範囲のRGB画像の部分を抽出すればよい。
しかし、同一被写体を同じ画角で撮像しても得られた2つの画像に多少なりともずれがあるのが常であるから、この画像のずれが生体画像の誤差成分となり、生体画像の高精度な抽出は困難である。
A biological image can be extracted using NIR images and RGB color images obtained by separately capturing the same subject at the same angle of view. In this case, the living body is detected from the NIR image, and the RGB image portion having the same pixel address range as the detected living body portion may be extracted.
However, since the two images obtained even when the same subject is imaged at the same angle of view are usually somewhat different, the deviation of the image becomes an error component of the biological image, and the high accuracy of the biological image is obtained. Extraction is difficult.
本発明は、それぞれの解像度が高く、また画像内位置の対応がとりやすいため距離の測定や生体検出が容易な可視光画像と近赤外光画像を別々に出力可能な構成を有する撮像デバイスを提供するものである。また、本発明は、かかる構成の撮像デバイスを用いて、通常のRGB等の画像取得とともに、距離測定と生体検出の少なくとも一方の処理が可能な撮像装置(例えば、カメラシステム)を提供するものである。 The present invention provides an imaging device having a configuration capable of separately outputting a visible light image and a near-infrared light image, each of which has a high resolution and can easily correspond to a position in the image, and can easily measure a distance and detect a living body. It is to provide. In addition, the present invention provides an imaging apparatus (for example, a camera system) capable of performing at least one of distance measurement and living body detection as well as normal RGB image acquisition using the imaging device having such a configuration. is there.
本発明の一形態に係る撮像デバイスは、画像光が入射する側に光学フィルタが配設された画素アレイを備え、前記画素アレイの画素が、第1フィルタ領域、可視光センサ部および非可視光センサ部を有する。
前記第1フィルタ領域は、原色系または補色系の複数色のうち、少なくとも1色に対応した波長の可視光、および、可視光より波長が長い非可視光を透過する。
前記可視光センサ部は、前記第1フィルタ領域からの前記可視光に主感度を有する。
前記非可視光センサ部は、前記可視光センサ部よりも前記画像光が進入する側から遠い位置に形成され、前記第1フィルタ領域からの前記非可視光に主感度を有する。
An imaging device according to an aspect of the present invention includes a pixel array in which an optical filter is disposed on a side on which image light is incident, and the pixels of the pixel array include a first filter region, a visible light sensor unit, and invisible light. It has a sensor part.
The first filter region transmits visible light having a wavelength corresponding to at least one of a plurality of colors of primary colors or complementary colors, and invisible light having a wavelength longer than that of visible light.
The visible light sensor unit has a main sensitivity to the visible light from the first filter region.
The invisible light sensor unit is formed at a position farther from the side where the image light enters than the visible light sensor unit, and has a main sensitivity to the invisible light from the first filter region.
本発明では、出力部が前記画素アレイの画素ごとに設けられ、または、出力信号線に共通接続された複数の画素で共有して設けられている。出力部は、前記可視光センサ部の光電変換により発生する可視光画像の信号と、前記非可視光センサ部の光電変換により発生する非可視光画像の信号とを分離して出力する。
本発明では好適に、前記出力部は、複数の電荷蓄積部と、前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、を有する。
In the present invention, the output unit is provided for each pixel of the pixel array, or is shared by a plurality of pixels commonly connected to the output signal line. The output unit separates and outputs a signal of a visible light image generated by photoelectric conversion of the visible light sensor unit and a signal of a non-visible light image generated by photoelectric conversion of the non-visible light sensor unit.
In the present invention, it is preferable that the output unit includes a plurality of charge storage units and a switch that distributes the generated charges of the invisible light sensor unit to the plurality of charge storage units.
このような構成によれば、可視光センサ部と非可視光センサ部とが同一画素に設けられている。このため、可視光センサ部の光電変換により画素データが発生した可視光画像と、非可視光センサ部の光電変換により画素データが発生した非可視光画像との各画素データが位置的に対応する。出力部が画素ごとに、あるいは、出力信号線に共通接続された複数画素に共有されて設けられている。したがって、画素データが位置的に対応する可視光画像と非可視光画像を分離して出力することが可能である。このとき、画素ごとに可視光センサ部を有する場合、可視光画像の解像度、言い換えると1フレーム画像に含まれる画素データ密度は最大となることから、画像品質が損なわれない。 According to such a configuration, the visible light sensor unit and the invisible light sensor unit are provided in the same pixel. For this reason, each pixel data of the visible light image in which the pixel data is generated by the photoelectric conversion of the visible light sensor unit and the invisible light image in which the pixel data is generated by the photoelectric conversion of the invisible light sensor unit correspond in position. . The output unit is provided for each pixel or shared by a plurality of pixels commonly connected to the output signal line. Therefore, it is possible to separate and output a visible light image and a non-visible light image corresponding to pixel data in position. At this time, when the visible light sensor unit is provided for each pixel, the resolution of the visible light image, in other words, the pixel data density included in one frame image is maximized, so that the image quality is not impaired.
一方、非可視光画像の各画素データは、可視光画像の画素データより通常、電荷量として少ない。特に距離測定や生体検出の場合、被写体に非可視光を当てて、その反射により散乱された反射光(戻り光)を受光する。このため、これらの用途だと、1画素分の非可視光センサ部から得られる非可視光画素のデータ量(電荷量)は可視光画素のデータ量より桁違いに小さいことがある。 On the other hand, each pixel data of the non-visible light image is usually less in charge amount than the pixel data of the visible light image. In particular, in the case of distance measurement or living body detection, non-visible light is applied to a subject, and reflected light (returned light) scattered by the reflection is received. Therefore, in these applications, the data amount (charge amount) of the non-visible light pixel obtained from the non-visible light sensor unit for one pixel may be orders of magnitude smaller than the data amount of the visible light pixel.
本発明で好ましい形態では、複数の電荷蓄積部を出力部に有し、その電荷の入力をスイッチで制御する構成を有することから、複数画素分の非可視光データを1つにまとめる(合成する)ことができる。合成後の非可視光データは、非可視光画像の一部であるが、データ量が増大しているためノイズに埋もれることなく撮像デバイス内の処理部に入力され、または処理のために外部に排出可能である。 In a preferred embodiment of the present invention, since a plurality of charge storage units are provided in the output unit and the input of the charges is controlled by a switch, the non-visible light data for a plurality of pixels are combined (combined). )be able to. The non-visible light data after synthesis is a part of the non-visible light image, but since the amount of data increases, it is input to the processing unit in the imaging device without being buried in noise, or externally for processing. It can be discharged.
この出力部の望ましい構成は、距離測定や生体検出のためにも有用である。
例えば、TOF方式の距離測定の場合、被写体に非可視光を一定時間だけ被写体にパルス照射し、非可視光の戻り光が撮像デバイスに入射され、一定の決まった受光時間を経て可視光センサ部から検出信号として出力される。例えば、出射パルスの出射時を基準に検出信号が得られるまでの遅延を検出する。具体的には、例えば、非可視光の出射パルス長に対応する検出信号のパルス持続時間の途中でパルス信号電荷を2分し、その2分した信号電荷量の比から遅延時間を求める方法がある。
複数の電荷蓄積部とその振り分けのためのスイッチとを有する出力部の構成は、この方法の実施に適合している。
This desirable configuration of the output unit is also useful for distance measurement and living body detection.
For example, in the case of the distance measurement of the TOF method, the object is pulsed with invisible light for a certain time, the return light of the invisible light is incident on the imaging device, and the visible light sensor unit passes through a fixed light receiving time. Is output as a detection signal. For example, the delay until the detection signal is obtained is detected with reference to the time when the emission pulse is emitted. Specifically, for example, there is a method in which the pulse signal charge is divided into two in the middle of the pulse duration of the detection signal corresponding to the emission pulse length of invisible light, and the delay time is obtained from the ratio of the divided signal charge amount. is there.
The configuration of the output unit having a plurality of charge storage units and switches for distributing them is suitable for implementation of this method.
また、生体検出の場合、一方は人の皮膚で主に反射され他方は主に吸収される異なる波長領域をもつ2つの非可視光を被写体に当てる。なお、この2つの非可視光は、その非可視光領域の短波長側の一部が可視光領域に重なることは許容される。
そして、それぞれの非可視光の戻り光を同一の撮像デバイスで受光する。このとき、2つの非可視光に対応する2つの戻り光を光電変換して得られた2つの検出信号を分離するのに、複数の電荷蓄積部とその振り分けのためのスイッチとを有する出力部の構成を好適に利用できる。
In the case of living body detection, two non-visible lights having different wavelength regions, one of which is mainly reflected by human skin and the other is mainly absorbed, are applied to the subject. In addition, as for these two invisible lights, it is permitted that a part of the short wavelength side of the invisible light region overlaps the visible light region.
Then, the return light of each invisible light is received by the same imaging device. At this time, in order to separate two detection signals obtained by photoelectrically converting two return lights corresponding to two invisible lights, an output unit having a plurality of charge storage units and a switch for distributing them The configuration can be suitably used.
本発明の他の一形態に係る撮像装置は、画像光が入射する側に光学フィルタが配設された画素アレイを備える撮像デバイスと、発光部、レンズ、制御部および信号処理部を有する。
前記発光部は、可視光の波長領域より長波長側に単一または互いに異なる複数の波長領域をもつ少なくとも1つの非可視光を発光して投射し、投射光の一部が被写体で反射した戻り光が前記撮像デバイスに到達するように仕向けられている。
前記レンズは、前記戻り光を前記撮像デバイスに結像させる。
前記制御部は、前記発光部の発光タイミング等を制御する。
前記信号処理部は、前記撮像デバイスから出力される可視光画像の信号を処理する。
An imaging apparatus according to another aspect of the present invention includes an imaging device including a pixel array in which an optical filter is disposed on an image light incident side, a light emitting unit, a lens, a control unit, and a signal processing unit.
The light emitting unit emits and projects at least one invisible light having a plurality of wavelength regions that are single or different from each other on the longer wavelength side than the wavelength region of visible light, and a part of the projection light is reflected by the subject. Light is directed to reach the imaging device.
The lens focuses the return light on the imaging device.
The control unit controls a light emission timing of the light emitting unit.
The signal processing unit processes a signal of a visible light image output from the imaging device.
本発明では、撮像装置内の撮像デバイスが、上記した本発明の一形態に係る撮像デバイスと同様に構成されている。そのため、可視光画像を処理して出力する以外に、前述した距離測定や生体検出のための処理が可能である。
より詳細には、前記信号処理部は前記可視光画像の信号を信号処理する。また、前記信号処理部と前記制御部は、前記撮像デバイスの受光時間と近赤外光の発光を制御し、得られた前記非可視光画像の信号に基づいて、前記被写体までの距離を測定する演算処理と前記被写体の肌の画像を検出する生体検出の処理との少なくとも一方を実行する。
In the present invention, the imaging device in the imaging apparatus is configured similarly to the imaging device according to one aspect of the present invention described above. Therefore, in addition to processing and outputting a visible light image, the above-described processing for distance measurement and living body detection can be performed.
More specifically, the signal processing unit processes the signal of the visible light image. In addition, the signal processing unit and the control unit control the light reception time and near infrared light emission of the imaging device, and measure the distance to the subject based on the obtained signal of the invisible light image. At least one of an arithmetic processing to perform and a biological detection processing to detect an image of the skin of the subject.
本発明によれば、それぞれの解像度が高く、また画像内位置の対応がとりやすいため距離の測定や生体検出が容易な可視光画像と近赤外光画像を別々に出力可能な構成を有する撮像デバイスを提供することができる。また、本発明によれば、かかる構成の撮像デバイスを用いて、通常のRGB等の画像取得とともに、距離測定と生体検出の少なくとも一方の処理が可能な撮像装置(例えば、カメラシステム)を提供することができる。 According to the present invention, an imaging device having a configuration capable of separately outputting a visible light image and a near-infrared light image, each of which has a high resolution and can easily correspond to a position in the image, and can easily measure a distance and detect a living body. A device can be provided. In addition, according to the present invention, there is provided an imaging device (for example, a camera system) capable of performing at least one of distance measurement and living body detection while obtaining an image such as normal RGB using the imaging device having such a configuration. be able to.
本発明の実施形態を、図面を参照して以下の順に説明する。
1.第1の実施の形態:原色系色配置の画素でセンサ部を基板深さ方向で2層配置した実施形態である。
2.第2の実施の形態:補色系色配置の画素でセンサ部を基板深さ方向で3層配置した実施形態である。
3.第3の実施の形態:単一画素に全ての色のセンサ部を有する実施形態である。
4.第4の実施の形態:補色系色配置の画素でセンサ部を基板深さ方向で2層配置した実施形態である。
5.第5の実施の形態:原色系色配置の画素でセンサ部を基板深さ方向で4層配置した実施形態である。
6.第6の実施の形態:電荷蓄積部を専用と共用に分けてNIR画素データの混合を行う実施形態である。
7.第7の実施の形態:第6の実施形態の撮像デバイスを補色系に変更しセンサ部を3層配置とした実施形態である。
8.第8の実施の形態:第7の実施形態からセンサ部を2層配置に変更した実施形態である。
9.第9の実施の形態:画素共通のNIRセンサ部を有する実施形態である。
10.第10の実施の形態:画素共通のNIRセンサ部を有する他の実施形態である。
11.第11の実施の形態:画素共通のNIRセンサ部を有する他の実施形態である。
Embodiments of the present invention will be described in the following order with reference to the drawings.
1. First Embodiment: An embodiment in which two layers of sensor portions are arranged in the substrate depth direction in pixels of primary color arrangement.
2. Second Embodiment: This is an embodiment in which three layers of sensor portions are arranged in the substrate depth direction with pixels of complementary color arrangement.
3. Third Embodiment: An embodiment having sensor units for all colors in a single pixel.
4). Fourth Embodiment: This is an embodiment in which two layers of sensor units are arranged in the substrate depth direction with pixels of complementary color arrangement.
5). Fifth embodiment: an embodiment in which four layers of sensor units are arranged in the substrate depth direction in pixels of primary color arrangement.
6). Sixth Embodiment: This is an embodiment in which NIR pixel data is mixed by dividing the charge storage section into dedicated and shared.
7). Seventh embodiment: an embodiment in which the imaging device of the sixth embodiment is changed to a complementary color system and the sensor unit is arranged in three layers.
8). Eighth embodiment: an embodiment in which the sensor unit is changed to a two-layer arrangement from the seventh embodiment.
9. Ninth embodiment: an embodiment having an NIR sensor unit common to pixels.
10. Tenth Embodiment: Another embodiment having an NIR sensor unit common to pixels.
11. Eleventh embodiment: Another embodiment having a common NIR sensor unit for pixels.
<1.第1の実施の形態>
[撮像装置の構成]
図1に、距離測定と生体検出の両方が可能な構成例を含む撮像装置の構成図を示す。
図1に図解する撮像装置1は、ゲーム機等の民生用電子機器、車載センサ機器あるいは計測機などの産業用電子機器等に用いることができる。
撮像装置1は、被写体100との距離を測定するための第1の発光部2Aと、第1の発光部2Aとの反射光量差を検出するための第2の発光部2Bとを有する。詳細は後述するが、第1および第2の発光部2A,2Bは、互いに異なる波長領域の非可視光を被写体100に向けて出射し、そのときの反射光量差は、第1の発光部2Aと第2の発光部2Bの両方を用いた生体検出時に取得される。被写体100との距離を測定するためには、第1の発光部2Aと第2の発光部2Bの少なくとも一方から非可視光を照射すればよいため、ここでは一例として第1の発光部2Aを用いる。
本発明の明細書中、非可視光というとき可視光の波長領域より長波長側の非可視光に限定される。非可視光は、可視光の波長領域に対し長波長側に近接した近赤外(NIR)光、赤外(IR)光、NIR光を主体としてIR領域を一部含む光の何れでもよいが、以下、非可視光がNIR光とする。
<1. First Embodiment>
[Configuration of imaging device]
FIG. 1 shows a configuration diagram of an imaging apparatus including a configuration example capable of both distance measurement and living body detection.
The
The
In the specification of the present invention, when it is referred to as invisible light, it is limited to invisible light having a wavelength longer than the wavelength region of visible light. The invisible light may be any of near-infrared (NIR) light, infrared (IR) light close to the long wavelength side with respect to the wavelength range of visible light, and light partially including the IR region, mainly NIR light. Hereinafter, invisible light is referred to as NIR light.
撮像装置1は、第1および第2の発光部2A,2Bからの近赤外光(NIR光)が被写体100で反射したときの戻り光を受光する撮像デバイス3と、被写体100と撮像デバイス3間に配設され、戻り光の像を撮像デバイス3に結像させるレンズ4とを有する。
撮像装置1は、さらに、撮像デバイス3の出力信号を処理する信号処理部5と制御部6を有する。制御部6は、第1および第2の発光部2A,2B、撮像デバイス3および信号処理部5を統括制御し、場合によってはレンズ4を含む光学系を統括制御する。
具体的に、制御部6は、第1の発光部2A(および第2の発光部2B:生体検出の場合)の発光タイミング、撮像デバイス3の電子シャッタ及びスイッチ43(後述)のタイミング等を制御する。信号処理部5は、撮像デバイス3による出力データから、RGB等の可視光画像の処理(ノイズ除去や色補正等)を行うほか、画像距離測定や生体検出の処理を実行可能な構成である。
The
The
Specifically, the
第1の発光部2Aは、例えば発光ダイオード(LED)等の発光部材21とそれを発光させるためのドライバ回路22を含んで構成されている。
第1の発光部2Aの発光部材21は非可視光、例えば近赤外光を発光し、近赤外光の発光部材21への発光方向は被写体100に向けられている。
第2の発光部2Bも、第1の発光部2Aと同様に発光部材21とそれを発光させるためのドライバ回路22を含んで構成されている。第2の発光部2Bにおける発光部材21の波長も主として近赤外光であり、発光部材21の発光方向は被写体100に向けられている。但し、第1の発光部2Aからの近赤外光と、第2の発光部2Bからの近赤外光は異なる波長領域の光である。
The first light emitting unit 2A includes a light emitting member 21 such as a light emitting diode (LED) and a
The light emitting member 21 of the first light emitting unit 2A emits invisible light, for example, near infrared light, and the light emitting direction of the near infrared light toward the light emitting member 21 is directed to the subject 100.
Similarly to the first light emitting unit 2A, the second
人間の眼の色や明るさに対する感度特性は、可視光領域に感度をもつ。可視光領域は定義が様々であるが、一般には、700乃至750nm付近(例えば780nm)を上限とし、400nm弱(例えば380nm)を下限とする電磁波の波長領域である。可視光領域に隣接した赤外領域を近赤外領域といい、この領域は、700乃至800nmの下限から、1.5乃至3μm(例えば2.5μm)の上限までの電磁波の波長領域である。ただし、人間の目は約700nmより長波長側では殆ど感度を有さない。 Sensitivity characteristics for the color and brightness of the human eye have sensitivity in the visible light region. Although the visible light region has various definitions, it is generally a wavelength region of electromagnetic waves having an upper limit in the vicinity of 700 to 750 nm (for example, 780 nm) and a lower limit of slightly less than 400 nm (for example, 380 nm). An infrared region adjacent to the visible light region is referred to as a near infrared region, and this region is a wavelength region of electromagnetic waves from a lower limit of 700 to 800 nm to an upper limit of 1.5 to 3 μm (for example, 2.5 μm). However, the human eye has little sensitivity on the longer wavelength side than about 700 nm.
ところで、生体(代表的には人の皮膚)の反射率は光の波長が750〜800nm近辺で大きくなり、970nmで小さくなると言われる。最も好ましい光の波長としては、第1の発光部2Aの波長が800nm近辺(近赤外光の下限付近)、第2の発光部2Bの波長が970nm近辺となる。
ただし、生体を検出するためには、認識可能なレベルまで反射光量の差がつけばよいので、その範囲で波長の差をつけられれば、第1,第2の発光部2Bからの光の波長は、この限りではない。
第1の発光部2Aの波長領域と第2の発光部2Bの波長領域は重ならないほうが望ましいが、LEDの発光波長はある幅を有するため、2つの波長領域が一部重なることは許容される。
第1および第2の発光部2A,2Bが発光する2つの非可視光は、可視光の波長定義によっては、その非可視光領域の短波長側の一部が可視光領域に重なることは許容される。例えば、可視光の長波長側境界を800nmと定義した場合、第1の発光部2Aの波長が800nm近辺とすると、その波長範囲は短波長側の一部が可視光領域と重なることになる。一方、可視光の長波長側境界を750nm近辺と定義した場合は、第1の発光部2Aの波長範囲が可視光領域と重なることは通常ない。
By the way, it is said that the reflectance of a living body (typically human skin) increases when the wavelength of light is around 750 to 800 nm and decreases at 970 nm. As the most preferable wavelength of light, the wavelength of the first light emitting unit 2A is around 800 nm (near the lower limit of near infrared light), and the wavelength of the second
However, in order to detect a living body, the difference in the amount of reflected light only needs to be set to a recognizable level. Therefore, if the wavelength difference can be set within that range, the wavelength of light from the first and second
Although it is desirable that the wavelength region of the first light emitting unit 2A and the wavelength region of the second
The two non-visible lights emitted by the first and second
撮像レンズ4は、カメラやカムコーダ等で使用される一般的なものであり、撮像デバイス3のサイズや画角等の仕様により選択されるものである。レンズ4は、望ましくは、制御部6の制御により被写体100との距離に応じて焦点調整機能を有する光学系の一部品として配置されている。
The
[撮像デバイスの構成]
図2に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
RGB画像等の撮影画像(本明細書では可視光画像と呼ぶ)を高解像度で発生させるための撮像デバイス3は、図2に示すように、光の入射側からマイクロレンズアレイ31、光学フィルタ32、画素回路層33、フォトセンサを半導体基板35に形成したものである。
フォトセンサと画素回路の一部は半導体基板35の活性領域(例えば複数のウエル)を利用して形成されている。画素回路層33は、半導体基板35に形成される基板トランジスタなどの回路素子以外の配置領域であり、例えば、誘電膜を介して積層された導電層を利用してキャパシタ等の受動素子が画素回路層33に配置される。フォトセンサと画素回路の基板トランジスタ等とは素子分離またはチャネルストッパ領域により電気的干渉が防止される。なお、TFTなどから一部のトランジスタを画素回路層33内に形成することは可能である。
[Configuration of imaging device]
FIG. 2 schematically shows a cross-sectional configuration of the pixel array of the
An
A part of the photosensor and the pixel circuit are formed using an active region (for example, a plurality of wells) of the
撮像レンズ4で集光された光は、マイクロレンズアレイ31によって画素ごとにさらに集光されて、光学フィルタ32を透過してフォトセンサに入射される。光学フィルタ32は、マイクロレンズアレイ31で集光された光が透過する波長選択性をもつフィルタ部と、フィルタ部間で光を遮断する部分(いわゆるブラックマトリクス)とで区分される。光遮断部は必須ではないが、混色や外光の混入防止のためには、これを有することが望ましい。
波長選択された光は、画素回路層33の配線や導電層などにより光を遮断しないように設けられた画素開口を通ることで損失を受けずにフォトセンサに入射され、そこで光電変換される。光電変換により発生した電荷(受光電荷あるいは光電荷という)は、フォトセンサ内で一定時間蓄積された後、画素回路の出力部を経由して画像データとして画素アレイから排出される。撮像デバイス3における画素アレイ以外の周辺領域には出力処理(ノイズ抑圧や信号変換)のための処理回路が配置される場合もあり、その場合、周辺回路における出力処理を経てから画素データが図1の信号処理部5に出力される。
The light condensed by the
The wavelength-selected light passes through the pixel opening provided so as not to block the light by the wiring or conductive layer of the
マイクロレンズアレイ31は、フォトセンサへの集光効率を向上させるためのものである。
本発明では図2に示す構成部品の中で、光学フィルタ32、フォトセンサ34に特徴があり、以下に詳述する。
The
The present invention is characterized by the
光学フィルタ32は、基本的な色配列に関しては、例えば図3(A)に示すように、一般的な撮像デバイス3の原色系カラーフィルタであるベイヤー配列と呼ばれる色配列となっている。ベイヤー配列では、赤(R)、緑(G)、緑(G)、青(B)の並びで、各色を透過させるフィルタ部が配列されている。
各色のフィルタ部の各フィルタ部は、各々が対応する1色の透過に加えて、近赤外(NIR)の波長も透過する特性になっている。各フィルタ部はR+NIR、G+NIR、B+NIRの透過特性をもつ。
図3(B)に示す光学フィルタ配列は、R+NIR、G+NIR、B+NIRにより示す表記によって、各色の可視光透過特性に加えて近赤外波長の透過特性をもつことを示している。第1実施形態では、図3(B)の配列をもつ光学フィルタ32が用いられる。
Regarding the basic color arrangement, the
Each filter section of each color filter section has a characteristic of transmitting a near-infrared (NIR) wavelength in addition to the transmission of one corresponding color. Each filter unit has transmission characteristics of R + NIR, G + NIR, and B + NIR.
The optical filter array shown in FIG. 3B indicates that it has a transmission characteristic of near infrared wavelength in addition to the visible light transmission characteristic of each color by the notation shown by R + NIR, G + NIR, and B + NIR. In the first embodiment, an
光学フィルタ32の特性を実現する手法としては、酸化金属膜等からなる複数の高屈折率膜を低屈折率の光透過膜を間に介在させて幾層にも重ねる手法が例示できる。このときの高屈折率膜の種類(例えば酸化金属膜の材質)や層数、低屈折率膜の種類(例えば光透過膜の材質)や厚さを制御することにより所望の波長選択特性の多層膜を実現できる。
As a technique for realizing the characteristics of the
図2に示すフォトセンサ34は、基板表面に近いRGBの可視光を検出する可視光センサ部と、可視光センサ部よりも光の入射方向において遠い位置(基板深部側)に形成されたNIRを検出する非可視光センサ部(以下、NIRセンサ部と呼ぶ)との2つのセンサ部の縦積み構造になっている。 The photosensor 34 shown in FIG. 2 includes a visible light sensor unit that detects visible light of RGB close to the substrate surface, and an NIR formed at a position farther in the light incident direction (substrate deeper side) than the visible light sensor unit. It has a vertically stacked structure of two sensor parts with a non-visible light sensor part to be detected (hereinafter referred to as an NIR sensor part).
可視光センサ部は、検出波長が長いセンサ部ほど基板深部側に位置する可視光センサ部を実現するために、複数の色に対応した検出波長に応じた複数の層として、N型とP型の半導体層の多層構造となっている。
言い換えると、3色あるいは4色の可視光を光電変換する可視光センサ部は、異なる波長域に主感度を有する3つまたは4つのセンサ部を、波長が長い波長域に対応したセンサ部ほど画像光が進入する光学フィルタ32の側から遠い位置に配置して構成している。
In order to realize a visible light sensor unit located on the deeper side of the substrate as the sensor unit with a longer detection wavelength, the visible light sensor unit has N-type and P-type as a plurality of layers corresponding to the detection wavelengths corresponding to a plurality of colors. The semiconductor layer has a multilayer structure.
In other words, in the visible light sensor unit that photoelectrically converts three or four colors of visible light, three or four sensor units having main sensitivities in different wavelength regions are imaged as the sensor units corresponding to the wavelength regions having longer wavelengths. It is arranged at a position far from the
なお、本実施形態における撮像デバイス3はRGBの原色系であるため3色の可視光を受光するが、後述する他の実施形態のように、例えば補色系の場合、4色の可視光を受光する。また、原色系でもRGBに加えて白(W)の受光画素をもつ4色配列の場合もある。
Note that since the
図3(B)に示す色配列の場合は、可視光センサ部は3色に主感度をもつ3つのセンサ部の縦積み構造を採る。
図4は、基板深部側から順にRGBに対応した3つのセンサ部(PN接合をもつフォトダイオード)の縦積みを実現する多重拡散層構造の模式図である。また、図5は、一般的な半導体基板材であるシリコン内の光吸収長対波長を表すグラフである。
In the case of the color arrangement shown in FIG. 3B, the visible light sensor unit has a vertically stacked structure of three sensor units having main sensitivity for three colors.
FIG. 4 is a schematic diagram of a multiple diffusion layer structure that realizes vertical stacking of three sensor units (photodiodes having a PN junction) corresponding to RGB in order from the deep side of the substrate. FIG. 5 is a graph showing the light absorption length versus wavelength in silicon, which is a general semiconductor substrate material.
図4に示す多重拡散層で実現した3つのセンサ部の縦積み構造は、図5のシリコンの光学特性を利用したものである。
図5に示されるように、シリコン表面(基板表面)側では、短波長側の光吸収係数が高く、逆に基板深部側では長波長側の光吸収係数が高くなる。これは、シリコン基板への入射光の波長が大きくなればなるほど、その光は吸収される前により深くシリコン内に入り込むことに起因する。よって、フォトダイオードを半導体基板内部の表面付近に形成した場合、長波長光に対して短波長光の吸収係数が相対的に高く、短波長光の方が表面付近でキャリアに変換される割合が高いため、短波長光に対する感度が相対的に高くなる。
The vertically stacked structure of the three sensor units realized by the multiple diffusion layers shown in FIG. 4 utilizes the optical characteristics of silicon in FIG.
As shown in FIG. 5, the light absorption coefficient on the short wavelength side is high on the silicon surface (substrate surface) side, and conversely, the light absorption coefficient on the long wavelength side is high on the deep side of the substrate. This is due to the fact that the greater the wavelength of light incident on the silicon substrate, the deeper the light enters the silicon before being absorbed. Therefore, when the photodiode is formed near the surface inside the semiconductor substrate, the absorption coefficient of short-wavelength light is relatively high with respect to long-wavelength light, and the proportion of short-wavelength light converted into carriers near the surface is higher. Since it is high, sensitivity to short wavelength light is relatively high.
400〜490nmの波長をもつ青色光は、その大部分が約0.2〜0.5μmの深さでシリコン基板に吸収される。このため、図4に示すように最も浅いn型層39と次に深いp型ウェル38とによって、青(B)の波長に主感度をもつフォトダイオード(センサ部)が、図4の例では基板表面から0.2μm程度の深さを中心に形成されている。
一方、600〜750nmと最も波長が長い赤色光は、その大部分が約2.0〜7.5μmの深さでシリコンに吸収される。このため、図4に示すように最も深いn型ウェル37とp型の半導体基板35とによって、赤(R)の波長に主感度をもつ他のフォトダイオード(センサ部)が、図4の例では基板表面から2.8μm程度の深さを中心に形成されている。
500〜560nmと青と赤の間の波長をもつ緑色光は、その大部分が約0.8〜1.5μmの深さでシリコンに吸収される。そのため、図4の例では、p型ウェル38とn型ウェル37によって、緑(G)の波長に主感度をもつ他のフォトダイオード(センサ部)が、図4の例では基板表面から0.8μmの深さを中心に形成されている。
図4の各センサ部中心(pn接合面)の深さは一例であり、青(B)センサ部は0.2〜0.5μm、緑(G)センサ部は0.8〜1.5μm、赤(R)センサ部は2.0〜7.5μmの各深さ範囲内で任意に設定される。
Most of the blue light having a wavelength of 400 to 490 nm is absorbed by the silicon substrate at a depth of about 0.2 to 0.5 μm. For this reason, as shown in FIG. 4, the photodiode (sensor part) having the main sensitivity to the wavelength of blue (B) by the shallowest n-type layer 39 and the next deepest p-type well 38 in the example of FIG. It is formed around a depth of about 0.2 μm from the substrate surface.
On the other hand, most of red light having the longest wavelength of 600 to 750 nm is absorbed by silicon at a depth of about 2.0 to 7.5 μm. Therefore, as shown in FIG. 4, the deepest n-
Green light having a wavelength between 500 and 560 nm and between blue and red is mostly absorbed by silicon at a depth of about 0.8 to 1.5 μm. Therefore, in the example of FIG. 4, the p-type well 38 and the n-type well 37 allow another photodiode (sensor part) having a main sensitivity to the green (G) wavelength to reach 0. It is formed around a depth of 8 μm.
The depth of the center of each sensor part (pn junction surface) in FIG. 4 is an example, the blue (B) sensor part is 0.2 to 0.5 μm, the green (G) sensor part is 0.8 to 1.5 μm, The red (R) sensor unit is arbitrarily set within each depth range of 2.0 to 7.5 μm.
一方、800〜900nmの波長の近赤外光は30μm以下程度の深さでシリコン基板に吸収される。そのため、図4には図示していないが、n型ウェル37より更に深いp型ウェルを設けることで近赤外光センサ部が形成される。
On the other hand, near-infrared light having a wavelength of 800 to 900 nm is absorbed by the silicon substrate at a depth of about 30 μm or less. Therefore, although not shown in FIG. 4, a near-infrared light sensor portion is formed by providing a p-type well deeper than the n-
図6に、第1の実施形態に関わる撮像デバイス3の、より詳細な模式断面図を示す。図6は図2の構成をさらに詳細表示した図であり、両図に共通な構成は同一符号で示す。
図6に示す断面は、図3(B)に示す光学フィルタ配列において、A−A線の断面に相当する。
図6に示されるように、近赤外光(NIR)のセンサ部を図4の構成に付加するために、半導体基板35に画素に共通なp型ウェル36が形成されている。
FIG. 6 shows a more detailed schematic cross-sectional view of the
The cross section shown in FIG. 6 corresponds to a cross section taken along line AA in the optical filter array shown in FIG.
As shown in FIG. 6, a p-type well 36 common to the pixels is formed in the
フィルタ部(R+NIR)を透過した光を受光する画素のフォトセンサ34Rは、画素に共通なp型ウェル36の内部に形成されている。
最も深い1層目のn型ウェル37が、第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。3層目のn型層39Rは、赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。2層目のp型ウェル38Rは、上記1層目と3層目の深さ方向の間に形成されている。
p型ウェル36と1層目のn型ウェル37によるpn接合位置にNIR検出のための非可視光センサ部が形成され、2層目のp型ウェル38Rと3層目のn型層39Rによるpn接合位置にR検出のための可視光線センサ部が形成されている。
A
The deepest n-type well 37 in the first layer is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting portion 2A (FIG. 1). . The third n-
A non-visible light sensor portion for NIR detection is formed at a pn junction position between the p-
本例では信号電荷(受光電荷)が電子であるため、各センサ部のn型層が電荷蓄積層となる。よって、n型ウェル37からNIR画像(非可視光画像)を構成するNIR画素データが出力される。また、n型層39Rから可視光画像のR画素成分のデータが出力される。
In this example, since the signal charge (light-receiving charge) is an electron, the n-type layer of each sensor unit is a charge storage layer. Therefore, NIR pixel data constituting an NIR image (non-visible light image) is output from the n-
このように、フィルタ部(R+NIR)を透過したRとNIRの光は、フォトセンサ34Rの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
As described above, the R and NIR lights transmitted through the filter unit (R + NIR) are dispersed by the depth of the
フィルタ部(G+NIR)を透過した光を受光するフォトセンサ34Gにおいて、1層目のn型ウェル37はフォトセンサ34Rと同じである。ただし、2層目のp型ウェル38Gと3層目のn型層39Gの深さが緑(G)の感度範囲に両者の境界(pn接合)が位置するように形成される。
具体的には、3層目のn型層39Gが緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されており、2層目のp型ウェル38Gは1層目と3層目の間の深さに形成されている。
n型層39Gから可視光画像のG画素成分のデータが出力され、n型ウェル37から非可視光画像のNIR画素データが出力される。
このように、フィルタ部(G+NIR)を透過したGとNIRの光は、フォトセンサ34Gの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
In the
Specifically, the third n-
The G pixel component data of the visible light image is output from the n-
As described above, the G and NIR lights transmitted through the filter unit (G + NIR) are dispersed by the depth of the
フィルタ部(B+NIR)を透過した光を受光するフォトセンサ34Bにおいて、1層目のn型ウェル37はフォトセンサ34R、34Gと同じである。ただし、2層目のp型ウェル38Bと3層目のn型層39Bの深さが青(B)の感度範囲に両者の境界(pn接合)が位置するように形成される。
具体的には、3層目のn型層39Bが青色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されており、2層目のp型ウェル38Bは1層目と3層目の間の深さに形成されている。
n型層39Bから可視光画像のB画素成分のデータが出力され、n型ウェル37から非可視光画像のNIR画素データが出力される。
このように、フィルタ部(B+NIR)を透過したBとNIRの光は、フォトセンサ34Bの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
In the
Specifically, the third n-
Data of the B pixel component of the visible light image is output from the n-
As described above, the B and NIR lights transmitted through the filter unit (B + NIR) are dispersed by the depth of the photosensor 34B, separated by the output unit formed in the
[出力部]
本例の場合、各画素ごとに出力部40が設けられている。
出力部40は、複数の電荷蓄積部41と、n型ウェル37からの受光電荷の出力先を複数の電荷蓄積部41の何れかに切り替えるスイッチ43とを有する。出力部40に出力回路42を含む。出力回路42は、セレクタの機能を基本として、必要に応じて増幅やリセットの機能を併せもつ。1つの出力回路42に対し、n型層39R,39G,39Bの何れかの可視光画素データと、電荷蓄積部41の少なくとも1つからのNIR画素データとが入力可能となっている。出力回路42は、基本的には、これらの画素データを選択して出力するセレクタの一種である。
出力部40は、図1の制御部6からの制御信号を不図示の外部端子を介して入力するか、または、制御部6によって統括制御される撮像デバイス3の内部の制御回路によって制御信号が与えられる。これにより、スイッチ切り替え、電荷蓄積制御および出力選択制御が実行される。
[Output section]
In the case of this example, an
The
The
出力部40から可視光画素データが出力される場合、不図示の出力信号線(垂直信号線ともいう)から撮像デバイス3内の周辺回路を経て、可視光画素データが順次出力され、図1の信号処理部5に送られる。信号処理部5は、ノイズ除去や色補正等の必要な信号処理を行って可視光画像(本例ではRGB画像)を生成する。
一方、出力部40から非可視光データ(NIR画素データ)が出力されると、これを明暗画像の構成データとして利用してもよいが、本例では距離検出や生体検出にNIR画素データを利用する。この検出処理は図1の信号処理部5により行われる。
When visible light pixel data is output from the
On the other hand, when non-visible light data (NIR pixel data) is output from the
なお、撮像デバイス3がCCDであるか、あるいはCMOSイメージセンサであるかといったデバイスの種類によっては、出力部40の構成や配置箇所が異なることがある。
例えば、CMOSイメージセンサの場合、画素回路と呼ばれ信号電荷のリセットと増幅読み出しの動作を行う回路が画素ごとに設けられる。そのため、画素ごとの画素回路内に、出力部40を形成することが可能である。その場合、画素回路の規模が大きくなるが、電荷蓄積部41は、例えば2つの導電層間に誘電体膜を挟むキャパシタ等で構成されるため、基板トランジスタ回路の上層に積層される。また、出力回路42も複数のスイッチ程度で構成可能である。よって、CMOSイメージセンサの場合、画素サイズを大きくしなくとも出力部40を実装可能である。
Depending on the type of device, such as whether the
For example, in the case of a CMOS image sensor, a circuit called a pixel circuit that performs signal charge resetting and amplification readout operations is provided for each pixel. Therefore, the
一方、CCDの場合は、垂直電荷転送のための垂直レジスタと受光部で画素面積のほとんどが占められ、スイッチの類は、読み出しゲートと呼ばれるトランジスタが画素ごとに設けられる。そのためトランジスタの付加はCMOSイメージセンサほど容易でない。
ただし、読み出しゲートや垂直CCDを広く覆う遮光膜上にTFTによってトランジスタ回路を形成することが可能である。また、裏面照射型の撮像デバイスでは、マイクロレンズアレイやカラーフィルタが基板裏面に貼られ、基板裏面から光を受光し、表面側から排出可能となっている。そのため、表面側に比較的大きな回路を形成しても、そのことが画素サイズの拡大要因になりにくい。
よって、撮像デバイス3がCCDの場合でも出力部40の実装が可能である。
On the other hand, in the case of a CCD, most of the pixel area is occupied by a vertical register and a light receiving unit for vertical charge transfer, and in a switch type, a transistor called a read gate is provided for each pixel. Therefore, the addition of a transistor is not as easy as a CMOS image sensor.
However, it is possible to form a transistor circuit with TFTs on a light shielding film that covers the readout gate and the vertical CCD widely. In the backside illumination type imaging device, a microlens array and a color filter are attached to the backside of the substrate, and light can be received from the backside of the substrate and discharged from the frontside. For this reason, even if a relatively large circuit is formed on the surface side, it is unlikely that the pixel size is increased.
Therefore, the
なお、撮像デバイス3の種類によらず、複数の画素で出力部40を共用する構成も可能である。例えば、1本の出力信号線に共通接続される画素ならば、複数の画素に対して出力部40への入力を切り替えるスイッチをさらに付加することで出力部40の共用が可能である。
A configuration in which the
[距離測定手法]
被写体までの距離測定について説明する。
光を投射し、被写体100からの反射光を検出し、その遅れ時間を計測するTOF(Time of flight)を利用した距離測定方式は、既にいくつか提案されている。
[Distance measurement method]
The distance measurement to the subject will be described.
Several distance measurement methods using TOF (Time of Flight) that project light, detect reflected light from the subject 100, and measure the delay time have already been proposed.
本発明の実施形態では、以下の方式が採用可能である。
図1に示すように、第1の発光部2Aから被写体100に向け、非可視(ここではNIR)のパルス光を発光する。
被写体100からの反射光(戻り光)を撮像デバイス3にて受光し、内部の非可視光(NIR)のセンサ部にて、戻り光が光電変換され電荷が発生する。発生した電荷は、パルス光の発光と同期して交互に作動するスイッチ43により、第1,第2の電荷蓄積部41,41へと振り分けられ、出力回路42から画素外部の出力信号線やレジスタ等で転送される。
このとき第1,第2の電荷蓄積部に振り分けられる電荷の配分比から、被写体100までの距離を求める。その際、パルス状の照射光に対応して被写体での反射光がセンサ部に入射されない期間を存在させる。この期間はセンサ部で光電変換される光は被写体の背景光や周りからのノイズ光であるため、この期間の発生電荷をスイッチ43を作動させることで第3の電荷蓄積部41へ転送する。この背景光の電荷は、検出電荷とは識別可能に外部の信号処理部5まで送られ、信号処理部5によって背景光除去のための処理に使用される。
背景光やノイズのみの期間以外が距離測定期間となる。
In the embodiment of the present invention, the following method can be employed.
As shown in FIG. 1, invisible (NIR in this case) pulsed light is emitted toward the subject 100 from the first light emitting unit 2A.
Reflected light (return light) from the subject 100 is received by the
At this time, the distance to the subject 100 is obtained from the distribution ratio of the charges distributed to the first and second charge storage units. At this time, there is a period in which the reflected light from the subject is not incident on the sensor unit corresponding to the pulsed irradiation light. During this period, the light photoelectrically converted by the sensor unit is background light of the subject or noise light from the surroundings. Therefore, the generated charge in this period is transferred to the third charge storage unit 41 by operating the
The period other than the background light or noise period is the distance measurement period.
図7に、具体的なパルス波形に対する距離測定タイミングの設定例を示す。
図7(A)に発光パルスを示し、発光パルスに時間的に遅れた受光パルス、即ち光電変換により発生した信号のパルス(以下、受光パルスという)を図7(B)に示す。
図7(A)に示す発光パルスは、ここでは1パルスのみ示すが、実際には発光パルスが周期的に被写体に向けて繰り返し発光される。被写体で反射して発生した戻り光が撮像デバイスで受光される。このときの受光開始点は、対応する発光パルスの発行開始点より時間的に遅れる。この発光開始から受光開始までの時間差が被写体の距離におおよそ比例するため、この時間差が検出対象である。
FIG. 7 shows a setting example of distance measurement timing for a specific pulse waveform.
FIG. 7A shows a light emission pulse, and FIG. 7B shows a light reception pulse delayed in time with respect to the light emission pulse, that is, a pulse of a signal generated by photoelectric conversion (hereinafter referred to as a light reception pulse).
The light emission pulse shown in FIG. 7A shows only one pulse here, but in actuality, the light emission pulse is repeatedly emitted toward the subject periodically. Return light generated by reflection from the subject is received by the imaging device. The light reception start point at this time is delayed in time from the corresponding light emission pulse issuance start point. Since the time difference from the start of light emission to the start of light reception is approximately proportional to the distance of the subject, this time difference is the detection target.
時間差測定のために、本例では距離測定期間を設定する。ここでは、受光開始から受光終了までの受光パルスの持続時間を距離測定期間とする。距離測定期間は確実に受光パルスが持続している期間であればよいため、受光パルスの持続期間内であれば、任意に設定可能である。
CPU等の制御部は、この距離測定期間内のあるタイミングで図6に示すスイッチ43を切り替えて、それより前の受光パルス部分のA電荷と、それより後の受光パルス部分のB電荷との2つに、受光パルスの電荷を振り分ける。振り分けられたA電荷とB電荷は図6に示す異なる2つの電荷蓄積部41,41で蓄積され、互いに識別が可能なように、例えば異なるタイミングで出力信号線を通して電圧値として読み出される。
In this example, a distance measurement period is set for time difference measurement. Here, the duration of the light reception pulse from the start of light reception to the end of light reception is defined as a distance measurement period. Since the distance measurement period only needs to be a period in which the light reception pulse is reliably maintained, it can be arbitrarily set as long as it is within the duration of the light reception pulse.
A control unit such as a CPU switches the
読み出されたA電荷とB電荷(電荷量に比例した2つの電圧値)は、図1に示す信号処理部5に入力され、両電荷(両電圧値)の比が計算される。そして、この計算の結果から、検出対象である上記時間差、つまり発光開始から受光開始までの時間差におおよそ比例した被写体までの距離が信号処理部5にて算出される。 The read A charge and B charge (two voltage values proportional to the charge amount) are input to the signal processing unit 5 shown in FIG. 1, and the ratio of both charges (both voltage values) is calculated. From the result of this calculation, the signal processing unit 5 calculates the distance to the subject that is approximately proportional to the time difference that is the detection target, that is, the time difference from the start of light emission to the start of light reception.
なお、本発明の距離測定方法について、その方法は上記したものに限定されない。非可視光(NIR)センサ部より後段のスイッチ43や電荷蓄積部41、配線、信号処理部5等を変更することにより、他の方法でも実現可能である。
また、この距離測定は、RGBのセンサ部と別のセンサ部を使用しているため、RGB画像の取得と距離測定を同時に並行して行うことができる。さらに、距離測定をRGB画像と対応させた画素アドレスのデータを用いて行うことができるため、測定結果と被写体との対応関係が取りやすい。例えば、被写体の画像位置(画素アドレス範囲)と距離測定の戻り光が検出された画素アドレスが大きく異なる場合は、エラーとして測定結果を無効化することが可能である。
In addition, about the distance measuring method of this invention, the method is not limited to what was mentioned above. Other methods can be realized by changing the
Further, since this distance measurement uses a sensor unit different from the RGB sensor unit, acquisition of RGB images and distance measurement can be performed simultaneously in parallel. Furthermore, since the distance measurement can be performed using pixel address data corresponding to the RGB image, the correspondence between the measurement result and the subject can be easily obtained. For example, when the image position of the subject (pixel address range) and the pixel address where the return light of distance measurement is detected are greatly different, the measurement result can be invalidated as an error.
[生体検出手法]
つぎに、人の皮膚等の生体検出方法について説明する。
図1において、第1の発光部2Aから被写体100に向け、第1の波長領域をもつ非可視光(第1NIR光)が投射される。
被写体100からの反射光(戻り光)を撮像デバイス3にて受光し、内部の非可視光(NIR)センサ部にて光電変換される。
第2の発光部2Bからは、第1の波長領域とは異なる波長領域の非可視光(第2NIR光)が投射される。
被写体100からの反射光(戻り光)は、同様にして撮像デバイス3にて光電変換される。
第1の発光部2Aによる投射と第2の発光部2Bによる投射は交互になされるように制御される。また非可視光(NIR)センサ部の出力を複数の電荷蓄積部41に対して振り分けるスイッチ43が、第1および第2の発光部2A,2Bによる投射と同期して開閉される。その結果、第1の発光部2Aからの反射光は第1の電荷蓄積部41へ、第2の発光部2Bからの反射光は他の第2の電荷蓄積部41へ入力されて蓄積される。
[Biological detection method]
Next, a method for detecting a living body such as human skin will be described.
In FIG. 1, invisible light (first NIR light) having a first wavelength region is projected from the first
Reflected light (returned light) from the subject 100 is received by the
Invisible light (second NIR light) in a wavelength region different from the first wavelength region is projected from the second
The reflected light (return light) from the subject 100 is photoelectrically converted by the
The projection by the first light emitting unit 2A and the projection by the second
それぞれの検出信号は、配線を介して信号処理部5に取り込まれる。第1の発光部2Aから出射された第1NIR光の反射光により発生したNIR画素データから第1の非可視光画像が取得される。第2の発光部2Bから出射された第2NIR光の反射光により発生したNIR画素データから第2の非可視光画像が取得される。
第1および第2の非可視光画像は、同じ対象を同じ画角で同じ時間だけ撮像した画像であるため、照射光の波長が同じならば画像内の各アドレスにおけるデータ量は基本的に同じとなる。
Each detection signal is taken into the signal processing unit 5 through the wiring. A first invisible light image is obtained from NIR pixel data generated by reflected light of the first NIR light emitted from the first light emitting unit 2A. A second invisible light image is acquired from NIR pixel data generated by the reflected light of the second NIR light emitted from the second
Since the first and second invisible light images are images of the same object captured at the same angle of view for the same time, the amount of data at each address in the image is basically the same if the wavelength of the irradiation light is the same. It becomes.
ここでは2つの照射光の波長が人の肌で反射率の差が大きくなるように選択されている。このため、第1の非可視光画像と第2の非可視光画像において各アドレスの画素データ間で差分を取ると、人の肌の画像箇所だけ、この差分が増大し、その増大箇所を閾値判定することで生体検出を行う。
その際、第1の発光部2Aと第2の発光部2Bの照射光の波長差による非可視光(NIR)センサ部の感度差を補正した後、両者の差を演算する。この生体検出では、RGBのセンサ部と別のセンサ部を使用しているため、RGB画像の取得と生体検出を同時に並行して行うことができる。
生体検出の結果は、RGB画像(可視光画像)から人の肌部分を抜き取る処理等に用いられる。
本実施形態の撮像デバイス3においては、可視光センサ部と非可視光センサ部がデバイス内で光の入射方向に並んで(基板深部方向に重ねて)配設されている。そのため、RGB画像のアドレスと非可視光画像のアドレスが同じならば、被写体100の同じ点を撮像したものであることが保証される。そのため、生体検出の精度が高く、肌画像の抽出が正確に行える。
Here, the wavelengths of the two irradiation lights are selected so that the difference in reflectance between human skins becomes large. For this reason, when the difference is taken between the pixel data of each address in the first invisible light image and the second invisible light image, this difference increases only in the image portion of the human skin, and the increased portion is determined as a threshold value. Living body detection is performed by determining.
At that time, after correcting the sensitivity difference of the invisible light (NIR) sensor unit due to the wavelength difference of the irradiation light of the first light emitting unit 2A and the second
The result of living body detection is used for a process of extracting a human skin portion from an RGB image (visible light image).
In the
[近赤外光画像(明暗画像)]
つぎに近赤外光画像について説明する。
各画素の非可視光(NIR)センサ部は、近赤外光(NIR)を検出するものであり、非可視光(NIR)センサ部からの検出信号は、通常の近赤外光画像(NIR画像)として利用してもよい。
NIR画像は、一般的なCCDやCMOSイメージセンサと同様、フレームごとに出力部(画素回路または垂直・水平転送レジスタ等)を経由して外部に出力され、図1の信号処理部5にて必要な処理が施される。
[Near-infrared light image (bright and dark image)]
Next, a near infrared light image will be described.
The non-visible light (NIR) sensor unit of each pixel detects near infrared light (NIR), and the detection signal from the non-visible light (NIR) sensor unit is a normal near infrared light image (NIR). (Image).
The NIR image is output to the outside via an output unit (pixel circuit or vertical / horizontal transfer register, etc.) for each frame, as in a general CCD or CMOS image sensor, and is required by the signal processing unit 5 in FIG. Is processed.
夜間等のように近赤外光が少ない場合は、第1,第2の発光部2A,2Bの一方または両方により被写体100を照らす。この近赤外光画像の取得は、RGB画像の取得時とは別のフォトセンサ(フォトセンサ内のセンサ部)を使用しているため、RGB画像の取得と近赤外光画像の取得を同時に並行して行うことができる。
距離測定、生体検出、RGB画像、近赤外光画像を取得する際、RGBセンサ部を使用するRGB画像の取得と、NIRセンサ部を使用する距離測定、生体検出、近赤外光画像取得の3動作の1つは同時に実行することが可能である。NIRセンサ部を使用する上記3動作のうち複数を実行するためには、これを時系列で順番に行う必要がある。
When there is little near-infrared light, such as at night, the subject 100 is illuminated by one or both of the first and second
When acquiring distance measurement, living body detection, RGB image, near infrared light image, acquisition of RGB image using RGB sensor part, distance measurement using NIR sensor part, living body detection, near infrared light image acquisition One of the three operations can be performed simultaneously. In order to execute a plurality of the above three operations using the NIR sensor unit, it is necessary to perform this in time series.
<2.第2の実施形態>
本発明の第2の実施形態について説明する。
第1の実施形態と異なるのは、撮像デバイス3の光学フィルタ32とフォトセンサ34の構造である。
第1の実施形態では撮像デバイス3のカラーフィルタとして、赤、緑、青の原色系のもの(図3(B))を用いた。第2の実施形態では、シアン(Cy=B+G)、マゼンタ(Mg=B+R)、黄(Ye=G+R)、緑(G)の補色系カラーフィルタ(図8(A))に、NIR波長を透過する機能を付加したもの(図8(B))を用いる。
<2. Second Embodiment>
A second embodiment of the present invention will be described.
The difference from the first embodiment is the structure of the
In the first embodiment, as the color filter of the
図8(B)に示す光学フィルタ32において、各色のフィルタ部は、各々の色の透過に加えて近赤外(NIR)の波長も透過する特性になっている。各フィルタ部は、シアン(Cy)をB+G+NIR(以下、Cy+NIR)と表記する。また、マゼンタ(Mg)をB+R+NIR(以下、Mg+NIR)と表記し、黄(Ye)をG+R+NIR(以下、Ye+NIR)と表記し、緑(G)をG+NIRと表記する。各フィルタ部は、それぞれの光の透過特性をもつ。
Cy、Mg、Ye、Gの補色系カラーフィルタについては、その基本は既に広く一般的に使用されているもの(図8(A))である。この基本構成にNIRの透過特性を付加して図8(B)のフィルタを形成する方法は、前述した原色系フィルタと同様な多層膜構造の方法で実現可能である。
In the
The basic color filters of Cy, Mg, Ye, and G are already widely used (FIG. 8A). The method of forming the filter shown in FIG. 8B by adding NIR transmission characteristics to this basic configuration can be realized by a multilayer film structure method similar to the primary color filter described above.
図9に、デバイス断面の模式図を示す。
第2の実施形態のフォトセンサも表面に近いRGBの可視光を検出する層と、深い位置に形成されたNIRを検出する層で構成される。
Cy、Mg、YeについてはそれぞれRGBの可視光が2色ずつ混ざっている。そのため、このフォトセンサは、RGBの2色をそれぞれ検出するn型の層が2層必要となり、その間を分離するp型のバッファ層PBが追加されている。
第2の実施形態の構造も、光の波長によってシリコン基板へ入り込む深さが異なることを利用したものである。
FIG. 9 shows a schematic view of a device cross section.
The photosensor according to the second embodiment is also composed of a layer that detects RGB visible light close to the surface and a layer that detects NIR formed at a deep position.
For Cy, Mg, and Ye, two colors of visible light of RGB are mixed. For this reason, this photosensor requires two n-type layers for detecting two colors of RGB, respectively, and a p-type buffer layer PB for separating the layers is added.
The structure of the second embodiment also utilizes the fact that the depth entering the silicon substrate differs depending on the wavelength of light.
フィルタ部(Cy+NIR)を透過した光を受光するフォトセンサは、最表面側の3層目のn型層39Bが青色光に強く感度をもつ深さ(表面から0.2〜0.5μm程度)に形成されている。2層目のn型層が緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。一番深い1層目のセンサ部のn型層(n型ウェル37)は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
The photo sensor that receives the light transmitted through the filter unit (Cy + NIR) has a depth that the third n-
フィルタ部(Cy+NIR)を透過したBとGとNIRの光は、センサ部の深さによって分光され、Bが第3層のn型層39B、Gが2層目のn型層、NIRが第1層のn型ウェル37で蓄積され可視光または非可視光の画素データとして分離して出力される。
The B, G, and NIR light transmitted through the filter unit (Cy + NIR) is dispersed according to the depth of the sensor unit, where B is the third n-
フィルタ部(Mg+NIR)を透過した光を受光するフォトセンサは、3層目のn型層39Bが青色光に強く感度をもつ深さ(表面から0.2〜0.5μm程度)に形成されている。2層目のn型層が赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。一番深い1層目のn型層(n型ウェル37)は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
光学フィルタ(Mg+NIR)を透過したBとRとNIRの光は、センサ部の深さによって分光され、Bが第3層のn型層39R、Rが第2層のn型層、NIRが第1層のn型ウェル37で蓄積され可視光または非可視光の画素データとして出力される。
The photo sensor that receives the light transmitted through the filter unit (Mg + NIR) is formed with a depth (about 0.2 to 0.5 μm from the surface) at which the third n-
The light of B, R, and NIR that has passed through the optical filter (Mg + NIR) is dispersed according to the depth of the sensor portion, where B is the third n-
フィルタ部(Ye+NIR)を透過した光を受光するフォトセンサは、3層目のn型層39Gが緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。2層目のn型層は赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。1層目のn型層(n型ウェル37)は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Ye+NIR)を透過したGとRとNIRの光は、フォトセンサの深さによって分光され、Gが第3層のn型層39G、Rが第2層のn型層、NIRが第1層のn型ウェル37で蓄積され可視光または非可視光の画素データとして分離されて出力される。
The photo sensor that receives light transmitted through the filter unit (Ye + NIR) is formed with a depth (about 0.8 to 1.5 μm from the surface) at which the third n-
The light of G, R, and NIR transmitted through the filter unit (Ye + NIR) is dispersed according to the depth of the photosensor, where G is the third n-
フィルタ部(G+NIR)を透過した光を受光するフォトセンサは、2層目のセンサ部は緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。1層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(G+NIR)を透過したGとNIRの光は、センサ部の深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
これに関しては、第1の実施形態のG+NIR部(図6)と同じ構造である。
In the photosensor that receives light transmitted through the filter portion (G + NIR), the sensor portion of the second layer is formed at a depth (about 0.8 to 1.5 μm from the surface) that is sensitive to green light and sensitive. The sensor part of the first layer is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting part 2A (FIG. 1).
The G and NIR lights that have passed through the filter unit (G + NIR) are separated by the depth of the sensor unit, separated by the output unit formed in the
This is the same structure as the G + NIR part (FIG. 6) of the first embodiment.
各センサ部の深さについては一例であり、各光の分光特性と検出光量が使用上問題とならない範囲で変更が可能である。
各画素のフィルタ部からはRGBの2色が混合された光がフォトセンサに入射される。この入射光をRGBに分離してセンサ部で検出し、それらの同じ色の原色信号同士(例えばRはR同士)を足し算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。
NIRセンサ部からの検出信号の扱い、即ち、明暗画像として用いるか、距離測定と生体検出の少なくとも一方の処理に用いるかは第1の実施形態と同様に任意である。また、これらの処理自体は第1の実施形態で説明した手法を用いることができる。
The depth of each sensor unit is an example, and can be changed as long as the spectral characteristics and the detected light quantity of each light do not cause a problem in use.
Light mixed with two colors of RGB enters the photosensor from the filter portion of each pixel. This incident light is separated into RGB and detected by the sensor unit, and the primary color signals of the same color (for example, R is R) are added to convert them into RGB signals, which are used as normal RGB color images. The
The handling of the detection signal from the NIR sensor unit, that is, whether it is used as a bright / dark image or at least one of the distance measurement and the living body detection, is arbitrary as in the first embodiment. In addition, these processes themselves can use the method described in the first embodiment.
第2の実施形態は、第1の実施形態と比較して、RGBの光量が2倍に増えるという利点と、3層構造になる分、製造工程が増えるという不利な点がある。 Compared with the first embodiment, the second embodiment has the advantage that the amount of RGB light is doubled and the disadvantage that the manufacturing process is increased by the three-layer structure.
<3.第3の実施形態>
本発明の第3の実施形態について説明する。
図10に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第1,第2の実施形態と異なるのは、撮像デバイス3の光学フィルタ32とフォトセンサ34の構造である。
第3の実施形態では撮像デバイス3に原色系や補色系といった光学フィルタが存在しない。受光した全波長の光がフォトセンサ内に入り込み、センサ部の深さによる分光でR、G、B、NIRを検出する。
<3. Third Embodiment>
A third embodiment of the present invention will be described.
FIG. 10 schematically shows a cross-sectional configuration of the pixel array of the
The difference from the first and second embodiments is the structure of the
In the third embodiment, the
第3の実施形態のフォトセンサは全ての画素で同じ4層構造のセンサ部(n型層に電荷蓄積するpn接合ダイオード)を有している。第2の実施形態と同様に、n型層の間にはp型のバッファ層PBが介在する。
4層目のセンサ部のpn接合は青色光に強く感度をもつ深さ(表面から0.2〜0.5μm程度)に形成されている。3層目のセンサ部のpn接合は緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。2層目のセンサ部pn接合は赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。1層目のセンサ部のpn接合は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
The photosensor according to the third embodiment has the same four-layer sensor unit (pn junction diode that accumulates charges in an n-type layer) in all pixels. Similar to the second embodiment, a p-type buffer layer PB is interposed between n-type layers.
The pn junction of the sensor portion of the fourth layer is formed at a depth (about 0.2 to 0.5 μm from the surface) that is highly sensitive to blue light. The pn junction of the sensor part of the third layer is formed at a depth (about 0.8 to 1.5 μm from the surface) that is strongly sensitive to green light. The sensor layer pn junction of the second layer is formed at a depth (about 2.0 to 7.5 μm from the surface) that is highly sensitive to red light. The pn junction of the sensor part of the first layer is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting part 2A (FIG. 1).
各センサ部のpn接合深さについては一例であり、各光の分光特性と検出光量が使用上問題とならない範囲で変更が可能である。
各画素にR、G、B、NIRが混合された光が入射され、この光をフォトセンサ34で分離して各々のセンサ部から出力する。RGBの各画素データは、通常のRGBのカラー画像として利用される。
NIRセンサ部からの検出信号の扱い、即ち、明暗画像として用いるか、距離測定と生体検出の少なくとも一方の処理に用いるかは第1の実施形態と同様に任意である。また、これらの処理自体は第1の実施形態で説明した手法を用いることができる。
The pn junction depth of each sensor unit is an example, and can be changed within a range in which the spectral characteristics and the detected light amount of each light do not cause a problem in use.
Light mixed with R, G, B, and NIR is incident on each pixel, and the light is separated by the
The handling of the detection signal from the NIR sensor unit, that is, whether it is used as a bright / dark image or at least one of the distance measurement and the living body detection, is arbitrary as in the first embodiment. In addition, these processes themselves can use the method described in the first embodiment.
第3の実施形態は、他の実施形態と比較して、RGBの光量が増える、光学フィルタ32が不要という利点がある一方で、4層構造になる分、製造工程が増えるという不利な点がある。
Compared to the other embodiments, the third embodiment has the advantage that the amount of RGB light is increased and the
<4.第4の実施形態>
本発明の第4の実施形態について説明する。
図11に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第1の実施形態(図6)と異なるのは、撮像デバイス3の光学フィルタ32とフォトセンサ34の構造である。
光学フィルタ32は一般的な撮像デバイス3のカラーフィルタであるRGB透過フィルタのうち、少なくともGとBに関しては近赤外(NIR)の波長も透過する特性を加えたものを使用する。
<4. Fourth Embodiment>
A fourth embodiment of the present invention will be described.
FIG. 11 schematically shows a cross-sectional configuration of the pixel array of the
The difference from the first embodiment (FIG. 6) is the structure of the
As the
第4の実施形態では、Rの画素に関しては、フォトセンサによるNIRの検出をしないので、光学フィルタ32のNIR透過機能は必須ではない。よって第4の実施形態の光学フィルタ32は、RGBフィルタの基本構成がRのみ透過(IRは遮断)、G+NIRを透過、B+NIRを透過の特性をもつ。
In the fourth embodiment, the NIR transmission function of the
第4の実施形態はNIRセンサ部を第1〜第3の実施形態と比較して、深さを浅く設定することを特徴とする。
第1〜第3の実施形態では、NIRセンサ部の形成深さを30μm以下程度としていたが、第4の実施形態では製造工程を容易にするようにNIRセンサ部の深さを10μm以下の程度とする。
NIRセンサ部の深さを浅くする場合、第1の実施形態のままだと、R検出用のセンサ部とNIRセンサ部が近接または同じ深さに形成されることになる。そのため、NIRセンサ部とRセンサ部を深さ方向の層構造で形成することが困難になる。
The fourth embodiment is characterized in that the NIR sensor unit is set to a shallower depth than the first to third embodiments.
In the first to third embodiments, the formation depth of the NIR sensor portion is about 30 μm or less. However, in the fourth embodiment, the depth of the NIR sensor portion is about 10 μm or less so as to facilitate the manufacturing process. And
When the depth of the NIR sensor portion is reduced, if the first embodiment is maintained, the R detection sensor portion and the NIR sensor portion are formed close to or at the same depth. Therefore, it becomes difficult to form the NIR sensor portion and the R sensor portion with a layer structure in the depth direction.
その解決策として、赤を透過するフィルタ部をもつ画素ではNIRセンサ部を形成せず、NIRの検出を行わない。NIRの検出を行わない画素では、周辺の画素のNIR検出値から平均化しデータ補間してNIR画素データを生成する。あるいは、RGGBの4画素を1点として、解像度を落として使用する。
またNIRの検出深さを浅くすることの不利な点として、当然NIR波長の光の感度低下が生じる。その分は、第1および第2の発光部2A,2Bの投射光量を増すことで対処が可能になる。
As a solution, an NIR sensor portion is not formed in a pixel having a filter portion that transmits red, and NIR detection is not performed. For pixels that do not perform NIR detection, NIR pixel data is generated by averaging and interpolating data from the NIR detection values of surrounding pixels. Alternatively, four pixels of RGGB are used as one point and the resolution is lowered.
Further, as a disadvantage of reducing the detection depth of NIR, naturally, the sensitivity of light of NIR wavelength is lowered. This can be dealt with by increasing the amount of light projected from the first and second
フィルタ部(R)を透過した光を受光するフォトセンサ34Rは、1層目のセンサ部を構成するn型ウェル37が赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。第1層のセンサ部によりRの検出が行われる。
フィルタ部(G+NIR)を透過した光を受光するフォトセンサ34Gと、フィルタ部(B+NIR)を透過した光を受光するフォトセンサ34Bは、図6の場合と同じように形成されている。
The
The
各センサ部の深さについては一例であり、各光の分光特性と検出光量が使用上問題とならない範囲で変更が可能である。また、CCDやCMOSイメージセンサへの適用、距離測定、生体検出、近赤外光画像として使用されることでも第1の実施形態と同じである。この点は、上記第2および第3の実施形態と共通する。 The depth of each sensor unit is an example, and can be changed as long as the spectral characteristics and the detected light quantity of each light do not cause a problem in use. Further, application to a CCD or CMOS image sensor, distance measurement, living body detection, and use as a near infrared light image are also the same as in the first embodiment. This point is common to the second and third embodiments.
<5.第5の実施形態>
本発明の第5の実施形態について説明する。
図12に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第5の実施形態(図12)が第2の実施形態(図9)と異なるのは、撮像デバイス3のフォトセンサの構造である。
カラーフィルタは補色系カラーフィルタを用い、第2の実施形態と同様にシアン(Cy)はCy+NIR(B+G+NIR)、マゼンタ(Mg)はMg+NIR(B+R+NIR)、黄(Ye)はYe+NIR(G+R+NIR)、緑(G)はG+NIRの透過特性をもつ。
<5. Fifth Embodiment>
A fifth embodiment of the present invention will be described.
FIG. 12 schematically shows a cross-sectional configuration of the pixel array of the
The fifth embodiment (FIG. 12) differs from the second embodiment (FIG. 9) in the structure of the photosensor of the
As in the second embodiment, cyan (Cy) is Cy + NIR (B + G + NIR), magenta (Mg) is Mg + NIR (B + R + NIR), yellow (Ye) is Ye + NIR (G + R + NIR), and green (Y). G) has G + NIR transmission characteristics.
図12に示すフォトセンサの構造が第2の実施形態(図9)と異なるのは、可視光Cy、Mg、Ye、Gの各々を1層のn型層で検出する点である。表面に近いCy、Mg、Ye、Gの可視光を検出する層と、深い位置に形成されたNIRを検出する層で構成され、合計2層の電荷蓄積層(n型層)構造になっている。一般的な撮像デバイス3でも、Cy、Mg、Ye、Gは1層のフォトセンサで検出しており、実績がある方法である。
The structure of the photosensor shown in FIG. 12 is different from that of the second embodiment (FIG. 9) in that each of visible light Cy, Mg, Ye, and G is detected by one n-type layer. It is composed of a layer that detects visible light of Cy, Mg, Ye, and G close to the surface and a layer that detects NIR formed at a deep position, resulting in a total of two charge storage layer (n-type layer) structures. Yes. Even in a
フィルタ部(Cy+NIR)を透過した光を受光するフォトセンサは、2層目のセンサ部は可視光に強く感度をもつ深さ(10μm以下程度)に形成されている。1層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Cy+NIR)を透過したCyとNIRの光は、フォトセンサの深さによって分光され、それぞれCyが第2層目の可視光センサ部、NIRが第1層目のNIRセンサ部から検出される。
In the photosensor that receives the light transmitted through the filter portion (Cy + NIR), the sensor portion of the second layer is formed at a depth (about 10 μm or less) that is strong and sensitive to visible light. The sensor part of the first layer is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting part 2A (FIG. 1).
Cy and NIR light transmitted through the filter unit (Cy + NIR) is dispersed by the depth of the photosensor, and Cy is detected from the second-layer visible light sensor unit and NIR is detected from the first-layer NIR sensor unit, respectively. The
フィルタ部(Mg+NIR)を透過した光を受光するフォトセンサは、2層目のセンサ部は可視光に強く感度をもつ深さ(10μm以下程度)に形成されている。1層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Mg+NIR)を透過したMgとNIRの光は、フォトセンサの深さによって分光され、それぞれMgが第2層センサ部、NIRが第1層のNIRセンサ部から検出される。
In the photosensor that receives light transmitted through the filter portion (Mg + NIR), the sensor portion of the second layer is formed at a depth (about 10 μm or less) that is highly sensitive to visible light. The sensor part of the first layer is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting part 2A (FIG. 1).
The light of Mg and NIR transmitted through the filter unit (Mg + NIR) is dispersed by the depth of the photosensor, and Mg is detected from the second layer sensor unit and NIR is detected from the NIR sensor unit of the first layer, respectively.
フィルタ部(Ye+NIR)を透過した光を受光するフォトセンサは、1層目のセンサ部は可視光に強く感度をもつ深さ(10μm以下程度)に形成されている。2層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Ye+NIR)を透過したYeとNIRの光は、フォトセンサの深さによって分光され、それぞれYeが第2層目の可視光センサ部、NIRが第1層目のNIRセンサ部から検出される。
In the photosensor that receives light that has passed through the filter portion (Ye + NIR), the first-layer sensor portion is formed at a depth (about 10 μm or less) that is strong and sensitive to visible light. The sensor part of the second layer is formed at a depth (about 30 μm or less from the surface) that is highly sensitive to the emission wavelength (near infrared light) of the first light emitting part 2A (FIG. 1).
The light of Ye and NIR transmitted through the filter unit (Ye + NIR) is dispersed by the depth of the photo sensor, and Ye is detected from the visible light sensor unit of the second layer and NIR is detected from the NIR sensor unit of the first layer, respectively. The
フィルタ部(G+NIR)を透過した光を受光するフォトセンサは、2層目のセンサ部は可視光に強く感度をもつ深さ(10μm以下程度)に形成されている。1層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(G+NIR)を透過したGとNIRの光は、フォトセンサの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
In the photosensor that receives light transmitted through the filter portion (G + NIR), the sensor portion of the second layer is formed at a depth (about 10 μm or less) that is highly sensitive to visible light. The sensor part of the first layer is formed at a depth (about 30 μm or less from the surface) that is strongly sensitive to the emission wavelength (near infrared light) of the first light emitting part 2A (FIG. 1).
The G and NIR lights that have passed through the filter unit (G + NIR) are dispersed according to the depth of the photosensor, separated by the output unit formed in the
各センサ部の深さについては一例であり、各光の分光特性と検出光量が使用上問題とならない範囲で変更が可能である。
各画素のCy、Mg、Ye、Gの画素データをセンサ部の出力から検出し、それらを演算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。演算方法は一般的な補色系カラーフィルタを用いた撮像装置と同様である。
NIRセンサ部からの検出信号の扱い、即ち、明暗画像として用いるか、距離測定と生体検出の少なくとも一方の処理に用いるかは第1の実施形態と同様に任意である。また、これらの処理自体は第1の実施形態で説明した手法を用いることができる。
The depth of each sensor unit is an example, and can be changed as long as the spectral characteristics and the detected light quantity of each light do not cause a problem in use.
Cy, Mg, Ye, and G pixel data of each pixel is detected from the output of the sensor unit, and is converted into an RGB signal by calculating them and used as a normal RGB color image. The calculation method is the same as that of an image pickup apparatus using a general complementary color filter.
The handling of the detection signal from the NIR sensor unit, that is, whether it is used as a bright / dark image or at least one of the distance measurement and the living body detection, is arbitrary as in the first embodiment. In addition, these processes themselves can use the method described in the first embodiment.
第2の実施形態と比較して、フォトセンサが3層から2層になり製造が簡単になるといる利点と、可視光がCy、Mg、Ye、Gで検出されるので、検出後にRGBに分光するための演算が必要という不利な点がある。 Compared with the second embodiment, the advantage is that the photo sensor is made from three layers to two layers and the manufacturing is simple, and visible light is detected by Cy, Mg, Ye, and G. There is a disadvantage in that it requires an operation to do.
<6.第6の実施形態>
図13に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第6の実施形態(図13)が第1の実施形態(図6)と異なるのは、出力部40の構成である。例えば色配列のRGBの3画素に共通の共通電荷蓄積部41Cが付加されている。既存の電荷蓄積部を本実施形態では、専用電荷蓄積部41Xと呼ぶ。
この構成の変更に対応して、図13のスイッチ43は切片を4つの接点に切り替えるスイッチとして構成されている。
専用電荷蓄積部41Xは、近赤外画像、生体検出、距離測定で使用され、共通電荷蓄積部41Cは距離測定で使用される。例えば、距離測定時に、距離測定が十分可能な光量をフォトセンサで受光している場合、専用電荷蓄積部41Xを使用し、一画素だけの光量では足りない場合は共通電荷蓄積部41Cを使用する。
<6. Sixth Embodiment>
FIG. 13 schematically shows a cross-sectional configuration of the pixel array of the
The sixth embodiment (FIG. 13) differs from the first embodiment (FIG. 6) in the configuration of the
Corresponding to this change in configuration, the
The dedicated
図14に、電荷蓄積部を共通で使用する場合の配線図を示す。
図14の場合、距離画像の画素サイズはRGB画像やNIR画像に対して4倍の面積に増え、その分受光する光量も増やすことができる。
一方、RGB画像やNIR画像に対して、距離画像の解像度は1/4倍に落ちる。RGB画像に対する距離データの欠損部は、周辺距離画像の平均値により補間して使用する。補間の方法については後述する。
FIG. 14 shows a wiring diagram in the case where the charge storage unit is used in common.
In the case of FIG. 14, the pixel size of the distance image is increased to four times the area of the RGB image or NIR image, and the amount of light received can be increased accordingly.
On the other hand, the resolution of the distance image is reduced to ¼ times that of the RGB image or NIR image. The missing portion of the distance data for the RGB image is used by interpolating with the average value of the peripheral distance image. An interpolation method will be described later.
距離測定や生体検出を行い、RGB画像や近赤外光画像を取得する際、RGB用フォトセンサを使用するRGB画像の取得と、NIRセンサ部を使用する距離測定、生体検出、近赤外光画像の3動作の1つは同時に実行することが可能である。NIRセンサ部を使用する上記3動作の複数を行うためには、時系列で順番に動作させる必要がある。 When performing distance measurement and biological detection to acquire RGB images and near-infrared light images, acquisition of RGB images using RGB photosensors, distance measurement using NIR sensor unit, biological detection, near-infrared light One of the three image operations can be performed simultaneously. In order to perform a plurality of the above three operations using the NIR sensor unit, it is necessary to operate them in time series.
[データ補間方法]
次に距離画像のデータ補間方法について説明する。
共通電荷蓄積部41Cを使用して距離測定を行う場合、RGB画像、NIR画像、生体検出画像に対して、距離画像の解像度が低くなる。距離画像の解像度が低くなる分は、複数のエリアの平均値を計算して補間する。
[Data interpolation method]
Next, a data interpolation method for the distance image will be described.
When distance measurement is performed using the common charge storage unit 41C, the resolution of the distance image is lower than that of the RGB image, NIR image, and living body detection image. For the lower resolution of the distance image, the average value of a plurality of areas is calculated and interpolated.
図15に示す画素配列を例に挙げる。図16〜図19は補間手法の説明図である。
距離測定画像は反射光検出であるため画素ごとのデータ量が少ないため、ここでは2×2のデータ単位に合成される。この合成は、図14の構成を用いると簡単に行える。
The pixel arrangement shown in FIG. 15 is taken as an example. 16 to 19 are explanatory diagrams of the interpolation method.
Since the distance measurement image is reflected light detection, the amount of data for each pixel is small, and therefore, the distance measurement image is synthesized in 2 × 2 data units here. This synthesis can be easily performed using the configuration shown in FIG.
図16のように、RGB画像、NIR画像、生体検出画像のエリア1と距離測定エリア(NIR_1)が一致している場合は、エリア1の距離データはNIR_1の測定値になる。
図17のように、RGB画像、NIR画像、生体検出画像のエリア2と一致した距離測定エリアがなく、2つの距離測定エリア(NIR_1とNIR_3)にまたがっている場合は、2つの距離測定エリアの出力を平均した平均値を距離データとして与える。エリア2の距離データは距離データ(NIR_1+NIR_3)の半分になる。
As shown in FIG. 16, when the
As shown in FIG. 17, when there is no distance measurement area that coincides with the
図18の場合も、図17と同様であり、エリア3の距離データは距離データ(NIR_1+NIR_2)の半分になり、これをエリア3の距離データとする。
図19のように、RGB画像、NIR画像、生体検出画像のエリア2と一致した距離測定エリアがなく、4つの距離測定エリア(NIR_1〜4)にまたがっている場合は、4つの距離測定エリアの出力を平均した平均値を距離データとする。エリア4の距離データは距離データ(NIR_1+NIR_2+NIR_3+NIR_4)の1/4であり、これがエリア4の距離データとなる。
以上のやり方で、距離データの欠損部に関して、データ補間を行う。
The case of FIG. 18 is the same as that of FIG. 17, and the distance data of
As shown in FIG. 19, when there is no distance measurement area that coincides with
In the above manner, data interpolation is performed for the missing portion of the distance data.
<7.第7の実施形態>
本発明の第7の実施形態について説明する。
第7の実施形態が第6の実施形態と異なるのは、撮像デバイスの光学フィルタとフォトセンサ構造である。第6の実施形態(図13、図14)では撮像デバイス3のカラーフィルタ32に赤、緑、青の原色系のものを用いた。
これに対し、第7の実施形態では、図8(A)の補色系カラーフィルタを基本として、図8(B)のように近赤外(NIR)の波長も透過する特性も与えたものを用いる。
フォトセンサ34の構成は図8(B)と同じであり、画素回路層33の構成は図13と同じである。
<7. Seventh Embodiment>
A seventh embodiment of the present invention will be described.
The seventh embodiment differs from the sixth embodiment in the optical filter and photosensor structure of the imaging device. In the sixth embodiment (FIGS. 13 and 14), the
On the other hand, the seventh embodiment is based on the complementary color filter of FIG. 8A, and also has a characteristic of transmitting near-infrared (NIR) wavelengths as shown in FIG. 8B. Use.
The configuration of the
図20に、4つの画素につき電荷蓄積部を共通で使用する場合の第7の実施形態に関わる配線図を示す。
図9を用いて既に述べたように、シアン(Cy)のフィルタ部はB+G+NIRの透過特性をもち、この特性をもつ画素からは、図20に示すようにB,G,NIRの各画素データが分離して出力される。また、マゼンタ(Mg)のフィルタ部はB+R+NIRの透過特性をもつため、その特性をもつ画素からはB,R,NIRの各画素データが分離して出力される。同様に、黄(Ye)のフィルタ部はG+R+NIR、緑(G)のフィルタ部はG+NIRの透過特性をもつため、それぞれの画素からはG,R,NIRの画素データと、G,NIRの画素データが分離して出力される。
このような色ごとの受光とそのセンサ構造については図9の説明で述べたので省略する。
FIG. 20 shows a wiring diagram according to the seventh embodiment in the case where the charge storage unit is commonly used for four pixels.
As already described with reference to FIG. 9, the cyan (Cy) filter unit has a transmission characteristic of B + G + NIR, and each pixel data of B, G, NIR is obtained from a pixel having this characteristic as shown in FIG. Output separately. Further, since the magenta (Mg) filter section has a transmission characteristic of B + R + NIR, each pixel data of B, R, NIR is separated and output from a pixel having the characteristic. Similarly, since the yellow (Ye) filter unit has G + R + NIR and the green (G) filter unit has G + NIR transmission characteristics, G, R, NIR pixel data and G, NIR pixel data are obtained from each pixel. Are output separately.
Such light reception for each color and its sensor structure have been described in the description of FIG.
本実施形態においても、第6の実施形態と同様に、各画素の混合されたR、G、Bを各々RGB分離して出力するフォトセンサから取得する。それらの同じ色の信号(例えば、RはR同士)を足し算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。
NIRフォトセンサからの検出信号の扱いは、第1および第6の実施形態と同様である。また、補間手法も、図15から図19に示すものとフィルタ特性を表す符号が混色系対応とすれば、これらの図をそのまま用いることができ、手法自体も同じであるため、ここでの説明を省略する。
第7の実施形態は、第6の実施形態と比較して、RGBの光量が2倍に増えるという利点と、3層構造になる分、製造工程が増えるという不利な点がある。
Also in the present embodiment, as in the sixth embodiment, the mixed R, G, and B of each pixel are obtained from a photosensor that separates and outputs each RGB. The signals of the same color (for example, R is R) are added to convert them into RGB signals, which are used as normal RGB color images.
The detection signal from the NIR photosensor is handled in the same manner as in the first and sixth embodiments. Also, the interpolation method can be used as it is if the codes shown in FIG. 15 to FIG. 19 and the codes representing the filter characteristics correspond to the mixed color system, and the method itself is the same. Is omitted.
Compared with the sixth embodiment, the seventh embodiment has an advantage that the amount of RGB light is doubled and a disadvantage that the manufacturing process is increased by the three-layer structure.
<8.第8の実施形態>
本発明の第8の実施形態について説明する。
第7の実施形態と異なるのは、撮像デバイスのフォトセンサ構造である。
カラーフィルタは補色系カラーフィルタを用い、第7の実施形態と同様にシアン(Cy)はCy+NIR(B+G+NIR)、マゼンタ(Mg)はMg+NIR(B+R+NIR)、黄(Ye)はYe+NIR(G+R+NIR)、緑(G)はG+NIRの透過特性をもつ。
フォトセンサ構造で第7の実施形態と異なるのは、可視光を1層で検出する点である。表面に近いCy、Mg、Ye、Gの可視光を検出する層と、深い位置に形成されたNIRを検出する層で構成され、合計2層の電荷蓄積層(n型層)構造になっている。この検出構造は、図12を用いて既に説明したことから、ここでの図示を省略する。
一般的な撮像デバイスでも、Cy、Mg、Ye、Gは1層のフォトセンサで検出しており、実績がある方法である。
<8. Eighth Embodiment>
An eighth embodiment of the present invention will be described.
The difference from the seventh embodiment is the photosensor structure of the imaging device.
As in the seventh embodiment, cyan (Cy) is Cy + NIR (B + G + NIR), magenta (Mg) is Mg + NIR (B + R + NIR), yellow (Ye) is Ye + NIR (G + R + NIR), and green (Y). G) has G + NIR transmission characteristics.
The photo sensor structure is different from the seventh embodiment in that visible light is detected by one layer. It is composed of a layer that detects visible light of Cy, Mg, Ye, and G close to the surface and a layer that detects NIR formed at a deep position, resulting in a total of two charge storage layer (n-type layer) structures. Yes. Since this detection structure has already been described with reference to FIG. 12, illustration is omitted here.
Even in a general imaging device, Cy, Mg, Ye, and G are detected by a single-layer photosensor, which is a proven method.
各画素のCy、Mg、Ye、Gをフォトセンサから検出し、それらを演算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。演算方法は一般的な補色系カラーフィルタを用いた撮像装置と同様である。
NIRフォトセンサからの検出信号の扱いは、実施形態1と同様である。第7の実施形態と比較して、フォトセンサが3層から2層になり製造が簡単になるという利点と、可視光がCy、Mg、Ye、Gで検出されるので、検出後にRGBに分光するための演算が必要という不利な点がある。
Cy, Mg, Ye, and G of each pixel are detected from the photosensor, are converted to RGB signals by calculating them, and are used as a normal RGB color image. The calculation method is the same as that of an image pickup apparatus using a general complementary color filter.
The detection signal from the NIR photosensor is handled in the same manner as in the first embodiment. Compared with the seventh embodiment, the advantage is that the photosensor is changed from three layers to two layers and manufacturing is simplified, and visible light is detected by Cy, Mg, Ye, and G. There is a disadvantage in that it requires an operation to do.
<9.第9〜第11の実施形態>
以下の3つの実施形態は、第6〜第8の実施形態の変形に関する。この変形は、図6、図9、図12に示す他の実施形態への適用も可能である。
図21に、第9の実施形態に関わる撮像デバイス3の画素アレイにおける断面構成を模式的に示す。図22には、4つの画素につき電荷蓄積部を共通で使用する場合の配線図を示す。以下、図21および図22を用いて主に第9の実施形態で、この変形の内容を説明する。
本発明の第9の実施形態が第6の実施形態および図6に関わる第1の実施形態と異なるのは、撮像デバイスのフォトセンサ構造である。カラーフィルタは原色系カラーフィルタを用い、第1の実施形態と同様に赤(R)はR+NIR、緑(G)はG+NIR、青(B)はB+NIRの透過特性をもつ。
<9. Ninth to eleventh embodiments>
The following three embodiments relate to variations of the sixth to eighth embodiments. This modification can also be applied to the other embodiments shown in FIGS. 6, 9, and 12.
FIG. 21 schematically illustrates a cross-sectional configuration of the pixel array of the
The ninth embodiment of the present invention differs from the sixth embodiment and the first embodiment related to FIG. 6 in the photosensor structure of the imaging device. As the color filter, a primary color filter is used, and red (R) has transmission characteristics of R + NIR, green (G) has G + NIR, and blue (B) has transmission characteristics of B + NIR, as in the first embodiment.
フォトセンサ構造での相違点は、NIRフォトセンサの構造である。第6の実施形態等では、各画素に1つずつNIR用検出用フォトセンサが配置され電荷蓄積部41にて複数のNIRフォトセンサから電荷を集める構造を有する。
これに対し、第9の実施形態では、図21に示すように、第6の実施形態では複数の画素でNIRフォトセンサ自体が一体化され、複数の画素にまたがって面積の大きなNIRフォトセンサが形成されている。具体的には、符号71で示す第1層目のn型層が、3画素共通な大きな面積で形成されている。
この点以外のフォトセンサ構造と、光学フィルタの構成(波長透過特性)に変更はない。
The difference in the photosensor structure is the structure of the NIR photosensor. In the sixth embodiment, one NIR detection photosensor is arranged for each pixel, and the charge storage unit 41 collects charges from a plurality of NIR photosensors.
On the other hand, in the ninth embodiment, as shown in FIG. 21, in the sixth embodiment, the NIR photosensor itself is integrated with a plurality of pixels, and an NIR photosensor having a large area extending over the plurality of pixels is provided. Is formed. Specifically, the first n-type layer denoted by reference numeral 71 is formed with a large area common to three pixels.
There is no change in the photosensor structure and the configuration of the optical filter (wavelength transmission characteristics) other than this point.
各画素の第2層のセンサ部は、既出の実施形態と同様に、赤、緑、青(RGB)を検出するものであり、第2層のセンサ部(n型層)からの検出信号は、通常のカラー画像(RGB画像)として利用される。
RGGBの4画素で共通の大面積の第1層のセンサ部は、NIRを検出するものであり、第1層のセンサ部からの検出信号は、距離測定と生体検出と近赤外光画像に利用される。
The sensor part of the second layer of each pixel detects red, green, and blue (RGB) as in the previous embodiments, and the detection signal from the sensor part (n-type layer) of the second layer is It is used as a normal color image (RGB image).
The first layer sensor unit having a large area common to the four pixels of RGGB detects NIR, and detection signals from the first layer sensor unit are used for distance measurement, living body detection, and near-infrared light image. Used.
前述したように、NIRフォトセンサは複数のRGBの複数の画素にわたって配置されており、RGBの複数の画素を透過してきたNIR光を検出する。
第1層のセンサ部には、各画素共通に使用する複数の共通電荷蓄積部41Cがスイッチ43を介して接続されている。このスイッチ43を制御することで、第1層のセンサ部(厳密には大面積のn型ウェル37)から出力される電荷を複数の電荷蓄積部へ移すことが可能になっている(図22参照)。
第9の実施形態では、第6の実施形態と比較して、フォトセンサが電荷蓄積部を含む出力部40の構成が簡素化される利点と、NIR画像、生体検出の解像度が下がる、RGB画像に対してデータ補間が必須になる等の不利な点がある。
As described above, the NIR photosensor is arranged over a plurality of RGB pixels, and detects NIR light transmitted through the RGB pixels.
A plurality of common charge storage units 41 </ b> C used in common for each pixel are connected to the first layer sensor unit via a
In the ninth embodiment, compared with the sixth embodiment, the advantage is that the configuration of the
図23と図24に、第10の実施形態に関わり、図21と図22に対応した模式断面図と配線図を示す。
第10の実施形態では、図21と同様に、n型ウェル37(第1層のセンサ部のn型層であるn型ウェル37)が4画素共通に広い面積で形成されている以外は、フォトセンサ構造が第7の実施形態および図9と同じ構成となっている。画素回路層33の構成は、第9の実施形態と同様である。
また、効果および利点と不利な点も、第9の実施形態と同様である。
23 and 24 are schematic cross-sectional views and wiring diagrams corresponding to FIGS. 21 and 22 relating to the tenth embodiment.
In the tenth embodiment, as in FIG. 21, except that the n-type well 37 (the n-
The effects, advantages, and disadvantages are the same as in the ninth embodiment.
図25と図26に、第11の実施形態に関わり、図21と図22に対応した模式断面図と配線図を示す。
第11の実施形態では、図21と同様に、n型ウェル37(第1層のセンサ部のn型層であるn型ウェル37)が4画素共通に広い面積で形成されている以外は、フォトセンサ構造が第8の実施形態および図12と同じ構成となっている。画素回路層33の構成は、第9の実施形態と同様である。また、効果および利点と不利な点も、第9の実施形態と同様である。
25 and 26 are schematic cross-sectional views and wiring diagrams corresponding to FIGS. 21 and 22 relating to the eleventh embodiment.
In the eleventh embodiment, as in FIG. 21, except that the n-type well 37 (the n-
なお、以上の第9〜第11の実施形態のように、第1層のNIRセンサ部の面積を大面積とすることは、RGGBやCyYeMgG等の色配列の基本単位(本例では4画素)に限定する必要はない。この色配列の基本単位の複数倍の大きさまでNIRセンサ部の大きさを拡張してNIR光の検出単位を構成してもよい。 As in the above ninth to eleventh embodiments, increasing the area of the NIR sensor portion of the first layer is a basic unit of color arrangement such as RGGB or CyYeMgG (four pixels in this example). It is not necessary to limit to. The NIR light detection unit may be configured by extending the size of the NIR sensor unit to a size multiple of the basic unit of the color array.
以上の第1〜第11に関わる実施形態により、距離画像センサ、生体検出センサ、RGB画像、近赤外光画像を1つのカメラシステムで実現が可能になる。また、そのための撮像デバイスを新たに提供できる。 According to the first to eleventh embodiments, the distance image sensor, the living body detection sensor, the RGB image, and the near-infrared light image can be realized by one camera system. In addition, an imaging device for that purpose can be newly provided.
この発明は、一般的なRGB画像や近赤外光画像のビデオカメラやデジタルカメラ、インターネットに繋げるWebカメラにも適用できる。また、モーション認識やジェスチャー認識といった動作を利用したパーソナルコンピュータやゲームのコントローラ分野でも利用が可能である。
他にも人の顔や手を認識したセキュリティ判別の分野でも利用が可能である。その他、障害物の認識や、物体認識の用途でロボット・生産設備の分野でも利用が可能である。
The present invention can also be applied to general RGB image and near-infrared light image video cameras and digital cameras, and Web cameras connected to the Internet. It can also be used in the field of personal computers and game controllers using operations such as motion recognition and gesture recognition.
It can also be used in the field of security discrimination that recognizes human faces and hands. In addition, it can be used in the field of robots and production equipment for obstacle recognition and object recognition.
以上の第1から第11の実施形態によれば、以下の効果が得られる。
以前より、距離測定と近赤外光画像、生体検出と近赤外光画像の各々を1つの撮像デバイスで両立するものは存在する。
According to the first to eleventh embodiments, the following effects can be obtained.
In the past, there has been a single imaging device that combines distance measurement and near-infrared light image, living body detection and near-infrared light image.
しかし、用途によっては(例えばモーション認識、ジェスチャー認識、物や人の顔や手の3D画像認識等)、距離測定とRGB画像、生体検出とRGB画像、生体検出と距離測定、生体検出と距離測定とRGB画像が必要とされることがある。この場合、RGBカメラとのそれらの2カメラ構成でしか実現できない。
2カメラ構成の場合、視点が異なるため、被写体の位置によりカメラ間の位置ずれが生じる、2カメラのフレーム同期が必要になる、ズームを行いたい場合にカメラの同期制御が必要になり複雑な構成になる、等の問題が生じる。
2カメラ構成の場合、視点が異なるため、被写体の位置によっては2カメラ間の視差により2つの画像に位置ずれが生じる、2カメラ間でフレーム同期制御が必要になる、ズームを行いたい場合に2カメラ間で視野の同期制御が必要になり複雑な構成になる、等の問題が生じる。
本発明の第1から第11の実施形態では、撮像デバイスを1つで実現することで前記問題が解消される。
However, depending on the application (for example, motion recognition, gesture recognition, 3D image recognition of objects, human faces, and hands), distance measurement and RGB image, biological detection and RGB image, biological detection and distance measurement, biological detection and distance measurement And RGB images may be required. In this case, it can be realized only by the two-camera configuration with the RGB camera.
In the case of the two-camera configuration, since the viewpoints are different, positional displacement between the cameras occurs depending on the position of the subject. The frame synchronization of the two cameras is necessary. When zooming is desired, the camera synchronization control is necessary and the complicated configuration. Problems arise.
In the case of the two-camera configuration, since the viewpoints are different, the two images may be misaligned due to the parallax between the two cameras, and frame synchronization control is required between the two cameras. Problems such as the need for synchronous control of the field of view between the cameras and a complicated configuration arise.
In the first to eleventh embodiments of the present invention, the above problem is solved by realizing a single imaging device.
次に、取得した情報の処理例について説明する。
距離測定結果とRGB画像を取得し、距離情報によってRGB画像の画素を選択することで、例えば画素単位で視点のずれがない被写体のみの抽出が可能である。
生体検出とRGB画像を取得し、生物体の検出情報によってRGB画像の画素を選択することで、例えば顔や手のみのカラー画像抽出が可能である。
生体検出と距離測定を取得し、生体検出画像に距離情報を加えることで、顔や手の3次元情報の抽出が可能である。
生体検出と距離測定とRGB画像を取得し、生物体の検出情報によってRGB画像の画素を選択し、距離情報を加えることで、顔や手の3次元カラー情報の抽出が可能である。
Next, a processing example of the acquired information will be described.
By acquiring the distance measurement result and the RGB image, and selecting the pixel of the RGB image based on the distance information, it is possible to extract only the subject having no viewpoint deviation in pixel units, for example.
For example, it is possible to extract a color image of only a face or a hand by acquiring a living body detection and an RGB image and selecting a pixel of the RGB image based on detection information of the living organism.
By acquiring biological detection and distance measurement and adding distance information to the biological detection image, it is possible to extract three-dimensional information of the face and hand.
It is possible to extract three-dimensional color information of the face and hands by acquiring a living body detection, distance measurement, and an RGB image, selecting a pixel of the RGB image according to the detection information of the organism, and adding the distance information.
本発明が考案される以前にも、RGB画像と近赤外光画像を両立する技術自体は存在していた。
1つは赤外光カットフィルタを機構的に出し入れして切り替えるタイプで、カムコーダ等で広く適用されている。
もう1つは、赤外光カットフィルタの切り替えは不要な方法である。この方法では、R+NIR,G+NIR,B+NIR,NIRの光学フィルタで画像を取得する。R+NIR,G+NIR,B+NIRの検出結果からNIR成分を削除してRGB信号を取得し、同時にNIRフィルタの画素からNIR信号を取得する。
Even before the present invention was devised, there was a technology itself that made RGB images and near-infrared light images compatible.
One is a type in which the infrared light cut filter is switched in and out mechanically, and is widely applied in camcorders and the like.
The other is a method that does not require switching of the infrared light cut filter. In this method, an image is acquired with optical filters of R + NIR, G + NIR, B + NIR, and NIR. The NIR component is deleted from the detection results of R + NIR, G + NIR, and B + NIR to obtain RGB signals, and at the same time, NIR signals are obtained from the pixels of the NIR filter.
このうち後者は、カラーフィルタのベイヤー配列からGを1つ除くことにより、解像度が落ちるという不利な点がある。
本発明の適用により、赤外光カットフィルタを機構的に切り替える必要がなく、解像度も落ちない、RGB画像と近赤外光画像の両立が可能になる。
また、本発明の適用により、距離画像センサを含む撮像デバイスの画素小型化で問題となる、距離測定の際の光量不足に対し、発光光量を増やすことなく、面積が1/4の画素小型化に対応する手法、撮像デバイス、撮像装置が提供可能になる。
Of these, the latter has the disadvantage of reducing the resolution by removing one G from the Bayer array of color filters.
By applying the present invention, it is not necessary to mechanically switch the infrared light cut filter, and the RGB image and the near-infrared light image can be compatible without reducing the resolution.
In addition, the application of the present invention reduces the size of a pixel with an area of ¼ without increasing the amount of emitted light for the shortage of light in distance measurement, which is a problem in pixel downsizing of an imaging device including a distance image sensor. It is possible to provide a method, an imaging device, and an imaging apparatus corresponding to
1…撮像装置、2…発光部、2A,2B…第1および第2の発光部、3…撮像デバイス、4…レンズ、5…信号処理部、6…制御部、32…光学フィルタ、33…画素回路層、34…フォトセンサ、35…半導体基板、36、37…n型層(n型ウェル等)、40…出力部、41…電荷蓄積部、41C…共通電荷蓄積部、41X…専用電荷蓄積部、42…出力回路、43…スイッチ。
DESCRIPTION OF
Claims (21)
前記画素アレイの画素が、
原色系または補色系の複数色のうち、少なくとも1色に対応した波長の可視光、および、可視光より波長が長い非可視光を透過する第1フィルタ領域と、
前記第1フィルタ領域からの前記可視光に主感度を有する可視光センサ部と、
前記可視光センサ部よりも前記画像光が進入する側から遠い位置に形成され、前記第1フィルタ領域からの前記非可視光に主感度を有する非可視光センサ部と、
を有し、
前記可視光センサ部の光電変換により発生する可視光画像の信号と前記非可視光センサ部の光電変換により発生する非可視光画像の信号とを分離して出力する出力部が、前記画素アレイの画素ごとに設けられ、または、出力信号線に共通接続された複数の画素で共有して設けられている
撮像デバイス。 A pixel array in which an optical filter is disposed on the side on which image light is incident;
The pixels of the pixel array are
A first filter region that transmits visible light having a wavelength corresponding to at least one of a plurality of primary colors or complementary colors, and invisible light having a wavelength longer than visible light;
A visible light sensor unit having a main sensitivity to the visible light from the first filter region;
A non-visible light sensor unit which is formed at a position farther from the side where the image light enters than the visible light sensor unit, and has a main sensitivity to the non-visible light from the first filter region;
Have
An output unit that separates and outputs a signal of a visible light image generated by photoelectric conversion of the visible light sensor unit and a signal of a non-visible light image generated by photoelectric conversion of the invisible light sensor unit is provided in the pixel array. An imaging device provided for each pixel or shared by a plurality of pixels commonly connected to an output signal line.
複数の電荷蓄積部と、
前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、
を有する請求項1に記載の撮像デバイス。 The output unit is
A plurality of charge storage units;
A switch that distributes the generated charges of the invisible light sensor unit to the plurality of charge storage units;
The imaging device according to claim 1, comprising:
前記スイッチを制御して、前記非可視光画像の画素配列におけるN行、M列分の受光電荷をまとめて検出単位として出力する制御を行う制御回路、または、該制御の信号を外部から入力して前記スイッチに印加するための端子を有する
請求項2に記載の撮像デバイス。 N × M charge storage units are provided in each output unit (N and M are each an integer of 2 or more),
A control circuit that controls the switch so as to collectively output N rows and M columns of received charges in the pixel arrangement of the non-visible light image as a detection unit, or input a control signal from the outside The imaging device according to claim 2, further comprising a terminal for applying to the switch.
請求項1に記載の撮像デバイス。 The imaging device according to claim 1, wherein the invisible light sensor unit has a size of N rows and M columns (N and M are each an integer of 2 or more) in the pixel array of the visible light sensor unit.
複数の電荷蓄積部と、
前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、
を有し、
前記スイッチを制御して、前記非可視光画像の画素配列のN行、M列分の大きさの前記非可視光センサ部の受光電荷をさらに複数にまとめて検出単位として出力する制御を行う制御回路、または、該制御の信号を外部から入力して前記スイッチに印加するための端子を
さらに有する請求項4に記載の撮像デバイス。 The output unit is
A plurality of charge storage units;
A switch that distributes the generated charges of the invisible light sensor unit to the plurality of charge storage units;
Have
Control for controlling the switch so as to further output a plurality of received charges of the non-visible light sensor unit having a size corresponding to N rows and M columns of the pixel arrangement of the non-visible light image as a detection unit. The imaging device according to claim 4, further comprising a circuit or a terminal for inputting the control signal from the outside and applying the signal to the switch.
複数の前記非可視光センサ部との接続が前記スイッチによって制御され、該スイッチを介して前記複数の非可視光センサ部の全てから受光電荷の供給を受ける2以上の共通電荷蓄積部と、
前記複数の非可視光センサ部の何れか1つとの接続が他の前記スイッチによって制御され、対応するスイッチを介して対応する非可視光センサ部から受光電荷の供給を受ける2以上の専用電荷蓄積部と、
を含む請求項3または5に記載の撮像デバイス。 The plurality of charge storage units include
Two or more common charge storage units that are connected to a plurality of the invisible light sensor units by the switch and receive the received light charges from all of the plurality of invisible light sensor units via the switch,
Connection to any one of the plurality of non-visible light sensor units is controlled by the other switch, and two or more dedicated charge accumulations are supplied with received light charges from the corresponding non-visible light sensor units via the corresponding switches. And
The imaging device according to claim 3 or 5, comprising:
前記複数色の可視光を光電変換する前記可視光センサ部は、異なる波長域に主感度を有する複数のセンサ部を、波長が長い波長域に対応したセンサ部ほど前記画像光が進入する側から遠い位置に配置して構成している
請求項1〜5の何れかに記載の撮像デバイス。 The first filter region is configured to transmit visible light of a plurality of colors;
The visible light sensor unit that photoelectrically converts the visible light of the plurality of colors includes a plurality of sensor units having main sensitivities in different wavelength regions, from a side where the image light enters toward a sensor unit corresponding to a wavelength region having a long wavelength. The imaging device according to claim 1, wherein the imaging device is arranged at a distant position.
前記3色あるいは4色の可視光を光電変換する前記可視光センサ部は、異なる波長域に主感度を有する3つまたは4つのセンサ部を、波長が長い波長域に対応したセンサ部ほど前記画像光が進入する側から遠い位置に配置して構成している
請求項7に記載の撮像デバイス。 The first filter region is configured to transmit visible light of primary colors or complementary colors of three colors or four colors;
The visible light sensor unit that photoelectrically converts the three or four colors of visible light includes three or four sensor units having main sensitivities in different wavelength regions, and the sensor unit corresponding to a wavelength region having a longer wavelength is the image. The imaging device according to claim 7, wherein the imaging device is arranged at a position far from a light entering side.
請求項1〜5の何れかに記載の撮像デバイス。 The said visible light sensor part which photoelectrically converts the said multiple colors visible light is a single sensor part which has a sensitivity in the visible light range corresponding to the said multiple colors visible light. Imaging device.
前記画素アレイの前記第2フィルタ領域を含む画素に、前記第2フィルタ領域からの前記可視光に主感度を有する可視光センサ部を含む
請求項1〜6の何れかに記載の撮像デバイス。 The optical filter transmits a visible light having a wavelength corresponding to a color having a longest wavelength among a plurality of primary colors or a color having a longest wavelength among a plurality of colors of a complementary color, and blocks the invisible light. Has a filter area,
The imaging device according to claim 1, wherein a pixel including the second filter region of the pixel array includes a visible light sensor unit having main sensitivity to the visible light from the second filter region.
可視光の波長領域より長波長側に単一または互いに異なる複数の波長領域をもつ少なくとも1つの非可視光を発光して投射し、投射光の一部が被写体で反射した戻り光が前記撮像デバイスに到達するように仕向けられた発光部と、
前記戻り光を前記撮像デバイスに結像させるレンズと、
前記発光部の発光タイミングを制御する制御部と、
前記撮像デバイスから出力される可視光画像の信号を処理する信号処理部と、
を有し、
前記画素アレイの画素が、
原色系または補色系の複数色のうち、少なくとも1色に対応した波長の可視光、および、可視光より波長が長い非可視光を透過する第1フィルタ領域と、
前記第1フィルタ領域からの前記可視光に主感度を有する可視光センサ部と、
前記可視光センサ部よりも前記画像光が進入する側から遠い位置に形成され、前記第1フィルタ領域からの前記非可視光に主感度を有する非可視光センサ部と、
を有し、
前記可視光センサ部の光電変換により発生する可視光画像の信号と前記非可視光センサ部の光電変換により発生する非可視光画像の信号とを分離して出力する出力部が、前記画素アレイの画素ごとに設けられ、または、出力信号線に共通接続された複数の画素で共有して設けられ、
前記信号処理部は前記可視光画像の信号を信号処理し、
前記信号処理部と前記制御部は、前記撮像デバイスの受光時間と近赤外光の発光を制御し、得られた前記非可視光画像の信号に基づいて、前記被写体までの距離を測定する演算処理と前記被写体の肌の画像を検出する生体検出の処理との少なくとも一方を実行する
撮像装置。 An imaging device including a pixel array in which an optical filter is disposed on a side on which image light is incident;
The imaging device emits and projects at least one invisible light having a plurality of wavelength regions that are single or different from each other on the longer wavelength side than the wavelength region of visible light, and a part of the projection light reflected by the subject is the imaging device. A light emitting part that is directed to reach
A lens for imaging the return light on the imaging device;
A control unit for controlling the light emission timing of the light emitting unit;
A signal processing unit that processes a signal of a visible light image output from the imaging device;
Have
The pixels of the pixel array are
A first filter region that transmits visible light having a wavelength corresponding to at least one of a plurality of primary colors or complementary colors, and invisible light having a wavelength longer than visible light;
A visible light sensor unit having a main sensitivity to the visible light from the first filter region;
A non-visible light sensor unit which is formed at a position farther from the side where the image light enters than the visible light sensor unit, and has a main sensitivity to the non-visible light from the first filter region;
Have
An output unit that separates and outputs a signal of a visible light image generated by photoelectric conversion of the visible light sensor unit and a signal of a non-visible light image generated by photoelectric conversion of the invisible light sensor unit is provided in the pixel array. Provided for each pixel or shared by a plurality of pixels commonly connected to the output signal line,
The signal processing unit performs signal processing on the signal of the visible light image,
The signal processing unit and the control unit control light reception time and near infrared light emission of the imaging device, and calculate a distance to the subject based on the obtained signal of the invisible light image An imaging apparatus that executes at least one of a process and a biometric detection process for detecting an image of the skin of the subject.
前記出力部は、
複数の電荷蓄積部と、
前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、
前記複数の電荷蓄積部からの各蓄積電荷量に対応した複数の非可視光画像を出力する出力回路と、
を有し、
前記信号処理部および前記制御部は、前記撮像デバイスの受光時間、前記非可視光の発光と停止のタイミングに対して前記スイッチの切り替えタイミングを制御し、該制御により得られた前記複数の非可視光画像に基づいて、前記被写体までの距離を測定する演算処理を実行可能である
請求項11に記載の撮像装置。 The light emitting unit is configured to be able to independently control the timing of light emission and stop of the one invisible light,
The output unit is
A plurality of charge storage units;
A switch that distributes the generated charges of the invisible light sensor unit to the plurality of charge storage units;
An output circuit that outputs a plurality of non-visible light images corresponding to the respective accumulated charge amounts from the plurality of charge storage units;
Have
The signal processing unit and the control unit control a switching timing of the switch with respect to a light reception time of the imaging device, a timing of light emission and stop of the invisible light, and the plurality of invisibles obtained by the control The imaging device according to claim 11, wherein a calculation process for measuring a distance to the subject can be executed based on a light image.
前記出力部は、
複数の電荷蓄積部と、
前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、
前記複数の電荷蓄積部からの各蓄積電荷量に対応した複数の非可視光画像を出力する出力回路と、
を有し、
前記信号処理部および前記制御部は、前記撮像デバイスの受光時間、前記スイッチの切り替えタイミングおよび前記複数の近赤外光の発光と停止のタイミングを制御し、該制御により得られた前記複数の非可視光画像に基づいて、前記被写体の肌の画像を検出する生体検出処理を実行可能である
請求項11または12に記載の撮像装置。 The light emitting unit is configured to be capable of independently controlling the timing of light emission and stop of the first and second invisible light having different wavelength regions,
The output unit is
A plurality of charge storage units;
A switch that distributes the generated charges of the invisible light sensor unit to the plurality of charge storage units;
An output circuit that outputs a plurality of non-visible light images corresponding to the respective accumulated charge amounts from the plurality of charge storage units;
Have
The signal processing unit and the control unit control the light reception time of the imaging device, the switch switching timing, and the light emission and stop timings of the plurality of near-infrared light, and the plurality of non-lights obtained by the control are controlled. The imaging device according to claim 11 or 12, wherein a living body detection process for detecting an image of the skin of the subject can be executed based on a visible light image.
請求項12に記載の撮像装置。 The signal processing unit and the control unit switch the switch from a first charge accumulation unit to a second charge accumulation unit within a light receiving period of the return light of the imaging device, and the first and second charge storage units are switched by the switching. The imaging apparatus according to claim 12, wherein a distance to the subject is obtained based on a ratio of received light amounts of the return light distributed to the charge storage unit.
請求項11,12または14に記載の撮像装置。 The signal processing unit and the control unit set a distance measurement range in the image of the subject in the processing of the visible light image, and the pixel address of the imaging device corresponds to the set distance measurement range. The imaging device according to claim 11, wherein the arithmetic processing for measuring the distance is performed using an image portion of a visible light image.
請求項15に記載の撮像装置。 When a non-visible light image corresponding to the distance measurement range of the visible light image is not obtained, a plurality of other non-visible light images adjacent to the non-visible light image portion corresponding to the distance measurement range by a pixel address in the non-visible light image. The data of the non-visible light image part which acquires data from a non-visible light image part, interpolates the data of the acquired several non-visible light image parts, and produces | generates the data of the image part of the non-visible light image used for the said calculation process. Imaging device.
前記信号処理部および前記制御部は、前記第1および第2の非可視光の各戻り光から得られた第1および第2の生体検出画像を、前記スイッチの切り替えによって第1および第2の電荷蓄積部に分離し、前記第1の電荷蓄積部から得られた第1の生体検出画像と、前記第2の電荷蓄積部から得られた第2の生体検出画像とのレベル差を画素ごとに求め、求めたレベル差が予め設定した閾値以上の前記非可視光画像の範囲を前記被写体の人肌範囲と認定し、当該人肌範囲と画素アドレスが対応する前記可視光画像の範囲を生体画像として抽出する
請求項13に記載の撮像装置。 The first and second invisible light emitted by the light emitting unit is invisible light in different wavelength regions, one of which is mainly absorbed by the skin of the living body and the other is mainly reflected by the skin of the living body,
The signal processing unit and the control unit are configured to switch the first and second living body detection images obtained from the first and second invisible return lights by switching the switches. A level difference between the first living body detection image obtained from the first charge storage unit and the second living body detection image obtained from the second charge storage unit is separated for each pixel. A range of the invisible light image in which the obtained level difference is equal to or greater than a preset threshold is recognized as a human skin range of the subject, and the visible light image range corresponding to the human skin range and a pixel address is defined as a living body. The imaging device according to claim 13, wherein the imaging device is extracted as an image.
前記第1フィルタ領域が複数色の可視光を透過可能に構成され、
前記複数色の可視光を光電変換する前記可視光センサ部は、異なる波長域に主感度を有する複数のセンサ部を、波長が長い波長域に対応したセンサ部ほど前記画像光が進入する側から遠い位置に配置して構成している
請求項11〜17の何れかに記載の撮像装置。 In the imaging device,
The first filter region is configured to transmit visible light of a plurality of colors;
The visible light sensor unit that photoelectrically converts the visible light of the plurality of colors includes a plurality of sensor units having main sensitivities in different wavelength regions, from a side where the image light enters toward a sensor unit corresponding to a wavelength region having a long wavelength. The imaging device according to claim 11, wherein the imaging device is arranged at a distant position.
前記第1フィルタ領域が原色系または補色系の3色あるいは4色の可視光を透過可能に構成され、
前記3色あるいは4色の可視光を光電変換する前記可視光センサ部は、異なる波長域に主感度を有する3つまたは4つのセンサ部を、波長が長い波長域に対応したセンサ部ほど前記画像光が進入する側から遠い位置に配置して構成している
請求項18に記載の撮像装置。 In the imaging device,
The first filter region is configured to transmit visible light of primary colors or complementary colors of three colors or four colors;
The visible light sensor unit that photoelectrically converts the three or four colors of visible light includes three or four sensor units having main sensitivities in different wavelength regions, and the sensor unit corresponding to a wavelength region having a longer wavelength is the image. The imaging device according to claim 18, wherein the imaging device is arranged at a position far from the light entering side.
前記複数色の可視光を光電変換する前記可視光センサ部は、前記複数色の可視光に対応した広い可視光域に感度を有する単一のセンサ部である
請求項11〜17の何れかに記載の撮像装置。 In the imaging device,
The visible light sensor unit that photoelectrically converts the visible light of the plurality of colors is a single sensor unit having sensitivity in a wide visible light range corresponding to the visible light of the plurality of colors. The imaging device described.
前記画素アレイの前記第2フィルタ領域を含む画素に、前記第2フィルタ領域からの前記可視光に主感度を有する可視光センサ部を含む
請求項11〜18の何れかに記載の撮像装置。 The optical filter transmits a visible light having a wavelength corresponding to a color having a longest wavelength among a plurality of primary colors or a color having a longest wavelength among a plurality of colors of a complementary color, and blocks the invisible light. Has a filter area,
The imaging device according to claim 11, wherein a pixel including the second filter region of the pixel array includes a visible light sensor unit having main sensitivity to the visible light from the second filter region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010116498A JP2011243862A (en) | 2010-05-20 | 2010-05-20 | Imaging device and imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010116498A JP2011243862A (en) | 2010-05-20 | 2010-05-20 | Imaging device and imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011243862A true JP2011243862A (en) | 2011-12-01 |
Family
ID=45410195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010116498A Pending JP2011243862A (en) | 2010-05-20 | 2010-05-20 | Imaging device and imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011243862A (en) |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012029130A (en) * | 2010-07-26 | 2012-02-09 | Konica Minolta Opto Inc | Imaging device and image input device |
JP2013183460A (en) * | 2012-03-01 | 2013-09-12 | Omnivision Technologies Inc | Circuit structure and method for flight time sensor |
JP2013211836A (en) * | 2012-03-01 | 2013-10-10 | Nissan Motor Co Ltd | Camera device and image processing method |
KR20140111017A (en) * | 2012-01-06 | 2014-09-17 | 마이크로소프트 코포레이션 | Broadband imager |
WO2014157086A1 (en) * | 2013-03-25 | 2014-10-02 | 国立大学法人静岡大学 | Imaging device |
WO2014196216A1 (en) * | 2013-06-05 | 2014-12-11 | 株式会社 東芝 | Image sensor apparatus and method for manufacturing same |
WO2014207983A1 (en) * | 2013-06-27 | 2014-12-31 | パナソニックIpマネジメント株式会社 | Distance measuring device |
JP2015050494A (en) * | 2013-08-30 | 2015-03-16 | 日立オートモティブシステムズ株式会社 | Imaging device |
WO2015059897A1 (en) * | 2013-10-23 | 2015-04-30 | 日本電気株式会社 | Image pickup device, image pickup method, code type infrared cut filter, and code type particular-color cut filter |
WO2015075926A1 (en) * | 2013-11-20 | 2015-05-28 | パナソニックIpマネジメント株式会社 | Distance measurement and imaging system |
WO2015098063A1 (en) * | 2013-12-25 | 2015-07-02 | Panasonic Intellectual Property Management Co., Ltd. | Image output apparatus, image output method, and image output system, the image output comprising the detection of a specified substance in a predetermined region |
WO2016017407A1 (en) * | 2014-08-01 | 2016-02-04 | シャープ株式会社 | Laser rangefinder |
JP2016024234A (en) * | 2014-07-16 | 2016-02-08 | キヤノン株式会社 | Imaging apparatus |
WO2016031128A1 (en) * | 2014-08-27 | 2016-03-03 | パナソニックIpマネジメント株式会社 | Substance detection sensor, substance detection method, and substance detection system |
US9380242B2 (en) | 2013-10-25 | 2016-06-28 | Samsung Electronics Co., Ltd. | Image sensor and devices having the same |
WO2016125602A1 (en) * | 2015-02-05 | 2016-08-11 | ソニー株式会社 | Solid-state imaging element and electronic device |
WO2016170833A1 (en) * | 2015-04-24 | 2016-10-27 | ソニー株式会社 | Solid state imaging element, semiconductor device, and electronic instrument |
JP2016220019A (en) * | 2015-05-20 | 2016-12-22 | 日本放送協会 | Imaging apparatus |
JP2017505907A (en) * | 2014-01-29 | 2017-02-23 | エルジー イノテック カンパニー リミテッド | Depth information extraction apparatus and method |
KR101729563B1 (en) * | 2015-02-13 | 2017-05-11 | 엘지전자 주식회사 | Digital device and method for certifying body thereof |
JP2017526945A (en) * | 2014-06-18 | 2017-09-14 | ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. | Metal dielectric optical filter, sensor device, and manufacturing method |
WO2017169122A1 (en) * | 2016-03-30 | 2017-10-05 | ソニー株式会社 | Photoelectric conversion element and photoelectric conversion device |
JP2017229001A (en) * | 2016-06-24 | 2017-12-28 | 株式会社ニコン | Imaging apparatus and distance measuring apparatus |
WO2018040307A1 (en) * | 2016-08-31 | 2018-03-08 | 上海依图网络科技有限公司 | Vivo detection method and device based on infrared visible binocular image |
US9996726B2 (en) | 2013-08-02 | 2018-06-12 | Qualcomm Incorporated | Feature identification using an RGB-NIR camera pair |
JP2018096988A (en) * | 2016-12-15 | 2018-06-21 | パナソニックIpマネジメント株式会社 | Imaging device |
WO2018116972A1 (en) * | 2016-12-22 | 2018-06-28 | 日本電気株式会社 | Image processing method, image processing device, and recording medium |
JPWO2017038203A1 (en) * | 2015-08-28 | 2018-07-05 | 富士フイルム株式会社 | Projector device with distance image acquisition device and projection mapping method |
US10197716B2 (en) | 2012-12-19 | 2019-02-05 | Viavi Solutions Inc. | Metal-dielectric optical filter, sensor device, and fabrication method |
JP2019023658A (en) * | 2012-03-09 | 2019-02-14 | 株式会社半導体エネルギー研究所 | Semiconductor device |
US10222523B2 (en) | 2012-12-19 | 2019-03-05 | Viavi Solutions Inc. | Sensor device including one or more metal-dielectric optical filters |
JP2019060898A (en) * | 2012-03-21 | 2019-04-18 | 株式会社半導体エネルギー研究所 | Distance measurement device |
JP2019086785A (en) * | 2018-12-27 | 2019-06-06 | 株式会社ニコン | Imaging element and imaging device |
US10334185B2 (en) | 2014-03-06 | 2019-06-25 | Nec Corporation | Image capturing device, signal separation device, and image capturing method |
US10378955B2 (en) | 2012-12-19 | 2019-08-13 | Viavi Solutions Inc. | Spectroscopic assembly and method |
US10440292B2 (en) | 2015-09-18 | 2019-10-08 | Nec Corporation | Color signal and near-infrared signal generated by using pattern information defining intensity-corresponding pattern |
US10452894B2 (en) | 2012-06-26 | 2019-10-22 | Qualcomm Incorporated | Systems and method for facial verification |
US10863115B2 (en) | 2016-06-24 | 2020-12-08 | Nec Corporation | Generation of visible and near-infrared images based on estimated incident light spectral characteristics and image capturing device spectral sensitivity characteristics |
WO2020259128A1 (en) * | 2019-06-28 | 2020-12-30 | 北京旷视科技有限公司 | Liveness detection method and apparatus, electronic device, and computer readable storage medium |
CN112788313A (en) * | 2020-12-25 | 2021-05-11 | RealMe重庆移动通信有限公司 | Image sensor, imaging system and terminal |
WO2021192459A1 (en) * | 2020-03-23 | 2021-09-30 | ソニーセミコンダクタソリューションズ株式会社 | Image capturing device |
WO2022059525A1 (en) * | 2020-09-16 | 2022-03-24 | ソニーグループ株式会社 | Solid-state imaging device and recognition system |
WO2022186074A1 (en) * | 2021-03-05 | 2022-09-09 | キヤノン株式会社 | Measuring device, storage medium, manufacturing system, and article manufacturing method |
WO2023013777A1 (en) * | 2021-08-05 | 2023-02-09 | 株式会社小糸製作所 | Gated camera, vehicular sensing system, and vehicular lamp |
-
2010
- 2010-05-20 JP JP2010116498A patent/JP2011243862A/en active Pending
Cited By (93)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012029130A (en) * | 2010-07-26 | 2012-02-09 | Konica Minolta Opto Inc | Imaging device and image input device |
JP2015504249A (en) * | 2012-01-06 | 2015-02-05 | マイクロソフト コーポレーション | Broadband imaging device |
KR20140111017A (en) * | 2012-01-06 | 2014-09-17 | 마이크로소프트 코포레이션 | Broadband imager |
KR102000321B1 (en) * | 2012-01-06 | 2019-07-15 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Broadband imager |
JP2013183460A (en) * | 2012-03-01 | 2013-09-12 | Omnivision Technologies Inc | Circuit structure and method for flight time sensor |
JP2013211836A (en) * | 2012-03-01 | 2013-10-10 | Nissan Motor Co Ltd | Camera device and image processing method |
US8686367B2 (en) | 2012-03-01 | 2014-04-01 | Omnivision Technologies, Inc. | Circuit configuration and method for time of flight sensor |
KR101465318B1 (en) * | 2012-03-01 | 2014-12-04 | 옴니비전 테크놀러지즈 인코포레이티드 | Circuit configuration and method for time of flight sensor |
US9961276B2 (en) | 2012-03-01 | 2018-05-01 | Nissan Motor Co., Ltd. | Camera apparatus and image processing method |
JP2021076609A (en) * | 2012-03-09 | 2021-05-20 | 株式会社半導体エネルギー研究所 | Semiconductor device |
JP2021063822A (en) * | 2012-03-09 | 2021-04-22 | 株式会社半導体エネルギー研究所 | Semiconductor device |
JP2021063823A (en) * | 2012-03-09 | 2021-04-22 | 株式会社半導体エネルギー研究所 | Semiconductor device |
JP2020060575A (en) * | 2012-03-09 | 2020-04-16 | 株式会社半導体エネルギー研究所 | Semiconductor device |
JP2019023658A (en) * | 2012-03-09 | 2019-02-14 | 株式会社半導体エネルギー研究所 | Semiconductor device |
JP2022000665A (en) * | 2012-03-21 | 2022-01-04 | 株式会社半導体エネルギー研究所 | Device |
JP2019060898A (en) * | 2012-03-21 | 2019-04-18 | 株式会社半導体エネルギー研究所 | Distance measurement device |
JP6999062B2 (en) | 2012-03-21 | 2022-01-18 | 株式会社半導体エネルギー研究所 | Device |
US10452894B2 (en) | 2012-06-26 | 2019-10-22 | Qualcomm Incorporated | Systems and method for facial verification |
US10222523B2 (en) | 2012-12-19 | 2019-03-05 | Viavi Solutions Inc. | Sensor device including one or more metal-dielectric optical filters |
US10928570B2 (en) | 2012-12-19 | 2021-02-23 | Viavi Solutions Inc. | Metal-dielectric optical filter, sensor device, and fabrication method |
US10197716B2 (en) | 2012-12-19 | 2019-02-05 | Viavi Solutions Inc. | Metal-dielectric optical filter, sensor device, and fabrication method |
US11782199B2 (en) | 2012-12-19 | 2023-10-10 | Viavi Solutions Inc. | Metal-dielectric optical filter, sensor device, and fabrication method |
US10378955B2 (en) | 2012-12-19 | 2019-08-13 | Viavi Solutions Inc. | Spectroscopic assembly and method |
US10670455B2 (en) | 2012-12-19 | 2020-06-02 | Viavi Solutions Inc. | Spectroscopic assembly and method |
WO2014157086A1 (en) * | 2013-03-25 | 2014-10-02 | 国立大学法人静岡大学 | Imaging device |
WO2014196216A1 (en) * | 2013-06-05 | 2014-12-11 | 株式会社 東芝 | Image sensor apparatus and method for manufacturing same |
US9787924B2 (en) | 2013-06-05 | 2017-10-10 | Kabushiki Kaisha Toshiba | Image sensor device, image processing device and method for manufacturing image sensor device |
WO2014207983A1 (en) * | 2013-06-27 | 2014-12-31 | パナソニックIpマネジメント株式会社 | Distance measuring device |
JPWO2014207983A1 (en) * | 2013-06-27 | 2017-02-23 | パナソニックIpマネジメント株式会社 | Distance measuring device and solid-state imaging device |
US10422859B2 (en) | 2013-06-27 | 2019-09-24 | Panasonic Intellectual Property Management Co, Ltd. | Distance measuring device and solid-state image sensor |
US9996726B2 (en) | 2013-08-02 | 2018-06-12 | Qualcomm Incorporated | Feature identification using an RGB-NIR camera pair |
JP2015050494A (en) * | 2013-08-30 | 2015-03-16 | 日立オートモティブシステムズ株式会社 | Imaging device |
WO2015059897A1 (en) * | 2013-10-23 | 2015-04-30 | 日本電気株式会社 | Image pickup device, image pickup method, code type infrared cut filter, and code type particular-color cut filter |
JPWO2015059897A1 (en) * | 2013-10-23 | 2017-03-09 | 日本電気株式会社 | Video imaging device, video imaging method, code-type infrared cut filter, and code-type specific color cut filter |
US20160255286A1 (en) * | 2013-10-23 | 2016-09-01 | Nec Corporation | Image capturing device, image capturing method, coded infrared cut filter, and coded particular color cut filter |
US10171757B2 (en) | 2013-10-23 | 2019-01-01 | Nec Corporation | Image capturing device, image capturing method, coded infrared cut filter, and coded particular color cut filter |
US9380242B2 (en) | 2013-10-25 | 2016-06-28 | Samsung Electronics Co., Ltd. | Image sensor and devices having the same |
WO2015075926A1 (en) * | 2013-11-20 | 2015-05-28 | パナソニックIpマネジメント株式会社 | Distance measurement and imaging system |
US10302766B2 (en) | 2013-11-20 | 2019-05-28 | Panasonic Intellectual Property Management Co., Ltd. | Range imaging system and solid-state imaging device |
US11175406B2 (en) | 2013-11-20 | 2021-11-16 | Nuvoton Technology Corporation Japan | Range imaging system and solid-state imaging device |
JP2018185342A (en) * | 2013-11-20 | 2018-11-22 | パナソニックIpマネジメント株式会社 | Ranging imaging system |
US9819881B2 (en) | 2013-12-25 | 2017-11-14 | Panasonic Intellectual Property Management Co., Ltd. | Image output apparatus, image output method, and image output system |
WO2015098063A1 (en) * | 2013-12-25 | 2015-07-02 | Panasonic Intellectual Property Management Co., Ltd. | Image output apparatus, image output method, and image output system, the image output comprising the detection of a specified substance in a predetermined region |
JP2020126060A (en) * | 2014-01-29 | 2020-08-20 | エルジー イノテック カンパニー リミテッド | Device and method for extracting depth information |
US10802148B2 (en) | 2014-01-29 | 2020-10-13 | Lg Innotek Co., Ltd. | Device for extracting depth information and method thereof |
JP2017505907A (en) * | 2014-01-29 | 2017-02-23 | エルジー イノテック カンパニー リミテッド | Depth information extraction apparatus and method |
US11680789B2 (en) | 2014-01-29 | 2023-06-20 | Lg Innotek Co., Ltd. | Device for extracting depth information and method thereof |
US10338221B2 (en) | 2014-01-29 | 2019-07-02 | Lg Innotek Co., Ltd. | Device for extracting depth information and method thereof |
US10334185B2 (en) | 2014-03-06 | 2019-06-25 | Nec Corporation | Image capturing device, signal separation device, and image capturing method |
JP2017526945A (en) * | 2014-06-18 | 2017-09-14 | ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. | Metal dielectric optical filter, sensor device, and manufacturing method |
JP2016024234A (en) * | 2014-07-16 | 2016-02-08 | キヤノン株式会社 | Imaging apparatus |
WO2016017407A1 (en) * | 2014-08-01 | 2016-02-04 | シャープ株式会社 | Laser rangefinder |
JP2016048196A (en) * | 2014-08-27 | 2016-04-07 | パナソニックIpマネジメント株式会社 | Substance detection sensor, substance detection method and substance detection system |
WO2016031128A1 (en) * | 2014-08-27 | 2016-03-03 | パナソニックIpマネジメント株式会社 | Substance detection sensor, substance detection method, and substance detection system |
US11190711B2 (en) | 2015-02-05 | 2021-11-30 | Sony Semiconductor Solutions Corporation | Solid-state image sensor and electronic device |
WO2016125602A1 (en) * | 2015-02-05 | 2016-08-11 | ソニー株式会社 | Solid-state imaging element and electronic device |
KR101729563B1 (en) * | 2015-02-13 | 2017-05-11 | 엘지전자 주식회사 | Digital device and method for certifying body thereof |
US20180109741A1 (en) * | 2015-04-24 | 2018-04-19 | Sony Corporation | Solid state image sensor, semiconductor device, and electronic device |
CN107534049A (en) * | 2015-04-24 | 2018-01-02 | 索尼公司 | Solid-state image element, semiconductor device and electronic equipment |
WO2016170833A1 (en) * | 2015-04-24 | 2016-10-27 | ソニー株式会社 | Solid state imaging element, semiconductor device, and electronic instrument |
US10554910B2 (en) | 2015-04-24 | 2020-02-04 | Sony Corporation | Solid state image sensor, semiconductor device, and electronic device |
US11889218B2 (en) * | 2015-04-24 | 2024-01-30 | Sony Corporation | Stacked substrate solid state image sensor |
KR20170141661A (en) * | 2015-04-24 | 2017-12-26 | 소니 주식회사 | A solid-state imaging device, a semiconductor device, and an electronic device |
KR102513628B1 (en) * | 2015-04-24 | 2023-03-24 | 소니그룹주식회사 | Solid-state imaging devices, semiconductor devices, and electronic devices |
JPWO2016170833A1 (en) * | 2015-04-24 | 2018-02-15 | ソニー株式会社 | Solid-state imaging device, semiconductor device, and electronic device |
US20210409621A1 (en) * | 2015-04-24 | 2021-12-30 | Sony Group Corporation | Solid state image sensor |
CN113658967B (en) * | 2015-04-24 | 2024-03-22 | 索尼公司 | Light detection device |
CN113658967A (en) * | 2015-04-24 | 2021-11-16 | 索尼公司 | Light detection equipment |
US11153515B2 (en) * | 2015-04-24 | 2021-10-19 | Sony Corporation | Solid state image sensor comprising stacked substrates, semiconductor device, and electronic device |
CN107534049B (en) * | 2015-04-24 | 2021-07-20 | 索尼公司 | Solid-state image element, semiconductor device, and electronic apparatus |
JP2016220019A (en) * | 2015-05-20 | 2016-12-22 | 日本放送協会 | Imaging apparatus |
JPWO2017038203A1 (en) * | 2015-08-28 | 2018-07-05 | 富士フイルム株式会社 | Projector device with distance image acquisition device and projection mapping method |
US10412352B2 (en) | 2015-08-28 | 2019-09-10 | Fujifilm Corporation | Projector apparatus with distance image acquisition device and projection mapping method |
US10440292B2 (en) | 2015-09-18 | 2019-10-08 | Nec Corporation | Color signal and near-infrared signal generated by using pattern information defining intensity-corresponding pattern |
TWI731035B (en) * | 2016-03-30 | 2021-06-21 | 日商新力股份有限公司 | Photoelectric conversion element and photoelectric conversion device |
WO2017169122A1 (en) * | 2016-03-30 | 2017-10-05 | ソニー株式会社 | Photoelectric conversion element and photoelectric conversion device |
US10483306B2 (en) | 2016-03-30 | 2019-11-19 | Sony Corporation | Photoelectric conversion element and photoelectric conversion device |
JPWO2017169122A1 (en) * | 2016-03-30 | 2019-02-07 | ソニー株式会社 | Photoelectric conversion element and photoelectric conversion device |
JP2017229001A (en) * | 2016-06-24 | 2017-12-28 | 株式会社ニコン | Imaging apparatus and distance measuring apparatus |
US10863115B2 (en) | 2016-06-24 | 2020-12-08 | Nec Corporation | Generation of visible and near-infrared images based on estimated incident light spectral characteristics and image capturing device spectral sensitivity characteristics |
WO2018040307A1 (en) * | 2016-08-31 | 2018-03-08 | 上海依图网络科技有限公司 | Vivo detection method and device based on infrared visible binocular image |
JP7065421B2 (en) | 2016-12-15 | 2022-05-12 | パナソニックIpマネジメント株式会社 | How to get information inside the imager and the object |
JP2018096988A (en) * | 2016-12-15 | 2018-06-21 | パナソニックIpマネジメント株式会社 | Imaging device |
US10931895B2 (en) | 2016-12-22 | 2021-02-23 | Nec Corporation | Image processing method, image processing device, and storage medium |
WO2018116972A1 (en) * | 2016-12-22 | 2018-06-28 | 日本電気株式会社 | Image processing method, image processing device, and recording medium |
JP2019086785A (en) * | 2018-12-27 | 2019-06-06 | 株式会社ニコン | Imaging element and imaging device |
WO2020259128A1 (en) * | 2019-06-28 | 2020-12-30 | 北京旷视科技有限公司 | Liveness detection method and apparatus, electronic device, and computer readable storage medium |
WO2021192459A1 (en) * | 2020-03-23 | 2021-09-30 | ソニーセミコンダクタソリューションズ株式会社 | Image capturing device |
WO2022059525A1 (en) * | 2020-09-16 | 2022-03-24 | ソニーグループ株式会社 | Solid-state imaging device and recognition system |
CN112788313B (en) * | 2020-12-25 | 2023-04-07 | RealMe重庆移动通信有限公司 | Image sensor, imaging system and terminal |
CN112788313A (en) * | 2020-12-25 | 2021-05-11 | RealMe重庆移动通信有限公司 | Image sensor, imaging system and terminal |
WO2022186074A1 (en) * | 2021-03-05 | 2022-09-09 | キヤノン株式会社 | Measuring device, storage medium, manufacturing system, and article manufacturing method |
WO2023013777A1 (en) * | 2021-08-05 | 2023-02-09 | 株式会社小糸製作所 | Gated camera, vehicular sensing system, and vehicular lamp |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011243862A (en) | Imaging device and imaging apparatus | |
CN208014701U (en) | Imaging system and imaging sensor | |
JP6198366B2 (en) | Multilayer image sensor | |
US8384818B2 (en) | Solid-state imaging device including arrays of optical elements and photosensitive cells | |
US9679933B2 (en) | Image sensors and methods of forming the same | |
US8569700B2 (en) | Image sensor for two-dimensional and three-dimensional image capture | |
US8208052B2 (en) | Image capture device | |
JP2021073722A (en) | Imaging element and electronic device | |
US8988576B2 (en) | Solid-state imaging device and digital camera | |
US20130222603A1 (en) | Imaging systems for infrared and visible imaging | |
JP2015128131A (en) | Solid state image sensor and electronic apparatus | |
JP2016076682A (en) | Image sensor and formation method thereof | |
EP3439038A1 (en) | Image capturing element and image capturing device | |
US11838662B2 (en) | Solid-state imaging device and electronic apparatus | |
KR20110115072A (en) | Imaging device | |
JP2012029130A (en) | Imaging device and image input device | |
EP3021577B1 (en) | Imaging device | |
JP5331119B2 (en) | Solid-state imaging device and imaging apparatus | |
US10490592B2 (en) | Stacked image sensor | |
JPWO2010100896A1 (en) | Imaging device and double-sided irradiation type solid-state imaging device | |
JPWO2018062558A1 (en) | Image sensor, focus detection device, and electronic camera | |
CN113225541B (en) | Image sensor | |
JP6245942B2 (en) | Image sensor | |
JP7042451B2 (en) | Solid-state image sensor | |
WO2017069134A1 (en) | Solid-state imaging element |