WO2013027340A1 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
WO2013027340A1
WO2013027340A1 PCT/JP2012/004917 JP2012004917W WO2013027340A1 WO 2013027340 A1 WO2013027340 A1 WO 2013027340A1 JP 2012004917 W JP2012004917 W JP 2012004917W WO 2013027340 A1 WO2013027340 A1 WO 2013027340A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
visible light
light exposure
infrared light
image sensor
Prior art date
Application number
PCT/JP2012/004917
Other languages
French (fr)
Japanese (ja)
Inventor
藤井 俊哉
信一 寺西
圭一 森
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2013027340A1 publication Critical patent/WO2013027340A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Abstract

To form a range image, an infrared laser (202) is provided to create a dot pattern by irradiating infrared light on a subject (200) through a coarse filter (203). Incident light from the subject (200) passes through a 2-band optical filter (205), which transmits the visible light wavelength region and the wavelength region in the vicinity of the irradiated infrared light, and forms an image on a CCD image sensor (210). The CCD image sensor (210) has a first pixel for infrared exposure, a second pixel for visible light exposure, and an overflow drain for simultaneously discharging the signal charges of the first and second pixels, and time-divides light into infrared exposure light of the first pixel and visible exposure light of the second pixel.

Description

撮像装置Imaging device
 本発明は、単一のイメージセンサで可視光撮像と赤外光撮像とを実現できる撮像装置に関するものである。 The present invention relates to an imaging apparatus capable of realizing visible light imaging and infrared light imaging with a single image sensor.
 被写体に赤外光を照射し、その反射光を撮像装置で受光して得られる画像をもとにして、被写体と撮像装置との間の距離を算出する技術がある。得られた画像は、距離画像と呼ばれる。また、距離画像を得るための方式として、ステレオ方式、パターン照射方式、TOF(time of flight)方式等が知られている。 There is a technique for calculating the distance between the subject and the imaging device based on an image obtained by irradiating the subject with infrared light and receiving the reflected light by the imaging device. The obtained image is called a distance image. As a method for obtaining a distance image, a stereo method, a pattern irradiation method, a TOF (time-of-flight) method, and the like are known.
 従来のある撮像装置は、背景光によるカラー画像撮像と、赤外光による距離画像撮像とを単一のCCD(charge coupled device)イメージセンサで実現する。そのため、可視光の3原色である赤(red:R)、緑(green:G)、青(blue:B)の光をそれぞれ受光して信号電荷を蓄積するRGBの各受光部と、赤外光を受光して信号電荷を蓄積するIR(infrared)受光部とが平面配列されたインターライン転送方式のCCDイメージセンサを備え、全受光部の信号電荷を掃き捨てる縦型オーバーフロードレイン(vertical overflow drain:VOD)と、IR受光部の信号電荷のみを高速に掃き捨てる横型オーバーフロードレイン(lateral overflow drain:LOD)とを有する。LODは、IR受光部に接続された掃き捨てゲートと、この掃き捨てゲートを介してIR受光部の信号電荷が掃き捨てられるドレイン領域とからなる。VODの後にLODを動作させ、その後に全受光部から信号電荷を読み出すことにより、可視光露光時間と赤外光露光時間とを独立に制御する(特許文献1及び2参照)。 A conventional image pickup apparatus realizes color image pickup by background light and distance image pickup by infrared light by a single CCD (charge coupled device) image sensor. For this reason, each of the RGB light receiving units that receive red (R), green (G), and blue (B) light, which are the three primary colors of visible light, and accumulate signal charges, A vertical overflow drain (vertical overflow drain) that has an interline transfer CCD image sensor with a planar array of IR (infrared) light receiving parts that receive light and accumulate signal charges, and sweeps out signal charges from all light receiving parts : VOD) and a horizontal overflow drain (LOD) that sweeps out only the signal charge of the IR light receiving section at high speed. The LOD includes a sweep gate connected to the IR light receiving unit and a drain region in which the signal charge of the IR light receiving unit is swept through the sweep gate. The LOD is operated after VOD, and then the signal charge is read from all the light receiving units, thereby independently controlling the visible light exposure time and the infrared light exposure time (see Patent Documents 1 and 2).
 上記RGB受光部に設けられる光学フィルタは、3原色の各々のカラーフィルタと、赤外光カットフィルタとの2層構造を持つ。また、上記IR受光部に設けられる光学フィルタは、赤外光透過・可視光カットフィルタと、上記RGB受光部の2層構造フィルタとの平坦化を図るための透明膜との2層構造を持つ(特許文献1及び2参照)。 The optical filter provided in the RGB light receiving unit has a two-layer structure of each of the three primary color filters and an infrared light cut filter. The optical filter provided in the IR light receiving unit has a two-layer structure of an infrared light transmission / visible light cut filter and a transparent film for flattening the two-layer structure filter of the RGB light receiving unit. (See Patent Documents 1 and 2).
 また、TOF方式の撮像装置における、次のような駆動方法も知られている。すなわち、1フレーム走査期間ごとに可視光及び赤外光の撮像を行いながら、撮影対象空間へのIRパルスの照射を1フレーム走査期間おきに行うのである。可視光画像を1フレーム走査期間ごとに生成するとともに、IRパルス照射時の撮影によって得られたIR画像信号からIRパルスの非照射時の撮影によって得られたIR画像信号を減算することによって、外光中のIR成分による影響を排除した距離画像を1フレーム走査期間おきに生成する(特許文献2参照)。 Also, the following driving method in the TOF type imaging apparatus is known. In other words, IR imaging is performed on the imaging target space every other frame scanning period while imaging visible light and infrared light every frame scanning period. A visible light image is generated for each frame scanning period, and the IR image signal obtained by imaging at the time of non-irradiation of IR pulse is subtracted from the IR image signal obtained by imaging at the time of IR pulse irradiation. A distance image excluding the influence of the IR component in the light is generated every one frame scanning period (see Patent Document 2).
特開2008-5213号公報JP 2008-5213 A 特開2008-8700号公報JP 2008-8700 A
 上記従来技術によれば、IR受光部に、一般に見られるVODだけでなく、イメージセンサの感光部であるフォトダイオードの面積を圧迫するLODを設ける必要があった。したがって、上記従来技術は、感度、飽和、スミア等の基本性能を犠牲にせざるを得ないという課題を有していた。 According to the above prior art, it is necessary to provide not only the VOD generally seen in the IR light receiving part but also an LOD that presses the area of the photodiode that is the photosensitive part of the image sensor. Therefore, the conventional technology has a problem that basic performance such as sensitivity, saturation, smear, etc. must be sacrificed.
 また、上記従来技術は、RGB受光部とIR受光部との各々に2層構造を持つ光学フィルタを設けるものであったので、デバイスの製造難易度を高くするばかりでなく、感度特性に重要な光学層の薄膜化を阻害するという課題を有していた。 In addition, since the above-described prior art is provided with an optical filter having a two-layer structure in each of the RGB light receiving unit and the IR light receiving unit, not only the device manufacturing difficulty level is increased, but also important for the sensitivity characteristics. There was a problem of obstructing the thinning of the optical layer.
 本発明の目的は、背景光による高画質のカラー画像撮像と、赤外光による高精度の距離画像撮像とを単一の安価なイメージセンサで実現できる撮像装置を提供することにある。 An object of the present invention is to provide an imaging apparatus capable of realizing high-quality color image imaging using background light and high-precision distance image imaging using infrared light with a single inexpensive image sensor.
 上記目的を達成するために、本発明に係る撮像装置は、被写体へ赤外光を照射する照射手段と、可視光波長領域と照射赤外光の近傍波長領域とを透過する分光透過特性を有して被写体からの入射光を受ける2バンド光学フィルタと、当該2バンド光学フィルタを介して結像された画像を電気信号に変換するイメージセンサとを備えた撮像装置であって、イメージセンサは、2バンド光学フィルタを透過した赤外光を受光して赤外光露光を行う第1の画素と、2バンド光学フィルタを透過した可視光を受光して可視光露光を行う第2の画素と、第1及び第2の画素の信号電荷を同時に排出する排出手段とを有し、第1の画素の赤外光露光と第2の画素の可視光露光とを時分割に行うことを特徴とする。 In order to achieve the above object, an imaging apparatus according to the present invention has irradiation means for irradiating a subject with infrared light, and spectral transmission characteristics for transmitting a visible wavelength region and a wavelength region near the irradiated infrared light. An image pickup apparatus comprising: a two-band optical filter that receives incident light from a subject; and an image sensor that converts an image formed through the two-band optical filter into an electrical signal. A first pixel that receives infrared light that has passed through the two-band optical filter and performs infrared light exposure; a second pixel that receives visible light that has passed through the two-band optical filter and performs visible light exposure; Discharge means for simultaneously discharging the signal charges of the first and second pixels, and performing infrared light exposure of the first pixel and visible light exposure of the second pixel in a time-sharing manner. .
 なお、本明細書では、イメージセンサが光を受けることを「受光」と言い、イメージセンサに光をあてて光を電気信号に変換させることを「露光」と言う。 In this specification, receiving light by the image sensor is referred to as “light reception”, and applying light to the image sensor to convert the light into an electrical signal is referred to as “exposure”.
 本発明によれば、画素信号電荷の排出は全画素一括の単一の排出手段で行える。また、赤外光露光と可視光露光とを時分割に行うこととしたので、2バンド光学フィルタと単層構造の各画素フィルタとを併用することで、可視光と赤外光との光学的な混合を最小限に抑えることができる。よって、背景光による高画質のカラー画像撮像と、赤外光による高精度の距離画像撮像とを単一の安価なイメージセンサで実現できる撮像装置を提供することができる。 According to the present invention, pixel signal charges can be discharged by a single discharging means for all pixels at once. In addition, since the infrared light exposure and the visible light exposure are performed in a time-sharing manner, the two-band optical filter and each pixel filter having a single layer structure are used in combination, so that the optical of visible light and infrared light can be combined. Mixing can be minimized. Therefore, it is possible to provide an imaging apparatus capable of realizing high-quality color image capturing using background light and high-precision distance image capturing using infrared light with a single inexpensive image sensor.
本発明の第1の実施形態に係る撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment of the present invention. 図1中の2バンド光学フィルタの分光透過率を示す図である。It is a figure which shows the spectral transmission factor of the 2 band optical filter in FIG. 図1中のCCDイメージセンサの概略構成図である。It is a schematic block diagram of the CCD image sensor in FIG. 図3中のフォトダイオード上に配置されるカラーフィルタの配列を示す図である。It is a figure which shows the arrangement | sequence of the color filter arrange | positioned on the photodiode in FIG. 図1の撮像装置の動作を示すタイミング図である。FIG. 2 is a timing diagram illustrating an operation of the imaging apparatus in FIG. 1. 本発明の第2の実施形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on the 2nd Embodiment of this invention. 図6中のMOSイメージセンサにおける画素セルの構成を示す回路図である。It is a circuit diagram which shows the structure of the pixel cell in the MOS image sensor in FIG. 図7の画素セルが2次元状に配置されてなる図6中のMOSイメージセンサの概略構成図である。FIG. 8 is a schematic configuration diagram of the MOS image sensor in FIG. 6 in which the pixel cells in FIG. 7 are two-dimensionally arranged. 図6の撮像装置の動作を示すタイミング図である。FIG. 7 is a timing diagram illustrating an operation of the imaging apparatus in FIG. 6. 本発明の第3の実施形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on the 3rd Embodiment of this invention. 図10中のCCDイメージセンサの概略構成図である。It is a schematic block diagram of the CCD image sensor in FIG. 図10の撮像装置の動作を示すタイミング図である。FIG. 11 is a timing diagram illustrating an operation of the imaging apparatus in FIG. 10.
 以下、本発明の実施形態を、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
 《第1の実施形態》
 図1は、本発明の第1の実施形態に係る撮像装置の構成を示している。図1において、200は被写体、201は背景光照明である。図1の撮像装置は、赤外レーザ202と、粗面フィルタ203と、光学レンズ204と、2バンド光学フィルタ205と、CCDイメージセンサ210と、アナログフロントエンド(analog front-end:AFE)220と、Vドライバ(VDR)221と、画像処理装置(image signal processor:ISP)230とを備えたものである。ISP230は、カメラ前処理部240と、カラーカメラ処理部及び距離画像演算処理部250と、中央処理装置(central processing unit:CPU)260と、タイミングジェネレータ(timing generator:TG)270とを有する。カメラ前処理部240は、減算回路241と、AE(automatic exposure)検波回路242とを有する。
<< First Embodiment >>
FIG. 1 shows a configuration of an imaging apparatus according to the first embodiment of the present invention. In FIG. 1, reference numeral 200 denotes a subject, and 201 denotes background light illumination. 1 includes an infrared laser 202, a rough surface filter 203, an optical lens 204, a two-band optical filter 205, a CCD image sensor 210, an analog front-end (AFE) 220, and the like. , A V driver (VDR) 221 and an image signal processor (ISP) 230. The ISP 230 includes a camera preprocessing unit 240, a color camera processing unit / distance image calculation processing unit 250, a central processing unit (CPU) 260, and a timing generator (TG) 270. The camera preprocessing unit 240 includes a subtraction circuit 241 and an AE (automatic exposure) detection circuit 242.
 図1の撮像装置によれば、赤外レーザ202が波長850nmの赤外光を照射し、その照射された赤外光が粗面フィルタ203を通過することにより、距離画像を得るためのコヒーレントランダムスペックルパターン(coherent random speckle pattern)による多数の斑点パターンの赤外光が被写体200に照射される。 According to the imaging apparatus of FIG. 1, the infrared laser 202 emits infrared light having a wavelength of 850 nm, and the irradiated infrared light passes through the rough surface filter 203 so that a coherent random image for obtaining a distance image is obtained. The subject 200 is irradiated with infrared light having a number of speckle patterns based on a speckle pattern (coherent random speckle pattern).
 被写体200から反射された赤外光は、光学レンズ204と、2バンド光学フィルタ205とを介してCCDイメージセンサ210に結像する。一方、赤外光照射を行わない期間には、背景光照明201による被写体200からの反射光のみが、同じ光学レンズ204と、2バンド光学フィルタ205とを介して同じCCDイメージセンサ210に結像する。 The infrared light reflected from the subject 200 forms an image on the CCD image sensor 210 via the optical lens 204 and the two-band optical filter 205. On the other hand, during the period when infrared light irradiation is not performed, only the reflected light from the subject 200 by the background light illumination 201 forms an image on the same CCD image sensor 210 via the same optical lens 204 and the two-band optical filter 205. To do.
 図2は、図1中の2バンド光学フィルタ205の分光透過率を示す図である。2バンド光学フィルタ205は、可視光波長領域と、850nm近傍の波長領域とを透過する分光透過特性を有する光学フィルタである。 FIG. 2 is a diagram showing the spectral transmittance of the two-band optical filter 205 in FIG. The two-band optical filter 205 is an optical filter having spectral transmission characteristics that transmits a visible light wavelength region and a wavelength region near 850 nm.
 CCDイメージセンサ210は、結像された画像を電気信号に変換する。このCCDイメージセンサ210から出力された信号は、AFE220を介してデジタル信号に変換される。デジタル化された信号は、ISP230内のカメラ前処理部240でキズ補正、ノイズ除去等の処理が行われる。また、カメラ前処理部240では、入力信号が減算回路241及びAE検波回路242に与えられる。 The CCD image sensor 210 converts the formed image into an electrical signal. A signal output from the CCD image sensor 210 is converted into a digital signal via the AFE 220. The digitized signal is subjected to processing such as flaw correction and noise removal in the camera preprocessing unit 240 in the ISP 230. In the camera preprocessing unit 240, the input signal is given to the subtraction circuit 241 and the AE detection circuit 242.
 カラーカメラ処理部及び距離画像演算処理部250は、輪郭強調、色調整等のカメラ処理の結果をカラー画像として出力する一方、赤外光撮像結果からのコヒーレントランダムスペックルパターンとリファレンスパターンとを比較して距離を算出できるように距離画像を出力する。 The color camera processing unit and the distance image calculation processing unit 250 output the result of camera processing such as edge enhancement and color adjustment as a color image, while comparing the coherent random speckle pattern from the infrared imaging result with the reference pattern. The distance image is output so that the distance can be calculated.
 CPU260は、各ブロック240,250,270のレジスタ設定等により、本撮像装置のシステム全体の制御を行う。特に、CPU260は、AE検波回路242からの出力に時間軸方向のフィルタ処理等を施して、CCDイメージセンサ210の可視光露光時間、赤外光露光時間の各々を独立に演算してその情報をTG270に伝える。 The CPU 260 controls the entire system of the imaging apparatus according to the register settings of the blocks 240, 250, and 270. In particular, the CPU 260 subjects the output from the AE detection circuit 242 to time-axis filtering, etc., and independently calculates the visible light exposure time and the infrared light exposure time of the CCD image sensor 210 to obtain the information. Tell TG270.
 TG270は、CCDイメージセンサ210へ直接に供給する水平駆動パルスを生成し、VDR221を介してCCDイメージセンサ210へ基板排出パルス及び垂直駆動パルスを供給するとともに、赤外レーザ202への駆動信号を生成する。このうち、基板排出パルスは、画素の信号電荷を排出するためのパルスであって、CPU260から指令されたシャッタスピードになるようなタイミングで生成される。これにより、可視光露光、赤外光露光のいずれでも自然なAE制御を行える。 The TG 270 generates a horizontal drive pulse to be directly supplied to the CCD image sensor 210, supplies a substrate discharge pulse and a vertical drive pulse to the CCD image sensor 210 via the VDR 221, and generates a drive signal to the infrared laser 202. To do. Among these, the substrate discharge pulse is a pulse for discharging the signal charge of the pixel, and is generated at a timing at which the shutter speed commanded by the CPU 260 is obtained. Thereby, natural AE control can be performed in both visible light exposure and infrared light exposure.
 図3は、図1中のCCDイメージセンサ210の概略構成図である。図3に示したCCDイメージセンサ210は、プログレッシブスキャン対応かつインターライントランスファ方式のイメージセンサであって、フォトダイオード(photodiode:PD)21と、垂直転送部22と、水平転送部23と、電荷検出部24と、VOD25とから構成される。PD21は、行列状に配置され、各々画素を構成する。垂直転送部22は、例えば1画素あたり4ゲートV1,V2,V3,V4の構成であり、4相パルスφV1,φV2,φV3,φV4により駆動される。このうち、φV1は全画素読み出しパルスである。つまり、PD21の信号電荷の読み出しゲートは、垂直転送部22のうちのV1ゲートを兼用した構成となっている。水平転送部23は、例えば2相(H1及びH2)の構成である。また、基板排出パルスφSubが与えられると、全画素の信号電荷がVOD25を介して一括して基板に排出される構成となっている。なお、図3では便宜上PD21と同じ面上にVOD25が隣接するように記載しているが、実際にはPD21のバルク方向(半導体基板の深さ方向)にVOD25が隣接するように構成されている。 FIG. 3 is a schematic configuration diagram of the CCD image sensor 210 in FIG. The CCD image sensor 210 shown in FIG. 3 is an image sensor of progressive scan compatible and interline transfer system, and includes a photodiode (PD) 21, a vertical transfer unit 22, a horizontal transfer unit 23, and a charge detection. The unit 24 and the VOD 25 are included. The PDs 21 are arranged in a matrix and each constitute a pixel. The vertical transfer unit 22 has, for example, a configuration of four gates V1, V2, V3, and V4 per pixel, and is driven by four-phase pulses φV1, φV2, φV3, and φV4. Of these, φV1 is an all-pixel readout pulse. That is, the signal charge readout gate of the PD 21 is configured to also serve as the V1 gate of the vertical transfer unit 22. The horizontal transfer unit 23 has, for example, a two-phase (H1 and H2) configuration. Further, when the substrate discharge pulse φSub is given, the signal charges of all the pixels are discharged to the substrate all at once via the VOD 25. In FIG. 3, for convenience, the VOD 25 is described as being adjacent to the same surface as the PD 21, but in reality, the VOD 25 is adjacent to the PD 21 in the bulk direction (the depth direction of the semiconductor substrate). .
 図4は、図3中のPD21上に配置されるカラーフィルタの配列を示している。ここでは、画素部が、R画素、G画素、B画素及びIR画素の合計4画素からなる2×2の単位配列を持つものとしている。R画素、G画素及びB画素には、いわゆるRGBカラーフィルタが配置される。IR画素には、可視光カットフィルタが配置される。なお、カラーフィルタ配列は本例に限らず、m及びnを各々2以上の整数とするとき、画素部がm×nの単位配列を持つこととしてもよい。 FIG. 4 shows an arrangement of color filters arranged on the PD 21 in FIG. Here, it is assumed that the pixel unit has a 2 × 2 unit array composed of a total of four pixels of R pixel, G pixel, B pixel, and IR pixel. So-called RGB color filters are arranged in the R pixel, G pixel, and B pixel. A visible light cut filter is disposed in the IR pixel. The color filter array is not limited to this example, and when m and n are each an integer of 2 or more, the pixel portion may have an m × n unit array.
 図5は、図1の撮像装置の動作を示すタイミング図である。ここでは、垂直同期パルスVDのレートが毎秒60フレーム(60fps)であって、奇数フレームにて照射赤外光による撮像が、偶数フレームにて背景光による可視光撮像が各々実行されるものとして説明する。 FIG. 5 is a timing chart showing the operation of the imaging apparatus of FIG. Here, it is assumed that the rate of the vertical synchronization pulse VD is 60 frames per second (60 fps), imaging with irradiated infrared light is performed in odd frames, and visible light imaging with background light is performed in even frames. To do.
 第1フレームにおいて、基板排出パルスφSubの印加で全画素の信号電荷が排出され、基板排出パルスφSubの印加終了により赤外光露光時間11が開始し、同時に赤外レーザ202による赤外光照射時間13が開始する。一方、背景光照明201は継続点灯しているため、被写体200からの反射光は赤外光と可視光との双方を含んでいる。ところが、2バンド光学フィルタ205とIR画素の可視光カットフィルタとにより850nm近傍の反射光のみがIR画素により受光されて光電変換が行われ、赤外光露光時間11中にIR画素に信号電荷が蓄積される。 In the first frame, the signal charges of all the pixels are discharged by applying the substrate discharge pulse φSub, the infrared light exposure time 11 is started by the end of the application of the substrate discharge pulse φSub, and the infrared light irradiation time by the infrared laser 202 at the same time. 13 starts. On the other hand, since the background light illumination 201 is continuously lit, the reflected light from the subject 200 includes both infrared light and visible light. However, only the reflected light in the vicinity of 850 nm is received by the IR pixel by the two-band optical filter 205 and the visible light cut filter of the IR pixel, photoelectric conversion is performed, and the signal charge is applied to the IR pixel during the infrared light exposure time 11. Accumulated.
 次に、第2フレームの始まりに全画素読み出しパルスφV1にHレベルを印加することにより、IR画素を含む全画素の信号電荷が垂直転送部22に読み出され、赤外光露光時間11が終了する。同時に赤外レーザ202による赤外光照射時間13が終了する。 Next, by applying an H level to the all-pixel readout pulse φV1 at the beginning of the second frame, the signal charges of all the pixels including the IR pixel are read out to the vertical transfer unit 22 and the infrared light exposure time 11 ends. To do. At the same time, the infrared light irradiation time 13 by the infrared laser 202 ends.
 その後、垂直転送部22と、水平転送部23と、電荷検出部24とを介し、図5に示したイメージセンサ出力タイミング14でIR画素信号が赤外光露光信号として出力され、後段での処理に移行する。なお、この際にRGBの各画素信号も出力されるが、これらのRGB画素信号が後段で処理されることはない。 Thereafter, an IR pixel signal is output as an infrared light exposure signal at the image sensor output timing 14 shown in FIG. 5 via the vertical transfer unit 22, the horizontal transfer unit 23, and the charge detection unit 24, and is processed in the subsequent stage. Migrate to At this time, RGB pixel signals are also output, but these RGB pixel signals are not processed in the subsequent stage.
 第2フレームにおける全画素の信号電荷読み出し後、必要な露光時間になるように基板排出パルスφSubの印加で全画素の信号電荷が排出され、基板排出パルスφSubの印加終了により可視光露光時間12が開始する。この時、赤外レーザ202による赤外光照射は停止しているため、被写体200からの反射光は照射赤外光の成分を含まず、背景光の成分のみを含んでいる。ただし、背景光は可視光成分の他に若干のIR成分を含んでいることがある。また、RGB画素におけるRGBカラーフィルタは、このIR成分に対して若干の透過特性を持つ。したがって、R画素では、2バンド光学フィルタ205とRカラーフィルタとにより、可視光のR成分と若干のIR成分とが受光されて光電変換が行われ、可視光露光時間12中にR画素に信号電荷が蓄積される。G画素では、2バンド光学フィルタ205とGカラーフィルタとにより、可視光のG成分と若干のIR成分とが受光されて光電変換が行われ、可視光露光時間12中にG画素に信号電荷が蓄積される。B画素では、2バンド光学フィルタ205とBカラーフィルタとにより、可視光のB成分と若干のIR成分とが受光されて光電変換が行われ、可視光露光時間12中にB画素に信号電荷が蓄積される。また、IR画素では、2バンド光学フィルタ205と可視光カットフィルタとにより、背景光中の若干のIR成分のみが受光されて光電変換が行われ、可視光露光時間12中にIR画素に信号電荷が蓄積される。 After reading the signal charges of all the pixels in the second frame, the signal charges of all the pixels are discharged by applying the substrate discharge pulse φSub so that the necessary exposure time is reached, and the visible light exposure time 12 is set by the end of the application of the substrate discharge pulse φSub. Start. At this time, since the infrared light irradiation by the infrared laser 202 is stopped, the reflected light from the subject 200 does not include the irradiated infrared light component but includes only the background light component. However, the background light may contain some IR components in addition to the visible light component. The RGB color filter in the RGB pixel has a slight transmission characteristic with respect to the IR component. Therefore, in the R pixel, the R component of visible light and a slight IR component are received by the two-band optical filter 205 and the R color filter, and photoelectric conversion is performed, and a signal is transmitted to the R pixel during the visible light exposure time 12. Charge is accumulated. In the G pixel, the 2-band optical filter 205 and the G color filter receive the G component of visible light and a slight amount of IR component to perform photoelectric conversion, and signal charges are applied to the G pixel during the visible light exposure time 12. Accumulated. In the B pixel, the 2-band optical filter 205 and the B color filter receive the B component of visible light and a slight amount of IR component to perform photoelectric conversion, and signal charge is applied to the B pixel during the visible light exposure time 12. Accumulated. In the IR pixel, the two-band optical filter 205 and the visible light cut filter receive only a small amount of IR component in the background light to perform photoelectric conversion, and the signal charge is applied to the IR pixel during the visible light exposure time 12. Is accumulated.
 次に、第3フレームの始まりに全画素読み出しパルスφV1にHレベルを印加することにより、全画素の信号電荷が垂直転送部22に読み出され、可視光露光時間12が終了する。 Next, by applying an H level to the all-pixel readout pulse φV1 at the beginning of the third frame, the signal charges of all the pixels are read out to the vertical transfer unit 22 and the visible light exposure time 12 ends.
 その後、垂直転送部22と、水平転送部23と、電荷検出部24とを介し、図5に示したイメージセンサ出力タイミング15でRGB画素とIR画素とを含む全画素の信号が、可視光露光信号として出力される。 Thereafter, the signals of all the pixels including the RGB pixels and the IR pixels are subjected to visible light exposure through the vertical transfer unit 22, the horizontal transfer unit 23, and the charge detection unit 24 at the image sensor output timing 15 shown in FIG. Output as a signal.
 更に、CCDイメージセンサ210の動作が繰り返され、赤外光露光時間11と可視光露光時間12とが各々1フレームおきに現れるように、赤外光露光と可視光露光とが時分割に交互に行われる。 Further, the operation of the CCD image sensor 210 is repeated, and the infrared light exposure and the visible light exposure are alternately performed in a time division manner so that the infrared light exposure time 11 and the visible light exposure time 12 appear every other frame. Done.
 ここで、CCDイメージセンサ210の出力信号に基づくAE動作について説明する。前述のとおり、奇数フレームの赤外光露光時間11に得られた画素信号は、偶数フレームにてタイミング14で出力される。この際、IR画素の出力信号のみがAE検波回路242で検波され、その出力をCPU260で読み取る。CPU260は、偶数フレーム毎にCCDイメージセンサ210から出力されたIR画素信号の検波結果のみを用いて、時間フィルタを介して、次の奇数フレームのシャッタスピードを決定する。 Here, the AE operation based on the output signal of the CCD image sensor 210 will be described. As described above, the pixel signal obtained at the infrared light exposure time 11 of the odd frame is output at the timing 14 in the even frame. At this time, only the output signal of the IR pixel is detected by the AE detection circuit 242, and the output is read by the CPU 260. The CPU 260 determines the shutter speed of the next odd frame through the time filter using only the detection result of the IR pixel signal output from the CCD image sensor 210 for each even frame.
 一方、偶数フレームの可視光露光時間12に得られた画素信号は、奇数フレームにてタイミング15で出力される。この際、RGB画素の出力信号がAE検波回路242で検波され、その出力をCPU260で読み取る。CPU260は、奇数フレーム毎にCCDイメージセンサ210から出力されたRGB画素信号の検波結果のみを用いて、時間フィルタを介して、次の偶数フレームのシャッタスピードを決定する。 On the other hand, the pixel signal obtained at the visible light exposure time 12 of the even frame is output at the timing 15 in the odd frame. At this time, the output signal of the RGB pixel is detected by the AE detection circuit 242 and the output is read by the CPU 260. The CPU 260 determines the shutter speed of the next even frame through the time filter using only the detection result of the RGB pixel signal output from the CCD image sensor 210 for each odd frame.
 以上のようにして、1台の60fpsのCCDイメージセンサ210を用いて、30fpsの照射赤外光撮像カメラと、30fpsの背景光カラー撮像カメラとのあたかも2台のカメラを設置したように、各々独立したAE制御を実現する。 As described above, as if two cameras, a 30 fps irradiation infrared light imaging camera and a 30 fps background light color imaging camera, were installed using one 60 fps CCD image sensor 210, respectively. Independent AE control is realized.
 最後に、可視光露光時間12に被写体200からの反射光として受光されたRGB画素信号は、カラーカメラ処理部及び距離画像演算処理部250により、ホワイトバランス処理、輪郭強調処理等が施されたカラー画像として出力される。一方、赤外光露光時間11に被写体200からのコヒーレントランダムスペックルパターンの反射光として受光されたIR画素信号は、予め格納されたスペックルパターンのリファレンスパターンと照合しそのアドレスずれから、カラーカメラ処理部及び距離画像演算処理部250で演算され、距離画像に変換して出力される。 Finally, the RGB pixel signals received as reflected light from the subject 200 during the visible light exposure time 12 are subjected to white balance processing, contour enhancement processing, and the like by the color camera processing unit and the distance image calculation processing unit 250. Output as an image. On the other hand, the IR pixel signal received as reflected light of the coherent random speckle pattern from the subject 200 during the infrared light exposure time 11 is collated with the reference pattern of the speckle pattern stored in advance, and from the address shift, the color camera It is calculated by the processing unit and the distance image calculation processing unit 250, converted into a distance image, and output.
 以上のとおり、本実施形態によれば、画素信号電荷の排出は全画素一括のVOD25で行える。また、赤外光露光と可視光露光とを時分割に行うこととしたので、2バンド光学フィルタ205とCCDイメージセンサ210上の単層構造の各画素フィルタとを併用することで、可視光と赤外光との光学的な混合を最小限に抑えることができる。よって、背景光による高画質のカラー画像撮像と、赤外光による高精度の距離画像撮像とを安価なシステムで実現することができる。 As described above, according to the present embodiment, pixel signal charges can be discharged by the VOD 25 for all the pixels at once. In addition, since the infrared light exposure and the visible light exposure are performed in a time-sharing manner, the two-band optical filter 205 and each pixel filter having a single-layer structure on the CCD image sensor 210 can be used together. Optical mixing with infrared light can be minimized. Therefore, high-quality color image capturing using background light and high-accuracy distance image capturing using infrared light can be realized with an inexpensive system.
 また、赤外光露光時間11と可視光露光時間12とを互いに独立に制御するためにAE検波回路242の出力を赤外光用と可視光用とに分け、各々独立にAE制御しているので、それぞれ光源が異なるため大きく条件の異なるIR画素の赤外光露光時間11とRGB画素の可視光露光時間12とを、それぞれ最適な露光時間に制御することが可能となり、あたかも可視カメラと測距カメラとの2台のカメラが同時に動作しているように、より一層の可視画像撮像の高画質化と距離画像撮像の高精度化とを図ることができる。 Further, in order to control the infrared light exposure time 11 and the visible light exposure time 12 independently of each other, the output of the AE detection circuit 242 is divided into infrared light and visible light, and each is independently controlled by AE. Therefore, since the light sources are different from each other, it becomes possible to control the infrared light exposure time 11 of the IR pixel and the visible light exposure time 12 of the RGB pixel, which are greatly different from each other, to the optimum exposure time, as if it were a measurement with the visible camera. It is possible to further improve the image quality of visible image capturing and the accuracy of distance image capturing so that the two cameras, the distance camera, operate simultaneously.
 また、可視光露光時間12の開始を決定するように全画素の信号電荷を排出する基板排出パルスφSubの印加タイミングから、可視光露光時間12の終了を決定するように全画素の信号電荷を読み出す全画素読み出しパルスφV1の印加タイミングまでの期間については、赤外レーザ202による赤外光照射を停止するものとしているので、赤外光の照射時間を短縮することで、電力及び発熱の低減を行うことができる。 Further, the signal charges of all the pixels are read out so as to determine the end of the visible light exposure time 12 from the application timing of the substrate discharge pulse φSub for discharging the signal charges of all the pixels so as to determine the start of the visible light exposure time 12. In the period up to the application timing of the all-pixel readout pulse φV1, since the infrared light irradiation by the infrared laser 202 is stopped, the irradiation time of the infrared light is shortened to reduce power and heat generation. be able to.
 なお、本実施形態では赤外光露光時間11と赤外光照射時間13とを合致させているが、赤外光照射時間13が赤外光露光時間11を含み、かつ可視光露光時間12を含まなければ、特に問題は生じない。 In this embodiment, the infrared light exposure time 11 and the infrared light irradiation time 13 are matched, but the infrared light irradiation time 13 includes the infrared light exposure time 11 and the visible light exposure time 12 is set. If not included, there is no particular problem.
 また、背景光にIR成分が圧倒的に多い等の、距離画像のより高い精度が要求される悪環境下の場合には、赤外光露光時間11のIR画素の信号レベルから可視光露光時間12のIR画素の信号を各々の露光時間を加味して、同一露光時間のレベルとなるように補正したうえで減算回路241によって減算した結果を、カラーカメラ処理部及び距離画像演算処理部250に入力する。これにより、背景光の850nm近傍のIR成分のノイズを抑圧し、より一層高精度な距離画像演算を実現することができる。 Further, in the case of a bad environment where higher accuracy of the distance image is required, such as when the background light has an overwhelmingly large IR component, the visible light exposure time is determined from the IR pixel signal level of the infrared light exposure time 11. The result of subtracting by the subtracting circuit 241 after correcting the signals of the 12 IR pixels to the level of the same exposure time by taking each exposure time into consideration is given to the color camera processing unit and the distance image calculation processing unit 250. input. As a result, it is possible to suppress the noise of the IR component in the vicinity of 850 nm of the background light, and realize a further highly accurate range image calculation.
 また、背景光にIR成分が圧倒的に多い等の厳しい環境下でアプリケーションとしてより高い色再現性が求められる場合には、可視光露光時間12の各々のRGB画素の信号レベルから可視光露光時間12のIR画素の信号を、2バンド光学フィルタ205と各々の画素に配置されたフィルタとの総合特性としての850nm近傍の赤外光透過率による感度を加味して、同一の透過率レベルとなるようにRGB画素の各々とIR画素との出力を補正したうえで減算回路241によって減算した結果を、カラーカメラ処理部及び距離画像演算処理部250に入力する。これにより、背景光の850nm近傍のIR成分のノイズを抑圧し、より高い色再現性及び高画質を実現することができる。 Further, when higher color reproducibility is required as an application in a severe environment where the background light has an overwhelmingly large IR component, the visible light exposure time is determined from the signal level of each RGB pixel in the visible light exposure time 12. The signal of 12 IR pixels has the same transmittance level, taking into account the sensitivity due to the infrared light transmittance near 850 nm as the overall characteristics of the 2-band optical filter 205 and the filter arranged in each pixel. As described above, the output of each of the RGB pixels and the IR pixel is corrected, and the result of subtraction by the subtraction circuit 241 is input to the color camera processing unit and the distance image calculation processing unit 250. Thereby, the noise of the IR component near 850 nm of background light can be suppressed, and higher color reproducibility and high image quality can be realized.
 《第2の実施形態》
 図6は、本発明の第2の実施形態に係る撮像装置の構成を示している。図6の撮像装置は、図1中のCCDイメージセンサ210を、グローバルシャッタ機能及びグロ―バルリセット機能を搭載したプログレッシブスキャン方式対応のMOS(metal-oxide-semiconductor)イメージセンサ211に置き換えたものである。以下、第1の実施形態との相違点に重点を置いて、第2の実施形態について説明する。
<< Second Embodiment >>
FIG. 6 shows a configuration of an imaging apparatus according to the second embodiment of the present invention. The imaging apparatus of FIG. 6 is obtained by replacing the CCD image sensor 210 in FIG. 1 with a progressive scan type MOS (metal-oxide-semiconductor) image sensor 211 equipped with a global shutter function and a global reset function. is there. Hereinafter, the second embodiment will be described with emphasis on the differences from the first embodiment.
 図7は、図6中のMOSイメージセンサ211における画素セル101の構成を示す回路図である。ここに、nは1から4までの整数とする。個々の画素セル101は、感光部であるPDと、シャッタ信号TXSnをHとすることでPDに蓄積した信号電荷をリセット(排出)するためのシャッタトランジスタM5と、蓄積容量を持つフローティングディフュージョン(floating difusion:FD)と、転送信号TXnをHとすることでPDに蓄積した信号電荷をFDに読み出すための読み出しトランジスタM1と、リセット信号RSnをHとすることでFDに読み出された信号電荷をリセットするためのリセットトランジスタM2と、ゲートがFDに接続されたソースフォロワトランジスタM3と、選択信号SELnをHとすることでソースフォロワトランジスタM3を垂直信号線へ接続するライン選択トランジスタM4とから構成される。リセットトランジスタM2とソースフォロワトランジスタM3とシャッタトランジスタM5とのドレインは、画素電極VDDに接続されている。 FIG. 7 is a circuit diagram showing a configuration of the pixel cell 101 in the MOS image sensor 211 in FIG. Here, n is an integer from 1 to 4. Each pixel cell 101 includes a PD serving as a photosensitive portion, a shutter transistor M5 for resetting (discharging) signal charges accumulated in the PD by setting the shutter signal TXSn to H, and a floating diffusion (floating) having a storage capacity. difusion: FD), a read transistor M1 for reading the signal charge accumulated in the PD to the FD by setting the transfer signal TXn to H, and a signal charge read to the FD by setting the reset signal RSn to H A reset transistor M2 for resetting, a source follower transistor M3 whose gate is connected to FD, and a line selection transistor M4 that connects the source follower transistor M3 to the vertical signal line by setting the selection signal SELn to H. The The drains of the reset transistor M2, the source follower transistor M3, and the shutter transistor M5 are connected to the pixel electrode VDD.
 図8は、図7の画素セル101が2次元状に配置されてなる図6中のMOSイメージセンサ211の概略構成図である。図8のMOSイメージセンサ211は、画素セル101を4行4列の2次元状に配列した画素部102と、列ごとのトランジスタ閾値電圧のばらつきにより発生する固定パターンノイズ(fixed pattern noise:FPN)を除去するためのFPN除去部103と、FPN除去部103の出力信号を順次選択するための水平選択部104と、水平選択部104の出力信号を増幅するための差動アンプ105とから構成されている。なお、画素部102は説明の便宜上4行4列の小サイズとしている。 FIG. 8 is a schematic configuration diagram of the MOS image sensor 211 in FIG. 6 in which the pixel cells 101 in FIG. 7 are two-dimensionally arranged. The MOS image sensor 211 in FIG. 8 includes a pixel portion 102 in which pixel cells 101 are arranged in a two-dimensional form of 4 rows and 4 columns, and fixed pattern noise (FPN) generated due to variations in transistor threshold voltage for each column. The FPN removing unit 103 for removing the signal, the horizontal selecting unit 104 for sequentially selecting the output signal of the FPN removing unit 103, and the differential amplifier 105 for amplifying the output signal of the horizontal selecting unit 104. ing. Note that the pixel unit 102 has a small size of 4 rows and 4 columns for convenience of explanation.
 画素部102の行は、不図示の垂直走査部により順次選択される。各列の垂直信号線106に電流源109が接続されている。FPN除去部103の各列は、サンプルホールド信号SHSを受ける信号レベル用サンプルトランジスタM11と、サンプルホールド信号SHNを受けるリセットレベル用サンプルトランジスタM12と、信号レベル用容量C11と、リセットレベル用容量C12とから構成される。水平選択部104の各列は、信号レベル用容量C11と第1の水平信号線107との間に介在した第1の列選択トランジスタM21と、リセットレベル用容量C12と第2の水平信号線108との間に介在した第2の列選択トランジスタM22とから構成される。水平選択部104の各列は、不図示の水平走査部からの信号H1~H4により順次選択される。差動アンプ105は、第1の水平信号線107と第2の水平信号線108との間の電位差を増幅する。 The rows of the pixel unit 102 are sequentially selected by a vertical scanning unit (not shown). A current source 109 is connected to the vertical signal line 106 in each column. Each column of the FPN removing unit 103 includes a signal level sample transistor M11 that receives the sample hold signal SHS, a reset level sample transistor M12 that receives the sample hold signal SHN, a signal level capacitor C11, and a reset level capacitor C12. Consists of Each column of the horizontal selection unit 104 includes a first column selection transistor M21 interposed between the signal level capacitor C11 and the first horizontal signal line 107, a reset level capacitor C12, and a second horizontal signal line 108. And a second column selection transistor M22 interposed therebetween. Each column of the horizontal selection unit 104 is sequentially selected by signals H1 to H4 from a horizontal scanning unit (not shown). The differential amplifier 105 amplifies the potential difference between the first horizontal signal line 107 and the second horizontal signal line 108.
 また、各画素には第1の実施形態と同様に図4に示したR、G、B、IRのカラーフィルタが配置されている。 Further, the R, G, B, and IR color filters shown in FIG. 4 are arranged in each pixel as in the first embodiment.
 図6のCPU260は、各ブロック240,250,270のレジスタ設定等により、本撮像装置のシステム全体の制御を行う。特に、CPU260は、AE検波回路242からの出力に時間軸方向のフィルタ処理等を施し、MOSイメージセンサ211の可視光露光時間、赤外光露光時間の各々を独立に演算してその情報を、シリアル転送等の通信手段で直接MOSイメージセンサ211に伝え、MOSイメージセンサ211内で各種駆動パルスを生成する。これにより、CPU260から指令されたシャッタスピードになるように各PDの信号電荷を排出するシャッタ信号TXS1~TXS4のパルスタイミングを生成し、可視光露光、赤外光露光のいずれでも自然なAE制御を行えるようにしている。 The CPU 260 in FIG. 6 controls the entire system of the imaging apparatus according to the register settings of the blocks 240, 250, and 270. In particular, the CPU 260 subjects the output from the AE detection circuit 242 to time-axis filtering, etc., and independently calculates the visible light exposure time and the infrared light exposure time of the MOS image sensor 211 to obtain the information, The information is directly transmitted to the MOS image sensor 211 by communication means such as serial transfer, and various drive pulses are generated in the MOS image sensor 211. As a result, the pulse timing of the shutter signals TXS1 to TXS4 for discharging the signal charge of each PD is generated so as to achieve the shutter speed commanded by the CPU 260, and natural AE control is performed in both visible light exposure and infrared light exposure. I can do it.
 図9は、図6の撮像装置の動作を示すタイミング図である。ここでは、垂直同期パルスVDのレートが毎秒60フレーム(60fps)であって、奇数フレームにて照射赤外光による撮像が、偶数フレームにて背景光による可視光撮像が各々実行されるものとして説明する。 FIG. 9 is a timing chart showing the operation of the imaging apparatus of FIG. Here, it is assumed that the rate of the vertical synchronization pulse VD is 60 frames per second (60 fps), imaging with irradiated infrared light is performed in odd frames, and visible light imaging with background light is performed in even frames. To do.
 第1フレームにおいて、全PDに蓄積した信号電荷を一括して排出するシャッタトランジスタM5をオンするようにシャッタ信号TXSn(n=1~4)のパルス印加で全画素の信号電荷が排出され、このシャッタ信号TXSnのパルス印加終了により赤外光露光時間131が開始し、同時に赤外レーザ202による赤外光照射時間133が開始する。一方、背景光照明201は継続点灯しているため、被写体200からの反射光は赤外光と可視光との双方を含んでいる。ところが、2バンド光学フィルタ205とIR画素の可視光カットフィルタとにより850nm近傍の反射光のみがIR画素により受光されて光電変換が行われ、赤外光露光時間131中にIR画素に信号電荷が蓄積される。 In the first frame, the signal charges of all the pixels are discharged by applying the pulse of the shutter signal TXSn (n = 1 to 4) so as to turn on the shutter transistor M5 that collectively discharges the signal charges accumulated in all the PDs. When the pulse application of the shutter signal TXSn ends, the infrared light exposure time 131 starts, and at the same time, the infrared light irradiation time 133 by the infrared laser 202 starts. On the other hand, since the background light illumination 201 is continuously lit, the reflected light from the subject 200 includes both infrared light and visible light. However, only the reflected light in the vicinity of 850 nm is received by the IR pixel by the two-band optical filter 205 and the visible light cut filter of the IR pixel, and photoelectric conversion is performed, and the signal charge is transferred to the IR pixel during the infrared light exposure time 131. Accumulated.
 次に、第2フレームの始まりに全PDに蓄積した信号電荷を一括してFDに読み出すための読み出しトランジスタM1をオンするように転送信号TXn(n=1~4)のパルス印加で全画素の信号電荷が全FDに読み出され、赤外光露光時間131が終了する。同時に赤外レーザ202による赤外光照射時間133が終了する。 Next, by applying a pulse of the transfer signal TXn (n = 1 to 4) so as to turn on the read transistor M1 for collectively reading the signal charges accumulated in all the PDs to the FD at the beginning of the second frame, The signal charge is read to all the FDs, and the infrared light exposure time 131 ends. At the same time, the infrared light irradiation time 133 by the infrared laser 202 ends.
 その後、選択信号SEL1のパルスにより、FDで信号電圧に変換された電圧信号は、ソースフォロワトランジスタM3を介して垂直信号線106に読み出され、FPN除去部103を介してIR画素信号が出力されて、後段での処理に移行する。続いて選択信号SEL2,SEL3,SEL4のパルスにより順次ライン選択される。この結果、図9に示したイメージセンサ出力タイミング134で1画面分のIR画素信号が赤外光露光信号として出力される。なお、この際にRGBの各画素信号も出力されるが、これらのRGB画素信号が後段で処理されることはない。 Thereafter, the voltage signal converted into the signal voltage by the FD by the pulse of the selection signal SEL1 is read to the vertical signal line 106 through the source follower transistor M3, and the IR pixel signal is output through the FPN removal unit 103. Then, the process proceeds to the later stage. Subsequently, the lines are sequentially selected by the pulses of the selection signals SEL2, SEL3, and SEL4. As a result, an IR pixel signal for one screen is output as an infrared light exposure signal at the image sensor output timing 134 shown in FIG. At this time, RGB pixel signals are also output, but these RGB pixel signals are not processed in the subsequent stage.
 第2フレームにおいて全画素の信号電荷がFDへ読み出された後、必要な露光時間になるように、全PDに蓄積した信号電荷を一括して排出するシャッタトランジスタM5をオンするようにシャッタ信号TXSn(n=1~4)のパルス印加で全画素の信号電荷が排出され、シャッタ信号TXSnのパルス印加終了により可視光露光時間132が開始する。この時、赤外レーザ202による赤外光照射は停止しているため、被写体200からの反射光は照射赤外光の成分を含まず、背景光の成分のみを含んでいる。ただし、背景光は可視光成分の他に若干のIR成分を含んでいることがある。また、RGB画素におけるRGBカラーフィルタは、このIR成分に対して若干の透過特性を持つ。したがって、RGB画素は、各々のフィルタリングされた可視光成分に加えて背景光に由来する若干のIR成分にも感光して、可視光露光時間132中に信号電荷を蓄積する。IR画素では、2バンド光学フィルタ205と可視光カットフィルタとにより、背景光中の若干のIR成分のみが受光されて光電変換が行われ、可視光露光時間132中にIR画素に信号電荷が蓄積される。 After the signal charges of all the pixels are read to the FD in the second frame, the shutter signal is turned on so as to turn on the shutter transistor M5 that collectively discharges the signal charges accumulated in all the PDs so that the necessary exposure time is reached. The signal charges of all the pixels are discharged by applying a pulse of TXSn (n = 1 to 4), and the visible light exposure time 132 starts when the pulse application of the shutter signal TXSn is completed. At this time, since the infrared light irradiation by the infrared laser 202 is stopped, the reflected light from the subject 200 does not include the irradiated infrared light component but includes only the background light component. However, the background light may contain some IR components in addition to the visible light component. The RGB color filter in the RGB pixel has a slight transmission characteristic with respect to the IR component. Thus, the RGB pixels are sensitive to some IR component derived from background light in addition to each filtered visible light component and accumulate signal charge during the visible light exposure time 132. In the IR pixel, the two-band optical filter 205 and the visible light cut filter receive only some IR components in the background light and perform photoelectric conversion, and signal charges accumulate in the IR pixel during the visible light exposure time 132. Is done.
 次に、第3フレームの始まりに全PDに蓄積した信号電荷を一括してFDに読み出すための読み出しトランジスタM1をオンするように転送信号TXn(n=1~4)のパルスを印加することにより、全画素の信号電荷が全FDに読み出され、可視光露光時間132が終了する。 Next, by applying a pulse of the transfer signal TXn (n = 1 to 4) so as to turn on the read transistor M1 for collectively reading the signal charges accumulated in all PDs to the FD at the beginning of the third frame. The signal charges of all the pixels are read out to all the FDs, and the visible light exposure time 132 ends.
 その後、選択信号SEL1のパルスにより、FDで信号電圧に変換された電圧信号は、ソースフォロワトランジスタM3を介して垂直信号線106に読み出され、FPN除去部103を介して全画素信号が出力されて、後段での処理に移行する。続いて選択信号SEL2,SEL3,SEL4のパルスにより順次ライン選択される。この結果、図9に示したイメージセンサ出力タイミング135で、RGB画素とIR画素とを含む1画面分の全画素信号が、可視光露光信号として出力される。 Thereafter, the voltage signal converted into the signal voltage by the FD by the pulse of the selection signal SEL1 is read to the vertical signal line 106 via the source follower transistor M3, and all the pixel signals are output via the FPN removal unit 103. Then, the process proceeds to the later stage. Subsequently, the lines are sequentially selected by the pulses of the selection signals SEL2, SEL3, and SEL4. As a result, at the image sensor output timing 135 shown in FIG. 9, all pixel signals for one screen including RGB pixels and IR pixels are output as visible light exposure signals.
 更に、MOSイメージセンサ211の動作が繰り返され、赤外光露光時間131と可視光露光時間132とが各々1フレームおきに現れるように、赤外光露光と可視光露光とが時分割に交互に行われる。 Further, the operation of the MOS image sensor 211 is repeated, and the infrared light exposure and the visible light exposure are alternately performed in a time division manner so that the infrared light exposure time 131 and the visible light exposure time 132 appear every other frame. Done.
 ここで、MOSイメージセンサ211の出力信号に基づくAE動作について説明する。前述のとおり、奇数フレームの赤外光露光時間131に得られた画素信号は、偶数フレームにてタイミング134で出力される。この際、IR画素の出力信号のみがAE検波回路242で検波され、その出力をCPU260で読み取る。CPU260は、偶数フレーム毎にMOSイメージセンサ211から出力されたIR画素信号の検波結果のみを用いて、時間フィルタを介して、次の奇数フレームのシャッタスピードを決定する。 Here, the AE operation based on the output signal of the MOS image sensor 211 will be described. As described above, the pixel signal obtained at the infrared light exposure time 131 of the odd frame is output at the timing 134 in the even frame. At this time, only the output signal of the IR pixel is detected by the AE detection circuit 242, and the output is read by the CPU 260. The CPU 260 determines the shutter speed of the next odd frame through the time filter using only the detection result of the IR pixel signal output from the MOS image sensor 211 for each even frame.
 一方、偶数フレームの可視光露光時間132に得られた画素信号は、奇数フレームにてタイミング135で出力される。この際、RGB画素の出力信号がAE検波回路242で検波され、その出力をCPU260で読み取る。CPU260は、奇数フレーム毎にMOSイメージセンサ211から出力されたRGB画素信号の検波結果のみを用いて、時間フィルタを介して、次の偶数フレームのシャッタスピードを決定する。 On the other hand, the pixel signal obtained at the visible light exposure time 132 of the even frame is output at the timing 135 in the odd frame. At this time, the output signal of the RGB pixel is detected by the AE detection circuit 242 and the output is read by the CPU 260. The CPU 260 determines the shutter speed of the next even frame through the time filter using only the detection result of the RGB pixel signal output from the MOS image sensor 211 for each odd frame.
 以上のようにして、1台の60fpsのMOSイメージセンサ211を用いて、30fpsの照射赤外光撮像カメラと、30fpsの背景光カラー撮像カメラとのあたかも2台のカメラを設置したように、各々独立したAE制御を実現する。 As described above, using one 60 fps MOS image sensor 211, as if two cameras were installed, a 30 fps irradiation infrared light imaging camera and a 30 fps background light color imaging camera, Independent AE control is realized.
 以上のとおり、本実施形態によれば、画素信号電荷の排出は全画素一括のシャッタトランジスタM5で行える。また、赤外光露光と可視光露光とを時分割に行うこととしたので、2バンド光学フィルタ205とMOSイメージセンサ211上の単層構造の各画素フィルタとを併用することで、可視光と赤外光との光学的な混合を最小限に抑えることができる。よって、背景光による高画質のカラー画像撮像と、赤外光による高精度の距離画像撮像とを安価なシステムで実現することができる。 As described above, according to the present embodiment, pixel signal charges can be discharged by the shutter transistor M5 for all the pixels at once. In addition, since the infrared light exposure and the visible light exposure are performed in a time-sharing manner, by using the two-band optical filter 205 and each pixel filter having a single layer structure on the MOS image sensor 211 in combination with the visible light, Optical mixing with infrared light can be minimized. Therefore, high-quality color image capturing using background light and high-accuracy distance image capturing using infrared light can be realized with an inexpensive system.
 また、赤外光露光時間131と可視光露光時間132とを互いに独立に制御するためにAE検波回路242の出力を赤外光用と可視光用とに分け、各々独立にAE制御しているので、それぞれ光源が異なるため大きく条件の異なるIR画素の赤外光露光時間131とRGB画素の可視光露光時間132とを、それぞれ最適な露光時間に制御することが可能となり、あたかも可視カメラと測距カメラとの2台のカメラが同時に動作しているように、より一層の可視画像撮像の高画質化と距離画像撮像の高精度化とを図ることができる。 Further, in order to control the infrared light exposure time 131 and the visible light exposure time 132 independently of each other, the output of the AE detection circuit 242 is divided into infrared light and visible light, and each is independently controlled by AE. As a result, the IR light exposure time 131 of the IR pixel and the visible light exposure time 132 of the RGB pixel, which are greatly different from each other, can be controlled to the optimum exposure time. It is possible to further improve the image quality of visible image capturing and the accuracy of distance image capturing so that the two cameras, the distance camera, operate simultaneously.
 また、可視光露光時間132の開始を決定するように全画素のPDに蓄積した信号電荷を排出するシャッタ信号TXSn(n=1~4)のパルス印加タイミングから、可視光露光時間132の終了を決定するように全画素のPDの信号電荷を一括してFDに読み出す転送信号TXn(n=1~4)のパルス印加タイミングまでの期間については、赤外レーザ202による赤外光照射を停止するものとしているので、赤外光の照射時間を短縮することで、電力及び発熱の低減を行うことができる。 Further, the end of the visible light exposure time 132 is started from the pulse application timing of the shutter signal TXSn (n = 1 to 4) for discharging the signal charges accumulated in the PDs of all the pixels so as to determine the start of the visible light exposure time 132. As determined, the infrared light irradiation by the infrared laser 202 is stopped during the period up to the pulse application timing of the transfer signal TXn (n = 1 to 4) for collectively reading the PD signal charges of all pixels to the FD. Therefore, power and heat generation can be reduced by shortening the irradiation time of infrared light.
 なお、本実施形態では赤外光露光時間131と赤外光照射時間133とを合致させているが、赤外光照射時間133が赤外光露光時間131を含み、かつ可視光露光時間132を含まなければ、特に問題は生じない。 In this embodiment, the infrared light exposure time 131 and the infrared light irradiation time 133 are matched, but the infrared light irradiation time 133 includes the infrared light exposure time 131 and the visible light exposure time 132 is set. If not included, there is no particular problem.
 また、背景光にIR成分が圧倒的に多い等の、距離画像のより高い精度が要求される悪環境下の場合には、赤外光露光時間131のIR画素の信号レベルから可視光露光時間132のIR画素の信号を各々の露光時間を加味して、同一露光時間のレベルとなるように補正したうえで減算回路241によって減算した結果を、カラーカメラ処理部及び距離画像演算処理部250に入力する。これにより、背景光の850nm近傍のIR成分のノイズを抑圧し、より一層高精度な距離画像演算を実現することができる。 Further, in the case of a bad environment where higher accuracy of the distance image is required, such as when the background light has an overwhelmingly large IR component, the visible light exposure time is determined from the IR pixel signal level of the infrared light exposure time 131. The result of subtracting by the subtracting circuit 241 after correcting the signal of the 132 IR pixels to the level of the same exposure time with each exposure time taken into consideration is given to the color camera processing unit and the distance image calculation processing unit 250. input. As a result, it is possible to suppress the noise of the IR component in the vicinity of 850 nm of the background light, and realize a further highly accurate range image calculation.
 また、背景光にIR成分が圧倒的に多い等の厳しい環境下でアプリケーションとしてより高い色再現性が求められる場合には、可視光露光時間132の各々のRGB画素の信号レベルから可視光露光時間132のIR画素の信号を、2バンド光学フィルタ205と各々の画素に配置されたフィルタとの総合特性としての850nm近傍の赤外光透過率による感度を加味して、同一の透過率レベルとなるようにRGB画素の各々とIR画素との出力を補正したうえで減算回路241によって減算した結果を、カラーカメラ処理部及び距離画像演算処理部250に入力する。これにより、背景光の850nm近傍のIR成分のノイズを抑圧し、より高い色再現性及び高画質を実現することができる。 Further, when higher color reproducibility is required as an application in a severe environment where the background light has an overwhelmingly large IR component, the visible light exposure time is determined from the signal level of each RGB pixel in the visible light exposure time 132. The signal from the 132 IR pixels has the same transmittance level in consideration of the sensitivity due to the infrared light transmittance near 850 nm as the overall characteristics of the two-band optical filter 205 and the filter arranged in each pixel. As described above, the output of each of the RGB pixels and the IR pixel is corrected, and the result of subtraction by the subtraction circuit 241 is input to the color camera processing unit and the distance image calculation processing unit 250. Thereby, the noise of the IR component near 850 nm of background light can be suppressed, and higher color reproducibility and high image quality can be realized.
 《第3の実施形態》
 図10は、本発明の第3の実施形態に係る撮像装置の構成を示している。図10の撮像装置は、図1中のCCDイメージセンサ210を、IR画素の信号電荷読み出しゲートとRGB画素の信号電荷読み出しゲートとを互いに独立に配線したCCDイメージセンサ212に置き換えたものである。以下、第1の実施形態との相違点に重点を置いて、第3の実施形態について説明する。
<< Third Embodiment >>
FIG. 10 shows a configuration of an imaging apparatus according to the third embodiment of the present invention. The imaging device of FIG. 10 is obtained by replacing the CCD image sensor 210 in FIG. 1 with a CCD image sensor 212 in which signal charge readout gates of IR pixels and RGB signal charge readout gates are wired independently of each other. Hereinafter, the third embodiment will be described with emphasis on differences from the first embodiment.
 図11は、図10中のCCDイメージセンサ212の概略構成図である。図11に示したCCDイメージセンサ212は、プログレッシブスキャン対応かつインターライントランスファ方式のイメージセンサであって、PD71と、垂直転送部72と、水平転送部73と、電荷検出部74と、VOD75とから構成される。PD71は、行列状に配置され、各々画素を構成する。そして、各画素には第1の実施形態と同様にR、G、B、IRのカラーフィルタが配置されている。垂直転送部72は、例えば1画素あたり4ゲートV1,V7,V3,V4の構成であり、4相パルスφV1,φV7,φV3,φV4により駆動される。このうち、φV1はRGB画素の読み出しパルスである。つまり、RGB画素については、信号電荷の読み出しゲートが、垂直転送部72のうちのV1ゲートを兼用した構成となっている。ただし、IR画素の読み出しゲートと兼用した垂直転送部72のゲートについては、これをV1ゲートから独立したV5ゲートとして新たに設けている。φV5はIR画素の読み出しパルスである。水平転送部73は、例えば2相(H1及びH2)の構成である。また、基板排出パルスφSubが与えられると、全画素の信号電荷がVOD75を介して一括して基板に排出される構成となっている。 FIG. 11 is a schematic configuration diagram of the CCD image sensor 212 in FIG. A CCD image sensor 212 shown in FIG. 11 is an image sensor of progressive scan compatible and interline transfer system, and includes a PD 71, a vertical transfer unit 72, a horizontal transfer unit 73, a charge detection unit 74, and a VOD 75. Composed. The PDs 71 are arranged in a matrix and constitute pixels. Each pixel is provided with R, G, B, and IR color filters as in the first embodiment. The vertical transfer unit 72 has, for example, a configuration of four gates V1, V7, V3, and V4 per pixel, and is driven by four-phase pulses φV1, φV7, φV3, and φV4. Of these, φV1 is an RGB pixel readout pulse. In other words, the RGB pixel has a configuration in which the signal charge readout gate also serves as the V1 gate of the vertical transfer unit 72. However, the gate of the vertical transfer unit 72 that also serves as the IR pixel readout gate is newly provided as a V5 gate independent of the V1 gate. φV5 is an IR pixel readout pulse. The horizontal transfer unit 73 has, for example, a two-phase (H1 and H2) configuration. Further, when the substrate discharge pulse φSub is given, the signal charges of all the pixels are discharged to the substrate all at once via the VOD 75.
 図12は、図10の撮像装置の動作を示すタイミング図である。ここでは、垂直同期パルスVDのレートが60fpsであって、1フレーム内の前半にて照射赤外光による撮像が、後半にて背景光による可視光撮像が各々実行されるものとして説明する。なお、IR画素読み出しパルスφV5のタイミングは、1水平期間毎に任意に設定可能とする。 FIG. 12 is a timing chart showing the operation of the imaging apparatus of FIG. Here, description will be made assuming that the rate of the vertical synchronization pulse VD is 60 fps, imaging with irradiated infrared light is performed in the first half of one frame, and visible light imaging with background light is performed in the second half. Note that the timing of the IR pixel readout pulse φV5 can be arbitrarily set for each horizontal period.
 第1フレームにおいて、基板排出パルスφSubの印加で全画素の信号電荷が排出され、基板排出パルスφSubの印加終了により赤外光露光時間81が開始し、同時に赤外レーザ202による赤外光照射時間83が開始する。一方、背景光照明201は継続点灯しているため、被写体200からの反射光は赤外光と可視光との双方を含んでいる。ところが、2バンド光学フィルタ205とIR画素の可視光カットフィルタとにより850nm近傍の反射光のみがIR画素により受光されて光電変換が行われ、赤外光露光時間81中にIR画素に信号電荷が蓄積される。 In the first frame, application of the substrate discharge pulse φSub discharges signal charges of all the pixels, and when the application of the substrate discharge pulse φSub ends, the infrared light exposure time 81 starts, and at the same time, the infrared light irradiation time by the infrared laser 202 83 starts. On the other hand, since the background light illumination 201 is continuously lit, the reflected light from the subject 200 includes both infrared light and visible light. However, only the reflected light in the vicinity of 850 nm is received by the IR pixel by the two-band optical filter 205 and the visible light cut filter of the IR pixel, photoelectric conversion is performed, and the signal charge is applied to the IR pixel during the infrared light exposure time 81. Accumulated.
 次に、IR画素読み出しパルスφV5にHレベルを印加することにより、IR画素の信号電荷が垂直転送部72に読み出され、赤外光露光時間81が終了する。同時に赤外レーザ202による赤外光照射時間83が終了する。 Next, by applying an H level to the IR pixel readout pulse φV5, the signal charge of the IR pixel is read out to the vertical transfer unit 72, and the infrared light exposure time 81 ends. At the same time, the infrared light irradiation time 83 by the infrared laser 202 ends.
 その後、垂直転送部72と、水平転送部73と、電荷検出部74とを介し、図12に示したイメージセンサ出力タイミング84でIR画素信号が赤外光露光信号として出力され、後段での処理に移行する。 Thereafter, an IR pixel signal is output as an infrared light exposure signal at the image sensor output timing 84 shown in FIG. 12 via the vertical transfer unit 72, the horizontal transfer unit 73, and the charge detection unit 74, and processing in the subsequent stage Migrate to
 一方、IR画素の信号電荷読み出し後、必要な露光時間になるように、基板排出パルスφSubの印加で全画素の信号電荷が排出され、基板排出パルスφSubの印加終了により可視光露光時間82が開始する。この時、赤外レーザ202による赤外線照射は停止しているため、被写体200からの反射光は照射赤外光の成分を含まず、背景光の成分のみを含んでいる。ただし、背景光は可視光成分の他に若干のIR成分を含んでいることがある。また、RGB画素におけるRGBカラーフィルタは、このIR成分に対して若干の透過特性を持つ。したがって、RGB画素は、各々のフィルタリングされた可視光成分に加えて背景光に由来する若干のIR成分にも感光して、可視光露光時間132中に信号電荷を蓄積する。IR画素では、2バンド光学フィルタ205と可視光カットフィルタとにより、背景光中の若干のIR成分のみが受光されて光電変換が行われ、可視光露光時間132中にIR画素に信号電荷が蓄積される。 On the other hand, after reading the signal charge of the IR pixel, the signal charge of all the pixels is discharged by applying the substrate discharge pulse φSub so that the necessary exposure time is reached, and the visible light exposure time 82 starts when the application of the substrate discharge pulse φSub is completed. To do. At this time, since the infrared irradiation by the infrared laser 202 is stopped, the reflected light from the subject 200 does not include the irradiated infrared light component but includes only the background light component. However, the background light may contain some IR components in addition to the visible light component. The RGB color filter in the RGB pixel has a slight transmission characteristic with respect to the IR component. Thus, the RGB pixels are sensitive to some IR component derived from background light in addition to each filtered visible light component and accumulate signal charge during the visible light exposure time 132. In the IR pixel, the two-band optical filter 205 and the visible light cut filter receive only some IR components in the background light and perform photoelectric conversion, and signal charges accumulate in the IR pixel during the visible light exposure time 132. Is done.
 次に、第2フレームの始まりにRGB画素読み出しパルスφV1にHレベルを印加することにより、RGB画素の信号電荷が垂直転送部72に読み出され、可視光露光時間82が終了する。 Next, by applying an H level to the RGB pixel readout pulse φV1 at the beginning of the second frame, the signal charges of the RGB pixels are read out to the vertical transfer unit 72, and the visible light exposure time 82 ends.
 続いて、垂直転送部72と、水平転送部73と、電荷検出部74とを介し、図12に示したイメージセンサ出力タイミング85でRGB画素の信号が、可視光露光信号として出力される。この場合、IR画素の信号も出力中であるが、垂直転送部72の空きパケットにRGB画素信号が収まるように垂直転送することで、R、G、B、IRの各画素の信号電荷は垂直転送部72内で混合することなく、両タイミング84,85間にずれを生じながらも全画素独立に出力することが可能となる。 Subsequently, RGB pixel signals are output as visible light exposure signals at the image sensor output timing 85 shown in FIG. 12 via the vertical transfer unit 72, the horizontal transfer unit 73, and the charge detection unit 74. In this case, the IR pixel signal is also being output, but the signal charge of each of the R, G, B, and IR pixels is vertical by performing vertical transfer so that the RGB pixel signal is contained in the empty packet of the vertical transfer unit 72. Without mixing in the transfer unit 72, it is possible to output all pixels independently while causing a shift between the timings 84 and 85.
 更に、フレーム単位で同様にCCDイメージセンサ212の動作が繰り返され、赤外光露光時間81と可視光露光時間82とが1フレーム内に現れるように、赤外光露光と可視光露光とが時分割に交互に行われる。 Further, the operation of the CCD image sensor 212 is similarly repeated in units of frames, and the infrared light exposure and the visible light exposure are sometimes performed so that the infrared light exposure time 81 and the visible light exposure time 82 appear in one frame. Alternation is performed alternately.
 ここで、CCDイメージセンサ212の出力信号に基づくAE動作について説明する。前述のとおり、赤外光露光時間81に得られた画素信号は、フレームの途中のタイミングから約1V期間かけて出力される。この際、IR画素の出力信号がAE検波回路242で検波され、その出力をCPU260で読み取る。CPU260は、IR画素信号の検波結果のみを用いて、時間フィルタを介して、次のフレームの赤外光露光時間81のシャッタスピードを決定する。 Here, the AE operation based on the output signal of the CCD image sensor 212 will be described. As described above, the pixel signal obtained at the infrared light exposure time 81 is output over a period of about 1 V from the timing in the middle of the frame. At this time, the output signal of the IR pixel is detected by the AE detection circuit 242 and the output is read by the CPU 260. The CPU 260 uses only the detection result of the IR pixel signal to determine the shutter speed of the infrared light exposure time 81 of the next frame through the time filter.
 一方、可視光露光時間82に得られた画素信号は、フレーム先頭から出力される。この際、RGB画素の出力信号がAE検波回路242で検波され、その出力をCPU260で読み取る。CPU260は、1フレーム毎にCCDイメージセンサ212から出力されたRGB画素信号の検波結果のみを用いて、時間フィルタを介して、次の可視光露光時間82のシャッタスピードを決定する。 On the other hand, the pixel signal obtained at the visible light exposure time 82 is output from the top of the frame. At this time, the output signal of the RGB pixel is detected by the AE detection circuit 242 and the output is read by the CPU 260. The CPU 260 determines the shutter speed for the next visible light exposure time 82 through the time filter using only the detection result of the RGB pixel signal output from the CCD image sensor 212 for each frame.
 このようにして、1台の60fpsのCCDイメージセンサ212を用いて、60fpsの照射赤外光撮像カメラと、60fpsの背景光カラー撮像カメラとのあたかも2台のカメラを設置したように、各々独立したAE制御を実現する。 In this way, using one 60 fps CCD image sensor 212, as if two cameras were installed, a 60 fps irradiation infrared light imaging camera and a 60 fps background light color imaging camera, each was independent. AE control is realized.
 以上のとおり、本実施形態によれば、画素信号電荷の排出は全画素一括のVOD75で行える。また、赤外光露光と可視光露光とを時分割に行うこととしたので、2バンド光学フィルタ205とCCDイメージセンサ212上の単層構造の各画素フィルタとを併用することで、可視光と赤外光との光学的な混合を最小限に抑えることができる。よって、背景光による高画質のカラー画像撮像と、赤外光による高精度の距離画像撮像とを安価なシステムで実現することができる。 As described above, according to the present embodiment, the pixel signal charge can be discharged by the VOD 75 for all the pixels at once. In addition, since the infrared light exposure and the visible light exposure are performed in a time-sharing manner, the two-band optical filter 205 and each pixel filter having a single layer structure on the CCD image sensor 212 are used in combination. Optical mixing with infrared light can be minimized. Therefore, high-quality color image capturing using background light and high-accuracy range image capturing using infrared light can be realized with an inexpensive system.
 また、赤外光露光時間81と可視光露光時間82とを互いに独立に制御するためにAE検波回路242の出力を赤外光用と可視光用とに分け、各々独立にAE制御しているので、それぞれ光源が異なるため大きく条件の異なるIR画素の赤外光露光時間81とRGB画素の可視光露光時間82とを、それぞれ最適な露光時間に制御することが可能となり、あたかも可視カメラと測距カメラとの2台のカメラが同時に動作しているように、より一層の可視画像撮像の高画質化と距離画像撮像の高精度化とを図ることができる。 Further, in order to control the infrared light exposure time 81 and the visible light exposure time 82 independently of each other, the output of the AE detection circuit 242 is divided into infrared light and visible light, and each is independently controlled by AE. Therefore, since the respective light sources are different, it is possible to control the infrared light exposure time 81 of the IR pixel and the visible light exposure time 82 of the RGB pixel, which are greatly different from each other, to the optimum exposure time, as if they were measured with a visible camera. It is possible to further improve the image quality of visible image capturing and the accuracy of distance image capturing so that the two cameras, the distance camera, operate simultaneously.
 しかも、IR画素の信号電荷読み出しゲートとRGB画素の信号電荷読み出しゲートとを互いに独立に配線し、赤外光露光と可視光露光との時分割が1フレーム内で完結することとし、IR画素の信号電荷読み出しパルスφV5の印加で赤外光露光時間81を終了し、RGB画素の信号電荷読み出しパルスφV1の印加で可視光露光時間82を終了することとしたので、CCDイメージセンサ212のフレームレートと同一のフレームレートで可視画像と距離画像との双方が得られることになり、システムの大幅な高速化を図ることができる。 In addition, the signal charge readout gate of the IR pixel and the signal charge readout gate of the RGB pixel are wired independently of each other, and the time division between the infrared light exposure and the visible light exposure is completed within one frame. The application of the signal charge readout pulse φV5 ends the infrared light exposure time 81, and the application of the signal charge readout pulse φV1 of the RGB pixels ends the visible light exposure time 82. Therefore, the frame rate of the CCD image sensor 212 Both a visible image and a distance image can be obtained at the same frame rate, and the system can be greatly speeded up.
 また、可視光露光時間82の開始を決定するように全画素の信号電荷を排出する基板排出パルスφSubの印加タイミングから、可視光露光時間82の終了を決定するようにRGB画素の信号電荷を読み出すRGB画素読み出しパルスφV1の印加タイミングまでの期間については、赤外レーザ202による赤外光照射を停止するものとしているので、赤外光の照射時間を短縮することで、電力及び発熱の低減を行うことができる。 Further, the signal charges of the RGB pixels are read out so as to determine the end of the visible light exposure time 82 from the application timing of the substrate discharge pulse φSub that discharges the signal charges of all the pixels so as to determine the start of the visible light exposure time 82. In the period up to the application timing of the RGB pixel readout pulse φV1, the infrared light irradiation by the infrared laser 202 is stopped. Therefore, the power and heat generation are reduced by shortening the irradiation time of the infrared light. be able to.
 なお、本実施形態では赤外光露光時間81と赤外光照射時間83とを合致させているが、赤外光照射時間83が赤外光露光時間81を含み、かつ可視光露光時間82を含まなければ、特に問題は生じない。 In this embodiment, the infrared light exposure time 81 and the infrared light irradiation time 83 are matched, but the infrared light irradiation time 83 includes the infrared light exposure time 81 and the visible light exposure time 82 is set. If not included, there is no particular problem.
 また、本実施形態は、IR画素とRGB画素との行選択配線を独立配線にすることにより、グローバルシャッタ機能とグローバルリセット機能とを備えたMOSイメージセンサに適用することもできる。 Further, this embodiment can also be applied to a MOS image sensor having a global shutter function and a global reset function by making the row selection wiring of the IR pixel and the RGB pixel independent.
 本発明は、赤外光照射パターンによる距離画像撮像と背景光によるカラー画像撮像とを1つのシステムで実現するので、ジェスチャ認証等でのゲーム機や、人物認証等のサイネージ分野等の撮像装置に利用することができる。 Since the present invention realizes distance image capturing using an infrared light irradiation pattern and color image capturing using background light in one system, it can be applied to an imaging device such as a game machine for gesture authentication or a signage field such as person authentication. Can be used.
11,81,131 赤外光露光時間
12,82,132 可視光露光時間
13,83,133 赤外光照射時間
14,84,134 赤外光露光時間のイメージセンサ出力タイミング
15,85,135 可視光露光時間のイメージセンサ出力タイミング
21,71 フォトダイオード(画素)
22,72 垂直転送部
23,73 水平転送部
24,74 電荷検出部
25,75 縦型オーバーフロードレイン(VOD:排出手段)
101 画素セル
102 画素部
103 固定パターンノイズ(FPN)除去部
104 水平選択部
105 差動アンプ
106 垂直信号線
107,108 水平信号線
109 電流源
200 被写体
201 背景光照明
202 赤外レーザ(照射手段)
203 粗面フィルタ
204 光学レンズ
205 2バンド光学フィルタ
210 CCDイメージセンサ
211 MOSイメージセンサ
212 CCDイメージセンサ
220 アナログフロントエンド(AFE)
221 Vドライバ(VDR)
230 画像処理装置(ISP)
240 カメラ前処理部
241 減算回路
242 AE検波回路
250 カラーカメラ処理部及び距離画像演算処理部
260 中央処理装置(CPU)
270 タイミングジェネレータ(TG)
11, 81, 131 Infrared light exposure time 12, 82, 132 Visible light exposure time 13, 83, 133 Infrared light irradiation time 14, 84, 134 Infrared light exposure time image sensor output timing 15, 85, 135 Visible Image sensor output timing of light exposure time 21, 71 Photodiode (pixel)
22, 72 Vertical transfer units 23, 73 Horizontal transfer units 24, 74 Charge detection units 25, 75 Vertical overflow drain (VOD: discharge means)
DESCRIPTION OF SYMBOLS 101 Pixel cell 102 Pixel part 103 Fixed pattern noise (FPN) removal part 104 Horizontal selection part 105 Differential amplifier 106 Vertical signal line 107,108 Horizontal signal line 109 Current source 200 Subject 201 Background light illumination 202 Infrared laser (irradiation means)
203 Rough surface filter 204 Optical lens 205 Two-band optical filter 210 CCD image sensor 211 MOS image sensor 212 CCD image sensor 220 Analog front end (AFE)
221 V driver (VDR)
230 Image processing device (ISP)
240 Camera pre-processing unit 241 Subtraction circuit 242 AE detection circuit 250 Color camera processing unit and distance image calculation processing unit 260 Central processing unit (CPU)
270 Timing Generator (TG)

Claims (11)

  1.  被写体へ赤外光を照射する照射手段と、
     可視光波長領域と、前記照射された赤外光の近傍波長領域とを透過する分光透過特性を有して前記被写体からの入射光を受ける2バンド光学フィルタと、
     前記2バンド光学フィルタを介して結像された画像を電気信号に変換するイメージセンサとを備えた撮像装置であって、
     前記イメージセンサは、
     前記2バンド光学フィルタを透過した赤外光を受光して赤外光露光を行う第1の画素と、
     前記2バンド光学フィルタを透過した可視光を受光して可視光露光を行う第2の画素と、
     前記第1及び第2の画素の信号電荷を同時に排出する排出手段とを有し、
     前記第1の画素の赤外光露光と前記第2の画素の可視光露光とを時分割に行うことを特徴とする撮像装置。
    Irradiating means for irradiating the subject with infrared light;
    A two-band optical filter having a spectral transmission characteristic that transmits a visible light wavelength region and a wavelength region near the irradiated infrared light and receiving incident light from the subject;
    An image pickup apparatus comprising: an image sensor that converts an image formed through the two-band optical filter into an electric signal;
    The image sensor is
    A first pixel that receives infrared light transmitted through the two-band optical filter and performs infrared light exposure;
    A second pixel that receives visible light transmitted through the two-band optical filter and performs visible light exposure;
    Discharging means for simultaneously discharging the signal charges of the first and second pixels,
    An imaging apparatus, wherein infrared light exposure of the first pixel and visible light exposure of the second pixel are performed in a time-sharing manner.
  2.  請求項1記載の撮像装置において、
     前記イメージセンサは、前記第1の画素と前記第2の画素とを混在させてなるm×n(m及びnは各々2以上の整数)の単位配列を持つ画素部を有することを特徴とする撮像装置。
    The imaging device according to claim 1,
    The image sensor includes a pixel unit having a unit arrangement of m × n (m and n are each an integer of 2 or more) in which the first pixel and the second pixel are mixed. Imaging device.
  3.  請求項1記載の撮像装置において、
     前記イメージセンサは、前記第1の画素と3個の前記第2の画素とを混在させてなる2×2の単位配列を持つ画素部を有し、
     前記第1の画素には可視光カットフィルタを、3個の前記第2の画素にはRGBカラーフィルタをそれぞれ設けたことを特徴とする撮像装置。
    The imaging device according to claim 1,
    The image sensor includes a pixel unit having a 2 × 2 unit array in which the first pixel and the three second pixels are mixed.
    An imaging apparatus according to claim 1, wherein a visible light cut filter is provided in each of the first pixels, and an RGB color filter is provided in each of the three second pixels.
  4.  請求項1記載の撮像装置において、
     前記第1の画素の赤外光露光と前記第2の画素の可視光露光との時分割サイクルは、前記イメージセンサの出力画像フレームに同期していることを特徴とする撮像装置。
    The imaging device according to claim 1,
    An imaging apparatus, wherein a time division cycle of infrared light exposure of the first pixel and visible light exposure of the second pixel is synchronized with an output image frame of the image sensor.
  5.  請求項4記載の撮像装置において、
     前記第1の画素の赤外光露光を行うフレームにおける前記第1の画素の出力から、前記第2の画素の可視光露光を行うフレームにおける前記第1の画素の出力を、各々の露光時間を加味して補正したうえ減算する減算回路を更に備えたことを特徴とする撮像装置。
    The imaging apparatus according to claim 4.
    From the output of the first pixel in the frame where infrared light exposure of the first pixel is performed, the output of the first pixel in the frame where visible light exposure of the second pixel is performed is set to each exposure time. An imaging apparatus, further comprising a subtracting circuit that corrects and subtracts in consideration.
  6.  請求項4記載の撮像装置において、
     前記第2の画素の可視光露光を行うフレームにおける前記第2の画素の出力から、当該フレームにおける前記第1の画素の出力を、各々の画素の赤外光透過率による感度を加味して補正したうえ減算する減算回路を更に備えたことを特徴とする撮像装置。
    The imaging apparatus according to claim 4.
    From the output of the second pixel in the frame in which the visible light exposure of the second pixel is performed, the output of the first pixel in the frame is corrected in consideration of the sensitivity due to the infrared light transmittance of each pixel. An image pickup apparatus, further comprising a subtracting circuit for subtracting.
  7.  請求項1記載の撮像装置において、
     前記イメージセンサの出力を検波するAE検波回路を更に備え、
     前記第1の画素の赤外光露光の時間と前記第2の画素の可視光露光の時間とを互いに独立に制御するように、前記AE検波回路の出力を赤外光用と可視光用とに分けて各々独立にAE制御することを特徴とする撮像装置。
    The imaging device according to claim 1,
    An AE detection circuit for detecting the output of the image sensor;
    The output of the AE detection circuit is for infrared light and visible light so that the time of infrared light exposure of the first pixel and the time of visible light exposure of the second pixel are controlled independently of each other. And an AE control independently for each of them.
  8.  請求項1記載の撮像装置において、
     前記照射手段は、少なくとも、前記第2の画素の可視光露光の開始を決定するように全画素の信号電荷を排出するパルス印加のタイミングから、前記第2の画素の可視光露光の終了を決定するように全画素の信号電荷を読み出すパルス印加のタイミングまでの期間には、前記赤外光照射を停止することを特徴とする撮像装置。
    The imaging device according to claim 1,
    The irradiating means determines at least the end of visible light exposure of the second pixel from the timing of pulse application for discharging the signal charges of all pixels so as to determine the start of visible light exposure of the second pixel. As described above, the infrared light irradiation is stopped during a period until the pulse application timing for reading out the signal charges of all the pixels.
  9.  請求項1記載の撮像装置において、
     前記第1の画素の信号電荷読み出しゲートと前記第2の画素の信号電荷読み出しゲートとを互いに独立に配線し、
     前記第1の画素の赤外光露光と前記第2の画素の可視光露光との時分割サイクルが前記イメージセンサの出力画像の1フレーム内で完結し、
     前記第1の画素の信号電荷読み出しゲートへのパルス印加のタイミングで前記第1の画素の赤外光露光を終了し、前記第2の画素の信号電荷読み出しゲートへのパルス印加のタイミングで前記第2の画素の可視光露光を終了することを特徴とする撮像装置。
    The imaging device according to claim 1,
    Wiring the signal charge readout gate of the first pixel and the signal charge readout gate of the second pixel independently of each other;
    A time division cycle of infrared light exposure of the first pixel and visible light exposure of the second pixel is completed within one frame of the output image of the image sensor;
    Infrared light exposure of the first pixel is terminated at the timing of applying a pulse to the signal charge readout gate of the first pixel, and the first timing is applied to the signal charge readout gate of the second pixel. An imaging apparatus characterized by ending visible light exposure of the second pixel.
  10.  請求項9記載の撮像装置において、
     前記イメージセンサの出力を検波するAE検波回路を更に備え、
     前記第1の画素の赤外光露光の時間と前記第2の画素の可視光露光の時間とを互いに独立に制御するように、前記AE検波回路の出力を赤外光用と可視光用とに分けて各々独立にAE制御することを特徴とする撮像装置。
    The imaging apparatus according to claim 9, wherein
    An AE detection circuit for detecting the output of the image sensor;
    The output of the AE detection circuit is for infrared light and visible light so that the time of infrared light exposure of the first pixel and the time of visible light exposure of the second pixel are controlled independently of each other. And an AE control independently for each of them.
  11.  請求項9記載の撮像装置において、
     前記照射手段は、少なくとも、前記第2の画素の可視光露光の開始を決定するように全画素の信号電荷を排出するパルス印加のタイミングから、前記第2の画素の可視光露光の終了を決定するように前記第2の画素の信号電荷読み出しゲートへのパルス印加のタイミングまでの期間には、前記赤外光照射を停止することを特徴とする撮像装置。
    The imaging apparatus according to claim 9, wherein
    The irradiating means determines at least the end of visible light exposure of the second pixel from the timing of pulse application for discharging the signal charges of all pixels so as to determine the start of visible light exposure of the second pixel. As described above, the infrared light irradiation is stopped in a period until the timing of pulse application to the signal charge readout gate of the second pixel.
PCT/JP2012/004917 2011-08-24 2012-08-02 Imaging device WO2013027340A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011182393A JP2014207493A (en) 2011-08-24 2011-08-24 Imaging apparatus
JP2011-182393 2011-08-24

Publications (1)

Publication Number Publication Date
WO2013027340A1 true WO2013027340A1 (en) 2013-02-28

Family

ID=47746113

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/004917 WO2013027340A1 (en) 2011-08-24 2012-08-02 Imaging device

Country Status (2)

Country Link
JP (1) JP2014207493A (en)
WO (1) WO2013027340A1 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015008383A1 (en) * 2013-07-19 2015-01-22 日立マクセル株式会社 Imaging device
WO2015011869A1 (en) * 2013-07-23 2015-01-29 パナソニックIpマネジメント株式会社 Imaging device and method for driving same
JP2015095772A (en) * 2013-11-12 2015-05-18 キヤノン株式会社 Solid state imaging device and imaging system
KR20150090778A (en) * 2014-01-29 2015-08-06 엘지이노텍 주식회사 Apparatus and method for extracting depth map
WO2016021312A1 (en) * 2014-08-08 2016-02-11 ソニー株式会社 Image capturing device and image capturing element
WO2016027397A1 (en) * 2014-08-20 2016-02-25 パナソニックIpマネジメント株式会社 Solid-state image pickup apparatus and camera
WO2016144499A1 (en) * 2015-03-09 2016-09-15 Microsoft Technology Licensing, Llc Filter arrangement for image sensor
WO2018135315A1 (en) * 2017-01-20 2018-07-26 ソニーセミコンダクタソリューションズ株式会社 Image capturing device, image processing method, and image processing system
JP2019144261A (en) * 2013-06-06 2019-08-29 ヘプタゴン・マイクロ・オプティクス・プライベート・リミテッドHeptagon Micro Optics Pte. Ltd. Imaging system and method for making it operate
US10560638B2 (en) 2015-11-17 2020-02-11 Sony Semiconductor Solutions Corporation Imaging apparatus and imaging method
CN113225485A (en) * 2021-03-19 2021-08-06 浙江大华技术股份有限公司 Image acquisition assembly, fusion method, electronic device and storage medium
WO2021199761A1 (en) 2020-03-31 2021-10-07 株式会社フジクラ Optical arithmetic device and production method for optical arithmetic device
CN113574408A (en) * 2019-03-27 2021-10-29 松下知识产权经营株式会社 Solid-state imaging device
CN113785561A (en) * 2019-08-01 2021-12-10 松下知识产权经营株式会社 Image pickup apparatus
CN113923386A (en) * 2020-07-10 2022-01-11 广州印芯半导体技术有限公司 Dynamic vision sensor
US11917888B2 (en) 2020-05-04 2024-02-27 Intel Corporation In-display sensors and viewing angle adjustment microassemblies
US11972635B2 (en) 2021-03-23 2024-04-30 Intel Corporation Integrated image sensor and display pixel

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI675907B (en) * 2015-01-21 2019-11-01 日商Jsr股份有限公司 Solid imaging device
JP6631243B2 (en) * 2015-01-30 2020-01-15 Jsr株式会社 Solid-state imaging device and optical filter
JP2016162946A (en) * 2015-03-04 2016-09-05 Jsr株式会社 Solid state image sensor
WO2016167044A1 (en) * 2015-04-14 2016-10-20 ソニー株式会社 Solid-state image pickup device, image pickup system, and distance measurement method
JP6727840B2 (en) * 2016-02-19 2020-07-22 ソニーモバイルコミュニケーションズ株式会社 Imaging device, imaging control method, and computer program
JP2020072299A (en) * 2018-10-29 2020-05-07 三星電子株式会社Samsung Electronics Co.,Ltd. Image processing device, imaging device, image processing method, and image processing program
CN110505376B (en) * 2019-05-31 2021-04-30 杭州海康威视数字技术股份有限公司 Image acquisition device and method
JP7259660B2 (en) * 2019-09-10 2023-04-18 株式会社デンソー Image registration device, image generation system and image registration program
WO2023100613A1 (en) * 2021-12-02 2023-06-08 パナソニックIpマネジメント株式会社 Imaging device and camera system
WO2023145782A1 (en) * 2022-01-28 2023-08-03 国立大学法人静岡大学 Solid-state imaging device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60177572U (en) * 1984-05-01 1985-11-26 シャープ株式会社 solid-state imaging device
JP2007214832A (en) * 2006-02-09 2007-08-23 Sony Corp Solid-state image pickup device
JP2011149901A (en) * 2010-01-25 2011-08-04 Rohm Co Ltd Light receiving device and mobile apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60177572U (en) * 1984-05-01 1985-11-26 シャープ株式会社 solid-state imaging device
JP2007214832A (en) * 2006-02-09 2007-08-23 Sony Corp Solid-state image pickup device
JP2011149901A (en) * 2010-01-25 2011-08-04 Rohm Co Ltd Light receiving device and mobile apparatus

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144261A (en) * 2013-06-06 2019-08-29 ヘプタゴン・マイクロ・オプティクス・プライベート・リミテッドHeptagon Micro Optics Pte. Ltd. Imaging system and method for making it operate
WO2015008383A1 (en) * 2013-07-19 2015-01-22 日立マクセル株式会社 Imaging device
WO2015011869A1 (en) * 2013-07-23 2015-01-29 パナソニックIpマネジメント株式会社 Imaging device and method for driving same
JPWO2015011869A1 (en) * 2013-07-23 2017-03-02 パナソニックIpマネジメント株式会社 Solid-state imaging device, imaging device, and driving method thereof
US9736438B2 (en) 2013-07-23 2017-08-15 Panasonic Intellectual Property Management Co., Ltd. Solid state imaging device and imaging device and driving method thereof
JP2015095772A (en) * 2013-11-12 2015-05-18 キヤノン株式会社 Solid state imaging device and imaging system
KR20150090778A (en) * 2014-01-29 2015-08-06 엘지이노텍 주식회사 Apparatus and method for extracting depth map
KR102400992B1 (en) 2014-01-29 2022-05-23 엘지이노텍 주식회사 Apparatus and method for extracting depth map
KR20210090134A (en) * 2014-01-29 2021-07-19 엘지이노텍 주식회사 Apparatus and method for extracting depth map
KR102277309B1 (en) * 2014-01-29 2021-07-14 엘지이노텍 주식회사 Apparatus and method for extracting depth map
JP2017506740A (en) * 2014-01-29 2017-03-09 エルジー イノテック カンパニー リミテッド Depth information extraction apparatus and method
US10690484B2 (en) 2014-01-29 2020-06-23 Lg Innotek Co., Ltd. Depth information extracting device and method
US10491791B2 (en) 2014-08-08 2019-11-26 Sony Corporation Imaging apparatus and image sensor
WO2016021312A1 (en) * 2014-08-08 2016-02-11 ソニー株式会社 Image capturing device and image capturing element
WO2016027397A1 (en) * 2014-08-20 2016-02-25 パナソニックIpマネジメント株式会社 Solid-state image pickup apparatus and camera
CN106664378A (en) * 2014-08-20 2017-05-10 松下知识产权经营株式会社 Solid-state image pickup apparatus and camera
US9699394B2 (en) 2015-03-09 2017-07-04 Microsoft Technology Licensing, Llc Filter arrangement for image sensor
WO2016144499A1 (en) * 2015-03-09 2016-09-15 Microsoft Technology Licensing, Llc Filter arrangement for image sensor
US10560638B2 (en) 2015-11-17 2020-02-11 Sony Semiconductor Solutions Corporation Imaging apparatus and imaging method
US10958847B2 (en) 2017-01-20 2021-03-23 Sony Semiconductor Solutions Corporation Imaging device, image processing method, and image processing system
WO2018135315A1 (en) * 2017-01-20 2018-07-26 ソニーセミコンダクタソリューションズ株式会社 Image capturing device, image processing method, and image processing system
CN113574408A (en) * 2019-03-27 2021-10-29 松下知识产权经营株式会社 Solid-state imaging device
CN113785561A (en) * 2019-08-01 2021-12-10 松下知识产权经营株式会社 Image pickup apparatus
CN113785561B (en) * 2019-08-01 2023-12-19 松下知识产权经营株式会社 Image pickup apparatus
WO2021199761A1 (en) 2020-03-31 2021-10-07 株式会社フジクラ Optical arithmetic device and production method for optical arithmetic device
US11917888B2 (en) 2020-05-04 2024-02-27 Intel Corporation In-display sensors and viewing angle adjustment microassemblies
CN113923386A (en) * 2020-07-10 2022-01-11 广州印芯半导体技术有限公司 Dynamic vision sensor
CN113923386B (en) * 2020-07-10 2023-10-27 广州印芯半导体技术有限公司 Dynamic vision sensor
CN113225485A (en) * 2021-03-19 2021-08-06 浙江大华技术股份有限公司 Image acquisition assembly, fusion method, electronic device and storage medium
US11972635B2 (en) 2021-03-23 2024-04-30 Intel Corporation Integrated image sensor and display pixel

Also Published As

Publication number Publication date
JP2014207493A (en) 2014-10-30

Similar Documents

Publication Publication Date Title
WO2013027340A1 (en) Imaging device
JP6145826B2 (en) Imaging apparatus and driving method thereof
JP4396684B2 (en) Method for manufacturing solid-state imaging device
US9071781B2 (en) Image capturing apparatus and defective pixel detection method
JP4957413B2 (en) Solid-state imaging device and imaging apparatus using the same
JP6442710B2 (en) Solid-state imaging device, imaging device, and driving method thereof
JP6664122B2 (en) Solid-state imaging device and camera
US20100309340A1 (en) Image sensor having global and rolling shutter processes for respective sets of pixels of a pixel array
US9794497B2 (en) Solid-state imaging device controlling read-out of signals from pixels in first and second areas
JP7099446B2 (en) Solid-state image sensor and electronic equipment
WO2011158567A1 (en) Solid-state image capture element and digital camera
JPWO2013172205A1 (en) IMAGING DEVICE, IMAGING METHOD, ELECTRONIC DEVICE, AND PROGRAM
JP2004180045A (en) Solid-state imaging device and signal reading method thereof
JP2008042298A (en) Solid-state image pickup device
JP2016090785A (en) Imaging equipment and control method thereof
WO2019078333A1 (en) Imaging device, exposure control method, program, and imaging element
JP5899653B2 (en) Imaging device
JP5299002B2 (en) Imaging device
JP2010081286A (en) Image pickup device
JP6641135B2 (en) Imaging device and imaging device
JP7071061B2 (en) Imaging device and its control method
JP2017098790A (en) Imaging apparatus, control method of the same, program, and storage medium
CN114650343A (en) Image sensor and imaging device
JP2015177257A (en) Solid state image pickup device
JP5299496B2 (en) Solid-state image sensor and camera device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12825213

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12825213

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP