WO2023145782A1 - 固体撮像装置 - Google Patents

固体撮像装置 Download PDF

Info

Publication number
WO2023145782A1
WO2023145782A1 PCT/JP2023/002308 JP2023002308W WO2023145782A1 WO 2023145782 A1 WO2023145782 A1 WO 2023145782A1 JP 2023002308 W JP2023002308 W JP 2023002308W WO 2023145782 A1 WO2023145782 A1 WO 2023145782A1
Authority
WO
WIPO (PCT)
Prior art keywords
charge
pixel
region
light
infrared
Prior art date
Application number
PCT/JP2023/002308
Other languages
English (en)
French (fr)
Inventor
祥二 川人
Original Assignee
国立大学法人静岡大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人静岡大学 filed Critical 国立大学法人静岡大学
Publication of WO2023145782A1 publication Critical patent/WO2023145782A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ

Definitions

  • the present disclosure relates to a solid-state imaging device.
  • the image different from the visible light image is, for example, a near-infrared light image.
  • the image other than the visible light image is, for example, an image with distance information.
  • Patent Literature 1 and Patent Literature 2 disclose imaging devices that obtain a visible light image and an image having distance information.
  • the solid-state imaging device of Patent Document 1 has pixels for obtaining a visible light image and pixels for obtaining an image having distance information.
  • the imaging apparatus of Patent Document 2 performs an operation of obtaining an image with distance information after performing an operation of obtaining an image of visible light in a certain pixel.
  • JP 2020-188275 A Japanese Unexamined Patent Application Publication No. 2010-35168
  • a near-infrared light image and an image with distance information are shown as images separate from the visible light image. All of these images are obtained by exposing pixels to near-infrared light.
  • the object When obtaining an image of near-infrared light, the object is irradiated with near-infrared light from a light source as auxiliary light.
  • near-infrared light emitted from a light source is incident on a pixel for obtaining a visible light image, it becomes a noise component.
  • a filter that prevents the transmission of near-infrared light When capturing an image of visible light, a filter is applied to block the transmission of near-infrared light. When capturing an image of near-infrared light, application of a filter that prevents transmission of near-infrared light is excluded. It takes a little time to switch filters. Therefore, it is difficult to acquire a visible light image and a near-infrared light image at the same time. An additional mechanism for filter switching is required. Application of the additional mechanism is disadvantageous in terms of the manufacturing cost of the solid-state imaging device and the reliability of the imaging operation.
  • the present disclosure is a solid-state imaging device that acquires a visible light image and a near-infrared light image at the same time, and is capable of obtaining a visible light image in which the influence of near-infrared light is suppressed. explain.
  • a solid-state imaging device includes a light source that generates pulsed light having a wavelength component of near-infrared light, a first light that includes at least a wavelength component of visible light, and a charge corresponding to the first light. and a second pixel that receives a second light containing at least a wavelength component of near-infrared light and generates a charge corresponding to the second light by a second pixel circuit. and charge transfer control means for applying control pulses to the first pixel and the second pixel for controlling charge transfer.
  • the first pixel circuit portion and the second pixel circuit portion include a photoelectric conversion region that generates charges, a readout portion that receives charges from the photoelectric conversion region in response to a control pulse, and a charge transfer region from the photoelectric conversion region in response to the control pulse. and a charge drain region for draining the .
  • the solid-state imaging device includes pixels that receive first light containing wavelength components of visible light to generate charges, and pixels that generate charges by receiving second light containing wavelength components of near-infrared light. Therefore, a visible light image and a near-infrared light image can be acquired at the same time. According to this configuration, in the solid-state imaging device, when the near-infrared light pulse is generated, the charge generated in the pixel that generates the charge due to the first light containing the wavelength component of the visible light is converted into the charge. An operation of ejecting to an ejection area can be performed. Therefore, it is possible to obtain a visible light image in which the influence of near-infrared light is suppressed.
  • the charge transfer control means of the solid-state imaging device outputs a control pulse for discharging charges from the photoelectric conversion region of the first pixel circuit section to the charge discharging region of the first pixel circuit section in a period overlapping with the irradiation period of the pulsed light. , may be applied to the first pixel circuit section. According to this operation, it is possible to obtain a visible light image in which the influence of near-infrared light is suppressed.
  • the readout portion of the first pixel circuit portion of the solid-state imaging device may include a first charge readout region and a second charge readout region.
  • the charge transfer control means generates a control pulse for transferring charges from the photoelectric conversion region of the first pixel circuit section to the first charge readout region of the first pixel circuit section in a period that does not overlap with the irradiation period of the pulsed light.
  • a control pulse may be applied to the first pixel circuit section after the charge is applied to the first pixel circuit section to transfer charges from the photoelectric conversion region of the first pixel circuit section to the second charge readout region of the first pixel circuit section. According to this configuration, the dynamic range can be expanded.
  • one period may be shorter than the other period. According to this configuration, the dynamic range can be expanded.
  • the above solid-state imaging device may further include an arithmetic circuit for obtaining an image based on electric charges.
  • the arithmetic circuit may obtain at least one of a first image based on charges accumulated in the first charge readout region and a second image based on charges accumulated in the second charge readout region.
  • the readout portion of the second pixel circuit portion of the solid-state imaging device may include a first charge readout region and a second charge readout region.
  • the charge transfer control means outputs a control pulse for transferring charges from the photoelectric conversion region of the second pixel circuit portion to the first charge readout region of the second pixel circuit portion in a period overlapping with the irradiation period of the pulsed light. You may give to a circuit part. In a period that does not overlap with the irradiation period of the pulsed light, a control pulse may be applied to the second pixel circuit section to transfer charges from the photoelectric conversion region of the second pixel circuit section to the second charge readout region of the second pixel circuit section. . With this configuration, it is possible to obtain a near-infrared image in which the influence of background light is suppressed.
  • the period of the control pulse for transferring the charge from the photoelectric conversion region of the second pixel circuit section to the first charge readout region of the second pixel circuit section is the same as the photoelectric conversion region of the second pixel circuit section. It may be equal to the control pulse for transferring the charge to the charge discharge region of the two-pixel circuit section.
  • the above solid-state imaging device may further include an arithmetic circuit for obtaining an image based on electric charges.
  • the arithmetic circuit may use the charge accumulated in the second charge readout region to remove a component corresponding to background light contained in the charge accumulated in the first charge readout region.
  • the light source of the above solid-state imaging device may irradiate the object with pulsed light.
  • the readout portion of the second pixel circuit portion may include a first charge readout region and a second charge readout region.
  • the charge transfer control means is a control pulse for transferring charges from the photoelectric conversion region of the second pixel circuit section to the first charge readout region of the second pixel circuit section so as to include a period in which the pulsed light reflected from the object is incident. is applied to the second pixel circuit portion, and then a control pulse is applied to the second pixel circuit portion to transfer charges from the photoelectric conversion region of the second pixel circuit portion to the second charge readout region of the second pixel circuit portion. good too. According to this configuration, a near-infrared image having distance information can be obtained.
  • the readout section of the second pixel circuit section of the solid-state imaging device may further include a third charge readout region.
  • the charge transfer control means controls a control pulse for transferring charges from the photoelectric conversion region of the second pixel circuit portion to the third charge readout region of the second pixel circuit portion during a period in which reflected pulsed light from the object is not incident. It may be applied to the 2-pixel circuit section. According to this configuration, it is possible to obtain a near-infrared image having distance information in which the influence of background light is suppressed.
  • the above solid-state imaging device may further include an arithmetic circuit for obtaining an image based on electric charges.
  • the solid-state imaging device described above may obtain the distance to the object using the charges accumulated in the first charge readout region and the charges accumulated in the second charge readout region. According to this configuration, the distance to the object can be obtained.
  • the readout portion of the first pixel circuit portion of the solid-state imaging device may include a first charge readout region and a second charge readout region.
  • the charge transfer control means may selectively perform the first operation and the second operation. In the first operation, a control pulse for transferring charges from the photoelectric conversion region of the first pixel circuit portion to the charge discharging region of the first pixel circuit portion is applied to the first pixel circuit portion in a period overlapping with the irradiation period of the pulsed light.
  • a control pulse may be applied to the first pixel circuit section to transfer charges to the second charge readout region of the first pixel circuit section.
  • a control pulse for transferring charges from the photoelectric conversion region of the first pixel circuit portion to the first charge readout region of the first pixel circuit portion is applied to the first pixel circuit portion in a period overlapping with the irradiation period of the pulsed light.
  • a control pulse may be applied to the first pixel circuit section to transfer charges from the photoelectric conversion region of the first pixel circuit section to the second charge readout region of the first pixel circuit section.
  • the first pixel may generate visible light charges corresponding to the first light, and may also generate near-infrared light charges corresponding to the second light.
  • a second pixel may generate a near-infrared photocharge in response to the second light and may also generate a visible photocharge in response to the first light.
  • the charge transfer control means may provide control pulses to the first pixel and the second pixel for controlling transfer of the visible light charge and the near-infrared light charge.
  • the photoelectric conversion region may generate visible light charge and near-infrared light charge.
  • the readout section includes at least one visible light charge readout region that receives visible light charge transferred from the photoelectric conversion region in response to the control pulse, and at least one visible light charge readout region that receives near infrared light charge transferred from the photoelectric conversion region in response to the control pulse. and two near-infrared photocharge readout regions.
  • the charge ejection region may eject visible light charge and near-infrared light charge from the photoelectric conversion region in response to a control pulse.
  • the charge transfer control means provides, to the first and second pixels, a control pulse for distributing the near-infrared photocharge from the photoelectric conversion region to each of the at least two near-infrared photocharge readout regions; After the operation, a second operation of applying a control pulse to the first pixel and the second pixel for discharging the visible light charge and/or the near-infrared light charge from the photoelectric conversion region; and a third operation of applying a control pulse to the first pixel and the second pixel to transfer the visible photocharge to the photocharge readout region.
  • the solid-state imaging device described above can obtain a distance image including distance information to the imaging target by the first operation.
  • the solid-state imaging device can obtain a visible light image of the imaging target by the third operation. Therefore, the solid-state imaging device can acquire a visible light image and a near-infrared light image at the same time.
  • a second operation is performed between the first operation and the third operation to discharge the charges generated in the photoelectric conversion region.
  • a predetermined standby time is provided between the first operation for obtaining the range image and the third operation for obtaining the visible light image. According to the waiting time, the pulsed light generated for the first operation is sufficiently attenuated before the third operation is performed. Therefore, the solid-state imaging device can obtain a visible light image in which the influence of near-infrared light is suppressed.
  • the above-described solid-state imaging device may further include a third pixel and a fourth pixel that generate visible light charges corresponding to the first light and generate near-infrared light charges corresponding to the second light.
  • the first pixel may include a first filter that transmits a wavelength component of near-infrared light and that transmits only a first wavelength component among the wavelength components included in visible light.
  • the second pixel may include a second filter that transmits a wavelength component of near-infrared light and transmits only a second wavelength component that is shorter than the first wavelength component among the wavelength components included in visible light.
  • the third pixel may include a third filter that transmits a wavelength component of near-infrared light and transmits only a third wavelength component shorter than the second wavelength component among the wavelength components included in visible light.
  • the fourth pixel may include any one of the first filter, the second filter and the third filter. Also with this configuration, the solid-state imaging device can obtain a visible light image in which the influence of near-infrared light is suppressed.
  • the above-described solid-state imaging device may further include a third pixel and a fourth pixel that generate visible light charges corresponding to the first light and generate near-infrared light charges corresponding to the second light.
  • the first pixel may include a first filter that transmits a wavelength component of near-infrared light and that transmits only a first wavelength component among the wavelength components included in visible light.
  • the second pixel may include a second filter that transmits a wavelength component of near-infrared light and transmits only a second wavelength component that is shorter than the first wavelength component among the wavelength components included in visible light.
  • the third pixel may include a third filter that transmits a wavelength component of near-infrared light and transmits only a third wavelength component shorter than the second wavelength component among the wavelength components included in visible light.
  • the fourth pixel may include a near-infrared light selection filter that selectively transmits only light having wavelength components of near-infrared light. According to this configuration, the fourth pixel selectively transmits only the light having the wavelength component of the near-infrared light caused by the pulsed light, so that the resistance to disturbance light can be enhanced.
  • a solid-state imaging device that acquires a visible light image and a near-infrared light image at the same time, and is capable of obtaining a visible light image in which the influence of near-infrared light is suppressed.
  • FIG. 1 is a diagram showing main components of the solid-state imaging device of the first embodiment.
  • FIG. 2 is a diagram showing an electrical connection configuration of elements constituting the solid-state imaging device of the first embodiment.
  • FIG. 3 is a plan view showing the pixel array of the first embodiment.
  • FIG. 4 is a cross-sectional view showing the structure of the pixel array of the first embodiment.
  • FIG. 5 is a graph showing characteristics of the wavelength selective filter.
  • FIG. 6 is a block diagram showing in detail the configuration of the solid-state imaging device of the first embodiment.
  • FIG. 7 is a plan view showing details of the pixel circuit portion of the first embodiment.
  • FIG. 8 is a timing chart showing control pulses applied to the pixel array of the first embodiment.
  • FIG. 1 is a diagram showing main components of the solid-state imaging device of the first embodiment.
  • FIG. 2 is a diagram showing an electrical connection configuration of elements constituting the solid-state imaging device of the first embodiment.
  • FIG. 3 is a plan view showing the
  • FIG. 9 is a plan view showing the pixel array of the second embodiment.
  • FIG. 10 is a block diagram showing in detail the configuration of the solid-state imaging device of the second embodiment.
  • FIG. 11 is a plan view showing details of a pixel circuit portion included in the near-infrared pixel of the second embodiment.
  • FIG. 12 is a timing chart showing control pulses applied to the pixel array of the second embodiment.
  • FIG. 13 is a block diagram showing in detail the configuration of the solid-state imaging device according to the third embodiment.
  • FIG. 14 is a plan view showing the pixel array of the third embodiment.
  • FIG. 15 is a diagram showing an electrical connection configuration of elements constituting the solid-state imaging device of the third embodiment.
  • FIG. 16 is a plan view showing details of a pixel circuit portion included in the near-infrared pixel of the third embodiment.
  • FIG. 17 is a timing chart showing control pulses applied to the pixel array of the third embodiment.
  • FIG. 18 is a plan view showing the pixel array of the fourth embodiment.
  • FIG. 19 is a diagram showing the operation of the solid-state imaging device of the fourth embodiment.
  • FIG. 20 is a timing chart showing control pulses applied to the pixel array of the fourth embodiment.
  • FIG. 21 is a timing chart showing another control pulse applied to the pixel array of the fourth embodiment.
  • FIG. 22 is a plan view showing the pixel array of the fifth embodiment.
  • FIG. 23 is a diagram showing the operation of the solid-state imaging device of the fifth embodiment.
  • FIG. 24(a) is a timing chart showing control pulses applied to the pixel array of the fifth embodiment.
  • FIG. 24(b) is a timing chart showing another control pulse applied to the pixel array of the fifth embodiment.
  • FIG. 25 is a timing chart showing still another control pulse applied to the pixel array of the fifth embodiment.
  • FIG. 26 is a plan view showing the pixel array of the sixth embodiment.
  • FIG. 27 is a block diagram showing in detail the configuration of the solid-state imaging device of the sixth embodiment.
  • FIG. 28 is a plan view showing details of a pixel circuit portion included in the near-infrared pixel of the sixth embodiment.
  • FIG. 29 is a timing chart showing control pulses applied to the pixel array of the sixth embodiment.
  • FIG. 30 is a plan view showing a pixel circuit section included in the solid-state imaging device of Modification 1.
  • FIG. 31 is a plan view showing a pixel circuit section included in the solid-state imaging device of Modification 2.
  • FIG. 32 is a plan view showing a pixel circuit section included in the solid-state imaging device of Modification 3.
  • FIG. 33 is a cross-sectional view showing the structure of a pixel array included in the solid-state imaging device of Modification 4.
  • FIG. 34 is a cross-sectional view showing the structure of a pixel array included in the solid-state imaging device of Modification 5.
  • FIG. 35 is a cross-sectional view showing the structure of a pixel array included in the solid-state imaging device of Modification 6. As shown in FIG.
  • FIG. 36 is a cross-sectional view showing the structure of a pixel array included in the solid-state imaging device of Modification 7.
  • FIG. 37(a), 37(b) and 37(c) are graphs showing the characteristics of the wavelength selection filter.
  • FIG. 38 is a diagram showing the principle of the solid-state imaging device of the seventh embodiment.
  • FIG. 39 is a plan view of a pixel panel included in the solid-state imaging device of the seventh embodiment.
  • FIG. 40 is a cross-sectional view showing the structure of the pixel array of the seventh embodiment.
  • FIG. 41 is a plan view showing in detail the pixel circuit portion of the seventh embodiment.
  • FIG. 42 is a timing chart showing control pulses applied to the pixel array of the seventh embodiment.
  • FIG. 43 is a plan view showing a pixel panel included in a solid-state imaging device according to a modification of the seventh embodiment.
  • FIG. 44 is a cross-sectional view showing the structure of a pixel array of a modified example of the seventh embodiment.
  • 45(a) and 45(b) are graphs showing the characteristics of the near-infrared light selection filter included in the pixel array of the modified example of the seventh embodiment.
  • the solid-state imaging device 1A of the first embodiment shown in FIG. 1 captures a visible light image and a near-infrared light image of an imaging target 101 at the same time.
  • the visible light image is hereinafter referred to as "visible light image 201".
  • the near-infrared light image is referred to as “near-infrared light image 202".
  • “Simultaneously imaging” means obtaining both the visible light image 201 and the near-infrared light image 202 during one frame.
  • the solid-state imaging device 1 ⁇ /b>A irradiates the object 101 to be imaged with irradiation pulse light LP having a wavelength of near-infrared light from the light source 11 .
  • the solid-state imaging device 1A can output a visible light image 201 in which the influence of the irradiation pulse light LP is suppressed. Therefore, the S/N ratio of the visible light image 201 output by the solid-state imaging device 1A is good.
  • the solid-state imaging device 1A has a light source 11, a pixel panel 2A, and a peripheral circuit 4.
  • the light source 11 generates irradiation pulse light LP having a wavelength in the near-infrared region.
  • the light source 11 includes, for example, a semiconductor light emitting element and a drive circuit for the semiconductor light emitting element. Examples of semiconductor light emitting devices include light emitting diodes and laser diodes.
  • the wavelength band of the irradiation pulsed light LP is, for example, 860 ⁇ 30 nm.
  • Another wavelength band of the irradiation pulsed light L P is, for example, 930 ⁇ 30 nm.
  • Pixel panel 2A includes a plurality of pixel arrays 12A.
  • the plurality of pixel arrays 12A are arranged in a two-dimensional array along the column direction and row direction.
  • the plurality of pixel arrays 12A generate detection signals by receiving visible light LV and reflected pulsed light LR .
  • Peripheral circuit 4 outputs a control signal for controlling the operation of light source 11 .
  • Peripheral circuitry 4 includes a light source driver circuit 31 for light source 11 .
  • the light source driver circuit 31 controls the timing of emitting the irradiation pulse light LP from the light source 11, the intensity of the irradiation pulse light LP , the pulse width of the irradiation pulse light LP , and the like.
  • the light source driver circuit 31 repeatedly generates irradiation pulse light LP at equal time intervals within a period defined as one frame.
  • the peripheral circuit 4 outputs control signals for controlling the operation of the pixel panel 2A.
  • the peripheral circuit 4 includes a gate driver circuit 32 and a signal readout circuit 15 for the pixel panel 2A.
  • the peripheral circuit 4 generates a visible light image 201 and a near-infrared light image 202 using detection signals output by the pixel panel 2A.
  • the peripheral circuit 4 includes an arithmetic circuit 17 for generating a visible light image 201 and a near-infrared light image 202.
  • the arithmetic circuit 17 uses the detection signal, which is a digital value output from the signal readout circuit 15 , to perform various processes for generating the visible light image 201 and the near-infrared light image 202 .
  • FIG. 2 shows an example of the connection configuration between the plurality of pixel arrays 12A and the peripheral circuit 4.
  • the multiple pixel arrays 12A each include a green pixel p1S, a red pixel p2S, a blue pixel p3S, and a near-infrared pixel p4S.
  • the green pixel p1S, the red pixel p2S and the blue pixel p3S are the "first pixels" defined in the claims.
  • the near-infrared pixel p4S is the "second pixel" defined in the claims.
  • the pixel array 12A includes pixels respectively corresponding to the green component (G component), red component (R component), and blue component (B component) that constitute visible light.
  • the pixel panel 2A includes pixels corresponding to near-infrared light components (NIR components).
  • NIR components near-infrared light components
  • the gate driver circuit 32 generates control signals for controlling charge transfer in the green pixel p1S, red pixel p2S, blue pixel p3S and near-infrared pixel p4S.
  • the gate driver circuit 32 outputs a first transfer control pulse G1 and an emission control pulse GD , which are control signals, to the green pixel p1S, red pixel p2S, blue pixel p3S and near-infrared pixel p4S via the wiring L1.
  • the signal readout circuit 15 includes a vertical readout control circuit 41 and a horizontal readout control circuit 42 .
  • the vertical readout control circuit 41 outputs control signals to the green pixel p1S, the red pixel p2S, the blue pixel p3S, and the near-infrared pixel p4S via the wiring L2.
  • the vertical readout control circuit 41 outputs, for example, a first readout signal T 1 (j), which is a control signal, a reset signal RT(j), and a selection signal SL( j) and are output.
  • the horizontal reading control circuit 42 obtains detection signals from the green pixel p1S, the red pixel p2S, the blue pixel p3S, and the near-infrared pixel p4S via the wiring L3.
  • the horizontal readout control circuit 42 collects the detection signals output from each pixel for each row and outputs them to the arithmetic circuit 17 in the subsequent stage.
  • the horizontal readout control circuit 42 converts the green pixel p1S, the red pixel p2S, the blue pixel It receives the output of p3S and the near-infrared pixel p4S.
  • the current source 43 supplies a current flowing from the first voltage detection means 261 of the pixel circuit section 13S belonging to the row selected by the vertical reading control circuit 41 to the wiring L3.
  • the analog-to-digital converter 45 converts the detection signal, which is the voltage output by the first voltage detection means 261 of the pixel circuit section 13S, into a digital signal.
  • FIG. 3 is a plan view of one pixel array 12A.
  • green pixels p1S and red pixels p2S are arranged in this order along the row direction.
  • the blue pixel p3S and the near-infrared pixel p4S are arranged in this order along the row direction.
  • the green pixel p1S and the blue pixel p3S are arranged in this order along the column direction.
  • the red pixel p2S and the near-infrared pixel p4S are arranged in this order along the column direction.
  • the arrangement shown in FIG. 3 is exemplary. Therefore, the green pixel p1S, the red pixel p2S, the blue pixel p3S, and the near-infrared pixel p4S may be arranged differently from FIG.
  • the green pixel p1S has a wavelength selection filter 27G and a pixel circuit section 13S (first pixel circuit section).
  • the red pixel p2S has a wavelength selection filter 27R and a pixel circuit section 13S.
  • the blue pixel p3S has a wavelength selection filter 27B and a pixel circuit section 13S.
  • the near-infrared pixel p4S has a light transmission member 27T and a pixel circuit section 13S (second pixel circuit section).
  • the characteristics of the wavelength selection filters 27G, 27R, and 27B that each pixel has are different from each other.
  • the near-infrared pixel p4S of the first embodiment does not have a wavelength selection filter.
  • the near-infrared pixel p4S has a light transmission member 27T instead of the wavelength selection filter.
  • the light transmission member 27T does not have wavelength selectivity.
  • the light transmitting member 27T transmits both visible light and near-infrared light.
  • FIG. 4 is a cross-sectional view showing the structure of the pixel panel 2A.
  • FIG. 4 is intended to show a structure for guiding light to the pixel circuit section 13S. Therefore, the arrangement of the green pixel p1S, the red pixel p2S, the blue pixel p3S, and the near-infrared pixel p4S shown in FIG. is different from
  • a cover glass 51 is arranged on the pixel panel 2A.
  • the cover glass 51 is separated from the pixel panel 2A.
  • a lens 27S is arranged on the surface of the wavelength selection filter 27R of the red pixel p2S.
  • the red pixel p2S receives light that has passed through the cover glass 51 and then through the lens 27S.
  • the red pixel p2S has a wavelength selection filter 27R and a pixel circuit section 13S.
  • the wavelength selection filter 27R is arranged on the main surface 60s of the semiconductor laminated substrate 60 that constitutes the pixel circuit section 13S.
  • the cross-sectional structure of the pixel panel 2A shown in FIG. 4 is an example.
  • the configuration up to the pixel circuit section 13S is not limited to the cross-sectional structure shown in FIG.
  • Another example of the cross-sectional structure will be described later as modified examples 4-6.
  • the semiconductor laminated substrate 60 includes a lower semiconductor layer 61 , a middle semiconductor layer 62 and an upper semiconductor layer 63 .
  • the lower semiconductor layer 61 is of p-type and is the base of the semiconductor laminated substrate 60 .
  • the middle semiconductor layer 62 is provided on the bottom semiconductor layer 61 .
  • the intermediate semiconductor layer 62 includes a photodiode PD that forms a photoelectric conversion region 21, which will be described later.
  • the middle semiconductor layer 62 also includes a readout section 22S, which will be described later.
  • the upper semiconductor layer 63 is provided on the middle semiconductor layer 62 .
  • the middle semiconductor layer 62 has a wiring portion LS including wirings L1, L2, and L3.
  • FIG. 5 shows light transmission characteristics of the respective wavelength selection filters 27G, 27R, and 27B.
  • a light transmission characteristic means a transmittance with respect to a wavelength.
  • the horizontal axis of FIG. 5 indicates the wavelength of light.
  • the vertical axis in FIG. 5 indicates the light transmittance.
  • a graph G5a shows the light transmission characteristics of the wavelength selection filter 27G that the green pixel p1S has. According to the graph G5a, the first transmission band of the wavelength selection filter 27G of the green pixel p1S is 550 ⁇ 50 nm.
  • the second transmission band of the wavelength selection filter 27G that the pixel p1S has is 800 nm or more.
  • a graph G5b shows the light transmission characteristic of the wavelength selection filter 27R of the red pixel p2S.
  • the transmission band of the wavelength selection filter 27R of the red pixel p2S is 650 nm or more.
  • a graph G5c shows the light transmission characteristics of the wavelength selection filter 27B of the blue pixel p3S.
  • the first transmission band of the wavelength selection filter 27B of the blue pixel p3S is 450 ⁇ 50 nm.
  • the second transmission band of the wavelength selection filter 27B of the blue pixel p3S is 800 nm or more.
  • the wavelength selection filters 27G, 27R, 27B also have a near-infrared light band BN of 800 nm or more in addition to the visible light band BV corresponding to each color component.
  • the wavelength selection filters 27G, 27R, and 27B transmit light of each color component and also transmit near-infrared light.
  • FIG. 6 is a functional block diagram focusing on the pixel circuit section 13S.
  • the pixel circuit section 13S of the green pixel p1S, the pixel circuit section 13S of the red pixel p2S, the pixel circuit section 13S of the blue pixel p3S, and the pixel circuit section 13S of the near-infrared pixel p4S are All have the same configuration.
  • the pixel circuit section 13S of the green pixel p1S will be described in detail below as an example.
  • the pixel circuit section 13S has a photoelectric conversion region 21, a readout section 22S, and a detection section 26S.
  • the photoelectric conversion region 21 generates charges according to the received light.
  • the readout section 22S receives charges transferred from the photoelectric conversion region 21 .
  • the readout portion 22S of the pixel circuit portion 13S has a first charge readout region 221.
  • Charge transfer from the photoelectric conversion region 21 to the first charge readout region 22-1 is controlled by a first transfer control gate 25-1 .
  • the first transfer control gate 25-1 receives the first transfer control pulse G1 output from the gate driver circuit 32, and permits or prohibits transfer of charges from the photoelectric conversion region 21 to the first charge readout region 22-1 . switch between each other.
  • the detection section 26S detects a voltage corresponding to the charge present in the readout section 22S.
  • the detection section 26S of the pixel circuit section 13S has a first voltage detection means 261. As shown in FIG.
  • the voltage detected by the first voltage detection means 261 is output as a detection signal to the signal readout circuit 15 via the line L3.
  • the charge drain region 23 also receives charge transfer from the photoelectric conversion region 21 .
  • the charge discharge region 23 is a so-called drain.
  • FIG. 7 is a plan view showing a more specific structure of the pixel circuit section 13S.
  • the photoelectric conversion region 21 generates charges according to the received light.
  • the photoelectric conversion region 21 only needs to generate charges corresponding to light of a wavelength to be detected.
  • the charge moves to the readout section 22S through the charge collection region 21a.
  • the first transfer control gate 251 is arranged between the photoelectric conversion region 21 and the readout section 22S.
  • the first transfer control gate 251 employs a so-called MOS gate structure.
  • the MOS gate structure has excellent OFF characteristics.
  • the structure of the MOS gate has a large potential barrier (potential barrier) when it is turned off.
  • a MOS gate structure is likely to generate so-called return charges due to electrons existing under the gate.
  • the first transfer control gate 251 is not limited to a MOS gate structure. As shown in modifications 2 and 3 described later, a structure based on the principle of a lateral electric field controlled charge modulator (LEFM) developed by the inventors of the present invention may be employed.
  • LFM lateral electric field controlled charge modulator
  • a pair of charge discharge regions 23 are arranged between the photoelectric conversion region 21 and the readout section 22S. More specifically, the pair of charge discharge regions 23 are arranged on the sides of the charge collection region 21a so as to sandwich the charge collection region 21a. The charge discharge region 23 discharges charges generated in response to light that is not to be detected.
  • a discharge control gate 25 D is arranged between the charge collection region 21 a and the charge discharge region 23 .
  • the discharge control gate 25D permits or prohibits transfer of charge from the photoelectric conversion region 21 to the charge discharge region 23.
  • the charge generated in the photoelectric conversion region 21 moves to either the charge discharge region 23 or the readout section 22S.
  • the readout section 22S receives movement of charges generated in the photoelectric conversion region 21 .
  • the reading unit 22S temporarily accumulates charges.
  • the readout section 22S has a first charge readout region 221 .
  • the first charge readout region 221 temporarily accumulates charges transferred from the photoelectric conversion region 21 . Charge transfer from the photoelectric conversion region 21 may occur once. Charge transfer from the photoelectric conversion region 21 may occur multiple times. By accepting multiple charge transfers, the stored charge can be increased.
  • the detector 26S detects a voltage corresponding to the amount of charge.
  • the detection unit 26S has a first floating diffusion region FD1 , a read transistor 26a, a selection transistor 26b, and a reset transistor 26c.
  • the first floating diffusion region FD -1 receives the movement of charges accumulated in the first charge readout region 22-1 .
  • a first readout control gate 28-1 is arranged between the first charge readout region 22-1 and the first floating diffusion region FD -1 .
  • the first readout control gate 28-1 permits or prohibits the transfer of charge from the first charge readout region 22-1 to the first floating diffusion region FD -1 .
  • the read transistor 26a and the select transistor 26b output a voltage corresponding to the amount of charge accumulated in the first floating diffusion region FD1 as a detection signal according to the control signal.
  • the reset transistor 26c discharges charges accumulated in the first floating diffusion region FD1 .
  • the drain of the read transistor 26a is connected to the power supply VDD.
  • a gate of the read transistor 26a is connected to the first floating diffusion region FD1 .
  • the source of read transistor 26a is connected to select transistor 26b.
  • the drain of the select transistor 26b is connected to the source of the read transistor 26a.
  • the gate of select transistor 26b receives select signal SL.
  • the source of the selection transistor 26b is connected to the wiring L3.
  • the drain of the reset transistor 26c is connected to the power supply VDD.
  • the gate of reset transistor 26c receives reset signal RT(j) from the signal line.
  • the source of the reset transistor 26c is connected to the first floating diffusion region FD1 .
  • the top chart shows the timing at which the irradiation pulse light LP is emitted from the light source 11 .
  • the irradiation pulse light LP is not irradiated. This state is called “irradiation stop”.
  • the irradiation pulse light LP is irradiated. This state is called "execution of irradiation”.
  • the first transfer control pulse G1 is output from the gate driver circuit 32 to the first transfer control gates 251 of the green pixel p1S, red pixel p2S, blue pixel p3S and near-infrared pixel p4S.
  • the emission control pulse GD is output from the gate driver circuit 32 to the emission control gates 25D of the green pixel p1S, the red pixel p2S, the blue pixel p3S and the near-infrared pixel p4S.
  • the first transfer control pulse G1 and the discharge control pulse GD include low (L) and high (H) signal levels.
  • the first transfer control pulse G1 and the discharge control pulse GD whose signal level is low (L), inhibit charge migration.
  • the first transfer control pulse G1 and the discharge control pulse GD whose signal level is high (H), permit charge transfer.
  • the light source 11 irradiates the irradiation pulse light LP multiple times in a frame period.
  • the frame period includes an irradiation period S11 during which the irradiation pulsed light LP is irradiated and a non-irradiation period S12 during which the irradiation pulsed light LP is not irradiated.
  • the irradiation period S11 is set prior to the non-irradiation period S12.
  • the irradiation period S11 is shorter than the non-irradiation period S12.
  • the green pixel p1S, red pixel p2S, and blue pixel p3S discharge charges from the photoelectric conversion region 21 to the charge discharge region 23 by the following operations.
  • the gate driver circuit 32 outputs a first transfer control pulse G 1 (L) to the first transfer control gates 25-1 of the green pixel p1S, red pixel p2S and blue pixel p3S.
  • the gate driver circuit 32 outputs a discharge control pulse G D (H) to the discharge control gates 25D of the green pixel p1S, red pixel p2S and blue pixel p3S.
  • the gate driver circuit 32 prohibits transfer of charges from the photoelectric conversion regions 21 such as the green pixel p1S to the readout section 22S. Thereafter, the gate driver circuit 32 permits discharge of charges from the photoelectric conversion regions 21 such as the green pixel p1S to the charge discharge region 23 . After that, the light source driver circuit 31 starts irradiation of the irradiation pulse light LP .
  • the beginning of the period in which the first transfer control pulse G1 of the green pixel p1S and the like is low overlaps with the non-irradiation period S12.
  • the beginning of the period in which the emission control pulse GD of the near-infrared pixel p4S is high also overlaps with the non-irradiation period S12.
  • the timing of switching the first transfer control pulse G1 of the green pixel p1S etc. from high to low is slightly earlier than the timing of switching the discharge control pulse GD of the green pixel p1S etc. from low to high.
  • the timing of switching the discharge control pulse GD of the green pixel p1S or the like from low to high is slightly earlier than the timing of switching from stop of irradiation to execution of irradiation.
  • the near-infrared pixel p4S transfers charges from the photoelectric conversion region 21 to the readout section 22S by the following operations.
  • the gate driver circuit 32 prohibits discharge of charges from the photoelectric conversion region 21 of the near-infrared pixel p4S to the charge discharge region 23 . Thereafter, the gate driver circuit 32 permits charge transfer from the photoelectric conversion region 21 of the near-infrared pixel p4S to the readout section 22S. After that, the light source driver circuit 31 starts irradiation of the irradiation pulse light LP .
  • the beginning of the period in which the emission control pulse GD of the near-infrared pixel p4S is low overlaps with the non-irradiation period S12.
  • the start of the period in which the first transfer control pulse G1 of the near-infrared pixel p4S is high also overlaps with the non-irradiation period S12.
  • the gate driver circuit 32 outputs an emission control pulse G D (L) to the emission control gate 25D of the near-infrared pixel p4S.
  • the gate driver circuit 32 outputs the first transfer control pulse G 1 (H) to the first transfer control gate 25-1 of the near-infrared pixel p4S.
  • the timing of switching the discharge control pulse GD of the near-infrared pixel p4S from high to low is slightly earlier than the timing of switching the first transfer control pulse G1 of the near-infrared pixel p4S from low to high.
  • the timing of switching the first transfer control pulse G1 of the near-infrared pixel p4S from low to high is slightly earlier than the timing of switching from irradiation stop to irradiation execution.
  • the green pixel p1S, red pixel p2S, and blue pixel p3S transfer charges from the photoelectric conversion region 21 to the readout section 22S by the following operations.
  • the light source driver circuit 31 stops the irradiation of the irradiation pulse light LP . Thereafter, the gate driver circuit 32 prohibits discharge of charges from the photoelectric conversion regions 21 such as the green pixel p1S to the charge discharge region 23 . Thereafter, the gate driver circuit 32 permits transfer of charges from the photoelectric conversion regions 21 such as the green pixel p1S to the readout section 22S.
  • the end of the period during which the first transfer control pulse G1 of the green pixel p1S and the like is low overlaps with the non-irradiation period S12.
  • the end of the period in which the emission control pulse GD of the near-infrared pixel p4S is high also overlaps with the non-irradiation period S12.
  • the gate driver circuit 32 outputs a first transfer control pulse G 1 (H) to the first transfer control gates 25-1 of the green pixel p1S, red pixel p2S and blue pixel p3S.
  • the gate driver circuit 32 outputs a discharge control pulse G D (L) to the discharge control gates 25D of the green pixel p1S, red pixel p2S and blue pixel p3S.
  • the timing of switching the emission control pulse GD of the green pixel p1S or the like from high to low is slightly later than the timing of switching from irradiation execution to irradiation stop.
  • the timing for switching the first transfer control pulse G1 for the green pixel p1S from low to high is slightly later than the timing for switching the discharge control pulse GD for the green pixel p1S from high to low.
  • the near-infrared pixel p4S discharges charges from the photoelectric conversion region 21 to the charge discharge region 23 by the following operations.
  • the light source driver circuit 31 stops the irradiation of the irradiation pulse light LP .
  • the gate driver circuit 32 prohibits transfer of charges from the photoelectric conversion region 21 of the near-infrared pixel p4D to the readout section 22S.
  • the gate driver circuit 32 permits discharge of charges from the photoelectric conversion region 21 of the near-infrared pixel p4S to the charge discharge region 23 .
  • the end of the period during which the emission control pulse GD of the near-infrared pixel p4S is low overlaps with the non-irradiation period S12.
  • the end of the period in which the first transfer control pulse G1 of the near-infrared pixel p4S is high also overlaps with the non-irradiation period S12.
  • the gate driver circuit 32 outputs the first transfer control pulse G 1 (L) to the first transfer control gate 25-1 of the near-infrared pixel p4S.
  • the gate driver circuit 32 outputs an emission control pulse G D (H) to the emission control gate 25 D of the near-infrared pixel p4S.
  • the timing of switching the first transfer control pulse G1 of the near-infrared pixel p4S from high to low is slightly later than the timing of switching from irradiation execution to irradiation stop.
  • the timing of switching the discharge control pulse GD of the near-infrared pixel p4S from low to high is slightly later than the timing of switching the first transfer control pulse G1 of the near-infrared pixel p4S from high to low.
  • a solid-state imaging device that acquires the visible light image 201 and the near-infrared light image 202 has a problem that the near-infrared component is included in the visible light component.
  • the near-infrared component mixes with the visible light component, shot noise remains. As a result, S/N deteriorates.
  • a near-infrared cut filter is used and the filter is switched on and off mechanically. With this method, a near-infrared image and a visible light image cannot be acquired at the same time.
  • Mechanisms for mechanically switching the filter on and off also have problems in terms of increased cost and reliability.
  • a particular problem is the component caused by the strong near-infrared auxiliary light when the measurement is performed using the near-infrared auxiliary light. be. It is thought that the components of natural light and artificial disturbance light can be sufficiently reduced by means of ingenuity. As for natural light, only sunlight should be considered. Assuming that the lighting is a fluorescent lamp or an LED, artificial light does not contain much near-infrared components. Therefore, when performing measurement using near-infrared auxiliary light, auxiliary light in the 940 nm band, which has a small sunlight component, is used. A band-pass filter that passes only 940 nm band auxiliary light is used.
  • the pixel circuit section 13S and the lock-in mechanism prevent the near-infrared auxiliary light from entering the visible light pixel.
  • the near-infrared component of natural light and artificial light that causes disturbance can be sufficiently reduced. Therefore, a visible light image 201 with good color reproducibility can be obtained.
  • a near-infrared light image 202 with a high S/N ratio locked in with fill light can also be obtained.
  • the solid-state imaging device 1A includes a green pixel p1S, a red pixel p2S, and a blue pixel p3S that receive light containing visible light wavelength components and generate charges, and receive light containing near-infrared light wavelength components and generate charges. and a near-infrared pixel p4S. Therefore, the visible light image 201 and the near-infrared light image 202 can be obtained simultaneously.
  • the solid-state imaging device 1A includes a green pixel p1S, a red pixel p2S, and a blue pixel p3S that generate electric charge due to light including a wavelength component of visible light when the irradiation pulse light LP of near-infrared light is generated. The charges generated in are discharged to the charge discharging region 23 . Therefore, it is possible to obtain a visible light image 201 in which the influence of near-infrared light is suppressed.
  • the solid-state imaging device 1A simultaneously acquires a near-infrared light image 202 and a color image (visible light image 201) based on visible light components using near-infrared auxiliary light (repeated pulsed light).
  • the photoelectric conversion area 21 (PD) and the readout section 22 (SD) are separate areas.
  • a pixel for obtaining a detection signal caused by a visible light component is provided with a function of eliminating the sensitivity by discharging the generated photocharge to the charge discharge region 23 .
  • the near-infrared auxiliary light (repeated pulsed light) is irradiated, the charge due to the near-infrared light is not captured in the visible light image 201 .
  • the solid-state imaging device 1A can simultaneously capture both a visible light image 201 using natural light and a near-infrared light image 202 using near-infrared light (NIR) as repetitive pulsed light.
  • the solid-state imaging device 1A can also operate to acquire only one of the visible light image 201 and the near-infrared light image 202 .
  • the unit is a plurality of pixels (optimally four) of the pixel array 12A of the solid-state imaging device 1A. Pixels (green pixel p1S, red pixel p2S, and blue pixel p3S) for acquiring signals of visible light components generate a Drain the signal charge. As a result, sensitivity can be eliminated. At this time, the charges accumulated in the readout section 22 are held.
  • the pixels for acquiring the signal of the visible light component permit transfer of charges to the readout section 22 .
  • Pixels for acquiring visible light component signals are prohibited from discharging charges to the charge discharging region 23 .
  • charges generated by natural light are accumulated in the readout section 22 .
  • the first transfer control gate 251 is opened in synchronization with the irradiation timing of the irradiation pulsed light LP .
  • electric charges generated by near-infrared light pulses are repeatedly accumulated.
  • all pixels include one photoelectric conversion region 21, a first charge readout region 221 , and one and a charge drain region 23 . These pixels are driven individually.
  • the near-infrared pixel p4S acquires a detection signal by near-infrared auxiliary light.
  • the visible light pixels green pixel p1S, red pixel p2S, and blue pixel p3S eliminate detection signals from near-infrared auxiliary light and acquire red, green, and blue signal components.
  • a solid-state imaging device 1B of the second embodiment shown in FIG. 9 captures a visible light image 201 and a near-infrared light image 202 at the same time.
  • the visible light image 201 output by the solid-state imaging device 1B has a good S/N ratio.
  • the influence of background light is suppressed in the near-infrared light image 202 output by the solid-state imaging device 1B of the second embodiment.
  • the solid-state imaging device 1B has a light source 11, a pixel panel 2B, and a peripheral circuit 4.
  • Pixel panel 2B includes a plurality of pixel arrays 12B. The arrangement of the plurality of pixel arrays 12B is the same as in the first embodiment.
  • the plurality of pixel arrays 12B each include green pixels p1S, red pixels p2S, blue pixels p3S, and near-infrared pixels p4D.
  • the green pixel p1S, red pixel p2S and blue pixel p3S are the same as in the first embodiment.
  • the near-infrared pixel p4D differs from the near-infrared pixel p4S of the first embodiment.
  • the near-infrared pixel p4D has a pixel circuit section 13D.
  • the pixel circuit section 13D is different from the pixel circuit section 13S of the first embodiment.
  • the readout portion 22D of the near-infrared pixel p4D has a first charge readout region 22-1 and a second charge readout region 22-2 .
  • the first charge readout region 22-1 is connected to the photoelectric conversion region 21 via the first transfer control gate 25-1 .
  • the first transfer control gate 25 - 1 receives a first transfer control pulse G - 1 from the gate driver circuit 32 .
  • the first transfer control gate 25-1 permits or prohibits charge transfer from the photoelectric conversion region 21 to the first charge readout region 22-1 according to the first transfer control pulse G1 .
  • the second charge readout region 22-2 has the same configuration as the first charge readout region 22-1 .
  • the second transfer control gate 252 receives a second transfer control pulse G2 from the gate driver circuit 32 .
  • the operation of transferring charges to the first charge readout region 22-1 and the second charge readout region 22-2 is exclusive. When permitting charge transfer from the photoelectric conversion region 21 to the first charge readout region 22-1 , charge transfer from the photoelectric conversion region 21 to the second charge readout region 22-2 is prohibited. When permitting charge transfer from the photoelectric conversion region 21 to the second charge readout region 22-2 , charge transfer from the photoelectric conversion region 21 to the first charge readout region 22-1 is prohibited.
  • the light source driver circuit 31 is the same as in the first embodiment.
  • the gate driver circuit 32 outputs the first transfer control pulse G1 and the discharge control pulse GD to the green pixel p1S, red pixel p2S and blue pixel p3S, respectively.
  • the gate driver circuit 32 outputs a first transfer control pulse G1 and an emission control pulse GD to the near-infrared pixel p4S.
  • the gate driver circuit 32 further outputs a second transfer control pulse G2 to the near-infrared pixel p4S.
  • the signal readout circuit 15 outputs a first readout signal T 1 , a selection signal SL, and a reset signal RT to the green pixel p1S, red pixel p2S, and blue pixel p3S, respectively.
  • the signal readout circuit 15 outputs a first readout signal T 1 , a selection signal SL and a reset signal RT to the near-infrared pixel p4S.
  • the signal readout circuit 15 further outputs a second readout signal T2 to the near-infrared pixel p4S.
  • the first charge readout region 22-1 is connected to the first floating diffusion region FD -1 via the first readout control gate 28-1 .
  • a first input terminal of the detection section 26S is connected to the first floating diffusion region FD1 .
  • the second charge readout region 222 also has a similar configuration.
  • a second input terminal of the detection section 26S is connected to the second floating diffusion region FD2 .
  • the first voltage detection means 261 has a read transistor 26a, a selection transistor 26b, and a reset transistor 26c. A first input terminal is connected to the gate of the read transistor 26a. A first input terminal is connected to the source of the reset transistor 26c. The second input terminal is connected to the gate of the read transistor 26a. The second input is also connected to the source of reset transistor 26c.
  • the first charge readout region 22-1 and the second charge readout region 22-2 share the first voltage detection means 26-1 .
  • the arithmetic circuit 17B of the second embodiment includes a visible light image generator 18B that generates a visible light image 201 and a near-infrared light image generator 19B that obtains a near-infrared light image 202 .
  • the near-infrared light image generator 19B includes a background light corrector 19a.
  • the background light correction unit 19a corrects the information based on the charges in the first charge readout region 22-1 with the information based on the charges in the second charge readout region 22-2 .
  • the charge in the first charge readout region 22-1 is generated during the irradiation period S11 of the irradiation pulse light LP
  • the charge in the second charge readout region 22-2 is generated during the non-irradiation period S12 of the irradiation pulse light LP .
  • the charge in the first charge readout region 22-1 includes a true component caused by the irradiation pulse light LP and a noise component caused by background light.
  • the charges in the second charge readout region 222 contain noise components caused by background light. Therefore, by subtracting the information based on the charge of the second charge readout region 22-2 from the information based on the charge of the first charge readout region 22-1 , the noise component caused by the background light can be removed.
  • the structures of the green pixel p1S, red pixel p2S and blue pixel p3S of the solid-state imaging device 1B are the same as the structures of the green pixel p1S, red pixel p2S and blue pixel p3S of the first embodiment. Therefore, the operations of the green pixel p1S, the red pixel p2S and the blue pixel p3S of the solid-state imaging device 1B are the same as the operations of the green pixel p1S, the red pixel p2S and the blue pixel p3S of the first embodiment.
  • the first transfer control pulse G1 and the discharge control pulse GD given to the green pixel p1S, red pixel p2S and blue pixel p3S shown in FIG. 12 are also given to the green pixel p1S, red pixel p2S and blue pixel p3S shown in FIG. It is the same as the first transfer control pulse G1 and the discharge control pulse GD . A description of these first transfer control pulse G1 and discharge control pulse GD is omitted.
  • the near-infrared pixel p4D has a first charge readout region 22-1 and a second charge readout region 22-2 . Therefore, the gate driver circuit 32 outputs a first transfer control pulse G1 , a second transfer control pulse G2 , and an emission control pulse GD to the near-infrared pixel p4D.
  • the near-infrared pixel p4D transfers charges from the photoelectric conversion region 21 to the readout section 22D by the following operations. Specifically, charges are transferred from the photoelectric conversion region 21 to the first charge readout region 221 .
  • the gate driver circuit 32 prohibits discharge of charges from the photoelectric conversion region 21 of the near-infrared pixel p4D to the charge discharge region 23 . After that, the gate driver circuit 32 permits charge transfer from the photoelectric conversion region 21 of the near-infrared pixel p4D to the first charge readout region 221 . After that, the light source driver circuit 31 starts irradiation of the irradiation pulse light LP . In other words, the beginning of the period in which the emission control pulse GD of the near-infrared pixel p4D is low overlaps with the non-irradiation period S12. The start of the period in which the first transfer control pulse G1 of the near-infrared pixel p4D is high also overlaps with the non-irradiation period S12.
  • the relationship between the timing of switching the first transfer control pulse G1 and the timing of switching the discharge control pulse GD is the same as in the first embodiment.
  • the timing for switching the first transfer control pulse G1 and the timing for switching the irradiation pulse light LP are also the same as in the first embodiment.
  • the timing for switching the emission control pulse GD and the timing for switching the irradiation pulse light LP are also the same as in the first embodiment. Therefore, detailed description of these will be omitted.
  • the gate driver circuit 32 outputs the second transfer control pulse G2 (L) to the second transfer control gate 252 of the near-infrared pixel p4D.
  • the signal level of the second transfer control pulse G2 remains low (L) throughout the irradiation period S11.
  • the signal level of the second transfer control pulse G2 remains low (L) during the entire period in which the signal level of the first transfer control pulse G1 is high (H).
  • the signal level of the second transfer control pulse G2 remains low (L) during the entire period in which the signal level of the discharge control pulse GD is low (L).
  • the near-infrared pixel p4D performs two operations.
  • the first operation is charge discharge from the photoelectric conversion region 21 to the charge discharge region 23 .
  • the second operation is charge transfer from the photoelectric conversion region 21 to the second charge readout region 222 .
  • the gate driver circuit 32 applies the first transfer control pulse G 1 (H) and the second transfer control pulse G 2 (L) to the near-infrared pixel p4D. , the discharge control pulse G D (L) is output.
  • the gate driver circuit 32 applies the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (L), and the emission control pulse G to the near-infrared pixel p4D. Output D (H).
  • the gate driver circuit 32 switches the first transfer control pulse G1 from high to low.
  • the gate driver circuit 32 maintains the signal level (L) of the second transfer control pulse G2 .
  • the gate driver circuit 32 switches the emission control pulse GD from low to high.
  • the first operation is performed. Charge transfer from the photoelectric conversion region 21 to the first charge readout region 221 is prohibited. Charge transfer from the photoelectric conversion region 21 to the second charge readout region 222 is also prohibited. Charges are discharged from the photoelectric conversion region 21 to the charge discharge region 23 .
  • the gate driver circuit 32 applies the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (H), and the emission control pulse to the near-infrared pixel p4D. Output G D (L).
  • the gate driver circuit 32 maintains the signal level (L) of the first transfer control pulse G1 .
  • the gate driver circuit 32 switches the second transfer control pulse G2 from low to high.
  • the gate driver circuit 32 switches the signal level of the discharge control pulse GD from high to low.
  • the second operation is performed. Charge transfer from the photoelectric conversion region 21 to the first charge readout region 221 is prohibited. Charge transfer from the photoelectric conversion region 21 to the second charge readout region 222 is permitted. The discharge of charges from the photoelectric conversion region 21 to the charge discharge region 23 is prohibited.
  • the gate driver circuit 32 maintains the state of outputting the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (H), and the discharge control pulse G D (L) for a predetermined time. In this state, charges are generated according to the near-infrared light not caused by the irradiation pulse light LP .
  • the near-infrared light not caused by the irradiation pulse light LP is background light that becomes noise.
  • the charge accumulated in the second charge readout region 222 corresponds to the background light intensity.
  • the gate driver circuit 32 applies the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (L), and the emission control pulse to the near-infrared pixel p4D. Output G D (H).
  • the first operation is performed. Charge transfer from the photoelectric conversion region 21 to the first charge readout region 221 is prohibited. Charge transfer from the photoelectric conversion region 21 to the second charge readout region 222 is also prohibited. Charges are discharged from the photoelectric conversion region 21 to the charge discharge region 23 .
  • the background light correction unit 19a of the arithmetic circuit 17B removes the background noise contained in the charges accumulated in the first charge readout region 22-1 by using the charges accumulated in the second charge readout region 22-2 . .
  • the near-infrared pixel p4D includes one photoelectric conversion region 21, a first charge readout region 221 and It has a second charge readout region 222 and one charge discharge region 23 .
  • a visible light pixel green pixel p1S, red pixel p2S, blue pixel p3S
  • the near-infrared pixel p4D acquires a detection signal in which noise due to background light is canceled with respect to near-infrared auxiliary light by lock-in.
  • the visible light pixels green pixel p1S, red pixel p2S, and blue pixel p3S remove detection signals from near-infrared auxiliary light and obtain red, green, and blue signal components.
  • the solid-state imaging device 1B can also simultaneously capture the visible light image 201 and the near-infrared light image 202, like the solid-state imaging device 1A of the first embodiment.
  • the solid-state imaging device 1B can obtain a near-infrared light image 202 from which background light noise has been removed.
  • a solid-state imaging device 1C of the third embodiment shown in FIG. 13 captures a visible light image 201 and a near-infrared light image 202 at the same time.
  • the visible light image 201 output by the solid-state imaging device 1C has a good S/N ratio.
  • the near-infrared light image 202 output by the solid-state imaging device 1C does not include the influence of background light.
  • the dynamic range of the visible light image 201 is expanded.
  • the solid-state imaging device 1C has a light source 11, a pixel panel 2C, and a peripheral circuit 4.
  • Pixel panel 2C includes a plurality of pixel arrays 12C. The arrangement of the plurality of pixel arrays 12C is the same as in the first embodiment.
  • the near-infrared pixel p4D of the solid-state imaging device 1B of the second embodiment employs the pixel circuit section 13D including the first charge readout region 22-1 and the second charge readout region 22-2 .
  • the green pixel p1S, red pixel p2S, and green pixel p1S of the solid-state imaging device 1B of the second embodiment employ the pixel circuit section 13S including the first charge readout region 221.
  • the pixel array 12C employs a pixel circuit section 13D including a first charge readout region 22-1 and a second charge readout region 22-2 for green pixel p1D, red pixel p2D and blue pixel p3D.
  • a pixel array 12C of the third embodiment employs a pixel circuit section 13D having a first charge readout region 22-1 and a second charge readout region 22-2 in all pixels.
  • the gate driver circuit 32 supplies the green pixel p1D, the red pixel p2D, the blue pixel p3D, and the near-infrared pixel p4D with the first transfer control pulse G 1 and the second transfer control pulse G 1 through the wiring L1. It outputs G2 and an emission control pulse GD .
  • the vertical readout control circuit 41 supplies the green pixel p1D, the red pixel p2D, the blue pixel p3D, and the near-infrared pixel p4D with the first readout signal T 1 , the second readout signal T 2 , the reset signal RT, and the selection signal through the wiring L2. It outputs the signal SL.
  • the arithmetic circuit 17C performs various processes for generating a visible light image 201 and a near-infrared light image 202 using the detection signal, which is a digital value output from the signal readout circuit 15C. to run.
  • the visible light image generator 18C includes a first visible light image generator 18a and a second visible light image generator 18b.
  • the first visible light image generator 18 a generates a visible light image 201 based on the charge accumulated in the first charge readout region 221 .
  • the second visible light image generator 18b generates a visible light image 201 based on the charge accumulated in the second charge readout region 222.
  • a visible light image 201 based on the charges accumulated in the first charge readout region 221 is suitable when the imaging target 101 is dark.
  • the visible light image 201 based on the charges accumulated in the second charge readout region 222 is suitable when the object 101 to be imaged is bright. Therefore, according to the visible light image generator 18C, the so-called dynamic range can be expanded.
  • the near-infrared light image generator 19C includes a background light corrector 19a. Therefore, the near-infrared light image generation unit 19C can obtain the near-infrared light image 202 with the background light noise canceled, as in the second embodiment.
  • the structure of the near-infrared pixel p4D of the solid-state imaging device 1C is the same as the structure of the near-infrared pixel p4D of the second embodiment. Therefore, the operation of the near-infrared pixel p4D of the solid-state imaging device 1C is also the same as the operation of the near-infrared pixel p4D of the second embodiment.
  • the first transfer control pulse G 1 , the second transfer control pulse G 2 and the emission control pulse G D applied to the near-infrared pixel p4D shown in FIG. 17 are also the first transfer control applied to the near-infrared pixel p4D shown in FIG. It is the same as the pulse G 1 , the second transfer control pulse G 2 and the ejection control pulse G D . Description of these first transfer control pulse G 1 , second transfer control pulse G 2 and discharge control pulse G D will be omitted.
  • the structures of the green pixel p1D, red pixel p2D and blue pixel p3D of the solid-state imaging device 1C are the same. Accordingly, the operations of the green pixel p1D, the red pixel p2D and the blue pixel p3D of the solid-state imaging device 1C are also the same. The operation of the green pixel p1D of the solid-state imaging device 1C will be described in detail. A detailed description of the operations of the red pixel p2D and the blue pixel p3D of the solid-state imaging device 1C is omitted.
  • the green pixel p1D performs the following three operations. As a first operation, the green pixel p1D prohibits charge transfer from the photoelectric conversion region 21 to the first charge readout region 22-1 . As a second operation, the green pixel p1D also inhibits charge transfer from the photoelectric conversion region 21 to the second charge readout region 222 . As a third operation, the green pixel p1D discharges charges from the photoelectric conversion region 21 to the charge discharge region 23 . During the entire irradiation period S11, the gate driver circuit 32 maintains the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (L), and the discharge control pulse G D (H). .
  • discharge of charges from the photoelectric conversion region 21 to the charge discharge region 23 is permitted after prohibiting transfer of charges from the photoelectric conversion region 21 to the readout section 22S.
  • the prohibition of charge transfer from the photoelectric conversion region 21 to the readout section 22D may be simultaneously permitted with the discharge of charges from the photoelectric conversion region 21 to the charge discharge region 23 .
  • the green pixel p1D performs three operations.
  • the first operation is charge discharge from the photoelectric conversion region 21 to the charge discharge region 23 .
  • the second operation is charge transfer from the photoelectric conversion region 21 to the second charge readout region 222 .
  • the third operation is charge transfer from the photoelectric conversion region 21 to the first charge readout region 221 .
  • the gate driver circuit 32 applies the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (L), and the An emission control pulse G D (H) is output.
  • the signal level output during the irradiation period S11 is maintained.
  • the first operation is performed. Charge transfer from the photoelectric conversion region 21 to the first charge readout region 221 is prohibited. Charge transfer from the photoelectric conversion region 21 to the second charge readout region 222 is also prohibited. Charges are discharged from the photoelectric conversion region 21 to the charge discharge region 23 .
  • the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (L), and the discharge control pulse are applied to the green pixel p1D.
  • the period during which G D (H) is output overlaps with the period during which charges are transferred from the photoelectric conversion region 21 to the first charge readout region 22 - 1 in the near-infrared pixel p4D. This period also overlaps with the period during which charges are transferred from the photoelectric conversion region 21 to the charge discharge region 23 .
  • the gate driver circuit 32 applies the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (H), and the discharge control pulse G D ( L) is output.
  • the gate driver circuit 32 maintains the signal level of the first transfer control pulse G1 .
  • the gate driver circuit 32 switches the second transfer control pulse G2 from low to high.
  • the gate driver circuit 32 switches the emission control pulse GD from high to low.
  • the second operation is performed. Charge transfer from the photoelectric conversion region 21 to the first charge readout region 221 is prohibited. Charge transfer from the photoelectric conversion region 21 to the second charge readout region 222 is permitted. Electric charge discharge from the photoelectric conversion region 21 to the charge discharge region 23 is prohibited.
  • the timing of switching the second transfer control pulse G2 from low to high may coincide with the timing of switching the second transfer control pulse G2 output to the near-infrared pixel p4D from low to high.
  • the timing of switching the second transfer control pulse G2 from low to high may coincide with the timing of switching the emission control pulse GD output to the near-infrared pixel p4D from high to low.
  • the gate driver circuit 32 maintains the state of outputting the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (H), and the discharge control pulse G D (L) for a predetermined time. This time is the second exposure time for the second charge readout region 222 .
  • the second exposure time is shorter than the first exposure time described later.
  • the second exposure time is shorter than the second exposure time for the second charge readout region 222 of the near-infrared pixel p4D.
  • the gate driver circuit 32 applies the first transfer control pulse G 1 (H), the second transfer control pulse G 2 (L), and the discharge control pulse G D to the green pixel p1D. (L) is output.
  • the gate driver circuit 32 switches the first transfer control pulse G1 from low to high.
  • the gate driver circuit 32 switches the second transfer control pulse G2 from high to low.
  • the gate driver circuit 32 maintains the signal level (L) of the discharge control pulse GD .
  • the third operation is performed. Charge transfer from the photoelectric conversion region 21 to the first charge readout region 221 is permitted. Charge transfer from the photoelectric conversion region 21 to the second charge readout region 222 is prohibited. The discharge of charges from the photoelectric conversion region 21 to the charge discharge region 23 is prohibited.
  • the timing for switching the first transfer control pulse G1 may be the same as the timing for switching the second transfer control pulse G2 .
  • the second transfer control pulse G2 of the near-infrared pixel p4D maintains the signal level (H).
  • the emission control pulse GD of the near-infrared pixel p4D also maintains the signal level (L).
  • the second transfer control pulse G2 of the near-infrared pixel p4D switches from high to low when a predetermined time has passed.
  • the emission control pulse GD for the near-infrared pixel p4D switches from low to high.
  • a solid-state imaging device 1C that acquires a visible light image 201 and a near-infrared light image 202 using four pixels, all pixels are composed of one photoelectric conversion region 21, a first charge readout region 221 and a first charge readout region 221 . It has two charge readout regions 222 and one charge discharge region 23 . They are driven separately.
  • the near-infrared pixel p4D acquires a detection signal in which noise due to background light is canceled with respect to near-infrared auxiliary light by lock-in.
  • the visible light pixels (green pixel p1D, red pixel p2D, blue pixel p3D) are controlled to deliver charge to the first charge readout region 22-1 and the second charge readout region 22-2 at different times. As a result, a wide dynamic range of red, green and blue signal components is obtained.
  • the solid-state imaging device 1C can also simultaneously capture the visible light image 201 and the near-infrared light image 202, like the solid-state imaging device 1A of the first embodiment.
  • the solid-state imaging device 1C can obtain a near-infrared light image 202 from which background light noise has been removed, like the solid-state imaging device 1B of the second embodiment.
  • the solid-state imaging device 1C can expand the dynamic range of the visible light image 201.
  • a solid-state imaging device 1D of the fourth embodiment shown in FIG. 18 captures a visible light image 201 and a near-infrared light image 202 at the same time.
  • the visible light image 201 output by the solid-state imaging device 1D has a good S/N ratio.
  • the near-infrared light image 202 output by the solid-state imaging device 1D does not include the influence of background light.
  • the dynamic range of visible light image 201 is expanded.
  • the physical configuration of the solid-state imaging device 1D of the fourth embodiment is the same as that of the solid-state imaging device 1C of the third embodiment.
  • the operation of the solid-state imaging device 1D differs from that of the solid-state imaging device 1C of the third embodiment.
  • the green pixel p1D of the solid-state imaging device 1D performs an operation (second charge acquisition operation) to acquire charges based on near-infrared light in addition to the operation (first charge acquisition operation) to acquire charges based on the green component of visible light. Execute.
  • the gate driver circuit 32 switches between the first charge acquisition operation and the second charge acquisition operation.
  • the first charge acquisition operation and the second charge acquisition operation are switched by the first transfer control pulse G1 and the second transfer control pulse G2 output by the gate driver circuit 32 .
  • the gate driver circuit 32 may have a first charge acquisition pulse generator 32a and a second charge acquisition pulse generator 32b.
  • the first charge acquisition pulse generator 32a outputs a first transfer control pulse G1A and a second transfer control pulse G2A for the first charge acquisition operation.
  • the second charge acquisition pulse generator 32b outputs a first transfer control pulse G1B and a second transfer control pulse G2B for the second charge acquisition operation.
  • the red pixel p2D, blue pixel p3D, and near-infrared pixel p4D of the fourth embodiment perform operations similar to those of the third embodiment.
  • FIG. 19 is a diagram conceptually showing the operation of the solid-state imaging device 1D.
  • the solid-state imaging device 1D repeatedly performs the first charge acquisition operation A1 in the first frame F1.
  • the green pixel p1D acquires charge based on the green component of visible light. Therefore, in the first frame F1, the visible light image 201 and the near-infrared light image 202 can be obtained simultaneously.
  • the solid-state imaging device 1D repeatedly executes the second charge acquisition operation A2 in the second frame F2.
  • the green pixel p1D acquires charges based on near-infrared light. Therefore, the near-infrared light image 202 can be obtained in the second frame F2.
  • a near-infrared light image 202 obtained in the second frame F2 is based on charges obtained from two pixels.
  • FIG. 20 shows pulses output by the gate driver circuit 32 for the first charge acquisition operation A1.
  • the first charge acquisition operation A1 is the same as the operation of the solid-state imaging device 1C of the third embodiment shown in FIG.
  • the gate driver circuit 32 outputs the first transfer control pulse G1A , the second transfer control pulse G2A , and the discharge control pulse GDA shown in FIG. 20 to the green pixel p1D.
  • FIG. 21 shows pulses output by the gate driver circuit 32 for the second charge acquisition operation A2.
  • the gate driver circuit 32 outputs the same pulse as in the first charge acquisition operation A1 to the red pixel p2D, blue pixel p3D and near-infrared pixel p4D.
  • the gate driver circuit 32 outputs a pulse different from that for the first charge acquisition operation A1 to the green pixel p1D.
  • the gate driver circuit 32 outputs the first transfer control pulse G1B , the second transfer control pulse G2B , and the discharge control pulse GDB shown in FIG. 20 to the green pixel p1D.
  • the first transfer control pulse G 1B , the second transfer control pulse G 2B and the emission control pulse G DB are the same as the pulses output to the near-infrared pixel p4D.
  • the four pixels are driven separately.
  • the near-infrared pixel p4D is controlled by lock-in to obtain a detection signal in which noise due to background light is canceled with respect to the near-infrared auxiliary light.
  • the visible light pixel is controlled to deliver charge to the first charge readout region 22-1 and the second charge readout region 22-2 at different times. Visible light pixels acquire wide dynamic range (WDR) red, green and blue signal components.
  • WDR wide dynamic range
  • some pixels have a first function of acquiring near-infrared signals by lock-in and a second function of acquiring red, green, and blue signals with a wide dynamic range. Select and use the function of .
  • the solid-state imaging device 1D can also simultaneously capture the visible light image 201 and the near-infrared light image 202, like the solid-state imaging device 1A of the first embodiment.
  • the solid-state imaging device 1D can obtain a near-infrared light image 202 from which background light noise is removed, like the solid-state imaging device 1B of the second embodiment.
  • the solid-state imaging device 1D can expand the dynamic range of the visible light image 201.
  • the solid-state imaging device 1D can obtain the near-infrared light image 202 by the first charge acquisition operation A1 and obtain the near-infrared light image 202 by the second charge acquisition operation A2.
  • a solid-state imaging device 1E of the fifth embodiment shown in FIG. 22 captures a visible light image 201 and a near-infrared light image 202 at the same time.
  • the visible light image 201 output by the solid-state imaging device 1E has a good S/N ratio.
  • the near-infrared light image 202 output by the solid-state imaging device 1E does not include the influence of background light.
  • the dynamic range of the visible light image is expanded.
  • the physical configuration of the solid-state imaging device 1E of the fifth embodiment is the same as that of the solid-state imaging device 1C of the third embodiment.
  • the operation of the solid-state imaging device 1E is different from that of the solid-state imaging device 1C of the third embodiment.
  • the green pixel p1D performs an operation (first charge acquisition operation) to obtain charges based on visible light and an operation to obtain charges based on near-infrared light. (Second charge acquisition operation) and a function of switching between them.
  • the red pixel p2D and the blue pixel p3D mutually perform the operation of obtaining charge based on visible light and the operation of obtaining charge based on near-infrared light. It has a function to switch to
  • the near-infrared pixel p4D also performs an operation of obtaining charges based on visible light (first charge obtaining operation) and an operation of obtaining charges based on near-infrared light (second charge obtaining operation). It has a function to switch between
  • the gate driver circuit 32 switches between the first charge acquisition operation and the second charge acquisition operation.
  • the gate driver circuit 32 may have a first charge acquisition pulse generator 32a and a second charge acquisition pulse generator 32b.
  • the first charge acquisition pulse generator 32a outputs a first transfer control pulse G1A and a second transfer control pulse G2A for the first charge acquisition operation.
  • the second charge acquisition pulse generator 32b outputs a first transfer control pulse G1B and a second transfer control pulse G2B for the second charge acquisition operation.
  • the gate driver circuit 32 may have a pulse selector 32c.
  • the pulse selection unit 32c selects the first transfer control pulse G1A and the second transfer control pulse G2A for the first charge acquisition operation or the first transfer control pulse G2A for the second charge acquisition operation for each pixel. It selects which of the control pulse G1B and the second transfer control pulse G2B is to be output.
  • the charge acquired by each pixel can take any of the following sets.
  • the alphabet (G) shown in parentheses indicates obtaining a charge based on the green component of visible light.
  • the alphabet (R) corresponds to the red component and the alphabet (B) corresponds to the blue component.
  • the alphabet (N) corresponds to near-infrared light.
  • the first set, the second set, the third set, and the fourth set obtain charge due to near-infrared light in at least one of the four pixels.
  • the effect of the operation is to discharge the charges generated in the green pixel p1D, the red pixel p2D, and the blue pixel p3D during the irradiation operation of the irradiation pulse light LP to the charge discharge region 23. is exhibited.
  • the first set is the same as the first charge acquisition operation A1 in the fourth embodiment.
  • the second set is the same as the second charge acquisition operation A2 in the fourth embodiment.
  • the fifth set we obtain charge due to visible light in all four pixels.
  • the fifth set does not capture charge due to near-infrared light.
  • the sixth set we obtain charge due to near-infrared light in all four pixels.
  • the sixth set does not capture charge due to visible light.
  • FIG. 23 is a diagram conceptually showing an example of the operation of the solid-state imaging device 1E.
  • the solid-state imaging device 1E repeatedly performs the first charge acquisition operation A1 in the first frame F1.
  • each pixel acquires a charge shown in a first set. Therefore, in the first frame F1, the visible light image 201 and the near-infrared light image 202 can be obtained simultaneously.
  • the solid-state imaging device 1E repeatedly executes the operation corresponding to the fifth set when it is the second frame F2.
  • An operation corresponding to the fifth set is called a third charge acquisition operation A3.
  • the solid-state imaging device 1E repeatedly performs the third charge acquisition operation A3 in the second frame F2. Therefore, the visible light image 201 can be obtained in the second frame F2.
  • the solid-state imaging device 1E repeatedly executes the operation corresponding to the sixth set in the third frame F3.
  • the operation corresponding to the sixth set is called the fourth charge acquisition operation A4.
  • the solid-state imaging device 1E repeatedly performs the fourth charge acquisition operation A4 in the third frame F3. Therefore, the near-infrared light image 202 can be obtained in the third frame F3.
  • FIG. 24(a) shows pulses output by the gate driver circuit 32 for the third charge acquisition operation A3.
  • the pulse output by the gate driver circuit 32 during the third charge acquisition operation A3 is the same as the pulse output to the green pixel p1D and the like during the operation of the fourth embodiment shown in FIG.
  • the light source 11 does not emit the irradiation pulse light LP because the charge resulting from the near-infrared light is not acquired.
  • FIG. 24(b) shows pulses output by the gate driver circuit 32 for the fourth charge acquisition operation A4.
  • the pulse output by the gate driver circuit 32 during the fourth charge acquisition operation A4 is the same as the pulse output to the near-infrared pixel p4D during the operation of the fourth embodiment shown in FIG.
  • the four pixels are driven separately.
  • the near-infrared pixel p4D is controlled by lock-in to obtain a detection signal in which noise due to background light is canceled with respect to the near-infrared auxiliary light.
  • the visible light pixel is controlled to deliver charge to the first charge readout region 22-1 and the second charge readout region 22-2 at different times.
  • Visible light pixels acquire wide dynamic range (WDR) red, green, and blue signal components.
  • WDR wide dynamic range
  • the first function for acquiring near-infrared signals by lock-in and the second function for acquiring red, green, and blue signals with a wide dynamic range are selectively used. .
  • the solid-state imaging device 1E can also simultaneously capture the visible light image 201 and the near-infrared light image 202, like the solid-state imaging device 1A of the first embodiment.
  • the solid-state imaging device 1E can obtain a near-infrared light image 202 from which background light noise is removed, like the solid-state imaging device 1B of the second embodiment.
  • the solid-state imaging device 1E can expand the dynamic range of the visible light image 201.
  • the solid-state imaging device 1E of the fifth embodiment can also perform the operations shown in the timing chart of FIG. According to the operation shown in FIG. 25, a visible light image 201 and a near-infrared light image 202 can be obtained in one frame.
  • charges caused by near-infrared light are accumulated in the first charge readout region 22-1 multiple times, and charges caused by visible light are accumulated in the second charge readout region 22-2 . Accumulate the charge multiple times.
  • the first transfer control pulse G1 , the second transfer control pulse G2 , and the discharge control pulse GD output to each pixel by the gate driver circuit 32 are the same. Therefore, the pulse output to the green pixel p1D will be described as an example.
  • the gate driver circuit 32 applies the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (H), and the discharge control pulse G D to the green pixel p1D. (L) and are output.
  • the gate driver circuit 32 After a predetermined period of time has elapsed from a certain timing before the irradiation period S11, the gate driver circuit 32 supplies the green pixel p1D with the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (L), and an emission control pulse G D (H). The gate driver circuit 32 switches the emission control pulse GD from low to high.
  • the gate driver circuit 32 applies the first transfer control pulse G 1 (H) and the second transfer control pulse G 2 (L) to the green pixel p1D. ) and an emission control pulse G D (L).
  • the gate driver circuit 32 switches the first transfer control pulse G1 from low to high.
  • the gate driver circuit 32 switches the emission control pulse GD from high to low.
  • the timing for switching the first transfer control pulse G1 may be the same as the timing for switching the discharge control pulse GD .
  • the emission of the irradiation pulsed light LP is started.
  • the gate driver circuit 32 applies the first transfer control pulse G 1 (H), the second transfer control pulse G 2 (L), and the discharge control pulse G D (L) to the green pixel p1D. , will be output. Due to this operation, charges caused by the irradiation pulse light LP are accumulated in the first charge readout region 22-1 .
  • the gate driver circuit 32 supplies the green pixel p1D with the first transfer control pulse G 1 (H), the second transfer control pulse G 2 (L), and an emission control pulse G D (L).
  • the gate driver circuit 32 maintains the signal level of the pulse output during the irradiation period S11.
  • the gate driver circuit 32 After switching to the non-irradiation period S12 and after a predetermined time has passed, the gate driver circuit 32 applies the first transfer control pulse G 1 (L) and the second transfer control pulse G 2 (L) to the green pixel p1D. and an emission control pulse G D (H).
  • the gate driver circuit 32 switches the first transfer control pulse G1 from high to low.
  • the gate driver circuit 32 switches the emission control pulse GD from low to high.
  • the timing for switching the first transfer control pulse G1 may be the same as the timing for switching the discharge control pulse GD .
  • the gate driver circuit 32 applies the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (H), and the discharge control pulse G D (L) to the green pixel p1D. and output
  • the gate driver circuit 32 switches the second transfer control pulse G2 from low to high.
  • the gate driver circuit 32 switches the emission control pulse GD from high to low.
  • the timing for switching the second transfer control pulse G2 may be the same as the timing for switching the discharge control pulse GD . This operation causes charge due to the green component of visible light to accumulate in the second charge readout region 222 .
  • the solid-state imaging device 1E can simultaneously capture the visible light image 201 and the near-infrared light image 202, similarly to the solid-state imaging device 1A of the first embodiment. .
  • the effect of expanding the dynamic range in the visible light image 201 cannot be obtained.
  • the effect of removing background light noise in the near-infrared light image 202 cannot be obtained.
  • a solid-state imaging device 1F of the sixth embodiment shown in FIG. 26 captures a visible light image 201 and a near-infrared light image 202 at the same time.
  • the visible light image 201 output by the solid-state imaging device 1F has a good S/N ratio.
  • the near-infrared light image 202 output by the solid-state imaging device 1F of the sixth embodiment does not include the influence of background light.
  • the near-infrared light image 202 output by the solid-state imaging device 1F of the sixth embodiment includes distance information.
  • the solid-state imaging device 1F has a light source 11, a pixel panel 2F, and a peripheral circuit 4.
  • Pixel panel 2F includes a plurality of pixel arrays 12F. The arrangement of the multiple pixel arrays 12F is the same as in the first embodiment.
  • the near-infrared pixels p4T are different from the near-infrared pixels p4S of the first embodiment and the near-infrared pixels p4D of the second embodiment.
  • the near-infrared pixel p4T forming the pixel array 12F has a first charge readout region 22-1 , a second charge readout region 22-2 , and a third charge readout region 22-3 .
  • a first voltage detection means 26T 1 , a second voltage detection means 26T 2 and a third voltage detection means 26T3 is connected.
  • the detection section 26T in the pixel circuit section 13T of the near-infrared pixel p4T has three voltage detection means.
  • the first charge readout region 22-1 is connected to the photoelectric conversion region 21 via the first transfer control gate 25-1 .
  • An input terminal of a first voltage detection means 26T- 1 is connected to the first charge readout region 22-1 .
  • the first charge readout region 221 also functions as a floating diffusion region.
  • the pixel circuit section 13T does not have a floating diffusion region provided separately from the charge readout region. Therefore, the pixel circuit section 13T does not have a readout control gate for controlling charge transfer from the charge readout region to the floating diffusion region.
  • the second charge readout region 22-2 and the third charge readout region 22-3 have the same configuration as the first charge readout region 22-1 .
  • the arithmetic circuit 17F has a visible light image generator 18F and a near-infrared light image generator 19F.
  • the visible light image generation unit 18F is the same as the visible light image generation unit 18C of the third embodiment, so description thereof is omitted.
  • the near-infrared light image generator 19F includes a distance image generator 19b.
  • the distance image generator 19b obtains distance information using the charges accumulated in the first charge readout region 22-1 and the charges accumulated in the first charge readout region 22-1 .
  • the ratio between the amount of charge accumulated in the first charge readout region 22-1 and the amount of charge accumulated in the first charge readout region 22-1 becomes the reflected pulsed light LR after the irradiation pulse light LP is emitted.
  • the delay time until the light enters the pixel array 12F corresponds to the delay time until the light enters the pixel array 12F.
  • This time is related to the sum of the distance from the light source 11 to the imaged object 101 and the distance from the imaged object 101 to the pixel array 12F. Therefore, the distance from the solid-state imaging device 1F to the imaging target 101 can be obtained by obtaining the ratio with the charge amount.
  • the charge amount accumulated in the third charge readout region 223 is used to remove noise components caused by background light.
  • the delay time is short.
  • the amount of charge accumulated in the first charge readout region 22-1 becomes larger than the amount of charge accumulated in the second charge readout region 22-2 .
  • the delay time is long.
  • the amount of charge accumulated in the second charge readout region 22-2 becomes larger than the amount of charge accumulated in the first charge readout region 22-1 .
  • the solid-state imaging device 1F performs an operation of obtaining a near-infrared light image 202 including distance information (distance image obtaining operation D1) and an operation of obtaining a visible light image 201 (visible light image obtaining operation D2). and including.
  • the distance image acquisition operation D1 and the visible light image acquisition operation D2 are alternately performed multiple times.
  • the distance image acquisition operation D1 is as follows.
  • the pixel array 12F does not acquire the visible light image 201 during the distance image acquisition operation D1. Therefore, the gate driver circuit 32 applies the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (L) and the discharge control pulse G to the green pixel p1D, the red pixel p2D and the blue pixel p3D. D (H) is output.
  • the green pixel p1D, the red pixel p2D, and the blue pixel p3D of the pixel array 12F prohibit charge transfer to the first charge readout region 22 1 and the second charge readout region 22 2 .
  • the green pixel p1D, the red pixel p2D, and the blue pixel p3D of the pixel array 12F allow discharge of charges to the charge discharge region 23.
  • the gate driver circuit 32 outputs the following control pulses. According to these control pulses, the near-infrared pixel p4D inhibits charge transfer to the first charge readout region 22 1 , the second charge readout region 22 2 and the third charge readout region 22 3 . These control pulses allow the near-infrared pixel p4D to discharge charges to the charge discharge region 23 .
  • First transfer control pulse G 1 (L) Second transfer control pulse G2 : (L) Third transfer control pulse G 3 : (L) Emission control pulse GD : (H)
  • the light source driver circuit 31 starts irradiation of the irradiation pulse light LP .
  • the gate driver circuit 32 outputs the following control pulses. These control pulses cause the near-infrared pixel p4D to allow charge transfer to the first charge readout region 22-1 . According to these control pulses, the near-infrared pixel p4D inhibits charge transfer to the second charge readout region 22-2 and the third charge readout region 22-3 . These control pulses prevent the near-infrared pixel p4D from discharging charges to the charge discharge region 23 .
  • First transfer control pulse G 1 (H) Second transfer control pulse G2 : (L) Third transfer control pulse G 3 : (L) Emission control pulse GD : (L)
  • the timing at which the gate driver circuit 32 starts outputting the control pulse may be the same as the timing at which the irradiation of the irradiation pulse light LP is started.
  • the timing at which the gate driver circuit 32 starts outputting the following control pulses may be set slightly later than the timing at which the irradiation of the irradiation pulse light LP is started.
  • the irradiation pulsed light LP is reflected by the object 101 to be imaged, becomes reflected pulsed light LR , and enters the solid-state imaging device 1F. Therefore, the timing of receiving the reflected pulsed light LR is delayed from the timing of irradiation of the irradiation pulsed light LP . This delay depends on the distance from the light source 11 to the imaged object 101 and the distance from the imaged object 101 to the pixel array 12F.
  • the reflected pulsed light LR does not reach the pixel array 12F, so no charge is generated in the photoelectric conversion region 21 . Therefore, no charges are transferred to the first charge readout region 22-1 .
  • the condition that "no charge is generated in the photoelectric conversion region 21" means that no charge is generated due to the reflected pulsed light LR .
  • the photoelectric conversion region 21 generates charges due to background light. Charge due to background light is transferred to the first charge readout region 221 . After a predetermined time has passed, the reflected pulsed light L- R is incident on the pixel array 12F.
  • the period during which charge transfer to the first charge readout region 22-1 is permitted includes a period during which no charge is transferred to the first charge readout region 22-1 and a period during which no charge is transferred to the first charge readout region 22-1 . and a period of time that occurs. In FIG. 29, the periods during which charge transfer occurs are indicated by hatching.
  • the light source driver circuit 31 stops the irradiation of the irradiation pulse light LP .
  • the gate driver circuit 32 outputs the following control pulses. According to these control pulses, the near-infrared pixel p4D inhibits charge transfer to the first charge readout region 22-1 and the third charge readout region 22-3 . According to these control pulses, the near-infrared pixel p4D allows charge transfer to the second charge readout region 222 . These control pulses prevent the near-infrared pixel p4D from discharging charges to the charge discharge region 23 .
  • First transfer control pulse G 1 (L) Second transfer control pulse G2 : (H) Third transfer control pulse G 3 : (L) Emission control pulse GD : (L)
  • the reflected pulse light LR continues to enter the pixel array 12F, so charges are generated in the photoelectric conversion region 21 . Therefore, charges are transferred to the second charge readout region 222 .
  • the region to which charges are transferred from the photoelectric conversion region 21 is switched from the first charge readout region 22-1 to the second charge readout region 22-2 .
  • the gate driver circuit 32 After the reflected pulsed light L- R has entered the pixel array 12F, the gate driver circuit 32 outputs the following control pulses. According to these control pulses, the near-infrared pixel p4D inhibits charge transfer to the first charge readout region 22-1 and the second charge readout region 22-2 . According to these control pulses, the near-infrared pixel p4D allows charge transfer to the third charge readout region 223 . These control pulses prevent the near-infrared pixel p4D from discharging charges to the charge discharge region 23 .
  • First transfer control pulse G 1 (L) Second transfer control pulse G2 : (L) Third transfer control pulse G 3 : (H) Emission control pulse GD : (L)
  • charges not caused by the reflected pulse light LR are transferred to the third charge readout region 223 .
  • the charges transferred to the third charge readout region 223 are used to remove background light noise.
  • the light source driver circuit 31 executes irradiation of the irradiation pulse light LP multiple times.
  • the gate driver circuit 32 also performs charge transfer to the first charge readout region 22-1 , charge transfer to the second charge readout region 22-2 , and charge transfer to the third charge readout region 22-3 . It is executed a plurality of times according to the irradiation of the irradiation pulse light LP .
  • the visible light image acquisition operation D2 is specifically as follows.
  • the pixel array 12F does not acquire the near-infrared light image 202 during the visible light image acquisition operation D2. Therefore, the gate driver circuit 32 applies the first transfer control pulse G 1 (L), the second transfer control pulse G 2 (L), and the third transfer control pulse G3 (L) to the near-infrared pixel p4D. , and an emission control pulse G D (H).
  • the near-infrared pixel p4D of the pixel array 12F transfers charges to the first charge readout region 22 1 , the second charge readout region 22 2 , and the third charge readout region 22 3 . restrict.
  • the near-infrared pixels p4D of the pixel array 12F allow discharge of charges to the charge discharge region 23.
  • the gate driver circuit 32 applies the first transfer control pulse G1 (L) and the second transfer control pulse G2 to the green pixel p1D, the red pixel p2D, and the blue pixel p3D. (H) and an emission control pulse G D (L).
  • the green pixel p1D, the red pixel p2D, and the blue pixel p3D of the pixel array 12F prohibit the transfer of charges to the first charge readout region 22-1 and the second charge readout region 22-2. , and prohibits discharge of charges to the discharge region 23 .
  • the charge for the visible light image 201 with low sensitivity can be accumulated in the second charge readout region 222 .
  • the gate driver circuit 32 applies the first transfer control pulse G 1 (H) and the second transfer control pulse G 2 (L) to the green pixel p1D, red pixel p2D and blue pixel p3D. , and an emission control pulse G D (L).
  • the gate driver circuit 32 switches the first transfer control pulse G1 from low to high.
  • the gate driver circuit 32 switches the second transfer control pulse G2 from high to low.
  • the gate driver circuit 32 maintains the signal level of the emission control pulse GD .
  • the time during which the first transfer control pulse G 1 (H) is maintained is longer than the time during which the second transfer control pulse G 2 (H) is maintained. Therefore, according to this operation, the charge for the visible light image 201 with high sensitivity can be accumulated in the first charge readout region 221 .
  • the solid-state imaging device 1F can also simultaneously capture the visible light image 201 and the near-infrared light image 202 similarly to the solid-state imaging device 1A of the first embodiment.
  • the solid-state imaging device 1F can obtain a near-infrared light image 202 from which background light noise is removed and which includes distance information.
  • the embodiments of the solid-state imaging device are not limited to the above examples.
  • FIG. 30 shows a pixel circuit section 13A included in the solid-state imaging device 1G of Modification 1.
  • the pixel circuit section 13A has one photoelectric conversion area 21 .
  • the photoelectric conversion region 21 is connected to the first charge readout region 221 via the charge collection region 21a .
  • the pixel circuit section 13A does not have a transfer control gate for permitting or inhibiting the transfer of charges from the photoelectric conversion region 21 to the first charge readout region 221 .
  • the photoelectric conversion region 21 is also connected to the charge discharge region 23 through the discharge control gate 25D .
  • the first charge readout region 22-1 is connected to the first floating diffusion region FD -1 via a first readout control gate 28-1 .
  • the pixel structure can be simplified. According to the pixel circuit section 13A of Modification 1, it is also possible to reduce the area of the pixel.
  • the pixel circuit section 13A of Modification 1 can be applied to the green pixel p1D, red pixel p2D, blue pixel p3D, and near-infrared pixel p4D of the first embodiment.
  • the pixel circuit section 13A of Modification 1 can also be applied to the green pixel p1D, red pixel p2D, and blue pixel p3D of the second embodiment.
  • FIG. 31 shows a pixel circuit section 13S included in a solid-state imaging device 1H of Modification 2.
  • the pixel circuit section 13S has a first charge readout region 221.
  • the pixel circuit section 13S differs from the pixel circuit section 13S of the first embodiment in the structure of the first transfer control gate 25A1 .
  • the first transfer control gate 25A1 of the pixel circuit section 13S of Modification 2 has a structure based on the principle of a lateral electric field controlled charge modulator (LEFM) developed by the present inventors.
  • LFM lateral electric field controlled charge modulator
  • the lateral electric field control charge modulation device controls the electric field of the charge transport path by a lateral electric field generated by a plurality of gates provided on the sides of the charge transport path. As a result, high-speed electron transport control can be performed.
  • the pixel circuit section 13S of Modification 2 is applicable to the green pixel p1D, red pixel p2D, blue pixel p3D, and near-infrared pixel p4D of the first embodiment.
  • the pixel circuit section 13S of Modification 2 can also be applied to the green pixel p1D, red pixel p2D, and blue pixel p3D of the second embodiment.
  • FIG. 32 shows a pixel circuit section 13K included in a solid-state imaging device 1K of Modification 3.
  • the pixel circuit section 13K has a first charge readout region 22 1 and a second charge readout region 22 2 .
  • the pixel circuit section 13K differs from the pixel circuit section 13D of the second embodiment in the structures of the first transfer control gate 25A 1 and the second transfer control gate 25A 2 as in the second modification.
  • the first transfer control gate 25A 1 and the second transfer control gate 25A 2 of the pixel circuit section 13K of Modification 3 also adopt the structure of the lateral electric field control charge modulation element.
  • the pixel circuit section 13K of Modification 3 is applicable to the near-infrared pixels p4D of the second to fifth embodiments.
  • the pixel circuit section 13K of Modification 3 can also be applied to the green pixel p1D, red pixel p2D, and blue pixel p3D of the third to fifth embodiments.
  • wavelength selection structure A modification of the wavelength selection structure including wavelength selection filters 27G, 27R, and 27B is illustrated.
  • FIG. 33 shows a modification of the cross-sectional structure.
  • the solid-state imaging device 1A of the first embodiment was provided with the cover glass 51 .
  • a near-infrared band elimination filter 52 (NIR Band Elimination Filter: BEF Filter) is provided on the back surface 51 b of the cover glass 51 .
  • the cover back surface 51 b of the cover glass 51 is the surface facing the semiconductor laminated substrate 60 .
  • the characteristics of the near-infrared band elimination filter 52 are shown in the graph Gxa of FIG. 37(a).
  • the near-infrared band elimination filter 52 transmits the visible light band BV.
  • the near-infrared band elimination filter 52 has a band BN 1 (860 ⁇ 30 nm) and a band BN 2 (930 ⁇ 30 nm) adopted as the wavelength of the irradiation pulse light LP , out of the band BN of near-infrared light. ).
  • the near-infrared band elimination filter 52 blocks the transmission of light from the visible light band BV to the band BN1 of the near-infrared light band BN.
  • the near-infrared band elimination filter 52 transmits the irradiation pulse light LP among the near-infrared light.
  • the near-infrared band elimination filter 52 does not transmit near-infrared light that is not the irradiation pulse light LP . Therefore, noise included in the near-infrared light image 202 can be suppressed.
  • a near-infrared band for removing near-infrared components other than the near-infrared auxiliary light wavelength band (e.g., 860 nm ⁇ 30 nm, 930 nm ⁇ 30 nm) in order to reduce the near-infrared components captured by visible light pixels
  • a rejection filter (NIR-BEF) is provided.
  • a band elimination filter may be configured in the cover glass 51 .
  • the band removal filter may be provided on-chip only in the near-infrared pixel p4S.
  • the wavelength selection structure of Modification 4 includes the solid-state imaging device 1A of the first embodiment, the solid-state imaging device 1B of the second embodiment, the solid-state imaging device 1C of the third embodiment, the solid-state imaging device 1D of the fourth embodiment, and the solid-state imaging device 1D of the fourth embodiment. It is applicable to both the solid-state imaging device 1F of the fifth embodiment and the solid-state imaging device 1G of the sixth embodiment.
  • a near-infrared band cut filter 53 that inhibits transmission of near-infrared light is provided between the wavelength selection filters 27R, 27G, and 27B, which are visible light filters, and the lens 27S. may be provided.
  • the near-infrared band cut filter 53 has the light transmission characteristic shown in FIG. 37(b).
  • the near-infrared band cut filter 53 transmits light shorter than 760 nm (visible light band BV).
  • the near-infrared band cut filter 53 prevents transmission of light with a wavelength longer than 760 nanometers (near-infrared light band BN). According to the configuration shown in FIG.
  • the wavelength selection structure of modification 5 is applied to the solid-state imaging device 1A of the first embodiment, the solid-state imaging device 1B of the second embodiment, the solid-state imaging device 1C of the third embodiment, and the solid-state imaging device 1G of the sixth embodiment. It is possible.
  • the near-infrared pixel p4D did not have an optical component with wavelength selectivity.
  • the near-infrared pixel p4D may include a near-infrared bandpass filter 27N (NIR Bandpass Filter).
  • the near-infrared bandpass filter 27N has light transmission characteristics shown in FIG. 37(c).
  • the near-infrared bandpass filter 27N transmits wavelengths in the vicinity of 930 nanometers.
  • the near-infrared bandpass filter 27N blocks transmission of light in the visible light band BV.
  • the wavelength selection structure of modification 6 is applied to the solid-state imaging device 1A of the first embodiment, the solid-state imaging device 1B of the second embodiment, the solid-state imaging device 1C of the third embodiment, and the solid-state imaging device 1G of the sixth embodiment. It is possible.
  • the solid-state imaging device may be configured with a semiconductor laminated substrate 60B that employs a so-called back-illuminated structure.
  • the structure shown in FIG. 36 includes the solid-state imaging device 1A of the first embodiment, the solid-state imaging device 1B of the second embodiment, the solid-state imaging device 1C of the third embodiment, the solid-state imaging device 1D of the fourth embodiment, and the solid-state imaging device 1D of the fifth embodiment. It is applicable to the solid-state imaging device 1E of the embodiment and the solid-state imaging device 1F of the sixth embodiment.
  • a configuration in which two bands of near-infrared light are used as signals for lock-in detection, and a configuration in which near-infrared light is used in one band and visible light is used. You may combine with the structure used as 1 band.
  • three charge readout regions are provided in the near-infrared pixel p4D. Let the even-numbered pixels be the first band of near-infrared light. Let the odd-numbered pixels be the second band in the near-infrared.
  • the near-infrared pixel is provided with one charge readout region and the visible light pixel is also provided with two charge readout regions. .
  • the solid-state imaging device 1A of the first embodiment described above the charges generated in the photoelectric conversion regions 21 of the green pixels p1S, p4S, the red pixels p2S, and the blue pixels p3S in the period overlapping the irradiation period of the irradiation pulse light LP are It was discharged to the charge discharging region 23 .
  • the solid-state imaging device 1A according to the first embodiment can obtain the visible light image 201 in which the influence of near-infrared light is suppressed.
  • the solid-state imaging device of the seventh embodiment obtains a visible light image 201 in which the influence of near-infrared light is suppressed by a method different from this.
  • the solid-state imaging device of the seventh embodiment acquires a visible light image and a near-infrared light image at the same time.
  • the object of the solid-state imaging device of the seventh embodiment is to obtain a visible light image in which the influence of near-infrared light is suppressed.
  • the solid-state imaging device of the seventh embodiment includes a light source that generates pulsed light having a wavelength component of near-infrared light, a visible light charge that corresponds to visible light, and a wavelength of near-infrared light caused by the pulsed light.
  • a pixel array including a plurality of pixels for generating near-infrared photocharges in response to light having components; Prepare.
  • Each of the plurality of pixels includes a photoelectric conversion region that generates visible light charges and near-infrared light charges, and at least one visible light charge readout region that receives transfer of the visible light charges from the photoelectric conversion region in response to a control pulse.
  • At least two near-infrared photocharge readout regions for receiving near-infrared photocharge transfer from the photoelectric conversion regions in response to control pulses; and visible photocharges and near-infrared photocharges from the photoelectric conversion regions in response to control pulses.
  • a charge draining region for draining the The charge transfer control means performs a first operation of applying to pixels a control pulse for distributing near-infrared photocharges from the photoelectric conversion region to each of at least two near-infrared photocharge readout regions, and after the first operation, photoelectric conversion.
  • the solid-state imaging device of the seventh embodiment can obtain a distance image including distance information to the imaging target by the first operation.
  • the solid-state imaging device of the seventh embodiment can obtain a visible light image of the imaging target by the third operation. Therefore, the solid-state imaging device of the seventh embodiment can simultaneously acquire a visible light image and a near-infrared light image.
  • a second operation is performed between the first operation and the third operation to discharge the charges generated in the photoelectric conversion region.
  • a predetermined standby time is provided between the first operation for obtaining the range image and the third operation for obtaining the visible light image. According to this standby time, the pulsed light generated for the first operation is sufficiently attenuated before the third operation is performed. Therefore, the solid-state imaging device can obtain a visible light image in which the influence of near-infrared light is suppressed.
  • the pixel array of the solid-state imaging device of the seventh embodiment may include first pixels, second pixels, third pixels, and fourth pixels.
  • the first pixel may include a first filter that transmits a wavelength component of near-infrared light and that transmits only a first wavelength component among the wavelength components included in visible light.
  • the second pixel may include a second filter that transmits a wavelength component of near-infrared light and transmits only a second wavelength component that is shorter than the first wavelength component among the wavelength components included in visible light.
  • the third pixel may include a third filter that transmits a wavelength component of near-infrared light and transmits only a third wavelength component shorter than the second wavelength component among the wavelength components included in visible light.
  • the fourth pixel may include any one of the first filter, the second filter and the third filter. Also with this configuration, the solid-state imaging device can obtain a visible light image in which the influence of near-infrared light is suppressed.
  • the pixel array of the solid-state imaging device of the seventh embodiment may include first pixels, second pixels, third pixels, and fourth pixels.
  • the first pixel may include a first filter that transmits a wavelength component of near-infrared light and that transmits only a first wavelength component among the wavelength components included in visible light.
  • the second pixel may include a second filter that transmits a wavelength component of near-infrared light and transmits only a second wavelength component that is shorter than the first wavelength component among the wavelength components included in visible light.
  • the third pixel may include a third filter that transmits a wavelength component of near-infrared light and transmits only a third wavelength component shorter than the second wavelength component among the wavelength components included in visible light.
  • the fourth pixel may include a near-infrared light selection filter that selectively transmits only light having wavelength components of near-infrared light. According to this configuration, the fourth pixel selectively transmits only the light having the wavelength component of the near-infrared light caused by the pulsed light, so that the resistance to disturbance light can be enhanced.
  • a visible light image and a near-infrared light image can be acquired at the same time. According to the solid-state imaging device of the seventh embodiment, it is possible to obtain a visible light image in which the influence of near-infrared light is suppressed.
  • FIG. 38 is a diagram showing the principle of the solid-state imaging device 1Q.
  • the solid-state imaging device 1Q indirectly measures the time of flight of light.
  • the solid-state imaging device 1Q has a plurality of regions for accumulating charges.
  • the solid-state imaging device 1Q distributes charges generated in the photoelectric conversion region 21 due to incident light to the respective readout regions. This distribution is performed by a gate that controls charge transfer from the photoelectric conversion region 21 to the readout region. Charges are transferred to the first readout region in the first period TW1 . No charges are transferred to the second readout region in the first period TW1 .
  • a second period TW2 following the first period TW1 transfer of charges to the first readout region is stopped and charges are transferred to the second readout region.
  • the ratio of the first charge amount Q1 in the first readout region and the second charge amount Q2 in the second readout region and the time width TW between the first period TW1 and the second period TW2 You can get flight time. Light flight time can be converted to distance information.
  • FIG. 39 is a plan view of the pixel panel 2Q included in the solid-state imaging device 1Q of the seventh embodiment.
  • Pixel panel 2Q includes pixel array 12Q.
  • the pixel array 12Q has a green pixel p1Q, a red pixel p2Q, a blue pixel p3Q, and a green pixel p4Q.
  • the green pixels p1Q and p4Q obtain charges corresponding to visible light including wavelengths corresponding to green.
  • the red pixel p2Q obtains a charge corresponding to light including a wavelength corresponding to red among visible light.
  • the blue pixel p3Q obtains an electric charge corresponding to light including a wavelength corresponding to blue among visible light.
  • Green pixel p1Q, red pixel p2Q, blue pixel p3Q and green pixel p4Q are used to obtain visible light image 201 .
  • Green pixel p1Q, red pixel p2Q, blue pixel p3Q, and green pixel p4Q obtains a charge corresponding to the reflected pulsed light LR .
  • Green pixel p1Q, red pixel p2Q, blue pixel p3Q and green pixel p4Q are also used to obtain range image 203 .
  • FIG. 40 is a cross-sectional view showing the structure of the pixel array 12Q of the seventh embodiment.
  • the green pixels p1Q and p4Q have a wavelength selection filter 27G and a near-infrared band elimination filter 52.
  • the photoelectric conversion regions 21 of the green pixels p1Q and p4Q light of a green wavelength component (wavelength of 550 ⁇ 50 nm) and reflected pulsed light L R (wavelength of 860 ⁇ 30 nm and wavelength of 930 ⁇ 30 nm) are stored. , is provided.
  • the red pixel p2Q has a wavelength selection filter 27R and a near-infrared band elimination filter 52.
  • FIG. In the photoelectric conversion region 21 of the red pixel p2Q, light of a red wavelength component (wavelength of 650 ⁇ 50 nm) and reflected pulsed light L R (wavelength of 860 ⁇ 30 nm and wavelength of 930 ⁇ 30 nm) are emitted. provided.
  • the blue pixel p3Q has a wavelength selection filter 27B and a near-infrared band elimination filter 52.
  • FIG. In the photoelectric conversion region 21 of the blue pixel p3Q, light with a blue wavelength component (wavelength of 450 ⁇ 50 nm) and reflected pulsed light L R (wavelength of 860 ⁇ 30 nm and wavelength of 930 ⁇ 30 nm) are emitted. provided.
  • FIG. 41 is a plan view showing in detail the pixel circuit section 13Q of the seventh embodiment.
  • the arithmetic circuit 17Q receives the voltages Vout1 and Vout2 output by the pixel circuit section 13Q.
  • Arithmetic circuit 17Q outputs distance image 203 including distance information to imaging target 101 and visible light image 201 of imaging target 101 .
  • the distance image 203 includes distance information obtained using the time-of-flight of the irradiation pulsed light LP and the reflected pulsed light LR .
  • the readout portion 22Q of the pixel circuit portion 13Q has a first charge readout region 22-1 , a second charge readout region 22-2 , a third charge readout region 22-3 , and a fourth charge readout region 22-4 .
  • the first charge readout region 22 1 , the second charge readout region 22 2 and the third charge readout region 22 3 accumulate near-infrared photocharges for obtaining the range image 203 .
  • a fourth charge readout region 224 accumulates visible light charges for obtaining a visible light image 201 .
  • the pixel circuit section 13Q has a first transfer control gate 25-1 , a second transfer control gate 25-2 , a third transfer control gate 25-3 , and a fourth transfer control gate 25-4 .
  • the first transfer control gate 25-1 permits or prohibits charge transfer from the photoelectric conversion region 21 to the first charge readout region 22-1 .
  • the second transfer control gate 25 2 , the third transfer control gate 25 3 and the fourth transfer control gate 25 4 are connected from the photoelectric conversion region 21 to the second charge readout region 22 2 , the third charge readout region 22 3 and the fourth charge readout region 22 3 .
  • Permission and prohibition of charge transfer by the first transfer control gate 25 1 , the second transfer control gate 25 2 , the third transfer control gate 25 3 and the fourth transfer control gate 25 4 are controlled by the first transfer control pulse G 1 , the It is controlled by a second transfer control pulse G 2 , a third transfer control pulse G 3 and a fourth transfer control pulse G 4 .
  • the pixel circuit section 13Q has a discharge control gate 25D.
  • the discharge control gate 25D permits or prohibits transfer from the photoelectric conversion region 21 to the charge discharge region 23.
  • FIG. Permission and inhibition of charge transfer by the discharge control gate 25D is controlled by the discharge control pulse GD .
  • the pixel circuit section 13Q has a detection section 26Q.
  • the detection section 26Q has a first voltage detection means 26QA and a second voltage detection means 26QB .
  • the first voltage detection means 26QA reads the voltage based on the charge accumulated in the first charge readout region 22-1 or the voltage based on the charge accumulated in the third charge readout region 22-3 .
  • the second voltage detection means 26QB reads the voltage based on the charge accumulated in the second charge readout region 22-2 or the voltage based on the charge accumulated in the fourth charge readout region 22-4 .
  • the first voltage detection means 26QA has a first read control gate 28-1 , a third read control gate 28-3 , and a first floating diffusion region FD- A .
  • the first readout control gate 28-1 permits or inhibits charge transfer from the first charge readout region 22-1 to the first floating diffusion region FD -A .
  • the third readout control gate 28-3 permits or inhibits charge transfer from the third charge readout region 22-3 to the first floating diffusion region FD -A .
  • the first charge readout region 22-1 and the third charge readout region 22-3 share the first floating diffusion region FD A for reading voltage.
  • the permission and prohibition of charge transfer by the first read control gate 28-1 and the third read control gate 28-3 are controlled by the first read signal T1 and the third read signal T3 .
  • a read circuit including a read transistor 26a, a select transistor 26b, and a reset transistor 26c is connected to the first floating diffusion region FD A. Since the configuration of the readout circuit is the same as that of the solid-state imaging device 1A shown in FIG. 7 and the like, detailed description thereof will be omitted.
  • the second voltage detection means 26QB has a second read control gate 282 , a fourth read control gate 284 , and a second floating diffusion region FDB .
  • the second readout control gate 28_2 permits or inhibits charge transfer from the second charge readout region 22_2 to the second floating diffusion region FD_B .
  • the fourth readout control gate 28-4 permits or inhibits charge transfer from the fourth charge readout region 22-4 to the second floating diffusion region FD -B .
  • the second charge readout region 22-2 and the fourth charge readout region 22-4 share the second floating diffusion region FD -B for reading voltage.
  • the permission and prohibition of charge transfer by the second read control gate 28_2 and the fourth read control gate 28_4 are controlled by the second read signal T2 or the fourth read signal T4 .
  • a read circuit including a read transistor 26a, a select transistor 26b, and a reset transistor 26c is connected to the second floating diffusion region FDB .
  • a detailed description of the configuration of the readout circuit is omitted.
  • FIG. 42 is a timing chart showing control pulses applied to the pixel array 12Q of the seventh embodiment.
  • the pixel array 12Q has a green pixel p1Q, a red pixel p2Q, a blue pixel p3Q, and a green pixel p4Q.
  • Green pixel p1Q, red pixel p2Q, blue pixel p3Q and green pixel p4Q each receive the control pulse shown in FIG.
  • the control pulses received by each of green pixel p1Q, red pixel p2Q, blue pixel p3Q and green pixel p4Q are the same.
  • the gate driver circuit 32 of the seventh embodiment performs a first operation W1, a second operation W2, and a third operation W3.
  • the gate driver circuit 32 performs the first operation W1, the second operation W2 and the third operation W3 in this order.
  • the gate driver circuit 32 performs a first operation W1.
  • the gate driver circuit 32 performs the second operation W2 after performing the first operation W1.
  • the gate driver circuit 32 performs the third operation W3 after performing the second operation W2.
  • the gate driver circuit 32 performs the first operation W1 again.
  • a first operation W1 obtains the range image 203 .
  • the light source driver circuit 31 starts emitting the irradiation pulse light L P .
  • the gate driver circuit 32 switches the first transfer control pulse G1 from low to high.
  • the timing of switching the first transfer control pulse G1 from low to high may coincide with the timing of starting emission of the irradiation pulse light LP .
  • the gate driver circuit 32 switches the first transfer control pulse G1 from high to low.
  • the light source driver circuit 31 stops emitting the irradiation pulse light L P .
  • the period during which the first transfer control pulse G1 is high may be slightly shorter than the emission period of the irradiation pulse light LP .
  • the gate driver circuit 32 switches the second transfer control pulse G2 from low to high.
  • the timing for switching the second transfer control pulse G2 from low to high may coincide with the timing for the light source driver circuit 31 to stop emitting the irradiation pulse light LP .
  • the time from the timing when the first transfer control pulse G1 switches from low to high to the timing when the second transfer control pulse G2 switches from low to high may be the same as the emission period of the irradiation pulse light LP . .
  • the gate driver circuit 32 keeps the second transfer control pulse G2 high for the same period that the first transfer control pulse G1 is high. After that, the gate driver circuit 32 switches the second transfer control pulse G2 from high to low.
  • the gate driver circuit 32 switches the third transfer control pulse G3 from low to high.
  • the gate driver circuit 32 keeps the third transfer control pulse G3 high for the same period that the first transfer control pulse G1 is high .
  • the gate driver circuit 32 switches the third transfer control pulse G3 from high to low.
  • the second action W2 is to secure the waiting time WT. Since light is incident on the photoelectric conversion region 21 also during the waiting time WT, charges are generated. However, this charge does not accumulate. The charges generated during the waiting time WT are discharged to the charge discharging region 23 . The charge generated during the waiting time WT is neither used to generate the visible light image 201 nor used to generate the distance image 203 .
  • the waiting time WT may be longer than the time of the first action W1, for example.
  • the waiting time WT may be shorter than the time of the third action W3.
  • the waiting time WT is for reducing the influence of the reflected pulsed light LR on the visible light image 201 .
  • the visible light image 201 is obtained in the third operation W3.
  • Charges for obtaining the visible light image 201 are accumulated in the fourth charge readout region 224 .
  • the charge accumulated in the fourth charge readout region 224 is generated only by visible light components.
  • the charge generated by the reflected pulsed light LR is accumulated in the fourth charge readout region 224 , it becomes noise. Therefore, a sufficient time period is provided between the emission of the irradiation pulse light L P and the accumulation of charges caused by visible light. Reflected pulsed light L R reflected by an object at a very long distance is incident on the photoelectric conversion region 21 .
  • the reflected pulsed light L R is sufficiently attenuated while traveling a long distance. Therefore, in the third operation W3, the charge caused by the reflected pulsed light L to R has little effect on the charge caused by the visible light. It can also be considered that the reflected pulsed light LR does not substantially enter the photoelectric conversion region 21 during the third operation W3. As a result, the influence of the reflected pulsed light LR on the visible light image 201 is suppressed.
  • the gate driver circuit 32 switches the emission control pulse GD from low to high.
  • the gate driver circuit 32 keeps the discharge control pulse GD high for a predetermined time.
  • the time during which the discharge control pulse GD remains high is the standby time WT described above.
  • a third operation W3 obtains a visible light image 201 .
  • the gate driver circuit 32 switches the emission control pulse GD from high to low.
  • the gate driver circuit 32 switches the fourth transfer control pulse G4 from low to high.
  • the gate driver circuit 32 maintains the state where the fourth transfer control pulse G4 is high for a predetermined time.
  • the gate driver circuit 32 switches the fourth transfer control pulse G4 from high to low.
  • the gate driver circuit 32 switches the emission control pulse GD from low to high.
  • the solid-state imaging device 1Q of the seventh embodiment includes a light source 11 that generates an irradiation pulsed light LP having a wavelength component of near-infrared light, and a visible light charge that corresponds to visible light.
  • a pixel array 12Q including a plurality of pixels p1Q, p2Q, p3Q, and p4Q for generating near-infrared photocharges in response to reflected pulsed light L R having a wavelength component of the resulting near-infrared light; a gate driver circuit 32 for providing transfer control pulses G 1 , G 2 , G 3 , G 4 and discharge control pulses GD for controlling the transfer of photocharges to the pixels p1Q, p2Q, p3Q, p4Q.
  • Each of the plurality of pixels p1Q, p2Q, p3Q, and p4Q receives the visible light charge from the photoelectric conversion region 21 that generates the visible light charge and the near-infrared light charge, and receives the visible light charge from the photoelectric conversion region 21 in response to the transfer control pulse G4 .
  • Charge readout regions 22 1 , 22 2 , 22 3 which receive near-infrared light charges from the photoelectric conversion region 21 in accordance with the charge readout region 22 4 and transfer control pulses G 1 , G 2 , G 3 , and discharge control pulse G D and a charge discharging region 23 for discharging visible light charges and/or near-infrared light charges from the photoelectric conversion region 21 in response to .
  • the gate driver circuit 32 applies transfer control pulses G 1 , G 2 , and G 3 for allocating near-infrared photocharges from the photoelectric conversion region 21 to the charge readout regions 22 1 , 22 2 , and 22 3 respectively to the pixels p1Q, p2Q, and p3Q. , p4Q, and after the first operation W1, a discharge control pulse GD for discharging visible light charges and/or near-infrared light charges from the photoelectric conversion region 21 is applied to the pixels p1Q, p2Q, p3Q, and p4Q.
  • a transfer control pulse G4 for transferring visible light charges from the photoelectric conversion region 21 to the charge readout region 224 is given to the pixels p1Q, p2Q, p3Q, and p4Q. Operation W3 and, are performed.
  • the solid-state imaging device 1Q can obtain a distance image 203 including distance information to the imaging target 101 by the first operation W1.
  • the solid-state imaging device 1Q can obtain the visible light image 201 of the imaging target 101 by the third operation W3. Therefore, the solid-state imaging device 1Q can simultaneously acquire the visible light image 201 and the range image 203 based on near-infrared light.
  • a second operation W2 for discharging the charges generated in the photoelectric conversion region 21 is performed.
  • a predetermined waiting time WT is provided between the first operation W1 for obtaining the distance image 203 and the third operation W3 for obtaining the visible light image 201 .
  • the solid-state imaging device 1Q can obtain the visible light image 201 in which the influence of near-infrared light is suppressed.
  • a pixel array 12Q of the solid-state imaging device 1Q includes a green pixel p1Q, a red pixel p2Q, a blue pixel p3Q, and a green pixel p4Q.
  • the red pixel p2Q includes a wavelength selection filter 27R (first filter) that transmits the reflected pulsed light LR as well as the red wavelength component (first wavelength component) contained in visible light.
  • the green pixels p1Q and p4Q include a wavelength selection filter 27G (second filter) that transmits the reflected pulsed light LR and the green wavelength component (second wavelength component) that is shorter than the red wavelength component.
  • the blue pixel p3Q includes a wavelength selection filter 27B (third filter) that transmits the reflected pulsed light LR and a blue wavelength component (third wavelength component) that is shorter than the green wavelength component contained in visible light. Also with this configuration, the solid-state imaging device 1Q can obtain the visible light image 201 in which the influence of near-infrared light is suppressed.
  • a solid-state imaging device 1Q1 which is a modification of the solid-state imaging device 1Q of the seventh embodiment, will be described.
  • FIG. 43 is a plan view showing the pixel array 12Q1 included in the solid-state imaging device 1Q1 of the modification of the seventh embodiment.
  • the pixel array 12Q1 has a green pixel p1Q, a red pixel p2Q, a blue pixel p3Q, and a near-infrared pixel p4Q1 . That is, the solid-state imaging device 1Q- 1 of the modification is obtained by replacing the green pixel p4Q of the seventh embodiment with the near-infrared pixel p4Q- 1 .
  • the green pixel p1Q, red pixel p2Q, and blue pixel p3Q included in the solid-state imaging device 1Q1 of the modification are the same as the green pixel p1Q, red pixel p2Q, and blue pixel p3Q included in the solid-state imaging device 1Q of the seventh embodiment. .
  • FIG. 44 is a cross-sectional view showing the structure of a pixel array 12Q1 of a modification of the seventh embodiment.
  • the near-infrared pixel p4Q1 includes a near-infrared light selection filter 27Q1 .
  • the near-infrared light selection filter 27Q1 selectively transmits the reflected pulsed light LR .
  • the near-infrared light selection filter 27Q1 may be a bandpass filter (BPF) that passes only light components in the NIR band around 940 nm (see FIG. 45(a)).
  • the near-infrared light selection filter 27Q1 may be, for example, a high-pass filter (HPF) that passes only light components in the NIR band of 860 nm or longer (see FIG. 45(b)).
  • BPF bandpass filter
  • HPF high-pass filter
  • the green pixel p1Q , red pixel p2Q, and blue pixel p3Q that make up the pixel array 12Q1 receive a common control pulse from the gate driver circuit 32, as in the seventh embodiment.
  • the transfer control pulse G4 having the same pulse width as the transfer control pulses G1, G2, and G3 is received in the first operation W1 following the transfer control pulse G3. good too.
  • a pixel array 12Q1 of the solid-state imaging device 1Q1 includes a green pixel p1Q, a red pixel p2Q, a blue pixel p3Q, and a near-infrared pixel p4Q1 .
  • the red pixel p2Q includes a wavelength selection filter 27R (first filter) that transmits the reflected pulsed light LR as well as the red wavelength component (first wavelength component) contained in visible light.
  • the green pixels p1Q and p4Q include a wavelength selection filter 27G (second filter) that transmits the reflected pulsed light LR and the green wavelength component (second wavelength component) that is shorter than the red wavelength component.
  • the blue pixel p3Q includes a wavelength selection filter 27B (third filter) that transmits the reflected pulsed light LR and a blue wavelength component (third wavelength component) that is shorter than the green wavelength component contained in visible light.
  • the near-infrared pixel p4Q1 includes a near-infrared light selection filter 27Q1 that selectively transmits only the reflected pulsed light LR . According to this configuration, the near-infrared pixel p4Q1 selectively transmits only the reflected pulsed light L to R , so that resistance to ambient light can be enhanced.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Power Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

固体撮像装置、光源と、可視光に応じる電荷を発生させる緑画素、赤画素び青画素と、近赤外光に応じる電荷を発生させる近赤外画素と、電荷の転送を制御する第1転送制御パルスを緑画素、赤画素、青画素及び近赤外画素に与えるゲートドライバ回路と、を備える。緑画素、赤画素、青画素及び近赤外画素は、光電変換領域と、電荷の転送を受ける読出部と、光電変換領域から電荷を排出する電荷排出領域と、をそれぞれ有する。

Description

固体撮像装置
 本開示は、固体撮像装置に関する。
 可視光の画像に加えて、可視光の画像とは別の画像を得る技術が検討されている。可視光の画像とは別の画像は、例えば、近赤外光の画像である。可視光の画像とは別の画像は、例えば、距離情報を有する画像である。
 特許文献1及び特許文献2は、可視光の画像と距離情報を有する画像とを得る撮像装置を開示する。特許文献1の固体撮像装置は、可視光の画像を得るための画素と、距離情報を有する画像を得るための画素と、を有する。特許文献2のイメージング装置は、ある画素において、可視光の画像を得る動作を行った後に距離情報を有する画像を得る動作を行う。
特開2020-188275号公報 特開2010-35168号公報
 可視光の画像とは別の画像として、近赤外光の画像と距離情報を有する画像とを例示した。これらの画像は、いずれも画素が近赤外光を受けることによって得られる。近赤外光の画像を得る場合には、補助光として光源から近赤外光を対象物に向けて照射する。光源から照射された近赤外光が可視光の画像を得るための画素に入射すると、ノイズ成分になる。
 例えば、近赤外光がノイズとして混入した可視光の画像から、近赤外光の影響を除く演算処理を事後的に行う手段が考えられる。しかし、近赤外光がノイズとして混入した可視光の画像から、近赤外光の影響を完全に除く演算処理は困難である。例えばショットノイズが残ってしまう。その結果、近赤外光がノイズとして混入した可視光の画像は、いわゆるS/N比が低下してしまう。
 例えば、近赤外光の透過を妨げるフィルタを用いる手段も考えられる。可視光の画像を撮像するときには、近赤外光の透過を妨げるフィルタを適用する。近赤外光の画像を撮像するときには、近赤外光の透過を妨げるフィルタの適用を除外する。フィルタの切替には、わずかながらの時間を要する。従って、可視光の画像と近赤外光の画像とを同時に取得することが難しい。フィルタの切替のための付加的な機構を要する。付加的な機構の適用は、固体撮像装置の製造コスト及び撮像動作の信頼性において不利である。
 本開示は、可視光の画像と近赤外光の画像とを同時に取得する固体撮像装置であって、近赤外光の影響が抑制された可視光の画像を得ることが可能な固体撮像装置を説明する。
 本開示の一形態である固体撮像装置は、近赤外光の波長成分を有するパルス光を発生させる光源と、少なくとも可視光の波長成分を含む第1光を受けて、第1光に応じる電荷を第1画素回路部によって発生させる第1画素と、少なくとも近赤外光の波長成分を含む第2光を受けて、第2光に応じる電荷を第2画素回路部によって発生させる第2画素と、電荷の転送を制御する制御パルスを第1画素及び第2画素に与える電荷転送制御手段と、を備える。第1画素回路部及び第2画素回路部は、電荷を発生させる光電変換領域と、制御パルスに応じて光電変換領域から電荷の転送を受ける読出部と、制御パルスに応じて光電変換領域から電荷を排出する電荷排出領域と、をそれぞれ有する。
 固体撮像装置は、可視光の波長成分を含む第1光を受けて電荷を発生させる画素と、近赤外光の波長成分を含む第2光を受けて電荷を発生させる画素と、を含む。従って、可視光の画像と近赤外光の画像とを同時に取得することができる。この構成によると、固体撮像装置は、近赤外光のパルス光が発生しているときに、可視光の波長成分を含む第1光に起因する電荷を発生させる画素において発生した電荷を、電荷排出領域に排出するという動作を行うことができる。従って、近赤外光の影響が抑制された可視光の画像を得ることができる。
 上記の固体撮像装置の電荷転送制御手段は、パルス光の照射期間と重複する期間において、第1画素回路部の光電変換領域から第1画素回路部の電荷排出領域へ電荷を排出させる制御パルスを、第1画素回路部に与えてもよい。この動作によれば、近赤外光の影響が抑制された可視光の画像を得ることができる。
 上記の固体撮像装置の第1画素回路部の読出部は、第1電荷読出領域と第2電荷読出領域とを含んでもよい。電荷転送制御手段は、パルス光の照射期間と重複しない期間において、第1画素回路部の光電変換領域から第1画素回路部の第1電荷読出領域へ電荷を転送させる制御パルスを第1画素回路部に与えた後に、第1画素回路部の光電変換領域から第1画素回路部の第2電荷読出領域へ電荷を転送させる制御パルスを第1画素回路部に与えてもよい。この構成によれば、ダイナミックレンジを拡大することができる。
 上記の固体撮像装置において、第1画素回路部の光電変換領域から第1画素回路部の第1電荷読出領域へ電荷を転送させる制御パルスの期間及び記第1画素回路部の光電変換領域から第1画素回路部の第2電荷読出領域へ電荷を転送させる制御パルスの期間のうち、一方の期間は他方の期間より、短くてもよい。この構成によれば、ダイナミックレンジを拡大することができる。
 上記の固体撮像装置は、電荷に基づく画像を得る演算回路をさらに備えてもよい。演算回路は、第1電荷読出領域に蓄積された電荷に基づく第1画像又は第2電荷読出領域に蓄積された電荷に基づく第2画像の少なくとも一方を得てもよい。この構成によれば、感度の高い可視光画像及び感度の低い可視光画像を得ることができる。
 上記の固体撮像装置の第2画素回路部の読出部は、第1電荷読出領域と第2電荷読出領域とを含んでもよい。電荷転送制御手段は、パルス光の照射期間と重複する期間において、第2画素回路部の光電変換領域から第2画素回路部の第1電荷読出領域へ電荷を転送させる制御パルスを、第2画素回路部に与えてもよい。パルス光の照射期間と重複しない期間において、第2画素回路部の光電変換領域から第2画素回路部の第2電荷読出領域へ電荷を転送させる制御パルスを第2画素回路部に与えてもよい。この構成によれば、背景光の影響が抑制された近赤外画像を得ることができる。
 上記の固体撮像装置において、第2画素回路部の光電変換領域から第2画素回路部の第1電荷読出領域へ電荷を転送させる制御パルスの期間は、第2画素回路部の光電変換領域から第2画素回路部の電荷排出領域へ電荷を転送させる制御パルスと等しくてもよい。この構成によれば、背景光の影響が抑制された近赤外画像を得ることができる。
 上記の固体撮像装置は、電荷に基づく画像を得る演算回路をさらに備えてもよい。演算回路は、第2電荷読出領域へ蓄積された電荷を用いて、第1電荷読出領域へ蓄積された電荷に含まれた背景光に対応する成分を除去してもよい。この構成によれば、背景光の影響が抑制された近赤外画像を得ることができる。
 上記の固体撮像装置の光源は、パルス光を対象物に向けて照射してもよい。第2画素回路部の読出部は、第1電荷読出領域と第2電荷読出領域とを含んでもよい。電荷転送制御手段は、対象物からの反射パルス光が入射する期間を含むように、第2画素回路部の光電変換領域から第2画素回路部の第1電荷読出領域へ電荷を転送させる制御パルスを、第2画素回路部に与えた後に、第2画素回路部の光電変換領域から第2画素回路部の第2電荷読出領域へ電荷を転送させる制御パルスを、第2画素回路部に与えてもよい。この構成によれば、距離情報を有する近赤外画像を得ることができる。
 上記の固体撮像装置の第2画素回路部の読出部は、第3電荷読出領域をさらに含んでもよい。電荷転送制御手段は、対象物からの反射パルス光が入射しない期間において、第2画素回路部の光電変換領域から第2画素回路部の第3電荷読出領域へ電荷を転送させる制御パルスを、第2画素回路部に与えてもよい。この構成によれば、背景光の影響が抑制された距離情報を有する近赤外画像を得ることができる。
 上記の固体撮像装置は、電荷に基づく画像を得る演算回路をさらに備えてもよい。上記の固体撮像装置は、第1電荷読出領域へ蓄積された電荷と第2電荷読出領域へ蓄積された電荷とを用いて、対象物までの距離を得てもよい。この構成によれば、対象物までの距離を得ることができる。
 上記の固体撮像装置の第1画素回路部の読出部は、第1電荷読出領域と第2電荷読出領域とを含んでもよい。電荷転送制御手段は、第1動作と第2動作とを選択的に実行してもよい。第1動作は、パルス光の照射期間と重複する期間において、第1画素回路部の光電変換領域から第1画素回路部の電荷排出領域へ電荷を転送させる制御パルスを、第1画素回路部に与えてもよい。パルス光の照射期間と重複しない期間において、第1画素回路部の光電変換領域から第1画素回路部の第1電荷読出領域へ電荷を転送させた後に、第1画素回路部の光電変換領域から第1画素回路部の第2電荷読出領域へ電荷を転送させる制御パルスを、第1画素回路部に与えてもよい。第2動作は、パルス光の照射期間と重複する期間において、第1画素回路部の光電変換領域から第1画素回路部の第1電荷読出領域へ電荷を転送させる制御パルスを第1画素回路部に与えてもよい。パルス光の照射期間と重複しない期間において、第1画素回路部の光電変換領域から第1画素回路部の第2電荷読出領域へ電荷を転送させる制御パルスを第1画素回路部に与えてもよい。この構成によれば、1個の画素によって、可視光に起因する電荷と、近赤外光に起因する電荷と、を選択的に得ることができる。
 上記の固体撮像装置において、第1画素は、第1光に応じる可視光電荷を発生させると共に、第2光に応じる近赤外光電荷も発生させてもよい。第2画素は、第2光に応じる近赤外光電荷を発生させると共に、第1光に応じる可視光電荷も発生させてもよい。電荷転送制御手段は、可視光電荷及び近赤外光電荷の転送を制御する制御パルスを第1画素及び第2画素に与えてもよい。光電変換領域は、可視光電荷及び近赤外光電荷を発生させてもよい。読出部は、制御パルスに応じて光電変換領域から可視光電荷の転送を受ける少なくとも1個の可視光電荷読出領域と、制御パルスに応じて光電変換領域から近赤外光電荷の転送を受ける少なくとも2個の近赤外光電荷読出領域と、を含んでもよい。電荷排出領域は、制御パルスに応じて光電変換領域から可視光電荷及び近赤外光電荷を排出してもよい。電荷転送制御手段は、光電変換領域から少なくとも2個の近赤外光電荷読出領域のそれぞれに近赤外光電荷を振り分ける制御パルスを第1画素及び第2画素に与える第1動作と、第1動作の後に、光電変換領域から可視光電荷及び/又は近赤外光電荷を排出する制御パルスを第1画素及び第2画素に与える第2動作と、第2動作の後に、光電変換領域から可視光電荷読出領域に可視光電荷を転送する制御パルスを第1画素及び第2画素に与える第3動作と、を行ってもよい。
 上記の固体撮像装置は、第1動作によって撮像対象までの距離情報を含む距離画像を得ることができる。固体撮像装置は、第3動作によって撮像対象の可視光画像を得ることができる。従って、固体撮像装置は、可視光の画像と近赤外光の画像とを同時に取得することができる。第1動作と第3動作の間には、光電変換領域に発生した電荷を排出する第2動作が行われる。距離画像を得る第1動作から、可視光画像を得る第3動作までの間に、所定の待機時間が設けられる。待機時間によれば、第1動作のために発生したパルス光が、第3動作が行われるまでの間に十分に減衰する。従って、固体撮像装置は、近赤外光の影響が抑制された可視光の画像を得ることができる。
 上記の固体撮像装置は、第1光に応じる可視光電荷を発生させると共に、第2光に応じる近赤外光電荷を発生させる第3画素及び第4画素をさらに備えてもよい。第1画素は、近赤外光の波長成分を透過すると共に、可視光に含まれる波長成分のうち第1波長成分のみを透過する第1フィルタを含んでもよい。第2画素は、近赤外光の波長成分を透過すると共に、可視光に含まれる波長成分のうち第1波長成分よりも短い第2波長成分のみを透過する第2フィルタを含んでもよい。第3画素は、近赤外光の波長成分を透過すると共に、可視光に含まれる波長成分のうち第2波長成分よりも短い第3波長成分のみを透過する第3フィルタを含んでもよい。第4画素は、第1フィルタ、第2フィルタ及び第3フィルタのいずれか一つを含んでもよい。この構成によっても、固体撮像装置は、近赤外光の影響が抑制された可視光の画像を得ることができる。
 上記の固体撮像装置は、第1光に応じる可視光電荷を発生させると共に、第2光に応じる近赤外光電荷を発生させる第3画素及び第4画素をさらに備えてもよい。第1画素は、近赤外光の波長成分を透過すると共に、可視光に含まれる波長成分のうち第1波長成分のみを透過する第1フィルタを含んでもよい。第2画素は、近赤外光の波長成分を透過すると共に、可視光に含まれる波長成分のうち第1波長成分よりも短い第2波長成分のみを透過する第2フィルタを含んでもよい。第3画素は、近赤外光の波長成分を透過すると共に、可視光に含まれる波長成分のうち第2波長成分よりも短い第3波長成分のみを透過する第3フィルタを含んでもよい。第4画素は、近赤外光の波長成分を有する光のみを選択的に透過する近赤外光選択フィルタを含んでもよい。この構成によれば、第4画素は、パルス光に起因する近赤外光の波長成分を有する光のみを選択的に透過するので、外乱光への耐性を高めることができる。
 本開示によれば、可視光の画像と近赤外光の画像とを同時に取得する固体撮像装置であって、近赤外光の影響が抑制された可視光の画像を得ることができる固体撮像装置が提供される。
図1は、第1実施形態の固体撮像装置の主要な構成要素を示す図である。 図2は、第1実施形態の固体撮像装置を構成する要素の電気的な接続構成を示す図である。 図3は、第1実施形態の画素アレイを示す平面図である。 図4は、第1実施形態の画素アレイの構造を示す断面図である。 図5は、波長選択フィルタの特性を示すグラフである。 図6は、第1実施形態の固体撮像装置の構成を詳細に示すブロック図である。 図7は、第1実施形態の画素回路部を詳細に示す平面図である。 図8は、第1実施形態の画素アレイに与えられる制御パルスを示すタイミングチャートである。 図9は、第2実施形態の画素アレイを示す平面図である。 図10は、第2実施形態の固体撮像装置の構成を詳細に示すブロック図である。 図11は、第2実施形態の近赤外画素が備える画素回路部を詳細に示す平面図である。 図12は、第2実施形態の画素アレイに与えられる制御パルスを示すタイミングチャートである。 図13は、第3実施形態の固体撮像装置の構成を詳細に示すブロック図である。 図14は、第3実施形態の画素アレイを示す平面図である。 図15は、第3実施形態の固体撮像装置を構成する要素の電気的な接続構成を示す図である。 図16は、第3実施形態の近赤外画素が備える画素回路部を詳細に示す平面図である。 図17は、第3実施形態の画素アレイに与えられる制御パルスを示すタイミングチャートである。 図18は、第4実施形態の画素アレイを示す平面図である。 図19は、第4実施形態の固体撮像装置の動作を示す図である。 図20は、第4実施形態の画素アレイに与えられる制御パルスを示すタイミングチャートである。 図21は、第4実施形態の画素アレイに与えられる別の制御パルスを示すタイミングチャートである。 図22は、第5実施形態の画素アレイを示す平面図である。 図23は、第5実施形態の固体撮像装置の動作を示す図である。 図24(a)は、第5実施形態の画素アレイに与えられる制御パルスを示すタイミングチャートである。図24(b)は、第5実施形態の画素アレイに与えられる別の制御パルスを示すタイミングチャートである。 図25は、第5実施形態の画素アレイに与えられるさらに別の制御パルスを示すタイミングチャートである。 図26は、第6実施形態の画素アレイを示す平面図である。 図27は、第6実施形態の固体撮像装置の構成を詳細に示すブロック図である。 図28は、第6実施形態の近赤外画素が備える画素回路部を詳細に示す平面図である。 図29は、第6実施形態の画素アレイに与えられる制御パルスを示すタイミングチャートである。 図30は、変形例1の固体撮像装置が備える画素回路部を示す平面図である。 図31は、変形例2の固体撮像装置が備える画素回路部を示す平面図である。 図32は、変形例3の固体撮像装置が備える画素回路部を示す平面図である。 図33は、変形例4の固体撮像装置が備える画素アレイの構造を示す断面図である。 図34は、変形例5の固体撮像装置が備える画素アレイの構造を示す断面図である。 図35は、変形例6の固体撮像装置が備える画素アレイの構造を示す断面図である。 図36は、変形例7の固体撮像装置が備える画素アレイの構造を示す断面図である。 図37(a)、図37(b)及び図37(c)は、波長選択フィルタの特性を示すグラフである。 図38は、第7実施形態の固体撮像装置の原理を示す図である。 図39は、第7実施形態の固体撮像装置が備える画素パネルの平面図である。 図40は、第7実施形態の画素アレイの構造を示す断面図である。 図41は、第7実施形態の画素回路部を詳細に示す平面図である。 図42は、第7実施形態の画素アレイに与えられる制御パルスを示すタイミングチャートである。 図43は、第7実施形態の変形例の固体撮像装置が備える画素パネルを示す平面図である。 図44は、第7実施形態の変形例の画素アレイの構造を示す断面図である。 図45(a)及び図45(b)は、第7実施形態の変形例の画素アレイが備える近赤外光選択フィルタの特性を示すグラフである。
 以下、図面を参照しつつ本開示の固体撮像装置について詳細に説明する。図面の説明では、同一又は相当する部分には同一の符号を付す。重複する説明は省略する。
〔第1実施形態〕
 図1に示す第1実施形態の固体撮像装置1Aは、撮像対象101の可視光の画像と、近赤外光の画像と、を同時に撮像する。可視光の画像は、以下「可視光画像201」と称する。近赤外光の画像は、「近赤外光画像202」と称する。「同時に撮像する」とは、1フレームの間に可視光画像201及び近赤外光画像202を両方得ることをいう。
 固体撮像装置1Aは、近赤外光画像202を得るときに、光源11から近赤外光の波長である照射パルス光Lを撮像対象101に向けて照射する。固体撮像装置1Aは、照射パルス光Lの影響が抑制された可視光画像201を出力することができる。従って、固体撮像装置1Aが出力する可視光画像201のS/N比は、良好である。
 図1に示すように、固体撮像装置1Aは、光源11と、画素パネル2Aと、周辺回路4と、を有する。
 光源11は、近赤外光領域の波長を有する照射パルス光Lを発生させる。光源11は、例えば、半導体発光素子と、半導体発光素子の駆動回路と、を含む。半導体発光素子としては、発光ダイオード又はレーザダイオードが例示される。照射パルス光Lの波長帯は、例えば、860±30ナノメートルである。照射パルス光Lの別の波長帯は、例えば、930±30ナノメートルである。
 画素パネル2Aは、複数の画素アレイ12Aを含む。複数の画素アレイ12Aは、列方向及び行方向に沿って二次元アレイ状に配置されている。複数の画素アレイ12Aは、可視光線L及び反射パルス光Lを受けることにより、検出信号を生成する。
 周辺回路4は、光源11の動作を制御する制御信号を出力する。周辺回路4は、光源11のための光源ドライバ回路31を含む。光源ドライバ回路31は、光源11から照射パルス光Lを出射するタイミング、照射パルス光Lの強度及び照射パルス光Lのパルス幅などを制御する。例えば、光源ドライバ回路31は、1フレームとして定義される期間内に、照射パルス光Lを互いに等しい時間間隔をもって、繰り返し発生させる。
 周辺回路4は、画素パネル2Aの動作を制御する制御信号を出力する。周辺回路4は、画素パネル2Aのためのゲートドライバ回路32と、信号読出回路15と、を含む。周辺回路4は、画素パネル2Aが出力する検出信号を利用して、可視光画像201及び近赤外光画像202を生成する。
 周辺回路4は、可視光画像201及び近赤外光画像202を生成するための演算回路17を含む。演算回路17は、信号読出回路15から出力されたデジタル値である検出信号を利用して、可視光画像201及び近赤外光画像202を生成するための各種の処理を実行する。
 図2は、複数の画素アレイ12Aと周辺回路4との接続構成の一例を示す。複数の画素アレイ12Aは、それぞれ、緑画素p1Sと、赤画素p2Sと、青画素p3Sと、近赤外画素p4Sと、を含む。緑画素p1S、赤画素p2S及び青画素p3Sは、請求項に規定する「第1画素」である。近赤外画素p4Sは、請求項に規定する「第2画素」である。画素アレイ12Aは、可視光を構成する緑成分(G成分)と、赤成分(R成分)と、青成分(B成分)と、のそれぞれに対応する画素を含む。画素パネル2Aは、近赤外光の成分(NIR成分)に対応する画素を含む。
〔ゲートドライバ回路(電荷転送制御手段)〕
 ゲートドライバ回路32は、緑画素p1S、赤画素p2S、青画素p3S及び近赤外画素p4Sにおける電荷の転送を制御するための制御信号を発生する。ゲートドライバ回路32は、配線L1を介して緑画素p1S、赤画素p2S、青画素p3S及び近赤外画素p4Sに制御信号である第1転送制御パルスG及び排出制御パルスGを出力する。
 信号読出回路15は、垂直読出制御回路41と、水平読出制御回路42と、を含む。
 垂直読出制御回路41は、配線L2を介して緑画素p1S、赤画素p2S、青画素p3S及び近赤外画素p4Sに制御信号を出力する。垂直読出制御回路41は、例えば、j行目の行に配置された画素に対して、制御信号である第1読出信号T(j)と、リセット信号RT(j)と、選択信号SL(j)とを、出力する。
 水平読出制御回路42は、配線L3を介して緑画素p1S、赤画素p2S、青画素p3S及び近赤外画素p4Sから検出信号を得る。水平読出制御回路42は、各画素から出力された検出信号を行ごとにまとめて、後段の演算回路17に出力する。水平読出制御回路42は、電流源43(CSL:Current Source Load)と、アナログデジタル変換器45(ADC:Analog-to-Digital Converter)と、を介して、緑画素p1S、赤画素p2S、青画素p3S及び近赤外画素p4Sの出力を受ける。電流源43は、垂直読出制御回路41により選択された行に属する画素回路部13Sの第1電圧検出手段26から配線L3に流れる電流を供給する。アナログデジタル変換器45は、画素回路部13Sの第1電圧検出手段26が出力する電圧である検出信号を、デジタル信号に変換する。
 図3は、1個の画素アレイ12Aを平面視した図である。ある行でみると、緑画素p1Sと赤画素p2Sとがこの順で行方向に沿って配置されている。別の行でみると、青画素p3Sと近赤外画素p4Sとがこの順で行方向に沿って配置されている。ある列でみると、緑画素p1Sと青画素p3Sとがこの順で列方向に沿って配置されている。別の列でみると、赤画素p2Sと近赤外画素p4Sとがこの順で列方向に沿って配置されている。図3に示す配置は、例示である。従って、緑画素p1S、赤画素p2S、青画素p3S及び近赤外画素p4Sは、図3とは異なる配置であってもよい。
 緑画素p1Sは、波長選択フィルタ27Gと、画素回路部13S(第1画素回路部)と、を有する。赤画素p2Sは、波長選択フィルタ27Rと、画素回路部13Sと、を有する。青画素p3Sは、波長選択フィルタ27Bと、画素回路部13Sと、を有する。近赤外画素p4Sは、光透過部材27Tと、画素回路部13S(第2画素回路部)と、を有する。それぞれの画素が有する波長選択フィルタ27G、27R、27Bの特性が、互いに異なっている。第1実施形態の近赤外画素p4Sは、波長選択フィルタを備えない。近赤外画素p4Sは、波長選択フィルタに代えて光透過部材27Tを有する。光透過部材27Tは、波長選択性を備えていない。光透過部材27Tは、可視光及び近赤外光のいずれも透過する。
 図4は、画素パネル2Aの構造を示す断面図である。図4は、画素回路部13Sへ光を導く構造を示すことを意図している。従って、図4に示す緑画素p1S、赤画素p2S、青画素p3S及び近赤外画素p4Sの配置は、図3に示す緑画素p1S、赤画素p2S、青画素p3S及び近赤外画素p4Sの配置とは異なっている。
 図4に示すように、画素パネル2Aの上には、カバーガラス51が配置されている。カバーガラス51は、画素パネル2Aから離間している。例えば、赤画素p2Sの波長選択フィルタ27Rの表面には、レンズ27Sが配置されている。赤画素p2Sは、カバーガラス51を通過した後にレンズ27Sを通過した光を受ける。赤画素p2Sは、波長選択フィルタ27Rと、画素回路部13Sと、有する。波長選択フィルタ27Rは、画素回路部13Sを構成する半導体積層基板60の主面60sに配置されている。
 図4に示す画素パネル2Aの断面構造は、例示である。画素回路部13Sに至るまでの構成は、図4に示す断面構造に限定されない。断面構造の別の例示は、変形例4~6として後に説明する。
 半導体積層基板60は、下半導体層61と中半導体層62と上半導体層63とを含む。下半導体層61は、p型であり、半導体積層基板60の基体である。中半導体層62は、下半導体層61の上に設けられている。中半導体層62は、後述する光電変換領域21を構成するフォトダイオードPDを含む。中半導体層62は、後述する読出部22Sも含む。上半導体層63は、中半導体層62の上に設けられている。中半導体層62は、配線L1、L2、L3を含む配線部LSを有する。
 図5は、それぞれの波長選択フィルタ27G、27R、27Bが有する光透過特性を示す。光透過特性とは、波長に対する透過率を意味する。図5の横軸は、光の波長を示す。図5の縦軸は、光の透過率を示す。グラフG5aは、緑画素p1Sが有する波長選択フィルタ27Gの光透過特性を示す。グラフG5aによれば、緑画素p1Sが有する波長選択フィルタ27Gの第1の透過帯域は、550±50ナノメートルである。画素p1Sが有する波長選択フィルタ27Gの第2の透過帯域は、800ナノメートル以上である。グラフG5bは、赤画素p2Sが有する波長選択フィルタ27Rの光透過特性を示す。グラフG5bによれば、赤画素p2Sが有する波長選択フィルタ27Rの透過帯域は、650ナノメートル以上である。グラフG5cは、青画素p3Sが有する波長選択フィルタ27Bの光透過特性を示す。グラフG5cによれば、青画素p3Sが有する波長選択フィルタ27Bの第1の透過帯域は、450±50ナノメートルである。青画素p3Sが有する波長選択フィルタ27Bの第2の透過帯域は、800ナノメートル以上である。
 図5によれば、波長選択フィルタ27G、27R、27Bは、各色成分に対応する可視光帯域BVに加えて、800ナノメートル以上の近赤外光帯域BNも有する。波長選択フィルタ27G、27R、27Bは、各色成分の光を透過すると共に、近赤外光も透過する。
 図6は、画素回路部13Sに注目した機能ブロック図である。第1実施形態の固体撮像装置1Aにおいて、緑画素p1Sの画素回路部13S、赤画素p2Sの画素回路部13S、青画素p3Sの画素回路部13S及び近赤外画素p4Sの画素回路部13Sは、いずれも同じ構成を有する。以下、緑画素p1Sの画素回路部13Sを例に、詳細に説明する。
 図6に示すように、画素回路部13Sは、光電変換領域21と、読出部22Sと、検出部26Sと、を有する。光電変換領域21は、受けた光に応じた電荷を発生する。読出部22Sは、光電変換領域21から電荷の転送を受ける。画素回路部13Sの読出部22Sは、第1電荷読出領域22を有する。光電変換領域21から第1電荷読出領域22への電荷の転送は、第1転送制御ゲート25によって制御される。第1転送制御ゲート25は、ゲートドライバ回路32が出力する第1転送制御パルスGを受けて、光電変換領域21から第1電荷読出領域22への電荷の転送の許可と禁止とを相互に切り替える。検出部26Sは、読出部22Sに存在する電荷に応じた電圧を検出する。画素回路部13Sの検出部26Sは、第1電圧検出手段26を有する。第1電圧検出手段26が検出した電圧は、検出信号として、配線L3を介して信号読出回路15に出力される。電荷排出領域23も、光電変換領域21から電荷の転送を受ける。電荷排出領域23は、いわゆるドレインである。
 図7は、さらに具体的な画素回路部13Sの構造を示す平面図である。
 光電変換領域21は、受けた光に応じた電荷を発生させる。光電変換領域21は、検出の対象となる波長の光に対応して電荷を生成できればよい。電荷は、電荷収集領域21aを介して読出部22Sに移動する。
 光電変換領域21から読出部22Sへの電荷の移動は、第1転送制御ゲート25によって許可又は禁止される。第1転送制御ゲート25は、光電変換領域21と読出部22Sとの間に配置されている。第1転送制御ゲート25は、いわゆるMOSゲートの構造を採用する。MOSゲートの構造は、OFF特性が優れている。MOSゲートの構造は、OFF時の電位障壁(電位バリア)が大きい。MOSゲートの構造は、ゲート下に存在する電子に起因するいわゆる戻り電荷が発生しやすい。
 第1転送制御ゲート25は、MOSゲートの構造に限定されない。後述の変形例2、3に示すように、本件発明者らが開発したラテラル電界制御電荷変調素子(LEFM : Lateral Electric Field controlled charge Modulator)の原理に基づく構造を採用してもよい。
 光電変換領域21と読出部22Sとの間には、一対の電荷排出領域23が配置されている。より詳細には、一対の電荷排出領域23は、電荷収集領域21aを挟むように、電荷収集領域21aの脇に配置されている。電荷排出領域23は、検出対象ではない光に応じて発生した電荷を排出する。
 電荷収集領域21aと電荷排出領域23との間には、排出制御ゲート25が配置されている。排出制御ゲート25によって、光電変換領域21から電荷排出領域23への電荷の移動が許可又は禁止される。
 光電変換領域21で発生した電荷は、電荷排出領域23または読出部22Sのいずれか一方に移動する。
 読出部22Sは、光電変換領域21で発生した電荷の移動を受ける。読出部22Sは、電荷を一時的に蓄積する。読出部22Sは、第1電荷読出領域22を有する。第1電荷読出領域22は、光電変換領域21から移動した電荷を一時的に蓄積する。光電変換領域21からの電荷の移動は、1回であることもある。光電変換領域21からの電荷の移動は、複数回であることもある。複数回の電荷の移動を受け入れることにより、蓄積される電荷を増加させることができる。
 検出部26Sは、電荷の量に応じた電圧を検出する。検出部26Sは、第1浮遊拡散領域FDと、読出トランジスタ26aと、選択トランジスタ26bと、リセットトランジスタ26cと、を有する。
 第1浮遊拡散領域FDは、第1電荷読出領域22に蓄積された電荷の移動を受ける。第1電荷読出領域22と第1浮遊拡散領域FDとの間には、第1読出制御ゲート28が配置されている。第1読出制御ゲート28によって、第1電荷読出領域22から第1浮遊拡散領域FDへの電荷の移動が許可又は禁止される。
 読出トランジスタ26a及び選択トランジスタ26bは、制御信号に応じて、第1浮遊拡散領域FDに蓄積された電荷の量に応じた電圧を検出信号として出力する。リセットトランジスタ26cは、第1浮遊拡散領域FDに蓄積された電荷を排出する。
 読出トランジスタ26aのドレインは、電源VDDに接続されている。読出トランジスタ26aのゲートは、第1浮遊拡散領域FDに接続されている。読出トランジスタ26aのソースは、選択トランジスタ26bに接続されている。
 選択トランジスタ26bのドレインは、読出トランジスタ26aのソースに接続されている。選択トランジスタ26bのゲートは、選択信号SLを受ける。選択トランジスタ26bのソースは、配線L3に接続されている。
 リセットトランジスタ26cのドレインは、電源VDDに接続されている。リセットトランジスタ26cのゲートは、信号線からリセット信号RT(j)を受ける。リセットトランジスタ26cのソースは、第1浮遊拡散領域FDに接続されている。
〔動作/タイミングチャート〕
 次に、図8に示すタイミングチャートを参照しながら、固体撮像装置1Aの動作を説明する。以下の説明では、特に画素アレイ12Aの動作に注目する。
 図8において、最上段のチャートは、光源11から照射パルス光Lが照射されるタイミングを示す。チャートにおいて、レベルがロー(L)であるとき、照射パルス光Lは照射されない。この状態を「照射停止」と称する。チャートにおいて、レベルがハイ(H)であるとき、照射パルス光Lは照射される。この状態を「照射実行」と称する。
 図8において、第1転送制御パルスGは、ゲートドライバ回路32から緑画素p1S、赤画素p2S、青画素p3S及び近赤外画素p4Sのそれぞれの第1転送制御ゲート25に出力される。排出制御パルスGは、ゲートドライバ回路32から緑画素p1S、赤画素p2S、青画素p3S及び近赤外画素p4Sのそれぞれの排出制御ゲート25に出力される。第1転送制御パルスG及び排出制御パルスGは、信号レベルとしてロー(L)とハイ(H)とを含む。信号レベルがロー(L)である第1転送制御パルスG及び排出制御パルスGは、電荷の移動を禁止する。信号レベルがハイ(H)である第1転送制御パルスG及び排出制御パルスGは、電荷の移動を許可する。
 図8に示す動作例では、あるフレーム期間において、光源11は、照射パルス光Lを複数回照射する。フレーム期間は、照射パルス光Lが照射されている照射期間S11と、照射パルス光Lが照射されていない非照射期間S12と、を含む。照射期間S11は、非照射期間S12よりも先に設定される。照射期間S11は、非照射期間S12よりも短い。
 照射期間S11であるとき、緑画素p1S、赤画素p2S及び青画素p3Sは、以下の動作によって、光電変換領域21から電荷排出領域23へ電荷を排出する。
 ゲートドライバ回路32は、緑画素p1S、赤画素p2S及び青画素p3Sの第1転送制御ゲート25に対して第1転送制御パルスG(L)を出力する。ゲートドライバ回路32は、緑画素p1S、赤画素p2S及び青画素p3Sの排出制御ゲート25に対して排出制御パルスG(H)を出力する。
 具体的には、ゲートドライバ回路32は、緑画素p1S等の光電変換領域21から読出部22Sへの電荷の転送を禁止する。その後に、ゲートドライバ回路32は、緑画素p1S等の光電変換領域21から電荷排出領域23への電荷の排出を許可する。その後に、光源ドライバ回路31は、照射パルス光Lの照射を開始する。緑画素p1S等の第1転送制御パルスGがローである期間の始期は、非照射期間S12に重複する。近赤外画素p4Sの排出制御パルスGがハイである期間の始期も、非照射期間S12に重複する。
 緑画素p1S等の第1転送制御パルスGをハイからローに切り替えるタイミングは、緑画素p1S等の排出制御パルスGをローからハイに切り替えるタイミングよりわずかに早い。
 緑画素p1S等の排出制御パルスGをローからハイに切り替えるタイミングは、照射停止から照射実行に切り替えるタイミングよりもわずかに早い。
 照射期間S11であるとき、近赤外画素p4Sは、以下の動作によって、光電変換領域21から読出部22Sへ電荷を転送する。
 具体的には、ゲートドライバ回路32は、近赤外画素p4Sの光電変換領域21から電荷排出領域23への電荷の排出を禁止する。その後に、ゲートドライバ回路32は、近赤外画素p4Sの光電変換領域21から読出部22Sへの電荷の転送を許可する。その後に、光源ドライバ回路31は、照射パルス光Lの照射を開始する。近赤外画素p4Sの排出制御パルスGがローである期間の始期は、非照射期間S12に重複する。近赤外画素p4Sの第1転送制御パルスGがハイである期間の始期も、非照射期間S12に重複する。
 照射期間S11であるとき、ゲートドライバ回路32は、近赤外画素p4Sの排出制御ゲート25に対して排出制御パルスG(L)を出力する。ゲートドライバ回路32は、近赤外画素p4Sの第1転送制御ゲート25に対して第1転送制御パルスG(H)を出力する。
 近赤外画素p4Sの排出制御パルスGをハイからローに切り替えるタイミングは、近赤外画素p4Sの第1転送制御パルスGをローからハイに切り替えるタイミングよりわずかに早い。
 近赤外画素p4Sの第1転送制御パルスGをローからハイに切り替えるタイミングは、照射停止から照射実行に切り替えるタイミングよりもわずかに早い。
 非照射期間S12であるとき、緑画素p1S、赤画素p2S及び青画素p3Sは、以下の動作によって、光電変換領域21から読出部22Sへ電荷を転送する。
 具体的には、まず、光源ドライバ回路31は、照射パルス光Lの照射を停止する。その後に、ゲートドライバ回路32は、緑画素p1S等の光電変換領域21から電荷排出領域23への電荷の排出を禁止する。その後に、ゲートドライバ回路32は、緑画素p1S等の光電変換領域21から読出部22Sへの電荷の転送を許可する。換言すると、緑画素p1S等の第1転送制御パルスGがローである期間の終期は、非照射期間S12に重複する。近赤外画素p4Sの排出制御パルスGがハイである期間の終期も、非照射期間S12に重複する。
 ゲートドライバ回路32は、緑画素p1S、赤画素p2S及び青画素p3Sの第1転送制御ゲート25に対して第1転送制御パルスG(H)を出力する。ゲートドライバ回路32は、緑画素p1S、赤画素p2S及び青画素p3Sの排出制御ゲート25に対して排出制御パルスG(L)を出力する。
 緑画素p1S等の排出制御パルスGをハイからローに切り替えるタイミングは、照射実行から照射停止に切り替えるタイミングよりもわずかに遅い。
 緑画素p1S等の第1転送制御パルスGをローからハイに切り替えるタイミングは、緑画素p1S等の排出制御パルスGをハイからローに切り替えるタイミングよりわずかに遅い。
 非照射期間S12であるとき、近赤外画素p4Sは、以下の動作によって、光電変換領域21から電荷排出領域23へ電荷を排出する。
 具体的には、まず、光源ドライバ回路31は、照射パルス光Lの照射を停止する。その後に、ゲートドライバ回路32は、近赤外画素p4Dの光電変換領域21から読出部22Sへの電荷の転送を禁止する。その後に、ゲートドライバ回路32は、近赤外画素p4Sの光電変換領域21から電荷排出領域23への電荷の排出を許可する。近赤外画素p4Sの排出制御パルスGがローである期間の終期は、非照射期間S12に重複する。近赤外画素p4Sの第1転送制御パルスGがハイである期間の終期も、非照射期間S12に重複する。
 ゲートドライバ回路32は、近赤外画素p4Sの第1転送制御ゲート25に対して第1転送制御パルスG(L)を出力する。ゲートドライバ回路32は、近赤外画素p4Sの排出制御ゲート25に対して排出制御パルスG(H)を出力する。
 近赤外画素p4Sの第1転送制御パルスGをハイからローに切り替えるタイミングは、照射実行から照射停止に切り替えるタイミングよりもわずかに遅い。
 近赤外画素p4Sの排出制御パルスGをローからハイに切り替えるタイミングは、近赤外画素p4Sの第1転送制御パルスGをハイからローに切り替えるタイミングよりわずかに遅い。
〔作用効果〕
 可視光画像201及び近赤外光画像202を取得する固体撮像装置では、近赤外成分が可視光成分に含まれてしまうことが問題となっていた。混入した近赤外成分を画像処理によって取り除く方法もある。近赤外成分が可視光成分に混入すると、ショットノイズが残る。その結果、S/Nが劣化する。可視光成分だけを得たい場合は、近赤外カットフィルタを用いて、フィルタのオン・オフを機械的に切り替えていた。この方法では、近赤外画像と可視光画像を同時に取得できない。フィルタのオン・オフを機械的に切り替える機構は、コストの増大及び信頼性の点でも問題がある。
 可視光画像201及び近赤外光画像202を同時取得したい場合に特に問題となるのは、近赤外の補助光を用いて計測する場合の強力な近赤外の補助光に起因する成分である。自然の光及び人工的な外乱光による成分は、工夫により十分小さくすることができると考えらえる。自然の光は、太陽光のみを考えればよい。照明が、蛍光灯又はLEDであると仮定すると、人工光の中には、近赤外の成分はあまり含まれない。したがって、近赤外の補助光を使って計測を行う場合、太陽光の成分の小さい940nm帯の補助光を使う。940nm帯の補助光だけを通すバンドパスフィルタを用いる。さらに、近赤外の補助光が可視光画素に取り込まれることを、画素回路部13S及びロックイン機構によって防ぐ。その結果、自然光や外乱となる人工光の近赤外成分は、十分小さくできる。従って、色再現性の良い可視光画像201を得ることができる。さらに、補助光でロックインされた高いS/N比を有する近赤外光画像202も得ることができる。
 固体撮像装置1Aは、可視光の波長成分を含む光を受けて電荷を発生させる緑画素p1S、赤画素p2S及び青画素p3Sと、近赤外光の波長成分を含む光を受けて電荷を発生させる近赤外画素p4Sと、を含む。従って、可視光画像201と近赤外光画像202とを同時に取得することができる。固体撮像装置1Aは、近赤外光の照射パルス光Lが発生しているときに、可視光の波長成分を含む光に起因する電荷を発生させる緑画素p1S、赤画素p2S及び青画素p3Sにおいて発生した電荷を、電荷排出領域23に排出する。従って、近赤外光の影響が抑制された可視光画像201を得ることができる。
 固体撮像装置1Aは、近赤外補助光(繰り返しパルス光)を用いて近赤外光画像202と可視光成分に基づくカラー画像(可視光画像201)と、を同時に取得する。各画素は、光電変換領域21(PD)と読出部22(SD)が別の領域になっている。可視光成分に起因する検出信号を得るための画素には、発生した光電荷を電荷排出領域23に排出することによって感度をなくす機能を設けている。近赤外補助光(繰り返しパルス光)が照射されるタイミングでは、可視光画像201に近赤外光による電荷を取り込まない。
 固体撮像装置1Aは、自然光による可視光画像201と、繰り返しパルス光として近赤外光(NIR)を用いた近赤外光画像202と、の両方を同時に撮像できる。固体撮像装置1Aは、可視光画像201及び近赤外光画像202の一方だけを取得する動作も可能である。
 固体撮像装置1Aの画素アレイ12Aの複数の画素(最適は4つ)を単位とする。可視光成分の信号を取得するための画素(緑画素p1S、赤画素p2S、青画素p3S)は、近赤外光を照射しているとき、電荷排出領域23に、光電変換領域21で発生した信号電荷を排出する。その結果、感度をなくすことができる。このとき、読出部22に蓄積された電荷は保持される。
 近赤外光を照射していないとき、可視光成分の信号を取得するための画素は、読出部22への電荷の転送を許可する。可視光成分の信号を取得するための画素は、電荷排出領域23への電荷の排出を禁止する。その結果、自然光によって発生した電荷が読出部22に蓄積される。
 近赤外のパルス光に起因する近赤外信号を取得する近赤外画素p4Sでは、照射パルス光Lの照射タイミングに合わせて、第1転送制御ゲート25を開く。その結果、近赤外光パルス光による電荷を繰り返し蓄積する。その結果、可視光画素への近赤外光の混入を避けると共に、可視光画像201と近赤外光画像202の両者を同時に撮像できる。
 4個の画素を用いて可視光画像201及び近赤外光画像202を取得するセンサにおいて、すべての画素は、1個の光電変換領域21と、第1電荷読出領域22と、1個の電荷排出領域23と、を有する。これらの画素は、個別に駆動する。近赤外画素p4Sは、近赤外の補助光による検出信号を取得する。可視光画素(緑画素p1S、赤画素p2S、青画素p3S)は、近赤外の補助光による検出信号を排除して、赤、緑及び青の信号成分を取得する。
〔第2実施形態〕
 図9に示す第2実施形態の固体撮像装置1Bは、可視光画像201と、近赤外光画像202と、を同時に撮像する。第1実施形態と同様に、固体撮像装置1Bが出力する可視光画像201のS/N比は、良好である。第2実施形態の固体撮像装置1Bが出力する近赤外光画像202は、背景光の影響が抑制されている。
 固体撮像装置1Bは、光源11と、画素パネル2Bと、周辺回路4と、を有する。画素パネル2Bは、複数の画素アレイ12Bを含む。複数の画素アレイ12Bの配置は、第1実施形態と同じである。
 図9に示すように、複数の画素アレイ12Bは、それぞれ、緑画素p1Sと、赤画素p2Sと、青画素p3Sと、近赤外画素p4Dと、を含む。緑画素p1S、赤画素p2S及び青画素p3Sは、第1実施形態と同じである。近赤外画素p4Dは、第1実施形態の近赤外画素p4Sと異なる。近赤外画素p4Dは、画素回路部13Dを有する。画素回路部13Dは、第1実施形態の画素回路部13Sと異なる。
 図10に示すように、近赤外画素p4Dの読出部22Dは、第1電荷読出領域22と、第2電荷読出領域22とを有する。第1電荷読出領域22は、第1転送制御ゲート25を介して光電変換領域21に接続されている。第1転送制御ゲート25は、ゲートドライバ回路32から第1転送制御パルスGを受ける。第1転送制御ゲート25は、第1転送制御パルスGに従って、光電変換領域21から第1電荷読出領域22への電荷の移動を許可又は禁止する。第2電荷読出領域22も第1電荷読出領域22と同様の構成を有する。第2転送制御ゲート25は、ゲートドライバ回路32から第2転送制御パルスGを受ける。第1電荷読出領域22及び第2電荷読出領域22へ電荷を移動させる動作は、排他的である。光電変換領域21から第1電荷読出領域22への電荷の移動を許可するとき、光電変換領域21から第2電荷読出領域22への電荷の移動を禁止する。光電変換領域21から第2電荷読出領域22への電荷の移動を許可するとき、光電変換領域21から第1電荷読出領域22への電荷の移動を禁止する。
 光源ドライバ回路31は、第1実施形態と同じである。ゲートドライバ回路32は、緑画素p1S、赤画素p2S及び青画素p3Sに対して第1転送制御パルスG及び排出制御パルスGをそれぞれ出力する。ゲートドライバ回路32は、近赤外画素p4Sに対して、第1転送制御パルスG及び排出制御パルスGを出力する。ゲートドライバ回路32は、近赤外画素p4Sに対して、さらに第2転送制御パルスGを出力する。信号読出回路15は、緑画素p1S、赤画素p2S及び青画素p3Sに対して、第1読出信号T、選択信号SL及びリセット信号RTをそれぞれ出力する。信号読出回路15は、近赤外画素p4Sに対して、第1読出信号T、選択信号SL及びリセット信号RTを出力する。信号読出回路15は、近赤外画素p4Sに対して、さらに第2読出信号Tを出力する。
 第2実施形態のゲートドライバ回路32が出力する第1転送制御パルスG、第2転送制御パルスG及び排出制御パルスGの具体例は、後段の「動作/タイミングチャート」の欄で詳細に説明する。
 図11に示すように、第1電荷読出領域22は、第1読出制御ゲート28を介して第1浮遊拡散領域FDに接続されている。第1浮遊拡散領域FDには、検出部26Sの第1入力端が接続されている。第2電荷読出領域22も同様の構成を有する。第2浮遊拡散領域FDには、検出部26Sの第2入力端が接続されている。
 第1電圧検出手段26は、読出トランジスタ26aと、選択トランジスタ26bと、リセットトランジスタ26cと、を有する。第1入力端は、読出トランジスタ26aのゲートに接続されている。第1入力端は、リセットトランジスタ26cのソースに接続されている。第2入力端は、読出トランジスタ26aのゲートに接続されている。第2入力端も、リセットトランジスタ26cのソースに接続されている。第1電荷読出領域22と第2電荷読出領域22とは、第1電圧検出手段26を共有する。
 第2実施形態の演算回路17Bは、可視光画像201を生成する可視光画像生成部18Bと、近赤外光画像202を得る近赤外光画像生成部19Bと、を含む。近赤外光画像生成部19Bは、背景光補正部19aを含む。背景光補正部19aは、第1電荷読出領域22の電荷に基づく情報を、第2電荷読出領域22の電荷に基づく情報によって補正する。
 例えば、第1電荷読出領域22の電荷が、照射パルス光Lの照射期間S11に発生したものであり、第2電荷読出領域22の電荷が照射パルス光Lの非照射期間S12に発生したものであると仮定する。第1電荷読出領域22の電荷は、照射パルス光Lに起因する真の成分と、背景光に起因するノイズ成分と、を含む。第2電荷読出領域22の電荷は、背景光に起因するノイズ成分を含む。従って、第1電荷読出領域22の電荷に基づく情報から第2電荷読出領域22の電荷に基づく情報を減算することによって、背景光に起因するノイズ成分を除くことができる。
〔動作/タイミングチャート〕
 次に、図12に示すタイミングチャートを参照しながら、固体撮像装置1Bの動作を説明する。第1実施形態と同様に、以下の説明では、特に画素アレイ12Bの動作に注目する。
 固体撮像装置1Bの緑画素p1S、赤画素p2S及び青画素p3Sの構造は、第1実施形態の緑画素p1S、赤画素p2S及び青画素p3Sの構造と同じである。従って、固体撮像装置1Bの緑画素p1S、赤画素p2S及び青画素p3Sの動作も、第1実施形態の緑画素p1S、赤画素p2S及び青画素p3Sの動作と同じである。図12に示す緑画素p1S、赤画素p2S及び青画素p3Sに与えられる第1転送制御パルスG及び排出制御パルスGも図8に示す緑画素p1S、赤画素p2S及び青画素p3Sに与えられる第1転送制御パルスG及び排出制御パルスGと同じである。これらの第1転送制御パルスG及び排出制御パルスGの説明は、省略する。
 近赤外画素p4Dは、第1電荷読出領域22及び第2電荷読出領域22を有する。従って、ゲートドライバ回路32は、近赤外画素p4Dに対して、第1転送制御パルスGと、第2転送制御パルスGと、排出制御パルスGと、を出力する。
 照射期間S11であるとき、近赤外画素p4Dは、以下の動作によって、光電変換領域21から読出部22Dへ電荷を転送する。具体的には、光電変換領域21から第1電荷読出領域22へ電荷を転送する。
 具体的には、ゲートドライバ回路32は、近赤外画素p4Dの光電変換領域21から電荷排出領域23への電荷の排出を禁止する。その後に、ゲートドライバ回路32は、近赤外画素p4Dの光電変換領域21から第1電荷読出領域22への電荷の転送を許可する。その後に、光源ドライバ回路31は、照射パルス光Lの照射を開始する。換言すると、近赤外画素p4Dの排出制御パルスGがローである期間の始期は、非照射期間S12に重複する。近赤外画素p4Dの第1転送制御パルスGがハイである期間の始期も、非照射期間S12に重複する。
 第1転送制御パルスGを切り替えるタイミングと、排出制御パルスGを切り替えるタイミングと、の関係は、第1実施形態と同じである。第1転送制御パルスGを切り替えるタイミングと、照射パルス光Lを切り替えるタイミングも、第1実施形態と同じである。排出制御パルスGを切り替えるタイミングと、照射パルス光L切り替えるタイミングも、第1実施形態と同じである。従って、これらの詳細な説明は省略する。
 照射期間S11では、光電変換領域21から第1電荷読出領域22へ電荷の転送が許可されている。一方、照射期間S11では、光電変換領域21から第2電荷読出領域22へ電荷の転送は禁止されている。照射期間S11であるとき、ゲートドライバ回路32は、近赤外画素p4Dの第2転送制御ゲート25に対して第2転送制御パルスG(L)を出力する。照射期間S11の全てにおいて、第2転送制御パルスGの信号レベルは、ロー(L)を維持する。第1転送制御パルスGの信号レベルがハイ(H)である全ての期間において、第2転送制御パルスGの信号レベルは、ロー(L)を維持する。排出制御パルスGの信号レベルがロー(L)である全ての期間において、第2転送制御パルスGの信号レベルは、ロー(L)を維持する。
 非照射期間S12であるとき、近赤外画素p4Dは、2つの動作を実行する。第1動作は、光電変換領域21から電荷排出領域23への電荷の排出である。第2動作は、光電変換領域21から第2電荷読出領域22へ電荷の転送である。
 照射期間S11から非照射期間S12に切り替わったとき、ゲートドライバ回路32は、近赤外画素p4Dに対して、第1転送制御パルスG(H)と、第2転送制御パルスG(L)と、排出制御パルスG(L)を出力する。
 所定時間が経過した後に、ゲートドライバ回路32は、近赤外画素p4Dに対して、第1転送制御パルスG(L)と、第2転送制御パルスG(L)と、排出制御パルスG(H)を出力する。ゲートドライバ回路32は、第1転送制御パルスGをハイからローに切り替える。ゲートドライバ回路32は、第2転送制御パルスGの信号レベル(L)を維持する。ゲートドライバ回路32は、排出制御パルスGをローからハイに切り替える。このとき、第1動作が実行される。光電変換領域21から第1電荷読出領域22への電荷の転送が禁止される。光電変換領域21から第2電荷読出領域22への電荷の転送も禁止される。光電変換領域21から電荷排出領域23へ電荷が排出される。
 所定時間がさらに経過した後に、ゲートドライバ回路32は、近赤外画素p4Dに対して、第1転送制御パルスG(L)と、第2転送制御パルスG(H)と、排出制御パルスG(L)を出力する。ゲートドライバ回路32は、第1転送制御パルスGの信号レベル(L)を維持する。ゲートドライバ回路32は、第2転送制御パルスGをローからハイに切り替える。ゲートドライバ回路32は、排出制御パルスGの信号レベルをハイからローに切り替える。このとき、第2動作が実行される。光電変換領域21から第1電荷読出領域22への電荷の転送が禁止される。光電変換領域21から第2電荷読出領域22への電荷の転送が許可される。光電変換領域21から電荷排出領域23へ電荷の排出が禁止される。
 ゲートドライバ回路32は、第1転送制御パルスG(L)と、第2転送制御パルスG(H)と、排出制御パルスG(L)を出力する状態を所定時間だけ維持する。この状態では、照射パルス光Lに起因しない近赤外光に応じた電荷が発生する。照射パルス光Lに起因しない近赤外光とは、ノイズとなる背景光である。第2電荷読出領域22に蓄積された電荷は、背景光の強さに対応する。
 所定時間がさらに経過した後に、ゲートドライバ回路32は、近赤外画素p4Dに対して、第1転送制御パルスG(L)と、第2転送制御パルスG(L)と、排出制御パルスG(H)を出力する。このとき、第1動作が実行される。光電変換領域21から第1電荷読出領域22への電荷の転送が禁止される。光電変換領域21から第2電荷読出領域22への電荷の転送も禁止される。光電変換領域21から電荷排出領域23へ電荷が排出される。
 以上の動作によって、照射パルス光Lに起因する電荷を第1電荷読出領域22に蓄積すると共に、照射パルス光Lに起因しない電荷を第2電荷読出領域22に蓄積することができる。演算回路17Bの背景光補正部19aは、第2電荷読出領域22に蓄積された電荷を利用して、第1電荷読出領域22に蓄積された電荷に含まれている背景ノイズを除去する。
〔作用効果〕
 4個の画素を用いて可視光画像201及び近赤外光画像202を取得する固体撮像装置1Bにおいて、近赤外画素p4Dは、1個の光電変換領域21と、第1電荷読出領域221及び第2電荷読出領域222と、1個の電荷排出領域23と、を有する。可視光画素(緑画素p1S、赤画素p2S、青画素p3S)は、1個の光電変換領域21と、第1電荷読出領域221と、1個の電荷排出領域23と、を有する。これらの画素は、個別に駆動する。近赤外画素p4Dは、ロックインにより近赤外の補助光に対して背景光に起因するノイズをキャンセルした検出信号を取得する。可視光画素(緑画素p1S、赤画素p2S、青画素p3S)は、近赤外の補助光による検出信号を排除して、赤、緑、青の信号成分を取得する。
 固体撮像装置1Bも、第1実施形態の固体撮像装置1Aと同様に、可視光画像201と近赤外光画像202とを同時に撮像することができる。
 固体撮像装置1Bは、背景光ノイズが除去された近赤外光画像202を得ることができる。
〔第3実施形態〕
 可視光画像201の取得とそれによる計測(生体信号計測)は、暗闇で行うこともあるし、非常に明るい自然光の下で行うこともある。この場合において、暗闇から夕暮れ等自然光の強度が十分でない、又は、光の強度が不安定に変動する時には、近赤外の補助光を用いる。一方、非常に明るい自然光が得られるとき、十分に広いダイナミックレンジを得るため、可視光のカラーフィルタのついた可視光画素にも2個の電荷読出領域(蓄積ダイオード)を設ける。その結果、長時間露光の成分と短時間露光の成分とを取得できる。
 図13に示す第3実施形態の固体撮像装置1Cは、可視光画像201と、近赤外光画像202と、を同時に撮像する。第1実施形態と同様に、固体撮像装置1Cが出力する可視光画像201のS/N比は、良好である。第2実施形態と同様に、固体撮像装置1Cが出力する近赤外光画像202は、背景光の影響を含まない。第3実施形態の固体撮像装置1Cは、可視光画像201のダイナミックレンジが拡大されている。
 図13に示すように、固体撮像装置1Cは、光源11と、画素パネル2Cと、周辺回路4と、を有する。画素パネル2Cは、複数の画素アレイ12Cを含む。複数の画素アレイ12Cの配置は、第1実施形態と同じである。
 第2実施形態の固体撮像装置1Bの近赤外画素p4Dは、第1電荷読出領域22及び第2電荷読出領域22を備える画素回路部13Dを採用した。第2実施形態の固体撮像装置1Bの緑画素p1S、赤画素p2S、及び緑画素p1Sは、第1電荷読出領域22を備える画素回路部13Sを採用した。
 図14に示すように、画素アレイ12Cは、緑画素p1D、赤画素p2D及び青画素p3Dにも第1電荷読出領域22及び第2電荷読出領域22を備える画素回路部13Dを採用する。第3実施形態の画素アレイ12Cは、すべての画素において、第1電荷読出領域22及び第2電荷読出領域22を備える画素回路部13Dを採用する。
 図15に示すように、ゲートドライバ回路32は、配線L1を介して、緑画素p1D、赤画素p2D、青画素p3D及び近赤外画素p4Dに第1転送制御パルスG、第2転送制御パルスG及び排出制御パルスGを出力する。垂直読出制御回路41は、配線L2を介して、緑画素p1D、赤画素p2D、青画素p3D及び近赤外画素p4Dに第1読出信号T、第2読出信号T、リセット信号RT及び選択信号SLを出力する。
 図16に示すように、演算回路17Cは、信号読出回路15Cから出力されたデジタル値である検出信号を利用して、可視光画像201及び近赤外光画像202を生成するための各種の処理を実行する。
 第3実施形態の演算回路17Cは、可視光画像201を生成する可視光画像生成部18Cと、近赤外光画像202を得る近赤外光画像生成部19Cと、を含む。可視光画像生成部18Cは、第1可視光画像生成部18aと、第2可視光画像生成部18bと、を含む。第1可視光画像生成部18aは、第1電荷読出領域22に蓄積された電荷に基づく可視光画像201を生成する。第2可視光画像生成部18bは、第2電荷読出領域22に蓄積された電荷に基づく可視光画像201を生成する。後述するように、第1電荷読出領域22には長時間の露光によって発生した電荷が蓄積されている。第1電荷読出領域22に蓄積された電荷に基づく可視光画像201は、撮像対象101が暗い場合に適している。第2電荷読出領域22には短時間の露光によって発生した電荷が蓄積されている。第2電荷読出領域22に蓄積された電荷に基づく可視光画像201は、撮像対象101が明るい場合に適している。従って、可視光画像生成部18Cによれば、いわゆるダイナミックレンジを拡大することができる。近赤外光画像生成部19Cは背景光補正部19aを含む。従って、近赤外光画像生成部19Cは、第2実施形態と同様に、背景光ノイズがキャンセルされた近赤外光画像202を得ることができる。
〔動作/タイミングチャート〕
 図17に示すタイミングチャートを参照しながら、固体撮像装置1Cの動作を説明する。第1実施形態と同様に、以下の説明では、特に画素アレイ12Cの動作に注目する。
 固体撮像装置1Cの近赤外画素p4Dの構造は、第2実施形態の近赤外画素p4Dの構造と同じである。従って、固体撮像装置1Cの近赤外画素p4Dの動作も、第2実施形態の近赤外画素p4Dの動作と同じである。図17に示す近赤外画素p4Dに与えられる第1転送制御パルスG、第2転送制御パルスG及び排出制御パルスGも図12に示す近赤外画素p4Dに与えられる第1転送制御パルスG、第2転送制御パルスG及び排出制御パルスGと同じである。これらの第1転送制御パルスG、第2転送制御パルスG及び排出制御パルスGの説明は、省略する。
 固体撮像装置1Cの緑画素p1D、赤画素p2D及び青画素p3Dの構造は、互いに同じである。従って、固体撮像装置1Cの緑画素p1D、赤画素p2D及び青画素p3Dの動作も、互いに同じである。固体撮像装置1Cの緑画素p1Dの動作について、詳細に説明する。固体撮像装置1Cの赤画素p2D及び青画素p3Dの動作については、詳細な説明を省略する。
 照射期間S11であるとき、緑画素p1Dは、以下に示す3つの動作を行う。第1動作として、緑画素p1Dは、光電変換領域21から第1電荷読出領域22への電荷の転送を禁止する。第2動作として、緑画素p1Dは、光電変換領域21から第2電荷読出領域22への電荷の転送も禁止する。第3動作として、緑画素p1Dは、光電変換領域21から電荷排出領域23へ電荷を排出する。照射期間S11のすべてにおいて、ゲートドライバ回路32は、第1転送制御パルスG(L)と、第2転送制御パルスG(L)と、排出制御パルスG(H)と、を維持する。
 第1実施形態では、光電変換領域21から読出部22Sへの電荷の転送を禁止した後に、光電変換領域21から電荷排出領域23への電荷の排出を許可した。第3実施形態では、光電変換領域21から読出部22Dへの電荷の転送を禁止は、光電変換領域21から電荷排出領域23への電荷の排出を許可と同時であってもよい。
 非照射期間S12であるとき、緑画素p1Dは、3つの動作を実行する。第1動作は、光電変換領域21から電荷排出領域23への電荷の排出である。第2動作は、光電変換領域21から第2電荷読出領域22へ電荷の転送である。第3動作は、光電変換領域21から第1電荷読出領域22へ電荷の転送である。
 照射期間S11から非照射期間S12に切り替わったとき、ゲートドライバ回路32は、緑画素p1Dに対して、第1転送制御パルスG(L)と、第2転送制御パルスG(L)と、排出制御パルスG(H)を出力する。照射期間S11において出力していた信号レベルを維持する。このとき、第1動作が実行される。光電変換領域21から第1電荷読出領域22への電荷の転送が禁止される。光電変換領域21から第2電荷読出領域22への電荷の転送も禁止される。光電変換領域21から電荷排出領域23へ電荷が排出される。
 照射期間S11から非照射期間S12に切り替わった後であって、緑画素p1Dに対して、第1転送制御パルスG(L)と、第2転送制御パルスG(L)と、排出制御パルスG(H)を出力する期間は、近赤外画素p4Dにおいて、光電変換領域21から第1電荷読出領域22へ電荷を転送する期間と重複する。この期間は、光電変換領域21から電荷排出領域23へ電荷を転送する期間とも重複する。
 所定時間が経過した後に、ゲートドライバ回路32は、緑画素p1Dに対して、第1転送制御パルスG(L)と、第2転送制御パルスG(H)と、排出制御パルスG(L)を出力する。ゲートドライバ回路32は、第1転送制御パルスGの信号レベルを維持する。ゲートドライバ回路32は、第2転送制御パルスGをローからハイに切り替える。ゲートドライバ回路32は、排出制御パルスGをハイからローに切り替える。このとき、第2動作が実行される。光電変換領域21から第1電荷読出領域22への電荷の転送が禁止される。光電変換領域21から第2電荷読出領域22への電荷の転送が許可される。光電変換領域21から電荷排出領域23への電荷の排出が禁止される。
 第2転送制御パルスGをローからハイに切り替えるタイミングは、近赤外画素p4Dに出力される第2転送制御パルスGをローからハイに切り替えるタイミングと一致してよい。同様に、第2転送制御パルスGをローからハイに切り替えるタイミングは、近赤外画素p4Dに出力される排出制御パルスGをハイからローに切り替えるタイミングと一致してよい。
 ゲートドライバ回路32は、第1転送制御パルスG(L)と、第2転送制御パルスG(H)と、排出制御パルスG(L)を出力する状態を所定時間だけ維持する。この時間は、第2電荷読出領域22に関する第2露光時間である。第2露光時間は、後述する第1露光時間よりも短い。第2露光時間は、近赤外画素p4Dの第2電荷読出領域22に関する第2露光時間よりも短い。
 所定時間がさらに経過した後に、ゲートドライバ回路32は、緑画素p1Dに対して、第1転送制御パルスG(H)と、第2転送制御パルスG(L)と、排出制御パルスG(L)を出力する。ゲートドライバ回路32は、第1転送制御パルスGをローからハイに切り替える。ゲートドライバ回路32は、第2転送制御パルスGをハイからローに切り替える。ゲートドライバ回路32は、排出制御パルスGの信号レベル(L)を維持する。このとき、第3動作が実行される。光電変換領域21から第1電荷読出領域22への電荷の転送が許可される。光電変換領域21から第2電荷読出領域22への電荷の転送が禁止される。光電変換領域21から電荷排出領域23へ電荷の排出が禁止される。
 第1転送制御パルスGを切り替えるタイミングは、第2転送制御パルスGを切り替えるタイミングと同時であってもよい。
 第1転送制御パルスGを切り替えたとき、近赤外画素p4Dの第2転送制御パルスGは、信号レベル(H)を維持している。同様に、第1転送制御パルスGを切り替えたとき、近赤外画素p4Dの排出制御パルスGも、信号レベル(L)を維持している。第1転送制御パルスGを切り替えた後に、所定時間が経過したとき、近赤外画素p4Dの第2転送制御パルスGがハイからローに切り替わる。同様に、近赤外画素p4Dの排出制御パルスGがローからハイに切り替わる。
〔作用効果〕
 4個の画素を用いて可視光画像201及び近赤外光画像202を取得する固体撮像装置1Cにおいて、すべての画素は、1個の光電変換領域21と、第1電荷読出領域22及び第2電荷読出領域22と、1個の電荷排出領域23と、を有する。これらは個別に駆動する。近赤外画素p4Dは、ロックインにより近赤外の補助光に対して背景光に起因するノイズをキャンセルした検出信号を取得する。可視光画素(緑画素p1D、赤画素p2D、青画素p3D)では、第1電荷読出領域22及び第2電荷読出領域22に異なった時間で電荷を送るように制御する。その結果、広いダイナミックレンジの赤、緑、青の信号成分が取得される。
 固体撮像装置1Cも、第1実施形態の固体撮像装置1Aと同様に、可視光画像201と近赤外光画像202とを同時に撮像することができる。
 固体撮像装置1Cは、第2実施形態の固体撮像装置1Bと同様に、背景光ノイズが除去された近赤外光画像202を得ることができる。
 固体撮像装置1Cは、可視光画像201のダイナミックレンジを拡大することができる。
〔第4実施形態〕
 図18に示す第4実施形態の固体撮像装置1Dは、可視光画像201と、近赤外光画像202と、を同時に撮像する。第1実施形態と同様に、固体撮像装置1Dが出力する可視光画像201のS/N比は、良好である。第2実施形態と同様に、固体撮像装置1Dが出力する近赤外光画像202は、背景光の影響を含まない。第3実施形態と同様に、可視光画像201のダイナミックレンジは拡大されている。
 第4実施形態の固体撮像装置1Dの物理的な構成は、第3実施形態の固体撮像装置1Cと同じである。固体撮像装置1Dの動作は、第3実施形態の固体撮像装置1Cと異なる。固体撮像装置1Dの緑画素p1Dは、可視光の緑成分に基づく電荷を得る動作(第1電荷取得動作)に加えて、近赤外光に基づく電荷を得る動作(第2電荷取得動作)も実行する。
 ゲートドライバ回路32は、第1電荷取得動作と第2電荷取得動作とを相互に切り替える。第1電荷取得動作と第2電荷取得動作とは、ゲートドライバ回路32が出力する第1転送制御パルスG及び第2転送制御パルスGによって相互に切り替えられる。図18に示すように、ゲートドライバ回路32は、第1電荷取得パルス発生部32aと、第2電荷取得パルス発生部32bと、を有してもよい。第1電荷取得パルス発生部32aは、第1電荷取得動作のための第1転送制御パルスG1A及び第2転送制御パルスG2Aを出力する。第2電荷取得パルス発生部32bは、第2電荷取得動作のための第1転送制御パルスG1B及び第2転送制御パルスG2Bを出力する。
 第4実施形態の赤画素p2D、青画素p3D及び近赤外画素p4Dは、第3実施形態と同様の動作を実行する。
〔動作/タイミングチャート〕
 図19は、固体撮像装置1Dの動作を概念的に表した図である。図19に示すように、固体撮像装置1Dは、第1フレームF1では、第1電荷取得動作A1を繰り返し実行する。第1電荷取得動作A1では、緑画素p1Dは、可視光の緑成分に基づく電荷を得る。従って、第1フレームF1では、可視光画像201と、近赤外光画像202とを同時に得ることができる。
 固体撮像装置1Dは、第2フレームF2であるとき第2電荷取得動作A2を繰り返し実行する。第2電荷取得動作A2では、緑画素p1Dは、近赤外光に基づく電荷を得る。従って、第2フレームF2では、近赤外光画像202を得ることができる。第2フレームF2において得られる近赤外光画像202は、2個の画素から得た電荷に基づく。
 図20は、第1電荷取得動作A1のためにゲートドライバ回路32が出力するパルスを示す。第1電荷取得動作A1は、図17に示す第3実施形態の固体撮像装置1Cの動作と同じである。ゲートドライバ回路32は、緑画素p1Dに対して図20に示す第1転送制御パルスG1Aと、第2転送制御パルスG2Aと、排出制御パルスGDAと、を出力する。
 図21は、第2電荷取得動作A2のためにゲートドライバ回路32が出力するパルスを示す。第2電荷取得動作A2であるとき、ゲートドライバ回路32は、赤画素p2D、青画素p3D及び近赤外画素p4Dに対して第1電荷取得動作A1と同じパルスを出力する。第2電荷取得動作A2であるとき、ゲートドライバ回路32は、緑画素p1Dに対して第1電荷取得動作A1とは異なるパルスを出力する。ゲートドライバ回路32は、緑画素p1Dに対して図20に示す第1転送制御パルスG1Bと、第2転送制御パルスG2Bと、排出制御パルスGDBと、を出力する。第1転送制御パルスG1B、第2転送制御パルスG2B及び排出制御パルスGDBは、近赤外画素p4Dに出力されるパルスと同じである。
〔作用効果〕
 4個の画素を用いて可視光画像201及び近赤外光画像202を取得する固体撮像装置1Dにおいて、4個の画素は、別々の駆動を行う。近赤外画素p4Dは、ロックインにより近赤外の補助光に対して背景光に起因するノイズをキャンセルした検出信号を取得するように制御する。可視光画素は、第1電荷読出領域22及び第2電荷読出領域22に異なった時間で電荷を送るように制御する。可視光画素は、広いダイナミックレンジ(WDR)の、赤、緑及び青の信号成分を取得する。4個の画素のうち、一部の画素(例えば緑画素p1D)では、ロックインによる近赤外信号を取得する第1機能と、広いダイナミックレンジの赤、緑及び青の信号を取得する第2の機能と、を選択して使う。
 固体撮像装置1Dも、第1実施形態の固体撮像装置1Aと同様に、可視光画像201と近赤外光画像202とを同時に撮像することができる。
 固体撮像装置1Dは、第2実施形態の固体撮像装置1Bと同様に、背景光ノイズが除去された近赤外光画像202を得ることができる。
 固体撮像装置1Dは、可視光画像201のダイナミックレンジを拡大することができる。
 固体撮像装置1Dは、第1電荷取得動作A1によって近赤外光画像202を得ると共に、第2電荷取得動作A2によって近赤外光画像202を得ることができる。
〔第5実施形態〕
 図22に示す第5実施形態の固体撮像装置1Eは、可視光画像201と、近赤外光画像202と、を同時に撮像する。第1実施形態と同様に、固体撮像装置1Eが出力する可視光画像201のS/N比は、良好である。第2実施形態と同様に、固体撮像装置1Eが出力する近赤外光画像202は、背景光の影響を含まない。第3実施形態と同様に、可視光光画像のダイナミックレンジは拡大されている。
 第5実施形態の固体撮像装置1Eの物理的な構成は、第3実施形態の固体撮像装置1Cと同じである。一方、固体撮像装置1Eの動作は、第3実施形態の固体撮像装置1Cと異なる。第5実施形態の固体撮像装置1Eは、第4実施形態と同様に、緑画素p1Dが可視光に基づく電荷を得る動作(第1電荷取得動作)と、近赤外光に基づく電荷を得る動作(第2電荷取得動作)と、を相互に切り替える機能を有する。
 第5実施形態の固体撮像装置1Eは、緑画素p1Dと同様に赤画素p2D及び青画素p3Dも、可視光に基づく電荷を得る動作と、近赤外光に基づく電荷を得る動作と、を相互に切り替える機能を有する。第5実施形態の固体撮像装置1Eは、近赤外画素p4Dも、可視光に基づく電荷を得る動作(第1電荷取得動作)と、近赤外光に基づく電荷を得る動作(第2電荷取得動作)と、を相互に切り替える機能を有する。
 第4実施形態と同様に、ゲートドライバ回路32は、第1電荷取得動作と第2電荷取得動作とを相互に切り替える。ゲートドライバ回路32は、第1電荷取得パルス発生部32aと、第2電荷取得パルス発生部32bと、を有してもよい。第1電荷取得パルス発生部32aは、第1電荷取得動作のための第1転送制御パルスG1A、及び第2転送制御パルスG2Aを出力する。第2電荷取得パルス発生部32bは、第2電荷取得動作のための第1転送制御パルスG1B及び第2転送制御パルスG2Bを出力する。ゲートドライバ回路32は、パルス選択部32cを有してもよい。パルス選択部32cは、それぞれの画素に対して、第1電荷取得動作のための第1転送制御パルスG1A及び第2転送制御パルスG2A、又は、第2電荷取得動作のための第1転送制御パルスG1B及び第2転送制御パルスG2Bのいずれを出力するかを選択する。
 パルス選択部32cによれば、各画素が取得する電荷は、以下のいずれかのセットを取り得る。例えば、かっこの中に示すアルファベット(G)は、可視光の緑成分に基づく電荷を得ることを示す。同様に、アルファベット(R)は、赤成分に対応し、アルファベット(B)は、青成分に対応する。アルファベット(N)は、近赤外光に対応する。
第1セット:緑画素p1D(G):赤画素p2D(R):青画素p3D(B):近赤外画素p4D(N)
第2セット:緑画素p1D(N):赤画素p2D(R):青画素p3D(B):近赤外画素p4D(G)
第3セット:緑画素p1D(G):赤画素p2D(N):青画素p3D(B):近赤外画素p4D(G)
第4のセット:緑画素p1D(G):赤画素p2D(R):青画素p3D(N):近赤外画素p4D(G)
第5のセット:緑画素p1D(G):赤画素p2D(R):青画素p3D(B):近赤外画素p4D(G)
第6のセット:緑画素p1D(N):赤画素p2D(N):青画素p3D(N):近赤外画素p4D(N)
 例えば、第1セット、第2セット、第3セット及び第4のセットは、4個の画素のうち、少なくとも1個の画素において、近赤外光に起因する電荷を得る。これらのセットのための動作を実行するとき、照射パルス光Lの照射動作中に緑画素p1D、赤画素p2D、及び青画素p3Dで発生した電荷を電荷排出領域23に排出するという動作の効果が発揮される。第1セットは、第4実施形態における第1電荷取得動作A1と同じである。第2セットは、第4実施形態における第2電荷取得動作A2と同じである。
 第5のセットでは、4個の画素の全てにおいて、可視光に起因する電荷を得る。第5のセットでは、近赤外光に起因する電荷を取得しない。第6のセットでは、4個の画素の全てにおいて、近赤外光に起因する電荷を得る。第6のセットでは、可視光に起因する電荷を取得しない。
〔動作/タイミングチャート〕
 図23は、固体撮像装置1Eの動作の一例を概念的に表した図である。図23に示すように、固体撮像装置1Eは、第1フレームF1では、第1電荷取得動作A1を繰り返し実行する。第1電荷取得動作A1では、各画素は、第1セットに示す電荷を取得する。従って、第1フレームF1では、可視光画像201と、近赤外光画像202とを同時に得ることができる。
 固体撮像装置1Eは、第2フレームF2であるとき第5のセットに対応する動作を繰り返し実行する。第5のセットに対応する動作を第3電荷取得動作A3と称する。固体撮像装置1Eは、第2フレームF2であるとき第3電荷取得動作A3を繰り返し実行する。従って、第2フレームF2では、可視光画像201を得ることができる。
 固体撮像装置1Eは、第3フレームF3であるとき第6のセットに対応する動作を繰り返し実行する。第6のセットに対応する動作を第4の電荷取得動作A4と称する。固体撮像装置1Eは、第3フレームF3では、第4の電荷取得動作A4を繰り返し実行する。従って、第3フレームF3では、近赤外光画像202を得ることができる。
 図24(a)は、第3電荷取得動作A3のためにゲートドライバ回路32が出力するパルスを示す。第3電荷取得動作A3であるときにゲートドライバ回路32が出力するパルスは、図20に示す第4実施形態の動作であるときに緑画素p1D等に出力されるパルスと同じである。第3電荷取得動作A3では、近赤外光に起因する電荷を取得しないので、光源11は、照射パルス光Lを出射しない。
 図24(b)は、第4の電荷取得動作A4のためにゲートドライバ回路32が出力するパルスを示す。第4の電荷取得動作A4であるときにゲートドライバ回路32が出力するパルスは、図20に示す第4実施形態の動作であるときに近赤外画素p4Dに出力されるパルスと同じである。
〔作用効果〕
 4個の画素を用いて可視光画像201及び近赤外光画像202を取得する固体撮像装置1Eにおいて、4個の画素は、別々の駆動を行う。近赤外画素p4Dは、ロックインにより近赤外の補助光に対して背景光に起因するノイズをキャンセルした検出信号を取得するように制御する。可視光画素は、第1電荷読出領域22及び第2電荷読出領域22に異なった時間で電荷を送るように制御する。可視光画素は、広いダイナミックレンジ(WDR)の、赤、緑、青の信号成分を取得する。その4個の画素の全ての画素について、ロックインによる近赤外信号を取得する第1機能と、広いダイナミックレンジの赤、緑、青の信号を取得する第2機能と、を選択して使う。
 固体撮像装置1Eも、第1実施形態の固体撮像装置1Aと同様に、可視光画像201と近赤外光画像202とを同時に撮像することができる。
 固体撮像装置1Eは、第2実施形態の固体撮像装置1Bと同様に、背景光ノイズが除去された近赤外光画像202を得ることができる。
 固体撮像装置1Eは、可視光画像201のダイナミックレンジを拡大することができる。
〔第5実施形態の変形例〕
 第5実施形態の固体撮像装置1Eは、図25のタイミングチャートに示す動作を実行することもできる。図25に示す動作によれば、1回のフレームにおいて可視光画像201と近赤外光画像202とを得ることができる。図25のタイミングチャートに示す動作では、それぞれの画素について、第1電荷読出領域22に近赤外光に起因する電荷を複数回蓄積すると共に、第2電荷読出領域22に可視光線に起因する電荷を複数回蓄積する。ゲートドライバ回路32が各画素に出力する第1転送制御パルスGと第2転送制御パルスGと排出制御パルスGとは、同じである。従って、緑画素p1Dに出力されるパルスを例に説明する。
 照射期間S11の前のあるタイミングおいて、ゲートドライバ回路32は、緑画素p1Dに第1転送制御パルスG(L)と、第2転送制御パルスG(H)と、排出制御パルスG(L)と、を出力する。
 照射期間S11の前のあるタイミングから所定時間が経過した後に、ゲートドライバ回路32は、緑画素p1Dに第1転送制御パルスG(L)と、第2転送制御パルスG(L)と、排出制御パルスG(H)と、を出力する。ゲートドライバ回路32は、排出制御パルスGをローからハイに切り替える。
 照射期間S11の前の期間であって、所定時間がさらに経過した後に、ゲートドライバ回路32は、緑画素p1Dに第1転送制御パルスG(H)と、第2転送制御パルスG(L)と、排出制御パルスG(L)と、を出力する。ゲートドライバ回路32は、第1転送制御パルスGをローからハイに切り替える。ゲートドライバ回路32は、排出制御パルスGをハイからローに切り替える。第1転送制御パルスGを切り替えるタイミングは、排出制御パルスGを切り替えるタイミングと同時であってもよい。
 所定時間がさらに経過した後に、照射パルス光Lの出射が開始される。照射期間S11の全てにおいて、ゲートドライバ回路32は、緑画素p1Dに第1転送制御パルスG(H)と、第2転送制御パルスG(L)と、排出制御パルスG(L)と、を出力する。この動作によって、照射パルス光Lに起因する電荷が第1電荷読出領域22に蓄積される。
 照射期間S11が終了すると共に非照射期間S12に切り替わったとき、ゲートドライバ回路32は、緑画素p1Dに第1転送制御パルスG(H)と、第2転送制御パルスG(L)と、排出制御パルスG(L)と、を出力する。ゲートドライバ回路32は、照射期間S11であるときに出力したパルスの信号レベルを維持する。
 非照射期間S12に切り替わった後であって所定時間が経過した後に、ゲートドライバ回路32は、緑画素p1Dに第1転送制御パルスG(L)と、第2転送制御パルスG(L)と、排出制御パルスG(H)と、を出力する。ゲートドライバ回路32は、第1転送制御パルスGをハイからローに切り替える。ゲートドライバ回路32は、排出制御パルスGをローからハイに切り替える。第1転送制御パルスGを切り替えるタイミングは、排出制御パルスGを切り替えるタイミングと同時であってもよい。
 所定時間がさらに経過した後に、ゲートドライバ回路32は、緑画素p1Dに第1転送制御パルスG(L)と、第2転送制御パルスG(H)と、排出制御パルスG(L)と、を出力する。ゲートドライバ回路32は、第2転送制御パルスGをローからハイに切り替える。ゲートドライバ回路32は、排出制御パルスGをハイからローに切り替える。第2転送制御パルスGを切り替えるタイミングは、排出制御パルスGを切り替えるタイミングと同時であってもよい。この動作によって、可視光の緑成分に起因する電荷が第2電荷読出領域22に蓄積される。
 第5実施形態の変形例の動作によっても、固体撮像装置1Eは、第1実施形態の固体撮像装置1Aと同様に、可視光画像201と近赤外光画像202とを同時に撮像することができる。
 第5実施形態の変形例の動作によれば、可視光画像201におけるダイナミックレンジを拡大する効果は得られない。同様に、第5実施形態の変形例の動作によれば、近赤外光画像202における背景光ノイズを除去する効果も得られない。
〔第6実施形態〕
 図26に示す第6実施形態の固体撮像装置1Fは、可視光画像201と、近赤外光画像202と、を同時に撮像する。第1実施形態と同様に、固体撮像装置1Fが出力する可視光画像201のS/N比は、良好である。第6実施形態の固体撮像装置1Fが出力する近赤外光画像202は、背景光の影響を含まない。第6実施形態の固体撮像装置1Fが出力する近赤外光画像202は、距離情報を含む。
 図27に示すように、固体撮像装置1Fは、光源11と、画素パネル2Fと、周辺回路4と、を有する。画素パネル2Fは、複数の画素アレイ12Fを含む。複数の画素アレイ12Fの配置は、第1実施形態と同じである。
 第6実施形態の固体撮像装置1Fを構成する画素アレイ12Fは、近赤外画素p4Tが第1実施形態の近赤外画素p4S及び第2実施形態の近赤外画素p4Dと相違する。画素アレイ12Fを構成する近赤外画素p4Tは、第1電荷読出領域22と第2電荷読出領域22と第3電荷読出領域22とを有する。第1電荷読出領域22、第2電荷読出領域22及び第3電荷読出領域22のそれぞれに対して、第1電圧検出手段26T、第2電圧検出手段26T及び第3電圧検出手段26Tが接続されている。近赤外画素p4Tの画素回路部13Tにおける検出部26Tは、3個の電圧検出手段を有する。
 図28に示すように、第1電荷読出領域22は、第1転送制御ゲート25を介して光電変換領域21と接続されている。第1電荷読出領域22には、第1電圧検出手段26Tの入力端が接続されている。画素回路部13Tにおいて、第1電荷読出領域22は、浮遊拡散領域としても機能する。画素回路部13Tは、電荷読出領域とは別に設けられた浮遊拡散領域を備えない。従って、画素回路部13Tは、電荷読出領域から浮遊拡散領域への電荷の転送を制御するための読出制御ゲートも備えない。第2電荷読出領域22及び第3電荷読出領域22も第1電荷読出領域22と同様の構成を有する。
 演算回路17Fは、可視光画像生成部18Fと、近赤外光画像生成部19Fと、を有する。可視光画像生成部18Fは、第3実施形態の可視光画像生成部18Cと同じであるから、説明を省略する。近赤外光画像生成部19Fは、距離画像生成部19bを含む。距離画像生成部19bは、第1電荷読出領域22に蓄積された電荷と、第1電荷読出領域22に蓄積された電荷と、を用いて距離情報を得る。第1電荷読出領域22に蓄積された電荷の量と第1電荷読出領域22に蓄積された電荷量との比率は、照射パルス光Lが出射されてから反射パルス光Lとなって画素アレイ12Fに入射するまでの遅れ時間に対応する。この時間は、光源11から撮像対象101までの距離と、撮像対象101から画素アレイ12Fまでの距離と、の和に関係する。従って、電荷量との比率を得ることによって、固体撮像装置1Fから撮像対象101までの距離を得ることができる。電荷量の比率を得るときに、第3電荷読出領域22に蓄積された電荷量を用いて、背景光に起因するノイズ成分を除去する。
 例えば、撮像対象101までの距離が短いとき、遅れ時間は短い。この場合には、第1電荷読出領域22に蓄積された電荷量が、第2電荷読出領域22に蓄積された電荷量よりも大きくなる。例えば、撮像対象101までの距離が長いとき、遅れ時間は長い。この場合には、第2電荷読出領域22に蓄積された電荷量が、第1電荷読出領域22に蓄積された電荷量よりも大きくなる。
〔動作/タイミングチャート〕
 図29に示すタイミングチャートを参照しながら、固体撮像装置1Fの動作を説明する。第1実施形態と同様に、以下の説明では、特に画素アレイ12Fの動作に注目する。
 図29に示すように、固体撮像装置1Fは、距離情報を含む近赤外光画像202を得る動作(距離画像取得動作D1)と、可視光画像201を得る動作(可視光画像取得動作D2)と、を含む。1回のフレーム期間において、距離画像取得動作D1と可視光画像取得動作D2とは、交互に複数回実行される。
 距離画像取得動作D1は、具体的には以下のとおりである。
 距離画像取得動作D1であるとき、画素アレイ12Fは、可視光画像201を取得しない。従って、ゲートドライバ回路32は、緑画素p1D、赤画素p2D及び青画素p3Dに対して第1転送制御パルスG(L)と、第2転送制御パルスG(L)と、排出制御パルスG(H)と、を出力する。距離画像取得動作D1であるとき、画素アレイ12Fの緑画素p1D、赤画素p2D及び青画素p3Dは、第1電荷読出領域22、第2電荷読出領域22への電荷の転送を禁止する。距離画像取得動作D1であるとき、画素アレイ12Fの緑画素p1D、赤画素p2D及び青画素p3Dは、電荷排出領域23への電荷の排出を許可する。
 距離画像取得動作D1であるとき、ゲートドライバ回路32は、以下の制御パルスを出力する。これらの制御パルスによれば、近赤外画素p4Dは、第1電荷読出領域22、第2電荷読出領域22及び第3電荷読出領域22への電荷の転送を禁止する。これらの制御パルスによれば、近赤外画素p4Dは、電荷排出領域23への電荷の排出を許可する。
  第1転送制御パルスG:(L)
  第2転送制御パルスG:(L)
  第3転送制御パルスG:(L)
  排出制御パルスG   :(H)
 所定時間が経過した後に、光源ドライバ回路31は、照射パルス光Lの照射を開始する。ゲートドライバ回路32は、以下の制御パルスを出力する。これらの制御パルスによれば、近赤外画素p4Dは、第1電荷読出領域22への電荷の転送を許可する。これらの制御パルスによれば、近赤外画素p4Dは、第2電荷読出領域22及び第3電荷読出領域22への電荷の転送を禁止する。これらの制御パルスによれば、近赤外画素p4Dは、電荷排出領域23への電荷の排出を禁止する。
  第1転送制御パルスG:(H)
  第2転送制御パルスG:(L)
  第3転送制御パルスG:(L)
  排出制御パルスG   :(L)
 ゲートドライバ回路32が上記の制御パルスの出力を開始するタイミングは、照射パルス光Lの照射を開始するタイミングと同時であってもよい。ゲートドライバ回路32が以下の制御パルスの出力を開始するタイミングは、照射パルス光Lの照射を開始するタイミングよりわずかに遅く設定してもよい。
 照射パルス光Lは、撮像対象101で反射された後に反射パルス光Lとなって固体撮像装置1Fに入射する。従って、反射パルス光Lを受けるタイミングは、照射パルス光Lが照射されたタイミングから遅れる。この遅れは、光源11から撮像対象101までの距離と、撮像対象101から画素アレイ12Fまでの距離と、に依存する。
 第1電荷読出領域22への電荷の転送が許可された直後は、反射パルス光Lが画素アレイ12Fに到達していないので、光電変換領域21において電荷が発生しない。従って、第1電荷読出領域22へ電荷が転送されることもない。ここでいう「光電変換領域21において電荷が発生しない」という状況は、反射パルス光Lに起因する電荷が発生しないことを意味する。反射パルス光Lが入射しないときであっても、光電変換領域21は、背景光に起因する電荷は発生する。背景光に起因する電荷は第1電荷読出領域22へ転送される。所定の時間が経過した後に、反射パルス光Lが画素アレイ12Fに入射する。その結果、光電変換領域21において電荷が発生し、発生した電荷は第1電荷読出領域22へ転送される。第1電荷読出領域22への電荷の転送が許可された期間は、第1電荷読出領域22への電荷の転送が生じない期間と、第1電荷読出領域22への電荷の転送が生じる期間と、を含む。図29では、電荷の転送が生じる期間を、ハッチングによって示している。
 予め定めた照射期間S11が経過した後に、光源ドライバ回路31は、照射パルス光Lの照射を停止する。ゲートドライバ回路32は、以下の制御パルスを出力する。これらの制御パルスによれば、近赤外画素p4Dは、第1電荷読出領域22及び第3電荷読出領域22への電荷の転送を禁止する。これらの制御パルスによれば、近赤外画素p4Dは、第2電荷読出領域22への電荷の転送を許可する。これらの制御パルスによれば、近赤外画素p4Dは、電荷排出領域23への電荷の排出を禁止する。
  第1転送制御パルスG:(L)
  第2転送制御パルスG:(H)
  第3転送制御パルスG:(L)
  排出制御パルスG   :(L)
 第2電荷読出領域22への電荷の転送が許可された直後は、画素アレイ12Fへの反射パルス光Lの入射が継続しているので、光電変換領域21において電荷が発生する。従って、第2電荷読出領域22へ電荷が転送される。光電変換領域21から電荷が転送される領域は、第1電荷読出領域22から第2電荷読出領域22へ切り替わる。画素アレイ12Fへの反射パルス光Lの入射が終了すると、光電変換領域21において電荷が発生しない。従って、第2電荷読出領域22への電荷の転送が終了する。
 画素アレイ12Fへの反射パルス光Lの入射が終了した後に、ゲートドライバ回路32は、以下の制御パルスを出力する。これらの制御パルスによれば、近赤外画素p4Dは、第1電荷読出領域22及び第2電荷読出領域22への電荷の転送を禁止する。これらの制御パルスによれば、近赤外画素p4Dは、第3電荷読出領域22への電荷の転送を許可する。これらの制御パルスによれば、近赤外画素p4Dは、電荷排出領域23への電荷の排出を禁止する。
  第1転送制御パルスG:(L)
  第2転送制御パルスG:(L)
  第3転送制御パルスG:(H)
  排出制御パルスG   :(L)
 上記の制御パルスによれば、反射パルス光Lに起因しない電荷が第3電荷読出領域22に転送される。第3電荷読出領域22に転送された電荷は、背景光ノイズを除去するために用いられる。
 距離画像取得動作D1であるとき、光源ドライバ回路31は、照射パルス光Lの照射を複数回実行する。ゲートドライバ回路32も、第1電荷読出領域22への電荷の転送と、第2電荷読出領域22への電荷の転送と、第3電荷読出領域22への電荷の転送と、を、照射パルス光Lの照射に応じて、複数回実行する。
 可視光画像取得動作D2は、具体的には以下のとおりである。
 可視光画像取得動作D2であるとき、画素アレイ12Fは、近赤外光画像202を取得しない。従って、ゲートドライバ回路32は、近赤外画素p4Dに対して第1転送制御パルスG(L)と、第2転送制御パルスG(L)と、第3転送制御パルスG3(L)と、排出制御パルスG(H)と、を出力する。可視光画像取得動作D2であるとき、画素アレイ12Fの近赤外画素p4Dは、第1電荷読出領域22、第2電荷読出領域22及び第3電荷読出領域22への電荷の転送を禁止する。可視光画像取得動作D2であるとき、画素アレイ12Fの近赤外画素p4Dは、電荷排出領域23への電荷の排出を許可する。
 可視光画像取得動作D2であるとき、ゲートドライバ回路32は、緑画素p1D、赤画素p2D及び青画素p3Dに対して、第1転送制御パルスG(L)と、第2転送制御パルスG(H)と、排出制御パルスG(L)と、を出力する。可視光画像取得動作D2であるとき、画素アレイ12Fの緑画素p1D、赤画素p2D及び青画素p3Dは、第1電荷読出領域22への電荷の転送を禁止し、第2電荷読出領域22への電荷の転送を許可すると共に、電荷排出領域23への電荷の排出を禁止する。この動作によれば、低感度である可視光画像201のための電荷を第2電荷読出領域22へ蓄積することができる。
 所定時間が経過した後に、ゲートドライバ回路32は、緑画素p1D、赤画素p2D及び青画素p3Dに対して、第1転送制御パルスG(H)と、第2転送制御パルスG(L)と、排出制御パルスG(L)と、を出力する。ゲートドライバ回路32は、第1転送制御パルスGをローからハイに切り替える。ゲートドライバ回路32は、第2転送制御パルスGをハイからローに切り替える。ゲートドライバ回路32は、排出制御パルスGの信号レベルを維持する。第1転送制御パルスG(H)を維持する時間は、第2転送制御パルスG(H)を維持する時間よりも長い。従って、この動作によれば、高感度である可視光画像201のための電荷を第1電荷読出領域22へ蓄積することができる。
〔作用効果〕
 固体撮像装置1Fも、第1実施形態の固体撮像装置1Aと同様に、可視光画像201と近赤外光画像202とを同時に撮像することができる。
 固体撮像装置1Fは、背景光ノイズが除去されると共に距離情報を含む近赤外光画像202を得ることができる。
 固体撮像装置の実施形態は、上述の例示に限定されない。
〔変形例1〕
 図30は、変形例1の固体撮像装置1Gが有する画素回路部13Aを示す。画素回路部13Aは、1個の光電変換領域21を有する。光電変換領域21は、電荷収集領域21aを介して第1電荷読出領域22に接続されている。画素回路部13Aは、光電変換領域21から第1電荷読出領域22への電荷の転送を許可又は禁止するための転送制御ゲートを備えない。光電変換領域21は、排出制御ゲート25を介して電荷排出領域23にも接続されている。第1電荷読出領域22は、第1読出制御ゲート28を介して第1浮遊拡散領域FDに接続されている。
 変形例1の画素回路部13Aによれば、画素の構造を単純にすることができる。変形例1の画素回路部13Aによれば、画素の面積を縮小することもできる。
 変形例1の画素回路部13Aは、第1実施形態の緑画素p1D、赤画素p2D、青画素p3D及び近赤外画素p4Dに適用可能である。変形例1の画素回路部13Aは、第2実施形態の緑画素p1D、赤画素p2D及び青画素p3Dにも適用可能である。
〔変形例2〕
 図31は、変形例2の固体撮像装置1Hが有する画素回路部13Sを示す。画素回路部13Sは、第1電荷読出領域22を有する。画素回路部13Sは、第1転送制御ゲート25Aの構造が第1実施形態の画素回路部13Sと異なっている。変形例2の画素回路部13Sの第1転送制御ゲート25Aは、本件発明者らが開発したラテラル電界制御電荷変調素子(LEFM : Lateral Electric Field controlled charge Modulator)の原理に基づく構造を有する。ラテラル電界制御電荷変調素子は、電荷輸送路の電界制御を、電荷輸送路の側面に設けた複数のゲートによる横方向電界により行う。その結果、高速な電子の輸送制御を行うことができる。
 変形例2の画素回路部13Sは、第1実施形態の緑画素p1D、赤画素p2D、青画素p3D及び近赤外画素p4Dに適用可能である。変形例2の画素回路部13Sは、第2実施形態の緑画素p1D、赤画素p2D及び青画素p3Dにも適用可能である。
〔変形例3〕
 図32は、変形例3の固体撮像装置1Kが有する画素回路部13Kを示す。画素回路部13Kは、第1電荷読出領域22、及び第2電荷読出領域22を有する。画素回路部13Kは、変形例2と同様に第1転送制御ゲート25A、第2転送制御ゲート25Aの構造が第2実施形態の画素回路部13Dと異なっている。変形例3の画素回路部13Kの第1転送制御ゲート25A、第2転送制御ゲート25Aも、ラテラル電界制御電荷変調素子の構造を採用する。
 変形例3の画素回路部13Kは、第2~第5実施形態の近赤外画素p4Dに適用可能である。変形例3の画素回路部13Kは、第3~第5実施形態の緑画素p1D、赤画素p2D及び青画素p3Dとしても適用可能である。
〔変形例4~6:波長選択構造〕
 波長選択フィルタ27G、27R、27Bを含んで構成される波長選択構造の変形例を例示する。
〔変形例4〕
 図33は、断面構造の変形例を示す。第1実施形態の固体撮像装置1Aは、カバーガラス51を備えていた。第1実施形態のカバーガラス51のカバー主面51a及びカバー裏面51bには、何も設けられていなかった。変形例4では、カバーガラス51のカバー裏面51bに近赤外帯域除去フィルタ52(NIR Band Elimination Filter:BEF Filter)が設けられている。カバーガラス51のカバー裏面51bとは、半導体積層基板60に対面する面である。近赤外帯域除去フィルタ52の特性は、図37(a)のグラフGxaのとおりである。グラフGxaによれば、近赤外帯域除去フィルタ52は、可視光線の帯域BVを透過する。近赤外帯域除去フィルタ52は、近赤外光の帯域BNのうち、照射パルス光Lの波長として採用される帯域BN(860±30ナノメートル)及び帯域BN(930±30ナノメートル)を透過する。近赤外帯域除去フィルタ52は、例えば、可視光線の帯域BVから近赤外光の帯域BNのうち帯域BNまでの光の透過を阻害する。近赤外帯域除去フィルタ52は、近赤外光のうち、照射パルス光Lを透過する。近赤外帯域除去フィルタ52は、近赤外光のうち、照射パルス光Lではない光を透過しない。従って、近赤外光画像202に含まれるノイズの発生を抑制することができる。
 可視光画素に取り込まれる近赤外成分を低減するため、近赤外の補助光の波長帯(例えば860nm±30nm、930nm±30nm)以外の近赤外成分を除去するための近赤外帯域バンド除去フィルタ(NIR-BEF)を設ける。バンド除去フィルタは、カバーガラス51に構成してもよい。バンド除去フィルタは、オンチップで近赤外画素p4Sだけに設けてもよい。
 変形例4の波長選択構造は、第1実施形態の固体撮像装置1A、第2実施形態の固体撮像装置1B、第3実施形態の固体撮像装置1C、第4実施形態の固体撮像装置1D、第5実施形態の固体撮像装置1F及び第6実施形態の固体撮像装置1Gのいずれにも適用可能である。
〔変形例5〕
 図34に示すように例えば可視光フィルタである波長選択フィルタ27R、27G、27Bとレンズ27Sとの間に、近赤外光の透過を阻害する近赤外帯域カットフィルタ53(NIR Cut Filter)を設けてもよい。近赤外帯域カットフィルタ53は、図37(b)に示す光透過特性を有する。近赤外帯域カットフィルタ53は、760ナノメートルより短い光(可視光線の帯域BV)を透過する。近赤外帯域カットフィルタ53は、760ナノメートルより長い波長の光(近赤外光の帯域BN)の透過を妨げる。図34に示す構成によれば、光は、カバーガラス51、レンズ27S、近赤外帯域カットフィルタ53及び可視光フィルタである波長選択フィルタ27R、27G、27Bをこの順に通過して、フォトダイオードPDに入射する。このような構造は、緑画素p1D、赤画素p2D及び青画素p3Dに対して適用される。このような構造は、近赤外画素p4Dには適用されない。近赤外画素p4Dは、波長選択フィルタ27R、27G、27B及び近赤外帯域カットフィルタ53に代えて、波長選択性を有しない光透過部材27Tを有する。
 変形例5の波長選択構造は、第1実施形態の固体撮像装置1A、第2実施形態の固体撮像装置1B、第3実施形態の固体撮像装置1C及び第6実施形態の固体撮像装置1Gに適用可能である。
〔変形例6〕
 変形例5では、近赤外画素p4Dは、波長選択性を有する光学部品を備えていなかった。例えば、図35に示すように、近赤外画素p4Dは、近赤外バンドパスフィルタ27N(NIR Bandpass Filter)を備えてもよい。近赤外バンドパスフィルタ27Nは、図37(c)に示す光透過特性を有する。近赤外バンドパスフィルタ27Nは、930ナノメートルの近傍の波長を透過する。近赤外バンドパスフィルタ27Nは、可視光線の帯域BVの光の透過を妨げる。
 変形例6の波長選択構造は、第1実施形態の固体撮像装置1A、第2実施形態の固体撮像装置1B、第3実施形態の固体撮像装置1C及び第6実施形態の固体撮像装置1Gに適用可能である。
〔変形例7〕
 図36に示すように、固体撮像装置は、いわゆる裏面照射型の構造を採用した半導体積層基板60Bによって構成されてもよい。図36に示す構造は、第1実施形態の固体撮像装置1A、第2実施形態の固体撮像装置1B、第3実施形態の固体撮像装置1C、第4実施形態の固体撮像装置1D、第5実施形態の固体撮像装置1E及び第6実施形態の固体撮像装置1Fに適用可能である。
 上記の固体撮像装置1A~1Fを生体信号の計測のために用いるためには、ロックイン検出する信号として近赤外光を2バンドとする構成と、近赤外光を1バンドとし可視光を1バンドとする構成とを、組み合わせてもよい。近赤外光を2バンドとする構成の場合、近赤外画素p4Dには、電荷読出領域を3個設ける。偶数列画素を近赤外光の第1のバンドとする。奇数列画素を近赤外の第2のバンドとする。近赤外光を1バンドとし可視光を1バンドとする構成を採用する場合には、近赤外画素には個の電荷読出領域を設けると共に可視光画素にも2個の電荷読出領域を設ける。
〔第7実施形態〕
 上述した第1実施形態の固体撮像装置1Aは、照射パルス光Lの照射期間と重複する期間において、緑画素p1S、p4S、赤画素p2S及び青画素p3Sの光電変換領域21に発生した電荷を電荷排出領域23に排出させた。その結果、第1実施形態の固体撮像装置1Aは、近赤外光の影響が抑制された可視光画像201を得ることができる。第2~第6実施形態の固体撮像装置も同様である。第7実施形態の固体撮像装置は、これとは異なる方式によって、近赤外光の影響が抑制された可視光画像201を得る。
 第7実施形態の固体撮像装置は、可視光の画像と近赤外光の画像とを同時に取得する。第7実施形態の固体撮像装置は、近赤外光の影響が抑制された可視光の画像を得ることを目的とする。
<第7実施形態の固体撮像装置の概要>
 第7実施形態の固体撮像装置は、近赤外光の波長成分を有するパルス光を発生させる光源と、可視光に応じる可視光電荷を発生させると共に、パルス光に起因する近赤外光の波長成分を有する光に応じる近赤外光電荷を発生させる複数の画素を含む画素アレイと、可視光電荷及び近赤外光電荷の転送を制御する制御パルスを画素に与える電荷転送制御手段と、を備える。複数の画素のそれぞれは、可視光電荷及び近赤外光電荷を発生させる光電変換領域と、制御パルスに応じて光電変換領域から可視光電荷の転送を受ける少なくとも1個の可視光電荷読出領域と、制御パルスに応じて光電変換領域から近赤外光電荷の転送を受ける少なくとも2個の近赤外光電荷読出領域と、制御パルスに応じて光電変換領域から可視光電荷及び近赤外光電荷を排出する電荷排出領域と、を有する。電荷転送制御手段は、光電変換領域から少なくとも2個の近赤外光電荷読出領域のそれぞれに近赤外光電荷を振り分ける制御パルスを画素に与える第1動作と、第1動作の後に、光電変換領域から可視光電荷及び/又は近赤外光電荷を排出する制御パルスを画素に与える第2動作と、第2動作の後に、光電変換領域から可視光電荷読出領域に可視光電荷を転送する制御パルスを画素に与える第3動作と、を行う。
 第7実施形態の固体撮像装置は、第1動作によって撮像対象までの距離情報を含む距離画像を得ることができる。第7実施形態の固体撮像装置は、第3動作によって撮像対象の可視光画像を得ることができる。従って、第7実施形態の固体撮像装置は、可視光の画像と近赤外光の画像とを同時に取得することができる。この第1動作と第3動作の間には、光電変換領域に発生した電荷を排出する第2動作が行われる。距離画像を得る第1動作から、可視光画像を得る第3動作までの間に、所定の待機時間が設けられる。この待機時間によれば、第1動作のために発生したパルス光が、第3動作が行われるまでの間に十分に減衰する。従って、固体撮像装置は、近赤外光の影響が抑制された可視光の画像を得ることができる。
 第7実施形態の固体撮像装置の画素アレイは、第1画素と、第2画素と、第3画素と、第4画素と、を含んでもよい。第1画素は、近赤外光の波長成分を透過すると共に、可視光に含まれる波長成分のうち第1波長成分のみを透過する第1フィルタを含んでもよい。第2画素は、近赤外光の波長成分を透過すると共に、可視光に含まれる波長成分のうち第1波長成分よりも短い第2波長成分のみを透過する第2フィルタを含んでもよい。第3画素は、近赤外光の波長成分を透過すると共に、可視光に含まれる波長成分のうち第2波長成分よりも短い第3波長成分のみを透過する第3フィルタを含んでもよい。第4画素は、第1フィルタ、第2フィルタ及び第3フィルタのいずれか一つを含んでもよい。この構成によっても、固体撮像装置は、近赤外光の影響が抑制された可視光の画像を得ることができる。
 第7実施形態の固体撮像装置の画素アレイは、第1画素と、第2画素と、第3画素と、第4画素と、を含んでもよい。第1画素は、近赤外光の波長成分を透過すると共に、可視光に含まれる波長成分のうち第1波長成分のみを透過する第1フィルタを含んでもよい。第2画素は、近赤外光の波長成分を透過すると共に、可視光に含まれる波長成分のうち第1波長成分よりも短い第2波長成分のみを透過する第2フィルタを含んでもよい。第3画素は、近赤外光の波長成分を透過すると共に、可視光に含まれる波長成分のうち第2波長成分よりも短い第3波長成分のみを透過する第3フィルタを含んでもよい。第4画素は、近赤外光の波長成分を有する光のみを選択的に透過する近赤外光選択フィルタを含んでもよい。この構成によれば、第4画素は、パルス光に起因する近赤外光の波長成分を有する光のみを選択的に透過するので、外乱光への耐性を高めることができる。
<第7実施形態の固体撮像装置の効果>
 第7実施形態の固体撮像装置によれば、可視光の画像と近赤外光の画像とを同時に取得することができる。第7実施形態の固体撮像装置によれば、近赤外光の影響が抑制された可視光の画像を得ることができる。
<第7実施形態の固体撮像装置の具体的構成例>
 距離測定の原理を説明する。図38は、固体撮像装置1Qの原理を示す図である。固体撮像装置1Qは、光飛行時間を間接的に測定する。固体撮像装置1Qは、電荷を蓄積する複数個の領域を有する。固体撮像装置1Qは、光の入射によって光電変換領域21に生じた電荷を、それぞれの読出領域に振り分ける。この振り分けは、光電変換領域21から読出領域への電荷の転送を制御するゲートによって行われる。第1期間TWにおいて第1読出領域に電荷を転送する。第1期間TWにおいて、第2読出領域には電荷を転送しない。第1期間TWに続く第2期間TWにおいて第1読出領域への電荷の転送を停止すると共に、第2読出領域へ電荷を転送する。第1読出領域の第1電荷量Q及び第2読出領域の第2電荷量Qの比率と、第1期間TWと第2期間TWの時間幅TWと、を利用することによって光飛行時間を得ることができる。光飛行時間は、距離情報に換算できる。
 図39は、第7実施形態の固体撮像装置1Qが備える画素パネル2Qの平面図である。画素パネル2Qは、画素アレイ12Qを含む。画素アレイ12Qは、緑画素p1Qと、赤画素p2Qと、青画素p3Qと、緑画素p4Qと、を有する。緑画素p1Q、p4Qは、可視光のうち、緑に対応する波長を含む光に対応する電荷を得る。赤画素p2Qは、可視光のうち、赤に対応する波長を含む光に対応する電荷を得る。青画素p3Qは、可視光のうち、青に対応する波長を含む光に対応する電荷を得る。緑画素p1Q、赤画素p2Q、青画素p3Q及び緑画素p4Qは、可視光画像201を得るために用いられる。
 緑画素p1Q、赤画素p2Q、青画素p3Q及び緑画素p4Qのそれぞれは、反射パルス光Lに対応する電荷を得る。緑画素p1Q、赤画素p2Q、青画素p3Q及び緑画素p4Qは、距離画像203を得るためにも用いられる。
 図40は、第7実施形態の画素アレイ12Qの構造を示す断面図である。図40に示すように、緑画素p1Q、p4Qは、波長選択フィルタ27Gと、近赤外帯域除去フィルタ52と、を有する。緑画素p1Q、p4Qの光電変換領域21には、緑の波長成分(波長550±50ナノメートル)の光と、反射パルス光L(波長860±30ナノメートル及び波長930±30ナノメートル)と、が提供される。
 赤画素p2Qは、波長選択フィルタ27Rと、近赤外帯域除去フィルタ52と、を有する。赤画素p2Qの光電変換領域21には、赤の波長成分(波長650±50ナノメートル)の光と、反射パルス光L(波長860±30ナノメートル及び波長930±30ナノメートル)と、が提供される。
 青画素p3Qは、波長選択フィルタ27Bと、近赤外帯域除去フィルタ52と、を有する。青画素p3Qの光電変換領域21には、青の波長成分(波長450±50ナノメートル)の光と、反射パルス光L(波長860±30ナノメートル及び波長930±30ナノメートル)と、が提供される。
 図41は、第7実施形態の画素回路部13Qを詳細に示す平面図である。第7実施形態の固体撮像装置1Qは、画素回路部13Qが出力する電圧Vout1、Vout2を演算回路17Qが受ける。演算回路17Qは、撮像対象101までの距離情報を含む距離画像203と、撮像対象101の可視光画像201と、を出力する。距離画像203は、照射パルス光L及び反射パルス光Lの飛行時間を利用して得た距離情報を含む。
 画素回路部13Qの読出部22Qは、第1電荷読出領域22と、第2電荷読出領域22と、第3電荷読出領域22と、第4電荷読出領域22と、を有する。第1電荷読出領域22、第2電荷読出領域22及び第3電荷読出領域22は、距離画像203を得るための近赤外光電荷を蓄積する。第4電荷読出領域22は、可視光画像201を得るための可視光電荷を蓄積する。
 画素回路部13Qは、第1転送制御ゲート25と、第2転送制御ゲート25と、第3転送制御ゲート25と、第4転送制御ゲート25と、を有する。第1転送制御ゲート25は、光電変換領域21から第1電荷読出領域22への電荷の転送を許可又は禁止する。第2転送制御ゲート25、第3転送制御ゲート25及び第4転送制御ゲート25は、光電変換領域21から第2電荷読出領域22、第3電荷読出領域22及び第4電荷読出領域22への電荷の転送をそれぞれ許可又は禁止する。第1転送制御ゲート25、第2転送制御ゲート25、第3転送制御ゲート25及び第4転送制御ゲート25による電荷の転送の許可及び禁止は、第1転送制御パルスG、第2転送制御パルスG、第3転送制御パルスG及び第4転送制御パルスGによって制御される。
 画素回路部13Qは、排出制御ゲート25Dを有する。排出制御ゲート25Dは、光電変換領域21から電荷排出領域23への転送を許可又は禁止する。排出制御ゲート25Dによる電荷の転送の許可及び禁止は、排出制御パルスGによって制御される。
 画素回路部13Qは、検出部26Qを有する。検出部26Qは、第1電圧検出手段26Qと、第2電圧検出手段26Qと、を有する。第1電圧検出手段26Qは、第1電荷読出領域22に蓄積された電荷に基づく電圧又は第3電荷読出領域22に蓄積された電荷に基づく電圧を読み出す。第2電圧検出手段26Qは、第2電荷読出領域22に蓄積された電荷に基づく電圧又は第4電荷読出領域22に蓄積された電荷に基づく電圧を読み出す。
 第1電圧検出手段26Qは、第1読出制御ゲート28と、第3読出制御ゲート28と、第1浮遊拡散領域FDと、を有する。第1読出制御ゲート28は、第1電荷読出領域22から第1浮遊拡散領域FDへの電荷の転送を許可又は禁止する。第3読出制御ゲート28は、第3電荷読出領域22から第1浮遊拡散領域FDへの電荷の転送を許可又は禁止する。第1電荷読出領域22と第3電荷読出領域22とは、電圧を読み出すための第1浮遊拡散領域FDを共有する。第1読出制御ゲート28及び第3読出制御ゲート28による電荷の転送の許可及び禁止は、第1読出信号T及び第3読出信号Tによって制御される。
 第1浮遊拡散領域FDには、読出トランジスタ26aと、選択トランジスタ26bと、リセットトランジスタ26cと、を含む読出回路が接続されている。読出回路の構成は、図7等に示す固体撮像装置1Aと同じであるから、詳細な説明は省略する。
 第2電圧検出手段26Qは、第2読出制御ゲート28と、第4読出制御ゲート28と、第2浮遊拡散領域FDと、を有する。第2読出制御ゲート28は、第2電荷読出領域22から第2浮遊拡散領域FDへの電荷の転送を許可又は禁止する。第4読出制御ゲート28は、第4電荷読出領域22から第2浮遊拡散領域FDへの電荷の転送を許可又は禁止する。第2電荷読出領域22と第4電荷読出領域22とは、電圧を読み出すための第2浮遊拡散領域FDを共有する。第2読出制御ゲート28及び第4読出制御ゲート28による電荷の転送の許可及び禁止は、第2読出信号T又は第4読出信号Tによって制御される。
 第2浮遊拡散領域FDには、読出トランジスタ26aと、選択トランジスタ26bと、リセットトランジスタ26cと、を含む読出回路が接続されている。読出回路の構成の詳細な説明は省略する。
 図42は、第7実施形態の画素アレイ12Qに与えられる制御パルスを示すタイミングチャートである。画素アレイ12Qは、緑画素p1Qと、赤画素p2Qと、青画素p3Qと、緑画素p4Qと、を有する。緑画素p1Q、赤画素p2Q、青画素p3Q及び緑画素p4Qのそれぞれは、図42に示す制御パルスを受ける。緑画素p1Q、赤画素p2Q、青画素p3Q及び緑画素p4Qのそれぞれが受ける制御パルスは、同じである。
<第7実施形態の固体撮像装置の動作>
 第7実施形態のゲートドライバ回路32は、第1動作W1と、第2動作W2と、第3動作W3と、を行う。ゲートドライバ回路32は、第1動作W1、第2動作W2及び第3動作W3をこの順に実行する。ゲートドライバ回路32は、第1動作W1を実行する。ゲートドライバ回路32は、第1動作W1を実行した後に、第2動作W2を実行する。ゲートドライバ回路32は、第2動作W2を実行した後に、第3動作W3を実行する。ゲートドライバ回路32は、再び、第1動作W1を実行する。
 第1動作W1は、距離画像203を得る。光源ドライバ回路31は、照射パルス光LPの出射を開始させる。ゲートドライバ回路32は、第1転送制御パルスGをローからハイに切り替える。第1転送制御パルスGをローからハイに切り替えるタイミングは、照射パルス光LPの出射を開始するタイミングと一致してもよい。所定期間経過後に、ゲートドライバ回路32は、第1転送制御パルスGをハイからローに切り替える。その後、光源ドライバ回路31は、照射パルス光LPの出射を停止させる。第1転送制御パルスGがハイである期間は、照射パルス光LPの出射期間よりわずかに短くてもよい。
 次に、ゲートドライバ回路32は、第2転送制御パルスGをローからハイに切り替える。第2転送制御パルスGをローからハイに切り替えるタイミングは、光源ドライバ回路31が照射パルス光LPの出射を停止させるタイミングと一致してよい。第1転送制御パルスGがローからハイに切り替わるタイミングから、第2転送制御パルスGがローからハイに切り替わるタイミングまでの時間は、照射パルス光LPの出射期間と同じであってもよい。
 ゲートドライバ回路32は、第1転送制御パルスGがハイである期間と同じだけ、第2転送制御パルスGをハイに維持する。その後、ゲートドライバ回路32は、第2転送制御パルスGをハイからローに切り替える。
 次に、ゲートドライバ回路32は、第3転送制御パルスGをローからハイに切り替える。ゲートドライバ回路32は、第1転送制御パルスGがハイである期間と同じだけ、第3転送制御パルスGをハイに維持する。その後、ゲートドライバ回路32は、第3転送制御パルスGをハイからローに切り替える。
 第2動作W2は、待機時間WTの確保である。待機時間WTにも光電変換領域21に光が入射するので、電荷は発生する。しかし、この電荷は、蓄積しない。待機時間WTに発生した電荷は、電荷排出領域23に排出する。待機時間WTに発生した電荷は、可視光画像201の生成に用いることはないし、距離画像203の生成に用いることもない。待機時間WTは、例えば、第1動作W1の時間より長くてもよい。待機時間WTは、第3動作W3の時間より短くてもよい。
 待機時間WTは、可視光画像201に与える反射パルス光Lの影響を低減させるためのものである。後述するように、第3動作W3では、可視光画像201を得る。可視光画像201を得るための電荷は、第4電荷読出領域22に蓄積される。第4電荷読出領域22に蓄積される電荷は、可視光の成分のみに起因して発生したものであることが理想である。反射パルス光Lによって生じた電荷が第4電荷読出領域22に蓄積されると、ノイズになる。そこで、照射パルス光LPを出射してから、可視光に起因する電荷を蓄積するまでの間に、十分な時間を設ける。非常に長い距離にある物体で反射した反射パルス光Lが光電変換領域21に入射する。しかし、長い距離を伝わる間に、反射パルス光Lは、十分に減衰する。従って、第3動作W3において、反射パルス光Lに起因して生じる電荷が、可視光に起因して生じる電荷に及ぼす影響は、わずかである。第3動作W3であるとき、反射パルス光Lは、実質的には、光電変換領域21に入射しないものとみなすこともできる。その結果、可視光画像201が受ける反射パルス光Lの影響が抑制される。
 第2動作W2では、ゲートドライバ回路32は、排出制御パルスGをローからハイに切り替える。ゲートドライバ回路32は、排出制御パルスGがハイである状態を所定時間だけ維持する。排出制御パルスGがハイである状態を維持している時間が、上述した待機時間WTである。
 第3動作W3は、可視光画像201を得る。ゲートドライバ回路32は、排出制御パルスGをハイからローに切り替える。ゲートドライバ回路32は、第4転送制御パルスGをローからハイに切り替える。ゲートドライバ回路32は、第4転送制御パルスGがハイである状態を所定時間だけ維持する。
 ゲートドライバ回路32は、第4転送制御パルスGをハイからローに切り替える。ゲートドライバ回路32は、排出制御パルスGをローからハイに切り替える。
<第7実施形態の固体撮像装置の作用効果>
 第7実施形態の固体撮像装置1Qは、近赤外光の波長成分を有する照射パルス光Lを発生させる光源11と、可視光に応じる可視光電荷を発生させると共に、照射パルス光Lに起因する近赤外光の波長成分を有する反射パルス光Lに応じる近赤外光電荷を発生させる複数の画素p1Q、p2Q、p3Q、p4Qを含む画素アレイ12Qと、可視光電荷及び近赤外光電荷の転送を制御する転送制御パルスG、G、G、G、及び排出制御パルスGを画素p1Q、p2Q、p3Q、p4Qに与えるゲートドライバ回路32と、を備える。複数の画素p1Q、p2Q、p3Q、p4Qのそれぞれは、可視光電荷及び近赤外光電荷を発生させる光電変換領域21と、転送制御パルスGに応じて光電変換領域21から可視光電荷を受ける電荷読出領域22及び転送制御パルスG、G、Gに応じて光電変換領域21から近赤外光電荷を受ける電荷読出領域22、22、22と、排出制御パルスGに応じて光電変換領域21から可視光電荷及び/又は近赤外光電荷を排出する電荷排出領域23と、を有する。ゲートドライバ回路32は、光電変換領域21から電荷読出領域22、22、22のそれぞれに近赤外光電荷を振り分ける転送制御パルスG、G、Gを画素p1Q、p2Q、p3Q、p4Qに与える第1動作W1と、第1動作W1の後に、光電変換領域21から可視光電荷及び/又は近赤外光電荷を排出する排出制御パルスGを画素p1Q、p2Q、p3Q、p4Qに与える第2動作W2と、第2動作W2の後に、光電変換領域21から電荷読出領域22に可視光電荷を転送する転送制御パルスGを画素p1Q、p2Q、p3Q、p4Qに与える第3動作W3と、を行う。
 固体撮像装置1Qは、第1動作W1によって撮像対象101までの距離情報を含む距離画像203を得ることができる。固体撮像装置1Qは、第3動作W3によって撮像対象101の可視光画像201を得ることができる。従って、固体撮像装置1Qは、可視光画像201と近赤外光に基づく距離画像203とを同時に取得することができる。この第1動作W1と第3動作W3の間には、光電変換領域21に発生した電荷を排出する第2動作W2が行われる。距離画像203を得る第1動作W1から、可視光画像201を得る第3動作W3までの間に、所定の待機時間WTが設けられる。待機時間WTによれば、第1動作W1のための反射パルス光Lが、第3動作W3が行われるまでの間に十分に減衰する。従って、固体撮像装置1Qは、近赤外光の影響が抑制された可視光画像201を得ることができる。
 固体撮像装置1Qの画素アレイ12Qは、緑画素p1Q、赤画素p2Q、青画素p3Q、緑画素p4Qと、を含む。赤画素p2Qは、反射パルス光Lを透過すると共に、可視光に含まれる赤波長成分(第1波長成分)を透過する波長選択フィルタ27R(第1フィルタ)を含む。緑画素p1Q、p4Qは、反射パルス光Lを透過すると共に、赤波長成分よりも短い緑波長成分(第2波長成分)を透過する波長選択フィルタ27G(第2フィルタ)を含む。青画素p3Qは、反射パルス光Lを透過すると共に、可視光に含まれる緑波長成分よりも短い青波長成分(第3波長成分)を透過する波長選択フィルタ27B(第3フィルタ)を含む。この構成によっても、固体撮像装置1Qは、近赤外光の影響が抑制された可視光画像201を得ることができる。
<第7実施形態の固体撮像装置の変形例>
 第7実施形態の固体撮像装置1Qの変形例である固体撮像装置1Qについて説明する。
 図43は、第7実施形態の変形例の固体撮像装置1Qが備える画素アレイ12Qを示す平面図である。画素アレイ12Qは、緑画素p1Qと、赤画素p2Qと、青画素p3Qと、近赤外画素p4Qと、を有する。つまり、変形例の固体撮像装置1Qは、第7実施形態の緑画素p4Qを近赤外画素p4Qに交換したものである。変形例の固体撮像装置1Qが備える緑画素p1Q、赤画素p2Q、及び青画素p3Qは、第7実施形態の固体撮像装置1Qが備える緑画素p1Q、赤画素p2Q及び青画素p3Qと同じである。
 図44は、第7実施形態の変形例の画素アレイ12Qの構造を示す断面図である。図44に示すように、近赤外画素p4Qは、近赤外光選択フィルタ27Qを備える。近赤外光選択フィルタ27Qは、反射パルス光Lを選択的に透過する。例えば、近赤外光選択フィルタ27Qは、例えば940nm付近のNIR帯の光成分のみを通過させるバンドパスフィルタ(BPF)であってもよい(図45(a)参照)。近赤外光選択フィルタ27Qは、例えば860nm以上のNIR帯の光成分のみを通過させるハイパスフィルタ(HPF)であってもよい(図45(b)参照)。
 変形例では、画素アレイ12Qを構成する緑画素p1Q、赤画素p2Q及び青画素p3Qは、第7実施形態と同様に、ゲートドライバ回路32から共通の制御パルスを受ける。近赤外画素p4Q1では、第3動作W3を行わず、転送制御パルスG1、G2、G3と同じパルス幅を持つ転送制御パルスG4を、第1動作W1において、転送制御パルスG3に続けて受けてもよい。
 固体撮像装置1Qの画素アレイ12Qは、緑画素p1Q、赤画素p2Q、青画素p3Q、近赤外画素p4Qと、を含む。赤画素p2Qは、反射パルス光Lを透過すると共に、可視光に含まれる赤波長成分(第1波長成分)を透過する波長選択フィルタ27R(第1フィルタ)を含む。緑画素p1Q、p4Qは、反射パルス光Lを透過すると共に、赤波長成分よりも短い緑波長成分(第2波長成分)を透過する波長選択フィルタ27G(第2フィルタ)を含む。青画素p3Qは、反射パルス光Lを透過すると共に、可視光に含まれる緑波長成分よりも短い青波長成分(第3波長成分)を透過する波長選択フィルタ27B(第3フィルタ)を含む。近赤外画素p4Qは、反射パルス光Lのみを選択的に透過する近赤外光選択フィルタ27Qを含む。この構成によれば、近赤外画素p4Qは、反射パルス光Lのみを選択的に透過するので、外乱光への耐性を高めることができる。
1A,1B,1C,1D,1E,1F,1G,1H,1K,1Q,1Q…固体撮像装置、11…光源、12A,12B,12C,12F,12Q,12Q…画素アレイ、13S,13D,13T,13Q…画素回路部(第1画素回路部、第2画素回路部)、17,17B,17C,17F,17Q…演算回路、21…光電変換領域(PD)、22…読出部(SD)、22…第1電荷読出領域、22…第2電荷読出領域、22…第3電荷読出領域、22…第4電荷読出領域、22S,22D,22Q…読出部、23…電荷排出領域、27R…波長選択フィルタ(第1フィルタ)、27G…波長選択フィルタ(第2フィルタ)、27B…波長選択フィルタ(第3フィルタ)、27Q…近赤外光選択フィルタ(近赤外光選択フィルタ)、L…反射パルス光。

 

Claims (15)

  1.  近赤外光の波長成分を有するパルス光を発生させる光源と、
     少なくとも可視光の波長成分を含む第1光を受けて、前記第1光に応じる電荷を第1画素回路部によって発生させる第1画素と、
     少なくとも近赤外光の波長成分を含む第2光を受けて、前記第2光に応じる電荷を第2画素回路部によって発生させる第2画素と、
     前記電荷の転送を制御する制御パルスを前記第1画素及び前記第2画素に与える電荷転送制御手段と、を備え、
     前記第1画素回路部及び前記第2画素回路部は、前記電荷を発生させる光電変換領域と、前記制御パルスに応じて前記光電変換領域から前記電荷の転送を受ける読出部と、前記制御パルスに応じて前記光電変換領域から前記電荷を排出する電荷排出領域と、をそれぞれ有する、固体撮像装置。
  2.  前記電荷転送制御手段は、前記パルス光の照射期間と重複する期間において、前記第1画素回路部の前記光電変換領域から前記第1画素回路部の前記電荷排出領域へ前記電荷を排出させる前記制御パルスを、前記第1画素回路部に与える、請求項1に記載の固体撮像装置。
  3.  前記第1画素回路部の前記読出部は、第1電荷読出領域と第2電荷読出領域とを含み、
     前記電荷転送制御手段は、
     前記パルス光の照射期間と重複しない期間において、前記第1画素回路部の前記光電変換領域から前記第1画素回路部の前記第1電荷読出領域へ前記電荷を転送させる前記制御パルスを前記第1画素回路部に与えた後に、前記第1画素回路部の前記光電変換領域から前記第1画素回路部の前記第2電荷読出領域へ前記電荷を転送させる前記制御パルスを前記第1画素回路部に与える、請求項2に記載の固体撮像装置。
  4.  前記第1画素回路部の前記光電変換領域から前記第1画素回路部の前記第1電荷読出領域へ前記電荷を転送させる前記制御パルスの期間及び記第1画素回路部の前記光電変換領域から前記第1画素回路部の前記第2電荷読出領域へ前記電荷を転送させる前記制御パルスの期間のうち、一方の期間は他方の期間より、短い、請求項3に記載の固体撮像装置。
  5.  前記電荷に基づく画像を得る演算回路をさらに備え、
     前記演算回路は、前記第1電荷読出領域に蓄積された前記電荷に基づく第1画像又は前記第2電荷読出領域に蓄積された前記電荷に基づく第2画像の少なくとも一方を得る、請求項3に記載の固体撮像装置。
  6.  前記第2画素回路部の前記読出部は、第1電荷読出領域と第2電荷読出領域とを含み、
     前記電荷転送制御手段は、
     前記パルス光の照射期間と重複する期間において、前記第2画素回路部の前記光電変換領域から前記第2画素回路部の前記第1電荷読出領域へ前記電荷を転送させる前記制御パルスを、前記第2画素回路部に与え、
     前記パルス光の照射期間と重複しない期間において、前記第2画素回路部の前記光電変換領域から前記第2画素回路部の前記第2電荷読出領域へ前記電荷を転送させる前記制御パルスを前記第2画素回路部に与える、請求項2~5の何れか一項に記載の固体撮像装置。
  7.  前記第2画素回路部の前記光電変換領域から前記第2画素回路部の前記第1電荷読出領域へ前記電荷を転送させる前記制御パルスの期間は、前記第2画素回路部の前記光電変換領域から前記第2画素回路部の前記電荷排出領域へ前記電荷を転送させる前記制御パルスと等しい、請求項6に記載の固体撮像装置。
  8.  前記電荷に基づく画像を得る演算回路をさらに備え、
     前記演算回路は、前記第2電荷読出領域へ蓄積された前記電荷を用いて、前記第1電荷読出領域へ蓄積された前記電荷に含まれた背景光に対応する成分を除去する、請求項7に記載の固体撮像装置。
  9.  前記光源は、前記パルス光を対象物に向けて照射し、
     前記第2画素回路部の前記読出部は、第1電荷読出領域と第2電荷読出領域とを含み、
     前記電荷転送制御手段は、
     前記対象物からの反射パルス光が入射する期間を含むように、前記第2画素回路部の前記光電変換領域から前記第2画素回路部の前記第1電荷読出領域へ前記電荷を転送させる前記制御パルスを、前記第2画素回路部に与えた後に、前記第2画素回路部の前記光電変換領域から前記第2画素回路部の前記第2電荷読出領域へ前記電荷を転送させる前記制御パルスを、前記第2画素回路部に与える、請求項2に記載の固体撮像装置。
  10.  前記第2画素回路部の前記読出部は、第3電荷読出領域をさらに含み、
     前記電荷転送制御手段は、
     前記対象物からの前記反射パルス光が入射しない期間において、前記第2画素回路部の前記光電変換領域から前記第2画素回路部の前記第3電荷読出領域へ前記電荷を転送させる前記制御パルスを、前記第2画素回路部に与える、請求項9に記載の固体撮像装置。
  11.  前記電荷に基づく画像を得る演算回路をさらに備え、
     前記第1電荷読出領域へ蓄積された前記電荷と前記第2電荷読出領域へ蓄積された前記電荷とを用いて、前記対象物までの距離を得る、請求項9又は10に記載の固体撮像装置。
  12.  前記第1画素回路部の前記読出部は、第1電荷読出領域と第2電荷読出領域とを含み、
     前記電荷転送制御手段は、第1動作と第2動作とを選択的に実行し、
     前記第1動作は、
     前記パルス光の照射期間と重複する期間において、
     前記第1画素回路部の前記光電変換領域から前記第1画素回路部の前記電荷排出領域へ前記電荷を転送させる前記制御パルスを、前記第1画素回路部に与え、
     前記パルス光の照射期間と重複しない期間において、
     前記第1画素回路部の前記光電変換領域から前記第1画素回路部の前記第1電荷読出領域へ前記電荷を転送させた後に、前記第1画素回路部の前記光電変換領域から前記第1画素回路部の前記第2電荷読出領域へ前記電荷を転送させる前記制御パルスを、前記第1画素回路部に与え、
     前記第2動作は、
     前記パルス光の照射期間と重複する期間において、
     前記第1画素回路部の前記光電変換領域から前記第1画素回路部の前記第1電荷読出領域へ前記電荷を転送させる前記制御パルスを前記第1画素回路部に与え、
     前記パルス光の照射期間と重複しない期間において、
     前記第1画素回路部の前記光電変換領域から前記第1画素回路部の前記第2電荷読出領域へ前記電荷を転送させる前記制御パルスを前記第1画素回路部に与える、請求項2に記載の固体撮像装置。
  13.  前記第1画素は、前記第1光に応じる可視光電荷を発生させると共に、前記第2光に応じる近赤外光電荷も発生させ、
     前記第2画素は、前記第2光に応じる近赤外光電荷を発生させると共に、前記第1光に応じる可視光電荷も発生させ、
     前記電荷転送制御手段は、前記可視光電荷及び前記近赤外光電荷の転送を制御する制御パルスを前記第1画素及び前記第2画素に与え、
     前記光電変換領域は、前記可視光電荷及び前記近赤外光電荷を発生させ、
     前記読出部は、前記制御パルスに応じて前記光電変換領域から前記可視光電荷の転送を受ける少なくとも1個の可視光電荷読出領域と、前記制御パルスに応じて前記光電変換領域から前記近赤外光電荷の転送を受ける少なくとも2個の近赤外光電荷読出領域と、を含み、
     前記電荷排出領域は、前記制御パルスに応じて前記光電変換領域から前記可視光電荷及び前記近赤外光電荷を排出し、
     前記電荷転送制御手段は、
     前記光電変換領域から少なくとも2個の前記近赤外光電荷読出領域のそれぞれに前記近赤外光電荷を振り分ける前記制御パルスを前記第1画素及び前記第2画素に与える第1動作と、
     前記第1動作の後に、前記光電変換領域から前記可視光電荷及び/又は前記近赤外光電荷を排出する前記制御パルスを前記第1画素及び前記第2画素に与える第2動作と、
     前記第2動作の後に、前記光電変換領域から前記可視光電荷読出領域に前記可視光電荷を転送する前記制御パルスを前記第1画素及び前記第2画素に与える第3動作と、を行う、請求項1に記載の固体撮像装置。
  14.  前記第1光に応じる可視光電荷を発生させると共に、前記第2光に応じる近赤外光電荷を発生させる第3画素及び第4画素をさらに備え、
     前記第1画素は、前記近赤外光の波長成分を透過すると共に、前記可視光に含まれる波長成分のうち第1波長成分のみを透過する第1フィルタを含み、
     前記第2画素は、前記近赤外光の波長成分を透過すると共に、前記可視光に含まれる波長成分のうち前記第1波長成分よりも短い第2波長成分のみを透過する第2フィルタを含み、
     前記第3画素は、前記近赤外光の波長成分を透過すると共に、前記可視光に含まれる波長成分のうち前記第2波長成分よりも短い第3波長成分のみを透過する第3フィルタを含み、
     前記第4画素は、前記第1フィルタ、前記第2フィルタ及び前記第3フィルタのいずれか一つを含む、請求項13に記載の固体撮像装置。
  15.  前記第1光に応じる可視光電荷を発生させると共に、前記第2光に応じる近赤外光電荷を発生させる第3画素及び第4画素をさらに備え、
     前記第1画素は、前記近赤外光の波長成分を透過すると共に、前記可視光に含まれる波長成分のうち第1波長成分のみを透過する第1フィルタを含み、
     前記第2画素は、前記近赤外光の波長成分を透過すると共に、前記可視光に含まれる波長成分のうち前記第1波長成分よりも短い第2波長成分のみを透過する第2フィルタを含み、
     前記第3画素は、前記近赤外光の波長成分を透過すると共に、前記可視光に含まれる波長成分のうち前記第2波長成分よりも短い第3波長成分のみを透過する第3フィルタを含み、
     前記第4画素は、前記近赤外光の波長成分を有する光のみを選択的に透過する近赤外光選択フィルタを含む、請求項13に記載の固体撮像装置。

     
PCT/JP2023/002308 2022-01-28 2023-01-25 固体撮像装置 WO2023145782A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022011948 2022-01-28
JP2022-011948 2022-01-28

Publications (1)

Publication Number Publication Date
WO2023145782A1 true WO2023145782A1 (ja) 2023-08-03

Family

ID=87471538

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/002308 WO2023145782A1 (ja) 2022-01-28 2023-01-25 固体撮像装置

Country Status (1)

Country Link
WO (1) WO2023145782A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014207493A (ja) * 2011-08-24 2014-10-30 パナソニック株式会社 撮像装置
JP2017118191A (ja) * 2015-12-21 2017-06-29 ソニー株式会社 撮像素子及びその駆動方法、並びに撮像装置
JP2020188275A (ja) * 2015-04-14 2020-11-19 ソニー株式会社 固体撮像装置、撮像システムおよび距離計測方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014207493A (ja) * 2011-08-24 2014-10-30 パナソニック株式会社 撮像装置
JP2020188275A (ja) * 2015-04-14 2020-11-19 ソニー株式会社 固体撮像装置、撮像システムおよび距離計測方法
JP2017118191A (ja) * 2015-12-21 2017-06-29 ソニー株式会社 撮像素子及びその駆動方法、並びに撮像装置

Similar Documents

Publication Publication Date Title
DE202017100976U1 (de) Bildsensoren mit hocheffizienten Ladungsspeicherfähigkeiten
JP4396684B2 (ja) 固体撮像装置の製造方法
US20190020839A1 (en) Image sensor pixels with overflow capabilities
JP3774597B2 (ja) 撮像装置
US10033947B2 (en) Multi-port image pixels
US7944491B2 (en) Solid-state image-pickup device including unit pixels having a 3-transistor design and wherein a vertical selection pulse provides a reset potential
JP4630901B2 (ja) 杆体および錐体応答センサ
JP6099373B2 (ja) 固体撮像装置および電子カメラ
JP5629995B2 (ja) 撮像素子および撮像装置
KR20070081107A (ko) 고체 촬상 장치, 그 구동 방법 및 카메라
JP5076416B2 (ja) 撮像素子および撮像装置
US8355067B2 (en) Solid state imaging device and imaging apparatus
US20130027596A1 (en) Color imaging using time-multiplexed light sources and monochrome image sensors with multi-storage-node pixels
JP2002199284A (ja) 撮像素子
JPH11103420A (ja) 固体撮像素子およびその駆動方法
JP2011166477A (ja) 固体撮像素子及び画像入力装置
JP2007158741A (ja) 固体撮像装置
JP2010129783A (ja) 撮像素子および撮像装置
JP5223225B2 (ja) 固体撮像装置
JP2008028677A (ja) 固体撮像装置、及び制御システム
RU2720316C1 (ru) Устройство формирования изображений, система формирования изображений и подвижный объект
WO2023145782A1 (ja) 固体撮像装置
JP2023181484A (ja) 撮像素子
JP2008067241A (ja) 固体撮像装置及び撮像システム
US8384008B2 (en) Solid state imaging device to reduce power consumption

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23745038

Country of ref document: EP

Kind code of ref document: A1