WO2022190867A1 - 撮像装置および測距システム - Google Patents

撮像装置および測距システム Download PDF

Info

Publication number
WO2022190867A1
WO2022190867A1 PCT/JP2022/007398 JP2022007398W WO2022190867A1 WO 2022190867 A1 WO2022190867 A1 WO 2022190867A1 JP 2022007398 W JP2022007398 W JP 2022007398W WO 2022190867 A1 WO2022190867 A1 WO 2022190867A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
pixel array
pixel
semiconductor substrate
imaging device
Prior art date
Application number
PCT/JP2022/007398
Other languages
English (en)
French (fr)
Inventor
秀晃 富樫
香織 瀧本
雅博 瀬上
慶 中川
信宏 河合
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社, ソニーグループ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to EP22766828.2A priority Critical patent/EP4307378A1/en
Priority to DE112022001551.9T priority patent/DE112022001551T5/de
Priority to JP2023505277A priority patent/JPWO2022190867A1/ja
Priority to KR1020237029303A priority patent/KR20230156694A/ko
Priority to CN202280019409.0A priority patent/CN116941040A/zh
Priority to US18/546,684 priority patent/US20240145496A1/en
Publication of WO2022190867A1 publication Critical patent/WO2022190867A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14665Imagers using a photoconductor layer
    • H01L27/14669Infrared imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/17Colour separation based on photon absorption depth, e.g. full colour resolution obtained simultaneously at each pixel location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/707Pixels for event detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components

Definitions

  • the present disclosure relates to imaging devices and ranging systems.
  • an imaging device that stacks a pixel array that captures a visible light image and a pixel array that captures an infrared light image.
  • an imaging device there is one that performs imaging control of a visible light image using information of an infrared light image (see, for example, Patent Document 1).
  • the present disclosure proposes an imaging device and a ranging system that can effectively use visible light image information.
  • an imaging device has a semiconductor substrate, a first pixel array, a second pixel array, and a controller.
  • the first pixel array is provided on the semiconductor substrate, has a laminated structure in which a first electrode, a photoelectric conversion layer, and a second electrode are laminated in order, and emits light in a first wavelength region including a visible light region.
  • the first light-receiving pixels to be converted are arranged two-dimensionally.
  • a second pixel array is provided in the semiconductor substrate at a position overlapping with the first light receiving pixels in a thickness direction of the semiconductor substrate, and photoelectrically converts light in a second wavelength region including an infrared light region.
  • Light-receiving pixels are arranged two-dimensionally.
  • the control unit drives and controls the second pixel array based on the signals photoelectrically converted by the first pixel array.
  • FIG. 1 is an explanatory diagram showing a configuration example of a ranging system according to the present disclosure
  • FIG. It is an explanatory view showing an example of composition of an imaging device concerning this indication.
  • FIG. 2 is a cross-sectional explanatory diagram of a pixel array according to the present disclosure
  • 1 is a circuit diagram showing an example of a first readout circuit according to the present disclosure
  • FIG. 4 is an explanatory diagram showing an example arrangement of pixels in a plan view according to the present disclosure
  • FIG. 4 is an explanatory diagram showing an example arrangement of pixels in a plan view according to the present disclosure
  • FIG. 4 is an explanatory diagram showing an example arrangement of pixels in a plan view according to the present disclosure
  • FIG. 4 is an explanatory diagram showing an example arrangement of pixels in a plan view according to the present disclosure
  • FIG. 4 is an explanatory diagram showing an example arrangement of pixels in a plan view according to the present disclosure
  • FIG. 4 is an explanatory diagram showing an example arrangement of pixels in a
  • FIG. 4 is an explanatory diagram showing an example arrangement of pixels in a plan view according to the present disclosure
  • FIG. 4 is an explanatory diagram showing an operation example of an imaging device according to the present disclosure
  • 4 is a flowchart showing an example of processing executed by an imaging device according to the present disclosure
  • 7 is a flowchart showing a modified example of processing executed by an imaging device according to the present disclosure
  • FIG. 11 is an explanatory diagram showing a configuration example of a ranging system according to a modification of the present disclosure
  • FIG. 11 is a flowchart showing an example of processing executed by an imaging device according to a modification of the present disclosure
  • FIG. 1 is an explanatory diagram showing a configuration example of a ranging system according to the present disclosure.
  • the distance measurement system 100 shown in FIG. 1 captures an infrared light image (hereinafter sometimes referred to as a “distance image”) of a subject irradiated with infrared light, and the light flight time (Time This is a system that realizes a d (direct) TOF sensor that measures the distance to an object based on Of Tlight (TOF).
  • the ranging system 100 may be a system that implements i (indirect) ToF.
  • the ranging system 100 includes a light source 101, an imaging optical system 102, an imaging device 1, an ISP (Image Signal Processor) 103, an input device 104, a display device 105, and a data storage unit 106.
  • ISP Image Signal Processor
  • a light source 101 is an infrared light laser that emits infrared light toward a subject to be distance-measured.
  • the light source 101 is driven and controlled by the ISP 103, and emits infrared light while blinking at a predetermined high frequency at high speed.
  • the imaging optical system 102 includes a lens or the like that forms an image of the infrared light reflected by the subject on the light receiving unit of the imaging device 1 .
  • the imaging device 1 is a device that captures a distance image, which is an infrared light image of a subject, and outputs image data of the distance image to the ISP 103 .
  • the imaging device 1 can capture not only a distance image but also a visible light image. When capturing a visible light image, the imaging device 1 outputs image data of the visible light image to the ISP 103 as necessary.
  • the ISP 103 drives and controls the light source 101, and measures the distance to the subject based on the light flight time of the infrared light from the image data of the distance image input from the imaging device 1 and the phase shift information from the input light. , the measurement result and the distance image are output to the display device 105 and the data storage unit 106 . Further, when the image data of the visible light image is input from the imaging device 1, the ISP 103 outputs the image data of the visible light image to the display device 105 and the data storage unit 106 as necessary. Furthermore, ISP 103 can output colored three-dimensional information obtained by synthesizing distance information and RGB information to display device 105 and data storage unit 106 as needed.
  • the display device 105 is, for example, a liquid crystal display, and displays the distance measurement result measured by the ISP 103, an infrared light image, or a visible light image.
  • the data storage unit 106 is, for example, a memory, and stores the distance measurement result measured by the ISP 103, the image data of the infrared light image, or the image data of the visible light image.
  • the input device 104 receives user operations for performing various settings of the ranging system 100 and user operations for causing the ranging system 100 to perform ranging, and outputs signals corresponding to the user operations to the ISP 103 .
  • the imaging device 1 also includes a pixel array 10 , an AD (Analog to Digital) converter 20 , and a data processor 30 . Note that FIG. 1 shows part of the components of the imaging apparatus 1 . A specific configuration example of the imaging device 1 will be described later with reference to FIG.
  • the pixel array 10 photoelectrically converts the incident light from the imaging optical system 102 into a range image pixel signal and a visible light image pixel signal, and outputs the pixel signals to the AD conversion unit 20 .
  • the AD conversion unit 20 AD-converts the pixel signals of the distance image and the visible light image and outputs them to the data processing unit 30 .
  • the data processing unit 30 performs various types of image processing and image analysis on the image data of the range image and the visible light image, and outputs the image data after image processing and image analysis to the ISP 103 .
  • the distance measuring system 100 is an iToF sensor, for example, it is necessary to calculate a distance image (distance data) from four (times) phase data.
  • phase data for four times are once stored in a memory, and then calculated to create one distance image (distance data).
  • the data storage unit 106 for example, flash memory
  • a memory unit for example, memory such as SRAM (Static Random Access Memory) for temporarily storing phase data.
  • SRAM is a memory in which information can be written and read at high speed, so it is suitable for distance calculation processing that must be performed at high speed. Such a memory should be able to store information only when the power is on.
  • Ranging system 100 uses the memory built into ISP 103 for temporary storage of phase data in the case of an iToF sensor.
  • the distance measurement system 100 needs to operate the light source 101 and the pixel array 10 that captures the distance image at high frequencies, and consumes more power than a general visible light sensor. . Therefore, the ranging system 100 effectively utilizes visible light image data in the imaging device 1 to reduce power consumption.
  • the imaging device 1 first captures a visible light image that consumes relatively little power for imaging, and does not capture a range image until a moving object is detected in the visible light image. After that, when the imaging device 1 detects a moving object in the visible light image, the imaging device 1 causes the light source 101 to emit light, captures a distance image that consumes relatively large power for imaging, and performs distance measurement. Thereby, the ranging system 100 can appropriately reduce power consumption.
  • the imaging device 1 first captures a visible light image that consumes relatively little power for imaging, and does not capture a range image until a moving object is detected in the visible light image.
  • the imaging device 1 causes the light source 101 to emit light, captures a distance image that consumes relatively large power for imaging, and performs distance measurement.
  • the ranging system 100 can appropriately reduce power consumption.
  • FIG. 2 is an explanatory diagram showing a configuration example of an imaging device according to the present disclosure.
  • the imaging device 1 includes a pixel array 10, a global control circuit 41, a first row control circuit 42, a second row control circuit 43, a first readout circuit 21, and a first data processing circuit. It includes a section 22 , a second readout circuit 23 , and a second data processing section 24 .
  • Global control circuit 41, first row control circuit 42, and second row control circuit 43 are included in control unit 40 shown in FIG.
  • the pixel array 10 includes a first pixel array 11 and a second pixel array 12 .
  • first pixels a plurality of first light-receiving pixels (hereinafter referred to as "first pixels”) 13 corresponding to each pixel of the visible light image are arranged two-dimensionally (in a matrix).
  • second pixels a plurality of second light-receiving pixels (hereinafter referred to as "second pixels") 14 corresponding to each pixel of the infrared light image are arranged two-dimensionally (in a matrix).
  • the first pixel 13 photoelectrically converts light in the first wavelength range including the visible light range into signal charges according to the amount of received light.
  • the first pixel 13 photoelectrically converts red light, green light, and blue light.
  • the second pixel 14 photoelectrically converts light in the second wavelength range including the infrared light range.
  • the second pixels 14 photoelectrically convert infrared light into signal charges corresponding to the amount of received light.
  • the first pixel array 11 is laminated on the second pixel array 12 .
  • the first pixel array 11 photoelectrically converts incident visible light to capture a visible light image.
  • the second pixel array 12 photoelectrically converts the infrared light transmitted through the first pixel array to capture an infrared light image.
  • the imaging device 1 can capture a visible light image and an infrared light image with one pixel array 10 .
  • the global control circuit 41 controls the first row control circuit 42 and the ranging pulse generator 50 based on the control signal from the ISP 103 .
  • the first row control circuit 42 drives and controls the first pixel array 11 to capture a visible light image.
  • the first pixel array 11 photoelectrically converts visible light into signal charges and accumulates them.
  • the first readout circuit 21 reads out a signal corresponding to the signal charge from the first pixel array 11 and outputs it to the first data processing section 22 .
  • the first data processing unit 22 AD-converts the signal input from the first reading circuit 21 to acquire image data of a visible light image, and performs predetermined image processing and image analysis on the image data.
  • the first data processing unit 22 outputs image data after image processing and image analysis to the ISP 103 as necessary.
  • the first data processing unit 22 outputs the result of image analysis to the second row control circuit 43 to operate the second row control circuit 43 .
  • image analysis the first data processing unit 22 determines, for example, whether the subject in the visible light image is moving or not, and operates the second row control circuit 43 only when the subject is moving.
  • the first data processing unit 22 detects the changed first pixels 13 from the image data captured by the first pixel array 11 .
  • the first pixel 13 having a change here means, for example, the first pixel 13 in which the difference between the signal charge amount accumulated in the image data of the previous frame and the signal charge amount accumulated in the image data of the current frame exceeds a threshold value. is.
  • the second row control circuit 43 starts driving the second pixel array 12 when the first data processing unit 22 detects the changed first pixels 13 . Thereby, the imaging device 1 can appropriately reduce the power consumption required for driving the second pixel array 12 .
  • the first data processing unit 22 may be configured to control the second readout circuit 23 so as to read out signals only from the second pixels 14 corresponding to the changing first pixels 13 . Thereby, the imaging device 1 can also reduce the power consumption of the second readout circuit 23 .
  • the first data processing unit 22 can cause the second row control circuit 43 to drive only the second pixels 14 corresponding to the first pixels 13 having a change in the first pixel array 11 .
  • the imaging device 1 can further reduce power consumption required for driving the second pixel array 12 .
  • the first data processing unit 22 sets a threshold for the amount of change in the first pixel array 11 instead of the binary value of whether the subject is moving or not, and sets the first threshold when the amount of change due to the movement of the subject exceeds the threshold. It is also possible to drive only the second pixels corresponding to the pixels 13 by the second row control circuit 43 . Thereby, the imaging device 1 can minimize the number of second pixels 14 to be driven.
  • the first data processing section 22 may be configured so that the operating frequency of the second row control circuit 43 can be changed according to changes in the first pixel array 11 .
  • the first data processing unit 22 increases the operating frequency of the second row control circuit 43 when the change in the first pixel array 11 (moving speed of the object) is large.
  • the imaging device 1 can capture a clear image of a subject moving at a high speed using the second pixel array.
  • the second row control circuit 43 drives and controls the second pixel array 12 to capture an infrared light image.
  • the second pixel array 12 photoelectrically converts infrared light into signal charges and accumulates them.
  • the second readout circuit 23 reads a signal corresponding to the signal charge from the second pixel array 12 and outputs it to the second data processing section 24 .
  • the second data processing unit 24 AD-converts the signal input from the second reading circuit 23 to obtain image data of a distance image, which is an infrared light image, and performs predetermined image processing on the image data. Output to ISP 103 .
  • the range of the second pixels 14 to be driven may be determined by the control unit 40 (second row control circuit 43), by a dedicated determination circuit, or by the ISP 103. good too.
  • the second row control circuit 43, determination circuit, or ISP 103 acquires the image data of the visible light image from the first data processing unit 22, and detects the first pixels 13 with changes from the image data. Then, the second row control circuit 43, the determination circuit, or the ISP 103 determines the range of the second pixels 14 arranged at the position overlapping the detected first pixels 13 as the range of the second pixels 14 to be driven.
  • the distance measurement system 100 cannot calculate the distance from one (time) distance image. It is also possible to calculate the distance to the subject from a plurality of distance images stored internally.
  • FIG. 3 is a cross-sectional explanatory diagram of a pixel array according to the present disclosure.
  • FIG. 3 schematically shows a cross section of the pixel array 10 corresponding to one second pixel 14 .
  • the positive direction of the Z-axis in the orthogonal coordinate system shown in FIG. 3 is referred to as "up”
  • the negative direction of the Z-axis is referred to as "down” for convenience.
  • the pixel array 10 includes a so-called longitudinal spectral imaging element having a structure in which the second pixels 14 and the first pixels 13 are stacked in the Z-axis direction, which is the thickness direction.
  • the pixel array 10 includes an intermediate layer 60 provided between the second pixels 14 and the first pixels 13, and a multilayer wiring layer 61 provided on the opposite side of the first pixels 13 as viewed from the second pixels 14. Prepare.
  • a sealing film 62 is arranged on the side opposite to the intermediate layer 60 when viewed from the first pixels 13 .
  • the first pixel 13 is an indirect TOF (hereinafter referred to as "iTOF") sensor that acquires a distance image (distance information) by TOF.
  • the first pixel 13 has a semiconductor substrate 66 , a photoelectric conversion region 67 , a fixed charge layer 68 , a pair of gate electrodes 69A and 69B, floating diffusions 70A and 70B, and a through electrode 71 .
  • the semiconductor substrate 66 is, for example, an n-type silicon substrate, and has a P-well in a predetermined internal region.
  • a lower surface of the semiconductor substrate 66 faces the multilayer wiring layer 61 .
  • the upper surface of the semiconductor substrate 66 faces the intermediate layer 60 and has a fine uneven structure. As a result, the upper surface of the semiconductor substrate 66 appropriately scatters the incident infrared light, thereby increasing the optical path length.
  • the semiconductor substrate 66 may also have a fine uneven structure formed on the bottom surface.
  • the photoelectric conversion region 67 is a photoelectric conversion element composed of a PIN (Positive Intrinsic Negative) type photodiode.
  • the photoelectric conversion region 67 mainly receives light having wavelengths in the infrared region (infrared light) among the light incident on the pixel array 10, photoelectrically converts the light into signal charges according to the amount of received light, and accumulates the signal charges.
  • the fixed charge layer 68 is provided so as to cover the top surface and side surfaces of the semiconductor substrate 66 .
  • the fixed charge layer 68 contains negative fixed charges that suppress the generation of dark current due to the interface state of the upper surface of the semiconductor substrate 66 that is the light receiving surface.
  • the fixed charge layer 68 forms a hole accumulation layer in the vicinity of the upper surface of the semiconductor substrate 66, and suppresses generation of electrons from the upper surface of the semiconductor substrate 66 by the hole accumulation layer.
  • the fixed charge layer 68 also extends between the inter-pixel area light shielding wall 72 and the photoelectric conversion area 67 .
  • the gate electrodes 69A and 69B extend from the lower surface of the semiconductor substrate 66 to a position reaching the photoelectric conversion region 67.
  • the gate electrodes 69A, 69B transfer the signal charge accumulated in the photoelectric conversion region 67 to the floating diffusions 70A, 70B when a predetermined voltage is applied.
  • the floating diffusions 70A and 70B are floating diffusion regions that temporarily hold the signal charges transferred from the photoelectric conversion region 67.
  • the signal charges held in the floating diffusions 70A and 70B are read out as pixel signals by the second readout circuit 23 (see FIG. 2).
  • a wiring 74 is provided inside an insulating layer 73 in the multilayer wiring layer 61 .
  • the insulating layer 73 is made of, for example, silicon oxide.
  • the wiring 74 is made of metal such as copper or gold, for example.
  • a first readout circuit 21 and a second readout circuit 23 are also provided inside the insulating layer 73 .
  • the intermediate layer 60 has an optical filter 75 embedded in the insulating layer 73 and an inter-pixel area light shielding film 76 .
  • the optical filter 75 is made of, for example, an organic material, and mainly selectively transmits light with frequencies in the infrared region.
  • the inter-pixel region light shielding film 76 reduces color mixture between adjacent pixels.
  • the first pixel 13 has a first electrode 77, a semiconductor layer 78, a photoelectric conversion layer 79, and a second electrode 80, which are stacked in order from a position closer to the photoelectric conversion region 67. Furthermore, the first pixel 13 has a charge storage electrode 82 provided below the semiconductor layer 78 so as to face the semiconductor layer 78 with the insulating film 81 interposed therebetween.
  • the charge storage electrode 82 and the first electrode 77 are separated from each other, and are provided on the same layer, for example.
  • the first electrode 77 is connected to the upper end of the through electrode 71, for example.
  • the first electrode 77, the second electrode 80, and the charge storage electrode 82 are formed of, for example, a light-transmitting conductive film such as ITO (indium tin oxide) or IZO (indium zinc oxide containing indium). .
  • the photoelectric conversion layer 79 converts light energy into electrical energy, and is formed by including two or more kinds of organic materials that function as p-type semiconductors and n-type semiconductors, for example.
  • a p-type semiconductor functions as an electron donor (donor).
  • the n-type semiconductor functions as an electron acceptor.
  • the photoelectric conversion layer 79 has a bulk heterojunction structure.
  • a bulk heterojunction structure is a p/n junction formed by mixing a p-type semiconductor and an n-type semiconductor.
  • the photoelectric conversion layer 79 separates incident light into electrons and holes at the p/n junction.
  • the charge storage electrode 82 forms a capacitor together with the insulating film 81 and the semiconductor layer 78, and the signal charge generated in the photoelectric conversion layer 79 is transferred to the region of the semiconductor layer 78 facing the charge storage electrode 82 via the insulating film 81. accumulate.
  • the charge storage electrode 82 is provided at a position corresponding to each color filter 63 and on-chip lens 65 .
  • excitons thus generated move to the interface between the electron donor and the electron acceptor that constitute the photoelectric conversion layer 79 and are separated into electrons and holes.
  • the electrons and holes generated here move to the second electrode 80 or the semiconductor layer 78 and are accumulated due to the difference in carrier concentration and the internal electric field due to the potential difference between the first electrode 77 and the second electrode 80 .
  • the first electrode 77 is set at a positive potential and the second electrode 80 is set at a negative potential.
  • holes generated in the photoelectric conversion layer 79 move to the second electrode 80 side. Electrons generated in the photoelectric conversion layer 79 are attracted to the charge storage electrode 82 and stored in the region of the semiconductor layer 78 corresponding to the charge storage electrode 82 via the insulating film 81 .
  • the electrons accumulated in the region of the semiconductor layer 78 corresponding to the charge storage electrode 82 via the insulating film 81 are read as follows.
  • the potential V1 is applied to the first electrode 77 and the potential V2 is applied to the charge storage electrode 82 .
  • the potential V1 is set higher than the potential V2.
  • the electrons accumulated in the region of the semiconductor layer 78 corresponding to the charge accumulation electrode 82 via the insulating film 81 are transferred to the first electrode 77 and read out.
  • the semiconductor layer 78 is provided below the photoelectric conversion layer 79, and charges (e.g., electrons) are accumulated in regions of the semiconductor layer 78 corresponding to the charge accumulation electrodes 82 via the insulating film 81.
  • charges e.g., electrons
  • the following effects are obtained. Compared to the case where charges (for example, electrons) are accumulated in the photoelectric conversion layer 79 without providing the semiconductor layer 78, recombination of holes and electrons during charge accumulation is prevented, and the accumulated charges (for example, electrons) to the first electrode 77 can be increased.
  • reading electrons has been described here, reading of holes may be performed. When reading holes, the relationship between the potentials V1, V2 and V3 described above is reversed.
  • FIG. 4 is a circuit diagram illustrating an example of a first readout circuit according to the present disclosure.
  • the first readout circuit 21 has, for example, a floating diffusion FD, a reset transistor RST, an amplification transistor AMP, and a selection transistor SEL.
  • a floating diffusion FD is connected between the first electrode 77 and the amplification transistor AMP.
  • the floating diffusion FD converts the signal charge transferred by the first electrode 77 into a voltage signal and outputs the voltage signal to the amplification transistor AMP.
  • the reset transistor RST is connected between the floating diffusion FD and the power supply.
  • a drive signal is applied to the gate electrode of the reset transistor RST to turn on the reset transistor RST, the potential of the floating diffusion FD is reset to the level of the power supply.
  • the amplification transistor AMP has a gate electrode connected to the floating diffusion FD and a drain electrode connected to a power supply.
  • a source electrode of the amplification transistor AMP is connected to the vertical signal line via the selection transistor SEL.
  • the selection transistor SEL is connected between the source electrode of the amplification transistor AMP and the vertical signal line.
  • a drive signal is applied to the gate electrode of the selection transistor SEL, and when the selection transistor SEL is turned on, the pixel signal output from the amplification transistor AMP is output to the AD conversion section 20 via SEL and the vertical signal line.
  • the AD conversion section 20 AD-converts the pixel signal based on the control signal input from the control section 40 and outputs the result to the data processing section 30 .
  • FIG. 5 to 8 are explanatory diagrams showing layout examples of pixels according to the present disclosure in plan view.
  • a plurality of on-chip lenses 65 are arranged two-dimensionally (in rows and columns).
  • a plurality of color filters 63 are two-dimensionally (in rows and columns) arranged in a layer below the layer where the on-chip lens 65 is arranged, as shown in FIG.
  • the color filter 63 includes a filter R selectively transmitting red light, a filter G selectively transmitting green light, and a filter G selectively transmitting blue light.
  • Each color filter 63 (one filter R, G, B) is provided at a position corresponding to one on-chip lens 65 .
  • the corresponding positions here are, for example, positions that overlap each other in the Z-axis direction.
  • the filters R, G, and B are arranged, for example, according to a color arrangement method called Bayer arrangement. Note that the arrangement of the filters R, G, and B is not limited to the Bayer arrangement.
  • each color filter 63 is indicated by a dashed line in order to clarify the positional relationship between each charge storage electrode 82 and each color filter 63 .
  • Each charge storage electrode 82 is provided at a position corresponding to one filter R, G, B, respectively. The corresponding positions here are, for example, positions that overlap each other in the Z-axis direction.
  • the plurality of photoelectric conversion regions 67 in the second pixel array 12 are arranged in two layers below the layer in which the charge storage electrodes 82 in the first pixel array 11 are arranged. Arranged in a dimension (matrix). A plurality of through electrodes 71 are provided around each photoelectric conversion region 67 .
  • each color filter 63 is indicated by a broken line, and each on-chip lens 65 is indicated by a dotted line. showing.
  • Each photoelectric conversion region 67 is provided at a position corresponding to 16 on-chip lenses 65 and 16 color filters 63 arranged in a 4 ⁇ 4 matrix. The corresponding positions here are, for example, positions that overlap each other in the Z-axis direction.
  • one photoelectric conversion region 67 is provided for 16 on-chip lenses 65 and 16 color filters 63, but this is just an example.
  • the pixel array 10 may be provided with one photoelectric conversion region 67 for four on-chip lenses 65 and 16 color filters 63, and one on-chip lens 65 and 16 color filters 63 may be provided.
  • one photoelectric conversion region 67 may be provided.
  • FIG. 9 is an explanatory diagram showing an operation example of the imaging device according to the present disclosure.
  • the imaging apparatus 1 first performs first pixel control by the control unit 40 (step S1), and drives the first pixel array 11 (step S2).
  • the first pixel array 11 photoelectrically converts incident light into signal charges by the first pixels 13 and accumulates the signal charges.
  • the imaging device 1 reads out pixel signals corresponding to the signal charges from the first pixel array 11 by the first readout circuit 21 (step S3), and AD-converts the pixel signals by the first data processing unit 22 .
  • the first data processing unit 22 outputs the AD-converted pixel signal (image data of the visible light image) as necessary (step S4).
  • the imaging device 1 evaluates the visible light image by the first data processing unit 22 (step S5).
  • the first data processing unit 22 detects the first pixels 13 that have changed in the visible image.
  • the first data processing unit 22 detects the first pixels 13 in which the difference between the signal charge amount accumulated in the image data of the previous frame and the signal charge amount accumulated in the image data of the current frame exceeds a threshold.
  • the threshold is set by the ISP 103, for example (step S6).
  • the first data processing unit 22 outputs the detection result of the changed first pixel 13 to the second row control circuit 43 and the ISP 103 .
  • the ISP 103 When the ISP 103 detects the changed first pixel 13, the ISP 103 performs sensor control (step S7) and drives the light source 101 (step S8). As a result, the light source 101 emits light while blinking at a high frequency to irradiate the subject 110 with infrared light. As described above, in the distance measuring system 100, the light source 101 emits light only after the first pixel 13 having a change is detected. Therefore, the power consumption of the light source 101 can be reduced compared to the case where the light source 101 emits light all the time. .
  • the ISP 103 causes the light source 101 to emit light at a relatively low luminance before the first pixel 13 with a change is detected, and when the first pixel 13 with a change is detected, the light emission intensity of the light source 101 is increased. It can also be raised to emit light with high brightness.
  • the imaging device 1 performs second pixel control by the second row control circuit 43 (step S9), and drives the second pixel array 12 (step S10).
  • the second pixel array 12 photoelectrically converts the incident infrared light transmitted through the first pixel array 11 into signal charges by the second pixels 14, and accumulates the signal charges.
  • the second row control circuit 43 drives the second pixel array 12 only after the first pixel 13 with a change is detected. Power consumption of the array 12 can be reduced.
  • the second row control circuit 43 can drive all the second pixels 14, but can also selectively drive the second pixels 14 corresponding to the first pixels 13 that have changed.
  • the second row control circuit 43 can reduce power consumption by selectively driving the second pixels 14 corresponding to the changed first pixels 13 .
  • the second row control circuit 43 changes the drive frequency of the second pixels 14 corresponding to the first pixels 13 when the amount of change in the first pixels 13 that have changed is large, for example, when the amount of change exceeds the threshold value. It can be higher than normal.
  • the imaging device 1 reads pixel signals corresponding to the signal charges from the second pixel array 12 by the second readout circuit 23 (step S11), AD-converts the pixel signals by the second data processing unit 24, and after the AD conversion pixel signals (image data of an infrared light image) are output (step S12).
  • the second data processing unit 24 reads pixel signals from all the second pixels 14, AD-converts only the pixel signals of the second pixels 14 corresponding to the first pixels 13 with changes, and converts the pixel signals after the AD conversion. (image data of an infrared light image) can be output. Thereby, the imaging device 1 can reduce the power consumption required for AD conversion.
  • the second data processing unit 24 reads pixel signals only from the pixel signals of the second pixels 14 corresponding to the first pixels 13 with change, AD-converts the read pixel signals, and converts the pixel signals after the AD conversion. (image data of an infrared light image) can be output. As a result, the imaging device 1 can reduce power consumption required for reading pixel signals.
  • the imaging device 1 effectively uses the information of the visible light image, and drives and controls the second pixel array 12 based on the signals photoelectrically converted by the first pixel array 11. Therefore, the light source 101 and the imaging device 1 to reduce power consumption.
  • FIG. 10 is a flowchart illustrating an example of processing executed by an imaging device according to the present disclosure.
  • the image capturing apparatus 1 performs various settings, drives the first pixel array 11 under image capturing conditions based on the external light conditions, and captures a visible light image as a first image (step S101).
  • the imaging device 1 photoelectrically converts visible light by the first pixel array 11 and accumulates signal charges (step S102). Subsequently, the imaging device 1 reads signal charges (signals) from the first pixel array 11 and AD-converts the signals (step S103). Subsequently, the imaging device 1 outputs a first image that is a visible light image. At this time, the imaging device 1 can also thin out and output the first pixels 13 from the first pixel array 11 .
  • the imaging device 1 analyzes the information of the first image and determines imaging conditions for the second image, which is an infrared light image (step S105). Specifically, the imaging device 1 detects the first pixel 13 with a change, and determines the coordinates (X1, Y1 to X2, Y2) of the scanning range of the second pixel 14 .
  • the scanning range determined at this time may be a single pixel, an aggregated area of a plurality of pixels, or a combination thereof.
  • the imaging device 1 detects the position of the subject's face in the visible light image by the first data processing unit 22, It is also possible to determine only a portion of the image as the scanning range. In addition, since the position of the subject may change over time, the imaging device 1 can appropriately track the position of the subject in the visible light image and set a larger scanning range. .
  • the imaging device 1 performs various settings, drives the second pixel array 12 under imaging conditions based on the external light conditions, and captures an infrared light image (step S106). After that, the imaging device 1 photoelectrically converts the infrared light by the second pixel array 12 and accumulates signal charges (step S107).
  • the imaging device 1 reads signal charges (signals) from the second pixels 14 and AD-converts the signals (step S108). Subsequently, the imaging device 1 outputs the signals of the first pixels 13 and/or the second pixels 14 corresponding to the scanning range (X1, Y1 to X2, Y2) to the ISP 103 (step S109), and ends the process.
  • FIG. 11 is a flowchart illustrating a modification of processing executed by an imaging device according to the present disclosure. As shown in FIG. 11, in the process according to the modification, the processes of steps S208 and S209 are different from the processes of steps S108 and S109 shown in FIG. Since the processing of steps S101 to S107 shown in FIG. 11 is the same as the processing of S101 to S107 shown in FIG. 10, redundant description will be omitted here.
  • the imaging device 1 accumulates signal charges (signals) by the second pixels 14 (step S107), and then scans the scanning range (X1, Y1 to X2, Y2) determined in step S105.
  • the signal of the second pixel 14 is read out and AD-converted (step S208).
  • the imaging device 1 outputs the signal of the first pixel 13 and/or the second pixel 14 to the ISP 103 (step S209), and ends the process.
  • FIG. 12 is an explanatory diagram showing a configuration example of a ranging system according to a modification of the present disclosure.
  • the distance measuring system 100a according to the modification differs from the distance measuring system 100 shown in FIG. It is similar to the ranging system 100 shown. Therefore, the driving control of the light source 101 by the control unit 40a will be described here, and redundant description of other configurations will be omitted.
  • the control unit 40a controls the distance measurement pulse generation unit 50. As a result, the light emission intensity of the light source 101 is raised above normal, or the operating frequency of the light source 101 is raised above normal.
  • the control unit 40 a also adjusts the drive frequency of the second pixel array 12 in accordance with the change in the operating frequency of the light source 101 .
  • the control unit 40a when the image analysis by the first data processing unit 22 reveals that the subject of the visible light image is a face and the face is located closer to the imaging optical system 102 than the preset location, the control unit 40a , the emission intensity of the light source 101 is made lower than usual.
  • control unit 40a can irradiate the subject with appropriate infrared light according to the moving speed of the subject and the distance to the subject. Therefore, the second pixel array 12 can capture an appropriate infrared light image for distance measurement.
  • FIG. 13 is a flowchart illustrating an example of processing executed by an imaging device according to a modification of the present disclosure
  • steps S305 to S310 differs from the processing of steps S105 to S109 shown in FIG. Since the processing of steps S101 to S104 shown in FIG. 13 is the same as the processing of steps S101 to S104 shown in FIG. 10, redundant description will be omitted here.
  • the imaging device 1a causes the first pixel array 11 to accumulate signal charges (signals) (step S104), then analyzes the information of the first image to obtain the infrared light image. 2 Determine the imaging conditions for the images.
  • the imaging device 1a detects the first pixels 13 with changes, and determines the coordinates (X1, Y1 to X2, Y2) of the scanning range of the second pixels 14. Further, the imaging device 1a determines the emission intensity and emission time (operating frequency) of the light source 101 (step S305). After that, the imaging device 1a causes the light source 101 to emit light with the determined emission intensity and emission time (operating frequency) (step S306).
  • the imaging device 1a opens the gate of the second pixel 14 at a timing corresponding to the determined light emitting time (operating frequency) (step S307), closes the gate of the second pixel 14 (step S308), Infrared light received by the second pixels 14 is photoelectrically converted to accumulate charges.
  • the imaging device 1a reads the signals of the pixels corresponding to the scanning range (X1, Y1 to X2, Y2) and AD-converts them (step S309). Subsequently, the imaging device 1a outputs the signal of the first pixel 13 and/or the second pixel 14 to the ISP 103 (step S310), and ends the process.
  • the imaging device may omit the optical filter 75 shown in FIG. If the optical filter 75 is not provided, both the first pixel array 11 and the second pixel array 12 will capture visible light images.
  • the thickness of the photoelectric conversion layer 79 is made thinner than the thickness shown in FIG. 3, the light receiving sensitivity of the first pixel array 11 is lowered.
  • the imaging device captures a low-sensitivity first image with the first pixel array 11, captures a second image with a higher sensitivity than the first image with the second pixel array 12, and captures a second image.
  • 1 image and the 2nd image are output to ISP103.
  • the ISP 103 can generate an HDR image by HDR (High Dynamic Range) synthesis of the first image and the second image.
  • the imaging device can capture a low-sensitivity image and a high-sensitivity image having the same number of pixels. Further, if a filter that transmits infrared light is added to the imaging optical system 102, it becomes possible to generate an infrared light HDR image.
  • the imaging apparatus can effectively use the information of the visible light image and appropriately reduce the power consumption by performing the same control as described above by the control units 40 and 40a.
  • the imaging device 1 has a semiconductor substrate 66 , a first pixel array 11 , a second pixel array 12 and a control section 40 .
  • the first pixel array 11 is provided on a semiconductor substrate 66, has a laminated structure in which a first electrode 77, a photoelectric conversion layer 79, and a second electrode 80 are laminated in order, and has a first wavelength region including a visible light region. are arranged two-dimensionally.
  • the second pixel array 12 is provided in the semiconductor substrate 66 at a position overlapping the first light receiving pixels 13 in the thickness direction of the semiconductor substrate 66, and photoelectrically converts light in a second wavelength region including an infrared light region. Two light-receiving pixels 14 are arranged two-dimensionally.
  • the control unit 40 drives and controls the second pixel array 12 based on the signals photoelectrically converted by the first pixel array 11 . Thereby, the imaging device 1 can effectively use the information of the visible light image.
  • the imaging device 1 includes a data processing unit 30 that detects the first pixels 13 with changes from the image data captured by the first pixel array 11 .
  • the control unit 40 outputs a signal photoelectrically converted by the second light-receiving pixel 14 corresponding to the first pixel 13 having a change detected by the data processing unit 30 .
  • the imaging device 1 outputs only the second light-receiving pixels 14 corresponding to the ROI (Region Of Interest) region of interest in the visible image, so that the power consumption required for outputting information can be appropriately reduced. can.
  • ROI Region Of Interest
  • the control unit 40 outputs the signal read from the second light-receiving pixel 14 corresponding to the first pixel 13 with a change among all the signals read from the second pixel array 12 .
  • the imaging device 1 outputs only the second light-receiving pixels 14 corresponding to the ROI region of interest in the visible image, so power consumption required for outputting information can be appropriately reduced.
  • the control unit 40 reads out and outputs photoelectrically converted signals from the second light receiving pixels 14 corresponding to the first pixels 13 with change.
  • the imaging device 1 reads and outputs only the second light receiving pixels 14 corresponding to the ROI region of interest in the visible image from the second pixel array 12, thereby appropriately reducing power consumption required for reading information. can do.
  • the control unit 40 starts driving the second pixel array 12 when the data processing unit 30 detects the changed first pixels 13 .
  • the imaging device 1 does not drive the second pixel array 12 until the changed first pixels 13 are detected, so that the power consumption of the second pixel array 12 can be reduced.
  • the control unit 40 thins out some of the first light-receiving pixels 13 to output photoelectrically converted signals from the first pixel array 11 .
  • the imaging device 1 can reduce power consumption required for outputting signals photoelectrically converted by the first pixel array 11 .
  • the imaging device 1 has a semiconductor substrate 66 , a first pixel array 11 , a second pixel array 12 and a control section 40 .
  • the first pixel array 11 is provided on a semiconductor substrate 66, has a laminated structure in which a first electrode 77, a photoelectric conversion layer 79, and a second electrode 80 are laminated in order, and has a first wavelength region including a visible light region. are arranged two-dimensionally.
  • the second pixel array 12 is provided at a position overlapping the first light receiving pixels 13 in the thickness direction of the semiconductor substrate 66 in the semiconductor substrate 66 , and has a light receiving sensitivity different from that of the first light receiving pixels 13 .
  • the second light-receiving pixels 14 that photoelectrically convert the light in the first wavelength band that has passed through are arranged two-dimensionally.
  • the control unit 40 drives and controls the second pixel array 12 based on the signals photoelectrically converted by the first pixel array 11 . Thereby, the imaging device 1 can capture a high-sensitivity image and a low-sensitivity image with one pixel array 10 .
  • the imaging device 1 has a semiconductor substrate 66 , a first pixel array 11 , a second pixel array 12 and a control section 40 .
  • the first pixel array 11 is provided on a semiconductor substrate 66, has a laminated structure in which a first electrode 77, a photoelectric conversion layer 79, and a second electrode 80 are laminated in order, and has a first wavelength region including a visible light region. are arranged two-dimensionally.
  • the second pixel array 12 is provided on the same plane as the first pixel array 11, and the second light receiving pixels 14 that photoelectrically convert light in the second wavelength region including the infrared light region are arranged two-dimensionally.
  • the control unit 40 drives and controls the second pixel array 12 based on the signals photoelectrically converted by the first pixel array 11 .
  • the imaging device 1 can effectively use the information of the visible light image even when the first pixel array 11 and the second pixel array 12 are arranged on the same plane.
  • the ranging system 100a includes a light source 101 and an imaging device 1a.
  • a light source 101 emits infrared light.
  • the imaging device 1a captures an image of a subject irradiated with infrared light, and measures the distance to the subject based on the captured image.
  • the imaging device 1a has a semiconductor substrate 66, a first pixel array 11, a second pixel array 12, and a controller 40a.
  • the first pixel array 11 is provided on a semiconductor substrate 66, has a laminated structure in which a first electrode 77, a photoelectric conversion layer 79, and a second electrode 80 are laminated in order, and has a first wavelength region including a visible light region. are arranged two-dimensionally.
  • the second pixel array 12 is provided in the semiconductor substrate 66 at a position overlapping the first light receiving pixels 13 in the thickness direction of the semiconductor substrate 66, and photoelectrically converts light in a second wavelength region including an infrared light region.
  • Two light-receiving pixels 14 are arranged two-dimensionally.
  • the control unit 40 a drives and controls the second pixel array 12 and the light source 101 based on the signals photoelectrically converted by the first pixel array 11 , and controls the distance to the subject based on the signals photoelectrically converted by the second light receiving pixels 14 . Measure distance.
  • the distance measurement system 100a can improve the distance measurement accuracy by effectively using the information of the visible light image and appropriately driving and controlling the light source 101 .
  • the present technology can also take the following configuration.
  • a semiconductor substrate A first light-receiving pixel that is provided on the semiconductor substrate, has a laminated structure in which a first electrode, a photoelectric conversion layer, and a second electrode are laminated in order, and photoelectrically converts light in a first wavelength region including a visible light region.
  • a first pixel array in which are arranged two-dimensionally;
  • a second light-receiving pixel provided in the semiconductor substrate at a position overlapping with the first light-receiving pixel in the thickness direction of the semiconductor substrate and photoelectrically converting light in a second wavelength region including an infrared light region two-dimensionally.
  • a second array of pixels a second array of pixels; and a controller that drives and controls the second pixel array based on signals photoelectrically converted by the first pixel array.
  • a data processing unit that detects the first light-receiving pixels having a change from the image data captured by the first pixel array
  • the control unit The imaging device according to (1), wherein a signal photoelectrically converted by the second light-receiving pixel corresponding to the changed first light-receiving pixel is output.
  • the control unit The imaging device according to (2), wherein among all signals read from the second pixel array, signals read from the second light-receiving pixels corresponding to the changed first light-receiving pixels are output.
  • the signals photoelectrically converted by the second pixel array are read out and output.
  • a first light-receiving pixel that is provided on the semiconductor substrate has a laminated structure in which a first electrode, a photoelectric conversion layer, and a second electrode are laminated in order, and photoelectrically converts light in a first wavelength region including a visible light region.
  • a first pixel array in which are arranged two-dimensionally; provided in the semiconductor substrate at a position overlapping with the first light-receiving pixels in the thickness direction of the semiconductor substrate; a second pixel array in which second light-receiving pixels that photoelectrically convert light in the area are arranged two-dimensionally; and a controller that drives and controls the second pixel array based on signals photoelectrically converted by the first pixel array.
  • a first light-receiving pixel that is provided on the semiconductor substrate has a laminated structure in which a first electrode, a photoelectric conversion layer, and a second electrode are laminated in order, and photoelectrically converts light in a first wavelength region including a visible light region.
  • a first pixel array in which are arranged two-dimensionally;
  • a second pixel array provided on the same plane as the first pixel array, in which second light-receiving pixels photoelectrically converting light in a second wavelength region including an infrared light region are arranged two-dimensionally; and a controller that drives and controls the second pixel array based on signals photoelectrically converted by the first pixel array.
  • a light source that emits infrared light
  • an imaging device that captures an image of a subject irradiated with the infrared light and measures the distance to the subject based on the captured image
  • the imaging device is a semiconductor substrate
  • a first light-receiving pixel that is provided on the semiconductor substrate, has a laminated structure in which a first electrode, a photoelectric conversion layer, and a second electrode are laminated in order, and photoelectrically converts light in a first wavelength region including a visible light region.
  • a ranging system comprising a controller and .

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

撮像装置(1)は、半導体基板(66)と、第1画素アレイ(11)と、第2画素アレイ(12)と、制御部(40)とを有する。第1画素アレイ(11)は、半導体基板(66)上に設けられ、第1電極(77)、光電変換層(79)、および第2電極(80)が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素(13)が2次元に配列される。第2画素アレイ(12)は、半導体基板(66)内のうち半導体基板(66)の厚さ方向において第1受光画素(13)と重なる位置に設けられ、赤外光域を含む第2波長域の光を光電変換する第2受光画素(14)が2次元に配列される。制御部(40)は、第1画素アレイ(11)によって光電変換された信号に基づいて、第2画素アレイ(12)を駆動制御する。

Description

撮像装置および測距システム
 本開示は、撮像装置および測距システムに関する。
 可視光画像を撮像する画素アレイと、赤外光画像を撮像する画素アレイとを積層した撮像装置がある。かかる撮像装置として、赤外光画像の情報を用いて、可視光画像の撮像制御を行うものがある(例えば、特許文献1参照)。
特開2018-142838号公報
 しかしながら、上記の従来技術では、可視光画像の情報が有効利用されていなかった。
 そこで、本開示では、可視光画像の情報を有効利用することができる撮像装置および測距システムを提案する。
 本開示によれば、撮像装置が提供される。撮像装置は、半導体基板と、第1画素アレイと、第2画素アレイと、制御部とを有する。第1画素アレイは、前記半導体基板上に設けられ、第1電極、光電変換層、および第2電極が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素が2次元に配列される。第2画素アレイは、前記半導体基板内のうち前記半導体基板の厚さ方向において前記第1受光画素と重なる位置に設けられ、赤外光域を含む第2波長域の光を光電変換する第2受光画素が2次元に配列される。制御部は、前記第1画素アレイによって光電変換された信号に基づいて、前記第2画素アレイを駆動制御する。
本開示に係る測距システムの構成例を示す説明図である。 本開示に係る撮像装置の構成例を示す説明図である。 本開示に係る画素アレイの断面説明図である。 本開示に係る第1読み出し回路の一例を示す回路図である。 本開示に係る画素の平面視による配置例を示す説明図である。 本開示に係る画素の平面視による配置例を示す説明図である。 本開示に係る画素の平面視による配置例を示す説明図である。 本開示に係る画素の平面視による配置例を示す説明図である。 本開示に係る撮像装置の動作例を示す説明図である。 本開示に係る撮像装置が実行する処理の一例を示すフローチャートである。 本開示に係る撮像装置が実行する処理の変形例を示すフローチャートである。 本開示の変形例に係る測距システムの構成例を示す説明図である。 本開示の変形例に係るの撮像装置が実行する処理の一例を示すフローチャートである。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
[1.測距システムの構成例]
 図1は、本開示に係る測距システムの構成例を示す説明図である。図1に示す測距システム100は、例えば、赤外光が照射された被写体の赤外光画像(以下、「距離画像」と称する場合がある)を撮像し、距離画像から光飛行時間(Time Of Tlight:TOF)に基づいて被写体までの距離を計測するd(direct)TOFセンサを実現するシステムである。測距システム100は、i(indirect)ToFを実現するシステムであってもよい。
 測距システム100は、光源101と、撮像光学系102と、撮像装置1と、ISP(Image Signal Processor)103と、入力装置104と、表示装置105と、データ保存部106とを備える。
 光源101は、測距対象となる被写体へ向けて赤外光を照射する赤外光レーザである。光源101は、ISP103によって駆動制御され、所定の高周波数で高速に点滅しながら赤外光を照射する。撮像光学系102は、被写体によって反射される赤外光を撮像装置1の受光部に結像させるレンズ等を含む。
 撮像装置1は、被写体の赤外光画像である距離画像を撮像し、距離画像の画像データをISP103へ出力する装置である。撮像装置1は、距離画像だけでなく可視光画像も撮像することができる。撮像装置1は、可視光画像を撮像した場合、必要に応じて可視光画像の画像データをISP103へ出力する。
 ISP103は、光源101の駆動制御を行い、撮像装置1から入力される距離画像の画像データから赤外光の光飛行時間や、入力光との位相ずれ情報に基づいて被写体までの距離を計測し、計測結果および距離画像を表示装置105およびデータ保存部106へ出力する。また、ISP103は、撮像装置1から可視光画像の画像データが入力される場合、必要に応じて可視光画像の画像データを表示装置105およびデータ保存部106へ出力する。さらに、ISP103は、必要に応じて、距離情報とRGB情報とを合成した、着色された三次元情報を表示装置105およびデータ保存部106へ出力することもできる。
 表示装置105は、例えば、液晶ディスプレイであり、ISP103によって計測された測距結果、赤外光画像、または可視光画像を表示する。データ保存部106は、例えば、メモリであり、ISP103によって計測された測距結果、赤外光画像の画像データ、または可視光画像の画像データを保存する。
 入力装置104は、測距システム100の各種設定を行うためのユーザ操作、および測距システム100によって測距を行わせるためのユーザ操作を受け付け、ユーザ操作に応じた信号をISP103へ出力する。
 また、撮像装置1は、画素アレイ10と、AD(Analog to Digital)変換部20と、データ処理部30とを備える。なお、図1には、撮像装置1の構成要素の一部を示している。撮像装置1の具体的な構成例については、図2を参照して後述する。
 画素アレイ10は、撮像光学系102から入射する光を距離画像の画素信号と、可視光画像の画素信号とに光電変換してAD変換部20へ出力する。AD変換部20は、距離画像および可視光画像の画素信号をAD変換してデータ処理部30へ出力する。データ処理部30は、距離画像および可視光画像の画像データに対して各種画像処理および画像解析を行い、画像処理および画像解析後の画像データをISP103へ出力する。
 ここで、測距システム100がiToFセンサの場合、例えば、4枚(回)の位相データから距離画像(距離データ)を算出する必要がある。つまり、4回分の位相データをメモリに一旦蓄積し、その後、演算して1枚の距離画像(距離データ)を作成する。この場合、データ保存部106(例えば、フラッシュメモリ)とは別に、位相データを一時記憶するメモリ部(例えば、SRAM(Static Random Access Memory等のメモリ)を設置しておく必要がある。
 SRAMは、高速で情報の書き込みや読み出しが可能なメモリであるため、高速に行う必要がある距離算出処理に適している。かかるメモリは、電源がONの時にだけ情報を記憶できていればよい。測距システム100は、iToFセンサの場合、ISP103に内蔵されているメモリを位相データの一時記憶に使用する。
 かかる測距システム100は、測距精度を向上させるために、光源101および距離画像を撮像する画素アレイ10を高周波で動作させる必要があり、一般的な可視光センサと比較して消費電力が大きい。そこで、測距システム100は、撮像装置1内において、可視光画像のデータを有効利用して消費電力を低減する。
 具体的には、撮像装置1は、まず、撮像に要する消費電力が比較的小さい可視光画像を撮像し、可視光画像において移動体を検出するまでは距離画像を撮像しない。その後、撮像装置1は、可視光画像内において移動体を検出した場合に、光源101を発光させ、撮像に要する消費電力が比較的大きい距離画像を撮像して測距を行う。これにより、測距システム100は、消費電力を適切に低減することができる。次に、かかる撮像装置1の構成例について説明する。
[2.撮像装置の構成例]
 図2は、本開示に係る撮像装置の構成例を示す説明図である。図2に示すように、撮像装置1は、画素アレイ10と、グローバル制御回路41と、第1行制御回路42と、第2行制御回路43と、第1読み出し回路21と、第1データ処理部22と、第2読み出し回路23と、第2データ処理部24とを備える。グローバル制御回路41、第1行制御回路42、および第2行制御回路43は、図1に示す制御部40に含まれる。
 画素アレイ10は、第1画素アレイ11と、第2画素アレイ12とを備える。第1画素アレイ11には、可視光画像の各画素に対応する複数の第1受光画素(以下、「第1画素」と記載する)13が2次元(行列状)に配列される。第2画素アレイ12には、赤外光画像の各画素に対応する複数の第2受光画素(以下「第2画素」と記載する)14が2次元(行列状)に配列される。
 第1画素13は、可視光域を含む第1波長域の光を受光量に応じた信号電荷に光電変換する。ここでは、第1画素13は、赤色光、緑色光、および青色光を光電変換する。第2画素14は、赤外光域を含む第2波長域の光を光電変換する。ここでは、第2画素14は、赤外光を受光量に応じた信号電荷に光電変換する。
 第1画素アレイ11は、第2画素アレイ12上に積層される。第1画素アレイ11は、入射する可視光を光電変換して可視光画像を撮像する。第2画素アレイ12は、第1画素アレイを透過した赤外光を光電変換して赤外光画像を撮像する。これにより、撮像装置1は、1つの画素アレイ10によって、可視光画像と赤外光画像とを撮像することができる。
 グローバル制御回路41は、ISP103からの制御信号を基にして第1行制御回路42と、測距用パルス生成部50とを制御する。第1行制御回路42は、第1画素アレイ11を駆動制御して可視光画像の撮像を行わせる。第1画素アレイ11は、可視光を信号電荷に光電変換して蓄積する。第1読み出し回路21は、第1画素アレイ11から信号電荷に応じた信号を読み出して、第1データ処理部22へ出力する。
 第1データ処理部22は、第1読み出し回路21から入力される信号をAD変換して可視光画像の画像データを取得し、画像データに対して所定の画像処理および画像解析を行う。第1データ処理部22は、必要に応じて画像処理および画像解析後の画像データをISP103へ出力する。
 また、第1データ処理部22は、画像解析の結果を第2行制御回路43へ出力して第2行制御回路43を動作させる。ここで、第1データ処理部22は、画像解析として、例えば、可視光画像内の被写体が動いているか動いていないかを判定し、動いている場合にのみ、第2行制御回路43を動作させる。
 つまり、第1データ処理部22は、第1画素アレイ11によって撮像された画像データから変化のある第1画素13を検出する。ここでの変化のある第1画素13とは、例えば、前フレームの画像データで蓄積した信号電荷量と、今フレームの画像データで蓄積した信号電荷量との差が閾値を超える第1画素13である。
 そして、第2行制御回路43は、第1データ処理部22によって変化のある第1画素13が検出された場合に、第2画素アレイ12の駆動を開始する。これにより、撮像装置1は、第2画素アレイ12の駆動に要する消費電力を適切に低減することができる。
 また、第1データ処理部22は、変化している第1画素13に対応する第2画素14に限って信号を読み出すように、第2読み出し回路23を制御するように構成されてもよい。これにより、撮像装置1は、第2読み出し回路23の消費電力も低減することができる。
 また、第1データ処理部22は、第1画素アレイ11において変化のある第1画素13に対応する第2画素14のみを第2行制御回路43によって駆動させることもできる。これにより、撮像装置1は、第2画素アレイ12の駆動に要する消費電力をさらに低減することができる。
 また、第1データ処理部22は、被写体が動いているか動いていないかの2値ではなく、第1画素アレイ11における変化量に閾値を設け、被写体の動きによる変化量が閾値を超える第1画素13に対応する第2画素のみを第2行制御回路43によって駆動させることもできる。これにより、撮像装置1は、駆動させる第2画素14の数を必要最小限に抑えることができる。
 また、第1データ処理部22は、第2行制御回路43の動作周波数を第1画素アレイ11における変化に応じて変えられるように構成されてもよい。例えば、第1データ処理部22は、第1画素アレイ11における変化(被写体の移動速度)が大きければ、第2行制御回路43の動作周波数を上げる。これにより、撮像装置1は、移動速度が大きい被写体の鮮明な画像を第2画素アレイによって撮像することができる。
 第2行制御回路43は、第1データ処理部22によって、被写体が動いていると判定された場合に、第2画素アレイ12を駆動制御して赤外光画像の撮像を行わせる。第2画素アレイ12は、赤外光を信号電荷に光電変換して蓄積する。第2読み出し回路23は、第2画素アレイ12から信号電荷に応じた信号を読み出して、第2データ処理部24へ出力する。
 第2データ処理部24は、第2読み出し回路23から入力される信号をAD変換して赤外光画像である距離画像の画像データを取得し、画像データに対して所定の画像処理を行ってISP103へ出力する。
 なお、第2画素アレイ12において駆動させる第2画素14の範囲を決定するのは、第1データ処理部22に限定されるものではない。例えば、駆動させる第2画素14の範囲を決定するのは、制御部40(第2行制御回路43)であってもよく、専用に設置される判断回路であってもよく、ISP103であってもよい。
 この場合、第2行制御回路43、判断回路、またはISP103は、第1データ処理部22から可視光画像の画像データを取得し、画像データから変化のある第1画素13を検出する。そして、第2行制御回路43、判断回路、またはISP103は、検出した第1画素13と重なる位置に配置された第2画素14の範囲を駆動させる第2画素14の範囲として決定する。
 また、測距システム100は、iToFセンサの場合、1枚(回)の距離画像から距離が算出できないので、上記したように、例えば、ISP103内部のメモリに距離画像を保存しておき、ISP103の内部に保存された複数枚の距離画像から被写体までの距離を算出することも可能である。
[3.画素アレイの断面構造]
 次に、図3を参照し、本開示に係る画素アレイの断面構造について説明する。図3は、本開示に係る画素アレイの断面説明図である。図3には、一つの第2画素14に対応する部分の画素アレイ10の断面を模式的に示している。なお、ここでは、図3に示す直交座標系におけるZ軸の正方向を便宜上「上」、Z軸の負方向を便宜上「下」として説明する。
 図2に示すように、画素アレイ10は、第2画素14と第1画素13とが厚さ方向であるZ軸方向において積層された構造を有する所謂縦方向分光型の撮像素子を備える。画素アレイ10は、第2画素14と第1画素13との間に設けられた中間層60と、第2画素14から見て第1画素13とは反対側に設けられた多層配線層61とを備える。
 さらに、画素アレイ10は、第1画素13から見て中間層60とは反対側に、封止膜62と、カラーフィルタ63と、平坦化膜64と、オンチップレンズ65とが第1画素13に近い位置から順にZ軸の正方向に沿って積層される。
 第1画素13は、TOFにより、距離画像(距離情報)を取得する間接TOF(以下、「iTOF」と記載する)センサである。第1画素13は、半導体基板66と、光電変換領域67と、固定電荷層68と、一対のゲート電極69A,69Bと、フローティングディフュージョン70A,70Bと、貫通電極71とを有する。
 半導体基板66は、例えば、n型のシリコン基板であり、内部の所定領域にPウェルを有する。半導体基板66の下面は、多層配線層61と対向している。半導体基板66の上面は、中間層60と対向しており、微細な凹凸構造が形成される。これにより、半導体基板66の上面は、入射する赤外光を適切に散乱させて光路長を拡大するという効果を奏する。なお、半導体基板66は、下面にも微細な凹凸構造が形成されてもよい。
 光電変換領域67は、PIN(Positive Intirinsic Negative)型のフォトダイオードによって構成される光電変換素子である。光電変換領域67は、画素アレイ10に入射する光のうち、主に赤外光域の波長の光(赤外光)を受光し、受光量に応じた信号電荷に光電変換して蓄積する。
 固定電荷層68は、半導体基板66の上面および側面を被覆するように設けられる。固定電荷層68は、半導体基板66の受光面となる上面の界面準位に起因する暗電流の発生を抑制する負の固定電荷を含んでいる。
 固定電荷層68は、半導体基板66の上面近傍にホール蓄積層を形成し、ホール蓄積層によって半導体基板66上面からの電子の発生を抑制する。固定電荷層68は、画素間領域遮光壁72と光電変換領域67との間にも延在する。
 ゲート電極69A,69Bは、半導体基板66の下面から光電変換領域67に達する位置まで延在する。ゲート電極69A,69Bは、所定の電圧が印加される場合に、光電変換領域67に蓄積された信号電荷をフローティングディフュージョン70A,70Bへ転送する。
 フローティングディフュージョン70A,70Bは、光電変換領域67から転送される信号電荷を一時的に保持する浮遊拡散領域である。フローティングディフュージョン70A,70Bに保持された信号電荷は、第2読み出し回路23(図2参照)によって画素信号として読み出される。
 多層配線層61は、絶縁層73の内部に配線74が設けられる。絶縁層73は、例えば、酸化シリコンなどによって形成される。配線74は、例えば、銅または金などの金属によって形成される。また、絶縁層73の内部には、第1読み出し回路21および第2読み出し回路23(図2参照)なども設けられる。
 中間層60は、絶縁層73に埋設された光学フィルタ75と、画素間領域遮光膜76とを有する。光学フィルタ75は、例えば、有機材料によって形成され、主として赤外光域の周波数の光を選択的に透過する。画素間領域遮光膜76は、隣接画素間の混色を低減する。
 第1画素13は、光電変換領域67に近い位置から順に積層された第1電極77と、半導体層78と、光電変換層79と、第2電極80とを有する。さらに、第1画素13は、半導体層78の下方に、絶縁膜81を介して半導体層78と対向するように設けられた電荷蓄積電極82を有する。
 電荷蓄積電極82および第1電極77は、互いに離間されており、例えば、同一階層に設けられる。第1電極77は、例えば、貫通電極71の上端に接続される。第1電極77、第2電極80、および電荷蓄積電極82は、例えば、ITO(インジウム錫酸化物)やIZO(インジウム添加のインジウム亜鉛酸化物)などの光透過性を有する導電膜によって形成される。
 光電変換層79は、光エネルギーを電気エネルギーに変換するものであり、例えば、p型半導体およびn型半導体として機能する有機材料を2種類以上含んで形成される。p型半導体は、電子供与体(ドナー)として機能する。n型半導体は、電子受容体(アクセプタ)として機能する。光電変換層79は、バルクヘテロ接合構造を有する。バルクヘテロ接合構造は、p型半導体とn型半導体とが混ざり合うことで形成されたp/n接合面である。光電変換層79は、入射した光をp/n接合面において電子と正孔とに分離する。
 光電変換層79の上層には、可視光(赤色光(R),緑色光(G),青色光(B))を透過させるカラーフィルタ63が設けられている。このため、光電変換層79は、入射する可視光を光電変換する。
 電荷蓄積電極82は、絶縁膜81および半導体層78とともにキャパシタを形成し、光電変換層79において発生する信号電荷を半導体層78のうち、絶縁膜81を介して電荷蓄積電極82に対向する領域に蓄積する。本実施形態では、電荷蓄積電極82は、各カラーフィルタ63およびオンチップレンズ65のぞれぞれに対応する位置に設けられる。
 第1画素13では、第2電極80側から入射した光は、光電変換層79で吸収される。これによって生じた励起子(電子-正孔対)は、光電変換層79を構成する電子供与体と電子受容体との界面に移動し、電子と正孔とに分離する。ここで発生した電子および正孔は、キャリアの濃度差や、第1電極77と第2電極80との電位差による内部電界によって、第2電極80または半導体層78に移動して蓄積される。
 例えば、第1電極77を正の電位とし、第2電極80を負の電位とする。この場合、光電変換層79において発生した正孔は、第2電極80側に移動する。光電変換層79において発生した電子は、電荷蓄積電極82に引き付けられ、半導体層78のうち、絶縁膜81を介して電荷蓄積電極82に対応する領域に蓄積される。
 半導体層78のうち、絶縁膜81を介して電荷蓄積電極82に対応する領域に蓄積される電子は、次のようにして読み出される。例えば、第1電極77に電位V1を印加し、電荷蓄積電極82に電位V2を印加する。このとき、電位V2よりも電位V1を高くする。これにより、半導体層78のうち、絶縁膜81を介して電荷蓄積電極82に対応する領域に蓄積されていた電子は、第1電極77へ転送されて読み出される。
 このように、光電変換層79の下層に半導体層78を設け、半導体層78のうち、絶縁膜81を介して電荷蓄積電極82に対応した領域に電荷(例えば、電子)を蓄積することにより、以下の効果が得られる。半導体層78を設けずに、光電変換層79に電荷(例えば、電子)を蓄積する場合と比較して、電荷蓄積時の正孔と電子との再結合が防止され、蓄積した電荷(例えば、電子)の第1電極77への転送効率を増加させることができる。ここでは、電子の読み出しを行う場合について説明したが、正孔の読み出しを行うようにしてもよい。正孔を読み出す場合は、上記した説明での電位V1,V2,V3の高低関係が逆になる。
[4.第1読み出し回路]
 図4は、本開示に係る第1読み出し回路の一例を示す回路図である。第1読み出し回路21は、例えば、フローティングデュージョンFDと、リセットトランジスタRSTと、増幅トランジスタAMPと、選択トランジスタSELとを有する。フローティングディフュージョンFDは、第1電極77と増幅トランジスタAMPとの間に接続されている。フローティングディフュージョンFDは、第1電極77により転送される信号電荷を電圧信号に変換して、増幅トランジスタAMPに出力する。
 リセットトランジスタRSTは、フローティングディフュージョンFDと電源との間に接続される。リセットトランジスタRSTのゲート電極に駆動信号が印加され、リセットトランジスタRSTがオンになると、フローティングディフュージョンFDの電位が電源のレベルにリセットされる。増幅トランジスタAMPは、フローティングディフュージョンFDに接続されるゲート電極と、電源に接続されるドレイン電極とを有する。増幅トランジスタAMPのソース電極は、選択トランジスタSELを介して垂直信号線に接続される。
 選択トランジスタSELは、増幅トランジスタAMPのソース電極と、垂直信号線との間に接続される。選択トランジスタSELのゲート電極に駆動信号が印加され、選択トランジスタSELがオンになると、増幅トランジスタAMPから出力される画素信号が、SELおよび垂直信号線を介してAD変換部20に出力される。AD変換部20は、制御部40から入力される制御信号に基づき画素信号をAD変換してデータ処理部30に出力する。
[5.画素の配置例]
 次に、図5~図8を参照して、本開示に係る画素の平面視による配置例について説明する。図5~図8は、本開示に係る画素の平面視による配置例を示す説明図である。図5に示すように、画素アレイ10の最上層には、複数のオンチップレンズ65が2次元(行列状)に配置される。また、画素アレイ10は、オンチップレンズ65が配置される階層よりも下の階層に、図6に示すように、複数のカラーフィルタ63が2次元(行列状)に配置される。
 カラーフィルタ63は、赤色光を選択的に透過するフィルタRと、緑色光を選択的に透過するフィルタGと、青色光を選択的に透過させるフィルタGとを含む。各カラーフィルタ63(1つのフィルタR,G,B)は、それぞれ1つのオンチップレンズ65に対応する位置に設けられる。
 ここでの対応する位置とは、例えば、Z軸方向において互いに重なり合う位置のことである。各フィルタR,G,Bは、例えば、ベイヤ配列と呼ばれる色配置法にしたがって配置される。なお、各フィルタR,G,Bの配列はベイヤ配列に限定されるものではない。
 また、画素アレイ10は、カラーフィルタ63が配置される階層よりも下の階層に、図7に示すように、第1画素アレイ11における複数の電荷蓄積電極82が2次元(行列状)に配置される。なお、図7には、各電荷蓄積電極82と各カラーフィルタ63との位置関係を明確にするため、各カラーフィルタ63を破線で示している。各電荷蓄積電極82は、それぞれ1つの1つのフィルタR,G,Bに対応する位置に設けられる。ここでの対応する位置とは、例えば、Z軸方向において互いに重なり合う位置のことである。
 また、画素アレイ10は、第1画素アレイ11における電荷蓄積電極82が配置される階層よりも下の階層に、図8に示すように、第2画素アレイ12における複数の光電変換領域67が2次元(行列状)に配置される。各光電変換領域67の周囲には、複数の貫通電極71が設けられる。
 なお、図8には、各光電変換領域67と、各オンチップレンズ65および各カラーフィルタ63との位置関係を明確にするため、各カラーフィルタ63を破線で示し、オンチップレンズ65を点線で示している。各光電変換領域67は、縦横4×4の行列状に配列された16個のオンチップレンズ65および16個のカラーフィルタ63に対応する位置に設けられる。ここでの対応する位置とは、例えば、Z軸方向において互いに重なり合う位置のことである。
 なお、ここでは、16個のオンチップレンズ65および16個のカラーフィルタ63に対して、1つの光電変換領域67が設けられるとしたが、これは一例である。例えば、画素アレイ10は、4個のオンチップレンズ65および16個のカラーフィルタ63に対して1つの光電変換領域67が設けられてもよく、1つのオンチップレンズ65および16個のカラーフィルタ63に対して1つの光電変換領域67が設けられてもよい。
[6.撮像装置の動作例]
 次に、図9を参照し、本開示に係る撮像装置の動作例について説明する。図9は、本開示に係る撮像装置の動作例を示す説明図である。図9に示すように、撮像装置1は、まず、制御部40によって第1画素制御を行い(ステップS1)、第1画素アレイ11を駆動する(ステップS2)。これにより、第1画素アレイ11は、第1画素13によって入射光を信号電荷に光電変換し、信号電荷を蓄積する。
 その後、撮像装置1は、第1読み出し回路21によって第1画素アレイ11から信号電荷に応じた画素信号を読み出し(ステップS3)、第1データ処理部22によって画素信号をAD変換する。第1データ処理部22は、必要に応じてAD変換後の画素信号(可視光画像の画像データ)を出力する(ステップS4)。
 また、撮像装置1は、第1データ処理部22によって可視光画像を評価する(ステップS5)。このとき、第1データ処理部22は、可視画像において変化のあった第1画素13を検出する。例えば、第1データ処理部22は、前フレームの画像データで蓄積した信号電荷量と、今フレームの画像データで蓄積した信号電荷量との差が閾値を超える第1画素13を検出する。なお、閾値は、例えば、ISP103によって設定される(ステップS6)。第1データ処理部22は、変化のある第1画素13の検出結果を第2行制御回路43およびISP103に出力する。
 ISP103は、変化のある第1画素13が検出されると、センサ制御を行い(ステップS7)、光源101を駆動する(ステップS8)。これにより、光源101が高周波で点滅しながら発光して被写体110に対して赤外光を照射する。このように、測距システム100では、変化のある第1画素13が検出されて初めて光源101を発光させるので、光源101を常時発光させる場合に比べて光源101の消費電力を低減することができる。
 なお、ISP103は、変化のある第1画素13が検出される前から光源101を比較的低輝度で発光させておき、変化のある第1画素13が検出されると、光源101の発光強度を上げて高輝度で発光させることもできる。
 一方、撮像装置1は、第2行制御回路43によって第2画素制御を行い(ステップS9)、第2画素アレイ12を駆動する(ステップS10)。これにより、第2画素アレイ12は、第1画素アレイ11を透過して入射する赤外光を第2画素14によって信号電荷に光電変換し、信号電荷を蓄積する。このように、第2行制御回路43は、変化のある第1画素13が検出されて初めて第2画素アレイ12を駆動するので、第2画素アレイ12を常時駆動する場合に比べて第2画素アレイ12の消費電力を低減することができる。
 このとき、第2行制御回路43は、全ての第2画素14を駆動することもできるが、変化のあった第1画素13に対応する第2画素14を選択的に駆動することもできる。第2行制御回路43は、変化のあった第1画素13に対応する第2画素14を選択的に駆動することによって、消費電力を低減することができる。
 また、第2行制御回路43は、変化のあった第1画素13の変化量が大きく、例えば、変化量が閾値を超える場合に、第1画素13に対応する第2画素14の駆動周波数を通常よりも高めることもできる。
 その後、撮像装置1は、第2読み出し回路23によって第2画素アレイ12から信号電荷に応じた画素信号を読み出し(ステップS11)、第2データ処理部24によって画素信号をAD変換し、AD変換後の画素信号(赤外光画像の画像データ)を出力する(ステップS12)。
 第2データ処理部24は、全ての第2画素14から画素信号を読み出し、変化のある第1画素13に対応する第2画素14の画素信号に限ってAD変換し、AD変換後の画素信号(赤外光画像の画像データ)を出力することができる。これにより、撮像装置1は、AD変換に要する消費電力を低減することができる。
 また、第2データ処理部24は、変化のある第1画素13に対応する第2画素14の画素信号に限って画素信号を読み出し、読み出した画素信号をAD変換し、AD変換後の画素信号(赤外光画像の画像データ)を出力することができる。これにより、撮像装置1は、画素信号の読み出しに要する消費電力を低減することができる。
 このように、撮像装置1は、可視光画像の情報を有効利用し、第1画素アレイ11によって光電変換された信号に基づいて、第2画素アレイ12を駆動制御するので、光源101および撮像装置1の消費電力を低減する。
[7.制御部が実行する処理]
 次に、図10を参照して、本開示に係る撮像装置が実行する処理の一例について説明する。図10は、本開示に係る撮像装置が実行する処理の一例を示すフローチャートである。図10に示すように、撮像装置1は、各種設定を行い、外光条件に基づく撮像条件で第1画素アレイ11を駆動して第1画像となる可視光画像を撮像する(ステップS101)。
 その後、撮像装置1は、第1画素アレイ11によって可視光を光電変換して信号電荷を蓄積する(ステップS102)。続いて、撮像装置1は、第1画素アレイ11から信号電荷(信号)を読み出し、信号をAD変換する(ステップS103)。続いて、撮像装置1は、可視光画像である第1画像を出力する。このとき、撮像装置1は、第1画素アレイ11から第1画素13を間引いて出力することもできる。
 その後、撮像装置1は、第1画像の情報を分析し、赤外光画像である第2画像の撮像条件を決定する(ステップS105)。具体的には、撮像装置1は、変化のある第1画素13を検出し、第2画素14の走査範囲の座標(X1,Y1~X2,Y2)を決定する。このとき決定する走査範囲は、単一画素であってもよく、複数画素の集合領域であってもよく、これらの組合せであってもよい。
 また、第1データ処理部22が、例えば、顔認証機能を備える場合、撮像装置1は、第1データ処理部22によって可視光画像内の被写体の顔の位置を検出し、顔における認証にとって重要な箇所のみを走査範囲として決定することもできる。また、被写体の位置が時間の経過に伴って変化することがあるため、撮像装置1は、可視光画像における被写体の位置を適切に追跡したり、走査範囲を大きめに設定したりすることもできる。
 続いて、撮像装置1は、各種設定を行い、外光条件に基づく撮像条件で第2画素アレイ12を駆動して赤外光画像を撮像する(ステップS106)。その後、撮像装置1は、第2画素アレイ12によって赤外光を光電変換して信号電荷を蓄積する(ステップS107)。
 その後、撮像装置1は、第2画素14から信号電荷(信号)を読み出し、信号をAD変換する(ステップS108)。続いて、撮像装置1は、走査範囲(X1,Y1~X2,Y2)に対応する第1画素13および/または第2画素14の信号をISP103へ出力し(ステップS109)、処理を終了する。
[8.制御部が実行する処理の変形例]
 次に、図11を参照して、本開示に係る撮像装置が実行する処理の変形例について説明する。図11は、本開示に係る撮像装置が実行する処理の変形例を示すフローチャートである。図11に示すように、変形例に係る処理は、ステップS208,S209の処理が図10に示すステップS108,S109の処理とは異なる。図11に示すステップS101~S107の処理は、図10に示すS101~S107の処理と同一であるため、ここでは、重複する説明を省略する。
 図11に示すように、撮像装置1は、第2画素14によって信号電荷(信号)を蓄積させ(ステップS107)、その後、ステップS105で決定した走査範囲(X1,Y1~X2,Y2)に対応する第2画素14の信号を読み出し、AD変換する(ステップS208)。続いて、撮像装置1は、第1画素13および/または第2画素14の信号をISP103へ出力し(ステップS209)、処理を終了する。
[9.変形例に係る測距システムの構成例]
 次に、変形例に係る測距システムについて説明する。図12は、本開示の変形例に係る測距システムの構成例を示す説明図である。
 図12に示すように、変形例に係る測距システム100aは、制御部40aが光源101の駆動制御まで行う点が図1に示す測距システム100とは異なり、他の構成は、図1に示す測距システム100と同様である。このため、ここでは、制御部40aによる光源101の駆動制御について説明し、他の構成については重複する説明を省略する。
 制御部40aは、第1データ処理部22による画像解析の結果、可視光画像の被写体が閾値を超える移動速度で移動するような激しい動きをしている場合、測距用パルス生成部50を制御して、光源101の発光強度を通常よりも高めたり、光源101の動作周波数を通常よりも高めたりする。また、制御部40aは、光源101の動作周波数の変更に合わせて、第2画素アレイ12の駆動周波数も調整する。
 また、制御部40aは、例えば、第1データ処理部22による画像解析の結果、可視光画像の被写体が顔であり、顔が予め設定される場所よりも撮像光学系102に近い場所にある場合、光源101の発光強度を通常よりも低くする。
 これにより、制御部40aは、被写体の移動速度および被写体までの距離に応じて、適切な赤外光を被写体に照射することができる。したがって、第2画素アレイ12は、測距用の適切な赤外光画像を撮像することができる。
[10.変形例に係る制御部が実行する処理]
 次に、図13を参照して、本開示の変形例に係るの撮像装置が実行する処理の一例について説明する。図13は、本開示の変形例に係るの撮像装置が実行する処理の一例を示すフローチャートである。
 図13に示すように、変形例に係るの撮像装置が実行する処理は、ステップS305~S310の処理が図10に示すステップS105~109の処理とは異なる。図13に示すステップS101~S104の処理は、図10に示すステップS101~S104の処理と同一であるため、ここでは、重複する説明を省略する。
 図13に示すように、撮像装置1aは、第1画素アレイ11によって信号電荷(信号)を蓄積させ(ステップS104)、続いて、第1画像の情報を分析し、赤外光画像となる第2画像の撮像条件を決定する。
 このとき、撮像装置1aは、変化のある第1画素13を検出し、第2画素14の走査範囲の座標(X1,Y1~X2,Y2)を決定する。さらに、撮像装置1aは、光源101の発光強度および発光時間(動作周波数)を決定する(ステップS305)。その後、撮像装置1aは、決定した発光強度および発光時間(動作周波数)で光源101を発光させる(ステップS306)。
 続いて、撮像装置1aは、決定した発光時間(動作周波数)に応じたタイミングで第2画素14のゲートをオープンさせ(ステップS307)、第2画素14のゲートをクローズさせて(ステップS308)、第2画素14によって受光する赤外光を光電変換して電荷を蓄積する。
 その後、撮像装置1aは、走査範囲(X1,Y1~X2,Y2)に対応する画素の信号を読み出し、AD変換する(ステップS309)。続いて、撮像装置1aは、第1画素13および/または第2画素14の信号をISP103へ出力し(ステップS310)、処理を終了する。
[11.他の実施形態]
 上述した実施形態は一例であり、種々の変形が可能である。例えば、本開示に係る撮像装置は、図3に示す光学フィルタ75を省略してもよい。光学フィルタ75が設けられない場合、第1画素アレイ11および第2画素アレイ12は、共に可視光画像を撮像することになる。ここで、例えば、光電変換層79の厚さを図3に示す厚さよりも薄くすれば、第1画素アレイ11の受光感度が低下する。
 かかる性質を利用して、撮像装置は、第1画素アレイ11によって低感度の第1画像を撮像し、第2画素アレイ12によって第1画像よりも高感度の第2画像を撮像して、第1画像および第2画像をISP103へ出力する。これにより、ISP103は、第1画像と第2画像とをHDR(High Dynamic Range)合成することによって、HDR画像を生成することができる。
 なお、この構成の場合、1つの電荷蓄積電極82に対して1つの光電変換領域67を設けることが望ましい。これにより、撮像装置は、同じ画素数の低感度画像と高感度画像とを撮像することができる。また、撮像光学系102に赤外光を透過させるフィルタを追加すれば、赤外光HDR画像を生成することも可能になる。
 また、上述した実施形態では、第2画素アレイ12上に第1画素アレイ11が積層される場合について説明したが、第1画素アレイ11および第2画素アレイ12は、同一平面上に設けられてもよい。この場合にも、撮像装置は、制御部40,40aによって上述した制御と同様の制御を行うことにより、可視光画像の情報を有効利用して、消費電力を適切に低減することができる。
[12.効果]
 撮像装置1は、半導体基板66と、第1画素アレイ11と、第2画素アレイ12と、制御部40とを有する。第1画素アレイ11は、半導体基板66上に設けられ、第1電極77、光電変換層79、および第2電極80が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素13が2次元に配列される。第2画素アレイ12は、半導体基板66内のうち半導体基板66の厚さ方向において第1受光画素13と重なる位置に設けられ、赤外光域を含む第2波長域の光を光電変換する第2受光画素14が2次元に配列される。制御部40は、第1画素アレイ11によって光電変換された信号に基づいて、第2画素アレイ12を駆動制御する。これにより、撮像装置1は、可視光画像の情報を有効利用することができる。
 撮像装置1は、第1画素アレイ11によって撮像された画像データから変化のある第1画素13を検出するデータ処理部30を備える。制御部40は、データ処理部30によって検出される変化のある第1画素13に対応する第2受光画素14によって光電変換された信号を出力させる。これにより、撮像装置1は、可視画像において注目すべきROI(Region Of Interest)領域に対応する第2受光画素14に限って出力するので、情報の出力に要する消費電力を適切に低減することができる。
 制御部40は、第2画素アレイ12から読み出される全ての信号のうち、変化のある第1画素13に対応する第2受光画素14から読み出された信号を出力させる。これにより、撮像装置1は、可視画像において注目すべきROI領域に対応する第2受光画素14に限って出力するので、情報の出力に要する消費電力を適切に低減することができる。
 制御部40は、第2画素アレイ12によって光電変換された信号のうち、変化のある第1画素13に対応する第2受光画素14から光電変換された信号を読み出して出力させる。これにより、撮像装置1は、可視画像において注目すべきROI領域に対応する第2受光画素14に限って第2画素アレイ12から読み出して出力するので、情報の読み出しに要する消費電力を適切に低減することができる。
 制御部40は、データ処理部30によって、変化のある第1画素13が検出された場合に、第2画素アレイ12の駆動を開始する。これにより、撮像装置1は、変化のある第1画素13が検出されるまで、第2画素アレイ12を駆動させないので、第2画素アレイ12の消費電力を低減することができる。
 制御部40は、一部の第1受光画素13を間引いて第1画素アレイ11から光電変換された信号を出力させる。これにより、撮像装置1は、第1画素アレイ11によって光電変換された信号の出力に要する消費電力を低減することができる。
 撮像装置1は、半導体基板66と、第1画素アレイ11と、第2画素アレイ12と、制御部40とを有する。第1画素アレイ11は、半導体基板66上に設けられ、第1電極77、光電変換層79、および第2電極80が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素13が2次元に配列される。第2画素アレイ12は、半導体基板66内のうち半導体基板66の厚さ方向において第1受光画素13と重なる位置に設けられ、第1受光画素13とは受光感度が異なり、第1画素アレイ11を透過した第1波長域の光を光電変換する第2受光画素14が2次元に配列される。制御部40は、第1画素アレイ11によって光電変換された信号に基づいて、第2画素アレイ12を駆動制御する。これにより、撮像装置1は、1つの画素アレイ10によって高感度画像と低感度画像とを撮像することができる。 
 撮像装置1は、半導体基板66と、第1画素アレイ11と、第2画素アレイ12と、制御部40とを有する。第1画素アレイ11は、半導体基板66上に設けられ、第1電極77、光電変換層79、および第2電極80が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素13が2次元に配列される。第2画素アレイ12は、第1画素アレイ11と同一平面上に設けられ、赤外光域を含む第2波長域の光を光電変換する第2受光画素14が2次元に配列される。制御部40は、第1画素アレイ11によって光電変換された信号に基づいて、第2画素アレイ12を駆動制御する。これにより、撮像装置1は、第1画素アレイ11および第2画素アレイ12が同一平面上に配置される場合にも、可視光画像の情報を有効利用することができる。
 測距システム100aは、光源101と、撮像装置1aとを含む。光源101は、赤外光を発する。撮像装置1aは、赤外光が照射された被写体を撮像し、撮像画像に基づいて被写体までの距離を計測する。撮像装置1aは、半導体基板66と、第1画素アレイ11と、第2画素アレイ12と、制御部40aとを有する。第1画素アレイ11は、半導体基板66上に設けられ、第1電極77、光電変換層79、および第2電極80が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素13が2次元に配列される。第2画素アレイ12は、半導体基板66内のうち半導体基板66の厚さ方向において第1受光画素13と重なる位置に設けられ、赤外光域を含む第2波長域の光を光電変換する第2受光画素14が2次元に配列される。制御部40aは、第1画素アレイ11によって光電変換された信号に基づいて、第2画素アレイ12および光源101を駆動制御し、第2受光画素14によって光電変換された信号に基づいて被写体までの距離を計測する。これにより、測距システム100aは、可視光画像の情報を有効利用し、光源101を適切に駆動制御することによって、測距精度を向上させることができる。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 半導体基板と、
 前記半導体基板上に設けられ、第1電極、光電変換層、および第2電極が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素が2次元に配列される第1画素アレイと、
 前記半導体基板内のうち前記半導体基板の厚さ方向において前記第1受光画素と重なる位置に設けられ、赤外光域を含む第2波長域の光を光電変換する第2受光画素が2次元に配列される第2画素アレイと、
 前記第1画素アレイによって光電変換された信号に基づいて、前記第2画素アレイを駆動制御する制御部と
 を有する撮像装置。
(2)
 前記第1画素アレイによって撮像された画像データから変化のある前記第1受光画素を検出するデータ処理部
 を備え、
 前記制御部は、
 前記変化のある前記第1受光画素に対応する前記第2受光画素によって光電変換された信号を出力させる
 前記(1)に記載の撮像装置。
(3)
 前記制御部は、
 前記第2画素アレイから読み出される全ての信号のうち、前記変化のある前記第1受光画素に対応する前記第2受光画素から読み出された信号を出力させる
 前記(2)に記載の撮像装置。
(4)
 前記第2画素アレイによって光電変換された信号のうち、前記変化のある前記第1受光画素に対応する前記第2受光画素から光電変換された信号を読み出して出力させる
 前記(2)に記載の撮像装置。
(5)
 前記制御部は、
 前記データ処理部によって、前記変化のある前記第1受光画素が検出された場合に、前記第2画素アレイの駆動を開始する
 前記(2)~(4)のいずれか一つに記載の撮像素子。
(6)
 前記制御部は、
 一部の前記第1受光画素を間引いて前記第1画素アレイから光電変換された信号を出力させる
 前記(1)~(5)のいずれか一つに記載の撮像装置。
(7)
 半導体基板と、
 前記半導体基板上に設けられ、第1電極、光電変換層、および第2電極が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素が2次元に配列される第1画素アレイと、
 前記半導体基板内のうち前記半導体基板の厚さ方向において前記第1受光画素と重なる位置に設けられ、前記第1受光画素とは受光感度が異なり、前記第1画素アレイを透過した前記第1波長域の光を光電変換する第2受光画素が2次元に配列される第2画素アレイと、
 前記第1画素アレイによって光電変換された信号に基づいて、前記第2画素アレイを駆動制御する制御部と
 を有する撮像装置。
(8)
 半導体基板と、
 前記半導体基板上に設けられ、第1電極、光電変換層、および第2電極が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素が2次元に配列される第1画素アレイと、
 前記第1画素アレイと同一平面上に設けられ、赤外光域を含む第2波長域の光を光電変換する第2受光画素が2次元に配列される第2画素アレイと、
 前記第1画素アレイによって光電変換された信号に基づいて、前記第2画素アレイを駆動制御する制御部と
 を有する撮像装置。
(9)
 赤外光を発する光源と、
 前記赤外光が照射された被写体を撮像し、撮像画像に基づいて前記被写体までの距離を計測する撮像装置と
 を含み、
 前記撮像装置は、
 半導体基板と、
 前記半導体基板上に設けられ、第1電極、光電変換層、および第2電極が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素が2次元に配列される第1画素アレイと、
 前記半導体基板内のうち前記半導体基板の厚さ方向において前記第1受光画素と重なる位置に設けられ、赤外光域を含む第2波長域の光を光電変換する第2受光画素が2次元に配列される第2画素アレイと、
 前記第1画素アレイによって光電変換された信号に基づいて、前記第2画素アレイおよび前記光源を駆動制御し、前記第2受光画素によって光電変換された信号に基づいて前記被写体までの距離を計測する制御部と
 を有する測距システム。
 100,100a 測距システム
 1,1a 撮像装置
 10 画素アレイ
 11 第1画素アレイ
 12 第2画素アレイ
 13 第1画素
 14 第2画素
 20 AD変換部
 21 第1読み出し回路
 22 第1データ処理部
 23 第2読み出し回路
 24 第2データ処理部
 30 データ処理部
 40 制御部
 41 グローバル制御回路
 42 第1行制御回路
 43 第2行制御回路
 50 測距用パルス生成部
 63 カラーフィルタ
 65 オンチップレンズ
 66 半導体基板
 67 光電変換領域
 75 光学フィルタ
 77 第1電極
 78 半導体層
 79 光電変換層
 80 第2電極
 81 絶縁膜
 82 電荷蓄積電極
 101 光源
 102 撮像光学系
 103 ISP
 104 入力装置
 105 表示装置
 106 データ保存部

Claims (9)

  1.  半導体基板と、
     前記半導体基板上に設けられ、第1電極、光電変換層、および第2電極が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素が2次元に配列される第1画素アレイと、
     前記半導体基板内のうち前記半導体基板の厚さ方向において前記第1受光画素と重なる位置に設けられ、赤外光域を含む第2波長域の光を光電変換する第2受光画素が2次元に配列される第2画素アレイと、
     前記第1画素アレイによって光電変換された信号に基づいて、前記第2画素アレイを駆動制御する制御部と
     を有する撮像装置。
  2.  前記第1画素アレイによって撮像された画像データから変化のある前記第1受光画素を検出するデータ処理部
     を備え、
     前記制御部は、
     前記データ処理部によって検出される前記変化のある前記第1受光画素に対応する前記第2受光画素によって光電変換された信号を出力させる
     請求項1に記載の撮像装置。
  3.  前記制御部は、
     前記第2画素アレイから読み出される全ての信号のうち、前記変化のある前記第1受光画素に対応する前記第2受光画素から読み出された信号を出力させる
     請求項2に記載の撮像装置。
  4.  前記制御部は、
     前記第2画素アレイによって光電変換された信号のうち、前記変化のある前記第1受光画素に対応する前記第2受光画素から光電変換された信号を読み出して出力させる
     請求項2に記載の撮像装置。
  5.  前記制御部は、
     前記データ処理部によって、前記変化のある前記第1受光画素が検出された場合に、前記第2画素アレイの駆動を開始する
     請求項2に記載の撮像装置。
  6.  前記制御部は、
     一部の前記第1受光画素を間引いて前記第1画素アレイから光電変換された信号を出力させる
     請求項1に記載の撮像装置。
  7.  半導体基板と、
     前記半導体基板上に設けられ、第1電極、光電変換層、および第2電極が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素が2次元に配列される第1画素アレイと、
     前記半導体基板内のうち前記半導体基板の厚さ方向において前記第1受光画素と重なる位置に設けられ、前記第1受光画素とは受光感度が異なり、前記第1画素アレイを透過した前記第1波長域の光を光電変換する第2受光画素が2次元に配列される第2画素アレイと、
     前記第1画素アレイによって光電変換された信号に基づいて、前記第2画素アレイを駆動制御する制御部と
     を有する撮像装置。
  8.  半導体基板と、
     前記半導体基板上に設けられ、第1電極、光電変換層、および第2電極が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素が2次元に配列される第1画素アレイと、
     前記第1画素アレイと同一平面上に設けられ、赤外光域を含む第2波長域の光を光電変換する第2受光画素が2次元に配列される第2画素アレイと、
     前記第1画素アレイによって光電変換された信号に基づいて、前記第2画素アレイを駆動制御する制御部と
     を有する撮像装置。
  9.  赤外光を発する光源と、
     前記赤外光が照射された被写体を撮像し、撮像画像に基づいて前記被写体までの距離を計測する撮像装置と
     を含み、
     前記撮像装置は、
     半導体基板と、
     前記半導体基板上に設けられ、第1電極、光電変換層、および第2電極が順に積層された積層構造を有し、可視光域を含む第1波長域の光を光電変換する第1受光画素が2次元に配列される第1画素アレイと、
     前記半導体基板内のうち前記半導体基板の厚さ方向において前記第1受光画素と重なる位置に設けられ、赤外光域を含む第2波長域の光を光電変換する第2受光画素が2次元に配列される第2画素アレイと、
     前記第1画素アレイによって光電変換された信号に基づいて、前記第2画素アレイおよび前記光源を駆動制御し、前記第2受光画素によって光電変換された信号に基づいて前記被写体までの距離を計測する制御部と
     を有する測距システム。
PCT/JP2022/007398 2021-03-12 2022-02-22 撮像装置および測距システム WO2022190867A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP22766828.2A EP4307378A1 (en) 2021-03-12 2022-02-22 Imaging device and ranging system
DE112022001551.9T DE112022001551T5 (de) 2021-03-12 2022-02-22 Abbildungsvorrichtung und Entfernungsmesssystem
JP2023505277A JPWO2022190867A1 (ja) 2021-03-12 2022-02-22
KR1020237029303A KR20230156694A (ko) 2021-03-12 2022-02-22 촬상 장치 및 측거 시스템
CN202280019409.0A CN116941040A (zh) 2021-03-12 2022-02-22 成像设备和测距系统
US18/546,684 US20240145496A1 (en) 2021-03-12 2022-02-22 Imaging device and ranging system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-040358 2021-03-12
JP2021040358 2021-03-12

Publications (1)

Publication Number Publication Date
WO2022190867A1 true WO2022190867A1 (ja) 2022-09-15

Family

ID=83227724

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/007398 WO2022190867A1 (ja) 2021-03-12 2022-02-22 撮像装置および測距システム

Country Status (8)

Country Link
US (1) US20240145496A1 (ja)
EP (1) EP4307378A1 (ja)
JP (1) JPWO2022190867A1 (ja)
KR (1) KR20230156694A (ja)
CN (1) CN116941040A (ja)
DE (1) DE112022001551T5 (ja)
TW (1) TW202245464A (ja)
WO (1) WO2022190867A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015050331A (ja) * 2013-09-02 2015-03-16 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器
JP2016005189A (ja) * 2014-06-18 2016-01-12 オリンパス株式会社 撮像素子、撮像装置
JP2018136123A (ja) * 2015-06-24 2018-08-30 株式会社村田製作所 距離センサ及びユーザインタフェース装置
JP2018142838A (ja) 2017-02-27 2018-09-13 日本放送協会 撮像素子、撮像装置及び撮影装置
JP2021022875A (ja) * 2019-07-29 2021-02-18 キヤノン株式会社 光電変換装置、光電変換システム、および移動体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015050331A (ja) * 2013-09-02 2015-03-16 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器
JP2016005189A (ja) * 2014-06-18 2016-01-12 オリンパス株式会社 撮像素子、撮像装置
JP2018136123A (ja) * 2015-06-24 2018-08-30 株式会社村田製作所 距離センサ及びユーザインタフェース装置
JP2018142838A (ja) 2017-02-27 2018-09-13 日本放送協会 撮像素子、撮像装置及び撮影装置
JP2021022875A (ja) * 2019-07-29 2021-02-18 キヤノン株式会社 光電変換装置、光電変換システム、および移動体

Also Published As

Publication number Publication date
CN116941040A (zh) 2023-10-24
KR20230156694A (ko) 2023-11-14
JPWO2022190867A1 (ja) 2022-09-15
TW202245464A (zh) 2022-11-16
EP4307378A1 (en) 2024-01-17
US20240145496A1 (en) 2024-05-02
DE112022001551T5 (de) 2024-01-18

Similar Documents

Publication Publication Date Title
US10903279B2 (en) Solid state image sensor pixel electrode below a photoelectric conversion film
US11411034B2 (en) Solid-state imaging device and electronic apparatus
JP5651976B2 (ja) 固体撮像素子およびその製造方法、並びに電子機器
US8294880B2 (en) Distance measuring sensor including double transfer gate and three dimensional color image sensor including the distance measuring sensor
US7741689B2 (en) Photoelectric conversion layer-stacked solid-state imaging element
US10536659B2 (en) Solid-state image capturing element, manufacturing method therefor, and electronic device
US7498624B2 (en) Solid-state imaging device
JP2002134729A (ja) 固体撮像装置及びその駆動方法
WO2018105334A1 (ja) 固体撮像素子及び電子機器
US11594568B2 (en) Image sensor and electronic device
US20090294815A1 (en) Solid state imaging device including a semiconductor substrate on which a plurality of pixel cells have been formed
WO2015198876A1 (ja) 撮像素子、電子機器
WO2022190867A1 (ja) 撮像装置および測距システム
JP2020027937A (ja) 固体撮像装置、固体撮像装置の製造方法、および電子機器
US20230420482A1 (en) Light receiving element and electronic apparatus
US10804303B2 (en) Image sensors comprising an organic photo-detector, a photo-detector array and dual floating diffusion nodes and electronic devices including the same
US20240178254A1 (en) Light-receiving element and electronic apparatus
US20240162271A1 (en) Image sensor arrangement, image sensor device and method for operating an image sensor arrangement
US20240192054A1 (en) Light detection apparatus and electronic device
JP2011204991A (ja) 固体撮像素子およびその製造方法、並びに電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22766828

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023505277

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18546684

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202280019409.0

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 112022001551

Country of ref document: DE

Ref document number: 2022766828

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2022766828

Country of ref document: EP

Effective date: 20231012