WO2020066803A1 - 固体撮像素子、および、撮像装置 - Google Patents

固体撮像素子、および、撮像装置 Download PDF

Info

Publication number
WO2020066803A1
WO2020066803A1 PCT/JP2019/036623 JP2019036623W WO2020066803A1 WO 2020066803 A1 WO2020066803 A1 WO 2020066803A1 JP 2019036623 W JP2019036623 W JP 2019036623W WO 2020066803 A1 WO2020066803 A1 WO 2020066803A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
pixel
light
imaging device
solid
Prior art date
Application number
PCT/JP2019/036623
Other languages
English (en)
French (fr)
Inventor
伸 北野
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to EP19864173.0A priority Critical patent/EP3860114A4/en
Priority to US17/276,231 priority patent/US11503233B2/en
Priority to CN201980061169.9A priority patent/CN112740659A/zh
Publication of WO2020066803A1 publication Critical patent/WO2020066803A1/ja
Priority to US17/952,663 priority patent/US11770629B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • H04N25/633Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current by using optical black pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/68Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects
    • H04N25/69SSIS comprising testing or correcting structures for circuits other than pixel cells
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/79Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2224/00Indexing scheme for arrangements for connecting or disconnecting semiconductor or solid-state bodies and methods related thereto as covered by H01L24/00
    • H01L2224/01Means for bonding being attached to, or being formed on, the surface to be connected, e.g. chip-to-package, die-attach, "first-level" interconnects; Manufacturing methods related thereto
    • H01L2224/02Bonding areas; Manufacturing methods related thereto
    • H01L2224/07Structure, shape, material or disposition of the bonding areas after the connecting process
    • H01L2224/08Structure, shape, material or disposition of the bonding areas after the connecting process of an individual bonding area
    • H01L2224/081Disposition
    • H01L2224/0812Disposition the bonding area connecting directly to another bonding area, i.e. connectorless bonding, e.g. bumpless bonding
    • H01L2224/08135Disposition the bonding area connecting directly to another bonding area, i.e. connectorless bonding, e.g. bumpless bonding the bonding area connecting between different semiconductor or solid-state bodies, i.e. chip-to-chip
    • H01L2224/08145Disposition the bonding area connecting directly to another bonding area, i.e. connectorless bonding, e.g. bumpless bonding the bonding area connecting between different semiconductor or solid-state bodies, i.e. chip-to-chip the bodies being stacked
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L24/00Arrangements for connecting or disconnecting semiconductor or solid-state bodies; Methods or apparatus related thereto
    • H01L24/01Means for bonding being attached to, or being formed on, the surface to be connected, e.g. chip-to-package, die-attach, "first-level" interconnects; Manufacturing methods related thereto
    • H01L24/02Bonding areas ; Manufacturing methods related thereto
    • H01L24/07Structure, shape, material or disposition of the bonding areas after the connecting process
    • H01L24/08Structure, shape, material or disposition of the bonding areas after the connecting process of an individual bonding area

Definitions

  • the present technology relates to a solid-state imaging device and an imaging device. More specifically, the present invention relates to a solid-state imaging device that compares the amount of incident light with a threshold, and an imaging device.
  • a synchronous solid-state imaging device that captures image data (frames) in synchronization with a synchronization signal such as a vertical synchronization signal has been used in an imaging device or the like.
  • image data can be acquired only at every synchronization signal cycle (for example, 1/60 second), so that higher-speed processing can be performed in fields such as traffic and robots. It becomes difficult to respond when requested. Therefore, an asynchronous solid-state imaging device has been proposed in which, for each pixel address, a detection circuit that detects in real time that the amount of change in the amount of light of the pixel exceeds a threshold value as an address event is provided for each pixel (for example, And Patent Document 1.).
  • a solid-state image sensor that detects an address event for each pixel is called a DVS (Dynamic Vision Sensor).
  • the asynchronous solid-state imaging device (ie, DVS) generates and outputs data at a much higher speed than the synchronous solid-state imaging device. Therefore, for example, in the traffic field, a process of recognizing an image of a person or an obstacle is executed at high speed.
  • a current called a dark current may be output from the photodiode, and this dark current causes dark current noise.
  • a constant offset voltage may be generated due to a difference in characteristics between the transistors of the differential pair, and the offset voltage causes offset noise.
  • the signal quality of a signal generated by a pixel is deteriorated due to the dark current noise and the offset noise.
  • the present technology has been developed in view of such a situation, and has an object to improve signal quality in a solid-state imaging device that detects an address event.
  • the present technology has been made to solve the above-described problem, and a first aspect of the present technology detects whether or not the amount of change in the amount of incident light exceeds a predetermined threshold and indicates a detection result.
  • the solid-state imaging device includes an aperture pixel that outputs a detection signal and a light-shielded pixel that outputs a correction signal according to the amount of noise generated in the aperture pixel. This brings about an effect that a correction signal corresponding to the amount of noise generated in the aperture pixels is generated.
  • the aperture pixels and the light-shielded pixels may be arranged on a predetermined plane. This has the effect that a correction signal is generated by the light-shielded pixels arranged on the same plane as the aperture pixels.
  • the aperture pixels may be arranged on one of a pair of opposing planes, and the light-shielding pixels may be arranged on the other of the pair of planes. This brings about an effect that the area of the region where the aperture pixels are arranged is increased.
  • the light-shielding pixels may be arranged for each of the aperture pixels. This brings about an effect that a correction signal is generated for each aperture pixel.
  • a plurality of light-blocking pixel blocks each provided with a predetermined number of the light-blocking pixels are arranged, and the plurality of light-blocking pixel blocks are spaced from each other by a predetermined distance. May be arranged with spaces. This brings about an effect that a correction signal is generated for each light-shielded pixel block.
  • the light-shielding pixels may be arranged irregularly. This brings about the effect that the correction signal is generated by the irregularly arranged light-shielded pixels.
  • the image processing apparatus further includes a signal processing unit that performs correction processing for removing the noise from a pixel signal corresponding to the light amount based on the correction signal, and the aperture pixel further processes the pixel signal. May be output. This brings about an effect that noise is removed from the pixel signal.
  • the light-shielded pixel includes a photoelectric conversion element, a current-to-voltage conversion unit that converts a dark current generated in the photoelectric conversion element into a voltage signal, and a change amount of the voltage signal that corresponds to the threshold.
  • the image processing apparatus may further include a quantizer for detecting whether the light amount exceeds the threshold value, and a pixel signal generation unit for generating a pixel signal corresponding to the light amount as the correction signal.
  • the current-voltage converter may convert the dark current into the voltage signal by a plurality of loop circuits. This brings about an effect that the conversion gain increases.
  • the photoelectric conversion element and a part of the pixel signal generation unit are disposed on a predetermined light receiving chip, and the rest of the pixel signal generation unit, the current / voltage conversion unit, and the quantization
  • the device may be arranged on a predetermined circuit chip. This brings about an effect that the circuit scale of the circuit chip is reduced.
  • the photoelectric conversion element, a part of the pixel signal generation unit, and a part of the current / voltage conversion unit are disposed on a predetermined light receiving chip, and are connected to the rest of the pixel signal generation unit.
  • the rest of the current-to-voltage converter and the quantizer may be arranged on a predetermined circuit chip. This brings about an effect that the circuit scale of the circuit chip is reduced.
  • the photoelectric conversion element, the pixel signal generation unit, and a part of the current / voltage conversion unit are disposed on a predetermined light receiving chip, and the remaining of the current / voltage conversion unit and the quantization
  • the device may be arranged on a predetermined circuit chip. This brings about an effect that the circuit scale of the circuit chip is reduced.
  • the light-shielded pixel further includes a selector that selects one of a predetermined test signal and the voltage signal and outputs the selected signal as a selection signal. May be detected whether or not the amount of change exceeds the threshold value. This has the effect of outputting a pixel signal regardless of the presence or absence of an address event.
  • the aperture pixel includes a photoelectric conversion element that generates a photocurrent by photoelectric conversion, a current-voltage conversion unit that converts a difference between the photocurrent and the dark current into a voltage signal, A quantizer for detecting whether a change amount of the signal exceeds the threshold value, wherein the light-shielded pixel outputs the dark current as the correction signal. This brings about an effect that dark current noise is suppressed.
  • the first aspect may further include a threshold adjustment unit that adjusts the threshold based on the correction signal. This brings about an effect that the detection accuracy of the address event is improved.
  • an opening pixel that detects whether a change amount of an incident light amount exceeds a predetermined threshold and indicates a detection result and an amount of noise generated in the opening pixel are determined.
  • An imaging apparatus includes a light-shielded pixel that outputs a correction signal and a signal processing unit that processes the detection signal. Accordingly, a correction signal for correcting noise generated in the aperture pixels is generated, and the detection signal is processed.
  • FIG. 1 is a block diagram illustrating a configuration example of an imaging device according to a first embodiment of the present technology.
  • FIG. 2 is a diagram illustrating an example of a stacked structure of the solid-state imaging device according to the first embodiment of the present technology.
  • 1 is a block diagram illustrating a configuration example of a solid-state imaging device according to a first embodiment of the present technology.
  • FIG. 2 is a block diagram illustrating a configuration example of a pixel array unit according to the first embodiment of the present technology.
  • FIG. 2 is a block diagram illustrating a configuration example of an aperture pixel block according to the first embodiment of the present technology.
  • FIG. 1 is a block diagram illustrating a configuration example of an imaging device according to a first embodiment of the present technology.
  • FIG. 2 is a diagram illustrating an example of a stacked structure of the solid-state imaging device according to the first embodiment of the present technology.
  • 1 is a block diagram illustrating a configuration example of a solid-state imaging device according to
  • FIG. 2 is a circuit diagram illustrating a configuration example of a pixel signal generation unit and a light shielding unit according to the first embodiment of the present technology.
  • FIG. 1 is an example of a cross-sectional view of a solid-state imaging device according to a first embodiment of the present technology.
  • FIG. 2 is a block diagram illustrating a configuration example of an address event detection unit according to the first embodiment of the present technology.
  • FIG. 2 is a circuit diagram illustrating a configuration example of a current-voltage converter according to the first embodiment of the present technology.
  • FIG. 2 is a circuit diagram illustrating a configuration example of a subtractor and a quantizer according to the first embodiment of the present technology.
  • FIG. 1 is an example of a cross-sectional view of a solid-state imaging device according to a first embodiment of the present technology.
  • FIG. 2 is a block diagram illustrating a configuration example of an address event detection unit according to the first embodiment of the present technology.
  • FIG. 2 is a circuit diagram
  • FIG. 2 is a block diagram illustrating a configuration example of a column ADC according to the first embodiment of the present technology.
  • 5 is a timing chart illustrating an example of an operation of the solid-state imaging device according to the first embodiment of the present technology.
  • FIG. 2 is a block diagram illustrating a configuration example of a signal processing unit according to the first embodiment of the present technology.
  • 5 is a flowchart illustrating an example of an operation of the solid-state imaging device according to the first embodiment of the present technology.
  • FIG. 6 is a circuit diagram illustrating a configuration example of a light-shielded pixel block according to a first modification of the first embodiment of the present technology.
  • FIG. 13 is a circuit diagram illustrating a configuration example of a light-blocking pixel block according to a second modification of the first embodiment of the present technology.
  • FIG. 13 is a circuit diagram illustrating a configuration example of a light-blocking pixel block according to a third modification of the first embodiment of the present technology.
  • FIG. 21 is a block diagram illustrating a configuration example of an address event detection unit according to a fourth modification of the first embodiment of the present technology.
  • FIG. 11 is a circuit diagram illustrating a configuration example of a pixel signal generation unit and a light blocking unit according to a second embodiment of the present technology.
  • FIG. 13 is a circuit diagram illustrating a configuration example of a current-voltage converter according to a second embodiment of the present technology.
  • FIG. 11 is an example of a cross-sectional view of a solid-state imaging device according to a third embodiment of the present technology. It is an example of a top view of a light sensing chip and a circuit chip in a third embodiment of the present technology.
  • FIG. 13 is an example of a plan view of a circuit chip according to a third embodiment of the present technology. It is a block diagram showing an example of 1 composition of an opening pixel and a shade pixel in a 3rd embodiment of this art.
  • FIG. 14 is a circuit diagram illustrating a configuration example of a current-voltage converter according to a third embodiment of the present technology.
  • FIG. 14 is a block diagram illustrating a configuration example of a solid-state imaging device according to a fourth embodiment of the present technology.
  • FIG. 16 is a block diagram illustrating a configuration example of a signal processing unit according to a fourth embodiment of the present technology. It is a block diagram showing an example of a configuration of an imaging device according to a fifth embodiment of the present technology.
  • FIG. 2 is a block diagram illustrating a schematic configuration example of a vehicle control system.
  • FIG. 4 is an explanatory diagram illustrating an example of an installation position of an imaging unit.
  • FIG. 1 is a block diagram illustrating a configuration example of an imaging device 100 according to the first embodiment of the present technology.
  • the imaging device 100 includes an imaging lens 110, a solid-state imaging device 200, a recording unit 120, and a control unit 130.
  • As the imaging device 100 a camera mounted on an industrial robot, a vehicle-mounted camera, or the like is assumed.
  • the imaging lens 110 collects incident light and guides it to the solid-state imaging device 200.
  • the solid-state imaging device 200 captures image data by photoelectrically converting incident light.
  • the solid-state imaging device 200 executes predetermined signal processing such as image recognition processing on the captured image data, and stores data indicating the processing result and an address event detection signal in the recording unit 120. Through a signal line 209. A method for generating the detection signal will be described later.
  • the recording unit 120 records data from the solid-state imaging device 200.
  • the control unit 130 controls the solid-state imaging device 200 to capture image data.
  • FIG. 2 is a diagram illustrating an example of a stacked structure of the solid-state imaging device 200 according to the first embodiment of the present technology.
  • the solid-state imaging device 200 includes a circuit chip 202 and a light receiving chip 201 stacked on the circuit chip 202. These chips are electrically connected via connection parts such as vias. It should be noted that, other than vias, connection can be made by Cu—Cu bonding or bumps.
  • FIG. 3 is a block diagram illustrating a configuration example of the solid-state imaging device 200 according to the first embodiment of the present technology.
  • the solid-state imaging device 200 includes a drive circuit 211, a signal processing unit 220, an arbiter 213, a column ADC 230, and a pixel array unit 300.
  • the pixel array unit 300 a plurality of pixels are arranged in a two-dimensional lattice.
  • the pixel array unit 300 is divided into a plurality of pixel blocks each including a predetermined number of pixels.
  • a set of pixels or pixel blocks arranged in the horizontal direction is referred to as “row”, and a set of pixels or pixel blocks arranged in the direction perpendicular to the row is referred to as “column”.
  • Each of the pixels generates an analog signal of a voltage corresponding to the photocurrent as a pixel signal. Further, each of the pixel blocks detects the presence or absence of an address event based on whether or not the amount of change in the photocurrent has exceeded a predetermined threshold. Then, when an address event occurs, the pixel block outputs a request to the arbiter.
  • the drive circuit 211 drives each of the pixels to output a pixel signal to the column ADC 230.
  • the arbiter 213 arbitrates requests from the respective pixel blocks and transmits a response to the pixel blocks based on the arbitration result.
  • the pixel block that has received the response supplies a detection signal indicating the detection result to the drive circuit 211 and the signal processing unit 220.
  • the column ADC 230 converts an analog pixel signal from a column into a digital signal for each column of the pixel block.
  • the column ADC 230 supplies a digital signal to the signal processing unit 220.
  • the signal processing unit 220 performs predetermined signal processing such as CDS (Correlated Double Sampling) processing, noise correction processing, and image recognition processing on the digital signal from the column ADC 230.
  • the signal processing unit 220 supplies data indicating a processing result and a detection signal to the recording unit 120 via the signal line 209.
  • the mode signal MODE generated by the control unit 130 is input to the drive circuit 211 and the signal processing unit 220.
  • the mode signal MODE is a signal for setting one of a plurality of modes including a calibration mode and an imaging mode.
  • the calibration mode is a mode for obtaining a correction value for correcting dark current noise and offset noise.
  • the imaging mode is a mode for capturing image data.
  • the calibration mode is executed, for example, when a predetermined event such as turning on the power of the imaging apparatus 100 occurs, or at regular intervals.
  • FIG. 4 is a block diagram illustrating a configuration example of the pixel array unit 300 according to the first embodiment of the present technology.
  • the light receiving surface of the pixel array unit 300 is provided with an opening area that is not shielded from light and a light shielding area that is shielded from light.
  • the hatched portion in the figure indicates a light shielding area.
  • the light-shielding region is arranged, for example, around the opening region.
  • a predetermined direction parallel to the light receiving surface of the pixel array unit 300 is defined as an X direction, and a direction perpendicular to the light receiving surface is defined as a Z direction.
  • a direction perpendicular to the X direction and the Z direction is defined as a Y direction.
  • the light shielding area and the opening area are divided into a plurality of pixel blocks.
  • the pixel block in the light-shielding region is referred to as a light-shielding pixel block 310
  • the pixel block in the opening region is referred to as an opening pixel block 340.
  • a plurality of light-shielded pixels of I rows ⁇ J columns I and J are integers
  • a plurality of aperture pixels of I rows ⁇ J columns are arranged.
  • the light-shielded pixel block 310 includes a pixel signal generation unit 320, a plurality of light-shielding units 330 of I rows ⁇ J columns, and an address event detection unit 400.
  • the plurality of light shields 330 in the light shield pixel block 310 share the pixel signal generator 320 and the address event detector 400.
  • a circuit including the light-shielding part 330 at a certain coordinate, the pixel signal generating part 320, and the address event detecting part 400 functions as a light-shielding pixel at the certain coordinate.
  • a vertical signal line VSL is provided for each column of the light-shielded pixel block 310.
  • the light shield 330 outputs a dark current generated in the photoelectric conversion element.
  • the light shielding unit 330 supplies a dark current to one of the pixel signal generation unit 320 and the address event detection unit 400 according to the control of the drive circuit 211.
  • the pixel signal generator 320 generates a signal of a voltage corresponding to a dark current as a pixel signal SIG.
  • the pixel signal generation section 320 supplies the generated pixel signal SIG to the column ADC 230 via the vertical signal line VSL.
  • the address event detection unit 400 detects the presence or absence of an address event based on whether or not the amount of change in dark current from each of the light shielding units 330 exceeds a predetermined threshold.
  • the address event includes, for example, an on event indicating that the amount of change has exceeded an upper threshold, and an off event indicating that the amount of change has fallen below a lower threshold.
  • the address event detection signal includes, for example, one bit indicating an ON event detection result and one bit indicating an OFF event detection result. Note that the address event detection unit 400 can also detect only an ON event.
  • the address event detection unit 400 supplies a request for transmission of a detection signal to the arbiter 213. Then, upon receiving a response to the request from the arbiter 213, the address event detection unit 400 supplies a detection signal to the drive circuit 211 and the signal processing unit 220.
  • FIG. 5 is a block diagram illustrating a configuration example of the aperture pixel block 340 according to the first embodiment of the present technology.
  • the aperture pixel block 340 includes a pixel signal generation unit 341, a plurality of light receiving units 342 of I rows ⁇ J columns, and an address event detection unit 343.
  • the plurality of light receiving units 342 in the aperture pixel block 340 share the pixel signal generation unit 341 and the address event detection unit 343.
  • a circuit including the light receiving unit 342 at a certain coordinate, the pixel signal generating unit 341 and the address event detecting unit 343 functions as an aperture pixel at the coordinate.
  • a vertical signal line VSL is wired for each column of the aperture pixel block 340.
  • the light receiving unit 342 generates and outputs a photocurrent by photoelectric conversion.
  • the configurations of the pixel signal generation unit 341 and the address event detection unit 343 are the same as the corresponding circuits in the light-shielded pixel block 310.
  • FIG. 6 is a circuit diagram illustrating a configuration example of the light-shielded pixel block 310 according to the first embodiment of the present technology.
  • the pixel signal generation unit 320 includes a reset transistor 321, an amplification transistor 322, a selection transistor 323, and a floating diffusion layer 324.
  • the plurality of light shielding units 330 are commonly connected to the address event detection unit 400 via a predetermined connection node.
  • Each of the light shielding units 330 includes a transfer transistor 331, an OFG (OverFlow @ Gate) transistor 332, and a photoelectric conversion element 333. Assuming that the number of pixels in the light-shielded pixel block 310 is N (N is an integer), N transfer transistors 331, OFG transistors 332, and N photoelectric conversion elements 333 are arranged respectively.
  • the transfer signal TRGn is supplied from the drive circuit 211 to the n-th (n is an integer of 1 to N) transfer transistor 331 in the light-shielded pixel block 310.
  • the driving signal 211 supplies a control signal OFGn to the n-th OFG transistor 332.
  • an N-type MOS (Metal-Oxide-Semiconductor) transistor is used as the reset transistor 321, the amplification transistor 322, and the selection transistor 323, for example.
  • an N-type MOS transistor is used for the transfer transistor 331 and the OFG transistor 332.
  • Each of the photoelectric conversion elements 333 is arranged on the light receiving chip 201. All of the elements other than the photoelectric conversion element 333 are arranged on the circuit chip 202.
  • the photoelectric conversion element 333 generates electric charges by photoelectrically converting incident light. However, since the light shielding portion 330 is shielded from light, a dark current is generated in the photoelectric conversion element 333.
  • the transfer transistor 331 transfers a charge from the corresponding photoelectric conversion element 333 to the floating diffusion layer 324 according to the transfer signal TRGn.
  • the OFG transistor 332 supplies a dark current generated in the corresponding photoelectric conversion element 333 to a connection node according to the control signal OFGn.
  • the floating diffusion layer 324 accumulates charges and generates a voltage corresponding to the amount of the accumulated charges.
  • the reset transistor 321 initializes the charge amount of the floating diffusion layer 324 according to a reset signal RST from the drive circuit 211.
  • the amplification transistor 322 amplifies the voltage of the floating diffusion layer 324.
  • the selection transistor 323 outputs an amplified voltage signal as a pixel signal SIG to the column ADC 230 via the vertical signal line VSL according to the selection signal SEL from the drive circuit 211.
  • the circuit configuration of the aperture pixel block 340 is the same as that of the light-shielded pixel block 310 illustrated in FIG.
  • the drive circuit 211 drives the light-shielded pixels in order by the transfer signal TRGn to transfer the charge to the floating diffusion layer 324 regardless of the presence or absence of the address event of the light-shielded pixel block 310.
  • the pixel signals of the plurality of light-shielded pixels in the aperture pixel block 340 are sequentially output.
  • This pixel signal is a signal corresponding to the amount of dark current noise and offset noise generated in the aperture pixel, and is used as a correction signal for correcting those noises.
  • the drive circuit 211 drives all of the aperture pixels by the control signal OFGn and determines whether or not the amount of change in the amount of incident light exceeds the threshold value in the unit of the aperture pixel block 340 (that is, whether or not the address event Presence / absence).
  • the drive circuit 211 sequentially drives all aperture pixels of the block to generate a pixel signal corresponding to the light amount. Then, the signal processing unit 220 performs a correction process for removing noise from the pixel signal of the aperture pixel based on the pixel signal (correction signal) of the light-shielded pixel.
  • the solid-state imaging device 200 outputs only the pixel signal of the aperture pixel block 340 in which the address event has been detected to the column ADC 230. Accordingly, the power consumption of the solid-state imaging device 200 and the amount of image processing can be reduced as compared to the case where the pixel signals of the full aperture pixels are output regardless of the presence or absence of the address event.
  • the circuit scale of the solid-state imaging device 200 can be reduced as compared with the case where the address event detection unit 400 is arranged for each aperture pixel.
  • the signal processing unit 220 can remove dark current noise and offset noise generated in the aperture pixels by using the pixel signal of the light-shielded pixel as the correction signal.
  • FIG. 7 is an example of a cross-sectional view of the solid-state imaging device 200 according to the first embodiment of the present technology.
  • FIG. 3 is a cross-sectional view taken along a plane perpendicular to the line segment X1 or X2 in FIG.
  • light-shielded pixels 360 and aperture pixels 370 are arranged on the light receiving surface.
  • the on-chip microlens 361 and the photoelectric conversion element 333 are disposed in each of the light-shielded pixels 360.
  • a light shielding member 362 is arranged between the on-chip micro lens 361 and the photoelectric conversion element 333.
  • an on-chip micro lens 371 and a photoelectric conversion element 372 are arranged in each of the aperture pixels 370.
  • a constant current source that supplies a dark current generated in the photoelectric conversion element 372 in the opening pixel 370 may be disposed instead of the photoelectric conversion element 333.
  • both the light-shielded pixel 360 and the aperture pixel 370 are arranged on the light-receiving surface of the light-receiving chip 201.
  • FIG. 8 is a block diagram illustrating a configuration example of the address event detection unit 400 according to the first embodiment of the present technology.
  • the address event detector 400 includes a current-voltage converter 410, a buffer 420, a subtractor 430, a quantizer 440, and a transfer unit 450.
  • the current / voltage converter 410 converts the current signal from the corresponding light shielding unit 330 into a logarithmic voltage signal.
  • the current-voltage converter 410 supplies a voltage signal to the buffer 420.
  • the buffer 420 outputs the voltage signal from the current-voltage converter 410 to the subtractor 430. With this buffer 420, the driving force for driving the subsequent stage can be improved. Further, the buffer 420 can ensure noise isolation accompanying the switching operation at the subsequent stage.
  • the subtracter 430 reduces the level of the voltage signal from the buffer 420 according to the row drive signal from the drive circuit 211.
  • the subtractor 430 supplies the reduced voltage signal to the quantizer 440.
  • the quantizer 440 quantizes the voltage signal from the subtractor 430 into a digital signal and outputs the digital signal to the transfer unit 450 as a detection signal.
  • the transfer unit 450 transfers the detection signal from the quantizer 440 to the signal processing unit 220 and the like.
  • the transfer unit 450 supplies a request for transmitting a detection signal to the arbiter 213. Then, upon receiving a response to the request from the arbiter 213, the transfer unit 450 supplies a detection signal to the drive circuit 211 and the signal processing unit 220.
  • FIG. 9 is a circuit diagram illustrating a configuration example of the current-voltage converter 410 according to the first embodiment of the present technology.
  • the current-voltage converter 410 includes N-type transistors 411 and 413 and a P-type transistor 412. For example, MOS transistors are used as these transistors.
  • the source of the N-type transistor 411 is connected to the light shielding unit 330, and the drain is connected to the power supply terminal.
  • P-type transistor 412 and N-type transistor 413 are connected in series between a power supply terminal and a ground terminal.
  • a connection node between P-type transistor 412 and N-type transistor 413 is connected to the gate of N-type transistor 411 and the input terminal of buffer 420.
  • a predetermined bias voltage Vbias is applied to the gate of the P-type transistor 412.
  • the drains of the N-type transistors 411 and 413 are connected to the power supply side, and such a circuit is called a source follower.
  • the current from the light shielding unit 330 is converted into the logarithmic voltage signal by the two source followers connected in a loop.
  • the P-type transistor 412 supplies a constant current to the N-type transistor 413.
  • FIG. 10 is a circuit diagram illustrating a configuration example of the subtractor 430 and the quantizer 440 according to the first embodiment of the present technology.
  • the subtractor 430 includes capacitors 431 and 433, an inverter 432, and a switch 434.
  • the quantizer 440 includes a comparator 441.
  • Capacitor 433 is connected in parallel to inverter 432.
  • the switch 434 opens and closes a path connecting both ends of the capacitor 433 in accordance with a drive signal.
  • the inverter 432 inverts the voltage signal input via the capacitor 431.
  • the inverter 432 outputs the inverted signal to the non-inverting input terminal (+) of the comparator 441.
  • Equation 5 represents the subtraction operation of the voltage signal, and the gain of the subtraction result is C1 / C2. Since it is usually desired to maximize the gain, it is preferable to design C1 to be large and C2 to be small. On the other hand, if C2 is too small, kTC noise increases, and noise characteristics may deteriorate. Therefore, the capacity reduction of C2 is limited to a range where noise can be tolerated. Further, since the address event detection unit 400 including the subtractor 430 is mounted for each pixel block, the capacitances C1 and C2 are limited in area. In consideration of these, the values of the capacitors C1 and C2 are determined.
  • the comparator 441 compares the voltage signal from the subtractor 430 with a threshold voltage Vth indicating a predetermined threshold applied to the inverting input terminal (-). The comparator 441 outputs a signal indicating the comparison result to the transfer unit 450 as a detection signal.
  • the gain A of the entire address event detection unit 400 is represented by the following equation, where the conversion gain of the current-voltage conversion unit 410 is CG log and the gain of the buffer 420 is “1”.
  • i photo — n is the photocurrent of the n-th pixel, and the unit is, for example, ampere (A).
  • N is the number of pixels in the pixel block (the light blocking pixel block 310 and the opening pixel block 340).
  • FIG. 11 is a block diagram illustrating a configuration example of the column ADC 230 according to the first embodiment of the present technology.
  • the column ADC 230 includes an ADC 231 for each column of the pixel blocks (the light blocking pixel block 310 and the aperture pixel block 340).
  • the ADC 231 converts an analog pixel signal SIG supplied via the vertical signal line VSL into a digital signal.
  • This pixel signal SIG is converted into a digital signal having a larger number of bits than the detection signal. For example, if the detection signal is 2 bits, the pixel signal is converted into a digital signal of 3 bits or more (16 bits or the like).
  • the ADC 231 supplies the generated digital signal to the signal processing unit 220.
  • FIG. 12 is a timing chart illustrating an example of an operation of the solid-state imaging device 200 according to the first embodiment of the present technology. It is assumed that the imaging mode is set by the control unit 130 at the timing T0.
  • the drive circuit 211 sets all the control signals OFGn to high level, and turns on the OFG transistors of the full aperture pixels. As a result, the sum of the photocurrents of the full aperture pixels is supplied to the address event detection unit 343.
  • the transfer signals TRGn are all at the low level, and the transfer transistors of the full aperture pixels are off.
  • the address event detection unit 343 detects an address event and outputs a high-level detection signal.
  • the detection signal is a 1-bit signal indicating the detection result of the ON event.
  • the drive circuit 211 Upon receiving the detection signal, the drive circuit 211 sets all the control signals OFGn to the low level at the timing T2, and stops the supply of the photocurrent to the address event detection unit 343. Further, the drive circuit 211 sets the selection signal SEL to a high level, sets the reset signal RST to a high level over a predetermined pulse period, and initializes the floating diffusion layer.
  • the pixel signal generator 341 outputs the voltage at the time of the initialization as a reset level, and the ADC 231 converts the reset level into a digital signal.
  • the drive circuit 211 supplies the high-level transfer signal TRG1 over a fixed pulse period to output the voltage to the first pixel as a signal level.
  • ADC 231 converts the signal level into a digital signal.
  • the signal processing unit 220 calculates a difference between the reset level and the signal level as a net pixel signal. This processing is called CDS processing.
  • the drive circuit 211 supplies the high-level transfer signal TRG2 over a fixed pulse period to output the signal level to the second pixel.
  • the signal processing unit 220 calculates a difference between the reset level and the signal level as a net pixel signal.
  • the same processing is executed, and pixel signals of the respective aperture pixels in the aperture pixel block 340 are sequentially output.
  • the drive circuit 211 sets all the control signals OFGn to the high level, and turns on the OFG transistors of the full aperture pixels.
  • the drive circuit 211 drives all the light-shielded pixels irrespective of the presence / absence of the address event and sequentially outputs the pixel signals.
  • FIG. 13 is a block diagram illustrating a configuration example of the signal processing unit 220 according to the first embodiment of the present technology.
  • the signal processing unit 220 includes a switch 221, a correction processing unit 222, a correction value calculation unit 223, and a correction value holding unit 224.
  • the switch 221 switches the output destination of the pixel signal from the column ADC 230 according to the mode signal MODE from the control unit 130.
  • the switch 221 outputs the pixel signal of the aperture pixel to the correction value calculation unit 223 in the calibration mode, and outputs the pixel signal of the light-shielded pixel to the correction processing unit 222 in the imaging mode.
  • the ⁇ correction value calculation unit 223 calculates a correction value for correcting noise for each aperture pixel by calculating a statistic (average, total, etc.) of the pixel signal of the light-shielded pixel 360. Then, the correction value calculation unit 223 causes the correction value holding unit 224 to hold the calculated correction value.
  • the correction value holding unit 224 holds a correction value for each aperture pixel.
  • the ⁇ correction processing unit 222 corrects the pixel signal of the aperture pixel 370 using the correction value.
  • the correction processing unit 222 performs, for example, a correction process of subtracting, from the pixel signal of the opening pixel 370, a correction value corresponding to the pixel. By this correction processing, dark current noise and offset noise generated in the aperture pixels 370 are removed.
  • the correction processing unit 222 supplies the processed signal to the recording unit 120.
  • the signal processing unit 220 executes processing such as CDS processing and image recognition processing in addition to correction processing as necessary. Circuits for performing CDS processing and the like are omitted in FIG.
  • FIG. 14 is a flowchart illustrating an example of an operation of the solid-state imaging device 200 according to the first embodiment of the present technology. This operation is started, for example, when the calibration mode is set by the mode signal MODE.
  • the drive circuit 211 in the solid-state imaging device 200 drives each of the light-shielded pixels 360 to output a pixel signal (Step S901). Then, the signal processing unit 220 calculates and holds a correction value based on the pixel signals (step S902).
  • the solid-state imaging device 200 determines whether or not the imaging mode is set based on the mode signal MODE (Step S903). When the imaging mode is not set (Step S903: No), the solid-state imaging device 200 repeats Step S903 and the subsequent steps.
  • Step S903 when the imaging mode is set (Step S903: Yes), the drive circuit 211 determines whether or not an address event has occurred in any of the aperture pixel blocks 340 (Step S904). If an address event has occurred (step S904: Yes), the drive circuit 211 outputs the pixel signals of the respective pixels in the aperture pixel block 340 in which the address event has occurred (step S905). Then, the signal processing unit 220 corrects the pixel signals using the correction value (Step S906).
  • Step S904 If there is no address event (Step S904: No), or after Step S906, the solid-state imaging device 200 repeatedly executes Step S904 and subsequent steps.
  • the signal processing unit 220 uses the signal to generate the aperture pixel. Noise can be removed from the 370 pixel signal. Thereby, the signal quality of the pixel signal can be improved.
  • FIG. 15 is a circuit diagram illustrating a configuration example of the light-blocking pixel block 310 according to the first modification of the first embodiment of the present technology.
  • the light-shielded pixel block 310 of the first modified example of the first embodiment is different from the first embodiment in that the reset transistor 321, the floating diffusion layer 324, and the plurality of light-shielding portions 330 are arranged on the light-receiving chip 201. Different from form.
  • the other elements are arranged on the circuit chip 202. Note that the arrangement method of the elements in the aperture pixel block 340 for each chip is the same as that of the light-shielded pixel block 310.
  • the reset transistor 321 and the like and the plurality of light-shielding portions 330 are arranged on the light receiving chip 201, a comparison with the first embodiment is made.
  • the circuit scale of the circuit chip 202 can be reduced.
  • the reset transistor 321 and the like and the plurality of light-shielding portions 330 are arranged on the light-receiving chip 201.
  • the scale may increase.
  • the solid-state imaging device 200 according to the second modification of the first embodiment differs from the first modification of the first embodiment in that the circuit scale of the circuit chip 202 is further reduced.
  • FIG. 16 is a circuit diagram illustrating a configuration example of a light-shielded pixel block 310 according to a second modification of the first embodiment of the present technology.
  • the light-shielded pixel block 310 of the second modification of the first embodiment is different from the first modification of the first embodiment in that N-type transistors 411 and 413 are further arranged on the light receiving chip 201. different.
  • N-type transistors 411 and 413 are further arranged on the light receiving chip 201. different.
  • the number of steps for forming transistors can be reduced as compared with a case where N-type transistors and P-type transistors are mixed. Thereby, the manufacturing cost of the light receiving chip 201 can be reduced.
  • the arrangement method of the elements in the aperture pixel block 340 for each chip is the same as that of the light-shielded pixel block 310.
  • the N-type transistors 411 and 413 are further disposed on the light receiving chip 201, and thus the first modification of the first embodiment is provided.
  • the circuit scale of the circuit chip 202 can be reduced as compared with.
  • the N-type transistors 411 and 413 are further arranged on the light receiving chip 201.
  • the circuit scale of the circuit chip 202 increases as the number of pixels increases. There is a risk.
  • the solid-state imaging device 200 according to the third modification of the first embodiment differs from the second modification of the first embodiment in that the circuit scale of the circuit chip 202 is further reduced.
  • FIG. 17 is a circuit diagram illustrating a configuration example of the light-shielded pixel block 310 according to the third modification of the first embodiment of the present technology.
  • the light-shielded pixel block 310 of the third modification of the first embodiment is different from the second modification of the first embodiment in that the amplification transistor 322 and the selection transistor 323 are further arranged on the light receiving chip 201. And different. That is, the entire pixel signal generation unit 320 is arranged on the light receiving chip 201.
  • the pixel signal generating unit 320 is arranged on the light receiving chip 201, the pixel signal generating unit 320 is compared with the second modified example of the first embodiment.
  • the circuit scale of the circuit chip 202 can be reduced.
  • the correction value is calculated in the calibration mode.
  • the solid-state imaging device 200 according to the fourth modification of the first embodiment is different from the first embodiment in that a circuit for testing the presence or absence of an abnormality is provided for each pixel.
  • FIG. 18 is a block diagram illustrating a configuration example of the address event detection unit 400 in the light-shielded pixel block 310 according to the fourth modification of the first embodiment of the present technology.
  • the address event detection unit 400 according to the fourth modification of the first embodiment differs from the first embodiment in further including a selector 460.
  • the selector 460 selects one of the predetermined test signal TIN and the voltage signal from the current-voltage converter 410.
  • the selector 460 selects one of the test signal TIN and the voltage signal according to the selection signal SEL from the drive circuit 211 and supplies the selected signal to the buffer 420.
  • the configuration of the address event detector 343 in the aperture pixel block 340 is the same as that of the address event detector 400 in the light-shielded pixel block 310.
  • the drive circuit 211 causes the selection signal SEL to select the test signal TIN for all pixels.
  • the address event is no longer detected, so that the signal processing unit 220 can determine the presence or absence of the abnormality based on the detection signal.
  • the selector 460 can forcibly output a detection signal in all normal light-shielded pixels 360 regardless of the presence or absence of an address event. As a result, a pixel signal is output from the light-shielded pixel 360 regardless of the presence or absence of the address event.
  • the selector 460 is disposed between the current-voltage converter 410 and the buffer 420, the present invention is not limited to this configuration.
  • the selector 460 may be arranged between the buffer 420 and the subtractor 430 or between the subtractor 430 and the quantizer 440.
  • two or more selectors 460 can be arranged.
  • the first to third modified examples can be applied to the solid-state imaging device 200 of the fourth modified example.
  • the signal processing unit 220 since the selector 460 that selects one of the test signal and the voltage signal is arranged, the signal processing unit 220 performs The presence or absence of an abnormality can be determined.
  • the current-voltage converter 410 converts the dark current into a voltage signal by one loop circuit. However, since the dark current is generally very small, the conversion gain is reduced by one loop circuit. May be insufficient.
  • the current-voltage converter 410 according to the second embodiment is different from the first embodiment in that current-voltage conversion is performed by a plurality of loop circuits.
  • FIG. 19 is a circuit diagram illustrating a configuration example of the pixel signal generation unit 320 and the light blocking unit 330 according to the second embodiment of the present technology.
  • Each of the plurality of light shielding units 330 of the first embodiment is different from the first embodiment in that a dark current is supplied to the address event detection unit 400 via different signal lines.
  • FIG. 20 is a circuit diagram illustrating a configuration example of the current-to-voltage converter 410 according to the second embodiment of the present technology.
  • the current-voltage converter 410 according to the second embodiment includes a plurality of N-type transistors 414, a plurality of N-type transistors 415, a current source 416, and N-type transistors 417 and 418.
  • As the N-type transistors 414, 415, 417 and 418 for example, MOS transistors are used.
  • N-type transistor 415 and N-type transistor 417 are arranged for each light-shielded pixel 360. Assuming that the number of light-shielded pixels 360 in the light-shielded pixel block 310 is N, N-type transistors 415 and N-type transistors 417 are arranged N each.
  • the N-type transistors 414 and 415 are connected in series between the buffer 420 and the corresponding light shielding unit 330. Further, current source 416 and N-type transistors 417 and 418 are connected in series between a power supply terminal and a ground terminal. The gate of the N-type transistor 418 is commonly connected to the sources of the N N-type transistors 415. The gate of N-type transistor 417 is commonly connected to respective connection nodes of N sets of N-type transistors 415 and 417.
  • a two-stage loop circuit including a loop circuit including the N-type transistors 415 and 418 and a loop circuit including the N-type transistors 414 and 417 is configured.
  • the conversion gain for converting the dark current into a voltage signal is doubled as compared with the case where the loop circuit has one stage. Further, an average of N voltage signals obtained by converting each of the N dark currents is output to the buffer 420.
  • the first to fourth modifications can be applied.
  • the current-voltage converter 410 converts the dark current into the voltage signal by the two-stage loop circuit. As a result, the conversion gain is doubled, and the level of the voltage signal can be increased.
  • both the light blocking pixel 360 and the aperture pixel 370 are arranged on the same surface of the light receiving chip 201.
  • the solid-state imaging device 200 according to the third embodiment is different from the first embodiment in that only the light-shielding pixels 360 are arranged on the light receiving surface and the light-shielding pixels 360 are arranged on the surface facing the light receiving surface.
  • FIG. 21 is an example of a cross-sectional view of a solid-state imaging device 200 according to the third embodiment of the present technology.
  • This sectional view shows a sectional view of a predetermined cut surface parallel to the Z direction.
  • the solid-state imaging device 200 has a pair of opposed flat surfaces. These planes are perpendicular to the Z direction, one plane is used as a light receiving surface, and the aperture pixels 370 are arranged.
  • the light-shielding pixels 360 are arranged on the other plane.
  • the aperture pixels 370 are arranged on the light receiving chip 201 and the light shielding pixels 360 are arranged on the circuit chip 202.
  • the surface on which the light shielding pixels 360 are arranged faces, for example, a package or the like, and does not receive light. Further, the light incident on the light receiving surface is blocked by the wiring or the circuit and does not reach the light-shielded pixel 360 on the opposite surface. Therefore, a light blocking member is not required.
  • FIG. 22 is an example of a plan view of the light receiving chip 201 and the circuit chip 202 according to the third embodiment of the present technology.
  • a in the figure is an example of a plan view of the light receiving chip 201
  • b in the figure is an example of a plan view of the circuit chip 202.
  • a plurality of aperture pixels 370 are arranged in a two-dimensional lattice in the aperture area in the light receiving chip 201. Further, a plurality of light-shielded pixels 360 are arranged in a two-dimensional lattice in a light-shielded area in the circuit chip 202. In the light shielding region, for example, the same number of light shielding pixels 360 as the aperture pixels 370 are arranged.
  • the number of the light-shielding pixels 360 can be smaller than that of the aperture pixels 370.
  • a plurality of light-shielded pixel blocks 310 each having N light-shielded pixels 360 may be arranged in a two-dimensional lattice at a certain interval.
  • the light-shielding pixels 360 can be arranged irregularly.
  • FIG. 24 is a block diagram illustrating a configuration example of an aperture pixel 370 and a light blocking pixel 360 according to the third embodiment of the present technology.
  • the aperture pixel 370 includes a photoelectric conversion element 372, a current-voltage conversion unit 480, a buffer 471, a subtractor 472, a quantizer 473, and a transfer unit 474.
  • Each configuration of the buffer 471, the subtractor 472, the quantizer 473, and the transfer unit 474 is the same as the corresponding circuit in the address event detection unit 400 illustrated in FIG.
  • the photoelectric conversion element 372 according to the third embodiment supplies a photocurrent to the current-voltage conversion unit 480.
  • the light-shielded pixel 360 includes a photoelectric conversion element 333 and an OFG transistor 332.
  • the OFG transistor 332 outputs the charge of the photoelectric conversion element 333 to the current-voltage converter 480 according to the control signal OFGn.
  • a dark current flows from the current-voltage converter 480 to the photoelectric conversion element 333. This dark current is used as a correction signal for correcting dark current noise.
  • the calibration mode is not set.
  • the drive circuit 211 causes the current / voltage converter 480 to output the charge of the photoelectric conversion element 333 in response to the control signal OFGn when the address event is detected.
  • the current / voltage converter 480 converts the difference between the photocurrent and the dark current generated by the photoelectric conversion element 372 into a voltage signal. Thus, dark current noise can be reduced.
  • the aperture pixel 370 detects the presence or absence of an address event, but does not output a pixel signal. Further, the light-shielded pixel 360 according to the third embodiment outputs a dark current, but does not output any of the address event detection signal and the pixel signal.
  • FIG. 25 is a circuit diagram illustrating a configuration example of the current-to-voltage converter 480 according to the third embodiment of the present technology.
  • the current-voltage converter 480 according to the third embodiment includes N-type transistors 481, 482, 484, 485, and 486, and a current source 483.
  • the N-type transistors 481 and 482 are connected in series between the terminal of the power supply voltage VDD and the photoelectric conversion element 372.
  • the drain of the N-type transistor 481 is connected to the light-shielded pixel 360.
  • the current source 483 and the N-type transistors 484 and 485 are connected in series between the terminal of the power supply voltage VDD and the ground terminal.
  • the gate of N-type transistor 481 is connected to the connection node of current source 483 and N-type transistor 484, and the gate of N-type transistor 482 is connected to the connection node of N-type transistors 484 and 485.
  • the gate of N-type transistor 484 is connected to a connection node of N-type transistors 481 and 482, and the gate of N-type transistor 485 is connected to a connection node of N-type transistor 482 and photoelectric conversion element 372.
  • a connection node between the current source 483 and the N-type transistor 484 is connected to the buffer 471.
  • the difference between the dark current generated in the light-shielded pixel 360 and the photocurrent generated by the photoelectric conversion element 372 is converted into a voltage signal.
  • dark current noise is reduced in a detection signal obtained from the voltage signal.
  • the aperture pixel 370 and the light-shielded pixel 360 according to the third embodiment do not output a pixel signal
  • the pixel signal is further output as in the first embodiment, and the pixel signal is output based on the correction value. It is also possible to adopt a configuration for correcting.
  • the aperture pixels 370 are arranged on one of the pair of opposing planes and the light-shielding pixels 360 are arranged on the other, the pixels are arranged on the same plane. In comparison with the case, the area in which the aperture pixels 370 are arranged can be increased.
  • the current-voltage converter 410 converts the difference between the dark current from the light-shielded pixel 360 and the photocurrent generated by the photoelectric conversion element 372 in the aperture pixel 370 into a voltage signal. Can be removed.
  • the aperture pixel 370 removes noise such as dark current noise from the pixel signal.
  • noise such as dark current noise
  • the solid-state imaging device 200 of the fourth embodiment differs from the first embodiment in that the detection accuracy of the address event is improved.
  • FIG. 26 is a block diagram illustrating a configuration example of a solid-state imaging device 200 according to the fourth embodiment of the present technology.
  • the solid-state imaging device 200 according to the fourth embodiment differs from the first embodiment in further including a DAC 214.
  • the DAC 214 generates the threshold voltage Vth by DA conversion of the control signal from the signal processing unit 220.
  • the DAC 214 supplies the threshold voltage Vth to the aperture pixels 370 and the light-shielded pixels 360 in the pixel array unit 300.
  • FIG. 27 is a block diagram illustrating a configuration example of the signal processing unit 220 according to the fourth embodiment of the present technology.
  • the signal processing unit 220 according to the fourth embodiment is different from the first embodiment in further including a set value register 225 and a threshold adjustment unit 226.
  • the threshold adjuster 226 adjusts a threshold voltage Vth indicating a threshold by a control signal to the DAC 214. Detection signals from each of the plurality of light-shielded pixels in the pixel array unit 300 are input to the threshold adjustment unit 226.
  • the threshold adjustment unit 226 obtains the detection frequency of the detection signal, and reads a setting value corresponding to the detection frequency from the setting value register 225. Then, the threshold adjuster 226 updates the threshold voltage Vth to a voltage indicating the set value by the control signal. By appropriately updating the threshold voltage Vth, erroneous detection of an address event due to dark current noise or offset noise can be suppressed.
  • the set value register 225 holds a set value according to the detection frequency.
  • the set values include an upper limit set value indicating an upper threshold and a lower limit set value indicating a lower threshold. For example, the higher the output frequency of the ON event, the lower the upper limit setting value is held. On the other hand, the higher the OFF event detection frequency, the higher the lower limit set value is held.
  • the setting value register 225 can hold only the upper limit setting value. Further, although the threshold value adjustment unit 226 reads the set value from the set value register 225, the set value can be obtained by a predetermined calculation for the detection frequency. In this case, the setting value register 225 is unnecessary. Further, the first to fourth modified examples can be applied to the solid-state imaging device 200 according to the fourth embodiment.
  • the threshold adjustment unit 226 updates the threshold voltage to a value corresponding to the frequency of detection of the address event of the light-shielded pixel 360, so that an error in the address event due to noise is generated. Detection can be suppressed, and detection accuracy can be improved.
  • the imaging device 20 is an asynchronous imaging device that reads an event by an asynchronous reading method.
  • the event reading method is not limited to the asynchronous reading method, but may be a synchronous reading method.
  • An imaging device to which the synchronous readout method is applied is a scan-type imaging device, which is the same as a normal imaging device that performs imaging at a predetermined frame rate.
  • FIG. 28 is a block diagram illustrating an example of a configuration of an imaging device according to a second configuration example, that is, a scanning-type imaging device used as the imaging device 20 in the imaging system 10 to which the technology according to the present disclosure is applied. .
  • the imaging device 20 includes a pixel array unit 21, a driving unit 22, a signal processing unit 25, a readout area selection unit 27, and a signal generation unit. 28.
  • the pixel array unit 21 includes a plurality of pixels 30.
  • the plurality of pixels 30 output an output signal in response to the selection signal of the readout area selection unit 27.
  • Each of the plurality of pixels 30 includes the light receiving unit 342 illustrated in FIG. Further, as illustrated in FIG. 5, the pixel signal generation unit 341 and the address event detection unit 343 are shared by the plurality of pixels 30 (the light receiving unit 342).
  • the plurality of pixels 30 output output signals corresponding to the amount of change in light intensity.
  • the plurality of pixels 30 may be two-dimensionally arranged in a matrix as shown in FIG.
  • the drive unit 22 drives each of the plurality of pixels 30 and causes the signal processing unit 25 to output a pixel signal generated by each pixel 30.
  • the drive unit 22 and the signal processing unit 25 are circuit units for acquiring gradation information. Therefore, when only event information is acquired, the driving unit 22 and the signal processing unit 25 may not be provided.
  • the readout area selection unit 27 selects a part of the plurality of pixels 30 included in the pixel array unit 21. Specifically, the readout area selection unit 27 determines a selection area in response to a request from each pixel 30 of the pixel array unit 21. For example, the readout area selection unit 27 selects one or a plurality of rows among the rows included in the two-dimensional matrix structure corresponding to the pixel array unit 21. The read area selection section 27 sequentially selects one or a plurality of rows according to a preset cycle. Further, the readout area selection unit 27 may determine the selection area according to a request from each pixel 30 of the pixel array unit 21.
  • the signal generation unit 28 generates an event signal corresponding to an active pixel that has detected an event among the selected pixels, based on the output signal of the pixel selected by the readout area selection unit 27.
  • the event is an event in which the light intensity changes.
  • the active pixel is a pixel in which the amount of change in light intensity corresponding to the output signal exceeds or falls below a preset threshold.
  • the signal generation unit 28 compares the output signal of the pixel with the reference signal, detects an active pixel that outputs an output signal when the output signal is larger or smaller than the reference signal, and generates an event signal corresponding to the active pixel. .
  • the signal generation unit 28 may be configured to include, for example, a column selection circuit that arbitrates a signal input to the signal generation unit 28.
  • the signal generation unit 28 can be configured to output not only the information of the active pixel that has detected the event but also the information of the inactive pixel that has not detected the event.
  • the signal generation unit 28 outputs, via the output line 15, address information and time stamp information (for example, (X, Y, T)) of the active pixel that has detected the event.
  • address information and time stamp information for example, (X, Y, T)
  • the data output from the signal generation unit 28 may be not only the address information and the time stamp information but also information in a frame format (for example, (0, 0, 1, 0,...)). .
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on any type of moving object such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 29 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile object control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 includes a plurality of electronic control units connected via communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an inside information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio / video output unit 12052, and a vehicle-mounted network I / F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generating device for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting driving force to wheels, and a steering angle of the vehicle. It functions as a control mechanism such as a steering mechanism for adjusting and a braking device for generating a braking force of the vehicle.
  • the body control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a blinker, and a fog lamp.
  • a radio wave or various switch signals transmitted from a portable device replacing the key may be input to the body control unit 12020.
  • the body control unit 12020 receives the input of these radio waves or signals and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • Out-of-vehicle information detection unit 12030 detects information external to the vehicle on which vehicle control system 12000 is mounted.
  • an imaging unit 12031 is connected to the outside-of-vehicle information detection unit 12030.
  • the out-of-vehicle information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle, and receives the captured image.
  • the out-of-vehicle information detection unit 12030 may perform an object detection process or a distance detection process of a person, a vehicle, an obstacle, a sign, a character on a road surface, or the like based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of received light.
  • the imaging unit 12031 can output an electric signal as an image or can output the information as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects information in the vehicle.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver status detection unit 12041 that detects the status of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 determines the degree of driver fatigue or concentration based on the detection information input from the driver state detection unit 12041. The calculation may be performed, or it may be determined whether the driver has fallen asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the information on the inside and outside of the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 implements ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or shock mitigation, following running based on the following distance, vehicle speed maintaining running, vehicle collision warning, or vehicle lane departure warning, etc. Cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generation device, the steering mechanism, the braking device, and the like based on the information about the surroundings of the vehicle obtained by the outside information detection unit 12030 or the inside information detection unit 12040, so that the driver 120 It is possible to perform cooperative control for automatic driving or the like in which the vehicle travels autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information on the outside of the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp in accordance with the position of the preceding vehicle or the oncoming vehicle detected by the outside-of-vehicle information detection unit 12030, and performs cooperative control for the purpose of preventing glare such as switching a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits at least one of a sound signal and an image signal to an output device capable of visually or audibly notifying a passenger of the vehicle or the outside of the vehicle of information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 30 is a diagram illustrating an example of an installation position of the imaging unit 12031.
  • the image pickup unit 12031 includes image pickup units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door of the vehicle 12100, and an upper portion of a windshield in the vehicle interior.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided above the windshield in the passenger compartment mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the imaging unit 12105 provided above the windshield in the passenger compartment is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, and the like.
  • FIG. 30 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates 13 shows an imaging range of an imaging unit 12104 provided in a rear bumper or a back door.
  • a bird's-eye view image of the vehicle 12100 viewed from above is obtained by superimposing image data captured by the imaging units 12101 to 12104.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements or an imaging element having pixels for detecting a phase difference.
  • the microcomputer 12051 calculates a distance to each three-dimensional object in the imaging ranges 12111 to 12114 and a temporal change of the distance (relative speed with respect to the vehicle 12100). , It is possible to extract, as a preceding vehicle, a three-dimensional object that travels at a predetermined speed (for example, 0 km / h or more) in a direction substantially the same as that of the vehicle 12100, which is the closest three-dimensional object on the traveling path of the vehicle 12100. it can.
  • a predetermined speed for example, 0 km / h or more
  • microcomputer 12051 can set an inter-vehicle distance to be secured before the preceding vehicle and perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts the three-dimensional object data relating to the three-dimensional object into other three-dimensional objects such as a motorcycle, a normal vehicle, a large vehicle, a pedestrian, a telephone pole, and the like based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines a collision risk indicating a risk of collision with each obstacle, and when the collision risk is equal to or more than the set value and there is a possibility of collision, via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver through forced driving and avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • driving assistance for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared light.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian exists in the captured images of the imaging units 12101 to 12104. The recognition of such a pedestrian is performed by, for example, extracting a feature point in an image captured by the imaging units 12101 to 12104 as an infrared camera, and performing a pattern matching process on a series of feature points indicating the outline of the object to determine whether the object is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular contour for emphasis to the recognized pedestrian.
  • the display unit 12062 is controlled so that is superimposed. Further, the sound image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • the imaging device 100 in FIG. 1 can be applied to the imaging unit 12031.
  • the present technology may have the following configurations.
  • an aperture pixel that detects whether or not the amount of change in the amount of incident light exceeds a predetermined threshold and outputs a detection signal indicating a detection result;
  • a solid-state imaging device comprising: a light-shielding pixel that outputs a correction signal according to an amount of noise generated in the aperture pixel.
  • the aperture pixels and the light-shielded pixels are arranged on a predetermined plane.
  • the aperture pixels are arranged on one of a pair of opposing planes;
  • the solid-state imaging device includes any one of (1) to (8), wherein the aperture pixel further outputs the pixel signal.
  • the light-shielded pixel is A photoelectric conversion element, A current-voltage converter for converting a dark current generated in the photoelectric conversion element into a voltage signal, A quantizer that detects whether the amount of change in the voltage signal exceeds the threshold,
  • the solid-state imaging device according to any one of (1) to (7), further including: a pixel signal generation unit configured to generate a pixel signal corresponding to the light amount as the correction signal.
  • the solid-state imaging device (9) The solid-state imaging device according to (8), wherein the current-voltage conversion unit converts the dark current into the voltage signal using a plurality of loop circuits. (10) The photoelectric conversion element and a part of the pixel signal generation unit are disposed on a predetermined light receiving chip, The solid-state imaging device according to (8), wherein the rest of the pixel signal generator, the current-voltage converter, and the quantizer are arranged on a predetermined circuit chip.
  • the photoelectric conversion element, a part of the pixel signal generation unit, and a part of the current-voltage conversion unit are disposed on a predetermined light receiving chip, The solid-state imaging device according to (8), wherein the rest of the pixel signal generator, the rest of the current-voltage converter, and the quantizer are arranged on a predetermined circuit chip. (12) The photoelectric conversion element, the pixel signal generation unit, and a part of the current-voltage conversion unit are disposed on a predetermined light receiving chip, The solid-state imaging device according to (8), wherein the rest of the current-voltage converter and the quantizer are arranged on a predetermined circuit chip.
  • the light-shielded pixel further includes a selector that selects one of a predetermined test signal and the voltage signal and outputs the selected signal as a selection signal,
  • the solid-state imaging device according to any one of (8) to (12), wherein the quantizer detects whether a change amount of the selection signal exceeds the threshold.
  • the aperture pixel is A photoelectric conversion element that generates a photocurrent by photoelectric conversion, A current-to-voltage converter that converts the difference between the photocurrent and the dark current into a voltage signal; A quantizer that detects whether the amount of change in the voltage signal exceeds the threshold value,
  • the solid-state imaging device according to (1), wherein the light-shielded pixel outputs the dark current as the correction signal.
  • the solid-state imaging device further including a threshold adjustment unit that adjusts the threshold based on the correction signal.
  • a threshold adjustment unit that adjusts the threshold based on the correction signal.
  • an aperture pixel that detects whether or not the amount of change in the amount of incident light exceeds a predetermined threshold and indicates a detection result;
  • a light-shielded pixel that outputs a correction signal according to the amount of noise generated in the aperture pixel;
  • An imaging apparatus comprising: a signal processing unit configured to process the detection signal.
  • Imaging device 110 imaging lens 120 recording unit 130 control unit 200 solid-state imaging device 201 light receiving chip 202 circuit chip 211 drive circuit 213 arbiter 214 DAC 220 signal processing unit 221, 434 switch 222 correction processing unit 223 correction value calculation unit 224 correction value holding unit 225 setting value register 226 threshold adjustment unit 230 column
  • ADC 231 ADC 300 pixel array section 310 light-shielded pixel block 320, 341 pixel signal generation section 321 reset transistor 322 amplification transistor 323 selection transistor 324 floating diffusion layer 330 light-shielding section 331 transfer transistor 332 OFG transistor 333, 372 photoelectric conversion element 340 aperture pixel block 342 light-receiving section 343, 400 Address event detector 360 Light-shielded pixel 361, 371 On-chip micro lens 362 Light-shielding member 370 Open pixel 410, 480 Current-voltage converter 411, 413, 414, 415, 417, 418, 481, 482, 484, 485

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

アドレスイベントを検出する固体撮像素子において、信号品質を向上させる。 固体撮像素子には、開口画素と遮光画素とが配列される。この固体撮像素子において、開口画素は、入射された光量の変化量が所定の閾値を超えるか否かを検出して検出結果を示す検出信号を出力する。一方、固体撮像素子において、遮光画素は、入射された光量の変化量が所定の閾値を超えるか否かを検出して検出結果を示す検出信号を出力する開口画素に生じるノイズの量に応じた補正信号を出力する。

Description

固体撮像素子、および、撮像装置
 本技術は、固体撮像素子、および、撮像装置に関する。詳しくは、入射光量と閾値とを比較する固体撮像素子、および、撮像装置に関する。
 従来より、垂直同期信号などの同期信号に同期して画像データ(フレーム)を撮像する同期型の固体撮像素子が、撮像装置などにおいて用いられている。この一般的な同期型の固体撮像素子では、同期信号の周期(例えば、1/60秒)ごとにしか画像データを取得することができないため、交通やロボットなどに関する分野において、より高速な処理が要求された場合に対応することが困難になる。そこで、画素アドレスごとに、その画素の光量の変化量が閾値を超えた旨をアドレスイベントとしてリアルタイムに検出する検出回路を、画素毎に設けた非同期型の固体撮像素子が提案されている(例えば、特許文献1参照。)。このように、画素毎にアドレスイベントを検出する固体撮像素子は、DVS(Dynamic Vision Sensor)と呼ばれる。
特表2017-535999号公報
 上述の非同期型の固体撮像素子(すなわち、DVS)では、同期型の固体撮像素子よりも遥かに高速にデータを生成して出力する。このため、例えば、交通分野において、人や障害物を画像認識する処理が高速に実行される。しかしながら、画素内においては、光が入射されない場合であってもフォトダイオードから暗電流と呼ばれる電流が出力されることがあり、この暗電流により暗電流ノイズが生じる。また、画素内において、フォトダイオードの後段の回路では、差動対のトランジスタのそれぞれの特性の差などの原因により、一定のオフセット電圧が発生することがあり、このオフセット電圧によりオフセットノイズが生じる。上述の固体撮像素子では、これらの暗電流ノイズやオフセットノイズにより、画素が生成する信号の信号品質が低下してしまうという問題がある。
 本技術はこのような状況に鑑みて生み出されたものであり、アドレスイベントを検出する固体撮像素子において、信号品質を向上させることを目的とする。
 本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、入射された光量の変化量が所定の閾値を超えるか否かを検出して検出結果を示す検出信号を出力する開口画素と、上記開口画素に生じるノイズの量に応じた補正信号を出力する遮光画素とを具備する固体撮像素子である。これにより、開口画素に生じるノイズの量に応じた補正信号が生成されるという作用をもたらす。
 また、この第1の側面において、上記開口画素および上記遮光画素は、所定平面に配列される構成であってもよい。これにより、開口画素と同一の平面に配列された遮光画素により補正信号が生成されるという作用をもたらす。
 また、この第1の側面において、上記開口画素は、対向する一対の平面の一方に配列され、上記遮光画素は、上記一対の平面の他方に配列される構成であってもよい。これにより、開口画素を配列した領域の面積が広くなるという作用をもたらす。
 また、この第1の側面において、上記遮光画素は、上記開口画素ごとに配置される構成であってもよい。これにより、開口画素ごとに補正信号が生成されるという作用をもたらす。
 また、この第1の側面において、上記一対の平面の他方には、所定数の上記遮光画素をそれぞれに設けた複数の遮光画素ブロックが配列され、上記複数の遮光画素ブロックは、互いに一定の間隔を空けて配列される構成であってもよい。これにより、遮光画素ブロックごとに補正信号が生成されるという作用をもたらす。
 また、この第1の側面において、上記遮光画素は、不規則に配置される構成であってもよい。これにより、不規則に配置された遮光画素により補正信号が生成されるという作用をもたらす。
 また、この第1の側面において、上記補正信号に基づいて上記光量に応じた画素信号から上記ノイズを除去する補正処理を行う信号処理部をさらに具備し、上記開口画素は、上記画素信号をさらに出力してもよい。これにより、画素信号からノイズが除去されるという作用をもたらす。
 また、この第1の側面において、上記遮光画素は、光電変換素子と、上記光電変換素子に生じた暗電流を電圧信号に変換する電流電圧変換部と、上記電圧信号の変化量が上記閾値を超えるか否かを検出する量子化器と、上記光量に応じた画素信号を上記補正信号として生成する画素信号生成部とを備えてもよい。これにより、遮光画素において検出信号および画素信号が生成されるという作用をもたらす。
 また、この第1の側面において、上記電流電圧変換部は、上記暗電流を複数段のループ回路により上記電圧信号に変換してもよい。これにより、変換ゲインが増大するという作用をもたらす。
 また、この第1の側面において、上記光電変換素子と上記画素信号生成部の一部とは、所定の受光チップに配置され、上記画素信号生成部の残りと上記電流電圧変換部と上記量子化器とは、所定の回路チップに配置されてもよい。これにより、回路チップの回路規模が削減されるという作用をもたらす。
 また、この第1の側面において、上記光電変換素子と上記画素信号生成部の一部と上記電流電圧変換部の一部とは、所定の受光チップに配置され、上記画素信号生成部の残りと上記電流電圧変換部の残りと上記量子化器とは、所定の回路チップに配置されてもよい。これにより、回路チップの回路規模が削減されるという作用をもたらす。
 また、この第1の側面において、上記光電変換素子と上記画素信号生成部と上記電流電圧変換部の一部とは、所定の受光チップに配置され、上記電流電圧変換部の残りと上記量子化器とは、所定の回路チップに配置されてもよい。これにより、回路チップの回路規模が削減されるという作用をもたらす。
 また、この第1の側面において、上記遮光画素は、所定のテスト信号と上記電圧信号とのいずれかを選択して選択信号として出力するセレクタをさらに具備し、上記量子化器は、上記選択信号の変化量が上記閾値を超えるか否かを検出してもよい。これにより、アドレスイベントの有無に関わらず、画素信号が出力されるという作用をもたらす。
 また、この第1の側面において、上記開口画素は、光電変換により光電流を生成する光電変換素子と、上記光電流と暗電流との差分を電圧信号に変換する電流電圧変換部と、上記電圧信号の変化量が上記閾値を超えるか否かを検出する量子化器とを備え、上記遮光画素は、上記暗電流を上記補正信号として出力してもよい。これにより、暗電流ノイズが抑制されるという作用をもたらす。
 また、この第1の側面において、上記補正信号に基づいて上記閾値を調整する閾値調整部をさらに具備してもよい。これにより、アドレスイベントの検出精度が向上するという作用をもたらす。
 また、本技術の第2の側面は、入射された光量の変化量が所定の閾値を超えるか否かを検出して検出結果を示す開口画素と、上記開口画素に生じるノイズの量に応じた補正信号を出力する遮光画素と、上記検出信号を処理する信号処理部とを具備する撮像装置である。これにより、開口画素に生じるノイズを補正するための補正信号が生成され、検出信号が処理されるという作用をもたらす。
本技術の第1の実施の形態における撮像装置の一構成例を示すブロック図である。 本技術の第1の実施の形態における固体撮像素子の積層構造の一例を示す図である。 本技術の第1の実施の形態における固体撮像素子の一構成例を示すブロック図である。 本技術の第1の実施の形態における画素アレイ部の一構成例を示すブロック図である。 本技術の第1の実施の形態における開口画素ブロックの一構成例を示すブロック図である。 本技術の第1の実施の形態における画素信号生成部および遮光部の一構成例を示す回路図である。 本技術の第1の実施の形態における固体撮像素子の断面図の一例である。 本技術の第1の実施の形態におけるアドレスイベント検出部の一構成例を示すブロック図である。 本技術の第1の実施の形態における電流電圧変換部の一構成例を示す回路図である。 本技術の第1の実施の形態における減算器および量子化器の一構成例を示す回路図である。 本技術の第1の実施の形態におけるカラムADCの一構成例を示すブロック図である。 本技術の第1の実施の形態における固体撮像素子の動作の一例を示すタイミングチャートである。 本技術の第1の実施の形態における信号処理部の一構成例を示すブロック図である。 本技術の第1の実施の形態における固体撮像素子の動作の一例を示すフローチャートである。 本技術の第1の実施の形態の第1の変形例における遮光画素ブロックの一構成例を示す回路図である。 本技術の第1の実施の形態の第2の変形例における遮光画素ブロックの一構成例を示す回路図である。 本技術の第1の実施の形態の第3の変形例における遮光画素ブロックの一構成例を示す回路図である。 本技術の第1の実施の形態の第4の変形例におけるアドレスイベント検出部の一構成例を示すブロック図である。 本技術の第2の実施の形態における画素信号生成部および遮光部の一構成例を示す回路図である。 本技術の第2の実施の形態における電流電圧変換部の一構成例を示す回路図である。 本技術の第3の実施の形態における固体撮像素子の断面図の一例である。 本技術の第3の実施の形態における受光チップおよび回路チップの平面図の一例である。 本技術の第3の実施の形態における回路チップの平面図の一例である。 本技術の第3の実施の形態における開口画素および遮光画素の一構成例を示すブロック図である。 本技術の第3の実施の形態における電流電圧変換部の一構成例を示す回路図である。 本技術の第4の実施の形態における固体撮像素子の一構成例を示すブロック図である。 本技術の第4の実施の形態における信号処理部の一構成例を示すブロック図である。 本技術の第5の実施の形態に係る撮像装置の構成の一例を示すブロック図である。 車両制御システムの概略的な構成例を示すブロック図である。 撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
 1.第1の実施の形態(遮光画素および開口画素を同じ平面に配列した例)
 2.第2の実施の形態(遮光画素および開口画素を配列し、2段のループ回路を設けた例)
 3.第3の実施の形態(遮光画素および開口画素を異なる平面に配列した例)
 4.第4の実施の形態(遮光画素および開口画素を配列し、閾値を調整する例)
 5.第5の実施の形態(スキャン方式)
 6.移動体への応用例
 <1.第1の実施の形態>
 [撮像装置の構成例]
 図1は、本技術の第1の実施の形態における撮像装置100の一構成例を示すブロック図である。この撮像装置100は、撮像レンズ110、固体撮像素子200、記録部120および制御部130を備える。撮像装置100としては、産業用ロボットに搭載されるカメラや、車載カメラなどが想定される。
 撮像レンズ110は、入射光を集光して固体撮像素子200に導くものである。固体撮像素子200は、入射光を光電変換して画像データを撮像するものである。この固体撮像素子200は、撮像した画像データに対して、画像認識処理などの所定の信号処理を画像データに対して実行し、その処理結果とアドレスイベントの検出信号とを示すデータを記録部120に信号線209を介して出力する。検出信号の生成方法については後述する。
 記録部120は、固体撮像素子200からのデータを記録するものである。制御部130は、固体撮像素子200を制御して画像データを撮像させるものである。
 [固体撮像素子の構成例]
 図2は、本技術の第1の実施の形態における固体撮像素子200の積層構造の一例を示す図である。この固体撮像素子200は、回路チップ202と、その回路チップ202に積層された受光チップ201とを備える。これらのチップは、ビアなどの接続部を介して電気的に接続される。なお、ビアの他、Cu-Cu接合やバンプにより接続することもできる。
 図3は、本技術の第1の実施の形態における固体撮像素子200の一構成例を示すブロック図である。この固体撮像素子200は、駆動回路211、信号処理部220、アービタ213、カラムADC230および画素アレイ部300を備える。
 画素アレイ部300には、複数の画素が二次元格子状に配列される。また、画素アレイ部300は、それぞれが所定数の画素からなる複数の画素ブロックに分割される。以下、水平方向に配列された画素または画素ブロックの集合を「行」と称し、行に垂直な方向に配列された画素または画素ブロックの集合を「列」と称する。
 画素のそれぞれは、光電流に応じた電圧のアナログ信号を画素信号として生成する。また、画素ブロックのそれぞれは、光電流の変化量が所定の閾値を超えたか否かにより、アドレスイベントの有無を検出する。そして、アドレスイベントが生じた際に画素ブロックは、リクエストをアービタに出力する。
 駆動回路211は、画素のそれぞれを駆動して画素信号をカラムADC230に出力させるものである。
 アービタ213は、それぞれの画素ブロックからのリクエストを調停し、調停結果に基づいて画素ブロックに応答を送信するものである。応答を受け取った画素ブロックは、検出結果を示す検出信号を駆動回路211および信号処理部220に供給する。
 カラムADC230は、画素ブロックの列ごとに、その列からのアナログの画素信号をデジタル信号に変換するものである。このカラムADC230は、デジタル信号を信号処理部220に供給する。
 信号処理部220は、カラムADC230からのデジタル信号に対し、CDS(Correlated Double Sampling)処理、ノイズの補正処理や画像認識処理などの所定の信号処理を実行するものである。この信号処理部220は、処理結果を示すデータと検出信号とを信号線209を介して記録部120に供給する。
 また、駆動回路211および信号処理部220には、制御部130により生成されたモード信号MODEが入力される。このモード信号MODEは、キャリブレーションモードおよび撮像モードを含む複数のモードのいずれかを設定する信号である。ここで、キャリブレーションモードは、暗電流ノイズやオフセットノイズを補正するための補正値を求めるモードである。一方、撮像モードは、画像データを撮像するモードである。キャリブレーションモードは、例えば、撮像装置100への電源投入などの所定のイベントが生じたとき、あるいは、一定時間ごとに実行される。
 [画素アレイ部の構成例]
 図4は、本技術の第1の実施の形態における画素アレイ部300の一構成例を示すブロック図である。この画素アレイ部300の受光面には、遮光されていない開口領域と、遮光された遮光領域とが設けられる。同図における斜線の部分は、遮光領域を示す。遮光領域は、例えば、開口領域の周囲に配置される。また、画素アレイ部300の受光面に平行な所定方向をX方向とし、その受光面に垂直な方向をZ方向とする。X方向およびZ方向に垂直な方向をY方向とする。
 遮光領域および開口領域は、複数の画素ブロックに分割される。遮光領域の画素ブロックを遮光画素ブロック310とし、開口領域の画素ブロックを開口画素ブロック340とする。遮光画素ブロック310のそれぞれには、I行×J列(IおよびJは整数)の複数の遮光画素が配列される。また、開口画素ブロック340のそれぞれには、I行×J列の複数の開口画素が配列される。
 遮光画素ブロック310は、画素信号生成部320と、I行×J列の複数の遮光部330と、アドレスイベント検出部400とを備える。この遮光画素ブロック310内の複数の遮光部330は、画素信号生成部320およびアドレスイベント検出部400を共有している。そして、ある座標の遮光部330と画素信号生成部320およびアドレスイベント検出部400とからなる回路が、その座標の遮光画素として機能する。また、遮光画素ブロック310の列ごとに、垂直信号線VSLが配線される。
 遮光部330は、光電変換素子に生じた暗電流を出力するものである。この遮光部330は、駆動回路211の制御に従って、画素信号生成部320およびアドレスイベント検出部400のいずれかに暗電流を供給する。
 画素信号生成部320は、暗電流に応じた電圧の信号を画素信号SIGとして生成するものである。この画素信号生成部320は、生成した画素信号SIGを垂直信号線VSLを介してカラムADC230に供給する。
 アドレスイベント検出部400は、遮光部330のそれぞれからの暗電流の変化量が所定の閾値を超えたか否かにより、アドレスイベントの有無を検出するものである。このアドレスイベントは、例えば、変化量が上限の閾値を超えた旨を示すオンイベントと、その変化量が下限の閾値を下回った旨を示すオフイベントとからなる。また、アドレスイベントの検出信号は、例えば、オンイベントの検出結果を示す1ビットと、オフイベントの検出結果を示す1ビットからなる。なお、アドレスイベント検出部400は、オンイベントのみを検出することもできる。
 アドレスイベントが発生した際に、アドレスイベント検出部400は、検出信号の送信を要求するリクエストをアービタ213に供給する。そして、リクエストに対する応答をアービタ213から受け取ると、アドレスイベント検出部400は、検出信号を駆動回路211および信号処理部220に供給する。
 図5は、本技術の第1の実施の形態における開口画素ブロック340の一構成例を示すブロック図である。この開口画素ブロック340は、画素信号生成部341と、I行×J列の複数の受光部342と、アドレスイベント検出部343とを備える。開口画素ブロック340内の複数の受光部342は、画素信号生成部341およびアドレスイベント検出部343を共有している。そして、ある座標の受光部342と画素信号生成部341およびアドレスイベント検出部343とからなる回路が、その座標の開口画素として機能する。また、開口画素ブロック340の列ごとに、垂直信号線VSLが配線される。
 受光部342は、光電変換により光電流を生成して出力するものである。画素信号生成部341およびアドレスイベント検出部343の構成は、遮光画素ブロック310内の対応する回路と同様である。
 [遮光画素ブロックの構成例]
 図6は、本技術の第1の実施の形態における遮光画素ブロック310の一構成例を示す回路図である。遮光画素ブロック310において、画素信号生成部320は、リセットトランジスタ321、増幅トランジスタ322、選択トランジスタ323および浮遊拡散層324を備える。複数の遮光部330は、所定の接続ノードを介してアドレスイベント検出部400に共通に接続されている。
 また、遮光部330のそれぞれは、転送トランジスタ331、OFG(OverFlow Gate)トランジスタ332および光電変換素子333を備える。遮光画素ブロック310内の画素数をN(Nは整数)とすると、転送トランジスタ331、OFGトランジスタ332および光電変換素子333は、それぞれN個ずつ配置される。遮光画素ブロック310内のn(nは1乃至Nの整数)個目の転送トランジスタ331には、駆動回路211により転送信号TRGnが供給される。n個目のOFGトランジスタ332には、駆動回路211により制御信号OFGnが供給される。
 また、リセットトランジスタ321、増幅トランジスタ322および選択トランジスタ323として、例えば、N型のMOS(Metal-Oxide-Semiconductor)トランジスタが用いられる。転送トランジスタ331およびOFGトランジスタ332についても、同様にN型のMOSトランジスタが用いられる。
 また、光電変換素子333のそれぞれは、受光チップ201に配置される。光電変換素子333以外の素子の全ては、回路チップ202に配置される。
 光電変換素子333は、入射光を光電変換して電荷を生成するものである。ただし、遮光部330は遮光されているため、光電変換素子333には暗電流が生じる。転送トランジスタ331は、転送信号TRGnに従って、対応する光電変換素子333から浮遊拡散層324へ電荷を転送するものである。OFGトランジスタ332は、制御信号OFGnに従って、対応する光電変換素子333に生じた暗電流を接続ノードに供給するものである。
 浮遊拡散層324は、電荷を蓄積して蓄積した電荷の量に応じた電圧を生成するものである。リセットトランジスタ321は、駆動回路211からのリセット信号RSTに従って浮遊拡散層324の電荷量を初期化するものである。増幅トランジスタ322は、浮遊拡散層324の電圧を増幅するものである。選択トランジスタ323は、駆動回路211からの選択信号SELに従って、増幅された電圧の信号を画素信号SIGとして垂直信号線VSLを介してカラムADC230へ出力するものである。
 なお、開口画素ブロック340の回路構成は、同図に例示した遮光画素ブロック310と同様である。
 キャリブレーションモードにおいて駆動回路211は、遮光画素ブロック310のアドレスイベントの有無に関わらず、転送信号TRGnにより、遮光画素を順に駆動して、電荷を浮遊拡散層324に転送させる。これにより、開口画素ブロック340内の複数の遮光画素のそれぞれの画素信号が順に出力される。この画素信号は、開口画素に生じた暗電流ノイズやオフセットノイズの量に応じた信号であり、それらのノイズを補正するための補正信号として用いられる。
 一方、撮像モードにおいて駆動回路211は、全ての開口画素を制御信号OFGnにより駆動して開口画素ブロック340の単位で、入射された光量の変化量が閾値を超えるか否か(すなわち、アドレスイベントの有無)を検出させる。
 そして、ある開口画素ブロック340においてアドレスイベントが検出されると、駆動回路211は、そのブロックの全ての開口画素を順に駆動して、光量に応じた画素信号を生成させる。そして、信号処理部220は、遮光画素の画素信号(補正信号)に基づいて、開口画素の画素信号からノイズを除去する補正処理を行う。
 このように、固体撮像素子200は、アドレスイベントが検出された開口画素ブロック340の画素信号のみをカラムADC230に出力する。これにより、アドレスイベントの有無に関わらず、全開口画素の画素信号を出力する場合と比較して、固体撮像素子200の消費電力や、画像処理の処理量を低減することができる。
 また、複数の開口画素がアドレスイベント検出部400を共有するため、開口画素毎にアドレスイベント検出部400を配置する場合と比較して固体撮像素子200の回路規模を削減することができる。
 さらに、信号処理部220は、遮光画素の画素信号を補正信号として用いることにより、開口画素で生じた暗電流ノイズやオフセットノイズを除去することができる。
 図7は、本技術の第1の実施の形態における固体撮像素子200の断面図の一例である。同図は、図4のX1乃至X2の線分に垂直な平面に沿って切断した際の断面図を示す。受光面には、遮光画素360と開口画素370とが配列される。
 遮光画素360のそれぞれには、オンチップマイクロレンズ361および光電変換素子333が配置される。また、遮光領域において、オンチップマイクロレンズ361と光電変換素子333との間に遮光部材362が配置される。
 一方、開口画素370のそれぞれには、オンチップマイクロレンズ371および光電変換素子372が配置される。
 なお、遮光画素360に光電変換素子333を配置しているが、開口画素370内の光電変換素子372に生じる暗電流を供給する定電流源を光電変換素子333の代わりに配置することもできる。
 同図に例示するように、遮光画素360および開口画素370は、いずれも受光チップ201の受光面に配列される。
 [アドレスイベント検出部の構成例]
 図8は、本技術の第1の実施の形態におけるアドレスイベント検出部400の一構成例を示すブロック図である。このアドレスイベント検出部400は、電流電圧変換部410、バッファ420、減算器430、量子化器440および転送部450を備える。
 電流電圧変換部410は、対応する遮光部330からの電流信号を、その対数の電圧信号に変換するものである。この電流電圧変換部410は、電圧信号をバッファ420に供給する。
 バッファ420は、電流電圧変換部410からの電圧信号を減算器430に出力するものである。このバッファ420により、後段を駆動する駆動力を向上させることができる。また、バッファ420により、後段のスイッチング動作に伴うノイズのアイソレーションを確保することができる。
 減算器430は、駆動回路211からの行駆動信号に従ってバッファ420からの電圧信号のレベルを低下させるものである。この減算器430は、低下後の電圧信号を量子化器440に供給する。
 量子化器440は、減算器430からの電圧信号をデジタル信号に量子化して検出信号として転送部450に出力するものである。
 転送部450は、量子化器440からの検出信号を信号処理部220等に転送するものである。この転送部450は、アドレスイベントが検出された際に、検出信号の送信を要求するリクエストをアービタ213に供給する。そして、転送部450は、リクエストに対する応答をアービタ213から受け取ると、検出信号を駆動回路211および信号処理部220に供給する。
 [電流電圧変換部の構成例]
 図9は、本技術の第1の実施の形態における電流電圧変換部410の一構成例を示す回路図である。この電流電圧変換部410は、N型トランジスタ411および413とP型トランジスタ412とを備える。これらのトランジスタとして、例えば、MOSトランジスタが用いられる。
 N型トランジスタ411のソースは、遮光部330に接続され、ドレインは電源端子に接続される。P型トランジスタ412およびN型トランジスタ413は、電源端子と接地端子との間において、直列に接続される。また、P型トランジスタ412およびN型トランジスタ413の接続ノードは、N型トランジスタ411のゲートとバッファ420の入力端子とに接続される。また、P型トランジスタ412のゲートには、所定のバイアス電圧Vbiasが印加される。
 N型トランジスタ411および413のドレインは電源側に接続されており、このような回路はソースフォロワと呼ばれる。これらのループ状に接続された2つのソースフォロワにより、遮光部330からの電流は、その対数の電圧信号に変換される。また、P型トランジスタ412は、一定の電流をN型トランジスタ413に供給する。
 [減算器および量子化器の構成例]
 図10は、本技術の第1の実施の形態における減算器430および量子化器440の一構成例を示す回路図である。減算器430は、コンデンサ431および433と、インバータ432と、スイッチ434とを備える。また、量子化器440は、コンパレータ441を備える。
 コンデンサ431の一端は、バッファ420の出力端子に接続され、他端は、インバータ432の入力端子に接続される。コンデンサ433は、インバータ432に並列に接続される。スイッチ434は、コンデンサ433の両端を接続する経路を駆動信号に従って開閉するものである。
 インバータ432は、コンデンサ431を介して入力された電圧信号を反転するものである。このインバータ432は反転した信号をコンパレータ441の非反転入力端子(+)に出力する。
 スイッチ434をオンした際にコンデンサ431のバッファ420側に電圧信号Vinitが入力され、その逆側は仮想接地端子となる。この仮想接地端子の電位を便宜上、ゼロとする。このとき、コンデンサ431に蓄積されている電位Qinitは、コンデンサ431の容量をC1とすると、次の式により表される。一方、コンデンサ433の両端は、短絡されているため、その蓄積電荷はゼロとなる。
  Qinit=C1×Vinit              ・・・式1
 次に、スイッチ434がオフされて、コンデンサ431のバッファ420側の電圧が変化してVafterになった場合を考えると、コンデンサ431に蓄積される電荷Qafterは、次の式により表される。
  Qafter=C1×Vafter            ・・・式2
 一方、コンデンサ433に蓄積される電荷Q2は、出力電圧をVoutとすると、次の式により表される。
  Q2=-C2×Vout               ・・・式3
 このとき、コンデンサ431および433の総電荷量は変化しないため、次の式が成立する。
  Qinit=Qafter+Q2             ・・・式4
 式4に式1乃至式3を代入して変形すると、次の式が得られる。
  Vout=-(C1/C2)×(Vafter-Vinit) ・・・式5
 式5は、電圧信号の減算動作を表し、減算結果の利得はC1/C2となる。通常、利得を最大化することが望まれるため、C1を大きく、C2を小さく設計することが好ましい。一方、C2が小さすぎると、kTCノイズが増大し、ノイズ特性が悪化するおそれがあるため、C2の容量削減は、ノイズを許容することができる範囲に制限される。また、画素ブロックごとに減算器430を含むアドレスイベント検出部400が搭載されるため、容量C1やC2には、面積上の制約がある。これらを考慮して、容量C1およびC2の値が決定される。
 コンパレータ441は、減算器430からの電圧信号と、反転入力端子(-)に印加された所定の閾値を示す閾値電圧Vthとを比較するものである。コンパレータ441は、比較結果を示す信号を検出信号として転送部450に出力する。
 また、上述のアドレスイベント検出部400全体のゲインAは、電流電圧変換部410の変換ゲインをCGlogとし、バッファ420のゲインを「1」とすると、次の式により表される。
Figure JPOXMLDOC01-appb-M000001
上式において、iphoto_nは、n番目の画素の光電流であり、単位は例えば、アンペア(A)である。Nは、画素ブロック(遮光画素ブロック310および開口画素ブロック340)内の画素数である。
 [カラムADCの構成例]
 図11は、本技術の第1の実施の形態におけるカラムADC230の一構成例を示すブロック図である。このカラムADC230は、画素ブロック(遮光画素ブロック310および開口画素ブロック340)の列ごとにADC231を備える。
 ADC231は、垂直信号線VSLを介して供給されたアナログの画素信号SIGをデジタル信号に変換するものである。この画素信号SIGは、検出信号よりもビット数の多いデジタル信号に変換される。例えば、検出信号を2ビットとすると、画素信号は、3ビット以上(16ビットなど)のデジタル信号に変換される。ADC231は、生成したデジタル信号を信号処理部220に供給する。
 [固体撮像素子の動作例]
 図12は、本技術の第1の実施の形態における固体撮像素子200の動作の一例を示すタイミングチャートである。タイミングT0において、制御部130により撮像モードが設定されたものとする。駆動回路211は、制御信号OFGnを全てハイレベルにして、全開口画素のOFGトランジスタをオン状態にする。これにより、全開口画素の光電流の和がアドレスイベント検出部343に供給される。一方、転送信号TRGnは全てローレベルであり、全開口画素の転送トランジスタはオフ状態である。
 そして、タイミングT1において、アドレスイベント検出部343がアドレスイベントを検出し、ハイレベルの検出信号を出力したものとする。ここで、検出信号は、オンイベントの検出結果を示す1ビットの信号であるものとする。
 駆動回路211は、検出信号を受け取ると、タイミングT2において制御信号OFGnを全てローレベルにしてアドレスイベント検出部343への光電流の供給を停止させる。また、駆動回路211は、選択信号SELをハイレベルにし、リセット信号RSTを一定のパルス期間に亘ってハイレベルにして浮遊拡散層の初期化を行う。この初期化時の電圧を画素信号生成部341は、リセットレベルとして出力し、ADC231は、そのリセットレベルをデジタル信号に変換する。
 リセットレベルの変換後のタイミングT3において、駆動回路211は、一定のパルス期間に亘ってハイレベルの転送信号TRG1を供給して、1つ目の画素に電圧を信号レベルとして出力させる。ADC231は、その信号レベルをデジタル信号に変換する。信号処理部220は、リセットレベルと信号レベルとの差分を正味の画素信号として求める。この処理は、CDS処理と呼ばれる。
 信号レベルの変換後のタイミングT4において、駆動回路211は、一定のパルス期間に亘ってハイレベルの転送信号TRG2を供給して、2つ目の画素に信号レベルを出力させる。信号処理部220は、リセットレベルと信号レベルとの差分を正味の画素信号として求める。以下、同様の処理が実行されて、開口画素ブロック340内のそれぞれの開口画素の画素信号が順に出力される。
 全ての画素信号が出力されると、駆動回路211は、制御信号OFGnを全てハイレベルにして、全開口画素のOFGトランジスタをオン状態にする。
 なお、キャリブレーションモードにおいて駆動回路211は、アドレスイベントの有無に関わらずに全遮光画素を駆動して順に画素信号を出力させる。
 図13は、本技術の第1の実施の形態における信号処理部220の一構成例を示すブロック図である。この信号処理部220は、スイッチ221、補正処理部222、補正値演算部223および補正値保持部224を備える。
 スイッチ221は、制御部130からのモード信号MODEに従って、カラムADC230からの画素信号の出力先を切り替えるものである。このスイッチ221は、キャリブレーションモードの場合に開口画素の画素信号を補正値演算部223に出力し、撮像モードの場合に遮光画素の画素信号を補正処理部222に出力する。
 補正値演算部223は、遮光画素360の画素信号の統計量(平均や合計など)の演算により、ノイズを補正するための補正値を開口画素ごとに演算するものである。そして、補正値演算部223は、演算した補正値を補正値保持部224に保持させる。補正値保持部224は、開口画素ごとに補正値を保持するものである。
 補正処理部222は、補正値を用いて、開口画素370の画素信号を補正するものである。この補正処理部222は、例えば、開口画素370の画素信号から、その画素に対応する補正値を減算する補正処理を行う。この補正処理により、開口画素370で生じた暗電流ノイズやオフセットノイズが除去される。補正処理部222は、処理後の信号を記録部120に供給する。また、信号処理部220は、補正処理の他、CDS処理や画像認識処理などの処理を必要に応じて実行する。CDS処理等を行う回路は、同図において省略されている。
 図14は、本技術の第1の実施の形態における固体撮像素子200の動作の一例を示すフローチャートである。この動作は、例えば、モード信号MODEによりキャリブレーションモードが設定されたときに開始される。
 固体撮像素子200内の駆動回路211は、遮光画素360のそれぞれを駆動して画素信号を出力させる(ステップS901)。そして、信号処理部220は、それらの画素信号に基づいて補正値を演算して保持する(ステップS902)。
 固体撮像素子200は、モード信号MODEにより撮像モードが設定されたか否かを判断する(ステップS903)。撮像モードが設定されていない場合に(ステップS903:No)固体撮像素子200は、ステップS903以降を繰り返す。
 一方、撮像モードが設定された場合に(ステップS903:Yes)駆動回路211は、いずれかの開口画素ブロック340においてアドレスイベントがあったか否かを判断する(ステップS904)。アドレスイベントがあった場合に(ステップS904:Yes)、駆動回路211は、アドレスイベントの生じた開口画素ブロック340内のそれぞれの画素の画素信号を順に出力させる(ステップS905)。そして、信号処理部220は、それらの画素信号を補正値を用いて補正する(ステップS906)。
 アドレスイベントが無い場合に(ステップS904:No)、または、ステップS906の後に固体撮像素子200は、ステップS904以降を繰り返し実行する。
 このように、本技術の第1の実施の形態によれば、開口画素370に生じたノイズに応じた信号を遮光画素360が出力するため、信号処理部220は、その信号を用いて開口画素370の画素信号からノイズを除去することができる。これにより、画素信号の信号品質を向上させることができる。
 [第1の変形例]
 上述の第1の実施の形態では、光電変換素子333以外の素子を回路チップ202に配置していたが、この構成では、画素数の増大に伴って回路チップ202の回路規模が増大するおそれがある。この第1の実施の形態の第1の変形例における固体撮像素子200は、回路チップ202の回路規模を削減した点において第1の実施の形態と異なる。
 図15は、本技術の第1の実施の形態の第1の変形例における遮光画素ブロック310の一構成例を示す回路図である。この第1の実施の形態の第1の変形例の遮光画素ブロック310は、リセットトランジスタ321および浮遊拡散層324と複数の遮光部330とが受光チップ201に配置される点において第1の実施の形態と異なる。これら以外の素子は、回路チップ202に配置される。なお、開口画素ブロック340内の素子のチップごとの配置方法は、遮光画素ブロック310と同様である。
 このように、本技術の第1の実施の形態の第1の変形例によれば、リセットトランジスタ321等と複数の遮光部330とを受光チップ201に配置したため、第1の実施の形態と比較して回路チップ202の回路規模を削減することができる。
 [第2の変形例]
 上述の第1の実施の形態の第1の変形例では、リセットトランジスタ321等と複数の遮光部330とを受光チップ201に配置していたが、画素数の増大に伴って回路チップ202の回路規模が増大するおそれがある。この第1の実施の形態の第2の変形例における固体撮像素子200は、回路チップ202の回路規模をさらに削減した点において第1の実施の形態の第1の変形例と異なる。
 図16は、本技術の第1の実施の形態の第2の変形例における遮光画素ブロック310の一構成例を示す回路図である。この第1の実施の形態の第2の変形例の遮光画素ブロック310は、N型トランジスタ411および413がさらに受光チップ201に配置される点において第1の実施の形態の第1の変形例と異なる。このように、受光チップ201内のトランジスタをN型のみにすることにより、N型トランジスタおよびP型トランジスタを混在させる場合と比較して、トランジスタを形成する際の工程数を削減することができる。これにより、受光チップ201の製造コストを削減することができる。なお、開口画素ブロック340内の素子のチップごとの配置方法は、遮光画素ブロック310と同様である。
 このように、本技術の第1の実施の形態の第2の変形例によれば、N型トランジスタ411および413をさらに受光チップ201に配置したため、第1の実施の形態の第1の変形例と比較して回路チップ202の回路規模を削減することができる。
 [第3の変形例]
 上述の第1の実施の形態の第2の変形例では、N型トランジスタ411および413をさらに受光チップ201に配置していたが、画素数の増大に伴って回路チップ202の回路規模が増大するおそれがある。この第1の実施の形態の第3の変形例における固体撮像素子200は、回路チップ202の回路規模をさらに削減した点において第1の実施の形態の第2の変形例と異なる。
 図17は、本技術の第1の実施の形態の第3の変形例における遮光画素ブロック310の一構成例を示す回路図である。この第1の実施の形態の第3の変形例の遮光画素ブロック310は、増幅トランジスタ322および選択トランジスタ323がさらに受光チップ201に配置される点において第1の実施の形態の第2の変形例と異なる。すなわち、画素信号生成部320全体が受光チップ201に配置される。
 このように、本技術の第1の実施の形態の第3の変形例によれば、画素信号生成部320を受光チップ201に配置したため、第1の実施の形態の第2の変形例と比較して回路チップ202の回路規模を削減することができる。
 [第4の変形例]
 上述の第1の実施の形態では、キャリブレーションモードにおいて補正値を演算していたが、さらに開口画素の異常の有無をテストすることもできる。この第1の実施の形態の第4の変形例の固体撮像素子200は、異常の有無をテストするための回路を画素ごとに設けた点において第1の実施の形態と異なる。
 図18は、本技術の第1の実施の形態の第4の変形例における遮光画素ブロック310内のアドレスイベント検出部400の一構成例を示すブロック図である。この第1の実施の形態の第4の変形例のアドレスイベント検出部400は、セレクタ460をさらに備える点において第1の実施の形態と異なる。
 セレクタ460は、所定のテスト信号TINと、電流電圧変換部410からの電圧信号とのいずれかを選択するものである。このセレクタ460は、駆動回路211からの選択信号SELに従って、テスト信号TINおよび電圧信号のいずれかを選択してバッファ420に供給する。
 なお、開口画素ブロック340内のアドレスイベント検出部343の構成は、遮光画素ブロック310内のアドレスイベント検出部400と同様である。
 駆動回路211は、キャリブレーションモードにおいて、全画素について、選択信号SELによりテスト信号TINを選択させる。バッファ420以降に異常が生じた際には、アドレスイベントが検出されなくなるため、信号処理部220は、検出信号に基づいて異常の有無を判断することができる。
 また、セレクタ460により、全ての正常な遮光画素360において、アドレスイベントの有無に関わらず、検出信号を強制的に出力させることができる。これにより、アドレスイベントの有無に関わらず、遮光画素360から画素信号が出力される。
 なお、セレクタ460を電流電圧変換部410およびバッファ420の間に配置しているが、この構成に限定されない。例えば、バッファ420および減算器430の間や、減算器430および量子化器440の間にセレクタ460を配置してもよい。また、2つ以上のセレクタ460を配置することもできる。また、第4の変形例の固体撮像素子200において、第1乃至第3の変形例を適用することもできる。
 このように、本技術の第1の実施の形態の第4の変形例によれば、テスト信号と電圧信号とのいずれかを選択するセレクタ460を配置したため、信号処理部220は、画素毎の異常の有無を判断することができる。
 <2.第2の実施の形態>
 上述の第1の実施の形態では、電流電圧変換部410は、1つのループ回路により暗電流を電圧信号に変換していたが、一般に暗電流は非常に小さいため、1つのループ回路では変換ゲインが不足するおそれがある。この第2の実施の形態の電流電圧変換部410は、複数段のループ回路により電流電圧変換を行う点において第1の実施の形態と異なる。
 図19は、本技術の第2の実施の形態における画素信号生成部320および遮光部330の一構成例を示す回路図である。この第1の実施の形態の複数の遮光部330のそれぞれは、暗電流を互いに異なる信号線を介してアドレスイベント検出部400に供給する点において第1の実施の形態と異なる。
 図20は、本技術の第2の実施の形態における電流電圧変換部410の一構成例を示す回路図である。この第2の実施の形態の電流電圧変換部410は、複数のN型トランジスタ414と、複数のN型トランジスタ415と、電流源416と、N型トランジスタ417および418とを備える。N型トランジスタ414、415、417および418として、例えば、MOSトランジスタが用いられる。N型トランジスタ415およびN型トランジスタ417は、遮光画素360ごとに配置される。遮光画素ブロック310内の遮光画素360の画素数をNとすると、N型トランジスタ415およびN型トランジスタ417は、N個ずつ配置される。
 N型トランジスタ414および415は、バッファ420と、対応する遮光部330との間において直列に接続される。また、電流源416とN型トランジスタ417および418とは、電源端子と接地端子との間において直列に接続される。また、N型トランジスタ418のゲートは、N個のN型トランジスタ415のそれぞれのソースに共通に接続される。N型トランジスタ417のゲートは、N組のN型トランジスタ415およびN型トランジスタ417のそれぞれの接続ノードに共通に接続される。
 上述の構成により、N型トランジスタ415および418からなるループ回路と、N型トランジスタ414および417からなるループ回路とからなる2段のループ回路が構成される。この2段のループ回路により、ループ回路が1段の場合と比較して、暗電流を電圧信号に変換する変換ゲインが2倍となる。また、N個の暗電流のそれぞれを変換したN個の電圧信号の平均がバッファ420へ出力される。
 なお、第2の実施の形態の固体撮像素子200において、第1乃至第4の変形例を適用することもできる。
 このように、本技術の第2の実施の形態によれば、電流電圧変換部410は、2段のループ回路により暗電流を電圧信号に変換するため、ループ回路が1段の場合と比較して変換ゲインが2倍となり、電圧信号のレベルを高くすることができる。
 <3.第3の実施の形態>
 上述の第1の実施の形態では、遮光画素360および開口画素370の両方を受光チップ201の同一の面に配置していた。この構成では、受光チップ201の面積を一定とした場合、遮光画素360を配列した遮光領域の面積が広いほど、開口画素370を配列した開口領域の面積が狭くなってしまう。この第3の実施の形態の固体撮像素子200は、受光面に遮光画素360のみを配列し、その受光面に対向する面に遮光画素360を配列した点において第1の実施の形態と異なる。
 図21は、本技術の第3の実施の形態における固体撮像素子200の断面図の一例である。この断面図は、Z方向に平行な所定の切断面の断面図を示す。固体撮像素子200は、対向する一対の平面を有する。これらの平面は、Z方向に垂直であり、一方の平面が受光面として用いられ、開口画素370が配列される。また、他方の平面には、遮光画素360が配列される。積層構造の場合、受光チップ201に開口画素370が配列され、回路チップ202に遮光画素360が配列される。遮光画素360が配列された面は、例えば、パッケージなどに対向し、光が入射されない。また、受光面への入射光は、配線や回路に遮られ、反対側の面の遮光画素360まで届かない。このため、遮光部材は不要である。
 図22は、本技術の第3の実施の形態における受光チップ201および回路チップ202の平面図の一例である。同図におけるaは、受光チップ201の平面図の一例であり、同図におけるbは、回路チップ202の平面図の一例である。
 受光チップ201内の開口領域には、複数の開口画素370が二次元格子状に配列される。また、回路チップ202内の遮光領域には、複数の遮光画素360が二次元格子状に配列される。遮光領域には、例えば、開口画素370と同じ個数の遮光画素360が配列される。
 なお、遮光画素360の個数を、開口画素370より少なくすることもできる。この場合、例えば、図23におけるaに例示するように、N個の遮光画素360をそれぞれに設けた複数の遮光画素ブロック310を互いに一定の間隔を空けて二次元格子状に配列することもできる。また、同図におけるbに例示するように、遮光画素360を不規則に配置することもできる。
 図24は、本技術の第3の実施の形態における開口画素370および遮光画素360の一構成例を示すブロック図である。
 開口画素370は、光電変換素子372、電流電圧変換部480、バッファ471、減算器472、量子化器473および転送部474を備える。バッファ471、減算器472、量子化器473および転送部474のそれぞれの構成は、図8に例示したアドレスイベント検出部400内の対応する回路と同様である。
 第3の実施の形態の光電変換素子372は、光電流を電流電圧変換部480に供給する。
 また、第3の実施の形態の遮光画素360は、光電変換素子333およびOFGトランジスタ332を備える。OFGトランジスタ332は、制御信号OFGnに従って、光電変換素子333の電荷を電流電圧変換部480に出力する。これにより、電流電圧変換部480から光電変換素子333へ暗電流が流れる。この暗電流は、暗電流ノイズを補正する補正信号として用いられる。
 また、第3の実施の形態の固体撮像素子200には、キャリブレーションモードが設定されない。駆動回路211は、アドレスイベントの検出の際に、制御信号OFGnにより、光電変換素子333の電荷を電流電圧変換部480に出力させる。
 電流電圧変換部480は、光電変換素子372が生成した光電流と暗電流との差分を電圧信号に変換するものである。これにより、暗電流ノイズを低減することができる。
 上述したように、第3の実施の形態の開口画素370は、アドレスイベントの有無を検出するが、画素信号は出力しない。また、第3の実施の形態の遮光画素360は、暗電流を出力するが、アドレスイベントの検出信号と、画素信号とをいずれも出力しない。
 図25は、本技術の第3の実施の形態における電流電圧変換部480の一構成例を示す回路図である。この第3の実施の形態の電流電圧変換部480は、N型トランジスタ481、482、484、485および486と、電流源483とを備える。
 N型トランジスタ481および482は、電源電圧VDDの端子と光電変換素子372との間において直列に接続される。また、N型トランジスタ481のドレインは、遮光画素360に接続される。電流源483と、N型トランジスタ484および485とは、電源電圧VDDの端子と接地端子との間において直列に接続される。
 また、N型トランジスタ481のゲートは、電流源483およびN型トランジスタ484の接続ノードに接続され、N型トランジスタ482のゲートは、N型トランジスタ484および485の接続ノードに接続される。N型トランジスタ484のゲートは、N型トランジスタ481および482の接続ノードに接続され、N型トランジスタ485のゲートは、N型トランジスタ482および光電変換素子372の接続ノードに接続される。また、電流源483およびN型トランジスタ484の接続ノードは、バッファ471に接続される。
 上述の構成により、遮光画素360で生じた暗電流と、光電変換素子372の生成した光電流との差分が電圧信号に変換される。暗電流および光電流の差分を用いて電圧信号を生成することにより、電圧信号から得られる検出信号において暗電流ノイズが軽減される。
 なお、第3の実施の形態の開口画素370および遮光画素360は、画素信号を出力していないが、第1の実施の形態と同様に、さらに画素信号を出力し、補正値により画素信号を補正する構成とすることもできる。
 このように、本技術の第3の実施の形態によれば、対向する一対の平面の一方に開口画素370を配列し、他方に遮光画素360を配列したため、それらの画素を同じ平面に配列する場合と比較して、開口画素370を配列する領域を広くすることができる。
 また、電流電圧変換部410は、遮光画素360からの暗電流と開口画素370内の光電変換素子372の生成した光電流との差分を電圧信号に変換するため、その電圧信号内の暗電流ノイズを除去することができる。
 <4.第4の実施の形態>
 上述の第1の実施の形態では、開口画素370は、画素信号から暗電流ノイズなどのノイズを除去していたが、アドレスイベントの検出の際に、暗電流ノイズなどの影響により誤検出が生じるおそれがある。この第4の実施の形態の固体撮像素子200は、アドレスイベントの検出精度を向上させた点において第1の実施の形態と異なる。
 図26は、本技術の第4の実施の形態における固体撮像素子200の一構成例を示すブロック図である。この第4の実施の形態の固体撮像素子200は、DAC214をさらに備える点において第1の実施の形態と異なる。
 DAC214は、信号処理部220からの制御信号に対するDA変換により、閾値電圧Vthを生成するものである。このDAC214は、閾値電圧Vthを画素アレイ部300内の開口画素370および遮光画素360に供給する。
 図27は、本技術の第4の実施の形態における信号処理部220の一構成例を示すブロック図である。この第4の実施の形態の信号処理部220は、設定値レジスタ225および閾値調整部226をさらに備える点において第1の実施の形態と異なる。
 閾値調整部226は、閾値を示す閾値電圧Vthを、DAC214への制御信号により調整するものである。この閾値調整部226には、画素アレイ部300内の複数の遮光画素のそれぞれからの検出信号が入力される。
 キャリブレーションモードにおいて閾値調整部226は、検出信号の検出頻度を求め、その検出頻度に応じた設定値を設定値レジスタ225から読み出す。そして、閾値調整部226は、制御信号により、設定値を示す電圧に閾値電圧Vthを更新させる。適切な閾値電圧Vthへの更新により、暗電流ノイズやオフセットノイズによるアドレスイベントの誤検出を抑制することができる。
 設定値レジスタ225は、検出頻度に応じた設定値を保持するものである。設定値は、上限の閾値を示す上限設定値と、下限の閾値を示す下限設定値とを含む。例えば、オンイベントの出力頻度が高いほど、低い上限設定値が保持される。一方、オフイベントの検出頻度が高いほど、高い下限設定値が保持される。
 なお、設定値レジスタ225は、上限設定値のみを保持することもできる。また、閾値調整部226は、設定値レジスタ225から設定値を読み出しているが、検出頻度に対する所定の演算により設定値を求めることもできる。この場合には、設定値レジスタ225は不要である。また、第4の実施の形態の固体撮像素子200において、第1乃至第4の変形例を適用することもできる。
 このように、本技術の第4の実施の形態によれば、閾値調整部226は、遮光画素360のアドレスイベントの検出頻度に応じた値に閾値電圧を更新するため、ノイズによるアドレスイベントの誤検出を抑制し、検出精度を向上させることができる。
 [第5の実施の形態に係る撮像装置(スキャン方式)]
 上述した第1構成例に係る撮像装置20は、非同期型の読出し方式にてイベントを読み出す非同期型の撮像装置である。但し、イベントの読出し方式としては、非同期型の読出し方式に限られるものではなく、同期型の読出し方式であってもよい。同期型の読出し方式が適用される撮像装置は、所定のフレームレートで撮像を行う通常の撮像装置と同じ、スキャン方式の撮像装置である。
 図28は、本開示に係る技術が適用される撮像システム10における撮像装置20として用いられる、第2構成例に係る撮像装置、即ち、スキャン方式の撮像装置の構成の一例を示すブロック図である。
 図28に示すように、本開示の撮像装置としての第2構成例に係る撮像装置20は、画素アレイ部21、駆動部22、信号処理部25、読出し領域選択部27、及び、信号生成部28を備える構成となっている。
 画素アレイ部21は、複数の画素30を含む。複数の画素30は、読出し領域選択部27の選択信号に応答して出力信号を出力する。複数の画素30のそれぞれは、図5に記載の受光部342を含む。また、図5に記載のように、画素信号生成部341およびアドレスイベント検出部343は、複数の画素30(受光部342)により共有される。複数の画素30は、光の強度の変化量に対応する出力信号を出力する。複数の画素30は、図28に示すように、行列状に2次元配置されていてもよい。
 駆動部22は、複数の画素30のそれぞれを駆動して、各画素30で生成された画素信号を信号処理部25に出力させる。尚、駆動部22及び信号処理部25については、階調情報を取得するための回路部である。従って、イベント情報のみを取得する場合は、駆動部22及び信号処理部25は無くてもよい。
 読出し領域選択部27は、画素アレイ部21に含まれる複数の画素30のうちの一部を選択する。具体的には、読出し領域選択部27は、画素アレイ部21の各画素30からのリクエストに応じて選択領域を決定する。例えば、読出し領域選択部27は、画素アレイ部21に対応する2次元行列の構造に含まれる行のうちのいずれか1つもしくは複数の行を選択する。読出し領域選択部27は、予め設定された周期に応じて1つもしくは複数の行を順次選択する。また、読出し領域選択部27は、画素アレイ部21の各画素30からのリクエストに応じて選択領域を決定してもよい。
 信号生成部28は、読出し領域選択部27によって選択された画素の出力信号に基づいて、選択された画素のうちのイベントを検出した活性画素に対応するイベント信号を生成する。イベントは、光の強度が変化するイベントである。活性画素は、出力信号に対応する光の強度の変化量が予め設定された閾値を超える、又は、下回る画素である。例えば、信号生成部28は、画素の出力信号を基準信号と比較し、基準信号よりも大きい又は小さい場合に出力信号を出力する活性画素を検出し、当該活性画素に対応するイベント信号を生成する。
 信号生成部28については、例えば、信号生成部28に入ってくる信号を調停するような列選択回路を含む構成とすることができる。また、信号生成部28については、イベントを検出した活性画素の情報の出力のみならず、イベントを検出しない非活性画素の情報もを出力する構成とすることができる。
 信号生成部28からは、出力線15を通して、イベントを検出した活性画素のアドレス情報及びタイムスタンプ情報(例えば、(X,Y,T))が出力される。但し、信号生成部28から出力されるデータについては、アドレス情報及びタイムスタンプ情報だけでなく、フレーム形式の情報(例えば、(0,0,1,0,・・・))であってもよい。
 <5.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図29は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図29に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図29の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図30は、撮像部12031の設置位置の例を示す図である。
 図30では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図30には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、例えば、図1の撮像装置100は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
 なお、本技術は以下のような構成もとることができる。
(1)入射された光量の変化量が所定の閾値を超えるか否かを検出して検出結果を示す検出信号を出力する開口画素と、
 前記開口画素に生じるノイズの量に応じた補正信号を出力する遮光画素と
を具備する固体撮像素子。
(2)前記開口画素および前記遮光画素は、所定平面に配列される
前記(1)記載の固体撮像素子。
(3)前記開口画素は、対向する一対の平面の一方に配列され、
 前記遮光画素は、前記一対の平面の他方に配列される
前記(1)記載の固体撮像素子。
(4)前記遮光画素は、前記開口画素ごとに配置される
前記(3)記載の固体撮像素子。
(5)前記一対の平面の他方には、所定数の前記遮光画素をそれぞれに設けた複数の遮光画素ブロックが配列され、
 前記複数の遮光画素ブロックは、互いに一定の間隔を空けて配列される
前記(3)記載の固体撮像素子。
(6)前記遮光画素は、不規則に配置される
前記(3)記載の固体撮像素子。
(7)前記補正信号に基づいて前記光量に応じた画素信号から前記ノイズを除去する補正処理を行う信号処理部をさらに具備し、
 前記開口画素は、前記画素信号をさらに出力する
前記(1)から(8)のいずれかに記載の固体撮像素子。
(8)前記遮光画素は、
 光電変換素子と、
 前記光電変換素子に生じた暗電流を電圧信号に変換する電流電圧変換部と、
 前記電圧信号の変化量が前記閾値を超えるか否かを検出する量子化器と、
 前記光量に応じた画素信号を前記補正信号として生成する画素信号生成部と
を備える前記(1)から(7)のいずれかに記載の固体撮像素子。
(9)前記電流電圧変換部は、前記暗電流を複数段のループ回路により前記電圧信号に変換する
前記(8)記載の固体撮像素子。
(10)前記光電変換素子と前記画素信号生成部の一部とは、所定の受光チップに配置され、
 前記画素信号生成部の残りと前記電流電圧変換部と前記量子化器とは、所定の回路チップに配置される
前記(8)記載の固体撮像素子。
(11)前記光電変換素子と前記画素信号生成部の一部と前記電流電圧変換部の一部とは、所定の受光チップに配置され、
 前記画素信号生成部の残りと前記電流電圧変換部の残りと前記量子化器とは、所定の回路チップに配置される
前記(8)記載の固体撮像素子。
(12)前記光電変換素子と前記画素信号生成部と前記電流電圧変換部の一部とは、所定の受光チップに配置され、
 前記電流電圧変換部の残りと前記量子化器とは、所定の回路チップに配置される
前記(8)記載の固体撮像素子。
(13)前記遮光画素は、所定のテスト信号と前記電圧信号とのいずれかを選択して選択信号として出力するセレクタをさらに具備し、
 前記量子化器は、前記選択信号の変化量が前記閾値を超えるか否かを検出する
前記(8)から(12)のいずれかに記載の固体撮像素子。
(14)前記開口画素は、
 光電変換により光電流を生成する光電変換素子と、
 前記光電流と暗電流との差分を電圧信号に変換する電流電圧変換部と、
 前記電圧信号の変化量が前記閾値を超えるか否かを検出する量子化器と
を備え、
 前記遮光画素は、前記暗電流を前記補正信号として出力する
前記(1)記載の固体撮像素子。
(15)前記補正信号に基づいて前記閾値を調整する閾値調整部をさらに具備する
前記(1)に記載の固体撮像素子。
(16)入射された光量の変化量が所定の閾値を超えるか否かを検出して検出結果を示す開口画素と、
 前記開口画素に生じるノイズの量に応じた補正信号を出力する遮光画素と、
 前記検出信号を処理する信号処理部と
を具備する撮像装置。
 100 撮像装置
 110 撮像レンズ
 120 記録部
 130 制御部
 200 固体撮像素子
 201 受光チップ
 202 回路チップ
 211 駆動回路
 213 アービタ
 214 DAC
 220 信号処理部
 221、434 スイッチ
 222 補正処理部
 223 補正値演算部
 224 補正値保持部
 225 設定値レジスタ
 226 閾値調整部
 230 カラムADC
 231 ADC
 300 画素アレイ部
 310 遮光画素ブロック
 320、341 画素信号生成部
 321 リセットトランジスタ
 322 増幅トランジスタ
 323 選択トランジスタ
 324 浮遊拡散層
 330 遮光部
 331 転送トランジスタ
 332 OFGトランジスタ
 333、372 光電変換素子
 340 開口画素ブロック
 342 受光部
 343、400 アドレスイベント検出部
 360 遮光画素
 361、371 オンチップマイクロレンズ
 362 遮光部材
 370 開口画素
 410、480 電流電圧変換部
 411、413、414、415、417、418、481、482、484、485 N型トランジスタ
 412 P型トランジスタ
 416、483 電流源
 420、471 バッファ
 430、472 減算器
 431、433 コンデンサ
 432 インバータ
 440、473 量子化器
 441 コンパレータ
 450、474 転送部
 460 セレクタ
 12031 撮像部

Claims (16)

  1.  入射された光量の変化量が所定の閾値を超えるか否かを検出して検出結果を示す検出信号を出力する開口画素と、
     前記開口画素に生じるノイズの量に応じた補正信号を出力する遮光画素と
    を具備する固体撮像素子。
  2.  前記開口画素および前記遮光画素は、所定平面に配列される
    請求項1記載の固体撮像素子。
  3.  前記開口画素は、対向する一対の平面の一方に配列され、
     前記遮光画素は、前記一対の平面の他方に配列される
    請求項1記載の固体撮像素子。
  4.  前記遮光画素は、前記開口画素ごとに配置される
    請求項3記載の固体撮像素子。
  5.  前記一対の平面の他方には、所定数の前記遮光画素をそれぞれに設けた複数の遮光画素ブロックが配列され、
     前記複数の遮光画素ブロックは、互いに一定の間隔を空けて配列される
    請求項3記載の固体撮像素子。
  6.  前記遮光画素は、不規則に配置される
    請求項3記載の固体撮像素子。
  7.  前記補正信号に基づいて前記光量に応じた画素信号から前記ノイズを除去する補正処理を行う信号処理部をさらに具備し、
     前記開口画素は、前記画素信号をさらに出力する
    請求項1記載の固体撮像素子。
  8.  前記遮光画素は、
     光電変換素子と、
     前記光電変換素子に生じた暗電流を電圧信号に変換する電流電圧変換部と、
     前記電圧信号の変化量が前記閾値を超えるか否かを検出する量子化器と、
     前記光量に応じた画素信号を前記補正信号として生成する画素信号生成部と
    を備える請求項1記載の固体撮像素子。
  9.  前記電流電圧変換部は、前記暗電流を複数段のループ回路により前記電圧信号に変換する
    請求項8記載の固体撮像素子。
  10.  前記光電変換素子と前記画素信号生成部の一部とは、所定の受光チップに配置され、
     前記画素信号生成部の残りと前記電流電圧変換部と前記量子化器とは、所定の回路チップに配置される
    請求項8記載の固体撮像素子。
  11.  前記光電変換素子と前記画素信号生成部の一部と前記電流電圧変換部の一部とは、所定の受光チップに配置され、
     前記画素信号生成部の残りと前記電流電圧変換部の残りと前記量子化器とは、所定の回路チップに配置される
    請求項8記載の固体撮像素子。
  12.  前記光電変換素子と前記画素信号生成部と前記電流電圧変換部の一部とは、所定の受光チップに配置され、
     前記電流電圧変換部の残りと前記量子化器とは、所定の回路チップに配置される
    請求項8記載の固体撮像素子。
  13.  前記遮光画素は、所定のテスト信号と前記電圧信号とのいずれかを選択して選択信号として出力するセレクタをさらに具備し、
     前記量子化器は、前記選択信号の変化量が前記閾値を超えるか否かを検出する
    請求項8記載の固体撮像素子。
  14.  前記開口画素は、
     光電変換により光電流を生成する光電変換素子と、
     前記光電流と暗電流との差分を電圧信号に変換する電流電圧変換部と、
     前記電圧信号の変化量が前記閾値を超えるか否かを検出する量子化器と
    を備え、
     前記遮光画素は、前記暗電流を前記補正信号として出力する
    請求項1記載の固体撮像素子。
  15.  前記補正信号に基づいて前記閾値を調整する閾値調整部をさらに具備する
    請求項1記載の固体撮像素子。
  16.  入射された光量の変化量が所定の閾値を超えるか否かを検出して検出結果を示す開口画素と、
     前記開口画素に生じるノイズの量に応じた補正信号を出力する遮光画素と、
     前記検出信号を処理する信号処理部と
    を具備する撮像装置。
PCT/JP2019/036623 2018-09-27 2019-09-18 固体撮像素子、および、撮像装置 WO2020066803A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19864173.0A EP3860114A4 (en) 2018-09-27 2019-09-18 SOLID IMAGING ELEMENT AND IMAGING DEVICE
US17/276,231 US11503233B2 (en) 2018-09-27 2019-09-18 Solid-state imaging element and imaging device
CN201980061169.9A CN112740659A (zh) 2018-09-27 2019-09-18 固态摄像元件和摄像装置
US17/952,663 US11770629B2 (en) 2018-09-27 2022-09-26 Solid-state imaging element and imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018181151A JP2020053827A (ja) 2018-09-27 2018-09-27 固体撮像素子、および、撮像装置
JP2018-181151 2018-09-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/276,231 A-371-Of-International US11503233B2 (en) 2018-09-27 2019-09-18 Solid-state imaging element and imaging device
US17/952,663 Continuation US11770629B2 (en) 2018-09-27 2022-09-26 Solid-state imaging element and imaging device

Publications (1)

Publication Number Publication Date
WO2020066803A1 true WO2020066803A1 (ja) 2020-04-02

Family

ID=69952446

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/036623 WO2020066803A1 (ja) 2018-09-27 2019-09-18 固体撮像素子、および、撮像装置

Country Status (5)

Country Link
US (2) US11503233B2 (ja)
EP (1) EP3860114A4 (ja)
JP (1) JP2020053827A (ja)
CN (1) CN112740659A (ja)
WO (1) WO2020066803A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021241120A1 (ja) * 2020-05-28 2021-12-02 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び撮像方法
EP4175287A4 (en) * 2020-06-26 2023-08-02 Sony Semiconductor Solutions Corporation SOLID STATE IMAGING DEVICE AND IMAGING DEVICE

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11196956B2 (en) * 2017-11-06 2021-12-07 Sony Semiconductor Solutions Corporation Solid-state image sensor, imaging device, and method of controlling solid-state image sensor
JP2020053827A (ja) 2018-09-27 2020-04-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、および、撮像装置
DE112020002106T5 (de) * 2019-04-26 2022-02-17 Sony Semiconductor Solutions Corporation Ereignisdetektionsvorrichtung, ereignisdetektionsvorrichtung enthaltendes system und ereignisdetektionsverfahren
JP2023085573A (ja) * 2020-04-10 2023-06-21 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び撮像方法
WO2021256290A1 (ja) * 2020-06-19 2021-12-23 ソニーセミコンダクタソリューションズ株式会社 撮像装置
JP2022173796A (ja) * 2021-05-10 2022-11-22 ソニーセミコンダクタソリューションズ株式会社 撮像素子、撮像装置及び撮像素子の制御方法
CN116409247A (zh) * 2021-12-29 2023-07-11 博泰车联网(南京)有限公司 用于车辆后备箱的控制方法、控制系统及车辆
CN114823938A (zh) * 2022-04-02 2022-07-29 武汉华星光电半导体显示技术有限公司 光电探测装置与方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017535999A (ja) 2014-09-30 2017-11-30 クアルコム,インコーポレイテッド フレームベースとイベントベースのハイブリッド方式を使用するセンサアーキテクチャ
JP2018085725A (ja) * 2016-11-21 2018-05-31 三星電子株式会社Samsung Electronics Co.,Ltd. イベントベースのセンサー、それを含むユーザー装置、及びその動作方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT502551B1 (de) * 2005-06-15 2010-11-15 Arc Seibersdorf Res Gmbh Verfahren und bildauswertungseinheit zur szenenanalyse
JP5266916B2 (ja) * 2008-07-09 2013-08-21 ソニー株式会社 撮像素子、カメラ、撮像素子の制御方法、並びにプログラム
KR101887988B1 (ko) * 2012-07-03 2018-08-14 삼성전자 주식회사 이미지 센서 칩, 이의 동작 방법, 및 이를 포함하는 시스템
JP6186900B2 (ja) * 2013-06-04 2017-08-30 ソニー株式会社 固体撮像装置、電子機器、レンズ制御方法、および撮像モジュール
JP6696695B2 (ja) * 2017-03-16 2020-05-20 株式会社東芝 光検出装置およびこれを用いた被写体検知システム
JP7148269B2 (ja) * 2018-05-02 2022-10-05 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および撮像装置
US10893199B2 (en) * 2018-06-07 2021-01-12 Canon Kabushiki Kaisha Imaging apparatus and control method thereof
JP2020053827A (ja) 2018-09-27 2020-04-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、および、撮像装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017535999A (ja) 2014-09-30 2017-11-30 クアルコム,インコーポレイテッド フレームベースとイベントベースのハイブリッド方式を使用するセンサアーキテクチャ
JP2018085725A (ja) * 2016-11-21 2018-05-31 三星電子株式会社Samsung Electronics Co.,Ltd. イベントベースのセンサー、それを含むユーザー装置、及びその動作方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021241120A1 (ja) * 2020-05-28 2021-12-02 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び撮像方法
EP4175287A4 (en) * 2020-06-26 2023-08-02 Sony Semiconductor Solutions Corporation SOLID STATE IMAGING DEVICE AND IMAGING DEVICE

Also Published As

Publication number Publication date
US11770629B2 (en) 2023-09-26
US11503233B2 (en) 2022-11-15
CN112740659A (zh) 2021-04-30
JP2020053827A (ja) 2020-04-02
US20230011899A1 (en) 2023-01-12
EP3860114A1 (en) 2021-08-04
US20220053154A1 (en) 2022-02-17
EP3860114A4 (en) 2021-11-17

Similar Documents

Publication Publication Date Title
JP7141440B2 (ja) 固体撮像素子
WO2020066803A1 (ja) 固体撮像素子、および、撮像装置
JP7284714B2 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
US11523079B2 (en) Solid-state imaging element and imaging device
US11582416B2 (en) Solid-state image sensor, imaging device, and method of controlling solid-state image sensor
CN112640428A (zh) 固态成像装置、信号处理芯片和电子设备
US20240015412A1 (en) Sensor and control method
JP2019195135A (ja) 固体撮像素子および撮像装置
WO2020129657A1 (ja) センサ及び制御方法
JP2021093610A (ja) 固体撮像素子、および、撮像装置
WO2021256031A1 (ja) 固体撮像素子、および、撮像装置
JP2023040318A (ja) 撮像回路および撮像装置
WO2024042946A1 (ja) 光検出素子
KR102673021B1 (ko) 고체 촬상 소자, 촬상 장치 및 고체 촬상 소자의 제어 방법
WO2022254832A1 (ja) 撮像装置、電子機器、および撮像方法
JP2023167559A (ja) 撮像素子および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19864173

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019864173

Country of ref document: EP

Effective date: 20210428