WO2022059515A1 - 固体撮像装置及び認識システム - Google Patents

固体撮像装置及び認識システム Download PDF

Info

Publication number
WO2022059515A1
WO2022059515A1 PCT/JP2021/032405 JP2021032405W WO2022059515A1 WO 2022059515 A1 WO2022059515 A1 WO 2022059515A1 JP 2021032405 W JP2021032405 W JP 2021032405W WO 2022059515 A1 WO2022059515 A1 WO 2022059515A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
unit
event
pixels
light
Prior art date
Application number
PCT/JP2021/032405
Other languages
English (en)
French (fr)
Inventor
慶 中川
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US18/043,956 priority Critical patent/US20230316693A1/en
Priority to JP2022550467A priority patent/JPWO2022059515A1/ja
Priority to DE112021004820.1T priority patent/DE112021004820T5/de
Priority to CN202180057018.3A priority patent/CN116097444A/zh
Publication of WO2022059515A1 publication Critical patent/WO2022059515A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14638Structures specially adapted for transferring the charges across the imager perpendicular to the imaging plane
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14665Imagers using a photoconductor layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/47Image sensors with pixel address output; Event-driven image sensors; Selection of pixels to be read out based on image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/79Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • H10K39/30Devices controlled by radiation
    • H10K39/32Organic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Definitions

  • This disclosure relates to a solid-state image sensor and a recognition system.
  • this disclosure proposes a solid-state image sensor and a recognition system that enable more secure authentication.
  • the solid-state image pickup apparatus includes a plurality of first pixels arranged in a matrix on the first surface, and the amount of incident light incident on each of the first pixels. It is provided with an image processing unit that generates image data based on the above, and a plurality of second pixels arranged in a matrix on a second surface parallel to the first surface, and changes in the brightness of incident light incident on each of the second pixels. An event signal processing unit that generates event data based on the above is provided, and the plurality of first pixels and the plurality of second pixels are arranged on a single chip.
  • FIG. 1 It is a figure which shows the plane layout example of each layer of the pixel array part which concerns on the modification of the color filter array of 2nd Embodiment. It is an external view seen from the front side of the smartphone which concerns on the specific example of the electronic device of this disclosure. It is a block diagram which shows an example of the schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of the vehicle exterior information detection unit and the image pickup unit.
  • CMOS Complementary Metal-Oxide Semiconductor
  • CCD Charge-Coupled Device
  • FIG. 1 is a block diagram showing an example of the functional configuration of the recognition system according to the first embodiment.
  • the recognition system 1000 includes two types of sensor units, an RGB sensor unit 1001 and an EVS sensor unit 1003. Further, the recognition system 1000 includes an RGB image processing unit 1002, an event signal processing unit 1004, a recognition processing unit 1005, and an interface (I / F) unit 1006.
  • the RGB image processing unit 1002 may include an RGB sensor unit 1001
  • the event signal processing unit 1004 may include an EVS sensor unit 1003.
  • the RGB sensor unit 1001 includes, for example, a plurality of pixels (hereinafter referred to as RGB pixels) having a color filter that transmits the wavelength components of each of the three primary colors of RGB, and is a color image composed of the color components of the three primary colors of RGB (hereinafter referred to as an RGB image). ) Is generated.
  • RGB pixels a plurality of pixels having a color filter that transmits the wavelength components of each of the three primary colors of RGB
  • an RGB image a color image composed of the color components of the three primary colors of RGB
  • the EVS sensor unit 1003 includes, for example, a plurality of pixels (hereinafter, referred to as EVS pixels) including an IR filter that transmits infrared (IR) light, and whether or not each EVS pixel detects IR light (hereinafter, event). Based on the above), event data (also referred to as event information or detection signal) indicating the position of the pixel in which the event is detected (hereinafter referred to as an address) is output.
  • the event may include an on event indicating that IR light has come to be detected and an off event indicating that IR light has become desired to be detected.
  • the RGB image processing unit 1002 executes predetermined signal processing such as noise removal, white balance adjustment, and pixel interpolation for the RGB image data input from the RGB sensor unit 1001. Further, the RGB image processing unit 1002 may execute a recognition process or the like using the RGB image data.
  • the event signal processing unit 1004 generates image data (hereinafter referred to as EVS image data) indicating pixels in which an event is detected, based on the event data input from the EVS sensor unit 1003. For example, the event signal processing unit 1004 generates EVS image data indicating pixels in which on-events and / or off-events are detected, based on event data input within a predetermined period.
  • the event signal processing unit 1004 may generate EVS image data using the address of the pixel in which the event is detected, or the gradation indicating the brightness of the incident light read from the pixel in which the event is detected. EVS image data may be generated using a signal (pixel signal). Further, the event signal processing unit 1004 may execute predetermined signal processing such as noise reduction on the generated EVS image data.
  • the recognition processing unit 1005 uses the RGB image data input from the RGB image processing unit 1002 and / or the EVS image data input from the event signal processing unit 1004 to image the RGB sensor unit 1001 and / or the EVS sensor unit 1003. Executes recognition processing for objects existing in the corner.
  • a recognition process such as pattern recognition, a recognition process by artificial intelligence (AI), or the like may be used.
  • AI artificial intelligence
  • deep learning using a neural network such as CNN (Convolution Neural Network) or RNN (Recurrent Neural Network) may be applied to the recognition process by AI.
  • the recognition processing unit 1005 may execute a part of the recognition processing and output the result (intermediate data or the like).
  • the interface unit 1006 outputs the recognition result (including intermediate data and the like) obtained by the recognition processing unit 1005 and the image data acquired by the RGB sensor unit 1001 and / or the EVS sensor unit 1003 to an external application processor 1100, for example. do.
  • the event signal processing unit 1004 executes the area determination of the object with respect to the EVS image data, and the information such as the address for designating the region of interest (Region of Interest: ROI) obtained as a result (hereinafter, simply ROI). Information) may be input to the RGB sensor unit 1001 and / or the RGB image processing unit 1002.
  • the RGB sensor unit 1001 may operate so as to acquire RGB image data in a region corresponding to the ROI information input from the event signal processing unit 1004.
  • the RGB image processing unit 1002 may execute processing such as trimming of a region corresponding to the ROI information input from the event signal processing unit 1004 on the RGB image data input from the RGB sensor unit 1001.
  • FIG. 2 is a schematic diagram showing a schematic configuration example of an electronic device that realizes the recognition system according to the first embodiment
  • FIG. 3 is a schematic configuration of an electronic device that realizes the recognition system according to the first embodiment. It is a block diagram which shows an example.
  • the electronic device 1 includes a laser light source 1010, an irradiation lens 1030, an image pickup lens 1040, an image sensor 100, and a system control unit 1050.
  • the laser light source 1010 is composed of, for example, a vertical cavity type surface emitting laser (VCSEL) 1012 and a light source driving unit 1011 for driving the VCSEL 1012.
  • VCSEL vertical cavity type surface emitting laser
  • the present invention is not limited to VCSEL1012, and various light sources such as LEDs (Light Emitting Diode) may be used.
  • the laser light source 1010 may be any of a point light source, a surface light source, and a line light source.
  • the laser light source 1010 may include, for example, a configuration in which a plurality of point light sources (for example, VCSEL) are arranged one-dimensionally or two-dimensionally.
  • the laser light source 1010 may emit light having a wavelength band different from that of visible light, such as infrared (IR) light.
  • IR infrared
  • the irradiation lens 1030 is arranged on the emission surface side of the laser light source 1010, and converts the light emitted from the laser light source 1010 into irradiation light having a predetermined spread angle.
  • the image pickup lens 1040 is arranged on the light receiving surface side of the image sensor 100, and forms an image of incident light on the light receiving surface of the image sensor 100.
  • the incident light may also include reflected light emitted from the laser light source 1010 and reflected by the subject 901.
  • the image sensor 100 drives a light receiving unit 1022 in which RGB pixels and EVS pixels are arranged in a two-dimensional lattice, and an RGB image by driving the light receiving unit 1022. It is composed of a sensor control unit 1021 that generates data and event data.
  • the system control unit 1050 is configured by, for example, a processor (CPU), and drives the VCSEL 1012 via the light source drive unit 1011. Further, the system control unit 1050 acquires an RGB image by controlling the image sensor 100, and controls the image sensor 100 in synchronization with the control for the laser light source 1010 to emit / quench the laser light source 1010. Acquire the event data detected accordingly.
  • a processor CPU
  • the system control unit 1050 acquires an RGB image by controlling the image sensor 100, and controls the image sensor 100 in synchronization with the control for the laser light source 1010 to emit / quench the laser light source 1010. Acquire the event data detected accordingly.
  • the RGB sensor unit 1001 in FIG. 1 is configured by using the image sensor 100 and the system control unit 1050, and the EVS sensor unit 1003 uses the laser light source 1010, the image sensor 100, and the system control unit 1050. May be configured.
  • the RGB image processing unit 1002, the event signal processing unit 1004, and the recognition processing unit 1005 in FIG. 1 may be configured by using the image sensor 100 and / or the application processor 1100, respectively.
  • the irradiation light emitted from the laser light source 1010 is projected onto the subject (also referred to as a measurement object or object) 901 through the irradiation lens 1030.
  • This projected light is reflected by the subject 901.
  • the light reflected by the subject 901 passes through the image pickup lens 1040 and is incident on the image sensor 100.
  • the EVS sensor unit 1003 in the image sensor 100 receives the reflected light reflected by the subject 901 and generates event data, and generates EVS image data based on the generated event data.
  • the RGB sensor unit 1001 in the image sensor 100 receives, for example, visible light in the incident light and generates RGB image data.
  • the RGB image data and the EVS image data generated by the image sensor 100 are supplied to the application processor 1100 of the electronic device 1.
  • the application processor 1100 executes predetermined processing such as recognition processing on the RGB image data and the EVS image data input from the image sensor 100.
  • FIG. 4 is a block diagram showing a schematic configuration example of the image sensor according to the first embodiment.
  • the image sensor 100 includes, for example, a pixel array unit 101, a vertical drive circuit 102A, a horizontal drive circuit 102B, an X arbiter 104A, a Y arbiter 104B, and RGB signal processing. It includes a circuit 103A, an EVS signal processing circuit 103B, a system control circuit 105, an RGB data processing unit 108A, and an EVS data processing unit 108B.
  • the pixel array unit 101, the vertical drive circuit 102A, the horizontal drive circuit 102B, the RGB signal processing circuit 103A, and the system control circuit 105 constitute, for example, the RGB sensor unit 1001 in FIG. 1, and the pixel array unit 101, the vertical drive circuit 102A, and the like.
  • the horizontal drive circuit 102B, the X arbiter 104A, the Y arbiter 104B, the EVS signal processing circuit 103B, the horizontal drive circuit 102B, and the system control circuit 105 constitute, for example, the EVS sensor unit 1003 in FIG.
  • the RGB signal processing circuit 103A and the RGB data processing unit 108A constitute, for example, the RGB image processing unit 1002 in FIG.
  • the recognition processing unit 1005 in FIG. 1 may be realized by the application processor 1100 alone, or may be realized by linking the RGB data processing unit 108A and the EVS data processing unit 108B with the application processor 1100. , RGB data processing unit 108A and EVS data processing unit 108B may be linked.
  • the pixel array unit 101 has a configuration in which unit pixels 110 are arranged in a row direction and a column direction, that is, in a two-dimensional grid pattern (also referred to as a matrix pattern).
  • the row direction means the arrangement direction of the pixels in the pixel row (in the drawing, the horizontal direction)
  • the column direction means the arrangement direction of the pixels in the pixel row (in the drawing, the vertical direction).
  • Each unit pixel 110 includes an RGB pixel 10 and an EVS pixel 20.
  • the RGB pixel 10 and the EVS pixel 20 may be simply referred to as pixels, respectively.
  • the specific circuit configuration and pixel structure of the unit pixel 110 will be described later, but the RGB pixel 10 includes a photoelectric conversion element that generates and stores charges according to the amount of received light, and has a voltage corresponding to the amount of incident light. Generates a pixel signal of.
  • the EVS pixel 20 includes a photoelectric conversion element that generates and stores an electric charge according to the amount of received light, like the RGB pixel 10, and detects the incident of light based on the photocurrent flowing out from the photoelectric conversion element.
  • a request requesting reading from itself is output to the X arbiter 104A and the Y arbiter 104B, and a signal (also referred to as event data) indicating that an event has been detected is output according to the arbitration by the X arbiter 104A and the Y arbiter 104B. ..
  • This event data may be given a time stamp indicating the time when the event was detected.
  • the pixel drive lines LD1 and LD2 are wired along the row direction for each pixel row with respect to the matrix-shaped pixel array, and the vertical signal lines VSL1 and VSL2 are wired along the column direction for each pixel row.
  • the pixel drive line LD1 is connected to the RGB pixel 10 of each line
  • the pixel drive line LD2 is connected to the EVS pixel 20 of each line.
  • the vertical signal line VSL1 is connected to the RGB pixels 10 in each row
  • the vertical signal line VSL2 is connected to the EVS pixels 20 in each row.
  • the present invention is not limited to this, and the pixel drive lines LD1 and LD2 may be wired so as to be orthogonal to each other.
  • the vertical signal lines VSL1 and VSL2 may be wired so as to be orthogonal to each other.
  • the pixel drive line LD1 may be wired in the row direction
  • the pixel drive line LD2 may be wired in the column direction
  • the vertical signal line VSL1 may be wired in the column direction
  • the vertical signal line VSL2 may be wired in the row direction.
  • the pixel drive line LD1 transmits a control signal for driving when reading a pixel signal from the RGB pixel 10.
  • the pixel drive line LD2 transmits a control signal for making the EVS pixel 20 an active state capable of detecting an event.
  • the pixel drive lines LD1 and LD2 are shown as one wiring each, but the wiring is not limited to one.
  • One end of each of the pixel drive line LD1 and the pixel drive line LD2 is connected to an output end corresponding to each line of the vertical drive circuit 102A.
  • RGB pixel 10 Drive configuration of RGB pixels
  • Each RGB pixel 10 will be described in detail later, but a photoelectric conversion unit that photoelectrically converts incident light to generate an electric charge and a pixel signal having a voltage value corresponding to the amount of electric charge generated in the photoelectric conversion unit are generated.
  • a pixel circuit is provided, and a pixel signal appears on the vertical signal line VSL1 under the control of the vertical drive circuit 102A.
  • the vertical drive circuit 102A is composed of a shift register, an address decoder, and the like, and drives the RGB pixels 10 of the pixel array unit 101 simultaneously for all pixels or in line units. That is, the vertical drive circuit 102A constitutes a drive unit that controls the operation of each RGB pixel 10 of the pixel array unit 101 together with the system control circuit 105 that controls the vertical drive circuit 102A. Although the specific configuration of the vertical drive circuit 102A is not shown, it generally includes two scanning systems, a read scanning system and a sweep scanning system.
  • the read scanning system selectively scans each pixel of the pixel array unit 101 row by row in order to read a signal from each pixel.
  • the pixel signal read from each pixel is an analog signal.
  • the sweep scan system performs sweep scan for the read row on which read scan is performed by the read scan system, ahead of the read scan by the exposure time.
  • the photoelectric conversion element is reset by sweeping out unnecessary charges from the photoelectric conversion element of each pixel in the read row. Then, by sweeping out (resetting) unnecessary charges with this sweeping scanning system, a so-called electronic shutter operation is performed.
  • the electronic shutter operation refers to an operation in which the electric charge of the photoelectric conversion element is discarded and a new exposure is started (charge accumulation is started).
  • the signal read by the read operation by the read scanning system corresponds to the amount of light received after the read operation or the electronic shutter operation immediately before that.
  • the period from the read timing by the immediately preceding read operation or the sweep timing by the electronic shutter operation to the read timing by the current read operation is the charge accumulation period (also referred to as an exposure period) in each pixel.
  • the pixel signal output from each RGB pixel 10 in the pixel row selectively scanned by the vertical drive circuit 102A is input to the RGB signal processing circuit 103A through each of the vertical signal lines VSL1 for each pixel column.
  • the RGB signal processing circuit 103A performs predetermined signal processing on the pixel signal output from each RGB pixel 10 in the selected row through the vertical signal line VSL1 for each pixel row of the pixel array unit 101, and after the signal processing, the pixel signal is processed. Temporarily holds the pixel signal.
  • the RGB signal processing circuit 103A performs at least noise reduction processing, for example, CDS (Correlated Double Sampling) processing and DDS (Double Data Sampling) processing as signal processing.
  • CDS Correlated Double Sampling
  • DDS Double Data Sampling
  • the CDS process removes pixel-specific fixed pattern noise such as reset noise and threshold variation of the amplification transistor in the pixel.
  • the RGB signal processing circuit 103A also has, for example, an AD (analog-digital) conversion function, and converts an analog pixel signal read from a photoelectric conversion element into a digital signal and outputs the signal.
  • AD analog-digital
  • the horizontal drive circuit 102B is composed of a shift register, an address decoder, etc., and sequentially selects a read circuit (hereinafter referred to as a pixel circuit) corresponding to the pixel sequence of the RGB signal processing circuit 103A.
  • a read circuit hereinafter referred to as a pixel circuit
  • the pixel signals that have been signal-processed for each pixel circuit in the RGB signal processing circuit 103A are sequentially output.
  • Each EVS pixel 20 detects the presence or absence of an event depending on whether or not a change exceeding a predetermined threshold value has occurred in the photocurrent corresponding to the brightness of the incident light. For example, each EVS pixel 20 detects that the change in luminance exceeds or falls below a predetermined threshold value as an event.
  • the EVS pixel 20 When the EVS pixel 20 detects an event, it outputs a request for permission to output event data indicating the occurrence of the event to the X arbiter 104A and the Y arbiter 104B, respectively. Then, when the EVS pixel 20 receives a response indicating permission to output the event data from each of the X arbiter 104A and the Y arbiter 104B, the EVS pixel 20 outputs the event data to the vertical drive circuit 102A and the EVS signal processing circuit 103B.
  • the EVS pixel 20 that has detected the event outputs the analog pixel signal generated by the photoelectric conversion to the EVS signal processing circuit 103B. That is, as a result of arbitration by the X arbiter 104A and the Y arbiter 104B, the EVS pixel 20 permitted to be read requests its own drive from the vertical drive circuit 102A. On the other hand, the vertical drive circuit 102A drives the EVS pixel 20 whose reading is permitted by arbitration to cause a pixel signal to appear on the vertical signal line VSL2 connected to the EVS pixel 20.
  • the X-arbiter 104A arbitrates a request for output of event data supplied from each of the plurality of EVS pixels 20, and performs a response based on the arbitration result (permission / disapproval of output of event data) and event detection.
  • the reset signal to be reset is transmitted to the EVS pixel 20 that outputs the request.
  • the EVS signal processing circuit 103B has an AD conversion function, and converts an analog pixel signal read from a photoelectric conversion unit into a digital signal and outputs the signal. Further, the EVS signal processing circuit 103B may have a noise reduction function such as CDS processing or DDS processing, as in the RGB signal processing circuit 103A.
  • the EVS signal processing circuit 103B executes predetermined signal processing on the digital pixel signal obtained by AD conversion and the event data input from the EVS pixel 20, and the event data and the pixel signal after the signal processing. Is output.
  • the change in the photocurrent generated by the EVS pixel 20 can also be regarded as the change in the amount of light (change in brightness) of the light incident on the photoelectric conversion unit of the EVS pixel 20. Therefore, it can be said that the event is a change in the amount of light (change in brightness) of the EVS pixel 20 that exceeds a predetermined threshold value.
  • the event data representing the occurrence of an event includes at least position information such as coordinates representing the position of the EVS pixel 20 in which the change in the amount of light as an event has occurred. In addition to the position information, the event data can include the polarity of the change in the amount of light.
  • the event data is the relative time when the event occurred. It can be said that the time information representing the above is implicitly included.
  • the EVS signal processing circuit 103B includes time information indicating a relative time when an event such as a time stamp occurs in the event data before the interval between the event data is not maintained as it was when the event occurred. May be good.
  • the system control circuit 105 is configured by a timing generator or the like that generates various timing signals, and based on the various timings generated by the timing generator, the vertical drive circuit 102A, the horizontal drive circuit 102B, the X arbiter 104A, and the Y arbiter. Drive control of 104B, RGB signal processing circuit 103A, EVS signal processing circuit 103B, and the like is performed.
  • Each of the RGB data processing unit 108A and the EVS data processing unit 108B has at least an arithmetic processing function, and various signal processing such as arithmetic processing for the image signal output from the RGB signal processing circuit 103A or the EVS signal processing circuit 103B. I do.
  • the image data output from the RGB data processing unit 108A or the EVS data processing unit 108B is executed by, for example, the application processor 1100 in the electronic device 1 equipped with the image sensor 100, or is executed via a predetermined network. It may be sent to the outside.
  • the image sensor 100 includes data required for signal processing in the RGB data processing unit 108A and the EVS data processing unit 108B, the RGB signal processing circuit 103A, the EVS signal processing circuit 103B, the RGB data processing unit 108A, and the EVS data processing unit.
  • a storage unit for temporarily holding data or the like processed by any one or more of 108B may be provided.
  • unit pixel 110 includes an RGB pixel 10 for acquiring an RGB image of the three primary colors of RGB and an EVS pixel 20 for detecting an event will be given as an example.
  • the reference numeral is 31.
  • FIG. 5 is a schematic diagram showing a schematic configuration example of the pixel array unit according to the first embodiment.
  • unit pixels 110 having a structure in which unit pixels 110 composed of RGB pixels 10 and EVS pixels 20 are arranged along the incident direction of light are arranged in a two-dimensional grid pattern. It has a configuration. That is, in the present embodiment, the RGB pixels 10 and the EVS pixels 20 are located in the direction perpendicular to the arrangement direction (planar direction) of the unit pixels 110, and the RGB pixels 10 are located on the upstream side in the optical path of the incident light.
  • the light transmitted through the RGB pixels 10 is configured to enter the EVS pixels 20 located on the downstream side of the RGB pixels 10.
  • the photoelectric conversion unit PD2 of the EVS pixel 20 is arranged on the surface side opposite to the incident surface of the incident light in the photoelectric conversion unit PD1 of the RGB pixel 10.
  • the optical axes of the incident light of the RGB pixels 10 and the EVS pixels 20 arranged along the incident direction of the light are aligned or substantially the same.
  • the photoelectric conversion unit PD1 constituting the RGB pixel 10 is composed of an organic material and the photoelectric conversion unit PD2 constituting the EVS pixel 20 is composed of a semiconductor material such as silicon will be exemplified.
  • both the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2 may be made of a semiconductor material, or both the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2 may be made of an organic material, or the photoelectric conversion unit may be made of an organic material.
  • the part PD1 may be made of a semiconductor material, and the photoelectric conversion part PD2 may be made of an organic material.
  • at least one of the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2 may be made of a photoelectric conversion material different from the organic material and the semiconductor material.
  • FIG. 6 is a circuit diagram showing a schematic configuration example of a unit pixel according to the first embodiment.
  • the unit pixel 110 includes one RGB pixel 10 and one EVS pixel 20.
  • the RGB pixel 10 includes, for example, a photoelectric conversion unit PD1, a transfer gate 11, a floating diffusion region FD, a reset transistor 12, an amplification transistor 13, and a selection transistor 14.
  • the selection control line included in the pixel drive line LD1 is connected to the gate of the selection transistor 14, and the reset control line included in the pixel drive line LD1 is connected to the gate of the reset transistor 12, which will be described later.
  • a transfer control line included in the pixel drive line LD1 is connected to the storage electrode (see the storage electrode 37 in FIG. 8 described later).
  • a vertical signal line VSL1 having one end connected to the RGB signal processing circuit 103A is connected to the drain of the amplification transistor 13 via the selection transistor 14.
  • the reset transistor 12, the amplification transistor 13, and the selection transistor 14 are collectively referred to as a pixel circuit.
  • the pixel circuit may include a stray diffusion region FD and / or a transfer gate 11.
  • the photoelectric conversion unit PD1 is made of, for example, an organic material, and performs photoelectric conversion of incident light.
  • the transfer gate 11 transfers the electric charge generated in the photoelectric conversion unit PD1.
  • the floating diffusion region FD accumulates the electric charge transferred by the transfer gate 11.
  • the amplification transistor 13 causes a pixel signal having a voltage value corresponding to the electric charge accumulated in the stray diffusion region FD to appear on the vertical signal line VSL1.
  • the reset transistor 12 emits the electric charge accumulated in the stray diffusion region FD.
  • the selection transistor 14 selects the RGB pixel 10 to be read.
  • the anode of the photoelectric conversion unit PD1 is grounded, and the cascade is connected to the transfer gate 11.
  • the details of the transfer gate 11 will be described later with reference to FIG. 8, but the transfer gate 11 includes, for example, a storage electrode 37 and a read electrode 36.
  • a voltage for collecting the electric charge generated in the photoelectric conversion unit PD1 in the semiconductor layer 35 in the vicinity of the storage electrode 37 is applied to the storage electrode 37 via the transfer control line.
  • a voltage for causing the electric charge collected in the semiconductor layer 35 in the vicinity of the storage electrode 37 to flow out through the reading electrode 36 is applied to the storage electrode 37 via the transfer control line.
  • the electric charge flowing out through the read electrode 36 is accumulated in the floating diffusion region FD configured by the wiring structure connecting the read electrode 36, the source of the reset transistor 12, and the gate of the amplification transistor 13.
  • the drain of the reset transistor 12 may be connected to, for example, a power supply line to which a reset voltage lower than the power supply voltage VDD or the power supply voltage VDD is supplied.
  • the source of the amplification transistor 13 may be connected to the power line via, for example, a constant current circuit (not shown).
  • the drain of the amplification transistor 13 is connected to the source of the selection transistor 14, and the drain of the selection transistor 14 is connected to the vertical signal line VSL1.
  • the floating diffusion region FD converts the accumulated electric charge into a voltage having a voltage value corresponding to the amount of the electric charge.
  • the floating diffusion region FD may be, for example, a grounding capacitance.
  • the present invention is not limited to this, and the floating diffusion region FD is added by intentionally connecting a capacitor or the like to a node to which the drain of the transfer gate 11 and the source of the reset transistor 12 and the gate of the amplification transistor 13 are connected. It may be a capacity or the like.
  • the vertical signal line VSL1 is connected to an AD (Analog-to-Digital) conversion circuit 103a provided for each column (that is, for each vertical signal line VSL1) in the RGB signal processing circuit 103A.
  • the AD conversion circuit 103a includes, for example, a comparator and a counter, and has a reference voltage such as a single slope or a lamp shape input from an external reference voltage generation circuit (DAC (Digital-to-Analog Converter)) and a vertical signal. By comparing with the pixel signal appearing on the line VSL1, the analog pixel signal is converted into the digital pixel signal.
  • the AD conversion circuit 103a may be provided with, for example, a CDS (Correlated Double Sampling) circuit and may be configured to be able to reduce kTC noise and the like.
  • the EVS pixel 20 includes, for example, a photoelectric conversion unit PD2 and an address event detection circuit 210.
  • the photoelectric conversion unit PD2 is composed of, for example, a semiconductor material, and performs photoelectric conversion of incident light.
  • the detailed circuit configuration of the address event detection circuit 210 will be described later. As described above, the presence or absence of an event is detected based on the change in the photocurrent flowing out from the photoelectric conversion unit PD2, and when the event is detected, the event is detected. A request requesting permission to output event data indicating the occurrence is output to the X arbiter 104A and the Y arbiter 104B, respectively.
  • the address event detection circuit 210 receives a response indicating permission to output the event data from each of the X arbiter 104A and the Y arbiter 104B, the address event detection circuit 210 outputs the event data to the vertical drive circuit 102A and the EVS signal processing circuit 103B.
  • the address event detection circuit 210 may include time information representing a relative time when an event such as a time stamp occurs with respect to the event data.
  • the vertical signal line VSL2 is connected to the signal processing circuit 103b provided for each column (that is, for each vertical signal line VSL2) in the EVS signal processing circuit 103B.
  • FIG. 7 is a circuit diagram showing a schematic configuration example of a unit pixel according to a modification of the first embodiment.
  • the unit pixel 110-1 has a structure in which the RGB pixel 10 and the EVS pixel 20 are connected to a common vertical signal line VSL in the same configuration as the unit pixel 110 shown in FIG.
  • the vertical signal line VSL is branched in the peripheral circuit, for example, and is connected to the AD conversion circuit 103a of the RGB signal processing circuit 103A or the signal processing circuit 103b of the EVS signal processing circuit 103B via the switch circuit 131 or 132.
  • the switch circuit 131 may have a configuration included in, for example, the RGB signal processing circuit 103A or the EVS signal processing circuit 103B. Further, the switch circuit 131 may be provided, for example, on the same semiconductor substrate as the pixel circuit of the RGB pixel 10 and / or the EVS pixel 20, or may be provided on the semiconductor substrate in which the signal processing circuit is arranged. It may be provided on a semiconductor substrate different from these. Further, the control signal for controlling the switch circuit 131 may be supplied from the vertical drive circuit 102A or the horizontal drive circuit 102B, may be supplied from the sensor control unit 1021 (see FIG. 3), or may be supplied from other configurations. It may be supplied.
  • the number of vertical signal line VSLs to be wired to the pixel array unit 101 can be reduced, thereby improving the quantum efficiency by expanding the light receiving area and improving the area efficiency of the image sensor 100. It is possible to reduce the size and increase the resolution.
  • FIG. 8 is a cross-sectional view showing an example of a cross-sectional structure of the image sensor according to the first embodiment.
  • FIG. 8 an example of the cross-sectional structure of the semiconductor chip in which the photoelectric conversion units PD1 and PD2 are formed in the unit pixel 110 will be described.
  • a so-called back-illuminated cross-sectional structure in which the incident surface of light is the back surface side (opposite the element forming surface) of the semiconductor substrate 50 is exemplified, but the present invention is not limited to this, and the incident surface of light is incident. It may have a so-called surface-illuminated cross-sectional structure in which the surface is the surface side (element forming surface side) of the semiconductor substrate 50.
  • the photoelectric conversion materials of the photoelectric conversion units PD1 and PD2 are organic materials and semiconductors. One or both of the materials (also referred to as inorganic materials) may be used.
  • the image sensor 100 uses the same semiconductor substrate 50 for the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2. It may have a built-in cross-sectional structure, or it may have a cross-sectional structure in which a semiconductor substrate in which the photoelectric conversion unit PD1 is built and a semiconductor substrate in which the photoelectric conversion unit PD2 is built are bonded together. Further, one of the photoelectric conversion units PD1 and PD2 may have a cross-sectional structure formed in the semiconductor substrate 50 and the other in the semiconductor layer formed on the back surface or the front surface of the semiconductor substrate 50. ..
  • the photoelectric conversion unit PD2 of the EVS pixel 20 is formed on the semiconductor substrate 50, and the RGB pixel 10 is formed on the back surface side (opposite the element forming surface) of the semiconductor substrate 50. It has a structure provided with the photoelectric conversion unit PD1 of the above.
  • the back surface of the semiconductor substrate 50 is located on the upper side of the paper surface, and the front surface is located on the lower side.
  • a semiconductor material such as silicon (Si) may be used.
  • Si silicon
  • the present invention is not limited to this, and various semiconductor materials including compound semiconductors such as GaAs, InGaAs, InP, AlGaAs, InGaP, AlGaInP, and InGaAsP may be used.
  • the photoelectric conversion unit PD1 of the RGB pixel 10 is provided on the back surface side of the semiconductor substrate 50 with the insulating layer 53 interposed therebetween.
  • the photoelectric conversion unit PD1 includes, for example, a photoelectric conversion film 34 made of an organic material, a transparent electrode 33 arranged so as to sandwich the photoelectric conversion film 34, and a semiconductor layer 35.
  • the transparent electrode 33 provided on the upper side of the paper surface with respect to the photoelectric conversion film 34 (hereinafter, the upper side of the paper surface is the upper surface side and the lower side is the lower surface side) functions as, for example, the anode of the photoelectric conversion unit PD1.
  • the semiconductor layer 35 provided on the lower surface side functions as a cathode of the photoelectric conversion unit PD1.
  • the semiconductor layer 35 that functions as a cathode is electrically connected to the readout electrode 36 formed in the insulating layer 53.
  • the readout electrode 36 is electrically drawn out to the surface (lower surface) side of the semiconductor substrate 50 by connecting to the wirings 61, 62, 63, and 64 penetrating the insulating layer 53 and the semiconductor substrate 50.
  • the wiring 64 is electrically connected to the floating diffusion region FD shown in FIG.
  • a storage electrode 37 is provided on the lower surface side of the semiconductor layer 35 that functions as a cathode with an insulating layer 53 interposed therebetween. Although not shown in FIG. 8, the storage electrode 37 is connected to the transfer control line in the pixel drive line LD1, and as described above, the charge generated in the photoelectric conversion unit PD1 at the time of exposure is stored in the storage electrode 37. A voltage for collecting the electric charge is applied to the semiconductor layer 35 in the vicinity, and at the time of reading, a voltage is applied for causing the electric charge collected in the semiconductor layer 35 in the vicinity of the storage electrode 37 to flow out through the reading electrode 36.
  • the readout electrode 36 and the storage electrode 37 may be a transparent conductive film like the transparent electrode 33.
  • a transparent conductive film such as indium tin oxide (ITO) or zinc oxide (IZO) may be used.
  • ITO indium tin oxide
  • IZO zinc oxide
  • the present invention is not limited to these, and various conductive films may be used as long as the conductive film can transmit light in the wavelength band to be detected by the photoelectric conversion unit PD2.
  • the semiconductor layer 35 for example, a transparent semiconductor layer such as IGZO may be used.
  • IGZO a transparent semiconductor layer
  • the present invention is not limited to these, and various semiconductor layers may be used as long as they are semiconductor layers capable of transmitting light in the wavelength band to be detected by the photoelectric conversion unit PD2.
  • an insulating film such as a silicon oxide film (SiO 2 ) or a silicon nitride film (SiN) may be used.
  • SiO 2 silicon oxide film
  • SiN silicon nitride film
  • the present invention is not limited to these, and various insulating films may be used as long as they can transmit light in the wavelength band to be detected by the photoelectric conversion unit PD2.
  • a color filter 31 is provided on the upper surface side of the transparent electrode 33 that functions as an anode with a sealing film 32 interposed therebetween.
  • the sealing film 32 is made of an insulating material such as silicon nitride (SiN), and these atoms are prevented from diffusing atoms such as aluminum (Al) and titanium (Ti) from the transparent electrode 33. May include.
  • the color filters 31 will be described later. For example, for one RGB pixel 10, a color filter 31 that selectively transmits light having a specific wavelength component is provided. However, when a monochrome pixel for acquiring luminance information is provided instead of the RGB pixel 10 for acquiring color information, the color filter 31 may be omitted.
  • the photoelectric conversion unit PD2 of the EVS pixel 20 has, for example, a p-type semiconductor region 43 formed in the p-well region 42 of the semiconductor substrate 50 and an n-type semiconductor region 44 formed near the center of the p-type semiconductor region 43. Be prepared.
  • the n-type semiconductor region 44 functions as, for example, a photoelectric conversion region that generates an electric charge according to the amount of incident light, and the p-type semiconductor region 43 collects the electric charge generated by the photoelectric conversion in the n-type semiconductor region 44. Functions as a region that forms the potential gradient of.
  • an IR filter 41 that selectively transmits IR light is arranged on the light incident surface side of the photoelectric conversion unit PD2.
  • the IR filter 41 may be arranged, for example, in the insulating layer 53 provided on the back surface side of the semiconductor substrate 50.
  • a fine uneven structure is provided on the light incident surface of the semiconductor substrate 50 in order to suppress the reflection of the incident light (IR light in this example).
  • This uneven structure may be a so-called moth-eye structure, or may be a uneven structure having a different size and pitch from the moth-eye structure.
  • a vertical transistor 45 is provided on the surface (inner and lower surface of the paper surface) side of the semiconductor substrate 50, that is, on the element forming surface side, to allow the electric charge generated in the photoelectric conversion unit PD2 to flow out to the address event detection circuit 210.
  • the gate electrode of the vertical transistor 45 reaches from the surface of the semiconductor substrate 50 to the n-type semiconductor region 44, and is a part of the wirings 65 and 66 (a part of the transfer control line of the pixel drive line LD2) formed in the interlayer insulating film 56. ) Is connected to the address event detection circuit 210.
  • the semiconductor substrate 50 is provided with a pixel separation unit 54 that electrically separates between a plurality of unit pixels 110, and a photoelectric conversion unit PD2 is provided in each region partitioned by the pixel separation unit 54. ..
  • the pixel separation unit 54 has, for example, a grid shape interposed between a plurality of unit pixels 110, and each photoelectric.
  • the conversion unit PD2 is formed in each region partitioned by the pixel separation unit 54.
  • a reflective film that reflects light such as tungsten (W) or aluminum (Al) may be used.
  • the incident light that has entered the photoelectric conversion unit PD2 can be reflected by the pixel separation unit 54, so that the optical path length of the incident light in the photoelectric conversion unit PD2 can be lengthened.
  • the pixel separation unit 54 by forming the pixel separation unit 54 with a light reflection structure, it is possible to reduce leakage of light to adjacent pixels, so that it is possible to further improve image quality, distance measurement accuracy, and the like.
  • the configuration in which the pixel separation unit 54 has a light reflection structure is not limited to the configuration using a reflective film, and can be realized, for example, by using a material having a refractive index different from that of the semiconductor substrate 50 for the pixel separation unit 54. can.
  • a fixed charge film 55 is provided between the semiconductor substrate 50 and the pixel separation unit 54.
  • the fixed charge film 55 uses, for example, a high dielectric having a negative fixed charge so that a positive charge (hole) storage region is formed at the interface with the semiconductor substrate 50 and the generation of dark current is suppressed. It is formed. Since the fixed charge film 55 is formed so as to have a negative fixed charge, an electric field is applied to the interface with the semiconductor substrate 138 due to the negative fixed charge, and a positive charge (hole) storage region is formed.
  • the fixed charge film 55 can be formed of, for example, a hafnium oxide film (HfO 2 film). Further, the fixed charge film 55 can be formed so as to contain at least one of other oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and lanthanoid element.
  • hafnium oxide film HfO 2 film
  • other oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and lanthanoid element.
  • FIG. 8 illustrates a case where the pixel separating portion 54 has a so-called FTI (Full Trench Isolation) structure in which the pixel separating portion 54 reaches from the front surface to the back surface of the semiconductor substrate 50, but the present invention is not limited to this, and for example, pixels. It is possible to adopt various element separation structures such as a so-called DTI (Deep Trench Isolation) structure in which the separation portion 54 is formed from the back surface or the front surface of the semiconductor substrate 50 to the vicinity of the middle part of the semiconductor substrate 50.
  • FTI Frull Trench Isolation
  • the upper surface of the flattening film 52 is flattened by, for example, CMP (Chemical Mechanical Polishing), and an on-chip lens 51 for each unit pixel 110 is provided on the flattened upper surface.
  • the on-chip lens 51 of each unit pixel 110 has a curvature that collects incident light on the photoelectric conversion units PD1 and PD2.
  • the positional relationship between the on-chip lens 51, the color filter 31, the IR filter 41, and the photoelectric conversion unit PD2 in each unit pixel 110 is adjusted according to, for example, the distance (image height) from the center of the pixel array unit 101. May (pupil correction).
  • a light-shielding film may be provided to prevent light incident obliquely from leaking to adjacent pixels.
  • the light-shielding film may be located above the pixel separation portion 54 provided inside the semiconductor substrate 50 (upstream side in the optical path of the incident light).
  • the position of the light-shielding film may be adjusted according to, for example, the distance (image height) from the center of the pixel array unit 101.
  • Such a light-shielding film may be provided in, for example, the sealing film 32 or the flattening film 52.
  • a light-shielding material such as aluminum (Al) or tungsten (W) may be used as the material of the light-shielding film.
  • the layer structure of the photoelectric conversion film 34 can have the following structure. However, in the case of a laminated structure, the stacking order can be changed as appropriate.
  • n-type organic semiconductor examples include fullerenes and fullerene derivatives (for example, fullerenes such as C60, C70 and C74 (higher-order fullerenes, encapsulated fullerenes, etc.) or fullerenes derivatives (eg, fullerene fluorides, PCBM fullerene compounds, fullerene multimers, etc.).
  • fullerenes and fullerene derivatives for example, fullerenes such as C60, C70 and C74 (higher-order fullerenes, encapsulated fullerenes, etc.) or fullerenes derivatives (eg, fullerene fluorides, PCBM fullerene compounds, fullerene multimers, etc.).
  • fullerenes and fullerene derivatives for example, fullerenes such as C60, C70 and C74 (higher-order fullerenes, encapsulated fullerenes, etc.) or fuller
  • n-type organic semiconductor examples include heterocyclic compounds containing a nitrogen atom, an oxygen atom, and a sulfur atom, such as a pyridine derivative, a pyrazine derivative, a pyrimidine derivative, a triazine derivative, a quinoline derivative, a quinoxalin derivative, an isoquinolin derivative, and an acridin.
  • Derivatives phenazine derivatives, phenanthroline derivatives, tetrazole derivatives, pyrazole derivatives, imidazole derivatives, thiazole derivatives, oxazole derivatives, imidazole derivatives, benzimidazole derivatives, benzotriazole derivatives, benzoxazole derivatives, benzoxazole derivatives, carbazole derivatives, benzofuran derivatives, dibenzofuran derivatives , Subporphyrazine derivative, polyphenylene vinylene derivative, polybenzothianazole derivative, polyfluorene derivative and the like as a part of the molecular skeleton, organic molecule, organic metal complex and subphthalocyanine derivative can be mentioned.
  • Examples of the group contained in the fullerene derivative include a halogen atom; a linear, branched or cyclic alkyl group or phenyl group; a group having a linear or condensed aromatic compound; a group having a halide; a partial fluoroalkyl group; Fluoroalkyl group; silylalkyl group; silylalkoxy group; arylsilyl group;arylsulfanyl group;alkylsulfanyl group;arylsulfonyl group;alkylsulfonyl group;arylsulfide group;alkylsulfide group;amino group;alkylamino group;arylamino group Hydroxy group; alkoxy group; acylamino group; acyloxy group; carbonyl group; carboxy group; carboxoamide group; carboalkoxy group; acyl group; sulfonyl group; cyano group; nitro group; group having
  • the film thickness of the photoelectric conversion film 34 made of the above organic materials is not limited to the following values, but is, for example, 1 ⁇ 10-8 m (meters) to 5 ⁇ 10-7 . m, preferably 2.5 ⁇ 10 -8 m to 3 ⁇ 10 -7 m, more preferably 2.5 ⁇ 10 -8 m to 2 ⁇ 10 -7 m, and even more preferably 1 ⁇ 10 -7 . M to 1.8 ⁇ 10-7 m can be exemplified.
  • Organic semiconductors are often classified into p-type and n-type, but p-type means that holes are easily transported, and n-type means that electrons are easily transported, and they are inorganic. It is not limited to the interpretation that it has holes or electrons as a majority carrier of thermal excitation like a semiconductor.
  • Examples of the material constituting the photoelectric conversion film 34 that photoelectrically converts light having a green wavelength include rhodamine-based dyes, melancyanine-based dyes, quinacridone derivatives, subphthalocyanine-based dyes (subphthalocyanine derivatives), and the like.
  • examples of the material constituting the photoelectric conversion film 34 for photoelectric conversion of blue light include coumalic acid dye, tris-8-hydroxyquinolialuminum (Alq3), and melanin-based dye.
  • examples of the material constituting the photoelectric conversion film 34 for photoelectric conversion of red light include a phthalocyanine dye and a subphthalocyanine dye (subphthalocyanine derivative).
  • the photoelectric conversion film 34 it is also possible to use a panchromatic photosensitive organic photoelectric conversion film that is sensitive to almost all visible light from the ultraviolet region to the red region.
  • FIGS. 9A and 9B are views showing a plane layout example of each layer of the pixel array portion according to the first embodiment
  • FIG. 9A shows a plane layout example of the on-chip lens 51
  • FIG. 9B shows a plane layout of the color filter 31.
  • a layout example is shown
  • (C) shows a plane layout example of the storage electrode 37
  • (D) shows a plane layout example of the photoelectric conversion unit PD2.
  • FIGS. 9A to 9D show an example of a planar layout of a surface parallel to the element forming surface of the semiconductor substrate 50.
  • a pixel that selectively detects the wavelength component of red (R) (hereinafter referred to as R pixel 10r) and a pixel that selectively detects the wavelength component of green (hereinafter referred to as G pixel 10g).
  • R pixel 10r a pixel that selectively detects the wavelength component of red
  • G pixel 10g a pixel that selectively detects the wavelength component of green
  • a 2 ⁇ 2 pixel Bayer array composed of a pixel (hereinafter referred to as B pixel 10b) that selectively detects light having a wavelength component of blue (B) is used as a unit array.
  • the on-chip lens 51, the color filter 31, the storage electrode 37, and the photoelectric conversion unit PD2 are provided for one unit pixel 110.
  • one storage electrode 37 corresponds to one RGB pixel 10
  • one photoelectric conversion unit PD2 corresponds to one EVS pixel 20.
  • the RGB pixel 10 and the EVS pixel 20 are coaxial with each other with respect to the incident light. Since it is possible to improve the property, it is possible to suppress the spatial deviation that occurs between the RGB image and the EVS image. Thereby, it is possible to improve the accuracy of the result obtained by processing the information (RGB image and EVS image) acquired by different sensors in an integrated manner.
  • FIG. 10 is a plan view showing a wiring example of a pixel drive line for an RGB pixel according to the first embodiment
  • FIG. 11 is a plan view showing a wiring example of a pixel drive line for an EVS pixel according to the first embodiment. It is a figure.
  • the pixel drive line LD1 for driving the RGB pixel 10 and the pixel drive line LD2 for driving the EVS pixel 20 may be wired so as to be orthogonal to each other, for example. ..
  • the present invention is not limited to this, and the RGB drive line LD1 and the IR drive line LD2 may be wired in parallel.
  • the pixel drive line LD1 and the pixel drive line LD2 may supply various control signals to the pixel array unit 101 from the same side or from different sides.
  • FIG. 12 is a plan view showing a wiring example of a signal line for the EVS pixel according to the first embodiment.
  • the X arbiter 104A is connected to the EVS pixel 20 in each column via, for example, a signal line extending in the column direction
  • the Y arbiter 104B is connected to, for example, a signal line extending in the row direction. It is connected to the EVS pixel 20 of each row via.
  • FIG. 13 is a diagram showing an example of a laminated structure of image sensors according to the first embodiment.
  • the image sensor 100 has a structure in which a pixel chip 140 and a circuit chip 150 are stacked one above the other.
  • the pixel chip 140 is, for example, a semiconductor chip including a pixel array unit 101 in which unit pixels 110 including RGB pixels 10 and EVS pixels 20 are arranged
  • the circuit chip 150 is, for example, the pixel circuit and address event detection shown in FIG. It is a semiconductor chip in which the circuit 210 is arranged.
  • the bonding between the pixel chip 140 and the circuit chip 150 for example, so-called direct bonding, in which each bonding surface is flattened and the two are bonded by an intramolecular force, can be used.
  • the present invention is not limited to this, and for example, so-called Cu-Cu bonding in which copper (Cu) electrode pads formed on the bonding surfaces of each other are bonded to each other, or other bump bonding or the like can be used. ..
  • connection portion such as a TSV (Through-Silicon Via) that penetrates the semiconductor substrate.
  • Connections using TSVs include, for example, a so-called twin TSV system in which two TSVs, a TSV provided on the pixel chip 140 and a TSV provided from the pixel chip 140 to the circuit chip 150, are connected on the outer surface of the chip, or a pixel.
  • a so-called shared TSV method or the like, in which both are connected by a TSV penetrating from the chip 140 to the circuit chip 150, can be adopted.
  • FIG. 14 is a flowchart showing an example of the recognition operation according to the first embodiment.
  • the system control unit 1050 drives the laser light source 1010 in a predetermined sampling cycle to emit the irradiation light of the predetermined sampling cycle to the laser light source 1010 (step S11).
  • the EVS sensor unit 1003 (see FIG. 1) in the image sensor 100 is driven in a predetermined sampling cycle in synchronization with the drive of the laser light source 1010 to acquire EVS image data in a predetermined sampling cycle (step). S12).
  • system control unit 1050 acquires RGB image data by driving the RGB sensor unit 1001 (see FIG. 1) in the image sensor 100 (step S13).
  • the acquisition of RGB image data may be executed in parallel with the acquisition of EVS image data, or may be executed in a period different from the acquisition period of EVS image data. At that time, either the acquisition of the RGB image data or the acquisition of the EVS image data may be executed first. Further, the acquisition of the RGB image data may be executed once for the acquisition of the EVS image data K times (K is an integer of 1 or more).
  • the RGB image data is input to the recognition processing unit 1005 after being subjected to predetermined processing by the RGB image processing unit 1002.
  • ROI information is input from the event signal processing unit 1004 in FIG. 1 to the RGB sensor unit 1001 or the RGB image processing unit 1002 in steps S11 or S12
  • the recognition processing unit 1005 has an area corresponding to the ROI information.
  • RGB image data and / or EVS image data may be input.
  • the recognition processing unit 1005 executes a recognition process (first recognition process) for an object existing within the angle of view of the image sensor 100 using the input RGB image data (step S14).
  • a recognition process such as pattern recognition, a recognition process by artificial intelligence, or the like may be used as in the first embodiment.
  • the recognition processing unit 1005 executes a recognition process (second recognition process) for more accurately recognizing an object existing in the angle of view using the result of the first recognition process and the EVS image data (second recognition process).
  • a recognition process such as pattern recognition, a recognition process by artificial intelligence, or the like may be used as in the first recognition process.
  • the recognition processing unit 1005 outputs the result of the second recognition processing obtained in step S15 to the outside via, for example, the interface unit 1006 (step S16).
  • the recognition processing unit 1005 may execute a part of the first recognition processing and output the result (intermediate data or the like) to the outside, or execute a part of the second recognition processing and the result (). Intermediate data, etc.) may be output.
  • step S17 determines whether or not to end this operation (step S17), and if it does not end (NO in step S17), returns to step S11. On the other hand, when terminating (YES in step S17), the recognition system 370 ends this operation.
  • the EVS pixel 20 has an event detection function for detecting that the change in luminance exceeds a predetermined threshold value as an event.
  • the EVS pixel 20 detects the presence or absence of an event depending on whether or not the amount of change in photocurrent exceeds a predetermined threshold value.
  • the event consists of, for example, an on-event indicating that the amount of change in photocurrent exceeds the upper limit threshold value and an off-event indicating that the amount of change has fallen below the lower limit threshold value.
  • the event data (event information) indicating the occurrence of an event is composed of, for example, one bit indicating an on-event detection result and one bit indicating an off-event detection result.
  • the EVS pixel 20 may be configured to have a function of detecting only on-events or a configuration having a function of detecting only off-events.
  • the address event detection circuit 210 of the EVS pixel 20-1 according to the circuit configuration example 1 includes a configuration in which on-event detection and off-event detection are performed in a time-division manner using one comparator.
  • FIG. 15 shows a circuit diagram of the EVS pixel 20 according to the circuit configuration example 1.
  • the EVS pixel 20 according to the circuit configuration example 1 includes a photoelectric conversion unit PD2 and an address event detection circuit 210, and the address event detection circuit 210 includes a light receiving circuit 212, a memory capacity 213, a comparator 214, a reset circuit 215, and an inverter 216. It also has a circuit configuration having an output circuit 217.
  • the EVS pixel 20 detects on-events and off-events under the control of the sensor control unit 1021.
  • the first electrode is connected to the input end of the light receiving circuit 212
  • the second electrode is connected to the ground node which is the reference potential node, and the incident light is photoelectrically converted. Then, a charge of an amount of charge corresponding to the intensity of light (amount of light) is generated. Further, the photoelectric conversion unit PD2 converts the generated charge into a photocurrent Iphoto .
  • the light receiving circuit 212 converts the photocurrent I photo according to the intensity (light amount) of light detected by the photoelectric conversion unit PD2 into a voltage V pr .
  • the relationship of the voltage V pr with respect to the intensity of light is usually a logarithmic relationship. That is, the light receiving circuit 212 converts the photocurrent I photo corresponding to the intensity of the light applied to the light receiving surface of the photoelectric conversion unit PD2 into a voltage V pr which is a logarithmic function.
  • the relationship between the photocurrent I photo and the voltage V pr is not limited to the logarithmic relationship.
  • the voltage V pr corresponding to the photocurrent I photo output from the light receiving circuit 212 becomes the inverting ( ⁇ ) input which is the first input of the comparator 214 as the voltage V diff after passing through the memory capacity 213.
  • the comparator 214 is usually composed of a differential pair transistor.
  • the comparator 214 uses the threshold voltage V b given from the sensor control unit 1021 as a second input, which is a non-inverting (+) input, and detects on-events and off-events in time division. Further, after the on event / off event is detected, the EVS pixel 20 is reset by the reset circuit 215.
  • the sensor control unit 1021 outputs a voltage V on at the stage of detecting an on-event, outputs a voltage V off at the stage of detecting an off-event, and outputs a voltage at the stage of resetting.
  • Output V reset is set to a value between the voltage V on and the voltage V off , preferably an intermediate value between the voltage V on and the voltage V off .
  • the "intermediate value” means that the value is not only a strictly intermediate value but also a substantially intermediate value, and the existence of various variations in design or manufacturing is permissible. Will be done.
  • the sensor control unit 1021 outputs an ON selection signal to the EVS pixel 20 at the stage of detecting an on event, outputs an OFF selection signal at the stage of detecting an off event, and performs a global reset at the stage of resetting. Output a signal (Global Reset).
  • the ON selection signal is given as a control signal to the selection switch SW on provided between the inverter 216 and the output circuit 217.
  • the OFF selection signal is given as a control signal to the selection switch SW off provided between the comparator 214 and the output circuit 217.
  • the comparator 214 compares the voltage V on and the voltage V diff , and when the voltage V diff exceeds the voltage V on , the amount of change in the optical current I photo exceeds the upper limit threshold value.
  • On-event information On indicating that effect is output as a comparison result.
  • the on-event information On is inverted by the inverter 216 and then supplied to the output circuit 217 through the selection switch SW on .
  • the comparator 214 compares the voltage V off and the voltage V diff , and when the voltage V diff falls below the voltage V off , the amount of change in the optical current I photo falls below the lower limit threshold value.
  • the off-event information Off indicating that effect is output as a comparison result.
  • the off-event information Off is supplied to the output circuit 217 through the selection switch SW off .
  • the reset circuit 215 has a reset switch SW RS , a 2-input OR circuit 2151, and a 2-input AND circuit 2152.
  • the reset switch SW RS is connected between the inverting (-) input terminal and the output terminal of the comparator 214, and is turned on (closed) to selectively switch between the inverting input terminal and the output terminal. Short circuit.
  • the OR circuit 2151 has two inputs, an on-event information On via the selection switch SW on and an off-event information Off via the selection switch SW off .
  • the AND circuit 2152 uses the output signal of the OR circuit 2151 as one input and the global reset signal given from the sensor control unit 1021 as the other input, and either on-event information On or off-event information Off is detected and is global.
  • the reset switch SW RS is turned on (closed).
  • the reset switch SW RS short-circuits between the inverting input terminal and the output terminal of the comparator 214, and performs a global reset for the EVS pixel 20. conduct.
  • the reset operation is performed only for the EVS pixel 20 in which the event is detected.
  • the output circuit 217 has a configuration including an off-event output transistor NM 1 , an on-event output transistor NM 2 , and a current source transistor NM 3 .
  • the off-event output transistor NM 1 has a memory (not shown) for holding the off-event information Off at its gate portion. This memory consists of the gate parasitic capacitance of the off-event output transistor NM 1 .
  • the on-event output transistor NM 2 has a memory (not shown) for holding the on-event information On at its gate portion.
  • This memory consists of the gate parasitic capacitance of the on-event output transistor NM 2 .
  • the off-event information Off held in the memory of the off-event output transistor NM 1 and the on-event information On held in the memory of the on-event output transistor NM 2 are transferred from the sensor control unit 1021 to the current source transistor NM.
  • the row selection signal is given to the gate electrode of 3
  • each pixel row of the pixel array unit 101 is transferred to the readout circuit 130 through the output line nRxOff and the output line nRxOn.
  • the read circuit 130 is, for example, a circuit provided in the EVS signal processing circuit 103B (see FIG. 4).
  • the EVS pixel 20 uses one comparator 214 to detect on-events and off-events in a time-division manner under the control of the sensor control unit 1021. It is configured to have an event detection function.
  • the address event detection circuit 210 of the EVS pixel 20-2 according to the circuit configuration example 2 is an example in which on-event detection and off-event detection are performed in parallel (simultaneously) using two comparators.
  • FIG. 16 shows a circuit diagram of the EVS pixel 20 according to the circuit configuration example 2.
  • the address event detection circuit 210 has a comparator 214A for detecting an on event and a comparator 214B for detecting an off event.
  • the on-event detection operation and the off-event detection operation can be executed in parallel. As a result, it is possible to realize a faster operation for detecting on-events and off-events.
  • the comparator 214A for on-event detection is usually composed of a differential pair transistor.
  • the voltage V diff corresponding to the optical current I photo is used as the non-inverting (+) input which is the first input, and the voltage V on as the threshold voltage V b is used as the inverting (-) input which is the second input.
  • On-event information On is output as a comparison result between the two.
  • the comparator 214B for off-event detection is also usually composed of a differential pair transistor.
  • the voltage V dim corresponding to the optical current I photo is used as the inverting input as the first input, and the voltage V off as the threshold voltage V b is used as the non-inverting input as the second input, and is turned off as a comparison result between the two.
  • Output event information Off is used in the comparator 214B.
  • a selection switch SW on is connected between the output terminal of the comparator 214A and the gate electrode of the on-event output transistor NM 2 of the output circuit 217.
  • a selection switch SW off is connected between the output terminal of the comparator 214B and the gate electrode of the off-event output transistor NM 1 of the output circuit 217. The selection switch SW on and the selection switch SW off are controlled on (closed) / off (open) by the sample signal output from the sensor control unit 1021.
  • the on-event information On which is the comparison result of the comparator 214A, is held in the memory of the gate portion of the on-event output transistor NM 2 via the selection switch SW on .
  • the memory for holding the on-event information On consists of the gate parasitic capacitance of the on-event output transistor NM 2 .
  • the off-event information Off which is the comparison result of the comparator 214B, is held in the memory of the gate portion of the off-event output transistor NM 1 via the selection switch SW off .
  • the memory for holding the off-event information Off consists of the gate parasitic capacitance of the off-event output transistor NM 1 .
  • the on-event information On held in the memory of the on-event output transistor NM 2 and the off-event information Off held in the memory of the off-event output transistor NM 1 are sent from the sensor control unit 1021 to the gate electrode of the current source transistor NM 3 .
  • each pixel row of the pixel array unit 101 is transferred to the read circuit 130 through the output line nRxOn and the output line nRxOff.
  • the EVS pixel 20 uses two comparators 214A and 214B, and under the control of the sensor control unit 1021, the on-event detection and the off-event detection are performed in parallel. It is configured to have an event detection function that is performed (at the same time).
  • the address event detection circuit 210 of the EVS pixel 20-3 according to the circuit configuration example 3 is an example of detecting only the on-event.
  • FIG. 17 shows a circuit diagram of the EVS pixel 20 according to the circuit configuration example 3.
  • the address event detection circuit 210 has one comparator 214.
  • the comparator 214 uses the voltage V diff corresponding to the optical current I photo as the inverting (-) input as the first input, and the voltage V on given as the threshold voltage V b by the sensor control unit 1021 as the second input non-inverting.
  • the on-event information On is output as a comparison result by inputting (+) and comparing the two.
  • the inverter 216 used in the circuit configuration example 1 see FIG. 17
  • the inverter 216 used in the circuit configuration example 1 see FIG. 17
  • the on-event information On which is the comparison result of the comparator 214, is held in the memory of the gate portion of the on-event output transistor NM 2 .
  • the memory for holding the on-event information On consists of the gate parasitic capacitance of the on-event output transistor NM 2 .
  • the on-event information On held in the memory of the on-event output transistor NM 2 is obtained for each pixel row of the pixel array unit 101 by giving a row selection signal from the sensor control unit 1021 to the gate electrode of the current source transistor NM 3 . , Transferred to the read circuit 130 through the output line nRxOn.
  • the EVS pixel 20 according to the circuit configuration example 3 has an event detection function that detects only the on-event information On under the control of the sensor control unit 1021 by using one comparator 214. It has become.
  • the address event detection circuit 210 of the EVS pixel 20-4 according to the circuit configuration example 4 is an example of detecting only the off event.
  • FIG. 18 shows a circuit diagram of the EVS pixel 20 according to the circuit configuration example 4.
  • the address event detection circuit 210 has one comparator 214.
  • the comparator 214 uses the voltage V diff corresponding to the optical current I photo as the inverting (-) input which is the first input, and the voltage V off given as the threshold voltage V b by the sensor control unit 1021 as the second input non-inverting.
  • the off-event information Off is output as a comparison result by inputting (+) and comparing the two.
  • a P-type transistor can be used as the differential pair transistor constituting the comparator 214.
  • the off-event information Off which is the comparison result of the comparator 214, is held in the memory of the gate portion of the off-event output transistor NM 1 .
  • the memory that holds the off-event information Off consists of the gate parasitic capacitance of the off-event output transistor NM 1 .
  • the off-event information Off held in the memory of the off-event output transistor NM 1 is obtained for each pixel row of the pixel array unit 101 by giving a row selection signal from the sensor control unit 1021 to the gate electrode of the current source transistor NM 3 . , Transferred to the read circuit 130 through the output line nRxOff.
  • the EVS pixel 20 has an event detection function of using one comparator 214 and detecting only the off-event information Off under the control of the sensor control unit 1021. It has become.
  • the reset switch SW RS is controlled by the output signal of the AND circuit 2152, but the reset switch SW RS may be directly controlled by the global reset signal.
  • the laser light source 1010 and the image sensor 100 By controlling the laser light source 1010 and the image sensor 100 in synchronization, it is possible to prevent other event information from being mixedly output in the event information caused by the movement of the subject.
  • the event information other than the event information caused by the movement of the subject for example, the event information caused by the change of the pattern projected on the subject or the background light can be exemplified.
  • the event information caused by the movement of the subject can be acquired more reliably and the event information can be obtained.
  • the application processor that processes the event it is possible to eliminate the process of separating the event information in the mixed state.
  • This synchronous control is performed by the light source driving unit 1011 and the sensor control unit 1021 under the control of the system control unit 1050 shown in FIGS. 2 and 3.
  • the first embodiment is a synchronization control example in the case where the EVS pixel 20 is a circuit configuration example 1 (that is, an example in which on-event and off-event are detected in time division using one comparator).
  • FIG. 19 shows a flowchart of the synchronization control process according to the first embodiment.
  • the sensor control unit 1021 globally resets the voltage V diff , which is the inverting input of the comparator 214, and sets the threshold voltage V b , which is the non-inverting input of the comparator 214, to the voltage V on for on-event detection (step S101). ).
  • the global reset of the voltage V diff may be performed after the event information is transferred to the read circuit 130. Further, the global reset of the voltage V diff is performed by turning on (closed) the reset switch SW RS in the reset circuit 215 shown in FIG. These points are the same in each of the examples described later.
  • the subject is irradiated with light in a predetermined pattern from the laser light source 1010, which is a light source unit (step S102).
  • the driving of the laser light source 1010 is performed by the light source driving unit 1011 under the control of the system control unit 1050. This point is the same in the examples described later.
  • the sensor control unit 1021 stores the on-event information On, which is the comparison result of the comparator 214, in the memory (step S103).
  • the memory for storing the on-event information On is the gate parasitic capacitance of the on-event output transistor NM 2 in the output circuit 217.
  • the sensor control unit 1021 sets the threshold voltage V b to the voltage V off for detecting an off event (step S104).
  • the light source driving unit 1011 ends the irradiation of the subject with light (step S105).
  • the sensor control unit 1021 stores the off-event information Off, which is the comparison result of the comparator 214, in the memory (step S106).
  • the memory for storing the off-event information Off is the gate parasitic capacitance of the off-event output transistor NM 1 in the output circuit 217.
  • the sensor control unit 1021 sequentially sets the on-event information On stored in the gate parasitic capacitance of the on-event output transistor NM 2 and the off-event information Off stored in the gate parasitic capacitance of the off-event output transistor NM 1 . Transfer to the readout circuit 130 (step S107).
  • step S108 determines whether or not to end this operation (step S108), and if it ends (YES in step S108), it ends a series of processes for synchronization control and does not end (step S108). NO in step S108), return to step S101, and execute the subsequent operations.
  • the second embodiment is a synchronization control example in the case where the EVS pixel 20 is a circuit configuration example 2 (that is, an example in which on-event and off-event are detected in parallel by using two comparators).
  • FIG. 20 shows a flowchart of the synchronization control process according to the second embodiment.
  • the sensor control unit 1021 globally resets the voltage V diff , which is the inverting input of the comparator 214 (step S121).
  • the light source driving unit 1011 irradiates the subject with light in a predetermined pattern from the laser light source 1010, which is the light source unit (step S122).
  • the sensor control unit 1021 stores the on-event information On, which is the comparison result of the comparator 214, in the memory (step S123).
  • the memory for storing the on-event information On is the gate parasitic capacitance of the on-event output transistor NM 2 in the output circuit 217.
  • the light source driving unit 1011 ends the irradiation of the subject with light (step S124).
  • the sensor control unit 1021 stores the off-event information Off, which is the comparison result of the comparator 214, in the memory (step S125).
  • the memory for storing the off-event information Off is the gate parasitic capacitance of the off-event output transistor NM 1 in the output circuit 217.
  • the sensor control unit 1021 sequentially sets the on-event information On stored in the gate parasitic capacitance of the on-event output transistor NM 2 and the off-event information Off stored in the gate parasitic capacitance of the off-event output transistor NM 1 . Transfer to the readout circuit 130 (step S126).
  • step S127 determines whether or not to end this operation (step S127), and if it ends (YES in step S127), it ends a series of processes for synchronization control and does not end (step S127). NO in step S127), return to step S121, and execute the subsequent operations.
  • Example 3 is a synchronization control example in the case where the EVS pixel 20 is a circuit configuration example 3 (that is, an example in which only one on-event is detected by using one comparator).
  • FIG. 21 shows a flowchart of the synchronization control process according to the third embodiment.
  • the sensor control unit 1021 globally resets the voltage V diff , which is the inverting input of the comparator 214 (step S141).
  • the light source driving unit 1011 irradiates the subject with light in a predetermined pattern from the laser light source 1010, which is the light source unit (step S142).
  • the sensor control unit 1021 stores the on-event information On, which is the comparison result of the comparator 214, in the memory (step S143).
  • the memory for storing the on-event information On is the gate parasitic capacitance of the on-event output transistor NM 2 in the output circuit 217.
  • the sensor control unit 1021 sequentially transfers the on-event information On stored in the gate parasitic capacitance of the on-event output transistor NM 2 to the reading circuit 130 (step S144).
  • step S145 determines whether or not to end this operation (step S145), and if it ends (YES in step S145), it ends a series of processes for synchronization control and does not end (step S145). NO in step S145), return to step S141, and execute the subsequent operations.
  • Example 4 is a synchronization control example in the case where the EVS pixel 20 is a circuit configuration example 4 (that is, an example in which only one off event is detected by using one comparator).
  • FIG. 22 shows a flowchart of the synchronization control process according to the fourth embodiment.
  • the sensor control unit 1021 globally resets the voltage V diff , which is the inverting input of the comparator 214 (step S161).
  • the light source driving unit 1011 irradiates the subject with light in a predetermined pattern from the laser light source 1010, which is the light source unit (step S162).
  • the sensor control unit 1021 turns on the reset switch SW RS (step S163).
  • the light source driving unit 1011 ends the irradiation of the subject with light (step S164).
  • the sensor control unit 1021 stores the off-event information Off, which is the comparison result of the comparator 214, in the memory (step S165).
  • the memory for storing the off-event information Off is the gate parasitic capacitance of the off-event output transistor NM 1 in the output circuit 217.
  • the sensor control unit 1021 sequentially transfers the off-event information Off stored in the gate parasitic capacitance of the off-event output transistor NM 1 to the reading circuit 130 (step S166).
  • step S167 determines whether or not to end this operation (step S167), and if it ends (YES in step S167), it ends a series of processes for synchronization control and does not end (step S167). NO in step S167), return to step S161, and execute the subsequent operations.
  • Example 5 a pixel arrangement example in which the ON pixel 20a and the OFF pixel 20b are mixed in the pixel array unit 101 is shown.
  • the "ON pixel 20a” is the EVS pixel 20 according to the circuit configuration example 3, that is, the first pixel having a function of detecting only the on-event.
  • the "OFF pixel 20b” is the EVS pixel 20 according to the circuit configuration example 4, that is, the second pixel having a function of detecting only an off event.
  • FIG. 23 and 24 show a pixel arrangement example (No. 1) of the ON pixel 20a and the OFF pixel 20b according to the fifth embodiment
  • FIG. 25 and FIG. 26 show a pixel arrangement example (No. 2).
  • a pixel arrangement (pixel arrangement) of a total of 16 pixels of 4 pixels in the X direction (row direction / horizontal direction) ⁇ 4 pixels in the Y direction (column direction / vertical direction) is shown. ..
  • the arrangement of the EVS pixels 20 in the pixel array unit 101 may be, for example, a repetition of the pixel arrangement shown in FIGS. 23 to 26.
  • the pixel arrangement example shown in FIG. 23 has a configuration in which ON pixels 20a and OFF pixels 20b are alternately arranged in both the X direction and the Y direction.
  • a total of 4 pixels of 2 pixels in the X direction and 2 pixels in the Y direction are used as blocks (units), and blocks of ON pixels 20a and blocks of OFF pixels 20b alternate in both the X direction and the Y direction. It has a configuration arranged in.
  • the pixel arrangement example shown in FIG. 25 has an arrangement configuration in which the middle 4 pixels are the OFF pixels 20b and the surrounding 12 pixels are the ON pixels 20a out of a total of 16 pixels.
  • the pixel arrangement example shown in FIG. 26 in the pixel arrangement of 16 pixels in total, each pixel in the odd-numbered column and the even-numbered row is set to ON pixel 20a, and the remaining pixels are set to OFF pixel 20b.
  • the pixel arrangement of the ON pixel 20a and the OFF pixel 20b exemplified here is an example, and is not limited to these pixel arrangements.
  • Example 6 is a synchronization control example (No. 1) in the case of the fifth embodiment, that is, a synchronization control example (No. 1) in the case of a pixel arrangement in which ON pixels 20a and OFF pixels 20b are mixed in the pixel array unit 101.
  • FIG. 27 shows a flowchart of the synchronization control process according to the sixth embodiment.
  • the sensor control unit 1021 globally resets all the pixels including the ON pixel 20a and the OFF pixel 20b (step S201).
  • the light source driving unit 1011 irradiates the subject with light in a predetermined pattern from the laser light source 1010, which is the light source unit (step S202).
  • the sensor control unit 1021 stores the on-event information On detected by the ON pixel 20a in the memory (step S203).
  • the memory for storing the on-event information On is the gate parasitic capacitance of the on-event output transistor NM 2 in the output circuit 217.
  • the sensor control unit 1021 turns on the reset switch SW RS of the OFF pixel 20b (step S204).
  • the light source driving unit 1011 ends the irradiation of the subject with light (step S205).
  • the sensor control unit 1021 stores the off-event information Off detected by the OFF pixel 20b in the memory (step S206).
  • the memory for storing the off-event information Off is the gate parasitic capacitance of the off-event output transistor NM 1 in the output circuit 217.
  • the sensor control unit 1021 sequentially transfers the on-event information On and the off-event information Off to the reading circuit 130 (step S207), and then the voltage V, which is the inverting input of the comparator 214, is applied to the pixel for which the event is detected. Globally reset the diff (step S208).
  • step S209 determines whether or not to end this operation (step S209), and if it ends (YES in step S209), it ends a series of processes for synchronization control and does not end (step S209). NO in step S209), return to step S202, and execute the subsequent operations.
  • Example 7 is a synchronization control example (No. 2) in the case of the fifth embodiment, that is, a synchronization control example (No. 2) in the case of a pixel arrangement in which ON pixels 20a and OFF pixels 20b are mixed in the pixel array unit 101.
  • FIG. 28 shows a flowchart of the synchronization control process according to the seventh embodiment.
  • the sensor control unit 1021 globally resets all the pixels including the ON pixel 20a and the OFF pixel 20b (step S221).
  • the light source driving unit 1011 irradiates the subject with light in a predetermined pattern from the laser light source 1010, which is the light source unit (step S222).
  • the sensor control unit 1021 stores the on-event information On detected by the ON pixel 20a in the memory (step S223).
  • the memory for storing the on-event information On is the gate parasitic capacitance of the on-event output transistor NM 2 in the output circuit 217.
  • the sensor control unit 1021 sequentially transfers the on-event information On stored in the gate parasitic capacitance of the on-event output transistor NM 2 in the output circuit 217 to the reading circuit 130 (step S224), and then the OFF pixel 20b.
  • the reset switch SW RS is turned on (step S225).
  • the light source driving unit 1011 ends the irradiation of the subject with light (step S226).
  • the sensor control unit 1021 stores the off-event information Off detected by the OFF pixel 20b in the memory (step S227).
  • the memory for storing the off-event information Off is the gate parasitic capacitance of the off-event output transistor NM 1 in the output circuit 217.
  • the sensor control unit 1021 sequentially transfers the on-event information On and the off-event information Off to the reading circuit 130 (step S228), and then the voltage V which is the inverting input of the comparator 214 for the pixel for which the event is detected. Globally reset the diff (step S229).
  • step S230 determines whether or not to end this operation (step S230), and if it ends (YES in step S230), it ends a series of processes for synchronization control and does not end (step S230). NO in step S230), return to step S222, and execute the subsequent operations.
  • a plurality of sensor information of the RGB image acquired by the RGB pixel 10 and the EVS image acquired by the EVS pixel 20 is acquired. Therefore, it is possible to improve the accuracy of the recognition process using these. For example, as described above, by acquiring EVS image data in addition to RGB image data, it is possible to more accurately determine unauthorized access such as spoofing using a photograph in face recognition. This makes it possible to realize a solid-state image sensor and a recognition system that enable more secure authentication.
  • the unit pixel 110A includes an RGB pixel for acquiring an RGB image of the three primary colors of RGB and an EVS pixel for acquiring an EVS image of infrared (IR) light.
  • RGB pixels 10 are arranged according to, for example, a Bayer arrangement.
  • FIG. 29 is a schematic diagram showing a schematic configuration example of a unit pixel according to the second embodiment.
  • the unit pixel 110A has a structure in which one EVS pixel 20 is arranged in the incident direction of light for four RGB pixels 10 arranged in 2 rows and 2 columns. That is, in the present embodiment, one EVS pixel 20 with respect to the four RGB pixels 10 is located in the direction perpendicular to the arrangement direction (planar direction) of the unit pixels 110A, and is on the upstream side in the optical path of the incident light. The light transmitted through the four RGB pixels 10 located in is incident on one EVS pixel 20 located on the downstream side of the four RGB pixels 10. Therefore, in the present embodiment, the optical axis of the incident light of the EVS pixel 20 and the unit array of the Bayer array composed of the four RGB pixels 10 are coincident or substantially the same.
  • FIG. 30 is a circuit diagram showing a schematic configuration example of unit pixel according to the second embodiment. Note that FIG. 30 is based on the unit pixel 110 according to the second modification described with reference to FIG. 6 in the first embodiment, but is not limited to this, and the unit pixel 110- Illustrated in FIG. 7 is used. It is also possible to base it on 3.
  • the unit pixel 110A includes a plurality of RGB pixels 10-1 to 10-N (N is 4 in FIG. 30) and one EVS pixel 20.
  • the plurality of RGB pixels 10 share one pixel circuit (reset transistor 12, stray diffusion region FD, amplification transistor 13 and selection transistor 14). It is possible (pixel sharing). Therefore, in the present embodiment, a plurality of RGB pixels 10-1 to 10-N share a pixel circuit including a reset transistor 12, a stray diffusion region FD, an amplification transistor 13, and a selection transistor 14. That is, in the present embodiment, a plurality of photoelectric conversion units PD1 and a transfer gate 11 are connected to a common floating diffusion region FD.
  • FIG. 31 is a cross-sectional view showing an example of a cross-sectional structure of an image sensor according to a second embodiment.
  • each unit pixel 110A is composed of four RGB pixels 10 arranged in two rows and two columns and one EVS pixel 20
  • EVS pixel 20 EVS pixel 20
  • FIG. 29 similarly to FIG. 8, an example of the cross-sectional structure of the semiconductor chip in which the photoelectric conversion units PD1 and PD2 are formed in the unit pixel 110A will be described.
  • duplicate description will be omitted by quoting them.
  • the on-chip lens 51, the color filter 31, and the storage electrode 37 are four in two rows and two columns. (However, two of the four are shown in FIG. 31), thereby forming four RGB pixels 10.
  • the four RGB pixels 10 in each unit pixel 110A may form the basic array of the Bayer array.
  • FIG. 32 is a diagram showing a plane layout example of each layer of the pixel array portion according to the second embodiment, (A) shows a plane layout example of the on-chip lens 51, and (B). Shows an example of a planar layout of the color filter 31, (C) shows an example of a planar layout of the storage electrode 37, and (D) shows an example of a planar layout of the photoelectric conversion unit PD2.
  • (A) to (D) show an example of a plane layout of a surface parallel to the element forming surface of the semiconductor substrate 50.
  • one on-chip lenses 51 As shown in FIGS. 32A to 32D, in the present embodiment, four on-chip lenses 51, four color filters 31, and four storage electrodes 37 are provided for one unit pixel 110A.
  • One photoelectric conversion unit PD2 is provided.
  • one storage electrode 37 corresponds to one RGB pixel 10
  • one photoelectric conversion unit PD2 corresponds to one EVS pixel 20.
  • each RGB pixel 10 and EVS Since it is possible to improve the coaxiality with respect to the incident light with the pixel 20, it is possible to suppress the spatial deviation that occurs between the RGB image and the EVS image. Thereby, it is possible to improve the accuracy of the result obtained by processing the information (RGB image and EVS image) acquired by different sensors in an integrated manner.
  • FIG. 33 is a diagram showing an example of a planar layout of each layer of the pixel array portion according to a modification of the on-chip lens of the second embodiment, and (A) is a planar layout of the on-chip lens 51 as in FIG. 32. An example is shown, (B) shows an example of a planar layout of the color filter 31, (C) shows an example of a planar layout of the storage electrode 37, and (D) shows an example of a planar layout of the photoelectric conversion unit PD2.
  • two on-chip lenses 51 arranged in the row direction in a part of the unit pixels 110A among the plurality of unit pixels 110A are two. It has been replaced by one on-chip lens 251 of 2 ⁇ 1 pixels straddling the RGB pixels 10.
  • the two RGB pixels 10 sharing the on-chip lens 251 are provided with a color filter 31 that selectively transmits the same wavelength component.
  • the color filter 31b that selectively transmits the blue (B) wavelength component originally in the Bayer arrangement selectively transmits the green (G) wavelength component. It is replaced with a color filter 31g for transmitting, whereby the color filter 31 of the two RGB pixels 10 sharing the on-chip lens 251 is unified into the color filter 31g.
  • the pixel value of the wavelength component that should be originally detected according to the Bayer array may be interpolated from the pixel values of the surrounding pixels, for example.
  • Various methods such as linear interpolation may be used for this pixel interpolation.
  • the present invention is not limited to this, and two on-chip lenses 51 arranged in the column direction are shared. It is also possible to make various modifications such as a configuration in which all four on-chip lenses 51 included in one unit pixel 110A are replaced with one on-chip lens. In that case, a color filter 31 that selectively transmits the same wavelength component may be used as the color filter 31 of the RGB pixels 10 that share the on-chip lens.
  • the sharing of the on-chip lens 51 between adjacent RGB pixels 10 is not limited to the second embodiment, but can be applied to the first embodiment as well.
  • the Bayer array is exemplified as the filter array of the color filter 31, but the present invention is not limited thereto.
  • a 3x3 pixel color filter array used in the X-Trans (registered trademark) CMOS sensor a 4x4 pixel quadbayer array (also called a quadra array), or a white RGB color filter in the Bayer array.
  • Various filter arrays such as a combined 4 ⁇ 4 pixel color filter array (also referred to as a white RGB array) may be used.
  • FIG. 34 is a diagram showing a planar layout example of each layer of the pixel array portion according to a modification of the color filter arrangement of the second embodiment, and (A) is an on-chip lens 51 as in FIGS. 32 and 33.
  • (B) shows a plane layout example of the color filter 31
  • (C) shows a plane layout example of the storage electrode 37
  • (D) shows a plane layout example of the photoelectric conversion unit PD2. There is.
  • each color filter 31 in the Bayer array of 2 ⁇ 2 pixels is divided into 2 ⁇ 2 pixels as a whole.
  • a quadra array of 4 ⁇ 4 pixels is illustrated.
  • the color filters 31 in the above are originally aligned, there is no need to make changes to the arrangement of the color filters 31, and therefore there is no need to perform pixel interpolation.
  • the multi-stage recognition process by executing the multi-stage recognition process using a plurality of sensor information, it is possible to further improve the accuracy of the recognition process, so that more secure authentication is possible. It is possible to realize a solid-state image sensor and a recognition system.
  • FIG. 35 shows an external view of a smartphone according to a specific example of the electronic device of the present disclosure as viewed from the front side.
  • the smartphone 300 is provided with a display unit 320 on the front side of the housing 310. Further, the smartphone 300 is provided with a light emitting unit 330 and a light receiving unit 340 in the upper portion on the front side of the housing 310.
  • the arrangement example of the light emitting unit 330 and the light receiving unit 340 shown in FIG. 35 is an example, and is not limited to this arrangement example.
  • the laser light source 1010 (VCSEL1012) in the electronic device 1 according to the above-described embodiment can be used as the light emitting unit 330, and the image sensor 100 can be used as the light receiving unit 340. .. That is, the smartphone 300 according to this specific example is manufactured by using the electronic device 1 according to the above-described embodiment as the three-dimensional image acquisition system.
  • the electronic device 1 according to the above-described embodiment can increase the resolution of the distance image without increasing the number of light sources in the array dot arrangement of the light sources. Therefore, the smartphone 300 according to this specific example has a highly accurate face recognition function (face recognition function) by using the electronic device 1 according to the above-described embodiment as the three-dimensional image acquisition system (face recognition system). be able to.
  • face recognition function face recognition function
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 36 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 has a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, turn signals or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle outside information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle outside information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the image pickup unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the vehicle interior information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver has fallen asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a head-up display.
  • FIG. 37 is a diagram showing an example of the installation position of the image pickup unit 12031.
  • the image pickup unit 12031 has image pickup units 12101, 12102, 12103, 12104, and 12105.
  • the image pickup units 12101, 12102, 12103, 12104, 12105 are provided at positions such as, for example, the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100.
  • the image pickup unit 12101 provided on the front nose and the image pickup section 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the image pickup units 12102 and 12103 provided in the side mirror mainly acquire images of the side of the vehicle 12100.
  • the image pickup unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the image pickup unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 37 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging range of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 can be obtained.
  • At least one of the image pickup units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera including a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object in the image pickup range 12111 to 12114 based on the distance information obtained from the image pickup unit 12101 to 12104, and a temporal change of this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like that autonomously travels without relying on the driver's operation.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the image pickup units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the image pickup units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging unit 12101 to 12104.
  • pedestrian recognition is, for example, a procedure for extracting feature points in an image captured by an image pickup unit 12101 to 12104 as an infrared camera, and pattern matching processing is performed on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 determines the square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the image pickup unit 12031 among the configurations described above.
  • the image pickup unit 12101, 12102, 12103, 12104, 12105 and the like illustrated in FIG. 37 may be mounted on the vehicle 12100.
  • information acquired by different sensors for example, a color image and a monochrome image
  • can be processed in an integrated manner It is possible to improve the accuracy of the resulting results.
  • the present technology can also have the following configurations.
  • An image processing unit having a plurality of first pixels arranged in a matrix on the first surface and generating image data based on the amount of incident light incident on each of the first pixels.
  • An event signal processing unit that includes a plurality of second pixels arranged in a matrix on a second surface parallel to the first surface, and generates event data based on a change in the brightness of incident light incident on each of the second pixels.
  • a solid-state image pickup device comprising the plurality of first pixels and the plurality of second pixels arranged on a single chip.
  • the solid-state image pickup device according to (1) or (2), wherein at least a part of the plurality of first pixels overlaps with the plurality of second pixels in the first direction.
  • the solid-state image pickup device according to (3), wherein the first direction is a direction perpendicular to a plane in which the first pixels are arranged.
  • the first pixel includes a first photoelectric conversion unit that photoelectrically converts the incident light.
  • the second pixel includes a second photoelectric conversion unit that photoelectrically converts the incident light.
  • the solid-state image pickup according to any one of (1) to (4) above, wherein the second photoelectric conversion unit is arranged on the surface side of the first photoelectric conversion unit opposite to the incident surface of the incident light. Device.
  • the first pixel detects the amount of visible light contained in the incident light, and detects the amount of visible light.
  • the solid-state image sensor according to any one of (1) to (7), wherein the second pixel detects a change in the brightness of infrared light contained in the incident light.
  • the second pixel detects at least one of the case where the brightness of the incident light exceeds a predetermined threshold value and the case where the brightness of the incident light falls below a predetermined threshold value (1) to (8). ).
  • the solid-state image pickup device according to any one of. (10) At least one of the plurality of second pixels detects that the brightness of the incident light exceeds a predetermined threshold value, and the other one means that the brightness of the incident light falls below a predetermined threshold value.
  • the solid-state imaging device according to any one of (1) to (8) above.
  • (11) The solid-state image pickup device according to any one of (1) to (10), wherein the event signal processing unit includes a plurality of the first pixels with respect to one second pixel in the image processing unit.
  • (12) The solid-state image sensor according to any one of (1) to (11), A recognition processing unit that executes recognition processing based on the image data acquired by the image processing unit in the solid-state imaging device and the event data acquired by the event signal processing unit.
  • a recognition system equipped with (13) A light source that emits light in a predetermined wavelength band, A control unit that controls the light source and the solid-state image sensor, Further prepare The second pixel includes a wavelength selection filter that selectively transmits light in the predetermined wavelength band.
  • the event signal processing unit generates the event data based on the change in the luminance of the light in the predetermined wavelength band in the incident light.
  • the recognition processing unit The first recognition process is executed based on one of the image data and the event data, and the first recognition process is executed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

よりセキュアな認証を可能にする。実施形態に係る固体撮像装置は、第1面において行列状に配列する複数の第1画素(10)を備え、前記第1画素それぞれに入射した入射光の光量に基づいて画像データを生成する画像処理部(103A)と、前記第1面と平行な第2面において行列状に配列する複数の第2画素(20)を備え、前記第2画素それぞれに入射した入射光の輝度変化に基づいてイベントデータを生成するイベント信号処理部(103B)と、を備え、前記複数の第1画素と前記複数の第2画素とは単一のチップに配置されている。

Description

固体撮像装置及び認識システム
 本開示は、固体撮像装置及び認識システムに関する。
 近年、スマートフォンやタブレット端末などのポータブル機器の普及に伴い、セキュアな認証システムが要求されてきている。
特開2020-21855号公報 特開2018-125848号公報
 しかしながら、従来では、1つのセンサで取得された情報に基づく認証システムが一般的であったため、なりすましなどの不正アクセスに対するセキュリティに改善の余地が存在した。
 そこで本開示は、よりセキュアな認証を可能にする固体撮像装置及び認識システムを提案する。
 上記の課題を解決するために、本開示に係る一形態の固体撮像装置は、第1面において行列状に配列する複数の第1画素を備え、前記第1画素それぞれに入射した入射光の光量に基づいて画像データを生成する画像処理部と、前記第1面と平行な第2面において行列状に配列する複数の第2画素を備え、前記第2画素それぞれに入射した入射光の輝度変化に基づいてイベントデータを生成するイベント信号処理部と、を備え、前記複数の第1画素と前記複数の第2画素とは単一のチップに配置されている。
第1の実施形態に係る認識システムの機能構成例を示すブロック図である。 第1の実施形態に係る認識システムを実現する電子機器の概略構成例を示す模式図である。 第1の実施形態に係る認識システムを実現する電子機器の概略構成例を示すブロック図である。 第1の実施形態に係るイメージセンサの概略構成例を示すブロック図である。 第1の実施形態に係る画素アレイ部の概略構成例を示す模式図である。 第1実施形態に係る単位画素の概略構成例を示す回路図である。 第1の実施形態の変形例に係る単位画素の概略構成例を示す回路図である。 第1の実施形態に係るイメージセンサの断面構造例を示す断面図である。 第1の実施形態に係る画素アレイ部の各層の平面レイアウト例を示す図である。 第1の実施形態に係るRGB画素に対する画素駆動線の配線例を示す平面図である。 第1の実施形態に係るEVS画素に対する画素駆動線の配線例を示す平面図である。 第1の実施形態に係るEVS画素に対する信号線の配線例を示す平面図である。 第1の実施形態に係るイメージセンサの積層構造例を示す図である。 第1の実施形態に係る認識動作の一例を示すフローチャートである。 第1の実施形態の回路構成例1に係るEVS画素を示す回路図である。 第1の実施形態の回路構成例2に係るEVS画素を示す回路図である。 第1の実施形態の回路構成例3に係るEVS画素を示す回路図である。 第1の実施形態の回路構成例4に係るEVS画素を示す回路図である。 第1の実施形態の実施例1に係る同期制御の処理を示すフローチャートである。 第1の実施形態の実施例2に係る同期制御の処理を示すフローチャートである。 第1の実施形態の実施例3に係る同期制御の処理を示すフローチャートである。 第1の実施形態の実施例4に係る同期制御の処理を示すフローチャートである。 第1の実施形態の実施例5に係るON画素及びOFF画素の画素配置例(その1)を示す図である。 第1の実施形態の実施例5に係るON画素及びOFF画素の他の画素配置例(その1)を示す図である。 第1の実施形態の実施例5に係るON画素及びOFF画素の画素配置例(その2)を示す図である。 第1の実施形態の実施例5に係るON画素及びOFF画素の他の画素配置例(その2)を示す図である。 第1の実施形態の実施例6に係る同期制御の処理を示すフローチャートである。 第1の実施形態の実施例7に係る同期制御の処理を示すフローチャートである。 第2の実施形態に係る単位画素の概略構成例を示す模式図である。 第2の実施形態に係る単位画素の概略構成例を示す回路図である。 第2の実施形態に係るイメージセンサの断面構造例を示す断面図である。 第2の実施形態に係る画素アレイ部の各層の平面レイアウト例を示す図である。 第2の実施形態のオンチップレンズの変形例に係る画素アレイ部の各層の平面レイアウト例を示す図である。 第2の実施形態のカラーフィルタ配列の変形例に係る画素アレイ部の各層の平面レイアウト例を示す図である。 本開示の電子機器の具体例に係るスマートフォンの正面側から見た外観図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.第1の実施形態
   1.1 認識システムの機能構成例
   1.2 システム構成例
   1.3 イメージセンサの構成例
   1.4 単位画素の構成例
   1.5 単位画素の回路構成例
    1.5.1 回路構成の変形例
   1.6 単位画素の断面構造例
   1.7 有機材料
   1.8 平面構造例
   1.9 画素駆動線の配線例
   1.10 イメージセンサの積層構造例
   1.11 認識動作例
   1.12 EVS画素の回路構成例
    1.12.1 回路構成例1
    1.12.2 回路構成例2
    1.12.3 回路構成例3
    1.12.4 回路構成例4
   1.13 レーザ光源とイメージセンサとの同期制御
    1.13.1 実施例1
    1.13.2 実施例2
    1.13.3 実施例3
    1.13.4 実施例4
    1.13.5 実施例5
    1.13.6 実施例6
    1.13.7 実施例7
   1.14 作用・効果
  2.第2の実施形態
   2.1 単位画素の構成例
   2.2 単位画素の回路構成例
   2.3 単位画素の断面構造例
   2.4 平面構造例
   2.5 オンチップレンズの変形例
   2.6 カラーフィルタ配列の変形例
   2.7 作用・効果
  3.電子機器の具体例
  4.移動体への応用例
 1.第1の実施形態
 まず、第1の実施形態に係る固体撮像装置(以下、イメージセンサという)、電子機器及び認識システムについて、図面を参照して詳細に説明する。なお、本実施形態では、CMOS(Complementary Metal-Oxide Semiconductor)型のイメージセンサに本実施形態に係る技術を適用した場合を例示するが、これに限定されず、例えば、CCD(Charge-Coupled Device)型のイメージセンサやToF(Time-of-Flight)センサなど、光電変換素子を備える種々のセンサに本実施形態に係る技術を適用することが可能である。
 1.1 認識システムの機能構成例
 図1は、第1の実施形態に係る認識システムの機能構成例を示すブロック図である。図1に示すように、認識システム1000は、RGBセンサ部1001とEVSセンサ部1003との2種類のセンサ部を備える。また、認識システム1000は、RGB画像処理部1002と、イベント信号処理部1004と、認識処理部1005と、インタフェース(I/F)部1006とを備える。RGB画像処理部1002は、RGBセンサ部1001を含んでもよく、また、イベント信号処理部1004は、EVSセンサ部1003を含んでもよい。
 RGBセンサ部1001は、例えば、RGB三原色それぞれの波長成分を透過するカラーフィルタを備える複数の画素(以下、RGB画素という)を備え、RGB三原色の色成分で構成されたカラー画像(以下、RGB画像という)を生成する。なお、RGBセンサ部1001に代えて、CMY三原色それぞれの波長成分を透過するカラーフィルタを備える複数の画素を備えるセンサ部等が用いられてもよい。
 EVSセンサ部1003は、例えば、赤外(IR)光を透過するIRフィルタを備える複数の画素(以下、EVS画素という)を備え、各EVS画素がIR光を検出したか否か(以下、イベントという)に基づいて、イベントが検出された画素の位置(以下、アドレスという)を示すイベントデータ(イベント情報又は検出信号ともいう)を出力する。なお、本実施形態において、イベントには、IR光が検出されるようになったことを示すオンイベントと、IR光が検出されたくなったことを示すオフイベントとが含まれ得る。
 RGB画像処理部1002は、RGBセンサ部1001から入力されたRGB画像データに対し、ノイズ除去やホワイトバランス調整や画素補間等の所定の信号処理を実行する。また、RGB画像処理部1002は、RGB画像データを用いた認識処理などを実行してもよい。
 イベント信号処理部1004は、EVSセンサ部1003から入力されたイベントデータに基づいて、イベントが検出された画素を示す画像データ(以下、EVS画像データという)を生成する。例えば、イベント信号処理部1004は、所定期間内に入力されたイベントデータに基づいて、オンイベント及び/又はオフイベントが検出された画素を示すEVS画像データを生成する。なお、イベント信号処理部1004は、イベントが検出された画素のアドレスを用いてEVS画像データを生成してもよいし、イベントが検出された画素から読み出された入射光の輝度を示す階調信号(画素信号)を用いてEVS画像データを生成してもよい。また、イベント信号処理部1004は、生成したEVS画像データに対し、ノイズ除去等の所定の信号処理を実行してもよい。
 認識処理部1005は、RGB画像処理部1002から入力されたRGB画像データ及び/又はイベント信号処理部1004から入力されたEVS画像データを用いて、RGBセンサ部1001及び/又はEVSセンサ部1003の画角内に存在する物体等の認識処理を実行する。認識処理部1005による認識処理には、パターン認識などの認識処理や、人工知能(Artificial Intelligence:AI)による認識処理などが用いられてよい。AIによる認識処理には、例えば、CNN(Convolution Neural Network)やRNN(Recurrent Neural Network)などのニューラルネットワークを利用した深層学習が適用されてもよい。また、認識処理部1005は、認識処理の一部を実行し、その結果(中間データ等)を出力してもよい。
 インタフェース部1006は、認識処理部1005により得られた認識結果(中間データ等を含む)や、RGBセンサ部1001及び/又はEVSセンサ部1003で取得された画像データを外部の例えばアプリケーションプロセッサ1100へ出力する。
 なお、イベント信号処理部1004は、EVS画像データに対して物体の領域判定を実行し、その結果として得られた注目領域(Region of Interest:ROI)を指定するアドレス等の情報(以下、単にROI情報と言いう)をRGBセンサ部1001及び/又はRGB画像処理部1002に入力してもよい。これに対し、RGBセンサ部1001は、イベント信号処理部1004から入力されたROI情報に対応する領域のRGB画像データを取得するように動作してもよい。若しくは、RGB画像処理部1002は、RGBセンサ部1001から入力されたRGB画像データに対し、イベント信号処理部1004から入力されたROI情報に対応する領域のトリミングなどの処理を実行してもよい。
 1.2 システム構成例
 次に、本実施形態に係る認識システムのシステム構成例について説明する。図2は、第1の実施形態に係る認識システムを実現する電子機器の概略構成例を示す模式図であり、図3は、第1の実施形態に係る認識システムを実現する電子機器の概略構成例を示すブロック図である。
 図2に示すように、本実施形態に係る電子機器1は、レーザ光源1010と、照射レンズ1030と、撮像レンズ1040と、イメージセンサ100と、システム制御部1050とを備える。
 レーザ光源1010は、図3に示すように、例えば、垂直共振器型面発光レーザ(VCSEL)1012と、VCSEL1012を駆動する光源駆動部1011とから構成される。ただし、VCSEL1012に限定されず、LED(Light Emitting Diode)などの種々の光源が使用されてもよい。また、レーザ光源1010は、点光源、面光源、線光源のいずれであってもよい。面光源又は線光源の場合、レーザ光源1010は、例えば、複数の点光源(例えばVCSEL)が1次元又は2次元に配列した構成を備えてもよい。なお、本実施形態において、レーザ光源1010は、例えば赤外(IR)光など、可視光の波長帯とは異なる波長帯の光を出射してよい。
 照射レンズ1030は、レーザ光源1010の出射面側に配置され、レーザ光源1010から出射した光を所定の広がり角の照射光に変換する。
 撮像レンズ1040は、イメージセンサ100の受光面側に配置され、入射光による像をイメージセンサ100の受光面に結像する。入射光には、レーザ光源1010から出射して被写体901で反射した反射光も含まれ得る。
 イメージセンサ100は、その詳細については後述するが、図3に示すように、例えば、RGB画素とEVS画素とが2次元格子状に配列する受光部1022と、受光部1022を駆動してRGB画像データとイベントデータとを生成するセンサ制御部1021とから構成される。
 システム制御部1050は、例えばプロセッサ(CPU)によって構成され、光源駆動部1011を介してVCSEL1012を駆動する。また、システム制御部1050は、イメージセンサ100を制御することで、RGB画像を取得するとともに、レーザ光源1010に対する制御と同期してイメージセンサ100を制御することで、レーザ光源1010の発光/消光に応じて検出されるイベントデータを取得する。
 このような構成において、図1におけるRGBセンサ部1001は、イメージセンサ100及びシステム制御部1050を用いて構成され、EVSセンサ部1003は、レーザ光源1010、イメージセンサ100及びシステム制御部1050を用いて構成されてよい。また、同じく図1におけるRGB画像処理部1002、イベント信号処理部1004及び認識処理部1005は、それぞれイメージセンサ100及び/又はアプリケーションプロセッサ1100を用いて構成されてよい。
 例えば、レーザ光源1010から出射した照射光は、照射レンズ1030を透して被写体(測定対象物又は物体ともいう)901に投影される。この投影された光は、被写体901で反射される。そして、被写体901で反射された光は、撮像レンズ1040を透してイメージセンサ100に入射する。イメージセンサ100におけるEVSセンサ部1003は、被写体901で反射した反射光を受光してイベントデータを生成し、生成されたイベントデータに基づいてEVS画像データを生成する。一方、イメージセンサ100におけるRGBセンサ部1001は、入射光における例えば可視光を受光してRGB画像データを生成する。イメージセンサ100で生成されたRGB画像データ及びEVS画像データは、電子機器1のアプリケーションプロセッサ1100に供給される。アプリケーションプロセッサ1100は、イメージセンサ100から入力されたRGB画像データ及びEVS画像データに対して認識処理などの所定の処理を実行する。
 1.3 イメージセンサの構成例
 図4は、第1の実施形態に係るイメージセンサの概略構成例を示すブロック図である。図4に示すように、本実施形態に係るイメージセンサ100は、例えば、画素アレイ部101と、垂直駆動回路102Aと、水平駆動回路102Bと、Xアービタ104Aと、Yアービタ104Bと、RGB信号処理回路103Aと、EVS信号処理回路103Bと、システム制御回路105と、RGBデータ処理部108Aと、EVSデータ処理部108Bとを備える。
 画素アレイ部101、垂直駆動回路102A、水平駆動回路102B、RGB信号処理回路103A及びシステム制御回路105は、例えば、図1におけるRGBセンサ部1001を構成し、画素アレイ部101、垂直駆動回路102A、水平駆動回路102B、Xアービタ104A、Yアービタ104B、EVS信号処理回路103B、水平駆動回路102B及びシステム制御回路105は、例えば、図1におけるEVSセンサ部1003を構成する。また、RGB信号処理回路103A及びRGBデータ処理部108Aは、例えば、図1におけるRGB画像処理部1002を構成し、EVS信号処理回路103B及びEVSデータ処理部108Bは、例えば、図1におけるイベント信号処理部1004を構成する。なお、図1における認識処理部1005は、アプリケーションプロセッサ1100単体で実現されてもよいし、RGBデータ処理部108A及びEVSデータ処理部108Bとアプリケーションプロセッサ1100とを連携させることで実現されてもよいし、RGBデータ処理部108AとEVSデータ処理部108Bとを連携させることで実現されてもよい。
 画素アレイ部101は、単位画素110が行方向及び列方向に、すなわち、2次元格子状(行列状ともいう)に配置された構成を有する。ここで、行方向とは画素行の画素の配列方向(図面中、横方向)をいい、列方向とは画素列の画素の配列方向(図面中、縦方向)をいう。
 各単位画素110は、RGB画素10とEVS画素20とを備える。本説明において、RGB画素10とEVS画素20とは、それぞれ単に画素と称される場合がある。単位画素110の具体的な回路構成や画素構造の詳細については後述するが、RGB画素10は、受光した光量に応じた電荷を生成しかつ蓄積する光電変換素子を備え、入射光量に応じた電圧の画素信号を生成する。一方、EVS画素20は、RGB画素10と同様に、受光した光量に応じた電荷を生成しかつ蓄積する光電変換素子を備え、光電変換素子から流れ出した光電流に基づいて光の入射を検出した場合、自身からの読出しを要求するリクエストをXアービタ104A及びYアービタ104Bへ出力し、Xアービタ104A及びYアービタ104Bによる調停に従って、イベントを検出したことを示す信号(イベントデータともいう)を出力する。このイベントデータには、イベントが検出された時刻を示すタイムスタンプが付与されていてもよい。
 画素アレイ部101では、行列状の画素配列に対し、画素行ごとに画素駆動線LD1及びLD2が行方向に沿って配線され、画素列ごとに垂直信号線VSL1及びVSL2が列方向に沿って配線されている。例えば、画素駆動線LD1は、各行のRGB画素10に接続され、画素駆動線LD2は、各行のEVS画素20に接続される。一方、例えば、垂直信号線VSL1は、各列のRGB画素10に接続され、垂直信号線VSL2は、各列のEVS画素20に接続される。ただし、これに限定されず、画素駆動線LD1及びLD2は、互いに直交するように配線されていてもよい。同様に、垂直信号線VSL1及びVSL2は、互いに直交するように配線されていてもよい。例えば、画素駆動線LD1が行方向に配線され、画素駆動線LD2が列方向に配線され、垂直信号線VSL1が列方向に配線され、垂直信号線VSL2が行方向に配線されてもよい。
 画素駆動線LD1は、RGB画素10から画素信号を読み出す際の駆動を行うための制御信号を伝送する。画素駆動線LD2は、EVS画素20をイベント検出が可能なアクティブ状態にするための制御信号を伝送する。図4では、画素駆動線LD1及びLD2がそれぞれ1本ずつの配線として示されているが、1本ずつに限られるものではない。画素駆動線LD1及び画素駆動線LD2それぞれの一端は、垂直駆動回路102Aの各行に対応した出力端に接続される。
 (RGB画素の駆動構成)
 各RGB画素10は、後述において詳細に説明するが、入射光を光電変換して電荷を発生させる光電変換部と、光電変換部に発生した電荷の電荷量に応じた電圧値の画素信号を生成する画素回路とを備え、垂直駆動回路102Aによる制御に従い、垂直信号線VSL1に画素信号を出現させる。
 垂直駆動回路102Aは、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部101のRGB画素10を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動回路102Aは、当該垂直駆動回路102Aを制御するシステム制御回路105と共に、画素アレイ部101の各RGB画素10の動作を制御する駆動部を構成する。垂直駆動回路102Aは、その具体的な構成については図示を省略するが、一般的に、読出し走査系と掃出し走査系との2つの走査系を備えている。
 読出し走査系は、各画素から信号を読み出すために、画素アレイ部101の各画素を行単位で順に選択走査する。各画素から読み出される画素信号はアナログ信号である。掃出し走査系は、読出し走査系によって読出し走査が行われる読出し行に対して、その読出し走査よりも露光時間分だけ先行して掃出し走査を行う。
 この掃出し走査系による掃出し走査により、読出し行の各画素の光電変換素子から不要な電荷が掃き出されることによって当該光電変換素子がリセットされる。そして、この掃出し走査系で不要電荷を掃き出す(リセットする)ことにより、所謂電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、光電変換素子の電荷を捨てて、新たに露光を開始する(電荷の蓄積を開始する)動作のことを言う。
 読出し走査系による読出し動作によって読み出される信号は、その直前の読出し動作または電子シャッタ動作以降に受光した光量に対応している。そして、直前の読出し動作による読出しタイミングまたは電子シャッタ動作による掃出しタイミングから、今回の読出し動作による読出しタイミングまでの期間が、各画素における電荷の蓄積期間(露光期間ともいう)となる。
 垂直駆動回路102Aによって選択走査された画素行の各RGB画素10から出力される画素信号は、画素列ごとに垂直信号線VSL1の各々を通してRGB信号処理回路103Aに入力される。RGB信号処理回路103Aは、画素アレイ部101の画素列ごとに、選択行の各RGB画素10から垂直信号線VSL1を通して出力される画素信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
 具体的には、RGB信号処理回路103Aは、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling:相関二重サンプリング)処理や、DDS(Double Data Sampling)処理を行う。例えば、CDS処理により、リセットノイズや画素内の増幅トランジスタの閾値ばらつき等の画素固有の固定パターンノイズが除去される。RGB信号処理回路103Aは、その他にも、例えば、AD(アナログ-デジタル)変換機能を備え、光電変換素子から読み出されたアナログの画素信号をデジタル信号に変換して出力する。
 水平駆動回路102Bは、シフトレジスタやアドレスデコーダなどによって構成され、RGB信号処理回路103Aの画素列に対応する読出し回路(以下、画素回路という)を順番に選択する。この水平駆動回路102Bによる選択走査により、RGB信号処理回路103Aにおいて画素回路ごとに信号処理された画素信号が順番に出力される。
 (EVS画素の駆動構成)
 各EVS画素20は、入射光の輝度に応じた光電流に、所定の閾値を超える変化が生じたか否かによって、イベントの有無を検出する。例えば、各EVS画素20は、輝度変化が所定の閾値を超えたこと、又は、下回ったことをイベントとして検出する。
 EVS画素20は、イベントを検出した際に、イベントの発生を表すイベントデータの出力許可を要求するリクエストをXアービタ104A及びYアービタ104Bにそれぞれに出力する。そして、EVS画素20は、イベントデータの出力許可を表す応答をXアービタ104A及びYアービタ104Bそれぞれから受け取った場合、垂直駆動回路102A及びEVS信号処理回路103Bに対してイベントデータを出力する。
 また、イベントを検出したEVS画素20は、光電変換によって生成されるアナログの画素信号をEVS信号処理回路103Bに対して出力する。すなわち、Xアービタ104A及びYアービタ104Bによる調停の結果、読出しが許可されたEVS画素20は、自身の駆動を垂直駆動回路102Aに要求する。これに対し、垂直駆動回路102Aは、調停により読出しが許可されたEVS画素20を駆動することで、当該EVS画素20に接続された垂直信号線VSL2に画素信号を出現させる。
 Xアービタ104Aは、複数のEVS画素20それぞれから供給されるイベントデータの出力を要求するリクエストを調停し、その調停結果(イベントデータの出力の許可/不許可)に基づく応答、及び、イベント検出をリセットするリセット信号を、リクエストを出力したEVS画素20に送信する。
 EVS信号処理回路103Bは、RGB信号処理回路103Aと同様に、AD変換機能を備え、光電変換部から読み出されたアナログの画素信号をデジタル信号に変換して出力する。また、EVS信号処理回路103Bは、RGB信号処理回路103Aと同様に、例えばCDS処理やDDS処理などのノイズ除去機能を備えていてもよい。
 加えて、EVS信号処理回路103Bは、AD変換により得られたデジタルの画素信号やEVS画素20から入力されたイベントデータに対して所定の信号処理を実行し、信号処理後のイベントデータ及び画素信号を出力する。
 上述したように、EVS画素20で生成される光電流の変化は、EVS画素20の光電変換部に入射する光の光量変化(輝度変化)とも捉えることができる。従って、イベントは、所定の閾値を超えるEVS画素20の光量変化(輝度変化)であるとも言うことができる。イベントの発生を表すイベントデータには、少なくとも、イベントとしての光量変化が発生したEVS画素20の位置を表す座標等の位置情報が含まれる。イベントデータには、位置情報の他、光量変化の極性を含ませることができる。
 EVS画素20からイベントが発生したタイミングで出力されるイベントデータの系列については、イベントデータ同士の間隔がイベントの発生時のまま維持されている限り、イベントデータは、イベントが発生した相対的な時刻を表す時刻情報を暗示的に含んでいるということができる。
 但し、イベントデータがメモリに記憶されること等により、イベントデータ同士の間隔がイベントの発生時のまま維持されなくなると、イベントデータに暗示的に含まれる時刻情報が失われる。そのため、EVS信号処理回路103Bは、イベントデータ同士の間隔がイベントの発生時のまま維持されなくなる前に、イベントデータに、タイムスタンプ等のイベントが発生した相対的な時刻を表す時刻情報を含めてもよい。
 (その他構成)
 システム制御回路105は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、当該タイミングジェネレータで生成された各種のタイミングを基に、垂直駆動回路102A、水平駆動回路102B、Xアービタ104A、Yアービタ104B、RGB信号処理回路103A、及び、EVS信号処理回路103Bなどの駆動制御を行う。
 RGBデータ処理部108A及びEVSデータ処理部108Bそれぞれは、少なくとも演算処理機能を有し、RGB信号処理回路103A又はEVS信号処理回路103Bから出力される画像信号に対して演算処理等の種々の信号処理を行う。
 RGBデータ処理部108A又はEVSデータ処理部108Bから出力された画像データは、例えば、イメージセンサ100を搭載する電子機器1におけるアプリケーションプロセッサ1100等において所定の処理が実行されたり、所定のネットワークを介して外部へ送信されたりしてもよい。
 なお、イメージセンサ100は、RGBデータ処理部108A及びEVSデータ処理部108Bでの信号処理に必要なデータや、RGB信号処理回路103A、EVS信号処理回路103B、RGBデータ処理部108A及びEVSデータ処理部108Bのうちのいずれか1つ以上で処理されたデータ等を一時的に保持するための記憶部を備えていてもよい。
 1.4 単位画素の構成例
 次に、単位画素110の構成例について説明する。なお、ここでは、単位画素110が、RGB三原色のRGB画像を取得するRGB画素10と、イベントを検出するEVS画素20とを含む場合を例示に挙げる。なお、図5及び以下では、RGB三原色を構成する各色成分の光を透過させるカラーフィルタ31r、31g又は31bを区別しない場合、その符号が31とされている。
 図5は、第1の実施形態に係る画素アレイ部の概略構成例を示す模式図である。図5に示すように、画素アレイ部101は、RGB画素10とEVS画素20とからなる単位画素110が光の入射方向に沿って配列した構造を備える単位画素110が2次元格子状に配列した構成を備える。すなわち、本実施形態では、RGB画素10とEVS画素20とが単位画素110の配列方向(平面方向)に対して垂直方向に位置されており、入射光の光路における上流側に位置するRGB画素10を透過した光が、このRGB画素10の下流側に位置するEVS画素20に入射するように構成されている。このような構成によれば、RGB画素10の光電変換部PD1における入射光の入射面と反対側の面側にEVS画素20の光電変換部PD2が配置される。それにより、本実施形態では、光の入射方向に沿って配列するRGB画素10とEVS画素20との入射光の光軸が一致又は略一致している。
 なお、本実施形態では、RGB画素10を構成する光電変換部PD1を有機材料で構成し、EVS画素20を構成する光電変換部PD2をシリコンなどの半導体材料で構成する場合を例示するが、これに限定されるものではない。例えば、光電変換部PD1と光電変換部PD2との両方が半導体材料で構成されてもよいし、光電変換部PD1と光電変換部PD2との両方が有機材料で構成されてもよいし、光電変換部PD1が半導体材料で構成され、光電変換部PD2が有機材料で構成されてもよい。若しくは、光電変換部PD1と光電変換部PD2との少なくとも一方が有機材料及び半導体材料とは異なる光電変換材料で構成されてもよい。
 1.5 単位画素の回路構成例
 次に、単位画素110の回路構成例について説明する。図6は、第1実施形態に係る単位画素の概略構成例を示す回路図である。図6に示すように、単位画素110は、RGB画素10と、EVS画素20とを1つずつ備える。
 (RGB画素10)
 RGB画素10は、例えば、光電変換部PD1と、転送ゲート11と、浮遊拡散領域FDと、リセットトランジスタ12と、増幅トランジスタ13と、選択トランジスタ14とを備える。
 選択トランジスタ14のゲートには、画素駆動線LD1に含まれる選択制御線が接続され、リセットトランジスタ12のゲートには、画素駆動線LD1に含まれるリセット制御線が接続され、転送ゲート11の後述する蓄積電極(後述において説明する図8の蓄積電極37参照)には、画素駆動線LD1に含まれる転送制御線が接続される。また、増幅トランジスタ13のドレインには、RGB信号処理回路103Aに一端が接続される垂直信号線VSL1が選択トランジスタ14を介して接続される。
 以下の説明において、リセットトランジスタ12、増幅トランジスタ13及び選択トランジスタ14は、まとめて画素回路とも称される。この画素回路には、浮遊拡散領域FD及び/又は転送ゲート11が含まれてもよい。
 光電変換部PD1は、例えば有機材料で構成され、入射した光を光電変換する。転送ゲート11は、光電変換部PD1に発生した電荷を転送する。浮遊拡散領域FDは、転送ゲート11が転送した電荷を蓄積する。増幅トランジスタ13は、浮遊拡散領域FDに蓄積された電荷に応じた電圧値の画素信号を垂直信号線VSL1に出現させる。リセットトランジスタ12は、浮遊拡散領域FDに蓄積された電荷を放出する。選択トランジスタ14は、読出し対象のRGB画素10を選択する。
 光電変換部PD1のアノードは、接地されており、カソ-ドは、転送ゲート11に接続される。転送ゲート11は、その詳細については後述において図8を用いて説明するが、例えば、蓄積電極37と読出し電極36とを備える。露光時には、光電変換部PD1に発生した電荷を蓄積電極37の近傍の半導体層35に集めるための電圧が、転送制御線を介して蓄積電極37に印加される。読出し時には、蓄積電極37の近傍の半導体層35に集められた電荷を読出し電極36を介して流出させるための電圧が、転送制御線を介して蓄積電極37に印加される。
 読出し電極36を介して流出した電荷は、読出し電極36と、リセットトランジスタ12のソースと、増幅トランジスタ13のゲートとを接続する配線構造によって構成される浮遊拡散領域FDに蓄積される。なお、リセットトランジスタ12のドレインは、例えば、電源電圧VDDや電源電圧VDDよりも低いリセット電圧が供給される電源線に接続されてもよい。
 増幅トランジスタ13のソースは、例えば、不図示の定電流回路等を介して電源線に接続されてよい。増幅トランジスタ13のドレインは、選択トランジスタ14のソースに接続され、選択トランジスタ14のドレインは、垂直信号線VSL1に接続される。
 浮遊拡散領域FDは、蓄積している電荷をその電荷量に応じた電圧値の電圧に変換する。なお、浮遊拡散領域FDは、例えば、対接地容量であってもよい。ただし、これに限定されず、浮遊拡散領域FDは、転送ゲート11のドレインとリセットトランジスタ12のソースと増幅トランジスタ13のゲートとが接続するノードにキャパシタなどを意図的に接続することで付加された容量等であってもよい。
 垂直信号線VSL1は、RGB信号処理回路103Aにおいてカラム毎(すなわち、垂直信号線VSL1毎)に設けられたAD(Analog-to-Digital)変換回路103aに接続される。AD変換回路103aは、例えば、比較器とカウンタとを備え、外部の基準電圧生成回路(DAC(Digital-to-Analog Converter))から入力されたシングルスロープやランプ形状等の基準電圧と、垂直信号線VSL1に出現した画素信号とを比較することで、アナログの画素信号をデジタルの画素信号に変換する。なお、AD変換回路103aは、例えば、CDS(Correlated Double Sampling)回路などを備え、kTCノイズ等を低減可能に構成されていてもよい。
 (EVS画素20)
 EVS画素20は、例えば、光電変換部PD2と、アドレスイベント検出回路210とを備える。
 光電変換部PD2は、光電変換部PD1と同様に、例えば半導体材料で構成され、入射した光を光電変換する。アドレスイベント検出回路210の詳細な回路構成について後述するが、上述したように、光電変換部PD2から流れ出した光電流の変化に基づいてイベントの有無を検出し、イベントを検出した際に、イベントの発生を表すイベントデータの出力許可を要求するリクエストをXアービタ104A及びYアービタ104Bにそれぞれに出力する。そして、アドレスイベント検出回路210は、イベントデータの出力許可を表す応答をXアービタ104A及びYアービタ104Bそれぞれから受け取った場合、垂直駆動回路102A及びEVS信号処理回路103Bに対してイベントデータを出力する。その際、アドレスイベント検出回路210は、イベントデータに対して、タイムスタンプ等のイベントが発生した相対的な時刻を表す時刻情報を含めてもよい。
 垂直信号線VSL2は、垂直信号線VSL1と同様、EVS信号処理回路103Bにおいてカラム毎(すなわち、垂直信号線VSL2毎)に設けられた信号処理回路103bに接続される。
 1.5.1 回路構成の変形例
 図7は、第1の実施形態の変形例に係る単位画素の概略構成例を示す回路図である。図7に示すように、単位画素110-1は、図6に示す単位画素110と同様の構成において、RGB画素10及びEVS画素20が共通の垂直信号線VSLに接続された構造を有する。垂直信号線VSLは、例えば、周辺回路において分岐され、スイッチ回路131又は132を介して、RGB信号処理回路103AのAD変換回路103a又はEVS信号処理回路103Bの信号処理回路103bに接続される。
 スイッチ回路131は、例えば、RGB信号処理回路103A又はEVS信号処理回路103Bに含まれる構成であってもよい。また、スイッチ回路131は、例えば、RGB画素10及び/又はEVS画素20の画素回路と同じ半導体基板に設けられてもよいし、信号処理回路が配置された半導体基板に設けられてもよいし、これらとは異なる半導体基板に設けられてもよい。また、スイッチ回路131を制御する制御信号は、垂直駆動回路102A又は水平駆動回路102Bから供給されてもよいし、センサ制御部1021(図3参照)から供給されてもよいし、その他の構成から供給されてもよい。
 このような構成によれば、画素アレイ部101に配線する垂直信号線VSLの数を削減することができ、それにより、受光面積の拡大による量子効率の向上や面積効率の向上によるイメージセンサ100の小型化や高解像度化等が可能となる。
 1.6 単位画素の断面構造例
 次に、図8を参照して、第1の実施形態に係るイメージセンサ100の断面構造例を説明する。図8は、第1の実施形態に係るイメージセンサの断面構造例を示す断面図である。ここでは、単位画素110における光電変換部PD1及びPD2が形成された半導体チップに着目してその断面構造例を説明する。
 また、以下の説明では、光の入射面が半導体基板50の裏面側(素子形成面と反対側)である、いわゆる裏面照射型の断面構造を例示するが、これに限定されず、光の入射面が半導体基板50の表面側(素子形成面側)である、いわゆる表面照射型の断面構造であってもよい。さらに、本説明では、RGB画素10の光電変換部PD1に有機材料が用いられた場合を例示するが、上述したように、光電変換部PD1及びPD2それぞれの光電変換材料には、有機材料及び半導体材料(無機材料ともいう)のうちの一方若しくは両方が用いられてよい。
 なお、光電変換部PD1の光電変換材料及び光電変換部PD2の光電変換材料の両方に半導体材料を用いる場合、イメージセンサ100は、光電変換部PD1と光電変換部PD2とが同一の半導体基板50に作り込まれた断面構造を有してもよいし、光電変換部PD1が作り込まれた半導体基板と光電変換部PD2が作り込まれた半導体基板とが貼り合わされた断面構造を有してもよいし、光電変換部PD1及びPD2のうちの一方が半導体基板50に作り込まれ、他方が半導体基板50の裏面又は表面上に形成された半導体層に作り込まれた断面構造を有してもよい。
 図8に示すように、本実施形態では、半導体基板50にEVS画素20の光電変換部PD2が形成され、半導体基板50の裏面側(素子形成面と反対側)の面上に、RGB画素10の光電変換部PD1が設けられた構造を備える。なお、図8では、説明の都合上、半導体基板50の裏面が紙面中上側に位置し、表面が下側に位置している。
 半導体基板50には、例えば、シリコン(Si)などの半導体材料が用いられてよい。ただし、これに限定されず、GaAs、InGaAs、InP、AlGaAs、InGaP、AlGaInP、InGaAsP等の化合物半導体を含む種々の半導体材料が用いられてよい。
 (RGB画素10)
 RGB画素10の光電変換部PD1は、絶縁層53を挟んで、半導体基板50の裏面側に設けられている。光電変換部PD1は、例えば、有機材料により構成された光電変換膜34と、光電変換膜34を挟むように配置された透明電極33及び半導体層35とを備える。光電変換膜34に対して紙面中上側(以降、紙面中上側を上面側とし、下側を下面側とする)に設けられた透明電極33は、例えば、光電変換部PD1のアノードとして機能し、下面側に設けられた半導体層35は、光電変換部PD1のカソードとして機能する。
 カソードとして機能する半導体層35は、絶縁層53中に形成された読出し電極36に電気的に接続される。読出し電極36は、絶縁層53及び半導体基板50を貫通する配線61、62、63及び64に接続することで、半導体基板50の表面(下面)側にまで電気的に引き出されている。なお、図8には示されていないが、配線64は、図6に示す浮遊拡散領域FDに電気的に接続されている。
 カソードとして機能する半導体層35の下面側には、絶縁層53を挟んで蓄積電極37が併設される。図8には示されていないが、蓄積電極37は、画素駆動線LD1における転送制御線に接続されており、上述したように、露光時には、光電変換部PD1に発生した電荷を蓄積電極37の近傍の半導体層35に集めるための電圧が印加され、読出し時には、蓄積電極37の近傍の半導体層35に集められた電荷を読出し電極36を介して流出させるための電圧が印加される。
 読出し電極36及び蓄積電極37は、透明電極33と同様に、透明な導電膜であってよい。透明電極33並びに読出し電極36及び蓄積電極37には、例えば、酸化インジウムスズ(ITO)や酸化亜鉛(IZO)などの透明導電膜が用いられてよい。ただし、これらに限定されず、光電変換部PD2が検出対象とする波長帯の光を透過させ得る導電膜であれば、種々の導電膜が使用されてよい。
 また、半導体層35には、例えば、IGZOなどの透明な半導体層が用いられてよい。ただし、これらに限定されず、光電変換部PD2が検出対象とする波長帯の光を透過させ得る半導体層であれば、種々の半導体層が使用されてよい。
 さらに、絶縁層53は、例えば、シリコン酸化膜(SiO)やシリコン窒化膜(SiN)などの絶縁膜が使用されてよい。ただし、これらに限定されず、光電変換部PD2が検出対象とする波長帯の光を透過させ得る絶縁膜であれば、種々の絶縁膜が使用されてよい。
 アノードとして機能する透明電極33の上面側には、封止膜32を挟んでカラーフィルタ31が設けられる。封止膜32は、例えば、窒化シリコン(SiN)などの絶縁材料で構成され、透明電極33からアルミニウム(Al)やチタニウム(Ti)などの原子が拡散することを防止するために、これらの原子を含み得る。
 カラーフィルタ31の配列については後述において説明するが、例えば、1つのRGB画素10に対しては、特定の波長成分の光を選択的に透過させるカラーフィルタ31が設けられる。ただし、色情報を取得するRGB画素10の代わりに輝度情報を取得するモノクロ画素を設ける場合には、カラーフィルタ31が省略されてもよい。
 (EVS画素20)
 EVS画素20の光電変換部PD2は、例えば、半導体基板50におけるpウェル領域42に形成されたp型半導体領域43と、p型半導体領域43の中央付近に形成されたn型半導体領域44とを備える。n型半導体領域44は、例えば、入射光の光量に応じた電荷を発生させる光電変換領域として機能し、p型半導体領域43は、光電変換により発生した電荷をn型半導体領域44内に集めるための電位勾配を形成する領域として機能する。
 光電変換部PD2の光入射面側には、例えば、IR光を選択的に透過させるIRフィルタ41が配置される。IRフィルタ41は、例えば、半導体基板50の裏面側に設けられた絶縁層53内に配置されてよい。IRフィルタ41を光電変換部PD2の光入射面に配置することで、光電変換部PD2への可視光の入射を抑制することが可能となるため、可視光に対するIR光のS/N比を改善することができる。それにより、IR光のより正確な検出結果を得ることが可能となる。
 半導体基板50の光入射面には、入射光(本例ではIR光)の反射を抑制するために、例えば、微細な凹凸構造が設けられている。この凹凸構造は、いわゆるモスアイ構造と称される構造であってもよいし、モスアイ構造とはサイズやピッチが異なる凹凸構造であってもよい。
 半導体基板50の表面(紙面中下面)側、すなわち、素子形成面側には、光電変換部PD2に発生した電荷をアドレスイベント検出回路210へ流出させる縦型トランジスタ45が設けられる。縦型トランジスタ45のゲート電極は、半導体基板50の表面からn型半導体領域44にまで達しており、層間絶縁膜56に形成された配線65及び66(画素駆動線LD2の転送制御線の一部)を介してアドレスイベント検出回路210に接続されている。
 (画素分離構造)
 半導体基板50には、複数の単位画素110の間を電気的に分離する画素分離部54が設けられており、この画素分離部54で区画された各領域内に、光電変換部PD2が設けられる。例えば、半導体基板50の裏面(図中上面)側からイメージセンサ100を見た場合、画素分離部54は、例えば、複数の単位画素110の間に介在する格子形状を有しており、各光電変換部PD2は、この画素分離部54で区画された各領域内に形成されている。
 画素分離部54には、例えば、タングステン(W)やアルミニウム(Al)などの光を反射する反射膜が用いられてもよい。それにより、光電変換部PD2内に進入した入射光を画素分離部54で反射させることが可能となるため、光電変換部PD2内での入射光の光路長を長くすることが可能となる。加えて、画素分離部54を光反射構造とすることで、隣接画素への光の漏れ込みを低減することが可能となるため、画質や測距精度等をより向上させることも可能となる。なお、画素分離部54を光反射構造とする構成は、反射膜を用いる構成に限定されず、例えば、画素分離部54に半導体基板50とは異なる屈折率の材料を用いることでも実現することができる。
 半導体基板50と画素分離部54との間には、例えば、固定電荷膜55が設けられる。固定電荷膜55は、例えば、半導体基板50との界面部分において正電荷(ホール)蓄積領域が形成されて暗電流の発生が抑制されるように、負の固定電荷を有する高誘電体を用いて形成されている。固定電荷膜55が負の固定電荷を有するように形成されていることで、その負の固定電荷によって、半導体基板138との界面に電界が加わり、正電荷(ホール)蓄積領域が形成される。
 固定電荷膜55は、例えば、ハフニウム酸化膜(HfO膜)で形成することができる。また、固定電荷膜55は、その他、例えば、ハフニウム、ジルコニウム、アルミニウム、タンタル、チタン、マグネシウム、イットリウム、ランタノイド元素等の酸化物の少なくとも1つを含むように形成することができる。
 なお、図8には、画素分離部54が半導体基板50の表面から裏面にまで達する、いわゆるFTI(Full Trench Isolation)構造を有する場合が例示されているが、これに限定されず、例えば、画素分離部54が半導体基板50の裏面又は表面から半導体基板50の中腹付近まで形成された、いわゆるDTI(Deep Trench Isolation)構造など、種々の素子分離構造を採用することが可能である。
 (瞳補正)
 カラーフィルタ31の上面上には、シリコン酸化膜やシリコン窒化膜などによる平坦化膜52が設けられる。平坦化膜52の上面上は、例えば、CMP(Chemical Mechanical Polishing)により平坦化され、この平坦化された上面上には、単位画素110ごとのオンチップレンズ51が設けられる。各単位画素110のオンチップレンズ51は、入射光を光電変換部PD1及びPD2に集めるような曲率を備えている。なお、各単位画素110におけるオンチップレンズ51、カラーフィルタ31、IRフィルタ41、光電変換部PD2の位置関係は、例えば、画素アレイ部101の中心からの距離(像高)に応じて調節されていてもよい(瞳補正)。
 また、図8に示す構造において、斜めに入射した光が隣接画素へ漏れ込むことを防止するための遮光膜が設けられてもよい。遮光膜は、半導体基板50の内部に設けられた画素分離部54の上方(入射光の光路における上流側)に位置し得る。ただし、瞳補正をする場合、遮光膜の位置は、例えば、画素アレイ部101の中心からの距離(像高)に応じて調節されていてもよい。このような遮光膜は、例えば、封止膜32内や平坦化膜52内に設けられてよい。また、遮光膜の材料には、例えば、アルミニウム(Al)やタングステン(W)などの遮光材料が用いられてよい。
 1.7 有機材料
 第1の実施形態において、光電変換膜34の材料に有機系半導体を用いる場合、光電変換膜34の層構造は、以下のような構造とすることが可能である。ただし、積層構造の場合、その積層順は適宜入れ替えることが可能である。
(1)p型有機半導体の単層構造
(2)n型有機半導体の単層構造
(3-1)p型有機半導体層/n型有機半導体層の積層構造
(3-2)p型有機半導体層/p型有機半導体とn型有機半導体との混合層(バルクヘテロ構造)/n型有機半導体層の積層構造
(3-3)p型有機半導体層/p型有機半導体とn型有機半導体との混合層(バルクヘテロ構造)の積層構造
(3-4)n型有機半導体層/p型有機半導体とn型有機半導体との混合層(バルクヘテロ構造)の積層構造
(4)p型有機半導体とp型有機半導体との混合層(バルクヘテロ構造)
 ここで、p型有機半導体としては、ナフタレン誘導体、アントラセン誘導体、フェナントレン誘導体、ピレン誘導体、ペリレン誘導体、テトラセン誘導体、ペンタセン誘導体、キナクリドン誘導体、チオフェン誘導体、チエノチオフェン誘導体、ベンゾチオフェン誘導体、ベンゾチエノベンゾチオフェン誘導体、トリアリルアミン誘導体、カルバゾール誘導体、ペリレン誘導体、ピセン誘導体、クリセン誘導体、フルオランテン誘導体、フタロシアニン誘導体、サブフタロシアニン誘導体、サブポルフィラジン誘導体、複素環化合物を配位子とする金属錯体、ポリチオフェン誘導体、ポリベンゾチアジアゾール誘導体、ポリフルオレン誘導体等を挙げることができる。
 n型有機半導体としては、フラーレン及びフラーレン誘導体〈例えば、C60や、C70,C74等のフラーレン(高次フラーレン、内包フラーレン等)又はフラーレン誘導体(例えば、フラーレンフッ化物やPCBMフラーレン化合物、フラーレン多量体等)〉、p型有機半導体よりもHOMO及びLUMOが大きい(深い)有機半導体、透明な無機金属酸化物を挙げることができる。
 n型有機半導体として、具体的には、窒素原子、酸素原子、硫黄原子を含有する複素環化合物、例えば、ピリジン誘導体、ピラジン誘導体、ピリミジン誘導体、トリアジン誘導体、キノリン誘導体、キノキサリン誘導体、イソキノリン誘導体、アクリジン誘導体、フェナジン誘導体、フェナントロリン誘導体、テトラゾール誘導体、ピラゾール誘導体、イミダゾール誘導体、チアゾール誘導体、オキサゾール誘導体、イミダゾール誘導体、ベンズイミダゾール誘導体、ベンゾトリアゾール誘導体、ベンズオキサゾール誘導体、ベンズオキサゾール誘導体、カルバゾール誘導体、ベンゾフラン誘導体、ジベンゾフラン誘導体、サブポルフィラジン誘導体、ポリフェニレンビニレン誘導体、ポリベンゾチアジアゾール誘導体、ポリフルオレン誘導体等を分子骨格の一部に有する有機分子、有機金属錯体やサブフタロシアニン誘導体を挙げることができる。
 フラーレン誘導体に含まれる基等として、ハロゲン原子;直鎖、分岐若しくは環状のアルキル基若しくはフェニル基;直鎖若しくは縮環した芳香族化合物を有する基;ハロゲン化物を有する基;パーシャルフルオロアルキル基;パーフルオロアルキル基;シリルアルキル基;シリルアルコキシ基;アリールシリル基;アリールスルファニル基;アルキルスルファニル基;アリールスルホニル基;アルキルスルホニル基;アリールスルフィド基;アルキルスルフィド基;アミノ基;アルキルアミノ基;アリールアミノ基;ヒドロキシ基;アルコキシ基;アシルアミノ基;アシルオキシ基;カルボニル基;カルボキシ基;カルボキソアミド基;カルボアルコキシ基;アシル基;スルホニル基;シアノ基;ニトロ基;カルコゲン化物を有する基;ホスフィン基;ホスホン基;これらの誘導体を挙げることができる。
 以上のような有機系材料から構成された光電変換膜34の膜厚としては、次の値に限定されるものではないが、例えば、1×10-8m(メートル)乃至5×10-7m、好ましくは、2.5×10-8m乃至3×10-7m、より好ましくは、2.5×10-8m乃至2×10-7m、一層好ましくは、1×10-7m乃至1.8×10-7mを例示することができる。尚、有機半導体は、p型、n型と分類されることが多いが、p型とは正孔を輸送し易いという意味であり、n型とは電子を輸送し易いという意味であり、無機半導体のように熱励起の多数キャリアとして正孔又は電子を有しているという解釈に限定されるものではない。
 緑色の波長の光を光電変換する光電変換膜34を構成する材料としては、例えば、ローダミン系色素、メラシアニン系色素、キナクリドン誘導体、サブフタロシアニン系色素(サブフタロシアニン誘導体)等を挙げることができる。
 また、青色の光を光電変換する光電変換膜34を構成する材料としては、例えば、クマリン酸色素、トリス-8-ヒドリキシキノリアルミニウム(Alq3)、メラシアニン系色素等を挙げることができる。
 さらに、赤色の光を光電変換する光電変換膜34を構成する材料としては、例えば、フタロシアニン系色素、サブフタロシアニン系色素(サブフタロシアニン誘導体)を挙げることができる。
 さらにまた、光電変換膜34としては、紫外域から赤色域にかけて略全ての可視光に対して感光するパンクロマチックな感光性有機光電変換膜を用いることも可能である。
 1.8 平面構造例
 次に、本実施形態に係る画素アレイ部の平面構造例について説明する。図9は、第1の実施形態に係る画素アレイ部の各層の平面レイアウト例を示す図であり、(A)はオンチップレンズ51の平面レイアウト例を示し、(B)はカラーフィルタ31の平面レイアウト例を示し、(C)は蓄積電極37の平面レイアウト例を示し、(D)は光電変換部PD2の平面レイアウト例を示している。なお、図9において、(A)~(D)は、半導体基板50の素子形成面と平行な面の平面レイアウト例を示している。また、本説明では、赤色(R)の波長成分を選択的に検出する画素(以下、R画素10rという)と、緑色(G)の波長成分を選択的に検出する画素(以下、G画素10gという)と、青色(B)の波長成分の光を選択的に検出する画素(以下、B画素10bという)とより構成された2×2画素のベイヤー配列を単位配列とする場合を例示する。
 図9の(A)~(D)に示すように、本実施形態では、1つの単位画素110に対して、オンチップレンズ51と、カラーフィルタ31と、蓄積電極37と、光電変換部PD2とが1つずつ設けられている。なお、本説明において、1つの蓄積電極37は1つのRGB画素10に相当し、1つの光電変換部PD2は1つのEVS画素20に相当する。
 このように、1つの単位画素110において、1つのRGB画素10と1つのEVS画素20とを入射光の進行方向に沿って配列させることで、RGB画素10とEVS画素20との入射光に対する同軸性を向上することが可能となるため、RGB画像とEVS画像との間に発生する空間的なズレを抑制することが可能となる。それにより、異なるセンサにより取得された情報(RGB画像及びEVS画像)を統合的に処理することで得られた結果の精度を向上することが可能となる。
 1.9 画素駆動線の配線例
 次に、RGB画素10と垂直駆動回路102Aとを接続する画素駆動線LD1及びEVS画素20と垂直駆動回路102Aとを接続する画素駆動線LD2との配線例について説明する。図10は、第1の実施形態に係るRGB画素に対する画素駆動線の配線例を示す平面図であり、図11は、第1の実施形態に係るEVS画素に対する画素駆動線の配線例を示す平面図である。
 図10及び図11に示すように、RGB画素10を駆動するための画素駆動線LD1と、EVS画素20を駆動するための画素駆動線LD2とは、例えば、直行するように配線されてもよい。ただし、これに限定されず、RGB駆動線LD1とIR駆動線LD2とは、平行に配線されてもよい。その場合、画素駆動線LD1と画素駆動線LD2とは、各種制御信号を、画素アレイ部101に対して同一の側から供給してもよいし、異なる側から供給してもよい。
 また、図12は、第1の実施形態に係るEVS画素に対する信号線の配線例を示す平面図である。図12に示すように、Xアービタ104Aは、例えば、列方向に延在する信号線を介して各列のEVS画素20に接続され、Yアービタ104Bは、例えば、行方向に延在する信号線を介して各行のEVS画素20に接続される。
 1.10 イメージセンサの積層構造例
 図13は、第1の実施形態に係るイメージセンサの積層構造例を示す図である。図13に示すように、イメージセンサ100は、画素チップ140と回路チップ150とが上下に積層された構造を備える。画素チップ140は、例えば、RGB画素10及びEVS画素20を含む単位画素110が配列する画素アレイ部101を備える半導体チップであり、回路チップ150は、例えば、図6に示す画素回路及びアドレスイベント検出回路210が配列する半導体チップである。
 画素チップ140と回路チップ150との接合には、例えば、それぞれの接合面を平坦化して両者を電子間力で貼り合わせる、いわゆる直接接合を用いることができる。ただし、これに限定されず、例えば、互いの接合面に形成された銅(Cu)製の電極パッド同士をボンディングする、いわゆるCu-Cu接合や、その他、バンプ接合などを用いることも可能である。
 また、画素チップ140と回路チップ150とは、例えば、半導体基板を貫通するTSV(Through-Silicon Via)などの接続部を介して電気的に接続される。TSVを用いた接続には、例えば、画素チップ140に設けられたTSVと画素チップ140から回路チップ150にかけて設けられたTSVとの2つのTSVをチップ外表で接続する、いわゆるツインTSV方式や、画素チップ140から回路チップ150まで貫通するTSVで両者を接続する、いわゆるシェアードTSV方式などを採用することができる。
 ただし、画素チップ140と回路チップ150との接合にCu-Cu接合やバンプ接合を用いた場合には、Cu-Cu接合部やバンプ接合部を介して両者が電気的に接続されてもよい。
 1.11 認識動作例
 次に、本実施形態に係る認識システムが実行する認識動作の一例について説明する。なお、ここでは、図2及び図3を用いて説明した電子機器1を参照しつつ、図1を用いて説明した認識システム1000の認識動作例を説明するが、上述したように、認識動作は、イメージセンサ100内で完結するように実現されてもよいし、イメージセンサ100で取得された画像データをアプリケーションプロセッサ1100内で処理することで実現されてもよし、イメージセンサ100で取得された画像データに対してイメージセンサ100内で一部の処理を実行し、残りをアプリケーションプロセッサ1100内で実行することで実現されてもよい。
 図14は、第1の実施形態に係る認識動作の一例を示すフローチャートである。図14に示すように、本動作では、まず、システム制御部1050は、所定のサンプリング周期でレーザ光源1010を駆動することで、レーザ光源1010に所定のサンプリング周期の照射光を出射させる(ステップS11)とともに、レーザ光源1010の駆動と同期する形で所定のサンプリング周期でイメージセンサ100におけるEVSセンサ部1003(図1参照)を駆動することで、所定のサンプリング周期でEVS画像データを取得する(ステップS12)。
 また、システム制御部1050は、イメージセンサ100におけるRGBセンサ部1001(図1参照)を駆動することで、RGB画像データを取得する(ステップS13)。
 なお、RGB画像データの取得は、EVS画像データの取得と並行して実行されてもよいし、EVS画像データの取得期間とは別の期間に実行されてもよい。その際、RGB画像データの取得とEVS画像データの取得とは、どちらが先に実行されてもよい。また、RGB画像データの取得は、K回(Kは1以上の整数)のEVS画像データの取得に対して1回実行されてもよい。
 このようにして取得されたRGB画像データ及びEVS画像データのうち、RGB画像データは、RGB画像処理部1002で所定の処理がなされた後、認識処理部1005に入力される。なお、ステップS11又はS12において、図1におけるイベント信号処理部1004からRGBセンサ部1001又はRGB画像処理部1002にROI情報が入力されている場合、認識処理部1005には、ROI情報に対応する領域のRGB画像データ及び/又はEVS画像データが入力されてもよい。
 次に、認識処理部1005が、入力されたRGB画像データを用いて、イメージセンサ100の画角内に存在する物体の認識処理(第1認識処理)を実行する(ステップS14)。第1認識処理には、第1の実施形態と同様に、パターン認識などの認識処理や人工知能による認識処理などが用いられてよい。
 次に、認識処理部1005が、第1認識処理の結果と、EVS画像データとを用いて、画角内に存在する物体をより正確に認識する認識処理(第2認識処理)を実行する(ステップS15)。第2認識処理には、第1認識処理と同様に、パターン認識などの認識処理や人工知能による認識処理などが用いられてよい。
 次に、認識処理部1005は、ステップS15で得られた第2認識処理の結果を、例えば、インタフェース部1006を介して外部へ出力する(ステップS16)。なお、認識処理部1005は、第1認識処理の一部を実行し、その結果(中間データ等)を外部へ出力してもよいし、第2認識処理の一部を実行し、その結果(中間データ等)を出力してもよい。
 その後、認識システム370は、本動作を終了するか否かを判断し(ステップS17)、終了しない場合(ステップS17のNO)、ステップS11へリターンする。一方、終了する場合(ステップS17のYES)、認識システム370は、本動作を終了する。
 1.12 EVS画素の回路構成例
 続いて、EVS画素20の具体的な回路構成について、いくつか例を挙げて説明する。上述したように、EVS画素20は、輝度変化が所定の閾値を超えたことをイベントとして検出するイベント検出機能を有する。
 EVS画素20は、光電流の変化量が所定の閾値を超えたか否かにより、イベントの発生の有無を検出する。イベントは、例えば、光電流の変化量が上限の閾値を超えた旨を示すオンイベント、及び、その変化量が下限の閾値を下回った旨を示すオフイベントから成る。また、イベントの発生を表すイベントデータ(イベント情報)は、例えば、オンイベントの検出結果を示す1ビット、及び、オフイベントの検出結果を示す1ビットから成る。尚、EVS画素20については、オンイベントのみについて検出する機能を有する構成とすることもできるし、オフイベントのみについて検出する機能を有する構成とすることもできる。
 1.12.1 回路構成例1
 回路構成例1に係るEVS画素20-1のアドレスイベント検出回路210は、1つのコンパレータを用いて、オンイベントの検出、及び、オフイベントの検出を時分割で行う構成を備える。回路構成例1に係るEVS画素20の回路図を図15に示す。回路構成例1に係るEVS画素20は、光電変換部PD2とアドレスイベント検出回路210とからなり、アドレスイベント検出回路210は、受光回路212、メモリ容量213、コンパレータ214、リセット回路215、インバータ216、及び、出力回路217を有する回路構成となっている。EVS画素20は、センサ制御部1021による制御の下に、オンイベント及びオフイベントの検出を行う。
 光電変換部PD2は、第1電極(アノード電極)が受光回路212の入力端に接続され、第2電極(カソード電極)が基準電位ノードであるグランドノードに接続されており、入射光を光電変換して光の強度(光量)に応じた電荷量の電荷を生成する。また、光電変換部PD2は、生成した電荷を光電流Iphotoに変換する。
 受光回路212は、光電変換部PD2が検出した、光の強度(光量)に応じた光電流Iphotoを電圧Vprに変換する。ここで、光の強度に対する電圧Vprの関係は、通常、対数の関係である。すなわち、受光回路212は、光電変換部PD2の受光面に照射される光の強度に対応する光電流Iphotoを、対数関数である電圧Vprに変換する。但し、光電流Iphotoと電圧Vprとの関係は、対数の関係に限られるものではない。
 受光回路212から出力される、光電流Iphotoに応じた電圧Vprは、メモリ容量213を経た後、電圧Vdiffとしてコンパレータ214の第1入力である反転(-)入力となる。コンパレータ214は、通常、差動対トランジスタによって構成される。コンパレータ214は、センサ制御部1021から与えられる閾値電圧Vを第2入力である非反転(+)入力とし、オンイベントの検出、及び、オフイベントの検出を時分割で行う。また、オンイベント/オフイベントの検出後は、リセット回路215によって、EVS画素20のリセットが行われる。
 センサ制御部1021は、閾値電圧Vとして、時分割で、オンイベントを検出する段階では電圧Vonを出力し、オフイベントを検出する段階では電圧Voffを出力し、リセットを行う段階では電圧Vresetを出力する。電圧Vresetは、電圧Vonと電圧Voffとの間の値、好ましくは、電圧Vonと電圧Voffとの中間の値に設定される。ここで、「中間の値」とは、厳密に中間の値である場合の他、実質的に中間の値である場合も含む意味であり、設計上あるいは製造上生ずる種々のばらつきの存在は許容される。
 また、センサ制御部1021は、EVS画素20に対して、オンイベントを検出する段階ではON選択信号を出力し、オフイベントを検出する段階ではOFF選択信号を出力し、リセットを行う段階ではグローバルリセット信号(Global Reset)を出力する。ON選択信号は、インバータ216と出力回路217との間に設けられた選択スイッチSWonに対してその制御信号として与えられる。OFF選択信号は、コンパレータ214と出力回路217との間に設けられた選択スイッチSWoffに対してその制御信号として与えられる。
 コンパレータ214は、オンイベントを検出する段階では、電圧Vonと電圧Vdiffとを比較し、電圧Vdiffが電圧Vonを超えたとき、光電流Iphotoの変化量が上限の閾値を超えた旨を示すオンイベント情報Onを比較結果として出力する。オンイベント情報Onは、インバータ216で反転された後、選択スイッチSWonを通して出力回路217に供給される。
 コンパレータ214は、オフイベントを検出する段階では、電圧Voffと電圧Vdiffとを比較し、電圧Vdiffが電圧Voffを下回ったとき、光電流Iphotoの変化量が下限の閾値を下回った旨を示すオフイベント情報Offを比較結果として出力する。オフイベント情報Offは、選択スイッチSWoffを通して出力回路217に供給される。
 リセット回路215は、リセットスイッチSWRS、2入力OR回路2151、及び、2入力AND回路2152を有する構成となっている。リセットスイッチSWRSは、コンパレータ214の反転(-)入力端子と出力端子との間に接続されており、オン(閉)状態となることで、反転入力端子と出力端子との間を選択的に短絡する。
 OR回路2151は、選択スイッチSWonを経たオンイベント情報On、及び、選択スイッチSWoffを経たオフイベント情報Offを2入力とする。AND回路2152は、OR回路2151の出力信号を一方の入力とし、センサ制御部1021から与えられるグローバルリセット信号を他方の入力とし、オンイベント情報On又はオフイベント情報Offのいずれかが検出され、グローバルリセット信号がアクティブ状態のときに、リセットスイッチSWRSをオン(閉)状態とする。
 このように、AND回路2152の出力信号がアクティブ状態となることで、リセットスイッチSWRSは、コンパレータ214の反転入力端子と出力端子との間を短絡し、EVS画素20に対して、グローバルリセットを行う。これにより、イベントが検出されたEVS画素20だけについてリセット動作が行われる。
 出力回路217は、オフイベント出力トランジスタNM、オンイベント出力トランジスタNM、及び、電流源トランジスタNMを有する構成となっている。オフイベント出力トランジスタNMは、そのゲート部に、オフイベント情報Offを保持するためのメモリ(図示せず)を有している。このメモリは、オフイベント出力トランジスタNMのゲート寄生容量から成る。
 オフイベント出力トランジスタNMと同様に、オンイベント出力トランジスタNMは、そのゲート部に、オンイベント情報Onを保持するためのメモリ(図示せず)を有している。このメモリは、オンイベント出力トランジスタNMのゲート寄生容量から成る。
 読出し段階において、オフイベント出力トランジスタNMのメモリに保持されたオフイベント情報Off、及び、オンイベント出力トランジスタNMのメモリに保持されたオンイベント情報Onは、センサ制御部1021から電流源トランジスタNMのゲート電極に行選択信号が与えられることで、画素アレイ部101の画素行毎に、出力ラインnRxOff及び出力ラインnRxOnを通して読出し回路130に転送される。読出し回路130は、例えば、EVS信号処理回路103B(図4参照)内に設けられる回路である。
 上述したように、回路構成例1に係るEVS画素20は、1つのコンパレータ214を用いて、センサ制御部1021による制御の下に、オンイベントの検出、及び、オフイベントの検出を時分割で行うイベント検出機能を有する構成となっている。
 1.12.2 回路構成例2
 回路構成例2に係るEVS画素20-2のアドレスイベント検出回路210は、コンパレータを2つ用いて、オンイベントの検出、及び、オフイベントの検出を並行して(同時に)行う例である。回路構成例2に係るEVS画素20の回路図を図16に示す。
 図16に示すように、回路構成例2に係るアドレスイベント検出回路210は、オンイベントを検出するためのコンパレータ214A、及び、オフイベントを検出するためのコンパレータ214Bを有する構成となっている。このように、2つのコンパレータ214A及びコンパレータ214Bを用いてイベント検出を行うことで、オンイベントの検出動作とオフイベントの検出動作とを並行して実行することができる。その結果、オンイベント及びオフイベントの検出動作について、より速い動作を実現できる。
 オンイベント検出用のコンパレータ214Aは、通常、差動対トランジスタによって構成される。コンパレータ214Aは、光電流Iphotoに応じた電圧Vdiffを第1入力である非反転(+)入力とし、閾値電圧Vとしての電圧Vonを第2入力である反転(-)入力とし、両者の比較結果としてオンイベント情報Onを出力する。オフイベント検出用のコンパレータ214Bも、通常、差動対トランジスタによって構成される。コンパレータ214Bは、光電流Iphotoに応じた電圧Vdiffを第1入力である反転入力とし、閾値電圧Vとしての電圧Voffを第2入力である非反転入力とし、両者の比較結果としてオフイベント情報Offを出力する。
 コンパレータ214Aの出力端子と出力回路217のオンイベント出力トランジスタNMのゲート電極との間には、選択スイッチSWonが接続されている。コンパレータ214Bの出力端子と出力回路217のオフイベント出力トランジスタNMのゲート電極との間には、選択スイッチSWoffが接続されている。選択スイッチSWon及び選択スイッチSWoffは、センサ制御部1021から出力されるサンプル信号によりオン(閉)/オフ(開)制御が行われる。
 コンパレータ214Aの比較結果であるオンイベント情報Onは、選択スイッチSWonを介して、オンイベント出力トランジスタNMのゲート部のメモリに保持される。オンイベント情報Onを保持するためのメモリは、オンイベント出力トランジスタNMのゲート寄生容量から成る。コンパレータ214Bの比較結果であるオフイベント情報Offは、選択スイッチSWoffを介して、オフイベント出力トランジスタNMのゲート部のメモリに保持される。オフイベント情報Offを保持するためのメモリは、オフイベント出力トランジスタNMのゲート寄生容量から成る。
 オンイベント出力トランジスタNMのメモリに保持されたオンイベント情報On、及び、オフイベント出力トランジスタNMのメモリに保持されたオフイベント情報Offは、センサ制御部1021から電流源トランジスタNMのゲート電極に行選択信号が与えられることで、画素アレイ部101の画素行毎に、出力ラインnRxOn及び出力ラインnRxOffを通して読出し回路130に転送される。
 上述したように、回路構成例2に係るEVS画素20は、2つのコンパレータ214A及びコンパレータ214Bを用いて、センサ制御部1021による制御の下に、オンイベントの検出と、オフイベントの検出とを並行して(同時に)行うイベント検出機能を有する構成となっている。
 1.12.3 回路構成例3
 回路構成例3に係るEVS画素20-3のアドレスイベント検出回路210は、オンイベントのみについて検出を行う例である。回路構成例3に係るEVS画素20の回路図を図17に示す。
 回路構成例3に係るアドレスイベント検出回路210は、1つのコンパレータ214を有している。コンパレータ214は、光電流Iphotoに応じた電圧Vdiffを第1入力である反転(-)入力とし、センサ制御部1021から閾値電圧Vとして与えられる電圧Vonを第2入力である非反転(+)入力とし、両者を比較することによってオンイベント情報Onを比較結果として出力する。ここで、コンパレータ214を構成する差動対トランジスタとしてN型トランジスタを用いることで、回路構成例1(図17参照)で用いていたインバータ216を不要とすることができる。
 コンパレータ214の比較結果であるオンイベント情報Onは、オンイベント出力トランジスタNMのゲート部のメモリに保持される。オンイベント情報Onを保持するためのメモリは、オンイベント出力トランジスタNMのゲート寄生容量から成る。オンイベント出力トランジスタNMのメモリに保持されたオンイベント情報Onは、センサ制御部1021から電流源トランジスタNMのゲート電極に行選択信号が与えられることで、画素アレイ部101の画素行毎に、出力ラインnRxOnを通して読出し回路130に転送される。
 上述したように、回路構成例3に係るEVS画素20は、1つのコンパレータ214を用いて、センサ制御部1021による制御の下に、オンイベント情報Onのみについて検出を行うイベント検出機能を有する構成となっている。
 1.12.4 回路構成例4
 回路構成例4に係るEVS画素20-4のアドレスイベント検出回路210は、オフイベントのみの検出を行う例である。回路構成例4に係るEVS画素20の回路図を図18に示す。
 回路構成例4に係るアドレスイベント検出回路210は、1つのコンパレータ214を有している。コンパレータ214は、光電流Iphotoに応じた電圧Vdiffを第1入力である反転(-)入力とし、センサ制御部1021から閾値電圧Vとして与えられる電圧Voffを第2入力である非反転(+)入力とし、両者を比較することによってオフイベント情報Offを比較結果として出力する。コンパレータ214を構成する差動対トランジスタとしては、P型トランジスタを用いることができる。
 コンパレータ214の比較結果であるオフイベント情報Offは、オフイベント出力トランジスタNMのゲート部のメモリに保持される。オフイベント情報Offを保持するメモリは、オフイベント出力トランジスタNMのゲート寄生容量から成る。オフイベント出力トランジスタNMのメモリに保持されたオフイベント情報Offは、センサ制御部1021から電流源トランジスタNMのゲート電極に行選択信号が与えられることで、画素アレイ部101の画素行毎に、出力ラインnRxOffを通して読出し回路130に転送される。
 上述したように、回路構成例4に係るEVS画素20は、1つのコンパレータ214を用いて、センサ制御部1021による制御の下に、オフイベント情報Offのみについて検出を行うイベント検出機能を有する構成となっている。尚、図18の回路構成では、AND回路2152の出力信号でリセットスイッチSWRSを制御しているが、グローバルリセット信号で直接リセットスイッチSWRSを制御する構成とすることもできる。
 1.13 レーザ光源とイメージセンサとの同期制御
 上記の回路構成例1、回路構成例2、回路構成例3、又は、回路構成例4に係るEVS画素20を有するイメージセンサ100を用いる電子機器1において、本実施形態では、システム制御部1050による制御の下に、レーザ光源1010とイメージセンサ100とを同期させて制御することを特徴としている。
 レーザ光源1010とイメージセンサ100とを同期させて制御することにより、被写体の動きに起因するイベント情報の中に、それ以外のイベント情報が混在して出力されないようにすることができる。被写体の動きに起因するイベント情報以外のイベント情報としては、例えば、被写体に投影されるパターンの変化や背景光に起因するイベント情報を例示することができる。被写体の動きに起因するイベント情報の中に、それ以外のイベント情報が混在して出力されないようにすることで、被写体の動きに起因するイベント情報をより確実に取得することができるとともに、イベント情報を処理するアプリケーションプロセッサにおいて、混在した状態のイベント情報を分離する処理を不要とすることができる。
 以下に、レーザ光源1010とイメージセンサ100とを同期させて制御するための具体的な実施例について説明する。この同期制御は、図2及び図3に示すシステム制御部1050による制御の下に、光源駆動部1011及びセンサ制御部1021によって行われる。
 1.13.1 実施例1
 実施例1は、EVS画素20が回路構成例1(即ち、コンパレータを1つ用いて、オンイベント及びオフイベントの検出を時分割で行う例)の場合の同期制御例である。実施例1に係る同期制御の処理のフローチャートを図19に示す。
 センサ制御部1021は、コンパレータ214の反転入力である電圧Vdiffをグローバルリセットするとともに、コンパレータ214の非反転入力である閾値電圧Vを、オンイベント検出用の電圧Vonに設定する(ステップS101)。
 電圧Vdiffのグローバルリセットについては、読出し回路130へのイベント情報の転送後に行うようにしてもよい。また、電圧Vdiffのグローバルリセットについては、図15に示すリセット回路215におけるリセットスイッチSWRSをオン(閉)状態にすることによって行われる。これらの点については、後述する各実施例においても同じである。
 次に、光源部であるレーザ光源1010から被写体(測定対象物)に対してあらかじめ定められたパターンの光を照射する(ステップS102)。このレーザ光源1010の駆動は、システム制御部1050による制御の下に、光源駆動部1011によって行われる。この点については、後述する実施例においても同じである。
 次に、センサ制御部1021は、コンパレータ214の比較結果であるオンイベント情報Onをメモリに格納する(ステップS103)。ここで、オンイベント情報Onを格納するためのメモリは、出力回路217におけるオンイベント出力トランジスタNMのゲート寄生容量である。
 次に、センサ制御部1021は、閾値電圧Vを、オフイベント検出用の電圧Voffに設定する(ステップS104)。次に、光源駆動部1011は、被写体への光の照射を終了する(ステップS105)。次に、センサ制御部1021は、コンパレータ214の比較結果であるオフイベント情報Offをメモリに格納する(ステップS106)。ここで、オフイベント情報Offを格納するためのメモリは、出力回路217におけるオフイベント出力トランジスタNMのゲート寄生容量である。
 しかる後、センサ制御部1021は、オンイベント出力トランジスタNMのゲート寄生容量に格納されたオンイベント情報On、及び、オフイベント出力トランジスタNMのゲート寄生容量に格納されたオフイベント情報Offを順次読出し回路130に転送する(ステップS107)。
 その後、システム制御部1050は、本動作を終了するか否かを判断し(ステップS108)、終了する場合(ステップS108のYES)、同期制御のための一連の処理を終了し、終了しない場合(ステップS108のNO)、ステップS101へリターンし、以降の動作を実行する。
 1.13.2 実施例2
 実施例2は、EVS画素20が回路構成例2(即ち、コンパレータを2つ用いて、オンイベント及びオフイベントの検出を並行して行う例)の場合の同期制御例である。実施例2に係る同期制御の処理のフローチャートを図20に示す。
 センサ制御部1021は、コンパレータ214の反転入力である電圧Vdiffをグローバルリセットする(ステップS121)。次に、光源駆動部1011は、光源部であるレーザ光源1010から被写体に対してあらかじめ定められたパターンの光を照射する(ステップS122)。
 次に、センサ制御部1021は、コンパレータ214の比較結果であるオンイベント情報Onをメモリに格納する(ステップS123)。ここで、オンイベント情報Onを格納するためのメモリは、出力回路217におけるオンイベント出力トランジスタNMのゲート寄生容量である。
 次に、光源駆動部1011は、被写体への光の照射を終了する(ステップS124)。次に、センサ制御部1021は、コンパレータ214の比較結果であるオフイベント情報Offをメモリに格納する(ステップS125)。ここで、オフイベント情報Offを格納するためのメモリは、出力回路217におけるオフイベント出力トランジスタNMのゲート寄生容量である。
 しかる後、センサ制御部1021は、オンイベント出力トランジスタNMのゲート寄生容量に格納されたオンイベント情報On、及び、オフイベント出力トランジスタNMのゲート寄生容量に格納されたオフイベント情報Offを順次読出し回路130に転送する(ステップS126)。
 その後、システム制御部1050は、本動作を終了するか否かを判断し(ステップS127)、終了する場合(ステップS127のYES)、同期制御のための一連の処理を終了し、終了しない場合(ステップS127のNO)、ステップS121へリターンし、以降の動作を実行する。
 1.13.3 実施例3
 実施例3は、EVS画素20が回路構成例3(即ち、コンパレータを1つ用いて、オンイベントのみについて検出を行う例)の場合の同期制御例である。実施例3に係る同期制御の処理のフローチャートを図21に示す。
 センサ制御部1021は、コンパレータ214の反転入力である電圧Vdiffをグローバルリセットする(ステップS141)。次に、光源駆動部1011は、光源部であるレーザ光源1010から被写体に対してあらかじめ定められたパターンの光を照射する(ステップS142)。
 次に、センサ制御部1021は、コンパレータ214の比較結果であるオンイベント情報Onをメモリに格納する(ステップS143)。ここで、オンイベント情報Onを格納するためのメモリは、出力回路217におけるオンイベント出力トランジスタNMのゲート寄生容量である。しかる後、センサ制御部1021は、オンイベント出力トランジスタNMのゲート寄生容量に格納されたオンイベント情報Onを順次読出し回路130に転送する(ステップS144)。
 その後、システム制御部1050は、本動作を終了するか否かを判断し(ステップS145)、終了する場合(ステップS145のYES)、同期制御のための一連の処理を終了し、終了しない場合(ステップS145のNO)、ステップS141へリターンし、以降の動作を実行する。
 1.13.4 実施例4
 実施例4は、EVS画素20が回路構成例4(即ち、コンパレータを1つ用いて、オフイベントのみについて検出を行う例)の場合の同期制御例である。実施例4に係る同期制御の処理のフローチャートを図22に示す。
 センサ制御部1021は、コンパレータ214の反転入力である電圧Vdiffをグローバルリセットする(ステップS161)。次に、光源駆動部1011は、光源部であるレーザ光源1010から被写体に対してあらかじめ定められたパターンの光を照射する(ステップS162)。
 次に、センサ制御部1021は、リセットスイッチSWRSをオン状態にする(ステップS163)。次に、光源駆動部1011は、被写体への光の照射を終了する(ステップS164)。次に、センサ制御部1021は、コンパレータ214の比較結果であるオフイベント情報Offをメモリに格納する(ステップS165)。ここで、オフイベント情報Offを格納するためのメモリは、出力回路217におけるオフイベント出力トランジスタNMのゲート寄生容量である。
 しかる後、センサ制御部1021は、オフイベント出力トランジスタNMのゲート寄生容量に格納されたオフイベント情報Offを順次読出し回路130に転送する(ステップS166)。
 その後、システム制御部1050は、本動作を終了するか否かを判断し(ステップS167)、終了する場合(ステップS167のYES)、同期制御のための一連の処理を終了し、終了しない場合(ステップS167のNO)、ステップS161へリターンし、以降の動作を実行する。
 1.13.5 実施例5
 ここで、実施例5として、画素アレイ部101内にON画素20aとOFF画素20bとが混在する場合の画素配置例を示す。本説明において、「ON画素20a」は、回路構成例3に係るEVS画素20、即ち、オンイベントのみを検出する機能を有する第1の画素である。また、「OFF画素20b」は、回路構成例4に係るEVS画素20、即ち、オフイベントのみを検出する機能を有する第2の画素である。
 実施例5に係るON画素20a及びOFF画素20bの画素配置例(その1)を図23及び図24に示し、画素配置例(その2)を図25及び図26に示す。ここでは、図面の簡略化のために、X方向(行方向/水平方向)4画素×Y方向(列方向/垂直方向)4画素の計16画素の画素配置(画素配列)を図示している。画素アレイ部101におけるEVS画素20の配列は、例えば、図23~図26に示す画素配列の繰り返しであってよい。
 図23に示す画素配置例は、X方向及びY方向共に、ON画素20aとOFF画素20bとが交互に配置された構成となっている。図24に示す画素配置例は、X方向2画素×Y方向2画素の計4画素をブロック(単位)とし、X方向及びY方向共に、ON画素20aのブロックとOFF画素20bのブロックとが交互に配置された構成となっている。
 図25に示す画素配置例は、計16画素のうち、真ん中の4画素をOFF画素20bとし、その周りの12画素をON画素20aとした配置構成となっている。図26に示す画素配置例は、計16画素の画素配置において、奇数列及び偶数行の各画素をON画素20aとし、残りの画素をOFF画素20bとした配置構成となっている。
 尚、ここで例示したON画素20a及びOFF画素20bの画素配置は一例であって、これらの画素配置に限られるものではない。
 1.13.6 実施例6
 実施例6は、実施例5の場合の同期制御例(その1)、即ち、画素アレイ部101内にON画素20aとOFF画素20bとが混在する画素配置の場合の同期制御例(その1)である。実施例6に係る同期制御の処理のフローチャートを図27に示す。
 センサ制御部1021は、先ず、ON画素20a及びOFF画素20bを含む全画素をグローバルリセットする(ステップS201)。次に、光源駆動部1011は、光源部であるレーザ光源1010から被写体に対してあらかじめ定められたパターンの光を照射する(ステップS202)。次に、センサ制御部1021は、ON画素20aで検出されたオンイベント情報Onをメモリに格納する(ステップS203)。ここで、オンイベント情報Onを格納するためのメモリは、出力回路217におけるオンイベント出力トランジスタNMのゲート寄生容量である。
 次に、センサ制御部1021は、OFF画素20bのリセットスイッチSWRSをオン状態にする(ステップS204)。次に、光源駆動部1011は、被写体への光の照射を終了する(ステップS205)。次に、センサ制御部1021は、OFF画素20bで検出されたオフイベント情報Offをメモリに格納する(ステップS206)。ここで、オフイベント情報Offを格納するためのメモリは、出力回路217におけるオフイベント出力トランジスタNMのゲート寄生容量である。
 しかる後、センサ制御部1021は、オンイベント情報On及びオフイベント情報Offを順次読出し回路130に転送し(ステップS207)、次いで、イベント検出を行った画素について、コンパレータ214の反転入力である電圧Vdiffをグローバルリセットする(ステップS208)。
 その後、システム制御部1050は、本動作を終了するか否かを判断し(ステップS209)、終了する場合(ステップS209のYES)、同期制御のための一連の処理を終了し、終了しない場合(ステップS209のNO)、ステップS202へリターンし、以降の動作を実行する。
 1.13.7 実施例7
 実施例7は、実施例5の場合の同期制御例(その2)、即ち、画素アレイ部101内にON画素20aとOFF画素20bとが混在する画素配置の場合の同期制御例(その2)である。実施例7に係る同期制御の処理のフローチャートを図28に示す。
 センサ制御部1021は、先ず、ON画素20a及びOFF画素20bを含む全画素をグローバルリセットする(ステップS221)。次に、光源駆動部1011は、光源部であるレーザ光源1010から被写体に対してあらかじめ定められたパターンの光を照射する(ステップS222)。次に、センサ制御部1021は、ON画素20aで検出されたオンイベント情報Onをメモリに格納する(ステップS223)。ここで、オンイベント情報Onを格納するためのメモリは、出力回路217におけるオンイベント出力トランジスタNMのゲート寄生容量である。
 次に、センサ制御部1021は、出力回路217におけるオンイベント出力トランジスタNMのゲート寄生容量に格納されたオンイベント情報Onを順次読出し回路130に転送し(ステップS224)、次いで、OFF画素20bのリセットスイッチSWRSをオン状態にする(ステップS225)。
 次に、光源駆動部1011は、被写体への光の照射を終了する(ステップS226)。次に、センサ制御部1021は、OFF画素20bで検出されたオフイベント情報Offをメモリに格納する(ステップS227)。ここで、オフイベント情報Offを格納するためのメモリは、出力回路217におけるオフイベント出力トランジスタNMのゲート寄生容量である。
 しかる後、センサ制御部1021は、オンイベント情報On及びオフイベント情報Offを順次読出し回路130に転送し(ステップS228)、次いで、イベント検出を行った画素について、コンパレータ214の反転入力である電圧Vdiffをグローバルリセットする(ステップS229)。
 その後、システム制御部1050は、本動作を終了するか否かを判断し(ステップS230)、終了する場合(ステップS230のYES)、同期制御のための一連の処理を終了し、終了しない場合(ステップS230のNO)、ステップS222へリターンし、以降の動作を実行する。
 1.14 作用・効果
 以上のように、第1の実施形態によれば、RGB画素10により取得されたRGB画像と、EVS画素20により取得されたEVS画像との複数のセンサ情報を取得することが可能となるため、これらを用いた認識処理の精度を向上することが可能となる。例えば、上述において説明したように、RGB画像データに加えてEVS画像データを取得することで、顔認証における写真を用いたなりすましなどの不正アクセスをより的確に判別することが可能となる。それにより、よりセキュアな認証を可能にする固体撮像装置及び認識システムを実現することが可能となる。
 また、本実施形態では、複数のセンサ情報を用いて多段の認識処理を実行することで、認識処理の精度をより向上することも可能となる。それにより、さらにセキュアな認証を可能にする固体撮像装置及び認識システムを実現することが可能となる。
 2.第2の実施形態
 次に、第2の実施形態について図面を参照して詳細に説明する。なお、以下の説明では、上述した実施形態と同様の構成については、それらを引用することで、重複する説明を省略する。
 上述した第1の実施形態では、1つのRGB画素10に対して1つのEVS画素20が対応付けられている場合を例に挙げた。これに対し、第2の実施形態では、1つのEVS画素20に対して複数のRGB画素10が対応付けられている場合を例に挙げる。
 2.1 単位画素の構成例
 まず、本実施形態に係る単位画素110Aの構成例について説明する。なお、ここでは、第1の実施形態と同様に、単位画素110Aが、RGB三原色のRGB画像を取得するためのRGB画素と、赤外(IR)光のEVS画像を取得するためのEVS画素とを含む場合を例示に挙げる。また、RGB画素10は、例えば、ベイヤー配列に従って配列しているものとする。
 図29は、第2の実施形態に係る単位画素の概略構成例を示す模式図である。図29に示すように、単位画素110Aは、2行2列に配列した4つのRGB画素10に対して1つのEVS画素20が、光の入射方向に配置された構造を備える。すなわち、本実施形態では、4つのRGB画素10に対して1つのEVS画素20が、単位画素110Aの配列方向(平面方向)に対して垂直方向に位置されており、入射光の光路における上流側に位置する4つのRGB画素10を透過した光が、これら4つのRGB画素10の下流側に位置する1つのEVS画素20に入射するように構成されている。したがって、本実施形態では、4つのRGB画素10で構成されたベイヤー配列の単位配列とEVS画素20との入射光の光軸が一致又は略一致している。
 2.2 単位画素の回路構成例
 図30は、第2の実施形態に係る単位画素の概略構成例を示す回路図である。なお、図30では、第1の実施形態において図6を用いて説明した第2の変形例に係る単位画素110をベースとしているが、これに限定されず、図7に例示した単位画素110-3をベースとすることも可能である。
 図30に示すように、単位画素110Aは、複数のRGB画素10-1~10-N(図30では、Nは4)と、1つのEVS画素20とを備える。このように、1つの単位画素110Aが複数のRGB画素10を備える場合、複数のRGB画素10で1つの画素回路(リセットトランジスタ12、浮遊拡散領域FD、増幅トランジスタ13及び選択トランジスタ14)を共有することが可能である(画素共有)。そこで、本実施形態では、複数のRGB画素10-1~10-Nが、リセットトランジスタ12、浮遊拡散領域FD、増幅トランジスタ13及び選択トランジスタ14よりなる画素回路を共有する。すなわち、本実施形態では、共通の浮遊拡散領域FDに複数の光電変換部PD1及び転送ゲート11が接続されている。
 2.3 単位画素の断面構造例
 図31は、第2の実施形態に係るイメージセンサの断面構造例を示す断面図である。なお、本説明では、図29と同様に、各単位画素110Aが2行2列に配列した4つのRGB画素10と、1つのEVS画素20とから構成されている場合を例に挙げる。また、以下の説明では、図8と同様に、単位画素110Aにおける光電変換部PD1及びPD2が形成された半導体チップに着目してその断面構造例を説明する。さらに、以下の説明において、第1の実施形態において図8を用いて説明したイメージセンサ100の断面構造と同様の構造については、それらを引用することで、重複する説明を省略する。
 図31に示すように、本実施形態では、図8に例示した断面構造と同様の断面構造において、オンチップレンズ51と、カラーフィルタ31と、蓄積電極37とが、2行2列の4つ(ただし、図31では4つのうちの2つが示されている)に分割され、それにより、4つのRGB画素10が構成されている。なお、各単位画素110Aにおける4つのRGB画素10は、ベイヤー配列の基本配列を構成していてよい。
 2.4 平面構造例
 図32は、第2の実施形態に係る画素アレイ部の各層の平面レイアウト例を示す図であり、(A)はオンチップレンズ51の平面レイアウト例を示し、(B)はカラーフィルタ31の平面レイアウト例を示し、(C)は蓄積電極37の平面レイアウト例を示し、(D)は光電変換部PD2の平面レイアウト例を示している。なお、図32において、(A)~(D)は、半導体基板50の素子形成面と平行な面の平面レイアウト例を示している。
 図32の(A)~(D)に示すように、本実施形態では、1つの単位画素110Aに対して、4つのオンチップレンズ51と、4つのカラーフィルタ31と、4つの蓄積電極37と、1つの光電変換部PD2とが設けられている。なお、本説明において、1つの蓄積電極37は1つのRGB画素10に相当し、1つの光電変換部PD2は1つのEVS画素20に相当する。
 このように、1つの単位画素110において、4つのRGB画素10よりなるベイヤー配列の基本配列と1つのEVS画素20とを入射光の進行方向に沿って配列させることで、各RGB画素10とEVS画素20との入射光に対する同軸性を向上することが可能となるため、RGB画像とEVS画像との間に発生する空間的なズレを抑制することが可能となる。それにより、異なるセンサにより取得された情報(RGB画像及びEVS画像)を統合的に処理することで得られた結果の精度を向上することが可能となる。
 2.5 オンチップレンズの変形例
 上述した第2の実施形態では、1つのRGB画素10に対して1つのオンチップレンズ51を設けた場合を例示したが、これに限定されず、複数のRGB画素10に対して1つのオンチップレンズを設けることも可能である。図33は、第2の実施形態のオンチップレンズの変形例に係る画素アレイ部の各層の平面レイアウト例を示す図であり、図32と同様に、(A)はオンチップレンズ51の平面レイアウト例を示し、(B)はカラーフィルタ31の平面レイアウト例を示し、(C)は蓄積電極37の平面レイアウト例を示し、(D)は光電変換部PD2の平面レイアウト例を示している。
 図33に示すオンチップレンズの変形例では、(A)に示すように、複数の単位画素110Aのうちの一部の単位画素110Aにおいて行方向に配列する2つのオンチップレンズ51が、2つのRGB画素10に跨る2×1画素の1つのオンチップレンズ251に置き換えられている。また、図33の(B)に示すように、オンチップレンズ251を共有する2つのRGB画素10には、同じ波長成分を選択的に透過させるカラーフィルタ31が設けられる。図33の(B)に示す例では、左上の単位画素110Aにおいて、本来ベイヤー配列における青色(B)の波長成分を選択的に透過させるカラーフィルタ31bが緑色(G)の波長成分を選択的に透過させるカラーフィルタ31gに置き換えられ、これにより、オンチップレンズ251を共有する2つのRGB画素10のカラーフィルタ31がカラーフィルタ31gに統一されている。
 なお、このようにカラーフィルタ31が置き換えられたRGB画素10については、ベイヤー配列に従って本来検出すべき波長成分の画素値が、例えば、周囲の画素の画素値から補間されてよい。この画素補間には、線形補間など、種々の手法が用いられてよい。
 また、オンチップレンズの変形例では、行方向に並ぶ2つのオンチップレンズ51が共通化された場合を例示するが、これに限定されず、列方向に並ぶ2つのオンチップレンズ51が共通化された構成や、1つの単位画素110Aに含まれる4つのオンチップレンズ51の全てが1つのオンチップレンズに置き換えられた構成など、種々変形することも可能である。その場合、オンチップレンズを共有するRGB画素10のカラーフィルタ31には、同じ波長成分を選択的に透過させるカラーフィルタ31が用いられてよい。
 さらに、隣接するRGB画素10間でのオンチップレンズ51の共有化は、第2の実施形態に限られず、第1の実施形態に対しても適用することが可能である。
 2.6 カラーフィルタ配列の変形例
 また、上述した実施形態及びその変形例では、カラーフィルタ31のフィルタ配列として、ベイヤー配列を例示したが、これに限定されない。例えば、X-Trans(登録商標)CMOSセンサで採用されている3×3画素のカラーフィルタ配列や、4×4画素のクアッドベイヤー配列(クワドラ配列ともいう)や、ベイヤー配列にホワイトRGBカラーフィルタを組み合わせた4×4画素のカラーフィルタ配列(ホワイトRGB配列ともいう)など、種々のフィルタ配列が用いられてよい。
 図34は、第2の実施形態のカラーフィルタ配列の変形例に係る画素アレイ部の各層の平面レイアウト例を示す図であり、図32及び図33と同様に、(A)はオンチップレンズ51の平面レイアウト例を示し、(B)はカラーフィルタ31の平面レイアウト例を示し、(C)は蓄積電極37の平面レイアウト例を示し、(D)は光電変換部PD2の平面レイアウト例を示している。
 図34に示すカラーフィルタ配列の変形例では、(B)に示すように、カラーフィルタ配列として、2×2画素のベイヤー配列における個々のカラーフィルタ31が2×2画素に分割された、全体で4×4画素のクワドラ配列が例示されている。このようなクワドラ配列では、図34の(A)に示すように、隣接する2つのRGB画素10でオンチップレンズ51を共通化した場合でも、(B)に示すように、これらのRGB画素10におけるカラーフィルタ31が元々揃っているため、カラーフィルタ31の配列に変更を加える必要がなく、そのため、画素補間を行う必要も存在しない。
 2.7 作用・効果
 以上のように、第2の実施形態によれば、光の入射方向に4つのRGB画素10の4つの光電変換部PD1と1つのEVS画素20の1つの光電変換部PD2とが配置される。そのような構成の場合でも、第1の実施形態と同様に、RGB画像EVS画像との複数のセンサ情報を取得することが可能となるため、これらを用いた認識処理の精度を向上することが可能となる。それにより、よりセキュアな認証を可能にする固体撮像装置及び認識システムを実現することが可能となる。
 また、第1の実施形態と同様に、複数のセンサ情報を用いて多段の認識処理を実行することで、認識処理の精度をより向上することも可能となるため、さらにセキュアな認証を可能にする固体撮像装置及び認識システムを実現することが可能となる。
 その他の構成、動作及び効果については、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 3.電子機器の具体例
 ここでは、本開示の認識システムが適用され得る電子機器の具体例として、スマートフォンを例示する。本開示の電子機器の具体例に係るスマートフォンの正面側から見た外観図を図35に示す。
 本具体例に係るスマートフォン300は、筐体310の正面側に表示部320を備えている。また、スマートフォン300は、筐体310の正面側の上方部に、発光部330及び受光部340を備えている。尚、図35に示す発光部330及び受光部340の配置例は、一例であって、この配置例に限られるものではない。
 上記の構成のモバイル機器の一例であるスマートフォン300において、発光部330として、先述した実施形態に係る電子機器1におけるレーザ光源1010(VCSEL1012)を用い、受光部340としてイメージセンサ100を用いるこができる。すなわち、本具体例に係るスマートフォン300は、三次元画像取得システムとして、先述した実施形態に係る電子機器1を用いることによって作製される。
 先述した実施形態に係る電子機器1は、光源のアレイドット配置において、光源の数を増やすことなく、距離画像の解像度を上げることができる。従って、本具体例に係るスマートフォン300は、三次元画像取得システム(顔認証システム)として、先述した実施形態に係る電子機器1を用いることで、精度の高い顔認識機能(顔認証機能)を持つことができる。
 4.移動体への応用例
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図36は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図36に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図36の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図37は、撮像部12031の設置位置の例を示す図である。
 図37では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図37には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、図37に例示する撮像部12101、12102、12103、12104、12105等として、車両12100に搭載されてよい。撮像部12101、12102、12103、12104、12105等に本開示に係る技術を適用することにより、異なるセンサにより取得された情報(例えば、カラー画像及びモノクロ画像)を統合的に処理することで得られた結果の精度を向上することが可能となる。
 以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
 また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 第1面において行列状に配列する複数の第1画素を備え、前記第1画素それぞれに入射した入射光の光量に基づいて画像データを生成する画像処理部と、
 前記第1面と平行な第2面において行列状に配列する複数の第2画素を備え、前記第2画素それぞれに入射した入射光の輝度変化に基づいてイベントデータを生成するイベント信号処理部と、
 を備え、前記複数の第1画素と前記複数の第2画素とは単一のチップに配置されている固体撮像装置。
(2)
 前記複数の第1画素は、有機光電変換膜を含む前記(1)に記載の固体撮像装置。
(3)
 前記複数の第1画素の少なくとも一部は、第1の方向において前記複数の第2画素とオーバーラップする前記(1)又は(2)に記載の固体撮像装置。
(4)
 前記第1の方向は、前記第1画素が配列する平面に対して垂直な方向である前記(3)に記載の固体撮像装置。
(5)
 前記第1画素は、前記入射光を光電変換する第1光電変換部を備え、
 前記第2画素は、前記入射光を光電変換する第2光電変換部を備え、
 前記第2光電変換部は、前記第1光電変換部における前記入射光の入射面と反対側の面側に配置されている
 前記(1)~(4)の何れか1つに記載の固体撮像装置。
(6)
 前記第1画素及び前記第2画素を備える第1チップと、
 前記第1画素及び前記第2画素を駆動する駆動部と、前記第1画素及び前記第2画素から画素信号を読み出す読出し部とを備える第2チップと、
 を備え、
 前記第1チップと前記第2チップとは、互いに接合されることで積層構造を備える前記単一のチップを構成する
 前記(1)~(5)の何れか1つに記載の固体撮像装置。
(7)
 前記画像処理部は、2以上の波長成分の光の光量に基づいて前記画像データを生成し、
 前記イベント信号処理部は、前記入射光の輝度が変化した第2画素の位置を示す前記イベントデータを生成する
 前記(1)~(6)の何れか1つに記載の固体撮像装置。
(8)
 前記第1画素は、前記入射光に含まれる可視光の前記光量を検出し、
 前記第2画素は、前記入射光に含まれる赤外光の輝度変化を検出する
 前記(1)~(7)の何れか1つに記載の固体撮像装置。
(9)
 前記第2画素は、前記入射光の輝度が所定の閾値を超えたことと、前記入射光の輝度が所定の閾値を下回ったこととのうちの少なくとも一方を検出する
 前記(1)~(8)の何れか1つに記載の固体撮像装置。
(10)
 前記複数の第2画素のうちの少なくとも1つは、前記入射光の輝度が所定の閾値を超えたことを検出し、他の1つは、前記入射光の輝度が所定の閾値を下回ったことを検出する
 前記(1)~(8)の何れか1つに記載の固体撮像装置。
(11)
 前記イベント信号処理部は、前記画像処理部における1つの前記第2画素に対して複数の前記第1画素を備える
 前記(1)~(10)の何れか1つに記載の固体撮像装置。
(12)
 前記(1)~(11)の何れか1つに記載の固体撮像装置と、
 前記固体撮像装置における前記画像処理部で取得された前記画像データと、前記イベント信号処理部で取得された前記イベントデータとに基づいて認識処理を実行する認識処理部と、
 を備える認識システム。
(13)
 所定の波長帯の光を出射する光源と、
 前記光源及び前記固体撮像装置を制御する制御部と、
 をさらに備え、
 前記第2画素は、前記所定の波長帯の光を選択的に透過させる波長選択フィルタを備え、
 前記イベント信号処理部は、前記入射光における前記所定の波長帯の光の前記輝度変化に基づいて前記イベントデータを生成し、
 前記制御部は、前記光源の発光タイミングと、前記固体撮像装置における前記イベント信号処理部の駆動タイミングとを同期するように制御する
 前記(12)に記載の認識システム。
(14)
 前記認識処理部は、
  前記画像データ及び前記イベントデータのうちの1つに基づいて第1認識処理を実行し、
  前記第1認識処理の結果と前記画像データ及び前記イベントデータのうちの他の1つとに基づいて第2認識処理を実行する
 前記(12)又は(13)に記載の認識システム。
 10、10-1~10-N RGB画素
 11 転送ゲート
 12 リセットトランジスタ
 13 増幅トランジスタ
 14 選択トランジスタ
 20 EVS画素
 20a ON画素
 20b OFF画素
 31、31r、31g、31b カラーフィルタ
 32 封止膜
 33 透明電極
 34 光電変換膜
 35 半導体層
 36 読出し電極
 37 蓄積電極
 41 IRフィルタ
 42 pウェル領域
 43 p型半導体領域
 44 n型半導体領域
 45 縦型トランジスタ
 51 オンチップレンズ
 52 平坦化膜
 53 絶縁層
 54 画素分離部
 55 固定電荷膜
 56 層間絶縁膜
 61~66 配線
 100 イメージセンサ
 101 画素アレイ部
 102A 垂直駆動回路
 102B 水平駆動回路
 103A RGB信号処理回路
 103a AC変換回路
 103B EVS信号処理回路
 103b 信号処理回路
 104A Xアービタ
 104B Yアービタ
 105 システム制御回路
 108A RGBデータ処理部
 108B EVSデータ処理部
 110 単位画素
 131、132 スイッチ回路
 140 画素チップ
 150 回路チップ
 210 アドレスイベント検出回路
 212 受光回路
 213 メモリ容量
 214、214A、214B コンパレータ
 215 リセット回路
 216 インバータ
 217 出力回路
 2151 2入力OR回路
 2152 2入力AND回路
 300 スマートフォン
 310 筐体
 320 表示部
 330 発光部
 340 受光部
 901 被写体
 1000 認識システム
 1001 RGBセンサ部
 1002 RGB画像処理部
 1003 EVSセンサ部
 1004 イベント信号処理部
 1005 認識処理部
 1006 インタフェース部
 1010 レーザ光源
 1011 光源駆動部
 1012 VCSEL
 1021 センサ制御部
 1022 受光部
 1030 照射レンズ
 1040 撮像レンズ
 1050 システム制御部
 1100 アプリケーションプロセッサ
 LD1、LD2 画素駆動線
 NM オフイベント出力トランジスタ
 NM オンイベント出力トランジスタ
 NM 電流源トランジスタ
 PD1、PD2 光電変換部
 SWRS リセットスイッチ
 SWON、SWOFF 選択スイッチ
 VSL、VSL1、VSL2 垂直信号線

Claims (14)

  1.  第1面において行列状に配列する複数の第1画素を備え、前記第1画素それぞれに入射した入射光の光量に基づいて画像データを生成する画像処理部と、
     前記第1面と平行な第2面において行列状に配列する複数の第2画素を備え、前記第2画素それぞれに入射した入射光の輝度変化に基づいてイベントデータを生成するイベント信号処理部と、
     を備え、前記複数の第1画素と前記複数の第2画素とは単一のチップに配置されている固体撮像装置。
  2.  前記複数の第1画素は、有機光電変換膜を含む請求項1に記載の固体撮像装置。
  3.  前記複数の第1画素の少なくとも一部は、第1の方向において前記複数の第2画素とオーバーラップする請求項1に記載の固体撮像装置。
  4.  前記第1の方向は、前記第1画素が配列する平面に対して垂直な方向である請求項3に記載の固体撮像装置。
  5.  前記第1画素は、前記入射光を光電変換する第1光電変換部を備え、
     前記第2画素は、前記入射光を光電変換する第2光電変換部を備え、
     前記第2光電変換部は、前記第1光電変換部における前記入射光の入射面と反対側の面側に配置されている
     請求項1に記載の固体撮像装置。
  6.  前記第1画素及び前記第2画素を備える第1チップと、
     前記第1画素及び前記第2画素を駆動する駆動部と、前記第1画素及び前記第2画素から画素信号を読み出す読出し部とを備える第2チップと、
     を備え、
     前記第1チップと前記第2チップとは、互いに接合されることで積層構造を備える前記単一のチップを構成する
     請求項1に記載の固体撮像装置。
  7.  前記画像処理部は、2以上の波長成分の光の光量に基づいて前記画像データを生成し、
     前記イベント信号処理部は、前記入射光の輝度が変化した第2画素の位置を示す前記イベントデータを生成する
     請求項1に記載の固体撮像装置。
  8.  前記第1画素は、前記入射光に含まれる可視光の前記光量を検出し、
     前記第2画素は、前記入射光に含まれる赤外光の輝度変化を検出する
     請求項1に記載の固体撮像装置。
  9.  前記第2画素は、前記入射光の輝度が所定の閾値を超えたことと、前記入射光の輝度が所定の閾値を下回ったこととのうちの少なくとも一方を検出する
     請求項1に記載の固体撮像装置。
  10.  前記複数の第2画素のうちの少なくとも1つは、前記入射光の輝度が所定の閾値を超えたことを検出し、他の1つは、前記入射光の輝度が所定の閾値を下回ったことを検出する
     請求項1に記載の固体撮像装置。
  11.  前記イベント信号処理部は、前記画像処理部における1つの前記第2画素に対して複数の前記第1画素を備える
     請求項1に記載の固体撮像装置。
  12.  請求項1に記載の固体撮像装置と、
     前記固体撮像装置における前記画像処理部で取得された前記画像データと、前記イベント信号処理部で取得された前記イベントデータとに基づいて認識処理を実行する認識処理部と、
     を備える認識システム。
  13.  所定の波長帯の光を出射する光源と、
     前記光源及び前記固体撮像装置を制御する制御部と、
     をさらに備え、
     前記第2画素は、前記所定の波長帯の光を選択的に透過させる波長選択フィルタを備え、
     前記イベント信号処理部は、前記入射光における前記所定の波長帯の光の前記輝度変化に基づいて前記イベントデータを生成し、
     前記制御部は、前記光源の発光タイミングと、前記固体撮像装置における前記イベント信号処理部の駆動タイミングとを同期するように制御する
     請求項12に記載の認識システム。
  14.  前記認識処理部は、
      前記画像データ及び前記イベントデータのうちの1つに基づいて第1認識処理を実行し、
      前記第1認識処理の結果と前記画像データ及び前記イベントデータのうちの他の1つとに基づいて第2認識処理を実行する
     請求項12に記載の認識システム。
PCT/JP2021/032405 2020-09-16 2021-09-03 固体撮像装置及び認識システム WO2022059515A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US18/043,956 US20230316693A1 (en) 2020-09-16 2021-09-03 Solid-state imaging device and recognition system
JP2022550467A JPWO2022059515A1 (ja) 2020-09-16 2021-09-03
DE112021004820.1T DE112021004820T5 (de) 2020-09-16 2021-09-03 Festkörperbildgebungsvorrichtung und erkennungssystem
CN202180057018.3A CN116097444A (zh) 2020-09-16 2021-09-03 固体成像装置和识别系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020155690 2020-09-16
JP2020-155690 2020-09-16

Publications (1)

Publication Number Publication Date
WO2022059515A1 true WO2022059515A1 (ja) 2022-03-24

Family

ID=80776966

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/032405 WO2022059515A1 (ja) 2020-09-16 2021-09-03 固体撮像装置及び認識システム

Country Status (5)

Country Link
US (1) US20230316693A1 (ja)
JP (1) JPWO2022059515A1 (ja)
CN (1) CN116097444A (ja)
DE (1) DE112021004820T5 (ja)
WO (1) WO2022059515A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017208496A (ja) * 2016-05-20 2017-11-24 ソニー株式会社 固体撮像装置、及び、電子機器
JP2018186478A (ja) * 2017-04-25 2018-11-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2020066433A1 (ja) * 2018-09-28 2020-04-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、固体撮像素子の制御方法および電子機器
WO2020110743A1 (ja) * 2018-11-28 2020-06-04 ソニーセミコンダクタソリューションズ株式会社 センサ及び制御方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108389870A (zh) 2017-02-03 2018-08-10 松下知识产权经营株式会社 摄像装置
JP7240833B2 (ja) 2018-08-01 2023-03-16 日本放送協会 撮像素子

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017208496A (ja) * 2016-05-20 2017-11-24 ソニー株式会社 固体撮像装置、及び、電子機器
JP2018186478A (ja) * 2017-04-25 2018-11-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2020066433A1 (ja) * 2018-09-28 2020-04-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、固体撮像素子の制御方法および電子機器
WO2020110743A1 (ja) * 2018-11-28 2020-06-04 ソニーセミコンダクタソリューションズ株式会社 センサ及び制御方法

Also Published As

Publication number Publication date
CN116097444A (zh) 2023-05-09
US20230316693A1 (en) 2023-10-05
DE112021004820T5 (de) 2023-07-27
JPWO2022059515A1 (ja) 2022-03-24

Similar Documents

Publication Publication Date Title
WO2022181215A1 (ja) 固体撮像装置及び撮像システム
US11290668B2 (en) Imaging element and imaging apparatus
WO2021054183A1 (en) Solid-state imaging device and imaging device with combined dynamic vision sensor and imaging functions
WO2021125031A1 (ja) 固体撮像装置及び測距装置
WO2022065153A1 (ja) 固体撮像装置及び電子機器
WO2020246186A1 (ja) 撮像システム
WO2022059515A1 (ja) 固体撮像装置及び認識システム
WO2022059525A1 (ja) 固体撮像装置及び認識システム
US20220375975A1 (en) Imaging device
WO2022059499A1 (ja) 固体撮像装置及び電子機器
WO2022065186A1 (ja) 固体撮像装置及び電子機器
WO2023181657A1 (ja) 光検出装置及び電子機器
WO2023079840A1 (ja) 撮像装置および電子機器
US11997400B2 (en) Imaging element and electronic apparatus
US20230362503A1 (en) Solid imaging device and electronic device
WO2021112150A1 (en) Imaging devices and imaging apparatuses, and methods for the same
US20220021853A1 (en) Imaging element and electronic apparatus
CN118120058A (zh) 光电检测装置、电子设备和光电检测系统
CN114556574A (zh) 固态成像装置和固态成像装置的制造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21869202

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022550467

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 21869202

Country of ref document: EP

Kind code of ref document: A1