WO2021145256A1 - 撮像素子、測距装置および電子機器 - Google Patents

撮像素子、測距装置および電子機器 Download PDF

Info

Publication number
WO2021145256A1
WO2021145256A1 PCT/JP2021/000239 JP2021000239W WO2021145256A1 WO 2021145256 A1 WO2021145256 A1 WO 2021145256A1 JP 2021000239 W JP2021000239 W JP 2021000239W WO 2021145256 A1 WO2021145256 A1 WO 2021145256A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
pixel
flip
unit
flops
Prior art date
Application number
PCT/JP2021/000239
Other languages
English (en)
French (fr)
Inventor
賢一 田湯
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN202180007906.4A priority Critical patent/CN114902654A/zh
Priority to US17/791,779 priority patent/US20230058408A1/en
Priority to JP2021571158A priority patent/JPWO2021145256A1/ja
Priority to KR1020227022117A priority patent/KR20220130104A/ko
Publication of WO2021145256A1 publication Critical patent/WO2021145256A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/745Circuitry for generating timing or clock signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/617Noise processing, e.g. detecting, correcting, reducing or removing noise for reducing electromagnetic interference, e.g. clocking noise

Definitions

  • the present disclosure relates to an image sensor, a distance measuring device, and an electronic device.
  • a sensor In such a ranging system, a sensor is used in which light emitted from a light source in a predetermined phase detects reflected light reflected by an object and distributes the electric charge of an optical signal to different regions.
  • the indirect ToF type sensor By using the indirect ToF type sensor, it is possible to measure the distance based on the signals distributed to each charge storage region according to the phase of the incident light.
  • a sensor in which a plurality of pixels are arranged two-dimensionally is generally used. In recent years, the number of pixels mounted on a sensor has been increasing in order to obtain a distance image having a higher resolution.
  • a drive signal is supplied to each pixel in order to detect the electric charge corresponding to the incident light.
  • a drive signal having a larger current is required.
  • the electromagnetic noise generated when the incident light is detected becomes large, and there is a possibility that the requirements related to EMC (Electro-Magnetic Compatibility) cannot be satisfied.
  • the present disclosure provides an image sensor, a distance measuring device, and an electronic device capable of improving the resolution of a distance image while suppressing the generation of electromagnetic noise.
  • the image pickup device includes a signal generator configured to generate a clock signal, a plurality of flip-flops connected in cascade, and the plurality of flip-flops in which a first signal is generated in response to the clock signal.
  • a circuit block configured to supply the second signal to the input terminals of the first-stage flip-flops of the plurality of flip-flops, and pulses supplied from different stages of the plurality of flip-flops. It may include a pixel array containing pixels configured to be driven by a signal.
  • the pixel in the pixel array may include a signal extraction unit configured to detect the charge generated by photoelectric conversion when the pulse signal is supplied.
  • the pixel in the pixel array may include a plurality of the signal extraction units, and each of the signal extraction units may be configured to detect the charges generated at different timings.
  • a plurality of clock distribution circuits connected to the stage of any of the plurality of flip-flops on the input side and connected to the pixels in the pixel array via a drive line on the output side may be further provided.
  • At least one of the clock distribution circuits may be a clock tree system.
  • the pixel column or pixel row in the pixel array may be configured to be driven by the pulse signal supplied from the common stage of the plurality of flip-flops.
  • the pulse signal may be supplied from different stages of the plurality of flip-flops depending on the region in the pixel array in which the pixels are arranged.
  • It may further include a multiplexer configured to select the pulse signal supplied to the pixel in the pixel array.
  • the circuit block may be configured to output the first signal of the first frequency and output the second signal of the second frequency different from the first frequency.
  • the circuit block may be configured to output the first signal and the second signal synchronized with each other.
  • the circuit block may further include a frequency divider circuit that generates the first signal based on the clock signal.
  • the circuit block may be configured to output the first signal having a first frequency equal to the clock frequency of the clock signal.
  • a control unit configured to output a control signal to the circuit block is further provided, and the circuit block has a first frequency of the first signal or a second frequency of the second signal based on the supplied control signal. May be configured to adjust.
  • the ranging device includes a signal generator configured to generate a clock signal, a plurality of flip flops connected in cascade, and the plurality of flip flocs that generate a first signal according to the clock signal. It was supplied from a circuit block configured to supply to each clock terminal of the device and to supply a second signal to the input terminals of the first stage flipflops of the plurality of flipflops, and from different stages of the plurality of flipflops. It includes a pixel array including pixels configured to be driven by a pulse signal, and a signal processing unit configured to generate a distance image based on the charge generated by photoelectric conversion in the pixels of the pixel array. You may be.
  • the electronic device includes a signal generator configured to generate a clock signal, a plurality of flip-flops connected in cascade, and the plurality of flip-flops that generate a first signal in response to the clock signal.
  • a circuit block configured to supply the second signal to the input terminals of the first-stage flip-flops of the plurality of flip-flops, and pulses supplied from different stages of the plurality of flip-flops. It may include a pixel array containing pixels configured to be driven by a signal.
  • the present disclosure suppresses the generation of electromagnetic noise in an image sensor mounted on a distance measuring system (distance measuring device) that measures distance by an indirect ToF method.
  • the image sensor may be mounted on various electronic devices.
  • a distance measuring system there is an in-vehicle system that is mounted on a vehicle and measures the distance to an object outside the vehicle. Further, the distance measuring system may be applied to a gesture recognition system that measures the distance to an object such as a user's hand and recognizes the user's gesture based on the measurement result. For example, the result of gesture recognition can be used to operate a car navigation system. However, the result of gesture recognition may be used for other purposes.
  • FIG. 1 shows an example of an image pickup device (light receiving element) according to the present disclosure.
  • the image pickup device 11 of FIG. 1 is, for example, a back-illuminated sensor, and is mounted on an image pickup device having a distance measuring function.
  • the image sensor 11 may be a surface irradiation type sensor.
  • the image sensor 11 has, for example, a pixel array unit 21 formed on a semiconductor substrate (not shown) and a peripheral circuit unit integrated on the same semiconductor substrate as the pixel array unit 21.
  • the peripheral circuit unit includes, for example, a pixel drive unit 22, a column processing unit 23, a lead drive unit 24, and a system control unit 25.
  • the image sensor 11 may further include a signal processing unit 26 and a data storage unit 27.
  • the signal processing unit 26 and the data storage unit 27 may be mounted on the same substrate as the image sensor 11, or may be mounted on a substrate different from the image sensor 11.
  • unit pixels are arranged in an array.
  • a unit pixel (hereinafter, also referred to as a pixel) generates an electric charge according to the amount of received light and outputs a signal corresponding to the electric charge.
  • Pixels are arranged, for example, in a pixel array in two directions, a row direction and a column direction.
  • the pixels may take an arbitrary two-dimensional array in the pixel array unit 21. That is, the pixel array unit 21 has a plurality of pixels that photoelectrically convert the incident light and output a signal corresponding to the electric charge obtained thereby.
  • the row direction refers to the pixel arrangement direction (that is, the horizontal direction) of the pixel row.
  • the column direction refers to the arrangement direction (that is, the vertical direction) of the pixels of the pixel row.
  • the row direction corresponds to the horizontal direction in the figure, and the column direction corresponds to the vertical direction in the figure.
  • pixel drive lines 28 are wired along the row direction for each pixel row with respect to the matrix-shaped pixel array. Further, two vertical signal lines 29 are wired in each pixel row along the row direction.
  • the pixel drive line 28 transmits a drive signal for driving when reading a signal from the pixel.
  • the pixel drive line 28 is shown as one signal line, but the number of signal lines is not limited to one.
  • One end of the pixel drive line 28 is connected to an output end corresponding to each line of the pixel drive unit 22.
  • the pixel drive unit 22 is a circuit that drives some of the pixels in the pixel array unit 21 in a predetermined order.
  • the combination of pixels driven by the pixel driving unit 22 each time and the order in which each combination of pixels is driven are referred to as a pixel driving pattern.
  • the pixel drive unit 22 according to the present disclosure suppresses electromagnetic noise generated by reducing the number of pixels that are simultaneously driven in the pixel array unit 21.
  • the pixel drive unit 22 includes, for example, a shift register or an address decoder.
  • the pixel drive unit 22 forms a drive unit that controls the operation of each pixel in the pixel array unit 21 together with the system control unit 25 that controls the pixel drive unit 22. Details of the pixel drive unit according to the present disclosure will be described later.
  • the accuracy of drive timing depends on the number of elements connected to the same control line.
  • the control line in the horizontal direction becomes long, so that the drive timing may be delayed. Therefore, the pixel may be driven by using not only the control line in the horizontal direction but also other signal lines such as the vertical signal line 29.
  • the drive signal may be output to the vertical signal line 29 from the drive unit (for example, the lead drive unit) provided separately from the pixel drive unit 22.
  • the signal output from each pixel in the pixel row according to the drive control by the pixel drive unit 22 is input to the column processing unit 23 via the vertical signal line 29.
  • the column processing unit 23 executes predetermined signal processing on the signal output from each pixel via the vertical signal line 29, and temporarily holds the pixel signal after the signal processing.
  • the column processing unit 23 may execute at least one of noise removal processing and AD (Analog to Digital) conversion processing as signal processing. Examples of noise removal processing include correlated double sampling (CDS), but other types of processing may be performed.
  • CDS correlated double sampling
  • the read drive unit 24 is composed of, for example, a shift register, an address decoder, or the like, and sequentially selects unit circuits corresponding to the pixel strings of the column processing unit 23. By the selective scanning by the read drive unit 24, the pixel signals that have been signal-processed for each unit circuit in the column processing unit 23 are sequentially output.
  • the system control unit 25 includes, for example, a timing generator that generates various timing signals.
  • the system control unit 25 performs drive control of the pixel drive unit 22, the column processing unit 23, the lead drive unit 24, and the like based on various timing signals generated by the timing generator.
  • the signal processing unit 26 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing based on the pixel signal output from the column processing unit 23.
  • the data storage unit 27 temporarily stores the data required for the signal processing in the signal processing unit 26.
  • the block diagram of FIG. 2 shows an example of the image sensor according to the modified example 1.
  • the pixel drive unit 22 may be connected to the pixel array in the pixel array unit 21 via the pixel drive lines 28A wired along the vertical direction.
  • two vertical signal lines 29 may be wired along the row direction in each pixel row.
  • the pixel drive unit 22 outputs a drive signal to the first pixel drive line wired along the vertical direction and the second pixel drive line wired along the horizontal direction, and the pixel drive unit 22 outputs a drive signal to the pixel array unit.
  • the pixel in the pixel in 21 may be driven.
  • the direction and combination of the signal lines (pixel drive lines) for driving the pixels in the pixel array unit 21 are not limited.
  • FIG. 3 shows an example of pixels provided in the pixel array unit 21.
  • FIG. 3 shows a cross section of one pixel 51 provided in the pixel array unit 21.
  • the pixel 51 receives light incident from the outside, performs photoelectric conversion, and outputs a signal corresponding to the electric charge obtained as a result.
  • the pixel 51 can receive, for example, infrared light.
  • the wavelength of the electromagnetic wave received by the pixel 51 is not limited.
  • the pixel 51 has, for example, a substrate 61 (semiconductor layer) and an on-chip lens 62 formed on the substrate 61.
  • a substrate 61 semiconductor layer
  • an on-chip lens 62 formed on the substrate 61.
  • the substrate 61 for example, a silicon substrate including a P-type semiconductor region can be used.
  • the thickness of the substrate 61 in the z-axis direction is set to 20 ⁇ m or less.
  • the thickness of the substrate 61 may be 20 ⁇ m or more.
  • the thickness of the substrate 61 can be determined according to the design and use of the image sensor 11.
  • the substrate 61 for example, a high-resistance P-Epi substrate having a substrate concentration of 1E + 13 orders or less can be used.
  • the resistance (resistivity) of the substrate 61 is, for example, 500 [ ⁇ cm] or more.
  • the resistance value of the substrate 61 depends on the substrate concentration. For example, when the substrate concentration is 6.48E + 12 [cm3], the resistance is 2000 [ ⁇ cm]. When the substrate concentration is 1.30E + 13 [cm3], the resistance becomes 1000 [ ⁇ cm]. When the substrate concentration is 2.59E + 13 [cm3], the resistance becomes 500 [ ⁇ cm]. Furthermore, when the substrate concentration is 1.30E + 14 [cm3], the resistance becomes 100 [ ⁇ cm].
  • the incident surface On the surface of the substrate 61 on the positive direction of the z-axis, that is, the surface on the side where the light from the outside is incident on the substrate 61 (hereinafter, also referred to as the incident surface), the light incident from the outside is collected and collected on the substrate.
  • An on-chip lens 62 that is incident inside the 61 is formed.
  • an inter-pixel light-shielding portion 63-1 and an inter-pixel light-shielding portion 63-2 for preventing color mixing between adjacent pixels are formed at the end portion of the pixel 51 on the incident surface of the substrate 61. ing.
  • the light from the outside enters the substrate 61 via the on-chip lens 62. It is preferable that the light incident from the outside passes through a part of the on-chip lens 62 and the substrate 61 and does not enter the region of other pixels provided adjacent to the pixel 51 on the substrate 61.
  • light incident on the on-chip lens 62 from the outside and directed into other pixels adjacent to the pixel 51 is blocked by the inter-pixel light-shielding unit 63-1 and the inter-pixel light-shielding unit 63-2. It is prevented from being incident on other adjacent pixels.
  • the inter-pixel light-shielding unit 63 when it is not necessary to distinguish between the inter-pixel light-shielding unit 63-1 and the inter-pixel light-shielding unit 63-2, it is simply referred to as the inter-pixel light-shielding unit 63.
  • the incident surface of the substrate 61 is the so-called back surface of the substrate 61.
  • a wiring layer including wiring and the like is not formed on the back surface side of the substrate 61. Further, on the portion of the substrate 61 on the surface opposite to the incident surface, wiring for driving a transistor or the like formed in the pixel 51 and wiring for reading a signal from the pixel 51 are formed in the laminated structure. The wiring layer is formed.
  • an oxide film 64, a signal extraction unit 65-1 called a tap, and a signal extraction unit 65 are formed on the surface side of the substrate 61 opposite to the incident surface, that is, the inner portion of the surface on the negative direction side of the z-axis.
  • an oxide film 64, a signal extraction unit 65-1 called a tap, and a signal extraction unit 65 are formed on the surface side of the substrate 61 opposite to the incident surface, that is, the inner portion of the surface on the negative direction side of the z-axis.
  • an oxide film 64 is formed in the central portion of the pixel 51 in the vicinity of the surface opposite to the incident surface of the substrate 61, and the signal extraction unit 65-1 and the signal extraction unit are formed at both ends of the oxide film 64, respectively. 65-2 is formed.
  • the signal extraction unit 65-1 includes an N + semiconductor region 71-1, an N + semiconductor region 71-1, an N-semiconductor region 72-1, a P + semiconductor region 73-1 and a P-semiconductor region 74-. 1 and is included.
  • the N + semiconductor region 71-1 is an N-type semiconductor region.
  • the N-semiconductor region 72-1 is an N-type semiconductor region in which the concentration of donor impurities is lower than that of the N + semiconductor region 71-1.
  • the P + semiconductor region 73-1 is a P-type semiconductor region.
  • the P-semiconductor region 74-1 is a P-type semiconductor region having a lower acceptor impurity concentration than the P + semiconductor region 73-1.
  • the acceptor impurity for example, an element belonging to Group 3 in the periodic table of elements such as boron (B) can be used.
  • the element that becomes a donor impurity is also called a donor element, and the element that becomes an acceptor impurity is also called an acceptor element.
  • the N + semiconductor region 71-1 is formed at a position on the x-axis positive direction side of the oxide film 64 in a portion of the substrate 61 near the surface opposite to the incident surface. Further, an N-semiconductor region 72-1 is formed on the z-axis positive direction side of the N + semiconductor region 71-1 so as to cover (enclose) the N + semiconductor region 71-1.
  • a P + semiconductor region 73-1 is formed at a position adjacent to the x-axis positive direction side of the N + semiconductor region 71-1 in a portion of the substrate 61 near the surface opposite to the incident surface. Further, a P-semiconductor region 74-1 is formed on the z-axis positive direction side of the P + semiconductor region 73-1 so as to cover (enclose) the P + semiconductor region 73-1.
  • the P + semiconductor region 73-1 and the P-semiconductor region 74-1 are centered on the P + semiconductor region 73-1 and the P-semiconductor region.
  • the N + semiconductor region 71-1 and the N-semiconductor region 72-1 may be formed so as to surround the periphery of 74-1.
  • the signal extraction unit 65-2 includes an N + semiconductor region 71-2, an N-semiconductor region 72-2, a P + semiconductor region 73-2, and a P-semiconductor region 74-2.
  • the N + semiconductor region 71-2 is an N-type semiconductor region.
  • the N-semiconductor region 72-2 is an N-type semiconductor region in which the concentration of donor impurities is lower than that of the N + semiconductor region 71-2.
  • the P + semiconductor region 73-2 is a P-type semiconductor region.
  • the P-semiconductor region 74-2 is a P-type semiconductor region having a lower acceptor impurity concentration than the P + semiconductor region 73-2.
  • the N + semiconductor region 71-2 is formed at a position adjacent to the x-axis negative direction side of the oxide film 64 in the portion of the substrate 61 near the surface opposite to the incident surface. Further, an N-semiconductor region 72-2 is formed on the z-axis positive direction side of the N + semiconductor region 71-2 so as to cover (enclose) the N + semiconductor region 71-2.
  • a P + semiconductor region 73-2 is formed at a position adjacent to the negative axis side of the N + semiconductor region 71-2 in a portion of the substrate 61 near the surface opposite to the incident surface. Further, a P-semiconductor region 74-2 is formed on the z-axis positive direction side of the P + semiconductor region 73-2 so as to cover (enclose) the P + semiconductor region 73-2.
  • the P + semiconductor region 73-2 and the P-semiconductor region 74-2 are centered on the P + semiconductor region 73-2 and the P-semiconductor region.
  • the N + semiconductor region 71-2 and the N-semiconductor region 72-2 may be formed so as to surround the periphery of 74-2.
  • the signal extraction unit 65 when it is not necessary to distinguish between the signal extraction unit 65-1 and the signal extraction unit 65-2, these are simply referred to as the signal extraction unit 65.
  • N + semiconductor region 71-1 and the N + semiconductor region 71-2 these are also simply referred to as the N + semiconductor region 71.
  • N-semiconductor region 72-1 and the N-semiconductor region 72-2 these are also simply referred to as the N-semiconductor region 72.
  • the P + semiconductor region 73 when it is not necessary to distinguish between the P + semiconductor region 73-1 and the P + semiconductor region 73-2, these are simply referred to as the P + semiconductor region 73. Further, when it is not necessary to distinguish between the P-semiconductor region 74-1 and the P-semiconductor region 74-2, they are also simply referred to as the P-semiconductor region 74.
  • a separation portion 75-1 for separating those regions is formed by an oxide film or the like.
  • a separation portion 75-2 for separating these regions is also formed between the N + semiconductor region 71-2 and the P + semiconductor region 73-2 by an oxide film or the like.
  • the separation unit 75 when it is not necessary to distinguish between the separation unit 75-1 and the separation unit 75-2, these are simply referred to as the separation unit 75.
  • the N + semiconductor region 71 provided on the substrate 61 functions as a charge detection unit for detecting the amount of light incident on the pixel 51 from the outside (the amount of signal carriers generated by the photoelectric conversion by the substrate 61). Not only the N + semiconductor region 71 but also the N-semiconductor region 72 having a low donor impurity concentration can be used as the charge detection unit. Further, the P + semiconductor region 73 functions as a voltage application unit for directly applying a voltage to the substrate 61 to generate an electric field in the substrate 61. At this time, a large number of carrier currents can be injected into the substrate 61. In addition to the P + semiconductor region 73, the P-semiconductor region 74 having a low acceptor impurity concentration can also be used as the voltage application unit.
  • an FD (Floating Diffusion) portion (hereinafter, also referred to as FD portion A), which is a floating diffusion region (not shown), is directly connected to the N + semiconductor region 71-1, and further, the FD portion is connected to the N + semiconductor region 71-1.
  • A is connected to the vertical signal line 29 via an amplification transistor (not shown) or the like.
  • FD section B another FD section (hereinafter, also referred to as FD section B) different from the FD section A is directly connected to the N + semiconductor region 71-2, and the FD section B is shown in the figure. It is connected to the vertical signal line 29 via a non-amplifying transistor or the like.
  • the FD unit A and the FD unit B are connected to different vertical signal lines 29.
  • infrared light is emitted toward the object from an image pickup device provided with an image sensor 11. Then, when the infrared light is reflected by the object and returned to the image pickup apparatus as reflected light, the substrate 61 of the image pickup element 11 receives the incident reflected light (infrared light) and performs photoelectric conversion.
  • the pixel drive unit 22 drives the pixel 51.
  • the signal corresponding to the electric charge obtained by the photoelectric conversion can be distributed to the FD unit A and the FD unit B.
  • the pixel 51 is driven not by the pixel drive unit 22, but by a separately provided drive unit or lead drive unit 24 via a vertical signal line 29 or another control line wired in the vertical direction. It may be done by such as.
  • the pixel drive unit 22 applies a voltage to the two P + semiconductor regions 73 via a contact or the like.
  • the pixel drive unit 22 applies a HIGH (for example, 1.5V) voltage to the P + semiconductor region 73-1 and a LOW (for example, 0V) voltage to the P + semiconductor region 73-2.
  • Infrared light (reflected light) from the outside enters the substrate 61 via the on-chip lens 62, and the infrared light is photoelectrically converted in the substrate 61 to be converted into a pair of electrons and holes.
  • the electrons obtained in the above state are guided in the direction of the P + semiconductor region 73-1 by the electric field between the P + semiconductor region 73 and move into the N + semiconductor region 71-1.
  • the electrons generated by the photoelectric conversion are used as a signal carrier (charge) for detecting a signal corresponding to the amount of infrared light (the amount of infrared light received) incident on the pixel 51.
  • the accumulated charge in the N + semiconductor region 71-1 is transferred to the FD unit A directly connected to the N + semiconductor region 71-1. Then, the signal corresponding to the electric charge transferred to the FD unit A is read out by the column processing unit 23 via the amplification transistor and the vertical signal line 29. Then, the column processing unit 23 performs processing such as AD conversion processing on the read signal, and the pixel signal generated as a result is supplied to the signal processing unit 26.
  • This pixel signal is a signal indicating the amount of electric charge (the amount of electric charge accumulated in the FD unit A) according to the electrons detected by the N + semiconductor region 71-1. That is, it can be said that the pixel signal is a signal indicating the amount of infrared light received by the pixel 51.
  • the pixel signal corresponding to the electrons detected in the N + semiconductor region 71-2 may be used for distance measurement.
  • a voltage is applied to the two P + semiconductor regions 73 by the pixel drive unit 22 via a contact or the like so that an electric field in the direction opposite to the electric field previously generated in the substrate 61 is generated. .. Specifically, for example, a HIGH (for example, 1.5V) voltage is applied to the P + semiconductor region 73-2, and a LOW (for example, 0V) voltage is applied to the P + semiconductor region 73-1.
  • Infrared light (reflected light) from the outside enters the substrate 61 via the on-chip lens 62, and the infrared light is photoelectrically converted in the substrate 61 to generate electron and hole pairs.
  • the generated electrons are guided in the direction of the P + semiconductor region 73-2 by the electric field between the P + semiconductor region 73 and move into the N + semiconductor region 71-2.
  • the accumulated charge in the N + semiconductor region 71-2 is transferred to the FD unit B directly connected to the N + semiconductor region 71-2. Then, the signal corresponding to the electric charge transferred to the FD unit B is read out by the column processing unit 23 via the amplification transistor and the vertical signal line 29. Then, the column processing unit 23 performs processing such as AD conversion processing on the read signal, and the pixel signal generated as a result is supplied to the signal processing unit 26.
  • the distance measurement may be performed using the pixel signal corresponding to the electrons detected in the N + semiconductor region 71-1.
  • the signal processing unit 26 calculates distance information indicating the distance to the object based on those pixel signals. Then, the distance information is output to the circuit in the subsequent stage.
  • the distance information may be, for example, a distance image including a distance value for each pixel.
  • the periphery of the P + semiconductor region 73 as shown in FIG. 3 is N +.
  • a structure surrounded by the semiconductor region 71 may be adopted.
  • the same reference numerals are given to the parts corresponding to the components in FIG. 2, and the description thereof will be omitted as appropriate.
  • an oxide film 64 (not shown) is formed in the central portion of the pixel 51. Further, a signal extraction unit 65 is formed at a portion deviated from the center of the pixel 51. Two signal extraction units 65 are formed in the pixel 51 of FIG.
  • a P + semiconductor region 73 is formed in a rectangular shape at the center position thereof. Further, the P + semiconductor region 73 is centered on the P + semiconductor region 73, and the circumference of the P + semiconductor region 73 is surrounded by the rectangular frame-shaped N + semiconductor region 71. That is, the N + semiconductor region 71 is formed so as to surround the P + semiconductor region 73.
  • the on-chip lens 62 is formed so that infrared light incident from the outside is focused on the central portion of the pixel 51, that is, the portion indicated by the arrow A11.
  • the infrared light incident on the on-chip lens 62 from the outside is focused by the on-chip lens 62 at the position indicated by the arrow A11, that is, the position on the z-axis positive direction side of the oxide film 64 in FIG.
  • the infrared light is focused at a position between the signal extraction unit 65-1 and the signal extraction unit 65-2.
  • the signal extraction unit 65 (tap) on which the signal is read out according to the electric charge (electrons) obtained by the photoelectric conversion is called an active tap.
  • the signal extraction unit 65 (tap) on which the signal corresponding to the electric charge obtained by the photoelectric conversion is not read out, that is, the signal extraction unit 65 on the side that is not the active tap is called an inactive tap. And.
  • the signal extraction unit 65 to which the HIGH (for example, 1.5V) voltage is applied to the P + semiconductor region 73 is the active tap. Further, the signal extraction unit 65 to which the LOW (for example, 0V) voltage is applied to the P + semiconductor region 73 is the inactive tap.
  • the Cmod can detect the percentage of the electric charge generated by the photoelectric conversion of the incident infrared light in the N + semiconductor region 71 of the signal extraction unit 65 which is the active tap, that is, can extract the signal according to the electric charge. It is an index showing the charge separation efficiency.
  • the infrared light incident from the outside is collected by concentrating the infrared light near the central portion of the pixel 51 located at positions approximately equidistant from the two signal extraction units 65. It is possible to reduce the probability of photoelectric conversion in the region of the active tap and improve the charge separation efficiency. Further, in the pixel 51, the modulation contrast can be improved. That is, the electrons obtained by the photoelectric conversion are easily guided to the N + semiconductor region 71 in the active tap.
  • FIG. 5 shows an equivalent circuit of the pixel 51.
  • the pixel 51 corresponds to the signal extraction unit 65-1 including the N + semiconductor region 71-1 and the P + semiconductor region 73-1.
  • the pixel 51 selects the transfer transistor 721B, the FD722B, the reset transistor 723B, and the amplification transistor 724B corresponding to the signal extraction unit 65-2 including the N + semiconductor region 71-2 and the P + semiconductor region 73-2. It includes a transistor 725B.
  • the pixel drive unit 22 applies a predetermined voltage MIX0 (first voltage) to the P + semiconductor region 73-1 and applies a predetermined voltage MIX1 (second voltage) to the P + semiconductor region 73-2.
  • MIX0 first voltage
  • MIX1 second voltage
  • one of the voltages MIX0 and MIX1 is HIGH (eg, 1.5V) and the other is LOW (eg, 0V).
  • the P + semiconductor regions 73-1 and 73-2 correspond to voltage application portions to which a first voltage or a second voltage is applied.
  • the N + semiconductor regions 71-1 and 71-2 correspond to charge detection units that detect and accumulate charges generated by photoelectric conversion of light incident on the substrate 61.
  • the transfer transistor 721A becomes conductive accordingly.
  • the electric charge stored in the N + semiconductor region 71-1 is transferred to the FD722A.
  • the transfer transistor 721B becomes conductive accordingly.
  • the electric charge stored in the N + semiconductor region 71-2 is transferred to the FD722B.
  • the FD722A temporarily holds the electric charge supplied from the N + semiconductor region 71-1.
  • the FD722B temporarily holds the electric charge supplied from the N + semiconductor region 71-2.
  • the FD722A corresponds to the FD part A described in the description of FIG.
  • FD722B corresponds to FD unit B.
  • the reset transistor 723A becomes conductive accordingly.
  • the potential of the FD722A is reset to a predetermined level (reset voltage VDD).
  • the reset transistor 723B becomes conductive accordingly.
  • the potential of the FD722B is reset to a predetermined level (reset voltage VDD).
  • the source electrode of the amplification transistor 724A is connected to the vertical signal line 29A via the selection transistor 725A.
  • the load MOS of the constant current source circuit unit 726A connected to one end of the vertical signal line 29A and the source follower circuit are formed.
  • the source electrode of the amplification transistor 724B is connected to the vertical signal line 29B via the selection transistor 725B.
  • the load MOS of the constant current source circuit unit 726B connected to one end of the vertical signal line 29B and the source follower circuit are formed.
  • the selection transistor 725A is connected between the source electrode of the amplification transistor 724A and the vertical signal line 29A.
  • the selection transistor 725A becomes conductive when the selection signal SEL supplied to the gate electrode becomes active. As a result, the pixel signal output from the amplification transistor 724A is output to the vertical signal line 29A.
  • the selection transistor 725B is connected between the source electrode of the amplification transistor 724B and the vertical signal line 29B.
  • the selection transistor 725B becomes conductive when the selection signal SEL supplied to the gate electrode becomes active. As a result, the pixel signal output from the amplification transistor 724B is output to the vertical signal line 29B.
  • the transfer transistors 721A and 721B of the pixel 51, the reset transistors 723A and 723B, the amplification transistors 724A and 724B, and the selection transistors 725A and 725B are controlled by, for example, the pixel drive unit 22.
  • FIG. 6 shows another equivalent circuit of pixel 51.
  • an additional capacitance 727 and a switching transistor 728 for controlling the connection thereof are added to the signal extraction units 65-1 and 65-2, respectively, with respect to the equivalent circuit of FIG.
  • an additional capacitance 727A is connected between the transfer transistor 721A and the FD722A via the switching transistor 728A.
  • an additional capacitance 727B is connected between the transfer transistor 721B and the FD722B via the switching transistor 728B.
  • the switching transistor 728A becomes conductive when the drive signal FDG supplied to the gate electrode becomes active. As a result, the additional capacity 727A is connected to the FD722A.
  • the switching transistor 728B becomes conductive when the drive signal FDG supplied to the gate electrode becomes active. As a result, the additional capacity 727B is connected to the FD722B.
  • the pixel drive unit 22 activates the switching transistors 728A and 728B and connects the FD722A and the additional capacitance 727A, for example, when the amount of incident light is high and the illuminance is high. Further, the pixel drive unit 22 connects the FD722B and the additional capacity 727B. This makes it possible to accumulate more electric charge at high illuminance.
  • the pixel drive unit 22 deactivates the switching transistors 728A and 728B. As a result, the additional capacities 727A and 727B are cut off from the FD722A and 722B, respectively.
  • a high dynamic range can be secured by mounting the additional capacity 727 and using it properly according to the amount of incident light.
  • the additional capacitance 727 may be omitted.
  • FIG. 7 is a block diagram showing a configuration example of a distance measuring module that outputs distance measurement information using the image sensor 11 of FIG. 1.
  • the ranging module 1000 includes a light emitting unit 1011, a light emitting control unit 1012, and a light receiving unit 1013.
  • the light emitting unit 1011 has a light source that emits light having a predetermined wavelength, and emits irradiation light whose brightness fluctuates periodically to irradiate an object.
  • the light emitting unit 1011 has a light emitting diode that emits infrared light having a wavelength in the range of 780 nm to 1000 nm as a light source.
  • the light emitting unit 1011 generates irradiation light in synchronization with, for example, the light emission control signal CLKp of the rectangular wave supplied from the light emission control unit 1012.
  • a periodic signal can be used as the light emission control signal CLKp.
  • the periodic signal is not limited to a square wave.
  • the light emission control signal CLKp may be a sine wave.
  • the light emission control unit 1012 supplies the light emission control signal CLKp to the light emitting unit 1011 and the light receiving unit 1013, and controls the irradiation timing of the irradiation light.
  • the frequency of the light emission control signal CLKp is, for example, 20 MHz (MHz).
  • the frequency of the light emission control signal CLKp is not limited to 20 MHz (MHz), and may be set to other values such as 5 MHz (MHz).
  • the light receiving unit 1013 receives the reflected light reflected from the object and calculates the distance information for each pixel according to the light receiving result. Then, a distance image in which the distance to the object is represented by a gradation value for each pixel is generated, and the distance image is output.
  • the above-mentioned image sensor 11 can be used as the light receiving unit 1013.
  • the charge detection units (N + semiconductor region 71) of the signal extraction units 65-1 and 65-2 of each pixel 51 of the pixel array unit 21 are based on the light emission control signal CLKp. ), The distance information can be calculated for each pixel.
  • the image sensor 11 of FIG. 1 can be incorporated as the light receiving unit 1013 of the distance measuring module 1000 that obtains and outputs the distance information to the subject by the indirect ToF method.
  • the image sensor 11 By adopting the above-mentioned image sensor 11 as the light receiving unit 1013 of the distance measuring module 1000, it is possible to suppress the generated electromagnetic noise.
  • a charge detection unit for detecting the signal carrier is formed by the P + semiconductor region. Further, a voltage application portion for generating an electric field is formed in the substrate by the N + semiconductor region. Further, the charge detection unit provided in the signal extraction unit may detect holes as signal carriers.
  • FIG. 8 shows an example in which all the pixels in the image sensor are driven at the same time.
  • FIG. 8 shows in more detail a portion including the pixel driving unit 22A, the pixel array unit 21, and the column processing unit 23 of FIG.
  • the pixel drive unit 22A of FIG. 8 includes a PLL (Phase Locked Loop) 31, a pulse generator 30, and a clock distribution circuit 37.
  • the column processing unit 23 includes an analog-to-digital converter 240.
  • PLL31 is an example of a signal generator that generates a clock signal.
  • a pulse generator 30 is connected to the subsequent stage of the PLL 31.
  • a clock distribution circuit 37 is connected to the subsequent stage of the pulse generator 30.
  • the clock distribution circuit 37 of FIG. 8 realizes signal distribution by a clock tree method.
  • a mesh system (batch drive system) clock distribution circuit may be used, and the system of the clock distribution circuit is not limited.
  • the clock distribution circuit 37 includes a plurality of output terminals. Each output terminal of the clock distribution circuit 37 is connected to each pixel array in the pixel array unit 21 via a pixel drive line 28A. Further, each pixel array in the pixel array unit 21 is connected to the column processing unit 23 via the vertical signal line 29.
  • Clock signal of a frequency f 0 output from the PLL31 is supplied to the pulse generator 30.
  • the pulses generated by the pulse generator 30 are supplied to each pixel array in the pixel array unit 21 at substantially the same timing via the clock distribution circuit 37.
  • FIG. 9 shows an example of the pulse generator according to the present disclosure.
  • the pulse generator 30A of FIG. 9 includes a plurality of output terminals (output terminals C1 to C4).
  • the output terminals C1 to C4 are connected to the pixel drive line 28 or the pixel drive line 28A via, for example, a signal distribution circuit described later.
  • the pulse generator 30A can output pulses from each signal line in different phases.
  • the pulse generator 30A includes a circuit block 33 and flip-flops 340 to 343.
  • Flip-flops 340 to 343 are, for example, D flip-flops including a D terminal, a Q terminal, and a CLK terminal. However, the type of flip-flop used is not limited.
  • the D flip-flop has (1) a type that latches the signal input to the D terminal at the timing of the rising edge of the signal input to the CLK terminal, and (2) the falling edge of the signal input to the CLK terminal. There is a type that latches the signal input to the D terminal at the timing.
  • the flip-flops 340 to 343 either the type (1) or the type (2) may be used. Further, the flip-flops of the type (1) and the flip-flops of the type (2) may coexist in the flip-flops 340 to 343. By mixing different types of flip-flops, the timing at which pulses are output from each of the output terminals C1 to C4 can be shifted.
  • the circuit block 33 is connected to the PLL 31 via the signal line L0. Further, the circuit block 33 is connected to the system control unit 25 via the signal line L3. The circuit block 33 is connected to the D terminal of the flip-flop 340 via the signal line L2. Further, the circuit block 33 is connected to the CLK terminals of the flip-flops 340 to 343 via the signal line L1.
  • the circuit block 33 includes, for example, a frequency dividing circuit.
  • the frequency dividing circuit of the circuit block 33 generates a signal having a frequency different from that of the clock signal based on the input clock signal.
  • the setting of the frequency dividing circuit of the circuit block 33 may be changeable depending on the voltage level of the register or the signal line.
  • the system control unit 25 can adjust the frequency of the signal output from the circuit block 33.
  • the configuration and function of the circuit block 33 may be different from this. For example, it is not always necessary to adopt a configuration in which the setting of the circuit block 33 is changed by the system control unit 25.
  • a plurality of flip-flops are connected in series.
  • the Q terminal of the flip-flop 340 is connected to the D terminal of the flip-flop 341.
  • the Q terminal of the flip-flop 341 is connected to the D terminal of the flip-flop 342.
  • the Q terminal of the flip-flop 342 is connected to the D terminal of the flip-flop 343.
  • each flip-flop is connected to the corresponding output terminal.
  • the output terminal C1 is connected to the Q terminal of the flip-flop 340.
  • the output terminal C2 is connected to the Q terminal of the flip-flop 341.
  • the output terminal C3 is connected to the Q terminal of the flip-flop 342.
  • the output terminal C4 is connected to the Q terminal of the flip-flop 343.
  • the Q terminals of all the flip-flops that are connected in cascade do not have to be connected to any of the output terminals.
  • the Q terminals of some flip-flops that are connected in cascade may be connected to any output terminal.
  • the PLL 31 supplies a clock signal having a frequency f 0 to the circuit block 33 via the signal line L0.
  • Circuit block 33 supplies a first signal of frequency f 1 from the signal line L1 to the CLK terminal of flip-flops 340-343. Furthermore, the circuit block 33 supplies a second signal of frequency f 2 to the D terminal of flip-flop 340 via the signal line L2.
  • the second signal is also called a modulated signal or a guide pulse.
  • the circuit block 33 can output a first signal and a second signal synchronized with each other.
  • the first signal and the second signal do not necessarily have to be signals synchronized with each other.
  • the description will be made on the assumption that the frequency f 0 (clock frequency) of the clock signal is equal to the first frequency f 1.
  • the clock frequency f 0 generated by the signal generator and the first frequency f 1 may be different.
  • the circuit block 33 may convert the frequency of the clock signal by a frequency divider or the like.
  • pulses that have been delayed by different numbers of flip-flops are output from the output terminals C1 to C4 of the pulse generator 30A.
  • pulses are output in the order of output terminal C1, output terminal C2, output terminal C3, and output terminal C4. That is, pulses are output from the output terminals C1 to C4 of the pulse generator 30A at different timings.
  • phase PHASE in the figure.
  • 90 degrees.
  • pulse signals are output from the output terminals C1, C2, C3 and C4 in phases of 0 degrees, 90 degrees, 180 degrees and 270 degrees, respectively.
  • the values of the first frequency f 1 and the second frequency f 2 described here are merely examples. Therefore, the first frequency f 1 and the second frequency f 2 may be set to different values.
  • the phase of the pulse signal output from the output terminal C1 is output from P1
  • the phase of the pulse signal output from the output terminal C2 is P2
  • the phase of the pulse signal output from the output terminal C3 is output from P3
  • the phase of the pulse signal is output from the output terminal C4.
  • the first frequency f 1 of the first signal and the second frequency f 2 of the second signal do not have to be fixed.
  • the circuit block 33 at least one of the second frequency f 2 of the first frequency f 1 or the second signal of the first signal based on the control signal transmitted from the system control unit 25 via the signal line L3 You may change it. This allows the pulse generator to change the frequency of the pulse signal. Further, the pulse signal can output a pulse signal related to various phase combinations.
  • the pulse generator according to the present disclosure can change the frequency of the pulse signal or the combination of phases used in the pulse signal, for example, depending on the object to be detected or the operation mode. For example, when an object at a relatively short distance is to be detected, the pulse frequency can be set high. Further, when an object at a relatively long distance is to be detected, the pulse frequency can be set low. Since the pulse generator according to the present disclosure does not use an inverter chain to generate pulse signals of a plurality of phases, it is possible to suppress individual variation in the amount of delay. Further, in the pulse generator according to the present disclosure, the distortion generated can be suppressed. Therefore, the pulse generator according to the present disclosure can also be combined with a signal generator (for example, PLL31) that outputs a relatively low clock frequency.
  • a signal generator for example, PLL31
  • the circuit block may be configured to output the first signal of the first frequency and output the second signal of the second frequency different from the first frequency.
  • the circuit block may be configured to output a first signal and a second signal synchronized with each other. Further, the circuit block may be configured to output a first signal having a first frequency equal to the clock frequency of the clock signal.
  • the image pickup device may include a control unit configured to output a control signal to the circuit block.
  • the system control unit 25 described above is an example of a control unit.
  • the circuit block may be configured to adjust the first frequency of the first signal or the second frequency of the second signal based on the supplied control signal.
  • the pixel drive unit 22B of FIG. 10 includes a PLL 31 (signal generation unit), a pulse generator 30A, and a circuit block 370.
  • the image pickup device of FIG. 10 corresponds to the pulse generator 30 of the image pickup device of FIG. 8 replaced with the pulse generator 30A of FIG. 9, and the clock distribution circuit 37 of the image pickup device of FIG. 8 replaced with a circuit block 370. ..
  • the circuit block 370 includes clock distribution circuits 371 to 374.
  • the clock distribution circuits 371 to 374 in FIG. 10 have a clock tree system. However, at least one of the clock distribution circuits 371 to 374 may be by another method such as a mesh method (collective drive method).
  • the clock distribution circuits 371 to 374 are connected to any of the output terminals C1 to C4 of the pulse generator 30A, respectively. Therefore, the clock distribution circuits 371 to 374 distribute any of the signals of the phases P1 to P4, respectively.
  • the output terminal C1 is connected to the clock distribution circuit 371
  • the output terminal C2 is connected to the clock distribution circuit 372
  • the output terminal C3 is connected to the clock distribution circuit 373
  • the output terminal C4 is connected to the clock distribution circuit 374.
  • the connection relationship between the output terminal and the clock distribution circuit may be different from this.
  • Each pixel array in the pixel array unit 21 is connected to any of the clock distribution circuits 371 to 374 via the pixel drive line 28A.
  • the timing (phase of the pulse signal) in which the pixel train in the pixel array unit 21 is driven by the pulse depends on the clock distribution circuit at the connection destination of the corresponding pixel drive line 28A.
  • the pixel sequence connected to the clock distribution circuit 371 has a phase P1
  • the pixel sequence connected to the clock distribution circuit 372 has a phase P2
  • the pixel sequence connected to the clock distribution circuit 373 is.
  • the pixel strings connected to the clock distribution circuit 374 in the phase P3 are driven in the phase P4, respectively. Therefore, in the example of FIG. 10, the pixels in the image sensor are driven in columns.
  • a pixel array driven by phase P1 from the left side to the right side, a pixel array driven by phase P2, a pixel array driven by phase P3, and a pixel array driven by phase P4. They are lined up in the pattern (order) of. However, this pattern is just one example. Therefore, the pixel array of the pixel array unit 21 may be driven in a pattern different from this.
  • the number of pixels included in the pixel array unit 21 is not limited. Therefore, a different number of pixels (for example, more pixels) may be mounted on the pixel array unit 21.
  • Each pixel array in the pixel array unit 21 is connected to the column processing unit 23 via the vertical signal line 29.
  • the column processing unit 23 may be connected to a reed drive unit 24 (not shown).
  • the lead drive unit 24 can select a unit circuit corresponding to the pixel sequence of the column processing unit 23.
  • the lead drive unit 24 may perform selective scanning on a pixel sequence driven in each phase (for example, P1 to P4).
  • the column processing unit 23 can convert the pixel signal from the analog signal to the digital signal by using the analog-digital converter 240, and output the pixel signal to the signal processing unit 26 in the subsequent stage.
  • the signal processing unit 26 is input with pixel signals related to the read pixel trains driven in a plurality of phases (for example, P1 to P4).
  • a shift in the drive timing and a shift in the read timing of the pixel signal occur depending on the pixel sequence. Therefore, the pixel signal data may be stored in the buffer memory in the signal processing unit 26 to generate a distance image corresponding to the entire pixel array unit 21.
  • the image pickup device may include a signal generator, a plurality of vertically connected flip-flops, a circuit block, and a pixel array.
  • the signal generator is configured to generate a clock signal.
  • the circuit block is configured to supply the first signal to the respective clock terminals of the plurality of flip-flops according to the clock signal, and supply the second signal to the input terminals of the first-stage flip-flops of the plurality of flip-flops. ..
  • the pixel array includes pixels configured to be driven by pulse signals supplied from different stages of multiple flip-flops.
  • the pixel array unit described above is an example of a pixel array.
  • the signal generator for example, a PLL can be used.
  • the flip-flop for example, a D flip-flop can be used.
  • the first-stage flip-flop is, for example, the flip-flop 340 described above.
  • the pixels in the pixel array may include a signal extraction unit configured to detect the charge generated by photoelectric conversion when a pulse signal is supplied. Further, the pixels in the pixel array may include a plurality of signal extraction units, and each signal extraction unit may be configured to detect charges generated at different timings.
  • the image pickup device further includes a plurality of clock distribution circuits connected to any stage of a plurality of flip-flops on the input side and connected to pixels in the pixel array via a drive line on the output side. You may be. At least one of the clock distribution circuits may be a clock tree system.
  • FIG. 10 describes an example of an image sensor capable of setting the drive timing (phase of the pulse signal) for each pixel sequence.
  • the pixels in the pixel array unit 21 may be controlled by a unit and pattern different from this.
  • an image pickup device in which the drive timing (phase of the pulse signal) is set for each pixel row may be used.
  • the image sensor of FIG. 11 corresponds to a pixel drive unit 22 of FIG. 1 replaced with a pixel drive unit 22C.
  • the pixel drive unit 22C includes a PLL 31 (signal generator), a pulse generator 30A, and a circuit block 380.
  • the circuit block 380 includes clock distribution circuits 381 to 384.
  • the clock distribution circuits 381 to 384 of FIG. 11 have a clock tree system. However, at least one of the clock distribution circuits 381 to 384 may be by another method such as a mesh method (collective drive method).
  • the clock distribution circuits 381 to 384 are connected to any of the output terminals C1 to C4 of the pulse generator 30A, respectively. Therefore, the clock distribution circuits 381 to 384 distribute any of the signals of the phases P1 to P4, respectively.
  • the output terminal C1 is connected to the clock distribution circuit 381
  • the output terminal C2 is connected to the clock distribution circuit 382
  • the output terminal C3 is connected to the clock distribution circuit 383
  • the output terminal C4 is connected to the clock distribution circuit 384.
  • the connection relationship between the output terminal and the clock distribution circuit may be different from this.
  • Each pixel row in the pixel array unit 21 is connected to any of the clock distribution circuits 381 to 384 via the pixel drive line 28.
  • the timing (phase of the pulse signal) in which the pixel rows in the pixel array unit 21 are driven by the pulse depends on the clock distribution circuit at the connection destination of the corresponding pixel drive line 28.
  • the pixel row connected to the clock distribution circuit 381 has a phase P1
  • the pixel row connected to the clock distribution circuit 382 has a phase P2
  • the pixel row connected to the clock distribution circuit 383 has a phase P1.
  • Pixel rows connected to the clock distribution circuit 384 in phase P3 are driven in phase P4, respectively. Therefore, in the example of FIG. 11, the pixels in the image sensor are driven row by row.
  • a pixel row driven by phase P1 from the upper side to the lower side, a pixel row driven by phase P2, a pixel row driven by phase P3, and a pixel driven by phase P4. They are arranged in a row pattern (order). This pattern is just one example. Therefore, the pixel rows of the pixel array unit 21 may be driven in a pattern different from this.
  • the number of pixels included in the pixel array unit 21 is not limited. Therefore, a different number of pixels (for example, more pixels) may be mounted on the pixel array unit 21.
  • Each pixel array in the pixel array unit 21 is connected to the column processing unit 23 via the vertical signal line 29.
  • the column processing unit 23 may be connected to a reed drive unit 24 (not shown).
  • the lead drive unit 24 can select a unit circuit corresponding to the pixel sequence of the column processing unit 23.
  • the lead drive unit 24 may perform selective scanning on the pixel sequence.
  • the column processing unit 23 can convert the pixel signal from the analog signal to the digital signal by using the analog-digital converter 240, and output the pixel signal to the signal processing unit 26 in the subsequent stage.
  • the pixel signal related to the read pixel sequence is input to the signal processing unit 26.
  • the pixel signal data may be stored in the buffer memory in the signal processing unit 26 to generate a distance image corresponding to the entire pixel array unit 21.
  • the pixel columns or pixel rows in the pixel array may be configured to be driven by pulse signals supplied from a common stage of a plurality of flip-flops.
  • FIG. 11 describes an example of an image sensor in which the drive timing (phase of the pulse signal) is set for each pixel row.
  • the pixels in the pixel array unit 21 may be controlled by a unit and pattern different from this.
  • an image pickup device in which the drive timing (phase of the pulse signal) is set for each region in the pixel array unit 21 may be used.
  • the image pickup device of FIG. 12 includes a pixel drive unit 22B, a pixel array unit 21A, a column processing unit 23, and a timing control unit 32.
  • the configuration of the pixel drive unit 22B of FIG. 12 is the same as that of the pixel drive unit 22B of FIG.
  • the timing control unit 32 outputs a timing signal to the pixel drive line 28 based on the pulse signal output to the pixel drive line 28A by the clock distribution circuits 371 to 374.
  • each pixel in the pixel array unit 21A includes a pulse signal and a logic circuit (not shown) that performs an operation based on a timing signal.
  • Each pixel in the pixel array unit 21A is driven when the level of the output voltage of the logic circuit satisfies a predetermined condition.
  • the driving conditions may differ depending on the pixel.
  • the pixel array unit 21A contains a mixture of pixels that are driven when the output voltage level of the logic circuit is HIGH and pixels that are driven when the output voltage level of the logic circuit is LOW. You may.
  • the configuration of the pixel array unit 21A is the same as that of the pixel array unit 21 described above, except that each pixel includes a logic circuit.
  • the drive timing (phase of the pulse signal) can be set for each region of the pixels in the image sensor.
  • any of the phases P1 to P4 is periodically assigned to each square region.
  • the allocation pattern in FIG. 12 is only an example.
  • the drive timing (phase of the pulse signal) may be set for each region having another shape such as a polygonal shape or a ring shape.
  • the order in which the phases are assigned to each region is not particularly limited. The phase allocation order may be based on a predetermined rule or may be random.
  • the timing control unit 32 may be connected to the system control unit 25.
  • the timing control unit 32 may change the timing signal output to the pixel drive line 28 based on the control signal supplied from the system control unit 25. This makes it possible to dynamically change the drive timing (phase of the pulse signal) in each region in the pixel array unit 21A.
  • FIG. 12 is only an example of an image sensor capable of setting the drive timing (phase of the pulse signal) for each region. Therefore, the pixel drive timing (pulse signal phase) may be set for each region by a circuit having a configuration different from this.
  • the image pickup device may be configured so that pulse signals are supplied from different stages of a plurality of flip-flops depending on the region in the pixel array in which the pixels are arranged.
  • FIG. 9 shows a pulse generator 30A capable of generating pulses in four phases (phases P1 to P4).
  • the pulse generator 30A of FIG. 9 is only an example of an image pickup device that can be used in the image pickup device according to the present disclosure.
  • the pulse generator 30B of FIG. 13 may be used instead of the pulse generator 30A of FIG.
  • the pulse generator 30B of FIG. 13 corresponds to the pulse generator 30A of FIG. 9 in which the number of stages of the vertically connected flip-flops is increased from 4 to 8.
  • the pulse generator 30B will be described focusing on the differences from the pulse generator 30A.
  • the Q terminal of the flip-flop 340 is connected to the circuit block 33 via the signal line L2. Further, the Q terminal and the D terminal of the flip-flops that are subordinately connected to each other are connected.
  • the circuit block 33 is connected to the CLK terminals of the flip-flops 340 to 347 via the signal line L1.
  • the Q terminal of each flip-flop in the pulse generator 30B is connected to the corresponding output terminal (output terminals C1 to C8).
  • the output terminals C1 to C8 are connected to the pixel drive line 28 or the pixel drive line 28A via different clock distribution circuits.
  • the Q terminals of all the flip-flops connected in the pulse generator are connected to one of the output terminals.
  • the Q terminal of some of the flip-flops connected in cascade may be connected to the output terminal. good.
  • 45 degrees.
  • the values of the first frequency f1 and the second frequency f2 described here are merely examples. Therefore, the first frequency f1 and the second frequency f2 may be set to different values.
  • the other components of FIG. 13 are the same as those of FIG.
  • the image pickup device according to the present disclosure may include a pulse generator capable of generating pulses in a plurality of (two or more) phases (timing). Therefore, the number of flip-flop stages in the pulse generator can be any number of 2 or more.
  • the pulse generators of FIGS. 9 and 13 were provided with a plurality of output terminals, and were configured to output pulse signals having different phases from the respective output terminals. However, the pulse generator according to the present disclosure may be configured to output any of a plurality of phases of pulse signals.
  • FIG. 14 shows a pulse generator 30C in which the number of flip-flop stages is 3 and the multiplexer 36 is further mounted.
  • the pulse generator 30C of FIG. 14 will be described with a focus on the differences from FIGS. 9 and 13.
  • the multiplexer 36 includes input terminals in1 to in3.
  • the Q terminal of each flip-flop is connected to the input terminal of the multiplexer 36. That is, the Q terminal of the flip-flop 340 is connected to the input terminal in1 of the multiplexer 36 via the signal line c1.
  • the Q terminal of the flip-flop 341 is connected to the input terminal in2 of the multiplexer 36 via the signal line c2.
  • the Q terminals of some of the flip-flops may be connected to the input terminals of the multiplexer 36.
  • the Q terminal of the flip-flop 342 is connected to the input terminal in3 of the multiplexer 36 via the signal line c3.
  • the control terminal of the multiplexer 36 is connected to the system control unit 25 via the signal line ct. Further, the output terminal mout of the multiplexer 36 is connected to the output terminal of the pulse generator 30C.
  • the multiplexer 36 selects the signal supplied from the Q terminal of any flip-flop based on the control signal supplied from the system control unit 25. Then, the multiplexer 36 outputs the selected signal to the circuit after the output terminal mout. That is, the pulse generator 30C can output a pulse signal of any of the phases P1 to P3 according to the setting by the system control unit 25. Also in FIG. 14, the above equation regarding the phase delay ⁇ holds.
  • the circuit block 33A of the pulse generator 30C includes a frequency dividing circuit 35.
  • the frequency dividing circuit 35 is, for example, a one-time frequency dividing circuit. However, the number of divisions of the frequency dividing circuit may be different from this. The number of frequency divisions of the frequency divider circuit can be determined according to the clock frequency f 0 and the first frequency f 1 of the first signal to be generated.
  • the input side of the frequency dividing circuit 35 is connected to the PLL 31 via the signal line L0. Further, the output side of the frequency dividing circuit 35 is connected to the CLK terminals of the flip flips 340 to 342 via the signal line L1.
  • the CLK terminal of flip-flop 340 to 342 the first signal of the first frequency f 1 1/2 of the clock frequency f 0 through the signal line L1 is supplied.
  • the first frequency f 1 of the first signal is 800 MHz.
  • the second frequency f 2 of the second signal output from the signal line L2 by the circuit block 33A 100 MHz
  • the circuit block 33A may generate a second signal synchronized with the first signal.
  • the clock frequency f 0 , the first frequency f 1 , and the second frequency f 2 described here are merely examples. Therefore, in the pulse generator according to the present disclosure, a signal having a frequency different from this may be used. Further, as described above, the first frequency f 1 of the first signal and the second frequency f 2 of the second signal generated by the circuit block are not fixed frequencies but adjustable (variable) frequencies. May be good.
  • the image pickup device may further include a multiplexer configured to select a pulse signal supplied to the pixels in the pixel array.
  • the circuit block may further include a frequency divider circuit that generates a first signal based on the clock signal.
  • the number of flip-flop stages is 3, but the number of flip-flop stages may be different from this.
  • a multiplexer having 3 or more input terminals may be used, or a plurality of multiplexers may be mounted on the pulse generator.
  • FIG. 15 shows an example of an image pickup device including a plurality of pulse generators 30C of FIG.
  • FIG. 15 includes a system control unit 25, a pixel drive unit 22C, a pixel array unit 21, and a column processing unit 23.
  • the pixel drive unit 22C includes a PLL 31 (signal generator), a pulse generator 30C-1, a pulse generator 30C-2, a pulse generator 30C-3, and a circuit block 370A.
  • the pulse generators 30C-1, 30C-2 and 30C-3 correspond to the pulse generator 30C of FIG.
  • the circuit block 370A includes clock distribution circuits 371 to 373.
  • the clock distribution circuits 371 to 373 are, for example, clock tree type circuits, but the clock distribution circuit type is not limited.
  • the PLL 31 is connected to the signal lines L0 of the pulse generators 30C-1, 30C-2 and 30C-3.
  • the output terminals of the pulse generators 30C-1, 30C-2 and 30C-3 are connected to any clock distribution circuit in circuit block 370A.
  • each pixel array in the pixel array unit 21 is connected to any of the clock distribution circuits 371 to 373 via the pixel drive line 28A. Then, each pixel array in the pixel array unit 21 is connected to the column processing unit 23 via the vertical signal line 29.
  • the pixel array in the pixel array unit 21 connected to the pulse generator 30C-2 via any of the clock distribution circuits is driven by the pulse signal of the phase P2.
  • the pixel array in the pixel array unit 21 connected to the pulse generator 30C-3 via any of the clock distribution circuits is driven by the pulse signal of the phase P3.
  • the image sensor of FIG. 15 it is possible to dynamically change the timing at which each pixel array in the pixel array unit 21 is driven. That is.
  • at least one of the phases that can be generated by each pulse generator can be used to drive the pixel array in the pixel array unit 21. Therefore, it is possible to drive all the pixels of the pixel array unit 21 at almost the same timing as in the example of FIG. 8 depending on the use. It is also possible to change the number of phases used to drive the pixels in the pixel array unit 21 during the operation of the image sensor.
  • the drive timing (phase of the pulse signal) can be set for each pixel row in the pixel array unit 21.
  • the setting unit of the drive timing is not limited to the pixel sequence.
  • the drive timing (phase of the pulse signal) may be set for each pixel row as in the example of FIG.
  • the drive timing (phase of the pulse signal) may be set for each region in the pixel array unit 21 as in the example of FIG.
  • the image sensor according to the present disclosure it is possible to drive the pixels in the pixel array by dividing them into a plurality of timings without driving all the pixels in the pixel array at the same timing at the same time. be. As a result, the total current of the drive signals at each drive timing can be suppressed. Therefore, it is possible to improve the resolution of the distance image while suppressing the generation of electromagnetic noise.
  • FIG. 16 and 17 show examples of electronic devices according to the present disclosure.
  • FIG. 16 shows a configuration when the electronic device 1 is viewed from the positive direction side of the z-axis.
  • FIG. 17 shows a configuration when the electronic device 1 is viewed from the negative direction side of the z-axis.
  • the electronic device 1 has, for example, a substantially flat plate shape, and has a display unit 1a on at least one surface (here, a surface on the positive direction side of the z-axis).
  • the display unit 1a can display an image by, for example, a liquid crystal, a micro LED, or an organic electroluminescence method.
  • the display method in the display unit 1a is not limited. Further, the display unit 1a may include a touch panel and a fingerprint sensor.
  • a first imaging unit 110, a second imaging unit 111, a first light emitting unit 112, and a second light emitting unit 113 are mounted on the surface of the electronic device 1 on the negative side of the z-axis.
  • the first imaging unit 110 is, for example, a camera module capable of capturing a color image.
  • the camera module includes, for example, a lens system and an image sensor that performs photoelectric conversion of the light collected by the lens system.
  • the first light emitting unit 112 is, for example, a light source used as a flash of the first imaging unit 110.
  • a white LED can be used as the first light emitting unit 112.
  • the type of light source used as the first light emitting unit 112 is not limited.
  • the second image pickup unit 111 is, for example, an image pickup element capable of measuring a distance by an indirect ToF method.
  • the image pickup device according to the present disclosure can be mounted.
  • the second imaging unit 111 corresponds to, for example, the light receiving unit 1013 in FIG. 7.
  • the second light emitting unit 113 is a light source that can be used for distance measurement by the indirect ToF method.
  • the second light emitting unit 113 corresponds to, for example, the light emitting unit 1011 in FIG. 7. That is, the distance measuring module 1000 of FIG. 7 may be mounted on the electronic device 1.
  • the electronic device 1 can execute various processes based on the distance image output from the distance measuring module 1000.
  • the electronic device according to the present disclosure is a smartphone or a tablet has been described.
  • the electronic device according to the present disclosure may be, for example, another type of device such as a game machine, an in-vehicle device, a PC, or a surveillance camera.
  • the ranging device may include a signal generator, a plurality of vertically connected flip-flops, a circuit block, a pixel array, and a signal processing unit.
  • the signal generator is configured to generate a clock signal.
  • the circuit block is configured to supply the first signal to the respective clock terminals of the plurality of flip-flops according to the clock signal, and supply the second signal to the input terminals of the first-stage flip-flops of the plurality of flip-flops. ..
  • the pixel array includes pixels configured to be driven by pulse signals supplied from different stages of multiple flip-flops.
  • the signal processing unit is configured to generate a distance image based on the electric charge generated by the photoelectric conversion in the pixels of the pixel array.
  • the electronic device may include a signal generator, a plurality of vertically connected flip-flops, a circuit block, and a pixel array.
  • the signal generator is configured to generate a clock signal.
  • the circuit block is configured to supply the first signal to the respective clock terminals of the plurality of flip-flops according to the clock signal, and supply the second signal to the input terminals of the first-stage flip-flops of the plurality of flip-flops. ..
  • the pixel array includes pixels configured to be driven by pulse signals supplied from different stages of multiple flip-flops.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 18 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether or not the driver has fallen asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving, etc., which runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and an image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 19 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has image pickup units 12101, 12102, 12103, 12104, 12105 as the image pickup unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100, for example.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 19 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 uses the distance information obtained from the imaging units 12101 to 12104 to obtain the distance to each three-dimensional object within the imaging range 12111 to 12114 and the temporal change of this distance (relative velocity with respect to the vehicle 12100). By obtaining, it is possible to extract as the preceding vehicle a three-dimensional object that is the closest three-dimensional object on the traveling path of the vehicle 12100 and that travels in substantially the same direction as the vehicle 12100 at a predetermined speed (for example, 0 km / h or more). can.
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is used via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above.
  • the image pickup device according to the present disclosure can be mounted on the image pickup unit 12031.
  • the present technology can have the following configurations.
  • (1) With a signal generator configured to generate a clock signal, Multiple flip-flops connected in cascade, A circuit block configured to supply a first signal to each clock terminal of the plurality of flip-flops according to the clock signal and to supply a second signal to an input terminal of the first stage flip-flop of the plurality of flip-flops.
  • a pixel array containing pixels configured to be driven by pulse signals supplied from different stages of the plurality of flip-flops.
  • (2) The pixels in the pixel array include a signal extraction unit configured to detect charges generated by photoelectric conversion when the pulse signal is supplied. The image sensor according to (1).
  • the pixel in the pixel array includes a plurality of the signal extraction units, and each of the signal extraction units is configured to detect the charges generated at different timings.
  • a plurality of clock distribution circuits connected to the stage of any of the plurality of flip-flops on the input side and connected to the pixels in the pixel array via a drive line on the output side are provided.
  • the image pickup device according to any one of (1) to (3).
  • At least one of the clock distribution circuits is a clock tree system.
  • the pixel column or pixel row in the pixel array is configured to be driven by the pulse signal supplied from the common stage of the plurality of flip-flops.
  • the image pickup device according to any one of (1) to (5).
  • the pulse signal is supplied from different stages of the plurality of flip-flops by a region in the pixel array in which the pixels are arranged.
  • the image pickup device according to any one of (1) to (6).
  • (8) Further comprising a multiplexer configured to select the pulse signal supplied to the pixel in the pixel array.
  • the image pickup device according to any one of (1) to (7).
  • the circuit block is configured to output the first signal of the first frequency and output the second signal of a second frequency different from the first frequency.
  • the circuit block is configured to output the first signal and the second signal synchronized with each other.
  • the image pickup device according to any one of (1) to (9).
  • the circuit block further includes a frequency divider circuit that generates the first signal based on the clock signal.
  • the image pickup device according to any one of (1) to (10).
  • the circuit block is configured to output the first signal having a first frequency equal to the clock frequency of the clock signal.
  • the image pickup device according to any one of (1) to (10).
  • a control unit configured to output a control signal to the circuit block is further provided.
  • the circuit block is configured to adjust the first frequency of the first signal or the second frequency of the second signal based on the supplied control signal.
  • the image pickup device according to any one of (1) to (12).
  • a signal generator configured to generate a clock signal
  • Multiple flip-flops connected in cascade,
  • a circuit block configured to supply a first signal to each clock terminal of the plurality of flip-flops according to the clock signal and to supply a second signal to an input terminal of the first stage flip-flop of the plurality of flip-flops.
  • a pixel array containing pixels configured to be driven by pulse signals supplied from different stages of the plurality of flip-flops.
  • a signal processing unit configured to generate a distance image based on the electric charge generated by the photoelectric conversion in the pixel of the pixel array. Distance measuring device equipped with.
  • a circuit block configured to supply a first signal to each clock terminal of the plurality of flip-flops according to the clock signal and to supply a second signal to an input terminal of the first stage flip-flop of the plurality of flip-flops.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Traffic Control Systems (AREA)
  • Vehicle Body Suspensions (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

[課題]電磁ノイズの発生を抑制しつつ、距離画像の解像度を向上させることが可能な撮像素子、測距装置および電子機器を提供する。 [解決手段]本開示による撮像素子は、クロック信号を生成するように構成された信号生成器と、縦続接続された複数のフリップフロップと、前記クロック信号に応じて第1信号を前記複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を前記複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成された回路ブロックと、前記複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む画素アレイとを備える。

Description

撮像素子、測距装置および電子機器
 本開示は、撮像素子、測距装置および電子機器に関する。
 間接ToF(Time of Flight)方式を利用した測距技術が知られている。このような測距システムでは、光源より所定の位相で照射された光が物体で反射した反射光を検出し、光信号の電荷を異なる領域に分配するセンサが使われる。間接ToF方式のセンサを使うと、入射光の位相に応じて各電荷蓄積領域に振り分けられた信号に基づき測距を行うことが可能である。間接ToF方式による測距では、一般に複数の画素が2次元に配置されたセンサが使われる。近年、より高い解像度の距離画像を得るために、センサに実装される画素数が増加している。
特開2018-117117号公報
 間接ToF方式のセンサでは、入射光に相当する電荷を検出するために、それぞれの画素に駆動信号が供給される。駆動信号が供給される画素数を増やす場合、より大きい電流の駆動信号が必要となる。駆動信号の合計電流が増加する場合、入射光の検出時に発生する電磁ノイズが大きくなってしまい、EMC(Electro-Magnetic Compatibility)に係る要件を満たせなくなるおそれがある。
 そこで、本開示は、電磁ノイズの発生を抑制しつつ、距離画像の解像度を向上させることが可能な撮像素子、測距装置および電子機器を提供する。
 本開示の一態様による撮像素子は、クロック信号を生成するように構成された信号生成器と、縦続接続された複数のフリップフロップと、前記クロック信号に応じて第1信号を前記複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を前記複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成された回路ブロックと、前記複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む画素アレイとを備えていてもよい。
 前記画素アレイ内の前記画素は、前記パルス信号が供給されると、光電変換によって発生した電荷を検出するように構成された信号取り出し部を含んでいてもよい。
 前記画素アレイ内の前記画素は、複数の前記信号取り出し部を含み、それぞれの前記信号取り出し部は、異なるタイミングで発生した前記電荷を検出するように構成されていてもよい。
 入力側で前記複数のフリップフロップのいずれかの前記段に接続され、出力側で駆動線を介して前記画素アレイ内の前記画素に接続されているクロック分配回路をさらに複数備えていてもよい。
 前記クロック分配回路の少なくともいずれかは、クロックツリー方式であってもよい。
 前記画素アレイ内の画素列または画素行は、前記複数のフリップフロップの共通する前記段から供給された前記パルス信号によって駆動されるように構成されていてもよい。
 前記画素が配置されている前記画素アレイ内の領域によって、前記複数のフリップフロップの異なる前記段より前記パルス信号が供給されるように構成されていてもよい。
 前記画素アレイ内の前記画素に供給される前記パルス信号を選択するように構成されたマルチプレクサをさらに備えていてもよい。
 前記回路ブロックは、第1周波数の前記第1信号を出力し、前記第1周波数とは異なる第2周波数の前記第2信号を出力するように構成されていてもよい。
 前記回路ブロックは、互いに同期された前記第1信号および前記第2信号を出力するように構成されていてもよい。
 前記回路ブロックは、前記クロック信号に基づいて前記第1信号を生成する分周回路をさらに含んでいてもよい。
 前記回路ブロックは、前記クロック信号のクロック周波数に等しい第1周波数の前記第1信号を出力するように構成されていてもよい。
  前記回路ブロックに制御信号を出力するように構成された制御部をさらに備え、前記回路ブロックは、供給された制御信号に基づいて前記第1信号の第1周波数または前記第2信号の第2周波数を調整するように構成されていてもよい。
 本開示の一態様による測距装置は、クロック信号を生成するように構成された信号生成器と、縦続接続された複数のフリップフロップと、前記クロック信号に応じて第1信号を前記複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を前記複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成された回路ブロックと、前記複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む画素アレイと、前記画素アレイの前記画素において光電変換によって発生した電荷に基づいて距離画像を生成するように構成された信号処理部とを備えていてもよい。
 本開示の一態様による電子機器は、クロック信号を生成するように構成された信号生成器と、縦続接続された複数のフリップフロップと、前記クロック信号に応じて第1信号を前記複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を前記複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成された回路ブロックと、前記複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む画素アレイとを備えていてもよい。
本開示による撮像素子の例を示したブロック図である。 画素が垂直方向に駆動される撮像素子の例を示したブロック図である。 撮像素子内の画素の構成例を示す図である。 画素における信号取り出し部の例を示す図である。 画素の等価回路の例を示した図である。 画素のその他の等価回路の例を示した図である。 測距装置の構成例を示した図である。 撮像素子内の全画素が同時に駆動された場合の例を示した図である。 本開示によるパルス生成器の例を示した図である。 撮像素子内の画素を列ごとに駆動した場合の例を示した図である。 撮像素子内の画素を行ごとに駆動した場合の例を示した図である。 撮像素子内の画素を領域ごとに駆動した場合の例を示した図である。 第1の変形例によるパルス生成器の例を示した図である。 第2の変形例によるパルス生成器の例を示した図である。 第2の変形例による撮像素子の構成例を示した図である。 本開示による電子機器の例を示した図である。 本開示による電子機器の例を示した図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 本開示は、間接ToF方式による測距を行う測距システム(測距装置)に実装される、撮像素子における電磁ノイズの発生を抑制するものである。撮像素子は、各種の電子機器に実装されてもよい。
 測距システムの一例として、車両に搭載され、車外にある対象物までの距離を測定する車載用のシステムがある。また、測距システムは、ユーザの手などの物体までの距離を測定し、その測定結果に基づいてユーザのジェスチャを認識するジェスチャ認識用のシステムなどに適用されるものであってもよい。例えば、ジェスチャ認識の結果を使ってカーナビゲーションシステムの操作を行うことができる。ただし、ジェスチャ認識の結果は、その他の目的に使われてもよい。
 図1のブロック図は、本開示による撮像素子(受光素子)の例を示している。
 図1の撮像素子11は、例えば、裏面照射型のセンサであり、測距機能を有する撮像装置に実装される。ただし、撮像素子11は、表面照射型のセンサであってもよい。
 撮像素子11は、例えば、半導体基板(図示せず)上に形成された画素アレイ部21と、画素アレイ部21と同じ半導体基板上に集積された周辺回路部とを有する。周辺回路部は、例えば、画素駆動部22と、カラム処理部23と、リード駆動部24と、システム制御部25とを含む。
 撮像素子11は、さらに信号処理部26と、データ格納部27とを備えていてもよい。信号処理部26およびデータ格納部27は、撮像素子11と同じ基板に実装されていてもよいし、撮像素子11とは別の基板に実装されていてもよい。
 画素アレイ部21では、例えば、単位画素がアレイ状に配置されている。単位画素(以下、画素ともよぶ)は、受光した光量に応じた電荷を生成し、その電荷に応じた信号を出力する。画素は、例えば、画素アレイ内で行方向および列方向の2方向に配置される。ただし、画素は、画素アレイ部21内で任意の2次元配列をとりうる。すなわち、画素アレイ部21は、入射した光を光電変換し、それにより得られた電荷に応じた信号を出力する画素を複数有している。
 ここで、行方向は、画素行の画素の配列方向(すなわち、水平方向)をいうものとする。また、列方向は、画素列の画素の配列方向(すなわち、垂直方向)をいうものとする。行方向は図中で横方向に相当し、列方向は図中で縦方向に相当する。
 画素アレイ部21において、行列状の画素配列に対して、画素行ごとに画素駆動線28が行方向に沿って配線されている。また、各画素列に2つの垂直信号線29が列方向に沿って配線されている。例えば、画素駆動線28は、画素から信号を読み出す際の駆動を行うための駆動信号を伝送する。図1では、画素駆動線28を1本の信号線として示しているが、信号線の本数は、1本に限定されるものではない。画素駆動線28の一端は、画素駆動部22の各行に対応する出力端に接続されている。
 画素駆動部22は、画素アレイ部21内の一部の画素を所定の順序で駆動する回路である。画素駆動部22が各回で駆動する画素の組み合わせおよび画素の各組み合わせが駆動される順序を、画素の駆動パターンとよぶものとする。本開示による画素駆動部22は、画素アレイ部21内で同時に駆動される画素の数を減らすことによって、発生する電磁ノイズを抑制する。画素駆動部22は、例えば、シフトレジスタまたはアドレスデコーダを含む。画素駆動部22は、画素駆動部22を制御するシステム制御部25とともに、画素アレイ部21内の各画素の動作を制御する駆動部を形成している。本開示による画素駆動部の詳細については、後述する。
 間接ToF方式による測距に使われる撮像素子では、同一の制御線に接続されている素子数によって、駆動タイミングの精度が左右される。間接ToF方式による測距に使われる撮像素子の画素アレイでは、水平方向の制御線が長くなるため、駆動タイミングに遅れが生じる可能性がある。このため、水平方向の制御線だけでなく、例えば、垂直信号線29など、その他の信号線も使って画素の駆動を行ってもよい。この場合、画素駆動部22とは、別個に設けられた駆動部(例えば、リード駆動部)より垂直信号線29に駆動信号を出力してもよい。
 画素駆動部22による駆動制御に応じて画素行の各画素から出力される信号は、垂直信号線29を介してカラム処理部23に入力される。カラム処理部23は、各画素から垂直信号線29を介して出力される信号に対し、所定の信号処理を実行し、信号処理後の画素信号を一時的に保持する。カラム処理部23は、信号処理としてノイズ除去処理またはAD(Analog to Digital)変換処理の少なくともいずれかを実行してもよい。ノイズ除去処理の例としては、相関2重サンプリング(CDS)が挙げられるが、その他の種類の処理が実行されてもよい。
 リード駆動部24は、例えば、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理部23の画素列に対応する単位回路を順番に選択する。このリード駆動部24による選択走査により、カラム処理部23において単位回路ごとに信号処理された画素信号が順番に出力される。
 システム制御部25は、例えば、各種のタイミング信号を生成するタイミングジェネレータを含む。システム制御部25は、タイミングジェネレータで生成された各種のタイミング信号を基に、画素駆動部22、カラム処理部23、およびリード駆動部24などの駆動制御を行う。
 信号処理部26は、少なくとも演算処理機能を有し、カラム処理部23から出力される画素信号に基づいて演算処理等の種々の信号処理を行う。データ格納部27は、信号処理部26での信号処理にあたって、その処理に必要なデータを一時的に格納する。
 図2のブロック図は、変形例1による撮像素子の例を示している。図2の例のように、画素駆動部22は、垂直方向に沿って配線された画素駆動線28Aを介して画素アレイ部21内の画素配列に接続されていてもよい。この場合、図1と同様、各画素列に2つの垂直信号線29が列方向に沿って配線されていていてもよい。また、後述するように、画素駆動部22は、垂直方向に沿って配線された第1画素駆動線および水平方向に沿って配線された第2画素駆動線に駆動信号を出力し、画素アレイ部21内の画素内の画素を駆動してもよい。このように、画素アレイ部21内の画素を駆動する信号線(画素駆動線)の方向および組み合わせについては、問わない。
〈画素の構成例〉
 次に、画素アレイ部21に設けられた画素の構成例について説明する。図3は、画素アレイ部21に設けられる画素の一例を示している。
 図3は、画素アレイ部21に設けられたひとつの画素51の断面を示している。この画素51は外部から入射した光を受光して光電変換し、その結果得られた電荷に応じた信号を出力する。画素51は、例えば、赤外光を受光することができる。ただし、画素51が受光する電磁波の波長を限定するものではない。
 画素51は、例えば、基板61(半導体層)と、基板61上に形成されたオンチップレンズ62とを有する。基板61として、例えば、P型半導体領域を含むシリコン基板を使うことができる。
 例えば、基板61のz軸方向の厚さ(基板61の面と垂直な方向の厚さ)は、20μm以下に設定されている。ただし、基板61の厚さは20μm以上であってもよい。基板61の厚さは、撮像素子11の設計および使用に応じて決定することができる。
 基板61として、例えば、1E+13オーダー以下の基板濃度とされた高抵抗のP‐Epi基板を使うことができる。この場合、基板61の抵抗(抵抗率)は例えば、500[Ωcm]以上となる。
 基板61の抵抗の値は、基板濃度に依存する。例えば、基板濃度6.48E+12[cm3]のとき、抵抗は、2000[Ωcm]になる。また、基板濃度1.30E+13[cm3]のとき、抵抗は、1000[Ωcm]になる。基板濃度2.59E+13[cm3]のとき、抵抗は、500[Ωcm]になる。さらに、基板濃度1.30E+14[cm3]のとき、抵抗は、100[Ωcm]になる。
 基板61のz軸正方向側の表面、すなわち、基板61に外部からの光が入射する側の面(以下、入射面ともよぶ)の上には、外部から入射した光を集光し、基板61内に入射させるオンチップレンズ62が形成されている。
 さらに画素51では、基板61の入射面上における画素51の端部分には、隣接する画素間での混色を防止するための画素間遮光部63-1および画素間遮光部63-2が形成されている。
 この例では、外部からの光はオンチップレンズ62を介して基板61内に入射する。外部から入射した光がオンチップレンズ62や基板61の一部を通り、基板61における画素51に隣接して設けられた他の画素の領域に入射しないことが好ましい。図3の例では、外部からオンチップレンズ62に入射し、画素51と隣接する他の画素内へと向かう光が、画素間遮光部63-1や画素間遮光部63-2で遮光され、隣接する他の画素内に入射するのが防止されている。以下、画素間遮光部63-1および画素間遮光部63-2を特に区別する必要のない場合、単に画素間遮光部63ともよぶものとする。
 撮像素子11は、裏面照射型のセンサであるため、基板61の入射面が、いわゆる基板61の裏面となる。基板61の裏面側には、配線などを含む配線層が形成されていない。また、基板61における入射面とは反対側の面の部分には、積層構造内に画素51内に形成されたトランジスタなどを駆動するための配線および画素51から信号を読み出すための配線などが形成された配線層が形成される。
 基板61内における入射面とは反対の面側、すなわちz軸負方向側の面の内側の部分には、酸化膜64と、Tap(タップ)と呼ばれる信号取り出し部65-1および信号取り出し部65-2とが形成される。
 この例では、基板61の入射面とは反対側の面近傍における画素51の中心部分に酸化膜64が形成されており、その酸化膜64の両端にそれぞれ信号取り出し部65-1および信号取り出し部65-2が形成されている。
 ここで、信号取り出し部65-1は、N+半導体領域71-1と、N+半導体領域71-1と、N-半導体領域72-1と、P+半導体領域73-1と、P-半導体領域74-1とを含む。N+半導体領域71-1は、N型半導体領域である。N-半導体領域72-1は、N+半導体領域71-1よりもドナー不純物の濃度が低いN型半導体領域である。P+半導体領域73-1は、P型半導体領域である。P-半導体領域74-1は、P+半導体領域73-1よりもアクセプター不純物濃度が低いP型半導体領域である。例えば、シリコン(Si)の基板が使われる場合、ドナー不純物として、リン(P)またはヒ素(As)などの元素の周期表で5族に属する元素を使うことができる。この場合、アクセプター不純物として、例えば、ホウ素(B)などの元素の周期表で3族に属する元素を使うことができる。ドナー不純物となる元素は、ドナー元素、アクセプター不純物となる元素は、アクセプター元素ともよばれる。
 基板61の入射面とは反対側の面近傍の部分における、酸化膜64のx軸正方向側の位置にN+半導体領域71-1が形成されている。また、N+半導体領域71-1のz軸正方向側に、N+半導体領域71-1を覆うように(囲むように)N-半導体領域72-1が形成されている。
 さらに、基板61の入射面とは反対側の面近傍の部分における、N+半導体領域71-1のx軸正方向側に隣接する位置にP+半導体領域73-1が形成されている。また、P+半導体領域73-1のz軸正方向側に、P+半導体領域73-1を覆うように(囲むように)P-半導体領域74-1が形成されている。
 なお、基板61を基板61の面と垂直な方向から見たときに、P+半導体領域73-1およびP-半導体領域74-1を中心として、それらのP+半導体領域73-1およびP-半導体領域74-1の周囲を囲むように、N+半導体領域71-1およびN-半導体領域72-1が形成されていてもよい。
 同様に信号取り出し部65-2は、N+半導体領域71-2と、N-半導体領域72-2と、P+半導体領域73-2と、P-半導体領域74-2とを含む。N+半導体領域71-2は、N型半導体領域である。N-半導体領域72-2は、N+半導体領域71-2よりもドナー不純物の濃度が低いN型半導体領域である。P+半導体領域73-2は、P型半導体領域である。P-半導体領域74-2は、P+半導体領域73-2よりもアクセプター不純物濃度が低いP型半導体領域である。
 基板61の入射面とは反対側の面近傍の部分における、酸化膜64のx軸負方向側に隣接する位置にN+半導体領域71-2が形成されている。また、N+半導体領域71-2のz軸正方向側に、N+半導体領域71-2を覆うように(囲むように)N-半導体領域72-2が形成されている。
 さらに、基板61の入射面とは反対側の面近傍の部分における、N+半導体領域71-2の軸負方向側に隣接する位置にP+半導体領域73-2が形成されている。また、P+半導体領域73-2のz軸正方向側に、P+半導体領域73-2を覆うように(囲むように)P-半導体領域74-2が形成されている。
 なお、基板61を基板61の面と垂直な方向から見たときに、P+半導体領域73-2およびP-半導体領域74-2を中心として、それらのP+半導体領域73-2およびP-半導体領域74-2の周囲を囲むように、N+半導体領域71-2およびN-半導体領域72-2が形成されていてもよい。
 以下、信号取り出し部65-1および信号取り出し部65-2を特に区別する必要のない場合、これらを単に信号取り出し部65ともよぶものとする。
 また、以下、N+半導体領域71-1およびN+半導体領域71-2を特に区別する必要のない場合、これらを単にN+半導体領域71ともよぶものとする。また、N-半導体領域72-1およびN-半導体領域72-2を特に区別する必要のない場合、これらを単にN-半導体領域72ともよぶものとする。
 さらに、以下、P+半導体領域73-1およびP+半導体領域73-2を特に区別する必要のない場合、これらを単にP+半導体領域73とよぶものとする。また、P-半導体領域74-1およびP-半導体領域74-2を特に区別する必要のない場合、これらを単にP-半導体領域74ともよぶものとする。
 また、基板61内のN+半導体領域71-1とP+半導体領域73-1との間には、それらの領域を分離するための分離部75-1が酸化膜などによって形成されている。同様に、N+半導体領域71-2とP+半導体領域73-2との間にも、それらの領域を分離するための分離部75-2が酸化膜などによって形成されている。以下、分離部75-1および分離部75-2を特に区別する必要のない場合、これらを単に分離部75とよぶものとする。
 基板61に設けられたN+半導体領域71は、外部から画素51に入射してきた光の光量(基板61による光電変換により発生した信号キャリアの量)を検出するための電荷検出部として機能する。なお、N+半導体領域71だけでなく、ドナー不純物濃度が低いN-半導体領域72も電荷検出部として使うことができる。また、P+半導体領域73は、基板61に直接電圧を印加して基板61内に電界を発生させるための電圧印加部として機能する。このとき、多数キャリア電流を基板61に注入することができる。なお、P+半導体領域73の他に、アクセプター不純物濃度が低いP-半導体領域74も電圧印加部として使うことができる。
 画素51では、N+半導体領域71-1には、直接、図示していない浮遊拡散領域であるFD(Floating Diffusion)部(以下、特にFD部Aともよぶ)が接続されており、さらにそのFD部Aは、図示していない増幅トランジスタなどを介して垂直信号線29に接続されている。
 同様に、N+半導体領域71-2には、直接、FD部Aとは異なる他のFD部(以下、特にFD部Bとも称する)が接続されており、さらにそのFD部Bは、図示していない増幅トランジスタなどを介して垂直信号線29に接続されている。ここで、FD部AとFD部Bとは互いに異なる垂直信号線29に接続されている。
 例えば、間接ToF方式によって対象物までの距離を測定しようとする場合、撮像素子11が設けられた撮像装置から対象物に向けて赤外光が照射される。そして、その赤外光が対象物で反射されて反射光として撮像装置に戻ってくると、撮像素子11の基板61は入射してきた反射光(赤外光)を受光して光電変換する。
 このとき、画素駆動部22は、画素51を駆動する。これにより、光電変換によって得られた電荷に応じた信号をFD部AとFD部Bとに分配することができる。なお、上述したように画素51の駆動は、画素駆動部22ではなく、垂直信号線29や他の垂直方向に配線された制御線を介して、別個に設けられた駆動部やリード駆動部24などによって行われてもよい。
 例えば、あるタイミングで、画素駆動部22はコンタクトなどを介して2つのP+半導体領域73に電圧を印加する。例えば、画素駆動部22はP+半導体領域73-1にHIGH(例えば、1.5V)の電圧を印加し、P+半導体領域73-2にはLOW(例えば、0V)の電圧を印加する。
 これにより、基板61における2つのP+半導体領域73の間に電界が発生し、P+半導体領域73-1からP+半導体領域73-2へと電流が流れる。この場合、基板61内の正孔(ホール)はP+半導体領域73-2の方向に移動し、電子はP+半導体領域73-1の方向に移動する。
 オンチップレンズ62を介して外部からの赤外光(反射光)が基板61内に入射し、その赤外光が基板61内で光電変換されて電子と正孔のペアに変換される。上述の状態において得られた電子はP+半導体領域73間の電界によってP+半導体領域73-1の方向へと導かれ、N+半導体領域71-1内に移動する。
 この場合、光電変換で発生した電子が、画素51に入射した赤外光の量(赤外光の受光量)に応じた信号を検出するための信号キャリア(電荷)として用いられることになる。
 これにより、N+半導体領域71-1には、N+半導体領域71-1内へと移動してきた電子に応じて電荷が蓄積される。蓄積された電荷は、FD部A、増幅トランジスタまたは垂直信号線29などを介してカラム処理部23で検出される。
 N+半導体領域71-1の蓄積電荷は、そのN+半導体領域71-1に直接接続されたFD部Aに転送される。そして、FD部Aに転送された電荷に応じた信号が増幅トランジスタおよび垂直信号線29を介してカラム処理部23により読み出される。そして、読み出された信号に対して、カラム処理部23においてAD変換処理などの処理が行われ、その結果生成された画素信号が信号処理部26へと供給される。
 この画素信号は、N+半導体領域71-1により検出された電子に応じた電荷量(FD部Aに蓄積された電荷の量)を示す信号となる。すなわち、画素信号は画素51で受光された赤外光の光量を示す信号であるともいうことができる。
 なお、N+半導体領域71-1における場合と同様に、N+半導体領域71-2で検出された電子に応じた画素信号を測距に利用してもよい。
 また、次のタイミングでは、これまで基板61内で生じていた電界と反対方向の電界が発生するように、画素駆動部22によりコンタクトなどを介して2つのP+半導体領域73に電圧が印加される。具体的には、例えばP+半導体領域73-2にHIGH(例えば、1.5V)の電圧が印加され、P+半導体領域73-1には、LOW(例えば、0V)の電圧が印加される。
 これにより、基板61における2つのP+半導体領域73の間で電界が発生し、P+半導体領域73-2からP+半導体領域73-1に電流が流れる。
 オンチップレンズ62を介して外部からの赤外光(反射光)が基板61内に入射し、その赤外光が基板61内で光電変換されて電子と正孔のペアが生成される。上述の状態では、生成された電子はP+半導体領域73間の電界によってP+半導体領域73-2の方向へと導かれ、N+半導体領域71-2内に移動する。
 これにより、N+半導体領域71-2には、N+半導体領域71-2内へと移動してきた電子に応じた電荷が蓄積される。蓄積された電荷は、FD部B、増幅トランジスタ、垂直信号線29などを介してカラム処理部23で検出される。
 N+半導体領域71-2の蓄積電荷は、そのN+半導体領域71-2に直接接続されたFD部Bに転送される。そして、FD部Bに転送された電荷に応じた信号が増幅トランジスタおよび垂直信号線29を介してカラム処理部23により読み出される。そして、読み出された信号に対して、カラム処理部23においてAD変換処理等の処理が行われ、その結果生成された画素信号が信号処理部26に供給される。
 なお、N+半導体領域71-2における場合と同様に、N+半導体領域71-1で検出された電子に応じた画素信号を使って測距を行ってもよい。
 このようにして、同じ画素51において互いに異なる期間の光電変換で得られた画素信号が得られると、信号処理部26は、それらの画素信号に基づいて対象物までの距離を示す距離情報を算出し、後段の回路に距離情報を出力する。距離情報は、例えば、それぞれの画素ごとに距離の値を含む距離画像であってもよい。
 上述のように、互いに異なるN+半導体領域71へと信号キャリアを分配し、それらの信号キャリアに応じた信号に基づいて距離情報を算出する技術は、間接ToF方式とよばれる。
 なお、ここでは画素駆動部22によってP+半導体領域73に印加される電圧の制御が行われる例について説明した。ただし、上述したように画素駆動部22とは別個に、P+半導体領域73に印加される電圧の制御を行う電圧印加制御部として機能する駆動部(ブロック)が撮像素子11内に設けられてもよい。
 画素51における信号取り出し部65の部分を図2のz軸正方向(基板61の面と垂直な方向)より見たときに、例えば、図3に示したようなP+半導体領域73の周囲がN+半導体領域71に囲まれる構造を採用してもよい。なお、図3では、図2内の構成要素と対応する部分には同一の符号を付しており、説明は、適宜省略するものとする。
 図3の例では、画素51の中央部分に図示していない酸化膜64が形成されている。また、画素51の中心からずれた部分に信号取り出し部65が形成されている。図3の画素51内には2つの信号取り出し部65が形成されている。
 そして、それぞれの信号取り出し部65では、その中心位置に矩形状にP+半導体領域73が形成されている。また、P+半導体領域73を中心として、P+半導体領域73の周囲が矩形枠形状のN+半導体領域71で囲まれている。すなわち、N+半導体領域71は、P+半導体領域73の周囲を囲むように形成されている。
 また、画素51では、画素51の中心部分、すなわち矢印A11に示す部分に外部から入射してくる赤外光が集光されるようにオンチップレンズ62が形成されている。換言すれば、外部からオンチップレンズ62に入射した赤外光は、オンチップレンズ62により矢印A11に示す位置、つまり図2における酸化膜64のz軸正方向側の位置に集光される。
 したがって、赤外光は信号取り出し部65-1と信号取り出し部65-2との間の位置に集光されることになる。これにより、赤外光が画素51に隣接する画素へと入射して混色が発生してしまうことを抑制するとともに、信号取り出し部65に直接、赤外光が入射してしまうことも抑制することができる。
 例えば、赤外光が直接、信号取り出し部65に入射すると電荷分離効率、Cmod(Contrast between active and inactive tap)およびModulation contrastが低下してしまう。
 光電変換で得られた電荷(電子)に応じた信号の読み出しが行われる方の信号取り出し部65(タップ)は、アクティブタップ(active tap)とよばれる。
 光電変換で得られた電荷に応じた信号の読み出しが行われない方の信号取り出し部65(タップ)、すなわち、アクティブタップではない方の信号取り出し部65をイナクティブタップ(inactive tap)とよぶものとする。
 上述の例では、P+半導体領域73にHIGH(例えば、1.5V)の電圧が印加される方の信号取り出し部65がアクティブタップである。また、P+半導体領域73にLOW(例えば、0V)の電圧が印加される方の信号取り出し部65がイナクティブタップである。
 Cmodは、入射した赤外光の光電変換で発生した電荷のうちの何%分の電荷がアクティブタップである信号取り出し部65のN+半導体領域71で検出できるか、つまり電荷に応じた信号を取り出せるかを表す指標であり、電荷分離効率を示している。
 したがって、例えば外部から入射した赤外光がイナクティブタップの領域に入射し、そのイナクティブタップ内で光電変換が行われると、光電変換により発生した信号キャリアである電子が、イナクティブタップ内のN+半導体領域71に移動してしまう可能性が高い。そうすると、光電変換により得られた一部の電子の電荷がアクティブタップ内のN+半導体領域71で検出されなくなり、Cmod(電荷分離効率)が低下してしまう。
 そこで、画素51では、2つの信号取り出し部65から略等距離の位置にある画素51の中心部分付近に赤外光が集光されるようにすることで、外部から入射した赤外光がイナクティブタップの領域で光電変換されてしまう確率を低減させ、電荷分離効率を向上させることができる。また、画素51ではModulation contrastも向上させることができる。すなわち、光電変換により得られた電子がアクティブタップ内のN+半導体領域71に誘導されやすくなる。
〈画素の等価回路構成例〉
 次に、画素における回路構成の例について説明する。図5は、画素51の等価回路を示している。
 画素51は、N+半導体領域71-1およびP+半導体領域73-1を含む信号取り出し部65-1に対応する、転送トランジスタ721Aと、FD722Aと、リセットトランジスタ723Aと、増幅トランジスタ724Aと、選択トランジスタ725Aとを備えている。
 また、画素51は、N+半導体領域71-2およびP+半導体領域73-2を含む信号取り出し部65-2に対応する、転送トランジスタ721Bと、FD722Bと、リセットトランジスタ723Bと、増幅トランジスタ724Bと、選択トランジスタ725Bとを備えている。
 画素駆動部22は、P+半導体領域73-1に所定の電圧MIX0(第1の電圧)を印加し、P+半導体領域73-2に所定の電圧MIX1(第2の電圧)を印加する。上述の例では、電圧MIX0およびMIX1の一方がHIGH(例えば、1.5V)で、他方がLOW(例えば、0V)である。P+半導体領域73-1および73-2は、第1の電圧または第2の電圧が印加される電圧印加部に相当する。
 N+半導体領域71-1および71-2は、基板61に入射された光が光電変換されて生成された電荷を検出して、蓄積する電荷検出部に相当する。
 転送トランジスタ721Aは、ゲート電極に供給される駆動信号TRGがアクティブ状態になると、これに応じて導通状態になる。これにより、N+半導体領域71-1に蓄積されている電荷は、FD722Aに転送される。転送トランジスタ721Bは、ゲート電極に供給される駆動信号TRGがアクティブ状態になると、これに応じて導通状態になる。これにより、N+半導体領域71-2に蓄積されている電荷は、FD722Bに転送される。
 FD722Aは、N+半導体領域71-1から供給された電荷を一時保持する。一方、FD722Bは、N+半導体領域71-2から供給された電荷を一時保持する。FD722Aは、図2の説明で述べたFD部Aに相当する。一方、FD722Bは、FD部Bに相当する。
 リセットトランジスタ723Aは、ゲート電極に供給される駆動信号RSTがアクティブ状態になると、これに応じて導通状態になる。これにより、FD722Aの電位を所定のレベル(リセット電圧VDD)にリセットする。リセットトランジスタ723Bは、ゲート電極に供給される駆動信号RSTがアクティブ状態になると、これに応じて導通状態になる。これにより、FD722Bの電位を所定のレベル(リセット電圧VDD)にリセットする。なお、リセットトランジスタ723Aおよび723Bがアクティブ状態となるとき、転送トランジスタ721Aおよび721Bをアクティブ状態にすることができる。
 増幅トランジスタ724Aのソース電極は、選択トランジスタ725Aを介して垂直信号線29Aに接続されている。これにより、垂直信号線29Aの一端に接続されている定電流源回路部726Aの負荷MOSとソースフォロワ回路が形成される。増幅トランジスタ724Bのソース電極は、選択トランジスタ725Bを介して垂直信号線29Bに接続される。これにより、垂直信号線29Bの一端に接続されている定電流源回路部726Bの負荷MOSとソースフォロワ回路が形成される。
 選択トランジスタ725Aは、増幅トランジスタ724Aのソース電極と垂直信号線29Aとの間に接続されている。選択トランジスタ725Aは、ゲート電極に供給される選択信号SELがアクティブ状態になるとこれに応じて導通状態となる。これにより、増幅トランジスタ724Aから出力される画素信号が垂直信号線29Aに出力される。
 選択トランジスタ725Bは、増幅トランジスタ724Bのソース電極と垂直信号線29Bとの間に接続されている。選択トランジスタ725Bは、ゲート電極に供給される選択信号SELがアクティブ状態になるとこれに応じて導通状態となる。これにより、増幅トランジスタ724Bから出力される画素信号が垂直信号線29Bに出力される。
 画素51の転送トランジスタ721Aおよび721B、リセットトランジスタ723Aおよび723B、増幅トランジスタ724Aおよび724B、ならびに、選択トランジスタ725Aおよび725Bは、例えば、画素駆動部22によって制御される。
 図6は、画素51のその他の等価回路を示している。
 図6において、図5と対応する部分については同一の符号を付している。同一の符号が付された構成要素の説明は省略する。
 図6の等価回路は、図5の等価回路に対し、付加容量727と、その接続を制御する切替トランジスタ728が、信号取り出し部65-1および65-2のそれぞれに追加されている。
 具体的には、転送トランジスタ721AとFD722Aとの間に、切替トランジスタ728Aを介して付加容量727Aが接続されている。また、転送トランジスタ721BとFD722Bとの間に、切替トランジスタ728Bを介して付加容量727Bが接続されている。
 切替トランジスタ728Aは、ゲート電極に供給される駆動信号FDGがアクティブ状態になるとこれに応じて導通状態になる。これにより、付加容量727Aを、FD722Aに接続する。切替トランジスタ728Bは、ゲート電極に供給される駆動信号FDGがアクティブ状態になるとこれに応じて導通状態になる。これにより、付加容量727Bを、FD722Bに接続させる。
 画素駆動部22は、例えば、入射光の光量が多い高照度のとき、切替トランジスタ728Aおよび728Bをアクティブ状態にし、FD722Aと付加容量727Aとを接続する。また、画素駆動部22は、FD722Bと付加容量727Bを接続する。これにより、高照度時に、より多くの電荷を蓄積することが可能となる。
 一方、入射光の光量が少ない低照度のときには、画素駆動部22は、切替トランジスタ728Aおよび728Bを非アクティブ状態にする。これにより、付加容量727Aおよび727Bを、それぞれFD722Aおよび722Bから遮断する。
 図6の例のように、付加容量727を実装し、入射光量に応じた使い分けを行うことにより、高いダイナミックレンジを確保することができる。ただし、図5の等価回路のように、付加容量727は省略した構成を使ってもよい。
(測距モジュールの構成例)
 図7は、図1の撮像素子11を用いて測距情報を出力する測距モジュールの構成例を示したブロック図である。
 測距モジュール1000は、発光部1011と、発光制御部1012と、受光部1013とを備える。
 発光部1011は、所定波長の光を発する光源を有し、周期的に明るさが変動する照射光を発して物体に照射する。例えば、発光部1011は、光源として、波長が780nmないし1000nmの範囲の赤外光を発する発光ダイオードを有する。発光部1011は、例えば、発光制御部1012から供給される矩形波の発光制御信号CLKpに同期して、照射光を発生する。
 なお、発光制御信号CLKpとして、例えば、周期信号を使うことができる。周期信号は、矩形波に限定されない。例えば、発光制御信号CLKpは、正弦波であってもよい。
 発光制御部1012は、発光制御信号CLKpを発光部1011および受光部1013に供給し、照射光の照射タイミングを制御する。この発光制御信号CLKpの周波数は、例えば、20メガヘルツ(MHz)である。なお、発光制御信号CLKpの周波数は、20メガヘルツ(MHz)に限定されず、5メガヘルツ(MHz)などその他の値に設定されていてもよい。
 受光部1013は、物体から反射した反射光を受光し、受光結果に応じて距離情報を画素ごとに算出する。そして、物体までの距離を画素ごとに階調値で表した距離画像を生成して、当該距離画像を出力する。
 受光部1013として、例えば、上述の撮像素子11を使うことができる。撮像素子11が受光部1013として使われた場合、発光制御信号CLKpに基づいて、画素アレイ部21の各画素51の信号取り出し部65-1および65-2それぞれの電荷検出部(N+半導体領域71)で検出された信号強度に基づき、距離情報を画素ごとに算出することができる。
 以上のように、間接ToF方式により被写体までの距離情報を求めて出力する測距モジュール1000の受光部1013として、図1の撮像素子11を組み込むことができる。測距モジュール1000の受光部1013として、上述の撮像素子11を採用することにより、発生する電磁ノイズを抑制することができる。
 また、以上においては信号キャリアとして電子を用いる例について説明したが、光電変換で発生した正孔を信号キャリアとして用いるようにしてもよい。この場合、信号キャリアを検出するための電荷検出部がP+半導体領域によって形成される。また、基板内に電界を発生させるための電圧印加部がN+半導体領域によって形成される。また、信号取り出し部に設けられた電荷検出部において、信号キャリアとしての正孔が検出されるようにすればよい。
(撮像素子の構成例)
 図8は、撮像素子内の全画素が同時に駆動された場合の例を示している。図8は、図2の画素駆動部22Aと、画素アレイ部21と、カラム処理部23とを含む部分をより詳細に示したものである。図8の画素駆動部22Aは、PLL(Phase Locked Loop)31と、パルス生成器30と、クロック分配回路37とを含んでいる。また、カラム処理部23は、アナログデジタル変換器240を含んでいる。
 PLL31は、クロック信号を生成する信号生成器の一例である。以下では、信号生成器として、PLLが使われる場合を例に説明する。ただし、信号生成器としてPLL以外の種類の回路を使うことを妨げるものではない。PLL31の後段には、パルス生成器30が接続されている。また、パルス生成器30の後段には、クロック分配回路37が接続されている。図8のクロック分配回路37は、クロックツリー方式によって信号の分配を実現している。ただし、メッシュ方式(一括駆動方式)のクロック分配回路を使ってもよく、クロック分配回路の方式を限定するものではない。クロック分配回路37は、複数の出力端子を備えている。クロック分配回路37のそれぞれの出力端子は、画素駆動線28Aを介して画素アレイ部21内の各画素列に接続されている。また、画素アレイ部21内の各画素列は、垂直信号線29を介してカラム処理部23に接続されている。
 PLL31から出力された周波数fのクロック信号は、パルス生成器30に供給される。パルス生成器30は、周波数fのクロック信号に基づき、所定の周期でパルスを生成する。パルス生成器30が生成したパルスは、クロック分配回路37を介し、ほぼ等しいタイミングで画素アレイ部21内の各画素列に供給される。
 このため、図8の撮像素子では、ひとつの位相(PHASE=0度)において画素アレイ部21内のすべての画素が駆動される。図8の撮像素子では、画素アレイ部21内の画素数が増えるほど、画素駆動部22A内のパルス生成器30から出力される駆動電流の合計値は大きくなる。電流値の変化が大きくなるため、入射光の検出時に発生する電磁ノイズが大きくなるおそれがある。そこで、後述するように、画素駆動部22または画素駆動部22A内に複数の位相のパルスを生成することが可能なパルス生成器を実装することができる。
 図9は、本開示によるパルス生成器の例を示している。図9のパルス生成器30Aは、複数の出力端子(出力端子C1~C4)を備えている。出力端子C1~C4は、例えば、後述する信号分配回路などを介して画素駆動線28または画素駆動線28Aに接続される。後述するように、パルス生成器30Aは、それぞれの信号線から異なる位相でパルスを出力することができる。パルス生成器30Aは、回路ブロック33と、フリップフロップ340~343とを備えている。フリップフロップ340~343は、例えば、D端子、Q端子およびCLK端子を備えるDフリップフロップである。ただし、使われるフリップフロップの種類を限定するものではない。
 Dフリップフロップには、(1)CLK端子に入力される信号の立ち上がりエッジのタイミングでD端子に入力される信号をラッチするタイプと、(2)CLK端子に入力される信号の立ち下がりエッジのタイミングでD端子に入力される信号をラッチするタイプとが存在する。フリップフロップ340~343として、(1)のタイプと、(2)のタイプのいずれを使ってもよい。また、フリップフロップ340~343内に(1)のタイプのフリップフロップと、(2)のタイプのフリップフロップとが混在していてもよい。異なるタイプのフリップフロップを混在させることによって、出力端子C1~C4のそれぞれからパルスが出力されるタイミングをずらすことができる。
 回路ブロック33は、信号線L0を介してPLL31に接続されている。また、回路ブロック33は、信号線L3を介してシステム制御部25に接続されている。回路ブロック33は、信号線L2を介してフリップフロップ340のD端子に接続されている。また、回路ブロック33は、信号線L1を介してフリップフロップ340~343のCLK端子に接続されている。
 回路ブロック33は、例えば、分周回路を備えている。この場合、回路ブロック33の分周回路は、入力されるクロック信号に基づいてクロック信号とは異なる周波数の信号を生成する。回路ブロック33の分周回路の設定は、レジスタまたは信号線の電圧レベルなどによって変更可能なものであってもよい。この場合、システム制御部25は、回路ブロック33から出力される信号の周波数を調整することができる。ただし、回路ブロック33の構成および機能は、これとは異なっていてもよい。例えば、必ずシステム制御部25によって回路ブロック33の設定が変更される構成を採用しなくてもよい。
 図9では、複数のフリップフロップが縦続接続されている。例えば、フリップフロップ340のQ端子は、フリップフロップ341のD端子に接続されている。一方、フリップフロップ341のQ端子は、フリップフロップ342のD端子に接続されている。フリップフロップ342のQ端子は、フリップフロップ343のD端子に接続されている。
 また、それぞれのフリップフロップのQ端子は、対応する出力端子に接続されている。例えば、出力端子C1は、フリップフロップ340のQ端子に接続されている。また、出力端子C2は、フリップフロップ341のQ端子に接続されている。出力端子C3は、フリップフロップ342のQ端子に接続されている。出力端子C4は、フリップフロップ343のQ端子に接続されている。ただし、必ず縦続接続されているすべてのフリップフロップのQ端子がいずれかの出力端子に接続されていなくてもよい。例えば、縦続接続されている一部のフリップフロップのQ端子をいずれかの出力端子に接続してもよい。
 次に、パルス生成器30Aの動作について説明する。
 PLL31は、信号線L0を介して周波数fのクロック信号を回路ブロック33に供給する。回路ブロック33は、信号線L1より周波数fの第1信号をフリップフロップ340~343のCLK端子に供給する。さらに、回路ブロック33は、信号線L2を介して周波数fの第2信号をフリップフロップ340のD端子に供給する。第2信号は、変調信号またはガイドパルスともよばれる。
 第1信号の周波数f(第1周波数)と、第2信号の周波数f(第2周波数)は、異なるものであるとする。以下では、第1周波数fが第2周波数fより高い場合を説明する。ただし、第2周波数fを第1周波数fより高く設定してもよい。回路ブロック33は、互いに同期された第1信号および第2信号を出力することができる。ただし、第1信号と第2信号は、必ず互いに同期された信号でなくてもよい。
 ここでは、クロック信号の周波数f(クロック周波数)が第1周波数fと等しい場合を想定して説明を行う。ただし、信号生成器が生成するクロック周波数fと第1周波数fが異なっていてもよい。例えば、回路ブロック33は、分周器などによってクロック信号の周波数を変換してもよい。
 これにより、パルス生成器30Aの出力端子C1~C4からは、異なる数のフリップフロップによる遅延を経たパルスが出力される。図9の例の場合、出力端子C1、出力端子C2、出力端子C3、出力端子C4の順でパルスを出力される。すなわち、パルス生成器30Aの出力端子C1~C4からは、それぞれ異なるタイミングでパルスが出力される。以下では、パルス生成器のなくともいずれかの信号線よりパルスが出力されるタイミングの違いを位相(図中のPHASE)によって説明する。
 本開示によるパルス生成器では、第1周波数fおよび第2周波数fに基づいて複数の出力端子からパルスが出力されるタイミングのずれを調整することができる。第2信号が1段のフリップフロップを経ることによって生じる位相遅れΔθは、Δθ=360×f/fとなる。例えば、f=2.0GHz、f=500MHzである場合、Δθ=90度となる。この場合、図9に示されているように、出力端子C1、C2、C3およびC4からそれぞれ0度、90度、180度および270度の位相でパルス信号が出力される。ここで述べた第1周波数fおよび第2周波数fの値は、例にしかすぎない。したがって、第1周波数fおよび第2周波数fは、これとは異なる値に設定されていてもよい。
 以下では、出力端子C1から出力されるパルス信号の位相をP1,出力端子C2から出力されるパルス信号の位相をP2、出力端子C3から出力されるパルス信号の位相をP3、出力端子C4から出力されるパルス信号の位相をP4とする。例えば、上述のようにf=2.0GHz、f=500MHzである場合、P1=0度、P2=90度、P3=180度、P4=270度となる。
 なお、第1信号の第1周波数fおよび第2信号の第2周波数fは、固定されたものでなくてもよい。例えば、回路ブロック33は、信号線L3を介してシステム制御部25から送信された制御信号に基づいて第1信号の第1周波数fまたは第2信号の第2周波数fの少なくともいずれかを変更してもよい。これにより、パルス生成器は、パルス信号の周波数を変更することができる。また、パルス信号は、様々な位相の組み合わせに係るパルス信号を出力することができる。
 本開示によるパルス生成器は、例えば、検出対象の物体または動作モードに応じて、パルス信号の周波数またはパルス信号で使われる位相の組み合わせを変更することができる。例えば、比較的近距離にある物体を検出対象とする場合には、パルス周波数を高く設定することができる。また、比較的遠距離にある物体を検出対象とする場合には、パルス周波数を低く設定することができる。本開示によるパルス生成器は、複数の位相のパルス信号を生成するためにインバータチェインを使っていないため、遅延量の個体ばらつきを抑制することが可能である。また、本開示によるパルス生成器では、発生する歪みを抑えることができる。このため、本開示によるパルス生成器は、比較的低いクロック周波数を出力する信号生成器(例えば、PLL31)と組み合わせることも可能である。
 このように、回路ブロックは、第1周波数の第1信号を出力し、第1周波数とは異なる第2周波数の第2信号を出力するように構成されていてもよい。回路ブロックは、互いに同期された第1信号および第2信号を出力するように構成されていてもよい。また、回路ブロックは、クロック信号のクロック周波数に等しい第1周波数の第1信号を出力するように構成されていてもよい。
 また、本開示による撮像素子は、回路ブロックに制御信号を出力するように構成された制御部を備えていてもよい。上述のシステム制御部25は、制御部の一例である。この場合、回路ブロックは、供給された制御信号に基づいて第1信号の第1周波数または第2信号の第2周波数を調整するように構成されていてもよい。
 図10の画素駆動部22Bは、PLL31(信号生成部)と、パルス生成器30Aと、回路ブロック370とを備えている。図10の撮像素子は、図8の撮像素子のパルス生成器30を図9のパルス生成器30Aに、図8の撮像素子のクロック分配回路37を回路ブロック370に、それぞれ置き換えたものに相当する。回路ブロック370は、クロック分配回路371~374を備える。図10のクロック分配回路371~374は、クロックツリー方式となっている。ただし、クロック分配回路371~374の少なくともいずれかは、メッシュ方式(一括駆動方式)などその他の方式によるものであってもよい。
 クロック分配回路371~374は、それぞれパルス生成器30Aの出力端子C1~C4のいずれかに接続されている。したがって、クロック分配回路371~374は、それぞれ位相P1~P4の信号のいずれかを分配する。以下では、出力端子C1がクロック分配回路371に、出力端子C2がクロック分配回路372に、出力端子C3がクロック分配回路373に、出力端子C4がクロック分配回路374に、それぞれ接続されているものとして説明を行う。ただし、出力端子とクロック分配回路との間の接続関係は、これとは異なるものであってもよい。
 画素アレイ部21内のそれぞれの画素列は、画素駆動線28Aを介してクロック分配回路371~374のいずれかに接続されている。画素アレイ部21内の画素列がパルスによって駆動されるタイミング(パルス信号の位相)は、対応する画素駆動線28Aの接続先にあるクロック分配回路に依存する。図10の例の場合、クロック分配回路371に接続された画素列は、位相P1で、クロック分配回路372に接続された画素列は、位相P2で、クロック分配回路373に接続された画素列は、位相P3で、クロック分配回路374に接続された画素列は、位相P4で、それぞれ駆動される。したがって、図10の例では、撮像素子内の画素が列単位で駆動される。
 図10の画素アレイ部21では、左側から右側に向かって位相P1で駆動される画素列、位相P2で駆動される画素列、位相P3で駆動される画素列、位相P4で駆動される画素列のパターン(順番)で並んでいる。ただし、このパターンは、一例にしかすぎない。このため、画素アレイ部21の画素列は、これとは異なるパターンで駆動されてもよい。なお、図10では、画素アレイ部21に含まれる画素数が8×8=64個となっている。ただし、画素アレイ部21に含まれる画素数を限定するものではない。したがって、画素アレイ部21には、これとは異なる数の画素(例えば、より多くの画素)が実装されていてもよい。
 画素アレイ部21内のそれぞれの画素列は、垂直信号線29を介してカラム処理部23に接続されている。カラム処理部23は、図示されていないリード駆動部24に接続されていてもよい。リード駆動部24が実装されている場合、リード駆動部24は、カラム処理部23の画素列に対応する単位回路を選択することができる。リード駆動部24は、それぞれの位相(例えば、P1~P4)で駆動される画素列について、選択走査を行ってもよい。この場合、カラム処理部23は、アナログデジタル変換器240を使って画素信号をアナログ信号からデジタル信号に変換し、画素信号を後段の信号処理部26に出力することができる。
 信号処理部26には、複数の位相(例えば、P1~P4)において駆動され、読み出された画素列に係る画素信号が入力される。図10の撮像素子では、画素列によって駆動タイミングのずれと画素信号の読み出しタイミングのずれが発生する。このため、信号処理部26内のバッファメモリに画素信号のデータを蓄積し、画素アレイ部21全体に相当する距離画像を生成してもよい。
 本開示による撮像素子は、信号生成器と、縦続接続された複数のフリップフロップと、回路ブロックと、画素アレイとを備えていてもよい。信号生成器は、クロック信号を生成するように構成されている。回路ブロックは、クロック信号に応じて第1信号を複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成されている。画素アレイは、複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む。上述の画素アレイ部は、画素アレイの一例である。信号生成器として、例えば、PLLを使うことができる。フリップフロップとして、例えば、Dフリップフロップを使うことができる。初段フリップフロップは、例えば、上述のフリップフロップ340である。
 画素アレイ内の画素は、パルス信号が供給されると、光電変換によって発生した電荷を検出するように構成された信号取り出し部を含んでいてもよい。また、画素アレイ内の画素は、複数の信号取り出し部を含み、それぞれの信号取り出し部は、異なるタイミングで発生した電荷を検出するように構成されていてもよい。
 また、本開示による撮像素子は、入力側で複数のフリップフロップのいずれかの段に接続され、出力側で駆動線を介して画素アレイ内の画素に接続されているクロック分配回路をさらに複数備えていてもよい。クロック分配回路の少なくともいずれかは、クロックツリー方式であってもよい。
 図10には、画素列単位で駆動タイミング(パルス信号の位相)を設定可能な撮像素子の例を説明した。ただし、画素アレイ部21内の画素は、これとは異なる単位およびパターンで制御されてもよい。例えば、図11の例のように、画素行単位で駆動タイミング(パルス信号の位相)が設定される撮像素子を使ってもよい。
 図11の撮像素子は、図1の画素駆動部22を画素駆動部22Cに置き換えたものに相当する。画素駆動部22Cは、PLL31(信号生成器)と、パルス生成器30Aと、回路ブロック380とを備えている。また、回路ブロック380は、クロック分配回路381~384を備えている。図11のクロック分配回路381~384は、クロックツリー方式となっている。ただし、クロック分配回路381~384の少なくともいずれかは、メッシュ方式(一括駆動方式)などその他の方式によるものであってもよい。
 クロック分配回路381~384は、それぞれパルス生成器30Aの出力端子C1~C4のいずれかに接続されている。したがって、クロック分配回路381~384は、それぞれ位相P1~P4の信号のいずれかを分配する。以下では、出力端子C1がクロック分配回路381に、出力端子C2がクロック分配回路382に、出力端子C3がクロック分配回路383に、出力端子C4がクロック分配回路384に、それぞれ接続されているものとして説明を行う。ただし、出力端子とクロック分配回路との間の接続関係は、これとは異なるものであってもよい。
 画素アレイ部21内のそれぞれの画素行は、画素駆動線28を介してクロック分配回路381~384のいずれかに接続されている。画素アレイ部21内の画素行がパルスによって駆動されるタイミング(パルス信号の位相)は、対応する画素駆動線28の接続先にあるクロック分配回路に依存する。図11の例の場合、クロック分配回路381に接続された画素行は、位相P1で、クロック分配回路382に接続された画素行は、位相P2で、クロック分配回路383に接続された画素行は、位相P3で、クロック分配回路384に接続された画素行は、位相P4で、それぞれ駆動される。したがって、図11の例では、撮像素子内の画素が行単位で駆動される。
 図11の画素アレイ部21では、上側から下側に向かって位相P1で駆動される画素行、位相P2で駆動される画素行、位相P3で駆動される画素行、位相P4で駆動される画素行のパターン(順番)で並んでいる。このパターンは、一例にしかすぎない。このため、画素アレイ部21の画素行は、これとは異なるパターンで駆動されてもよい。なお、図11では、画素アレイ部21に含まれる画素数が8×8=64個となっている。ただし、画素アレイ部21に含まれる画素数を限定するものではない。したがって、画素アレイ部21には、これとは異なる数の画素(例えば、より多くの画素)が実装されていてもよい。
 画素アレイ部21内のそれぞれの画素列は、垂直信号線29を介してカラム処理部23に接続されている。カラム処理部23は、図示されていないリード駆動部24に接続されていてもよい。リード駆動部24が実装されている場合、リード駆動部24は、カラム処理部23の画素列に対応する単位回路を選択することができる。リード駆動部24は、画素列について、選択走査を行ってもよい。この場合、カラム処理部23は、アナログデジタル変換器240を使って画素信号をアナログ信号からデジタル信号に変換し、画素信号を後段の信号処理部26に出力することができる。
 信号処理部26には、読み出された画素列に係る画素信号が入力される。図10の撮像素子では、画素行によって駆動タイミングのずれが発生し、画素列によって画素信号の読み出しタイミングのずれが発生する。このため、信号処理部26内のバッファメモリに画素信号のデータを蓄積し、画素アレイ部21全体に相当する距離画像を生成してもよい。
 このように、本開示による撮像素子では、画素アレイ内の画素列または画素行は、複数のフリップフロップの共通する段から供給されたパルス信号によって駆動されるように構成されていてもよい。
 図11には、画素行単位で駆動タイミング(パルス信号の位相)が設定される撮像素子の例を説明した。ただし、画素アレイ部21内の画素は、これとは異なる単位およびパターンで制御されてもよい。例えば、図12の例ように、画素アレイ部21内の領域ごとに駆動タイミング(パルス信号の位相)が設定される撮像素子を使ってもよい。
 図12の撮像素子は、画素駆動部22Bと、画素アレイ部21Aと、カラム処理部23と、タイミング制御部32とを備えている。図12の画素駆動部22Bの構成は、図10の画素駆動部22Bと同様である。タイミング制御部32は、クロック分配回路371~374が画素駆動線28Aに出力したパルス信号に基づき、画素駆動線28にタイミング信号を出力する。
 例えば、画素アレイ部21A内のそれぞれの画素は、パルス信号と、タイミング信号に基づいて演算を行う論理回路(図示せず)を備えているものとする。画素アレイ部21A内のそれぞれの画素は、論理回路の出力電圧のレベルが所定の条件を満たしたときに駆動される。画素によって、駆動される条件が異なっていてもよい。例えば、画素アレイ部21Aには、論理回路の出力電圧のレベルがHIGHであるときに駆動される画素と、論理回路の出力電圧のレベルがLOWであるときに駆動される画素とが混在していてもよい。それぞれの画素が論理回路を備えている点を除けば、画素アレイ部21Aの構成は、上述の画素アレイ部21と同様である。
 これにより、図12の例に示したように、撮像素子内の画素を領域ごとに、駆動タイミング(パルス信号の位相)の設定を行うことができる。図12の例では、正方形状の領域ごとに位相P1~P4のいずれかが周期的に割り当てられている。ただし、図12の割り当てパターンは、一例にしかすぎない。例えば、多角形状、リング状などその他の形状の領域ごとに駆動タイミング(パルス信号の位相)の設定を行ってもよい。また、それぞれの領域に位相を割り当てる順序については、特に問わない。位相の割り当て順序は所定の規則に基づくものであってもよいし、ランダムなものであってもよい。
 図12に示したように、タイミング制御部32は、システム制御部25と接続されていてもよい。この場合、タイミング制御部32は、システム制御部25から供給される制御信号に基づいて画素駆動線28に出力するタイミング信号を変更してもよい。これにより、画素アレイ部21A内のそれぞれの領域における駆動タイミング(パルス信号の位相)を動的に変更することが可能となる。
 図12の撮像素子においてカラム処理部23およびそれより後段の回路の構成は、図10および図11の撮像素子と同様である。なお、図12は、領域ごとに、駆動タイミング(パルス信号の位相)の設定が可能な撮像素子の一例にしかすぎない。したがって、これとは異なる構成の回路によって、領域ごとに、画素の駆動タイミング(パルス信号の位相)の設定を行ってもよい。
 このように、本開示による撮像素子は、画素が配置されている画素アレイ内の領域によって、複数のフリップフロップの異なる段よりパルス信号が供給されるように構成されていてもよい。
 図9には、4つの位相(位相P1~P4)でパルスを生成することが可能なパルス生成器30Aを示した。ただし、図9のパルス生成器30Aは、本開示による撮像素子で利用可能な撮像素子の一例にしかすぎない。例えば、図9のパルス生成器30Aに代わり、図13のパルス生成器30Bを使ってもよい。
 図13のパルス生成器30Bは、図9のパルス生成器30Aにおける縦続接続されたフリップフロップの段数を4から8に増やしたものに相当する。ここでは、パルス生成器30Aとの相違点を中心に、パルス生成器30Bを説明する。図9と同様、フリップフロップ340のQ端子は、信号線L2を介して回路ブロック33に接続されている。また、互いに従属接続されたフリップフロップのQ端子と、D端子が接続されている。また、回路ブロック33は、信号線L1を介して、フリップフロップ340~347のCLK端子に接続されている。パルス生成器30B内のそれぞれのフリップフロップのQ端子は、対応する出力端子(出力端子C1~C8)に接続されている。出力端子C1~C8は、それぞれ異なるクロック分配回路を介して画素駆動線28または画素駆動線28Aに接続される。
 なお、図9および図13の例では、パルス生成器内の縦続接続されているすべてのフリップフロップのQ端子がいずれかの出力端子に接続されている。ただし、必ず縦続接続されているすべてのフリップフロップのQ端子をいずれかの出力端子に接続しなくてもよい。例えば、生成されているパルス信号の位相のうち、一部のみが必要である場合には、縦続接続されているフリップフロップのうち、一部のフリップフロップのQ端子を出力端子に接続してもよい。
 パルス生成器30Bの動作は、生成されるパルス信号の位相数が増える点を除けば、上述のパルス生成器30Aと同様である。すなわち、回路ブロック33が信号線L1に出力する第1信号の第1周波数f1と、回路ブロック33が信号線L2に出力する第2信号の第1周波数f2とに基づいて、複数の出力端子からパルスが出力されるタイミングのずれを調整することが可能である。図9と同様、第2信号が1段のフリップフロップを経ることによって生じる位相遅れΔθは、Δθ=360×f2/f1となる。上述と同様に、出力端子C1~C8から出力されるパルス信号の位相は、それぞれP1~P8であるものとする。
 例えば、f1=2.0GHz、f2=250MHzである場合、Δθ=45度となる。この場合、図13に示されているように、出力端子C1、C2、C3、C4、C5、C6、C7およびC8からそれぞれ0度、45度、90度、135度、180度、225度、270度および315度の位相でパルスが出力される。すなわち、パルス生成器30Bでは、パルス信号の位相がP1=0度、P2=45度、P3=90度、P4=135度、P5=180度、P6=225度、P7=270度、P8=315度となる。ここで述べた第1周波数f1および第2周波数f2の値は、例にしかすぎない。したがって、第1周波数f1および第2周波数f2は、これとは異なる値に設定されていてもよい。
 なお、図13(パルス生成器30B)のその他の構成要素は、図9と同様である。本開示による撮像素子は、複数(2以上)の位相(タイミング)でパルスを生成することが可能なパルス生成器を備えていればよい。したがって、パルス生成器におけるフリップフロップの段数を2以上の任意の数にすることが可能である。
 図9および図13のパルス生成器は、複数の出力端子を備え、それぞれの出力端子から異なる位相のパルス信号が出力されるように構成されていた。ただし、本開示によるパルス生成器は、複数の位相のパルス信号のいずれかを出力するように構成されていてもよい。
 図14は、フリップフロップの段数を3にし、さらにマルチプレクサ36を実装したパルス生成器30Cを示している。以下では、図9および図13との相違点を中心に、図14のパルス生成器30Cを説明する。
 マルチプレクサ36は、入力端子in1~in3を備えている。パルス生成器30Cでは、それぞれのフリップフロップのQ端子がマルチプレクサ36の入力端子に接続されている。すなわち、フリップフロップ340のQ端子は、信号線c1を介してマルチプレクサ36の入力端子in1に接続されている。フリップフロップ341のQ端子は、信号線c2を介してマルチプレクサ36の入力端子in2に接続されている。なお、縦続接続された複数のフリップフロップのうち、一部のフリップフロップのQ端子のみをマルチプレクサ36の入力端子に接続してもよい。
 フリップフロップ342のQ端子は、信号線c3を介してマルチプレクサ36の入力端子in3に接続されている。マルチプレクサ36の制御端子は、信号線cntを介してシステム制御部25に接続されている。また、マルチプレクサ36の出力端子moutは、パルス生成器30Cの出力端子に接続されている。
 マルチプレクサ36は、システム制御部25から供給される制御信号に基づいて、いずれかのフリップフロップのQ端子から供給された信号を選択する。そして、マルチプレクサ36は、選択した信号を出力端子moutより後段の回路に出力する。すなわち、パルス生成器30Cは、システム制御部25による設定に応じて位相P1~P3のいずれかのパルス信号を出力することができる。図14においても、上述の位相遅れΔθに関する式が成立する。
 パルス生成器30Cの回路ブロック33Aは、分周回路35を備えている。分周回路35は、例えば、1回分周回路である。ただし、分周回路の分周数は、これとは異なっていてもよい。クロック周波数fと、生成したい第1信号の第1周波数fに応じて分周回路の分周数を決めることができる。分周回路35の入力側は、信号線L0を介してPLL31に接続されている。また、分周回路35の出力側は、信号線L1を介してフリップフリップ340~342のCLK端子に接続されている。
 このため、フリップフリップ340~342のCLK端子には、信号線L1を介してクロック周波数fの1/2の第1周波数fの第1信号が供給される。例えば、PLL31が生成するクロック周波数fが1.6GHzである場合、第1信号の第1周波数fは、800MHzとなる。回路ブロック33Aが信号線L2より出力する第2信号の第2周波数fが100MHzである場合、第2信号が1段のフリップフロップを経ることによって生じる位相遅れΔθは、Δθ=45度となる。したがって、位相P1を0度とすると、位相P2が45度、位相P3が90度となる。なお、回路ブロック33Aは、第1信号と同期された第2信号を生成してもよい。
 ここで説明したクロック周波数f、第1周波数f、第2周波数fは、例にしかすぎない。したがって、本開示によるパルス生成器では、これとは異なる周波数の信号が使われてもよい。また、上述のように、回路ブロックが生成する第1信号の第1周波数fおよび第2信号の第2周波数fは、固定された周波数ではなく、調整可能(可変)な周波数であってもよい。
 このように、本開示による撮像素子は、画素アレイ内の画素に供給されるパルス信号を選択するように構成されたマルチプレクサをさらに備えていてもよい。また、回路ブロックは、クロック信号に基づいて第1信号を生成する分周回路をさらに含んでいてもよい。
 図14の例では、フリップフロップの段数が3になっているが、フリップフロップの段数は、これとは異なっていてもよい。例えば、2以上の任意の数のフリップフロップを縦続接続し、複数の位相に係るパルス信号を生成することが可能である。フリップフロップの段数が図14の例より増える場合、入力端子の数が3以上のマルチプレクサを使ってもよいし、パルス生成器に複数のマルチプレクサを実装してもよい。
 図15は、図14のパルス生成器30Cを複数備えた撮像素子の例を示している。図15には、システム制御部25と、画素駆動部22Cと、画素アレイ部21と、カラム処理部23とを備えている。画素駆動部22Cは、PLL31(信号生成器)と、パルス生成器30C-1と、パルス生成器30C-2と、パルス生成器30C-3と、回路ブロック370Aとを備えている。パルス生成器30C-1、30C-2および30C-3は、図14のパルス生成器30Cに相当している。さらに、回路ブロック370Aは、クロック分配回路371~373を備えている。クロック分配回路371~373は、例えば、クロックツリー方式の回路であるが、クロック分配回路の方式については、問わない。
 PLL31は、パルス生成器30C-1、30C-2および30C-3の信号線L0に接続されている。パルス生成器30C-1、30C-2および30C-3の出力端子は、回路ブロック370A内のいずれかのクロック分配回路に接続されている。また、画素アレイ部21内のそれぞれの画素列は、画素駆動線28Aを介してクロック分配回路371~373のいずれかに接続されている。そして、画素アレイ部21内のそれぞれの画素列は、垂直信号線29を介してカラム処理部23に接続されている。
 図15の例では、パルス生成器30C-1が位相P1=0度のパルス信号を、パルス生成器30C-2が位相P2=45度のパルス信号を、パルス生成器30C-3が位相P3=90度のパルス信号を、それぞれ出力するように設定されているものとする。このため、いずれかのクロック分配回路を介してパルス生成器30C-1に接続されている画素アレイ部21内の画素列は、位相P1のパルス信号によって駆動される。一方、いずれかのクロック分配回路を介してパルス生成器30C-2に接続されている画素アレイ部21内の画素列は、位相P2のパルス信号によって駆動される。また、いずれかのクロック分配回路を介してパルス生成器30C-3に接続されている画素アレイ部21内の画素列は、位相P3のパルス信号によって駆動される。
 図15の撮像素子を使うことにより、画素アレイ部21内のそれぞれの画素列を駆動されるタイミングを動的に変更することが可能となる。すなわち。図15の撮像素子では、それぞれのパルス生成器が生成することができる位相のうち、少なくともいずれかのパルス信号を使って画素アレイ部21内の画素列を駆動することができる。このため、使用に応じて図8の例のように画素アレイ部21の全画素をほとんど同じタイミングで駆動させることも可能である。また、撮像素子の動作中に画素アレイ部21内の画素の駆動に使う位相の数を変更することもできる。
 図15の撮像素子では、画素アレイ部21内の画素列単位で駆動タイミング(パルス信号の位相)を設定することができる。ただし、駆動タイミング(パルス信号の位相)の設定単位は、画素列に限定されない。例えば、図11の例のように画素行単位で駆動タイミング(パルス信号の位相)を設定してもよい。また、図12の例のように画素アレイ部21内の領域ごとに駆動タイミング(パルス信号の位相)を設定してもよい。
 このように、本開示による撮像素子を使うと、画素アレイ内のすべての画素を同一のタイミングで一斉に駆動させずに、画素アレイ内の画素を複数のタイミングに分けて駆動することが可能である。これにより、それぞれの駆動タイミングにおける駆動信号の合計電流を抑えることができる。このため、電磁ノイズの発生を抑制しつつ、距離画像の解像度を向上させることが可能となる。
(電子機器の構成例)
 図16および図17は、本開示による電子機器の例を示している。図16は、電子機器1をz軸正方向側から視たときの構成を示している。一方、図17は、電子機器1をz軸負方向側から視たときの構成を示している。電子機器1は、例えば、略平板状であり、少なくともひとつの面(ここでは、z軸正方向側の面)に表示部1aを有する。表示部1aは、例えば、液晶、マイクロLED、有機エレクトロルミネッセンス方式によって画像を表示することができる。ただし、表示部1aにおける表示方式を限定するものではない。また、表示部1aは、タッチパネル、指紋センサを含んでいてもよい。
 電子機器1のz軸負方向側の面には、第1撮像部110、第2撮像部111、第1発光部112および第2発光部113が実装されている。第1撮像部110は、例えば、カラー画像の撮影が可能なカメラモジュールである。カメラモジュールは、例えば、レンズ系と、レンズ系によって集光された光の光電変換を行う撮像素子とを含む。第1発光部112は、例えば、第1撮像部110のフラッシュとして使用される光源である。第1発光部112として、例えば、白色LEDを使うことができる。ただし、第1発光部112として使われる光源の種類を限定するものではない。
 第2撮像部111は、例えば、間接ToF方式による測距が可能な撮像素子である。第2撮像部111として、例えば、本開示による撮像素子を実装することができる。第2撮像部111は、例えば、図7の受光部1013に相当する。第2発光部113は、間接ToF方式による測距に使用することが可能で光源である。第2発光部113は、例えば、図7の発光部1011に相当する。すなわち、電子機器1には、図7の測距モジュール1000が実装されていてもよい。電子機器1は、測距モジュール1000から出力される距離画像に基づいて各種の処理を実行することができる。
 ここでは、本開示による電子機器がスマートフォンまたはタブレットである場合を説明した。ただし、本開示による電子機器は、例えば、ゲーム機、車載機器、PC、監視カメラなどその他の種類の装置であってもよい。
 本開示による測距装置は、信号生成器と、縦続接続された複数のフリップフロップと、回路ブロックと、画素アレイと、信号処理部とを備えていてもよい。信号生成器は、クロック信号を生成するように構成されている。回路ブロックは、クロック信号に応じて第1信号を複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成されている。画素アレイは、複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む。信号処理部は、画素アレイの画素において光電変換によって発生した電荷に基づいて距離画像を生成するように構成されている。
 本開示による電子機器は、信号生成器と、縦続接続された複数のフリップフロップと、回路ブロックと、画素アレイとを備えていてもよい。信号生成器は、クロック信号を生成するように構成されている。回路ブロックは、クロック信号に応じて第1信号を複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成されている。画素アレイは、複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む。
(移動体への応用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図18は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図18に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図18の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図19は、撮像部12031の設置位置の例を示す図である。
 図19では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図19には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。具体的には、撮像部12031に、本開示による撮像素子を実装することができる。撮像部12031に、本開示に係る技術を適用することにより、電磁ノイズの発生を抑制しつつ、距離画像の解像度を向上させることができ、車両12100の機能性および安全性を高めることができる。
 なお、本技術は、以下のような構成をとることができる。
(1)
 クロック信号を生成するように構成された信号生成器と、
 縦続接続された複数のフリップフロップと、
 前記クロック信号に応じて第1信号を前記複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を前記複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成された回路ブロックと、
 前記複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む画素アレイと、
 を備えた撮像素子。
(2)
 前記画素アレイ内の前記画素は、前記パルス信号が供給されると、光電変換によって発生した電荷を検出するように構成された信号取り出し部を含む、
 (1)に記載の撮像素子。
(3)
 前記画素アレイ内の前記画素は、複数の前記信号取り出し部を含み、それぞれの前記信号取り出し部は、異なるタイミングで発生した前記電荷を検出するように構成されている、
 (2)に記載の撮像素子。
(4)
 入力側で前記複数のフリップフロップのいずれかの前記段に接続され、出力側で駆動線を介して前記画素アレイ内の前記画素に接続されているクロック分配回路をさらに複数備える、
 (1)ないし(3)のいずれか一項に記載の撮像素子。
(5)
 前記クロック分配回路の少なくともいずれかは、クロックツリー方式である、
 (4)に記載の撮像素子。
(6)
 前記画素アレイ内の画素列または画素行は、前記複数のフリップフロップの共通する前記段から供給された前記パルス信号によって駆動されるように構成されている、
 (1)ないし(5)のいずれか一項に記載の撮像素子。
(7)
 前記画素が配置されている前記画素アレイ内の領域によって、前記複数のフリップフロップの異なる前記段より前記パルス信号が供給されるように構成されている、
 (1)ないし(6)のいずれか一項に記載の撮像素子。
(8)
 前記画素アレイ内の前記画素に供給される前記パルス信号を選択するように構成されたマルチプレクサをさらに備える、
 (1)ないし(7)のいずれか一項に記載の撮像素子。
(9)
 前記回路ブロックは、第1周波数の前記第1信号を出力し、前記第1周波数とは異なる第2周波数の前記第2信号を出力するように構成されている、
 (1)ないし(8)のいずれか一項に記載の撮像素子。
(10)
 前記回路ブロックは、互いに同期された前記第1信号および前記第2信号を出力するように構成されている、
 (1)ないし(9)のいずれか一項に記載の撮像素子。
(11)
 前記回路ブロックは、前記クロック信号に基づいて前記第1信号を生成する分周回路をさらに含む、
 (1)ないし(10)のいずれか一項に記載の撮像素子。
(12)
 前記回路ブロックは、前記クロック信号のクロック周波数に等しい第1周波数の前記第1信号を出力するように構成されている、
 (1)ないし(10)のいずれか一項に記載の撮像素子。
(13)
 前記回路ブロックに制御信号を出力するように構成された制御部をさらに備え、
 前記回路ブロックは、供給された制御信号に基づいて前記第1信号の第1周波数または前記第2信号の第2周波数を調整するように構成されている、
 (1)ないし(12)のいずれか一項に記載の撮像素子。
(14)
 クロック信号を生成するように構成された信号生成器と、
 縦続接続された複数のフリップフロップと、
 前記クロック信号に応じて第1信号を前記複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を前記複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成された回路ブロックと、
 前記複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む画素アレイと、
 前記画素アレイの前記画素において光電変換によって発生した電荷に基づいて距離画像を生成するように構成された信号処理部と、
 を備えた測距装置。
(15)
 クロック信号を生成するように構成された信号生成器と、
 縦続接続された複数のフリップフロップと、
 前記クロック信号に応じて第1信号を前記複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を前記複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成された回路ブロックと、
 前記複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む画素アレイと、
 を備えた電子機器。
 本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
 1 電子機器
 11、11A 撮像素子
 21 画素アレイ部
 22、22A、22B 画素駆動部
 23 カラム処理部
 24 リード駆動部
 25 システム制御部
 26 信号処理部
 27 データ格納部
 30、30A、30B、30C、30C-1、30C-2、30C-3 パルス生成器 31 PLL
 32 タイミング制御部
 33、33A、370、370A、380 回路ブロック
 35 分周回路
 36 マルチプレクサ
 37、371、372、373、374、381、382、383、384 クロック分配回路
 240 アナログデジタル変換器
 340、341、342、343、344、345、346、347 フリップフロップ
 1000 測距モジュール
 1011 発光部
 1012 発光制御部
 1013 受光部

Claims (15)

  1.  クロック信号を生成するように構成された信号生成器と、
     縦続接続された複数のフリップフロップと、
     前記クロック信号に応じて第1信号を前記複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を前記複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成された回路ブロックと、
     前記複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む画素アレイと、
     を備えた撮像素子。
  2.  前記画素アレイ内の前記画素は、前記パルス信号が供給されると、光電変換によって発生した電荷を検出するように構成された信号取り出し部を含む、
     請求項1に記載の撮像素子。
  3.  前記画素アレイ内の前記画素は、複数の前記信号取り出し部を含み、それぞれの前記信号取り出し部は、異なるタイミングで発生した前記電荷を検出するように構成されている、
     請求項2に記載の撮像素子。
  4.  入力側で前記複数のフリップフロップのいずれかの前記段に接続され、出力側で駆動線を介して前記画素アレイ内の前記画素に接続されているクロック分配回路をさらに複数備える、
     請求項1に記載の撮像素子。
  5.  前記クロック分配回路の少なくともいずれかは、クロックツリー方式である、
     請求項4に記載の撮像素子。
  6.  前記画素アレイ内の画素列または画素行は、前記複数のフリップフロップの共通する前記段から供給された前記パルス信号によって駆動されるように構成されている、
     請求項1に記載の撮像素子。
  7.  前記画素が配置されている前記画素アレイ内の領域によって、前記複数のフリップフロップの異なる前記段より前記パルス信号が供給されるように構成されている、
     請求項1に記載の撮像素子。
  8.  前記画素アレイ内の前記画素に供給される前記パルス信号を選択するように構成されたマルチプレクサをさらに備える、
     請求項1に記載の撮像素子。
  9.  前記回路ブロックは、第1周波数の前記第1信号を出力し、前記第1周波数とは異なる第2周波数の前記第2信号を出力するように構成されている、
     請求項1に記載の撮像素子。
  10.  前記回路ブロックは、互いに同期された前記第1信号および前記第2信号を出力するように構成されている、
     請求項1に記載の撮像素子。
  11.  前記回路ブロックは、前記クロック信号に基づいて前記第1信号を生成する分周回路をさらに含む、
     請求項1に記載の撮像素子。
  12.  前記回路ブロックは、前記クロック信号のクロック周波数に等しい第1周波数の前記第1信号を出力するように構成されている、
     請求項1に記載の撮像素子。
  13.  前記回路ブロックに制御信号を出力するように構成された制御部をさらに備え、
     前記回路ブロックは、供給された制御信号に基づいて前記第1信号の第1周波数または前記第2信号の第2周波数を調整するように構成されている、
     請求項1に記載の撮像素子。
  14.  クロック信号を生成するように構成された信号生成器と、
     縦続接続された複数のフリップフロップと、
     前記クロック信号に応じて第1信号を前記複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を前記複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成された回路ブロックと、
     前記複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む画素アレイと、
     前記画素アレイの前記画素において光電変換によって発生した電荷に基づいて距離画像を生成するように構成された信号処理部と、
     を備えた測距装置。
  15.  クロック信号を生成するように構成された信号生成器と、
     縦続接続された複数のフリップフロップと、
     前記クロック信号に応じて第1信号を前記複数のフリップフロップのそれぞれのクロック端子に供給し、第2信号を前記複数のフリップフロップの初段フリップフロップの入力端子に供給するように構成された回路ブロックと、
     前記複数のフリップフロップの異なる段から供給されたパルス信号によって駆動されるように構成された画素を含む画素アレイと、
     を備えた電子機器。
PCT/JP2021/000239 2020-01-16 2021-01-06 撮像素子、測距装置および電子機器 WO2021145256A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202180007906.4A CN114902654A (zh) 2020-01-16 2021-01-06 图像捕获元件、测距装置和电子器件
US17/791,779 US20230058408A1 (en) 2020-01-16 2021-01-06 Imaging element, distance measuring device, and electronic device
JP2021571158A JPWO2021145256A1 (ja) 2020-01-16 2021-01-06
KR1020227022117A KR20220130104A (ko) 2020-01-16 2021-01-06 촬상 소자, 측거 장치 및 전자 기기

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020005337 2020-01-16
JP2020-005337 2020-01-16

Publications (1)

Publication Number Publication Date
WO2021145256A1 true WO2021145256A1 (ja) 2021-07-22

Family

ID=76864614

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/000239 WO2021145256A1 (ja) 2020-01-16 2021-01-06 撮像素子、測距装置および電子機器

Country Status (5)

Country Link
US (1) US20230058408A1 (ja)
JP (1) JPWO2021145256A1 (ja)
KR (1) KR20220130104A (ja)
CN (1) CN114902654A (ja)
WO (1) WO2021145256A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09252436A (ja) * 1996-03-18 1997-09-22 Toshiba Corp 固体撮像装置
JPH11220663A (ja) * 1998-02-03 1999-08-10 Matsushita Electron Corp 固体撮像装置およびその駆動方法
JP2002314882A (ja) * 2001-04-11 2002-10-25 Sony Corp 固体撮像装置の駆動回路
JP2006295833A (ja) * 2005-04-14 2006-10-26 Hamamatsu Photonics Kk 固体撮像装置
WO2019123825A1 (ja) * 2017-12-22 2019-06-27 ソニーセミコンダクタソリューションズ株式会社 信号生成装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6691101B2 (ja) 2017-01-19 2020-04-28 ソニーセミコンダクタソリューションズ株式会社 受光素子

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09252436A (ja) * 1996-03-18 1997-09-22 Toshiba Corp 固体撮像装置
JPH11220663A (ja) * 1998-02-03 1999-08-10 Matsushita Electron Corp 固体撮像装置およびその駆動方法
JP2002314882A (ja) * 2001-04-11 2002-10-25 Sony Corp 固体撮像装置の駆動回路
JP2006295833A (ja) * 2005-04-14 2006-10-26 Hamamatsu Photonics Kk 固体撮像装置
WO2019123825A1 (ja) * 2017-12-22 2019-06-27 ソニーセミコンダクタソリューションズ株式会社 信号生成装置

Also Published As

Publication number Publication date
JPWO2021145256A1 (ja) 2021-07-22
CN114902654A (zh) 2022-08-12
KR20220130104A (ko) 2022-09-26
US20230058408A1 (en) 2023-02-23

Similar Documents

Publication Publication Date Title
JP7146483B2 (ja) 受光装置およびその制御方法、並びに電子機器
JP7404428B2 (ja) 測距素子
US11102433B2 (en) Solid-state imaging device having a photoelectric conversion element with multiple electrodes
EP3896966A1 (en) Solid-state imaging device and electronic instrument
WO2021125031A1 (ja) 固体撮像装置及び測距装置
WO2020158401A1 (ja) 受光装置および測距システム
CN110036491A (zh) 雪崩光电二极管传感器
WO2019092999A1 (ja) 半導体集積回路、および、撮像装置
US11558571B2 (en) Solid-state imaging element and imaging device
CN114667607A (zh) 光接收元件和测距模块
WO2021145256A1 (ja) 撮像素子、測距装置および電子機器
TWI816935B (zh) 受光元件及電子機器
CN114008783A (zh) 摄像装置
WO2023286391A1 (ja) 受光装置、電子機器及び受光方法
WO2023243222A1 (ja) 撮像装置
US20230300494A1 (en) Solid-state image sensor and imaging device
WO2023062944A1 (ja) 光検出素子、および、光検出装置
WO2022254792A1 (ja) 受光素子およびその駆動方法、並びに、測距システム
WO2023286403A1 (ja) 光検出装置および測距システム
JP2023154356A (ja) 光検出装置および測距装置ならびに撮像装置
CN114585941A (zh) 固态成像装置和距离测量系统
CN115428155A (zh) 测距装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21741226

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021571158

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21741226

Country of ref document: EP

Kind code of ref document: A1