WO2023286391A1 - 受光装置、電子機器及び受光方法 - Google Patents

受光装置、電子機器及び受光方法 Download PDF

Info

Publication number
WO2023286391A1
WO2023286391A1 PCT/JP2022/015262 JP2022015262W WO2023286391A1 WO 2023286391 A1 WO2023286391 A1 WO 2023286391A1 JP 2022015262 W JP2022015262 W JP 2022015262W WO 2023286391 A1 WO2023286391 A1 WO 2023286391A1
Authority
WO
WIPO (PCT)
Prior art keywords
phase
pixel
signal
level
count value
Prior art date
Application number
PCT/JP2022/015262
Other languages
English (en)
French (fr)
Inventor
貴士 井田
昌宏 細谷
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023286391A1 publication Critical patent/WO2023286391A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates

Definitions

  • the present disclosure relates to a light receiving device, an electronic device, and a light receiving method.
  • a ranging sensor that uses the indirect ToF (Time of Flight) method is known.
  • the indirect ToF distance measuring sensor the light signal emitted from the light emitting unit is reflected by the object, and the signal charges obtained by photoelectrically converting the reflected light are received by, for example, two gate electrodes that are driven at high speed. The distance is calculated from the distribution ratio of the signal charges distributed to the two charge accumulation regions (see Patent Document 1).
  • CDS correlated double sampling
  • the distance measurement sensor starts the readout operation in a state in which electric charges are distributed to a plurality of floating diffusions, after reading out the D (Data) phase that detects the pixel signal level, reset is applied once and then the reset level is detected. Therefore, the P (Pre-charge) phase reading is performed.
  • the potential of the D-phase depends on the reset level of the P-phase one before. That is, the reset level is not necessarily the same between the D phase and the P phase. Therefore, even if the difference between the D-phase signal level and the P-phase signal level is detected, the reset noise cannot be completely removed.
  • the conventional indirect ToF range sensor may not be able to remove the reset noise.
  • the present disclosure provides a light receiving device, an electronic device, and a light receiving method capable of removing reset noise.
  • a photoelectric conversion unit two or more floating diffusions that accumulate charges photoelectrically converted by the photoelectric conversion unit at different timings, and the two or more floating diffusions a plurality of pixels that output four or more types of pixel signals with different phases for each pixel based on the charge accumulated in the an AD conversion unit that outputs a digital signal corresponding to the reset level of the pixel signal and a digital signal corresponding to the pixel signal level for each phase of the four or more types of pixel signals in frame units.
  • the AD conversion section may output the digital signal obtained by synthesizing the reset level and the pixel signal level that are partially out of phase with each other.
  • the AD converter may generate the digital signal according to the count value of the counter.
  • the counter continues counting without resetting the count value of the counter at some switching timings among a plurality of switching timings at which the phases of the four or more types of pixel signals are switched, and at the remaining switching timings, A count value of the counter may be reset.
  • the partial switching timing is a switching timing for counting count values for pixel signals with phases different by 180°
  • the rest of the switching timings may be switching timings for counting count values for pixel signals having phases different by 90°.
  • the partial switching timing is the switching timing between the pixel signal level of X° and the reset level of X+180°, and the switching timing of the pixel signal level of X+90° and the reset level of X+270°.
  • the counter resets the count value when a first reset signal instructing resetting of all the floating diffusions for all pixels is input, and instructs resetting of some of the floating diffusions.
  • the count value may be held when the second reset signal is input.
  • the second reset signal is input at the partial switching timing
  • the first reset signal may be input at the remaining switching timings.
  • the counter may switch between counting up and counting down based on an external control signal.
  • the counter When the control signal is the first logic, the counter reverses the count direction when the phase of the input pixel signal is switched, and counts when the control signal is the second logic. Counting may be continued without changing the counting direction of the counter when the phase of the input pixel signal is switched.
  • the pixels switch between a reset level and a pixel signal level of the pixel signals of the first phase, the second phase, the third phase, and the fourth phase, and sequentially output the pixel signals; Based on the control signal, the counter counts a count value corresponding to the reset level of one pixel signal and a count value corresponding to the pixel signal level of the other pixel signal out of two pixel signals having phases different from each other by 180°.
  • a count value may be generated by summing the values.
  • the counter outputs a count value corresponding to the reset level of the first phase based on the control signal, then outputs a count value corresponding to the pixel signal level of the first phase and the reset level of the second phase. Then output a count value corresponding to the pixel signal level of the second phase, and then output a count value corresponding to the reset level of the third phase. Then, a count value obtained by summing the count value corresponding to the pixel signal level of the third phase and the count value corresponding to the reset level of the fourth phase is output, and then the pixel signal level of the fourth phase is output. You may output the count value according to.
  • the counter does not change the direction of counting up or down when adding the count value corresponding to the pixel signal level of the first phase and the count value corresponding to the reset level of the second phase.
  • adding the count value corresponding to the pixel signal level of the third phase and the count value corresponding to the reset level of the fourth phase it is not necessary to change the count-up or count-down direction.
  • the first phase and the second phase are different in phase by 180°
  • the second phase and the third phase are different in phase by 90°
  • the third phase and the fourth phase are different by 180°. ° may be out of phase.
  • the control signal is a first logic pulse signal after the counter generates a count value corresponding to the reset level of the pixel signals of the first phase, the second phase, the third phase, and the fourth phase. is output, and the rest is the second logic,
  • the control signal is the first logic
  • the counter switches the counting direction to count
  • the control signal is the second logic
  • the counter continues counting while maintaining the counting direction. good.
  • the pixel may have a CAPD (Current Assisted Photonic Demodulator) structure or a gate electrode structure.
  • CAPD Current Assisted Photonic Demodulator
  • a light emitting unit that emits an optical signal toward an object
  • the light receiving device described above including the photoelectric conversion unit that receives the reflected light of the optical signal reflected by the object
  • An electronic device comprising: a distance measuring unit that measures a distance to the object based on the digital signal output from the light receiving device and the optical signal.
  • the distance measurement unit generates an I signal and a Q signal based on the reset level and pixel signal level of the four or more types of pixel signals, and measures the distance to the object based on the ratio of the I signal and the Q signal. You can measure the distance.
  • four or more types of pixel signals with different phases are generated for each pixel based on charges accumulated in two or more floating diffusions that accumulate charges photoelectrically converted by the photoelectric conversion unit at different timings. output and When counting the length of the period until the reset level or pixel signal level of each of the four or more types of pixel signals crosses the reference signal level with a counter, a plurality of switching in which the phases of the four or more types of pixel signals are switched.
  • a light receiving method that continues counting without resetting the count value of the counter at part of switching timings, and resets the count value of the counter at the remaining switching timings.
  • FIG. 1 is a block diagram showing a schematic configuration example of a light receiving device to which the present technology is applied;
  • FIG. FIG. 2 is a cross-sectional view showing a first configuration example of pixels arranged in a pixel array section;
  • FIG. 2 is a diagram showing a circuit configuration of pixels two-dimensionally arranged in a pixel array section;
  • FIG. 4 is a plan view showing an arrangement example of the pixels shown in FIG. 3;
  • FIG. 4 is a signal waveform diagram of four types of pixel signals output from pixels and having different phases. Timing diagram of 4Tap-4Phase method.
  • FIG. 10 is a diagram for explaining a readout method of Only;
  • FIG. 4 is a diagram for explaining a DDS read method;
  • FIG. 4 is a diagram for explaining a method of reading a frame CDS;
  • FIG. 4 is a diagram showing a read sequence according to the embodiment;
  • FIG. 4 is a diagram showing information read out in a frame CDS according to the embodiment;
  • the figure which generalized FIG. 9 is a detailed timing diagram of the read sequence shown in FIG. 8;
  • FIG. FIG. 2 is a cross-sectional view of one pixel provided in a pixel array section; A plan view of a pixel.
  • FIG. 14 is a block diagram showing a schematic configuration of an electronic device 2 that includes the light receiving device shown in FIGS. 1 to 13 and performs distance measurement by the indirect ToF method;
  • 1 is a block diagram showing an example of a schematic configuration of a vehicle control system;
  • FIG. FIG. 2 is an explanatory diagram showing an example of installation positions of an information detection unit outside the vehicle and an imaging unit;
  • FIG. 1 is a block diagram showing a schematic configuration example of a light receiving device 1 to which the present technology is applied. Note that the light receiving device 1 can also be called an imaging device.
  • the light receiving device 1 shown in FIG. 1 is an element that outputs distance measurement information by the indirect ToF method.
  • the light-receiving device 1 receives light (reflected light) emitted from a predetermined light source (irradiation light) and reflected by an object, and outputs a depth image in which distance information to the object is stored as a depth value.
  • the irradiation light emitted from the light source is, for example, infrared light with a wavelength in the range of 780 nm to 1000 nm, and is pulsed light that is repeatedly turned on and off at a predetermined cycle.
  • the light receiving device 1 has a pixel array section 21 formed on a semiconductor substrate and a peripheral circuit section integrated on the same semiconductor substrate as the pixel array section 21 .
  • the peripheral circuit section includes, for example, a vertical driving section 22, a column processing section 23, a horizontal driving section 24, a system control section 25, a reference signal generating section 18, a tap driving section 12, and the like.
  • the light receiving device 1 is further provided with a signal processing section 26 and a data storage section 27 .
  • the signal processing unit 26 and the data storage unit 27 may be mounted on the same board as the light receiving device 1 or may be arranged on a board in a module separate from the light receiving device 1 .
  • the pixel array section 21 has a configuration in which the pixels 10 that generate charges corresponding to the amount of received light and output signals corresponding to the charges are two-dimensionally arranged in rows and columns in a matrix. That is, the pixel array section 21 has a plurality of pixels 10 that photoelectrically convert incident light and output a signal corresponding to the charge obtained as a result. Details of the pixel 10 will be described later with reference to FIG.
  • the row direction is the direction in which the pixels 10 are arranged in the horizontal direction
  • the column direction is the direction in which the pixels 10 are arranged in the vertical direction.
  • the row direction is the horizontal direction in the drawing
  • the column direction is the vertical direction in the drawing.
  • the tap drive unit 12 performs control for distributing charges photoelectrically converted by the photodiode in the pixel to a plurality of floating diffusions.
  • the tap drive unit 12 outputs control signals GDA and GDB for controlling charge distribution. These control signals GDA and GDB are supplied to each pixel.
  • pixel drive lines 28 are wired along the row direction for each pixel row, and vertical signal lines 29 are wired along the column direction for each pixel column. It is for example, the pixel drive line 28 transmits a drive signal for driving when reading a signal from the pixel 10 .
  • the pixel drive lines 28 may include multiple types of drive lines supplied to each pixel row.
  • the vertical drive unit 22 is composed of shift registers, address decoders, etc., and drives each pixel 10 of the pixel array unit 21 simultaneously or in units of rows. That is, the vertical drive section 22 constitutes a drive section that controls the operation of each pixel 10 of the pixel array section 21 together with the system control section 25 that controls the vertical drive section 22 .
  • a pixel signal which is a detection signal output from each pixel 10 in a pixel row in accordance with drive control by the vertical drive unit 22 , is input to the column processing unit 23 through the vertical signal line 29 .
  • the column processing unit 23 performs predetermined signal processing on the pixel signal output from each pixel 10 through the vertical signal line 29, and temporarily holds the pixel signal after the signal processing.
  • the column processor 23 has an AD converter 30 .
  • the AD conversion section 30 has a comparison circuit section 31 and a counter section 32 .
  • the comparison circuit section 31 has a plurality of comparison circuits 31a. A corresponding vertical signal line 29 is connected to each comparison circuit 31a.
  • the comparison circuit 31a compares the reference signal RAMP supplied from the reference signal generator 18 with the pixel signal VSL, which is the detection signal of the pixel PX.
  • the signal level of the pixel signal VSL is the reset level of the pixel signal or the pixel signal level.
  • the comparison circuit 31a detects whether or not the signal level of the reference signal RAMP (hereinafter referred to as reference signal level) crosses the reset level or the pixel signal level.
  • the counter unit 32 has a plurality of counters (CNT) 32a that count based on the comparison result of the comparison circuit 31a.
  • the comparison circuit section 31 and the counter section 32 constitute an ADC (Analog-Digital Converter).
  • the reference signal generation section 18 generates a reference signal RAMP for comparison with the pixel signal VSL from the pixel PX, and supplies it to the comparison circuit 31 a of the comparison circuit section 31 .
  • the reference signal RAMP is a signal whose level (voltage) changes stepwise or linearly over time.
  • the horizontal driving section 24 is composed of a shift register, an address decoder, etc., and selects unit circuits corresponding to the pixel columns of the column processing section 23 in order. By selective scanning by the horizontal driving section 24, pixel signals that have undergone signal processing for each unit circuit in the column processing section 23 are sequentially output.
  • the system control unit 25 is composed of a timing generator that generates various timing signals, and controls the vertical driving unit 22, the column processing unit 23, and the horizontal driving unit 24 based on the various timing signals generated by the timing generator. and other drive control.
  • the system control unit 25 outputs a CN inversion pulse signal (control signal) PS as described later.
  • the CN inversion pulse signal PS is a signal that instructs switching of the count direction of the counter 32 a in the AD conversion section 30 .
  • the CN inversion pulse signal PS becomes the first logic (for example, high level)
  • the counter 32a switches the counting operation to count down.
  • the counter 32a switches the counting operation to the counting up direction.
  • the counter 32a switches between counting up and counting down based on the CN inversion pulse signal PS.
  • the CN inversion pulse signal PS is at the first logic level (for example, high level)
  • the counter 32a reverses the counting direction when the phase of the input pixel signal is switched, and counts the CN inversion pulse signal.
  • PS is the second logic
  • the counter 32a continues counting without changing the counting direction when the phase of the input pixel signal is switched.
  • the pixel switches between the reset level and the pixel signal level of the pixel signals of the first phase, the second phase, the third phase, and the fourth phase, and sequentially outputs them.
  • the counter 32a Based on the CN inversion pulse signal PS, the counter 32a calculates a count value according to the reset level of one pixel signal and a pixel signal level of the other pixel signal out of two pixel signals that are 180° out of phase with each other. Generates a count value that is the sum of the count value obtained.
  • the first phase is, for example, 0°
  • the second phase is, for example, 180°
  • the third phase is, for example, 90°
  • the fourth phase is, for example, 270°.
  • the counter 32a outputs a count value corresponding to the reset level of the first phase based on the CN inversion pulse signal PS, and then outputs a count value corresponding to the pixel signal level of the first phase and the first phase.
  • a count value obtained by summing the count values corresponding to the reset levels of the two phases is output, then the count value corresponding to the pixel signal level of the second phase is output, and then the count value corresponding to the reset level of the third phase is output.
  • the count value obtained by summing the count value corresponding to the pixel signal level of the third phase and the count value corresponding to the reset level of the fourth phase is output, and then the pixel signal level of the fourth phase is output.
  • the counter 32a changes the direction of counting up or down when adding the count value corresponding to the pixel signal level of the first phase and the count value corresponding to the reset level of the second phase.
  • the direction of count-up or count-down is not changed.
  • the counter 32a counts the period before the reset level of the first phase crosses the reference signal level and the period until the reset level of the third phase crosses the reference signal level. until the pixel signal level of the first phase, the reset level and pixel signal level of the second phase, and the pixel signal level of the third phase cross the reference signal level. Counting is continued without resetting the count value before starting counting for each period.
  • the first phase differs from the second phase by 180°
  • the second phase differs from the third phase by 90°
  • the third phase differs from the fourth phase by 180°. .
  • the signal processing unit 26 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing based on the pixel signals output from the column processing unit 23 .
  • the data storage unit 27 temporarily stores data required for signal processing in the signal processing unit 26 .
  • the light receiving device 1 configured as described above outputs a depth image in which pixel values include distance information to an object as depth values.
  • the light-receiving device 1 is, for example, a vehicle-mounted system that measures the distance to an object outside the vehicle, or a system that measures the distance to an object such as a user's hand and measures the distance to the user's hand based on the measurement result. It can be installed in a gesture recognition device for recognizing gestures.
  • the depth value may be detected by an application processor (AP) or the like external to the light receiving device.
  • the light receiving device outputs the pixel signal output from the column processing section 23 to the AP or the like.
  • FIG. 2 is a cross-sectional view showing a first configuration example of the pixels 10 arranged in the pixel array section 21. As shown in FIG.
  • the light receiving device 1 includes a semiconductor substrate 41 and a multilayer wiring layer 42 formed on the surface side (lower side in the drawing).
  • the semiconductor substrate 41 is made of silicon (Si), for example, and has a thickness of 1 to 6 ⁇ m, for example.
  • an N-type (second conductivity type) semiconductor region 52 is formed in each pixel in a P-type (first conductivity type) semiconductor region 51, thereby forming a photodiode PD in each pixel. formed.
  • the P-type semiconductor regions 51 provided on both front and back surfaces of the semiconductor substrate 41 also serve as hole charge accumulation regions for suppressing dark current.
  • An antireflection film 43 is formed on the upper surface of the back surface of the semiconductor substrate 41 .
  • the antireflection film 43 has, for example, a laminated structure in which a fixed charge film and an oxide film are laminated. can. Specifically, hafnium oxide (HfO 2 ), aluminum oxide (Al 2 O 3 ), titanium oxide (TiO 2 ), STO (Strontium Titan Oxide), or the like can be used.
  • the antireflection film 43 is configured by stacking a hafnium oxide film 53, an aluminum oxide film 54, and a silicon oxide film 55. As shown in FIG.
  • An inter-pixel light shielding film for preventing incident light from entering the adjacent pixels is provided on the upper surface of the antireflection film 43 and at a boundary portion 44 (hereinafter also referred to as a pixel boundary portion 44) between the pixels 10 adjacent to each other on the semiconductor substrate 41.
  • a membrane 45 is formed.
  • the material of the inter-pixel light shielding film 45 may be any material that blocks light, and for example, metal materials such as tungsten (W), aluminum (Al), and copper (Cu) can be used.
  • a flattening film 46 is formed on the upper surface of the antireflection film 43 and the upper surface of the inter-pixel light shielding film 45, for example, an insulating film such as silicon oxide (SiO 2 ), silicon nitride (SiN), or silicon oxynitride (SiON). Alternatively, it is made of an organic material such as resin.
  • an on-chip lens 47 is formed for each pixel.
  • the on-chip lens 47 is made of, for example, a resin material such as styrene resin, acrylic resin, styrene-acrylic copolymer resin, or siloxane resin.
  • the light condensed by the on-chip lens 47 is efficiently incident on the photodiode PD.
  • adjacent pixels in the depth direction of the semiconductor substrate 41 are provided from the back side of the semiconductor substrate 41 (on-chip lens 47 side) to a predetermined depth in the substrate depth direction.
  • An inter-pixel separation portion 61 is formed to separate the pixels from each other.
  • a peripheral portion including the bottom surface and side walls of the inter-pixel isolation portion 61 is covered with a hafnium oxide film 53 that is part of the antireflection film 43 .
  • the inter-pixel separation section 61 prevents incident light from penetrating into the adjacent pixel 10 , confines the incident light within its own pixel, and prevents incident light from leaking from the adjacent pixel 10 .
  • the silicon oxide film 55 and the inter-pixel isolation part 61 are simultaneously formed by embedding the silicon oxide film 55, which is the uppermost layer material of the antireflection film 43, into a trench (groove) dug from the back side. Therefore, although the silicon oxide film 55 that is part of the laminated film as the antireflection film 43 and the inter-pixel separation portion 61 are made of the same material, they do not necessarily have to be the same material.
  • the material embedded in the trench (groove) dug from the rear surface side as the inter-pixel isolation section 61 may be, for example, a metal material such as tungsten (W), aluminum (Al), titanium (Ti), titanium nitride (TiN).
  • two transfer transistors TRG1 and TRG2 are formed for one photodiode PD formed in each pixel 10 on the surface side of the semiconductor substrate 41 on which the multilayer wiring layer 42 is formed.
  • floating diffusions FD1 and FD2 as charge storage portions for temporarily holding charges transferred from the photodiodes PD are formed of high-concentration N-type semiconductor regions (N-type diffusion regions). It is
  • the multilayer wiring layer 42 is composed of a plurality of metal films M and an interlayer insulating film 62 therebetween.
  • FIG. 2 shows an example composed of three layers of a first metal film M1 to a third metal film M3.
  • the region of the first metal film M1 closest to the semiconductor substrate 41 located below the formation region of the photodiode PD in other words, in plan view, the photodiode PD
  • a metal wiring made of copper, aluminum, or the like is formed as a light shielding member 63 in a region at least partially overlapping with the formation region of .
  • the light shielding member 63 is configured to block infrared light that enters the semiconductor substrate 41 from the light incident surface through the on-chip lens 47 and passes through the semiconductor substrate 41 without being photoelectrically converted in the semiconductor substrate 41.
  • the light is shielded by the first metal film M1 closest to 41 and is not transmitted to the second metal film M2 and the third metal film M3 below it. Due to this light shielding function, infrared light that has passed through the semiconductor substrate 41 without being photoelectrically converted in the semiconductor substrate 41 is scattered by the metal film M below the first metal film M1 and enters the neighboring pixels. It can be suppressed. This can prevent erroneous detection of light by neighboring pixels.
  • the light shielding member 63 impinges on the semiconductor substrate 41 from the light incident surface through the on-chip lens 47 and passes through the semiconductor substrate 41 without being photoelectrically converted in the semiconductor substrate 41. It also has a function of reflecting the light by the light shielding member 63 and making it enter the semiconductor substrate 41 again. Therefore, it can be said that the light shielding member 63 is also a reflecting member. This reflection function increases the amount of infrared light that is photoelectrically converted within the semiconductor substrate 41, thereby improving the quantum efficiency (QE), that is, the sensitivity of the pixel 10 to infrared light.
  • QE quantum efficiency
  • the light shielding member 63 may be made of polysilicon, oxide film, or the like, in addition to the metal material, to form a structure that reflects or shields light.
  • the light shielding member 63 is not composed of a single layer of metal film M, but is composed of a plurality of metal films M, for example, formed in a lattice pattern by a first metal film M1 and a second metal film M2.
  • a predetermined metal film M for example, the second metal film M2
  • the light shielding member 63 and the wiring capacitance 64 may be formed in the same layer (metal film M). It is formed. In other words, the light blocking member 63 is formed closer to the semiconductor substrate 41 than the wiring capacitor 64 is.
  • the light-receiving device 1 arranges the semiconductor substrate 41, which is a semiconductor layer, between the on-chip lens 47 and the multilayer wiring layer 42, and emits incident light from the back side where the on-chip lens 47 is formed to the photodiode. It has a back-illuminated structure that makes it incident on the PD.
  • the pixel 10 includes two transfer transistors TRG1 and TRG2 for the photodiode PD provided in each pixel. It is configured to be able to be distributed to FD2.
  • the pixel 10 according to the first configuration example has the inter-pixel separation portion 61 formed in the pixel boundary portion 44 to prevent the incident light from penetrating into the adjacent pixel 10, confine the incident light within the own pixel, and prevent the incident light from penetrating into the adjacent pixel. This prevents incident light from leaking from the pixels 10 that By providing the light shielding member 63 on the metal film M below the formation region of the photodiode PD, the infrared light that has passed through the semiconductor substrate 41 without being photoelectrically converted in the semiconductor substrate 41 is blocked by the light shielding member 63 . to be reflected again into the semiconductor substrate 41 .
  • the amount of infrared light photoelectrically converted in the semiconductor substrate 41 can be increased, and the quantum efficiency QE, that is, the sensitivity of the pixel 10 to infrared light can be improved.
  • FIG. 3 shows the circuit configuration of the pixels 10 two-dimensionally arranged in the pixel array section 21. As shown in FIG. 3
  • the pixel 10 includes a photodiode PD as a photoelectric conversion element.
  • the pixel 10 also has two transfer transistors TRG, two floating diffusions FD, two additional capacitors FDL, two switching transistors FDG, two amplifier transistors AMP, two reset transistors RST, and two selection transistors SEL. Furthermore, the pixel 10 has a charge drain transistor OFG.
  • transfer transistors TRG1 and TRG2 floating diffusions FD1 and FD2, additional capacitances FDL1 and FDL2, switching transistors FDG1 and FDG2, amplification transistors AMP1 and AMP2, reset transistors RST1 and RST2, and select transistors SEL1 and SEL2. called.
  • the transfer transistor TRG, switching transistor FDG, amplification transistor AMP, selection transistor SEL, reset transistor RST, and charge discharge transistor OFG are composed of, for example, N-type MOS transistors.
  • the transfer transistor TRG1 When the transfer drive signal GDA supplied to the gate electrode becomes active, the transfer transistor TRG1 becomes conductive in response to this, thereby transferring the charges accumulated in the photodiode PD to the floating diffusion FD1.
  • the transfer transistor TRG2 becomes conductive in response to the activation of the transfer drive signal GDB supplied to the gate electrode, thereby transferring the charge accumulated in the photodiode PD to the floating diffusion FD2.
  • the floating diffusions FD1 and FD2 are charge storage units that temporarily hold charges transferred from the photodiodes PD.
  • the switching transistor FDG1 When the FD drive signal FDG1g supplied to the gate electrode becomes active, the switching transistor FDG1 becomes conductive in response to this, thereby connecting the additional capacitance FDL1 to the floating diffusion FD1.
  • the switching transistor FDG2 connects the additional capacitance FDL2 to the floating diffusion FD2 by becoming conductive in response to the activation of the FD drive signal FDG2g supplied to the gate electrode. Additional capacitances FDL1 and FDL2 are formed by wiring capacitance 64 in FIG.
  • the reset transistor RST1 resets the potential of the floating diffusion FD1 by becoming conductive in response to the activation of the reset drive signal RSTg supplied to the gate electrode.
  • the reset transistor RST2 resets the potential of the floating diffusion FD2 by becoming conductive in response to the active state of the reset drive signal RSTg supplied to the gate electrode.
  • the vertical driving unit 22 activates the switching transistors FDG1 and FDG2 to connect the floating diffusion FD1 and the additional capacitor FDL1, and also connects the floating diffusion FD2 and the additional capacitor FDL2. do. As a result, more charges can be accumulated under high illuminance.
  • the vertical drive unit 22 deactivates the switching transistors FDG1 and FDG2 to separate the additional capacitors FDL1 and FDL2 from the floating diffusions FD1 and FD2, respectively. Thereby, conversion efficiency can be improved.
  • the charge discharge transistor OFG discharges the charge accumulated in the photodiode PD by becoming conductive in response to the activation of the discharge drive signal OFG1g supplied to the gate electrode.
  • the source electrode of the amplification transistor AMP1 is connected to the vertical signal line 29A via the selection transistor SEL1, thereby connecting to a constant current source (not shown) and forming a source follower circuit.
  • the amplification transistor AMP2 is connected to a constant current source (not shown) by connecting the source electrode to the vertical signal line 29B via the selection transistor SEL2, thereby forming a source follower circuit.
  • the selection transistor SEL1 is connected between the source electrode of the amplification transistor AMP1 and the vertical signal line 29A.
  • the selection transistor SEL1 becomes conductive in response to the activation of the selection signal SEL1g supplied to the gate electrode, and outputs the pixel signal VSL1 output from the amplification transistor AMP1 to the vertical signal line 29A.
  • the selection transistor SEL2 is connected between the source electrode of the amplification transistor AMP2 and the vertical signal line 29B.
  • the selection transistor SEL2 becomes conductive in response to the activation of the selection signal SEL2g supplied to the gate electrode, and outputs the pixel signal VSL2 output from the amplification transistor AMP2 to the vertical signal line 29B.
  • the transfer transistors TRG1 and TRG2, the switching transistors FDG1 and FDG2, the amplification transistors AMP1 and AMP2, the selection transistors SEL1 and SEL2, and the charge discharge transistor OFG of the pixel 10 are controlled by the vertical driving section 22.
  • the additional capacitors FDL1 and FDL2 and the switching transistors FDG1 and FDG2 for controlling their connection may be omitted. can be ensured.
  • a reset operation for resetting the charges of the pixels 10 is performed in all pixels. That is, the charge discharge transistor OFG, the reset transistors RST1 and RST2, and the switching transistors FDG1 and FDG2 are turned on, and the charges accumulated in the photodiode PD, the floating diffusions FD1 and FD2, and the additional capacitors FDL1 and FDL2 are discharged.
  • the transfer transistors TRG1 and TRG2 are alternately driven. That is, in the first period, the transfer transistor TRG1 is controlled to be ON and the transfer transistor TRG2 is controlled to be OFF. In this first period, charges generated in the photodiode PD are transferred to the floating diffusion FD1. In the second period following the first period, the transfer transistor TRG1 is turned off and the transfer transistor TRG2 is turned on. During this second period, charges generated in the photodiode PD are transferred to the floating diffusion FD2. As a result, charges generated in the photodiode PD are distributed to the floating diffusions FD1 and FD2 and accumulated.
  • the transfer transistor TRG and the floating diffusion FD from which charges (electrons) obtained by photoelectric conversion are read out are also called active taps.
  • the transfer transistor TRG and the floating diffusion FD from which the charges obtained by photoelectric conversion are not read out are also referred to as inactive taps.
  • each pixel 10 of the pixel array section 21 is line-sequentially selected.
  • select transistors SEL1 and SEL2 are turned on.
  • the charge accumulated in the floating diffusion FD1 is output as the pixel signal VSL1 to the column processing section 23 via the vertical signal line 29A.
  • the charge accumulated in the floating diffusion FD2 is output to the column processing section 23 via the vertical signal line 29B as the pixel signal VSL2.
  • the reflected light received by the pixel 10 is delayed according to the distance to the object from the timing of irradiation by the light source. Since the distribution ratio of the charges accumulated in the two floating diffusions FD1 and FD2 changes depending on the delay time according to the distance to the object, the distribution ratio of the charges accumulated in the two floating diffusions FD1 and FD2 indicates that the object You can find the distance to
  • FIG. 4 is a plan view showing an arrangement example of pixels shown in FIG.
  • the horizontal direction in FIG. 4 corresponds to the row direction (horizontal direction) in FIG. 1, and the vertical direction corresponds to the column direction (vertical direction) in FIG.
  • a photodiode PD is formed of an N-type semiconductor region 52 in the central region of the rectangular pixel 10 .
  • a transfer transistor TRG1, a switching transistor FDG1, a reset transistor RST1, an amplification transistor AMP1, and a selection transistor SEL1 are arranged linearly along one of the four sides of the rectangular pixel 10 outside the photodiode PD.
  • a transfer transistor TRG2, a switching transistor FDG2, a reset transistor RST2, an amplification transistor AMP2, and a selection transistor SEL2 are linearly arranged along the other four sides of the rectangular pixel 10 .
  • a charge discharge transistor OFG is arranged on a side other than the two sides of the pixel 10 on which the transfer transistor TRG, the switching transistor FDG, the reset transistor RST, the amplification transistor AMP, and the selection transistor SEL are formed.
  • the light receiving device 1 outputs four or more types of pixel signals having different phases from each pixel 10 for the purpose of performing distance measurement by the indirect ToF method. Then, the AD conversion section 30 in the light receiving device 1 outputs a digital signal corresponding to the reset level of the pixel signal and a digital signal corresponding to the pixel signal level in units of frames for each phase. By taking the difference between the digital signal corresponding to the reset level and the digital signal corresponding to the pixel signal level, the CDS operation for canceling the reset noise can be performed on a frame-by-frame basis. Such CDS operations are referred to herein as frame CDS.
  • a digital signal corresponding to the period until the reset level of the pixel signal of the first phase intersects the reference signal level is generated in units of frames.
  • a digital signal corresponding to the period until the pixel signal level of the pixel signal crosses the reference signal level is generated, and the difference between these digital signals is taken to cancel the reset noise.
  • the above operation is repeated for each phase.
  • distance measurement is performed based on four types of digital signals corresponding to four phases obtained by performing frame CDS.
  • FIG. 5 is a signal waveform diagram of four types of pixel signals output from the pixel 10 and having different phases.
  • the signal waveform diagram of FIG. 5 shows an example in which two taps A and B are provided within one pixel 10 . Taps A and B correspond to floating diffusions FD1 and FD2 shown in FIG.
  • FIG. 5 shows the timing of irradiation light emitted by a light emitting unit (not shown) toward an object, the timing of reflected light from the object received by the light receiving device 1, and the charge accumulation timing of taps A and B. is shown.
  • FIG. 5 shows an example in which taps A and B accumulate electric charges at four different phases of 0°, 90°, 180°, and 270°.
  • the charge accumulation timings of the taps A and B are determined based on the timing waveform having a phase of 0° with respect to the timing waveform of the irradiation light. More specifically, the tap A accumulates the charge received from the timing of receiving the reflected light to the timing of ending the irradiation of the irradiation light.
  • the tap B accumulates the charges received during the period from the end timing of the irradiation of the irradiation light to the end timing of the reception of the reflected light.
  • the charge accumulation timings of taps A and B are determined based on a timing waveform that is 90° out of phase with respect to the timing waveform of the irradiation light. More specifically, the tap A accumulates the charge received during the period from the rising timing of the timing waveform obtained by shifting the phase of the irradiation light timing waveform by 90° to the end timing of receiving the reflected light. The tap B accumulates charges received during a period from the start timing of receiving the reflected light to the rising timing of the timing waveform whose phase is shifted by 90° from the timing waveform of the irradiation light.
  • the charge accumulation timings of taps A and B are determined based on the timing waveform that is 180° out of phase with respect to the timing waveform of the irradiation light. More specifically, the tap A accumulates the electric charges received during the period from the irradiation end timing of the irradiation light to the reception end timing of the reflected light. The tap B accumulates charges received during the period from the start timing of receiving the reflected light to the end timing of the irradiation light.
  • the charge accumulation timings of taps A and B are determined based on a timing waveform that is 180° out of phase with respect to the timing waveform of the irradiation light. More specifically, the tap A accumulates the charges received during the period from the start timing of receiving the reflected light to the timing shifted by 270° from the end timing of the irradiation light. The tap B accumulates the charge received during the period from the timing when the irradiation end timing of the irradiation light is shifted by 270° to the reception end timing of the reflected light.
  • the charge A0 accumulated in the tap A of the first frame is expressed by equation (1)
  • the charge B0 accumulated in the tap B is expressed by equation (2).
  • KA and KB are gains
  • OA and OB are dark offsets
  • ⁇ G is ambient light.
  • A0 KA( ⁇ 0+ ⁇ G)+OA ...(1)
  • B0 KB( ⁇ 180+ ⁇ G)+OB ...(2)
  • a charge A90 accumulated in the tap A of the second frame is expressed by equation (3), and a charge B90 accumulated in the tap B is expressed by equation (4).
  • A90 KA( ⁇ 90+ ⁇ G)+OA ...(3)
  • B90 KB( ⁇ 270+ ⁇ G)+OB ...(4)
  • a charge A180 accumulated in the tap A of the third frame is expressed by equation (5), and a charge B180 accumulated in the tap B is expressed by equation (6).
  • A180 KA( ⁇ 180+ ⁇ G)+OA ...(5)
  • B180 KB( ⁇ 0+ ⁇ G)+OB ...(6)
  • a charge A180 accumulated in the tap A of the fourth frame is expressed by equation (7), and a charge B180 accumulated in the tap B is expressed by equation (8).
  • A270 KA( ⁇ 270+ ⁇ G)+OA ...(7)
  • B270 KB( ⁇ 90+ ⁇ G)+OB ...(8)
  • phase shift amount ⁇ between I and Q is calculated by the following equation (11).
  • Equation (12) The distance D to the object is represented by Equation (12) using Equation (11). Note that Tp is the pulse width.
  • FIG. 5 shows an example of a 2Tap-4Phase scheme that generates four phase signals using two taps A and B. In this embodiment, four taps are used to generate four phase signals. It can also be applied to the light receiving device 1 of the 4Tap-4Phase method.
  • the 4Tap-4Phase type light receiving device 1 has four taps in one pixel 10 .
  • FIG. 6 is a timing chart of the 4Tap-4Phase method.
  • FIG. 6 shows the timing of irradiation light, the timing of reflected light, and the charge accumulation timing of the four taps TRT1 to TRT4.
  • the tap TRT1 accumulates charges from the timing when the reflected light starts to be received until the timing when the irradiation start timing of the irradiation light is shifted by 90°.
  • the tap TRT2 accumulates charges from the end timing of the irradiation of the irradiation light to the end timing of the reception of the reflected light.
  • the tap TRT3 accumulates charges from the timing of the phase shifted by 90° from the irradiation start timing of the irradiation light to the irradiation end timing of the irradiation light.
  • the tap TRT4 accumulates charges from the timing of the phase shifted by 90° from the irradiation end timing of the irradiation light to the irradiation start timing of the irradiation light.
  • the light receiving device 1 employs the improved frame CDS as a pixel signal readout method, and there are a plurality of pixel signal readout methods.
  • 7A, 7B, and 7C are diagrams for comparing pixel signal readout methods.
  • FIG. 7A is a diagram for explaining the readout method for only the D phase
  • FIG. 7B is for DDS
  • FIG. 7C is a diagram for explaining the frame CDS readout method.
  • FIG. 7A Only in FIG. 7A is a method of reading only the D phase.
  • the pixel signal level (D phase) of the first phase (for example, 0°) is read out. Thereafter, similarly, after global reset is performed, the process of reading out the D phase of each phase is repeated four times in total.
  • GRST global reset
  • the DDS in FIG. 7B resets the floating diffusion after reading the D phase of the first phase (eg, 0°), and then reads the P phase. This process is repeated four times. As described above, the DDS reads the P phase after resetting the floating diffusion after reading the D phase.
  • the reset level is not necessarily the same. Therefore, even if the difference between the P phase and the D phase is taken, there is a possibility that the reset noise cannot be completely canceled.
  • the reset level can be offset by taking the difference between the P phase and the immediately following D phase, but it is necessary to read the pixel signal from the pixel 10 eight times in total.
  • the number of readouts from the AD converter 30 is four, while in the frame CDS, the number of readouts is doubled to eight. While the integration time for allocating the charge photoelectrically converted by the photodiode PD to the floating diffusion is several hundred microseconds, the readout time from the AD converter 30 requires several milliseconds. Therefore, as the number of readings increases, the time required for distance measurement increases. Thus, an increase in the number of times of reading becomes a rate-limiting issue for the frame rate. Specific measures for solving the above-described problems will be described below.
  • the I signal and Q signal on the IQ plane are represented by the following equations (13) and (14), respectively.
  • the I signal and the Q signal are represented by the following equations (16) and (17), respectively.
  • the calculation of the I signal and the Q signal shown in equations (16) and (17) may be performed inside the photodetector 1, or may be performed by an application processor (AP) or the like connected to the photodetector 1. .
  • AP application processor
  • part of the calculations of formulas (16) and (17) are performed within the light receiving device 1 . This reduces the number of times the pixel signal is read out from the AD converter 30 . As described above, the normal frame CDS requires eight readouts, while the frame CDS according to this embodiment only requires six readouts.
  • FIG. 8 is a diagram showing a readout sequence according to this embodiment.
  • a global reset In global reset, all floating diffusions of all pixels 10 are reset.
  • the reset level (P phase) of the pixel signal of the first phase (for example, 0°) is read.
  • a digital signal is generated according to the period until the reset level, which is the signal level of the P-phase signal, crosses the reference signal level, and this digital signal is read out.
  • the object is irradiated with an optical signal, the reflected light from the object is photoelectrically converted by the photodiode PD in FIG.
  • the charge is transferred from the photodiode to the floating diffusion corresponding to the first phase, and the D phase is read out.
  • a digital signal is generated according to the period until the pixel signal level crosses the reference signal level, and this digital signal is read out.
  • reset the floating diffusion corresponding to the second phase (eg, 180°).
  • This reset is called a rolling reset because the floating diffusion is reset for each pixel row (horizontal direction).
  • the signal instructing the above-described global reset may be called the first reset signal
  • the signal instructing the rolling reset may be called the second reset signal.
  • the counter 32a in the AD conversion unit 30 resets the count value when the first reset signal is input (at the time of global reset), and resets the count value when the second reset signal is input (at the time of rolling reset). Hold the value.
  • the second phase reset level (P phase) is read.
  • a digital signal corresponding to the reset level of the second phase is read.
  • the count direction of the counter 32a is made common (for example, the count-up direction), and the length of the period until the pixel signal level or reset level intersects the reference signal level is counted. Measure at 32a.
  • the count value of the counter 32a is once reset, and then the P phase of the second phase is read out. To do so, run counter 32a.
  • the counting operation of the counter 32a is continued, and after the process (3) is completed, (2) and (3) are output as a digital signal.
  • the reset level (P phase) of the third phase (eg, 90°) is read.
  • the electric charge is transferred from the photodiode PD to the floating diffusion corresponding to the third phase, and the reading of the D phase shown in (6) is performed.
  • the reset level (P phase) After resetting the floating diffusion corresponding to the fourth phase while leaving the count value of the counter 32a operated for reading the D phase in (6) as it is, the reset level (P phase).
  • the counter 32a continues counting from the count value after the process of (6).
  • a digital signal obtained by combining the processing of (6) and (7) is output. As a result, there is no need to output a digital signal when the processing of (6) is completed, and the number of times of reading can be reduced.
  • the charge is transferred from the photodiode PD to the floating diffusion corresponding to the fourth phase, and the reading of the D phase in (8) is performed.
  • the number of readouts from the AD converter 30 can be reduced by two compared to the frame CDS of FIG. Therefore, the time required for distance measurement can be shortened.
  • the first phase is 0°
  • the second phase is 180°
  • the third phase is 90°
  • the fourth phase is 270°.
  • Phase (0°) ⁇ Phase (180°) ⁇ Phase (90°) ⁇ Phase (270°) 2. Phase (180°) ⁇ Phase (0°) ⁇ Phase (90°) ⁇ Phase (270°) 3. Phase (0°) ⁇ Phase (180°) ⁇ Phase (270°) ⁇ Phase (90°) 4. Phase (180°) ⁇ Phase (0°) ⁇ Phase (270°) ⁇ Phase (90°) 5. Phase (90°) ⁇ Phase (270°) ⁇ Phase (0°) ⁇ Phase (180°) 6. Phase (270°) ⁇ Phase (90°) ⁇ Phase (0°) ⁇ Phase (180°) 7. Phase (90°) ⁇ Phase (270°) ⁇ Phase (180°) ⁇ Phase (0°) 8. Phase (270°) ⁇ Phase (90°) ⁇ Phase (180°) ⁇ Phase (0°) ⁇ Phase (0°) ⁇ Phase (0°) 8. Phase (270°) ⁇ Phase (90°) ⁇ Phase (180°) ⁇ Phase (0°) ⁇ Phase (0°) ⁇ Phase
  • FIG. 9 is a diagram showing information read by each of the above-mentioned 1 to 8 by reading six times. The above 1 is similar to FIG.
  • the counter 32a is continuously operated when reading the pixel signal level of phase 180° and the reset level of phase 0° in (2) and (3), and the processing results of (2) and (3) are are collectively output.
  • the counter 32a is continuously operated when reading the pixel signal level of phase 90° and the reset level of phase 270°, and the processing results of (6) and (7) are summarized. output.
  • the counter 32a is continuously operated when reading the pixel signal level of phase 0° and the reset level of phase 180° in (2) and (3), and the processing results of (2) and (3) are are collectively output.
  • the counter 32a is continuously operated, and the processing results of (6) and (7) are summarized. output.
  • the counter 32a is continuously operated when reading the pixel signal level of phase 180° and the reset level of phase 0° in (2) and (3), and the processing results of (2) and (3) are are collectively output.
  • the counter 32a is continuously operated, and the processing results of (6) and (7) are summarized. output.
  • the counter 32a is continuously operated when reading the pixel signal level of phase 90° and the reset level of phase 270° in (2) and (3), and the processing results of (2) and (3) are are collectively output. Similarly, the counter 32a is continuously operated when reading out the pixel signal level of phase 0° and the reset level of phase 180° in (6) and (7), and the processing results of (6) and (7) are summarized. output.
  • the counter 32a is continuously operated when reading the pixel signal level of phase 270° and the reset level of phase 90° in (2) and (3), and the processing results of (2) and (3) are are collectively output. Similarly, the counter 32a is continuously operated when reading out the pixel signal level of phase 0° and the reset level of phase 180° in (6) and (7), and the processing results of (6) and (7) are summarized. output.
  • the counter 32a is continuously operated when reading the pixel signal level of phase 90° and the reset level of phase 270° in (2) and (3), and the processing results of (2) and (3) are are collectively output.
  • the counter 32a is continuously operated when reading the pixel signal level of phase 180° and the reset level of phase 0°, and the processing results of (6) and (7) are summarized. output.
  • the counter 32a is continuously operated when reading the pixel signal level of phase 270° and the reset level of phase 90° in (2) and (3), and the processing results of (2) and (3) are are collectively output.
  • the counter 32a is continuously operated when reading the pixel signal level of phase 180° and the reset level of phase 0°, and the processing results of (6) and (7) are summarized. output.
  • FIGS. 8 and 9 illustrate examples in which the four phases are 0°, 90°, 180°, and 270°, but the phase difference between the four phases may be 90° or 180°, and each phase is not necessarily It need not be a multiple of 90. Therefore, generalizing the above 1 to 8 results in the following 1' to 8'.
  • X is an arbitrary angle.
  • FIG. 10 is a diagram showing information read by each of 1' to 8' described above in six readings.
  • the counter 32a is continuously operated when reading out the pixel signal level of phase X and the reset level of phase X+180° in (2) and (3), and the processing results of (2) and (3) are are collectively output.
  • the counter 32a is continuously operated, and the processing results of (6) and (7) are summarized. output.
  • the counter 32a is continuously operated when reading the pixel signal level of phase X+180° and the reset level of phase X in (2) and (3), and the processing results of (2) and (3) are are collectively output.
  • the counter 32a is continuously operated, and the processing results of (6) and (7) are summarized. output.
  • the counter 32a is continuously operated when reading out the pixel signal level of phase X and the reset level of phase X+180° in (2) and (3), and the processing results of (2) and (3) are are collectively output.
  • the counter 32a is continuously operated, and the processing results of (6) and (7) are summarized. output.
  • the counter 32a is continuously operated when reading out the pixel signal level of phase X+180° and the reset level of phase X in (2) and (3), and the processing results of (2) and (3) are are collectively output.
  • the counter 32a is continuously operated, and the processing results of (6) and (7) are summarized. output.
  • the counter 32a is continuously operated when reading the pixel signal level of phase X+270° and the reset level of phase X+90° in (2) and (3), and the processing of (2) and (3) is performed. Output the results collectively.
  • the counter 32a is continuously operated, and the processing results of (6) and (7) are summarized. Output.
  • the counter 32a is continuously operated when reading out the pixel signal level of phase X+270° and the reset level of phase X+90° in (2) and (3), and the processing of (2) and (3) is performed. Output the results collectively.
  • the counter 32a is continuously operated, and the processing results of (6) and (7) are collectively Output.
  • the counter 32a in the AD conversion unit 30 continues to count in the same count direction when reading out the pixel signal level and the reset level that are out of phase by 180°.
  • FIG. 11 is a detailed timing diagram of the read sequence shown in FIG.
  • the timing diagram of FIG. 11 shows the timing of the first half of FIG. The same timing as in FIG. 11 is repeated in the second half of FIG.
  • a global reset is performed between times t1 and t2 in FIG. As a result, all floating diffusions in all pixels 10 are set to the reset level.
  • the reference signal level which is a ramp waveform, begins to decrease linearly with time.
  • the signal line voltage VSL is the reset level (P phase) of the floating diffusion corresponding to the first phase (eg, 0°).
  • the voltage level of the reference signal changes substantially linearly from time t3 to time t5.
  • the counter 32a continues counting at a predetermined clock cycle. In this state, the reference signal level is higher than the reset level, so the counter 32a counts down.
  • the counter 32a stops counting and outputs a digital signal corresponding to the count value at the time of crossing.
  • the CN inversion pulse signal PS output from the system control section 25 becomes high level.
  • the counter 32a switches the counting direction when restarting the counting operation thereafter. Since the counter 32a counted down from time t3 to t4, the CN inversion pulse signal PS becomes high level at time t6, so that the counter 32a counts up when restarting the counting operation thereafter. count to.
  • the transistors TRG1 and TRG2 in the pixel 10 in FIG. 3 are alternately turned on/off in opposite phases, and charges are distributed from the photodiode to the floating diffusion. Specifically, during the period from time t8 to t9, the pixel signal level of the first phase (eg, 0°) is transferred to each floating diffusion.
  • the pixel signal level of the first phase eg, 0°
  • the comparison circuit section 31 in FIG. 1 compares the pixel signal level in the first phase with the reference signal level based on the accumulated charge of the floating diffusion.
  • the counter 32a continues counting up from time t10 until the pixel signal level crosses the reference signal level.
  • the counter 32a stops counting up.
  • the count value of the counter 32a is not output to the outside at this time. As a result, the number of reading times of pixel data from the light receiving device 1 can be reduced.
  • Time t13 to t14 is a rolling reset period. During this period, the floating diffusion corresponding to the second phase (eg 180°) is reset. Since the CN inversion pulse signal PS is not output immediately before the rolling reset period, the counting direction of the counter 32a does not change.
  • the comparison circuit unit 31 compares the reset level and the reference signal level, and the counter 32a counts up from time t15 until the reset level crosses the reference signal level (t15 to t16). take action. Since the CN inversion pulse signal PS did not become the first logic (high level) at the time when the readout of the pixel signal level of the first phase is completed (time t12), the counter 32a continues counting up. Therefore, the count value of the counter 32a is the sum of the pixel signal level of the first phase from time t10 to t11 and the reset level of the second phase from time t15 to t16.
  • the counter 32a stops counting and outputs the count value to the outside as a digital signal.
  • the CN inversion pulse signal PS goes high during the period from time t18 to t19.
  • the counter 32a switches the counting direction. Specifically, the counter 32a switches to the countdown direction.
  • the transistors TRG1 and TRG2 in the pixels 10 in FIG. 3 are turned on in order for each pixel row, and the charge is distributed from the photodiode PD to the floating diffusion for each pixel row. .
  • the pixel signal level of the second phase eg, 180°
  • the comparison circuit section 31 in FIG. 1 compares the pixel signal level and the reference signal level in the second phase based on the accumulated charge of the floating diffusion.
  • the counter 32a continues the countdown operation from time t22 until the pixel signal level crosses the reference signal level (t22 to t23).
  • the counter 32a stops counting down. A count value of the counter 32 a is output from the light receiving device 1 . After that, at time t24, the reading of the pixel signal level of the second phase (D phase) ends.
  • the pixel 10 has a gate structure as shown in FIG. 3, but the pixel 10 may have a CAPD (Current Assisted Photonic Demodulator) structure.
  • CAPD Current Assisted Photonic Demodulator
  • FIG. 12 shows a cross-sectional view of one pixel 10 provided in the pixel array section 21, and FIG. 13 shows a plan view of the pixel 10.
  • FIG. 12A shows a cross-sectional view taken along line A-A' of FIG. 13, and B of FIG. 12 shows a cross-sectional view taken along line B-B' of FIG.
  • the pixel 10 has, for example, a silicon substrate, specifically a semiconductor substrate 34 made of a P-type semiconductor layer, and an on-chip lens 35 formed on the semiconductor substrate 34.
  • an inter-pixel light-shielding film 36 for preventing color mixture between adjacent pixels 10 is formed on the boundary portion of the pixels 10 on the light incident surface of the semiconductor substrate 34 .
  • the inter-pixel light shielding film 36 prevents the light incident on the pixel 10 from entering another pixel 10 provided adjacently.
  • a signal extracting portion 37-1 and a signal extracting portion 37-2 are formed on the surface of the semiconductor substrate 34 opposite to the light incident surface, that is, on the inner portion of the lower surface in the drawing.
  • the signal extractor 37-1 corresponds to the first tap A in FIG. 1
  • the signal extractor 37-2 corresponds to the second tap B in FIG.
  • the signal extracting portion 37-1 includes an N+ semiconductor region 71-1 that is an N-type semiconductor region, an N- semiconductor region 72-1 that has a lower donor impurity concentration, and a P+ semiconductor region 73- that is a P-type semiconductor region. 1 and a P- semiconductor region 74-1 with a lower acceptor impurity concentration.
  • the donor impurities include, for example, elements belonging to Group 5 of the periodic table of elements such as phosphorus (P) and arsenic (As) for Si
  • the acceptor impurities include, for example, Elements belonging to Group 3 in the periodic table of elements such as boron (B) can be mentioned.
  • An element that serves as a donor impurity is called a donor element, and an element that serves as an acceptor impurity is called an acceptor element.
  • the N- semiconductor region 72-1 is formed above the N+ semiconductor region 71-1 so as to cover (enclose) the N+ semiconductor region 71-1.
  • the P ⁇ semiconductor region 74-1 is formed above the P+ semiconductor region 73-1 so as to cover (enclose) the P+ semiconductor region 73-1.
  • the N+ semiconductor region 71-1 is formed so as to surround the P+ semiconductor region 73-1 with the P+ semiconductor region 73-1 as the center.
  • the N ⁇ semiconductor region 72-1 formed above the N+ semiconductor region 71-1 is formed so as to surround the P ⁇ semiconductor region 74-1 with the P ⁇ semiconductor region 74-1 as the center. ing.
  • the signal extracting portion 37-2 of FIG. 12 is composed of an N+ semiconductor region 71-2, which is an N-type semiconductor region, an N- semiconductor region 72-2 having a lower donor impurity concentration, and a P-type semiconductor region. It has a P+ semiconductor region 73-2 and a P- semiconductor region 74-2 with a lower acceptor impurity concentration.
  • the N ⁇ semiconductor region 72-2 is formed above the N+ semiconductor region 71-2 so as to cover (enclose) the N+ semiconductor region 71-2.
  • the P ⁇ semiconductor region 74-2 is formed above the P+ semiconductor region 73-2 so as to cover (enclose) the P+ semiconductor region 73-2.
  • the N+ semiconductor region 71-2 is formed so as to surround the P+ semiconductor region 73-2 with the P+ semiconductor region 73-2 as the center.
  • the N ⁇ semiconductor region 72-2 formed above the N+ semiconductor region 71-2 is formed so as to surround the P ⁇ semiconductor region 74-2 with the P ⁇ semiconductor region 74-2 as the center. ing.
  • the signal extraction section 37-1 and the signal extraction section 37-2 are also simply referred to as the signal extraction section 65 when there is no particular need to distinguish them.
  • the N+ semiconductor region 71 is also simply referred to as the N ⁇ semiconductor region 72-1 and the N ⁇ semiconductor region 72-2.
  • the N ⁇ semiconductor region 72 is also simply referred to when there is no particular need to distinguish it.
  • the P+ semiconductor region 73 is simply referred to as the P ⁇ semiconductor region 74-1 and the P ⁇ semiconductor region 74-2.
  • the P- semiconductor region 74 is also simply referred to when there is no particular need to distinguish it.
  • a fixed charge film 75 consisting of a single-layer film or laminated film having a positive fixed charge is formed at the interface on the light incident surface side of the semiconductor substrate 34 .
  • the fixed charge film 75 suppresses generation of dark current on the incident surface side of the semiconductor substrate 34 .
  • a multilayer wiring layer 91 is formed on the side opposite to the light incident surface side of the semiconductor substrate 34 on which the on-chip lens 35 is formed for each pixel 10 .
  • the semiconductor substrate 34 as a semiconductor layer is arranged between the on-chip lens 35 and the multilayer wiring layer 91 .
  • the multilayer wiring layer 91 is composed of five layers of metal films M1 to M5 and an interlayer insulating film 92 therebetween. 12A, the outermost metal film M5 of the five metal films M1 to M5 of the multilayer wiring layer 91 is not shown because it is not visible, but it is shown in FIG. 12B. ing.
  • the metal film M1 closest to the semiconductor substrate 34 is provided with a predetermined voltage GDA or GDB for applying a predetermined voltage GDA or GDB to the P+ semiconductor region 73-1 or 73-2.
  • the metal film M1 is connected to a part of the N+ semiconductor region 71, which is the charge detection portion, in addition to the voltage application wiring 93 for applying a predetermined voltage GDA or GDB to the P+ semiconductor region 73, which is the voltage application portion.
  • a signal take-out wiring 95 is formed. The signal output wiring 95 transmits charges detected in the N+ semiconductor region 71 to the FD 102 .
  • the signal extraction part 37-2 (second tap B) is connected to the voltage application wiring 93 of the metal film M1, and the voltage application wiring 93 is connected to the metal film M4 through vias. is electrically connected to the wiring 96-2 of .
  • the wiring 96-2 of the metal film M4 is connected via a via to the control line 23B of the metal film M5, and the control line 23B of the metal film M5 is connected to the tap driving section 12.
  • FIG. 12B a predetermined voltage GDB is applied from the tap driving section 12 via the control line 23B of the metal film M5, the wiring 96-2 of the metal film M4, and the voltage applying wiring 93 to the P+ semiconductor region 73- as the voltage applying section. 2.
  • a predetermined voltage GDA is applied from the tap drive unit 12 via the control line 23A of the metal film M5, the wiring 96-1 of the metal film M4, and the voltage application wiring 93 to the signal It is supplied to the P+ semiconductor region 73-1 as the voltage application section of the lead-out section 37-1 (first tap A).
  • the N+ semiconductor region 71 provided on the semiconductor substrate 34 functions as a charge detection unit for detecting the amount of light incident on the pixel 10 from the outside, that is, the amount of signal charge generated by photoelectric conversion by the semiconductor substrate 34. .
  • the N- semiconductor region 72 having a low donor impurity concentration can also be regarded as the charge detection portion.
  • the P+ semiconductor region 73 functions as a voltage application section for injecting a large number of carrier currents into the semiconductor substrate 34, that is, for applying a voltage directly to the semiconductor substrate 34 to generate an electric field in the semiconductor substrate 34.
  • the P ⁇ semiconductor region 74 having a low acceptor impurity concentration can also be regarded as the voltage applying portion.
  • the signal extracting portion 65 has a P+ semiconductor region 73 as a voltage application portion arranged in the center and an N+ semiconductor region 71 as a charge detection portion arranged so as to surround it. .
  • the signal extraction units 37-1 and 37-2 are arranged in the pixel 10 at symmetrical positions with respect to the center of the pixel 10.
  • the planar shapes of the N+ semiconductor region 71 and the P+ semiconductor region 73 are octagonal, but they may be square, rectangular, circular, or other planar shapes.
  • part of the processing for calculating the I signal and the Q signal used for distance measurement is performed within the AD converter 30, so the number of digital signals output from the AD converter 30 is reduced. be able to.
  • the reset level and the pixel signal level of the pixel signals that are 180° out of phase are continuous in order to solve the problem of the large number of readouts in the frame CDS.
  • the counting direction of the counter 32a for generating the digital signal is set to be the same, and the counting operation is continuously performed. Accordingly, each time a digital signal of the reset level or pixel signal level of each phase is generated, the generated digital signal is not output, but a digital signal combining the reset level and the pixel signal level is output. Therefore, it is possible to output from the AD conversion unit 30 a digital signal that is the result of part of the calculation processing for obtaining the I signal and the Q signal inside the AD conversion unit 30. Distance measurement on the side can be performed quickly.
  • FIG. 14 is a block diagram showing a schematic configuration of an electronic device 2 that includes the light receiving device 1 shown in FIGS. 1 to 13 and performs distance measurement by the indirect ToF method.
  • the electronic device 2 of FIG. 14 includes the light emitting section 3, the light receiving device 1 shown in FIGS. 1 to 13, and the distance measuring section 4.
  • the electronic device 2 in FIG. 14 is, for example, a smart phone.
  • the electronic device 2 in FIG. 14 may be a mobile phone, a tablet, a mobile PC (Personal Computer) carried by the user, or a vehicle.
  • the light emitting unit 3 intermittently transmits an irradiation light pulse signal at a predetermined cycle.
  • the light receiving device 1 receives the reflected light.
  • the light receiving device 1 outputs a digital signal by the frame CDS shown in FIG. 8, as described above.
  • the distance measurement unit 4 measures the distance to the object 5 by the indirect ToF method based on the digital signal output from the light receiving device 1 .
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be realized as a device mounted on any type of moving body such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. may
  • FIG. 15 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • a vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • vehicle control system 12000 includes drive system control unit 12010 , body system control unit 12020 , vehicle exterior information detection unit 12030 , vehicle interior information detection unit 12040 , and integrated control unit 12050 .
  • integrated control unit 12050 As the functional configuration of the integrated control unit 12050, a microcomputer 12051, an audio/image output unit 12052, and an in-vehicle network I/F (Interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • the body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle in which the vehicle control system 12000 is installed.
  • the vehicle exterior information detection unit 12030 is connected with an imaging section 12031 .
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.
  • the microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit.
  • a control command can be output to 12010 .
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation of vehicles, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, etc. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation of vehicles, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, etc. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation of vehicles, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, etc. based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, etc., in which vehicles autonomously travel without depending on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12030 based on the information outside the vehicle acquired by the information detection unit 12030 outside the vehicle.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 16 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 has imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose, side mirrors, rear bumper, back door, and windshield of the vehicle 12100, for example.
  • An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 .
  • Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 .
  • An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 .
  • the imaging unit 12105 provided above the windshield in the passenger compartment is mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 16 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of an imaging unit 12104 provided on the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the traveling path of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle runs autonomously without relying on the operation of the driver.
  • automatic brake control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not the pedestrian exists in the captured images of the imaging units 12101 to 12104 .
  • recognition of a pedestrian is performed by, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and performing pattern matching processing on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 12062 . Also, the audio/image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 and the like among the configurations described above.
  • the light receiving device 1 of the present disclosure can be applied to the imaging unit 12031 .
  • this technique can take the following structures.
  • a photoelectric conversion unit two or more floating diffusions for accumulating charges photoelectrically converted by the photoelectric conversion units at different timings, and a charge accumulated in the two or more floating diffusions.
  • a plurality of pixels that output four or more types of pixel signals with different phases; an AD conversion unit that outputs a digital signal corresponding to the reset level of the pixel signal and a digital signal corresponding to the pixel signal level for each phase of the four or more types of pixel signals in frame units.
  • a counter that outputs a count value corresponding to a period until the reset level or pixel signal level of each of the four or more types of pixel signals crosses the reference signal level;
  • the light receiving device according to (1) or (2), wherein the AD converter generates the digital signal according to the count value of the counter.
  • the counter continues counting without resetting the count value of the counter at some switching timings among a plurality of switching timings at which the phases of the four or more types of pixel signals are switched, and at remaining switching timings.
  • the light receiving device according to (3), wherein the count value of the counter is reset at the timing.
  • the partial switching timing is a switching timing for counting count values for pixel signals with phases different by 180°;
  • the partial switching timings are, where X is an arbitrary angle value, the switching timing between the pixel signal level of X° and the reset level of X+180°, and the pixel signal level of X+90° and the reset level of X+270°.
  • the light receiving device according to (5) including the switching timing of.
  • the counter resets the count value and resets a part of the floating diffusions when a first reset signal instructing resetting of all the floating diffusions for all pixels is input.
  • the light receiving device according to any one of (4) to (6), which holds the count value when a second reset signal instructing is input. (8) the second reset signal is input at the partial switching timing; The light receiving device according to (7), wherein the first reset signal is input at the remaining switching timing. (9) The light receiving device according to any one of (3) to (8), wherein the counter switches between counting up and counting down based on an external control signal. (10) When the control signal is the first logic, the counter reverses the count direction when the phase of the input pixel signal is switched, and the control signal is the second logic. In the case of , the light receiving device according to (9), wherein when the phase of the input pixel signal is switched, the counter continues counting without changing the counting direction.
  • the pixel switches between reset levels and pixel signal levels of the pixel signals of the first phase, the second phase, the third phase, and the fourth phase, and sequentially outputs the pixel signals; Based on the control signal, the counter counts a count value corresponding to the reset level of one pixel signal and a count value corresponding to the pixel signal level of the other pixel signal out of two pixel signals having phases different from each other by 180°.
  • the light receiving device according to (9) or (10), which generates a count value by summing the value.
  • the counter outputs a count value corresponding to the reset level of the first phase based on the control signal, and then outputs a count value corresponding to the pixel signal level of the first phase and the second phase.
  • the light receiving device which outputs a count value corresponding to a pixel signal level.
  • the counter changes the direction of counting up or down when adding the count value corresponding to the pixel signal level of the first phase and the count value corresponding to the reset level of the second phase.
  • the first phase and the second phase are different in phase by 180°, the second phase and the third phase are different in phase by 90°, and the third phase and the fourth phase are different.
  • the light receiving device according to any one of (11) to (14), which is 180° out of phase with the .
  • the control signal is applied to the first logic after the counter generates count values corresponding to the reset levels of the pixel signals of the first phase, the second phase, the third phase, and the fourth phase. output the pulse signal of, other than that is the second logic,
  • the counter switches the count direction to count when the control signal is the first logic, and continues counting while maintaining the count direction when the control signal is the second logic.
  • the light receiving device according to any one of items 15 to 15.
  • the light receiving device according to any one of (1) to (16), wherein the pixel has a CAPD (Current Assisted Photonic Demodulator) structure and a gate electrode structure.
  • a light emitting unit that emits an optical signal toward an object;
  • the optical signal has the photoelectric conversion unit that receives reflected light reflected by the object (the light receiving device according to any one of 1 to 17;
  • An electronic device comprising: a distance measuring unit that measures a distance to the object based on the digital signal output from the light receiving device and the optical signal.
  • the distance measurement unit generates an I signal and a Q signal based on the reset levels and the pixel signal levels of the four or more types of pixel signals, and calculates the target based on the ratio of the I signal and the Q signal.
  • the electronic device which measures a distance to an object. (20) outputting four or more types of pixel signals with different phases for each pixel based on the charges accumulated in two or more floating diffusions that accumulate charges photoelectrically converted by the photoelectric conversion unit at different timings; When counting the length of the period until the reset level or pixel signal level of each of the four or more types of pixel signals crosses the reference signal level with a counter, a plurality of switching in which the phases of the four or more types of pixel signals are switched.
  • a method of receiving light comprising continuing counting without resetting the count value of the counter at part of switching timings, and resetting the count value of the counter at remaining switching timings.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

[課題]リセットノイズを除去可能とする。 [解決手段]受光装置は、光電変換部と、前記光電変換部で光電変換された電荷をそれぞれ異なるタイミングで蓄積する2以上のフローティングディフュージョンと、前記2以上のフローティングディフュージョンに蓄積された電荷に基づいて、画素ごとにそれぞれ位相が異なる4種類以上の画素信号を出力する複数の画素と、前記4種類以上の画素信号の位相ごとに、前記画素信号のリセットレベルに応じたデジタル信号と画素信号レベルに応じたデジタル信号とを、フレーム単位で出力するAD変換部と、を備える。

Description

受光装置、電子機器及び受光方法
 本開示は、受光装置、電子機器及び受光方法に関する。
 間接ToF(Time of Flight)方式を利用した測距センサが知られている。間接ToF方式の測距センサでは、発光部から発光された光信号が対象物で反射され、その反射光を受光して光電変換された信号電荷を、例えば高速に駆動される2つのゲート電極によって2つの電荷蓄積領域に振り分け、振り分けた信号電荷の配分比から距離が算出される(特許文献1参照)。
国際公開2007/026777号
 光電変換された電荷が蓄積されるフローティングディフュージョンは、リセットノイズにより電位が変動する。このため、リセットレベルと画素信号レベルとの差分を取ることで、リセットノイズを相殺する相関二重サンプリング(CDS:Correlated Double Sampling)を行うのが一般的である。
 しかしながら、測距センサでは、複数のフローティングディフュージョンに電荷を振り分けた状態から読み出し動作を開始するため、画素信号レベルを検出するD(Data)相の読み出し後に、いったんリセットをかけてからリセットレベルを検出するP(Pre-charge)相の読み出しを行うことになる。
 D相の電位は、P相の一つ前のリセットレベルに依存している。すなわち、D相とP相では、リセットレベルが必ずしも同じではない。このため、D相の信号レベルとP相の信号レベルの差分を検出しても、リセットノイズを完全には除去できない。
 このように、従来の間接ToF方式の測距センサでは、リセットノイズを除去できないおそれがある。
 そこで、本開示では、リセットノイズを除去可能な受光装置、電子機器及び受光方法を提供するものである。
 上記の課題を解決するために、本開示によれば、光電変換部と、前記光電変換部で光電変換された電荷をそれぞれ異なるタイミングで蓄積する2以上のフローティングディフュージョンと、前記2以上のフローティングディフュージョンに蓄積された電荷に基づいて、画素ごとにそれぞれ位相が異なる4種類以上の画素信号を出力する複数の画素と、
 前記4種類以上の画素信号の位相ごとに、前記画素信号のリセットレベルに応じたデジタル信号と画素信号レベルに応じたデジタル信号とを、フレーム単位で出力するAD変換部と、を備える、受光装置が提供される。
 前記AD変換部は、一部の互いに異なる位相のリセットレベルと画素信号レベルとを合成した前記デジタル信号を出力してもよい。
 前記4種類以上の画素信号のそれぞれのリセットレベル又は画素信号レベルが参照信号レベルと交差するまでの期間に応じたカウント値を出力するカウンタを備え、
 前記AD変換部は、前記カウンタのカウント値に応じた前記デジタル信号を生成してもよい。
 前記カウンタは、前記4種類以上の画素信号の位相が切り替わる複数の切替タイミングのうち、一部の切替タイミングでは、前記カウンタのカウント値をリセットせずにカウントを継続し、残りの切替タイミングでは、前記カウンタのカウント値をリセットしてもよい。
 前記一部の切替タイミングは、180°異なる位相の画素信号についてのカウント値をカウントする切替タイミングであり、
 前記残りの切替タイミングは、90°異なる位相の画素信号についてのカウント値をカウントする切替タイミングであってもよい。
 前記一部の切替タイミングは、Xを任意の角度値として、X°の画素信号レベルとX+180°のリセットレベルとの切替タイミング、及びX+90°の画素信号レベルとX+270°のリセットレベルとの切替タイミングを含んでもよい。
 前記カウンタは、全画素についてのすべての前記フローティングディフュージョンをリセットすることを指示する第1リセット信号が入力された場合にはカウント値をリセットし、一部の前記フローティングディフュージョンをリセットすることを指示する第2リセット信号が入力された場合には、カウント値を保持してもよい。
 前記第2リセット信号は、前記一部の切替タイミングに入力され、
 前記第1リセット信号は、前記残りの切替タイミングに入力されてもよい。
 前記カウンタは、外部からの制御信号に基づいて、カウントアップするか、又はカウントダウンするかを切り替えてもよい。
 前記カウンタは、前記制御信号が第1論理のときには、入力される前記画素信号の位相が切り替わったときに前記カウンタのカウント方向を逆にしてカウントを行い、前記制御信号が第2論理のときには、入力される前記画素信号の位相が切り替わったときに前記カウンタのカウント方向を変化させずにカウントを継続してもよい。
 前記画素は、第1位相、第2位相、第3位相及び第4位相の前記画素信号のリセットレベルと画素信号レベルとを切り替えて順に出力し、
 前記カウンタは、前記制御信号に基づいて、互いに180°位相が異なる2つの画素信号のうち、一方の画素信号のリセットレベルに応じたカウント値と、他方の画素信号の画素信号レベルに応じたカウント値とを合算したカウント値を生成してもよい。
 前記カウンタは、前記制御信号に基づいて、前記第1位相のリセットレベルに応じたカウント値を出力し、次に前記第1位相の画素信号レベルに応じたカウント値と前記第2位相のリセットレベルに応じたカウント値とを合算したカウント値を出力し、次に前記第2位相の画素信号レベルに応じたカウント値を出力し、次に前記第3位相のリセットレベルに応じたカウント値を出力し、次に前記第3位相の画素信号レベルに応じたカウント値と前記第4位相のリセットレベルに応じたカウント値とを合算したカウント値を出力し、次に前記第4位相の画素信号レベルに応じたカウント値を出力してもよい。
 前記カウンタは、前記第1位相の画素信号レベルに応じたカウント値と前記第2位相のリセットレベルに応じたカウント値とを合算する際には、カウントアップ又はカウントダウンの方向を変化させず、前記第3位相の画素信号レベルに応じたカウント値と前記第4位相のリセットレベルに応じたカウント値とを合算する際には、カウントアップ又はカウントダウンの方向を変化させなくてもよい。
 前記カウンタは、前記第1位相のリセットレベルが前記参照信号レベルと交差するまでの期間についてのカウントを開始する前と、前記第3位相のリセットレベルが前記参照信号レベルと交差するまでの期間についてのカウントを開始する前とにカウント値をリセットし、前記第1位相の画素信号レベルと、前記第2位相のリセットレベル及び画素信号レベルと、前記第3位相の画素信号レベルとが前記参照信号レベルと交差するまでの各期間についてのカウントを開始する前にはカウント値をリセットせずにカウントを継続してもよい。
 前記第1位相と前記第2位相とは180°位相が異なっており、前記第2位相と前記第3位相とは90°位相が異なっており、前記第3位相と前記第4位相とは180°位相が異なっていてもよい。
 前記制御信号は、前記カウンタが前記第1位相、前記第2位相、前記第3位相、及び前記第4位相の画素信号のリセットレベルに応じたカウント値を生成した後に、第1論理のパルス信号を出力し、それ以外は第2論理であり、
 前記カウンタは、前記制御信号が前記第1論理の場合には、カウント方向を切り替えてカウントし、前記制御信号が前記第2論理の場合には、カウント方向を維持したままカウントを継続してもよい。
 前記画素は、CAPD(Current Assisted Photonic Demodulator)構造、ゲート電極構造の画素であってもよい。
 本開示によれば、対象物に向けて光信号を照射する発光部と、
 前記光信号が前記対象物で反射された反射光を受光する前記光電変換部を有する、上述した受光装置と、
 前記受光装置から出力された前記デジタル信号と、前記光信号とに基づいて、前記対象物までの距離を計測する距離計測部と、を備える、電子機器が提供される。
 前記距離計測部は、前記4種類以上の画素信号のリセットレベル及び画素信号レベルに基づいてI信号及びQ信号を生成して、前記I信号及び前記Q信号の割合に基づいて前記対象物までの距離を計測してもよい。
 本開示によれば、光電変換部で光電変換された電荷をそれぞれ異なるタイミングで蓄積する2以上のフローティングディフュージョンに蓄積された電荷に基づいて、画素ごとにそれぞれ位相が異なる4種類以上の画素信号を出力し、
 前記4種類以上の画素信号のそれぞれのリセットレベル又は画素信号レベルが参照信号レベルと交差するまでの期間の長さをカウンタでカウントする際、前記4種類以上の画素信号の位相が切り替わる複数の切替タイミングのうち、一部の切替タイミングでは、前記カウンタのカウント値をリセットせずにカウントを継続し、残りの切替タイミングでは、前記カウンタのカウント値をリセットする、受光方法が提供される。
本技術を適用した受光装置の概略構成例を示すブロック図。 画素アレイ部に配置される画素の第1構成例を示す断面図。 画素アレイ部に2次元配置された画素の回路構成を示す図。 図3に示した画素の配置例を示した平面図。 画素から出力されるそれぞれ位相の異なる4種類の画素信号の信号波形図。 4Tap-4Phase方式のタイミング図。 Donlyの読出し方式を説明する図。 DDSの読出し方式を説明する図。 フレームCDSの読出し方式を説明する図。 本実施形態に係る読み出しシーケンスを示す図。 本実施形態に係るフレームCDSで読み出す情報を示す図。 図9を一般化した図。 図8に示す読出しシーケンスの詳細なタイミング図。 画素アレイ部に設けられた1つの画素の断面図。 画素の平面図。 図1~図13に示した受光装置を備えて間接ToF方式による距離計測を行う電子機器2の概略構成を示すブロック図。 車両制御システムの概略的な構成の一例を示すブロック図。 車外情報検出部及び撮像部の設置位置の一例を示す説明図。
 以下、図面を参照して、受光装置、電子機器及び受光方法の実施形態について説明する。以下では、受光装置、電子機器及び受光方法の主要な構成部分を中心に説明するが、受光装置、電子機器及び受光方法には、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
<受光装置の構成例>
 図1は本技術を適用した受光装置1の概略構成例を示すブロック図である。なお、受光装置1は撮像装置と呼ぶこともできる。
 図1に示される受光装置1は、間接ToF方式による測距情報を出力する素子である。
 受光装置1は、所定の光源から照射された光(照射光)が物体にあたって反射されてきた光(反射光)を受光し、物体までの距離情報をデプス値として格納したデプス画像を出力する。なお、光源から照射される照射光は、例えば、波長が780nm乃至1000nmの範囲の赤外光であり、オンオフが所定の周期で繰り返されるパルス光である。
 受光装置1は、半導体基板上に形成された画素アレイ部21と、画素アレイ部21と同じ半導体基板上に集積された周辺回路部とを有する。周辺回路部は、例えば垂直駆動部22、カラム処理部23、水平駆動部24、システム制御部25、参照信号生成部18、及びタップ駆動部12等を有する。
 受光装置1には、さらに信号処理部26およびデータ格納部27が設けられている。信号処理部26およびデータ格納部27は、受光装置1と同じ基板上に搭載してもよいし、受光装置1とは別のモジュール内の基板上に配置してもよい。
 画素アレイ部21は、受光した光量に応じた電荷を生成し、その電荷に応じた信号を出力する画素10が行方向および列方向の行列状に2次元配置された構成となっている。すなわち、画素アレイ部21は、入射した光を光電変換し、その結果得られた電荷に応じた信号を出力する画素10を複数有する。画素10の詳細については、図2以降で後述する。
 ここで、行方向とは、水平方向の画素10の配列方向をいい、列方向とは、垂直方向の画素10の配列方向をいう。行方向は、図中、横方向であり、列方向は図中、縦方向である。
 タップ駆動部12は、画素内のフォトダイオードで光電変換された電荷を複数のフローティングディフュージョンに振り分ける制御を行う。タップ駆動部12は、電荷の振り分けを制御する制御信号GDA、GDBを出力する。この制御信号GDA、GDBは、各画素に供給される。
 画素アレイ部21においては、行列状の画素配列に対して、画素行ごとに画素駆動線28が行方向に沿って配線されるとともに、画素列ごとに垂直信号線29が列方向に沿って配線されている。例えば画素駆動線28は、画素10から信号を読み出す際の駆動を行うための駆動信号を伝送する。画素駆動線28は、各画素行に供給される複数種類の駆動線を含んでいてもよい。
 垂直駆動部22は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部21の各画素10を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動部22は、垂直駆動部22を制御するシステム制御部25とともに、画素アレイ部21の各画素10の動作を制御する駆動部を構成している。
 垂直駆動部22による駆動制御に応じて画素行の各画素10から出力される検出信号である画素信号は、垂直信号線29を通してカラム処理部23に入力される。カラム処理部23は、各画素10から垂直信号線29を通して出力される画素信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。具体的には、カラム処理部23は、AD変換部30を有する。
 AD変換部30は、比較回路部31とカウンタ部32とを有する。比較回路部31は、複数の比較回路31aを有する。各比較回路31aには、対応する垂直信号線29が接続されている。比較回路31aは、参照信号生成部18から供給される参照信号RAMPと、画素PXの検出信号である画素信号VSLとを比較する。画素信号VSLの信号レベルは、画素信号のリセットレベル又は画素信号レベルである。比較回路31aは、参照信号RAMPの信号レベル(以下、参照信号レベルと呼ぶ)がリセットレベル又は画素信号レベルと交差したか否かを検出する。
 カウンタ部32は、比較回路31aの比較結果に基づいてカウントを行う複数のカウンタ(CNT)32aを有する。比較回路部31とカウンタ部32は、ADC(Analog-Digital Converter)を構成する。
 参照信号生成部18は、画素PXからの画素信号VSLと比較するための参照信号RAMPを生成し、比較回路部31の比較回路31aに供給する。参照信号RAMPは、時間経過に応じてレベル(電圧)が階段状又は線形に変化する信号である。
 水平駆動部24は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理部23の画素列に対応する単位回路を順番に選択する。この水平駆動部24による選択走査により、カラム処理部23において単位回路ごとに信号処理された画素信号が順番に出力される。
 システム制御部25は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、そのタイミングジェネレータで生成された各種のタイミング信号を基に、垂直駆動部22、カラム処理部23、および水平駆動部24などの駆動制御を行う。
 システム制御部25は、後述するようにCN反転パルス信号(制御信号)PSを出力する。CN反転パルス信号PSは、AD変換部30内のカウンタ32aのカウント方向を切り替えることを指示する信号である。例えば、カウンタ32aがカウントアップ方向にカウント動作を行っていた場合には、CN反転パルス信号PSが第1論理(例えばハイレベル)になると、カウンタ32aはカウントダウン方向にカウント動作を切り替える。また、カウンタ32aがカウントダウン方向にカウント動作を行っていた場合には、CN反転パルス信号PSが第1論理になると、カウンタ32aはカウントアップ方向にカウント動作を切り替える。
 このように、カウンタ32aは、CN反転パルス信号PSに基づいて、カウントアップするか、又はカウントダウンするかを切り替える。カウンタ32aは、CN反転パルス信号PSが第1論理(例えばハイレベル)のときには、入力される画素信号の位相が切り替わったときにカウンタ32aのカウント方向を逆にしてカウントを行い、CN反転パルス信号PSが第2論理のときには、入力される画素信号の位相が切り替わったときにカウンタ32aのカウント方向を変化させずにカウントを継続する。
 例えば、画素は、第1位相、第2位相、第3位相及び第4位相の画素信号のリセットレベルと画素信号レベルとを切り替えて順に出力する。カウンタ32aは、CN反転パルス信号PSに基づいて、互いに180°位相が異なる2つの画素信号のうち、一方の画素信号のリセットレベルに応じたカウント値と、他方の画素信号の画素信号レベルに応じたカウント値とを合算したカウント値を生成する。第1位相は例えば0°、第2位相は例えば180°、第3位相は例えば90°、第4位相は例えば270°である。
 より具体的には、カウンタ32aは、CN反転パルス信号PSに基づいて、第1位相のリセットレベルに応じたカウント値を出力し、次に第1位相の画素信号レベルに応じたカウント値と第2位相のリセットレベルに応じたカウント値とを合算したカウント値を出力し、次に第2位相の画素信号レベルに応じたカウント値を出力し、次に第3位相のリセットレベルに応じたカウント値を出力し、次に第3位相の画素信号レベルに応じたカウント値と第4位相のリセットレベルに応じたカウント値とを合算したカウント値を出力し、次に第4位相の画素信号レベルに応じたカウント値を出力する。
 より詳細には、カウンタ32aは、第1位相の画素信号レベルに応じたカウント値と第2位相のリセットレベルに応じたカウント値とを合算する際には、カウントアップ又はカウントダウンの方向を変化させず、第3位相の画素信号レベルに応じたカウント値と第4位相のリセットレベルに応じたカウント値とを合算する際には、カウントアップ又はカウントダウンの方向を変化させない。
 また、カウンタ32aは、第1位相のリセットレベルが参照信号レベルと交差するまでの期間についてのカウントを開始する前と、第3位相のリセットレベルが参照信号レベルと交差するまでの期間についてのカウントを開始する前とにカウント値をリセットし、第1位相の画素信号レベルと、第2位相のリセットレベル及び画素信号レベルと、第3位相の画素信号レベルとが参照信号レベルと交差するまでの各期間についてのカウントを開始する前にはカウント値をリセットせずにカウントを継続する。
 第1位相と第2位相とは180°位相が異なっており、第2位相と第3位相とは90°位相が異なっており、第3位相と第4位相とは180°位相が異なっている。
 信号処理部26は、少なくとも演算処理機能を有し、カラム処理部23から出力される画素信号に基づいて演算処理等の種々の信号処理を行う。データ格納部27は、信号処理部26での信号処理にあたって、その処理に必要なデータを一時的に格納する。
 以上のように構成される受光装置1は、物体までの距離情報をデプス値として画素値に含めたデプス画像を出力する。受光装置1は、例えば、車両に搭載され、車外にある対象物までの距離を測定する車載用のシステムや、ユーザの手等の対象物までの距離を測定し、その測定結果に基づいてユーザのジェスチャを認識するジェスチャ認識用の装置などに搭載することができる。
 なお、デプス値は、受光装置の外部のアプリケーションプロセッサ(AP)等で検出してもよい。この場合、受光装置は、カラム処理部23から出力された画素信号をAP等に出力する。
<画素の第1構成例に係る断面図>
 図2は画素アレイ部21に配置される画素10の第1構成例を示す断面図である。
 受光装置1は、半導体基板41と、その表面側(図中下側)に形成された多層配線層42とを備える。
 半導体基板41は、例えばシリコン(Si)で構成され、例えば1乃至6μmの厚みを有して形成されている。半導体基板41では、例えば、P型(第1導電型)の半導体領域51に、N型(第2導電型)の半導体領域52が画素単位に形成されることにより、フォトダイオードPDが画素単位に形成されている。半導体基板41の表裏両面に設けられているP型の半導体領域51は、暗電流抑制のための正孔電荷蓄積領域を兼ねている。
 図2において上側となる半導体基板41の上面が、半導体基板41の裏面であり、光が入射される光入射面となる。半導体基板41の裏面側上面には、反射防止膜43が形成されている。
 反射防止膜43は、例えば、例えば、固定電荷膜および酸化膜が積層された積層構造とされ、例えば、ALD(Atomic Layer Deposition)法による高誘電率(High-k)の絶縁薄膜を用いることができる。具体的には、酸化ハフニウム(HfO2)や、酸化アルミニウム(Al23)、酸化チタン(TiO2)、STO(Strontium Titan Oxide)などを用いることができる。図2の例では、反射防止膜43は、酸化ハフニウム膜53、酸化アルミニウム膜54、および酸化シリコン膜55が積層されて構成されている。
 反射防止膜43の上面であって、半導体基板41の隣接する画素10の境界部44(以下、画素境界部44とも称する。)には、入射光の隣接画素への入射を防止する画素間遮光膜45が形成されている。画素間遮光膜45の材料は、光を遮光する材料であればよく、例えば、タングステン(W)、アルミニウム(Al)又は銅(Cu)などの金属材料を用いることができる。
 反射防止膜43の上面と、画素間遮光膜45の上面には、平坦化膜46が、例えば、酸化シリコン(SiO2)、窒化シリコン(SiN)、酸窒化シリコン(SiON)等の絶縁膜、または、樹脂などの有機材料により形成されている。
 そして、平坦化膜46の上面には、オンチップレンズ47が画素ごとに形成されている。オンチップレンズ47は、例えば、スチレン系樹脂、アクリル系樹脂、スチレン-アクリル共重合系樹脂、またはシロキサン系樹脂等の樹脂系材料で形成される。オンチップレンズ47によって集光された光は、フォトダイオードPDに効率良く入射される。
 また、半導体基板41の裏面側の画素境界部44には、半導体基板41の裏面側(オンチップレンズ47側)から基板深さ方向に所定の深さまで、半導体基板41の深さ方向に隣接画素同士を分離する画素間分離部61が形成されている。画素間分離部61の底面および側壁を含む外周部は、反射防止膜43の一部である酸化ハフニウム膜53で覆われている。画素間分離部61は、入射光が隣の画素10へ突き抜けることを防止し、自画素内に閉じ込めるとともに、隣接する画素10からの入射光の漏れ込みを防止する。
 図2の例では、反射防止膜43の最上層の材料である酸化シリコン膜55を、裏面側から掘り込んだトレンチ(溝)に埋め込むことにより酸化シリコン膜55と画素間分離部61を同時形成するため、反射防止膜43としての積層膜の一部である酸化シリコン膜55と、画素間分離部61とが同一の材料で構成されているが、必ずしも同一である必要はない。画素間分離部61として裏面側から掘り込んだトレンチ(溝)に埋め込む材料は、例えば、タングステン(W)、アルミニウム(Al)、チタン(Ti)、窒化チタン(TiN)等の金属材料でもよい。
 一方、多層配線層42が形成された半導体基板41の表面側には、各画素10に形成された1つのフォトダイオードPDに対して、2つの転送トランジスタTRG1およびTRG2が形成されている。また、半導体基板41の表面側には、フォトダイオードPDから転送された電荷を一時保持する電荷蓄積部としてのフローティングディフュージョンFD1およびFD2が、高濃度のN型半導体領域(N型拡散領域)により形成されている。
 多層配線層42は、複数の金属膜Mと、その間の層間絶縁膜62とで構成される。図2では、第1金属膜M1乃至第3金属膜M3の3層で構成される例が示されている。
 多層配線層42の複数の金属膜Mのうち、半導体基板41に最も近い第1金属膜M1の、フォトダイオードPDの形成領域の下方に位置する領域、換言すれば、平面視において、フォトダイオードPDの形成領域と少なくとも一部が重なる領域には、銅やアルミニウムなどのメタル(金属)配線が遮光部材63として形成されている。
 遮光部材63は、オンチップレンズ47を介して光入射面から半導体基板41内に入射し、半導体基板41内で光電変換されずに半導体基板41を透過してしまった赤外光を、半導体基板41に最も近い第1金属膜M1で遮光し、それより下方の第2金属膜M2や第3金属膜M3へ透過させないようにする。この遮光機能により、半導体基板41内で光電変換されずに半導体基板41を透過してしまった赤外光が、第1金属膜M1より下の金属膜Mで散乱し、近傍画素へ入射してしまうことを抑制できる。これにより、近傍画素で誤って光を検知してしまうことを防ぐことができる。
 また、遮光部材63は、オンチップレンズ47を介して光入射面から半導体基板41内に入射し、半導体基板41内で光電変換されずに半導体基板41を透過してしまった赤外光を、遮光部材63で反射させて半導体基板41内へと再度入射させる機能も有する。したがって、遮光部材63は、反射部材でもあるとも言える。この反射機能により、半導体基板41内で光電変換される赤外光の量をより多くし、量子効率(QE)、つまり赤外光に対する画素10の感度を向上させることができる。
 なお、遮光部材63は、金属材料の他、ポリシリコンや酸化膜などで反射または遮光する構造を形成してもよい。
 また、遮光部材63は、1層の金属膜Mで構成せずに、例えば第1金属膜M1と第2金属膜M2とで格子状に形成するなどして、複数の金属膜Mで構成してもよい。
 多層配線層42の複数の金属膜Mのうち、所定の金属膜Mである、例えば、第2金属膜M2には、例えば、櫛歯形状にパターン形成することにより、配線容量64が形成されている。遮光部材63と配線容量64とは同じ層(金属膜M)に形成してもよいが、異なる層に形成する場合には、配線容量64が、遮光部材63よりも半導体基板41から遠い層に形成される。換言すれば、遮光部材63が、配線容量64よりも半導体基板41の近くに形成される。
 以上のように、受光装置1は、オンチップレンズ47と多層配線層42との間に半導体層である半導体基板41を配置し、オンチップレンズ47が形成された裏面側から入射光をフォトダイオードPDに入射させる裏面照射型の構造を有する。
 また、画素10は、各画素に設けられたフォトダイオードPDに対して、2つの転送トランジスタTRG1およびTRG2を備え、フォトダイオードPDで光電変換されて生成された電荷(電子)を、フローティングディフュージョンFD1またはFD2に振り分け可能に構成されている。
 さらに、第1構成例に係る画素10は、画素境界部44に画素間分離部61を形成することにより、入射光が隣の画素10へ突き抜けることを防止し、自画素内に閉じ込めるとともに、隣接する画素10からの入射光の漏れ込みを防止する。そして、フォトダイオードPDの形成領域の下方の金属膜Mに遮光部材63を設けることにより、半導体基板41内で光電変換されずに半導体基板41を透過してしまった赤外光を、遮光部材63で反射させて半導体基板41内へと再度入射させる。
 以上の構成により、半導体基板41内で光電変換される赤外光の量をより多くし、量子効率QE、つまり赤外光に対する画素10の感度を向上させることができる。
<画素の回路構成例>
 図3は画素アレイ部21に2次元配置された画素10の回路構成を示している。
 画素10は、光電変換素子としてフォトダイオードPDを備える。また、画素10は、転送トランジスタTRG、フローティングディフュージョンFD、付加容量FDL、切替トランジスタFDG、増幅トランジスタAMP、リセットトランジスタRST、及び、選択トランジスタSELをそれぞれ2個ずつ有する。さらに、画素10は、電荷排出トランジスタOFGを有している。
 ここで、画素10において2個ずつ設けられる転送トランジスタTRG、フローティングディフュージョンFD、付加容量FDL、切替トランジスタFDG、増幅トランジスタAMP、リセットトランジスタRST、及び、選択トランジスタSELのそれぞれを区別する場合、図3に示されるように、転送トランジスタTRG1およびTRG2、フローティングディフュージョンFD1およびFD2、付加容量FDL1およびFDL2、切替トランジスタFDG1およびFDG2、増幅トランジスタAMP1およびAMP2、リセットトランジスタRST1およびRST2、並びに、選択トランジスタSEL1およびSEL2のように称する。
 転送トランジスタTRG、切替トランジスタFDG、増幅トランジスタAMP、選択トランジスタSEL、リセットトランジスタRST、及び、電荷排出トランジスタOFGは、例えば、N型のMOSトランジスタで構成される。
 転送トランジスタTRG1は、ゲート電極に供給される転送駆動信号GDAがアクティブ状態になるとこれに応答して導通状態になることで、フォトダイオードPDに蓄積されている電荷をフローティングディフュージョンFD1に転送する。転送トランジスタTRG2は、ゲート電極に供給される転送駆動信号GDBがアクティブ状態になるとこれに応答して導通状態になることで、フォトダイオードPDに蓄積されている電荷をフローティングディフュージョンFD2に転送する。
 フローティングディフュージョンFD1およびFD2は、フォトダイオードPDから転送された電荷を一時保持する電荷蓄積部である。
 切替トランジスタFDG1は、ゲート電極に供給されるFD駆動信号FDG1gがアクティブ状態になるとこれに応答して導通状態になることで、付加容量FDL1を、フローティングディフュージョンFD1に接続させる。切替トランジスタFDG2は、ゲート電極に供給されるFD駆動信号FDG2gがアクティブ状態になるとこれに応答して導通状態になることで、付加容量FDL2を、フローティングディフュージョンFD2に接続させる。付加容量FDL1およびFDL2は、図2の配線容量64によって形成されている。
 リセットトランジスタRST1は、ゲート電極に供給されるリセット駆動信号RSTgがアクティブ状態になるとこれに応答して導通状態になることで、フローティングディフュージョンFD1の電位をリセットする。リセットトランジスタRST2は、ゲート電極に供給されるリセット駆動信号RSTgがアクティブ状態になるとこれに応答して導通状態になることで、フローティングディフュージョンFD2の電位をリセットする。なお、リセットトランジスタRST1およびRST2がアクティブ状態とされるとき、切替トランジスタFDG1およびFDG2も同時にアクティブ状態とされ、付加容量FDL1およびFDL2もリセットされる。
 垂直駆動部22は、例えば、入射光の光量が多い高照度のとき、切替トランジスタFDG1およびFDG2をアクティブ状態として、フローティングディフュージョンFD1と付加容量FDL1を接続するとともに、フローティングディフュージョンFD2と付加容量FDL2を接続する。これにより、高照度時に、より多くの電荷を蓄積することができる。
 一方、入射光の光量が少ない低照度のときには、垂直駆動部22は、切替トランジスタFDG1およびFDG2を非アクティブ状態として、付加容量FDL1およびFDL2を、それぞれ、フローティングディフュージョンFD1およびFD2から切り離す。これにより、変換効率を上げることができる。
 電荷排出トランジスタOFGは、ゲート電極に供給される排出駆動信号OFG1gがアクティブ状態になるとこれに応答して導通状態になることで、フォトダイオードPDに蓄積された電荷を排出する。
 増幅トランジスタAMP1は、ソース電極が選択トランジスタSEL1を介して垂直信号線29Aに接続されることにより、不図示の定電流源と接続し、ソースフォロワ回路を構成する。増幅トランジスタAMP2は、ソース電極が選択トランジスタSEL2を介して垂直信号線29Bに接続されることにより、不図示の定電流源と接続し、ソースフォロワ回路を構成する。
 選択トランジスタSEL1は、増幅トランジスタAMP1のソース電極と垂直信号線29Aとの間に接続されている。選択トランジスタSEL1は、ゲート電極に供給される選択信号SEL1gがアクティブ状態になるとこれに応答して導通状態となり、増幅トランジスタAMP1から出力される画素信号VSL1を垂直信号線29Aに出力する。
 選択トランジスタSEL2は、増幅トランジスタAMP2のソース電極と垂直信号線29Bとの間に接続されている。選択トランジスタSEL2は、ゲート電極に供給される選択信号SEL2gがアクティブ状態になるとこれに応答して導通状態となり、増幅トランジスタAMP2から出力される画素信号VSL2を垂直信号線29Bに出力する。
 画素10の転送トランジスタTRG1およびTRG2、切替トランジスタFDG1およびFDG2、増幅トランジスタAMP1およびAMP2、選択トランジスタSEL1およびSEL2、並びに、電荷排出トランジスタOFGは、垂直駆動部22によって制御される。
 図2の画素において、付加容量FDL1およびFDL2と、その接続を制御する、切替トランジスタFDG1およびFDG2は省略してもよいが、付加容量FDLを設け、入射光量に応じて使い分けることにより、高ダイナミックレンジを確保することができる。
 画素10の動作について簡単に説明する。
 まず、受光を開始する前に、画素10の電荷をリセットするリセット動作が全画素で行われる。すなわち、電荷排出トランジスタOFGと、リセットトランジスタRST1およびRST2、並びに、切替トランジスタFDG1およびFDG2がオンされ、フォトダイオードPD、フローティングディフュージョンFD1およびFD2、並びに、付加容量FDL1およびFDL2の蓄積電荷が排出される。
 蓄積電荷の排出後、全画素で受光が開始される。
 受光期間では、転送トランジスタTRG1とTRG2とが交互に駆動される。すなわち、第1の期間において、転送トランジスタTRG1がオン、転送トランジスタTRG2がオフに制御される。この第1の期間では、フォトダイオードPDで発生した電荷が、フローティングディフュージョンFD1に転送される。第1の期間の次の第2の期間では、転送トランジスタTRG1がオフ、転送トランジスタTRG2がオンに制御される。この第2の期間では、フォトダイオードPDで発生した電荷が、フローティングディフュージョンFD2に転送される。これにより、フォトダイオードPDで発生した電荷が、フローティングディフュージョンFD1とFD2とに振り分けられて、蓄積される。
 ここで、光電変換で得られた電荷(電子)の読み出しが行われる方の転送トランジスタTRGおよびフローティングディフュージョンFDをアクティブタップ(active tap)とも称することとする。逆に、光電変換で得られた電荷の読み出しが行われない方の転送トランジスタTRGおよびフローティングディフュージョンFDをイナクティブタップ(inactive tap)とも称することとする。
 そして、受光期間が終了すると、画素アレイ部21の各画素10が、線順次に選択される。選択された画素10では、選択トランジスタSEL1およびSEL2がオンされる。これにより、フローティングディフュージョンFD1に蓄積された電荷が、画素信号VSL1として、垂直信号線29Aを介してカラム処理部23に出力される。フローティングディフュージョンFD2に蓄積された電荷は、画素信号VSL2として、垂直信号線29Bを介してカラム処理部23に出力される。
 以上で1回の受光動作が終了し、リセット動作から始まる次の受光動作が実行される。
 画素10が受光する反射光は、光源が照射したタイミングから、対象物までの距離に応じて遅延されている。対象物までの距離に応じた遅延時間によって、2つのフローティングディフュージョンFD1とFD2に蓄積される電荷の配分比が変化するため、2つのフローティングディフュージョンFD1とFD2に蓄積される電荷の配分比から、物体までの距離を求めることができる。
<画素の平面図>
 図4は図3に示した画素の配置例を示した平面図である。
 図4における横方向は、図1の行方向(水平方向)に対応し、縦方向は図1の列方向(垂直方向)に対応する。
 図4に示されるように、矩形の画素10の中央部の領域に、フォトダイオードPDがN型の半導体領域52で形成されている。
 フォトダイオードPDの外側であって、矩形の画素10の四辺の所定の一辺に沿って、転送トランジスタTRG1、切替トランジスタFDG1、リセットトランジスタRST1、増幅トランジスタAMP1、及び、選択トランジスタSEL1が直線的に並んで配置され、矩形の画素10の四辺の他の一辺に沿って、転送トランジスタTRG2、切替トランジスタFDG2、リセットトランジスタRST2、増幅トランジスタAMP2、及び、選択トランジスタSEL2が直線的に並んで配置されている。
 さらに、転送トランジスタTRG、切替トランジスタFDG、リセットトランジスタRST、増幅トランジスタAMP、及び、選択トランジスタSELが形成されている画素10の二辺とは別の辺に、電荷排出トランジスタOFGが配置されている。
 なお、図3に示した画素の配置は、この例に限られず、その他の配置としてもよい。
<フレームCDSの概要説明>
 本実施形態に係る受光装置1は、間接ToF方式による測距を行う目的で、それぞれ位相が異なる4種類以上の画素信号を各画素10から出力する。そして、受光装置1内のAD変換部30は、各位相ごとに、画素信号のリセットレベルに応じたデジタル信号と画素信号レベルに応じたデジタル信号とをフレーム単位で出力する。リセットレベルに応じたデジタル信号と画素信号レベルに応じたデジタル信号との差分を取ることで、リセットノイズを相殺するCDS動作をフレーム単位で行うことができる。このようなCDS動作を本明細書では、フレームCDSと呼ぶ。
 フレームCDSでは、まずフローティングディフュージョンをリセットした状態で、フレーム単位で第1位相の画素信号のリセットレベルが参照信号レベルと交差するまでの期間に応じたデジタル信号を生成し、次に、第1位相の画素信号の画素信号レベルが参照信号レベルと交差するまでの期間に応じたデジタル信号を生成し、これらデジタル信号同士の差分を取ることで、リセットノイズを相殺する。以上の動作を、各位相ごとに繰り返す。間接ToF方式では、フレームCDSを行って得られた4つの位相に対応する4種類のデジタル信号に基づいて、距離計測を行う。
<受光タイミング>
 図5は画素10から出力されるそれぞれ位相の異なる4種類の画素信号の信号波形図である。図5の信号波形図は、1画素10内に2つのタップA、Bが設けられている例を示している。タップA、Bは、図3に示すフローティングディフュージョンFD1、FD2に対応する。図5には、不図示の発光部が対象物に向けて発光する照射光のタイミングと、受光装置1で受光される対象物からの反射光のタイミングと、タップA、Bの電荷蓄積タイミングとが図示されている。
 図5には、タップA、Bがそれぞれ異なる4つの位相0°、90°、180°、270°で電荷を蓄積する例を示している。1フレーム目では、照射光のタイミング波形に対して位相0°のタイミング波形に基づいて、タップA、Bの電荷蓄積タイミングが決定される。より具体的には、タップAは、反射光の受光タイミングから照射光の照射終了タイミングまでの間に受光された電荷を蓄積する。タップBは、照射光の照射終了タイミングから反射光の受光終了タイミングまでの間に受光された電荷を蓄積する。
 2フレーム目では、照射光のタイミング波形に対して位相90°ずれたタイミング波形に基づいて、タップA、Bの電荷蓄積タイミングが決定される。より具体的には、タップAは、照射光タイミング波形の位相を90°ずらしたタイミング波形の立ち上がりタイミングから反射光の受光終了タイミングまでの間に受光された電荷を蓄積する。タップBは、反射光の受光開始タイミングから、照射光タイミング波形の位相を90°ずらしたタイミング波形の立ち上がりタイミングまでの間に受光された電荷を蓄積する。
 3フレーム目では、照射光のタイミング波形に対して位相180°ずれたタイミング波形に基づいて、タップA、Bの電荷蓄積タイミングが決定される。より具体的には、タップAは、照射光の照射終了タイミングから反射光の受光終了タイミングまでの間に受光された電荷を蓄積する。タップBは、反射光の受光開始タイミングから照射光の照射終了タイミングまでの間に受光された電荷を蓄積する。
 4フレーム目では、照射光のタイミング波形に対して位相180°ずれたタイミング波形に基づいて、タップA、Bの電荷蓄積タイミングが決定される。より具体的には、タップAは、反射光の受光開始タイミングから、照射光の照射終了タイミングを270°ずらしたタイミングまでの間に受光された電荷を蓄積する。タップBは、照射光の照射終了タイミングを270°ずらしたタイミングから反射光の受光終了タイミングまでの間に受光された電荷を蓄積する。
 1フレーム目のタップAに蓄積される電荷A0は式(1)で表され、タップBに蓄積される電荷B0は式(2)で表される。KA、KBはゲイン、OA、OBはダークオフセット、ΦGは環境光である。
 A0=KA(Φ0+ΦG)+OA  …(1)
 B0=KB(Φ180+ΦG)+OB  …(2)
 2フレーム目のタップAに蓄積される電荷A90は式(3)で表され、タップBに蓄積される電荷B90は式(4)で表される。
 A90=KA(Φ90+ΦG)+OA  …(3)
 B90=KB(Φ270+ΦG)+OB  …(4)
 3フレーム目のタップAに蓄積される電荷A180は式(5)で表され、タップBに蓄積される電荷B180は式(6)で表される。
 A180=KA(Φ180+ΦG)+OA  …(5)
 B180=KB(Φ0+ΦG)+OB  …(6)
 4フレーム目のタップAに蓄積される電荷A180は式(7)で表され、タップBに蓄積される電荷B180は式(8)で表される。
 A270=KA(Φ270+ΦG)+OA  …(7)
 B270=KB(Φ90+ΦG)+OB  …(8)
 ここで、対象物までの距離を計測するために用いられるIQ平面上のI信号とQ信号はそれぞれ以下の式(9)と(10)で表される。
 I=(A0-B0)-(A180-B180)=(KA+KB)(Φ0-Φ180)  …(9)
 Q=(A90-B90)-(A270-B270)=(KA+KB)(Φ90-Φ270)  …(10)
 よって、IとQの位相ずれ量θは、以下の式(11)で計算される。
Figure JPOXMLDOC01-appb-M000001
 対象物までの距離Dは、式(11)を用いると、式(12)で表される。なお、Tpはパルス幅である。
Figure JPOXMLDOC01-appb-M000002
 このように、4つの位相の画素信号を用いることで、式(11)と式(12)により、対象物までの距離を計測することができる。
 図5は、2つのタップA、Bを用いて4つの位相信号を生成する2Tap-4Phase方式の例を示しているが、本実施形態は、4つのタップを用いて4つの位相信号を生成する4Tap-4Phase方式の受光装置1にも適用可能である。4Tap-4Phase方式の受光装置1は、1つの画素10内に4つのタップを有する。図6は4Tap-4Phase方式のタイミング図である。図6には、照射光のタイミングと、反射光のタイミングと、4つのタップTRT1~TRT4の電荷蓄積タイミングとが図示されている。
 タップTRT1は、反射光の受光開始タイミングから、照射光の照射開始タイミングを90°ずらした位相のタイミングまでの間、電荷を蓄積する。タップTRT2は、照射光の照射終了タイミングから反射光の受光終了タイミングまでの間、電荷を蓄積する。タップTRT3は、照射光の照射開始タイミングを90°ずらした位相のタイミングから照射光の照射終了タイミングまでの間、電荷を蓄積する。タップTRT4は、照射光の照射終了タイミングを90°ずらした位相のタイミングから照射光の照射開始タイミングまでの間、電荷を蓄積する。
 上述したように、本実施形態に係る受光装置1は、画素信号の読出し方式として、改良されたフレームCDSを採用するが、画素信号の読出し方式には、複数の方式がある。図7A、図7B及び図7Cは画素信号の読出し方式を比較した図であり、図7AはD相だけの読出しを行うDonly、図7BはDDS、図7CのフレームCDSの読出し方式を説明する図である
 図7AのDonlyは、D相の読出しだけを行う方式である。Donlyでは、全画素10のフローティングディフュージョンをリセットするグローバルリセット(GRST)を行った後、第1位相(例えば0°)の画素信号レベル(D相)の読出しを行う。以後、同様にして、グローバルリセットを行った後に、各位相のD相の読出しを行う処理を計4回繰り返す。
 図7BのDDSは、第1位相(例えば0°)のD相の読出しを行った後に、フローティングディフュージョンをリセットし、その後にP相の読出しを行う。この処理を4回繰り返す。上述したように、DDSは、D相の読み出し後にフローティングディフュージョンをリセットした後にP相の読み出しを行うため、D相の読出しを行う際のリセットレベルと、その直後のP相の読み出しを行う際のリセットレベルが同じとは限らない。よって、P相とD相の差分を取っても、リセットノイズを完全には相殺できないおそれがある。
 図7CのフレームCDSは、グローバルリセットを行った後に、第1位相(例えば0°)のP相の読み出しを行い、次にD相の読み出しを行う。この一連の動作を4回繰り返す。フレームCDSでは、P相とその直後のD相との差分を取ることで、リセットレベルを相殺できるが、画素10から計8回、画素信号を読み出す必要がある。
 このように、DDSでは、AD変換部30からの読み出し回数は4回であるのに対し、フレームCDSでは、読み出し回数が倍の8回になる。フォトダイオードPDで光電変換された電荷をフローティングディフュージョンに振り分けるインテグレーション時間は数百μsであるのに対し、AD変換部30からの読み出し時間は数msを要する。このため、読み出し回数が増えると、距離計測に要する時間が長くなる。このように、読み出し回数の増加は、フレームレートの律速の課題となる。以下、上述した課題を解決するための具体的な対策について説明する。
 IQ平面上のI信号とQ信号は、それぞれ以下の式(13)と式(14)で表される。
Figure JPOXMLDOC01-appb-M000003
 ここで、式(15)が成り立つとすると、I信号とQ信号はそれぞれ以下の式(16)と式(17)で表される。
Figure JPOXMLDOC01-appb-M000004
 式(16)と式(17)に示すI信号とQ信号の計算は、受光装置1の内部で行ってもよいし、受光装置1に接続されるアプリケーションプロセッサ(AP)等によって行ってもよい。
 本実施形態に係る受光装置1では、式(16)と式(17)の計算の一部を受光装置1内で実行する。これにより、AD変換部30から読み出される画素信号の読み出し回数を削減する。上述したように、通常のフレームCDSだと8回の読み出しが必要であるのに対し、本実施形態によるフレームCDSだと6回の読み出しで済む。
 図8は本実施形態に係る読み出しシーケンスを示す図である。まず、グローバルリセットを行う。グローバルリセットでは、全画素10のすべてのフローティングディフュージョンがリセットされる。次に、図8の(1)に示すように、第1位相(例えば0°)の画素信号のリセットレベル(P相)が読み出される。ここでは、P相信号の信号レベルであるリセットレベルが参照信号レベルと交差するまでの期間に応じたデジタル信号を生成し、このデジタル信号が読み出される。その後のインテグレーション期間では、光信号を物体に照射し、物体からの反射光が図3のフォトダイオードPDで光電変換されて、生じた電荷をタップAとタップBに振り分ける。
 その後、図8の(2)に示すように、フォトダイオードから、第1位相に対応するフローティングディフュージョンに電荷を転送し、D相の読み出しを行う。ここでは、画素信号レベルが参照信号レベルと交差するまでの期間に応じたデジタル信号を生成し、このデジタル信号が読み出される。
 次に、第2位相(例えば180°)に対応するフローティングディフュージョンをリセットする。このリセットは、画素行(水平方向)ごとにフローティングディフュージョンのリセットが行われるため、ローリングリセットと呼ぶ。本明細書では、上述したグローバルリセットを指示する信号を第1リセット信号と呼び、ローリングリセットを指示する信号を第2リセット信号と呼ぶことがある。
 AD変換部30内のカウンタ32aは、第1リセット信号が入力された場合(グローバルリセット時)にはカウント値をリセットし、第2リセット信号が入力された場合(ローリングリセット時)には、カウント値を保持する。
 次に、図8の(3)に示すように、第2位相のリセットレベル(P相)の読み出しを行う。ここでは、(1)と同様に、第2位相のリセットレベルに応じたデジタル信号が読み出される。
 (2)と(3)の処理を行う際、カウンタ32aのカウント方向を共通(例えばカウントアップ方向)にして、画素信号レベル又はリセットレベルが参照信号レベルと交差するまでの期間の長さをカウンタ32aで計測する。図7Cに示すフレームCDSでは、第1位相のD相の読み出しを行うためにカウンタ32aを動作させた後、カウンタ32aのカウント値をいったんリセットし、その後に、第2位相のP相の読み出しを行うためにカウンタ32aを動作させる。これに対して、図8では、(2)と(3)の処理を行っている最中は、カウンタ32aのカウント動作を継続して行い、(3)の処理が終わった後に、(2)と(3)の処理結果を合わせたカウント値をデジタル信号として出力する。
 これにより、(2)の処理が終わった時点で、カウント値に応じたデジタル信号を出力しなくて済み、画素10からの読み出し回数を削減できる。
 (3)の処理が終わると、フォトダイオードPDから第2位相に対応するフローティングディフュージョンに電荷を転送して、(4)に示すD相の読み出しを行う。その後、グローバルリセットをかける。
 次に、(5)に示すように、第3位相(例えば90°)のリセットレベル(P相)の読み出しを行う。次に、フォトダイオードPDから第3位相に対応するフローティングディフュージョンに電荷を転送して、(6)に示すD相の読み出しを行う。(6)のD相の読み出しのために動作させたカウンタ32aのカウント値をそのままにして、第4位相に対応するフローティングディフュージョンをリセットした後に、(7)に示す第4位相のリセットレベル(P相)の読み出しを行う。このとき、カウンタ32aは、(6)の処理後のカウント値から引き続いてカウント動作を行う。(7)の処理が終わった時点で、(6)と(7)の処理を合わせたデジタル信号を出力する。これにより、(6)の処理が終わった時点でデジタル信号を出力しなくて済み、読み出し回数を削減できる。
 次に、フォトダイオードPDから第4位相に対応するフローティングディフュージョンに電荷を転送して、(8)のD相の読み出しを行う。
 このように、図8の読み出しシーケンスを採用することで、図7のフレームCDSと比べて、AD変換部30からの読み出し回数を2回削減できる。よって、距離計測に要する時間を短縮できる。
 図8では、第1位相を0°、第2位相を180°、第3位相を90°、第4位相を270°としたが、これは一例であり、以下の1~8に示すように複数のバリエーションが考えられる。
 1.Phase (0°) → Phase (180°) → Phase (90°) → Phase (270°)
 2.Phase (180°) → Phase (0°) → Phase (90°) → Phase (270°)
 3.Phase (0°) → Phase (180°) → Phase (270°) → Phase (90°)
 4.Phase (180°) → Phase (0°) → Phase (270°) → Phase (90°)
 5.Phase (90°) → Phase (270°) → Phase (0°) → Phase (180°)
 6.Phase (270°) → Phase (90°) → Phase (0°) → Phase (180°)
 7.Phase (90°) → Phase (270°) → Phase (180°) → Phase (0°)
 8.Phase (270°) → Phase (90°) → Phase (180°) → Phase (0°)
 上述した1~8のいずれにおいても、6回の読み出し回数でフレームCDSを行うことができる。図9は上述した1~8のそれぞれが6回の読み出しで読み出す情報を示す図である。上記1は図8と同様である。
 上記2の場合、(2)と(3)で位相180°の画素信号レベルと位相0°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相90°の画素信号レベルと位相270°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記3の場合、(2)と(3)で位相0°の画素信号レベルと位相180°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相270°の画素信号レベルと位相90°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記4の場合、(2)と(3)で位相180°の画素信号レベルと位相0°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相270°の画素信号レベルと位相90°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記5の場合、(2)と(3)で位相90°の画素信号レベルと位相270°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相0°の画素信号レベルと位相180°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記6の場合、(2)と(3)で位相270°の画素信号レベルと位相90°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相0°の画素信号レベルと位相180°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記7の場合、(2)と(3)で位相90°の画素信号レベルと位相270°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相180°の画素信号レベルと位相0°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記8の場合、(2)と(3)で位相270°の画素信号レベルと位相90°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相180°の画素信号レベルと位相0°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 図8及び図9は、4つの位相が0°、90°、180°、270°の例を説明したが、4つの位相の位相差が90°又は180°であればよく、各位相は必ずしも90の倍数である必要はない。よって、上述した1~8を一般化すると、以下の1’~8’となる。Xは任意の角度である。
 1’.Phase (X) → Phase (X+180°) → Phase (X+90°) → Phase (X+270°)
 2’.Phase (X+180°) → Phase (X) → Phase (X+90°) → Phase (X+270°)
 3’.Phase (X) → Phase (X+180°) → Phase (X+270°) → Phase (X+90°)
 4’.Phase (X+180°) → Phase (X) → Phase (X+270°) → Phase (X+90°)
 5’.Phase (X+90°) → Phase (X+270°) → Phase (X) → Phase (X+180°)
 6’.Phase (X+270°) → Phase (X+90°) → Phase (X) → Phase (X+180°)
 7’.Phase (X+90°) → Phase (X+270°) → Phase (X+180°) → Phase (X)
 8’.Phase (X+270°) → Phase (X+90°) → Phase (X+180°) → Phase (X)
 図10は上述した1’~8’のそれぞれが6回の読み出しで読み出す情報を示す図である。
 上記1’の場合、(2)と(3)で位相Xの画素信号レベルと位相X+180°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相X+90°の画素信号レベルと位相X+270°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記2’の場合、(2)と(3)で位相X+180°の画素信号レベルと位相Xのリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相X+90°の画素信号レベルと位相X+270°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記3’の場合、(2)と(3)で位相Xの画素信号レベルと位相X+180°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相X+270°の画素信号レベルと位相X+90°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記4’の場合、(2)と(3)で位相X+180°の画素信号レベルと位相Xのリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相X+270°の画素信号レベルと位相X+90°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記5’の場合、(2)と(3)で位相X+90°の画素信号レベルと位相X+270°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相Xの画素信号レベルと位相X+180°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記6’の場合、(2)と(3)で位相X+270°の画素信号レベルと位相X+90°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相Xの画素信号レベルと位相X+180°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記7’の場合、(2)と(3)で位相X+90°の画素信号レベルと位相X+270°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相X+180°の画素信号レベルと位相Xのリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 上記8’の場合、(2)と(3)で位相X+270°の画素信号レベルと位相X+90°のリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(2)と(3)の処理結果をまとめて出力する。同様に、(6)と(7)で位相X+180°の画素信号レベルと位相Xのリセットレベルを読み出す際にカウンタ32aを継続して動作させ、(6)と(7)の処理結果をまとめて出力する。
 このように、AD変換部30内のカウンタ32aは、180°異なる位相の画素信号レベルとリセットレベルを読み出す際にはカウント方向を共通にして、継続してカウント動作を行う。
 図11は図8に示す読出しシーケンスの詳細なタイミング図である。図11のタイミング図は、図8の前半部分のタイミングを示している。図8の後半部分も図11と同様のタイミングが繰り返される。
 図11の時刻t1~t2では、グローバルリセットが行われる。これにより、全画素10内のすべてのフローティングディフュージョンはリセットレベルに設定される。その後、時刻t3になると、ランプ波形である参照信号レベルは時間とともに線形に低下し始める。このとき、信号線電圧VSLは、第1位相(例えば0°)に対応するフローティングディフュージョンのリセットレベル(P相)である。参照信号レベルは、時刻t3~t5までの間、ほぼ線形に電圧レベルが変化する。カウンタ32aは、時刻t3以降、所定のクロック周期でカウント動作を継続する。この状態では、参照信号レベルがリセットレベルより高いため、カウンタ32aはカウントダウン方向にカウントする。
 時刻t4でリセットレベルと参照信号レベルが交差すると、カウンタ32aはカウント動作を停止し、交差した時点のカウント値に応じたデジタル信号を出力する。
 時刻t5になると、参照信号レベルの信号レベルは一定になり、第1位相のP相信号の読み出しは終了する。
 その後、時刻t6~t7の間に、システム制御部25から出力されるCN反転パルス信号PSがハイレベルになる。CN反転パルス信号PSがハイレベルになると、カウンタ32aは、その後にカウント動作を再開する際に、カウント方向を切り替える。時刻t3~t4では、カウンタ32aはカウントダウン方向にカウントしていたため、時刻t6でCN反転パルス信号PSがハイレベルになることで、カウンタ32aは、その後にカウント動作を再開する際にはカウントアップ方向にカウントする。
 時刻t8~t9の間は、図3の画素10内のトランジスタTRG1、TRG2は逆相で交互にオン/オフを繰り返して、フォトダイオードからフローティングディフュージョンへの電荷の振り分けが行われる。具体的には、時刻t8~t9の期間内は、第1位相(例えば0°)の画素信号レベルが各フローティングディフュージョンに転送される。
 その後、図1の比較回路部31にて、フローティングディフュージョンの蓄積電荷に基づいて、第1位相での画素信号レベルと参照信号レベルとの比較が行われる。カウンタ32aは、時刻t10から、画素信号レベルが参照信号レベルと交差するまでの期間、カウントアップ動作を継続する。
 時刻t11で、画素信号レベルが参照信号レベルと交差すると、カウンタ32aはカウントアップ動作を停止する。カウンタ32aのカウント値は、この時点では、外部に出力されない。これにより、受光装置1からの画素データの読み出し回数を削減できる。
 時刻t13~t14はローリングリセット期間である。この期間内は、第2位相(例えば180°)に対応するフローティングディフュージョンがリセットされる。ローリングリセット期間の直前には、CN反転パルス信号PSは出力されないため、カウンタ32aのカウント方向は変化しない。
 その後、時刻t15~t17の期間内は、第2位相のリセットレベルの読み出しが行われる。具体的には、比較回路部31により、リセットレベルと参照信号レベルとが比較され、カウンタ32aは、時刻t15から、リセットレベルが参照信号レベルと交差するまでの期間(t15~t16)、カウントアップ動作を行う。第1位相の画素信号レベルの読み出しが終了した時点(時刻t12)のときに、CN反転パルス信号PSは第1論理(ハイレベル)にならなかったため、カウンタ32aは、カウントアップを継続する。このため、カウンタ32aのカウント値は時刻t10~t11の第1位相の画素信号レベルと、時刻t15~t16の第2位相のリセットレベルとを合算した値になる。
 時刻t16で、カウンタ32aはカウント動作を停止し、カウント値をデジタル信号として外部に出力する。
 その後、時刻t18~t19の期間内にCN反転パルス信号PSはハイレベルになる。これにより、カウンタ32aは、カウント方向を切り替える。具体的には、カウンタ32aはカウントダウン方向に切り替える。
 その後、時刻20~t21の間は、図3の画素10内のトランジスタTRG1、TRG2が画素行ごとに順にオンして、画素行ごとに、フォトダイオードPDからフローティングディフュージョンへの電荷の振り分けが行われる。具体的には、時刻t20~t21の期間内は、第2位相(例えば180°)の画素信号レベルが対応するフローティングディフュージョンに転送される。
 その後、図1の比較回路部31にて、フローティングディフュージョンの蓄積電荷に基づいて、第2位相での画素信号レベルと参照信号レベルとの比較が行われる。カウンタ32aは、時刻t22から、画素信号レベルが参照信号レベルと交差するまでの期間(t22~t23)、カウントダウン動作を継続する。
 時刻t23で、画素信号レベルが参照信号レベルと交差すると、カウンタ32aはカウントダウン動作を停止する。カウンタ32aのカウント値は、受光装置1から出力される。その後、時刻t24で、第2位相の画素信号レベル(D相)の読み出しが終了する。
 上述した受光装置1では、画素10が図3に示すようにゲート構造である例を示したが、画素10は、CAPD(Current Assisted Photonic Demodulator)構造であってもよい。
 図12は画素アレイ部21に設けられた1つの画素10の断面図を示しており、図13は、画素10の平面図を示している。図12のAは、図13のA-A’線における断面図を示しており、図12のBは、図13のB-B’線における断面図を示している。
 図12に示されるように、画素10は、例えばシリコン基板、具体的にはP型の半導体層からなる半導体基板34と、その半導体基板34上に形成されたオンチップレンズ35とを有している。
 さらに、半導体基板34の光入射面上における画素10の境界部分には、隣接する画素10間での混色を防止するための画素間遮光膜36が形成されている。画素間遮光膜36は、画素10に入射された光が、隣接して設けられた他の画素10に入射されることを防止する。
 半導体基板34内における光入射面とは反対の面側、すなわち図中、下側の面の内側の部分には、信号取り出し部37-1および信号取り出し部37-2が形成されている。信号取り出し部37-1は、図1の第1のタップAに相当し、信号取り出し部37-2が、図1の第2のタップBに相当する。
 信号取り出し部37-1は、N型半導体領域であるN+半導体領域71-1およびそれよりもドナー不純物の濃度が低いN-半導体領域72-1と、P型半導体領域であるP+半導体領域73-1およびそれよりもアクセプター不純物濃度が低いP-半導体領域74-1とを有している。ここで、ドナー不純物とは、例えばSiに対してのリン(P)やヒ素(As)等の元素の周期表で5族に属する元素が挙げられ、アクセプター不純物とは、例えばSiに対してのホウ素(B)等の元素の周期表で3族に属する元素が挙げられる。ドナー不純物となる元素をドナー元素、アクセプター不純物となる元素をアクセプター元素と称する。
 N-半導体領域72-1は、N+半導体領域71-1の上側に、N+半導体領域71-1を覆うように(囲むように)形成されている。同様に、P-半導体領域74-1は、P+半導体領域73-1の上側に、そのP+半導体領域73-1を覆うように(囲むように)形成されている。
 平面視では、図13に示されるように、N+半導体領域71-1は、P+半導体領域73-1を中心として、P+半導体領域73-1の周囲を囲むように形成されている。N+半導体領域71-1の上側に形成されているN-半導体領域72-1も同様に、P-半導体領域74-1を中心として、P-半導体領域74-1の周囲を囲むように形成されている。
 同様に、図12の信号取り出し部37-2は、N型半導体領域であるN+半導体領域71-2およびそれよりもドナー不純物の濃度が低いN-半導体領域72-2と、P型半導体領域であるP+半導体領域73-2およびそれよりもアクセプター不純物濃度が低いP-半導体領域74-2とを有している。
 N-半導体領域72-2は、N+半導体領域71-2の上側に、N+半導体領域71-2を覆うように(囲むように)形成されている。同様に、P-半導体領域74-2は、P+半導体領域73-2の上側に、そのP+半導体領域73-2を覆うように(囲むように)形成されている。
 平面視では、図13に示されるように、N+半導体領域71-2は、P+半導体領域73-2を中心として、P+半導体領域73-2の周囲を囲むように形成されている。N+半導体領域71-2の上側に形成されているN-半導体領域72-2も同様に、P-半導体領域74-2を中心として、P-半導体領域74-2の周囲を囲むように形成されている。
 以下、信号取り出し部37-1および信号取り出し部37-2を特に区別する必要のない場合、単に信号取り出し部65とも称する。
 また、以下、N+半導体領域71-1およびN+半導体領域71-2を特に区別する必要のない場合、単にN+半導体領域71とも称し、N-半導体領域72-1およびN-半導体領域72-2を特に区別する必要のない場合、単にN-半導体領域72とも称する。
 さらに、以下、P+半導体領域73-1およびP+半導体領域73-2を特に区別する必要のない場合、単にP+半導体領域73とも称し、P-半導体領域74-1およびP-半導体領域74-2を特に区別する必要のない場合、単にP-半導体領域74とも称する。
 半導体基板34の光入射面側の界面には、正の固定電荷を持つ1層の膜または積層膜からなる固定電荷膜75が形成されている。固定電荷膜75は、半導体基板34の入射面側における暗電流の発生を抑制する。
 一方、オンチップレンズ35が画素10毎に形成されている半導体基板34の光入射面側とは反対側には、多層配線層91が形成されている。言い換えれば、オンチップレンズ35と多層配線層91との間に、半導体層である半導体基板34が配置されている。多層配線層91は、5層の金属膜M1乃至M5と、その間の層間絶縁膜92とで構成される。なお、図12のAでは、多層配線層91の5層の金属膜M1乃至M5のうち、最も外側の金属膜M5が見えない場所にあるため図示されていないが、図12のBにおいて図示されている。
 多層配線層91の5層の金属膜M1乃至M5のうち、最も半導体基板34に近い金属膜M1には、P+半導体領域73-1または73-2に所定の電圧GDAまたはGDBを印加するための電圧印加配線93、および、入射光を反射する部材である反射部材94が含まれる。
 また、金属膜M1には、電圧印加部としてのP+半導体領域73に所定の電圧GDAまたはGDBを印加するための電圧印加配線93の他、電荷検出部であるN+半導体領域71の一部と接続された信号取り出し配線95が形成されている。信号取り出し配線95は、N+半導体領域71で検出された電荷をFD102に伝送する。
 図12のBに示されるように、信号取り出し部37-2(第2のタップB)は、金属膜M1の電圧印加配線93と接続され、電圧印加配線93は、ビアを介して金属膜M4の配線96-2と電気的に接続されている。金属膜M4の配線96-2は、ビアを介して金属膜M5の制御線23Bと接続され、金属膜M5の制御線23Bは、タップ駆動部12と接続されている。これにより、タップ駆動部12から、所定の電圧GDBが、金属膜M5の制御線23B、金属膜M4の配線96-2、電圧印加配線93を介して、電圧印加部としてのP+半導体領域73-2に供給される。
 同様に、画素10の不図示の領域において、タップ駆動部12から、所定の電圧GDAが、金属膜M5の制御線23A、金属膜M4の配線96-1、電圧印加配線93を介して、信号取り出し部37-1(第1のタップA)の電圧印加部としてのP+半導体領域73-1に供給される。
 半導体基板34に設けられたN+半導体領域71は、外部から画素10に入射してきた光の光量、すなわち半導体基板34による光電変換により発生した信号電荷の量を検出するための電荷検出部として機能する。なお、N+半導体領域71の他に、ドナー不純物濃度が低いN-半導体領域72も含めて電荷検出部とみなすこともできる。
 また、P+半導体領域73は、多数のキャリア電流を半導体基板34に注入するための、すなわち半導体基板34に直接電圧を印加して半導体基板34内に電界を発生させるための電圧印加部として機能する。なお、P+半導体領域73の他に、アクセプター不純物濃度が低いP-半導体領域74も含めて電圧印加部とみなすこともできる。
 図13の平面視において、信号取り出し部65は、中心に配置された電圧印加部としてのP+半導体領域73と、その周囲を囲むように配置された、電荷検出部としてのN+半導体領域71を有する。
 図13に示されるように、信号取り出し部37-1および37-2は、画素10内において、画素10中心部に対して対称な位置に配置されている。なお、図13では、N+半導体領域71およびP+半導体領域73の平面形状が、八角形状の例を示しているが、正方形状、矩形形状、円形状など、その他の平面形状でもよい。
 <受光装置1の技術的効果>
 このように、本実施形態に係る受光装置1では、4位相以上の画素信号に対応するデジタル信号をAD変換部30から出力する際、AD変換部30からデジタル信号を出力する回数を削減するため、4位相以上のデジタル信号を用いて迅速に距離計測を行うことができる。
 本実施形態では、距離計測を行うのに用いるI信号とQ信号を計算するための一部の処理をAD変換部30内で行うため、AD変換部30から出力されるデジタル信号の数を減らすことができる。
 より詳細には、本実施形態に係る受光装置1では、フレームCDSで課題であった読み出し回数の多さを解決するために、180°位相の異なる画素信号のリセットレベルと画素信号レベルを連続して読み出す際には、デジタル信号生成用のカウンタ32aのカウント方向を同じにして、継続してカウント動作を行う。これにより、各位相のリセットレベル又は画素信号レベルのデジタル信号を生成するたびに、生成したデジタル信号を出力するのではなく、リセットレベルと画素信号レベルを合わせたデジタル信号を出力する。よって、AD変換部30の内部で、I信号及びQ信号を求めるための計算処理の一部を行った結果であるデジタル信号をAD変換部30から出力することができ、AD変換部30の後段側での距離計測を迅速に行うことができる。
 <距離計測を行う電子機器>
 図14は図1~図13に示した受光装置1を備えて間接ToF方式による距離計測を行う電子機器2の概略構成を示すブロック図である。図14の電子機器2は、発光部3と、図1~図13に示した受光装置1と、距離計測部4とを備えている。図14の電子機器2は、例えばスマートフォンである。あるいは、図14の電子機器2は、ユーザが携帯する携帯電話、タブレット、モバイルPC(Personal Computer)などでもよいし、車両でもよい。
 発光部3は、所定の周期で、照射光パルス信号を間欠的に送信する。受光装置1は、照射光パルス信号が対象物5で反射されたときに、その反射光を受光する。受光装置1は、上述したように、図8に示すフレームCDSによりデジタル信号を出力する。距離計測部4は、受光装置1から出力されたデジタル信号に基づいて、間接ToF方式にて対象物5までの距離計測を行う。
 <移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図15は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図15に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図15の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図16は、撮像部12031の設置位置の例を示す図である。
 図16では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図16には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。具体的には、本開示の受光装置1は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、より鮮明な撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 なお、本技術は以下のような構成を取ることができる。
 (1)光電変換部と、前記光電変換部で光電変換された電荷をそれぞれ異なるタイミングで蓄積する2以上のフローティングディフュージョンと、前記2以上のフローティングディフュージョンに蓄積された電荷に基づいて、画素ごとにそれぞれ位相が異なる4種類以上の画素信号を出力する複数の画素と、
 前記4種類以上の画素信号の位相ごとに、前記画素信号のリセットレベルに応じたデジタル信号と画素信号レベルに応じたデジタル信号とを、フレーム単位で出力するAD変換部と、を備える、受光装置。
 (2)前記AD変換部は、一部の互いに異なる位相のリセットレベルと画素信号レベルとを合成した前記デジタル信号を出力する、(1)に記載の受光装置。
 (3)前記4種類以上の画素信号のそれぞれのリセットレベル又は画素信号レベルが参照信号レベルと交差するまでの期間に応じたカウント値を出力するカウンタを備え、
 前記AD変換部は、前記カウンタのカウント値に応じた前記デジタル信号を生成する、(1)又は(2)に記載の受光装置。
 (4)前記カウンタは、前記4種類以上の画素信号の位相が切り替わる複数の切替タイミングのうち、一部の切替タイミングでは、前記カウンタのカウント値をリセットせずにカウントを継続し、残りの切替タイミングでは、前記カウンタのカウント値をリセットする、(3)に記載の受光装置。
 (5)前記一部の切替タイミングは、180°異なる位相の画素信号についてのカウント値をカウントする切替タイミングであり、
 前記残りの切替タイミングは、90°異なる位相の画素信号についてのカウント値をカウントする切替タイミングである、(4)に記載の受光装置。
 (6)前記一部の切替タイミングは、Xを任意の角度値として、X°の画素信号レベルとX+180°のリセットレベルとの切替タイミング、及びX+90°の画素信号レベルとX+270°のリセットレベルとの切替タイミングを含む、(5)に記載の受光装置。
 (7)前記カウンタは、全画素についてのすべての前記フローティングディフュージョンをリセットすることを指示する第1リセット信号が入力された場合にはカウント値をリセットし、一部の前記フローティングディフュージョンをリセットすることを指示する第2リセット信号が入力された場合には、カウント値を保持する、(4)乃至(6)のいずれか一項に記載の受光装置。
 (8)前記第2リセット信号は、前記一部の切替タイミングに入力され、
 前記第1リセット信号は、前記残りの切替タイミングに入力される、(7)に記載の受光装置。
 (9)前記カウンタは、外部からの制御信号に基づいて、カウントアップするか、又はカウントダウンするかを切り替える、(3)乃至(8)のいずれか一項に記載の受光装置。
 (10)前記カウンタは、前記制御信号が第1論理のときには、入力される前記画素信号の位相が切り替わったときに前記カウンタのカウント方向を逆にしてカウントを行い、前記制御信号が第2論理のときには、入力される前記画素信号の位相が切り替わったときに前記カウンタのカウント方向を変化させずにカウントを継続する、(9)に記載の受光装置。
 (11)前記画素は、第1位相、第2位相、第3位相及び第4位相の前記画素信号のリセットレベルと画素信号レベルとを切り替えて順に出力し、
 前記カウンタは、前記制御信号に基づいて、互いに180°位相が異なる2つの画素信号のうち、一方の画素信号のリセットレベルに応じたカウント値と、他方の画素信号の画素信号レベルに応じたカウント値とを合算したカウント値を生成する、(9)又は(10)に記載の受光装置。
 (12)前記カウンタは、前記制御信号に基づいて、前記第1位相のリセットレベルに応じたカウント値を出力し、次に前記第1位相の画素信号レベルに応じたカウント値と前記第2位相のリセットレベルに応じたカウント値とを合算したカウント値を出力し、次に前記第2位相の画素信号レベルに応じたカウント値を出力し、次に前記第3位相のリセットレベルに応じたカウント値を出力し、次に前記第3位相の画素信号レベルに応じたカウント値と前記第4位相のリセットレベルに応じたカウント値とを合算したカウント値を出力し、次に前記第4位相の画素信号レベルに応じたカウント値を出力する、(11)に記載の受光装置。
 (13)前記カウンタは、前記第1位相の画素信号レベルに応じたカウント値と前記第2位相のリセットレベルに応じたカウント値とを合算する際には、カウントアップ又はカウントダウンの方向を変化させず、前記第3位相の画素信号レベルに応じたカウント値と前記第4位相のリセットレベルに応じたカウント値とを合算する際には、カウントアップ又はカウントダウンの方向を変化させない、(12)に記載の受光装置。
 (14)前記カウンタは、前記第1位相のリセットレベルが前記参照信号レベルと交差するまでの期間についてのカウントを開始する前と、前記第3位相のリセットレベルが前記参照信号レベルと交差するまでの期間についてのカウントを開始する前とにカウント値をリセットし、前記第1位相の画素信号レベルと、前記第2位相のリセットレベル及び画素信号レベルと、前記第3位相の画素信号レベルとが前記参照信号レベルと交差するまでの各期間についてのカウントを開始する前にはカウント値をリセットせずにカウントを継続する、(12)又は(13)に記載の受光装置。
 (15)前記第1位相と前記第2位相とは180°位相が異なっており、前記第2位相と前記第3位相とは90°位相が異なっており、前記第3位相と前記第4位相とは180°位相が異なっている、(11)乃至(14)のいずれか一項に記載の受光装置。
 (16)前記制御信号は、前記カウンタが前記第1位相、前記第2位相、前記第3位相、及び前記第4位相の画素信号のリセットレベルに応じたカウント値を生成した後に、第1論理のパルス信号を出力し、それ以外は第2論理であり、
 前記カウンタは、前記制御信号が前記第1論理の場合には、カウント方向を切り替えてカウントし、前記制御信号が前記第2論理の場合には、カウント方向を維持したままカウントを継続する、(11)乃至(15)のいずれか一項に記載の受光装置。
 (17)前記画素は、CAPD(Current Assisted Photonic Demodulator)構造、ゲート電極構造の画素である、(1)乃至(16)のいずれか一項に記載の受光装置。
 (18)対象物に向けて光信号を照射する発光部と、
 前記光信号が前記対象物で反射された反射光を受光する前記光電変換部を有する(1乃至17のいずれか一項に記載の受光装置と、
 前記受光装置から出力された前記デジタル信号と、前記光信号とに基づいて、前記対象物までの距離を計測する距離計測部と、を備える、電子機器。
 (19)前記距離計測部は、前記4種類以上の画素信号のリセットレベル及び画素信号レベルに基づいてI信号及びQ信号を生成して、前記I信号及び前記Q信号の割合に基づいて前記対象物までの距離を計測する、(18)に記載の電子機器。
 (20)光電変換部で光電変換された電荷をそれぞれ異なるタイミングで蓄積する2以上のフローティングディフュージョンに蓄積された電荷に基づいて、画素ごとにそれぞれ位相が異なる4種類以上の画素信号を出力し、
 前記4種類以上の画素信号のそれぞれのリセットレベル又は画素信号レベルが参照信号レベルと交差するまでの期間の長さをカウンタでカウントする際、前記4種類以上の画素信号の位相が切り替わる複数の切替タイミングのうち、一部の切替タイミングでは、前記カウンタのカウント値をリセットせずにカウントを継続し、残りの切替タイミングでは、前記カウンタのカウント値をリセットする、受光方法。
 本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
1 受光装置、2 電子機器、3 発光部、4 距離計測部、5 対象物、10 画素、11 画素アレイ部、12 タップ駆動部、18 参照信号生成部、21 画素アレイ部、22 垂直駆動部、23 カラム処理部、23A 制御線、23B 制御線、24 水平駆動部、25 システム制御部、26 信号処理部、27 データ格納部、28 画素駆動線、29 垂直信号線、30 AD変換部、31 比較回路部、31a 比較回路、32 カウンタ部、32a カウンタ(CNT)、34 半導体基板、35 オンチップレンズ、36 画素間遮光膜、41 半導体基板、42 多層配線層、43 反射防止膜、44 画素境界部、45 画素間遮光膜、46 平坦化膜、47 オンチップレンズ、51 半導体領域、52 半導体領域、53 酸化ハフニウム膜、54 酸化アルミニウム膜、55 酸化シリコン膜、61 画素間分離部、62 層間絶縁膜、63 遮光部材、64 配線容量、71 半導体領域、75 固定電荷膜、91 多層配線層、92 層間絶縁膜、93 電圧印加配線、94 反射部材

Claims (20)

  1.  光電変換部と、前記光電変換部で光電変換された電荷をそれぞれ異なるタイミングで蓄積する2以上のフローティングディフュージョンと、前記2以上のフローティングディフュージョンに蓄積された電荷に基づいて、画素ごとにそれぞれ位相が異なる4種類以上の画素信号を出力する複数の画素と、
     前記4種類以上の画素信号の位相ごとに、前記画素信号のリセットレベルに応じたデジタル信号と画素信号レベルに応じたデジタル信号とを、フレーム単位で出力するAD変換部と、を備える、受光装置。
  2.  前記AD変換部は、一部の互いに異なる位相のリセットレベルと画素信号レベルとを合成した前記デジタル信号を出力する、請求項1に記載の受光装置。
  3.  前記4種類以上の画素信号のそれぞれのリセットレベル又は画素信号レベルが参照信号レベルと交差するまでの期間に応じたカウント値を出力するカウンタを備え、
     前記AD変換部は、前記カウンタのカウント値に応じた前記デジタル信号を生成する、請求項1に記載の受光装置。
  4.  前記カウンタは、前記4種類以上の画素信号の位相が切り替わる複数の切替タイミングのうち、一部の切替タイミングでは、前記カウンタのカウント値をリセットせずにカウントを継続し、残りの切替タイミングでは、前記カウンタのカウント値をリセットする、請求項3に記載の受光装置。
  5.  前記一部の切替タイミングは、180°異なる位相の画素信号についてのカウント値をカウントする切替タイミングであり、
     前記残りの切替タイミングは、90°異なる位相の画素信号についてのカウント値をカウントする切替タイミングである、請求項4に記載の受光装置。
  6.  前記一部の切替タイミングは、Xを任意の角度値として、X°の画素信号レベルとX+180°のリセットレベルとの切替タイミング、及びX+90°の画素信号レベルとX+270°のリセットレベルとの切替タイミングを含む、請求項5に記載の受光装置。
  7.  前記カウンタは、全画素についてのすべての前記フローティングディフュージョンをリセットすることを指示する第1リセット信号が入力された場合にはカウント値をリセットし、一部の前記フローティングディフュージョンをリセットすることを指示する第2リセット信号が入力された場合には、カウント値を保持する、請求項4に記載の受光装置。
  8.  前記第2リセット信号は、前記一部の切替タイミングに入力され、
     前記第1リセット信号は、前記残りの切替タイミングに入力される、請求項7に記載の受光装置。
  9.  前記カウンタは、外部からの制御信号に基づいて、カウントアップするか、又はカウントダウンするかを切り替える、請求項3に記載の受光装置。
  10.  前記カウンタは、前記制御信号が第1論理のときには、入力される前記画素信号の位相が切り替わったときに前記カウンタのカウント方向を逆にしてカウントを行い、前記制御信号が第2論理のときには、入力される前記画素信号の位相が切り替わったときに前記カウンタのカウント方向を変化させずにカウントを継続する、請求項9に記載の受光装置。
  11.  前記画素は、第1位相、第2位相、第3位相及び第4位相の前記画素信号のリセットレベルと画素信号レベルとを切り替えて順に出力し、
     前記カウンタは、前記制御信号に基づいて、互いに180°位相が異なる2つの画素信号のうち、一方の画素信号のリセットレベルに応じたカウント値と、他方の画素信号の画素信号レベルに応じたカウント値とを合算したカウント値を生成する、請求項9に記載の受光装置。
  12.  前記カウンタは、前記制御信号に基づいて、前記第1位相のリセットレベルに応じたカウント値を出力し、次に前記第1位相の画素信号レベルに応じたカウント値と前記第2位相のリセットレベルに応じたカウント値とを合算したカウント値を出力し、次に前記第2位相の画素信号レベルに応じたカウント値を出力し、次に前記第3位相のリセットレベルに応じたカウント値を出力し、次に前記第3位相の画素信号レベルに応じたカウント値と前記第4位相のリセットレベルに応じたカウント値とを合算したカウント値を出力し、次に前記第4位相の画素信号レベルに応じたカウント値を出力する、請求項11に記載の受光装置。
  13.  前記カウンタは、前記第1位相の画素信号レベルに応じたカウント値と前記第2位相のリセットレベルに応じたカウント値とを合算する際には、カウントアップ又はカウントダウンの方向を変化させず、前記第3位相の画素信号レベルに応じたカウント値と前記第4位相のリセットレベルに応じたカウント値とを合算する際には、カウントアップ又はカウントダウンの方向を変化させない、請求項12に記載の受光装置。
  14.  前記カウンタは、前記第1位相のリセットレベルが前記参照信号レベルと交差するまでの期間についてのカウントを開始する前と、前記第3位相のリセットレベルが前記参照信号レベルと交差するまでの期間についてのカウントを開始する前とにカウント値をリセットし、前記第1位相の画素信号レベルと、前記第2位相のリセットレベル及び画素信号レベルと、前記第3位相の画素信号レベルとが前記参照信号レベルと交差するまでの各期間についてのカウントを開始する前にはカウント値をリセットせずにカウントを継続する、請求項12に記載の受光装置。
  15.  前記第1位相と前記第2位相とは180°位相が異なっており、前記第2位相と前記第3位相とは90°位相が異なっており、前記第3位相と前記第4位相とは180°位相が異なっている、請求項11に記載の受光装置。
  16.  前記制御信号は、前記カウンタが前記第1位相、前記第2位相、前記第3位相、及び前記第4位相の画素信号のリセットレベルに応じたカウント値を生成した後に、第1論理のパルス信号を出力し、それ以外は第2論理であり、
     前記カウンタは、前記制御信号が前記第1論理の場合には、カウント方向を切り替えてカウントし、前記制御信号が前記第2論理の場合には、カウント方向を維持したままカウントを継続する、請求項11に記載の受光装置。
  17.  前記画素は、CAPD(Current Assisted Photonic Demodulator)構造、ゲート電極構造の画素である、請求項1に記載の受光装置。
  18.  対象物に向けて光信号を照射する発光部と、
     前記光信号が前記対象物で反射された反射光を受光する前記光電変換部を有する請求項1乃至17のいずれか一項に記載の受光装置と、
     前記受光装置から出力された前記デジタル信号と、前記光信号とに基づいて、前記対象物までの距離を計測する距離計測部と、を備える、電子機器。
  19.  前記距離計測部は、前記4種類以上の画素信号のリセットレベル及び画素信号レベルに基づいてI信号及びQ信号を生成して、前記I信号及び前記Q信号の割合に基づいて前記対象物までの距離を計測する、請求項18に記載の電子機器。
  20.  光電変換部で光電変換された電荷をそれぞれ異なるタイミングで蓄積する2以上のフローティングディフュージョンに蓄積された電荷に基づいて、画素ごとにそれぞれ位相が異なる4種類以上の画素信号を出力し、
     前記4種類以上の画素信号のそれぞれのリセットレベル又は画素信号レベルが参照信号レベルと交差するまでの期間の長さをカウンタでカウントする際、前記4種類以上の画素信号の位相が切り替わる複数の切替タイミングのうち、一部の切替タイミングでは、前記カウンタのカウント値をリセットせずにカウントを継続し、残りの切替タイミングでは、前記カウンタのカウント値をリセットする、受光方法。
PCT/JP2022/015262 2021-07-15 2022-03-29 受光装置、電子機器及び受光方法 WO2023286391A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021117359A JP2023013292A (ja) 2021-07-15 2021-07-15 受光装置、電子機器及び受光方法
JP2021-117359 2021-07-15

Publications (1)

Publication Number Publication Date
WO2023286391A1 true WO2023286391A1 (ja) 2023-01-19

Family

ID=84919277

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/015262 WO2023286391A1 (ja) 2021-07-15 2022-03-29 受光装置、電子機器及び受光方法

Country Status (2)

Country Link
JP (1) JP2023013292A (ja)
WO (1) WO2023286391A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013070240A (ja) * 2011-09-22 2013-04-18 Sony Corp 固体撮像装置、固体撮像装置の制御方法および固体撮像装置の制御プログラム
JP2020005096A (ja) * 2018-06-27 2020-01-09 ソニーセミコンダクタソリューションズ株式会社 受光装置およびその制御方法、並びに電子機器
WO2021010176A1 (ja) * 2019-07-16 2021-01-21 ソニーセミコンダクタソリューションズ株式会社 測定装置および測定方法、並びにプログラム
JP2021034496A (ja) * 2019-08-22 2021-03-01 ソニーセミコンダクタソリューションズ株式会社 撮像素子、測距装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013070240A (ja) * 2011-09-22 2013-04-18 Sony Corp 固体撮像装置、固体撮像装置の制御方法および固体撮像装置の制御プログラム
JP2020005096A (ja) * 2018-06-27 2020-01-09 ソニーセミコンダクタソリューションズ株式会社 受光装置およびその制御方法、並びに電子機器
WO2021010176A1 (ja) * 2019-07-16 2021-01-21 ソニーセミコンダクタソリューションズ株式会社 測定装置および測定方法、並びにプログラム
JP2021034496A (ja) * 2019-08-22 2021-03-01 ソニーセミコンダクタソリューションズ株式会社 撮像素子、測距装置

Also Published As

Publication number Publication date
JP2023013292A (ja) 2023-01-26

Similar Documents

Publication Publication Date Title
JP7362198B2 (ja) 受光素子、測距モジュール、および、電子機器
JP7146483B2 (ja) 受光装置およびその制御方法、並びに電子機器
WO2018216477A1 (ja) 固体撮像素子および電子機器
JP2020047616A (ja) 固体撮像装置および電子機器
JP2022549577A (ja) 受光素子、測距モジュール、および、電子機器
JP7454549B2 (ja) センサチップ、電子機器、及び測距装置
EP4053520B1 (en) Light receiving element, distance measurement module, and electronic equipment
JP7451395B2 (ja) 受光素子および測距モジュール
CN114008783A (zh) 摄像装置
WO2022209856A1 (ja) 光検出装置
WO2023286391A1 (ja) 受光装置、電子機器及び受光方法
US20230246041A1 (en) Ranging device
WO2023189519A1 (ja) 受光素子、電子機器
WO2023181657A1 (ja) 光検出装置及び電子機器
WO2024127854A1 (ja) 撮像素子、撮像素子の製造方法、電子機器
US20230204773A1 (en) Ranging device
WO2024043056A1 (ja) 撮像素子、測距装置
TW202422894A (zh) 光偵測器及距離量測裝置

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22841739

Country of ref document: EP

Kind code of ref document: A1