WO2021010174A1 - 受光装置、および、受光装置の駆動方法 - Google Patents

受光装置、および、受光装置の駆動方法 Download PDF

Info

Publication number
WO2021010174A1
WO2021010174A1 PCT/JP2020/025980 JP2020025980W WO2021010174A1 WO 2021010174 A1 WO2021010174 A1 WO 2021010174A1 JP 2020025980 W JP2020025980 W JP 2020025980W WO 2021010174 A1 WO2021010174 A1 WO 2021010174A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
unit
charge
light receiving
time
Prior art date
Application number
PCT/JP2020/025980
Other languages
English (en)
French (fr)
Inventor
俊 海津
基 三原
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/597,439 priority Critical patent/US20220268942A1/en
Publication of WO2021010174A1 publication Critical patent/WO2021010174A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/771Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising storage means other than floating diffusion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Definitions

  • the present technology relates to a light receiving device and a method of driving the light receiving device, and more particularly to a light receiving device capable of expanding the measurement range and a method of driving the light receiving device.
  • the ranging module irradiates the modulated irradiation light toward the object and detects the reflected light reflected on the surface of the object. At this time, the ranging module detects the phase difference between the irradiation light and the reflected light by detecting the reflected light in four phases of 0 degree, 90 degree, 180 degree, and 270 degree with respect to the irradiation light, for example. And convert it to the distance to the object.
  • IndirectToF Time of Flight
  • one pixel is provided with four charge storage units, and charges received with a phase shift of 0 degrees, 90 degrees, 180 degrees, and 270 degrees with respect to the irradiation light are received by the four charge storage units in the pixel.
  • a distance imaging device having a configuration in which the electric charge is distributed to the above is disclosed (for example, see Patent Document 1).
  • the Indirect ToF type distance measurement module it is difficult for the Indirect ToF type distance measurement module to widen the distance measurement range (dynamic range). That is, since the irradiation light is attenuated in inverse proportion to the square of the distance, the received brightness becomes smaller as the distance increases, and the light is buried in noise. When the emission brightness of the irradiation light is increased, the charge is saturated at a short distance and the distance cannot be calculated.
  • This technology was made in view of such a situation, and makes it possible to expand the measurement range.
  • the light receiving device on one aspect of the present technology includes a photoelectric conversion unit that photoelectrically converts the incident light to generate an electric charge, and a first charge that accumulates the first electric charge generated in the first accumulation time in the photoelectric conversion unit. It includes a pixel having a storage unit and a second charge storage unit that stores a second charge generated in a second storage time different from the first storage time in the photoelectric conversion unit.
  • a drive control unit of a light receiving device including a pixel having a photoelectric conversion unit, a first charge storage unit, and a second charge storage unit is the first in the photoelectric conversion unit.
  • the first charge generated in one storage time is stored in the first charge storage unit
  • the second charge generated in the photoelectric conversion unit in a second storage time different from the first storage time is stored in the second charge storage unit.
  • the first charge generated in the first storage time in the photoelectric conversion unit of the light receiving device including the photoelectric conversion unit, the first charge storage unit, and the second charge storage unit. Is stored in the first charge storage unit, and the second charge generated in the photoelectric conversion unit at a second storage time different from the first storage time is stored in the second charge storage unit.
  • the light receiving device may be an independent device or an internal block constituting one device.
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of a ranging module to which the present technology is applied.
  • the distance measurement module 11 shown in FIG. 1 is a distance measurement module that performs distance measurement by the Indirect ToF method, and has a light emitting unit 12, a light emission control unit 13, and a distance measurement sensor 14.
  • the distance measuring module 11 irradiates an object with light, and the light (irradiation light) receives the light (reflected light) reflected by the object to generate a depth map as distance information to the object. And output.
  • the distance measuring sensor 14 is a light receiving device that receives reflected light, and includes a light receiving unit 15 and a signal processing unit 16.
  • the light emitting unit 12 has, for example, an infrared laser diode or the like as a light source, emits light while modulating at a timing corresponding to a light emission control signal supplied from the light emission control unit 13, and irradiates an object with irradiation light.
  • the light emitting control unit 13 controls the light emission of the light emitting unit 12 by supplying a light emitting control signal of a predetermined frequency (for example, 20 MHz or the like) to the light emitting unit 12. Further, in order to drive the light receiving unit 15 in accordance with the timing of light emission in the light emitting unit 12, the light emitting control unit 13 also supplies a light emitting control signal to the light receiving unit 15.
  • a predetermined frequency for example, 20 MHz or the like
  • the light receiving unit 15 is provided with a pixel array unit 22 in which pixels 21 that generate an electric charge according to the amount of received light and output a signal corresponding to the electric charge are two-dimensionally arranged in a matrix in the row direction and the column direction.
  • the drive control circuit 23 is arranged in the peripheral region of the pixel array unit 22.
  • the light receiving unit 15 is a pixel array unit 22 in which a plurality of pixels 21 are two-dimensionally arranged, and receives reflected light from an object. Then, the light receiving unit 15 supplies the signal processing unit 16 with pixel data composed of detection signals corresponding to the amount of reflected light received by each pixel 21 of the pixel array unit 22.
  • the signal processing unit 16 calculates a depth value, which is the distance from the distance measuring module 11 to the object, for each pixel 21 of the pixel array unit 22 based on the pixel data supplied from the light receiving unit 15, and the signal processing unit 16 calculates the depth value of each pixel 21.
  • a depth map in which the depth value is stored as a pixel value is generated and output to the outside of the module.
  • the signal processing unit 16 determines the charge accumulation time in each pixel 21 based on the pixel data supplied from the light receiving unit 15, and supplies the charge to the light receiving unit 15.
  • the signal processing unit 16 may be configured by another chip (semiconductor chip) independent of the distance measuring sensor 14.
  • the drive control circuit 23 generates a control signal for controlling the drive of the pixel 21 based on, for example, a light emission control signal supplied from the light emission control unit 13 and an accumulation time supplied from the signal processing unit 16. , Supply to each pixel 21.
  • the drive control circuit 23 drives each pixel 21 so that the light receiving period during which each pixel 21 receives the reflected light is the accumulation time supplied from the signal processing unit 16.
  • each pixel 21 of the pixel array unit 22 has one photodiode (hereinafter referred to as PD) 31, two FD32s (32A, 32B), and two transfer transistors 33. It has (33A, 33B).
  • a in FIG. 2 shows a cross-sectional structure showing the arrangement of PD31, FD32, and the transfer transistor 33 of the pixel 21, and a potential diagram.
  • one of the two FD32A and 32B for example, the FD32A may be referred to as a first tap 32A, and the other FD32B may be referred to as a second tap 32B.
  • the two transfer transistors 33A and 33B are also referred to as the first transfer transistor 33A and the second transfer transistor 33B, corresponding to the first tap 32A and the second tap 32B.
  • the PD31 is a photoelectric conversion unit that photoelectrically converts the incident light to generate an electric charge, receives the reflected light, performs photoelectric conversion, and generates an electric charge.
  • the FD 32 is a charge storage unit that stores the charges generated by the photodiode 31.
  • the transfer transistor 33 transfers the electric charge generated by the photodiode 31 to the FD32.
  • the light (irradiation light) emitted from the light emitting unit 12 of the distance measuring module 11 is reflected by a predetermined object as a subject, and is incident on the photodiode 31 of the light receiving unit 15 as reflected light with a delay of a predetermined phase. ..
  • the drive control circuit 23 controls the first transfer transistor 33A to the active state (on) in the predetermined exposure period T, and charges the electric charge generated by the photodiode 31 to the first. Transfer to tap 32A (FD32A) and store.
  • the first transfer transistor 33A is in the active state (on)
  • the second transfer transistor 33B is controlled in the inactive state (off).
  • the drive control circuit 23 controls the second transfer transistor 33B to the active state (on), transfers the electric charge generated by the photodiode 31 to the second tap 32B (FD32B), and accumulates the charge. Let me. When the second transfer transistor 33B is in the active state (on), the first transfer transistor 33A is controlled to the inactive state (off).
  • the drive control circuit 23 alternately repeats on / off of the opposite phases of the first transfer transistor 33A and the second transfer transistor 33B as described above.
  • the charge stored in the first tap 32A is output as the detection signal A
  • the charge stored in the second tap 32B is output as the detection signal B.
  • FIG. 3 is a diagram illustrating an operation mode in which the ranging sensor 14 can be executed.
  • the distance measuring sensor 14 can execute at least two operation modes, the first operation mode shown in A of FIG. 3 and the second operation mode shown in B of FIG.
  • the accumulation time for accumulating the electric charge on the first tap 32A and the accumulating time for accumulating the electric charge on the second tap 32B are set to the same time, and the same exposure time is set.
  • This is a mode in which a depth map is generated using the detection signals detected by the two taps 32 of.
  • the first operation mode is also referred to as a normal drive mode.
  • the accumulation time for accumulating the electric charge on the first tap 32A and the accumulating time for accumulating the electric charge on the second tap 32B are set to different times.
  • the distance is calculated using the detection signal of the first tap 32A having a long storage time for a long-distance measurement range, and the second tap having a short storage time for a short-distance measurement range.
  • This is a mode in which the measurement range is expanded from a short distance to a long distance by calculating the distance using the detection signal at 32B.
  • the second operation mode is also referred to as an HDR (high dynamic range) drive mode.
  • the accumulation time of the first tap 32A is set longer, and the accumulation time of the second tap 32B is set shorter (than the accumulation time of the first tap 32A).
  • the relationship between the accumulation times of the two taps 32 may be opposite.
  • the storage time of the first tap 32A is also referred to as a first storage time or a long storage time
  • the storage time of the second tap 32B is also referred to as a second storage time or a short storage time.
  • the light emitting unit 12 outputs the irradiation light so as to repeat the on / off of the irradiation at the irradiation time T.
  • the light receiving unit 15 receives the reflected light at the light receiving timings whose phases are shifted by 0 °, 90 °, 180 °, and 270 ° with respect to the irradiation timing of the irradiation light. More specifically, the light receiving unit 15 receives light with the phase set to 0 ° with respect to the irradiation timing of the irradiation light in a certain frame period, and receives light with the phase set to 90 ° in the next frame period. In the frame period, the light is received with the phase set to 180 °, and in the next frame period, the light is received with the phase set to 270 °, and so on.
  • FIG. 5 shows the phase difference between the arrival timing of the reflected light in the light receiving unit 15 and the accumulation time (exposure period) of the first tap 32A of the pixel 21 in each phase of 0 °, 90 °, 180 °, and 270 °. Is a diagram shown side by side for easy understanding.
  • the reflected light is incident on the photodiode 31 with a delay time ⁇ T according to the distance to the object, and is photoelectrically converted.
  • the detection signal A obtained by receiving light in the same phase (phase 0 °) as the irradiation light is received in the detection signal A0 and the phase shifted by 90 degrees (phase 90 °) from the irradiation light.
  • the detection signal A is received in the detection signal A1 and the phase shifted by 180 degrees from the irradiation light (phase 180 °), and the detection signal A obtained is received in the detection signal A2 and the phase shifted by 270 degrees from the irradiation light (phase 270 °).
  • the detection signal A obtained in this manner will be referred to as a detection signal A3.
  • the detection signals A0 to A3 are signals corresponding to the amount of light incident on the photodiode 31 during the period when the reflected light is incident on the photodiode 31 and during the period when the first transfer transistor 33A is on. ..
  • the detection signal B obtained by receiving light in the second tap 32B in the same phase (phase 0 °) as the irradiation light is shifted by 90 degrees from the detection signal B0 and the irradiation light (phase 90).
  • the detection signal B obtained by receiving light at (°) is shifted by 270 degrees from the detection signal B1 and the irradiation light by 270 degrees from the detection signal B1 and the detection signal B obtained by receiving the light in a phase (phase 180 °) shifted by 180 degrees.
  • the detection signal B obtained by receiving light in the phase (phase 270 °) is referred to as a detection signal B3.
  • FIG. 6 is a diagram illustrating a method of calculating a depth value, which is a distance to an object, using detection signals detected with four phase differences.
  • the depth value d can be obtained by the following equation (1).
  • equation (1) c is the speed of light
  • ⁇ T is the delay time
  • f is the modulation frequency of light.
  • ⁇ in the equation (1) represents the phase shift amount [rad] of the reflected light, and is represented by the following equation (2).
  • the I and Q of the equation (2) are the following equations (3) using the detection signals A0 to A3 and the detection signals B0 to B3 obtained by setting the phases to 0 °, 90 °, 180 ° and 270 °. It is calculated by.
  • I and Q are signals obtained by converting the phase of the cos wave from polar coordinates to a Cartesian coordinate system (IQ plane), assuming that the change in brightness of the irradiation light is a cos wave.
  • the phases of I and Q in the equation (2) are set to 0 °, 90 °, 180 ° and 270 °.
  • the calculation is performed by the following equation (4).
  • the reliability cnf of the pixel 21 can be obtained by the following equation (5).
  • FIG. 7 shows a first circuit configuration example (first pixel circuit) of the pixel 21. Although the circuit configuration of two pixels adjacent to each other in the horizontal direction is shown in FIG. 7, the same applies to the other pixels 21.
  • the pixel 21 includes a PD31, two FD32A and 32B, and first transfer transistors 33A and 33B. Further, the pixel 21 has two switching transistors 34, a reset transistor 35, an amplification transistor 36, and a selection transistor 37 corresponding to the first tap 32A and the second tap 32B, and one emission transistor 38. Have.
  • the first tap 32A is used among the switching transistor 34, the reset transistor 35, the amplification transistor 36, and the selection transistor 37 provided in the pixel corresponding to the first tap 32A and the second tap 32B.
  • the corresponding ones are referred to as the first switching transistor 34A, the first reset transistor 35A, the first amplification transistor 36A, and the first selection transistor 37A, and the one corresponding to the second tap 32B is referred to as the second switching transistor 34B, the first. It is referred to as a two-reset transistor 35B, a second amplification transistor 36B, and a second-selection transistor 37B.
  • the transfer transistor 33, the switching transistor 34, the reset transistor 35, the amplification transistor 36, the selection transistor 37, and the emission transistor 38 are composed of, for example, an N-type MOS transistor (MOSFET).
  • MOSFET N-type MOS transistor
  • the first transfer transistor 33A becomes active in response to the transfer drive signal TG_A, so that the charge generated by the PD 31 is transferred to the first tap 32A. Transfer to (FD32A) and store.
  • the second transfer transistor 33B becomes active in response to the transfer drive signal TG_B supplied to the gate electrode via the signal line 51B when it becomes High, so that the charge generated by the PD 31 is transferred to the second tap 32B. Transfer to (FD32B) and store.
  • the first tap 32A (FD32A) and the second tap 32B (FD32B) are charge storage units that store the charges transferred from the PD 31.
  • the first switching transistor 34A becomes active in response to this, so that the first switching transistor 34A and the first reset transistor 35A
  • the additional capacitance FDLA which is the source / drain region between the two, is connected to the first tap 32A (FD32A).
  • the second switching transistor 34B becomes active in response to this, so that the second switching transistor 34B and the second reset transistor 35B
  • the additional capacitance FDLB which is the source / drain region between the two, is connected to the second tap 32B (FD32B).
  • the FD drive signal FDG is set to High
  • the first tap 32A (FD32A) and the additional capacitance FDLA are connected
  • the second tap 32B (FD32B) is connected.
  • the additional capacity FDLB is set to High. This allows more charge to be accumulated at high illuminance.
  • the drive control circuit 23 sets the FD drive signal FDG to Low and sets the additional capacitance FDLA and FDLB to the first tap 32A (FD32A) and the second tap 32B (FD32B, respectively).
  • the conversion efficiency can be increased.
  • the first reset transistor 35A becomes active in response to this, thereby determining the potential of the first tap 32A (FD32A). Reset to the level of (power supply voltage VDD H ).
  • the second reset transistor 35B becomes active in response to this, thereby determining the potential of the second tap 32B (FD32B). Reset to the level of (power supply voltage VDD H ).
  • the first reset transistor 35A is activated, the first switching transistor 34A is also activated at the same time.
  • the accumulated charge of the first tap 32A (FD32A) is discharged to the power supply voltage VDD H.
  • the second reset transistor 35B is activated, the second switching transistor 34B is also activated at the same time.
  • the accumulated charge of the second tap 32B (FD32B) is discharged to the power supply voltage VDD H.
  • the first amplification transistor 36A is connected to a constant current source (not shown) by connecting the source electrode to the vertical signal line 56A via the first selection transistor 37A to form a source follower circuit.
  • the second amplification transistor 36B is connected to a constant current source (not shown) by connecting the source electrode to the vertical signal line 56B via the second selection transistor 37B to form a source follower circuit.
  • the first selection transistor 37A is connected between the source electrode of the first amplification transistor 36A and the vertical signal line 56A.
  • the selection signal SEL supplied to the gate electrode via the signal line 54 becomes High
  • the first selection transistor 37A becomes active in response to the selection signal SEL
  • the detection signal A output from the first amplification transistor 36A is a vertical signal line. Output to 56A.
  • the second selection transistor 37B is connected between the source electrode of the second amplification transistor 36B and the vertical signal line 56B.
  • the selection signal SEL supplied to the gate electrode via the signal line 54 becomes High
  • the second selection transistor 37B becomes active in response to this, and the detection signal B output from the second amplification transistor 36B is a vertical signal line. Output to 56B.
  • the power supply voltage VDD H and the power supply voltage VDD L may be different power supply voltage levels or may be the same power supply voltage level.
  • the signal lines 51 to 54 of the pixel 10 are connected to the drive control circuit 23, and the transfer transistor 33, the switching transistor 34, the reset transistor 35, the selection transistor 37, and the emission transistor 38 are controlled by the drive control circuit 23. To.
  • the additional capacitance FDLA and FDLB and the first switching transistor 34A and the second switching transistor 34B that control the connection thereof may be omitted, but the additional capacitance FDLA and FDLB are used as the incident light amount. A wider dynamic range can be secured by using them properly.
  • a reset operation for resetting the electric charge of the pixel 21 is performed before the light reception is started. That is, the first reset transistor 35A, the first switching transistor 34A, and the discharge transistor 38 are turned on, and the accumulated charges of the PD31, the first tap 32A (FD32A), and the additional capacitance FDLA are the power supply voltage VDD H or the power supply voltage. Connected to VDD L and reset.
  • light reception is started. That is, when light (reflected light) is incident on the PD 31, it is photoelectrically converted in the PD 31 to generate an electric charge.
  • the first transfer transistor 33A transfers the electric charge generated by the PD 31 to the first tap 32A (FD32A) and stores it. Let me.
  • the detection signal A corresponding to the potential accumulated in the first tap 32A (FD32A) is generated. It is output to the vertical signal line 56A via the first-select transistor 37A.
  • the reset drive signals RST_A and RST_B are controlled to High, and the accumulated charges of the first tap 32A (FD32A) and the second tap 32B (FD32B) are reset.
  • the reset drive signal RST_A is controlled to Low.
  • the reset drive signal RST_B is maintained high until time t3.
  • the drive control circuit 23 outputs transfer drive signals TG_A and TG_B that alternately repeat on / off of the opposite phases of the first transfer transistor 33A and the second transfer transistor 33B in the exposure period T.
  • the electric charge generated by the PD 31 is transferred to the first tap 32A during the period when the transfer drive signal TG_A is set to high after time t2. And accumulated.
  • the electric charge generated by the PD 31 during the period when the transfer drive signal TG_B is set to High is transferred to the second tap 32B and accumulated.
  • the storage time (first storage time) on the first tap 32A side of the first pixel circuit is such that the first reset transistor 35A is inactive and the first transfer is performed during the period from time t2 to time t4. This corresponds to the time when the transistor 33A is controlled to the active state.
  • the storage time (second storage time) on the second tap 32B side of the first pixel circuit is such that the second reset transistor 35B is inactive and the second reset transistor 35B is inactive during the period from time t2 to time t4. 2 Corresponds to the time when the transfer transistor 33B is controlled to the active state.
  • the period during which the second reset transistor 35B is controlled to the active state is longer than that on the first tap 32A side, and while the second reset transistor 35B is controlled to the active state, the second tap 32B is pressed. Since the transferred charge is discarded, the second storage time is shorter than the first storage time.
  • the first tap 32A is changed by changing the time for activating the first reset transistor 35A and the time for activating the second reset transistor 35B.
  • the accumulation time of the second tap 32B and the accumulation time of the second tap 32B are controlled to different times.
  • the normal drive mode can be realized by controlling the reset drive signal RST_B to Low in the same way as the reset drive signal RST_A at time t2 among the drives in the HDR drive mode described above.
  • FIG. 9 shows a second circuit configuration example (second pixel circuit) of the pixel 21.
  • the second pixel circuit of FIG. 9 shows a circuit configuration of two pixels adjacent to each other in the horizontal direction in the same manner as the first pixel circuit shown in FIG. 7, and the parts common to FIG. 7 are the same. The description of the part is omitted as appropriate.
  • the wiring of the signal line 53 that controls the reset transistor 35 is different from that of the first pixel circuit of FIG. 7.
  • the first reset transistor 35A is supplied via the signal line 53A.
  • the second reset transistor 35B is controlled by the reset drive signal RST_A, and the second reset transistor 35B is controlled by the reset drive signal RST_B supplied via the signal line 53B.
  • one signal line 53 is provided for one pixel 21 (pixel row), and the first reset transistor 35A and the second reset transistor 35B are common.
  • the configuration is controlled by the reset drive signal RST supplied via the signal line 53 of the above.
  • the reset drive signal RST is controlled to High, and the accumulated charges of the first tap 32A (FD32A) and the second tap 32B (FD32B) are reset.
  • the reset drive signal RST is controlled to Low.
  • the drive control circuit 23 outputs transfer drive signals TG_A and TG_B that alternately repeat on / off of the opposite phases of the first transfer transistor 33A and the second transfer transistor 33B in the exposure period T.
  • the electric charge generated by the PD 31 is transferred to the first tap 32A and accumulated during the period when the transfer drive signal TG_A is set to High. Further, in the second tap 32B (FD32B), the electric charge generated by the PD 31 is transferred to the second tap 32B and accumulated during the period when the transfer drive signal TG_B is set to High.
  • the drive control circuit 23 is changed to control the transfer drive signal TG_B to Low during the period in which the transfer drive signal TG_B has been controlled to High, and the discharge signal supplied to the discharge transistor 38 via the signal line 55. Control OFG to High.
  • the storage time (first storage time) on the first tap 32A side of the second pixel circuit corresponds to the time during which the first transfer transistor 33A is controlled to be active in the period from time t12 to time t14.
  • the storage time (second storage time) on the second tap 32B side of the second pixel circuit corresponds to the time during which the second transfer transistor 33B is controlled to be active in the period from time t12 to time t14.
  • the second storage time is shorter than the first storage time. ..
  • the normal drive mode can be realized by continuing the control from the time t12 to the time t13 even in the period from the time t13 to the time t14 in the operation of the HDR drive mode described above.
  • a part of the exposure period of the normal drive mode of the second pixel circuit is discharged from the charge accumulation in the second tap 32B by the discharge transistor 38. This is the operation changed to.
  • a part of the period in which the electric charge is accumulated in the second tap 32B in the normal drive mode is changed to the drive for controlling the discharge transistor 38 to the active state.
  • the accumulation time of the first tap 32A and the accumulation time of the second tap 32B are controlled to different times.
  • the accumulation start timing for starting charge accumulation differs between the first tap 32A and the second tap 32B, and the accumulation end timing for ending charge accumulation is different. , Approximately the same (deviation of exposure time T). In this case, when the electric charge is saturated at the first tap 32A having a long accumulation time, the electric charge may leak to the second tap 32B which starts the accumulation with a delay.
  • the accumulation start timing at which the charge accumulation is started is substantially the same between the first tap 32A and the second tap 32B (deviation of the exposure time T), and the charge accumulation.
  • the storage end timing to end is different. In this case, even if the electric charge is saturated at the first tap 32A having a long accumulation time after the accumulation of the second tap 32B is completed, the electric charge generated by the PD 31 is discarded by the discharge transistor 38, so that the second tap 32B is used. It is unlikely that the charge will leak into the tap 32B.
  • the HDR drive mode can be realized by an operation other than the drive described with reference to FIG.
  • FIG. 11 is a modified example of the HDR drive mode of the second pixel circuit, and shows another operation example of realizing the HDR drive mode in the second pixel circuit.
  • the accumulation start timing for starting the accumulation of electric charges is substantially the same for the first tap 32A and the second tap 32B, and the second tap 32B accumulates in the first half of the entire accumulation period. It was supposed to work. In this case, since the accumulation period of the second tap 32B is concentrated in the first half of the entire accumulation period, the simultaneity of the accumulation times is broken between the first tap 32A and the second tap 32B. For example, when the subject is a moving object and the movements are different between the first half portion and the second half portion of the entire accumulation period, the detection results are different between the first tap 32A and the second tap 32B.
  • the drive control circuit 23 drives the first tap 32A and the second tap 32B with improved simultaneity of the accumulation time.
  • the drive control circuit 23 controls the accumulation of a plurality of charges on the first tap 32A so as to execute the accumulation of a single charge on the second tap 32B.
  • the electric charge is accumulated once in the second tap 32B for every two electric charges accumulated in the first tap 32A.
  • the reset drive signal RST is controlled to High, and the accumulated charges of the first tap 32A and the second tap 32B are reset.
  • the reset drive signal RST is controlled to Low.
  • the drive control circuit 23 controls the transfer drive signal TG_A to be high to turn on the first transfer transistor 33A, and controls the transfer drive signal TG_B to be low to control the second transfer transistor. Turn off 33B.
  • the drive control circuit 23 changes the transfer drive signal TG_A to Low to turn off the first transfer transistor 33A, and momentarily controls the emission signal OFG to High to control the emission transistor 38 for a short period of time. Just turn it on. Then, after the discharge transistor 38 is turned off, the drive control circuit 23 controls the transfer drive signal TG_B to High until time t24 to turn on the second transfer transistor 33B.
  • the drive control circuit 23 controls the transfer drive signal TG_A to be high to turn on the first transfer transistor 33A, and controls the transfer drive signal TG_B to be low to control the second transfer transistor. Turn off 33B.
  • the drive control circuit 23 turns off the first transfer transistor 33A by the low transfer drive signal TG_A, and turns on the emission transistor 38 by the high emission signal OFG.
  • the accumulation of electric charge on the first tap 32A is executed twice. After the first accumulation of electric charge on the first tap 32A, the electric charge is accumulated on the second tap 32B, and after the second accumulation of electric charge on the first tap 32A, the electric charge by the discharge transistor 38 is executed. Emissions are being carried out. As a result, every time the electric charge is accumulated in the first tap 32A twice, the electric charge is accumulated in the second tap 32B once.
  • the discharge transistor 38 is controlled to be in the active state for a short time, and the charge is discharged. After the charge is accumulated in the first tap 32A, the charge is always discharged by the discharge transistor 38, so that the charge transfer characteristics to the first tap 32A vary depending on whether or not the charge is accumulated in the second tap 32B. We are trying to stabilize the characteristics.
  • the second tap 32B by executing the accumulation of the electric charge on the second tap 32B once for each accumulation of the electric charge on the first tap 32A a plurality of times.
  • the first storage time on the first tap 32A side and the second storage time on the second tap 32B side can be controlled to different times, and the simultaneity of the storage times can be improved. Since the accumulation time is highly simultaneous, the moving subject characteristics are improved.
  • the phase was not particularly mentioned, but as described with reference to FIGS. 4 to 6, four Pixel data is acquired for each phase. That is, the pixel 21 has the first accumulation time of the first tap 32A and the first accumulation time of the first tap 32A for each of the four phases whose phases are shifted by 0 °, 90 °, 180 °, and 270 ° with respect to the irradiation timing of the irradiation light.
  • the charge is accumulated by controlling the second accumulation time of the second tap 32B to a different time, and the detection signals A0 to A3 and the detection signals B0 to B3 are output.
  • the first pixel circuit or the second pixel circuit described above is adopted for the pixels 21 arranged in the pixel array unit 22 of the light receiving unit 15, and the first tap 32A is first operated by the operation of the HDR drive mode described above.
  • Detection signals A0 to A3 according to the charge accumulated in the accumulation time (long accumulation time) and detection signals B0 to B3 according to the charge accumulated in the second tap 32B in the second accumulation time (short accumulation time). Is converted into a digital value by an AD conversion unit (not shown), and is output as pixel data to the signal processing unit 16 in the subsequent stage.
  • FIG. 12 is a block diagram showing a detailed configuration example of the signal processing unit 16.
  • the signal processing unit 16 is composed of a correction processing unit 71, a frame memory 72, a depth calculation unit 73, a statistic calculation unit 74, and an accumulation time calculation unit 75.
  • Pixel data of each pixel 21 is supplied to the correction processing unit 71 from the light receiving unit 15, and the accumulation time when the pixel data is acquired is supplied from the accumulation time calculation unit 75.
  • the correction processing unit 71 executes correction processing for correcting the pixel data of the pixel of interest by using each pixel 21 of the pixel array unit 22 as the pixel of interest and using the pixel data of the peripheral pixels which are the pixels around the pixel of interest. Details of the correction process will be described later with reference to FIGS. 13 and 14.
  • the pixel data of each pixel 21 after the correction processing by the correction processing unit 71 specifically, the detection signals A and the detection signals B having phases of 0 °, 90 °, 180 °, and 270 ° are stored in the frame memory 72.
  • the detection signal A is a signal having a first storage time (long storage time) corresponding to the stored charge of the first tap 32A
  • the detection signal B is a signal corresponding to the stored charge of the second tap 32B. It is a signal of 2 accumulation time (short accumulation time).
  • the frame memory 72 stores the detection signals A and the detection signals B having phases 0 °, 90 °, 180 °, and 270 ° of each pixel 21 as one frame of data, and if necessary, the depth calculation unit 73. Supply to.
  • the depth calculation unit 73 acquires the detection signal A and the detection signal B of each pixel 21 of the phases 0 °, 90 °, 180 °, and 270 ° stored in the frame memory 72 from the distance measuring module 11.
  • the depth value d which is the distance to the object, is calculated.
  • the depth calculation unit 73 generates a depth map in which the depth value is stored as the pixel value of each pixel 21, and outputs the depth map to the outside of the module.
  • the process of calculating the depth value d will be described later with reference to FIGS. 15 and 16.
  • the statistic calculation unit 74 calculates the statistic of the pixel data of each pixel 21 supplied from the light receiving unit 15.
  • the pixel data of the pixel 21 corresponds to the brightness value of the reflected light received by the pixel 21, and the reflected light includes not only the irradiation light but also ambient light such as sunlight.
  • the statistic calculation unit 74 may, for example, represent an average value (luminance average value) of the brightness values of each pixel or a pixel saturation rate representing the ratio of all pixels of the pixel array unit 22 to which the charge (luminance value) is saturated. And so on. Details of the statistic calculation process by the statistic calculation unit 74 will be described later with reference to FIGS. 17 to 20.
  • the calculated statistic is supplied to the accumulation time calculation unit 75.
  • the storage time calculation unit 75 uses the statistic of the pixel data of each pixel 21 supplied from the statistic calculation unit 74 to store the storage time (long storage time and short storage time) of each pixel 21 in the next frame of the light receiving unit 15. Each time) is calculated and supplied to the light receiving unit 15 and the correction processing unit 71. That is, the accumulation time of the pixel 21 in the next light reception is adjusted according to the statistic of the current brightness value of each pixel 21 calculated by the statistic calculation unit 74, and is supplied to the light receiving unit 15 for control. ..
  • correction processing by the correction processing unit >
  • the correction process executed by the correction processing unit 71 will be described with reference to FIGS. 13 and 14.
  • the amount of charge leakage is also between the first tap 32A and the second tap 32A due to the difference in the physical positions of the first tap 32A (FD32A) and the second tap 32B (FD32B) in the pixel 21. It may be different from the tap 32B.
  • the correction processing unit 71 uses each pixel 21 of the pixel array unit 22 as a pixel of interest, and multiplies the pixel data of the peripheral pixels of the pixel of interest by a correction coefficient according to the accumulation time to obtain the pixel data of the pixel of interest. By adding to, the pixel data of the pixel of interest is corrected.
  • the peripheral pixels for example, as shown in FIG. 13, pixel data of 8 pixels around 3x3 centered on the pixel of interest is used.
  • the correction processing unit 71 assumes that the pixel position of the pixel of interest is (x, y), and the first tap of the pixel of interest (x, y) is performed by the equation (6).
  • the corrected detection signal A'(x, y) of 32A and the corrected detection signal B'(x, y) of the second tap 32B of the pixel of interest (x, y) are calculated.
  • the c (i, j), d (i, j), e (i, j), and f (i, j) of the equation (6) are determined in advance by the pre-shipment inspection of the distance measuring sensor 14. Represents the correction coefficient.
  • the correction coefficients c (i, j), d (i, j), e (i, j), and f (i, j) are the length of the storage time and the first storage time of the first tap 32A ( The storage time is determined in advance according to the ratio of the storage time to the second storage time (short storage time) of the second tap 32B) and stored in the internal memory.
  • the correction processing unit 71 has a correction coefficient c (i, j), d (i, j), e (i, i, corresponding to the storage time when the pixel data supplied from the storage time calculation unit 75 is acquired. j) and f (i, j) are acquired from the internal memory, and the correction calculation of equation (6) is performed. Since the correction processing by the correction processing unit 71 corrects the signal corresponding to the leakage of electric charge from the adjacent pixels, it is possible to suppress the error of the depth value d calculated by the depth calculation unit 73.
  • Depth calculation process by the depth calculation unit> The depth map generation process executed by the depth calculation unit 73 will be described with reference to FIGS. 15 and 16.
  • FIG. 15 is a block diagram showing a detailed configuration example of the depth calculation unit 73.
  • the depth calculation unit 73 is composed of a blend rate calculation unit 91, a blend processing unit 92-1 to 92-4, and a depth map generation unit 93.
  • the depth calculation unit 73 has the detection signals A0, A1, A2, and A3 of the first tap 32A of the phases 0 °, 90 °, 180 °, and 270 °, and the phases 0 °, 90 °, 180 °, and The detection signals B0, B1, B2, and B3 of the second tap 32B at 270 ° are acquired from the frame memory 72.
  • the blend ratio calculation unit 91 is based on the detection signals A0, A1, A2, and A3 of the first tap 32A detected over a long storage time, and the detection signal B of the second tap 32B with respect to the detection signal A of the first tap 32A.
  • Blend rate ⁇ (hereinafter referred to as short animal blend rate ⁇ ) is calculated.
  • the blend ratio calculation unit 91 calculates the blend ratio ⁇ by the following equations (7) and (8).
  • the maximum value lum among the detection signals A0, A1, A2, and A3 of the first tap 32A having phases 0 °, 90 °, 180 °, and 270 ° is detected. Then, based on the maximum value lum of the detection signal A, the short animal blend ratio ⁇ is calculated by the equation (8).
  • FIG. 16 is a diagram showing the processing of the equation (8).
  • the blend processing units 92-1 to 92-4 blend the detection signal A of the first tap 32A and the detection signal B of the second tap 32B by using the short animal blend ratio ⁇ supplied from the blend ratio calculation unit 91.
  • the detected detection signal C is calculated.
  • the blend processing unit 92-1 calculates a detection signal C0 that is a blend of the detection signal A0 of the first tap 32A and the detection signal B2 of the second tap 32B by the following equation (9), and causes the depth map generation unit 9 to calculate the detection signal C0. Supply.
  • the blend processing unit 92-2 calculates a detection signal C1 that is a blend of the detection signal A1 of the first tap 32A and the detection signal B3 of the second tap 32B by the following equation (10), and causes the depth map generation unit 9 to calculate the detection signal C1. Supply.
  • the blend processing unit 92-3 calculates a detection signal C2 that is a blend of the detection signal A2 of the first tap 32A and the detection signal B0 of the second tap 32B by the following equation (11), and causes the depth map generation unit 9 to calculate the detection signal C2. Supply.
  • the blend processing unit 92-4 calculates a detection signal C3 that is a blend of the detection signal A3 of the first tap 32A and the detection signal B1 of the second tap 32B by the following equation (12), and causes the depth map generation unit 9 to calculate the detection signal C3. Supply.
  • C0 A0 ⁇ (1- ⁇ ) + B2 ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ (9)
  • C1 A1 x (1- ⁇ ) + B3 x ⁇ x ⁇ ...
  • C2 A2 ⁇ (1- ⁇ ) + B0 ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ (11)
  • C3 A3 ⁇ (1- ⁇ ) + B1 ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ (12)
  • the depth map generation unit 93 calculates the I and Q signals of each pixel 21 of the pixel array unit 22 by the following formula (13), and calculates the depth value d by the above formula (2).
  • the depth map generation unit 93 generates a depth map in which the depth value d is stored as the pixel value of each pixel 21, and outputs the depth map to the outside of the module.
  • the statistic calculation unit 74 can adopt the configuration of either the first configuration example shown in FIG. 17 or the second configuration example shown in FIG.
  • FIG. 17 is a block diagram showing a first configuration example of the statistic calculation unit 74.
  • the statistic calculation unit 74 includes a saturation rate calculation unit 101 and an average value calculation unit 102.
  • the saturation rate calculation unit 101 detects the long storage time detection signal A, that is, the phases 0 °, 90 °, 180 °, and Using the detection signals A0 to A3 of the first tap 32A at 270 °, the pixel saturation rate representing the ratio of pixels whose brightness value is saturated is calculated.
  • the maximum value of the detection signals A0 to A3 of the first tap 32A is not counted, but the number of pixels P_SAT in which the long-lived average detection signal A_AVE of the detection signals A0 to A3 of the first tap 32A exceeds the saturation threshold SAT_TH is not counted.
  • the number of pixels P_SAT in which A_MAX or the minimum value A_MIN exceeds the saturation threshold SAT_TH may be counted.
  • the mean value calculation unit 102 detects the short storage time detection signal B, that is, the phases 0 °, 90 °, 180 °, and Using the detection signals B0 to B3 of the second tap 32B at 270 °, the average value (brightness average value) of the pixel brightness values of the entire pixel array unit 22 is calculated.
  • the statistic calculation unit 74 supplies the pixel saturation rate calculated by the saturation rate calculation unit 101 and the brightness average value calculated by the average value calculation unit 102 to the accumulation time calculation unit 75.
  • FIG. 18 is a block diagram showing a second configuration example of the statistic calculation unit 74.
  • the statistic calculation unit 74 includes a histogram generation unit 103.
  • the histogram generation unit 103 detects the short storage time detection signal B, that is, the phases 0 °, 90 °, 180 °, and 270.
  • the detection signals B0 to B3 of the second tap 32B of ° are used to generate a histogram of the luminance value.
  • the histogram generation unit 103 calculates the short animal average detection signals B_AVE of the detection signals B0 to B3 of the second tap 32B for all the pixels of the pixel array unit 22. Then, the histogram generation unit 103 generates (calculates) a histogram of the luminance value as shown in FIG. 19 using the short animal average detection signal B_AVE of each pixel 21 as the luminance value. The generated histogram of the brightness value is supplied to the accumulation time calculation unit 75.
  • the statistic calculation unit 74 can adopt the configuration of either the first configuration example of FIG. 17 or the second configuration example of FIG. 18, as well as the first configuration example of FIG. 17 and FIG. A configuration may be provided in which both of the second configuration examples are provided, and which statistic is used is selected in the initial setting, user setting, and the like.
  • the first configuration example of FIG. 17 is adopted as the statistic calculation unit 74, and the accumulation time calculation process of the accumulation time calculation unit 75 when the pixel saturation rate and the brightness average value are supplied from the statistic calculation unit 74. Will be described.
  • the current short storage time of the equation (14) is the short storage time of the second tap 32B currently set, and the long storage time after the update is the first tap set at the next light reception of the light receiving unit 15. It has a long accumulation time of 32A.
  • the target average value is predetermined. This control indicates that the long storage time is controlled so that the brightness average value becomes the target average value, and the storage time calculation unit 75 has an SN ratio in which the dark part (long distance, low reflectance) of the subject is high.
  • the long storage time is controlled so that light can be received by.
  • the current short storage time of the equation (15) is the short storage time of the second tap 32B currently set, and the short storage time after the update is the short storage time of the second tap 32B at the time of the next light reception of the light receiving unit 15. It has a short accumulation time.
  • the control rate is a constant control parameter greater than 1.0. This control indicates that the pixel saturation rate is controlled to be smaller than the target pixel saturation rate, and the storage time calculation unit 75 controls the short storage time so that saturated pixels are not generated as much as possible.
  • the second configuration example of FIG. 18 is adopted as the statistic calculation unit 74, and the accumulation time calculation process of the accumulation time calculation unit 75 when the histogram of the luminance value is supplied from the statistic calculation unit 74 will be described. ..
  • FIG. 20 is a diagram illustrating the accumulation time calculation process of the accumulation time calculation unit 75 when the histogram of the luminance value is supplied from the statistic calculation unit 74.
  • the accumulation time calculation unit 75 generates a histogram of the brightness values supplied from the statistic calculation unit 74, and a cumulative histogram in which the frequency values are accumulated from the one with the lowest brightness value. Then, the accumulation time calculation unit 75 generates a normalized cumulative histogram in which the cumulative value is normalized by dividing the generated cumulative histogram by the total number of pixels.
  • the accumulation time calculation unit 75 determines the luminance values lum0 and lum1 at which the cumulative values are CP0 and CP1 determined in advance in the normalized cumulative histogram, and uses the luminance values lum0 and lum1 to obtain the following equation ( The long accumulation time and the short accumulation time of the next detection frame are determined by 16) and the equation (17).
  • Short storage time after update (Short storage time target value / lum1) x Current short storage time ... (17)
  • the bright signal level of the top 10% of the total luminance values is set so that the saturation rate of the short storage time is 50%. It is possible to control such as controlling.
  • Measurement processing in HDR drive mode The measurement process in which the distance measuring module 11 measures the distance to the object in the HDR drive mode will be described with reference to the flowchart of FIG.
  • This process is started when, for example, the HDR drive mode is set as the operation mode and the measurement start is instructed.
  • step S1 the signal processing unit 16 has a first storage time (long storage time) of the first tap 32A of each pixel 21 of the light receiving unit 15 and a second storage time (short storage time) of the second tap 32B. ) Is supplied to the light receiving unit 15.
  • step S2 the light emission control unit 13 supplies a light emission control signal of a predetermined frequency (for example, 20 MHz) to the light emitting unit 12 and the light receiving unit 15.
  • a predetermined frequency for example, 20 MHz
  • step S3 the light emitting unit 12 irradiates the object with irradiation light based on the light emission control signal supplied from the light emission control unit 13.
  • each pixel 21 of the light receiving unit 15 receives the reflected light from the object based on the control of the drive control circuit 23.
  • Each pixel 21 is composed of the first pixel circuit shown in FIG. 7 or the second pixel circuit shown in FIG.
  • Each pixel 21 has the first accumulation time of the first tap 32A and the first storage time for each of the four phases shifted by 0 °, 90 °, 180 °, and 270 ° with respect to the irradiation timing of the irradiation light.
  • the second storage time of the 2-tap 32B is controlled to a different time, charges are stored according to the amount of received light, and the detection signals A0 to A3 and the detection signals B0 to B3 are output.
  • the detection signals A0 to A3 and the detection signals B0 to B3 of each pixel 21 are supplied to the correction processing unit 71 of the signal processing unit 16 and the statistic calculation unit 74.
  • step S5 the correction processing unit 71 executes a correction process for correcting the pixel data of the pixel of interest using the pixel data of the peripheral pixels of the pixel of interest, with each pixel 21 of the pixel array unit 22 as the pixel of interest.
  • the correction processing unit 71 has correction coefficients c (i, j), d (i, j), e (i, j), and f according to the accumulation time when the pixel data is acquired. (i, j) is multiplied by the pixel data of the peripheral pixels to calculate the corrected pixel data.
  • the pixel data of each pixel 21 after correction, the detection signals A and the detection signals B having phases of 0 °, 90 °, 180 °, and 270 °, are sequentially supplied to and stored in the frame memory 72.
  • step S6 the depth calculation unit 73 generates and outputs a depth map using the pixel data after the correction process. More specifically, the depth calculation unit 73 acquires the detection signal A and the detection signal B of each pixel 21 having phases 0 °, 90 °, 180 °, and 270 ° stored in the frame memory 72. .. Then, the depth calculation unit 73 determines the short animal blend rate ⁇ based on the maximum value lum of the detection signal A, and uses the equations (9) to (12) to determine the short animal blend rate ⁇ for the detection signal A and the detection signal B. The four-phase detection signals C0 to C3 blended with ⁇ are calculated. Further, the depth calculation unit 73 calculates the depth value d by the equations (13) and (2). Then, the depth calculation unit 73 generates a depth map in which the depth value d is stored as the pixel value of each pixel 21, and outputs the depth map to the outside of the module.
  • step S7 the statistic calculation unit 74 calculates the statistic of the brightness value of the received reflected light using the pixel data of each pixel 21 supplied from the light receiving unit 15.
  • the statistic calculation unit 74 calculates the brightness average value and the pixel saturation rate of each pixel 21 as statistics. It is supplied to the accumulation time calculation unit 75.
  • the statistic calculation unit 74 when the statistic calculation unit 74 is configured by the second configuration example shown in FIG. 18, the statistic calculation unit 74 generates a histogram of the luminance value as a statistic and causes the accumulation time calculation unit 75 to generate a histogram. Supply.
  • step S8 the accumulation time calculation unit 75 uses the statistic of the brightness value of each pixel 21 supplied from the statistic calculation unit 74, and the long storage of each pixel 21 when the light receiving unit 15 receives light next time.
  • the time and the short storage time are calculated and supplied to the light receiving unit 15 and the correction processing unit 71.
  • the drive control circuit 23 of the light receiving unit 15 supplies the accumulation time of the first tap 32A and the second tap 32B of each pixel 21 from the accumulation time calculation unit 75 in driving the next frame (processing of the next step S4).
  • Each pixel 21 is controlled so as to have a long storage time and a short storage time.
  • the accumulation time calculation unit 75 calculates the long accumulation time of the next detection frame by the above-mentioned equation (14), and the above-mentioned equation. According to (15), the short accumulation time of the next detection frame is calculated.
  • the accumulation time calculation unit 75 when the histogram of the luminance value is supplied from the statistic calculation unit 74, the accumulation time calculation unit 75 generates the normalized cumulative histogram, and the luminance values lum0 and CP1 in which the cumulative values are predetermined CP0 and CP1. lum1 is determined, and the long accumulation time and the short accumulation time of the next detection frame are calculated by the above equations (16) and (17). The calculated long storage time and short storage time are supplied to the light receiving unit 15 and also to the correction processing unit 71.
  • step S9 the distance measuring module 11 determines whether to stop the measurement. For example, the ranging module 11 determines that the measurement is stopped when an operation or a command to stop the measurement is supplied.
  • step S9 If it is determined in step S9 that the measurement is not stopped (measurement is continued), the process returns to step S2, and the processes of steps S2 to S9 described above are repeated.
  • step S9 if it is determined in step S9 that the measurement is to be stopped, the measurement process of FIG. 21 is terminated.
  • the first storage time of the first tap 32A of each pixel 21 and the second storage time of the second tap 32B are controlled to be different times.
  • the depth value d can be calculated based on the detected detection signals A0 to A3 and the detection signals B0 to B3, and a depth map can be generated.
  • two taps 32 of each pixel 21 are controlled to receive a long storage time in the first frame, and two taps of each pixel 21 are received in the second frame.
  • a method of changing the storage time in frame units such that the tap 32 is controlled to a short storage time and receiving light is conceivable.
  • this measurement method at least two frames are required to acquire pixel data having a long storage time and a short storage time.
  • the distance measuring module 11 since pixel data having a long storage time and a short storage time can be acquired in one frame, it is possible to measure a distance with an expanded measurement range without lowering the frame rate. ..
  • a pixel 21 that controls all the pixels of the pixel array unit 22 to a long storage time and a pixel that controls the short storage time There is a method of acquiring pixel data having a long storage time and a short storage time by dividing the pixel data into 21 and 21 in the spatial direction. In this measurement method, the number of pixels having a long storage time and the number of pixels having a short storage time are half the total number of pixels of the pixel array unit 22, so that the resolution is lowered.
  • pixel data having a long storage time and a short storage time can be acquired from all the pixels of the pixel array unit 22, so that the distance can be measured by expanding the measurement range without lowering the resolution. It can be carried out.
  • the pixel data of the four-phase long storage time is acquired by one tap 32 (first tap 32A), and the pixel data of the short storage time is also acquired by one tap 32 (second tap 32). Obtained with tap 32B). That is, since the pixel transistors in which the four-phase pixel data is detected are the same, it is not necessary to consider the variation of the pixel transistors, and the fixed pattern noise caused by the variation of the pixel transistors can be suppressed.
  • FIG. 22 is a perspective view showing a chip configuration example of the distance measuring sensor 14.
  • the distance measuring sensor 14 can be composed of one chip in which a sensor die 151 as a plurality of dies (boards) and a logic die 152 are laminated.
  • the sensor die 151 is configured with a sensor unit 161 (circuit as), and the logic die 152 is configured with a logic unit 162.
  • a pixel array unit 22 and a drive control circuit 23 are formed in the sensor unit 161.
  • the logic unit 162 is formed with, for example, an AD conversion unit that performs AD conversion of the detection signal, a signal processing unit 16, an input / output terminal, and the like.
  • the distance measuring sensor 14 may be composed of three layers in which another logic die is laminated in addition to the sensor die 151 and the logic die 152. Of course, it may be composed of a stack of four or more layers (boards).
  • the distance measuring sensor 14 is composed of, for example, a first chip 171 and a second chip 172, and a relay board (interposer board) 173 on which they are mounted, as shown in FIG. 22B. You may.
  • a pixel array unit 22 and a drive control circuit 23 are formed on the first chip 171.
  • the second chip 172 is formed with an AD conversion unit that performs AD conversion of the detection signal and a signal processing unit 16.
  • the circuit arrangement of the sensor die 151 and the logic die 152 in A of FIG. 22 and the circuit arrangement of the first chip 171 and the second chip 172 in B of FIG. 22 are merely examples. Not limited to.
  • the frame memory 72, the depth calculation unit 73, and the like may be provided outside the distance measuring sensor 14.
  • the present technology is not limited to application to the ranging module. That is, the present technology can be applied to all electronic devices such as smartphones, tablet terminals, mobile phones, personal computers, game consoles, television receivers, wearable terminals, digital still cameras, and digital video cameras.
  • the distance measuring module 11 described above may have a light emitting unit 12, a light emitting control unit 13, and a distance measuring sensor 14 packaged together, or the light emitting unit 12 and the distance measuring sensor 14 are separately configured. Therefore, only the distance measuring sensor 14 may be configured as one chip.
  • FIG. 23 is a diagram showing a usage example of the above-mentioned ranging module 11.
  • the above-mentioned ranging module 11 can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray, as described below.
  • ⁇ Devices that take images for viewing such as digital cameras and portable devices with camera functions.
  • ⁇ For safe driving such as automatic stop and recognition of the driver's condition, in front of the car Devices used for traffic, such as in-vehicle sensors that photograph the rear, surroundings, and interior of vehicles, surveillance cameras that monitor traveling vehicles and roads, and distance measurement sensors that measure distance between vehicles, etc.
  • ⁇ User gestures Devices used in home appliances such as TVs, refrigerators, and air conditioners to take pictures and operate the equipment according to the gestures
  • Endoscopes devices that perform angiography by receiving infrared light, etc.
  • Equipment used for medical and healthcare ⁇ Equipment used for security such as surveillance cameras for crime prevention and cameras for person authentication ⁇ Skin measuring instruments for taking pictures of the skin and taking pictures of the scalp Equipment used for beauty such as microscopes ⁇ Equipment used for sports such as action cameras and wearable cameras for sports applications ⁇ Camera etc. for monitoring the condition of fields and crops , Equipment used for agriculture
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 24 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the imaging unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, so that the driver can control the driver. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs cooperative control for the purpose of antiglare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits the output signal of at least one of the audio and the image to the output device capable of visually or audibly notifying the passenger or the outside of the vehicle of the information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 25 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has image pickup units 12101, 12102, 12103, 12104, 12105 as the image pickup unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100, for example.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the imaging units 12101 and 12105 are mainly used for detecting the preceding vehicle, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 25 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the imaging unit 12031 and the like among the configurations described above.
  • the distance measuring module 11 of FIG. 1 can be applied to the imaging unit 12031.
  • the image pickup unit 12031 is, for example, LIDAR, and is used for detecting an object around the vehicle 12100 and a distance to the object.
  • LIDAR LIDAR
  • the technique according to the present disclosure to the image pickup unit 12031, the measurement range of the object around the vehicle 12100 and the distance to the object is expanded. As a result, for example, a vehicle collision warning can be issued at an appropriate timing, and a traffic accident can be prevented.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
  • the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
  • the present technology can have the following configurations.
  • a photoelectric conversion unit that photoelectrically converts the incident light to generate an electric charge
  • a first charge storage unit that stores the first charge generated in the first storage time in the photoelectric conversion unit
  • a first charge storage unit that stores the first charge generated in the first storage time in the photoelectric conversion unit
  • a light receiving device including a pixel having a second charge storage unit that stores a second charge generated in a second storage time different from the first storage time in the photoelectric conversion unit.
  • the pixel is A first reset transistor that discharges the first charge of the first charge storage unit, and It further has a second reset transistor for discharging the second charge of the second charge storage unit.
  • the light receiving device according to 1). (3) Further having an discharge transistor for discharging the electric charge of the photoelectric conversion unit, The light receiving device according to (1) or (2), wherein the discharge transistor is controlled in an active state during a period in which charges are accumulated in the second charge storage unit. (4) The light receiving light according to the above (3), wherein the second charge is accumulated once in the second charge storage unit in response to a plurality of accumulations of the first charge in the first charge storage unit. apparatus. (5) In the above (4), the discharge transistor is controlled to be active between the accumulation of the second charge in the second charge storage unit and the accumulation of the first charge in the first charge storage unit. The light receiving device described.
  • the light incident on the pixel is the reflected light obtained by reflecting the irradiation light on the object.
  • the light receiving device according to any one of (1) to (5), wherein the pixel stores the first charge and the second charge for each of the four phases with respect to the irradiation timing of the irradiation light.
  • the correction processing unit corrects the pixel data of the pixel by adding the multiplication result obtained by multiplying the pixel data of the peripheral pixels of the pixel by the correction coefficient according to the accumulation time to the pixel data of the pixel.
  • the light receiving device according to (7).
  • a pixel array unit in which a plurality of the pixels are arranged in a matrix and The light receiving device according to any one of (1) to (8), further comprising a statistic calculation unit for calculating a statistic of pixel data of a plurality of the pixels.
  • the statistic calculation unit calculates, as the statistic, a pixel saturation rate, which is a ratio of pixels saturated with the charge, and a brightness average value of the plurality of the pixels.
  • the pixel saturation rate is calculated using the pixel data of the first storage time of the pixel.
  • the light receiving device further comprising a drive control unit that drives the pixels so that the storage times are the first storage time and the second storage time.
  • a drive control unit of a light receiving device including a pixel having a photoelectric conversion unit, a first charge storage unit, and a second charge storage unit The first charge generated in the first storage time in the photoelectric conversion unit is stored in the first charge storage unit.
  • a method for driving a light receiving device that stores a second charge generated in a second storage time different from the first storage time in the photoelectric conversion unit in the second charge storage unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本技術は、測定範囲を拡大できるようにする受光装置、および、受光装置の駆動方法に関する。 受光装置は、入射された光を光電変換して電荷を生成する光電変換部と、光電変換部において第1蓄積時間で生成された第1電荷を蓄積する第1電荷蓄積部と、光電変換部において第1蓄積時間と異なる第2蓄積時間で生成された第2電荷を蓄積する第2電荷蓄積部とを有する画素を備える。本技術は、例えば、Indirect ToF方式による測距を行う測距モジュール等に適用できる。

Description

受光装置、および、受光装置の駆動方法
 本技術は、受光装置、および、受光装置の駆動方法に関し、特に、測定範囲を拡大できるようにした受光装置、および、受光装置の駆動方法に関する。
 近年の半導体技術の進歩により、スマートフォンなどのモバイル端末に、測距モジュールが搭載されているものがある。測距モジュールにおける測距方法としては、例えば、Indirect ToF(Time of Flight)方式がある。Indirect ToF方式では、測距モジュールは、変調された照射光を物体に向かって照射して物体の表面で反射してくる反射光を検出する。このとき、測距モジュールは、例えば、照射光に対して0度、90度、180度、および、270度の4位相で反射光を検出することで照射光と反射光との位相差を検出して、物体までの距離に変換する。
 例えば、1画素に4つの電荷蓄積部を備え、照射光に対して0度、90度、180度、および、270度の位相をずらして受光された電荷を、画素内の4つの電荷蓄積部に振り分ける構成とした距離画像装置が開示されている(例えば、特許文献1参照)。
特開2009-8537号公報
 Indirect ToF方式の測距モジュールは、距離の測定範囲(ダイナミックレンジ)を広くすることが難しい。すなわち、照射光は距離の2乗に反比例して減衰するため、距離が遠くなるほど受光輝度が小さくなり、ノイズに埋もれてしまう。照射光の発光輝度を大きくすると、近距離では電荷が飽和して距離が計算できなくなる。
 本技術は、このような状況に鑑みてなされたものであり、測定範囲を拡大できるようにするものである。
 本技術の一側面の受光装置は、入射された光を光電変換して電荷を生成する光電変換部と、前記光電変換部において第1蓄積時間で生成された第1電荷を蓄積する第1電荷蓄積部と、前記光電変換部において前記第1蓄積時間と異なる第2蓄積時間で生成された第2電荷を蓄積する第2電荷蓄積部とを有する画素を備える。
 本技術の一側面の受光装置の駆動方法は、光電変換部と、第1電荷蓄積部と、第2電荷蓄積部とを有する画素を備える受光装置の駆動制御部が、前記光電変換部において第1蓄積時間で生成された第1電荷を前記第1電荷蓄積部へ蓄積させ、前記光電変換部において前記第1蓄積時間と異なる第2蓄積時間で生成された第2電荷を前記第2電荷蓄積部へ蓄積させる。
 本技術の一側面においては、光電変換部と、第1電荷蓄積部と、第2電荷蓄積部とを有する画素を備える受光装置の前記光電変換部において第1蓄積時間で生成された第1電荷が前記第1電荷蓄積部へ蓄積され、前記光電変換部において前記第1蓄積時間と異なる第2蓄積時間で生成された第2電荷が前記第2電荷蓄積部へ蓄積される。
 受光装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本技術を適用した測距モジュールの一実施の形態の構成例を示すブロック図である。 画素アレイ部の画素の概略構造を説明する図である。 測距センサが実行可能な動作モードを説明する図である。 通常駆動モードにおけるデプスマップの算出を説明する図である。 通常駆動モードにおけるデプスマップの算出を説明する図である。 通常駆動モードにおけるデプスマップの算出を説明する図である。 画素の第1の画素回路の構成例を示す図である。 HDR駆動モードにおける第1の画素回路の動作を説明する図である。 画素の第2の画素回路の構成例を示す図である。 HDR駆動モードにおける第2の画素回路の動作を説明する図である。 第2の画素回路においてHDR駆動モードを実現する他の駆動例を示す図である。 信号処理部の詳細構成例を示すブロック図である。 補正処理部が実行する補正処理を説明する図である。 補正処理部が実行する補正処理を説明する図である。 デプス算出部が実行するデプスマップ生成処理を説明する図である。 デプス算出部が実行するデプスマップ生成処理を説明する図である。 統計量算出部の第1構成例を示すブロック図である。 統計量算出部の第2構成例を示すブロック図である。 輝度値のヒストグラムを説明する図である。 蓄積時間算出部の蓄積時間算出処理を説明する図である。 HDR駆動モードで物体までの距離を測定する測定処理のフローチャートである。 測距センサのチップ構成例を示す図である。 測距モジュールの使用例を説明する図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.測距モジュールの構成例
2.画素の概略説明
3.画素の第1の回路構成例
4.画素の第2の回路構成例
5.信号処理部の構成例
6.補正処理部による補正処理
7.デプス算出部によるデプス算出処理
8.統計量算出部による統計量算出処理
9.蓄積時間算出部による蓄積時間算出処理
10.HDR駆動モードにおける測定処理
11.測距センサのチップ構成例
12.測距モジュールの使用例
13.移動体への応用例
<1.測距モジュールの構成例>
 図1は、本技術を適用した測距モジュールの一実施の形態の構成例を示すブロック図である。
 図1に示される測距モジュール11は、Indirect ToF方式による測距を行う測距モジュールであり、発光部12、発光制御部13、および、測距センサ14を有する。測距モジュール11は、物体に対して光を照射し、その光(照射光)が物体で反射されてきた光(反射光)を受光することにより、物体までの距離情報としてのデプスマップを生成して出力する。測距センサ14は、反射光を受光する受光装置であり、受光部15と、信号処理部16とで構成される。
 発光部12は、例えば、光源として赤外線レーザダイオードなどを有し、発光制御部13から供給される発光制御信号に応じたタイミングで変調しながら発光し、物体に対して照射光を照射する。
 発光制御部13は、所定の周波数(例えば、20MHzなど)の発光制御信号を発光部12に供給することにより、発光部12の発光を制御する。また、発光部12における発光のタイミングに合わせて受光部15を駆動させるために、発光制御部13は、受光部15にも発光制御信号を供給する。
 受光部15には、受光した光量に応じた電荷を生成し、その電荷に応じた信号を出力する画素21が行方向および列方向の行列状に2次元配置された画素アレイ部22が設けられており、画素アレイ部22の周辺領域に駆動制御回路23が配置されている。
 受光部15は、複数の画素21が2次元配置された画素アレイ部22で、物体からの反射光を受光する。そして、受光部15は、画素アレイ部22の各画素21が受光した反射光の受光量に応じた検出信号で構成される画素データを信号処理部16に供給する。
 信号処理部16は、画素アレイ部22の画素21ごとに、受光部15から供給される画素データに基づいて、測距モジュール11から物体までの距離であるデプス値を算出し、各画素21の画素値としてデプス値が格納されたデプスマップを生成して、モジュール外へ出力する。また、信号処理部16は、受光部15から供給される画素データに基づいて、各画素21における電荷の蓄積時間を決定し、受光部15に供給する。なお、後述するように、信号処理部16は、測距センサ14とは独立した別のチップ(半導体チップ)で構成してもよい。
 駆動制御回路23は、例えば、発光制御部13から供給される発光制御信号と、信号処理部16から供給される蓄積時間などに基づいて、画素21の駆動を制御するための制御信号を生成し、各画素21へ供給する。駆動制御回路23は、各画素21が反射光を受光する受光期間が、信号処理部16から供給される蓄積時間となるように、各画素21を駆動する。
<2.画素の概略説明>
 図2を参照して、画素アレイ部22の各画素21の概略構造について説明する。
 画素アレイ部22の各画素21は、図2のAに示されるように、1つのフォトダイオード(以下、PDと称する。)31と、2つのFD32(32A,32B)と、2つの転送トランジスタ33(33A,33B)とを有している。
 図2のAは、画素21のPD31、FD32、および、転送トランジスタ33の配置を示す断面構造と、ポテンシャル図を示している。
 以下では、2つのFD32Aおよび32Bの一方、例えばFD32Aを第1タップ32Aと称し、他方のFD32Bを第2タップ32Bと称する場合がある。2つの転送トランジスタ33Aおよび33Bも、第1タップ32Aおよび第2タップ32Bに対応して、第1転送トランジスタ33Aおよび第2転送トランジスタ33Bと称する。
 PD31は、入射された光を光電変換して電荷を生成する光電変換部であり、反射光を受光して光電変換し、電荷を生成する。FD32は、フォトダイオード31で生成された電荷を蓄積する電荷蓄積部である。転送トランジスタ33は、フォトダイオード31で生成された電荷を、FD32へ転送する。
 測距モジュール11の発光部12から照射された光(照射光)は、被写体としての所定の物体で反射され、所定の位相だけ遅れて、受光部15のフォトダイオード31へ反射光として入射される。
 駆動制御回路23は、図2のBに示されるように、所定の露光期間Tにおいて、第1転送トランジスタ33Aをアクティブ状態(オン)に制御し、フォトダイオード31で生成された電荷を、第1タップ32A(FD32A)へ転送させ、蓄積させる。第1転送トランジスタ33Aがアクティブ状態(オン)であるとき、第2転送トランジスタ33Bは非アクティブ状態(オフ)に制御される。
 次の露光期間Tにおいて、駆動制御回路23は、第2転送トランジスタ33Bをアクティブ状態(オン)に制御し、フォトダイオード31で生成された電荷を、第2タップ32B(FD32B)へ転送させ、蓄積させる。第2転送トランジスタ33Bがアクティブ状態(オン)であるとき、第1転送トランジスタ33Aは非アクティブ状態(オフ)に制御される。
 駆動制御回路23は、上述したような第1転送トランジスタ33Aと第2転送トランジスタ33Bの逆位相のオンオフを交互に繰り返す。フォトダイオード31で発生した電荷のうち、第1タップ32Aに蓄積された電荷は検出信号Aとして出力され、第2タップ32Bに蓄積された電荷は検出信号Bとして出力される。
 図3は、測距センサ14が実行可能な動作モードを説明する図である。
 測距センサ14は、図3のAに示される第1の動作モードと、図3のBに示される第2の動作モードの少なくとも2つの動作モードが実行可能である。
 図3のAに示される第1の動作モードは、第1タップ32Aへ電荷を蓄積させる蓄積時間と、第2タップ32Bへ電荷を蓄積させる蓄積時間とを同一の時間に設定し、同一露光時間の2つのタップ32で検出された検出信号を用いて、デプスマップを生成するモードである。第1の動作モードを、以下では、通常駆動モードとも称する。
 これに対して、図3のBに示される第2の動作モードは、第1タップ32Aへ電荷を蓄積させる蓄積時間と、第2タップ32Bへ電荷を蓄積させる蓄積時間とを異なる時間に設定し、異なる露光時間の2つのタップで検出された検出信号を用いて、デプスマップを生成するモードである。第2の動作モードは、遠距離の測定範囲については、蓄積時間が長い第1タップ32Aでの検出信号を用いて距離を算出し、近距離の測定範囲については、蓄積時間が短い第2タップ32Bでの検出信号を用いて距離を算出することにより、近距離から遠距離まで測定範囲を拡大したモードである。第2の動作モードを、以下では、HDR(high dynamic range)駆動モードとも称する。
 なお、本実施の形態では、2つのタップ32のうち、第1タップ32Aの蓄積時間を長く設定し、第2タップ32Bの蓄積時間を(第1タップ32Aの蓄積時間より)短く設定することとするが、2つのタップ32の蓄積時間の関係は反対でもよい。以下では、第1タップ32Aの蓄積時間を第1蓄積時間または長蓄積時間、第2タップ32Bの蓄積時間を第2蓄積時間または短蓄積時間とも称する。
 次に、図4乃至図6を参照しながら、基本となる通常駆動モードにおけるデプスマップの算出について説明する。
 発光部12には、図4に示されるように、照射時間T(1周期=2T)でオン/オフを繰り返す発光制御信号が、発光制御部13から供給される。発光部12は、照射時間Tで照射のオン/オフを繰り返すように照射光を出力する。
 受光部15は、照射光の照射タイミングを基準に、位相を0°、90°、180°、および、270°だけずらした受光タイミングで反射光を受光する。より具体的には、受光部15は、あるフレーム期間では、照射光の照射タイミングに対して位相を0°にして受光し、次のフレーム期間では、位相を90°にして受光し、次のフレーム期間では、位相を180°にして受光し、次のフレーム期間では、位相を270°にして受光する、というように、時分割で位相を変えて反射光を受光する。
 図5は、受光部15における反射光の到達タイミングと、0°、90°、180°、および、270°の各位相における画素21の第1タップ32Aの蓄積時間(露光期間)を、位相差が分かり易いように並べて示した図である。
 反射光は、図5に示されるように、物体までの距離に応じた遅延時間ΔTだけ遅れて、フォトダイオード31に入射され、光電変換される。
 第1タップ32Aにおいて、照射光と同一の位相(位相0°)で受光して得られる検出信号Aを検出信号A0、照射光と90度ずらした位相(位相90°)で受光して得られる検出信号Aを検出信号A1、照射光と180度ずらした位相(位相180°)で受光して得られる検出信号Aを検出信号A2、照射光と270度ずらした位相(位相270°)で受光して得られる検出信号Aを検出信号A3、と呼ぶことにする。
 検出信号A0乃至A3は、反射光がフォトダイオード31に入射されている期間で、かつ、第1転送トランジスタ33Aがオンされている期間に、フォトダイオード31に入射された光量に相当する信号である。
 また、図示は省略するが、第2タップ32Bにおいて、照射光と同一の位相(位相0°)で受光して得られる検出信号Bを検出信号B0、照射光と90度ずらした位相(位相90°)で受光して得られる検出信号Bを検出信号B1、照射光と180度ずらした位相(位相180°)で受光して得られる検出信号Bを検出信号B2、照射光と270度ずらした位相(位相270°)で受光して得られる検出信号Bを検出信号B3、と呼ぶことにする。
 図6は、4つの位相差で検出された検出信号を用いて、物体までの距離であるデプス値の算出方法を説明する図である。
 Indirect ToF方式において、デプス値dは、次式(1)で求めることができる。
Figure JPOXMLDOC01-appb-M000001
 式(1)のcは光速であり、ΔTは遅延時間であり、fは光の変調周波数を表す。また、式(1)のφは、反射光の位相ずれ量[rad]を表し、次式(2)で表される。
Figure JPOXMLDOC01-appb-M000002
 式(2)のI,Qは、位相を0°、90°、180°、270°に設定して得られた検出信号A0乃至A3および検出信号B0乃至B3を用いて、次式(3)で計算される。I,Qは、照射光の輝度変化をcos波と仮定し、cos波の位相を極座標から直交座標系(IQ平面)に変換した信号である。
 I=c0-c180=(A0-B0)-(A2-B2)
 Q=c90-c270=(A1-B1)-(A3-B3)  ・・・・・・・・・・(3)
 一方、例えば、2つのタップの片側のみを用いてデプス値dを算出する場合には、式(2)のI,Qは、位相を0°、90°、180°、270°に設定して得られた検出信号A0乃至A3および検出信号B0乃至B3を用いて、次式(4)で計算される。
 I=c0-c180=(A0-A2)=(-B0+B2)
 Q=c90-c270=(A1-A3)=(-B1+B3)  ・・・・・・・・・・(4)
 また、画素21の信頼度cnfは、次式(5)で求めることができる。
Figure JPOXMLDOC01-appb-M000003
<3.画素の第1の回路構成例>
 次に、上述した通常駆動モードとHDR駆動モードの両方の動作が可能である画素アレイ部22の画素21の回路構成について説明する。
 図7は、画素21の第1の回路構成例(第1の画素回路)を示している。なお、図7では、水平方向に隣接する2画素の回路構成が図示されているが、その他の画素21についても同様である。
 画素21は、上述したように、PD31、2つのFD32Aおよび32B、および、第1転送トランジスタ33Aおよび33Bを備える。また、画素21は、切替トランジスタ34、リセットトランジスタ35、増幅トランジスタ36、および、選択トランジスタ37を、第1タップ32Aおよび第2タップ32Bに対応して2つずつと、1つの排出トランジスタ38とを有する。
 以下では、第1タップ32Aおよび第2タップ32Bに対応して画素内にそれぞれ2つずつ設けられる切替トランジスタ34、リセットトランジスタ35、増幅トランジスタ36、および、選択トランジスタ37のうち、第1タップ32Aに対応する方を、第1切替トランジスタ34A、第1リセットトランジスタ35A、第1増幅トランジスタ36A、および、第1選択トランジスタ37Aと称し、第2タップ32Bに対応する方を、第2切替トランジスタ34B、第2リセットトランジスタ35B、第2増幅トランジスタ36B、および、第2選択トランジスタ37Bと称する。
 転送トランジスタ33、切替トランジスタ34、リセットトランジスタ35、増幅トランジスタ36、選択トランジスタ37、及び、排出トランジスタ38は、例えば、N型のMOSトランジスタ(MOS FET)で構成される。
 第1転送トランジスタ33Aは、信号線51Aを介してゲート電極に供給される転送駆動信号TG_AがHighになるとこれに応答してアクティブ状態になることで、PD31で生成された電荷を第1タップ32A(FD32A)へ転送させ、蓄積させる。第2転送トランジスタ33Bは、信号線51Bを介してゲート電極に供給される転送駆動信号TG_BがHighになるとこれに応答してアクティブ状態になることで、PD31で生成された電荷を第2タップ32B(FD32B)へ転送させ、蓄積させる。
 第1タップ32A(FD32A)および第2タップ32B(FD32B)は、PD31から転送された電荷を蓄積する電荷蓄積部である。
 第1切替トランジスタ34Aは、信号線52を介してゲート電極に供給されるFD駆動信号FDGがHighになるとこれに応答してアクティブ状態になることで、第1切替トランジスタ34Aと第1リセットトランジスタ35Aとの間のソース/ドレイン領域である付加容量FDLAを、第1タップ32A(FD32A)に接続させる。第2切替トランジスタ34Bは、信号線52を介してゲート電極に供給されるFD駆動信号FDGがHighになるとこれに応答してアクティブ状態になることで、第2切替トランジスタ34Bと第2リセットトランジスタ35Bとの間のソース/ドレイン領域である付加容量FDLBを、第2タップ32B(FD32B)に接続させる。
 駆動制御回路23は、例えば、入射光の光量が多い高照度のとき、FD駆動信号FDGをHighとして、第1タップ32A(FD32A)と付加容量FDLAを接続するとともに、第2タップ32B(FD32B)と付加容量FDLBを接続する。これにより、高照度時に、より多くの電荷を蓄積することができる。
 一方、入射光の光量が少ない低照度のときには、駆動制御回路23は、FD駆動信号FDGをLowとして、付加容量FDLAおよびFDLBを、それぞれ、第1タップ32A(FD32A)および第2タップ32B(FD32B)から切り離す。これにより、変換効率を上げることができる。
 第1リセットトランジスタ35Aは、信号線53Aを介してゲート電極に供給されるリセット駆動信号RST_AがHighになるとこれに応答してアクティブ状態になることで、第1タップ32A(FD32A)の電位を所定のレベル(電源電圧VDDH)にリセットする。第2リセットトランジスタ35Bは、信号線53Bを介してゲート電極に供給されるリセット駆動信号RST_BがHighになるとこれに応答してアクティブ状態になることで、第2タップ32B(FD32B)の電位を所定のレベル(電源電圧VDDH)にリセットする。なお、第1リセットトランジスタ35Aがアクティブ状態とされるとき、第1切替トランジスタ34Aも同時にアクティブ状態とされる。これにより、第1タップ32A(FD32A)の蓄積電荷が電源電圧VDDHに排出される。同様に、第2リセットトランジスタ35Bがアクティブ状態とされるとき、第2切替トランジスタ34Bも同時にアクティブ状態とされる。これにより、第2タップ32B(FD32B)の蓄積電荷が電源電圧VDDHに排出される。
 第1増幅トランジスタ36Aは、ソース電極が第1選択トランジスタ37Aを介して垂直信号線56Aに接続されることにより、不図示の定電流源と接続し、ソースフォロワ回路を構成する。第2増幅トランジスタ36Bは、ソース電極が第2選択トランジスタ37Bを介して垂直信号線56Bに接続されることにより、不図示の定電流源と接続し、ソースフォロワ回路を構成する。
 第1選択トランジスタ37Aは、第1増幅トランジスタ36Aのソース電極と垂直信号線56Aとの間に接続されている。第1選択トランジスタ37Aは、信号線54を介してゲート電極に供給される選択信号SELがHighなるとこれに応答してアクティブ状態となり、第1増幅トランジスタ36Aから出力される検出信号Aを垂直信号線56Aに出力する。
 第2選択トランジスタ37Bは、第2増幅トランジスタ36Bのソース電極と垂直信号線56Bとの間に接続されている。第2選択トランジスタ37Bは、信号線54を介してゲート電極に供給される選択信号SELがHighなるとこれに応答してアクティブ状態となり、第2増幅トランジスタ36Bから出力される検出信号Bを垂直信号線56Bに出力する。
 排出トランジスタ38は、信号線55を介してゲート電極に供給される排出信号OFGがHighなるとこれに応答してアクティブ状態となり、PD31で生成されて保持されている電荷を、所定の電源電圧VDDLへ排出する。電源電圧VDDHと電源電圧VDDLとは、異なる電源電圧レベルでもよいし、同一の電源電圧レベルでもよい。
 画素10の信号線51乃至54は、駆動制御回路23に接続されており、転送トランジスタ33、切替トランジスタ34、リセットトランジスタ35、選択トランジスタ37、及び、排出トランジスタ38は、駆動制御回路23によって制御される。
 図7の第1の画素回路において、付加容量FDLAおよびFDLBと、その接続を制御する第1切替トランジスタ34Aおよび第2切替トランジスタ34Bは省略してもよいが、付加容量FDLAおよびFDLBを入射光量に応じて使い分けることにより、より広いダイナミックレンジを確保することができる。
 画素21の第1タップ32A(FD32A)の例で、入射光の受光から検出信号の出力までの基本の動作を簡単に説明する。
 まず、受光を開始する前に、画素21の電荷をリセットするリセット動作が行われる。すなわち、第1リセットトランジスタ35Aと、第1切替トランジスタ34A、並びに、排出トランジスタ38がオンされ、PD31、第1タップ32A(FD32A)、および、付加容量FDLAの蓄積電荷が電源電圧VDDHまたは電源電圧VDDLに接続され、リセットされる。
 電荷のリセット後、受光が開始される。すなわち、PD31に光(反射光)が入射されると、PD31において光電変換され、電荷が生成される。
 信号線51Aを介してHighの転送駆動信号TG_Aが第1転送トランジスタ33Aに供給されると、第1転送トランジスタ33Aは、PD31で生成された電荷を第1タップ32A(FD32A)へ転送させて蓄積させる。
 そして、一定時間経過後、信号線54を介してHighの選択信号SELが第1選択トランジスタ37Aに供給されると、第1タップ32A(FD32A)に蓄積された電位に応じた検出信号Aが、第1選択トランジスタ37Aを介して垂直信号線56Aに出力される。
 次に、図8を参照して、HDR駆動モードにおける第1の画素回路の動作を説明する。
 まず、時刻t1において、リセット駆動信号RST_AおよびRST_BがHighに制御され、第1タップ32A(FD32A)および第2タップ32B(FD32B)の蓄積電荷がリセットされる。
 時刻t2において、リセット駆動信号RST_AがLowに制御される。一方、リセット駆動信号RST_Bは、時刻t3までHighが維持される。
 また、時刻t2以降において、駆動制御回路23は、第1転送トランジスタ33Aと第2転送トランジスタ33Bの逆位相のオンオフを露光期間Tで交互に繰り返すような転送駆動信号TG_AおよびTG_Bを出力する。
 リセット駆動信号RST_AがLowに制御された第1タップ32A(FD32A)では、時刻t2以降において、転送駆動信号TG_AがHighとされている期間に、PD31で生成された電荷が第1タップ32Aに転送され、蓄積される。
 一方、第2タップ32B(FD32B)では、時刻t2以降から時刻t3までの間、リセット駆動信号RST_BがHighとされているので、転送駆動信号TG_BがHighとされている期間にPD31で生成された電荷は、電源電圧VDDHに排出され、蓄積されない。
 時刻t3にリセット駆動信号RST_BがLowとされた後、転送駆動信号TG_BがHighとされている期間にPD31で生成された電荷は、第2タップ32Bに転送され、蓄積される。
 時刻t3から一定時間経過後の時刻t4まで、第1転送トランジスタ33Aと第2転送トランジスタ33Bの逆位相のオンオフを露光期間Tで交互に繰り返す制御が継続される。
 第1の画素回路の第1タップ32A側の蓄積時間(第1蓄積時間)は、時刻t2から時刻t4までの期間のうち、第1リセットトランジスタ35Aが非アクティブ状態であり、かつ、第1転送トランジスタ33Aがアクティブ状態に制御された時間に相当する。一方、第1の画素回路の第2タップ32B側の蓄積時間(第2蓄積時間)は、時刻t2から時刻t4までの期間のうち、第2リセットトランジスタ35Bが非アクティブ状態であり、かつ、第2転送トランジスタ33Bがアクティブ状態に制御された時間に相当する。第2タップ32B側は、第2リセットトランジスタ35Bがアクティブ状態に制御される期間が第1タップ32A側よりも長く、第2リセットトランジスタ35Bがアクティブ状態に制御されている間、第2タップ32Bに転送された電荷は捨てられるため、第2蓄積時間は、第1蓄積時間よりも短くなる。
 以上のように、第1の画素回路のHDR駆動モードでは、第1リセットトランジスタ35Aをアクティブ状態にする時間と、第2リセットトランジスタ35Bをアクティブ状態にする時間とを変えることで、第1タップ32Aの蓄積時間と、第2タップ32Bの蓄積時間とが異なる時間に制御される。
 なお、通常駆動モードは、上述したHDR駆動モードの駆動のうち、時刻t2において、リセット駆動信号RST_Bを、リセット駆動信号RST_Aと同様にLowに制御することで、実現できる。
<4.画素の第2の回路構成例>
 図9は、画素21の第2の回路構成例(第2の画素回路)を示している。
 なお、図9の第2の画素回路は、図7に示した第1の画素回路と同様に、水平方向に隣接する2画素の回路構成を示しており、図7と共通する部分については同一の符号を付してあり、その部分の説明は適宜省略する。
 図9の第2の画素回路は、リセットトランジスタ35を制御する信号線53の配線が、図7の第1の画素回路と異なる。
 すなわち、図7の第1の画素回路では、1つの画素21(画素行)に対して2本の信号線53Aおよび53Bが設けられ、第1リセットトランジスタ35Aは、信号線53Aを介して供給されるリセット駆動信号RST_Aによって制御され、第2リセットトランジスタ35Bは、信号線53Bを介して供給されるリセット駆動信号RST_Bによって制御される構成とされていた。
 これに対して、図9の第2の画素回路では、1つの画素21(画素行)に対して1本の信号線53が設けられ、第1リセットトランジスタ35Aおよび第2リセットトランジスタ35Bが、共通の信号線53を介して供給されるリセット駆動信号RSTによって制御される構成とされている。
 図9の第2の画素回路のその他の構成は、図7の第1の画素回路と同様である。
 図10を参照して、HDR駆動モードにおける第2の画素回路の動作を説明する。
 まず、時刻t11において、リセット駆動信号RSTがHighに制御され、第1タップ32A(FD32A)および第2タップ32B(FD32B)の蓄積電荷がリセットされる。
 時刻t12において、リセット駆動信号RSTがLowに制御される。
 また、時刻t12以降において、駆動制御回路23は、第1転送トランジスタ33Aと第2転送トランジスタ33Bの逆位相のオンオフを露光期間Tで交互に繰り返すような転送駆動信号TG_AおよびTG_Bを出力する。
 第1タップ32A(FD32A)では、転送駆動信号TG_AがHighとされている期間に、PD31で生成された電荷が第1タップ32Aに転送され、蓄積される。また、第2タップ32B(FD32B)では、転送駆動信号TG_BがHighとされている期間に、PD31で生成された電荷が第2タップ32Bに転送され、蓄積される。
 時刻t12以降、時刻t13までは、PD31で生成された電荷を第1タップ32Aと第2タップ32Bに交互に蓄積する動作が繰り返される。
 時刻t13以降、駆動制御回路23は、これまで転送駆動信号TG_BをHighに制御していた期間において、Lowに制御するように変更するとともに、信号線55を介して排出トランジスタ38に供給する排出信号OFGをHighに制御する。
 その結果、時刻t13から時刻t14までの期間は、第1転送トランジスタ33Aと排出トランジスタ38の逆位相のオンオフを露光期間Tで交互に繰り返す制御が実行される。
 第2の画素回路の第1タップ32A側の蓄積時間(第1蓄積時間)は、時刻t12から時刻t14までの期間のうち、第1転送トランジスタ33Aがアクティブ状態に制御された時間に相当する。一方、第2の画素回路の第2タップ32B側の蓄積時間(第2蓄積時間)は、時刻t12から時刻t14までの期間のうち、第2転送トランジスタ33Bがアクティブ状態に制御された時間に相当する。ただし、第2転送トランジスタ33Bをアクティブ状態に制御する代わりに、排出トランジスタ38をアクティブ状態に制御する時刻t13から時刻t14の期間があるため、第2蓄積時間は、第1蓄積時間よりも短くなる。
 なお、通常駆動モードは、上述したHDR駆動モードの動作のうち、時刻t13から時刻t14までの期間においても、時刻t12から時刻t13の制御を継続することで、実現できる。換言すれば、第2の画素回路のHDR駆動モードは、第2の画素回路の通常駆動モードの露光期間の一部を、第2タップ32Bへの電荷の蓄積から、排出トランジスタ38による電荷の排出へ変更した動作である。
 以上のように、第2の画素回路のHDR駆動モードでは、通常駆動モードにおいて第2タップ32Bに電荷を蓄積する期間の一部を、排出トランジスタ38をアクティブ状態に制御する駆動に変更することで、第1タップ32Aの蓄積時間と、第2タップ32Bの蓄積時間とが異なる時間に制御される。
 図8に示した第1の画素回路のHDR駆動モードでは、電荷の蓄積を開始する蓄積開始タイミングが、第1タップ32Aと第2タップ32Bとで異なり、電荷の蓄積を終了する蓄積終了タイミングが、略同一(露光時間Tのずれ)である。この場合、長蓄積時間の第1タップ32Aで電荷が飽和している場合に、遅れて蓄積を開始する第2タップ32Bに電荷が漏れ込む可能性がある。
 一方、第2の画素回路のHDR駆動モードでは、電荷の蓄積を開始する蓄積開始タイミングが、第1タップ32Aと第2タップ32Bとで略同一(露光時間Tのずれ)であり、電荷の蓄積を終了する蓄積終了タイミングが異なる。この場合、第2タップ32Bの蓄積終了後、長蓄積時間の第1タップ32Aで電荷が飽和している場合であっても、PD31で生成された電荷は排出トランジスタ38により捨てられるため、第2タップ32Bに電荷が漏れ込む可能性は少ない。
 第2の画素回路では、図10で説明した駆動以外の動作でも、HDR駆動モードを実現することができる。
 図11は、第2の画素回路のHDR駆動モードの変形例であり、第2の画素回路においてHDR駆動モードを実現する他の動作例を示している。
 図10で説明した動作は、電荷の蓄積を開始する蓄積開始タイミングを、第1タップ32Aと第2タップ32Bとで略同一として、全体の蓄積期間の前半部分に、第2タップ32Bが蓄積する動作とされていた。この場合、第2タップ32Bの蓄積期間が、全体の蓄積期間の前半部分に集中しているため、第1タップ32Aと第2タップ32Bとで蓄積時刻の同時性が崩れる。例えば、被写体が動体で、全体の蓄積期間の前半部分と後半部分とで動きが異なる場合に、第1タップ32Aと第2タップ32Bとで検出結果が異なるものとなる。
 そこで、図11の第2の画素回路におけるHDR駆動モードの変形例では、駆動制御回路23は、第1タップ32Aと第2タップ32Bとで、蓄積時刻の同時性を向上させた駆動を行う。
 具体的には、駆動制御回路23は、第1タップ32Aへの複数回の電荷の蓄積に対して、第2タップ32Bへの1回の電荷の蓄積を実行するように制御する。図11の例では、第1タップ32Aへの2回の電荷の蓄積ごとに、第2タップ32Bへの1回の電荷の蓄積を実行する例が示されている。
 すなわち、時刻t21において、リセット駆動信号RSTがHighに制御され、第1タップ32Aおよび第2タップ32Bの蓄積電荷がリセットされる。
 時刻t22において、リセット駆動信号RSTがLowに制御される。
 また、時刻t22から時刻t23の期間において、駆動制御回路23は、転送駆動信号TG_AをHighに制御して第1転送トランジスタ33Aをオンし、転送駆動信号TG_BをLowに制御して第2転送トランジスタ33Bをオフする。
 次の時刻t23において、駆動制御回路23は、転送駆動信号TG_AをLowに変更して第1転送トランジスタ33Aをオフするとともに、排出信号OFGを瞬間的にHighに制御して排出トランジスタ38を短期間だけオンする。そして、駆動制御回路23は、排出トランジスタ38をオフに戻した後、時刻t24まで、転送駆動信号TG_BをHighに制御して第2転送トランジスタ33Bをオンする。
 次の時刻t24から時刻t25の期間において、駆動制御回路23は、転送駆動信号TG_AをHighに制御して第1転送トランジスタ33Aをオンし、転送駆動信号TG_BをLowに制御して第2転送トランジスタ33Bをオフする。
 次の時刻t25から時刻t26の期間において、駆動制御回路23は、Lowの転送駆動信号TG_Aにより第1転送トランジスタ33Aをオフし、Highの排出信号OFGにより排出トランジスタ38をオンする。
 時刻t22から時刻t26の期間において、第1タップ32Aへの電荷の蓄積は2回実行されている。1回目の第1タップ32Aへの電荷の蓄積の後は、第2タップ32Bへの電荷の蓄積が実行され、2回目の第1タップ32Aへの電荷の蓄積の後は、排出トランジスタ38による電荷の排出が実行されている。これにより、第1タップ32Aへの2回の電荷の蓄積ごとに、第2タップ32Bへの1回の電荷の蓄積が実行されている。
 また、第1タップ32Aへの電荷の蓄積と、第2タップ32Bへの電荷の蓄積との間に、微小時間、排出トランジスタ38がアクティブ状態に制御され、電荷の排出が行われている。第1タップ32Aへの電荷の蓄積後、排出トランジスタ38による電荷の排出を常に行うことにより、第2タップ32Bへの電荷の蓄積の有無によって、第1タップ32Aへの電荷の転送特性がばらつかないようにし、特性の安定化を図っている。
 時刻t26から時刻t27までは、上述した時刻t22から時刻t26までと同じ動作が、複数回、繰り返される。
 以上の第2の画素回路のHDR駆動モードの変形例によれば、第1タップ32Aへの複数回の電荷の蓄積ごとに、第2タップ32Bへの1回の電荷の蓄積を実行することで、第1タップ32A側の第1蓄積時間と、第2タップ32B側の第2蓄積時間とを異なる時間に制御するとともに、蓄積時刻の同時性を向上させることができる。蓄積時刻の同時性が高いため、動被写体特性が改善する。
 図7乃至図11で説明した第1の画素回路および第2の画素回路の動作では、特に、位相については言及しなかったが、図4乃至図6を参照して説明したように、4つの位相それぞれについて、画素データが取得される。すなわち、画素21は、照射光の照射タイミングを基準に、位相を0°、90°、180°、および、270°だけずらした4つの位相それぞれについて、第1タップ32Aの第1蓄積時間と、第2タップ32Bの第2蓄積時間とを異なる時間に制御して電荷を蓄積し、検出信号A0乃至A3および検出信号B0乃至B3を出力する。
 受光部15の画素アレイ部22に配列された画素21には、上述した第1の画素回路または第2の画素回路が採用され、上述したHDR駆動モードの動作により、第1タップ32Aに第1蓄積時間(長蓄積時間)で蓄積された電荷に応じた検出信号A0乃至A3と、第2タップ32Bに第2蓄積時間(短蓄積時間)で蓄積された電荷に応じた検出信号B0乃至B3とが、不図示のAD変換部でデジタル値に変換され、画素データとして、後段の信号処理部16に出力される。
<5.信号処理部の構成例>
 図12は、信号処理部16の詳細構成例を示すブロック図である。
 信号処理部16は、補正処理部71、フレームメモリ72、デプス算出部73、統計量算出部74、および、蓄積時間算出部75により構成される。
 補正処理部71には、受光部15から各画素21の画素データが供給されるとともに、その画素データが取得されたときの蓄積時間が、蓄積時間算出部75から供給される。補正処理部71は、画素アレイ部22の各画素21を注目画素として、注目画素の周辺の画素である周辺画素の画素データを用いて、注目画素の画素データを補正する補正処理を実行する。補正処理の詳細は、図13および図14を参照して後述する。
 フレームメモリ72には、補正処理部71による補正処理後の各画素21の画素データ、具体的には、位相0°、90°、180°、および、270°の検出信号Aおよび検出信号Bが、順次、供給される。ここで、検出信号Aは、第1タップ32Aの蓄積電荷に対応する、第1蓄積時間(長蓄積時間)の信号であり、検出信号Bは、第2タップ32Bの蓄積電荷に対応する、第2蓄積時間(短蓄積時間)の信号である。
 フレームメモリ72は、各画素21の位相0°、90°、180°、および、270°の検出信号Aおよび検出信号Bを、1フレームのデータとして記憶し、必要に応じて、デプス演算部73に供給する。
 デプス算出部73は、フレームメモリ72に記憶されている、位相0°、90°、180°、および、270°の各画素21の検出信号Aおよび検出信号Bを取得し、測距モジュール11から物体までの距離であるデプス値dを算出する。そして、デプス演算部73は、各画素21の画素値としてデプス値が格納されたデプスマップを生成して、モジュール外へ出力する。デプス値dの算出処理については、図15および図16を参照して後述する。
 統計量算出部74は、受光部15から供給される各画素21の画素データの統計量を算出する。画素21の画素データは、画素21が受光した反射光の輝度値に相当し、反射光には、照射光の他、太陽光などの環境光も含まれる。統計量算出部74は、例えば、各画素の輝度値の平均値(輝度平均値)や、画素アレイ部22の全画素のうち、電荷(輝度値)が飽和した画素の比率を表す画素飽和率などを算出する。統計量算出部74による統計量算出処理の詳細は、図17乃至図20を参照して後述する。算出された統計量は、蓄積時間算出部75に供給される。
 蓄積時間算出部75は、統計量算出部74から供給される各画素21の画素データの統計量を用いて、受光部15の次のフレームの各画素21の蓄積時間(長蓄積時間と短蓄積時間それぞれ)を算出し、受光部15および補正処理部71に供給する。すなわち、統計量算出部74によって算出された現在の各画素21の輝度値の統計量に応じて、次の受光における画素21の蓄積時間が調整され、受光部15に供給されて、制御される。
<6.補正処理部による補正処理>
 図13および図14を参照して、補正処理部71が実行する補正処理について説明する。
 受光部15の画素アレイ部22において、画素間を電気的に完全に遮断することは困難であるため、隣接画素で生成された電荷が入り込み、自分の画素の検出信号として出力されることが有り得る。また、図13に示されるように、画素21内の第1タップ32A(FD32A)と第2タップ32B(FD32B)の物理的位置の違いによって、電荷の漏れ込み量も第1タップ32Aと第2タップ32Bとで異なる場合がある。
 そこで、補正処理部71は、画素アレイ部22の各画素21を注目画素として、注目画素の周辺画素の画素データに、蓄積時間に応じた補正係数を乗算した乗算結果を、注目画素の画素データに加算することで、注目画素の画素データを補正する。周辺画素としては、例えば、図13に示されるように、注目画素を中心とする3x3の周辺の8画素の画素データが用いられる。
 具体的には、補正処理部71は、図14に示されるように、注目画素の画素位置を(x,y)とすると、式(6)により、注目画素(x,y)の第1タップ32Aの補正後の検出信号A’(x,y)、および、注目画素(x,y)の第2タップ32Bの補正後の検出信号B’(x,y)を算出する。
Figure JPOXMLDOC01-appb-M000004
 式(6)のc(i,j),d(i,j),e(i,j)、および、f(i,j)は、測距センサ14の出荷前検査等で事前に決定された補正係数を表す。この補正係数c(i,j),d(i,j),e(i,j)、および、f(i,j)は、蓄積時間の長さや、第1タップ32Aの第1蓄積時間(長蓄積時間)と、第2タップ32Bの第2蓄積時間(短蓄積時間)との蓄積時間の比率に応じて予め決定し、内部のメモリに記憶される。
 補正処理部71は、蓄積時間算出部75から供給された、その画素データが取得されたときの蓄積時間に対応する補正係数c(i,j),d(i,j),e(i,j)、および、f(i,j)を、内部のメモリから取得し、式(6)の補正計算を行う。補正処理部71による補正処理により、隣接画素からの電荷の漏れ込みに相当する信号が補正されるので、デプス算出部73が算出するデプス値dの誤差を抑えることができる。
<7.デプス算出部によるデプス算出処理>
 図15および図16を参照して、デプス算出部73が実行するデプスマップ生成処理について説明する。
 図15は、デプス算出部73の詳細構成例を示すブロック図である。
 デプス算出部73は、ブレンド率算出部91、ブレンド処理部92-1乃至92-4、および、デプスマップ生成部93により構成される。
 デプス算出部73は、位相0°、90°、180°、および、270°の第1タップ32Aの検出信号A0、A1、A2、および、A3と、位相0°、90°、180°、および、270°の第2タップ32Bの検出信号B0、B1、B2、および、B3とを、フレームメモリ72から取得する。
 ブレンド率算出部91は、長蓄積時間で検出した第1タップ32Aの検出信号A0、A1、A2、および、A3に基づいて、第1タップ32Aの検出信号Aに対する第2タップ32Bの検出信号Bのブレンド率α(以下、短畜ブレンド率αと称する。)を算出する。
 具体的には、ブレンド率算出部91は、以下の式(7)および式(8)により、ブレンド率αを算出する。
Figure JPOXMLDOC01-appb-M000005
 式(7)によれば、位相0°、90°、180°、および、270°の第1タップ32Aの検出信号A0、A1、A2、および、A3のなかの最大値lumが検出される。そして、検出信号Aの最大値lumに基づいて、短畜ブレンド率αが式(8)により算出される。
 図16は、式(8)の処理を表した図である。
 式(8)は、検出信号Aの最大値lumが第1の閾値lth0より小さい場合には、短畜ブレンド率α=0、即ち長蓄積時間で検出した第1タップ32Aの検出信号Aのみを採用し、検出信号Aの最大値lumが第1の閾値lth0以上で第2の閾値lth1より小さい場合には、最大値lumに応じて検出信号AとBとをブレンドし、検出信号Aの最大値lumが第2の閾値lth1以上である場合には、短畜ブレンド率α=1、即ち短蓄積時間で検出した第2タップ32Bの検出信号Bのみを採用することを表している。式(8)により算出された短畜ブレンド率αは、ブレンド処理部92-1乃至92-4に供給される。
 ブレンド処理部92-1乃至92-4は、ブレンド率算出部91から供給される短畜ブレンド率αを用いて、第1タップ32Aの検出信号Aと第2タップ32Bの検出信号Bとをブレンドした検出信号Cを算出する。
 ブレンド処理部92-1は、以下の式(9)により、第1タップ32Aの検出信号A0と第2タップ32Bの検出信号B2とをブレンドした検出信号C0を算出し、デプスマップ生成部9に供給する。
 ブレンド処理部92-2は、以下の式(10)により、第1タップ32Aの検出信号A1と第2タップ32Bの検出信号B3とをブレンドした検出信号C1を算出し、デプスマップ生成部9に供給する。
 ブレンド処理部92-3は、以下の式(11)により、第1タップ32Aの検出信号A2と第2タップ32Bの検出信号B0とをブレンドした検出信号C2を算出し、デプスマップ生成部9に供給する。
 ブレンド処理部92-4は、以下の式(12)により、第1タップ32Aの検出信号A3と第2タップ32Bの検出信号B1とをブレンドした検出信号C3を算出し、デプスマップ生成部9に供給する。
 C0=A0×(1-α)+B2×α×β     ・・・・・・・(9)
 C1=A1×(1-α)+B3×α×β     ・・・・・・・(10)
 C2=A2×(1-α)+B0×α×β     ・・・・・・・(11)
 C3=A3×(1-α)+B1×α×β     ・・・・・・・(12)
 式(9)乃至式(12)において、βは、第1タップ32Aの長蓄積時間と、第2タップ32Bの短蓄積時間との蓄積時間比(β=長蓄積時間/短蓄積時間)を表す。
 デプスマップ生成部93は、以下の式(13)により、画素アレイ部22の各画素21のI,Q信号を算出し、上述した式(2)により、デプス値dを算出する。
 I=c0-c180=(C0-C2)
 Q=c90-c270=(C1-C3)  ・・・・・・・・・・(13)
 そして、デプスマップ生成部93は、各画素21の画素値としてデプス値dが格納されたデプスマップを生成して、モジュール外へ出力する。
<8.統計量算出部による統計量算出処理>
 次に、図17乃至図20を参照して、統計量算出部74が実行する統計量算出処理について説明する。
 統計量算出部74は、図17に示される第1構成例か、または、図18に示される第2構成例のいずれかの構成を採用することができる。
 図17は、統計量算出部74の第1構成例を示すブロック図である。
 統計量算出部74は、飽和率算出部101および平均値算出部102を備える。
 飽和率算出部101は、受光部15から供給される画素アレイ部22の各画素21の画素データのうち、長蓄積時間の検出信号A、即ち、位相0°、90°、180°、および、270°の第1タップ32Aの検出信号A0乃至A3を用いて、輝度値が飽和した画素の比率を表す画素飽和率を算出する。
 より具体的には、飽和率算出部101は、第1タップ32Aの検出信号A0乃至A3の長畜平均検出信号A_AVEを、画素アレイ部22の全画素について算出する。そして、飽和率算出部101は、長畜平均検出信号A_AVEが、予め決定された飽和閾値SAT_THを超えている画素数P_SATをカウントし、画素アレイ部22の全画素数Nで除算することにより、画素飽和率(=P_SAT/N)を算出する。
 なお、第1タップ32Aの検出信号A0乃至A3の長畜平均検出信号A_AVEが飽和閾値SAT_THを超えている画素数P_SATをカウントするのではなく、第1タップ32Aの検出信号A0乃至A3の最大値A_MAXまたは最小値A_MINがが、飽和閾値SAT_THを超えている画素数P_SATをカウントしてもよい。
 平均値算出部102は、受光部15から供給される画素アレイ部22の各画素21の画素データのうち、短蓄積時間の検出信号B、即ち、位相0°、90°、180°、および、270°の第2タップ32Bの検出信号B0乃至B3を用いて、画素アレイ部22全体の画素の輝度値の平均値(輝度平均値)を算出する。
 より具体的には、平均値算出部102は、第2タップ32Bの検出信号B0乃至B3の短畜平均検出信号B_AVEを、画素アレイ部22の全画素について算出する。そして、平均値算出部102は、短畜平均検出信号B_AVEの全画素の和を算出し、画素アレイ部22の全画素数Nで除算することにより、輝度平均値(=ΣB_AVE/N)を算出する。
 統計量算出部74は、飽和率算出部101が算出した画素飽和率と、平均値算出部102が算出した輝度平均値を、蓄積時間算出部75に供給する。
 図18は、統計量算出部74の第2構成例を示すブロック図である。
 統計量算出部74は、ヒストグラム生成部103を備える。
 ヒストグラム生成部103は、受光部15から供給される画素アレイ部22の各画素21の画素データのうち、短蓄積時間の検出信号B、即ち、位相0°、90°、180°、および、270°の第2タップ32Bの検出信号B0乃至B3を用いて、輝度値のヒストグラムを生成する。
 より具体的には、ヒストグラム生成部103は、第2タップ32Bの検出信号B0乃至B3の短畜平均検出信号B_AVEを、画素アレイ部22の全画素について算出する。そして、ヒストグラム生成部103は、各画素21の短畜平均検出信号B_AVEを輝度値として、図19に示されるような、輝度値のヒストグラムを生成(算出)する。生成された輝度値のヒストグラムは、蓄積時間算出部75に供給される。
 統計量算出部74は、図17の第1構成例か、または、図18の第2構成例のいずれか一方の構成を採用することができる他、図17の第1構成例と図18の第2構成例の両方を備え、初期設定やユーザ設定などで、どの統計量を使用するかを選択する構成としてもよい。
<9.蓄積時間算出部による蓄積時間算出処理>
 次に、蓄積時間算出部75が実行する蓄積時間算出処理について説明する。
 初めに、統計量算出部74として図17の第1構成例が採用され、統計量算出部74から、画素飽和率と輝度平均値が供給される場合の蓄積時間算出部75の蓄積時間算出処理について説明する。
 蓄積時間算出部75は、短蓄積時間の検出信号Bを用いた輝度平均値に基づいて、次の検出フレームの長蓄積時間を制御する。具体的には、蓄積時間算出部75は、次の式(14)を算出し、次の検出フレームの長蓄積時間(更新後の長蓄積時間)を算出する。
 更新後の長蓄積時間=(目標平均値/輝度平均値)×現在の短蓄積時間 ・・(14)
 式(14)の現在の短蓄積時間は、現在設定されている第2タップ32Bの短蓄積時間であり、更新後の長蓄積時間は、受光部15の次の受光時に設定される第1タップ32Aの長蓄積時間である。目標平均値は予め決定される。この制御は、輝度平均値が目標平均値となるように長蓄積時間を制御することを表し、蓄積時間算出部75は、被写体のうちの暗いところ(遠距離、低反射率)が高いSN比で受光できるように長蓄積時間を制御する。
 また、蓄積時間算出部75は、長蓄積時間の検出信号Aを用いた画素飽和率に基づいて、次の検出フレームの短蓄積時間を制御する。具体的には、蓄積時間算出部75は、画素飽和率が目標画素飽和率を超えていた場合に、次の式(15)により、次の検出フレームの短蓄積時間(更新後の短蓄積時間)を制御する。
 更新後の短蓄積時間=現在の短蓄積時間×制御率  ・・・・・(15)
 式(15)の現在の短蓄積時間は、現在設定されている第2タップ32Bの短蓄積時間であり、更新後の短蓄積時間は、受光部15の次の受光時の第2タップ32Bの短蓄積時間である。制御率は、1.0より大きい定数の制御パラメータである。この制御は、画素飽和率が目標画素飽和率より小さくなるように制御することを表し、蓄積時間算出部75は、極力飽和画素が発生しないように短蓄積時間を制御する。
 次に、統計量算出部74として図18の第2構成例が採用され、統計量算出部74から、輝度値のヒストグラムが供給される場合の蓄積時間算出部75の蓄積時間算出処理について説明する。
 図20は、統計量算出部74から輝度値のヒストグラムが供給される場合の蓄積時間算出部75の蓄積時間算出処理を説明する図である。
 蓄積時間算出部75は、統計量算出部74から供給された輝度値のヒストグラムを、輝度値が低い方から頻度値を累積した累積ヒストグラムを生成する。そして、蓄積時間算出部75は、生成した累積ヒストグラムを全画素数で割ることで、累積値を正規化した正規化累積ヒストグラムを生成する。
 さらに、蓄積時間算出部75は、正規化累積ヒストグラムにおいて、累積値が、予め決定したCP0およびCP1となる輝度値lum0およびlum1を決定し、輝度値lum0およびlum1を使用して、以下の式(16)および式(17)により、次の検出フレームの長蓄積時間および短蓄積時間を決定する。
 更新後の長蓄積時間=(長蓄積時間目標値/lum0)×現在の短蓄積時間 ・・・(16)
 更新後の短蓄積時間=(短蓄積時間目標値/lum1)×現在の短蓄積時間 ・・・(17)
 例えば、CP1を90%、CP0を50%とする輝度値lum0およびlum1を決定すると、全輝度値のうち、上位10%の明るい信号レベルを、短蓄積時間の飽和率が50%になるように制御する、というような制御が可能となる。
<10.HDR駆動モードにおける測定処理>
 図21のフローチャートを参照して、測距モジュール11がHDR駆動モードで物体までの距離を測定する測定処理について説明する。
 この処理は、例えば、動作モードとしてHDR駆動モードが設定された状態で、測定開始が指示されたとき開始される。
 初めに、ステップS1において、信号処理部16は、受光部15の各画素21の第1タップ32Aの第1蓄積時間(長蓄積時間)と、第2タップ32Bの第2蓄積時間(短蓄積時間)の初期値を、受光部15に供給する。
 ステップS2において、発光制御部13は、所定の周波数(例えば、20MHzなど)の発光制御信号を、発光部12と受光部15に供給する。
 ステップS3において、発光部12は、発光制御部13から供給される発光制御信号に基づいて、物体に対して照射光を照射する。
 ステップS4において、受光部15の各画素21は、駆動制御回路23の制御に基づいて、物体からの反射光を受光する。各画素21は、図7に示した第1の画素回路、または、図9に示した第2の画素回路で構成される。各画素21は、照射光の照射タイミングを基準に、位相を0°、90°、180°、および、270°だけずらした4つの位相それぞれについて、第1タップ32Aの第1蓄積時間と、第2タップ32Bの第2蓄積時間とを異なる時間に制御して、受光量に応じた電荷を蓄積し、検出信号A0乃至A3および検出信号B0乃至B3を出力する。各画素21の検出信号A0乃至A3および検出信号B0乃至B3は、信号処理部16の補正処理部71と、統計量算出部74とに供給される。
 ステップS5において、補正処理部71は、画素アレイ部22の各画素21を注目画素として、注目画素の周辺画素の画素データを用いて、注目画素の画素データを補正する補正処理を実行する。具体的には、補正処理部71は、画素データが取得されたときの蓄積時間に応じた補正係数c(i,j),d(i,j),e(i,j)、および、f(i,j)を、周辺画素の画素データに乗算し、補正後の画素データを算出する。補正後の各画素21の画素データである、位相0°、90°、180°、および、270°の検出信号Aおよび検出信号Bは、順次、フレームメモリ72に供給され、記憶される。
 ステップS6において、デプス算出部73は、補正処理後の画素データを用いて、デプスマップを生成し、出力する。より具体的には、デプス算出部73は、フレームメモリ72に記憶されている、位相0°、90°、180°、および、270°の各画素21の検出信号Aおよび検出信号Bを取得する。そして、デプス算出部73は、検出信号Aの最大値lumに基づいて短畜ブレンド率αを決定し、式(9)乃至式(12)により、検出信号Aおよび検出信号Bを短畜ブレンド率αでブレンドした4位相の検出信号C0乃至C3を算出する。さらに、デプス算出部73は、式(13)および式(2)により、デプス値dを算出する。そして、デプス演算部73は、各画素21の画素値としてデプス値dが格納されたデプスマップを生成して、モジュール外へ出力する。
 ステップS7において、統計量算出部74は、受光部15から供給された各画素21の画素データを用いて、受光した反射光の輝度値の統計量を算出する。
 例えば、統計量算出部74が、図17に示した第1構成例で構成される場合、統計量算出部74は、統計量として、各画素21の輝度平均値と画素飽和率を算出し、蓄積時間算出部75に供給する。
 あるいはまた、統計量算出部74が、図18に示した第2構成例で構成される場合、統計量算出部74は、統計量として、輝度値のヒストグラムを生成し、蓄積時間算出部75に供給する。
 ステップS8において、蓄積時間算出部75は、統計量算出部74から供給された各画素21の輝度値の統計量を用いて、受光部15が次に受光を行う際の各画素21の長蓄積時間および短蓄積時間を算出し、受光部15および補正処理部71に供給する。受光部15の駆動制御回路23は、次のフレームの駆動(次のステップS4の処理)において、各画素21の第1タップ32Aおよび第2タップ32Bの蓄積時間が、蓄積時間算出部75から供給された長蓄積時間および短蓄積時間となるように各画素21を制御する。
 統計量算出部74から、画素飽和率と輝度平均値が供給された場合、蓄積時間算出部75は、上述した式(14)により、次の検出フレームの長蓄積時間を算出し、上述した式(15)により、次の検出フレームの短蓄積時間を算出する。
 一方、統計量算出部74から、輝度値のヒストグラムが供給された場合、蓄積時間算出部75は、正規化累積ヒストグラムを生成し、累積値が、予め決定したCP0およびCP1となる輝度値lum0およびlum1を決定して、上述した式(16)および式(17)により、次の検出フレームの長蓄積時間および短蓄積時間を算出する。算出された長蓄積時間および短蓄積時間は、受光部15に供給されるとともに、補正処理部71にも供給される。
 ステップS9において、測距モジュール11は、測定を中止するかを判定する。例えば、測距モジュール11は、測定を中止する操作または命令が供給された場合、測定を中止すると判定する。
 ステップS9で、まだ測定を中止しない(測定を継続する)と判定された場合、処理はステップS2へ戻り、上述したステップS2乃至S9の処理が繰り返される。
 一方、ステップS9で、測定を中止すると判定された場合、図21の測定処理が終了される。
 以上の測距モジュール11によるHDR駆動モードの測定処理によれば、各画素21の第1タップ32Aの第1蓄積時間と、第2タップ32Bの第2蓄積時間とを異なる時間に制御して得られた検出信号A0乃至A3および検出信号B0乃至B3に基づいて、デプス値dを算出し、デプスマップを生成することができる。各画素21の第1タップ32Aの第1蓄積時間と、第2タップ32Bの第2蓄積時間とを異なる時間に制御することで、測定範囲を拡大した距離の測定を行うことができる。
 測定範囲を拡大する測距センサの測定方法として、例えば、第1のフレームで各画素21の2つのタップ32を長蓄積時間に制御して受光し、第2のフレームで各画素21の2つのタップ32を短蓄積時間に制御して受光するようなフレーム単位で蓄積時間を変える方法が考えられる。この測定方法では、長蓄積時間と短蓄積時間の画素データを取得するためには、少なくとも2フレームが必要となる。
 測距モジュール11によれば、1フレームで長蓄積時間と短蓄積時間の画素データを取得することができるので、フレームレートを低下させることなく、測定範囲を拡大した距離の測定を行うことができる。
 あるいはまた、1フレームで長蓄積時間と短蓄積時間の画素データを取得する他の方法として、画素アレイ部22の全画素を、長蓄積時間に制御する画素21と、短蓄積時間に制御する画素21とに空間方向に分割して、長蓄積時間と短蓄積時間の画素データを取得する方法がある。この測定方法では、長蓄積時間の画素数と短蓄積時間の画素数が、画素アレイ部22の全画素数の半分ずつとなるため、解像度が低下する。
 測距モジュール11によれば、画素アレイ部22の全画素から長蓄積時間と短蓄積時間の画素データを取得することができるので、解像度を低下させることなく、測定範囲を拡大した距離の測定を行うことができる。
 また、測距モジュール11によれば、4位相の長蓄積時間の画素データは、1つのタップ32(第1タップ32A)で取得され、短蓄積時間の画素データも、1つのタップ32(第2タップ32B)で取得される。すなわち、4位相の画素データが検出される画素トランジスタが同じであるので、画素トランジスタのバラツキを考慮する必要がなく、画素トランジスタのバラツキ等に起因する固定パターンノイズを抑制することができる。
<11.測距センサのチップ構成例>
 図22は、測距センサ14のチップ構成例を示す斜視図である。
 測距センサ14は、例えば、図22のAに示されるように、複数のダイ(基板)としてのセンサダイ151とロジックダイ152とが積層された1つのチップで構成することができる。
 センサダイ151には、センサ部161(としての回路)が構成され、ロジックダイ152には、ロジック部162が構成されている。
 センサ部161には、例えば、画素アレイ部22と駆動制御回路23とが形成されている。ロジック部162には、例えば、検出信号をAD変換するAD変換部や、信号処理部16、入出力端子などが形成されている。
 また、測距センサ14は、センサダイ151とロジックダイ152とに加えて、もう1つのロジックダイを積層した3層で構成してもよい。勿論、4層以上のダイ(基板)の積層で構成してもよい。
 あるいはまた、測距センサ14は、例えば、図22のBに示されるように、第1のチップ171および第2のチップ172と、それらが搭載された中継基板(インターポーザ基板)173とで構成してもよい。
 第1のチップ171には、例えば、画素アレイ部22と駆動制御回路23とが形成されている。第2のチップ172には、検出信号をAD変換するAD変換部や、信号処理部16が形成されている。
 なお、上述した図22のAにおけるセンサダイ151とロジックダイ152との回路配置、および、図22のBにおける第1のチップ171と第2のチップ172との回路配置は、あくまで一例であり、これに限定されない。例えば、図12に示した信号処理部16の構成のうち、フレームメモリ72やデプス算出部73などが、測距センサ14の外部に設けられてもよい。
<12.測距モジュールの使用例>
 本技術は、測距モジュールへの適用に限られるものではない。即ち、本技術は、例えば、スマートフォン、タブレット型端末、携帯電話機、パーソナルコンピュータ、ゲーム機、テレビ受像機、ウェアラブル端末、デジタルスチルカメラ、デジタルビデオカメラなどの電子機器全般に対して適用可能である。上述の測距モジュール11は、発光部12、発光制御部13、および、測距センサ14がまとめてパッケージングされた形態であってもよいし、発光部12と測距センサ14とが別に構成され、測距センサ14のみをワンチップとして構成してもよい。
 図23は、上述の測距モジュール11の使用例を示す図である。
 上述した測距モジュール11は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・デジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
<13.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図24は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図24に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図24の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図25は、撮像部12031の設置位置の例を示す図である。
 図25では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図25には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。具体的には、例えば、図1の測距モジュール11は、撮像部12031に適用することができる。撮像部12031は、例えばLIDARであり、車両12100の周囲の物体及び物体までの距離の検出に用いられる。撮像部12031に本開示に係る技術を適用することにより、車両12100の周囲の物体及び物体までの距離の測定範囲が拡大する。その結果、例えば、車両の衝突警告を適切なタイミングで行うことができ、交通事故を防止することが可能となる。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
 なお、本技術は、以下の構成を取ることができる。
(1)
 入射された光を光電変換して電荷を生成する光電変換部と、
 前記光電変換部において第1蓄積時間で生成された第1電荷を蓄積する第1電荷蓄積部と、
 前記光電変換部において前記第1蓄積時間と異なる第2蓄積時間で生成された第2電荷を蓄積する第2電荷蓄積部と
 を有する画素
 を備える受光装置。
(2)
 前記画素は、
  前記第1電荷蓄積部の前記第1電荷を排出する第1リセットトランジスタと、
  前記第2電荷蓄積部の前記第2電荷を排出する第2リセットトランジスタと
 をさらに有し、
 前記第1リセットトランジスタをアクティブ状態にする時間と、前記第2リセットトランジスタをアクティブ状態にする時間とを変えることで、前記第1蓄積時間と第2蓄積時間とが異なる時間に制御される
 前記(1)に記載の受光装置。
(3)
 前記光電変換部の電荷を排出する排出トランジスタをさらに有し、
 前記排出トランジスタは、前記第2電荷蓄積部に電荷を蓄積する期間に、アクティブ状態に制御される
 前記(1)または(2)に記載の受光装置。
(4)
 前記第1電荷蓄積部への複数回の前記第1電荷の蓄積に対して、前記第2電荷蓄積部への1回の前記第2電荷の蓄積が実行される
 前記(3)に記載の受光装置。
(5)
 前記第2電荷蓄積部への前記第2電荷の蓄積と、前記第1電荷蓄積部への前記第1電荷の蓄積との間に、前記排出トランジスタがアクティブ状態に制御される
 前記(4)に記載の受光装置。
(6)
 前記画素に入射された前記光は、照射光が物体に反射されてきた反射光であり、
 前記画素は、前記照射光の照射タイミングに対する4つの位相それぞれについて、前記第1電荷および前記第2電荷を蓄積する
 前記(1)乃至(5)のいずれかに記載の受光装置。
(7)
 前記画素が行列状に複数配置された画素アレイ部と、
 前記画素の画素データを、前記画素の周辺画素の画素データを用いて補正する補正処理部と
 をさらに備える
 前記(1)乃至(6)のいずれかに記載の受光装置。
(8)
 前記補正処理部は、前記画素の周辺画素の画素データに、蓄積時間に応じた補正係数を乗算した乗算結果を、前記画素の画素データに加算することで、前記画素の画素データを補正する
 前記(7)に記載の受光装置。
(9)
 前記画素が行列状に複数配置された画素アレイ部と、
 複数の前記画素の画素データの統計量を算出する統計量算出部と
 をさらに備える
 前記(1)乃至(8)のいずれかに記載の受光装置。
(10)
 前記統計量算出部は、前記統計量として、前記電荷が飽和した画素の比率である画素飽和率と、複数の前記画素の輝度平均値とを算出する
 前記(9)に記載の受光装置。
(11)
 前記画素飽和率は、前記画素の前記第1蓄積時間の前記画素データを用いて算出され、
 前記輝度平均値は、前記画素の前記第2蓄積時間の前記画素データを用いて算出される
 前記(10)に記載の受光装置。
(12)
 前記統計量算出部は、複数の前記画素の画素データのヒストグラムを算出する
 前記(9)乃至(11)のいずれかに記載の受光装置。
(13)
 複数の前記画素の画素データの統計量に基づいて、次のフレームの前記第1蓄積時間と前記第2蓄積時間とを算出する蓄積時間算出部をさらに備える
 前記(9)乃至(12)のいずれかに記載の受光装置。
(14)
 蓄積時間が前記第1蓄積時間と前記第2蓄積時間となるように前記画素を駆動する駆動制御部をさらに備える
 前記(13)に記載の受光装置。
(15)
 光電変換部と、第1電荷蓄積部と、第2電荷蓄積部とを有する画素を備える受光装置の駆動制御部が、
 前記光電変換部において第1蓄積時間で生成された第1電荷を前記第1電荷蓄積部へ蓄積させ、
 前記光電変換部において前記第1蓄積時間と異なる第2蓄積時間で生成された第2電荷を前記第2電荷蓄積部へ蓄積させる
 受光装置の駆動方法。
 11 測距モジュール, 12 発光部, 13 発光制御部, 14 測距センサ, 15 受光部, 16 信号処理部, 21 画素, 22 画素アレイ部, 23 駆動制御回路, 31 フォトダイオード(PD), 32A FD(第1タップ), 32B FD(第2タップ), 33 転送トランジスタ, 34 切替トランジスタ, 35 リセットトランジスタ, 36 増幅トランジスタ, 37 選択トランジスタ, 38 排出トランジスタ, 51乃至55 信号線, 56 垂直信号線, 71 補正処理部, 72 フレームメモリ, 73 デプス算出部, 74 統計量算出部, 75 蓄積時間算出部, 91 ブレンド率算出部, 92-1乃至92-4 ブレンド処理部, 93 デプスマップ生成部, 101 飽和率算出部, 102 平均値算出部, 103 ヒストグラム生成部

Claims (15)

  1.  入射された光を光電変換して電荷を生成する光電変換部と、
     前記光電変換部において第1蓄積時間で生成された第1電荷を蓄積する第1電荷蓄積部と、
     前記光電変換部において前記第1蓄積時間と異なる第2蓄積時間で生成された第2電荷を蓄積する第2電荷蓄積部と
     を有する画素
     を備える受光装置。
  2.  前記画素は、
      前記第1電荷蓄積部の前記第1電荷を排出する第1リセットトランジスタと、
      前記第2電荷蓄積部の前記第2電荷を排出する第2リセットトランジスタと
     をさらに有し、
     前記第1リセットトランジスタをアクティブ状態にする時間と、前記第2リセットトランジスタをアクティブ状態にする時間とを変えることで、前記第1蓄積時間と第2蓄積時間とが異なる時間に制御される
     請求項1に記載の受光装置。
  3.  前記光電変換部の電荷を排出する排出トランジスタをさらに有し、
     前記排出トランジスタは、前記第2電荷蓄積部に電荷を蓄積する期間に、アクティブ状態に制御される
     請求項1に記載の受光装置。
  4.  前記第1電荷蓄積部への複数回の前記第1電荷の蓄積に対して、前記第2電荷蓄積部への1回の前記第2電荷の蓄積が実行される
     請求項3に記載の受光装置。
  5.  前記第2電荷蓄積部への前記第2電荷の蓄積と、前記第1電荷蓄積部への前記第1電荷の蓄積との間に、前記排出トランジスタがアクティブ状態に制御される
     請求項4に記載の受光装置。
  6.  前記画素に入射された前記光は、照射光が物体に反射されてきた反射光であり、
     前記画素は、前記照射光の照射タイミングに対する4つの位相それぞれについて、前記第1電荷および前記第2電荷を蓄積する
     請求項1に記載の受光装置。
  7.  前記画素が行列状に複数配置された画素アレイ部と、
     前記画素の画素データを、前記画素の周辺画素の画素データを用いて補正する補正処理部と
     をさらに備える
     請求項1に記載の受光装置。
  8.  前記補正処理部は、前記画素の周辺画素の画素データに、蓄積時間に応じた補正係数を乗算した乗算結果を、前記画素の画素データに加算することで、前記画素の画素データを補正する
     請求項7に記載の受光装置。
  9.  前記画素が行列状に複数配置された画素アレイ部と、
     複数の前記画素の画素データの統計量を算出する統計量算出部と
     をさらに備える
     請求項1に記載の受光装置。
  10.  前記統計量算出部は、前記統計量として、前記電荷が飽和した画素の比率である画素飽和率と、複数の前記画素の輝度平均値とを算出する
     請求項9に記載の受光装置。
  11.  前記画素飽和率は、前記画素の前記第1蓄積時間の前記画素データを用いて算出され、
     前記輝度平均値は、前記画素の前記第2蓄積時間の前記画素データを用いて算出される
     請求項10に記載の受光装置。
  12.  前記統計量算出部は、複数の前記画素の画素データのヒストグラムを算出する
     請求項9に記載の受光装置。
  13.  複数の前記画素の画素データの統計量に基づいて、次のフレームの前記第1蓄積時間と前記第2蓄積時間とを算出する蓄積時間算出部をさらに備える
     請求項9に記載の受光装置。
  14.  蓄積時間が前記第1蓄積時間と前記第2蓄積時間となるように前記画素を駆動する駆動制御部をさらに備える
     請求項13に記載の受光装置。
  15.  光電変換部と、第1電荷蓄積部と、第2電荷蓄積部とを有する画素を備える受光装置の駆動制御部が、
     前記光電変換部において第1蓄積時間で生成された第1電荷を前記第1電荷蓄積部へ蓄積させ、
     前記光電変換部において前記第1蓄積時間と異なる第2蓄積時間で生成された第2電荷を前記第2電荷蓄積部へ蓄積させる
     受光装置の駆動方法。
PCT/JP2020/025980 2019-07-16 2020-07-02 受光装置、および、受光装置の駆動方法 WO2021010174A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/597,439 US20220268942A1 (en) 2019-07-16 2020-07-02 Light receiving device and method for driving light receiving device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019130866 2019-07-16
JP2019-130866 2019-07-16

Publications (1)

Publication Number Publication Date
WO2021010174A1 true WO2021010174A1 (ja) 2021-01-21

Family

ID=74209793

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/025980 WO2021010174A1 (ja) 2019-07-16 2020-07-02 受光装置、および、受光装置の駆動方法

Country Status (2)

Country Link
US (1) US20220268942A1 (ja)
WO (1) WO2021010174A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023003981A1 (en) * 2021-07-22 2023-01-26 Arthrex, Inc. Surgical camera system with high dynamic range
WO2023110911A1 (en) * 2021-12-17 2023-06-22 Sony Semiconductor Solutions Corporation Electronic device, method and computer program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003029312A (ja) * 2001-07-13 2003-01-29 Nikon Corp オートフォーカスカメラの測光装置
JP2009008537A (ja) * 2007-06-28 2009-01-15 Fujifilm Corp 距離画像装置及び撮像装置
KR20100104074A (ko) * 2009-03-16 2010-09-29 (주) 지안 넓은 동적범위를 갖는 씨모스 이미지 센서 및 그 센싱 방법
WO2017013857A1 (ja) * 2015-07-22 2017-01-26 パナソニックIpマネジメント株式会社 測距装置
JP2017028568A (ja) * 2015-07-24 2017-02-02 オリンパス株式会社 撮像装置および撮像方法
JP2017103728A (ja) * 2015-12-04 2017-06-08 キヤノン株式会社 撮像装置の駆動方法
JP2017112420A (ja) * 2015-12-14 2017-06-22 株式会社ニコン 撮像素子および撮像装置
WO2018042801A1 (ja) * 2016-09-01 2018-03-08 ソニーセミコンダクタソリューションズ株式会社 撮像装置
WO2018056232A1 (ja) * 2016-09-21 2018-03-29 国立大学法人静岡大学 光電変換素子及び固体撮像装置
WO2020080065A1 (ja) * 2018-10-16 2020-04-23 株式会社ブルックマンテクノロジ 測距装置、カメラ、及び測距装置の駆動調整方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003029312A (ja) * 2001-07-13 2003-01-29 Nikon Corp オートフォーカスカメラの測光装置
JP2009008537A (ja) * 2007-06-28 2009-01-15 Fujifilm Corp 距離画像装置及び撮像装置
KR20100104074A (ko) * 2009-03-16 2010-09-29 (주) 지안 넓은 동적범위를 갖는 씨모스 이미지 센서 및 그 센싱 방법
WO2017013857A1 (ja) * 2015-07-22 2017-01-26 パナソニックIpマネジメント株式会社 測距装置
JP2017028568A (ja) * 2015-07-24 2017-02-02 オリンパス株式会社 撮像装置および撮像方法
JP2017103728A (ja) * 2015-12-04 2017-06-08 キヤノン株式会社 撮像装置の駆動方法
JP2017112420A (ja) * 2015-12-14 2017-06-22 株式会社ニコン 撮像素子および撮像装置
WO2018042801A1 (ja) * 2016-09-01 2018-03-08 ソニーセミコンダクタソリューションズ株式会社 撮像装置
WO2018056232A1 (ja) * 2016-09-21 2018-03-29 国立大学法人静岡大学 光電変換素子及び固体撮像装置
WO2020080065A1 (ja) * 2018-10-16 2020-04-23 株式会社ブルックマンテクノロジ 測距装置、カメラ、及び測距装置の駆動調整方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023003981A1 (en) * 2021-07-22 2023-01-26 Arthrex, Inc. Surgical camera system with high dynamic range
US11595589B2 (en) 2021-07-22 2023-02-28 Arthrex, Inc. Surgical camera system with high dynamic range
WO2023110911A1 (en) * 2021-12-17 2023-06-22 Sony Semiconductor Solutions Corporation Electronic device, method and computer program

Also Published As

Publication number Publication date
US20220268942A1 (en) 2022-08-25

Similar Documents

Publication Publication Date Title
US10746874B2 (en) Ranging module, ranging system, and method of controlling ranging module
JP7214363B2 (ja) 測距処理装置、測距モジュール、測距処理方法、およびプログラム
WO2020170861A1 (ja) イベント信号検出センサ及び制御方法
US11509840B2 (en) Solid-state imaging device, signal processing chip, and electronic apparatus
JP7044107B2 (ja) 光センサ、及び、電子機器
WO2021085128A1 (ja) 測距装置、測定方法、および、測距システム
WO2017163890A1 (ja) 固体撮像装置、固体撮像装置の駆動方法、及び、電子機器
WO2021010174A1 (ja) 受光装置、および、受光装置の駆動方法
KR102493027B1 (ko) 촬상 소자 및 그 구동 방법, 그리고 전자 기기
JP2020118569A (ja) 受光装置および測距装置
JP2020099015A (ja) センサ及び制御方法
JP2018007210A (ja) 信号処理装置および方法、並びに撮像装置
WO2020209079A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
WO2021029262A1 (ja) 装置、測定装置、測距システムおよび方法
TWI757751B (zh) 測距感測器、信號處理方法及測距模組
US20220128690A1 (en) Light receiving device, histogram generating method, and distance measuring system
WO2020137318A1 (ja) 測定装置、測距装置および測定方法
WO2022270034A1 (ja) 撮像装置、電子機器、および光検出方法
WO2021039458A1 (ja) 測距センサおよびその駆動方法、並びに、測距モジュール
WO2020179288A1 (ja) 光検出装置
WO2024090031A1 (ja) 撮像素子および電子機器
WO2022254792A1 (ja) 受光素子およびその駆動方法、並びに、測距システム
TWI839646B (zh) 測定裝置及測距裝置
TWI839653B (zh) 測定裝置及測距裝置
WO2021100593A1 (ja) 測距装置及び測距方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20841263

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20841263

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP