WO2020166419A1 - 受光装置、ヒストグラム生成方法、および測距システム - Google Patents

受光装置、ヒストグラム生成方法、および測距システム Download PDF

Info

Publication number
WO2020166419A1
WO2020166419A1 PCT/JP2020/004006 JP2020004006W WO2020166419A1 WO 2020166419 A1 WO2020166419 A1 WO 2020166419A1 JP 2020004006 W JP2020004006 W JP 2020004006W WO 2020166419 A1 WO2020166419 A1 WO 2020166419A1
Authority
WO
WIPO (PCT)
Prior art keywords
time information
light
light receiving
unit
receiving device
Prior art date
Application number
PCT/JP2020/004006
Other languages
English (en)
French (fr)
Inventor
鈴木 伸治
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/427,951 priority Critical patent/US20220128690A1/en
Publication of WO2020166419A1 publication Critical patent/WO2020166419A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/14Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein a voltage or current pulse is initiated and terminated in accordance with the pulse transmission and echo reception respectively, e.g. using counters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak

Definitions

  • the DirectToF sensor (hereinafter, simply referred to as ToF sensor) directly measures the distance from the time when the light is projected toward the subject and the time when the reflected light reflected from the subject is received.
  • the flight time of light from the time when the light is projected to the time when the reflected light is received is converted to distance data (hereinafter referred to as ToF data) by the TDC (time to digital converter).
  • ToF data distance data
  • TDC time to digital converter
  • the ToF sensor outputs ToF data at a high rate from the TDC due to the influence of false light reception reactions due to ambient light, multipath light, or noise, but in order to generate a histogram without missing data, histogram generation is required.
  • the circuit also needs to operate at the same high rate as the output rate from the TDC.
  • the present technology has been made in view of such a situation, and makes it possible to realize a histogram generation circuit with a small area and low power consumption.
  • the histogram generation method is that the light receiving device measures and stores time information from the light emission timing of the light source to the light reception timing at which the light receiving element receives light, and that the same measured time information is stored. It is a histogram generation method including merging with one time information and generating a histogram based on one or more kinds of time information after merging.
  • a distance measuring system includes an illuminating device that has a light source that emits irradiation light, and a light receiving device that receives reflected light with respect to the irradiation light, and the light receiving device has emission timing of the light source.
  • a measuring unit that measures time information
  • a storage unit that stores the plurality of time information, and the same time information measured by the measuring unit as one time.
  • time information from the light emission timing of the light source to the light reception timing at which the light receiving element receives light is measured, the plurality of time information is stored, and the same measured time information is stored. It is merged into one time information, and a histogram is generated based on the one or more kinds of time information after the merge.
  • the light receiving device and the distance measuring system may be independent devices, or may be modules incorporated in other devices.
  • FIG. 4 is a diagram illustrating an operation of the pixel of FIG. 3.
  • FIG. 4 is a diagram illustrating an operation of the pixel of FIG. 3.
  • FIG. 4 is a diagram illustrating an operation of the pixel of FIG. 3.
  • FIG. 4 is a diagram which shows the structural example of the signal processing part as a comparative example.
  • It is a block diagram which shows the 1st structural example of the signal processing part of FIG. 6 is a timing chart showing a histogram generation operation by the signal processing unit in FIG. 5.
  • FIG. 6 is a block diagram showing a second configuration example of the signal processing unit of FIG. 2. It is a block diagram which shows the 3rd structural example of the signal processing part of FIG.
  • FIG. 6 is a plan view showing an arrangement example of each part in the case of being configured by one chip having a laminated structure of two substrates. It is a top view showing an example of arrangement of each part in the case of being constituted by one chip by a laminated structure of three substrates. It is a flow chart explaining distance measurement processing. It is a figure explaining the example of use of a ranging system. It is a block diagram showing an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of a distance measuring system to which the present technology is applied.
  • the distance measuring system 11 is a system that captures a range image using the ToF method, for example.
  • the distance image is an image in which the distance in the depth direction from the distance measuring system 11 to the subject is detected in pixel units, and the signal of each pixel is a distance pixel signal based on the detected distance.
  • the distance measuring system 11 includes a lighting device 21 and an imaging device 22.
  • the illumination control unit 31 controls the pattern in which the light source 32 emits light under the control of the control unit 42 of the imaging device 22. Specifically, the illumination control unit 31 controls the pattern in which the light source 32 emits light according to the irradiation code included in the irradiation signal supplied from the control unit 42.
  • the irradiation code consists of two values, 1 (High) and 0 (Low), and the illumination control unit 31 turns on the light source 32 when the irradiation code has a value of 1, and the light source when the irradiation code has a value of 0. Turn off 32.
  • the light source 32 emits light in a predetermined wavelength range under the control of the illumination control unit 31.
  • the light source 32 is, for example, an infrared laser diode.
  • the type of the light source 32 and the wavelength range of the irradiation light can be arbitrarily set according to the application of the distance measuring system 11 and the like.
  • the image pickup device 22 is a device that receives the reflected light that is the light (illumination light) emitted from the illumination device 21 and reflected by the subject 12 and the subject 13.
  • the imaging device 22 includes an imaging unit 41, a control unit 42, a display unit 43, and a storage unit 44.
  • the lens 51 forms an image of incident light on the light receiving surface of the light receiving device 52.
  • the configuration of the lens 51 is arbitrary, and for example, the lens 51 can be configured by a plurality of lens groups.
  • the distance measuring system 11 repeats the light emission of the light source 32 and the reception of the reflected light a plurality of times (for example, thousands to tens of thousands of times), so that the imaging unit 41 causes the influence of ambient light, multipath, and the like.
  • the removed distance image is generated and supplied to the control unit 42.
  • the control unit 42 includes, for example, a control circuit such as an FPGA (Field Programmable Gate Array), a DSP (Digital Signal Processor), a processor, or the like.
  • the control unit 42 controls the illumination control unit 31 and the light receiving device 52. Specifically, the control unit 42 supplies an irradiation signal to the illumination control unit 31 and also supplies a light emission timing signal to the light receiving device 52.
  • the light source 32 emits irradiation light according to the irradiation signal.
  • the light emission timing signal may be an irradiation signal supplied to the illumination controller 31.
  • the control unit 42 supplies the distance image acquired from the imaging unit 41 to the display unit 43 and causes the display unit 43 to display the distance image. Further, the control unit 42 causes the storage unit 44 to store the distance image acquired from the imaging unit 41. Further, the control unit 42 outputs the distance image acquired from the image pickup unit 41 to the outside.
  • the display unit 43 is composed of a panel type display device such as a liquid crystal display device or an organic EL (Electro Luminescence) display device.
  • a panel type display device such as a liquid crystal display device or an organic EL (Electro Luminescence) display device.
  • the storage unit 44 can be configured by an arbitrary storage device, storage medium, or the like, and stores a distance image or the like.
  • FIG. 2 is a block diagram showing a configuration example of the light receiving device 52.
  • the light receiving device 52 includes a pixel driving unit 71, a pixel array 72, a MUX (multiplexer) 73, a time measuring unit 74, a signal processing unit 75, and an input/output unit 76.
  • the pixel array 72 has a configuration in which pixels 81 that detect the incidence of photons and output a detection signal indicating the detection result as a pixel signal are two-dimensionally arranged in a matrix in the row direction and the column direction.
  • the row direction means the arrangement direction of the pixels 81 in the horizontal direction
  • the column direction means the arrangement direction of the pixels 81 in the vertical direction.
  • the pixel array 72 is shown in a pixel array configuration of 10 rows and 12 columns due to space limitations, but the number of rows and columns of the pixel array 72 is not limited to this and is arbitrary.
  • the pixel drive line 82 is horizontally arranged for each pixel row with respect to the matrix-shaped pixel array of the pixel array 72.
  • the pixel drive line 82 transmits a drive signal for driving the pixel 81.
  • the pixel drive unit 71 drives each pixel 81 by supplying a predetermined drive signal to each pixel 81 via the pixel drive line 82.
  • the pixel driving section 71 has at least a part of the plurality of pixels 81 arranged two-dimensionally in a matrix at a predetermined timing according to a light emission timing signal supplied from the outside via the input/output section 76. Is set as an active pixel, and the remaining pixels 81 are set as inactive pixels. Active pixels are pixels that detect the incidence of photons, and inactive pixels are pixels that do not detect the incidence of photons. Of course, all the pixels 81 of the pixel array 72 may be active pixels. The detailed configuration of the pixel 81 will be described later.
  • the MUX 73 selects the output from the active pixel according to the switching between the active pixel and the inactive pixel in the pixel array 72. Then, the MUX 73 outputs the pixel signal input from the selected active pixel to the time measuring unit 74.
  • the time measuring unit 74 based on the pixel signal of the active pixel supplied from the MUX 73 and the light emission timing signal indicating the light emission timing of the light source 32, from the time when the light source 32 emits light until the time when the active pixel receives light. A count value corresponding to the time (light flight time) is generated.
  • the light emission timing signal is supplied from the outside (the control unit 42 of the imaging device 22) via the input/output unit 76.
  • the signal processing unit 75 receives the reflected light based on the light emission of the light source 32 repeatedly executed a predetermined number of times (for example, thousands to tens of thousands of times) and the reception of the reflected light (count value ) Is generated for each pixel. Then, the signal processing unit 75 detects the peak of the histogram to determine the time until the light emitted from the light source 32 is reflected by the subject 12 or the subject 13 and returns. The signal processing unit 75 generates a distance image in which a digital count value obtained by counting the time until the light receiving device 52 receives light is stored in each pixel, and supplies the distance image to the input/output unit 76.
  • the signal processing unit 75 performs a calculation for obtaining the distance to the object based on the determined time and speed of light, generates a distance image in which the calculation result is stored in each pixel, and supplies the distance image to the input/output unit 76. May be.
  • the input/output unit 76 outputs a distance image signal (distance image signal) supplied from the signal processing unit 75 to the outside (control unit 42). Further, the input/output unit 76 acquires the light emission timing signal supplied from the control unit 42 and supplies it to the pixel drive unit 71 and the time measuring unit 74.
  • FIG. 3 shows a circuit configuration example of the pixels 81 arranged in a matrix in the pixel array 72.
  • the pixel 81 in FIG. 3 includes a SPAD 101, a transistor 102, a switch 103, and an inverter 104.
  • the pixel 81 also includes a latch circuit 105 and an inverter 106.
  • the transistor 102 is composed of a P-type MOS transistor.
  • the cathode of the SPAD 101 is connected to the drain of the transistor 102, the input terminal of the inverter 104, and one end of the switch 103.
  • the anode of the SPAD 101 is connected to the power supply voltage VA (hereinafter, also referred to as the anode voltage VA).
  • the SPAD 101 is a photodiode (single photon avalanche photodiode) that avalanche-amplifies the generated electrons and outputs a signal of the cathode voltage VS when incident light is incident.
  • the power supply voltage VA supplied to the anode of the SPAD 101 is, for example, a negative bias (negative potential) of about -20V.
  • the transistor 102 is a constant current source that operates in the saturation region, and acts as a quenching resistor to perform passive quenching.
  • the source of the transistor 102 is connected to the power supply voltage VE, and the drain is connected to the cathode of the SPAD 101, the input terminal of the inverter 104, and one end of the switch 103.
  • the power supply voltage VE is also supplied to the cathode of the SPAD 101.
  • a pull-up resistor can be used instead of the transistor 102 connected in series with the SPAD 101.
  • a voltage larger than the breakdown voltage VBD of the SPAD 101 (hereinafter referred to as excess bias (Excess Bias)) is applied.
  • excess bias Excess Bias
  • the power supply voltage VE supplied to the source of the transistor 102 is set to 3V.
  • the applied voltage applied to the SPAD 101 is controlled (adjusted) according to the change in the breakdown voltage VBD.
  • the power supply voltage VE is a fixed voltage
  • the anode voltage VA is controlled (adjusted).
  • the switch 103 has one end connected to the cathode of the SPAD 101, the input terminal of the inverter 104, and the drain of the transistor 102, and the other end connected to a ground connection line 107 connected to the ground (GND). ..
  • the switch 103 can be composed of, for example, an N-type MOS transistor, and turns on/off the gating control signal VG, which is the output of the latch circuit 105, according to the gating inversion signal VG_I inverted by the inverter 106.
  • the latch circuit 105 supplies the inverter 106 with a gating control signal VG for controlling the pixel 81 to be either an active pixel or an inactive pixel, based on the trigger signal SET supplied from the pixel driving unit 71 and the address data DEC. Supply.
  • the inverter 106 inverts the gating control signal VG to generate a gating inversion signal VG_I, and supplies the gating inversion signal VG_I to the switch 103.
  • the trigger signal SET is a timing signal that indicates the timing of switching the gating control signal VG
  • the address data DEC is for the pixel set as the active pixel among the plurality of pixels 81 arranged in a matrix in the pixel array 72. It is data indicating an address.
  • the trigger signal SET and the address data DEC are supplied from the pixel drive unit 71 via the pixel drive line 82.
  • the latch circuit 105 reads the address data DEC at a predetermined timing indicated by the trigger signal SET. Then, when the pixel address indicated by the address data DEC includes the pixel address of itself (the pixel 81 thereof), the latch circuit 105 sets Hi(1) for setting the pixel 81 of itself to the active pixel. Output the gating control signal VG. On the other hand, when the pixel address indicated by the address data DEC does not include the pixel address of itself (the pixel 81 thereof), the gating control signal of Lo (0) for setting the own pixel 81 to the inactive pixel. Output VG.
  • the switch 103 is turned off (not connected) when the pixel 81 is set as an active pixel, and turned on (connected) when the pixel 81 is set as an inactive pixel.
  • the inverter 104 outputs a Hi detection signal PFout when the cathode voltage VS as an input signal is Lo, and outputs a Lo detection signal PFout when the cathode voltage VS is Hi.
  • the inverter 104 is an output unit that outputs incident photons to the SPAD 101 as a detection signal PFout.
  • FIG. 4 is a graph showing changes in the cathode voltage VS of the SPAD 101 according to the incidence of photons and the detection signal PFout.
  • the switch 103 is set to OFF as described above.
  • the power supply voltage VE for example, 3V
  • the power supply voltage VA for example, -20V
  • the reverse voltage larger than the breakdown voltage VBD is supplied to the SPAD 101.
  • the SPAD 101 is set to Geiger mode. In this state, the cathode voltage VS of the SPAD 101 is the same as the power supply voltage VE at time t0 in FIG. 4, for example.
  • the cathode voltage VS of the SPAD 101 becomes lower than 0V
  • the anode-cathode voltage of the SPAD 101 becomes lower than the breakdown voltage VBD
  • the avalanche amplification stops.
  • the current generated by the avalanche amplification flows through the transistor 102 to cause a voltage drop, and the cathode voltage VS becomes lower than the breakdown voltage VBD due to the generated voltage drop, so that the avalanche amplification is stopped.
  • the operation to be performed is the quench operation.
  • the inverter 104 outputs the Lo detection signal PFout when the cathode voltage VS which is the input voltage is equal to or higher than the predetermined threshold voltage Vth, and outputs the Hi detection signal PFout when the cathode voltage VS is lower than the predetermined threshold voltage Vth.
  • the detection signal PFout is inverted from low level to high level.
  • the cathode voltage VS rises and becomes equal to or higher than the threshold voltage Vth
  • the detection signal PFout is inverted from the high level to the low level.
  • the gating inversion signal VG_I of Hi(1) is supplied to the switch 103, and the switch 103 is turned on.
  • the cathode voltage VS of the SPAD 101 becomes 0V.
  • the voltage between the anode and the cathode of the SPAD 101 becomes lower than the breakdown voltage VBD, so that no reaction occurs even when photons enter the SPAD 101.
  • the signal processing unit 75 creates a histogram of count values corresponding to the time until the reflected light is received, based on the light emission of the light source 32 repeatedly executed a predetermined number of times and the reception of the reflected light. Generate for each pixel.
  • the circuit area of the histogram generation circuit that generates this histogram increases as the resolution (spatial resolution or temporal resolution) of the distance measurement system is increased.
  • the configuration of the signal processing unit applied to the signal processing unit 75 of the light receiving device 52 and capable of suppressing the circuit area of the histogram generation circuit will be described below.
  • a configuration example of the signal processing unit 301 which is a comparative example for comparison with the signal processing unit 75 to which the present technology is applied, will be described, and then the configuration of the signal processing unit 75 of the light receiving device 52. Will be described.
  • FIG. 5 is a block diagram showing a configuration example of the signal processing unit 301 as a comparative example.
  • the signal processing unit 301 of FIG. 5 includes one histogram generation circuit 321 corresponding to one TDC (time to digital converter) 91 provided in the time measurement unit 74.
  • the histogram generation circuit 321 includes a decoder 331 and a histogram. And a holding circuit 332.
  • the TDC 91 of the time measuring unit 74 is provided corresponding to one or more pixels 81 of the pixel array 72.
  • the TDC 91 of the time measuring unit 74 is provided for one or more pixels 81 of the pixel array 72.
  • the pixels 81 and the TDC 91 are provided in a one-to-one correspondence, and the time measuring unit 74 sets the number of pixels in the pixel array 72 to Equipped with the same number of TDC 91.
  • the time measuring unit 74 includes the same number of TDCs 91 as the pixel rows of the pixel array 72. Therefore, the number of TDCs 91 included in the time measuring unit 74 is determined according to a request such as the number of pixels to be set as active pixels at the same time by receiving light once.
  • the pixel signal of the pixel 81 set as the active pixel that is, the detection signal PFout described above is input to the TDC 91.
  • the TDC 91 counts the time (period) when the Hi detection signal PFout is input, and outputs the count value as the count result to the histogram generation circuit 321 as ToF data.
  • the TDC 91 corresponds to a measuring unit that measures time information from the light emission timing of the light source 32 to the light reception timing of the light received by the pixel 81.
  • the ToF data input to the histogram generation circuit 321 is decoded by the decoder 331 and stored in the histogram bin of the histogram holding circuit 332.
  • the decoder 331 selects a bin of the histogram of the histogram holding circuit 332 according to the input ToF data and updates the histogram frequency value of the selected bin.
  • FIG. 6 shows an example of a histogram generated by the histogram generation circuit 321 by repeating the light emission of the light source 32 and the reception of the reflected light a plurality of times (for example, thousands to tens of thousands of times).
  • the bin indicated by D1 indicates the peak of the histogram, and the ToF data (count value) of the bin indicated by D1 is output as the ToF data of the pixel 81.
  • FIG. 7 is a block diagram showing a first configuration example of the signal processing unit 75 of FIG. 2, which is a signal processing unit to which the present technology is applied.
  • the signal processing unit 75 in FIG. 7 includes one histogram pre-stage circuit 121 and a histogram generation circuit 122 corresponding to one TDC 91 provided in the time measuring unit 74.
  • the relationship between the pixel 81 of the pixel array 72 and the TDC 91 of the time measuring section 74 is the same as that in the case of FIG.
  • the histogram pre-stage circuit 121 includes a storage unit 131 including a buffer B that stores a plurality of ToF data, a plurality of decoders 132, and a merge circuit 133.
  • the histogram generation circuit 122 is composed of a histogram holding circuit 151.
  • the histogram holding circuit 151 can be configured by, for example, an FF (Flip-Flop) array, an SRAM (Static RAM), or the like.
  • the storage unit 131 stores one or more types of ToF data input from the TDC 91 in the buffer B during one distance measurement period.
  • Buffer B is configured to store multiple ToF data in response to multiple avalanche amplifications that occur during one distance measurement period, such as ambient light, multipath light, and false light-receiving reaction due to noise. Has been done.
  • the decoders 132 are prepared by the number corresponding to the number of ToF data which the buffer B can store. For example, if the buffer B can store five ToF data, the number of decoders 132 provided in the histogram pre-stage circuit 121 will be five.
  • Each of the plurality of decoders 132 acquires one of the ToF data stored in the buffer B and outputs it to the merge circuit 133.
  • the merge circuit 133 is composed of an OR cell column in which a plurality of OR circuits are arranged. Each OR circuit is connected to the same output terminal of ToF data of the plurality of decoders 132, and the merge circuit 133 has an OR circuit of the number of possible ToF data.
  • the merge circuit 133 merges the same ToF data among the plurality of ToF data stored in the buffer B into one ToF data, and outputs the merged ToF data to the histogram holding circuit 151 of the histogram generation circuit 122.
  • the histogram holding circuit 151 updates and stores the histogram histogram frequency value corresponding to the ToF data based on the one or more types of ToF data after being merged by the merge circuit 133. Then, the histogram holding circuit 151 generates the histogram of ToF data by updating the frequency value of the histogram according to the reception of the reflected light of the light source 32 a plurality of times (for example, thousands to tens of thousands of times).
  • the signal processing unit 75 generates a distance image in which ToF data corresponding to the peak of the histogram of each pixel 81 of the pixel array 72 is stored in each pixel and supplies the distance image to the input/output unit 76.
  • the signal processing unit 75 performs a calculation for obtaining the distance to the object based on the determined time and the speed of light, generates a distance image in which the calculation result is stored in each pixel, and supplies the distance image to the input/output unit 76. May be.
  • FIG. 8 is a timing chart showing a histogram generation operation by the signal processing unit 301 of FIG. 5 which is a comparative example.
  • FIG. 9 is a timing chart showing a histogram generation operation by the signal processing unit 75 in FIG.
  • the period T from time t1 to time t2 corresponds to one distance measurement period, and during this one distance measurement period T, 25, 25, 50, 120, 120 It is assumed that 5 ToF data are output from TDC 91.
  • a final histogram is generated by repeating the measurement of the distance measurement period T a plurality of times (for example, thousands to tens of thousands of times).
  • the signal for identifying one distance measurement period is supplied from the control unit 42 of the imaging device 22 to the light receiving device 52 as a light emission timing signal.
  • the histogram generation circuit 321 of the signal processing unit 301 of FIG. 5 updates the histogram of the histogram holding circuit 332 each time the ToF data is input from the TDC 91, as shown in FIG. Specifically, it is updated every time the ToF data of ⁇ 25 ⁇ , ⁇ 25 ⁇ , ⁇ 50 ⁇ , ⁇ 120 ⁇ , and ⁇ 120 ⁇ is input.
  • the histogram generation circuit 321 needs to operate at a speed that can process all ToF data that are sequentially input.
  • the count values of the one or more types of ToF data supplied to the histogram holding circuit 151 are all different. Further, the timing for updating the histogram does not have to be the timing for each input of the ToF data, but may be the timing for each distance measurement period T.
  • the histogram generation circuit 321 of the comparative example outputs the ToF data of ⁇ 25 ⁇ . While the frequency value of ToF data of frequency value 2 and ⁇ 120 ⁇ is 2, and the frequency value of ToF data of ⁇ 50 ⁇ is integrated by 1, the histogram holding circuit 151 is ⁇ 25 ⁇ and ⁇ 50 ⁇ . , And the frequency value of the ToF data of ⁇ 120 ⁇ is only integrated by 1.
  • the signal processing unit 75 of the light receiving device 52 it is not possible to create a correct histogram, in other words, a histogram having the same frequency value as the output number of ToF data output by the TDC 91.
  • the histogram update frequency may be set at the timing of the distance measurement period T, and it is not necessary to operate at a high rate up to the output rate of the ToF data from the TDC 91.
  • the histogram generation circuit which is a memory unit, can be realized with a small area and low power consumption.
  • FIG. 10 is a block diagram showing a second configuration example of the signal processing unit 75 of FIG.
  • FIG. 10 parts corresponding to those in FIG. 7 are designated by the same reference numerals, and the description of those parts will be omitted as appropriate.
  • the second configuration example of FIG. 10 differs from the first configuration example in a part of the histogram pre-stage circuit 121.
  • the storage unit 131 of the second configuration example includes two buffers B included in the storage unit 131 of the first configuration example.
  • the two buffers B included in the storage unit 131 of the second configuration example will be referred to as a buffer B1 (first storage area) and a buffer B2 (second storage area).
  • the selector 171 stores one or more ToF data input from the TDC 91 in one of the buffers B1 or B2 under the control of the control unit 173 during one distance measuring period T. Under the control of the control unit 173, the selector 172 reads out one or more ToF data stored therein from one of the buffers B1 and B2 and outputs them to the plurality of decoders 132.
  • the control unit 173 controls the ToF data output destination of the selector 171 and the ToF data read destination of the selector 172. More specifically, the control unit 173 controls the selector 172 to read the ToF data from the buffer B2 when the selector 171 outputs the ToF data from the TDC 91 to the buffer B1, and the ToF data from the TDC 91 to the selector 171. Output to the buffer B2, the selector 172 controls to read the ToF data from the buffer B1. As a result, the storage of the ToF data in the buffer B1 and the output of the ToF data stored in the buffer B2 to the merge circuit 133 are simultaneously executed. That is, the output of ToF data from the TDC 91 and the histogram update can be operated in parallel, so that the processing can be speeded up.
  • the histogram update frequency may be at the timing of the distance measurement period T, and it is not necessary to operate at a high rate up to the output rate of ToF data from the TDC 91.
  • a certain histogram generation circuit can be realized with a small area and low power consumption.
  • FIG. 11 is a block diagram showing a third configuration example of the signal processing unit 75 in FIG.
  • FIG. 11 parts corresponding to those in FIG. 7 are designated by the same reference numerals, and the description of those parts will be omitted as appropriate.
  • the third configuration example of FIG. 11 differs from the first configuration example in a part of the histogram pre-stage circuit 121. Specifically, the histogram pre-stage circuit 121 of the third configuration example is provided with a merge circuit 181 instead of the merge circuit 133 of the first configuration example. Further, in the first configuration example, the decoders 132 are provided by the number corresponding to the number of ToF data that can be stored in the buffer B, but in the third configuration example, the number of decoders 132 is one.
  • the merge circuit 181 is provided in the preceding stage of the storage unit 131 (buffer B), and has a selector 182 (selection unit) and a comparator 183.
  • the selector 182 selects either the input from the TDC 91 or the invalid under the control of the comparator 183.
  • the selector 182 stores the ToF data from the TDC 91 in the buffer B of the storage unit 131, and when selecting the invalid, the ToF data from the TDC 91 is stored in the storage unit 131. Do not store in buffer B of.
  • the comparator 183 compares the ToF data supplied from the TDC 91 with the ToF data stored in the buffer B of the storage unit 131, and the ToF data supplied from the TDC 91 is already stored in the buffer B. If so, the selector 182 controls so that the ToF data from the TDC 91 is not output to the buffer B. On the other hand, when the ToF data supplied from the TDC 91 is data that is not stored in the buffer B, the comparator 183 controls the selector 182 to output the ToF data from the TDC 91 to the buffer B.
  • the merge circuit 181 determines whether the ToF data input from the TDC 91 is stored in the buffer B of the storage unit 131, and when the ToF data input from the TDC 91 is not stored in the buffer B, the merge circuit 181 buffers the ToF data input from the TDC 91. Make B remember.
  • the histogram update frequency may be at the timing of the distance measurement period T, and it is not necessary to operate at a high rate up to the output rate of ToF data from the TDC 91.
  • a certain histogram generation circuit can be realized with a small area and low power consumption.
  • the merge circuit 181 needs to be operated at a speed equal to or higher than the output rate of the TDC 91.
  • the light receiving device 52 can be configured by one chip (semiconductor chip) having a laminated structure in which two or three substrates (dies) are laminated.
  • FIG. 12 shows an arrangement example of each part when the light receiving device 52 is configured by one chip having a laminated structure of two substrates.
  • the light receiving device 52 is configured by stacking a first substrate 191A and a second substrate 191B.
  • the first substrate 191A and the second substrate 191B are electrically connected to each other by, for example, a through via or a Cu—Cu metal joint.
  • a light receiving surface for receiving reflected light is provided on the first substrate 191A, and the pixel array 72 is formed on the first substrate 191A.
  • the MUX 73, the time measuring unit 74, the signal processing unit 75, and the like are arranged on the second substrate 191B.
  • An input/output terminal such as a solder ball, which is a part of the input/output unit 76, is formed, for example, on the surface of the second substrate 191B opposite to the bonding surface of the first substrate 191A.
  • the pixel driving unit 71 (not shown) may be formed on either the first substrate 191A or the second substrate 191B.
  • FIG. 13 shows an arrangement example of each part when the light receiving device 52 is configured by one chip having a laminated structure of three substrates.
  • the light receiving device 52 is configured by stacking a first substrate 192A, a second substrate 192B, and a third substrate 192C.
  • the first substrate 192A and the second substrate 192B are electrically connected by a through via or a Cu-Cu metal joint
  • the second substrate 192B and the third substrate 192C are electrically connected by a through via or a Cu-Cu metal joint. Connected to.
  • a pixel array 72 is formed on the first substrate 192A.
  • a MUX 73 On the second substrate 192B, a MUX 73, a time measuring unit 74, and a plurality of histogram pre-stage circuits 121 that are a part of the signal processing unit 75 are arranged.
  • the SRAMs as the plurality of histogram generation circuits 122 are connected to the output terminals of the respective histogram front-end circuits 121 of the second substrate 192B by TSV (Through Silicon Via) or the like.
  • step S1 the control unit 42 of the imaging device 22 supplies an irradiation signal to the lighting control unit 31 of the lighting device 21 to cause the light source 32 to emit light.
  • the light source 32 emits light in a predetermined wavelength range according to the irradiation code included in the irradiation signal.
  • a light emission timing signal indicating the light emission timing of the light source 32 is also supplied from the control unit 42 to the light receiving device 52.
  • step S2 the light receiving device 52 sets at least a part of the plurality of pixels 81 of the pixel array 72 as active pixels, and receives the light emitted by the light source 32 and reflected by the subject.
  • the pixel 81 set as the active pixel detects the incidence of photons on the SPAD 101 and outputs a Hi detection signal PFout to the TDC 91.
  • the TDC 91 measures time information from the light emission timing of the light source 32 to the light reception timing of the active pixel receiving light. Specifically, the TDC 91 counts the time (period) when the Hi detection signal PFout is input, and outputs the count value that is the counting result to the histogram generation circuit 122 as ToF data.
  • avalanche amplification may occur multiple times during one distance measurement period due to disturbance light, multipath light, false light reception reaction due to noise, etc.
  • one or more types of ToF data may be supplied to the histogram generation circuit 122.
  • step S4 the storage unit 131 stores one or more types of ToF data input from the TDC 91 in the buffer B.
  • step S5 the merge circuit 133 acquires one or more types of ToF data stored in the buffer B via the decoder 132 and merges the same ToF data into one ToF data among the one or more types of ToF data. Then, it is output to the histogram holding circuit 151 of the histogram generation circuit 122.
  • step S6 the histogram holding circuit 151 updates and stores the frequency value of the histogram of the bin corresponding to the ToF data based on the merged one or more types of ToF data supplied from the merge circuit 133.
  • step S7 the control unit 42 determines whether or not the measurement is performed a predetermined number of times (for example, thousands to tens of thousands of times).
  • step S7 If it is determined in step S7 that the predetermined number of measurements have not been performed, the process returns to step S1 and the above process is repeated. As a result, the processing of steps S1 to S7 is repeated a predetermined number of times (for example, thousands to tens of thousands of times).
  • step S7 if it is determined in step S7 that the measurement is performed the predetermined number of times, the process proceeds to step S8, and the signal processing unit 75 causes the histogram holding circuit 151 to set the frequency of the histogram of the histogram holding circuit 151 for each pixel 81 set as the active pixel.
  • the distance image in which the ToF data corresponding to the peak is stored as a pixel value is generated by referring to the value and is supplied to the control unit 42 via the input/output unit 76.
  • the control unit 42 outputs the distance image acquired from the imaging unit 41 to the outside, and ends the distance measurement processing.
  • the signal processing unit 75 performs a calculation to obtain the distance to the object based on the determined time (ToF data) and the speed of light, generates a distance image in which the calculation result is stored in each pixel, and the control unit 42. May be supplied to
  • the distance image is generated by the distance measuring system 11 as described above and output to the outside.
  • the distance measurement processing when the second configuration example shown in FIG. 10 is adopted as the configuration of the signal processing unit 75 is similar to the flowchart in FIG. 14 described above, but the third configuration example shown in FIG. In the distance measurement processing in which is adopted, since the ToF data is merged by the merge circuit 181 and then stored in the buffer B, the order of the above-described steps S4 and S5 is switched.
  • the histogram update frequency may be at the timing of the distance measuring period T, and it is not necessary to operate the signal processing unit 75 at a high rate up to the output rate of the ToF data from the TDC 91.
  • the histogram generation circuit which is a memory unit that holds the histogram, can be realized with a small area and low power consumption.
  • the present technology is not limited to the application to the ranging system. That is, the present technology can be applied to general electronic devices such as smartphones, tablet terminals, mobile phones, personal computers, game machines, television sets, wearable terminals, digital still cameras, digital video cameras, and the like.
  • the above-mentioned imaging unit 41 may have a modular form in which the lens 51 and the light receiving device 52 are packaged together, or the lens 51 and the light receiving device 52 are separately configured, and only the light receiving device 52 is a single chip. You may comprise as.
  • FIG. 15 is a diagram showing a usage example of the distance measuring system 11 or the light receiving device 52 described above.
  • the distance measuring system 11 described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays as described below.
  • -A device that captures images used for viewing, such as a digital camera or a mobile device with camera function.
  • Devices used for traffic such as in-vehicle sensors that photograph the rear, surroundings, and inside the vehicle, surveillance cameras that monitor running vehicles and roads, ranging sensors that measure the distance between vehicles, etc.
  • Devices used for home appliances such as TVs, refrigerators, and air conditioners to take images and operate the devices according to the gestures ⁇ Endoscopes, devices that take blood vessels by receiving infrared light, etc.
  • ⁇ Security devices such as surveillance cameras for crime prevention and cameras for person authentication
  • ⁇ Skin measuring device for skin and scalp A device used for beauty, such as a microscope, a device used for sports, such as an action camera or wearable camera for sports, etc.
  • FIG. 16 is a block diagram showing a schematic configuration example of a vehicle control system that is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, a vehicle exterior information detection unit 12030, a vehicle interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/video output unit 12052, and an in-vehicle network I/F (interface) 12053 are shown as the functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to wheels, and a steering angle of the vehicle. It functions as a steering mechanism for adjustment and a control device such as a braking device that generates a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a winker, or a fog lamp.
  • the body system control unit 12020 may receive radio waves or signals of various switches transmitted from a portable device that substitutes for a key.
  • the body system control unit 12020 receives input of these radio waves or signals and controls the vehicle door lock device, power window device, lamp, and the like.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the imaging unit 12031 is connected to the vehicle outside information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the image capturing unit 12031 to capture an image of the vehicle exterior and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver state detection unit 12041 that detects the state of the driver is connected.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver is asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the information on the inside and outside of the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes a function of ADAS (Advanced Driver Assistance System) that includes collision avoidance or impact mitigation of a vehicle, follow-up traveling based on an inter-vehicle distance, vehicle speed maintenance traveling, a vehicle collision warning, or a vehicle lane departure warning. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generation device, the steering mechanism, the braking device, or the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's It is possible to perform cooperative control for the purpose of autonomous driving or the like that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the voice image output unit 12052 transmits an output signal of at least one of a voice and an image to an output device capable of visually or audibly notifying information to an occupant of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a head-up display.
  • FIG. 17 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield inside the vehicle.
  • the image capturing unit 12101 provided on the front nose and the image capturing unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 included in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the front images acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic signal, a traffic sign, a lane, or the like.
  • FIG. 17 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors
  • the imaging range 12114 indicates The imaging range of the imaging part 12104 provided in a rear bumper or a back door is shown.
  • a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the image capturing units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image capturing units 12101 to 12104 may be a stereo camera including a plurality of image capturing elements, or may be an image capturing element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object within the imaging range 12111 to 12114 and the temporal change of this distance (relative speed with respect to the vehicle 12100).
  • the closest three-dimensional object on the traveling path of the vehicle 12100 which travels in the substantially same direction as the vehicle 12100 at a predetermined speed (for example, 0 km/h or more), can be extracted as a preceding vehicle by determining it can.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of autonomous driving or the like that autonomously travels without depending on the operation of the driver.
  • the microcomputer 12051 uses the distance information obtained from the imaging units 12101 to 12104 to convert three-dimensional object data regarding a three-dimensional object into another three-dimensional object such as a two-wheeled vehicle, an ordinary vehicle, a large vehicle, a pedestrian, and a utility pole. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles visible to the driver of the vehicle 12100 and obstacles difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or more than the set value and there is a possibility of collision, the microcomputer 12051 outputs the audio through the audio speaker 12061 and the display unit 12062. A driver can be assisted for avoiding a collision by outputting an alarm to the driver and performing forced deceleration or avoidance steering through the drive system control unit 12010.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • the audio image output unit 12052 causes the recognized pedestrian to have a rectangular contour line for emphasis.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 to display an icon indicating a pedestrian or the like at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 and the like among the configurations described above.
  • the distance measuring system 11 of FIG. 1 can be applied to the image capturing unit 12031.
  • the imaging unit 12031 is, for example, a LIDAR, and is used to detect an object around the vehicle 12100 and a distance to the object.
  • the detection accuracy of the object around the vehicle 12100 and the distance to the object is improved.
  • a vehicle collision warning can be given at an appropriate timing, and a traffic accident can be prevented.
  • the system means a set of a plurality of constituent elements (devices, modules (parts), etc.), and it does not matter whether or not all the constituent elements are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. ..
  • a measuring unit that measures time information from the light emitting timing of the light source to the light receiving timing when the light receiving element receives light
  • a storage unit for storing a plurality of the time information
  • a merge circuit that merges the same time information measured by the measurement unit into one time information
  • a light receiving device comprising: a histogram generation circuit that generates a histogram based on one or more types of time information after merging.
  • the merge circuit merges the same time information included in the plurality of time information stored in the storage unit into one time information and outputs the merged time information to the histogram generation circuit. apparatus.
  • the light receiving device (1) or (2), wherein the merge circuit collectively outputs the plurality of types of time information after the merge to the histogram generation circuit once.
  • the merge circuit includes an OR cell row in which a plurality of OR circuits are arranged.
  • the storage unit includes a first storage area and a second storage area, The storage of the time information input from the measuring unit in the first storage area and the output of one or more types of the time information stored in the second storage area to the merge circuit are executed simultaneously.
  • the light receiving device according to any one of (1) to (4) above.
  • the merge circuit determines whether the time information input from the measurement unit is stored in the storage unit, and when the time information is not stored in the storage unit, the time information input from the measurement unit is determined.
  • the light-receiving device according to any one of (1) to (3), which is stored in the storage unit.
  • the merge circuit is A comparator that compares the time information input from the measurement unit with the time information stored in the storage unit;
  • the light receiving device according to any one of (1) to (3) or (6), further including: a selection unit that selects the time information input from the measurement unit and outputs the time information to the storage unit.
  • the light receiving device according to any one of (1) to (7), which is configured by one chip having a laminated structure of two or three substrates.
  • the light receiving device Measuring and storing time information from the light emitting timing of the light source to the light receiving timing at which the light receiving element receives light; Merging the same measured time information into one time information; Generating a histogram based on one or more types of the time information after merging.
  • a lighting device having a light source for irradiating irradiation light, A light receiving device for receiving reflected light with respect to the irradiation light, The light receiving device, A measuring unit that measures time information from the light emitting timing of the light source to the light receiving timing when the light receiving element of the light receiving device receives light, A storage unit for storing a plurality of the time information, A merge circuit that merges the same time information measured by the measurement unit into one time information; A histogram generation circuit that generates a histogram based on one or more types of the time information after merging.
  • 11 ranging system 21 lighting device, 22 imaging device, 31 lighting control unit, 32 light source, 41 imaging unit, 42 control unit, 52 light receiving device, 71 pixel drive unit, 72 pixel array, 73 MUX, 74 time measuring unit, 75 signal processing unit, 76 input/output unit, 81 pixels, 91 TDC, 101 SPAD, 121 histogram pre-stage circuit, 122 histogram generation circuit, 131 storage unit, 132 decoder, 133 merge circuit, 151 histogram holding circuit, 171,172 selector, 173 control unit, 181 merge circuit, 182 selector, 183 comparator, 191A first board, 191B second board, 192A first board, 192B second board, 193C third board

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

本技術は、小面積、低消費電力で、ヒストグラム生成回路を実現することができるようにする受光装置、ヒストグラム生成方法、および測距システムに関する。 受光装置は、光源の発光タイミングから受光素子が受光した受光タイミングまでの時間情報を計測する計測部と、複数の時間情報を記憶する記憶部と、計測部で計測された同一の時間情報を1つの時間情報にマージするマージ回路と、マージ後の1種類以上の時間情報に基づいて、ヒストグラムを生成するヒストグラム生成回路とを備える。本技術は、例えば、例えば、被写体までの奥行き方向の距離を検出する測距システム等に適用できる。

Description

受光装置、ヒストグラム生成方法、および測距システム
 本技術は、受光装置、ヒストグラム生成方法、および測距システムに関し、特に、小面積、低消費電力で、ヒストグラム生成回路を実現することができるようにした受光装置、ヒストグラム生成方法、および測距システムに関する。
 被写体までの距離を測定する測距センサの一つに、Direct ToF(Time of flight)センサがある(例えば、特許文献1参照)。Direct ToFセンサ(以下、単にToFセンサと称する。)は、被写体に向けて光を投射した時刻と、被写体から反射された反射光を受信した時刻とから距離を直接測定する。
 ToFセンサでは、光を投射した時刻から反射光を受信した時刻までの光の飛行時間がTDC(time to digital converter)によって距離データ(以下、ToFデータと称する。)に変換されるが、外乱光やマルチパスの影響を除去するために、光の投射と受信が複数回に渡って実施される。そして、複数回分のToFデータのヒストグラムが生成され、頻度値が最も大きいToFデータが、最終的なToFデータとして出力される。
 ToFセンサでは、外乱光やマルチパス光、または、ノイズによる偽の受光反応の影響により、TDCから高レートでToFデータが出力されるが、データの取りこぼしなくヒストグラムを生成するためには、ヒストグラム生成回路も、TDCからの出力レートと同じ高レートで動作させる必要がある。
特開2010-91377号公報
 しかしながら、ヒストグラム生成回路を、TDCからの出力レートに対応する高レートで動作させる場合、ヒストグラム生成回路の面積および動作電力が増大する。この問題は、今後、ToFセンサの解像度が向上していくと、より顕著になる。
 本技術は、このような状況に鑑みてなされたものであり、小面積、低消費電力で、ヒストグラム生成回路を実現することができるようにするものである。
 本技術の第1の側面の受光装置は、光源の発光タイミングから受光素子が受光した受光タイミングまでの時間情報を計測する計測部と、複数の前記時間情報を記憶する記憶部と、前記計測部で計測された同一の時間情報を1つの時間情報にマージするマージ回路と、マージ後の1種類以上の前記時間情報に基づいて、ヒストグラムを生成するヒストグラム生成回路とを備える。
 本技術の第2の側面のヒストグラム生成方法は、受光装置が、光源の発光タイミングから受光素子が受光した受光タイミングまでの時間情報を計測して記憶することと、計測された同一の時間情報を1つの時間情報にマージすることと、マージ後の1種類以上の前記時間情報に基づいて、ヒストグラムを生成することとを含むヒストグラム生成方法である。
 本技術の第3の側面の測距システムは、照射光を照射する光源を有する照明装置と、前記照射光に対する反射光を受光する受光装置とを備え、前記受光装置は、前記光源の発光タイミングから前記受光装置の受光素子が受光した受光タイミングまでの時間情報を計測する計測部と、複数の前記時間情報を記憶する記憶部と、前記計測部で計測された同一の時間情報を1つの時間情報にマージするマージ回路と、マージ後の1種類以上の前記時間情報に基づいて、ヒストグラムを生成するヒストグラム生成回路とを備える。
 本技術の第1乃至第3の側面においては、光源の発光タイミングから受光素子が受光した受光タイミングまでの時間情報が計測され、複数の前記時間情報が記憶され、計測された同一の時間情報が1つの時間情報にマージされ、マージ後の1種類以上の前記時間情報に基づいて、ヒストグラムが生成される。
 受光装置及び測距システムは、独立した装置であっても良いし、他の装置に組み込まれるモジュールであっても良い。
本技術を適用した測距システムの一実施の形態の構成例を示すブロック図である。 図1の受光装置の構成例を示すブロック図である。 画素の回路構成例を示す図である。 図3の画素の動作を説明する図である。 比較例としての信号処理部の構成例を示すブロック図である。 ヒストグラム生成回路によって生成されたヒストグラムの例を示す図である。 図2の信号処理部の第1構成例を示すブロック図である。 図5の信号処理部によるヒストグラムの生成動作を示すタイミングチャートである。 図7の信号処理部によるヒストグラムの生成動作を示すタイミングチャートである。 図2の信号処理部の第2構成例を示すブロック図である。 図2の信号処理部の第3構成例を示すブロック図である。 2枚の基板の積層構造による1チップで構成される場合の各部の配置例を示す平面図である。 3枚の基板の積層構造による1チップで構成される場合の各部の配置例を示す平面図である。 測距処理を説明するフローチャートである。 測距システムの使用例を説明する図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.測距システムの構成例
2.受光装置の構成例
3.画素回路の構成例
4.比較例としての信号処理部の構成例
5.本技術の信号処理部の第1構成例
6.ヒストグラムの生成動作の比較
7.本技術の信号処理部の第2構成例
8.本技術の信号処理部の第3構成例
9.チップ構成例
10.測距システムによる測距処理
11.測距システムの使用例
12.移動体への応用例
<1.測距システムの構成例>
 図1は、本技術を適用した測距システムの一実施の形態の構成例を示すブロック図である。
 測距システム11は、例えば、ToF法を用いて距離画像の撮影を行うシステムである。ここで、距離画像とは、測距システム11から被写体までの奥行き方向の距離を画素単位で検出し、各画素の信号が、検出した距離に基づく距離画素信号からなる画像のことである。
 測距システム11は、照明装置21及び撮像装置22を備える。
 照明装置21は、照明制御部31及び光源32を備える。
 照明制御部31は、撮像装置22の制御部42の制御の下に、光源32が光を照射するパターンを制御する。具体的には、照明制御部31は、制御部42から供給される照射信号に含まれる照射コードに従って、光源32が光を照射するパターンを制御する。例えば、照射コードは、1(High)と0(Low)の2値からなり、照明制御部31は、照射コードの値が1のとき光源32を点灯させ、照射コードの値が0のとき光源32を消灯させる。
 光源32は、照明制御部31の制御の下に、所定の波長域の光を発する。光源32は、例えば、赤外線レーザダイオードからなる。なお、光源32の種類、及び、照射光の波長域は、測距システム11の用途等に応じて任意に設定することが可能である。
 撮像装置22は、照明装置21から照射された光(照射光)が被写体12及び被写体13等により反射された反射光を受光する装置である。撮像装置22は、撮像部41、制御部42、表示部43、及び、記憶部44を備える。
 撮像部41は、レンズ51、及び、受光装置52を備える。
 レンズ51は、入射光を受光装置52の受光面に結像させる。なお、レンズ51の構成は任意であり、例えば、複数のレンズ群によりレンズ51を構成することも可能である。
 受光装置52は、例えば、各画素に受光素子としてSPAD(Single Photon Avalanche Diode)を用いたセンサからなる。受光装置52は、制御部42の制御の下に、被写体12及び被写体13等からの反射光を受光し、その結果得られた画素信号を距離情報に変換して制御部42に出力する。受光装置52は、行方向及び列方向の行列状に画素が2次元配置された画素アレイの各画素の画素値(距離画素信号)として、照明装置21が照射光を照射してから受光装置52が受光するまでの時間をカウントしたデジタルのカウント値が格納された距離画像を、制御部42に供給する。光源32が発光するタイミングを示す発光タイミング信号は、制御部42から受光装置52にも供給される。
 なお、測距システム11は、光源32の発光と、その反射光の受光を複数回(例えば、数千乃至数万回)繰り返すことにより、撮像部41が、外乱光やマルチパス等の影響を除去した距離画像を生成し、制御部42に供給する。
 制御部42は、例えば、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)等の制御回路やプロセッサ等により構成される。制御部42は、照明制御部31、及び、受光装置52の制御を行う。具体的には、制御部42は、照明制御部31に照射信号を供給するとともに、発光タイミング信号を受光装置52に供給する。光源32は、照射信号に応じて照射光を発光する。発光タイミング信号は、照明制御部31に供給される照射信号でもよい。また、制御部42は、撮像部41から取得した距離画像を表示部43に供給し、表示部43に表示させる。さらに、制御部42は、撮像部41から取得した距離画像を記憶部44に記憶させる。また、制御部42は、撮像部41から取得した距離画像を外部に出力する。
 表示部43は、例えば、液晶表示装置や有機EL(Electro Luminescence)表示装置等のパネル型表示装置からなる。
 記憶部44は、任意の記憶装置や記憶媒体等により構成することができ、距離画像等を記憶する。
<2.受光装置の構成例>
 図2は、受光装置52の構成例を示すブロック図である。
 受光装置52は、画素駆動部71、画素アレイ72、MUX(マルチプレクサ)73、時間計測部74、信号処理部75、および、入出力部76を備える。
 画素アレイ72は、光子の入射を検出し、検出結果を示す検出信号を画素信号として出力する画素81が行方向及び列方向の行列状に2次元配置された構成となっている。ここで、行方向とは水平方向の画素81の配列方向を言い、列方向とは垂直方向の画素81の配列方向を言う。図2では、紙面の制約上、画素アレイ72が10行12列の画素配列構成で示されているが、画素アレイ72の行数および列数は、これに限定されず、任意である。
 画素アレイ72の行列状の画素配列に対して、画素行ごとに画素駆動線82が水平方向に配線されている。画素駆動線82は、画素81の駆動を行うための駆動信号を伝送する。画素駆動部71は、画素駆動線82を介して所定の駆動信号を各画素81に供給することにより、各画素81を駆動する。具体的には、画素駆動部71は、入出力部76を介して外部から供給される発光タイミング信号に合わせた所定のタイミングで、行列状に2次元配置された複数の画素81の少なくとも一部をアクティブ画素とし、残りの画素81を非アクティブ画素とする制御を行う。アクティブ画素は、光子の入射を検出する画素であり、非アクティブ画素は、光子の入射を検出しない画素である。勿論、画素アレイ72の全ての画素81をアクティブ画素としてもよい。画素81の詳細構成については後述する。
 なお、図2では、画素駆動線82を1本の配線として示しているが、複数の配線で構成してもよい。画素駆動線82の一端は、画素駆動部71の各画素行に対応した出力端に接続されている。
 MUX73は、画素アレイ72内のアクティブ画素と非アクティブ画素の切替えに従い、アクティブ画素からの出力を選択する。そして、MUX73は、選択したアクティブ画素から入力される画素信号を時間計測部74へ出力する。
 時間計測部74は、MUX73から供給されるアクティブ画素の画素信号と、光源32の発光タイミングを示す発光タイミング信号とに基づいて、光源32が光を発光してからアクティブ画素が光を受光するまでの時間(光の飛行時間)に対応するカウント値を生成する。発光タイミング信号は、入出力部76を介して外部(撮像装置22の制御部42)から供給される。
 信号処理部75は、所定の回数(例えば、数千乃至数万回)繰り返し実行される光源32の発光と、その反射光の受光とに基づいて、反射光を受光するまでの時間(カウント値)のヒストグラムを画素ごとに生成する。そして、信号処理部75は、ヒストグラムのピークを検出することで、光源32から照射された光が被写体12または被写体13で反射して戻ってくるまでの時間を判定する。信号処理部75は、受光装置52が受光するまでの時間をカウントしたデジタルのカウント値が各画素に格納された距離画像を生成し、入出力部76に供給する。あるいはまた、信号処理部75は、判定した時間と光速に基づいて、物体までの距離を求める演算を行い、その演算結果を各画素に格納した距離画像を生成し、入出力部76に供給してもよい。
 入出力部76は、信号処理部75から供給される距離画像の信号(距離画像信号)を、外部(制御部42)に出力する。また、入出力部76は、制御部42から供給される発光タイミング信号を取得し、画素駆動部71および時間計測部74に供給する。
<3.画素回路の構成例>
 図3は、画素アレイ72に行列状に複数配置された画素81の回路構成例を示している。
 図3の画素81は、SPAD101、トランジスタ102、スイッチ103、及び、インバータ104を備える。また、画素81は、ラッチ回路105とインバータ106も備える。トランジスタ102は、P型のMOSトランジスタで構成される。
 SPAD101のカソードは、トランジスタ102のドレインに接続されるとともに、インバータ104の入力端子、及び、スイッチ103の一端に接続されている。SPAD101のアノードは、電源電圧VA(以下では、アノード電圧VAとも称する。)に接続されている。
 SPAD101は、入射光が入射されたとき、発生する電子をアバランシェ増幅させてカソード電圧VSの信号を出力するフォトダイオード(単一光子アバランシェフォトダイオード)である。SPAD101のアノードに供給される電源電圧VAは、例えば、-20V程度の負バイアス(負の電位)とされる。
 トランジスタ102は、飽和領域で動作する定電流源であり、クエンチング抵抗として働くことにより、パッシブクエンチを行う。トランジスタ102のソースは電源電圧VEに接続され、ドレインがSPAD101のカソード、インバータ104の入力端子、及び、スイッチ103の一端に接続されている。これにより、SPAD101のカソードにも、電源電圧VEが供給される。SPAD101と直列に接続されたトランジスタ102の代わりに、プルアップ抵抗を用いることもできる。
 SPAD101には、十分な効率で光(フォトン)を検出するため、SPAD101の降伏電圧VBDよりも大きな電圧(以下、過剰バイアス(ExcessBias)と称する。)が印加される。例えば、SPAD101の降伏電圧VBDが20Vであり、それよりも3V大きい電圧を印加することとすると、トランジスタ102のソースに供給される電源電圧VEは、3Vとされる。
 なお、SPAD101の降伏電圧VBDは、温度等によって大きく変化する。そのため、降伏電圧VBDの変化に応じて、SPAD101に印加する印加電圧が制御(調整)される。例えば、電源電圧VEを固定電圧とすると、アノード電圧VAが制御(調整)される。
 スイッチ103は、両端の一端がSPAD101のカソード、インバータ104の入力端子、および、トランジスタ102のドレインに接続され、他端が、グランド(GND)に接続されているグランド接続線107に接続されている。スイッチ103は、例えば、N型のMOSトランジスタで構成することができ、ラッチ回路105の出力であるゲーティング制御信号VGを、インバータ106で反転させたゲーティング反転信号VG_Iに応じてオンオフさせる。
 ラッチ回路105は、画素駆動部71から供給されるトリガ信号SETと、アドレスデータDECとに基づいて、画素81をアクティブ画素または非アクティブ画素のいずれかに制御するゲーティング制御信号VGをインバータ106に供給する。インバータ106は、ゲーティング制御信号VGを反転させたゲーティング反転信号VG_Iを生成し、スイッチ103に供給する。
 トリガ信号SETは、ゲーティング制御信号VGを切り替えるタイミングを示すタイミング信号であり、アドレスデータDECは、画素アレイ72内の行列状に配置された複数の画素81のうち、アクティブ画素に設定する画素のアドレスを示すデータである。トリガ信号SETとアドレスデータDECは、画素駆動線82を介して画素駆動部71から供給される。
 ラッチ回路105は、トリガ信号SETが示す所定のタイミングで、アドレスデータDECを読み込む。そして、ラッチ回路105は、アドレスデータDECが示す画素アドレスに自分(の画素81)の画素アドレスが含まれている場合には、自身の画素81をアクティブ画素に設定するためのHi(1)のゲーティング制御信号VGを出力する。一方、アドレスデータDECが示す画素アドレスに自分(の画素81)の画素アドレスが含まれていない場合には、自身の画素81を非アクティブ画素に設定するためのLo(0)のゲーティング制御信号VGを出力する。これにより、画素81がアクティブ画素とされる場合には、インバータ106によって反転されたLo(0)のゲーティング反転信号VG_Iがスイッチ103に供給される。一方、画素81が非アクティブ画素とされる場合には、Hi(1)のゲーティング反転信号VG_Iがスイッチ103に供給される。したがって、スイッチ103は、画素81がアクティブ画素に設定される場合にオフし(非接続とされ)、非アクティブ画素に設定される場合にオンされる(接続される)。
 インバータ104は、入力信号としてのカソード電圧VSがLoのとき、Hiの検出信号PFoutを出力し、カソード電圧VSがHiのとき、Loの検出信号PFoutを出力する。インバータ104は、SPAD101への光子の入射を検出信号PFoutとして出力する出力部である。
 次に、図4を参照して、画素81がアクティブ画素に設定された場合の動作について説明する。
 図4は、光子の入射に応じたSPAD101のカソード電圧VSの変化と検出信号PFoutを示すグラフである。
 まず、画素81がアクティブ画素である場合、上述したように、スイッチ103はオフに設定される。
 SPAD101のカソードには電源電圧VE(例えば、3V)が供給され、アノードには電源電圧VA(例えば、-20V)が供給されることから、SPAD101に降伏電圧VBD(=20V)より大きい逆電圧が印加されることにより、SPAD101がガイガーモードに設定される。この状態では、SPAD101のカソード電圧VSは、例えば図4の時刻t0のように、電源電圧VEと同じである。
 ガイガーモードに設定されたSPAD101に光子が入射すると、アバランシェ増倍が発生し、SPAD101に電流が流れる。
 図4の時刻t1において、アバランシェ増倍が発生し、SPAD101に電流が流れたとすると、時刻t1以降、SPAD101に電流が流れることにより、トランジスタ102にも電流が流れ、トランジスタ102の抵抗成分により電圧降下が発生する。
 時刻t2において、SPAD101のカソード電圧VSが0Vよりも低くなると、SPAD101のアノード・カソード間電圧が降伏電圧VBDよりも低い状態となるので、アバランシェ増幅が停止する。ここで、アバランシェ増幅により発生する電流がトランジスタ102に流れることで電圧降下を発生させ、発生した電圧降下に伴って、カソード電圧VSが降伏電圧VBDよりも低い状態となることで、アバランシェ増幅を停止させる動作がクエンチ動作である。
 アバランシェ増幅が停止するとトランジスタ102の抵抗に流れる電流が徐々に減少して、時刻t4において、再びカソード電圧VSが元の電源電圧VEまで戻り、次の新たなフォトンを検出できる状態となる(リチャージ動作)。
 インバータ104は、入力電圧であるカソード電圧VSが所定の閾値電圧Vth以上のとき、Loの検出信号PFoutを出力し、カソード電圧VSが所定の閾値電圧Vth未満のとき、Hiの検出信号PFoutを出力する。従って、SPAD101に光子が入射し、アバランシェ増倍が発生してカソード電圧VSが低下し、閾値電圧Vthを下回ると、検出信号PFoutは、ローレベルからハイレベルに反転する。一方、SPAD101のアバランシェ増倍が収束し、カソード電圧VSが上昇し、閾値電圧Vth以上になると、検出信号PFoutは、ハイレベルからローレベルに反転する。
 なお、画素81が非アクティブ画素とされる場合には、Hi(1)のゲーティング反転信号VG_Iがスイッチ103に供給され、スイッチ103がオンされる。スイッチ103がオンされると、SPAD101のカソード電圧VSが0Vとなる。その結果、SPAD101のアノード・カソード間電圧が降伏電圧VBD以下となるので、SPAD101に光子が入ってきても反応しない状態となる。
<4.比較例としての信号処理部の構成例>
 上述したように、信号処理部75は、所定の回数繰り返し実行される光源32の発光と、その反射光の受光とに基づいて、反射光を受光するまでの時間に対応するカウント値のヒストグラムを画素ごとに生成する。このヒストグラムを生成するヒストグラム生成回路の回路面積は、測距システムの解像度(空間解像度や時間解像度)を上げようとすると、増大する。
 そこで、以下では、受光装置52の信号処理部75に適用された、ヒストグラム生成回路の回路面積を抑制することが可能な信号処理部の構成について説明する。ただし、以下では、初めに、本技術を適用した信号処理部75と比較するための比較例である、信号処理部301の構成例について説明し、その後、受光装置52の信号処理部75の構成について説明する。
 図5は、比較例としての信号処理部301の構成例を示すブロック図である。
 図5の信号処理部301は、時間計測部74に設けられた1つのTDC(time to digital converter)91に対応して1つのヒストグラム生成回路321を備え、ヒストグラム生成回路321は、デコーダ331とヒストグラム保持回路332とを備える。時間計測部74のTDC91は、画素アレイ72の1以上の画素81に対応して設けられる。
 なお、図5の画素アレイ72と時間計測部74については、ヒストグラム生成回路321との対応関係を説明するために示している。
 すなわち、時間計測部74のTDC91は、画素アレイ72の1以上の画素81に対して設けられる。例えば、行列状に2次元配置された全ての画素81を同時にアクティブ画素として動作させる場合には、画素81とTDC91が1対1に設けられ、時間計測部74は、画素アレイ72の画素数と同数のTDC91を備える。また例えば、画素アレイ72の1行を構成する複数の画素81に対して1個のTDC91が設けられる場合には、時間計測部74は、画素アレイ72の画素行と同数のTDC91を備える。したがって、時間計測部74に含まれるTDC91の個数は、1回の受光で同時にアクティブ画素に設定する画素数などの要求に応じて決定される。
 MUX73において、アクティブ画素に設定された画素81の出力が適切に選択されたとして、アクティブ画素に設定された画素81の画素信号、即ち、上述した検出信号PFoutが、TDC91に入力される。TDC91は、Hiの検出信号PFoutが入力された時間(期間)をカウントし、カウントした結果であるカウント値を、ToFデータとして、ヒストグラム生成回路321に出力する。TDC91は、光源32の発光タイミングから画素81が受光した受光タイミングまでの時間情報を計測する計測部に相当する。
 ヒストグラム生成回路321に入力されるToFデータは、デコーダ331によってデコードされ、ヒストグラム保持回路332のヒストグラムのビンに記憶される。換言すれば、デコーダ331は、入力されるToFデータに応じて、ヒストグラム保持回路332のヒストグラムのビンを選択し、選択したビンのヒストグラムの頻度値を更新する。
 図6は、光源32の発光と、その反射光の受光を複数回(例えば、数千乃至数万回)繰り返すことにより、ヒストグラム生成回路321によって生成されたヒストグラムの例を示している。
 図6に示されるヒストグラムの例では、D1で示されるビンがヒストグラムのピークを示しており、D1で示されるビンのToFデータ(カウント値)が、画素81のToFデータとして、出力される。
<5.本技術の信号処理部の第1構成例>
 図7は、本技術を適用した信号処理部であって、図2の信号処理部75の第1構成例を示すブロック図である。
 なお、図7においても、図5と同様に、画素アレイ72と時間計測部74の対応する構成も示されている。
 図7の信号処理部75は、時間計測部74に設けられた1つのTDC91に対応して1つのヒストグラム前段回路121と、ヒストグラム生成回路122とを備える。画素アレイ72の画素81と、時間計測部74のTDC91との関係は、図5における場合と同様である。
 ヒストグラム前段回路121は、複数のToFデータを記憶するバッファBを備える記憶部131と、複数のデコーダ132と、マージ回路133とで構成される。ヒストグラム生成回路122は、ヒストグラム保持回路151で構成される。ヒストグラム保持回路151は、例えば、FF(Flip-Flop)アレイや、SRAM(Static RAM)等で構成することができる。
 記憶部131は、1回の測距期間中に、TDC91から入力される1種類以上のToFデータをバッファBに記憶する。バッファBは、外乱光やマルチパス光、ノイズによる偽の受光反応など、1回の測距期間中に発生する複数回のアバランシェ増幅に対応して、複数個のToFデータを記憶できるように構成されている。そして、デコーダ132は、バッファBが記憶可能なToFデータの個数に応じた数だけ用意されている。例えば、バッファBが5個のToFデータを記憶可能であるとすると、ヒストグラム前段回路121に設けられるデコーダ132の個数は5個となる。
 複数のデコーダ132それぞれは、バッファBに記憶されたToFデータの1つを取得し、マージ回路133に出力する。マージ回路133は、複数のOR回路を配置したORセル列で構成される。各OR回路は、複数のデコーダ132の同一のToFデータの出力端子に接続されており、マージ回路133は、取り得るToFデータのデータ数のOR回路を有する。マージ回路133は、バッファBに記憶された複数のToFデータのうち、同一のToFデータを1つのToFデータにマージして、ヒストグラム生成回路122のヒストグラム保持回路151に出力する。
 ヒストグラム保持回路151は、マージ回路133によってマージされた後の1種類以上のToFデータに基づいて、ToFデータに対応するビンのヒストグラムの頻度値を更新して記憶する。そして、ヒストグラム保持回路151は、複数回(例えば、数千乃至数万回)の光源32の反射光の受光に応じてヒストグラムの頻度値を更新することにより、ToFデータのヒストグラムを生成する。
 信号処理部75は、画素アレイ72の各画素81のヒストグラムのピークに対応するToFデータが各画素に格納された距離画像を生成し、入出力部76に供給する。あるいはまた、信号処理部75は、判定した時間と光速に基づいて、物体までの距離を求める演算まで行い、その演算結果を各画素に格納した距離画像を生成し、入出力部76に供給してもよい。
<6.ヒストグラムの生成動作の比較>
 図8および図9を参照して、図7の信号処理部75と、比較例である図5の信号処理部301とによるヒストグラムの生成動作を比較する。
 図8は、比較例である図5の信号処理部301によるヒストグラムの生成動作を示すタイミングチャートである。
 図9は、図7の信号処理部75によるヒストグラムの生成動作を示すタイミングチャートである。
 図8および図9のいずれにおいても、時刻t1から時刻t2までの期間Tが1回の測距期間に相当し、この1回の測距期間Tに、25, 25, 50, 120, 120の5個のToFデータが、TDC91から出力されたと仮定する。この測距期間Tの測定を複数回(例えば、数千乃至数万回)繰り返すことで、最終的なヒストグラムが生成される。なお、1回の測距期間を識別する信号は、発光タイミング信号として、撮像装置22の制御部42から受光装置52に供給される。
 比較例である図5の信号処理部301のヒストグラム生成回路321は、図8に示されるように、TDC91からToFデータが入力される毎に、ヒストグラム保持回路332のヒストグラムを更新する。具体的には、{25}、{25}、{50}、{120}、{120}のToFデータが入力される度に更新される。ヒストグラム生成回路321は、順次入力されるToFデータを全て処理できる速度で動作させる必要がある。
 一方、図7の信号処理部75は、図9に示されるように、TDC91から順次入力される5個のToFデータは、ヒストグラム前段回路121の記憶部131のバッファBに記憶される。そして、1回の測距期間Tが終了したタイミングで、マージ回路133によって同一のToFデータが1つのToFデータにマージされ、マージ後の1種類以上のToFデータが、まとめて1回で、ヒストグラム生成回路122のヒストグラム保持回路151に供給される。具体的には、{25}、{50}、および、{120}のToFデータが、まとめて1回で、ヒストグラム生成回路122に供給され、ヒストグラムが更新される。
 したがって、信号処理部75では、ヒストグラム保持回路151に供給される1種類以上のToFデータは、カウント値がすべて異なる。また、ヒストグラムを更新するタイミングが、ToFデータが入力されるごとのタイミングである必要はなく、測距期間Tごとのタイミングでよい。
 1回の測距期間Tに、25, 25, 50, 120, 120の5個のToFデータが、TDC91から出力された場合において、比較例のヒストグラム生成回路321では、{25}のToFデータの頻度値が2、{120}のToFデータの頻度値が2、{50}のToFデータの頻度値が1だけ積算されるのに対して、ヒストグラム保持回路151では、{25}、{50}、および、{120}のToFデータの頻度値が、それぞれ1だけ積算されるのみである。
 したがって、受光装置52の信号処理部75によれば、正しいヒストグラム、換言すれば、TDC91が出力するToFデータの出力数と同じ頻度値のヒストグラムを作成することはできない。
 しかしながら、Direct ToF法による測距システムに限っては、正しいヒストグラムを作成する必要はない。その理由は、以下の通りである。
 Direct ToF法では、時間計測部74のTDC91は、1回の測距期間Tの開始時刻(図9では時刻t1)においてカウント値=0からカウントを開始し、測距期間Tの終了時刻(図9では時刻t2)までカウント値をカウントアップさせるカウント動作を行う。したがって、本来、同一のToFデータがTDC91から出力されることはなく、同一のToFデータがTDC91から出力された場合、そのToFデータは画素81のノイズ動作と考えられる。したがって、1回の測距期間Tに対して、複数個の同一のToFデータを積算する必要はなく、むしろ、マージ回路133がToFデータのノイズを除去していると言うことができる。すなわち、マージ回路133は、ローパスフィルタ動作によるノイズ除去機能を兼ねている。
 したがって、上述の動作でも、1回の測距期間Tを複数回(例えば、数千乃至数万回)繰り返した結果に基づくヒストグラムを生成することによって、距離画像を正確に生成することができる。
 以上より、図7の信号処理部75によれば、ヒストグラムの更新頻度が測距期間Tのタイミングでよく、TDC91からのToFデータの出力レートまで高レートで動作させる必要がないので、ヒストグラムを保持するメモリ部であるヒストグラム生成回路を、小面積、低消費電力で実現することができる。
<7.本技術の信号処理部の第2構成例>
 図10は、図2の信号処理部75の第2構成例を示すブロック図である。
 図10において、図7と対応する部分については同一の符号を付してあり、その部分の説明は適宜省略する。
 図10の第2構成例は、ヒストグラム前段回路121の一部が、第1構成例と異なる。具体的には、第2構成例の記憶部131は、第1構成例の記憶部131が備えるバッファBを2個備える。第2構成例の記憶部131が備える2個のバッファBを、バッファB1(第1記憶領域)とバッファB2(第2記憶領域)と呼ぶことにする。
 また、第2構成例のヒストグラム前段回路121は、第1構成例と同様に複数のデコーダ132とマージ回路133とを備えるとともに、セレクタ171および172と、制御部173とをさらに備える。
 セレクタ171は、1回の測距期間Tに、TDC91から入力される1個以上のToFデータを、制御部173の制御に従い、バッファB1またはB2のいずれかに記憶させる。セレクタ172は、制御部173の制御に従い、バッファB1またはB2のいずれか一方から、そこに記憶されている1個以上のToFデータを読み出し、複数のデコーダ132に出力する。
 制御部173は、セレクタ171のToFデータの出力先、および、セレクタ172のToFデータの読み出し先を制御する。より具体的には、制御部173は、TDC91からのToFデータをセレクタ171がバッファB1へ出力する場合、セレクタ172がバッファB2からToFデータを読み出すように制御し、TDC91からのToFデータをセレクタ171がバッファB2へ出力する場合、セレクタ172がバッファB1からToFデータを読み出すように制御する。これにより、ToFデータのバッファB1への記憶と、バッファB2に記憶されたToFデータのマージ回路133への出力とが、同時に実行される。すなわち、TDC91からのToFデータの出力とヒストグラム更新とを並列に動作させることができるので、処理を高速化することができる。
 図10の信号処理部75においても、ヒストグラムの更新頻度が測距期間Tのタイミングでよく、TDC91からのToFデータの出力レートまで高レートで動作させる必要がないので、ヒストグラムを保持するメモリ部であるヒストグラム生成回路を、小面積、低消費電力で実現することができる。
<8.本技術の信号処理部の第3構成例>
 図11は、図2の信号処理部75の第3構成例を示すブロック図である。
 図11において、図7と対応する部分については同一の符号を付してあり、その部分の説明は適宜省略する。
 図11の第3構成例は、ヒストグラム前段回路121の一部が、第1構成例と異なる。具体的には、第3構成例のヒストグラム前段回路121は、第1構成例のマージ回路133に代えて、マージ回路181が設けられている。また、第1構成例では、デコーダ132がバッファBが記憶可能なToFデータの個数に応じた数だけ設けられていたが、第3構成例では、デコーダ132は1個である。
 マージ回路181は、記憶部131(バッファB)の前段に設けられ、セレクタ182(選択部)と比較器183とを有している。
 セレクタ182は、比較器183の制御に従い、TDC91からの入力か、または、無効(invalid)のいずれか一方を選択する。セレクタ182は、TDC91からの入力を選択した場合には、TDC91からのToFデータを、記憶部131のバッファBに記憶させ、無効を選択した場合には、TDC91からのToFデータを、記憶部131のバッファBに記憶させない。
 比較器183は、TDC91から供給されるToFデータと、記憶部131のバッファBに記憶されているToFデータとを比較し、TDC91から供給されたToFデータが、既にバッファBに記憶されているデータである場合には、セレクタ182が、TDC91からのToFデータをバッファBに出力しないように制御する。一方、TDC91から供給されたToFデータが、バッファBに記憶されていないデータである場合には、比較器183は、TDC91からのToFデータをバッファBに出力させるように、セレクタ182を制御する。
 したがって、マージ回路181は、TDC91から入力されたToFデータが、記憶部131のバッファBに記憶されているかを判定し、バッファBに記憶されていない場合に、TDC91から入力されたToFデータをバッファBに記憶させる。
 図11の信号処理部75においても、ヒストグラムの更新頻度が測距期間Tのタイミングでよく、TDC91からのToFデータの出力レートまで高レートで動作させる必要がないので、ヒストグラムを保持するメモリ部であるヒストグラム生成回路を、小面積、低消費電力で実現することができる。
 なお、第3構成例では、マージ回路181はTDC91の出力レート以上の速度で動作させる必要がある。
<9.チップ構成例>
 受光装置52は、2枚または3枚の基板(ダイ)を積層した積層構造による1チップ(半導体チップ)で構成することができる。
 図12は、受光装置52が2枚の基板の積層構造による1チップで構成される場合の各部の配置例を示している。
 受光装置52は、第1基板191Aと第2基板191Bとを積層して構成される。第1基板191Aと第2基板191Bとは、例えば、貫通ビアやCu-Cuの金属接合により電気的に接続される。
 反射光を受光する受光面が第1基板191Aに設けられ、第1基板191Aには、画素アレイ72が形成される。第2基板191Bには、MUX73、時間計測部74、および、信号処理部75などが配置される。入出力部76の一部である、はんだボール等の入出力端子は、例えば、第2基板191Bの第1基板191Aの接合面と反対側の面に形成される。不図示の画素駆動部71は、第1基板191Aまたは第2基板191Bのどちらに形成してもよい。
 図13は、受光装置52が3枚の基板の積層構造による1チップで構成される場合の各部の配置例を示している。
 受光装置52は、第1基板192A、第2基板192B、および、第3基板192Cを積層して構成される。第1基板192Aと第2基板192Bは、貫通ビアやCu-Cuの金属接合により電気的に接続され、第2基板192Bと第3基板192Cは、貫通ビアやCu-Cuの金属接合により電気的に接続される。
 第1基板192Aには、画素アレイ72が形成される。第2基板192Bには、MUX73、時間計測部74、および、信号処理部75の一部である複数のヒストグラム前段回路121が配置される。
 第3基板192Cには、第2基板192Bに配置されない残りの信号処理部75、例えば、複数のヒストグラム生成回路122と、入出力部76などが配置される。例えば、複数のヒストグラム生成回路122としてのSRAMが、第2基板192Bの各ヒストグラム前段回路121の出力端子と、TSV(Through Silicon Via)などで接続される。
<10.測距システムによる測距処理>
 次に、図14のフローチャートを参照して、測距システム11による測距処理を説明する。この処理は、例えば、測距システム11の撮像装置22に対して測距処理の開始が指示されたときに開始される。なお、図14では、信号処理部75が図7に示した第1構成例である場合について説明する。
 初めに、ステップS1において、撮像装置22の制御部42は、照明装置21の照明制御部31に照射信号を供給し、光源32を発光させる。光源32は、照射信号に含まれる照射コードに従って、所定の波長域の光を発する。光源32が発光するタイミングを示す発光タイミング信号は、制御部42から受光装置52にも供給される。
 ステップS2において、受光装置52は、画素アレイ72の複数の画素81の少なくとも一部をアクティブ画素に設定し、光源32が照射した光が被写体により反射された反射光を受光する。アクティブ画素に設定された画素81は、SPAD101への光子の入射を検出し、Hiの検出信号PFoutをTDC91へ出力する。
 ステップS3において、TDC91は、光源32の発光タイミングからアクティブ画素が受光した受光タイミングまでの時間情報を計測する。具体的には、TDC91は、Hiの検出信号PFoutが入力された時間(期間)をカウントし、カウントした結果であるカウント値を、ToFデータとして、ヒストグラム生成回路122に出力する。ここで、TDC91には、外乱光やマルチパス光、ノイズによる偽の受光反応などにより、1回の測距期間中に、複数回のアバランシェ増幅が発生する場合があり、複数回のアバランシェ増幅に対応して、1種類以上の複数個のToFデータがヒストグラム生成回路122に供給される場合がある。
 ステップS4において、記憶部131は、TDC91から入力された、1種類以上のToFデータをバッファBに記憶する。
 ステップS5において、マージ回路133は、デコーダ132を介してバッファBに記憶された1種類以上のToFデータを取得し、1種類以上のToFデータのうち、同一のToFデータを1つのToFデータにマージして、ヒストグラム生成回路122のヒストグラム保持回路151に出力する。
 ステップS6において、ヒストグラム保持回路151は、マージ回路133から供給された、マージ後の1種類以上のToFデータに基づいて、ToFデータに対応するビンのヒストグラムの頻度値を更新して記憶する。
 ステップS7において、制御部42は、予め決定された所定回数(例えば、数千乃至数万回)の測定を行ったかを判定する。
 ステップS7で、所定回数の測定をまだ行っていないと判定された場合、処理はステップS1に戻り、上述した処理が繰り返される。これにより、予め決定された所定回数(例えば、数千乃至数万回)、ステップS1乃至S7の処理が繰り返される。
 一方、ステップS7で、所定回数の測定を行ったと判定された場合、処理はステップS8へ進み、信号処理部75は、アクティブ画素に設定された各画素81について、ヒストグラム保持回路151のヒストグラムの頻度値を参照し、ピークに対応するToFデータを画素値として格納した距離画像を生成し、入出力部76を介して制御部42へ供給する。制御部42は、撮像部41から取得した距離画像を外部に出力して、測距処理を終了する。
 なお、信号処理部75は、判定した時間(ToFデータ)と光速に基づいて、物体までの距離を求める演算まで行い、その演算結果を各画素に格納した距離画像を生成して、制御部42へ供給してもよい。
 以上のようにして測距システム11により距離画像が生成され、外部に出力される。
 なお、信号処理部75の構成として図10に示した第2構成例が採用される場合の測距処理は、上述した図14のフローチャートと同様となるが、図11に示した第3構成例が採用される場合の測距処理は、ToFデータがマージ回路181によってマージされてから、バッファBに記憶されるので、上述したステップS4とステップS5の処理の順番が入れ替わる。
 測距システム11の受光装置52によれば、ヒストグラムの更新頻度が測距期間Tのタイミングでよく、TDC91からのToFデータの出力レートまで高レートで、信号処理部75を動作させる必要がないので、ヒストグラムを保持するメモリ部であるヒストグラム生成回路を、小面積、低消費電力で実現することができる。
<11.測距システムの使用例>
 本技術は、測距システムへの適用に限られるものではない。即ち、本技術は、例えば、スマートフォン、タブレット型端末、携帯電話機、パーソナルコンピュータ、ゲーム機、テレビ受像機、ウェアラブル端末、デジタルスチルカメラ、デジタルビデオカメラなどの電子機器全般に対して適用可能である。上述の撮像部41は、レンズ51及び受光装置52がまとめてパッケージングされたモジュール状の形態であってもよいし、レンズ51と受光装置52とが別に構成され、受光装置52のみをワンチップとして構成してもよい。
 図15は、上述の測距システム11または受光装置52の使用例を示す図である。
 上述した測距システム11は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・デジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
<12.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図16は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図16に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図16の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図17は、撮像部12031の設置位置の例を示す図である。
 図17では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図17には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。具体的には、例えば、図1の測距システム11は、撮像部12031に適用することができる。撮像部12031は、例えばLIDARであり、車両12100の周囲の物体及び物体までの距離の検出に用いられる。撮像部12031に本開示に係る技術を適用することにより、車両12100の周囲の物体及び物体までの距離の検出精度が向上する。その結果、例えば、車両の衝突警告を適切なタイミングで行うことができ、交通事故を防止することが可能となる。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
 なお、本技術は、以下の構成を取ることができる。
(1)
 光源の発光タイミングから受光素子が受光した受光タイミングまでの時間情報を計測する計測部と、
 複数の前記時間情報を記憶する記憶部と、
 前記計測部で計測された同一の時間情報を1つの時間情報にマージするマージ回路と、
 マージ後の1種類以上の前記時間情報に基づいて、ヒストグラムを生成するヒストグラム生成回路と
 を備える受光装置。
(2)
 前記マージ回路は、前記記憶部に記憶されている複数の前記時間情報に含まれる同一の時間情報を1つの時間情報にマージして、前記ヒストグラム生成回路に出力する
 前記(1)に記載の受光装置。
(3)
 前記マージ回路は、マージ後の複数種類の前記時間情報をまとめて1回で前記ヒストグラム生成回路に出力する
 前記(1)または(2)に記載の受光装置。
(4)
 前記マージ回路は、複数のOR回路を配置したORセル列で構成される
 前記(1)乃至(3)のいずれかに記載の受光装置。
(5)
 前記記憶部は、第1記憶領域と第2記憶領域を備え、
 前記計測部から入力された前記時間情報の前記第1記憶領域への記憶と、前記第2記憶領域に記憶された1種類以上の前記時間情報の前記マージ回路への出力とが、同時に実行される
 前記(1)乃至(4)のいずれかに記載の受光装置。
(6)
 前記マージ回路は、前記計測部から入力された前記時間情報が前記記憶部に記憶されているかを判定し、前記記憶部に記憶されていない場合に、前記計測部から入力された前記時間情報を前記記憶部に記憶させる
 前記(1)乃至(3)のいずれかに記載の受光装置。
(7)
 前記マージ回路は、
  前記計測部から入力された前記時間情報と、前記記憶部に記憶されている前記時間情報とを比較する比較器と、
  前記計測部から入力された前記時間情報を選択して前記記憶部に出力する選択部と
 を有する
 前記(1)乃至(3)、または、(6)のいずれかに記載の受光装置。
(8)
 2枚または3枚の基板の積層構造による1チップで構成される
 前記(1)乃至(7)のいずれかに記載の受光装置。
(9)
 受光装置が、
 光源の発光タイミングから受光素子が受光した受光タイミングまでの時間情報を計測して記憶することと、
 計測された同一の前記時間情報を1つの時間情報にマージすることと、
 マージ後の1種類以上の前記時間情報に基づいて、ヒストグラムを生成することと
 を含むヒストグラム生成方法。
(10)
 照射光を照射する光源を有する照明装置と、
 前記照射光に対する反射光を受光する受光装置と
 を備え、
 前記受光装置は、
  前記光源の発光タイミングから前記受光装置の受光素子が受光した受光タイミングまでの時間情報を計測する計測部と、
  複数の前記時間情報を記憶する記憶部と、
  前記計測部で計測された同一の時間情報を1つの時間情報にマージするマージ回路と、
  マージ後の1種類以上の前記時間情報に基づいて、ヒストグラムを生成するヒストグラム生成回路と
 を備える
 測距システム。
 11 測距システム, 21 照明装置, 22 撮像装置, 31 照明制御部, 32 光源, 41 撮像部, 42 制御部, 52 受光装置, 71 画素駆動部, 72 画素アレイ, 73 MUX, 74 時間計測部, 75 信号処理部, 76 入出力部, 81 画素, 91 TDC, 101 SPAD, 121 ヒストグラム前段回路, 122 ヒストグラム生成回路, 131 記憶部, 132 デコーダ, 133 マージ回路, 151 ヒストグラム保持回路, 171,172 セレクタ, 173 制御部, 181 マージ回路, 182 セレクタ, 183 比較器, 191A 第1基板, 191B 第2基板, 192A 第1基板, 192B 第2基板, 193C 第3基板

Claims (10)

  1.  光源の発光タイミングから受光素子が受光した受光タイミングまでの時間情報を計測する計測部と、
     複数の前記時間情報を記憶する記憶部と、
     前記計測部で計測された同一の時間情報を1つの時間情報にマージするマージ回路と、
     マージ後の1種類以上の前記時間情報に基づいて、ヒストグラムを生成するヒストグラム生成回路と
     を備える受光装置。
  2.  前記マージ回路は、前記記憶部に記憶されている複数の前記時間情報に含まれる同一の時間情報を1つの時間情報にマージして、前記ヒストグラム生成回路に出力する
     請求項1に記載の受光装置。
  3.  前記マージ回路は、マージ後の複数種類の前記時間情報をまとめて1回で前記ヒストグラム生成回路に出力する
     請求項1に記載の受光装置。
  4.  前記マージ回路は、複数のOR回路を配置したORセル列で構成される
     請求項1に記載の受光装置。
  5.  前記記憶部は、第1記憶領域と第2記憶領域を備え、
     前記計測部から入力された前記時間情報の前記第1記憶領域への記憶と、前記第2記憶領域に記憶された1種類以上の前記時間情報の前記マージ回路への出力とが、同時に実行される
     請求項1に記載の受光装置。
  6.  前記マージ回路は、前記計測部から入力された前記時間情報が前記記憶部に記憶されているかを判定し、前記記憶部に記憶されていない場合に、前記計測部から入力された前記時間情報を前記記憶部に記憶させる
     請求項1に記載の受光装置。
  7.  前記マージ回路は、
      前記計測部から入力された前記時間情報と、前記記憶部に記憶されている前記時間情報とを比較する比較器と、
      前記計測部から入力された前記時間情報を選択して前記記憶部に出力する選択部と
     を有する
     請求項1に記載の受光装置。
  8.  2枚または3枚の基板の積層構造による1チップで構成される
     請求項1に記載の受光装置。
  9.  受光装置が、
     光源の発光タイミングから受光素子が受光した受光タイミングまでの時間情報を計測して記憶することと、
     計測された同一の前記時間情報を1つの時間情報にマージすることと、
     マージ後の1種類以上の前記時間情報に基づいて、ヒストグラムを生成することと
     を含むヒストグラム生成方法。
  10.  照射光を照射する光源を有する照明装置と、
     前記照射光に対する反射光を受光する受光装置と
     を備え、
     前記受光装置は、
      前記光源の発光タイミングから前記受光装置の受光素子が受光した受光タイミングまでの時間情報を計測する計測部と、
      複数の前記時間情報を記憶する記憶部と、
      前記計測部で計測された同一の時間情報を1つの時間情報にマージするマージ回路と、
      マージ後の1種類以上の前記時間情報に基づいて、ヒストグラムを生成するヒストグラム生成回路と
     を備える
     測距システム。
PCT/JP2020/004006 2019-02-13 2020-02-04 受光装置、ヒストグラム生成方法、および測距システム WO2020166419A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/427,951 US20220128690A1 (en) 2019-02-13 2020-02-04 Light receiving device, histogram generating method, and distance measuring system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019023662A JP2020134170A (ja) 2019-02-13 2019-02-13 受光装置および測距システム
JP2019-023662 2019-02-13

Publications (1)

Publication Number Publication Date
WO2020166419A1 true WO2020166419A1 (ja) 2020-08-20

Family

ID=72045559

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/004006 WO2020166419A1 (ja) 2019-02-13 2020-02-04 受光装置、ヒストグラム生成方法、および測距システム

Country Status (3)

Country Link
US (1) US20220128690A1 (ja)
JP (1) JP2020134170A (ja)
WO (1) WO2020166419A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112731425A (zh) * 2020-11-29 2021-04-30 奥比中光科技集团股份有限公司 一种处理直方图的方法、距离测量系统及距离测量设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114637020B (zh) * 2022-05-18 2022-08-23 杭州宇称电子技术有限公司 一种用于飞行时间法距离测量的抗环境光方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016176750A (ja) * 2015-03-19 2016-10-06 株式会社豊田中央研究所 光学的測距装置
US20170353649A1 (en) * 2016-06-07 2017-12-07 Stmicroelectronics, Inc. Time of flight ranging for flash control in image capture devices
WO2018122560A1 (en) * 2016-12-30 2018-07-05 The University Court Of The University Of Edinburgh Photon sensor apparatus
US20180246212A1 (en) * 2017-02-27 2018-08-30 Stmicroelectronics (Research & Development) Limited Higher pixel density histogram time of flight sensor with higher pixel density

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016176750A (ja) * 2015-03-19 2016-10-06 株式会社豊田中央研究所 光学的測距装置
US20170353649A1 (en) * 2016-06-07 2017-12-07 Stmicroelectronics, Inc. Time of flight ranging for flash control in image capture devices
WO2018122560A1 (en) * 2016-12-30 2018-07-05 The University Court Of The University Of Edinburgh Photon sensor apparatus
US20180246212A1 (en) * 2017-02-27 2018-08-30 Stmicroelectronics (Research & Development) Limited Higher pixel density histogram time of flight sensor with higher pixel density

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112731425A (zh) * 2020-11-29 2021-04-30 奥比中光科技集团股份有限公司 一种处理直方图的方法、距离测量系统及距离测量设备
CN112731425B (zh) * 2020-11-29 2024-05-03 奥比中光科技集团股份有限公司 一种处理直方图的方法、距离测量系统及距离测量设备

Also Published As

Publication number Publication date
JP2020134170A (ja) 2020-08-31
US20220128690A1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
WO2019087783A1 (ja) 撮像装置及び撮像システム
US11940536B2 (en) Light receiving element and ranging system
WO2020158401A1 (ja) 受光装置および測距システム
WO2020255770A1 (ja) 測距装置、測距方法、および、測距システム
TWI821381B (zh) 受光元件及測距系統
WO2020045125A1 (ja) 受光素子および測距システム
WO2020255759A1 (ja) 測距装置、測距方法、および、測距システム
CN113302448A (zh) 光接收装置和距离测量装置
WO2020045124A1 (ja) 受光素子および測距システム
WO2020166419A1 (ja) 受光装置、ヒストグラム生成方法、および測距システム
WO2020137318A1 (ja) 測定装置、測距装置および測定方法
WO2020166349A1 (ja) 受光装置、ヒストグラム生成方法、および測距システム
US11566939B2 (en) Measurement device, distance measurement device, electronic device, and measurement method
WO2020162128A1 (ja) 光源装置および電子機器
TWI845592B (zh) 受光裝置及測距系統
WO2022254792A1 (ja) 受光素子およびその駆動方法、並びに、測距システム
WO2024135122A1 (ja) 撮像装置、制御装置およびスパイキングニューラルネットワーク
WO2020129474A1 (ja) 測距装置および計測装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20755041

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20755041

Country of ref document: EP

Kind code of ref document: A1