WO2020189091A1 - 光モジュールおよび測距装置 - Google Patents

光モジュールおよび測距装置 Download PDF

Info

Publication number
WO2020189091A1
WO2020189091A1 PCT/JP2020/005110 JP2020005110W WO2020189091A1 WO 2020189091 A1 WO2020189091 A1 WO 2020189091A1 JP 2020005110 W JP2020005110 W JP 2020005110W WO 2020189091 A1 WO2020189091 A1 WO 2020189091A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
light receiving
pixel
shielding wall
receiving pixel
Prior art date
Application number
PCT/JP2020/005110
Other languages
English (en)
French (fr)
Inventor
前田 俊治
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2020189091A1 publication Critical patent/WO2020189091A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements

Definitions

  • the present disclosure relates to an optical module used when measuring the distance to a measurement target, and a distance measuring device for measuring the distance to the measurement target.
  • Patent Documents 1 and 2 disclose a technique for providing a light receiving element for detecting reflected light reflected inside a module, in addition to a light receiving element for detecting reflected light reflected by an object to be measured. ..
  • the distance measuring device has high accuracy of the measured distance, and further improvement of the measurement accuracy is expected.
  • the optical module includes a light emitting unit, a light receiving unit, a light guide member, and a cover member.
  • the light emitting unit is capable of emitting light and has a light emitting surface facing in the first direction.
  • the light receiving unit is arranged side by side in the second direction intersecting the first direction, has a first light receiving pixel and a second light receiving pixel capable of detecting light, and the light receiving surface faces the first direction. Is what you are.
  • the light guide member guides a part of the light emitted from the light emitting unit toward the first light receiving element.
  • the cover member is arranged in the first direction of the light receiving portion.
  • the light receiving portion or the cover member includes a first light-shielding wall provided at a position corresponding to the boundary between the first light-receiving pixel and the second light-receiving pixel, and a first light-shielding wall with reference to the first light-receiving pixel. It is provided on the side opposite to the provided side, and has a second light-shielding wall lower than the first light-shielding wall.
  • the distance measuring device includes a light emitting unit, a light receiving unit, a light guide member, a cover member, and a processing unit.
  • the light emitting unit is capable of emitting light and has a light emitting surface facing in the first direction.
  • the light receiving unit is arranged side by side in the second direction intersecting the first direction, has a first light receiving pixel and a second light receiving pixel capable of detecting light, and the light receiving surface faces the first direction. Is what you are.
  • the light guide member guides a part of the light emitted from the light emitting unit toward the first light receiving element.
  • the cover member is arranged in the first direction of the light receiving portion.
  • the processing unit can measure the distance to the object to be measured in the first direction based on the detection result of the first light receiving pixel and the detection result of the second light receiving pixel.
  • the light receiving portion or the cover member includes a first light-shielding wall provided at a position corresponding to the boundary between the first light-receiving pixel and the second light-receiving pixel, and a first light-shielding wall with reference to the first light-receiving pixel. It is provided on the side opposite to the provided side, and has a second light-shielding wall lower than the first light-shielding wall.
  • light is emitted from the light emitting surface of the light emitting unit, and a part of the light is guided and guided toward the first light receiving element by the light guide member.
  • the emitted light is detected by the first light receiving pixel.
  • light is detected by the second light receiving pixel.
  • the light receiving portion or the cover member is provided with a first light-shielding wall at a position corresponding to the boundary between the first light receiving pixel and the second light receiving pixel, and the first light receiving pixel is used as a reference with the first light receiving element.
  • a second light-shielding wall is provided on the side opposite to the side on which the first light-shielding wall is provided, and is lower than the first light-shielding wall.
  • FIG. 1 It is sectional drawing which shows the schematic cross-sectional structure of the light receiving part which concerns on 5th Embodiment. It is explanatory drawing which shows one operation example of the light receiving part shown in FIG. It is a block diagram which shows an example of the schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of the vehicle exterior information detection unit and the image pickup unit.
  • FIG. 1 shows a configuration example of a distance measuring device (distance measuring device 1) according to an embodiment.
  • the distance measuring device 1 emits light L1 toward the measurement object 100, detects the light L2 reflected by the measurement object 100, and measures the flight time of the light based on the detection result. , It is configured to measure the distance to the object to be measured 100.
  • the distance measuring device 1 is configured to measure the distance to the measurement object 100 by a direct method.
  • the distance measuring device 1 includes a light emitting unit 11, a reflector 12, a light receiving unit 13, and a processing unit 15.
  • the light emitting unit 11, the reflector 12, and the light receiving unit 13 constitute an optical module M.
  • the light emitting unit 11 is configured to emit light L0, which is pulsed light, from the light emitting surface S0 based on an instruction from the processing unit 15.
  • the light emitting unit 11 has, for example, a light source that emits infrared light. This light source is configured by using a laser light source, an LED (Light Emitting Diode), or the like.
  • the reflector 12 is configured to transmit a part of the light L0 emitted from the light emitting unit 11 and to reflect a part of the light L0.
  • the reflector 12 is configured using, for example, a half mirror.
  • the light (light L1) transmitted through the reflector 12 travels toward the measurement object 100 and is reflected by the measurement object 100. Further, the light (light L1R) reflected by the reflector 12 travels toward the light receiving unit 13.
  • the light receiving unit 13 is configured to detect the light L1R reflected by the reflector 12 and the light L2 reflected by the measurement object 100.
  • FIG. 2 shows a configuration example of the light emitting unit 11 and the light receiving unit 13.
  • the light emitting unit 11 and the light receiving unit 13 are arranged on the XY surface and arranged side by side in the X direction.
  • the light emitting surface S0 of the light emitting unit 11 and the light receiving surface S2 of the light receiving unit 13 are arranged so as to face the Z direction.
  • the light receiving unit 13 has a pixel array A.
  • the pixel array A has a plurality of pixels P arranged in a matrix.
  • the pixel P includes a light receiving element PD.
  • a photodiode such as an avalanche photodiode (APD; Avalanche Photodiode) or a single photon avalanche diode (SPAD; Single Photon Avalanche Diode) can be used.
  • APD avalanche photodiode
  • SPAD Single Photon Avalanche Diode
  • the pixel array A is divided into two regions A1 and A2.
  • the region A1 is a region of the two regions A1 and A2 that is close to the light emitting unit 11.
  • the area A1 is provided with pixels P for one row.
  • the pixel P in the region A1 detects the light L1R reflected by the reflector 12.
  • the pixel P in the region A2 detects the light L2 reflected by the measurement object 100.
  • a plurality of pixels P are provided in the light receiving unit 13, but for example, light-shielding pixels that are shielded from light may be provided outside these regions A1 and A2.
  • the distance measuring device 1 can measure, for example, the so-called dark current flowing through the light receiving element PD.
  • FIG. 3 shows a schematic cross-sectional structure of the light receiving unit 13 shown in FIG. 2 in the direction of arrow III-III.
  • the distance measuring device 1 includes a cover member 14.
  • the cover member 14 is configured to protect the light receiving portion 13 from dust and an external atmosphere.
  • the cover member 14 is held by a holding portion (not shown) so as to be separated from the light receiving surface S2 of the light receiving portion 13.
  • the cover member 14 is constructed using a transparent material. Specifically, the cover member 14 is made of glass or plastic.
  • the light receiving unit 13 has a semiconductor substrate 13A and an oxide film 13B.
  • the semiconductor substrate 13A has a plurality of light receiving elements PD and light shielding walls W1 and W2.
  • the plurality of light receiving elements PD include light receiving elements PD1 and PD2.
  • the light receiving elements PD1 and PD2 are arranged so as to be adjacent to each other in the X direction.
  • the light receiving element PD1 is a light receiving element PD of the pixel P1 in the region A1 and detects the light L1R reflected by the reflector 12.
  • the light receiving element PD2 is a light receiving element PD of the pixel P2 adjacent to the pixel P1 in the region A2, and detects the light L2 reflected by the measurement object 100.
  • the light-shielding walls W1 and W2 are erected in the Z direction so as to block light and reflect light.
  • the light-shielding wall W1 is provided at a position corresponding to the boundary between the pixels P1 and the pixels P2.
  • the light-shielding wall W1 is formed over a plurality of pixels P arranged side by side in the Y direction along the boundary between the area A1 and the area A2 in FIG.
  • the light-shielding wall W2 is provided on the XY surface on the side opposite to the side on which the light-shielding wall W1 is provided, with reference to the pixel P1.
  • the light-shielding wall W2 is formed over a plurality of pixels P arranged side by side in the Y direction along the left side of the region A1 in FIG.
  • the light-shielding wall W1 is formed higher than the light-shielding wall W2.
  • the light-shielding wall W1 has a height from the back surface to the front surface of the semiconductor substrate 13A and penetrates the semiconductor substrate 13A.
  • the light-shielding wall W2 has a height from the back surface of the semiconductor substrate 13A to a certain position in the substrate. That is, in the light-shielding walls W1 and W2, the end portion (upper end portion in FIG.
  • the light-shielding walls W1 and W2 can be formed, for example, by forming a trench in the semiconductor substrate 13A and then depositing a metal such as tungsten. It should be noted that the present invention is not limited to this, and for example, various configurations capable of totally reflecting light at the interface between the semiconductor substrate 13A and the trench can be used. For example, if the refractive indexes on both sides of the interface satisfy the total reflection condition even if there is no metal, it is not necessary to deposit the metal.
  • the oxide film 13B is a silicon oxide (SiO2) film formed on the surface of the semiconductor substrate 13A.
  • the oxide film 13B has a plurality of lenses OCL.
  • the lens OCL is configured to collect the incident light.
  • the plurality of lenses OCL are provided so as to correspond to the light receiving element PD in the region A2 of the light receiving unit 13.
  • the position of the light receiving element PD and the position of the lens OCL corresponding to the light receiving element PD are deviated from each other as they are closer to the side (outer periphery) surrounding the region A2.
  • the position of the lens OCL corresponding to the light receiving element PD2 is deviated from the position of the light receiving element PD2 toward the center of the region A2.
  • the amount of displacement between the light receiving element PD (for example, the light receiving element PD3) closer to the center of the region A2 than the light receiving element PD2 and the lens OCL corresponding to the light receiving element PD3 corresponds to the light receiving element PD2 and the light receiving element PD2. It is smaller than the amount of misalignment with the lens OCL.
  • the distance measuring device 1 is adapted to perform CRA (Chief Ray Angle) correction in this way.
  • the processing unit 15 controls the light emitting unit 11 to emit the light L0, and measures the flight time of the light based on the detection result of each pixel P in the region A2 of the light receiving unit 13. Therefore, the distance to the measurement target 100 is measured in units of pixels P. Specifically, the processing unit 15 measures, for example, the time from the timing when the pixel P in the region A1 receives the light L1R to the timing when the pixel P in the region A2 receives the light L2, thereby measuring the pixel in the region A2. The distance to the object to be measured 100 is measured in P units.
  • the light emitted from the light emitting unit 11 is reflected by the measurement object 100, and the light diffusing member, the band pass filter, etc. are on the optical path until the reflected light is detected by the light receiving unit 13.
  • Optical filters, lenses, or other optical members may be provided as needed.
  • an optical filter such as a light diffusing member or a bandpass filter is used.
  • a lens or other optical member may be provided as needed.
  • the reflector 12 corresponds to a specific example of the "light guide member” in the present disclosure.
  • the pixel P1 corresponds to a specific example of the "first light receiving pixel” in the present disclosure.
  • the pixel P2 corresponds to a specific example of the "second light receiving pixel” in the present disclosure.
  • the light-shielding wall W1 corresponds to a specific example of the "first light-shielding wall” in the present disclosure.
  • the light-shielding wall W2 corresponds to a specific example of the "second light-shielding wall” in the present disclosure.
  • the light emitting unit 11 emits light L0 based on an instruction from the processing unit 15.
  • the reflector 12 transmits a part of the light L0 emitted from the light emitting unit 11 and reflects a part of the light L0.
  • the light L1 transmitted through the reflector 12 travels toward the measurement object 100 and is reflected by the measurement object 100.
  • the light L1R reflected by the reflector 12 travels toward each pixel P in the region A1 of the light receiving unit 13.
  • the light L2 reflected by the measurement object 100 travels toward each pixel P in the region A2 of the light receiving unit 13.
  • Each pixel P in the region A1 of the light receiving unit 13 detects the light L1R, and each pixel P in the region A2 of the light receiving unit 13 detects the light L2.
  • the processing unit 15 measures the distance to the measurement target 100 in units of pixels P by measuring the flight time of light based on the detection result of each pixel P in the region A2 of the light receiving unit 13.
  • FIG. 4 shows an example of the distance measuring operation in the distance measuring device 1.
  • the distance measuring device 1 measures the distance to the measurement object 100 by a so-called direct method.
  • FIG. 4A shows the waveform of the light L0 emitted from the light emitting unit 11
  • FIG. 4B shows the waveform of the light L2 detected by the light receiving unit 13.
  • the light emitting unit 11 emits light L0 having a pulse waveform based on an instruction from the processing unit 15 (FIG. 4 (A)).
  • the light L0 is incident on the reflector 12, and the light L1 transmitted through the reflector 12 travels toward the object 100 to be measured.
  • the light L1 is reflected by the measurement object 100, and the reflected light L2 travels toward the light receiving unit 13.
  • the pixel P in the region A2 of the light receiving unit 13 detects the light L2 (FIG. 4 (B)).
  • the light L2 detected by the light receiving unit 13 has a waveform obtained by delaying the waveform of the light L0 shown in FIG. 4A by the delay time DL.
  • This delay time DL is the time during which the light travels in the order of the light emitting unit 11, the reflector 12, the measurement object 100, and the light receiving unit 13, and corresponds to the flight time of the light.
  • the flight time of this light corresponds to the distance between the distance measuring device 1 and the object to be measured 100.
  • the light L1R reflected by the reflector 12 travels toward the light receiving unit 13.
  • the pixel P in the region A1 of the light receiving unit 13 detects this light L1R (FIG. 4B).
  • the waveform of the light L1R detected by the pixel P in the region A1 is, for example, substantially the same as the waveform of the light L0 shown in FIG. 4 (A).
  • the processing unit 15 measures the time from the timing when the pixel P in the region A1 receives the light L1R to the timing when the pixel P in the region A2 receives the light L2.
  • the distance measuring device 1 can measure the distance to the object to be measured 100.
  • FIG. 5 shows an example of the light detection operation in the light receiving unit 13.
  • the light L1R reflected by the reflector 12 and the light L2 reflected by the measurement object 100 are incident on the light receiving unit 13.
  • the light L1R and the light L2 are shown in FIG. 5, usually, the light L1R and the light L2 are incident on the light receiving unit 13 at different timings from each other.
  • the light L1R reflected by the reflector 12 is incident on the light receiving unit 13 via the cover member 14.
  • the light receiving element PD of the pixel P in the region A1 detects the light L1R. Since the light L1R is reflected by the light-shielding wall W1 and is reflected by the light-shielding wall W2, the light L1R is less likely to leak from the light-receiving element PD1, so that the light-receiving element PD1 can effectively detect the light L1R. it can.
  • the light L1R since the light L1R is shielded by the light-shielding wall W1, it does not enter the light-receiving element PD of the pixel P in the region A2 (for example, the light-receiving element PD2 of the pixel P2). As a result, in the distance measuring device 1, it is possible to reduce the possibility that the light receiving element PD of the pixel P in the region A2 detects the light L1R in the distance measuring operation, so that the measurement accuracy can be improved.
  • the light L2 reflected by the measurement object 100 is incident on the light receiving unit 13 via the cover member 14.
  • the lens OCL in the light receiving unit 13 collects the light L2 and performs CRA correction.
  • the lens OCL appropriately guides the light incident obliquely through the focal point to the light receiving element PD.
  • the light receiving element PD for example, the light receiving element PD2
  • the light receiving element PD corresponding to the lens OCL in the region A2 of the light receiving unit 13 detects the light L2.
  • the light L2 reflected by the measurement object 100 includes light (light L21) incident on a region other than the region A2 of the light receiving unit 13.
  • the light L21 is incident on the light receiving element PD of the pixel P in the region A1 (for example, the light receiving element PD1 of the pixel P1).
  • such light L21 is obliquely incident on the light receiving portion 13.
  • the light L21 travels so as to pass through a part of the light receiving element PD1 as shown in FIG.
  • the distance measuring device 1 since the height of the shading wall W2 is lowered, the light L21 only passes through a part of the light receiving element PD1 as shown in FIG. 4, so that the light receiving of the pixel P in the region A1 is received. It is possible to reduce the possibility that the element PD detects the light L21. As a result, the distance measuring device 1 can reduce the possibility of accidentally restarting the measurement, so that the measurement accuracy can be improved.
  • the light-shielding wall W1 is provided at a position corresponding to the boundary between the pixel P1 in the area A1 and the pixel P2 in the area A2, and the light-shielding wall W1 is provided on the XY surface with reference to the pixel P1.
  • a light-shielding wall W2 is provided on the side opposite to the vertical side. Then, the height of the light-shielding wall W2 was made lower than the height of the light-shielding wall W1.
  • the distance measuring device 1 the possibility that the light receiving element PD2 of the pixel P2 detects the light L1R reflected by the reflector 12 can be reduced, and the light receiving element PD1 of the pixel P1 is included in the light L2. It is possible to reduce the risk of detecting the light L21. As a result, the distance measuring device 1 can improve the measurement accuracy.
  • the light-shielding wall W1 is provided at a position corresponding to the boundary between the pixel P1 in the area A1 and the pixel P2 in the area A2, and the side on which the light-shielding wall W1 is provided with reference to the pixel P1 is A light-shielding wall W2 is provided on the opposite side. Then, the height of the light-shielding wall W2 was made lower than the height of the light-shielding wall W1. As a result, the measurement accuracy can be improved.
  • the reflector 12A is configured by using a half mirror, but the present invention is not limited to this, and a mirror, an optical fiber, a lens, or the like may be used.
  • FIG. 6 shows a configuration example of the ranging device 1A when the reflector is configured by using a mirror.
  • the distance measuring device 1A includes a light emitting unit 11A and a reflector 12A.
  • the light emitting unit 11A is configured to emit light L0, which is pulsed light, from the light emitting surface S0 based on an instruction from the processing unit 15.
  • the light emitting unit 11A has, for example, a plurality of light sources.
  • the reflector 12A is configured to reflect the light L0 emitted by a part of the light sources of the plurality of light sources of the light emitting unit 11A.
  • the reflector 12A is configured using, for example, a reflector.
  • the reflector 12A corresponds to a specific example of the "light guide member" in the present disclosure.
  • the light L1R reflected by the reflector 12A travels toward the light receiving unit 13. Of the light L0 emitted from the light emitting unit 11A, the light that does not enter the reflector 12A travels toward the measurement object 100 as the light L1.
  • the area A1 is provided with pixels P for one row, but the present invention is not limited to this. Instead of this, for example, pixels P for a plurality of columns may be provided in the area A1. Further, for example, as in the light receiving unit 93 shown in FIG. 7, the area A1 may be provided with less pixels P than one row of pixels P. In this example, the area A1 is provided with three pixels P. The pixel P in the region A1 detects the light L1R reflected by the reflector 12. The pixel P in the region A2 detects the light L2 reflected by the measurement object 100.
  • the processing unit 15 measures the time from the timing when the pixel P in the region A1 receives the light L1R to the timing when the pixel P in the region A2 receives the light L2, but the present invention is limited to this. It is not something that is done.
  • a correction value table TBL is generated in advance based on the detection result of each pixel P in the region A1 of the light receiving unit 13, and measurement is performed based on the detection result of each pixel P in the region A2 in the distance measuring operation. The calculated distance may be calibrated using this correction value table TBL.
  • the distance measuring device 1C according to this modification will be described in detail below.
  • the distance measuring device 1C has a processing unit 15C as in the case of the above embodiment (FIG. 1).
  • the processing unit 15C controls the light emitting unit 11 to emit the light L0, and measures the flight time of the light based on the detection result of each pixel P in the region A2 of the light receiving unit 13, so that the pixel P is emitted. It is configured to measure the distance to the measurement object 100 in units.
  • the processing unit 15C measures the time from the timing when the light emitting unit 11 is instructed to emit the light L0 to the timing when the pixel P in the region A2 receives the light L2, thereby reaching the measurement target 100.
  • Distance (measurement distance DM) is measured.
  • the processing unit 15C uses the correction value table TBL generated in advance based on the detection result in each pixel P in the region A1 of the light receiving unit 13 to set the measured distance to the measurement object 100 in pixel P units. It is designed to be calibrated with.
  • the processing unit 15C measures the distance to the measurement target 100 based on the delay time DL.
  • the distance before calibration (measured distance DM) obtained in this way may deviate from the actual distance (actual distance DR). This deviation is caused by, for example, a circuit delay in the light emitting unit 11, the light receiving unit 13, and the processing unit 15C.
  • FIG. 8 shows an example of the deviation between the measured distance DM and the actual distance DR by the distance measuring device 1.
  • the horizontal axis represents the actual distance DR
  • the vertical axis represents the measured distance DM, which is the distance before calibration.
  • LN2 the relationship between the actual distance DR and the measured distance DM
  • the slope of this straight line LN2 is “a2” and the intercept is “b”. That is, the slopes and intercepts of the straight line LN2 are different from the slopes and intercepts of the straight line LN1.
  • the ranging device 1C generates the correction value table TBL by performing the correction value table generation operation in advance.
  • the correction value table TBL contains information about the correction value for converting the measured distance DM into the actual distance DR.
  • the light emitting unit 11 emits light L0 based on the instruction from the processing unit 15C, and the pixel P in the region A1 of the light receiving unit 13 detects the light L1R reflected by the reflector 12. To do. Then, based on this detection result, the processing unit 15C generates a correction value table TBL.
  • the distance measuring device 1C can perform such a correction value table generation operation at any time during a period other than the period during which the distance measuring operation is performed.
  • the processing unit 15C sets the emission timing of the light L0 in the light emitting unit 11 to various timings with reference to a certain reference timing, and in the region A1 of the light receiving unit 13.
  • the light receiving timing at the pixel P is detected.
  • the emission timing of the light L0 is set by simulating the actual distance DR. That is, the time difference between the reference timing and the injection timing is the time for the light to reciprocate in the simulated actual distance DR.
  • the processing unit 15 obtains the measurement distance DM based on the light reception timing and the speed of light.
  • the processing unit 15C calculates the correction value by calculating the difference between the measured distance DM and the simulated actual distance DR.
  • the processing unit 15C calculates this correction value while setting the injection timing to various timings, and associates this correction value with the measurement distance DM to generate a correction value table TBL.
  • the light emitting unit 11 emits light L0 based on the instruction from the processing unit 15C, and the pixel P in the region A2 of the light receiving unit 13 detects the light L2 reflected by the measurement object 100.
  • the processing unit 15C measures the distance to the measurement target 100 in units of pixels P by measuring the flight time of light based on the detection result of each pixel P in the region A2 of the light receiving unit 13.
  • the processing unit 15C is measured by using the correction value table TBL generated by the correction value table generation operation to correct the measured distance to the measurement object 100 with a correction value corresponding to the distance. Calibrate the distance. In this way, the processing unit 15C can calibrate the measured distance to the measurement object 100 in pixel P units using the correction value table TBL.
  • the distance to the measurement target 100 is measured by the direct method, but the distance is not limited to this, and instead, for example, the measurement target 100 is measured by the indirect method. You may measure the distance.
  • the ranging device 1D according to this modification has a light receiving unit 13D and a processing unit 15D, as in the case of the above embodiment (FIG. 1).
  • the light receiving unit 13D is configured to detect the light L1R reflected by the reflector 12 and the light L2 reflected by the measurement object 100.
  • the processing unit 15D controls the light emitting unit 11 to emit the light L0, and measures the flight time of the light based on the detection result of each pixel P in the region A2 of the light receiving unit 13D. It is configured to measure the distance to the measurement object 100 in units. In this example, the processing unit 15D measures the time from the timing when the light emitting unit 11 is instructed to emit the light L0 to the timing when the pixel P in the region A2 receives the light L2, thereby reaching the measurement target 100. Distance (measurement distance DM) is measured. Then, the processing unit 15D uses the correction value table TBL generated in advance based on the detection result in each pixel P in the region A1 of the light receiving unit 13D to set the measured distance to the measurement object 100 in pixel P units. It is designed to be calibrated with.
  • FIG. 9 shows an example of the distance measuring operation in the distance measuring device 1D according to this modification
  • FIG. 9A shows the waveform of the light L0 emitted from the light emitting unit 11
  • FIG. 9B shows the waveform of the light L0 emitted from the light emitting unit 11.
  • the waveform of the light L2 detected by the light receiving unit 13D is shown.
  • the light emitting unit 11 emits light L0 having a pulse waveform having a duty ratio of 50% based on an instruction from the processing unit 15D (FIG. 9 (A)).
  • the light L0 is incident on the reflector 12, and the light L1 transmitted through the reflector 12 travels toward the object 100 to be measured.
  • the light L1 is reflected by the measurement object 100, and the reflected light L2 travels toward the light receiving unit 13D.
  • the pixel P in the region A2 of the light receiving unit 13D detects the light L2 (FIG. 9B).
  • the light L2 detected by the light receiving unit 13D has a waveform obtained by delaying the waveform of the light L0 shown in FIG. 9A by the delay time DL.
  • the processing unit 15D measures the distance to the measurement object 100 based on this delay time DL, and calibrates the measured distance to the measurement object 100 using the correction value table TBL generated in advance.
  • the pixel P accumulates the signal charge Q1 according to the amount of light received by the light receiving element PD in the period T1 in which the light emitting unit 11 emits light, and in the period T2 in which the light emitting unit 11 does not emit light.
  • the signal charge Q2 corresponding to the amount of light received by the light receiving element PD is accumulated.
  • the processing unit 15D obtains the charge ratio between the signal charge Q1 and the signal charge Q2. Since the light receiving element PD receives light L2 in the period TA and TB, the charge amount of the signal charge Q1 is proportional to the length of the period TA, and the charge amount of the signal charge Q2 is the length of the period TB. Proportional.
  • the processing unit 15D can obtain the delay time DL with high accuracy, for example.
  • the processing unit 15D measures the distance to the measurement object 100 based on the delay time DL thus obtained.
  • the distance before calibration may deviate from the actual distance (actual distance DR).
  • This deviation is caused by, for example, the circuit delay in the light emitting unit 11, the light receiving unit 13D, and the processing unit 15D, the circuit configuration of each pixel P in the light receiving unit 13D, the waveform shape of the light L0, and the like.
  • FIG. 10 shows an example of the deviation between the measured distance DM and the actual distance DR by the distance measuring device 1D.
  • LN3 the relationship between the actual distance DR and the measured distance DM is often as shown by the curve LN3.
  • This curve LN3 has a waviness component c.
  • the slope of the straight line LN4 from which the waviness component c is removed from the curve LN3 is “a2”, and the intercept is “b”. That is, the slopes and intercepts of the straight line LN4 are different from the slopes and intercepts of the straight line LN1.
  • the correction value table TBL is generated by performing the correction value table generation operation in advance in the same manner as in the distance measuring device 1C according to the modification 1-3. Then, in the distance measuring operation, the light emitting unit 11 emits light L0 based on the instruction from the processing unit 15D, and the pixel P in the region A2 of the light receiving unit 13D detects the light L2 reflected by the measurement object 100. To do. Then, the processing unit 15D measures the distance to the measurement target 100 in units of pixels P by measuring the flight time of light based on the detection result of each pixel P in the region A2 of the light receiving unit 13D. Then, the processing unit 15D calibrates the measured distance to the measurement object 100 in pixel P units using the correction value table TBL generated by the correction value table generation operation.
  • the distance measuring device 1D measures the distance to the measurement target 100 by the indirect method, so that the distance to the measurement target 100 can be measured with high accuracy, for example.
  • the distance measuring device 2 according to the second embodiment will be described.
  • more light-shielding walls W are provided on the semiconductor substrate of the light receiving portion.
  • the components substantially the same as those of the distance measuring device 1 according to the first embodiment are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • the distance measuring device 2 includes a light receiving unit 23.
  • the light receiving unit 23 is configured to detect the light L1R reflected by the reflector 12 and the light L2 reflected by the measurement object 100, similarly to the light receiving unit 13 according to the first embodiment. ..
  • FIG. 11 shows a schematic cross-sectional structure of the light receiving unit 23.
  • the light receiving unit 23 has an oxide film 23B and a semiconductor substrate 23A.
  • the oxide film 23B is obtained by omitting a plurality of lens OCLs from the oxide film 13B (FIG. 3) according to the first embodiment.
  • the semiconductor substrate 23A has a plurality of light receiving elements PD and a plurality of light shielding walls W.
  • the plurality of light receiving elements PD include light receiving elements PD1, PD2, PD3, PD4.
  • the light receiving elements PD1, PD2, PD3, PD4 are arranged in this order in the X direction.
  • the light receiving element PD1 is a light receiving element PD of the pixel P1 provided in the region A1 and detects the light L1R reflected by the reflector 12.
  • the light receiving elements PD2 to PD4 are light receiving elements PD of the pixels P2 to P4 provided in the region A2, and detect the light L2 reflected by the measurement object 100.
  • the plurality of light-shielding walls W are provided on the left side of the area A1, the outer periphery of the area A2, and the boundary of each pixel P in the area A2.
  • the plurality of light-shielding walls W include light-shielding walls W1, W2, W3, and W4.
  • the light-shielding wall W1 is provided at a position corresponding to the boundary between the pixels P1 and the pixels P2.
  • the light-shielding wall W2 is provided on the XY surface on the side opposite to the side on which the light-shielding wall W1 is provided, with reference to the pixel P1.
  • the light-shielding wall W3 is provided at the boundary between the pixels P2 and the pixels P3.
  • the light-shielding wall W4 is provided at the boundary between the pixels P3 and the pixels P4. In the region A2, the light-shielding wall W is configured to become lower as it approaches the center of the region A2. Specifically, the height of the light-shielding wall W3 is lower than the height of the light-shielding wall W1, and the height of the light-shielding wall W4 is lower than the height of the light-shielding wall W3.
  • the X direction has been described, but the same applies to the Y direction.
  • CRA correction is performed by providing a light-shielding wall W having a different height depending on the location in the XY plane in the region A2 and selectively injecting the light L2. That is, in the distance measuring device 1 according to the first embodiment, the CRA correction is performed by using the lens OCL, but in the distance measuring device 2 according to the present embodiment, the CRA is performed by using the light shielding wall W. I am trying to make corrections.
  • the pixel P3 corresponds to a specific example of the "third light receiving pixel” in the present disclosure.
  • the light-shielding wall W3 corresponds to a specific example of the "third light-shielding wall” in the present disclosure.
  • FIG. 12 shows an example of the light detection operation in the light receiving unit 23.
  • the light L1R reflected by the reflector 12 is incident on the light receiving unit 23 via the cover member 14.
  • the light receiving element PD of the pixel P in the region A1 detects the light L1R.
  • the light L1R is reflected by the light-shielding wall W1 and is reflected by the light-shielding wall W2, so that the light L1R is less likely to leak from the light-receiving element PD1. Can effectively detect this light L1R.
  • the light L1R since the light L1R is shielded by the light-shielding wall W1, it does not enter the light-receiving element PD of the pixel P in the region A2 (for example, the light-receiving element PD2 of the pixel P2). As a result, in the distance measuring device 2, it is possible to reduce the possibility that the light receiving element PD of the pixel P in the region A2 detects the light L1R in the distance measuring operation, so that the measurement accuracy can be improved.
  • the light L2 reflected by the measurement object 100 is incident on the light receiving unit 23 via the cover member 14.
  • the light-shielding wall W provided at a position corresponding to the boundary of each pixel P performs CRA correction.
  • the light receiving element PD of the pixel P in the region A2 detects the light L2.
  • the light receiving element PD2 can effectively detect the light incident obliquely through the focal point.
  • the distance measuring device 2 can improve the measurement accuracy.
  • the light L2 reflected by the measurement object 100 includes light (light L21) incident on a region other than the region A2 of the light receiving unit 23.
  • the light L21 is incident on the light receiving element PD of the pixel P in the region A1 (for example, the light receiving element PD1 of the pixel P1).
  • the distance measuring device 2 since the height of the light-shielding wall W2 is lowered, the light L21 only passes through a part of the light receiving element PD1, so that the possibility that the light receiving element PD1 detects the light L21 is reduced. Can be done. As a result, the distance measuring device 2 can improve the measurement accuracy.
  • the light-shielding wall W is provided at a position corresponding to the boundary of each pixel P in the area A2, and the height of the light-shielding wall W differs depending on the location in the XY plane. did. Specifically, for example, the height of the light-shielding wall W3 provided at a position corresponding to the boundary between the pixel P2 and the pixel P3 is the height of the light-shielding wall W1 provided at a position corresponding to the boundary between the pixel P1 and the pixel P2. I made it lower than that.
  • the height of the light-shielding wall W4 provided at the position corresponding to the boundary between the pixel P3 and the pixel P4 is made lower than the height of the light-shielding wall W3 provided at the position corresponding to the boundary between the pixel P2 and the pixel P3.
  • the light receiving element PD can effectively detect the light incident obliquely through the focal point.
  • the distance measuring device 2 can improve the measurement accuracy.
  • a light-shielding wall is provided at a position corresponding to the boundary of each pixel in the area A2, and the height of the light-shielding wall is made different depending on the location, so that the measurement accuracy is improved. be able to.
  • Other effects are the same as in the case of the first embodiment.
  • Each modification of the first embodiment may be applied to the distance measuring device 2 according to the first embodiment.
  • the distance measuring device 3 according to the third embodiment will be described.
  • a light-shielding wall is provided on the oxide film of the light receiving portion.
  • the components substantially the same as those of the distance measuring device 2 according to the second embodiment are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • the distance measuring device 3 includes a light receiving unit 33.
  • the light receiving unit 33 is configured to detect the light L1R reflected by the reflector 12 and the light L2 reflected by the measurement object 100, similarly to the light receiving unit 23 according to the second embodiment. ..
  • FIG. 13 shows a schematic cross-sectional structure of the light receiving portion 33.
  • the light receiving unit 33 has a semiconductor substrate 33A and an oxide film 33B.
  • the semiconductor substrate 33A has a plurality of light receiving elements PD. That is, the semiconductor substrate 33A is obtained by omitting the light-shielding wall W from the semiconductor substrate 23A (FIG. 11) according to the second embodiment.
  • the plurality of light receiving elements PD include light receiving elements PD1, PD2, PD3, PD4.
  • the light receiving elements PD1, PD2, PD3, PD4 are arranged in this order in the X direction.
  • the light receiving element PD1 is a light receiving element PD of the pixel P1 provided in the region A1 and detects the light L1R reflected by the reflector 12.
  • the light receiving elements PD2 to PD4 are light receiving elements PD of pixels P2 to P4 provided in the region A2, and are adapted to detect the light L2 reflected by the measurement object 100.
  • the oxide film 33B has a plurality of light-shielding walls WA.
  • the plurality of light-shielding walls WA are provided at positions corresponding to the left side of the region A1, the outer periphery of the region A2, and the boundary of each pixel P in the region A2 in the oxide film 33B.
  • the plurality of light-shielding walls WA are configured to be erected in the Z direction in the oxide film 33B so as to block light and reflect light.
  • the plurality of light-shielding walls WA include light-shielding walls WA1, WA2, WA3, and WA4.
  • the light-shielding wall WA1 is provided at a position corresponding to the boundary between the pixel P1 and the pixel P2.
  • the light-shielding wall WA1 is formed over a plurality of pixels P arranged side by side in the Y direction along the boundary between the area A1 and the area A2.
  • the light-shielding wall WA2 is provided on the XY surface on the side opposite to the side on which the light-shielding wall WA1 is provided, with reference to the pixel P1.
  • the shading wall WA2 is formed over a plurality of pixels P arranged side by side in the Y direction along the left side of the region A1.
  • the light-shielding wall WA1 is formed higher than the light-shielding wall WA2.
  • the light-shielding wall WA3 is provided at a position corresponding to the boundary between the pixel P2 and the pixel P3.
  • the light-shielding wall WA4 is provided at a position corresponding to the boundary between the pixels P3 and the pixels P4. In the region A2, the light-shielding wall WA is configured to become lower as it approaches the center of the region A2. Specifically, the height of the light-shielding wall WA3 is lower than the height of the light-shielding wall WA1, and the height of the light-shielding wall WA4 is lower than the height of the light-shielding wall WA3.
  • the X direction has been described, but the same applies to the Y direction.
  • a light-shielding wall WA having a height different depending on the location in the XY plane is provided in the region A2, and the light L2 is selectively incident to perform CRA correction.
  • the CRA correction is performed by using the light-shielding wall W provided on the semiconductor substrate 13A, but in the distance measuring device 3 according to the present embodiment, the CRA correction is performed. , CRA correction is performed using the light-shielding wall WA provided on the oxide film 33B.
  • the oxide film 33B corresponds to a specific example of the "insulating film” in the present disclosure.
  • the light-shielding wall WA1 corresponds to a specific example of the "first light-shielding wall” in the present disclosure.
  • the light-shielding wall WA2 corresponds to a specific example of the "second light-shielding wall” in the present disclosure.
  • the light-shielding wall WA3 corresponds to a specific example of the "third light-shielding wall” in the present disclosure.
  • FIG. 14 shows an example of the light detection operation in the light receiving unit 33.
  • the light L1R reflected by the reflector 12 is incident on the light receiving unit 33 via the cover member 14.
  • the light L1R is reflected by the light-shielding wall WA1 and is reflected by the light-shielding wall WA2.
  • the light receiving element PD of the pixel P in the region A1 detects the light L1R.
  • the light L1R is less likely to leak from the light receiving element PD1, so that the light receiving element PD1 can effectively detect the light L1R.
  • the light L1R is shielded by the light-shielding wall WA1, it does not enter the light-receiving element PD of the pixel P in the region A2 (for example, the light-receiving element PD2 of the pixel P2).
  • the distance measuring device 3 it is possible to reduce the possibility that the light receiving element PD of the pixel P in the region A2 detects the light L1R in the distance measuring operation, so that the measurement accuracy can be improved.
  • the light L2 reflected by the measurement object 100 is incident on the light receiving unit 33 via the cover member 14.
  • the light shielding wall WA performs CRA correction.
  • the light receiving element PD of the pixel P in the region A2 detects the light L2.
  • the light receiving element PD2 can effectively detect the light incident obliquely through the focal point.
  • the distance measuring device 3 can improve the measurement accuracy.
  • the light L2 reflected by the measurement object 100 includes light (light L21) incident on a region other than the region A2 of the light receiving unit 33.
  • the distance measuring device 3 since the height of the light-shielding wall WA2 is lowered, the light L21 is not reflected by the light-shielding wall WA2, so that the possibility that the light receiving element PD1 detects the light L21 can be reduced. As a result, the distance measuring device 3 can improve the measurement accuracy.
  • the light-shielding wall WA is provided at a position corresponding to the boundary of each pixel P in the region A2 in the oxide film 33B, and the height of the light-shielding wall WA is set at a position in the XY plane. I made it different according to it. Specifically, for example, the height of the light-shielding wall WA3 provided at a position corresponding to the boundary between the pixel P2 and the pixel P3 is set to the height of the light-shielding wall WA1 provided at a position corresponding to the boundary between the pixel P1 and the pixel P2. I made it lower than that.
  • the height of the light-shielding wall WA4 provided at the position corresponding to the boundary between the pixel P3 and the pixel P4 is made lower than the height of the light-shielding wall WA3 provided at the position corresponding to the boundary between the pixel P2 and the pixel P3.
  • the light receiving element PD can effectively detect the light incident obliquely through the focal point.
  • the distance measuring device 3 can improve the measurement accuracy.
  • a light-shielding wall is provided at a position corresponding to the boundary of each pixel in the region A2, and the height of the light-shielding wall is made different depending on the location.
  • the measurement accuracy can be improved.
  • Other effects are the same as in the case of the first embodiment.
  • Each modification of the first embodiment may be applied to the distance measuring device 3 according to the first embodiment.
  • the distance measuring device 4 according to the fourth embodiment will be described.
  • the cover member is provided with a light-shielding wall.
  • the components substantially the same as those of the distance measuring device 3 according to the third embodiment are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • the distance measuring device 4 includes a light receiving unit 43.
  • the light receiving unit 43 is configured to detect the light L1R reflected by the reflector 12 and the light L2 reflected by the measurement object 100, similarly to the light receiving unit 33 according to the third embodiment. .. Further, the distance measuring device 4 includes a cover member 44.
  • FIG. 15 shows a schematic cross-sectional structure of the light receiving portion 43 and the cover member 44.
  • the light receiving unit 43 has a semiconductor substrate 33A and an oxide film 23B.
  • the cover member 44 has a plurality of light-shielding walls WB.
  • the plurality of light-shielding walls WB are provided at a position corresponding to the left side of the region A1 of the light receiving unit 43, a position corresponding to the outer periphery of the region A2, and a position corresponding to the boundary of each pixel P in the region A2.
  • the plurality of light-shielding walls WB are erected in the Z direction so as to block light and reflect light.
  • the plurality of light-shielding walls WB include light-shielding walls WB1, WB2, WB3, and WB4.
  • the light-shielding wall WB1 is provided at a position corresponding to the boundary between the pixel P1 and the pixel P2.
  • the light-shielding wall WB1 is formed along the boundary between the region A1 and the region A2 over a region corresponding to a plurality of pixels P arranged side by side in the Y direction.
  • the light-shielding wall WB2 is provided on the XY surface on the side opposite to the side on which the light-shielding wall WB1 is provided, with reference to the pixel P1.
  • the light-shielding wall WB2 is formed along the left side of the region A1 over a region corresponding to a plurality of pixels P arranged side by side in the Y direction.
  • the light-shielding wall WB1 is formed higher than the light-shielding wall WB2.
  • the light-shielding wall WB3 is provided at a position corresponding to the boundary between the pixel P2 and the pixel P3.
  • the light-shielding wall WB4 is provided at a position corresponding to the boundary between the pixel P3 and the pixel P4.
  • the light-shielding wall WB is configured to become lower as it approaches the center of the region A2.
  • the height of the light-shielding wall WB3 is lower than the height of the light-shielding wall WB1
  • the height of the light-shielding wall WB4 is lower than the height of the light-shielding wall WB3.
  • the X direction has been described, but the same applies to the Y direction.
  • the cover member 44 is provided with a light-shielding wall WB having a different height depending on the location in the XY plane in the region A2, and the light L2 is selectively incident to perform CRA correction. Do.
  • the CRA correction is performed by using the light-shielding wall WA provided on the oxide film 33B, but in the distance measuring device 4 according to the present embodiment, the CRA correction is performed. , CRA correction is performed using the light-shielding wall WB provided on the cover member 44.
  • the light-shielding wall WB1 corresponds to a specific example of the "first light-shielding wall” in the present disclosure.
  • the light-shielding wall WB2 corresponds to a specific example of the "second light-shielding wall” in the present disclosure.
  • the light-shielding wall WB3 corresponds to a specific example of the "third light-shielding wall” in the present disclosure.
  • FIG. 16 shows an example of the light detection operation in the light receiving unit 43.
  • the light L1R reflected by the reflector 12 is incident on the cover member 44.
  • the light L1R is reflected by the light-shielding wall WB1 and is reflected by the light-shielding wall WB2.
  • the light receiving element PD of the pixel P in the region A1 detects the light L1R.
  • the light L1R is less likely to leak from the light receiving element PD1, so that the light receiving element PD1 can effectively detect the light L1R.
  • the light L1R is shielded by the light-shielding wall WB1, it is unlikely to be incident on the light-receiving element PD of the pixel P in the region A2 (for example, the light-receiving element PD2 of the pixel P2).
  • the distance measuring device 4 it is possible to reduce the possibility that the light receiving element PD of the pixel P in the region A2 detects the light L1R in the distance measuring operation, so that the measurement accuracy can be improved.
  • the light L2 reflected by the measurement object 100 is incident on the cover member 44.
  • the light-shielding wall WB performs CRA correction.
  • the light receiving element PD of the pixel P in the region A2 detects the light L2.
  • the light receiving element PD2 can effectively detect the light incident obliquely through the focal point.
  • the distance measuring device 4 can improve the measurement accuracy.
  • the light L2 reflected by the measurement object 100 includes light (light L21) incident on a region other than the region A2 of the light receiving unit 43.
  • the distance measuring device 4 since the height of the light-shielding wall WB2 is lowered, the light L21 is not reflected by the light-shielding wall WB2, so that the possibility that the light receiving element PD1 detects the light L21 can be reduced. As a result, the distance measuring device 4 can improve the measurement accuracy.
  • the cover member 44 is provided with the light-shielding wall WB at a position corresponding to the boundary of each pixel P in the area A2, and the height of the light-shielding wall WB is located in the XY plane. I made it different according to it. Specifically, for example, the height of the light-shielding wall WB3 provided at a position corresponding to the boundary between the pixel P2 and the pixel P3 is set to the height of the light-shielding wall WB1 provided at a position corresponding to the boundary between the pixel P1 and the pixel P2. I made it lower than that.
  • the height of the light-shielding wall WB4 provided at the position corresponding to the boundary between the pixel P3 and the pixel P4 is made lower than the height of the light-shielding wall WB3 provided at the position corresponding to the boundary between the pixel P2 and the pixel P3.
  • the light receiving element PD can effectively detect the light incident obliquely through the focal point.
  • the distance measuring device 4 can improve the measurement accuracy.
  • a light-shielding wall is provided at a position corresponding to the boundary of each pixel in the area A2, and the height of the light-shielding wall is made different depending on the location.
  • the measurement accuracy can be improved.
  • Other effects are the same as in the case of the first embodiment.
  • the distance measuring device 5 according to the fifth embodiment will be described.
  • the lens OCL is provided on the oxide film in the distance measuring device 4 according to the fourth embodiment.
  • the components substantially the same as those of the distance measuring device 4 according to the fourth embodiment are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • the distance measuring device 5 includes a light receiving unit 53.
  • the light receiving unit 53 is configured to detect the light L1R reflected by the reflector 12 and the light L2 reflected by the measurement object 100, similarly to the light receiving unit 43 according to the fourth embodiment. .. Further, the distance measuring device 5 includes a cover member 44.
  • FIG. 17 shows a schematic cross-sectional structure of the light receiving portion 53 and the cover member 44.
  • the light receiving unit 53 has a semiconductor substrate 33A and an oxide film 53B.
  • the oxide film 53B is a silicon oxide (SiO2) film formed on the surface of the semiconductor substrate 33A.
  • the oxide film 53B has a plurality of lenses OCL.
  • the plurality of lenses OCL are provided so as to correspond to the plurality of pixels P (plurality of light receiving elements PD) in the regions A1 and A2, respectively.
  • FIG. 18 shows an example of the light detection operation in the light receiving unit 53.
  • the light L1R reflected by the reflector 12 is incident on the cover member 44.
  • the light L1R is reflected by the light-shielding wall WB1 and is reflected by the light-shielding wall WB2.
  • the lens OCL in the light receiving unit 53 collects the light L1R.
  • the light receiving element PD of the pixel P in the region A1 detects the light L1R.
  • the light L1R is less likely to leak from the light receiving element PD1, so that the light receiving element PD1 can effectively detect the light L1R.
  • the distance measuring device 5 can reduce the possibility of detecting the light L1R in the distance measuring operation, so that the measurement accuracy can be improved.
  • the light L2 reflected by the measurement object 100 is incident on the cover member 44.
  • the light-shielding wall WB performs CRA correction.
  • the lens OCL in the light receiving unit 53 collects the light L2.
  • the light receiving element PD of the pixel P in the region A2 detects the light L2.
  • the light receiving element PD2 can effectively detect the light incident obliquely through the focal point.
  • the distance measuring device 5 can improve the measurement accuracy.
  • the light L2 reflected by the measurement object 100 includes light (light L21) incident on a region other than the region A2 of the light receiving unit 43.
  • the distance measuring device 5 since the height of the light-shielding wall WB2 is lowered, the light L21 is not reflected by the light-shielding wall WB2, so that the possibility that the light receiving element PD1 detects the light L21 can be reduced. As a result, the distance measuring device 5 can improve the measurement accuracy.
  • the light-shielding wall WB is provided at a position corresponding to the boundary of each pixel P in the area A2 in the cover member 44, and the height of the light-shielding wall WB is set at a position in the XY plane. I made it different according to it. Then, a plurality of lenses OCL are provided on the oxide film 53B of the light receiving portion 53. As a result, the light receiving element PD can effectively detect the light incident obliquely through the focal point. As a result, the distance measuring device 5 can improve the measurement accuracy.
  • a light-shielding wall is provided at a position corresponding to the boundary of each pixel in the area A2, and the height of the light-shielding wall varies depending on the location. Then, a plurality of lenses are provided on the oxide film of the light receiving portion. As a result, the measurement accuracy can be improved. Other effects are the same as in the case of the first embodiment.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 19 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a moving body control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • an imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits the output signal of at least one of the audio and the image to the output device capable of visually or audibly notifying the passenger of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 20 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, 12105 as imaging units 12031.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as, for example, the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the imaging units 12101 and 12105 are mainly used for detecting the preceding vehicle, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 20 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle runs autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • the measurement accuracy in distance measurement can be improved, so that the vehicle collision avoidance or collision mitigation function, the follow-up running function based on the inter-vehicle distance, the vehicle speed maintenance running function, the vehicle collision warning function, It is possible to improve the accuracy of the vehicle lane deviation warning function and the like.
  • the present technology is applied to a distance measuring device that measures a distance to a measurement object 100, but the present invention is not limited to this. Instead of this, for example, the present technology may be applied to a time measuring device that measures the flight time of light from the light emitting unit emitting light L0 to the light receiving unit detecting light L2.
  • this technology can have the following configuration. According to the present technology having the following configuration, the measurement accuracy in the distance measuring operation can be improved.
  • a light emitting portion capable of emitting light and having a light emitting surface facing the first direction
  • a light receiver that is juxtaposed in a second direction intersecting the first direction, has a first light receiving pixel and a second light receiving pixel capable of detecting light, and the light receiving surface faces the first direction.
  • Department and A light guide member that guides a part of the light emitted from the light emitting unit toward the first light receiving pixel, and A cover member arranged in the first direction of the light receiving portion is provided.
  • the light receiving portion or the cover member A first light-shielding wall provided at a position corresponding to a boundary between the first light-receiving pixel and the second light-receiving pixel,
  • An optical module having a second light-shielding wall that is provided on a side opposite to the side on which the first light-shielding wall is provided and is lower than the first light-shielding wall with reference to the first light-receiving pixel.
  • the end portion of the first light-shielding wall in the first direction is located in the first direction with respect to the end portion of the second light-shielding wall in the first direction. Described optical module.
  • the light receiving unit has the first light-shielding wall and the second light-shielding wall.
  • the first light receiving pixel and the second light receiving pixel each have a light receiving element formed on a semiconductor substrate.
  • the first light receiving pixel is further provided between the light receiving element of the first light receiving pixel and the cover member, and the second light receiving pixel is located from the position of the light receiving element of the first light receiving pixel.
  • the optical module according to (3) above which has a first lens arranged at a position deviated from the direction of.
  • the light receiving unit further has a third light receiving pixel capable of detecting light.
  • the first light receiving pixel, the second light receiving pixel, and the third light receiving pixel are arranged in this order in the second direction.
  • the third light receiving pixel has a light receiving element formed on the semiconductor substrate, and has a light receiving element.
  • the light receiving portion is provided at a position corresponding to the boundary between the second light receiving pixel and the third light receiving pixel on the semiconductor substrate, and further has a third light blocking wall lower than the first light blocking wall.
  • the light receiving unit has the first light-shielding wall and the second light-shielding wall.
  • the first light receiving pixel and the second light receiving pixel each have a light receiving element formed on a semiconductor substrate.
  • the light receiving unit includes a third light receiving pixel capable of detecting light.
  • the first light receiving pixel, the second light receiving pixel, and the third light receiving pixel are arranged in this order in the second direction.
  • the third light receiving pixel has a light receiving element formed on the semiconductor substrate, and has a light receiving element.
  • the light receiving portion is provided at a position corresponding to the boundary between the second light receiving pixel and the third light receiving pixel in the insulating film, and further has a third light blocking wall lower than the first light blocking wall.
  • the light receiving unit includes a third light receiving pixel capable of detecting light.
  • the first light receiving pixel, the second light receiving pixel, and the third light receiving pixel are arranged in this order in the second direction.
  • the cover member is further provided at a position corresponding to the boundary between the second light receiving pixel and the third light receiving pixel, and has a third light blocking wall lower than the first light blocking wall (8).
  • the light receiving unit further A first lens provided between the first light receiving pixel and the cover member,
  • a light emitting portion capable of emitting light and having a light emitting surface facing the first direction
  • a light receiver that is juxtaposed in a second direction intersecting the first direction has a first light receiving pixel and a second light receiving pixel capable of detecting light, and the light receiving surface faces the first direction.
  • a light guide member that guides a part of the light emitted from the light emitting unit toward the first light receiving pixel, and A cover member arranged in the first direction of the light receiving portion and A processing unit capable of measuring the distance to the measurement target in the first direction based on the detection result of the first light receiving pixel and the detection result of the second light receiving pixel is provided.
  • the light receiving portion or the cover member A first light-shielding wall provided at a position corresponding to a boundary between the first light-receiving pixel and the second light-receiving pixel, A distance measuring device having a second light-shielding wall which is provided on the side opposite to the side where the first light-shielding wall is provided and which is lower than the first light-shielding wall with the first light-receiving pixel as a reference.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本開示の光モジュールは、光を射出可能であり、発光面が第1の方向に向いている発光部と、第1の方向と交差する第2の方向に並設され、光を検出可能な第1の受光画素および第2の受光画素を有し、受光面が第1の方向を向いている受光部と、発光部から射出された光の一部を第1の受光画素に向かって導く導光部材と、受光部の第1の方向に配置されたカバー部材とを備える。受光部またはカバー部材は、第1の受光画素および第2の受光画素の境界に対応する位置に設けられた第1の遮光壁と、第1の受光画素を基準として、第1の遮光壁が設けられた側とは反対側に設けられ、第1の遮光壁よりも低い第2の遮光壁とを有する。

Description

光モジュールおよび測距装置
 本開示は、計測対象物までの距離を計測する際に用いられる光モジュール、および計測対象物までの距離を計測する測距装置に関する。
 計測対象物までの距離を計測する際、しばしば、TOF(Time Of Flight)法が用いられる。このTOF法では、光を射出するとともに、計測対象物により反射された反射光を検出する。そして、TOF法では、光を射出したタイミングおよび反射光を検出したタイミングの間の時間差を計測することにより、計測対象物までの距離を計測する。例えば、特許文献1,2には、計測対象物により反射された反射光を検出する受光素子とは別に、モジュールの内部で反射された反射光を検出する受光素子を設ける技術が開示されている。
国際公開第2015/136099号 国際公開第2015/136100号
 測距装置では、計測された距離の精度が高いことが望まれており、さらなる計測精度の向上が期待されている。
 測距動作における計測精度を高めることができる光モジュールおよび測距装置を提供することが望ましい。
 本開示の一実施の形態における光モジュールは、発光部と、受光部と、導光部材と、カバー部材とを備えている。発光部は、光を射出可能であり、発光面が第1の方向に向いているものである。受光部は、第1の方向と交差する第2の方向に並設され、光を検出可能な第1の受光画素および第2の受光画素を有し、受光面が第1の方向を向いているものである。導光部材は、発光部から射出された光の一部を第1の受光素子に向かって導くものである。カバー部材は、受光部の第1の方向に配置されたものである。受光部またはカバー部材は、第1の受光画素および第2の受光画素の境界に対応する位置に設けられた第1の遮光壁と、第1の受光画素を基準として、第1の遮光壁が設けられた側とは反対側に設けられ、第1の遮光壁よりも低い第2の遮光壁とを有するものである。
 本開示の一実施の形態における測距装置は、発光部と、受光部と、導光部材と、カバー部材と、処理部とを備えている。発光部は、光を射出可能であり、発光面が第1の方向に向いているものである。受光部は、第1の方向と交差する第2の方向に並設され、光を検出可能な第1の受光画素および第2の受光画素を有し、受光面が第1の方向を向いているものである。導光部材は、発光部から射出された光の一部を第1の受光素子に向かって導くものである。カバー部材は、受光部の第1の方向に配置されたものである。処理部は、第1の受光画素の検出結果および第2の受光画素の検出結果に基づいて、第1の方向における計測対象物までの距離を計測可能なものである。受光部またはカバー部材は、第1の受光画素および第2の受光画素の境界に対応する位置に設けられた第1の遮光壁と、第1の受光画素を基準として、第1の遮光壁が設けられた側とは反対側に設けられ、第1の遮光壁よりも低い第2の遮光壁とを有するものである。
 本開示の一実施の形態における光モジュールおよび測距装置では、発光部の発光面から光が射出され、その光の一部が導光部材により第1の受光素子に向かって導かれ、導かれた光が第1の受光画素により検出される。また、光が第2の受光画素により検出される。受光部またはカバー部材には、第1の受光画素および第2の受光画素の境界に対応する位置に第1の遮光壁が設けられ、第1の受光素子を基準として、第1の受光画素を基準として、第1の遮光壁が設けられた側とは反対側に設けられ、第1の遮光壁よりも低い第2の遮光壁が設けられる。
本開示の一実施の形態に係る測距装置の一構成例を表すブロック図である。 図1に示した発光部および受光部の一構成例を表す説明図である。 第1の実施の形態に係る受光部の概略断面構造を表す断面図である。 図1に示した測距装置の一動作例を表すタイミング波形図である。 図3に示した受光部の一動作例を表す説明図である。 変形例に係る測距装置の一構成例を表すブロック図である。 他の変形例に係る受光部の一構成例を表す説明図である。 他の変形例に係る測距装置の一特性例を表す説明図である。 他の変形例に係る測距装置の一動作例を表すタイミング波形図である。 他の変形例に係る測距装置の一特性例を表す説明図である。 第2の実施の形態に係る受光部の概略断面構造を表す断面図である。 図11に示した受光部の一動作例を表す説明図である。 第3の実施の形態に係る受光部の概略断面構造を表す断面図である。 図13に示した受光部の一動作例を表す説明図である。 第4の実施の形態に係る受光部の概略断面構造を表す断面図である。 図15に示した受光部の一動作例を表す説明図である。 第5の実施の形態に係る受光部の概略断面構造を表す断面図である。 図15に示した受光部の一動作例を表す説明図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.第5の実施の形態
6.移動体への応用例
<1.第1の実施の形態>
[構成例]
 図1は、一実施の形態に係る測距装置(測距装置1)の一構成例を表すものである。測距装置1は、計測対象物100に向かって光L1を射出するとともに、計測対象物100により反射された光L2を検出し、その検出結果に基づいて、光の飛行時間を計測することにより、計測対象物100までの距離を計測するように構成される。測距装置1は、ダイレクト方式により計測対象物100までの距離を計測するように構成される。測距装置1は、発光部11と、反射体12と、受光部13と、処理部15とを備えている。発光部11、反射体12、および受光部13は、光モジュールMを構成する。
 発光部11は、処理部15からの指示に基づいて、発光面S0からパルス光である光L0を射出するように構成される。発光部11は、例えば赤外光を射出する光源を有する。この光源は、レーザ光源やLED(Light Emitting Diode)などを用いて構成される。
 反射体12は、発光部11から射出された光L0の一部を透過するとともに、光L0の一部を反射するように構成される。反射体12は、例えば、ハーフミラーを用いて構成される。反射体12を透過した光(光L1)は、計測対象物100に向かって進行し、計測対象物100により反射される。また、反射体12により反射された光(光L1R)は、受光部13に向かって進行する。
 受光部13は、反射体12により反射された光L1R、および計測対象物100により反射された光L2を検出するように構成される。
 図2は、発光部11および受光部13の一構成例を表すものである。この例では、発光部11および受光部13は、XY面に配置され、X方向に並設される。発光部11の発光面S0および受光部13の受光面S2は、Z方向を向くように配置される。
 受光部13は、画素アレイAを有している。画素アレイAは、マトリクス状に配置された複数の画素Pを有している。画素Pは、受光素子PDを含んで構成される。受光素子PDは、例えばアバランシェフォトダイオード(APD;Avalanche Photodiode)や、シングルフォトンアバランシェダイオード(SPAD;Single Photon Avalanche Diode)などのフォトダイオードを用いることができる。
 画素アレイAは、2つの領域A1,A2に区分される。領域A1は、2つの領域A1,A2のうちの、発光部11に近い領域である。この例では、領域A1には、1列分の画素Pが設けられている。領域A1における画素Pは、反射体12により反射された光L1Rを検出する。領域A2における画素Pは、計測対象物100により反射された光L2を検出するようになっている。
 なお、この例では、受光部13に複数の画素Pを設けたが、さらに、例えば、これらの領域A1,A2の外側に、光が入射しないように遮光された遮光画素を設けてもよい。このような遮光画素を設けることにより、測距装置1では、例えば受光素子PDに流れるいわゆる暗電流を測定することができるようになっている。
 図3は、図2に示した受光部13のIII-III矢視方向の概略断面構造を表すものである。測距装置1は、カバー部材14を備えている。カバー部材14は、受光部13を、埃や外部雰囲気から保護するように構成される。カバー部材14は、図示しない保持部により保持されることにより、受光部13の受光面S2と離間して配置される。カバー部材14は、透過性を有する材料を用いて構成される。具体的には、カバー部材14は、ガラスやプラスチックを用いて構成される。
 受光部13は、半導体基板13Aと、酸化膜13Bとを有している。
 半導体基板13Aは、複数の受光素子PDと、遮光壁W1,W2とを有している。複数の受光素子PDは、受光素子PD1,PD2を含む。受光素子PD1,PD2は、X方向に隣り合うように配置される。受光素子PD1は、領域A1における画素P1の受光素子PDであり、反射体12により反射された光L1Rを検出する。受光素子PD2は、領域A2における、画素P1に隣り合う画素P2の受光素子PDであり、計測対象物100により反射された光L2を検出する。遮光壁W1,W2は、Z方向に立設し、光を遮るとともに光を反射するように構成される。遮光壁W1は、画素P1および画素P2の境界に対応する位置に設けられる。遮光壁W1は、この例では、図2において、領域A1および領域A2の境界に沿って、Y方向に並設された複数の画素Pにわたって形成される。遮光壁W2は、XY面において、画素P1を基準として、遮光壁W1が設けられた側とは反対側に設けられる。遮光壁W2は、この例では、図2において、領域A1の左辺に沿って、Y方向に並設された複数の画素Pにわたって形成される。遮光壁W1は、遮光壁W2よりも高く形成される。遮光壁W1は、この例では半導体基板13Aの裏面から表面までの高さを有し、半導体基板13Aを貫通している。遮光壁W2は、半導体基板13Aの裏面から基板内のある位置までの高さを有する。すなわち、遮光壁W1,W2は、遮光壁W1のZ方向における端部(図3における上端部)が、遮光壁W2のZ方向における端部(上端部)よりもカバー部材14に近くなるように構成される。遮光壁W1,W2は、例えば、半導体基板13Aにトレンチを形成し、その後にタングステンなどの金属を蒸着することにより形成することができる。なお、これに限定されるものではなく、例えば、半導体基板13Aとトレンチとの界面において光が全反射できる様々な構成を用いることができる。例えば、金属がなくても界面の両側における屈折率が全反射条件を満たす場合には、金属を蒸着しなくてもよい。
 酸化膜13Bは、半導体基板13Aの表面に形成された酸化ケイ素(SiO2)の膜である。酸化膜13Bは、複数のレンズOCLを有している。レンズOCLは、入射した光を集光するように構成される。複数のレンズOCLは、受光部13の領域A2における受光素子PDにそれぞれ対応するように設けられる。領域A2において、受光素子PDの位置と、その受光素子PDに対応するレンズOCLの位置は、領域A2を囲む辺(外周辺)に近いほど互いにずれている。例えば、図3に示したように、受光素子PD2に対応するレンズOCLの位置は、受光素子PD2の位置よりも領域A2の中心に向かってずれている。また、受光素子PD2よりも領域A2の中心に近い受光素子PD(例えば受光素子PD3)とその受光素子PD3に対応するレンズOCLとの位置のずれ量は、受光素子PD2とその受光素子PD2に対応するレンズOCLとの位置のずれ量よりも小さくなっている。このようにレンズOCLの位置を受光素子PDの位置からずらすことにより、焦点を経由して斜めに入射する光を適切に受光素子PDに導くことができる。測距装置1は、このようにして、CRA(Chief Ray Angle)補正を行うようになっている。
 処理部15(図1)は、発光部11が光L0を射出するように制御するとともに、受光部13の領域A2における各画素Pでの検出結果に基づいて、光の飛行時間を計測することにより、画素P単位で計測対象物100までの距離を計測するように構成される。具体的には、処理部15は、例えば領域A1における画素Pが光L1Rを受光したタイミングから、領域A2における画素Pが光L2を受光したタイミングまでの時間を計測することにより、領域A2における画素P単位で計測対象物100までの距離を計測するようになっている。
 測距装置1において、発光部11から射出した光が計測対象物100により反射され、反射された光が受光部13により検出されるまでの光学経路上には、光拡散部材、バンドパスフィルタなどの光学フィルタ、レンズ、あるいはその他の光学部材を必要に応じて適宜設けてもよい。同様に、発光部11から射出した光が反射体12により反射され、反射された光が受光部13により検出されるまでの光学経路上には、光拡散部材、バンドパスフィルタなどの光学フィルタ、レンズ、あるいはその他の光学部材を必要に応じて適宜設けてもよい。
 ここで、反射体12は、本開示における「導光部材」の一具体例に対応する。画素P1は、本開示における「第1の受光画素」の一具体例に対応する。画素P2は、本開示における「第2の受光画素」の一具体例に対応する。遮光壁W1は、本開示における「第1の遮光壁」の一具体例に対応する。遮光壁W2は、本開示における「第2の遮光壁」の一具体例に対応する。
[動作および作用]
 続いて、本実施の形態の測距装置1の動作および作用について説明する。
(全体動作概要)
 まず、図1を参照して、測距装置1の全体動作概要を説明する。発光部11は、処理部15からの指示に基づいて光L0を射出する。反射体12は、発光部11から射出された光L0の一部を透過するとともに、一部を反射する。反射体12を透過した光L1は、計測対象物100に向かって進行し、計測対象物100により反射される。また、反射体12により反射された光L1Rは、受光部13の領域A1における各画素Pに向かって進行する。計測対象物100により反射された光L2は、受光部13の領域A2における各画素Pに向かって進行する。受光部13の領域A1における各画素Pは光L1Rを検出し、受光部13の領域A2における各画素Pは光L2を検出する。処理部15は、受光部13の領域A2における各画素Pでの検出結果に基づいて、光の飛行時間を計測することにより、画素P単位で計測対象物100までの距離を計測する。
(詳細動作)
 図4は、測距装置1における測距動作の一例を表すものである。測距装置1は、いわゆるダイレクト方式により、計測対象物100までの距離を計測する。図4(A)は、発光部11から射出された光L0の波形を示し、図4(B)は、受光部13が検出する光L2の波形を示す。
 測距動作では、発光部11は、処理部15からの指示に基づいてパルス波形を有する光L0を射出する(図4(A))。この光L0は反射体12に入射し、この反射体12を透過した光L1が、計測対象物100に向かって進行する。そして、この光L1が計測対象物100により反射され、反射された光L2は、受光部13に向かって進行する。そして、この受光部13の領域A2における画素Pが、この光L2を検出する(図4(B))。受光部13により検出された光L2は、図4(A)に示した光L0の波形を、遅延時間DLだけ遅延した波形を有する。この遅延時間DLは、光が、発光部11、反射体12、計測対象物100、受光部13の順に進行する時間であり、光の飛行時間に対応する。この光の飛行時間は、測距装置1と計測対象物100との間の距離に対応している。
 一方、反射体12により反射された光L1Rは、受光部13に向かって進行する。受光部13の領域A1における画素Pは、この光L1Rを検出する(図4(B))。領域A1における画素Pにより検出された光L1Rの波形は、例えば、図4(A)に示した光L0の波形とほぼ同様である。処理部15は、領域A1における画素Pが光L1Rを受光したタイミングから領域A2における画素Pが光L2を受光したタイミングまでの時間を計測する。これにより、測距装置1では、発光部11、受光部13、および処理部15における回路遅延の影響を取り除くことができ、光の飛行時間をより正確に計測することができる。このようにして、測距装置1は、計測対象物100までの距離を計測することができる。
 図5は、受光部13における光の検出動作の一例を表すものである。この例では、反射体12により反射された光L1R、および計測対象物100により反射された光L2が、受光部13に入射している。なお、図5では、光L1Rおよび光L2を図示しているが、通常は、光L1Rおよび光L2は、互いに異なるタイミングで、受光部13に入射する。
 反射体12により反射された光L1Rは、カバー部材14を介して、受光部13に入射する。領域A1における画素Pの受光素子PD(例えば画素P1の受光素子PD1)は、この光L1Rを検出する。光L1Rは、遮光壁W1により反射されるとともに、遮光壁W2により反射されるので、光L1Rが受光素子PD1から漏れにくくなるため、受光素子PD1は、この光L1Rを効果的に検出することができる。また、光L1Rは、遮光壁W1により遮光されるので、領域A2における画素Pの受光素子PD(例えば画素P2の受光素子PD2)には入射しない。これにより、測距装置1では、測距動作において、領域A2における画素Pの受光素子PDがこの光L1Rを検出するおそれを低減することができるので、計測精度を高めることができる。
 一方、計測対象物100により反射された光L2は、カバー部材14を介して、受光部13に入射する。受光部13におけるレンズOCLは、光L2を集光するとともにCRA補正を行う。これにより、レンズOCLは、焦点を経由して斜めに入射する光を適切に受光素子PDに導く。そして、受光部13の領域A2における、そのレンズOCLに対応する受光素子PD(例えば受光素子PD2)は、この光L2を検出する。
 計測対象物100により反射された光L2は、受光部13の領域A2以外に入射する光(光L21)を含む。この例では、光L21は、領域A1における画素Pの受光素子PD(例えば画素P1の受光素子PD1)付近に入射する。このような光L21は、図4に示したように、受光部13に対して斜めに入射する。測距装置1では、遮光壁W2の高さが低いので、この光L21は、図4に示したように、受光素子PD1の一部を通過するように進行する。すなわち、仮に、遮光壁W2を遮光壁W1と同様に高くした場合には、光L21は遮光壁W2で反射されるので、受光素子PD1がこの光L21を検出してしまう。測距装置1では、遮光壁W2の高さを低くしたので、光L21は、図4に示したように、受光素子PD1の一部を通過する程度ですむので、領域A1における画素Pの受光素子PDがこの光L21を検出するおそれを低減することができる。これにより、測距装置1では、誤って計測を再度開始するおそれを低減することができるので、計測精度を高めることができる。
 このように、測距装置1では、領域A1における画素P1および領域A2における画素P2の境界に対応する位置に遮光壁W1を設けるとともに、XY面において、画素P1を基準として遮光壁W1が設けられた側とは反対側に遮光壁W2を設けるようにした。そして、遮光壁W2の高さを遮光壁W1の高さよりも低くした。これにより、測距装置1では、画素P2の受光素子PD2が、反射体12により反射された光L1Rを検出するおそれを低減することができるとともに、画素P1の受光素子PD1が、光L2に含まれる光L21を検出するおそれを低減することができる。これにより、測距装置1では、計測精度を高めることができる。
[効果]
 以上のように本実施の形態では、領域A1における画素P1および領域A2における画素P2の境界に対応する位置に遮光壁W1を設けるとともに、画素P1を基準として遮光壁W1が設けられた側とは反対側に遮光壁W2を設けるようにした。そして、遮光壁W2の高さを遮光壁W1の高さよりも低くした。これにより、計測精度を高めることができる。
[変形例1-1]
 上記実施の形態では、図1に示したように、ハーフミラーを用いて反射体12Aを構成したが、これに限定されるものではなく、ミラー、光ファイバ、レンズなどを用いてもよい。図6は、ミラーを用いて反射体を構成した場合の測距装置1Aの一構成例を表すものである。この測距装置1Aは、発光部11Aと、反射体12Aとを備えている。発光部11Aは、処理部15からの指示に基づいて、発光面S0からパルス光である光L0を射出するように構成される。発光部11Aは、例えば複数の光源を有する。反射体12Aは、発光部11Aの複数の光源のうちの一部の光源が射出した光L0を反射するように構成される。反射体12Aは、例えばリフレクタを用いて構成される。ここで、反射体12Aは、本開示における「導光部材」の一具体例に対応する。反射体12Aにより反射された光L1Rは、受光部13に向かって進行する。発光部11Aから射出した光L0のうち、反射体12Aに入射しない光は、光L1として、計測対象物100に向かって進行する。
[変形例1-2]
 上記実施の形態では、図2に示したように、領域A1に1列分の画素Pを設けたが、これに限定されるものではない。これに代えて、例えば、領域A1に、複数列分の画素Pを設けてもよい。また、例えば、図7に示す受光部93のように、領域A1に1列分の画素Pよりも少ない画素Pを設けてもよい。この例では、領域A1には、3つの画素Pが設けられている。領域A1における画素Pは、反射体12により反射された光L1Rを検出する。領域A2における画素Pは、計測対象物100により反射された光L2を検出する。
[変形例1-3]
 上記実施の形態では、処理部15は、領域A1における画素Pが光L1Rを受光したタイミングから領域A2における画素Pが光L2を受光したタイミングまでの時間を計測するようにしたが、これに限定されるものではない。例えば、受光部13の領域A1における各画素Pでの検出結果に基づいて、あらかじめ補正値テーブルTBLを生成しておき、測距動作において、領域A2における各画素Pでの検出結果に基づいて計測された距離を、この補正値テーブルTBLを用いて較正するようにしてもよい。以下に、本変形例に係る測距装置1Cについて詳細に説明する。
 測距装置1Cは、上記実施の形態の場合(図1)と同様に、処理部15Cを有している。処理部15Cは、発光部11が光L0を射出するように制御するとともに、受光部13の領域A2における各画素Pでの検出結果に基づいて、光の飛行時間を計測することにより、画素P単位で計測対象物100までの距離を計測するように構成される。この例では、処理部15Cは、発光部11に光L0を射出するように指示したタイミングから領域A2における画素Pが光L2を受光したタイミングまでの時間を計測することにより、計測対象物100までの距離(計測距離DM)を計測する。そして、処理部15Cは、受光部13の領域A1における各画素Pでの検出結果に基づいてあらかじめ生成された補正値テーブルTBLを用いて、計測された計測対象物100までの距離を画素P単位で較正するようになっている。
 上記実施の形態の場合(図4)と同様に、処理部15Cは、遅延時間DLに基づいて、計測対象物100までの距離を計測する。このようにして得られた較正前の距離(計測距離DM)は、実際の距離(実距離DR)からずれるおそれがある。このずれは、例えば、発光部11、受光部13、処理部15Cにおける回路遅延などに起因する。
 図8は、測距装置1による計測距離DMと実距離DRのずれの一例を表すものである。図8において、横軸は実距離DRを示し、縦軸は較正前の距離である計測距離DMを示す。計測距離DMと実距離DRの間にずれがない理想的な場合、実距離DRおよび計測距離DMの関係は、傾きが“a1”(a1=1)であり、切片が“0”である直線LN1で表される。しかしながら、実際には、実距離DRおよび計測距離DMの関係は、しばしば、直線LN2で示したようになる。この直線LN2の傾きは“a2”であり、切片は“b”である。すなわち、直線LN2の傾きおよび切片は、直線LN1の傾きおよび切片と互いに異なっている。
 測距装置1Cでは、あらかじめ、補正値テーブル生成動作を行うことにより、補正値テーブルTBLを生成する。補正値テーブルTBLは、計測距離DMを実距離DRに変換する補正値についての情報を含んでいる。この補正値テーブル生成動作では、発光部11は、処理部15Cからの指示に基づいて光L0を射出し、受光部13の領域A1における画素Pが、反射体12により反射された光L1Rを検出する。そして、この検出結果に基づいて、処理部15Cは、補正値テーブルTBLを生成する。測距装置1Cは、このような補正値テーブル生成動作を、測距動作を行う期間以外の期間に、いつでも行うことができる。
 具体的には、この補正値テーブル生成動作において、処理部15Cは、ある基準タイミングを基準として、発光部11における光L0の射出タイミングを様々なタイミングに設定しつつ、受光部13の領域A1における画素Pでの受光タイミングを検出する。光L0の射出タイミングは、実距離DRを模擬して設定される。すなわち、基準タイミングと射出タイミングとの時間差は、模擬された実距離DRを光が往復する時間である。処理部15は、受光タイミングと光の速度に基づいて、計測距離DMを得る。そして、処理部15Cは、計測距離DM、および模擬された実距離DRの差分を算出することにより、補正値を算出する。処理部15Cは、射出タイミングを様々なタイミングに設定しつつ、この補正値を算出し、この補正値を計測距離DMと対応づけることにより、補正値テーブルTBLを生成する。
 そして、測距動作では、発光部11は、処理部15Cからの指示に基づいて光L0を射出し、受光部13の領域A2における画素Pが、計測対象物100により反射された光L2を検出する。そして、処理部15Cは、受光部13の領域A2における各画素Pでの検出結果に基づいて、光の飛行時間を計測することにより、画素P単位で計測対象物100までの距離を計測する。そして、処理部15Cは、補正値テーブル生成動作により生成した補正値テーブルTBLを用いて、計測された計測対象物100までの距離を、その距離に対応する補正値で補正することにより、計測された距離を較正する。このようにして、処理部15Cは、補正値テーブルTBLを用いて、計測された計測対象物100までの距離を、画素P単位で較正することができる。
[変形例1-4]
 上記実施の形態では、ダイレクト方式により計測対象物100までの距離を計測するようにしたが、これに限定されるものではなく、これに代えて、例えば、インダイレクト方式により計測対象物100までの距離を計測してもよい。本変形例に係る測距装置1Dは、上記実施の形態の場合(図1)と同様に、受光部13Dと、処理部15Dとを有している。
 受光部13Dは、反射体12により反射された光L1R、および計測対象物100により反射された光L2を検出するように構成される。
 処理部15Dは、発光部11が光L0を射出するように制御するとともに、受光部13Dの領域A2における各画素Pでの検出結果に基づいて、光の飛行時間を計測することにより、画素P単位で計測対象物100までの距離を計測するように構成される。この例では、処理部15Dは、発光部11に光L0を射出するように指示したタイミングから領域A2における画素Pが光L2を受光したタイミングまでの時間を計測することにより、計測対象物100までの距離(計測距離DM)を計測する。そして、処理部15Dは、受光部13Dの領域A1における各画素Pでの検出結果に基づいてあらかじめ生成された補正値テーブルTBLを用いて、計測された計測対象物100までの距離を画素P単位で較正するようになっている。
 図9は、本変形例に係る測距装置1Dにおける測距動作の一例を表すものであり、(A)は、発光部11から射出される光L0の波形を示し、図9(B)は、受光部13Dが検出する光L2の波形を示す。
 測距動作では、発光部11は、処理部15Dからの指示に基づいて、デューティ比が50%であるパルス波形を有する光L0を射出する(図9(A))。この光L0は反射体12に入射し、この反射体12を透過した光L1が、計測対象物100に向かって進行する。そして、この光L1が計測対象物100により反射され、反射された光L2は、受光部13Dに向かって進行する。そして、この受光部13Dの領域A2における画素Pが、この光L2を検出する(図9(B))。受光部13Dにより検出された光L2は、図9(A)に示した光L0の波形を遅延時間DLだけ遅延した波形を有する。処理部15Dは、この遅延時間DLに基づいて、計測対象物100までの距離を計測し、あらかじめ生成された補正値テーブルTBLを用いて、計測された計測対象物100までの距離を較正する。
 インダイレクト方式では、画素Pは、発光部11が光を出射する期間T1において、受光素子PDの受光量に応じた信号電荷Q1を蓄積するとともに、発光部11が光を出射しない期間T2において、受光素子PDの受光量に応じた信号電荷Q2を蓄積する。そして、処理部15Dは、信号電荷Q1と信号電荷Q2との電荷比を求める。受光素子PDは、期間TA,TBにおいて光L2を受光しているので、信号電荷Q1の電荷量は、期間TAの長さに比例し、信号電荷Q2の電荷量は、期間TBの長さに比例する。遅延時間DLが短い場合には、信号電荷Q1が多くなるとともに信号電荷Q2が少なくなり、遅延時間DLが長い場合には、信号電荷Q1が少なくなるとともに信号電荷Q2が多くなる。このように、信号電荷Q1と信号電荷Q2の電荷比は、遅延時間DLに応じて変化する。処理部15Dは、この電荷比を求めることにより、例えば高い精度で遅延時間DLを求めることができる。処理部15Dは、このようにして得られた遅延時間DLに基づいて、計測対象物100までの距離を計測する。
 この場合にも、較正前の距離(計測距離DM)は、実際の距離(実距離DR)からずれるおそれがある。このずれは、例えば、発光部11、受光部13D、処理部15Dにおける回路遅延、受光部13Dにおける各画素Pの回路構成、光L0の波形形状などに起因する。
 図10は、測距装置1Dによる計測距離DMと実距離DRのずれの一例を表すものである。計測距離DMと実距離DRの間にずれがない理想的な場合、実距離DRおよび計測距離DMの関係は、傾きが“a1”(a1=1)であり、切片が“0”である直線LN1で表される。しかしながら、実際には、実距離DRおよび計測距離DMの関係は、しばしば、曲線LN3で示したようになる。この曲線LN3は、うねり成分cを有する。この曲線LN3からうねり成分cを除去した直線LN4の傾きは“a2”であり、切片は“b”である。すなわち、直線LN4の傾きおよび切片は、直線LN1の傾きおよび切片と互いに異なっている。
 測距装置1Dでは、変形例1-3に係る測距装置1Cと同様に、あらかじめ、補正値テーブル生成動作を行うことにより、補正値テーブルTBLを生成する。そして、測距動作では、発光部11は、処理部15Dからの指示に基づいて光L0を射出し、受光部13Dの領域A2における画素Pが、計測対象物100により反射された光L2を検出する。そして、処理部15Dは、受光部13Dの領域A2における各画素Pでの検出結果に基づいて、光の飛行時間を計測することにより、画素P単位で計測対象物100までの距離を計測する。そして、処理部15Dは、補正値テーブル生成動作により生成した補正値テーブルTBLを用いて、計測された計測対象物100までの距離を、画素P単位で較正する。
 このように、測距装置1Dでは、インダイレクト方式により計測対象物100までの距離を計測するようにしたので、例えば高い精度で、計測対象物100までの距離を計測することができる。
[その他の変形例]
 また、これらの変形例のうちの2以上を組み合わせてもよい。
<2.第2の実施の形態>
 次に、第2の実施の形態に係る測距装置2について説明する。本実施の形態は、受光部の半導体基板に、より多くの遮光壁Wを設けたものである。なお、上記第1の実施の形態に係る測距装置1と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図1に示したように、測距装置2は、受光部23を備えている。受光部23は、上記第1の実施の形態に係る受光部13と同様に、反射体12により反射された光L1R、および計測対象物100により反射された光L2を検出するように構成される。
 図11は、受光部23の概略断面構造を表すものである。受光部23は、酸化膜23Bと、半導体基板23Aとを有している。
 酸化膜23Bは、上記第1の実施の形態に係る酸化膜13B(図3)から、複数のレンズOCLを省いたものである。
 半導体基板23Aは、複数の受光素子PDと、複数の遮光壁Wとを有している。複数の受光素子PDは、受光素子PD1,PD2,PD3,PD4を含む。受光素子PD1,PD2,PD3,PD4は、X方向においてこの順に配置される。受光素子PD1は、領域A1に設けられた画素P1の受光素子PDであり、反射体12により反射された光L1Rを検出する。受光素子PD2~PD4は、領域A2に設けられた画素P2~P4の受光素子PDであり、計測対象物100により反射された光L2を検出する。複数の遮光壁Wは、領域A1の左辺、領域A2の外周辺、領域A2内の各画素Pの境界に設けられる。複数の遮光壁Wは、遮光壁W1,W2,W3,W4を含む。遮光壁W1は、画素P1および画素P2の境界に対応する位置に設けられる。遮光壁W2は、XY面において、画素P1を基準として、遮光壁W1が設けられた側とは反対側に設けられる。遮光壁W3は、画素P2および画素P3の境界に設けられる。遮光壁W4は、画素P3および画素P4の境界に設けられる。領域A2において、遮光壁Wは、領域A2の中心に近づくほど低くなるように構成される。具体的に、遮光壁W3の高さは、遮光壁W1の高さよりも低く、遮光壁W4の高さは、遮光壁W3の高さよりも低い。この例では、X方向について説明したが、Y方向においても同様である。このように、測距装置2では、領域A2において、XY面内の場所に応じて高さが異なる遮光壁Wを設け、選択的に光L2を入射させることにより、CRA補正を行う。すなわち、上記第1の実施の形態に係る測距装置1では、レンズOCLを用いてCRA補正を行うようにしたが、本実施の形態に係る測距装置2では、遮光壁Wを用いてCRA補正を行うようにしている。
 ここで、画素P3は、本開示における「第3の受光画素」の一具体例に対応する。遮光壁W3は、本開示における「第3の遮光壁」の一具体例に対応する。
 図12は、受光部23における光の検出動作の一例を表すものである。
 反射体12により反射された光L1Rは、カバー部材14を介して、受光部23に入射する。領域A1における画素Pの受光素子PD(例えば画素P1の受光素子PD1)は、この光L1Rを検出する。上記第1の実施の形態の場合と同様に、光L1Rは、遮光壁W1により反射されるとともに、遮光壁W2により反射されるので、光L1Rが受光素子PD1から漏れにくくなるため、受光素子PD1は、この光L1Rを効果的に検出することができる。また、光L1Rは、遮光壁W1により遮光されるので、領域A2における画素Pの受光素子PD(例えば画素P2の受光素子PD2)には入射しない。これにより、測距装置2では、測距動作において、領域A2における画素Pの受光素子PDがこの光L1Rを検出するおそれを低減することができるので、計測精度を高めることができる。
 一方、計測対象物100により反射された光L2は、カバー部材14を介して、受光部23に入射する。受光部23の領域A2において、各画素Pの境界に対応する位置に設けられた遮光壁Wは、CRA補正を行う。そして、領域A2における画素Pの受光素子PD(例えば画素P2の受光素子PD2)は、この光L2を検出する。これにより、受光素子PD2は、焦点を経由して斜めに入射する光を効果的に検出することができる。その結果、測距装置2では、計測精度を高めることができる。
 計測対象物100により反射された光L2は、受光部23の領域A2以外に入射する光(光L21)を含む。この例では、光L21は、領域A1における画素Pの受光素子PD(例えば画素P1の受光素子PD1)付近に入射する。測距装置2では、遮光壁W2の高さを低くしたので、光L21は、受光素子PD1の一部を通過する程度ですむので、受光素子PD1がこの光L21を検出するおそれを低減することができる。これにより、測距装置2では、計測精度を高めることができる。
 このように、測距装置2では、領域A2内の各画素Pの境界に対応する位置に遮光壁Wを設けるとともに、その遮光壁Wの高さがXY面内の場所に応じて異なるようにした。具体的には、例えば、画素P2および画素P3の境界に対応する位置に設けられた遮光壁W3の高さを、画素P1および画素P2の境界に対応する位置に設けられた遮光壁W1の高さよりも低くした。また、画素P3および画素P4の境界に対応する位置に設けられた遮光壁W4の高さを、画素P2および画素P3の境界に対応する位置に設けられた遮光壁W3の高さよりも低くした。これにより、受光素子PDは、焦点を経由して斜めに入射する光を効果的に検出することができる。その結果、測距装置2では、計測精度を高めることができる。
 以上のように本実施の形態では、領域A2内の各画素の境界に対応する位置に遮光壁を設けるとともに、その遮光壁の高さが場所に応じて異なるようにしたので、計測精度を高めることができる。その他の効果は、上記第1の実施の形態の場合と同様である。
[変形例2]
 上記実施の形態に係る測距装置2に、上記第1の実施の形態の各変形例を適用してもよい。
<3.第3の実施の形態>
 次に、第3の実施の形態に係る測距装置3について説明する。本実施の形態は、受光部の酸化膜に遮光壁を設けたものである。なお、上記第2の実施の形態に係る測距装置2と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図1に示したように、測距装置3は、受光部33を備えている。受光部33は、上記第2の実施の形態に係る受光部23と同様に、反射体12により反射された光L1R、および計測対象物100により反射された光L2を検出するように構成される。
 図13は、受光部33の概略断面構造を表すものである。受光部33は、半導体基板33Aと、酸化膜33Bとを有している。
 半導体基板33Aは、複数の受光素子PDを有している。すなわち、半導体基板33Aは、上記第2の実施の形態に係る半導体基板23A(図11)から、遮光壁Wを省いたものである。複数の受光素子PDは、受光素子PD1,PD2,PD3,PD4を含む。受光素子PD1,PD2,PD3,PD4は、X方向においてこの順に配置される。受光素子PD1は、領域A1に設けられた画素P1の受光素子PDであり、反射体12により反射された光L1Rを検出する。受光素子PD2~PD4は、領域A2に設けられた画素P2~P4の受光素子PDであり、計測対象物100により反射された光L2を検出するようになっている。
 酸化膜33Bは、複数の遮光壁WAを有している。複数の遮光壁WAは、酸化膜33Bにおいて、領域A1の左辺、領域A2の外周辺、および領域A2内の各画素Pの境界に対応する位置に設けられる。複数の遮光壁WAは、酸化膜33Bにおいて、Z方向に立設し、光を遮るとともに光を反射するように構成される。複数の遮光壁WAは、遮光壁WA1,WA2,WA3,WA4を含む。遮光壁WA1は、画素P1および画素P2の境界に対応する位置に設けられる。この遮光壁WA1は、この例では、領域A1および領域A2の境界に沿って、Y方向に並設された複数の画素Pにわたって形成される。遮光壁WA2は、XY面において、画素P1を基準として、遮光壁WA1が設けられた側とは反対側に設けられる。この遮光壁WA2は、この例では、領域A1の左辺に沿って、Y方向に並設された複数の画素Pにわたって形成される。遮光壁WA1は、遮光壁WA2よりも高く形成される。遮光壁WA3は、画素P2および画素P3の境界に対応する位置に設けられる。遮光壁WA4は、画素P3および画素P4の境界に対応する位置に設けられる。領域A2において、遮光壁WAは、領域A2の中心に近づくほど低くなるように構成される。具体的に、遮光壁WA3の高さは、遮光壁WA1の高さよりも低く、遮光壁WA4の高さは、遮光壁WA3の高さよりも低い。この例では、X方向について説明したが、Y方向においても同様である。このように、測距装置3では、酸化膜33Bにおいて、領域A2に、XY面内の場所に応じて高さが異なる遮光壁WAを設け、選択的に光L2を入射させることによりCRA補正を行う。すなわち、上記第2の実施の形態に係る測距装置2では、半導体基板13Aに設けられた遮光壁Wを用いてCRA補正を行うようにしたが、本実施の形態に係る測距装置3では、酸化膜33Bに設けられた遮光壁WAを用いてCRA補正を行うようにしている。
 ここで、酸化膜33Bは、本開示における「絶縁膜」の一具体例に対応する。遮光壁WA1は、本開示における「第1の遮光壁」の一具体例に対応する。遮光壁WA2は、本開示における「第2の遮光壁」の一具体例に対応する。遮光壁WA3は、本開示における「第3の遮光壁」の一具体例に対応する。
 図14は、受光部33における光の検出動作の一例を表すものである。
 反射体12により反射された光L1Rは、カバー部材14を介して、受光部33に入射する。受光部33の酸化膜33Bにおいて、光L1Rは、遮光壁WA1により反射されるとともに、遮光壁WA2により反射される。そして、領域A1における画素Pの受光素子PD(例えば画素P1の受光素子PD1)は、この光L1Rを検出する。これにより、光L1Rが受光素子PD1から漏れにくくなるため、受光素子PD1は、この光L1Rを効果的に検出することができる。また、光L1Rは、遮光壁WA1により遮光されるので、領域A2における画素Pの受光素子PD(例えば画素P2の受光素子PD2)には入射しない。これにより、測距装置3では、測距動作において、領域A2における画素Pの受光素子PDがこの光L1Rを検出するおそれを低減することができるので、計測精度を高めることができる。
 一方、計測対象物100により反射された光L2は、カバー部材14を介して、受光部33に入射する。受光部33の酸化膜33Bにおいて、遮光壁WAはCRA補正を行う。そして、領域A2における画素Pの受光素子PD(例えば画素P2の受光素子PD2)は、この光L2を検出する。これにより、受光素子PD2は、焦点を経由して斜めに入射する光を効果的に検出することができる。その結果、測距装置3では、計測精度を高めることができる。
 計測対象物100により反射された光L2は、受光部33の領域A2以外に入射する光(光L21)を含む。測距装置3では、遮光壁WA2の高さを低くしたので、光L21は、遮光壁WA2により反射されないので、受光素子PD1がこの光L21を検出するおそれを低減することができる。これにより、測距装置3では、計測精度を高めることができる。
 このように、測距装置3では、酸化膜33Bにおいて、領域A2内の各画素Pの境界に対応する位置に遮光壁WAを設けるとともに、その遮光壁WAの高さがXY面内の場所に応じて異なるようにした。具体的には、例えば、画素P2および画素P3の境界に対応する位置に設けられた遮光壁WA3の高さを、画素P1および画素P2の境界に対応する位置に設けられた遮光壁WA1の高さよりも低くした。また、画素P3および画素P4の境界に対応する位置に設けられた遮光壁WA4の高さを、画素P2および画素P3の境界に対応する位置に設けられた遮光壁WA3の高さよりも低くした。これにより、受光素子PDは、焦点を経由して斜めに入射する光を効果的に検出することができる。その結果、測距装置3では、計測精度を高めることができる。
 以上のように本実施の形態では、酸化膜において、領域A2内の各画素の境界に対応する位置に遮光壁を設けるとともに、その遮光壁の高さが場所に応じて異なるようにしたので、計測精度を高めることができる。その他の効果は、上記第1の実施の形態の場合と同様である。
[変形例3]
 上記実施の形態に係る測距装置3に、上記第1の実施の形態の各変形例を適用してもよい。
<4.第4の実施の形態>
 次に、第4の実施の形態に係る測距装置4について説明する。本実施の形態は、カバー部材に遮光壁を設けたものである。なお、上記第3の実施の形態に係る測距装置3と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図1に示したように、測距装置4は、受光部43を備えている。受光部43は、上記第3の実施の形態に係る受光部33と同様に、反射体12により反射された光L1R、および計測対象物100により反射された光L2を検出するように構成される。また、測距装置4は、カバー部材44を備えている。
 図15は、受光部43およびカバー部材44の概略断面構造を表すものである。受光部43は、半導体基板33Aと、酸化膜23Bとを有している。カバー部材44は、複数の遮光壁WBを有している。複数の遮光壁WBは、受光部43の領域A1の左辺に対応する位置、領域A2の外周辺に対応する位置、および領域A2内の各画素Pの境界に対応する位置に設けられる。複数の遮光壁WBは、Z方向に立設し、光を遮るとともに光を反射するように構成される。複数の遮光壁WBは、遮光壁WB1,WB2,WB3,WB4を含む。遮光壁WB1は、画素P1および画素P2の境界に対応する位置に設けられる。この遮光壁WB1は、この例では、領域A1および領域A2の境界に沿って、Y方向に並設された複数の画素Pに対応する領域にわたって形成される。遮光壁WB2は、XY面において、画素P1を基準として、遮光壁WB1が設けられた側とは反対側に設けられる。この遮光壁WB2は、この例では、領域A1の左辺に沿って、Y方向に並設された複数の画素Pに対応する領域にわたって形成される。遮光壁WB1は、遮光壁WB2よりも高く形成される。遮光壁WB3は、画素P2および画素P3の境界に対応する位置に設けられる。遮光壁WB4は、画素P3および画素P4の境界に対応する位置に設けられる。領域A2において、遮光壁WBは、領域A2の中心に近づくほど低くなるように構成される。具体的に、遮光壁WB3の高さは、遮光壁WB1の高さよりも低く、遮光壁WB4の高さは、遮光壁WB3の高さよりも低い。この例では、X方向について説明したが、Y方向においても同様である。このように、測距装置4では、カバー部材44において、領域A2に、XY面内の場所に応じて高さが異なる遮光壁WBを設け、選択的に光L2を入射させることによりCRA補正を行う。すなわち、上記第3の実施の形態に係る測距装置3では、酸化膜33Bに設けられた遮光壁WAを用いてCRA補正を行うようにしたが、本実施の形態に係る測距装置4では、カバー部材44に設けられた遮光壁WBを用いてCRA補正を行うようにしている。
 ここで、遮光壁WB1は、本開示における「第1の遮光壁」の一具体例に対応する。遮光壁WB2は、本開示における「第2の遮光壁」の一具体例に対応する。遮光壁WB3は、本開示における「第3の遮光壁」の一具体例に対応する。
 図16は、受光部43における光の検出動作の一例を表すものである。
 反射体12により反射された光L1Rは、カバー部材44に入射する。カバー部材44において、光L1Rは、遮光壁WB1により反射されるとともに、遮光壁WB2により反射される。そして、領域A1における画素Pの受光素子PD(例えば画素P1の受光素子PD1)は、この光L1Rを検出する。これにより、光L1Rが受光素子PD1から漏れにくくなるため、受光素子PD1は、この光L1Rを効果的に検出することができる。また、光L1Rは、遮光壁WB1により遮光されるので、領域A2における画素Pの受光素子PD(例えば画素P2の受光素子PD2)には入射しにくい。これにより、測距装置4では、測距動作において、領域A2における画素Pの受光素子PDがこの光L1Rを検出するおそれを低減することができるので、計測精度を高めることができる。
 一方、計測対象物100により反射された光L2は、カバー部材44に入射する。カバー部材44において、遮光壁WBはCRA補正を行う。そして、領域A2における画素Pの受光素子PD(例えば画素P2の受光素子PD2)は、この光L2を検出する。これにより、受光素子PD2は、焦点を経由して斜めに入射する光を効果的に検出することができる。その結果、測距装置4では、計測精度を高めることができる。
 計測対象物100により反射された光L2は、受光部43の領域A2以外に入射する光(光L21)を含む。測距装置4では、遮光壁WB2の高さを低くしたので、光L21は、遮光壁WB2により反射されないので、受光素子PD1がこの光L21を検出するおそれを低減することができる。これにより、測距装置4では、計測精度を高めることができる。
 このように、測距装置4では、カバー部材44において、領域A2内の各画素Pの境界に対応する位置に遮光壁WBを設けるとともに、その遮光壁WBの高さがXY面内の場所に応じて異なるようにした。具体的には、例えば、画素P2および画素P3の境界に対応する位置に設けられた遮光壁WB3の高さを、画素P1および画素P2の境界に対応する位置に設けられた遮光壁WB1の高さよりも低くした。また、画素P3および画素P4の境界に対応する位置に設けられた遮光壁WB4の高さを、画素P2および画素P3の境界に対応する位置に設けられた遮光壁WB3の高さよりも低くした。これにより、受光素子PDは、焦点を経由して斜めに入射する光を効果的に検出することができる。その結果、測距装置4では、計測精度を高めることができる。
 以上のように本実施の形態では、カバー部材において、領域A2内の各画素の境界に対応する位置に遮光壁を設けるとともに、その遮光壁の高さが場所に応じて異なるようにしたので、計測精度を高めることができる。その他の効果は、上記第1の実施の形態の場合と同様である。
[変形例4]
 上記実施の形態に係る測距装置4に、上記第1の実施の形態の各変形例を適用してもよい。
<5.第5の実施の形態>
 次に、第5の実施の形態に係る測距装置5について説明する。本実施の形態は、第4の実施の形態に係る測距装置4において、酸化膜にレンズOCLを設けたものである。なお、上記第4の実施の形態に係る測距装置4と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図1に示したように、測距装置5は、受光部53を備えている。受光部53は、上記第4の実施の形態に係る受光部43と同様に、反射体12により反射された光L1R、および計測対象物100により反射された光L2を検出するように構成される。また、測距装置5は、カバー部材44を備えている。
 図17は、受光部53およびカバー部材44の概略断面構造を表すものである。受光部53は、半導体基板33Aと、酸化膜53Bとを有している。
 酸化膜53Bは、半導体基板33Aの表面に形成された酸化ケイ素(SiO2)の膜である。酸化膜53Bは、複数のレンズOCLを有している。複数のレンズOCLは、領域A1,A2における複数の画素P(複数の受光素子PD)にそれぞれ対応するように設けられる。
 図18は、受光部53における光の検出動作の一例を表すものである。
 反射体12により反射された光L1Rは、カバー部材44に入射する。カバー部材44において、光L1Rは、遮光壁WB1により反射されるとともに、遮光壁WB2により反射される。受光部53におけるレンズOCLは、光L1Rを集光する。そして、領域A1における画素Pの受光素子PD(例えば画素P1の受光素子PD1)は、この光L1Rを検出する。これにより、光L1Rが受光素子PD1から漏れにくくなるため、受光素子PD1は、この光L1Rを効果的に検出することができる。また、光L1Rは、遮光壁WB1により遮光されるので、領域A2における画素Pの受光素子PD(例えば画素P2の受光素子PD2)には入射しにくい。これにより、測距装置5では、測距動作において、この光L1Rを検出するおそれを低減することができるので、計測精度を高めることができる。
 一方、計測対象物100により反射された光L2は、カバー部材44に入射する。カバー部材44において、遮光壁WBはCRA補正を行う。受光部53におけるレンズOCLは、光L2を集光する。そして、領域A2における画素Pの受光素子PD(例えば画素P2の受光素子PD2)は、この光L2を検出する。これにより、受光素子PD2は、焦点を経由して斜めに入射する光を効果的に検出することができる。その結果、測距装置5では、計測精度を高めることができる。
 計測対象物100により反射された光L2は、受光部43の領域A2以外に入射する光(光L21)を含む。測距装置5では、遮光壁WB2の高さを低くしたので、光L21は、遮光壁WB2により反射されないので、受光素子PD1がこの光L21を検出するおそれを低減することができる。これにより、測距装置5では、計測精度を高めることができる。
 このように、測距装置5では、カバー部材44において、領域A2内の各画素Pの境界に対応する位置に遮光壁WBを設けるとともに、その遮光壁WBの高さがXY面内の場所に応じて異なるようにした。そして、受光部53の酸化膜53Bに複数のレンズOCLを設けるようにした。これにより、受光素子PDは、焦点を経由して斜めに入射する光を効果的に検出することができる。その結果、測距装置5では、計測精度を高めることができる。
 以上のように本実施の形態では、カバー部材において、領域A2内の各画素の境界に対応する位置に遮光壁を設けるとともに、その遮光壁の高さが場所に応じて異なるようにした。そして、受光部の酸化膜に複数のレンズを設けるようにした。これにより、計測精度を高めることができる。その他の効果は、上記第1の実施の形態の場合と同様である。
[変形例5]
 上記実施の形態に係る測距装置5に、上記第1の実施の形態の各変形例を適用してもよい。
<6.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図19は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図19に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図19の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図20は、撮像部12031の設置位置の例を示す図である。
 図20では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図20には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。これにより、車両制御システム12000では、測距における計測精度を高くすることができるので、車両の衝突回避あるいは衝突緩和機能、車間距離に基づく追従走行機能、車速維持走行機能、車両の衝突警告機能、車両のレーン逸脱警告機能等の精度を高めることができる。
 以上、いくつかの実施の形態および変形例、ならびにそれらの具体的な応用例を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。
 例えば、上記の各実施の形態では、本技術を、計測対象物100までの距離を計測する測距装置に適用したが、これに限定されるものではない。これに代えて、例えば、本技術を、発光部が光L0を射出してから受光部が光L2を検出するまでの光の飛行時間を計測する時間計測装置に適用してもよい。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術は以下のような構成とすることができる。以下の構成の本技術によれば、測距動作における計測精度を高めることができる。
(1)光を射出可能であり、発光面が第1の方向に向いている発光部と、
 前記第1の方向と交差する第2の方向に並設され、光を検出可能な第1の受光画素および第2の受光画素を有し、受光面が前記第1の方向を向いている受光部と、
 前記発光部から射出された光の一部を前記第1の受光画素に向かって導く導光部材と、
 前記受光部の前記第1の方向に配置されたカバー部材と
 を備え、
 前記受光部または前記カバー部材は、
 前記第1の受光画素および前記第2の受光画素の境界に対応する位置に設けられた第1の遮光壁と、
 前記第1の受光画素を基準として、前記第1の遮光壁が設けられた側とは反対側に設けられ、前記第1の遮光壁よりも低い第2の遮光壁と
 を有する
 光モジュール。
(2)前記第1の遮光壁の前記第1の方向の端部は、前記第2の遮光壁の前記第1の方向の端部よりも前記第1の方向に位置する
 前記(1)に記載の光モジュール。
(3)前記受光部は、前記第1の遮光壁および前記第2の遮光壁を有し、
 前記第1の受光画素および前記第2の受光画素は、半導体基板に形成された受光素子をそれぞれ有し、
 前記第1の遮光壁および前記第2の遮光壁は、前記半導体基板に設けられた
 前記(1)または(2)に記載の光モジュール。
(4)前記第1の受光画素は、さらに、前記第1の受光画素の前記受光素子と前記カバー部材との間に設けられ、前記第1の受光画素の前記受光素子の位置から前記第2の方向にずれた位置に配置された第1のレンズを有する
 前記(3)に記載の光モジュール。
(5)前記受光部は、光を検出可能な第3の受光画素をさらに有し、
 前記第1の受光画素、前記第2の受光画素、および前記第3の受光画素は、前記第2の方向においてこの順に配置され、
 前記第3の受光画素は、前記半導体基板に形成された受光素子を有し、
 前記受光部は、前記半導体基板における、前記第2の受光画素および前記第3の受光画素の境界に対応する位置に設けられ、前記第1の遮光壁よりも低い第3の遮光壁をさらに有する
 前記(3)に記載の光モジュール。
(6)前記受光部は、前記第1の遮光壁および前記第2の遮光壁を有し、
 前記第1の受光画素および前記第2の受光画素は、半導体基板に形成された受光素子をそれぞれ有し、
 前記第1の遮光壁および前記第2の遮光壁は、前記半導体基板の上の絶縁膜に設けられた
 前記(1)または(2)に記載の光モジュール。
(7)前記受光部は、光を検出可能な第3の受光画素を含み、
 前記第1の受光画素、前記第2の受光画素、および前記第3の受光画素は、前記第2の方向においてこの順に配置され、
 前記第3の受光画素は、前記半導体基板に形成された受光素子を有し、
 前記受光部は、前記絶縁膜において、前記第2の受光画素および前記第3の受光画素の境界に対応する位置に設けられ、前記第1の遮光壁よりも低い第3の遮光壁をさらに有する
 前記(6)に記載の光モジュール。
(8)前記カバー部材は、前記第1の遮光壁および前記第2の遮光壁を有する
 前記(1)または(2)に記載の光モジュール。
(9)前記受光部は、光を検出可能な第3の受光画素を含み、
 前記第1の受光画素、前記第2の受光画素、および前記第3の受光画素は、前記第2の方向においてこの順に配置され、
 前記カバー部材は、さらに、前記第2の受光画素および前記第3の受光画素の境界に対応する位置に設けられ、前記第1の遮光壁よりも低い第3の遮光壁を有する
 前記(8)に記載の光モジュール。
(10)前記受光部は、さらに、
 前記第1の受光画素と前記カバー部材との間に設けられた第1のレンズと、
 前記第2の受光画素と前記カバー部材との間に設けられた第2のレンズと
 を有する
 前記(8)または(9)に記載の光モジュール。
(11)光を射出可能であり、発光面が第1の方向に向いている発光部と、
 前記第1の方向と交差する第2の方向に並設され、光を検出可能な第1の受光画素および第2の受光画素を有し、受光面が前記第1の方向を向いている受光部と、
 前記発光部から射出された光の一部を前記第1の受光画素に向かって導く導光部材と、
 前記受光部の前記第1の方向に配置されたカバー部材と、
 前記第1の受光画素の検出結果および前記第2の受光画素の検出結果に基づいて、前記第1の方向における計測対象物までの距離を計測可能な処理部と
 を備え、
 前記受光部または前記カバー部材は、
 前記第1の受光画素および前記第2の受光画素の境界に対応する位置に設けられた第1の遮光壁と、
 前記第1の受光画素を基準として、前記第1の遮光壁が設けられた側とは反対側に設けられ、前記第1の遮光壁よりも低い第2の遮光壁と
 を有する
 測距装置。
 本出願は、日本国特許庁において2019年3月18日に出願された日本特許出願番号2019-050070号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (11)

  1.  光を射出可能であり、発光面が第1の方向に向いている発光部と、
     前記第1の方向と交差する第2の方向に並設され、光を検出可能な第1の受光画素および第2の受光画素を有し、受光面が前記第1の方向を向いている受光部と、
     前記発光部から射出された光の一部を前記第1の受光画素に向かって導く導光部材と、
     前記受光部の前記第1の方向に配置されたカバー部材と
     を備え、
     前記受光部または前記カバー部材は、
     前記第1の受光画素および前記第2の受光画素の境界に対応する位置に設けられた第1の遮光壁と、
     前記第1の受光画素を基準として、前記第1の遮光壁が設けられた側とは反対側に設けられ、前記第1の遮光壁よりも低い第2の遮光壁と
     を有する
     光モジュール。
  2.  前記第1の遮光壁の前記第1の方向の端部は、前記第2の遮光壁の前記第1の方向の端部よりも前記第1の方向に位置する
     請求項1に記載の光モジュール。
  3.  前記受光部は、前記第1の遮光壁および前記第2の遮光壁を有し、
     前記第1の受光画素および前記第2の受光画素は、半導体基板に形成された受光素子をそれぞれ有し、
     前記第1の遮光壁および前記第2の遮光壁は、前記半導体基板に設けられた
     請求項1に記載の光モジュール。
  4.  前記第1の受光画素は、さらに、前記第1の受光画素の前記受光素子と前記カバー部材との間に設けられ、前記第1の受光画素の前記受光素子の位置から前記第2の方向にずれた位置に配置された第1のレンズを有する
     請求項3に記載の光モジュール。
  5.  前記受光部は、光を検出可能な第3の受光画素をさらに有し、
     前記第1の受光画素、前記第2の受光画素、および前記第3の受光画素は、前記第2の方向においてこの順に配置され、
     前記第3の受光画素は、前記半導体基板に形成された受光素子を有し、
     前記受光部は、前記半導体基板における、前記第2の受光画素および前記第3の受光画素の境界に対応する位置に設けられ、前記第1の遮光壁よりも低い第3の遮光壁をさらに有する
     請求項3に記載の光モジュール。
  6.  前記受光部は、前記第1の遮光壁および前記第2の遮光壁を有し、
     前記第1の受光画素および前記第2の受光画素は、半導体基板に形成された受光素子をそれぞれ有し、
     前記第1の遮光壁および前記第2の遮光壁は、前記半導体基板の上の絶縁膜に設けられた
     請求項1に記載の光モジュール。
  7.  前記受光部は、光を検出可能な第3の受光画素を含み、
     前記第1の受光画素、前記第2の受光画素、および前記第3の受光画素は、前記第2の方向においてこの順に配置され、
     前記第3の受光画素は、前記半導体基板に形成された受光素子を有し、
     前記受光部は、前記絶縁膜において、前記第2の受光画素および前記第3の受光画素の境界に対応する位置に設けられ、前記第1の遮光壁よりも低い第3の遮光壁をさらに有する
     請求項6に記載の光モジュール。
  8.  前記カバー部材は、前記第1の遮光壁および前記第2の遮光壁を有する
     請求項1に記載の光モジュール。
  9.  前記受光部は、光を検出可能な第3の受光画素を含み、
     前記第1の受光画素、前記第2の受光画素、および前記第3の受光画素は、前記第2の方向においてこの順に配置され、
     前記カバー部材は、さらに、前記第2の受光画素および前記第3の受光画素の境界に対応する位置に設けられ、前記第1の遮光壁よりも低い第3の遮光壁を有する
     請求項8に記載の光モジュール。
  10.  前記受光部は、さらに、
     前記第1の受光画素と前記カバー部材との間に設けられた第1のレンズと、
     前記第2の受光画素と前記カバー部材との間に設けられた第2のレンズと
     を有する
     請求項8に記載の光モジュール。
  11.  光を射出可能であり、発光面が第1の方向に向いている発光部と、
     前記第1の方向と交差する第2の方向に並設され、光を検出可能な第1の受光画素および第2の受光画素を有し、受光面が前記第1の方向を向いている受光部と、
     前記発光部から射出された光の一部を前記第1の受光画素に向かって導く導光部材と、
     前記受光部の前記第1の方向に配置されたカバー部材と、
     前記第1の受光画素の検出結果および前記第2の受光画素の検出結果に基づいて、前記第1の方向における計測対象物までの距離を計測可能な処理部と
     を備え、
     前記受光部または前記カバー部材は、
     前記第1の受光画素および前記第2の受光画素の境界に対応する位置に設けられた第1の遮光壁と、
     前記第1の受光画素を基準として、前記第1の遮光壁が設けられた側とは反対側に設けられ、前記第1の遮光壁よりも低い第2の遮光壁と
     を有する
     測距装置。
PCT/JP2020/005110 2019-03-18 2020-02-10 光モジュールおよび測距装置 WO2020189091A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019050070A JP2020153700A (ja) 2019-03-18 2019-03-18 光モジュールおよび測距装置
JP2019-050070 2019-03-18

Publications (1)

Publication Number Publication Date
WO2020189091A1 true WO2020189091A1 (ja) 2020-09-24

Family

ID=72520757

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/005110 WO2020189091A1 (ja) 2019-03-18 2020-02-10 光モジュールおよび測距装置

Country Status (2)

Country Link
JP (1) JP2020153700A (ja)
WO (1) WO2020189091A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017003391A (ja) * 2015-06-09 2017-01-05 株式会社デンソー レーザレーダシステム
US20170356982A1 (en) * 2016-06-09 2017-12-14 Heptagon Micro Optics Pte. Ltd. Optical ranging systems including optical cross-talk reducing features
WO2018092632A1 (ja) * 2016-11-21 2018-05-24 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、製造方法
WO2018211831A1 (ja) * 2017-05-18 2018-11-22 シャープ株式会社 光検出器および携帯型電子機器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017003391A (ja) * 2015-06-09 2017-01-05 株式会社デンソー レーザレーダシステム
US20170356982A1 (en) * 2016-06-09 2017-12-14 Heptagon Micro Optics Pte. Ltd. Optical ranging systems including optical cross-talk reducing features
WO2018092632A1 (ja) * 2016-11-21 2018-05-24 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、製造方法
WO2018211831A1 (ja) * 2017-05-18 2018-11-22 シャープ株式会社 光検出器および携帯型電子機器

Also Published As

Publication number Publication date
JP2020153700A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
US10137842B2 (en) Camera system for a vehicle
JP7044107B2 (ja) 光センサ、及び、電子機器
WO2020189339A1 (ja) 測距装置および測距方法
WO2021065495A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
CN112612032A (zh) 光检测设备、检测光的方法以及距离测量传感器
US20220381913A1 (en) Distance measurement sensor, signal processing method, and distance measurement module
US20220011411A1 (en) Time measurement device
JP7247201B2 (ja) 車載カメラ、及びこれを用いた駆動制御システム
JP7441796B2 (ja) 光モジュール及び測距装置
WO2020189091A1 (ja) 光モジュールおよび測距装置
WO2020189101A1 (ja) 測距装置
US20240111033A1 (en) Photodetection device and photodetection system
WO2020255855A1 (ja) 測距装置および測距方法
US20230341556A1 (en) Distance measurement sensor, signal processing method, and distance measurement module
US11579369B2 (en) Optical communication connector, optical communication cable, and electronic device
WO2021145261A1 (ja) 受光装置及び電子システム
WO2023218873A1 (ja) 測距装置
WO2023181662A1 (ja) 測距装置および測距方法
WO2024075409A1 (en) Photodetection device
WO2024185288A1 (ja) 光検出装置および測距システム
WO2024190075A1 (ja) カメラシステムおよびアプリケーションプロセッサ
WO2022239459A1 (ja) 測距装置及び測距システム
US20230228875A1 (en) Solid-state imaging element, sensing system, and control method of solid-state imaging element
US20230375800A1 (en) Semiconductor device and optical structure body
US12050268B2 (en) System to measure a distance to an object without addition of a distance measuring sensor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20774278

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20774278

Country of ref document: EP

Kind code of ref document: A1