WO2023067755A1 - 光検出装置、撮像装置および測距装置 - Google Patents

光検出装置、撮像装置および測距装置 Download PDF

Info

Publication number
WO2023067755A1
WO2023067755A1 PCT/JP2021/038918 JP2021038918W WO2023067755A1 WO 2023067755 A1 WO2023067755 A1 WO 2023067755A1 JP 2021038918 W JP2021038918 W JP 2021038918W WO 2023067755 A1 WO2023067755 A1 WO 2023067755A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
section
photoelectric conversion
multiplication
unit
Prior art date
Application number
PCT/JP2021/038918
Other languages
English (en)
French (fr)
Inventor
翔平 島田
睦 岡崎
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to PCT/JP2021/038918 priority Critical patent/WO2023067755A1/ja
Priority to CN202280069289.5A priority patent/CN118103984A/zh
Priority to PCT/JP2022/038476 priority patent/WO2023068210A1/ja
Publication of WO2023067755A1 publication Critical patent/WO2023067755A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures

Definitions

  • the present disclosure relates to a photodetector, an imaging device, and a rangefinder.
  • a photodetector includes a plurality of two-dimensionally arranged pixels.
  • Each pixel includes a photoelectric conversion unit, a plurality of multiplication units connected in parallel to each other and connected in series to the photoelectric conversion unit, and one of the multiplication units that is connected to the photoelectric conversion unit. has a quencher connected to the opposite side.
  • An imaging device includes a plurality of two-dimensionally arranged pixels.
  • Each pixel includes a photoelectric conversion unit, a plurality of multiplication units connected in parallel to each other and connected in series to the photoelectric conversion unit, and one of the multiplication units that is connected to the photoelectric conversion unit. has a quencher connected to the opposite side.
  • a rangefinder includes a photodetector.
  • the photodetector has a plurality of pixels arranged two-dimensionally.
  • Each pixel includes a photoelectric conversion unit, a plurality of multiplication units connected in parallel to each other and connected in series to the photoelectric conversion unit, and one of the multiplication units that is connected to the photoelectric conversion unit. has a quencher connected to the opposite side.
  • each pixel in each pixel, a plurality of A multiplier section is connected in series with the photoelectric conversion section. This reduces the variation in characteristics of each pixel compared to the case where each pixel is provided with a single multiplication section.
  • FIG. 3 is a diagram showing an example of functional blocks of each pixel used in the photodetector according to the first embodiment of the present disclosure
  • FIG. 2 is a diagram showing a vertical cross-sectional configuration example of a pixel in FIG. 1
  • FIG. 3 is a diagram showing a horizontal cross-sectional configuration example of a pixel in FIG. 2
  • FIG. (A) is a diagram showing a cross-sectional configuration example of a light-receiving substrate in a pixel according to Comparative Example A.
  • FIG. 2 is a diagram showing a cross-sectional configuration example of a light-receiving substrate in a pixel according to Comparative Example B; 3 is a diagram showing a cross-sectional configuration example of a light receiving substrate in the pixel of FIG. 2;
  • FIG. FIG. 3 is a diagram showing a modified example of the vertical cross-sectional configuration of the pixel in FIG. 2; 7 is a diagram showing a horizontal cross-sectional configuration example of a pixel in FIG. 6;
  • FIG. FIG. 3 is a diagram showing a modified example of the vertical cross-sectional configuration of the pixel in FIG. 2; 9 is a diagram showing a horizontal cross-sectional configuration example of a pixel in FIG. 8;
  • FIG. 4 is a diagram showing a modification of the horizontal cross-sectional configuration of the pixel in FIG. 3;
  • FIG. 4 is a diagram showing a modification of the horizontal cross-sectional configuration of the pixel in FIG. 3;
  • FIG. 4 is a diagram showing a modification of the horizontal cross-sectional configuration of the pixel in FIG. 3;
  • FIG. 13 is a diagram showing a modified example of contact electrodes connected to the multipliers of FIGS. 3, 7, and 9 to 12; It is a figure showing the example of a schematic structure of the imaging device concerning a 2nd embodiment of this indication.
  • 15 is a diagram showing a schematic configuration example of the solid-state imaging device of FIG. 14;
  • FIG. 16 is a diagram showing a circuit configuration example of a pixel in FIG.
  • FIG. 15 is a block diagram showing an example of a schematic configuration of a vehicle control system
  • FIG. FIG. 4 is an explanatory diagram showing an example of installation positions of an outside information detection unit and an imaging unit;
  • FIG. 1 illustrates a functional block example of each pixel 10 used in a photodetector (hereinafter referred to as “photodetector”) according to the first embodiment of the present disclosure.
  • FIG. 2 shows a cross-sectional configuration example of each pixel 10 .
  • the photodetector includes a plurality of pixels 10 arranged in a matrix (two-dimensionally arranged).
  • Each pixel 10 includes, for example, a light receiving portion 11, a quenching portion 12, and a detecting portion 13, as shown in FIG.
  • the light receiving section 11 generates a pulse signal in response to light incidence.
  • the light receiving section 11 has, for example, a photoelectric conversion section 14 and a plurality of multiplication sections 15 as shown in FIG.
  • the multiple multiplication units 15 are connected in parallel with each other, and are also connected in series with the photoelectric conversion unit 14 .
  • the plurality of multiplication units 15 are formed in a common semiconductor substrate 21A together with the photoelectric conversion units 14. Impurity semiconductor regions (for example, the n-well 22, It is connected to the photoelectric conversion section 14 via the p-type semiconductor region 25).
  • the semiconductor substrate 21A is made of silicon or the like.
  • the interlayer insulating film 21B is a layer formed in contact with the semiconductor substrate 21A, and includes a plurality of patterned wiring layers (for example, the connecting portion 17) and wiring layer-to-wiring layers in the stacked SiO 2 layers. vias (for example, contact electrodes 16) are formed to connect the .
  • a light receiving substrate 21 is composed of the semiconductor substrate 21A and the interlayer insulating film 21B.
  • the light receiving section 11 includes a plurality of avalanche photodiodes (APDs) sharing the photoelectric conversion section 14 .
  • APDs avalanche photodiodes
  • An APD that multiplies a single photon by avalanche phenomenon is called a single photon avalanche diode (SPAD).
  • the light receiving section 11 includes, for example, a plurality of SPADs sharing the photoelectric conversion section 14 .
  • the quenching section 12 is connected to the opposite side of the multiplication section 15 from the side connected to the photoelectric conversion section 14 .
  • the quench portion 12 is connected to the connection portion 17 via connection pads 31 and 32, for example, as shown in FIGS.
  • the quenching section 12 has a function (quenching) of stopping the avalanche phenomenon by lowering the voltage applied to the light receiving section 11 to the breakdown voltage.
  • the quenching section 12 further has a function of allowing the light receiving section 11 to detect photons again by setting the voltage applied to the light receiving section 11 to a bias voltage equal to or higher than the breakdown voltage.
  • Quench unit 12 includes, for example, a MOS transistor.
  • Quenching portion 12 may be, for example, a resistor.
  • One end of the quench section 12 (for example, the source of the MOS transistor) is connected to, for example, a power supply line to which a fixed voltage Ve is applied.
  • the other end of the quenching section 12 (for example, the drain of the MOS transistor) is connected to, for example, one end of the light receiving section 11 (for example, the anode of SAPD).
  • the other end of the light receiving section 11 (for example, the cathode of SAPD) is connected to, for example, a power supply line to which the reference voltage Vspad is applied.
  • the values of the fixed voltage Ve and the reference voltage Vspad are set so that a voltage equal to or higher than the breakdown voltage is applied to the light receiving section 11 .
  • the detector 13 is connected to a connection node N between the multiple multipliers 15 and the quencher 12 .
  • the detector 13 includes, for example, an inverter.
  • the inverter outputs a high-level Hi signal PFout when the voltage Vs of the connection node N is lower than a predetermined threshold voltage (that is, at low level Lo).
  • the inverter outputs a low-level Lo signal PFout when the voltage Vs of the connection node N is equal to or higher than a predetermined threshold voltage (that is, when it is at a high level Hi).
  • the detection unit 13 outputs a digital signal (signal PFout).
  • the detector 13 is formed in the signal processing board 41 .
  • the signal processing substrate 41 is a substrate bonded to the light receiving substrate 21 and includes a semiconductor substrate 42 made of silicon or the like and an interlayer insulating film 43 formed on the semiconductor substrate 42 .
  • a detection portion 13 is formed on the semiconductor substrate 42 .
  • the interlayer insulating film 43 is a layer formed on the semiconductor substrate 42. In the stacked SiO2 layers, a plurality of patterned wiring layers and vias connecting the wiring layers are formed. It is configured.
  • connection pad 31 made of Cu is exposed on the surface of the light receiving substrate 21 .
  • connection pads 32 made of Cu are exposed on the surface of the signal processing substrate 41 .
  • Connection pads 31 and connection pads 32 are bonded to each other.
  • the light receiving substrate 21 and the signal processing substrate 41 are bonded to each other at the surface of the interlayer insulating film 21B and the surface of the interlayer insulating film 43.
  • FIG. 3 shows a planar configuration example of the surface of the semiconductor substrate 21A (the surface on the side of the signal processing substrate 41).
  • FIG. 3 also shows contact electrodes 16 and 18, which will be described later.
  • Each pixel 10 is formed on a semiconductor substrate 21A made of silicon or the like.
  • the back surface of the semiconductor substrate 21A is drawn on the upper side of FIG. 2, and the on-chip lens 29 is attached to the back surface of the semiconductor substrate 21A.
  • Light (incident light) from the outside enters the back surface of the semiconductor substrate 21A through the on-chip lens 29 . Therefore, the back surface of the semiconductor substrate 21A serves as the light receiving surface 21a.
  • the upper surface of the semiconductor substrate 21A is drawn on the lower side of FIG. 2, and the upper surface of the semiconductor substrate 21A is in contact with the interlayer insulating film 21B.
  • Each pixel 10 includes, for example, an n-well 22, a plurality of n-type semiconductor regions 23, a plurality of high-concentration n-type semiconductor regions 24, a p-type semiconductor region 25, a hole accumulation region 26 and a plurality of A high-concentration p-type semiconductor region 27 is included.
  • the n-well 22, the plurality of n-type semiconductor regions 23, the plurality of high-concentration n-type semiconductor regions 24, the p-type semiconductor region 25, the hole accumulation region 26 and the plurality of high-concentration p-type semiconductor regions 27 are formed in the semiconductor substrate 21A. ing.
  • an avalanche multiplication region (multiplication portion 15) is formed by a depletion layer formed in a region where the n-type semiconductor region 23 and the p-type semiconductor region 25 are joined. That is, the multiplier section 15 is formed in the pn junction region where the n-type semiconductor region 23 and the p-type semiconductor region 25 are joined.
  • the n-well 22 is formed by controlling the impurity concentration of the semiconductor substrate 21A to a low n-type (n--), and forms an electric field for transferring electrons generated by photoelectric conversion in the pixel 10 to the multiplier 15. .
  • the n-well 22 functions as the photoelectric conversion section 14 .
  • a photoelectric conversion portion 14 is formed in the n-well 22 .
  • the photoelectric conversion portion 14 is composed of a semiconductor region of a predetermined conductivity type formed in a single region with a predetermined depth in the semiconductor substrate 21A.
  • a p-well may be formed by controlling the impurity concentration of the semiconductor substrate 21A to be p-type.
  • the plurality of n-type semiconductor regions 23 are arranged at positions near the center in the pixel region facing the n-well 22 (photoelectric conversion section 14) when the upper surface of the semiconductor substrate 21A is viewed in plan.
  • Each n-type semiconductor region 23 is a dense n-type semiconductor region formed in the central portion of the pixel 10 from the surface side of the semiconductor substrate 21A to a predetermined depth.
  • the central portion near the surface is controlled to have a high concentration (n+) impurity concentration, and a high-concentration n-type semiconductor region 24 is formed.
  • the high-concentration n-type semiconductor region 24 is a contact portion connected to the contact electrode 16 as a cathode for supplying a negative voltage for forming the multiplier portion 15 .
  • a fixed voltage Ve is applied from the contact electrode 16 to the high concentration n-type semiconductor region 24 .
  • the p-type semiconductor region 25 is a thick p-type semiconductor formed from a depth position in contact with the bottom surface of the n-type semiconductor region 23 in the semiconductor substrate 21A to a predetermined thickness (depth) so as to cover the entire pixel region. area.
  • the semiconductor substrate 21A is drawn so that the bottom surface of the semiconductor substrate 21A is above the plane of the paper, and the surface (upper surface) of the semiconductor substrate 21A is below the plane of the paper.
  • the p-type semiconductor region 25 is a region shallower than the photoelectric conversion section 14 in the semiconductor substrate 21A and formed in contact with the photoelectric conversion section 14 . That is, the multiplication section 15 is formed in a pn junction region which is a region shallower than the photoelectric conversion section 14 and formed in contact with the photoelectric conversion section 14 in the semiconductor substrate 21A. The p-type semiconductor region 25 is in contact with the photoelectric conversion section 14 .
  • the n-well 22 has a low impurity concentration of, for example, 1 ⁇ 10 14 cm ⁇ 3 or less. is preferably controlled to a high concentration of 1 ⁇ 10 16 cm ⁇ 3 or more.
  • the hole accumulation region 26 is a p-type semiconductor region (p) formed so as to surround the side and bottom surfaces of the n-well 22, and accumulates holes generated by photoelectric conversion.
  • the hole accumulation region 26 traps electrons generated at the interface with the pixel isolation portion 28, and has an effect of suppressing DCR (dark count rate).
  • a region near the surface of the semiconductor substrate 21A of the hole accumulation region 26 is controlled to have a high impurity concentration (p+), and serves as a high-concentration p-type semiconductor region 27 .
  • the high-concentration p-type semiconductor region 27 is a contact portion connected to a contact electrode 16 as one end of the light receiving portion 11 (for example, a cathode of SAPD).
  • a reference voltage Vspad is applied from the contact electrode 16 to the high-concentration p-type semiconductor region 27 .
  • the hole accumulation region 26 can be formed by ion implantation, or may be formed by solid phase diffusion.
  • a pixel separating portion 28 for separating the pixels is formed in the pixel boundary portion of the pixel 10, which is the boundary between adjacent pixels.
  • the pixel separation section 28 may be composed of, for example, only an insulating layer such as a silicon oxide film, or a double-layer structure in which the outside (n-well 22 side) of a metal layer such as tungsten is covered with an insulating layer such as a silicon oxide film. It can be structure.
  • the planar region of the n-type semiconductor region 23 is larger than that of the p-type semiconductor region. 25 plane regions are formed large.
  • the p-type semiconductor region 25 is formed deeper than the depth position of the n-type semiconductor region 23. .
  • the p-type semiconductor region 25 is formed at a position closer to the light receiving surface 21a than the n-type semiconductor region 23 is.
  • the pixel structure in FIG. 2 is an example of a structure for reading out electrons as signal charges (carriers).
  • each pixel 10 may have a structure for reading holes.
  • the n-type semiconductor region 23 having a small planar size is changed to a p-type semiconductor region, and the high-concentration n-type semiconductor region 24 is changed to a high-concentration p-type semiconductor region.
  • the p-type semiconductor region 25 having a large planar size is changed to an n-type semiconductor region, and the high-concentration p-type semiconductor region 27 is changed to a high-concentration n-type semiconductor region.
  • a reference voltage Vspad is applied from the contact electrode 16 to the contact portion changed from the high-concentration n-type semiconductor region 24 to the high-concentration p-type semiconductor region, and the high-concentration p-type semiconductor region 27 is changed to the high-concentration n-type semiconductor region.
  • a fixed voltage Ve is applied from the contact electrode 18 to the contact portion.
  • each pixel 10 for example, as shown in FIG. 3, four multiplication units 15 (n-type semiconductor regions 23) are formed.
  • the four multiplication units 15 are pixels facing the photoelectric conversion unit 14 (n-well 22). It is arranged at a position closer to the center in the area, for example, at a position that satisfies the following two relational expressions in plan view.
  • each pixel 10 a plurality of multipliers 15 (n-type semiconductor regions 23) are arranged in the pixel region (n-well 22) at positions other than the center (pixel center Cp) of the pixel region. Furthermore, the distances R may be equal to each other in each multiplier 15 . However, in order to prevent two mutually adjacent multiplication sections 15 from interfering with each other, it is necessary to arrange the multiple multiplication sections 15 apart by a certain amount (for example, about 2 ⁇ m) or more.
  • R distance between the center (multiplication center Ca) of the multiplication portion 15 (n-type semiconductor region 23) and the center (pixel center Cp) of the pixel region (n-well 22 or photoelectric conversion portion 14)
  • L1 row direction or Distance between the centers (multiplication centers Ca) of two multiplying portions 15 (n-type semiconductor regions 23) adjacent in the column direction
  • L2 the distance between the contact electrode 18 in contact with the four corners of the hole accumulation region 26 and the pixel region (n-well 22 or Distance from the center (pixel center Cp) of the photoelectric conversion unit 14)
  • P pixel pitch
  • the center (multiplication center Ca) of the multiplier section 15 (n-type semiconductor region 23) is, for example, an electrode composed of a plurality of contact electrodes 16. corresponds to the center of the group.
  • the pixel pitch P corresponds to, for example, the sum of the length of the pixel region (n-well 22 or photoelectric conversion portion 14), the width of the hole accumulation region 26, and the width of the pixel separation portion 28 in plan view in the row direction or the column direction. do.
  • FIG. 3 illustrates the case where the plurality of contact electrodes 18 are formed only at the four corners of the hole accumulation region 26, they may be formed evenly with respect to the hole accumulation region 26.
  • the four multiplication units 15 By arranging the four multiplication units 15 at positions near the center in the pixel region facing the pixel region, a large number of multiplication units included in the plurality of pixels 10 are arranged at equal pitches in the row direction and the column direction. Compared to the arrangement, the distance from the photoelectric conversion unit 14 to the multiplication unit 15 (the distance of the transfer path) becomes shorter.
  • FIG. 4A shows a cross-sectional configuration example of a light receiving substrate in a pixel according to Comparative Example A.
  • FIG. 4B shows a cross-sectional configuration example of a pixel according to Comparative Example B.
  • the n-type semiconductor region 23 and the p-type semiconductor region 25 in which the multiplier section 15 is formed are the pixel region (the n-well 22 or the photoelectric conversion section 14) in plan view, as shown in the upper part of FIG. It is formed with almost the same plane size as However, in this case, as shown in the lower part of FIG. 4A, the edge of the multiplier 15 becomes a strong electric field and edge breakdown occurs.
  • the multiplication section 15 having a strong electric field and a uniform electric field can be formed by using only the strong electric field portion at the end of the multiplication section 15 .
  • the diameter of the n-type semiconductor region 23 is set to 2 ⁇ m or less, and the relative distance in the depth direction between the n-type semiconductor region 23 and the p-type semiconductor region 25 is set to It is preferably 1000 nm or less.
  • the electric field can be made uniform and edge breakdown can be prevented.
  • the p-type semiconductor region 25 extends to the hole accumulation region 26 around the pixel without reducing the planar size.
  • FIG. 5 shows a cross-sectional configuration example of the semiconductor substrate 21A in the pixel 10 according to the present embodiment. Holes generated by avalanche amplification move to the hole accumulation region 26 via the p-type semiconductor region 25 .
  • each pixel 10 a plurality of multiplication units 15 connected in parallel are connected in series to the n-well 22 (photoelectric conversion unit 14).
  • the n-well 22 photoelectric conversion unit 14
  • portions of the multiplication units 15 on the side of the quenching unit 12 are electrically connected to each other by metal wiring (connection unit 17) in the interlayer insulating film 21B.
  • connection unit 17 metal wiring in the interlayer insulating film 21B.
  • a plurality of multiplication units 15 are formed in pn junction regions which are shallower than the photoelectric conversion units 14 and formed in contact with the photoelectric conversion units 14 in the semiconductor substrate 21A. . Thereby, deterioration of PDE can be suppressed compared to the case where one photoelectric conversion unit 14 is separately provided for each multiplication unit 15 .
  • the signal processing substrate 41 provided with the quenching section 12 and the detecting section 13 is attached to the light receiving substrate 21 .
  • the path for the signal output from the light receiving section 11 to reach the detecting section 13 can be minimized.
  • wiring capacitance can be reduced.
  • the light-receiving substrate 21 and the signal processing substrate 41 are connected by mutually bonding copper pads (connection pads 31 and 32) provided on the bonding surfaces of the light-receiving substrate 21 and the signal processing substrate 41. electrically connected. Thereby, the wiring capacitance can be reduced.
  • the multiple multiplication units 15 are arranged at positions closer to the center in the pixel region facing the photoelectric conversion unit 14 in plan view.
  • the distance from the photoelectric conversion unit 14 to the multiplication unit 15 can be shortened compared to the case where a large number of multiplication units included in the plurality of pixels 10 are arranged at equal pitches in the row direction and the column direction. can be done. As a result, deterioration of Jitter can be prevented.
  • a plurality of multipliers 15 are arranged in the pixel region (n-well 22) at positions other than the center of the pixel region.
  • the distances between the photoelectric conversion units 14 and the multiplication units 15 can be substantially equal compared to the case where one multiplication unit 15 is arranged at the center of the pixel region.
  • deterioration of PDE can be suppressed as compared with the case where one multiplication unit 15 is arranged at the center of the pixel region.
  • each pixel 10 has a plurality of multiplication sections 15 separated from each other in the same layer as the multiplication sections 15 in the semiconductor substrate 21A, for example, as shown in FIGS.
  • the ion-implanted portion 35 is formed, for example, by ion-implanting the n-well 22 of the semiconductor substrate 21A made of silicon or the like.
  • each pixel 10 has a plurality of multiplication sections 15 separated from each other in the same layer as the multiplication sections 15 in the semiconductor substrate 21A, for example, as shown in FIGS. It may further have an STI (Shallow Trench Isolation) section 36 for
  • the STI portion 36 is formed, for example, by embedding an STI structure in the n-well 22 and the hole accumulation region 26 of the semiconductor substrate 21A made of silicon or the like.
  • each pixel 10 may have three or more than five multipliers 15 (n-type semiconductor regions 23). In the above embodiments and their modifications, each pixel 10 may be provided with three multipliers 15 (n-type semiconductor regions 23), as shown in FIG. 10, for example. Further, in the above-described embodiment and its modification, each pixel 10 may be formed with five multiplication units 15 (n-type semiconductor regions 23), as shown in FIG. 11, for example. Further, in the above embodiments and their modifications, each pixel 10 may be formed with nine multiplication units 15 (n-type semiconductor regions 23), as shown in FIG. 12, for example.
  • each pixel 10 is formed with three multipliers 15 (n-type semiconductor regions 23).
  • the three multiplication units 15 are arranged at positions near the center in the pixel region facing the photoelectric conversion units 14 (n-well 22). is placed at a position that satisfies two relational expressions (formulas (1) and (2)).
  • the distances R may be equal to each other in each multiplier 15 .
  • the distance from the photoelectric conversion section 14 to the multiplication section 15 becomes shorter than when they are arranged. As a result, the distance from the photoelectric conversion unit 14 to the multiplication unit 15 can be shortened compared to the case where a large number of multiplication units included in the plurality of pixels 10 are arranged at equal pitches in the row direction and the column direction. can be done. As a result, deterioration of Jitter can be prevented.
  • each pixel 10 is formed with, for example, three multipliers 15 (n-type semiconductor regions 23) as shown in FIG. ) is arranged in the pixel region (n-well 22) at a position other than the center of the pixel region, the photoelectric conversion unit 14 and each multiplier 15 can be approximately equal. As a result, deterioration of PDE can be suppressed as compared with the case where one multiplication unit 15 is arranged at the center of the pixel region.
  • each pixel 10 is formed with five multiplication units 15 (n-type semiconductor regions 23).
  • the five multiplication units 15 are arranged at positions near the center in the pixel region facing the photoelectric conversion units 14 (n-well 22). is placed at a position that satisfies two relational expressions (formulas (1) and (2)).
  • a large number of multiplication units included in the plurality of pixels 10 are arranged at equal pitches in the row direction and the column direction. The distance from the photoelectric conversion section 14 to the multiplication section 15 becomes shorter than when they are arranged.
  • the distance from the photoelectric conversion unit 14 to the multiplication unit 15 can be shortened compared to the case where a large number of multiplication units included in the plurality of pixels 10 are arranged at equal pitches in the row direction and the column direction. can be done. As a result, deterioration of Jitter can be prevented.
  • each pixel 10 is formed with nine multiplication units 15 (n-type semiconductor regions 23), for example, as shown in FIG.
  • the nine multiplication units 15 are arranged at positions near the center in the pixel region facing the photoelectric conversion units 14 (n-well 22). is placed at a position that satisfies two relational expressions (formulas (1) and (2)).
  • a large number of multiplication units included in the plurality of pixels 10 are arranged at equal pitches in the row direction and the column direction. The distance from the photoelectric conversion section 14 to the multiplication section 15 becomes shorter than when they are arranged.
  • the distance from the photoelectric conversion unit 14 to the multiplication unit 15 can be shortened compared to the case where a large number of multiplication units included in the plurality of pixels 10 are arranged at equal pitches in the row direction and the column direction. can be done. As a result, deterioration of Jitter can be prevented.
  • the number of contact electrodes 16 in contact with the high-concentration n-type semiconductor regions 24 of each multiplication section 15 is not particularly limited.
  • the number of contact electrodes 16 in contact with the high-concentration n-type semiconductor region 24 of each multiplier 15 is, for example, as shown in FIGS. It may be one or two.
  • the arrangement of the plurality of contact electrodes 16 in contact with the high-concentration n-type semiconductor region 24 of each multiplier 15 is not particularly limited.
  • the arrangement of the contact electrodes 16 in contact with the high-concentration n-type semiconductor regions 24 of each multiplication unit 15 is, for example, in the arrangement direction of the pixels 10 as shown in FIG. They may be two-dimensionally arranged in a direction intersecting (row direction, column direction).
  • FIG. 14 is a diagram illustrating a schematic configuration example of an imaging device 100 according to the second embodiment of the present disclosure.
  • the imaging device 100 includes, for example, an optical system 110, a solid-state imaging device 120, a control section 130, and a communication section 140, as shown in FIG.
  • the optical system 110 collects incident light and guides it to the solid-state imaging device 120 .
  • the solid-state imaging device 120 acquires image data by imaging, and outputs the image data obtained by imaging to the outside via the communication unit 140 .
  • the communication unit 140 is an interface that communicates with an external device, and outputs image data obtained by the solid-state imaging device 120 to the external device.
  • the control unit 130 controls the solid-state imaging device 120 to acquire image data by the solid-state imaging device 120 by imaging. For example, by simultaneously selecting a plurality of pixels 10 (row lines) arranged in the row direction, the control unit 130 holds a plurality of pixel data obtained from the selected row lines in the solid-state imaging device 120. Let The control unit 130 further causes the communication unit 140 to sequentially output the held plurality of pixel data, for example. The control unit 130 causes the solid-state imaging device 120 to output the plurality of pixel data obtained by the solid-state imaging device 120 as image data to the communication unit 140 .
  • FIG. 15 is a diagram showing a schematic configuration example of the solid-state imaging device 120 of FIG.
  • the solid-state imaging device 120 has, for example, a pixel array section 121, a signal processing section 122 and an interface section 123 as shown in FIG.
  • the pixel array section 121 has a plurality of pixels 10 (hereinafter simply referred to as "pixels 10") according to the above embodiment and its modification. A plurality of pixels 10 are arranged in a matrix in the effective pixel area.
  • vertical signal lines VSL are wired along the column direction for each pixel column.
  • the vertical signal line VSL is wiring for reading out signals from the pixels 10 .
  • One end of the vertical signal line VSL is connected to the signal processing section 122 .
  • the signal processing unit 122 generates image data based on the pixel signal obtained from each pixel, and outputs the generated image data to the interface unit 123 .
  • each pixel column of the pixel array section 121 has a readout circuit 122i.
  • “i” in “122i” corresponds to the order i (1 ⁇ i ⁇ m) of the pixel columns in the pixel array section 121 .
  • An output end of the detection unit 13 is connected to the vertical signal line VSL.
  • the readout circuit 122i performs predetermined signal processing on the signal output from the corresponding pixel 10 through the vertical signal line VSL, and temporarily holds the pixel signal after the signal processing.
  • the signal processing unit 122 sequentially outputs the held plurality of pixel signals to the interface unit 123 .
  • the interface section 123 sequentially outputs the plurality of pixel signals input from the signal processing section 122 to the communication section 140 .
  • FIG. 17 shows a cross-sectional configuration example of a plurality of pixels 10 in the pixel array section 121.
  • the plurality of pixels 10 are two-dimensionally arranged in a matrix.
  • a pixel separation section 28 for separating the pixels is formed at the boundary between two pixels 10 adjacent to each other.
  • the pixel separation section 28 has, for example, a lattice shape, and one pixel 10 is formed in each region surrounded by the pixel separation section 28 .
  • the multiple multiplication units 15 are arranged at positions near the center in the pixel region facing the photoelectric conversion unit 14 in plan view. As a result, the distance from the photoelectric conversion unit 14 to the multiplication unit 15 is shortened compared to the case where a large number of multiplication units included in the plurality of pixels 10 are arranged at equal pitches in the row direction and the column direction.
  • a plurality of pixels 10 according to the above embodiment and modifications thereof are formed in a solid-state image pickup device 120 . Thereby, the same effects as those of the above-described embodiment and its modification can be obtained.
  • FIG. 18 is a diagram showing a schematic configuration example of a distance measuring device 200 according to the third embodiment of the present disclosure.
  • Range finder 200 is a ToF (Time Of Flight) sensor that emits light and detects reflected light reflected by an object to be detected.
  • the distance measuring device 200 includes, for example, a light emitting section 210, an optical system 220, a light detecting section 230, a control section 240, and a communication section 250, as shown in FIG.
  • ToF Time Of Flight
  • the light emitting unit 210 emits a light pulse La toward the object to be detected based on an instruction from the control unit 240 . Based on an instruction from the control unit 240, the light emitting unit 210 emits a light pulse La by performing a light emitting operation in which light emission and non-light emission are alternately repeated.
  • the light emitting unit 210 has a light source that emits infrared light, for example. This light source is configured using, for example, a laser light source or an LED (Light Emitting Diode).
  • the optical system 220 includes a lens that forms an image on the light receiving surface of the photodetector 230 .
  • the control unit 240 supplies control signals to the light emitting unit 210 and the light detecting unit 230 and controls the operation of these units, thereby controlling the operation of the distance measuring device 200 .
  • the light detection section 230 detects the reflected light pulse Lb based on the instruction from the control section 240 .
  • the light detection section 230 generates distance image data based on the detection result, and outputs the generated distance image data to the outside via the communication section 140 .
  • FIG. 19 is a diagram showing a schematic configuration example of the photodetector 230 in FIG.
  • the photodetector section 230 has, for example, a pixel array section 121, a signal processing section 122 and an interface section 123 as shown in FIG.
  • the pixel array section 121 has a plurality of pixels 10 (hereinafter simply referred to as "pixels 10") according to the above embodiment and its modification. A plurality of pixels 10 are arranged in a matrix in the effective pixel area.
  • vertical signal lines VSL are wired along the column direction for each pixel column.
  • the vertical signal line VSL is wiring for reading out signals from the pixels 10 .
  • One end of the vertical signal line VSL is connected to the signal processing section 122 .
  • the signal processing unit 122 generates image data based on the pixel signal obtained from each pixel 10 and outputs the generated image data to the interface unit 123 .
  • the signal processing unit 122 has a readout circuit 122i for each pixel column of the pixel array unit 121, as shown in FIG. 19, for example. “i” in “122i” corresponds to the order i (1 ⁇ i ⁇ m) of the pixel columns in the pixel array section 121 .
  • An output end of the detection unit 13 is connected to the vertical signal line VSL.
  • the readout circuit 122i performs predetermined signal processing on the signal output from the corresponding pixel 10 through the vertical signal line VSL, and temporarily holds the pixel signal after the signal processing.
  • the signal processing unit 122 sequentially outputs the held plurality of pixel signals to the interface unit 123 .
  • the interface section 123 sequentially outputs the plurality of pixel signals input from the signal processing section 122 to the communication section 140 .
  • the readout circuit 122i has a TDC (Time to Digital Converter) 122b, a histogram generator 122c, and a processor 122d.
  • the TDC 122b converts the light reception timing into a digital value based on the detection result in the pixel 10i.
  • the histogram generator 122c generates a histogram based on the digital values obtained by the TDC 122b.
  • the processing unit 122d performs various processes based on the histogram generated by the histogram generation unit 122c. For example, the processing unit 122d performs FIR (Finite Impulse Response) filter processing, echo determination, depth value (distance value) calculation processing, peak detection processing, and the like.
  • the signal processing unit 122 generates depth image data for one frame by using the depth value obtained for each pixel 10 as a pixel signal.
  • the signal processing unit 122 outputs the generated plurality of pixel signals as serial data, for example.
  • a plurality of pixels 10 according to the above embodiment and modifications thereof are formed in the photodetection section 230 . Thereby, the same effects as those of the above-described embodiment and its modification can be obtained.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be applied to any type of movement such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, robots, construction machinery, agricultural machinery (tractors), etc. It may also be implemented as a body-mounted device.
  • FIG. 21 is a block diagram showing a schematic configuration example of a vehicle control system 7000, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 7000 comprises a plurality of electronic control units connected via communication network 7010 .
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside information detection unit 7400, an inside information detection unit 7500, and an integrated control unit 7600.
  • the communication network 7010 that connects these multiple control units conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used in various calculations, and a drive circuit that drives various devices to be controlled. Prepare.
  • Each control unit has a network I/F for communicating with other control units via a communication network 7010, and communicates with devices or sensors inside and outside the vehicle by wired communication or wireless communication. A communication I/F for communication is provided. In FIG.
  • the functional configuration of the integrated control unit 7600 includes a microcomputer 7610, a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle equipment I/F 7660, an audio image output unit 7670, An in-vehicle network I/F 7680 and a storage unit 7690 are shown.
  • Other control units are similarly provided with microcomputers, communication I/Fs, storage units, and the like.
  • the drive system control unit 7100 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 7100 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection section 7110 is connected to the drive system control unit 7100 .
  • the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the axial rotational motion of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an accelerator pedal operation amount, a brake pedal operation amount, and a steering wheel steering. At least one of sensors for detecting angle, engine speed or wheel rotation speed is included.
  • Drive system control unit 7100 performs arithmetic processing using signals input from vehicle state detection unit 7110, and controls the internal combustion engine, drive motor, electric power steering device, brake device, and the like.
  • the body system control unit 7200 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • body system control unit 7200 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • Body system control unit 7200 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the battery control unit 7300 controls the secondary battery 7310, which is the power supply source for the driving motor, according to various programs. For example, the battery control unit 7300 receives information such as battery temperature, battery output voltage, or remaining battery capacity from a battery device including a secondary battery 7310 . The battery control unit 7300 performs arithmetic processing using these signals, and performs temperature adjustment control of the secondary battery 7310 or control of a cooling device provided in the battery device.
  • the vehicle exterior information detection unit 7400 detects information outside the vehicle in which the vehicle control system 7000 is installed.
  • the imaging section 7410 and the vehicle exterior information detection section 7420 is connected to the vehicle exterior information detection unit 7400 .
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the vehicle exterior information detection unit 7420 includes, for example, an environment sensor for detecting the current weather or weather, or a sensor for detecting other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. ambient information detection sensor.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects the degree of sunshine, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • LIDAR Light Detection and Ranging, Laser Imaging Detection and Ranging
  • These imaging unit 7410 and vehicle exterior information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 22 shows an example of the installation positions of the imaging unit 7410 and the vehicle exterior information detection unit 7420.
  • the imaging units 7910 , 7912 , 7914 , 7916 , and 7918 are provided, for example, at least one of the front nose, side mirrors, rear bumper, back door, and windshield of the vehicle 7900 .
  • An image pickup unit 7910 provided in the front nose and an image pickup unit 7918 provided above the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900 .
  • Imaging units 7912 and 7914 provided in the side mirrors mainly acquire side images of the vehicle 7900 .
  • An imaging unit 7916 provided in the rear bumper or back door mainly acquires an image behind the vehicle 7900 .
  • An imaging unit 7918 provided above the windshield in the passenger compartment is mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 22 shows an example of the imaging range of each of the imaging units 7910, 7912, 7914, and 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided in the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided in the side mirrors, respectively
  • the imaging range d is The imaging range of an imaging unit 7916 provided on the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 7910, 7912, 7914, and 7916, a bird's-eye view image of the vehicle 7900 viewed from above can be obtained.
  • the vehicle exterior information detectors 7920, 7922, 7924, 7926, 7928, and 7930 provided on the front, rear, sides, corners, and above the windshield of the vehicle interior of the vehicle 7900 may be, for example, ultrasonic sensors or radar devices.
  • the exterior information detectors 7920, 7926, and 7930 provided above the front nose, rear bumper, back door, and windshield of the vehicle 7900 may be LIDAR devices, for example.
  • These vehicle exterior information detection units 7920 to 7930 are mainly used to detect preceding vehicles, pedestrians, obstacles, and the like.
  • the vehicle exterior information detection unit 7400 causes the imaging section 7410 to capture an image of the exterior of the vehicle, and receives the captured image data.
  • the vehicle exterior information detection unit 7400 also receives detection information from the vehicle exterior information detection unit 7420 connected thereto.
  • the vehicle exterior information detection unit 7420 is an ultrasonic sensor, radar device, or LIDAR device
  • the vehicle exterior information detection unit 7400 emits ultrasonic waves, electromagnetic waves, or the like, and receives reflected wave information.
  • the vehicle exterior information detection unit 7400 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received information.
  • the vehicle exterior information detection unit 7400 may perform environment recognition processing for recognizing rainfall, fog, road surface conditions, etc., based on the received information.
  • the vehicle exterior information detection unit 7400 may calculate the distance to the vehicle exterior object based on the received information.
  • the vehicle exterior information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing people, vehicles, obstacles, signs, characters on the road surface, etc., based on the received image data.
  • the vehicle exterior information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and synthesizes image data captured by different imaging units 7410 to generate a bird's-eye view image or a panoramic image. good too.
  • the vehicle exterior information detection unit 7400 may perform viewpoint conversion processing using image data captured by different imaging units 7410 .
  • the in-vehicle information detection unit 7500 detects in-vehicle information.
  • the in-vehicle information detection unit 7500 is connected to, for example, a driver state detection section 7510 that detects the state of the driver.
  • the driver state detection unit 7510 may include a camera that captures an image of the driver, a biosensor that detects the biometric information of the driver, a microphone that collects sounds in the vehicle interior, or the like.
  • a biosensor is provided, for example, on a seat surface, a steering wheel, or the like, and detects biometric information of a passenger sitting on a seat or a driver holding a steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, and determine whether the driver is dozing off. You may The in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected sound signal.
  • the integrated control unit 7600 controls overall operations within the vehicle control system 7000 according to various programs.
  • An input section 7800 is connected to the integrated control unit 7600 .
  • the input unit 7800 is realized by a device that can be input-operated by the passenger, such as a touch panel, button, microphone, switch or lever.
  • the integrated control unit 7600 may be input with data obtained by recognizing voice input by a microphone.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or may be an externally connected device such as a mobile phone or PDA (Personal Digital Assistant) corresponding to the operation of the vehicle control system 7000.
  • PDA Personal Digital Assistant
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information through gestures.
  • the input section 7800 may include an input control circuit that generates an input signal based on information input by the passenger or the like using the input section 7800 and outputs the signal to the integrated control unit 7600, for example.
  • a passenger or the like operates the input unit 7800 to input various data to the vehicle control system 7000 and instruct processing operations.
  • the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, and the like. Also, the storage unit 7690 may be realized by a magnetic storage device such as a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the storage unit 7690 may be realized by a magnetic storage device such as a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the general-purpose communication I/F 7620 is a general-purpose communication I/F that mediates communication between various devices existing in the external environment 7750.
  • General-purpose communication I/F 7620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution) or LTE-A (LTE-Advanced) , or other wireless communication protocols such as wireless LAN (also referred to as Wi-Fi®), Bluetooth®, and the like.
  • General-purpose communication I / F 7620 for example, via a base station or access point, external network (e.g., Internet, cloud network or operator-specific network) equipment (e.g., application server or control server) connected to You may
  • external network e.g., Internet, cloud network or operator-specific network
  • equipment e.g., application server or control server
  • the general-purpose communication I/F 7620 uses, for example, P2P (Peer To Peer) technology to connect terminals (for example, terminals of drivers, pedestrians, stores, or MTC (Machine Type Communication) terminals) near the vehicle. may be connected with P2P (Peer To Peer) technology to connect terminals (for example, terminals of drivers, pedestrians, stores, or MTC (Machine Type Communication) terminals) near the vehicle.
  • P2P Peer To Peer
  • MTC Machine Type Communication
  • the dedicated communication I/F 7630 is a communication I/F that supports a communication protocol designed for use in vehicles.
  • the dedicated communication I/F 7630 uses standard protocols such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), which is a combination of lower layer IEEE 802.11p and higher layer IEEE 1609, or cellular communication protocol. May be implemented.
  • the dedicated communication I/F 7630 is typically used for vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication. ) perform V2X communication, which is a concept involving one or more of the communications.
  • the positioning unit 7640 receives GNSS signals from GNSS (Global Navigation Satellite System) satellites (for example, GPS signals from GPS (Global Positioning System) satellites), performs positioning, and obtains the latitude, longitude, and altitude of the vehicle. Generate location information containing Note that the positioning unit 7640 may specify the current position by exchanging signals with a wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smart phone having a positioning function.
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the beacon receiving unit 7650 receives, for example, radio waves or electromagnetic waves transmitted from wireless stations installed on the road, and acquires information such as the current position, traffic jams, road closures, or required time. Note that the function of the beacon reception unit 7650 may be included in the dedicated communication I/F 7630 described above.
  • the in-vehicle device I/F 7660 is a communication interface that mediates connections between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
  • the in-vehicle device I/F 7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • the in-vehicle device I/F 7660 is connected via a connection terminal (and cable if necessary) not shown, USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface, or MHL (Mobile High -definition Link), etc.
  • In-vehicle equipment 7760 includes, for example, at least one of mobile equipment or wearable equipment possessed by passengers, or information equipment carried in or attached to the vehicle. In-vehicle equipment 7760 may also include a navigation device that searches for a route to an arbitrary destination. or exchange data signals.
  • the in-vehicle network I/F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010. In-vehicle network I/F 7680 transmits and receives signals and the like according to a predetermined protocol supported by communication network 7010 .
  • the microcomputer 7610 of the integrated control unit 7600 uses at least one of a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I/F 7660, and an in-vehicle network I/F 7680.
  • the vehicle control system 7000 is controlled according to various programs on the basis of the information acquired by. For example, the microcomputer 7610 calculates control target values for the driving force generator, steering mechanism, or braking device based on acquired information on the inside and outside of the vehicle, and outputs a control command to the drive system control unit 7100. good too.
  • the microcomputer 7610 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control may be performed for the purpose of In addition, the microcomputer 7610 controls the driving force generator, the steering mechanism, the braking device, etc. based on the acquired information about the surroundings of the vehicle, thereby autonomously traveling without depending on the operation of the driver. Cooperative control may be performed for the purpose of driving or the like.
  • ADAS Advanced Driver Assistance System
  • Microcomputer 7610 receives information obtained through at least one of general-purpose communication I/F 7620, dedicated communication I/F 7630, positioning unit 7640, beacon receiving unit 7650, in-vehicle device I/F 7660, and in-vehicle network I/F 7680. Based on this, three-dimensional distance information between the vehicle and surrounding objects such as structures and people may be generated, and local map information including the surrounding information of the current position of the vehicle may be created. Further, based on the acquired information, the microcomputer 7610 may predict dangers such as vehicle collisions, pedestrians approaching or entering closed roads, and generate warning signals.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio/image output unit 7670 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 7710, a display section 7720, and an instrument panel 7730 are illustrated as output devices.
  • Display 7720 may include, for example, at least one of an on-board display and a head-up display.
  • the display unit 7720 may have an AR (Augmented Reality) display function.
  • the output device may be headphones, a wearable device such as an eyeglass-type display worn by a passenger, or other devices such as a projector or a lamp.
  • the display device displays the results obtained by various processes performed by the microcomputer 7610 or information received from other control units in various formats such as text, images, tables, and graphs. Display visually.
  • the voice output device converts an audio signal including reproduced voice data or acoustic data into an analog signal and outputs the analog signal audibly.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • an individual control unit may be composed of multiple control units.
  • vehicle control system 7000 may comprise other control units not shown.
  • some or all of the functions that any control unit has may be provided to another control unit. In other words, as long as information is transmitted and received via the communication network 7010, the predetermined arithmetic processing may be performed by any one of the control units.
  • sensors or devices connected to any control unit may be connected to other control units, and multiple control units may send and receive detection information to and from each other via communication network 7010. .
  • a computer program for realizing each function of the imaging device 100 or the distance measuring device 200 described above can be implemented in any of the control units or the like. It is also possible to provide a computer-readable recording medium storing such a computer program.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed, for example, via a network without using a recording medium.
  • the imaging device 100 or the distance measuring device 200 described above can be used, for example, as a light source steering unit for LIDAR as an environment sensor. Further, the image recognition in the imaging section can also be performed by an optical computing unit using the imaging device 100 or the distance measuring device 200 described above.
  • the imaging device 100 or the distance measuring device 200 described above is used as a highly efficient and bright projection device, lines and characters can be projected onto the ground. Specifically, when the car is backing up, it is possible to display a line so that people outside the car can see where the car will pass, and when giving way to pedestrians, the pedestrian crossing can be displayed with light.
  • imaging device 100 or the distance measuring device 200 described above are realized in a module (for example, an integrated circuit module composed of one die) for the integrated control unit 7600 shown in FIG. may be Alternatively, imaging device 100 or distance measuring device 200 described above may be realized by a plurality of control units of vehicle control system 7000 shown in FIG.
  • the present disclosure can have the following configurations. (1) comprising a plurality of pixels arranged two-dimensionally, Each said pixel is a photoelectric conversion unit; a plurality of multiplication units connected in parallel with each other and connected in series to the photoelectric conversion unit; and a quenching section connected to a side opposite to a side connected to the photoelectric conversion section among the plurality of multiplication sections. (2) The photodetector according to (1), wherein each of the pixels further includes a metal wiring that electrically connects the quenching section side of the plurality of multiplying sections to each other.
  • the photoelectric conversion unit is composed of a semiconductor region of a predetermined conductivity type formed in a single region with a predetermined depth in the semiconductor substrate, the plurality of multiplication units are formed in a pn junction region formed in a region shallower than the photoelectric conversion unit and closer to the wiring layer in the semiconductor substrate;
  • the signal processing board has a signal processing section electrically connected to the metal wiring,
  • the photodetector according to (3) wherein the signal processing section processes outputs from the plurality of multiplication sections.
  • the interlayer insulating film and the signal processing substrate are electrically connected by bonding together copper pads provided on the bonding surfaces of the interlayer insulating film and the signal processing substrate.
  • each pixel further includes an isolation section that separates the plurality of multiplication sections from each other in the same layer as the multiplication sections of the semiconductor substrate; A photodetector as described.
  • the separating section is configured by an ion implant formed in the semiconductor substrate.
  • the isolation section is configured by STI (shallow trench isolation) formed in the semiconductor substrate.
  • (11) comprising a plurality of pixels arranged two-dimensionally, Each said pixel is a photoelectric conversion unit; a plurality of multiplication units connected in parallel with each other and connected in series to the photoelectric conversion unit;
  • An imaging device comprising: a quenching section connected to a side of the plurality of multiplication sections opposite to a side connected to the photoelectric conversion section.
  • the photodetector comprising a photodetector,
  • the photodetector is having a plurality of pixels arranged two-dimensionally, Each said pixel is a photoelectric conversion unit; a plurality of multiplication units connected in parallel with each other and connected in series to the photoelectric conversion unit;
  • a distance measuring device comprising: a quenching section connected to a side opposite to a side connected to the photoelectric conversion section among the plurality of multiplication sections.
  • each pixel a plurality of A multiplier section is connected in series with the photoelectric conversion section.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Light Receiving Elements (AREA)

Abstract

本開示の一側面に係る光検出装置は、パルス応答部と、アナログカウンタ部と、リセット部とを備えている。パルス応答部は、光入射に応じてパルス信号を生成する。アナログカウンタ部は、パルス信号に基づいてカウント処理を行うことによりアナログの第1のカウント値を生成する。リセット部は、第1のカウント値が第1の閾値を超えたとき第1のカウント値をリセットする。

Description

光検出装置、撮像装置および測距装置
 本開示は、光検出装置、撮像装置および測距装置に関する。
 近年、SPAD(Single Photon Avalanche Diode)を用いた光検出装置がイメージセンサや測距センサなどの分野で注目されている(例えば特許文献1参照)。
特開2019-192903号公報
 ところで、完全空乏型のSPADでは、光電変換部から増倍部への転送経路全域を空乏化させることで電子の収集効率が高く、さらに空乏領域の電界が効率良く上昇するためアバランシェ確率も高い。そのため、完全空乏型のSPADでは、高いPDE(Photon Detection Efficiency;光子検出効率)を得ることができる。しかし、その一方で、空乏領域が大きくなると、VBD(breakdown voltage;ブレークダウン電圧)や、PDE、DT(Dead Time;デッドタイム)などの特性の画素ごとのばらつきが大きくなってしまうという問題があった。従って、画素ばらつきを低減することの可能な光検出装置、撮像装置および測距装置を提供することが望ましい。
 本開示の第1の側面に係る光検出装置は、2次元配置された複数の画素を備えている。各画素は、光電変換部と、互いに並列接続され、かつ、光電変換部に対して直列に接続された複数の増倍部と、複数の増倍部のうち、光電変換部との接続側とは反対側に接続されたクエンチ部とを有している。
 本開示の第2の側面に係る撮像装置は、2次元配置された複数の画素を備えている。各画素は、光電変換部と、互いに並列接続され、かつ、光電変換部に対して直列に接続された複数の増倍部と、複数の増倍部のうち、光電変換部との接続側とは反対側に接続されたクエンチ部とを有している。
 本開示の第3の側面に係る測距装置は、光検出装置を備えている。光検出装置は、2次元配置された複数の画素を有している。各画素は、光電変換部と、互いに並列接続され、かつ、光電変換部に対して直列に接続された複数の増倍部と、複数の増倍部のうち、光電変換部との接続側とは反対側に接続されたクエンチ部とを有している。
 本開示の第1の側面に係る光検出装置、本開示の第2の側面に係る撮像装置および本開示の第3の側面に係る測距装置では、各画素において、互いに並列接続された複数の増倍部が光電変換部に対して直列に接続されている。これにより、各画素に単一の増倍部を設けた場合と比べて、画素ごとの特性ばらつきが低減される。
本開示の第1の実施の形態に係る光検出装置に用いられる各画素の機能ブロック例を表す図である。 図1の画素の垂直断面構成例を表す図である。 図2の画素の水平断面構成例を表す図である。 (A)比較例Aに係る画素における受光基板の断面構成例を表す図である。(B)比較例Bに係る画素における受光基板の断面構成例を表す図である。 図2の画素における受光基板の断面構成例を表す図である。 図2の画素の垂直断面構成の一変形例を表す図である。 図6の画素の水平断面構成例を表す図である。 図2の画素の垂直断面構成の一変形例を表す図である。 図8の画素の水平断面構成例を表す図である。 図3の画素の水平断面構成の一変形例を表す図である。 図3の画素の水平断面構成の一変形例を表す図である。 図3の画素の水平断面構成の一変形例を表す図である。 図3,図7,図9~図12の各増倍部に接続されたコンタクト電極の一変形例を表す図である。 本開示の第2の実施の形態に係る撮像装置の概略構成例を表す図である。 図14の固体撮像素子の概略構成例を表す図である。 図15の画素の回路構成例および図15の信号処理部の機能ブロック例を表す図である。 図15の画素アレイ部の水平断面構成例を表す図である。 本開示の第3の実施の形態に係る測距装置の概略構成例を表す図である。 図18の光検出部の概略構成例を表す図である。 図19の画素の回路構成例および図19の信号処理部の機能ブロック例を表す図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本開示を実施するための形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。

1.第1の実施の形態
  画素ごとに複数の増倍部を設けた例(図1~図5)
2.変形例
  変形例A:増倍部の分離にイオンインプラントを用いた例(図6,図7)
  変形例B:増倍部の分離にSTIを用いた例(図8,図9)
  変形例C:3つ,5つもしくは9つの増倍部を画素ごとに設けた例(図10~図12)
  変形例D:増倍部に接続されたコンタクトのバリエーション(図13)
3.第2の実施の形態
  上記実施の形態に係る画素を撮像装置に用いた例(図14~図17)
4.第3の実施の形態
  上記実施の形態に係る画素を測距装置に用いた例(図18~図20)
5.適用例(図21,図22)
 
<1.第1の実施の形態>
[構成]
 図1は、本開示の第1の実施の形態に係る光検出装置(以下、「光検出装置」と称する。)に用いられる各画素10の機能ブロック例を表したものである。図2は、各画素10の断面構成例を表したものである。光検出装置は、行列状に配置された(2次元配置された)複数の画素10を備えている。各画素10は、例えば、図1に示したように、受光部11、クエンチ部12および検出部13を備えている。
 受光部11は、光入射に応じてパルス信号を生成する。受光部11は、例えば、図1に示したように、光電変換部14および複数の増倍部15を有している。複数の増倍部15は、互いに並列接続されており、さらに、光電変換部14に対して直列に接続されている。複数の増倍部15は、例えば、図2に示したように、光電変換部14とともに、共通の半導体基板21A内に形成されており、半導体基板21A内の不純物半導体領域(例えばnウェル22,p型半導体領域25)を介して光電変換部14に接続されている。複数の増倍部15のうち、光電変換部14との接続側とは反対側については、層間絶縁膜21B内のメタル配線(接続部17)によって互いに電気的に接続されている。半導体基板21Aは、シリコン等で構成される。層間絶縁膜21Bは、半導体基板21A上に接して形成された層であり、積層された複数のSiO層内に、パターニングされた複数の配線層(例えば、接続部17)と、配線層同士を接続するビア(例えば、コンタクト電極16)とが形成された構成となっている。半導体基板21Aおよび層間絶縁膜21Bによって受光基板21が構成されている。
 受光部11は、光電変換部14を共有する複数のアバランシェフォトダイオード(APD)を含んでいる。ガイガーモードのAPDでは、端子間に降伏電圧以上の電圧が印可されると、単一フォトンの入射でアバランシェ現象が発生する。単一フォトンをアバランシェ現象で増倍させるAPDは、シングルフォトンアバランシェダイオード(SPAD)と呼ばれる。各画素10において、受光部11は、例えば、光電変換部14を共有する複数のSPADを含んでいる。
 クエンチ部12は、例えば、図1に示したように、複数の増倍部15のうち、光電変換部14との接続側とは反対側に接続されている。クエンチ部12は、例えば、図1,図2に示したように、接続パッド31,32を介して接続部17に接続されている。クエンチ部12は、受光部11に印加される電圧を降伏電圧まで下げることによって、アバランシェ現象を止める機能(クエンチ)を有している。クエンチ部12は、さらに、受光部11に印加される電圧を降伏電圧以上のバイアス電圧にすることによって、受光部11で再びフォトンの検出を行えるようにする機能を有する。クエンチ部12は、例えば、MOSトランジスタを含む。クエンチ部12は、例えば、抵抗器であってもよい。
 クエンチ部12の一端(例えば、MOSトランジスタのソース)は、例えば、固定電圧Veが印可される電源線に接続されている。一方、クエンチ部12の他端(例えば、MOSトランジスタのドレイン)は、例えば、受光部11の一端(例えば、SAPDのアノード)に接続されている。受光部11の他端(例えば、SAPDのカソード)は、例えば、基準電圧Vspadが印可される電源線に接続されている。受光部11に、降伏電圧以上の電圧が印可されるよう、固定電圧Veおよび基準電圧Vspadの値が設定されている。
 検出部13は、複数の増倍部15とクエンチ部12との接続ノードNに接続されている。検出部13は、例えば、インバータを含んでいる。インバータは、接続ノードNの電圧Vsが所定の閾値電圧よりも低いとき(つまりローレベルLoのとき)、ハイレベルHiの信号PFoutを出力する。インバータは、接続ノードNの電圧Vsが所定の閾値電圧以上のとき(つまりハイレベルHiのとき)、ローレベルLoの信号PFoutを出力する。このように、検出部13は、デジタル信号(信号PFout)を出力する。
 検出部13は、信号処理基板41内に形成されている。信号処理基板41は、受光基板21と貼り合わされた基板であり、シリコン等で構成される半導体基板42と、半導体基板42上に形成された層間絶縁膜43とを含んでいる。半導体基板42には、検出部13に形成されている。層間絶縁膜43は、半導体基板42上に形成された層であり、積層された複数のSiO層内に、パターニングされた複数の配線層と、配線層同士を接続するビアとが形成された構成となっている。
 受光基板21の表面には、Cuからなる接続パッド31が露出している。一方、信号処理基板41の表面には、Cuからなる接続パッド32が露出している。接続パッド31と接続パッド32とが互いに接合されている。これにより、受光基板21および信号処理基板41は、層間絶縁膜21Bの表面と層間絶縁膜43の表面とにおいて互いに接合されており、接続パッド31と接続パッド32とが互いに接合されることにより、互いに電気的に接続されている。
 次に、図2、図3を参照して、受光部11の構造について詳細に説明する。図3は、半導体基板21Aの表面(信号処理基板41側の表面)の平面構成例を表したものである。図3には、後述のコンタクト電極16,18も併せて描かれている。
 各画素10は、シリコン等で構成される半導体基板21Aに形成されている。図2において、半導体基板21Aの裏面が図2の上側に描かれており、半導体基板21Aの裏面にはオンチップレンズ29が貼り合わされている。外部からの光(入射光)がオンチップレンズ29を介して半導体基板21Aの裏面に入射する。従って、半導体基板21Aの裏面が受光面21aとなっている。図2において、半導体基板21Aの上面が図2の下側に描かれており、半導体基板21Aの上面は層間絶縁膜21Bと接している。
 各画素10は、例えば、図2に示したように、nウェル22、複数のn型半導体領域23、複数の高濃度n型半導体領域24、p型半導体領域25、ホール蓄積領域26および複数の高濃度p型半導体領域27を含んでいる。nウェル22、複数のn型半導体領域23、複数の高濃度n型半導体領域24、p型半導体領域25、ホール蓄積領域26および複数の高濃度p型半導体領域27は、半導体基板21Aに形成されている。各画素10において、n型半導体領域23とp型半導体領域25とが接合する領域に形成される空乏層によって、アバランシェ増倍領域(増倍部15)が形成される。つまり、増倍部15は、n型半導体領域23とp型半導体領域25とが接合するpn接合領域に形成される。
 nウェル22は、半導体基板21Aの不純物濃度が薄いn型(n--)に制御されることにより形成され、画素10における光電変換により発生する電子を増倍部15へ転送する電界を形成する。nウェル22が、光電変換部14の機能を担っている。nウェル22には、光電変換部14が形成されている。光電変換部14は、半導体基板21Aにおける所定の深さの単一領域に形成された所定の導電型の半導体領域で構成されている。なお、nウェル22に替えて、半導体基板21Aの不純物濃度をp型に制御したpウェルを形成してもよい。
 複数のn型半導体領域23は、半導体基板21Aの上面を平面視で見たときに、nウェル22(光電変換部14)と対向する画素領域内の中央寄りの位置に配置されている。各n型半導体領域23は、画素10の中央部に、半導体基板21Aの表面側から所定の深さまで形成された濃いn型の半導体領域である。n型半導体領域23の、特に、中央部分の表面近傍が高濃度(n+)の不純物濃度に制御され、高濃度n型半導体領域24とされている。高濃度n型半導体領域24は、増倍部15を形成するための負電圧を供給するためのカソードとしてのコンタクト電極16と接続されるコンタクト部である。高濃度n型半導体領域24には、コンタクト電極16から固定電圧Veが印加される。
 p型半導体領域25は、半導体基板21A内のn型半導体領域23の底面と接する深さ位置から、所定の厚み(深さ)で画素領域の全面に亘るように形成された濃いp型の半導体領域である。なお、図2には、半導体基板21Aが、半導体基板21Aの底面が紙面の上方となり、半導体基板21Aの表面(上面)が紙面の下方となるように描かれている。
 p型半導体領域25は、半導体基板21Aにおける、光電変換部14よりも浅い領域であって、かつ光電変換部14に接して形成されている。つまり、増倍部15は、半導体基板21Aにおける、光電変換部14よりも浅い領域であって、かつ光電変換部14に接して形成されたpn接合領域に形成されている。p型半導体領域25は、光電変換部14と接している。ここで、nウェル22の不純物濃度は、例えば、1×1014cm-3以下の低濃度とされ、増倍部15を形成するn型半導体領域23とp型半導体領域25のそれぞれの不純物濃度は、1×1016cm-3以上の高濃度に制御することが望ましい。
 ホール蓄積領域26は、nウェル22の側面および底面を囲うように形成されるp型の半導体領域(p)であり、光電変換により発生したホールを蓄積する。ホール蓄積領域26は、画素分離部28との界面で発生した電子をトラップし、DCR(ダークカウントレート)を抑制する効果も奏する。ホール蓄積領域26の半導体基板21Aの表面側の近傍領域は、特に、不純物濃度が高濃度(p+)に制御され、高濃度p型半導体領域27とされている。高濃度p型半導体領域27は、受光部11の一端(例えば、SAPDのカソード)としてのコンタクト電極16と接続されるコンタクト部である。高濃度p型半導体領域27には、コンタクト電極16から基準電圧Vspadが印加される。ホール蓄積領域26は、イオン注入により形成することができ、固相拡散により形成してもよい。
 隣接画素との境界である画素10の画素境界部には、画素間を分離する画素分離部28が形成されている。画素分離部28は、例えば、シリコン酸化膜などの絶縁層のみで構成されてもよいし、タングステンなどの金属層の外側(nウェル22側)を、シリコン酸化膜などの絶縁層で覆う2重構造でもよい。
 以上のように、各画素10では、増倍部15が形成されるn型半導体領域23とp型半導体領域25の平面領域に関し、n型半導体領域23の平面領域に対して、p型半導体領域25の平面領域が大きく形成されている。また、n型半導体領域23とp型半導体領域25の半導体基板21Aの表面からの深さに関しては、n型半導体領域23の深さ位置に対して、p型半導体領域25が深く形成されている。換言すれば、p型半導体領域25が、n型半導体領域23よりも受光面21aに近い位置に形成されている。
 図2の画素構造は、信号電荷(キャリア)として電子を読み出す構造の例である。しかし、各画素10は、ホールを読み出す構造となっていてもよい。この場合には、平面サイズの小さいn型半導体領域23がp型半導体領域に変更され、高濃度n型半導体領域24が高濃度p型半導体領域に変更される。平面サイズの大きいp型半導体領域25はn型半導体領域に変更され、高濃度p型半導体領域27は高濃度n型半導体領域に変更される。高濃度n型半導体領域24から高濃度p型半導体領域に変更されたコンタクト部には、コンタクト電極16から基準電圧Vspadが印加され、高濃度p型半導体領域27から高濃度n型半導体領域に変更されたコンタクト部には、コンタクト電極18から固定電圧Veが印加される。
 次に、複数の増倍部15(n型半導体領域23)の位置について詳細に説明する。各画素10には、例えば、図3に示したように、4つの増倍部15(n型半導体領域23)が形成されている。このように、各画素10に4つのn型半導体領域23が形成されているとき、4つの増倍部15(n型半導体領域23)は、光電変換部14(nウェル22)と対向する画素領域内の中央寄りの位置に配置されており、例えば、平面視において以下の2つの関係式を満たす位置に配置されている。さらに、各画素10において、複数の増倍部15(n型半導体領域23)が、画素領域(nウェル22)において、当該画素領域の中心(画素中心Cp)を除く位置に配置されている。さらに、各増倍部15において距離Rが互いに等しくなっていてもよい。ただし、互いに隣接する2つの増倍部15が互いに干渉するのを防ぐために、複数の増倍部15をある程度(例えば2μm程度)以上、離して配置することが必要である。
 R<L2/2…(1)
 L1<P/2…(2)
 R:増倍部15(n型半導体領域23)の中心(増倍中心Ca)と、画素領域(nウェル22または光電変換部14)の中心(画素中心Cp)との距離
 L1:行方向もしくは列方向に隣接する2つの増倍部15(n型半導体領域23)の中心(増倍中心Ca)の距離
 L2:ホール蓄積領域26の四隅に接するコンタクト電極18と、画素領域(nウェル22または光電変換部14)の中心(画素中心Cp)との距離
 P:画素ピッチ
 n型半導体領域23ごとに複数のコンタクト電極16が設けられているとき、増倍部15(n型半導体領域23)の中心(増倍中心Ca)は、例えば、複数のコンタクト電極16からなる電極群の中央に対応している。画素ピッチPは、例えば、行方向もしくは列方向において、平面視において画素領域(nウェル22または光電変換部14)長さ、ホール蓄積領域26の幅、および画素分離部28の幅の合計に相当する。図3には、複数のコンタクト電極18がホール蓄積領域26の四隅にだけ形成されている場合が例示されているが、ホール蓄積領域26に対して均等に形成されていてもよい。4つの増倍部15が画素領域と対向する画素領域内の中央寄りの位置に配置されていることにより、複数の画素10に含まれる多数の増倍部が行方向、列方向に等ピッチで配置されている場合と比べて、光電変換部14から増倍部15までの距離(転送経路の距離)が短くなる。
 次に、比較例と対比しつつ、各画素10における増倍部15について説明する。図4(A)は、比較例Aに係る画素における受光基板の断面構成例を表したものである。図4(B)は、比較例Bに係る画素における断面構成例を表したものである。
 一般に、増倍部15が形成されるn型半導体領域23とp型半導体領域25が、図4(A)上段に示されるように、平面視で画素領域(nウェル22または光電変換部14)とほぼ同じ平面サイズで形成される。しかし、このようにした場合には、図4(A)下段に示したように、増倍部15の端部が強電界となり、エッジブレイクダウンが発生する。
 そこで、図4(B)上段に示したように、増倍部15が形成されるn型半導体領域23とp型半導体領域25の平面サイズを小さくすることにより、図4(B)下段に示したように、増倍部15の端部の強電界部分のみを用いた、強電界かつ電界が均一な増倍部15を形成することができる。このような電界均一な増倍部15を形成するためには、例えば、n型半導体領域23の直径を2μm以下とし、n型半導体領域23およびp型半導体領域25の深さ方向の相対距離を1000nm以下とすることが好ましい。
 従って、増倍部15の平面サイズを小さくすることにより、電界を均一にし、エッジブレイクダウンを防止することができる。本実施の形態では、p型半導体領域25については、平面サイズを小さくせず、画素周辺のホール蓄積領域26まで延びている。
[効果]
 次に、複数の画素10を備えた光検出装置の効果について説明する。
 図5は、本実施の形態に係る画素10における半導体基板21Aの断面構成例を表したものである。アバランシェ増幅により発生したホールは、p型半導体領域25を経由して、ホール蓄積領域26へ移動する。p型半導体領域25のうち、平面視においてn型半導体領域23よりも外側の領域(外周領域)はホール電流経路を形成する。従って、p型半導体領域25の外周領域は、内部抵抗を改善(ホール抵抗を低減)する効果を奏する。
 また、p型半導体領域25の外周領域がホール電流経路を形成することにより、nウェル22(光電変換部14)に入射光が入射することによりnウェル22(光電変換部14)で発生した電子は、p型半導体領域25の外周領域よりも内側の増倍部15へ移動する。すなわち、p型半導体領域25の外周領域による遮蔽効果により、nウェル22(光電変換部14)の電子が増倍部15へバリアレスに移動する。nウェル22(光電変換部14)から増倍部15へのバリアレス構造により、高い電荷収集効率を実現する。
 したがって、図2に示した画素10によれば、エッジブレイク防ぎつつ、高PDEを実現することができる。高PDEの実現により、低い過剰バイアスも可能となる。
 ところで、完全空乏型のSPADでは、光電変換部14から増倍部15への転送経路全域を空乏化させることで電子の収集効率が高く、さらに空乏領域の電界が効率良く上昇するためアバランシェ確率も高い。そのため、完全空乏型のSPADでは、高いPDEを得ることができる。しかし、その一方で、空乏領域が大きくなると、VBDや、PDE、DTなどの特性の画素ごとのばらつきが大きくなってしまうという問題があった。
 一方、本実施の形態では、各画素10において、互いに並列接続された複数の増倍部15がnウェル22(光電変換部14)に対して直列に接続されている。これにより、各画素10に単一の増倍部15を設けた場合と比べて、画素10ごとの特性ばらつきを低減することができる。
 本実施の形態では、複数の増倍部15のうち、クエンチ部12側の部分が、層間絶縁膜21B内のメタル配線(接続部17)によって互いに電気的に接続されている。これにより、例えば、接続部17が信号処理基板41に設けられている場合と比べて、配線容量を低減することができる。
 本実施の形態では、複数の増倍部15が、半導体基板21Aにおける、光電変換部14よりも浅い領域であって、かつ光電変換部14に接して形成されたpn接合領域に形成されている。これにより、光電変換部14を増倍部15ごとに1つずつ別個に設けた場合と比べて、PDEの悪化を抑制することができる。
 本実施の形態では、クエンチ部12や検出部13が設けられた信号処理基板41が受光基板21に貼り合わされている。これにより、受光部11から出力された信号が検出部13に到達するまでの経路を最小限の長さにすることができる。その結果、配線容量を小さくすることができる。
 本実施の形態では、受光基板21と信号処理基板41とは、受光基板21と信号処理基板41との接合面に設けられた銅パッド(接続パッド31,32)同士を互いに接合することにより、電気的に接続されている。これにより、配線容量を小さくすることができる。
 本実施の形態では、各画素10において、複数の増倍部15は、平面視において、光電変換部14と対向する画素領域内の中央寄りの位置に配置されている。これにより、複数の画素10に含まれる多数の増倍部が行方向、列方向に等ピッチで配置されている場合と比べて、光電変換部14から増倍部15までの距離を短くすることができる。その結果、Jitterの悪化を防ぐことができる。
 本実施の形態では、各画素10において、複数の増倍部15(n型半導体領域23)が、画素領域(nウェル22)において、当該画素領域の中心を除く位置に配置されている。これにより、1つの増倍部15を画素領域の中心に配置した場合と比べて、光電変換部14と各増倍部15との距離を概ね等しくすることができる。これにより、1つの増倍部15を画素領域の中心に配置した場合と比べて、PDEの悪化を抑制することができる。
<2.変形例>
 次に、上記実施の形態に係る画素10の変形例について説明する。
[変形例A]
 上記実施の形態において、各画素10は、例えば、図6、図7に示したように、半導体基板21Aにおける複数の増倍部15と同一の層内に、複数の増倍部15を互いに分離するイオンインプラント部35を更に有していてもよい。イオンインプラント部35は、例えば、シリコン等で構成される半導体基板21Aのnウェル22に対してイオンインプラントを行うことにより形成される。このように、イオンインプラント部35を設けることにより、互いに隣接する増倍部15同士の間での干渉が抑制されるので、この干渉に起因する特性悪化を抑制することができる。
[変形例B]
 上記実施の形態において、各画素10は、例えば、図8、図9に示したように、半導体基板21Aにおける複数の増倍部15と同一の層内に、複数の増倍部15を互いに分離するSTI(Shallow Trench Isolation)部36を更に有していてもよい。STI部36は、例えば、シリコン等で構成される半導体基板21Aのnウェル22およびホール蓄積領域26に対してSTI構造を埋め込むことにより形成される。このように、STI部36を設けることにより、互いに隣接する増倍部15同士の間での干渉が抑制されるので、この干渉に起因する特性悪化を抑制することができる。
[変形例C]
 上記実施の形態およびその変形例において、各画素10に、3つもしくは5つ以上の増倍部15(n型半導体領域23)が形成されていてもよい。上記実施の形態およびその変形例において、各画素10に、例えば、図10に示したように、3つの増倍部15(n型半導体領域23)が形成されていてもよい。また、上記実施の形態およびその変形例において、各画素10に、例えば、図11に示したように、5つの増倍部15(n型半導体領域23)が形成されていてもよい。また、上記実施の形態およびその変形例において、各画素10に、例えば、図12に示したように、9つの増倍部15(n型半導体領域23)が形成されていてもよい。
 各画素10に、例えば、図10に示したように、3つの増倍部15(n型半導体領域23)が形成されているとする。このとき、3つの増倍部15(n型半導体領域23)は、光電変換部14(nウェル22)と対向する画素領域内の中央寄りの位置に配置されており、例えば、平面視において上述の2つの関係式(式(1),(2))を満たす位置に配置されている。さらに、各増倍部15において距離Rが互いに等しくなっていてもよい。3つの増倍部15が画素領域と対向する画素領域内の中央寄りの位置に配置されていることにより、複数の画素10に含まれる多数の増倍部が行方向、列方向に等ピッチで配置されている場合と比べて、光電変換部14から増倍部15までの距離が短くなる。これにより、複数の画素10に含まれる多数の増倍部が行方向、列方向に等ピッチで配置されている場合と比べて、光電変換部14から増倍部15までの距離を短くすることができる。その結果、Jitterの悪化を防ぐことができる。
 また、各画素10に、例えば、図10に示したように、3つの増倍部15(n型半導体領域23)が形成されている場合に、3つの増倍部15(n型半導体領域23)が、画素領域(nウェル22)において、当該画素領域の中心を除く位置に配置されているときには、1つの増倍部15を画素領域の中心に配置した場合と比べて、光電変換部14と各増倍部15との距離を概ね等しくすることができる。これにより、1つの増倍部15を画素領域の中心に配置した場合と比べて、PDEの悪化を抑制することができる。
 各画素10に、例えば、図11に示したように、5つの増倍部15(n型半導体領域23)が形成されているとする。このとき、5つの増倍部15(n型半導体領域23)は、光電変換部14(nウェル22)と対向する画素領域内の中央寄りの位置に配置されており、例えば、平面視において上述の2つの関係式(式(1),(2))を満たす位置に配置されている。5つの増倍部15が画素領域と対向する画素領域内の中央寄りの位置に配置されていることにより、複数の画素10に含まれる多数の増倍部が行方向、列方向に等ピッチで配置されている場合と比べて、光電変換部14から増倍部15までの距離が短くなる。これにより、複数の画素10に含まれる多数の増倍部が行方向、列方向に等ピッチで配置されている場合と比べて、光電変換部14から増倍部15までの距離を短くすることができる。その結果、Jitterの悪化を防ぐことができる。
 各画素10に、例えば、図12に示したように、9つの増倍部15(n型半導体領域23)が形成されているとする。このとき、9つの増倍部15(n型半導体領域23)は、光電変換部14(nウェル22)と対向する画素領域内の中央寄りの位置に配置されており、例えば、平面視において上述の2つの関係式(式(1),(2))を満たす位置に配置されている。9つの増倍部15が画素領域と対向する画素領域内の中央寄りの位置に配置されていることにより、複数の画素10に含まれる多数の増倍部が行方向、列方向に等ピッチで配置されている場合と比べて、光電変換部14から増倍部15までの距離が短くなる。これにより、複数の画素10に含まれる多数の増倍部が行方向、列方向に等ピッチで配置されている場合と比べて、光電変換部14から増倍部15までの距離を短くすることができる。その結果、Jitterの悪化を防ぐことができる。
[変形例D]
 上記実施の形態およびその変形例において、各増倍部15の高濃度n型半導体領域24に接するコンタクト電極16の数は、特に限定されるものではない。上記実施の形態およびその変形例において、各増倍部15の高濃度n型半導体領域24に接するコンタクト電極16の数は、例えば、図13(A),13(B)に示したように、1つまたは2つとなっていてもよい。
 また、上記実施の形態およびその変形例において、各増倍部15の高濃度n型半導体領域24に接する複数のコンタクト電極16の配置は、特に限定されるものではない。上記実施の形態およびその変形例において、各増倍部15の高濃度n型半導体領域24に接するコンタクト電極16の配置は、例えば、図13(C)に示したように、画素10の配列方向(行方向、列方向)と交差する方向に2次元配置されていてもよい。
<3.第2の実施の形態>
 図14は、本開示の第2の実施の形態に係る撮像装置100の概略構成例を表す図である。撮像装置100は、例えば、図14に示したように、光学系110、固体撮像素子120、制御部130および通信部140を備えている。
 光学系110は、入射光を集光して固体撮像素子120に導くものである。固体撮像素子120は、撮像により画像データを取得するものであり、撮像により得られた画像データを、通信部140を介して外部に出力する。通信部140は、外部機器と通信を行うインターフェースであり、固体撮像素子120で得られた画像データを外部機器に出力する。
 制御部130は、固体撮像素子120を制御して、撮像により固体撮像素子120に画像データを取得させるものである。制御部130は、例えば、行方向に並んで配置された複数の画素10(行ライン)を同時に選択することにより、選択された行ラインで得られた複数の画素データを固体撮像素子120に保持させる。制御部130は、さらに、例えば、保持させた複数の画素データを順次、通信部140に出力させる。制御部130は、このようにして固体撮像素子120で得られた複数の画素データを画像データとして固体撮像素子120から通信部140に出力させる。
 図15は、図14の固体撮像素子120の概略構成例を表す図である。固体撮像素子120は、例えば、図15に示したように、画素アレイ部121、信号処理部122およびインターフェース部123を有している。
 画素アレイ部121は、上記実施の形態およびその変形例に係る複数の画素10(以下、単に「画素10」と称する。)を有している。複数の画素10は、有効画素領域において行列状に配置されている。画素アレイ部121では、画素列ごとに垂直信号線VSLが列方向に沿って配線されている。垂直信号線VSLは、画素10から信号を読み出すための配線である。垂直信号線VSLの一端は信号処理部122に接続されている。
 信号処理部122は、各前記画素から得られた画素信号に基づいて画像データを生成し、生成した画像データをインターフェース部123に出力する。例えば、図16に示したように、画素アレイ部121の画素列ごとに、読み出し回路122iを有している。「122i」における「i」は、画素アレイ部121における画素列の順番i(1≦i≦m)に対応している。検出部13の出力端が垂直信号線VSLに接続されている。読み出し回路122iは、対応する画素10から垂直信号線VSLを通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。信号処理部122は、保持した複数の画素信号を順番にインターフェース部123に出力する。インターフェース部123は、信号処理部122から入力された複数の画素信号を順次、通信部140に出力する。
 図17は、画素アレイ部121における複数の画素10の断面構成例を表したものである。画素アレイ部121において、複数の画素10は、行列状に2次元配置されている。
 互いに隣接する2つの画素10の境界部には、画素間を分離する画素分離部28が形成されている。画素分離部28は、例えば、格子状となっており、画素分離部28で囲まれた領域ごとに1つずつ画素10が形成されている。各画素10において、複数の増倍部15は、平面視において、光電変換部14と対向する画素領域内の中央寄りの位置に配置されている。これにより、複数の画素10に含まれる多数の増倍部が行方向、列方向に等ピッチで配置されている場合と比べて、光電変換部14から増倍部15までの距離が短くなっている。
 本実施の形態では、上記実施の形態およびその変形例に係る複数の画素10が固体撮像素子120に形成されている。これにより、上記実施の形態およびその変形例と同様の効果が得られる。
<4.第3の実施の形態>
 図18は、本開示の第3の実施の形態に係る測距装置200の概略構成例を表す図である。測距装置200は、ToF(Time Of Flight)センサであり、光を射出するとともに、検出対象物により反射された反射光を検出する。測距装置200は、例えば、図18に示したように、発光部210と、光学系220と、光検出部230と、制御部240と、通信部250とを備えている。
 発光部210は、制御部240からの指示に基づいて、検出対象物に向かって光パルスLaを射出する。発光部210は、制御部240からの指示に基づいて、発光および非発光を交互に繰り返す発光動作を行うことにより光パルスLaを射出する。発光部210は、例えば赤外光を射出する光源を有する。この光源は、例えば、レーザ光源やLED(Light Emitting Diode)などを用いて構成される。
 光学系220は、光検出部230の受光面において像を結像させるレンズを含んで構成される。この光学系220には、発光部210から射出され、検出対象物により反射された光パルス(反射光パルスLb)が入射するようになっている。
 制御部240は、発光部210および光検出部230に制御信号を供給し、これらの動作を制御することにより、測距装置200の動作を制御する。
 光検出部230は、制御部240からの指示に基づいて、反射光パルスLbを検出する。光検出部230は、検出結果に基づいて距離画像データを生成し、生成した距離画像データを、通信部140を介して外部に出力する。
 図19は、図18の光検出部230の概略構成例を表す図である。光検出部230は、例えば、図19に示したように、画素アレイ部121、信号処理部122およびインターフェース部123を有している。
 画素アレイ部121は、上記実施の形態およびその変形例に係る複数の画素10(以下、単に「画素10」と称する。)を有している。複数の画素10は、有効画素領域において行列状に配置されている。画素アレイ部121では、画素列ごとに垂直信号線VSLが列方向に沿って配線されている。垂直信号線VSLは、画素10から信号を読み出すための配線である。垂直信号線VSLの一端は信号処理部122に接続されている。
 信号処理部122は、各画素10から得られた画素信号に基づいて画像データを生成し、生成した画像データをインターフェース部123に出力する。信号処理部122は、例えば、図19に示したように、画素アレイ部121の画素列ごとに、読み出し回路122iを有している。「122i」における「i」は、画素アレイ部121における画素列の順番i(1≦i≦m)に対応している。検出部13の出力端が垂直信号線VSLに接続されている。読み出し回路122iは、対応する画素10から垂直信号線VSLを通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。信号処理部122は、保持した複数の画素信号を順番にインターフェース部123に出力される。インターフェース部123は、信号処理部122から入力された複数の画素信号を順次、通信部140に出力する。
 読み出し回路122iは、例えば、図20に示したように、TDC(Time to Digital Converter)122bと、ヒストグラム生成部122cと、処理部122dとを有している。TDC122bは、画素10iにおける検出結果に基づいて、受光タイミングをデジタル値に変換するものである。ヒストグラム生成部122cは、TDC122bにより得られたデジタル値に基づいてヒストグラムを生成するものである。処理部122dは、ヒストグラム生成部122cが生成したヒストグラムに基づいて、様々な処理を行うものである。例えば、処理部122dは、FIR(Finite Impulse Response)フィルタ処理、エコー判定、デプス値(距離値)算出処理、ピーク検出処理などを行うようになっている。信号処理部122は、画素10ごとに得られたデプス値を画素信号として、1フレーム分のデプス画像データを生成する。信号処理部122は、生成した複数の画素信号を例えばシリアルデータにより出力する。
 本実施の形態では、上記実施の形態およびその変形例に係る複数の画素10が光検出部230に形成されている。これにより、上記実施の形態およびその変形例と同様の効果が得られる。
<5.適用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図21は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図21に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図21では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図22は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図22には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図21に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図21の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図21に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 なお、上述の撮像装置100もしくは測距装置200の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 以上説明した車両制御システム7000において、上述の撮像装置100もしくは測距装置200は、例えば,環境センサとしてのLIDARの光源ステアリング部として用いることができる。また,撮像部における画像認識を、上述の撮像装置100もしくは測距装置200を用いた光コンピューティングユニットで行うこともできる。上述の撮像装置100もしくは測距装置200を、高効率・高輝度なプロジェクションデバイスとして用いた場合は,地面に線や文字を投影することができる。具体的には、車が後退する際に車外の人が車の通る位置が分かるように線を表示したり、歩行者に道を譲る場合に横断歩道を光で表示したりすることができる。
 また、上述の撮像装置100もしくは測距装置200の少なくとも一部の構成要素は、図21に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、上述の撮像装置100もしくは測距装置200が、図21に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
 以上、実施の形態およびその変形例、ならびに適用例を挙げて本開示を説明したが、本開示は上記実施の形態等に限定されるものではなく、種々変形が可能である。なお、本明細書中に記載された効果は、あくまで例示である。本開示の効果は、本明細書中に記載された効果に限定されるものではない。本開示が、本明細書中に記載された効果以外の効果を持っていてもよい。
 また、例えば、本開示は以下のような構成を取ることができる。
(1)
 2次元配置された複数の画素を備え、
 各前記画素は、
 光電変換部と、
 互いに並列接続され、かつ、前記光電変換部に対して直列に接続された複数の増倍部と、
 前記複数の増倍部のうち、前記光電変換部との接続側とは反対側に接続されたクエンチ部と
 を有する
 光検出装置。
(2)
 各前記画素は、前記複数の増倍部のうち、前記クエンチ部側を互いに電気的に接続するメタル配線を更に有する
 (1)に記載の光検出装置。
(3)
 半導体基板と、前記半導体基板に接して形成された層間絶縁膜とを更に備え、
 各前記画素において、
 前記光電変換部は、前記半導体基板における所定の深さの単一領域に形成された所定の導電型の半導体領域で構成され、
 前記複数の増倍部は、前記半導体基板における、前記光電変換部よりも浅い領域であって、かつ前記配線層寄りの領域に形成されたpn接合領域に形成され、
 前記メタル配線は、前記層間絶縁膜内に形成され、かつ前記複数の増倍部に接して形成されている
 (2)に記載の光検出装置。
(4)
 前記層間絶縁膜を介して前記半導体基板に貼り合わされた信号処理基板を更に備え、
 前記信号処理基板は、前記メタル配線に電気的に接続された信号処理部を有し、
 前記信号処理部は、前記複数の増倍部からの出力を処理する
 (3)に記載の光検出装置。
(5)
 前記層間絶縁膜と前記信号処理基板とは、当該層間絶縁膜と当該信号処理基板との接合面に設けられた銅パッド同士を互いに接合することにより、電気的に接続されている
 (4)に記載の光検出装置。
(6)
 各前記画素において、前記複数の増倍部は、平面視において、前記光電変換部と対向する画素領域内の中央寄りの位置に配置されている
 (3)に記載の光検出装置。
(7)
 各前記画素において、前記複数の増倍部は、前記画素領域において、当該画素領域の中心を除く位置に配置されている
 (6)に記載の光検出装置。
(8)
 各前記画素は、前記半導体基板における前記複数の増倍部と同一の層内に、前記複数の増倍部を互いに分離する分離部を更に有する
 (3)ないし(7)のいずれか1つに記載の光検出装置。
(9)
 前記分離部は、前記半導体基板に形成されたイオンインプラントで構成されている
 (8)に記載の光検出装置。
(10)
 前記分離部は、前記半導体基板に形成されたSTI(shallow trench isolation)で構成されている
 (8)に記載の光検出装置。
(11)
 2次元配置された複数の画素を備え、
 各前記画素は、
 光電変換部と、
 互いに並列接続され、かつ、前記光電変換部に対して直列に接続された複数の増倍部と、
 前記複数の増倍部のうち、前記光電変換部との接続側とは反対側に接続されたクエンチ部と
 を有する
 撮像装置。
(12)
 光検出装置を備え、
 前記光検出装置は、
 2次元配置された複数の画素を有し、
 各前記画素は、
 光電変換部と、
 互いに並列接続され、かつ、前記光電変換部に対して直列に接続された複数の増倍部と、
 前記複数の増倍部のうち、前記光電変換部との接続側とは反対側に接続されたクエンチ部と
 を有する
 測距装置。
 本開示の第1の側面に係る光検出装置、本開示の第2の側面に係る撮像装置および本開示の第3の側面に係る測距装置では、各画素において、互いに並列接続された複数の増倍部が光電変換部に対して直列に接続されている。これにより、各画素に単一の増倍部を設けた場合と比べて、画素ごとの特性ばらつきを低減することができる。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (12)

  1.  2次元配置された複数の画素を備え、
     各前記画素は、
     光電変換部と、
     互いに並列接続され、かつ、前記光電変換部に対して直列に接続された複数の増倍部と、
     前記複数の増倍部のうち、前記光電変換部との接続側とは反対側に接続されたクエンチ部と
     を有する
     光検出装置。
  2.  各前記画素は、前記複数の増倍部のうち、前記クエンチ部側を互いに電気的に接続するメタル配線を更に有する
     請求項1に記載の光検出装置。
  3.  半導体基板と、前記半導体基板に接して形成された層間絶縁膜とを更に備え、
     各前記画素において、
     前記光電変換部は、前記半導体基板における所定の深さの単一領域に形成された所定の導電型の半導体領域で構成され、
     前記複数の増倍部は、前記半導体基板における、前記光電変換部よりも浅い領域であって、かつ前記配線層寄りの領域に形成されたpn接合領域に形成され、
     前記メタル配線は、前記層間絶縁膜内に形成され、かつ前記複数の増倍部に接して形成されている
     請求項2に記載の光検出装置。
  4.  前記層間絶縁膜を介して前記半導体基板に貼り合わされた信号処理基板を更に備え、
     前記信号処理基板は、前記メタル配線に電気的に接続された信号処理部を有し、
     前記信号処理部は、前記複数の増倍部からの出力を処理する
     請求項3に記載の光検出装置。
  5.  前記層間絶縁膜と前記信号処理基板とは、当該層間絶縁膜と当該信号処理基板との接合面に設けられた銅パッド同士を互いに接合することにより、電気的に接続されている
     請求項4に記載の光検出装置。
  6.  各前記画素において、前記複数の増倍部は、平面視において、前記光電変換部と対向する画素領域内の中央寄りの位置に配置されている
     請求項3に記載の光検出装置。
  7.  各前記画素において、前記複数の増倍部は、前記画素領域において、当該画素領域の中心を除く位置に配置されている
     請求項6に記載の光検出装置。
  8.  各前記画素は、前記半導体基板における前記複数の増倍部と同一の層内に、前記複数の増倍部を互いに分離する分離部を更に有する
     請求項3に記載の光検出装置。
  9.  前記分離部は、前記半導体基板に形成されたイオンインプラントで構成されている
     請求項8に記載の光検出装置。
  10.  前記分離部は、前記半導体基板に形成されたSTI(shallow trench isolation)で構成されている
     請求項8に記載の光検出装置。
  11.  2次元配置された複数の画素を備え、
     各前記画素は、
     光電変換部と、
     互いに並列接続され、かつ、前記光電変換部に対して直列に接続された複数の増倍部と、
     前記複数の増倍部のうち、前記光電変換部との接続側とは反対側に接続されたクエンチ部と
     を有する
     撮像装置。
  12.  光検出装置を備え、
     前記光検出装置は、
     2次元配置された複数の画素を有し、
     各前記画素は、
     光電変換部と、
     互いに並列接続され、かつ、前記光電変換部に対して直列に接続された複数の増倍部と、
     前記複数の増倍部のうち、前記光電変換部との接続側とは反対側に接続されたクエンチ部と
     を有する
     測距装置。
PCT/JP2021/038918 2021-10-21 2021-10-21 光検出装置、撮像装置および測距装置 WO2023067755A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2021/038918 WO2023067755A1 (ja) 2021-10-21 2021-10-21 光検出装置、撮像装置および測距装置
CN202280069289.5A CN118103984A (zh) 2021-10-21 2022-10-14 光检测装置、成像装置和测距装置
PCT/JP2022/038476 WO2023068210A1 (ja) 2021-10-21 2022-10-14 光検出装置、撮像装置および測距装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/038918 WO2023067755A1 (ja) 2021-10-21 2021-10-21 光検出装置、撮像装置および測距装置

Publications (1)

Publication Number Publication Date
WO2023067755A1 true WO2023067755A1 (ja) 2023-04-27

Family

ID=86057985

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2021/038918 WO2023067755A1 (ja) 2021-10-21 2021-10-21 光検出装置、撮像装置および測距装置
PCT/JP2022/038476 WO2023068210A1 (ja) 2021-10-21 2022-10-14 光検出装置、撮像装置および測距装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/038476 WO2023068210A1 (ja) 2021-10-21 2022-10-14 光検出装置、撮像装置および測距装置

Country Status (2)

Country Link
CN (1) CN118103984A (ja)
WO (2) WO2023067755A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005276A (ja) * 2016-09-30 2017-01-05 株式会社豊田中央研究所 シングルフォトンアバランシェダイオード
WO2019087783A1 (ja) * 2017-10-31 2019-05-09 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び撮像システム
WO2021124697A1 (ja) * 2019-12-16 2021-06-24 ソニーセミコンダクタソリューションズ株式会社 半導体装置及び電子機器
WO2021172216A1 (ja) * 2020-02-27 2021-09-02 ソニーセミコンダクタソリューションズ株式会社 受光素子、光学デバイス、及び電子機器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005276A (ja) * 2016-09-30 2017-01-05 株式会社豊田中央研究所 シングルフォトンアバランシェダイオード
WO2019087783A1 (ja) * 2017-10-31 2019-05-09 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び撮像システム
WO2021124697A1 (ja) * 2019-12-16 2021-06-24 ソニーセミコンダクタソリューションズ株式会社 半導体装置及び電子機器
WO2021172216A1 (ja) * 2020-02-27 2021-09-02 ソニーセミコンダクタソリューションズ株式会社 受光素子、光学デバイス、及び電子機器

Also Published As

Publication number Publication date
CN118103984A (zh) 2024-05-28
WO2023068210A1 (ja) 2023-04-27

Similar Documents

Publication Publication Date Title
CN210166495U (zh) 受光装置和受光系统
EP3920242A1 (en) Light-receiving element, solid-state imaging device, and ranging device
WO2022091607A1 (ja) 受光装置及び測距装置
KR20230168283A (ko) 고체 촬상 소자, 고체 촬상 소자의 제조 방법 및 전자 기기
CN112997097A (zh) 光检测设备和距离测量设备
WO2023067755A1 (ja) 光検出装置、撮像装置および測距装置
JP2023066297A (ja) 光検出装置および測距システム
WO2024057471A1 (ja) 光電変換素子、固体撮像素子、測距システム
US20220093669A1 (en) Light-receiving element, solid-state imaging device, and ranging device
WO2023162651A1 (ja) 受光素子、および電子機器
WO2022209256A1 (ja) 撮像素子、撮像装置及び撮像素子の制御方法
TWI840456B (zh) 光檢測裝置、光檢測裝置之控制方法及測距裝置
WO2023248346A1 (ja) 撮像装置
WO2022186040A1 (ja) 撮像装置、その駆動方法、および電子機器
WO2024038828A1 (ja) 光検出装置
WO2022054617A1 (ja) 固体撮像装置及び電子機器
WO2022196459A1 (ja) 光電変換素子及び撮像装置
WO2022270110A1 (ja) 撮像装置および電子機器
WO2024095625A1 (ja) 測距装置および測距方法
WO2024070803A1 (ja) 測距装置及びその製造方法
TWI842804B (zh) 受光元件、固體攝像裝置及測距裝置
WO2022102471A1 (ja) 撮像素子および撮像装置
US20230304858A1 (en) Light receiving device and distance measuring device
WO2023229018A1 (ja) 光検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21961407

Country of ref document: EP

Kind code of ref document: A1