WO2024048292A1 - 光検出素子、撮像装置、及び車両制御システム - Google Patents

光検出素子、撮像装置、及び車両制御システム Download PDF

Info

Publication number
WO2024048292A1
WO2024048292A1 PCT/JP2023/029676 JP2023029676W WO2024048292A1 WO 2024048292 A1 WO2024048292 A1 WO 2024048292A1 JP 2023029676 W JP2023029676 W JP 2023029676W WO 2024048292 A1 WO2024048292 A1 WO 2024048292A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
resin film
lens resin
width
element according
Prior art date
Application number
PCT/JP2023/029676
Other languages
English (en)
French (fr)
Inventor
敏暉 山本
航也 土本
誠 大野
晃一 井上
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2024048292A1 publication Critical patent/WO2024048292A1/ja

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures

Definitions

  • the present disclosure relates to a photodetector, an imaging device, and a vehicle control system.
  • CMOS complementary metal oxide semiconductor
  • OCL on-chip lens
  • the present disclosure provides a photodetection element, an imaging device, and a vehicle control system that can suppress the undulation of resin.
  • the lens resin film in the first region is formed with at least one of a flat region whose width is smaller than the width in the thickness direction of the lens resin film in the second region, and an uneven structure.
  • a sensing element is provided.
  • the width in the thickness direction of the lens resin film including the uneven structure in the first region is equal to or smaller than the uneven structure in the second region.
  • the width may be smaller than the width in the thickness direction of the lens resin film including the shaped structure.
  • the uneven structure may have a hemispherical structure.
  • the hemispherical structure may be an on-chip lens.
  • the uneven structure may have a groove.
  • the flat region and the uneven structure may be formed in the lens resin film in the first region.
  • a flat region may be formed on the outer edge side of the uneven structure in the lens resin film in the first region.
  • the flat region may be formed in the lens resin film in the first region on the second region side of the uneven structure.
  • the flat region and the uneven structure may be formed above the light shielding structure.
  • the flat region may be formed on the second region side of the uneven structure.
  • the flat region may be formed on the outer edge side of the uneven structure above the light shielding structure.
  • the planar width of the flat region in the lens resin film in the first region is equal to the unevenness in the lens resin film in the second region. It may be configured to be smaller than the plane width excluding the width of the structure.
  • the width in the thickness direction of the lens resin film in the first region is configured to be larger than the width in the thickness direction of the light shielding structure, and the width in the thickness direction of the light shielding structure is larger than the width in the thickness direction of the protective film. It may be configured to be larger than the width.
  • the light shielding structure is made of a material having light shielding properties such as a metal film or an organic film,
  • the protective film may be an oxide film.
  • the linear expansion coefficient of the lens resin film in the first region and the linear expansion coefficient of the protective film may be different.
  • the pixels in the second area may include dummy pixels that are not used for imaging.
  • the pixels in the first region may be pixels for acquiring information regarding dark current.
  • the planar width of the region in contact with the second region may be smaller than the planar width of the outer edge side.
  • a photodetection element an optical system that focuses light on the photodetector; Equipped with The photodetecting element is a semiconductor layer in which a plurality of pixels having a photoelectric conversion section are formed; a light shielding structure configured above the outer edge region of the semiconductor layer; a lens resin film laminated above the semiconductor layer and the light shielding structure; a protective film laminated above the lens resin film; Equipped with a first region on the outer edge side that includes the light-shielding structure; and a second region that includes the photoelectric conversion section and does not include the light-shielding structure;
  • the lens resin film in the first region is formed with at least one of a flat region whose width is smaller than the width in the thickness direction of the lens resin film in the second region, and an uneven structure.
  • a device may be provided.
  • a vehicle control system including an imaging device is provided.
  • FIG. 2 is a block diagram showing a configuration example of a photodetection element according to the present technology.
  • FIG. 2 is a schematic diagram showing an example of a laminated structure of a photodetecting element according to the present technology.
  • FIG. 2 is an enlarged cross-sectional view of a part of the first semiconductor substrate.
  • FIG. 3 is a diagram schematically explaining the cause of the waving phenomenon.
  • FIG. 2 is a diagram showing a first configuration example of a photodetecting element 1 that reduces stress.
  • FIG. 3 is a diagram schematically showing a top view of a first semiconductor substrate.
  • FIG. 7 is a diagram showing a second configuration example of a photodetecting element. 7 is a diagram schematically showing a top view of a first semiconductor substrate in configuration example 2.
  • FIG. 7 is a diagram illustrating a third configuration example of a photodetection element that reduces force.
  • FIG. 7 is a diagram schematically showing a top view of a first semiconductor substrate in Configuration Example 3;
  • FIG. 7 is a diagram showing a fourth configuration example of a photodetecting element that reduces stress.
  • FIG. 7 is a diagram schematically showing a top view of a first semiconductor substrate in Configuration Example 4;
  • FIG. 5 is a diagram illustrating a fifth configuration example of a photodetecting element 1 that reduces stress.
  • 7 is a diagram schematically showing a top view of a first semiconductor substrate in configuration example 5.
  • FIG. FIG. 7 is a diagram showing a sixth configuration example of the photodetecting element 1 that reduces stress.
  • FIG. 7 is a diagram schematically showing a top view of a first semiconductor substrate in Configuration Example 6;
  • FIG. 3 is a cross-sectional view of the process of forming an oxide film and a lens resin film.
  • FIG. 3 is a cross-sectional view showing production example 2 of the process of forming an oxide film and a lens resin film.
  • FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 3 is an explanatory diagram showing an example of installation positions of an outside-vehicle information detection section and an imaging section.
  • FIG. 1 is a block diagram illustrating a configuration example of a photodetecting element according to the present technology.
  • the photodetection element 1 is configured as, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the photodetecting element 1 includes a pixel region (pixel array) 3 in which a plurality of pixels 2 are regularly arranged in a two-dimensional array on a semiconductor substrate (for example, a Si substrate), not shown, and a peripheral circuit section.
  • CMOS Complementary Metal Oxide Semiconductor
  • the pixel 2 has a photoelectric conversion unit (for example, a photodiode) that performs photoelectric conversion and a plurality of pixel transistors (MOS transistors).
  • the plurality of pixel transistors can be composed of, for example, three transistors: a transfer transistor, a reset transistor, and an amplification transistor. Furthermore, the plurality of pixel transistors can be configured with four transistors by adding a selection transistor. Note that since the equivalent circuit of the unit pixel is the same as a well-known technique, detailed explanation will be omitted.
  • the pixel 2 can be configured as one unit pixel or can have a shared pixel structure.
  • This pixel sharing structure is a structure in which a plurality of photodiodes share transistors other than a floating diffusion and a plurality of transfer transistors. That is, in a shared pixel, the photodiodes and transfer transistors that constitute a plurality of unit pixels share one other pixel transistor.
  • the peripheral circuit section includes a vertical drive circuit 4, a column signal processing circuit 5, a horizontal drive circuit 6, an output circuit 7, and a control circuit 8.
  • the vertical drive circuit 4 is composed of, for example, a shift register.
  • the vertical drive circuit 4 selects a pixel drive wiring, supplies pulses for driving pixels to the selected pixel drive wiring, and drives the pixels row by row. That is, the vertical drive circuit 4 sequentially selectively scans each pixel 2 in the pixel region 3 in the vertical direction row by row. Then, the vertical drive circuit 4 supplies the column signal processing circuit 5 with a pixel signal based on the signal charge generated in the photoelectric conversion section of each pixel 2 according to the amount of light received through the vertical signal line 9.
  • the column signal processing circuit 5 is arranged for each column of pixels 2, for example.
  • the column signal processing circuit 5 performs signal processing such as noise removal on the signals output from the pixels 2 of one row for each pixel column.
  • the column signal processing circuit 5 performs signal processing such as CDS (Correlated Double Sampling) to remove fixed pattern noise specific to the pixel 2, signal amplification, and A/D (Analog/Digital) conversion.
  • a horizontal selection switch (not shown) is provided at the output stage of the column signal processing circuit 5 and connected between it and the horizontal signal line 10 .
  • the horizontal drive circuit 6 is composed of, for example, a shift register.
  • the horizontal drive circuit 6 sequentially outputs horizontal scanning pulses to select each of the column signal processing circuits 5 in turn, and causes the pixel signals from each of the column signal processing circuits 5 to be output to the horizontal signal line 10 .
  • the output circuit 7 performs signal processing on the signals sequentially supplied from each of the column signal processing circuits 5 through the horizontal signal line 10 and outputs the processed signals.
  • the output circuit 7 may perform only buffering, or may perform black level adjustment, column variation correction, various digital signal processing, etc.
  • the control circuit 8 receives an input clock and data instructing the operation mode, etc., and also outputs data such as internal information of the photodetecting element 1.
  • the control circuit 8 also generates clock signals and control signals that serve as operating standards for the vertical drive circuit 4, column signal processing circuit 5, horizontal drive circuit 6, etc., based on the vertical synchronization signal, horizontal synchronization signal, and master clock. generate. Then, the control circuit 8 inputs these signals to the vertical drive circuit 4, column signal processing circuit 5, horizontal drive circuit 6, and the like.
  • the input/output terminal 12 exchanges signals with the outside.
  • FIG. 2 is a schematic diagram showing an example of a stacked structure of a photodetecting element according to the present technology.
  • the photodetector element 1 shown in FIG. 2 is composed of a first semiconductor substrate 21 and a second semiconductor substrate 22.
  • a pixel region 23 is mounted on the first semiconductor substrate 21 .
  • a control circuit 24 and a logic circuit 25 including a signal processing circuit are mounted on the second semiconductor substrate 22.
  • the first semiconductor substrate 21 and the second semiconductor substrate 22 are electrically connected to each other, thereby forming the photodetecting element 1 as one semiconductor element.
  • the laminated structure example according to this embodiment is an example, and is not limited thereto.
  • a configuration region for the control circuit 24 may be formed within the first semiconductor substrate 21.
  • FIG. 3 is an enlarged cross-sectional view of a part of the first semiconductor substrate 21.
  • the photodetecting element 1 according to the present technology is configured, for example, as a back-illuminated CMOS imaging device.
  • a back-illuminated CMOS imaging device has a light receiving section placed above a circuit section, and has higher sensitivity and lower noise than a front-illuminated CMOS imaging device.
  • the first semiconductor substrate 21 includes a protective film 30 , a lens resin film 32 having an uneven structure 31 , a light shielding film 34 , a semiconductor layer 36 , and a multilayer wiring layer 38 .
  • the protective film 30 is, for example, an oxide film, and functions as a protective film for the lens resin film 32.
  • a concavo-convex structure 31 is formed on the lens resin film 32 .
  • a flat area A104 is formed on the outer peripheral side of the area where this uneven structure 31 is formed. Note that the flat area A104 may be referred to as a collet area.
  • the protective film 30 is laminated and formed on the upper surface of the lens resin film 32.
  • the uneven structure 31 has a hemispherical structure. This hemispherical structure is an on-chip lens (OCL).
  • the light shielding film 34 is configured above the outer edge region of the semiconductor layer 36.
  • This light shielding film 34 is made of either an organic film or a metal film. That is, the light shielding film 34 is made of a material having light shielding properties, such as a metal film or an organic film.
  • the light shielding film 34 and the outer edge region outside the light shielding film 34 constitute a first region A100 having the light shielding film 34. Further, the area inside the first area A100 becomes a second area A102 which is an area of effective pixels. Note that the second area A102 of effective pixels may include, for example, so-called dummy pixels that are not used for imaging. Note that the light shielding film 34 according to this embodiment corresponds to a light shielding structure.
  • the semiconductor layer 36 is made of thin silicon.
  • a pixel region 23 (see FIG. 2) is formed in which a plurality of pixels each including a photodiode PD serving as a photoelectric conversion section and a plurality of pixel transistors are two-dimensionally arranged in a matrix.
  • the pixels shielded from light by the light shielding film 34 are pixels for acquiring information regarding dark current. These pixels for acquiring information regarding dark current constitute a so-called optical black area.
  • the multilayer wiring layer 38 has an interlayer insulating film. Wiring and connection wiring are formed in the interlayer insulating film.
  • the thickness of the protective film 30 is 110 nanometers
  • the width W100 of the on-chip lens in the thickness direction is 2200 nanometers, excluding the width W100 of the on-chip lens in the thickness direction.
  • the width W102 of the lens resin film 32 in the thickness direction is 1000 nanometers
  • the width W104 of the semiconductor layer 36 in the thickness direction is 800 nanometers.
  • the width W102 of the lens resin film 32 in the thickness direction excluding the width W100 of the on-chip lens in the thickness direction may be referred to as a plane width.
  • FIG. 4 is a diagram schematically explaining the cause of the waving phenomenon.
  • the linear expansion coefficient of the protective film 30 is, for example, 0.7
  • the linear expansion coefficient of the lens resin film 32 is, for example, 10 to 30
  • the linear expansion coefficient of the light shielding film is, for example, 1 to 10.
  • the linear expansion coefficient of the protective film 30 is about one tenth of that of the lens resin film 32. That is, there is a relationship of linear expansion coefficient of lens resin film 32>linear expansion coefficient of light shielding film 34>linear expansion coefficient of protective film 30.
  • FIG. 5 is a diagram showing a first configuration example of the photodetecting element 1 that reduces stress.
  • FIG. 6 is a diagram schematically showing a top view of the first semiconductor substrate 21.
  • the uneven structure 31 is configured up to the first region A100 having the light shielding film 34. In this way, a flat region and an uneven structure 31 are formed in the lens resin film 32 in the first region A100.
  • the semicircular structure of the uneven structure 31 makes it possible to disperse stress between the protective film 30 and the lens resin film 32. As a result, stress can be reduced in the region forming the uneven structure 31 to the extent that no waving phenomenon occurs in appearance. Further, a light shielding film 34 is formed in the region forming the uneven structure 31 of the first region A100 having the light shielding film 34. Thereby, the thickness of the lens resin film 32 is configured to be smaller than the area A102, so that the cross-sectional area of the lens resin film 32 can be further reduced, and stress is further reduced. This makes it possible to further suppress the waving phenomenon.
  • the width in the thickness direction of the uneven structure 31 on the light shielding film 34 is smaller than the width in the thickness direction of the uneven structure 31 in the second area A102, and the width in the thickness direction of the uneven structure 31 on the light shielding film 34 is smaller than the width in the thickness direction of the uneven structure 31 in the second area A102. and stress is further reduced.
  • the width W106 in the thickness direction of the flat area of the first area A100 having the light shielding film 34 is made small to the extent that no waving phenomenon occurs in appearance.
  • the width W106 in the thickness direction of the lens resin film 32 is made smaller than the width W102 in the thickness direction. That is, the planar width W106 of the first region A100 having the light shielding film 34 is configured to be smaller than the planar width W102 of the region A102.
  • FIG. 7 is a diagram showing a second configuration example of the photodetecting element 1.
  • FIG. 8 is a diagram schematically showing a top view of the first semiconductor substrate 21 in Configuration Example 2.
  • the first area A100 having the light shielding film 34 is entirely a flat area. That is, in the second configuration example of the photodetecting element 1, the width W106 in the thickness direction of the flat region of the first region A100 having the light shielding film 34 is made small to the extent that no waving phenomenon occurs in appearance. For example, the width W106 in the thickness direction of the lens resin film 32 is made smaller than the width W104 in the thickness direction.
  • the cross-sectional area of the lens resin film 32 By reducing the cross-sectional area of the lens resin film 32 in this way, stress can be reduced to the extent that no waving phenomenon occurs in appearance. Further, since the width W106 of the lens resin film 32 in the thickness direction is configured to be smaller due to the thickness of the light shielding film 34, it is possible to further reduce the cross-sectional area of the lens resin film 32.
  • FIG. 9 is a diagram showing a third configuration example of the photodetecting element 1 that reduces stress.
  • FIG. 10 is a diagram schematically showing a top view of the first semiconductor substrate 21 in Configuration Example 3.
  • the uneven structure 31 is configured on the outer edge side of the first area A100 having the light shielding film 34. As a result, stress can be reduced in the region forming the uneven structure 31 to the extent that no waving phenomenon occurs in appearance.
  • a light shielding film 34 is formed in the flat region of the first area A100 having the light shielding film 34.
  • the thickness of the lens resin film 32 in the flat region is configured to be smaller than the width W102 in the thickness direction of the region A102, making it possible to further reduce the cross-sectional area of the lens resin film 32, thereby reducing stress. reduce This makes it possible to reduce stress to the extent that no waving phenomenon occurs in appearance.
  • FIG. 11 is a diagram showing a fourth configuration example of the photodetecting element 1 that reduces stress.
  • FIG. 12 is a diagram schematically showing a top view of the first semiconductor substrate 21 in Configuration Example 4.
  • the uneven structure 31 is configured in the entire first area A100 having the light shielding film .
  • the width W108 in the thickness direction including the uneven structure 31 of the first region A100 is made smaller than the width W110 in the thickness direction including the uneven structure 31 of the region A102.
  • the lens resin film 32 in the first area A100 is configured to have a lower height than the lens resin film 32 in the second area A102.
  • the width W108 including the uneven structure 31 of the first area A100 is made smaller than the width W110 including the uneven structure 31 of the area A102, the cross-sectional area of the lens resin film 32 can be made smaller. becomes possible. Furthermore, since the thickness of the lens resin film 32 is configured to be smaller than the width W106 in the thickness direction due to the thickness of the light shielding film 34, it is possible to further reduce the cross-sectional area of the lens resin film 32.
  • FIG. 13 is a diagram showing a fifth configuration example of the photodetecting element 1 that reduces stress.
  • FIG. 14 is a diagram schematically showing a top view of the first semiconductor substrate 21 in Configuration Example 5.
  • the uneven structure 31 is configured in the entire first area A100 having the light shielding film .
  • the semicircular structure of the uneven structure 31 makes it possible to disperse stress between the protective film 30 and the lens resin film 32. As a result, stress can be reduced in the region forming the uneven structure 31 to the extent that no waving phenomenon occurs in appearance. Further, since the thicknesses including the uneven structure 31 of the first region A100 and the region A102 are the same, it is possible to further simplify the generation process.
  • FIG. 15 is a diagram showing a sixth configuration example of the photodetecting element 1 that reduces stress.
  • FIG. 16 is a diagram schematically showing a top view of the first semiconductor substrate 21 in Configuration Example 6.
  • the concavo-convex structure 31 is configured up to the first region A100 having the light-shielding film .
  • a second uneven structure having a groove portion 39 having a structure different from that of the uneven structure 31 is configured outside the uneven structure 31.
  • the semicircular structure of the uneven structure 31 makes it possible to disperse stress between the protective film 30 and the lens resin film 32.
  • the second uneven structure makes it possible to disperse stress between the protective film 30 and the lens resin film 32.
  • stress can be reduced in the regions forming the second uneven structure and the uneven structure 31 to the extent that no waving phenomenon occurs in appearance.
  • a light shielding film 34 is formed in the region forming the uneven structure 31 of the first region A100 having the light shielding film 34.
  • the thickness of the lens resin film 32 is configured to be smaller than the area A102, so that the cross-sectional area of the lens resin film 32 can be further reduced, and stress is further reduced.
  • the width W106 in the thickness direction of the flat area of the first area A100 having the light shielding film 34 is made small to the extent that no waving phenomenon occurs in appearance.
  • the width W106 in the thickness direction of the lens resin film 32 is made smaller than the width W104 in the thickness direction.
  • FIG. 17 is a cross-sectional view of the process of forming the protective film 30 and the lens resin film 32. As shown in FIG. 17, after forming the light shielding film 34, the semiconductor layer 36, and the multilayer wiring layer 38, the lens resin film 32 is formed. Next, a litho resist pattern 40 having an uneven structure 31 is formed. Note that by changing the litho resist pattern 40, it is possible to form the flat region and the uneven structure 31 corresponding to the above-described structural examples 1 to 6.
  • an uneven structure 31 made of the lens resin film 32 is formed by etching back until the litho resist pattern 40 is removed. By this etchback, the shape of the litho resist pattern 40 is transferred, and the uneven structure 31 is manufactured. Then, the protective film 30 is formed using, for example, a thermal CVD apparatus.
  • FIG. 18 is a cross-sectional view showing a production example 2 of the process of forming the protective film 30 and the lens resin film 32.
  • a light shielding film 34, a semiconductor layer 36, and a multilayer wiring layer 38 are formed, and then a lens resin film 32 is formed.
  • a litho resist pattern 40a having a flat region and an uneven structure 31 is formed. Note that by changing the litho resist pattern 40a, it is possible to form the flat region and the uneven structure 31 corresponding to the above-described structural examples 1 to 6.
  • an uneven structure 31 made of the lens resin film 32 is formed by etching back until the litho resist pattern 40a disappears.
  • the shape of the litho resist pattern 40 is transferred to this etch-back, and the uneven structure 31 is manufactured.
  • a resist pattern 42 for dry processing is formed. Note that by changing the resist pattern 42, flat regions corresponding to the above-described configuration examples 1 to 6 can be formed.
  • the protective film 30 is formed using, for example, a thermal CVD apparatus.
  • the photodetecting element 1 includes a first region A100 on the outer edge side that includes the light shielding film 34 and a second region A100 that includes the photoelectric conversion portion PD and does not include the light shielding film 34.
  • the lens resin film 32 in the first region A100 has a flat region whose width is smaller than the width in the thickness direction of the lens resin film 32 in the second region A102, and the uneven structure 31. At least one of them is formed. Thereby, it becomes possible to reduce stress between the protective film 30 and the lens resin film 32, and it is possible to suppress waviness between the protective film 30 and the lens resin film 32.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be applied to any type of transportation such as a car, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility vehicle, an airplane, a drone, a ship, a robot, a construction machine, an agricultural machine (tractor), etc. It may also be realized as a device mounted on the body.
  • FIG. 19 is a block diagram showing a schematic configuration example of a vehicle control system 7000, which is an example of a mobile object control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 7000 includes multiple electronic control units connected via communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside vehicle information detection unit 7400, an inside vehicle information detection unit 7500, and an integrated control unit 7600. .
  • the communication network 7010 connecting these multiple control units is, for example, CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay ( Compliant with arbitrary standards such as registered trademark) It may be an in-vehicle communication network.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay Compliant with arbitrary standards such as registered trademark
  • Each control unit includes a microcomputer that performs calculation processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used in various calculations, and a drive circuit that drives various devices to be controlled. Equipped with Each control unit is equipped with a network I/F for communicating with other control units via the communication network 7010, and also communicates with devices or sensors inside and outside the vehicle through wired or wireless communication. A communication I/F is provided for communication. In FIG.
  • the functional configuration of the integrated control unit 7600 includes a microcomputer 7610, a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning section 7640, a beacon receiving section 7650, an in-vehicle device I/F 7660, an audio image output section 7670, An in-vehicle network I/F 7680 and a storage unit 7690 are illustrated.
  • the other control units similarly include a microcomputer, a communication I/F, a storage section, and the like.
  • the drive system control unit 7100 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 includes a drive force generation device such as an internal combustion engine or a drive motor that generates drive force for the vehicle, a drive force transmission mechanism that transmits the drive force to wheels, and a drive force transmission mechanism that controls the steering angle of the vehicle. It functions as a control device for a steering mechanism to adjust and a braking device to generate braking force for the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection section 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the axial rotation movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, or an operation amount of an accelerator pedal, an operation amount of a brake pedal, or a steering wheel. At least one sensor for detecting angle, engine rotational speed, wheel rotational speed, etc. is included.
  • the drive system control unit 7100 performs arithmetic processing using signals input from the vehicle state detection section 7110, and controls the internal combustion engine, the drive motor, the electric power steering device, the brake device, and the like.
  • the body system control unit 7200 controls the operations of various devices installed in the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a turn signal, or a fog lamp.
  • radio waves transmitted from a portable device that replaces a key or signals from various switches may be input to the body control unit 7200.
  • the body system control unit 7200 receives input of these radio waves or signals, and controls the door lock device, power window device, lamp, etc. of the vehicle.
  • the battery control unit 7300 controls the secondary battery 7310, which is a power supply source for the drive motor, according to various programs. For example, information such as battery temperature, battery output voltage, or remaining battery capacity is input to the battery control unit 7300 from a battery device including a secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature adjustment of the secondary battery 7310 or the cooling device provided in the battery device.
  • the external information detection unit 7400 detects information external to the vehicle in which the vehicle control system 7000 is mounted.
  • an imaging section 7410 and an external information detection section 7420 is connected to the vehicle exterior information detection unit 7400.
  • the imaging unit 7410 includes at least one of a ToF (Time of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the vehicle external information detection unit 7420 includes, for example, an environmental sensor for detecting the current weather or weather, or a sensor for detecting other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the surrounding information detection sensors is included.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunlight sensor that detects the degree of sunlight, and a snow sensor that detects snowfall.
  • the surrounding information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging section 7410 and the vehicle external information detection section 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 20 shows an example of the installation positions of the imaging section 7410 and the vehicle external information detection section 7420.
  • the imaging units 7910, 7912, 7914, 7916, and 7918 are provided, for example, at at least one of the front nose, side mirrors, rear bumper, back door, and upper part of the windshield inside the vehicle 7900.
  • An imaging unit 7910 provided in the front nose and an imaging unit 7918 provided above the windshield inside the vehicle mainly acquire images in front of the vehicle 7900.
  • Imaging units 7912 and 7914 provided in the side mirrors mainly capture images of the sides of the vehicle 7900.
  • An imaging unit 7916 provided in the rear bumper or back door mainly acquires images of the rear of the vehicle 7900.
  • the imaging unit 7918 provided above the windshield inside the vehicle is mainly used to detect preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 20 shows an example of the imaging range of each of the imaging units 7910, 7912, 7914, and 7916.
  • Imaging range a indicates the imaging range of imaging unit 7910 provided on the front nose
  • imaging ranges b and c indicate imaging ranges of imaging units 7912 and 7914 provided on the side mirrors, respectively
  • imaging range d is The imaging range of an imaging unit 7916 provided in the rear bumper or back door is shown. For example, by superimposing image data captured by imaging units 7910, 7912, 7914, and 7916, an overhead image of vehicle 7900 viewed from above can be obtained.
  • the external information detection units 7920, 7922, 7924, 7926, 7928, and 7930 provided at the front, rear, sides, corners, and the upper part of the windshield inside the vehicle 7900 may be, for example, ultrasonic sensors or radar devices.
  • External information detection units 7920, 7926, and 7930 provided on the front nose, rear bumper, back door, and upper part of the windshield inside the vehicle 7900 may be, for example, LIDAR devices.
  • These external information detection units 7920 to 7930 are mainly used to detect preceding vehicles, pedestrians, obstacles, and the like.
  • the vehicle exterior information detection unit 7400 causes the imaging unit 7410 to capture an image of the exterior of the vehicle, and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection section 7420 to which it is connected.
  • the external information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device
  • the external information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, etc., and receives information on the received reflected waves.
  • the external information detection unit 7400 may perform object detection processing such as a person, car, obstacle, sign, or text on the road surface or distance detection processing based on the received information.
  • the external information detection unit 7400 may perform environment recognition processing to recognize rain, fog, road surface conditions, etc. based on the received information.
  • the vehicle exterior information detection unit 7400 may calculate the distance to the object outside the vehicle based on the received information.
  • the outside-vehicle information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing people, cars, obstacles, signs, characters on the road, etc., based on the received image data.
  • the outside-vehicle information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and also synthesizes image data captured by different imaging units 7410 to generate an overhead image or a panoramic image. Good too.
  • the outside-vehicle information detection unit 7400 may perform viewpoint conversion processing using image data captured by different imaging units 7410.
  • the in-vehicle information detection unit 7500 detects in-vehicle information.
  • a driver condition detection section 7510 that detects the condition of the driver is connected to the in-vehicle information detection unit 7500.
  • the driver state detection unit 7510 may include a camera that images the driver, a biosensor that detects biometric information of the driver, a microphone that collects audio inside the vehicle, or the like.
  • the biosensor is provided, for example, on a seat surface or a steering wheel, and detects biometric information of a passenger sitting on a seat or a driver holding a steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, or determine whether the driver is dozing off. You may.
  • the in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected audio signal.
  • the integrated control unit 7600 controls overall operations within the vehicle control system 7000 according to various programs.
  • An input section 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by, for example, a device such as a touch panel, a button, a microphone, a switch, or a lever that can be inputted by the passenger.
  • the integrated control unit 7600 may be input with data obtained by voice recognition of voice input through a microphone.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or an externally connected device such as a mobile phone or a PDA (Personal Digital Assistant) that is compatible with the operation of the vehicle control system 7000. It's okay.
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information using gestures. Alternatively, data obtained by detecting the movement of a wearable device worn by a passenger may be input. Further, the input section 7800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input section 7800 described above and outputs it to the integrated control unit 7600. By operating this input unit 7800, a passenger or the like inputs various data to the vehicle control system 7000 and instructs processing operations.
  • the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, etc. Furthermore, the storage unit 7690 may be realized by a magnetic storage device such as a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the storage unit 7690 may be realized by a magnetic storage device such as a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the general-purpose communication I/F 7620 is a general-purpose communication I/F that mediates communication with various devices existing in the external environment 7750.
  • the general-purpose communication I/F7620 supports GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution), or LTE-A (LTE-A).
  • GSM Global System of Mobile communications
  • WiMAX registered trademark
  • LTE registered trademark
  • LTE-A Long Term Evolution
  • LTE-A Long Term Evolution-A
  • cellular communication protocols such as , or other wireless communication protocols such as wireless LAN (also referred to as Wi-Fi (registered trademark)) or Bluetooth (registered trademark).
  • the general-purpose communication I/F 7620 connects to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via a base station or an access point, for example. You may. Furthermore, the general-purpose communication I/F 7620 uses, for example, P2P (Peer To Peer) technology to communicate with a terminal located near the vehicle (for example, a terminal of a driver, a pedestrian, a store, or an MTC (Machine Type Communication) terminal). You can also connect it with a terminal located near the vehicle (for example, a terminal of a driver, a pedestrian, a store, or an MTC (Machine Type Communication) terminal). You can also connect it with P2P (Peer To Peer) technology to communicate with a terminal located near the vehicle (for example, a terminal of a driver, a pedestrian, a store, or an MTC (Machine Type Communication) terminal). You can also connect it with
  • the dedicated communication I/F 7630 is a communication I/F that supports communication protocols developed for use in vehicles.
  • the dedicated communication I/F 7630 supports WAVE (Wireless Access in Vehicle Environment), which is a combination of lower layer IEEE802.11p and upper layer IEEE1609, and DSRC (Dedicated Short). Range Communications) or standard protocols such as cellular communication protocols. May be implemented.
  • the dedicated communication I/F 7630 is typically used for vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-vehicle communication. to Pedestrian ) communications, a concept that includes one or more of the following:
  • the positioning unit 7640 performs positioning by receiving, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), and determines the latitude of the vehicle. , longitude and altitude Generate location information including. Note that the positioning unit 7640 may specify the current location by exchanging signals with a wireless access point, or may acquire location information from a terminal such as a mobile phone, PHS, or smartphone that has a positioning function.
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the beacon receiving unit 7650 receives, for example, radio waves or electromagnetic waves transmitted from a wireless station installed on the road, and obtains information such as the current location, traffic jams, road closures, or required travel time. Note that the function of the beacon receiving unit 7650 may be included in the dedicated communication I/F 7630 described above.
  • the in-vehicle device I/F 7660 is a communication interface that mediates connections between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
  • the in-vehicle device I/F 7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • USB Universal Serial Bus
  • HDMI registered trademark
  • MHL Mobile
  • the in-vehicle device 7760 may include, for example, at least one of a mobile device or wearable device owned by a passenger, or an information device carried into or attached to the vehicle.
  • the in-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination. or exchange data signals.
  • the in-vehicle network I/F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the in-vehicle network I/F 7680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 communicates via at least one of a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning section 7640, a beacon reception section 7650, an in-vehicle device I/F 7660, and an in-vehicle network I/F 7680.
  • the vehicle control system 7000 is controlled according to various programs based on the information obtained. For example, the microcomputer 7610 calculates a control target value for a driving force generating device, a steering mechanism, or a braking device based on acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. Good too.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. Coordination control may be performed for the purpose of
  • the microcomputer 7610 controls the driving force generating device, steering mechanism, braking device, etc. based on the acquired information about the surroundings of the vehicle, so that the microcomputer 7610 can drive the vehicle autonomously without depending on the driver's operation. Cooperative control for the purpose of driving etc. may also be performed.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 7610 acquires information through at least one of a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning section 7640, a beacon reception section 7650, an in-vehicle device I/F 7660, and an in-vehicle network I/F 7680. Based on this, three-dimensional distance information between the vehicle and surrounding objects such as structures and people may be generated, and local map information including surrounding information of the current position of the vehicle may be generated. Furthermore, the microcomputer 7610 may predict dangers such as a vehicle collision, a pedestrian approaching, or entering a closed road, based on the acquired information, and generate a warning signal.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio and image output unit 7670 transmits an output signal of at least one of audio and images to an output device that can visually or audibly notify information to the vehicle occupants or to the outside of the vehicle.
  • an audio speaker 7710, a display section 7720, and an instrument panel 7730 are illustrated as output devices.
  • Display unit 7720 may include, for example, at least one of an on-board display and a head-up display.
  • the display section 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices other than these devices, such as headphones, a wearable device such as a glasses-type display worn by the passenger, a projector, or a lamp.
  • the output device When the output device is a display device, the display device displays the results obtained by various processes performed by the microcomputer 7610 or information received from other control units in various formats such as text, images, tables, graphs, etc. Show it visually. Further, when the output device is an audio output device, the audio output device converts an audio signal consisting of reproduced audio data or acoustic data into an analog signal and audibly outputs the analog signal.
  • control unit 7010 may be integrated as one control unit.
  • each control unit may be composed of a plurality of control units.
  • vehicle control system 7000 may include another control unit not shown.
  • some or all of the functions performed by one of the control units may be provided to another control unit.
  • predetermined arithmetic processing may be performed by any one of the control units.
  • sensors or devices connected to any control unit may be connected to other control units, and multiple control units may send and receive detection information to and from each other via communication network 7010. .
  • a computer program for realizing each function of the photodetecting element 1 according to the present embodiment described using FIG. 1 can be implemented in any control unit or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed, for example, via a network, without using a recording medium.
  • the photodetecting element 1 according to the present embodiment described using FIG. 1 can be applied to the integrated control unit 7600 of the application example shown in FIG.
  • the sensor section of the imaging section 7410 corresponds to the photodetection element 1.
  • the components of the photodetecting element 1 described using FIG. 1 can be used in a module for the integrated control unit 7600 shown in FIG. May be realized.
  • the photodetecting element 1 described using FIG. 1 may be realized by a plurality of control units of the vehicle control system 7000 shown in FIG. 19. Note that the present technology can have the following configuration.
  • the lens resin film in the first region is formed with at least one of a flat region whose width is smaller than the width in the thickness direction of the lens resin film in the second region, and an uneven structure. detection element.
  • the width in the thickness direction of the lens resin film including the uneven structure in the first region is equal to or smaller than the uneven structure in the second region.
  • the photodetecting element according to (1) which is configured to have a width smaller than the width in the thickness direction of the lens resin film including a shaped structure.
  • the planar width of the flat region in the lens resin film in the first region is equal to the unevenness in the lens resin film in the second region.
  • the photodetecting element according to (1) which is configured to be smaller than a plane width excluding the width of the structure.
  • the width in the thickness direction of the lens resin film in the first region is configured to be larger than the width in the thickness direction of the light shielding structure, and the width in the thickness direction of the light shielding structure is larger than the width in the thickness direction of the protective film.
  • the photodetector element according to (1) which is configured to be larger than the width.
  • the light shielding structure is made of a material having light shielding properties such as a metal film or an organic film,
  • the photodetecting element is a semiconductor layer in which a plurality of pixels having a photoelectric conversion section are formed; a light shielding structure configured above the outer edge region of the semiconductor layer; a lens resin film laminated above the semiconductor layer and the light shielding structure; a protective film laminated above the lens resin film; Equipped with a first region on the outer edge side that includes the light-shielding structure; and a second region that includes the photoelectric conversion section and does not include the light-shielding structure;
  • the lens resin film in the first region is formed with at least one of a flat region whose width is smaller than the width in the thickness direction of the lens resin film in the second region, and an uneven structure.
  • a vehicle control system comprising the imaging device according to (19).
  • Photodetection element 1: Photodetection element, 2: Pixel, 30: Protective film, 31: Uneven structure, 32: Lens resin film, 34: Light shielding film, 36: Semiconductor layer, 39: Groove, 7000: Vehicle control system, A100: No. 1 area, A102: 2nd area.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

[課題]本開示では、樹脂の波打ちを抑制可能な光検出素子、撮像装置、及び車両制御システムを提供する。 [解決手段]光検出素子は、光電変換部を有する複数の画素が形成された半導体層と、半導体層における外縁領域の上方に構成される遮光構造と、半導体層及び遮光構造の上方に積層されるレンズ樹脂膜と、レンズ樹脂膜の上方に積層される保護膜と、を備え、遮光構造を含む外縁側の第1領域と、光電変換部を有し遮光構造を含まない第2領域とを有し、第1領域のレンズ樹脂膜には、第2領域におけるレンズ樹脂膜の厚さ方向の幅よりも幅の小さい平坦領域、及び凹凸状構造の内の少なくとも一方が形成される。

Description

光検出素子、撮像装置、及び車両制御システム
 本開示は、光検出素子、撮像装置、及び車両制御システムに関する。
 CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の光検出素子においては、光の入射面の上方に形成されたオンチップレンズ(OCL:On Chip Lens)により集光が行われている。
特開2005-055452号公報
 ところが、光検出素子において、オンチップレンズが形成された領域よりも外側の平坦な領域では、熱等による樹脂膨張の影響を受けて、樹脂が波打つなどの現象が発生する恐れがある。
 そこで、本開示では、樹脂の波打ちを抑制可能な光検出素子、撮像装置、及び車両制御システムを提供するものである。
 上記の課題を解決するために、本開示によれば、光電変換部を有する複数の画素が形成された半導体層と、
 前記半導体層における外縁領域の上方に構成される遮光構造と、
 前記半導体層及び前記遮光構造の上方に積層されるレンズ樹脂膜と、
 前記レンズ樹脂膜の上方に積層される保護膜と、
 を備え、
 前記遮光構造を含む外縁側の第1領域と、前記光電変換部を有し前記遮光構造を含まない第2領域とを有し、
 前記第1領域の前記レンズ樹脂膜には、前記第2領域における前記レンズ樹脂膜の厚さ方向の幅よりも幅の小さい平坦領域、及び凹凸状構造の内の少なくとも一方が形成される、光検出素子が提供される。
 前記第1領域の前記レンズ樹脂膜が、前記凹凸状構造を含む場合に、前記第1領域の前記凹凸状構造を含む前記レンズ樹脂膜の厚さ方向の幅は、前記第2領域の前記凹凸状構造を含む前記レンズ樹脂膜の厚さ方向の幅よりも小さく構成されてもよい。
 前記凹凸状構造は、半球状の構造を有してもよい。
 前記半球状の構造は、オンチップレンズであってもよい。
 前記凹凸状構造は、溝部を有してもよい。
 前記第1領域の前記レンズ樹脂膜には、前記平坦領域、及び前記凹凸状構造が形成されてもよい。
 前記第1領域の前記レンズ樹脂膜には、前記凹凸状構造の外縁側に平坦領域が形成されてもよい。
 前記第1領域の前記レンズ樹脂膜には、前記凹凸状構造の前記第2領域側に前記平坦領域が形成されてもよい。
 前記遮光構造の上方において、前記平坦領域、及び前記凹凸状構造が形成されてもよい。
 前記遮光構造の上方において、前記凹凸状構造の前記第2領域側に前記平坦領域が形成されてもよい。
 前記遮光構造の上方において、前記凹凸状構造の外縁側に前記平坦領域が形成されてもよい。
 前記第1領域の前記レンズ樹脂膜が、前記平坦領域を含む場合に、前記第1領域の前記レンズ樹脂膜における前記平坦領域の平面幅は、前記第2領域の前記レンズ樹脂膜における前記凹凸状構造の幅を除く平面幅よりも小さく構成されてもよい。
 前記第1領域の前記レンズ樹脂膜の厚さ方向の幅は、前記遮光構造の厚さ方向の幅より大きく構成され、前記遮光構造の厚さ方向の幅は、前記保護膜の厚さ方向の幅より大きく構成されてもよい。
 前記遮光構造は、金属膜、もしくは有機膜など遮光特性を有する材料からなり、
 前記保護膜は、酸化膜であってもよい。
 前記第1領域における前記レンズ樹脂膜の線膨張係数と、前記保護膜の線膨張係数と、は異なってもよい。
 前記第2領域の画素には、撮像に用いられないダミー画素が含まれてもよい。
 前記第1領域の画素は、暗電流に関する情報を取得するための画素であってもよい。
 前記第1領域において、前記第2領域に接する側の領域の平面幅が、外縁側の平面幅よりも小さく構成されてもよい。
 上記の課題を解決するために、本開示によれば、光検出素子と、
 前記光検出素子に集光する光学系と、
を備え、
 前記光検出素子は、
 光電変換部を有する複数の画素が形成された半導体層と、
 前記半導体層における外縁領域の上方に構成される遮光構造と、
 前記半導体層及び前記遮光構造の上方に積層されるレンズ樹脂膜と、
 前記レンズ樹脂膜の上方に積層される保護膜と、
 を備え、
 前記遮光構造を含む外縁側の第1領域と、前記光電変換部を有し前記遮光構造を含まない第2領域とを有し、
 前記第1領域の前記レンズ樹脂膜には、前記第2領域における前記レンズ樹脂膜の厚さ方向の幅よりも幅の小さい平坦領域、及び凹凸状構造の内の少なくとも一方が形成される、撮像装置が提供されてもよい。
 上記の課題を解決するために、本開示によれば、撮像装置を有する、車両制御システムが提供される。
本技術に係る光検出素子の構成例を示すブロック図。 本技術に係る光検出素子の積層構造例を示す模式図。 第1の半導体基板の一部を拡大して示した断面図。 波打ち現象の発生原因を模式的に説明する図。 応力を低減する光検出素子1の構成例1を示す図。 第1の半導体基板の上面図を模式的に示している図。 光検出素子の構成例2を示す図。 構成例2における第1の半導体基板の上面図を模式的に示している図。 力を低減する光検出素子の構成例3を示す図。 構成例3における第1の半導体基板の上面図を模式的に示している図。 応力を低減する光検出素子の構成例4を示す図。 構成例4における第1の半導体基板の上面図を模式的に示している図。 応力を低減する光検出素子1の構成例5を示す図。 構成例5における第1の半導体基板の上面図を模式的に示している図。 応力を低減する光検出素子1の構成例6を示す図。 構成例6における第1の半導体基板の上面図を模式的に示している図。 酸化膜とレンズ樹脂膜の形成工程における断面図。 酸化膜とレンズ樹脂膜の形成工程の生成例2を示す断面図。 車両制御システムの概略的な構成の一例を示すブロック図。 車外情報検出部及び撮像部の設置位置の一例を示す説明図。
 以下、図面を参照して、光検出素子、撮像装置、及び車両制御システムの実施形態について説明する。以下では、光検出素子、撮像装置、及び車両制御システムの主要な構成部分を中心に説明するが、光検出素子、撮像装置、及び車両制御システムには、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
 <光検出素子の構成例>
 図1は、本技術に係る光検出素子の構成例を示すブロック図である。図1に示すように、光検出素子1は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサとして構成されている。光検出素子1は、図示しない半導体基板(例えばSi基板)に複数の画素2が規則的に2次元アレイ状に配列された画素領域(画素アレイ)3と、周辺回路部とを有する。
 画素2は、光電変換を行う光電変換部(例えばフォトダイオード)と、複数の画素トランジスタ(MOSトランジスタ)を有する。複数の画素トランジスタは、例えば、転送トランジスタ、リセットトランジスタ、および増幅トランジスタの3つのトランジスタで構成することができる。また、複数の画素トランジスタは、選択トランジスタを追加して4つのトランジスタで構成することもできる。なお、単位画素の等価回路は周知な技術と同様であるので、詳細な説明は省略する。
 また、画素2は、1つの単位画素として構成することもできるし、共有画素構造とすることもできる。この画素共有構造は、複数のフォトダイオードが、フローティングディフュージョン、および複数の転送トランジスタ以外の他のトランジスタを共有する構造である。すなわち、共有画素では、複数の単位画素を構成するフォトダイオードおよび転送トランジスタが、他の1つずつの画素トランジスタを共有して構成されている。
 周辺回路部は、垂直駆動回路4、カラム信号処理回路5、水平駆動回路6、出力回路7、および制御回路8を有する。
 垂直駆動回路4は、例えばシフトレジスタによって構成されている。垂直駆動回路4は、画素駆動配線を選択し、選択された画素駆動配線に画素を駆動するためのパルスを供給し、行単位で画素を駆動する。すなわち、垂直駆動回路4は、画素領域3の各画素2を行単位で順次垂直方向に選択走査する。そして、垂直駆動回路4は、垂直信号線9を通して各画素2の光電変換部において受光量に応じて生成された信号電荷に基づく画素信号を、カラム信号処理回路5に供給する。
 カラム信号処理回路5は、例えば画素2の列毎に配置されている。カラム信号処理回路5は、1行分の画素2から出力される信号に対して画素列毎に、ノイズ除去などの信号処理を行う。具体的には、カラム信号処理回路5は、画素2固有の固定パターンノイズを除去するためのCDS(Correlated Double Sampling)や、信号増幅、A/D(Analog/Digital)変換等の信号処理を行う。カラム信号処理回路5の出力段には、水平選択スイッチ(図示せず)が水平信号線10との間に接続されて設けられている。
 水平駆動回路6は、例えばシフトレジスタによって構成されている。水平駆動回路6は、水平走査パルスを順次出力することによって、カラム信号処理回路5それぞれを順番に選択し、カラム信号処理回路5それぞれからの画素信号を水平信号線10に出力させる。
 出力回路7は、カラム信号処理回路5の各々から水平信号線10を通して順次に供給される信号に対し、信号処理を行って出力する。出力回路7は、例えば、バッファリングだけ行う場合もあるし、黒レベル調整、列ばらつき補正、各種デジタル信号処理等を行う場合もある。
 制御回路8は、入力クロックと、動作モード等を指令するデータを受け取り、また光検出素子1の内部情報等のデータを出力する。また、制御回路8は、垂直同期信号、水平同期信号、およびマスタクロックに基づいて、垂直駆動回路4、カラム信号処理回路5および水平駆動回路6等の動作の基準となるクロック信号や制御信号を生成する。そして、制御回路8は、これらの信号を垂直駆動回路4、カラム信号処理回路5、および水平駆動回路6等に入力する。入出力端子12は、外部と信号のやりとりをする。
 <光検出素子の積層構造例>
 図2は、本技術に係る光検出素子の積層構造例を示す模式図である。図2に示される光検出素子1は、第1の半導体基板21と第2の半導体基板22とから構成されている。第1の半導体基板21には、画素領域23が搭載されている。第2の半導体基板22には、制御回路24と、信号処理回路を含むロジック回路25とが搭載されている。そして、第1の半導体基板21と第2の半導体基板22とが相互に電気的に接続されていることで、1つの半導体素子としての光検出素子1が構成される。なお、本実施形態に係る積層構造例は一例であり、これに限定されない。例えば、第1の半導体基板21内に、制御回路24の構成領域を形成してもよい。
 図3は、第1の半導体基板21の一部を拡大して示した断面図である。本技術に係る光検出素子1は、例えば裏面照射型のCMOS撮像装置として構成される。裏面照射型のCMOS撮像装置は、受光部が回路部の上部に配置され、表面照射型に比べて高感度で低ノイズのCMOS撮像装置である。
 第1の半導体基板21は、保護膜30と、凹凸状構造31の構成されるレンズ樹脂膜32と、遮光膜34と、半導体層36と、多層配線層38とを有する。保護膜30は、例えば酸化膜であり、レンズ樹脂膜32の保護膜として機能する。
 レンズ樹脂膜32には、凹凸状構造31が構成される。この凹凸状構造31が構成される領域の外周側に、平坦領域A104が構成される。なお、平坦領域A104は、コレットエリアと称する場合がある。このように、レンズ樹脂膜32の上面に保護膜30が積層され、形成される。凹凸状構造31は、半球状の構造を有する。この半球状の構造は、オンチップレンズ(OCL:On Chip Lens)である。
 遮光膜34は、半導体層36における外縁領域の上方に構成される。この遮光膜34は、有機膜、及び金属膜のいずれかにより構成される。すなわち、遮光膜34は、金属膜、もしくは有機膜など遮光特性を有する材料から構成される。
 遮光膜34、及び遮光膜34の外側である外縁領域が、遮光膜34を有する第1領域A100を構成する。また、第1領域A100の内側の領域が、有効画素の領域である第2領域A102となる。なお、有効画素の第2領域A102は、例えば撮像に用いられない所謂ダミー画素を含んでもよい。なお、本実施形態に係る遮光膜34が遮光構造に対応する。
 半導体層36は薄膜化されたシリコンにより構成される。この半導体層36には、光電変換部となるフォトダイオードPDと、複数の画素トランジスタとからなる複数の画素を行列状に2次元配列した画素領域23(図2参照)が形成される。また、遮光膜34により遮光された画素は、暗電流に関する情報を取得するための画素である。これらの暗電流に関する情報を取得するための画素は、所謂オプティカルブラック領域を構成する。
 多層配線層38は、層間絶縁膜を有する。層間絶縁膜には、配線および接続配線が形成される。このような構成で、例えば保護膜30の厚さは、110ナノメートルであり、オンチップレンズの厚さ方向の幅W100は2200ナノメートルであり、オンチップレンズの厚さ方向の幅W100を除くレンズ樹脂膜32の厚さ方向の幅W102は、1000ナノメートルであり、半導体層36の厚さ方向の幅W104は、800ナノメートルである。なお、本実施形態では、レンズ樹脂膜32のオンチップレンズの厚さ方向の幅W100を除く厚さ方向の幅W102を平面幅と称する場合がある。
 例えば、第2領域A102内の領域では、波打つなどの現象が生じることが抑制される。一方で、図3に示すように、平坦領域A104には、波打つなどの波打ち現象が生じる場合がある。この種の波打ち現象が発生すると、光検出素子1の外観上の不具合が生じることとなる。
 図4は、波打ち現象の発生原因を模式的に説明する図である。保護膜30の線膨張係数は例えば0.7であり、レンズ樹脂膜32の線膨張係数は例えば10~30であり、遮光膜34の線膨張係数は例えば1~10である。保護膜30の線膨張係数は、レンズ樹脂膜32の線膨張係数のおよそ10分の1程度である。すなわち、レンズ樹脂膜32の線膨張係数>遮光膜34の線膨張係数>保護膜30の線膨張係数の関係がある。
 このため、保護膜30と、レンズ樹脂膜32との密着性が無い場合には、応力はほぼ生じないものである。一方で、本実施形態に係る光検出素子1では、応力により、保護膜30と、レンズ樹脂膜32とに歪みやムラが生じ、波打ち現象が生じてしまう。一般に応力は、(1)式で示される。
 応力=線膨線膨張係数×温度差×ヤング率×断面積       (1)
(構成例1)
 図5は、応力を低減する光検出素子1の構成例1を示す図である。図6は、第1の半導体基板21の上面図を模式的に示している図である。図5、9に示すように、光検出素子1の構成例1では、凹凸状構造31を、遮光膜34を有する第1領域A100まで構成している。このように、第1領域A100のレンズ樹脂膜32には、平坦領域、及び凹凸状構造31が形成される。
 凹凸状構造31の半円構造により、保護膜30と、レンズ樹脂膜32との応力を分散することが可能となる。これにより、凹凸状構造31を構成している領域では、外観で波打ち現象が生じない程度まで応力を低減可能となる。また、遮光膜34を有する第1領域A100の凹凸状構造31を構成している領域には、遮光膜34が形成されている。これにより、レンズ樹脂膜32の厚さが領域A102より小さく構成されるので、レンズ樹脂膜32の断面積をより小さくすることが可能となり、応力がより低減する。これにより、より波打ち現象を抑制することが可能となる。このように、遮光膜34上における凹凸状構造31の厚さ方向の幅は、第2領域A102の凹凸状構造31の厚さ方向の幅より小さくなり、より保護膜30と、レンズ樹脂膜32との応力がより低減する。
 さらに、光検出素子1の構成例1では、遮光膜34を有する第1領域A100の平坦領域の厚さ方向の幅W106を、外観で波打ち現象が生じない程度まで小さくする。例えば、レンズ樹脂膜32の厚さ方向の幅W106を、厚さ方向の幅W102よりも小さくする。すなわち、遮光膜34を有する第1領域A100の平面幅W106を領域A102の平面幅W102よりも小さく構成する。このように、レンズ樹脂膜32の断面積を小さくすることにより、外観で波打ち現象が生じない程度まで応力を低減可能となる。
(構成例2)
 図7は、光検出素子1の構成例2を示す図である。図8は、構成例2における第1の半導体基板21の上面図を模式的に示している図である。図7、11に示すように、光検出素子1の構成例2では、遮光膜34を有する第1領域A100を全て平坦領域としている。すなわち、光検出素子1の構成例2では、遮光膜34を有する第1領域A100の平坦領域の厚さ方向の幅W106を、外観で波打ち現象が生じない程度まで小さくする。例えば、レンズ樹脂膜32の厚さ方向の幅W106を、厚さ方向の幅W104よりも小さくする。このように、レンズ樹脂膜32の断面積を小さくすることにより、外観で波打ち現象が生じない程度まで応力を低減可能となる。さらに、遮光膜34の厚さにより、レンズ樹脂膜32の厚さ方向の幅W106がより小さく構成されるので、レンズ樹脂膜32の断面積をより小さくすることが可能となる。
(構成例3)
 図9は、応力を低減する光検出素子1の構成例3を示す図である。図10は、構成例3における第1の半導体基板21の上面図を模式的に示している図である。図9、13に示すように、光検出素子1の構成例3では、凹凸状構造31を、遮光膜34を有する第1領域A100の外縁側に構成している。これにより、凹凸状構造31を構成している領域では、外観で波打ち現象が生じない程度まで応力を低減可能となる。
 また、遮光膜34を有する第1領域A100の平坦領域には、遮光膜34が形成されている。これにより、レンズ樹脂膜32の平坦領域における厚さが、領域A102の厚さ方向の幅W102より小さく構成されるので、レンズ樹脂膜32の断面積をより小さくすることが可能となり、応力がより低減する。これにより、外観で波打ち現象が生じない程度まで応力を低減可能となる。
(構成例4)
 図11は、応力を低減する光検出素子1の構成例4を示す図である。図12は、構成例4における第1の半導体基板21の上面図を模式的に示している図である。図11、15に示すように、光検出素子1の構成例3では、凹凸状構造31を、遮光膜34を有する第1領域A100の全領域で構成している。また、第1領域A100の凹凸状構造31を含めた厚さ方向の幅W108を、領域A102の凹凸状構造31を含めた厚さ方向の幅W110よりも小さくしている。このように、構成例4では、第1領域A100のレンズ樹脂膜32を、第2領域A102のレンズ樹脂膜32よりも低背化に構成している。
 これにより、凹凸状構造31を構成している領域では、外観で波打ち現象が生じない程度まで応力を低減可能となる。また、第1領域A100の凹凸状構造31を含めた幅W108を、領域A102の凹凸状構造31を含めた幅W110よりも小さくしているので、レンズ樹脂膜32の断面積をより小さくすることが可能となる。さらに、遮光膜34の厚さにより、レンズ樹脂膜32の厚さが厚さ方向の幅W106より小さく構成されるので、レンズ樹脂膜32の断面積をより小さくすることが可能となる。
(構成例5)
 図13は、応力を低減する光検出素子1の構成例5を示す図である。図14は、構成例5における第1の半導体基板21の上面図を模式的に示している図である。図13、17に示すように、光検出素子1の構成例3では、凹凸状構造31を、遮光膜34を有する第1領域A100の全領域で構成している。凹凸状構造31の半円構造により、保護膜30と、レンズ樹脂膜32との応力を分散することが可能となる。これにより、凹凸状構造31を構成している領域では、外観で波打ち現象が生じない程度まで応力を低減可能となる。また、第1領域A100と、領域A102との凹凸状構造31を含めた厚さが同等であるので、生成プロセスをより簡易化することが可能となる。
(構成例6)
 図15は、応力を低減する光検出素子1の構成例6を示す図である。図16は、構成例6における第1の半導体基板21の上面図を模式的に示している図である。図15、19に示すように、光検出素子1の構成例1では、凹凸状構造31を、遮光膜34を有する第1領域A100まで構成している。さらに、凹凸状構造31と異なる構造である溝部39を有する第2凹凸構造を、凹凸状構造31の外側に構成している。
 凹凸状構造31の半円構造により、保護膜30と、レンズ樹脂膜32との応力を分散することが可能となる。同様に、第2凹凸構造により、保護膜30と、レンズ樹脂膜32との応力を分散することが可能となる。これにより、第2凹凸構造、及び凹凸状構造31を構成している領域では、外観で波打ち現象が生じない程度まで応力を低減可能となる。さらにまた、遮光膜34を有する第1領域A100の凹凸状構造31を構成している領域には、遮光膜34が形成されている。これにより、レンズ樹脂膜32の厚さが領域A102より小さく構成されるので、レンズ樹脂膜32の断面積をより小さくすることが可能となり、応力がより低減する。
 さらに、光検出素子1の構成例1では、遮光膜34を有する第1領域A100の平坦領域の厚さ方向の幅W106を、外観で波打ち現象が生じない程度まで小さくする。例えば、レンズ樹脂膜32の厚さ方向の幅W106を、厚さ方向の幅W104よりも小さくする。このように、レンズ樹脂膜32の断面積を小さくすることにより、外観で波打ち現象が生じない程度まで応力を低減可能となる。
[酸化膜とレンズ樹脂膜の生成例1]
 図17は、保護膜30とレンズ樹脂膜32の形成工程における断面図である。図17に示すように、遮光膜34、半導体層36、及び多層配線層38を形成した後にレンズ樹脂膜32を形成する。次に、凹凸状構造31のリソレジストパターン40を形成する。なお、リソレジストパターン40を変更することにより、上述の構成例1乃至6に対応する平坦領域と凹凸状構造31とを形成可能となる。
 次に、リソレジストパターン40がなくなるところまで、エッチバックしレンズ樹脂膜32からなる凹凸状構造31を形成する。このエッチバックにより、リソレジストパターン40の形状が転写され、凹凸状構造31が製造される。そして、例えば熱CVD装置により、保護膜30を成膜する。
[酸化膜とレンズ樹脂膜の生成例2]
 図18は、保護膜30とレンズ樹脂膜32の形成工程の生成例2を示す断面図である。図18に示すように、先ず、遮光膜34、半導体層36、及び多層配線層38を形成した後にレンズ樹脂膜32を形成する。次に、平坦領域と凹凸状構造31のリソレジストパターン40aを形成する。なお、リソレジストパターン40aを変更することにより、上述の構成例1乃至6に対応する平坦領域と凹凸状構造31とを形成可能となる。
 次に、リソレジストパターン40aがなくなるところまで、エッチバックしレンズ樹脂膜32からなる凹凸状構造31を形成する。このエッチバックにリソレジストパターン40の形状が転写され、凹凸状構造31が製造される。次に、ドライ加工用のレジストパターン42を形成する。なお、レジストパターン42を変更することにより、上述の構成例1乃至6に対応する平坦領域を形成可能となる。
 次に、レジストパターン42がなくなるところまで、ドライ加工を行う。このドライ加工により、平坦領域が形成される。そして、例えば熱CVD装置により、保護膜30を成膜する。
 以上説明したように、本実施形態によれば、光検出素子1は、遮光膜34を含む外縁側の第1第1領域A100と、光電変換部PDを有し遮光膜34を含まない第2領域A102とを有し、第1第1領域A100のレンズ樹脂膜32には、第2領域A102のレンズ樹脂膜32の厚さ方向の幅よりも幅の小さい平坦領域、及び凹凸状構造31の内の少なくとも一方が形成される。これにより、保護膜30とレンズ樹脂膜32との応力を低減することが可能となり、保護膜30とレンズ樹脂膜32との波打ちを抑制できる。
 <<応用例>>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図19は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図19に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図19では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図20は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図20には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図19に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図19の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図19に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 なお、図1を用いて説明した本実施形態に係る光検出素子1の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 以上説明した車両制御システム7000において、図1を用いて説明した本実施形態に係る光検出素子1は、図19に示した応用例の統合制御ユニット7600に適用することができる。例えば、撮像部7410のセンサ部が光検出素子1に対応する。
 また、図1を用いて説明した光検出素子1の少なくとも一部の構成要素は、図19に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、図1を用いて説明した光検出素子1が、図19に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
 なお、本技術は以下のような構成を取ることができる。
(1)
 光電変換部を有する複数の画素が形成された半導体層と、
 前記半導体層における外縁領域の上方に構成される遮光構造と、
 前記半導体層及び前記遮光構造の上方に積層されるレンズ樹脂膜と、
 前記レンズ樹脂膜の上方に積層される保護膜と、
 を備え、
 前記遮光構造を含む外縁側の第1領域と、前記光電変換部を有し前記遮光構造を含まない第2領域とを有し、
 前記第1領域の前記レンズ樹脂膜には、前記第2領域における前記レンズ樹脂膜の厚さ方向の幅よりも幅の小さい平坦領域、及び凹凸状構造の内の少なくとも一方が形成される、光検出素子。
(2)
 前記第1領域の前記レンズ樹脂膜が、前記凹凸状構造を含む場合に、前記第1領域の前記凹凸状構造を含む前記レンズ樹脂膜の厚さ方向の幅は、前記第2領域の前記凹凸状構造を含む前記レンズ樹脂膜の厚さ方向の幅よりも小さく構成される、(1)に記載の光検出素子。
(3)
 前記凹凸状構造は、半球状の構造を有する、(1)に記載の光検出素子。
(4)
 前記半球状の構造は、オンチップレンズである、(3)に記載の光検出素子。
(5)
 前記凹凸状構造は、溝部を有する、(1)に記載の光検出素子。
(6)
 前記第1領域の前記レンズ樹脂膜には、前記平坦領域、及び前記凹凸状構造が形成される、(1)に記載の光検出素子。
(7)
 前記第1領域の前記レンズ樹脂膜には、前記凹凸状構造の外縁側に平坦領域が形成される、(6)に記載の光検出素子。
(8)
 前記第1領域の前記レンズ樹脂膜には、前記凹凸状構造の前記第2領域側に前記平坦領域が形成される、(6)に記載の光検出素子。
(9)
 前記遮光構造の上方において、前記平坦領域、及び前記凹凸状構造が形成される、(6)に記載の光検出素子。
(10)
 前記遮光構造の上方において、前記凹凸状構造の前記第2領域側に前記平坦領域が形成される、(9)に記載の光検出素子。
(11)
 前記遮光構造の上方において、前記凹凸状構造の外縁側に前記平坦領域が形成される、(9)に記載の光検出素子。
(12)
 前記第1領域の前記レンズ樹脂膜が、前記平坦領域を含む場合に、前記第1領域の前記レンズ樹脂膜における前記平坦領域の平面幅は、前記第2領域の前記レンズ樹脂膜における前記凹凸状構造の幅を除く平面幅よりも小さく構成される、(1)に記載の光検出素子。
(13)
 前記第1領域の前記レンズ樹脂膜の厚さ方向の幅は、前記遮光構造の厚さ方向の幅より大きく構成され、前記遮光構造の厚さ方向の幅は、前記保護膜の厚さ方向の幅より大きく構成される、(1)に記載の光検出素子。
(14)
 前記遮光構造は、金属膜、もしくは有機膜など遮光特性を有する材料からなり、
 前記保護膜は、酸化膜である、(1)に記載の光検出素子。
(15)
 前記第1領域における前記レンズ樹脂膜の線膨張係数と、前記保護膜の線膨張係数と、は異なる、(1)に記載の光検出素子。
(16)
 前記第2領域の画素には、撮像に用いられないダミー画素が含まれる、(1)に記載の光検出素子。
(17)
 前記第1領域の画素は、暗電流に関する情報を取得するための画素である、(1)に記載の光検出素子。
(18)
 前記第1領域において、前記第2領域に接する側の領域の平面幅が、外縁側の平面幅よりも小さく構成される、(2)に記載の光検出素子。
(19)
 光検出素子と、
 前記光検出素子に集光する光学系と、
を備え、
 前記光検出素子は、
 光電変換部を有する複数の画素が形成された半導体層と、
 前記半導体層における外縁領域の上方に構成される遮光構造と、
 前記半導体層及び前記遮光構造の上方に積層されるレンズ樹脂膜と、
 前記レンズ樹脂膜の上方に積層される保護膜と、
 を備え、
 前記遮光構造を含む外縁側の第1領域と、前記光電変換部を有し前記遮光構造を含まない第2領域とを有し、
 前記第1領域の前記レンズ樹脂膜には、前記第2領域における前記レンズ樹脂膜の厚さ方向の幅よりも幅の小さい平坦領域、及び凹凸状構造の内の少なくとも一方が形成される、撮像装置。
(20)
 (19)に記載の撮像装置を有する、車両制御システム。
 本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
 1:光検出素子、2:画素、30:保護膜、31:凹凸状構造、32:レンズ樹脂膜、34:遮光膜、36:半導体層、39:溝部、7000:車両制御システム、A100:第1領域、A102:第2領域。

Claims (20)

  1.  光電変換部を有する複数の画素が形成された半導体層と、
     前記半導体層における外縁領域の上方に構成される遮光構造と、
     前記半導体層及び前記遮光構造の上方に積層されるレンズ樹脂膜と、
     前記レンズ樹脂膜の上方に積層される保護膜と、
     を備え、
     前記遮光構造を含む外縁側の第1領域と、前記光電変換部を有し前記遮光構造を含まない第2領域とを有し、
     前記第1領域の前記レンズ樹脂膜には、前記第2領域における前記レンズ樹脂膜の厚さ方向の幅よりも幅の小さい平坦領域、及び凹凸状構造の内の少なくとも一方が形成される、光検出素子。
  2.  前記第1領域の前記レンズ樹脂膜が、前記凹凸状構造を含む場合に、前記第1領域の前記凹凸状構造を含む前記レンズ樹脂膜の厚さ方向の幅は、前記第2領域の前記凹凸状構造を含む前記レンズ樹脂膜の厚さ方向の幅よりも小さく構成される、請求項1に記載の光検出素子。
  3.  前記凹凸状構造は、半球状の構造を有する、請求項1に記載の光検出素子。
  4.  前記半球状の構造は、オンチップレンズである、請求項3に記載の光検出素子。
  5.  前記凹凸状構造は、溝部を有する、請求項1に記載の光検出素子。
  6.  前記第1領域の前記レンズ樹脂膜には、前記平坦領域、及び前記凹凸状構造が形成される、請求項1に記載の光検出素子。
  7.  前記第1領域の前記レンズ樹脂膜には、前記凹凸状構造の外縁側に平坦領域が形成される、請求項6に記載の光検出素子。
  8.  前記第1領域の前記レンズ樹脂膜には、前記凹凸状構造の前記第2領域側に前記平坦領域が形成される、請求項6に記載の光検出素子。
  9.  前記遮光構造の上方において、前記平坦領域、及び前記凹凸状構造が形成される、請求項6に記載の光検出素子。
  10.  前記遮光構造の上方において、前記凹凸状構造の前記第2領域側に前記平坦領域が形成される、請求項9に記載の光検出素子。
  11.  前記遮光構造の上方において、前記凹凸状構造の外縁側に前記平坦領域が形成される、請求項9に記載の光検出素子。
  12.  前記第1領域の前記レンズ樹脂膜が、前記平坦領域を含む場合に、前記第1領域の前記レンズ樹脂膜における前記平坦領域の平面幅は、前記第2領域の前記レンズ樹脂膜における前記凹凸状構造の幅を除く平面幅よりも小さく構成される、請求項1に記載の光検出素子。
  13.  前記第1領域の前記レンズ樹脂膜の厚さ方向の幅は、前記遮光構造の厚さ方向の幅より大きく構成され、前記遮光構造の厚さ方向の幅は、前記保護膜の厚さ方向の幅より大きく構成される、請求項1に記載の光検出素子。
  14.  前記遮光構造は、金属膜、もしくは有機膜など遮光特性を有する材料からなり、
     前記保護膜は、酸化膜である、請求項1に記載の光検出素子。
  15.  前記第1領域における前記レンズ樹脂膜の線膨張係数と、前記保護膜の線膨張係数と、は異なる、請求項1に記載の光検出素子。
  16.  前記第2領域の画素には、撮像に用いられないダミー画素が含まれる、請求項1に記載の光検出素子。
  17.  前記第1領域の画素は、暗電流に関する情報を取得するための画素である、請求項1に記載の光検出素子。
  18.  前記第1領域において、前記第2領域に接する側の領域の平面幅が、外縁側の平面幅よりも小さく構成される、請求項2に記載の光検出素子。
  19.  光検出素子と、
     前記光検出素子に集光する光学系と、
    を備え、
     前記光検出素子は、
     光電変換部を有する複数の画素が形成された半導体層と、
     前記半導体層における外縁領域の上方に構成される遮光構造と、
     前記半導体層及び前記遮光構造の上方に積層されるレンズ樹脂膜と、
     前記レンズ樹脂膜の上方に積層される保護膜と、
     を備え、
     前記遮光構造を含む外縁側の第1領域と、前記光電変換部を有し前記遮光構造を含まない第2領域とを有し、
     前記第1領域の前記レンズ樹脂膜には、前記第2領域における前記レンズ樹脂膜の厚さ方向の幅よりも幅の小さい平坦領域、及び凹凸状構造の内の少なくとも一方が形成される、撮像装置。
  20.  請求項19に記載の撮像装置を有する、車両制御システム。
PCT/JP2023/029676 2022-08-29 2023-08-17 光検出素子、撮像装置、及び車両制御システム WO2024048292A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-136299 2022-08-29
JP2022136299 2022-08-29

Publications (1)

Publication Number Publication Date
WO2024048292A1 true WO2024048292A1 (ja) 2024-03-07

Family

ID=90099384

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/029676 WO2024048292A1 (ja) 2022-08-29 2023-08-17 光検出素子、撮像装置、及び車両制御システム

Country Status (1)

Country Link
WO (1) WO2024048292A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05110045A (ja) * 1991-10-15 1993-04-30 Canon Inc 光電変換装置
JP2007173535A (ja) * 2005-12-22 2007-07-05 Nikon Corp 固体撮像装置
JP2012204402A (ja) * 2011-03-23 2012-10-22 Toshiba Corp 固体撮像装置及びその製造方法
JP2016046508A (ja) * 2014-08-22 2016-04-04 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited ダミーパターンを有する撮像装置
JP2018046145A (ja) * 2016-09-14 2018-03-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、及び固体撮像素子の製造方法
WO2018139278A1 (ja) * 2017-01-30 2018-08-02 ソニーセミコンダクタソリューションズ株式会社 撮像素子、製造方法、および電子機器
JP2019160847A (ja) * 2018-03-07 2019-09-19 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および固体撮像素子
JP2022014507A (ja) * 2020-07-07 2022-01-20 ソニーセミコンダクタソリューションズ株式会社 半導体パッケージ及び半導体パッケージの製造方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05110045A (ja) * 1991-10-15 1993-04-30 Canon Inc 光電変換装置
JP2007173535A (ja) * 2005-12-22 2007-07-05 Nikon Corp 固体撮像装置
JP2012204402A (ja) * 2011-03-23 2012-10-22 Toshiba Corp 固体撮像装置及びその製造方法
JP2016046508A (ja) * 2014-08-22 2016-04-04 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited ダミーパターンを有する撮像装置
JP2018046145A (ja) * 2016-09-14 2018-03-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、及び固体撮像素子の製造方法
WO2018139278A1 (ja) * 2017-01-30 2018-08-02 ソニーセミコンダクタソリューションズ株式会社 撮像素子、製造方法、および電子機器
JP2019160847A (ja) * 2018-03-07 2019-09-19 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および固体撮像素子
JP2022014507A (ja) * 2020-07-07 2022-01-20 ソニーセミコンダクタソリューションズ株式会社 半導体パッケージ及び半導体パッケージの製造方法

Similar Documents

Publication Publication Date Title
US11743604B2 (en) Imaging device and image processing system
US11895398B2 (en) Imaging device and imaging system
JP7379425B2 (ja) 固体撮像装置、および電子装置
US20230047180A1 (en) Imaging device and imaging method
JPWO2020158322A1 (ja) 受光素子、固体撮像装置及び測距装置
WO2019193977A1 (ja) 撮像装置
US20220148432A1 (en) Imaging system
US20210127081A1 (en) Image sensor, imaging device, and electronic device
WO2024048292A1 (ja) 光検出素子、撮像装置、及び車両制御システム
WO2024057471A1 (ja) 光電変換素子、固体撮像素子、測距システム
WO2023229018A1 (ja) 光検出装置
WO2023248855A1 (ja) 光検出装置及び電子機器
WO2024024450A1 (ja) 半導体装置及びその製造方法
WO2023195395A1 (en) Light detection device and electronic apparatus
US20240080587A1 (en) Solid-state imaging device and electronic instrument
WO2023248346A1 (ja) 撮像装置
WO2019082559A1 (ja) 撮像素子および撮像素子の製造方法、並びに、電子機器
WO2024004644A1 (ja) センサ装置
WO2022270110A1 (ja) 撮像装置および電子機器
WO2023203811A1 (ja) 光検出装置
WO2024075492A1 (ja) 固体撮像装置及び比較装置
WO2022065032A1 (ja) 撮像装置及び撮像方法
WO2023195392A1 (en) Light detection device
WO2024106169A1 (ja) 光検出素子及び電子機器
WO2022186040A1 (ja) 撮像装置、その駆動方法、および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23860057

Country of ref document: EP

Kind code of ref document: A1