WO2022244327A1 - 半導体チップおよびその製造方法、並びに電子機器 - Google Patents

半導体チップおよびその製造方法、並びに電子機器 Download PDF

Info

Publication number
WO2022244327A1
WO2022244327A1 PCT/JP2022/004382 JP2022004382W WO2022244327A1 WO 2022244327 A1 WO2022244327 A1 WO 2022244327A1 JP 2022004382 W JP2022004382 W JP 2022004382W WO 2022244327 A1 WO2022244327 A1 WO 2022244327A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
semiconductor chip
glass substrate
groove
imaging device
Prior art date
Application number
PCT/JP2022/004382
Other languages
English (en)
French (fr)
Inventor
良介 鎌谷
富之 湯川
篤志 山本
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2022244327A1 publication Critical patent/WO2022244327A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Definitions

  • the present technology relates to a semiconductor chip, its manufacturing method, and electronic equipment, and more particularly to a semiconductor chip, its manufacturing method, and electronic equipment that can improve reliability and durability.
  • a solid-state image sensor, a glass substrate, and an IR (infrared) cut filter are layered in the front stage of an integrated structure.
  • an imaging device in which a bottom layer lens is formed.
  • the bottom layer lens is more firmly adhered to the glass substrate by forming a skirting portion on the outer peripheral side surface of the bottom layer lens and at the boundary with the glass substrate.
  • This AR coat is, for example, an insulating film (for example, SiCH, SiCOH, SiCNH), insulating films mainly composed of Si (silicon) and N (nitrogen) (e.g., SiON, SiN), silicon hydroxide, alkylsilane, alkoxysilane, polysiloxane, etc. At least one material gas and oxidizing agent SiO2 film, P-SiO film, HDP-SiO film, etc., which are formed using
  • a lens resin which is a photocurable resin
  • a lens resin which is a photocurable resin
  • the lens resin is exposed using a mold with a light-shielding mask having a shape corresponding to the desired shape of the lowermost layer lens.
  • a bottom layer lens having a desired shape is formed by performing a cleaning treatment after exposure to remove unexposed (uncured) lens resin and the like.
  • This technology was created in view of this situation, and is intended to improve reliability and durability.
  • a semiconductor chip includes an imaging element, a glass substrate placed on the imaging element, and a lens formed on the glass substrate, wherein the lens is formed on the glass substrate. It is a semiconductor chip configured to have a groove around a region to be processed.
  • a manufacturing method includes forming a groove around a region where a lens is to be formed on a glass substrate to be placed on an imaging element, and forming the lens in the region of the glass substrate where the lens is to be formed. It is a manufacturing method of the semiconductor chip to form.
  • An electronic device includes an imaging element, a glass substrate placed on the imaging element, and a lens formed on the glass substrate, wherein the lens is formed on the glass substrate.
  • An electronic device comprising: a semiconductor chip configured to have a groove around a region to be processed; and a signal processing circuit for processing a signal from the semiconductor chip.
  • an imaging element In a first aspect of the present technology, an imaging element, a glass substrate placed on the imaging element, and a lens formed on the glass substrate are provided, and the lens is formed on the glass substrate. It has a groove around the area.
  • a groove is formed around a region where a lens is formed in a glass substrate installed on an imaging device, and the lens is formed in a region where the lens is formed of the glass substrate.
  • a third aspect of the present technology includes an image sensor, a glass substrate placed on the image sensor, and a lens formed on the glass substrate, wherein the lens is formed on the glass substrate.
  • a semiconductor chip configured to have a groove around a region and a signal processing circuit for processing signals from the semiconductor chip are provided.
  • FIG. 1 is a cross-sectional view showing a first configuration example of a first embodiment of a semiconductor chip to which the present technology is applied;
  • FIG. It is a figure explaining the manufacturing method of the integrated part of FIG. It is a figure explaining the manufacturing method of the integrated part of FIG. It is a figure explaining the manufacturing method of the integrated part of FIG. It is sectional drawing of the area
  • FIG. 10 is a perspective view of the integral part without grooves;
  • FIG. 10 is a cross-sectional view of the periphery of an ideal skirt in the integral part of FIG. 8;
  • FIG. 9 is a cross-sectional view of the periphery of the actual skirt portion in the integrated portion of FIG. 8 ;
  • FIG. 10 is a cross-sectional view showing a second configuration example of the integrated portion in the first embodiment of the semiconductor chip to which the present technology is applied;
  • FIG. 10 is a cross-sectional view showing a third configuration example of the integrated portion in the first embodiment of the semiconductor chip to which the present technology is applied;
  • FIG. 12 is a cross-sectional view showing a fourth configuration example of the integrated portion in the first embodiment of the semiconductor chip to which the present technology is applied;
  • FIG. 10 is a cross-sectional view showing a second configuration example of the integrated portion in the first embodiment of the semiconductor chip to which the present technology is applied;
  • FIG. 10 is a cross-sectional view showing a third configuration example of the integrated portion in the first embodiment of the semiconductor chip to which the present technology is applied;
  • FIG. 12 is a cross-sectional view showing a fourth configuration example of the integrated portion in the first embodiment
  • FIG. 10 is a cross-sectional view showing a configuration example of a second embodiment of a semiconductor chip to which the present technology is applied; 15A and 15B are views for explaining a manufacturing method of the integrated portion of FIG. 14; 15A and 15B are views for explaining a manufacturing method of the integrated portion of FIG. 14; FIG. 12 is a cross-sectional view showing a configuration example of a third embodiment of a semiconductor chip to which the present technology is applied; It is a figure which shows the 1st structural example of 4th Embodiment of the semiconductor chip to which this technique is applied. 19A and 19B are diagrams for explaining a method of manufacturing the semiconductor chip of FIG.
  • FIG. 18 It is a figure which shows the 2nd structural example of 4th Embodiment of the semiconductor chip to which this technique is applied.
  • 21 is a diagram for explaining a method of manufacturing the semiconductor chip of FIG. 20;
  • FIG. It is a figure explaining the detail of the 1st laminated structure example of a solid-state image sensor.
  • FIG. 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system;
  • FIG. 3 is a block diagram showing an example of functional configurations of a camera head and a CCU;
  • FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system;
  • FIG. 4 is an explanatory diagram showing an example of installation positions of an outside information detection unit and an imaging unit;
  • First Embodiment (Semiconductor Chip Having Convex Lens) 2.
  • Second Embodiment (Semiconductor Chip in Which the Cross-Sectional Shape of the Bottom of the Groove is a Sawtooth Shape) 3.
  • Third Embodiment (Semiconductor Chip with AR Coat Formed) 4.
  • Fourth Embodiment (Semiconductor Chip with Square Concave Lenses) 5.
  • Example of application to electronic equipment6 Example of use of semiconductor chip7.
  • the definitions of directions such as up and down in the following description are merely definitions for convenience of description, and do not limit the technical idea of the present disclosure. For example, if an object is observed after being rotated by 90°, the upper and lower sides are converted to the left and right when read, and if the object is observed after being rotated by 180°, the upper and lower sides are reversed and read.
  • FIG. 1 is a cross-sectional view showing a first configuration example of a first embodiment of a semiconductor chip to which the present technology is applied.
  • the semiconductor chip 10 is a WCSP (Wafer Level Chip Size Package) having a solid-state imaging device 11 such as a CIS (CMOS (Complementary Metal Oxide Semiconductor) Image sensor).
  • the solid-state imaging device 11 is constructed by forming an on-chip lens 11b on a laminated substrate 11a formed by laminating semiconductor substrates.
  • An integrated portion 13 is placed on the solid-state imaging device 11 with an adhesive 12 interposed therebetween.
  • the integrated portion 13 is configured by laminating a glass substrate 14 and a lens 16 in order.
  • a groove portion 15 is formed in a region where the lens 16 is not formed around the region where the lens 16 is formed on the glass substrate 14 .
  • the thickness of the region of the glass substrate 14 other than the groove portion 15 is L1
  • the thickness of the groove portion 15 is L2 (L1>L2).
  • the side surface 15a of the groove 15 is inclined, but this inclination occurs unintentionally when the glass substrate 14 is etched to form the groove 15.
  • the side surface 15a of the groove 15 is Ideally in a vertical plane.
  • a lens 16 which is a convex acrylic lens, is formed.
  • the lens 16 is composed of a main portion 16a having a desired shape and a skirt portion 16b which is unintentionally formed at the end of the lens 16 during manufacturing.
  • the lens 16 is the lowest layer lens among a plurality of lenses that focus incident light on a light receiving surface (not shown) formed in a region corresponding to the on-chip lens 11b on the surface of the laminated substrate 11a. .
  • ⁇ Method for manufacturing the integrated portion> 2 to 4 are diagrams for explaining the manufacturing method of the integrated portion 13 of FIG.
  • step S1 the glass substrate 14 is placed on the chuck 31, and the resist 32 is patterned. Specifically, a resist 32 is applied to a region other than the region where the groove portion 15 is formed on the glass substrate 14 .
  • step S2 etching such as wet etching or dry etching is performed on the glass substrate 14 coated with the resist 32 in step S1, and the region of the glass substrate 14 not coated with the resist 32 is etched in the vertical direction. be.
  • a groove portion 15 is formed around the region of the glass substrate 14 where the lens 16 is formed.
  • the side surfaces 15a of the groove 15 are ideally perpendicular to the glass substrate 14, but in reality the bottom surface of the groove portion 15 is smaller than the top surface, and the side surfaces 15a are inclined.
  • resist 32 is removed.
  • a water-repellent film 33 having a thickness of several nanometers, for example, thinner than the height L1-L2 of the grooves 15 is formed on the glass substrate 14 having the grooves 15 formed thereon, in the regions where the lenses 16 are not formed. is patterned.
  • a lens resin 34 which is a photocurable resin, is applied to the area of the glass substrate 14 where the lens 16 is to be formed.
  • the lens resin 34 is suppressed from diffusing into the area where the lens 16 is not formed, that is, the area where the lens resin 34 is unnecessary. be able to.
  • the amount of lens resin 34 required to form the lens 16 can be reduced.
  • variations in the shape of the lens 16 can be suppressed.
  • step S6 a mold 35 with a light shielding mask having a shape corresponding to the shape of the main portion 16a of the lens 16 is pressed (imprinted) against the lens resin 34, and the lens resin 34 is irradiated with light through the mold 35. is irradiated, the lens resin 34 is exposed.
  • the exposed lens resin 34 having a shape corresponding to the shape of the main portion 16a is cured, and the lens 16 is molded. That is, the lens 16 having a substantially desired shape is formed in the area where the lens 16 is to be formed on the glass substrate 14 .
  • the light from the mold 35 does not reach and the unexposed lens resin 34 is not cured.
  • step S7 of FIG. 4 the lens 16 is released from the mold 35.
  • step S8 the cleaning liquid 36 is injected onto the glass substrate 14 to perform a cleaning process.
  • step S9 the water-repellent film 33 and the uncured (unexposed) lens resin 34 are removed together with the cleaning liquid 36, and the integrated portion 13 is manufactured.
  • the integrated portion 13 manufactured as described above is adhered onto the solid-state imaging device 11 via the adhesive 12, whereby the semiconductor chip 10 is manufactured.
  • FIG. 5 is a cross-sectional view of the region around the groove 15 in steps S7 and S9 of FIG.
  • the glass substrate 14 is flattened by pressing the mold 35 in step S6 of FIG.
  • the lens resin 34 extruded from above falls onto the water-repellent film 33 on the bottom surface of the groove 15 along the side surface 15a.
  • the area around the mold 35 that is, the area around the main portion 16a is unintentionally exposed to light due to refraction of light incident through the mold 35, and hardened, resulting in a hem. forming part 16b. Therefore, the skirt portion 16b is formed along the side surface 15a from the upper surface of the glass substrate 14. As shown in FIG.
  • the base portion 16b is applied to the bottom surface of the groove portion 15 at a position lower than the upper surface of the glass substrate 14 by L1-L2. It does not come into contact with the water-repellent film 33 . Therefore, as shown on the right side of FIG. 5, when the water-repellent film 33 and the uncured lens resin 34 are removed together with the cleaning liquid 36 in step S9 of FIG. The portion 16b is not peeled off.
  • the bottom portion 16b is ideally formed in a vertical direction along the side surface 15a from the upper surface of the glass substrate 14, the adhesion between the lens 16 and the glass substrate 14 is improved, and the lens 16 is separated from the glass substrate 14. It is possible to suppress the occurrence of peeling of the lens, that is, so-called lens peeling.
  • FIG. 6 is a diagram illustrating the state of the bottom portion 16b.
  • FIG. 6A shows a perspective view of the entire integrated portion 13, and FIG. 6B is an enlarged view of the rectangle R1 in FIG. 6A.
  • the groove 15 is formed along the outer periphery of the lens 16.
  • the bottom portion 16b is not peeled off together with the water-repellent film 33 and the uncured lens resin 34 as described above. Therefore, as shown in FIGS. 6A and 6B, cracks due to part of the skirt portion 16b peeling off (floating) from the glass substrate 14 do not occur in the skirt portion 16b. As a result, it is possible to prevent the adhesion between the glass substrate 14 and the lens 16 from deteriorating due to the cracks, thereby suppressing the occurrence of peeling of the lens.
  • FIG. 7 is a diagram for explaining the molding of the lens in the integrated portion when the groove portion 15 is not provided.
  • a in FIG. 7 corresponds to step S6 in FIG. 3
  • B in FIG. 7 corresponds to step S7 in FIG.
  • the same reference numerals are assigned to the same parts as in FIG. 3, and the description thereof will be omitted as appropriate.
  • the mold is applied to the lens resin 34 applied to the region where the water-repellent film 33 is not formed on the glass substrate 51 without the groove 15.
  • a lens 52 is molded by performing exposure using 35 . At this time, the light from the mold 35 does not reach, and the lens resin 34 that is not exposed is not cured.
  • the lens 52 differs from the lens 16 in that it has a skirt portion 52b instead of the skirt portion 16b.
  • a bottom portion 52 b is formed without being hardened and is in contact with the water-repellent film 33 .
  • the water-repellent film 33 suppresses the leakage of the lens resin 34 to the area where the lens 52 is not formed, but the shape of the end portion of the lens 52 can be precisely formed by refraction of light from the mold 35 or the like. is difficult to control with Therefore, when the lens 52 is molded, the skirt portion 52b is unintentionally formed in a region other than the main portion 16a. It is on and contacts the substrate 14 . Therefore, when the water-repellent film 33 and the uncured lens resin 34 thereon are removed by washing after that, the water-repellent film 33 and the uncured lens resin 34 together with a portion of the skirt portion 52b are removed. is peeled off.
  • FIG. 8 is a perspective view of the integrated portion when the lens 52 is molded as described above.
  • 8A is a perspective view of the entire integrated portion, and
  • FIG. 8B is an enlarged view of the rectangle R2 of FIG. 8A.
  • FIG. 9 is a cross-sectional view around an ideal skirt portion in the integrated portion 53
  • FIG. 10 is a cross-sectional view around an actual skirt portion 52b
  • 9A is a cross-sectional view of the entire periphery of an ideal skirt
  • FIG. 9B is an enlarged view of rectangle R3 of FIG. 9A
  • FIG. 10A is a cross-sectional view of the entire circumference of the actual skirt portion 52b.
  • the left side of FIG. 10B is an enlarged view of rectangle R4 of FIG. 10A
  • the right side of FIG. 10B is an enlarged view of rectangle R5 of FIG. 10A.
  • the ideal skirt portion 55 of the lens 52 has no cracks and has high adhesion to the glass substrate 51 .
  • cracks 71 may occur in the actual skirt portion 52b as described above. In this case, the cracks 71 reduce the adhesion between the lens 52 and the glass substrate 51 . Therefore, when the lens 52 receives a force in the direction of arrow D, for example, as shown on the right side of A in FIG. Peeling of the lens 52 from the lens, ie, so-called lens peeling, may occur.
  • FIG. 11 is a cross-sectional view showing a second configuration example of the integrated portion in the first embodiment of the semiconductor chip to which the present technology is applied, and is a cross-sectional view showing the integrated portion in a step corresponding to step S7 in FIG. It is a diagram.
  • FIG. 11A is a cross-sectional view of the entire integrated portion 90
  • FIG. 11B is an enlarged view of a rectangle R6 in FIG. 11A.
  • portions corresponding to those of the integrated portion 13 of FIGS. 1 and 4 are denoted by the same reference numerals. Therefore, description of that portion will be omitted as appropriate, and the description will focus on the portions different from the integrated portion 13 .
  • the integrated portion 90 of FIG. 11 differs from the integrated portion 13 in that a glass substrate 91 is provided instead of the glass substrate 14, and the rest of the configuration is similar to that of the integrated portion 13.
  • the glass substrate 91 differs from the glass substrate 14 in that a groove portion 92 is provided instead of the groove portion 15 , and is otherwise configured in the same manner as the glass substrate 14 .
  • the groove portion 92 is different from the groove portion 15 in that the side surface 92a of the groove portion 92 is an inclined surface having a predetermined inclination.
  • the angle of the left lens 16 side surface 92a of the groove 92 with respect to the horizontal direction is ⁇ (0° ⁇ 90°)
  • the right lens 16 side surface 92a of the groove 92 has an angle with respect to the horizontal direction. is ⁇ (0° ⁇ 90°).
  • the angles ⁇ and ⁇ may be the same or different.
  • the groove 92 has a bottom surface at a position lower than the upper surface of the glass substrate 14 by L1-L2. Therefore, as shown in FIG. do not come into contact. Therefore, cracks do not occur in the bottom portion 16b, and lens peeling can be suppressed.
  • the side surface 92a of the groove 92 is an inclined surface, the adhesion area of the bottom portion 16b to the side surface 92a is increased compared to the case where the side surface 92a is a vertical surface. Therefore, the adhesion between the side surface 92a and the bottom portion 16b is improved, and as a result, the occurrence of lens peeling can be further suppressed.
  • FIG. 12 is a cross-sectional view showing a third configuration example of the integrated portion in the first embodiment of the semiconductor chip to which the present technology is applied, and is a cross-sectional view showing the integrated portion in a step corresponding to step S7 in FIG. It is a diagram.
  • FIG. 12A is a cross-sectional view of the entire integrated portion 110
  • FIG. 12B is an enlarged view of a rectangle R7 in FIG. 12A.
  • the same reference numerals are assigned to the portions corresponding to those of the integrated portion 13 of FIGS. Therefore, description of that portion will be omitted as appropriate, and the description will focus on the portions different from the integrated portion 13 .
  • the integrated portion 110 in FIG. 12 differs from the integrated portion 13 in that a glass substrate 111 is provided instead of the glass substrate 14, and is configured similarly to the integrated portion 13 in other respects.
  • the glass substrate 111 is different from the glass substrate 14 in that a groove portion 112 is provided instead of the groove portion 15 , and is otherwise configured in the same manner as the glass substrate 14 .
  • the groove 112 is different from the groove 15 in that the side surfaces 112a are satin-finished to prevent specular reflection of light. That is, the groove portion 112 has an uneven surface 113 on the surface of the side surface 112a.
  • the groove 112 has a bottom surface at a position lower than the upper surface of the glass substrate 14 by L1-L2. Therefore, as shown in FIG. do not come into contact. Therefore, cracks do not occur in the bottom portion 16b, and lens peeling can be suppressed.
  • the surface of the side surface 112 a of the groove 112 is provided with an uneven surface 113 , the light incident from the mold 35 and leaking out during molding of the lens 16 is irregularly reflected by the uneven surface 113 . As a result, the formation of the skirt portion 16b due to the leaked light can be suppressed.
  • the processing applied to the side surface 112a may be processing other than satin processing as long as it prevents regular reflection of light.
  • FIG. 13 is a cross-sectional view showing a fourth configuration example of the integrated portion in the first embodiment of the semiconductor chip to which the present technology is applied, and is a cross-sectional view showing the integrated portion in a step corresponding to step S7 in FIG. It is a diagram.
  • FIG. 13A is a cross-sectional view of the entire integrated portion 130
  • FIG. 13B is an enlarged view of a rectangle R8 in FIG. 13A.
  • the same reference numerals are assigned to the portions corresponding to those of the integrated portion 13 of FIGS. Therefore, description of that portion will be omitted as appropriate, and the description will focus on the portions different from the integrated portion 13 .
  • the integrated portion 130 in FIG. 13 differs from the integrated portion 13 in that a glass substrate 131 is provided instead of the glass substrate 14, and is configured similarly to the integrated portion 13 in other respects.
  • the glass substrate 131 is different from the glass substrate 14 in that a groove portion 132 is provided instead of the groove portion 15 , and is otherwise configured in the same manner as the glass substrate 14 .
  • the groove portion 132 differs from the groove portion 15 in that the bottom surface is curved and the thickness at the lowest position of the bottom surface is L3 (L1>L3).
  • the groove 132 Since the groove 132 has the lowest bottom position at a position lower than the upper surface of the glass substrate 14 by L1-L3, as with the groove 15, as shown in FIG. and skirt 16b do not come into contact with each other. Therefore, cracks do not occur in the bottom portion 16b, and lens peeling can be suppressed.
  • the water-repellent film 33 and the uncured lens resin 34 can be easily removed together with the cleaning liquid 36 after the cleaning process.
  • the semiconductor chip 10 is formed on the solid-state imaging device 11, the glass substrate 14 (91, 111, 131) placed on the solid-state imaging device 11, and the glass substrate 14 (91, 111, 131).
  • the glass substrate 14 has grooves 15 (92, 112, 132) around the area where the lenses 16 are formed.
  • the water-repellent film 33 and the skirt portion 16b do not come into contact when the lens 16 is formed.
  • the water-repellent film 33 and the uncured lens resin 34 are removed together with the cleaning liquid 36, part of the skirt portion 16b is peeled off, and cracks can be prevented from occurring in the skirt portion 16b. . Therefore, it is possible to suppress the separation of the lens 16 from the glass substrate 14 (91, 111, 131) due to the crack. As a result, reliability and durability of the semiconductor chip 10 can be improved.
  • the manufacturing method of the integrated portion 90 (110, 130) is the same as the manufacturing method of the integrated portion 13 described with reference to FIGS. Also, in the manufacturing method of the integrated portion 13 (90, 11, 130), the water-repellent film 33 may not be formed.
  • FIG. 14 is a cross-sectional view showing a configuration example of a second embodiment of a semiconductor chip to which the present technology is applied.
  • FIG. 14A is a cross-sectional view of the entire semiconductor chip 140
  • FIG. 14B is an enlarged view of a rectangle R9 in FIG. 14A.
  • the semiconductor chip 140 of FIG. 14 the parts corresponding to those of the semiconductor chip 10 of FIG. 1 are denoted by the same reference numerals. Therefore, description of that portion will be omitted as appropriate, and the description will focus on the portions different from the semiconductor chip 10 .
  • a semiconductor chip 140 in FIG. 14 is different from the semiconductor chip 10 in that an integrated portion 150 is provided instead of the integrated portion 13, and is configured similarly to the semiconductor chip 10 in other respects.
  • the integrated portion 150 is different from the integrated portion 13 in that a glass substrate 151 is provided instead of the glass substrate 14 , and otherwise configured in the same manner as the integrated portion 13 .
  • the glass substrate 151 is different from the glass substrate 14 in that a groove portion 152 is provided instead of the groove portion 15 , and is otherwise configured in the same manner as the glass substrate 14 .
  • the groove 152 is processed to have a sawtooth cross-sectional shape as a process to increase the surface area compared to the case where the bottom of the groove 152 is flat compared to the bottom, and the bottom It differs from the groove portion 15 in that the thickness at the lowest position is L4 (L4>L2), and otherwise is configured in the same manner as the groove portion 15. It should be noted that L1-L4 is so small that skirt portion 16b contacts the bottom surface of groove portion 15.
  • the bottom surface of the groove portion 152 contacts the skirt portion 16b, but the cross section of the bottom surface of the groove portion 152 has a sawtooth shape, and the surface area of the bottom surface of the groove portion 152 is larger than when the bottom surface is flat. Therefore, the adhesion force between the bottom surface of the groove portion 152 and the skirt portion 16b is greater than when the bottom surface of the groove portion 152 is flat.
  • the processing performed on the bottom surface of the groove portion 152 may be any processing that increases the surface area compared to the case where the bottom surface is flat, that is, processing that makes the bottom surface uneven. good too.
  • ⁇ Method for manufacturing the integrated portion> 15 and 16 are diagrams illustrating a method of manufacturing the integrated portion 150 of FIG. 14.
  • FIG. 15 and 16 are diagrams illustrating a method of manufacturing the integrated portion 150 of FIG. 14.
  • step S31 of FIG. 15 the bottom surface of the groove portion 152 is processed to have a sawtooth cross-sectional shape.
  • step S32 the lens resin 34 is applied to the area of the glass substrate 151 where the lens 16 is to be formed.
  • step S33 the lens resin 34 is exposed by pressing the mold 35 against the lens resin 34 and irradiating the lens resin 34 with light through the mold 35 .
  • the exposed lens resin 34 having a shape corresponding to the shape of the main portion 16a is cured, and the lens 16 is molded. That is, the lens 16 having a substantially desired shape is formed in the area where the lens 16 is to be formed on the glass substrate 151 .
  • the light from the mold 35 does not reach and the unexposed lens resin 34 is not cured.
  • step S34 of FIG. 16 the lens 16 is released from the mold 35.
  • step S35 the cleaning liquid 36 is injected onto the glass substrate 151 to perform a cleaning process.
  • step S36 the uncured lens resin 34 is removed together with the cleaning liquid 36, and the integrated portion 150 is manufactured.
  • the surface area of the bottom surface of the groove portion 152 is larger than when the bottom surface of the groove portion 152 is flat, the adhesion between the bottom surface of the groove portion 152 and the skirt portion 16b is high. Therefore, it is possible to prevent the bottom portion 16b from being peeled off from the bottom surface of the groove portion 152 together with the uncured lens resin 34, thereby preventing cracks from occurring in the bottom portion 16b.
  • the integrated portion 150 manufactured as described above is adhered onto the solid-state imaging device 11 via the adhesive 12, and thus the semiconductor chip 140 is manufactured.
  • the water-repellent film is not formed, but the water-repellent film may be formed.
  • the cleaning liquid 36 may be injected so as to have a thickness that does not come into contact with the bottom portion 16b. In this case, it is possible to further suppress the occurrence of peeling of the skirt portion 16b.
  • the semiconductor chip 140 includes the solid-state imaging device 11, the glass substrate 151 placed on the solid-state imaging device 11, and the lens 16 formed on the glass substrate 151.
  • the glass substrate 151 is the lens
  • a groove 152 is provided around the region where 16 is formed.
  • the bottom surface of the groove portion 152 is processed to have a larger surface area than when the bottom surface of the groove portion 152 is flat. Therefore, the adhesion between the bottom surface of the groove portion 152 and the skirt portion 16b is improved.
  • the uncured lens resin 34 is removed together with the cleaning liquid 36, it is possible to prevent the skirt portion 16b from being peeled off together with the uncured lens resin 34, thereby preventing cracks from occurring in the skirt portion 16b. Therefore, it is possible to suppress the separation of the lens 16 from the glass substrate 151 due to the crack. As a result, reliability and durability of the semiconductor chip 140 can be improved.
  • the solid-state imaging device 11 and the integrated section 13 (90, 110, 130, 150) are manufactured separately. 130, 150), the integrated portion 13 (90, 110, 130, 150) is adhered to the solid-state imaging device 11 to manufacture the semiconductor chip 10 (140), but the solid-state imaging device 11 is not formed. After that, the integrated portion 13 (90, 110, 130, 150) may be formed on the solid-state imaging device 11.
  • the glass substrate 14 (91, 111, 131, 151) is adhered onto the chuck 31 via the adhesive 12 to form a solid body.
  • An imaging device 11 is installed.
  • grooves 15 (92, 112, 132, 152) of the first embodiment and the second embodiment may be combined.
  • grooves 112 , 132 , and 152 may have sloped sides similar to groove 92 .
  • the grooves 132 and 152 may have the uneven surfaces 113 on the side surfaces, similar to the groove 92 .
  • FIG. 17 is a cross-sectional view showing a configuration example of a third embodiment of a semiconductor chip to which the present technology is applied.
  • a semiconductor chip 200 in FIG. 17 is different from the semiconductor chip 10 in that an integrated portion 210 is provided instead of the integrated portion 13, and is configured similarly to the semiconductor chip 10 in other respects.
  • the integrated portion 210 differs from the integrated portion 13 in that a buffer layer 211 and an AR coat 212 are newly provided.
  • a buffer layer 211 is formed between the AR coat 212 and the lens 16 .
  • the buffer layer 211 covers the side and top surfaces of the lens 16 and is also formed on regions of the glass substrate 14 where the lens 16 is not formed, including the groove 15 .
  • the buffer layer 211 has a refractive index that is low enough not to affect the light incident through the AR coat 212 from the outside when the light is transmitted through the lens 16, for example, it has a refractive index that is the same as or slightly higher than that of the lens 16. .
  • the buffer layer 211 is hard enough to suppress deformation of the AR coat.
  • a film such as SiO2 or SiON can be used as the buffer layer 211.
  • the AR coat 212 is an antireflection film and covers the entire surface of the buffer layer 211 .
  • the AR coating 212 is four layers in which a high refractive index film made of at least one of TiOx, TaOx, NbOx, etc. and a low refractive index film made of at least one of SiOx, SiON, etc. are alternately laminated. have a structure.
  • the semiconductor chip 200 has the buffer layer 211 between the lens 16 and the AR coat 212.
  • the AR coat 212 is damaged when a temperature cycle (TC (Temperature Cycle)) test, a high-temperature and high-humidity storage (THS (Temperature Humidity Storage)) test, or the like is performed to evaluate the reliability of the semiconductor chip 200. can be suppressed.
  • TC Temperature Cycle
  • THS Temporal Humidity Storage
  • the buffer layer 211 when the buffer layer 211 is not provided between the lens 16 and the AR coat 212 , when a temperature cycle test or the like is performed on the semiconductor chip 200 , AR occurs due to the thermal stress difference between the lens 16 and the AR coat 212 .
  • the coat 212 may be deformed and damaged.
  • the lens 16 absorbs moisture and swells when the semiconductor chip 200 is subjected to a high-temperature high-quality storage test, and the AR coat 212 may be damaged.
  • the lens 16 is protected against thermal deformation due to a temperature cycle test or the like and high-temperature/high-quality storage test or the like. Suppresses moisture intrusion. As a result, damage to the AR coat 212 is suppressed, and the reliability of the semiconductor chip 200 can be ensured. For example, it is possible to ensure reliability in a temperature cycle test for 500 hours or more and a high-temperature high-quality storage test.
  • the manufacturing method of the integrated portion 210 is the same as the manufacturing method of the integrated portion of the fourth embodiment, which will be described later.
  • FIG. 18 is a diagram showing a first configuration example of a fourth embodiment of a semiconductor chip to which the present technology is applied.
  • FIG. 18A is a top view of the semiconductor chip 300
  • FIG. 18B is a cross-sectional view of the semiconductor chip 300.
  • a semiconductor chip 300 in FIG. 18 differs from the semiconductor chip 200 in that an integrated portion 310 is provided instead of the integrated portion 210, and is configured similarly to the semiconductor chip 200 in other respects.
  • the integrated portion 310 is different from the integrated portion 210 in that a lens 311 is provided instead of the lens 16 , and otherwise configured similarly to the integrated portion 210 .
  • Lens 311 is an acrylic lens.
  • the lens 311 has a rectangular concave main portion 311a and a skirt portion 311b that is unintentionally formed at the end portion during manufacturing.
  • 19A and 19B are diagrams for explaining a method of manufacturing the semiconductor chip 300 of FIG.
  • step S51 of FIG. 19 the lens 311 is subjected to plasma processing.
  • This lens 311 is adhered to the solid-state imaging device 11 via the adhesive 12, and is attached to the glass substrate 14 in which the grooves 15 are formed by the same steps as steps S1 to S3 in FIG. It is formed by steps similar to steps S9 to S9.
  • the buffer layer 211 is formed by sputtering or the like on the upper and side surfaces of the lenses 311 and on the regions of the glass substrate 14 where the lenses 311 are not formed.
  • the thickness of this buffer layer 211 is such that it does not break due to its own weight, and can take any value, for example, 400 nm to 1100 nm.
  • the thickness of the side surfaces of the buffer layer 211 is a thickness necessary for suppressing the intrusion of water, for example, 60% or more of the thickness of the upper surface.
  • the buffer layer 211 may be formed by a method other than sputtering, but the film can be easily formed at a low temperature in the case of sputtering.
  • step S53 the AR coat 212 is formed on the entire surface of the buffer layer 211 formed in step S52, and the semiconductor chip 300 is manufactured.
  • the solid-state imaging device 11 is installed on a chuck or the like. This also applies to FIG. 21, which will be described later.
  • the semiconductor chip 300 has the buffer layer 211 between the lens 311 and the AR coat 212 . Therefore, as with the semiconductor chip 200, damage to the AR coat 212 can be suppressed, and the reliability of the semiconductor chip 300 can be ensured.
  • FIG. 20 is a diagram showing a second configuration example of the fourth embodiment of the semiconductor chip to which the present technology is applied.
  • FIG. 20A is a top view of the semiconductor chip 330
  • FIG. 20B is a cross-sectional view of the semiconductor chip 330.
  • a semiconductor chip 330 in FIG. 20 is different from the semiconductor chip 300 in that an integrated portion 340 is provided instead of the integrated portion 310, and is configured similarly to the semiconductor chip 300 in other respects.
  • the integrated portion 340 differs from the integrated portion 310 in that an AR coat 341 is provided in place of the AR coat 212 , and otherwise configured in the same manner as the integrated portion 310 .
  • the AR coat 341 covers only the buffer layer 211 formed on the upper surface of the lens 311, not the entire surface of the buffer layer 211. That is, only the buffer layer 211 is formed on the side surfaces of the lenses 311 and the regions of the glass substrate 14 where the lenses 311 are not formed.
  • 21A and 21B are diagrams for explaining a method of manufacturing the semiconductor chip 330 of FIG.
  • Steps S71 and S72 in FIG. 21 are the same as steps S51 and S52 in FIG. 19, so description thereof will be omitted.
  • step S73 the AR coat 212 is formed on the buffer layer 211 on the upper surface of the lens 311 among the buffer layers 211 formed in step S72, and the semiconductor chip 330 is manufactured.
  • the semiconductor chip 330 has the buffer layer 211 between the lens 311 and the AR coat 341. Therefore, as with the semiconductor chip 200, damage to the AR coat 212 can be suppressed, and the reliability of the semiconductor chip 300 can be ensured.
  • the AR coat 212 is not formed on the buffer layer 211 on the side surface of the lens 311, so the semiconductor chip 300 can be manufactured easily.
  • the semiconductor chip 330 does not have the AR coat 212 on the buffer layer 211 on the side surfaces of the lens 311, but has the same optical characteristics as the semiconductor chip 300. can have
  • the buffer layer 211 covers the side surface of the lens 311, it is possible to prevent moisture from entering the lens 311 during a high-temperature high-quality storage test or the like.
  • the semiconductor chip has optical characteristics and reliability similar to those of the semiconductor chip 300.
  • a chip 330 can be manufactured.
  • the integrated portion 310 (340) is formed after the solid-state imaging device 11 is formed. 11 and the integrated portion 310 (340) are manufactured separately, and after manufacturing the integrated portion 310 (330), the integrated portion 310 (340) is adhered to the solid-state imaging device 11, whereby the semiconductor chip 300 (330) is manufactured. ) may be manufactured.
  • the number of layers of the AR coats 212 and 341 is not limited to four layers, and may be any number.
  • Lenses 16 and 311 may be lenses other than acrylic lenses.
  • the semiconductor chip 200 (300, 330) has the groove 15, but has the other grooves 92, 112, 132, or 152 described above. may
  • FIG. 22 is a cross-sectional view showing an enlarged part of the semiconductor chip 10. As shown in FIG. In the semiconductor chip 10 of FIG. 22, parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the laminated substrate 11a of the solid-state imaging device 11 in FIG. 22 is configured by laminating a lower substrate 401 and an upper substrate 402.
  • a multilayer wiring layer 422 is formed on the upper side (upper substrate 402 side) of a semiconductor substrate 421 made of silicon (Si), for example.
  • the multilayer wiring layer 422 constitutes a logic circuit such as a signal processing circuit for processing a pixel signal output from a pixel section that performs photoelectric conversion for each pixel, and a control circuit for controlling the pixel section. Note that the control circuit may be configured on the upper substrate 402 .
  • the multilayer wiring layer 422 includes a plurality of wiring layers 423 including an uppermost wiring layer 423a closest to the upper substrate 402, an intermediate wiring layer 423b, and a lowermost wiring layer 423c closest to the semiconductor substrate 421. It is composed of an interlayer insulating film 424 formed between wiring layers 423 .
  • the plurality of wiring layers 423 are formed using, for example, copper (Cu), aluminum (Al), tungsten (W), etc., and the interlayer insulating film 424 is formed using, for example, a silicon oxide film, a silicon nitride film, or the like. .
  • Each of the plurality of wiring layers 423 and interlayer insulating films 424 may be formed of the same material in all layers, or two or more materials may be used depending on the layer.
  • a silicon through hole 425 penetrating through the semiconductor substrate 421 is formed at a predetermined position of the semiconductor substrate 421 , and a connecting conductor 427 is embedded in the inner wall of the silicon through hole 425 via an insulating film 426 to form a silicon substrate.
  • a through electrode (TSV: Through Silicon Via) 428 is formed.
  • the insulating film 426 can be formed of, for example, an SiO2 film, a SiN film, or the like.
  • the insulating film 426 and the connection conductor 427 are formed along the inner wall surface, and the inside of the silicon through hole 425 is hollow.
  • the entire interior may be filled with connecting conductors 427 .
  • the inside of the through-hole may be filled with a conductor or may be partially hollow. This is the same for a chip through electrode (TCV: Through Chip Via) 458 and the like, which will be described later.
  • connection conductor 427 of the through silicon electrode 428 is connected to a rewiring 429 formed on the lower surface side of the semiconductor substrate 421 , and the rewiring 429 is connected to the solder ball 430 .
  • the connection conductor 427 and the rewiring 429 can be made of, for example, copper (Cu), tungsten (W), titanium (Ti), tantalum (Ta), titanium-tungsten alloy (TiW), polysilicon, or the like.
  • solder mask (solder resist) 431 is formed on the lower surface side of the semiconductor substrate 421 so as to cover the rewiring 429 and the insulating film 426 except for the regions where the solder balls 430 are formed.
  • a multilayer wiring layer 452 is formed below a semiconductor substrate 451 made of silicon (Si) (on the side of the lower substrate 401).
  • the multilayer wiring layer 452 constitutes the circuit of the pixel portion.
  • the multilayer wiring layer 452 includes a plurality of wiring layers 453 including a top wiring layer 453a closest to the semiconductor substrate 451, an intermediate wiring layer 453b, and a bottom wiring layer 453c closest to the lower substrate 401, It is composed of an interlayer insulating film 454 formed between each wiring layer 453 .
  • Materials used for the plurality of wiring layers 453 and the interlayer insulating film 454 can employ the same materials as those for the wiring layers 423 and the interlayer insulating film 424 described above.
  • the plurality of wiring layers 453 and interlayer insulating films 454 may be formed by selectively using one or more materials, as in the case of the wiring layers 423 and interlayer insulating films 424 described above.
  • the multilayer wiring layer 452 of the upper substrate 402 is composed of three wiring layers 453, and the multilayer wiring layer 422 of the lower substrate 401 is composed of four wiring layers 423.
  • the total number of wiring layers is not limited to this, and any number of layers can be formed.
  • photodiodes 455 as photoelectric conversion elements formed by PN junctions are arranged two-dimensionally for each pixel.
  • the photodiode 455 generates and accumulates charges (signal charges) corresponding to the amount of light received.
  • the semiconductor substrate 451 and the multilayer wiring layer 452 are also formed with a plurality of pixel transistors, a memory section, etc., other than the photodiodes 455, which constitute the pixel section.
  • a wiring layer 453a of the upper substrate 402 is connected to a predetermined position of the semiconductor substrate 451 where the R (red), G (green), or B (blue) color filter 456 and the on-chip lens 11b are not formed.
  • Through-silicon electrodes 457 are formed, and through-chip electrodes 458 connected to the wiring layer 423a of the lower substrate 401 are formed.
  • the through silicon electrode 457 and the through chip electrode 458 are connected by a connection wiring 459 formed on the upper surface of the semiconductor substrate 451 .
  • An insulating film 460 is formed between each of the silicon through electrode 457 and the chip through electrode 458 and the semiconductor substrate 451 .
  • a color filter 456 and an on-chip lens 11b are formed on the upper surface of the semiconductor substrate 451 with an insulating film (flattening film) 461 interposed therebetween.
  • the laminated substrate 11a of the solid-state imaging device 11 has a laminated structure in which the multilayer wiring layer 422 side of the lower substrate 401 and the multilayer wiring layer 452 side of the upper substrate 402 are bonded together.
  • the bonding surface between the multilayer wiring layer 422 of the lower substrate 401 and the multilayer wiring layer 452 of the upper substrate 402 is indicated by a dashed line.
  • the wiring layer 453 of the upper substrate 402 and the wiring layer 423 of the lower substrate 401 are connected by two through electrodes, ie, the silicon through electrode 457 and the chip through electrode 458, and the wiring of the lower substrate 401 is connected.
  • Layer 423 and solder balls (rear electrodes) 430 are connected by through-silicon vias 428 and rewirings 429 .
  • FIG. 23 is a diagram for explaining details of a second example of the laminated structure of the solid-state imaging device 11 in the semiconductor chip 10, and is a cross-sectional view showing an enlarged part of the semiconductor chip 10. As shown in FIG.
  • the solid-state imaging device 11 of FIG. 23 differs from the basic structure of FIG. 22 in the method of connecting the lower substrate 401 and the upper substrate 402 .
  • the lower substrate 401 and the upper substrate 402 are connected using two through electrodes, ie, the silicon through electrode 457 and the chip through electrode 458, whereas in FIG.
  • the uppermost wiring layer 423a in the multilayer wiring layer 422 of the lower substrate 401 and the lowest wiring layer 453c in the multilayer wiring layer 452 of the upper substrate 402 are metal-bonded (Cu—Cu bonding). ).
  • connection method with the solder balls 430 on the lower side of the solid-state imaging device 11 in FIG. 23 is the same as the solid-state imaging device 11 in FIG. In other words, the through-silicon electrodes 428 are connected to the lowermost wiring layer 423c of the lower substrate 401, thereby connecting the solder balls 430 to the wiring layers 423 and 453 in the laminated substrate 11a.
  • dummy wirings 511 electrically connected to nowhere are provided on the lower surface side of the semiconductor substrate 421 in the same layer as the rewirings 429 to which the solder balls 430 are connected. It is different from the solid-state imaging device 11 in FIG. 22 in that it is made of the same wiring material as the rewiring 429 .
  • the dummy wiring 511 is provided to reduce the influence of irregularities during metal bonding (Cu—Cu bonding) between the uppermost wiring layer 423a on the lower substrate 401 side and the lowermost wiring layer 453c on the upper substrate 402 side. It is. That is, when the rewiring 429 is formed only in a partial region of the lower surface of the semiconductor substrate 421 when performing Cu--Cu bonding, unevenness occurs due to the difference in thickness due to the presence or absence of the rewiring 429 . Therefore, by providing the dummy wiring 511, the influence of unevenness can be reduced.
  • the structure of the solid-state imaging device 11 in the semiconductor chips 140, 200, 300, and 330 is also the same as the solid-state imaging device 11 in FIGS.
  • the solid-state imaging device 11 is a back-illuminated CIS having a laminated structure. can also be applied.
  • the semiconductor chip 10 (140, 200, 300, 330) described above can be used for various purposes such as an imaging device such as a digital still camera or a digital video camera, a mobile phone with an imaging function, or other equipment with an imaging function. can be applied to electronic equipment.
  • FIG. 24 is a block diagram showing a configuration example of an imaging device as an electronic device to which this technology is applied.
  • An imaging device 1001 shown in FIG. 24 comprises an optical system 1002, a shutter device 1003, a solid-state imaging device 1004, a driving circuit 1005, a signal processing circuit 1006, a monitor 1007, and a memory 1008, and captures still images and moving images. Imaging is possible.
  • the optical system 1002 includes one or more lenses, guides light (incident light) from a subject to the solid-state imaging device 1004, and forms an image on the light-receiving surface of the solid-state imaging device 1004.
  • the shutter device 1003 is arranged between the optical system 1002 and the solid-state imaging device 1004, and controls the light irradiation period and the light shielding period for the solid-state imaging device 1004 according to the control of the driving circuit 1005.
  • the solid-state imaging device 1004 is composed of the semiconductor chip 10 (140, 200, 300, 330) described above.
  • the solid-state imaging device 1004 accumulates signal charges for a certain period of time according to the light imaged on the light receiving surface via the optical system 1002 and the shutter device 1003 .
  • the signal charges accumulated in the solid-state imaging device 1004 are transferred according to the drive signal (timing signal) supplied from the drive circuit 1005 .
  • a driving circuit 1005 drives the solid-state imaging device 1004 and the shutter device 1003 by outputting drive signals for controlling the transfer operation of the solid-state imaging device 1004 and the shutter operation of the shutter device 1003 .
  • a signal processing circuit 1006 performs various signal processing on the signal charges output from the solid-state imaging device 1004 .
  • An image (image data) obtained by the signal processing performed by the signal processing circuit 1006 is supplied to the monitor 1007 to be displayed, or supplied to the memory 1008 to be stored (recorded).
  • the imaging device 1001 configured in this way, by applying the semiconductor chip 10 (140, 200, 300, 330) as the solid-state imaging device 1004, the reliability and durability of the imaging device 1001 can be improved. can be done.
  • FIG. 25 is a diagram showing a usage example using the semiconductor chip 10 (140, 200, 300, 330) described above.
  • the semiconductor chip 10 (140, 200, 300, 330) described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays, for example, as follows. can.
  • ⁇ Devices that capture images for viewing purposes, such as digital cameras and mobile devices with camera functions.
  • Devices used for transportation such as in-vehicle sensors that capture images behind, around, and inside the vehicle, surveillance cameras that monitor running vehicles and roads, and ranging sensors that measure the distance between vehicles.
  • Devices used in home appliances such as TVs, refrigerators, air conditioners, etc., to take pictures and operate devices according to gestures ⁇ Endoscopes, devices that perform angiography by receiving infrared light, etc.
  • Equipment used for medical and healthcare purposes such as surveillance cameras for crime prevention and cameras for personal authentication
  • microscopes used for beauty such as microscopes used for beauty
  • Sports such as action cameras and wearable cameras for use in sports ⁇ Cameras, etc. for monitoring the condition of fields and crops , agricultural equipment
  • Example of application to an endoscopic surgery system The technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 26 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology (this technology) according to the present disclosure can be applied.
  • FIG. 26 shows how an operator (physician) 11131 is performing surgery on a patient 11132 on a patient bed 11133 using an endoscopic surgery system 11000 .
  • an endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as a pneumoperitoneum tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 for supporting the endoscope 11100. , and a cart 11200 loaded with various devices for endoscopic surgery.
  • An endoscope 11100 is composed of a lens barrel 11101 whose distal end is inserted into the body cavity of a patient 11132 and a camera head 11102 connected to the proximal end of the lens barrel 11101 .
  • an endoscope 11100 configured as a so-called rigid scope having a rigid lens barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible scope having a flexible lens barrel. good.
  • the tip of the lens barrel 11101 is provided with an opening into which the objective lens is fitted.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the lens barrel 11101 by a light guide extending inside the lens barrel 11101, where it reaches the objective. Through the lens, the light is irradiated toward the observation object inside the body cavity of the patient 11132 .
  • the endoscope 11100 may be a straight scope, a perspective scope, or a side scope.
  • An optical system and an imaging element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the imaging element by the optical system.
  • the imaging device photoelectrically converts the observation light to generate an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the operations of the endoscope 11100 and the display device 11202 in an integrated manner. Further, the CCU 11201 receives an image signal from the camera head 11102 and performs various image processing such as development processing (demosaicing) for displaying an image based on the image signal.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201 .
  • the light source device 11203 is composed of a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 11100 with irradiation light for photographing a surgical site or the like.
  • a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 11100 with irradiation light for photographing a surgical site or the like.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204 .
  • the user inputs an instruction or the like to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100 .
  • the treatment instrument control device 11205 controls driving of the energy treatment instrument 11112 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 11206 inflates the body cavity of the patient 11132 for the purpose of securing the visual field of the endoscope 11100 and securing the operator's working space, and injects gas into the body cavity through the pneumoperitoneum tube 11111. send in.
  • the recorder 11207 is a device capable of recording various types of information regarding surgery.
  • the printer 11208 is a device capable of printing various types of information regarding surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the endoscope 11100 with irradiation light for photographing the surgical site can be composed of, for example, a white light source composed of an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. It can be carried out.
  • the observation target is irradiated with laser light from each of the RGB laser light sources in a time-division manner, and by controlling the drive of the imaging element of the camera head 11102 in synchronization with the irradiation timing, each of RGB can be handled. It is also possible to pick up images by time division. According to this method, a color image can be obtained without providing a color filter in the imaging device.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of the output light every predetermined time.
  • the drive of the imaging device of the camera head 11102 in synchronism with the timing of the change in the intensity of the light to obtain an image in a time-division manner and synthesizing the images, a high dynamic A range of images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, the wavelength dependence of light absorption in body tissues is used to irradiate a narrower band of light than the irradiation light (i.e., white light) used during normal observation, thereby observing the mucosal surface layer.
  • narrow band imaging in which a predetermined tissue such as a blood vessel is imaged with high contrast, is performed.
  • fluorescence observation may be performed in which an image is obtained from fluorescence generated by irradiation with excitation light.
  • the body tissue is irradiated with excitation light and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is A fluorescence image can be obtained by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 can be configured to be able to supply narrowband light and/or excitation light corresponding to such special light observation.
  • FIG. 27 is a block diagram showing an example of functional configurations of the camera head 11102 and CCU 11201 shown in FIG.
  • the camera head 11102 has a lens unit 11401, an imaging section 11402, a drive section 11403, a communication section 11404, and a camera head control section 11405.
  • the CCU 11201 has a communication section 11411 , an image processing section 11412 and a control section 11413 .
  • the camera head 11102 and the CCU 11201 are communicably connected to each other via a transmission cable 11400 .
  • a lens unit 11401 is an optical system provided at a connection with the lens barrel 11101 . Observation light captured from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401 .
  • a lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 is composed of an imaging device.
  • the imaging device constituting the imaging unit 11402 may be one (so-called single-plate type) or plural (so-called multi-plate type).
  • image signals corresponding to RGB may be generated by each image pickup element, and a color image may be obtained by synthesizing the image signals.
  • the imaging unit 11402 may be configured to have a pair of imaging elements for respectively acquiring right-eye and left-eye image signals corresponding to 3D (Dimensional) display.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of systems of lens units 11401 may be provided corresponding to each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102 .
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is configured by an actuator, and moves the zoom lens and focus lens of the lens unit 11401 by a predetermined distance along the optical axis under control from the camera head control unit 11405 . Thereby, the magnification and focus of the image captured by the imaging unit 11402 can be appropriately adjusted.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400 .
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies it to the camera head control unit 11405 .
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and/or information to specify the magnification and focus of the captured image. Contains information about conditions.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls driving of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102 .
  • the communication unit 11411 receives image signals transmitted from the camera head 11102 via the transmission cable 11400 .
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102 .
  • Image signals and control signals can be transmitted by electric communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on the image signal, which is RAW data transmitted from the camera head 11102 .
  • the control unit 11413 performs various controls related to imaging of the surgical site and the like by the endoscope 11100 and display of the captured image obtained by imaging the surgical site and the like. For example, the control unit 11413 generates control signals for controlling driving of the camera head 11102 .
  • control unit 11413 causes the display device 11202 to display a captured image showing the surgical site and the like based on the image signal that has undergone image processing by the image processing unit 11412 .
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edges of objects included in the captured image, thereby detecting surgical instruments such as forceps, specific body parts, bleeding, mist during use of the energy treatment instrument 11112, and the like. can recognize.
  • the control unit 11413 may use the recognition result to display various types of surgical assistance information superimposed on the image of the surgical site. By superimposing and presenting the surgery support information to the operator 11131, the burden on the operator 11131 can be reduced and the operator 11131 can proceed with the surgery reliably.
  • a transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electrical signal cable compatible with electrical signal communication, an optical fiber compatible with optical communication, or a composite cable of these.
  • wired communication is performed using the transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to the imaging unit 11402 and the like among the configurations described above.
  • the semiconductor chip 10 ( 140 , 200 , 300 , 330 ) can be applied to the imaging section 11402 .
  • the reliability and durability of the imaging unit 11402 can be improved.
  • the technology according to the present disclosure may also be applied to, for example, a microsurgery system.
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be realized as a device mounted on any type of moving body such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. may
  • FIG. 28 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • a vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an exterior information detection unit 12030, an interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output unit 12052, and an in-vehicle network I/F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • the body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle in which the vehicle control system 12000 is installed.
  • the vehicle exterior information detection unit 12030 is connected with an imaging section 12031 .
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.
  • the microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit.
  • a control command can be output to 12010 .
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, etc. based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, etc., in which vehicles autonomously travel without depending on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the information detection unit 12030 outside the vehicle.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062 and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 29 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior, for example.
  • An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 .
  • Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 .
  • An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 .
  • Forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 29 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of an imaging unit 12104 provided on the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the course of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle runs autonomously without relying on the operation of the driver.
  • automatic brake control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not the pedestrian exists in the captured images of the imaging units 12101 to 12104 .
  • recognition of a pedestrian is performed by, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and performing pattern matching processing on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 12062 . Also, the audio/image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 and the like among the configurations described above.
  • the semiconductor chip 10 140 , 200 , 300 , 330
  • the reliability and durability of the imaging unit 12031 can be improved.
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications are possible without departing from the gist of the present technology.
  • this technique can take the following configurations.
  • the semiconductor chip according to any one of (1) to (3), wherein the bottom surface of the groove is processed to increase the surface area compared to when the bottom surface of the groove is flat. .
  • an imaging device a glass substrate placed on the imaging element; a lens formed on the glass substrate; with a semiconductor chip configured such that the glass substrate has a groove around a region in which the lens is formed; and a signal processing circuit that processes a signal from the semiconductor chip.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Studio Devices (AREA)

Abstract

本技術は、信頼性や耐久性を向上させることができるようにする半導体チップおよびその製造方法、並びに電子機器に関する。 半導体チップは、CIS(CMOS(Complementary Metal Oxide Semiconductor) Image sensor)等の固体撮像素子と、固体撮像素子上に設置されたガラス基板と、ガラス基板上に形成されたレンズとを備える。ガラス基板は、レンズが形成される領域の周囲に深さがL1-L2である溝部を有する。本技術は、例えば、CIS等の固体撮像素子を有するWCSP(Wafer Level Chip Size Package)である半導体チップ等に適用できる。

Description

半導体チップおよびその製造方法、並びに電子機器
 本技術は、半導体チップおよびその製造方法、並びに電子機器に関し、特に、信頼性や耐久性を向上させることができるようにした半導体チップおよびその製造方法、並びに電子機器に関する。
 近年、固体撮像素子、ガラス基板、およびIR(Infrared)カットフィルタが積層された一体化構成部の最前段に、固体撮像素子の受光面に対して入射光を合焦させる複数のレンズのうちの最下位層レンズが形成される撮像装置がある。
 このような撮像装置において、最下位層レンズの外周側面であって、ガラス基板との境界に、裾引き部を形成することにより、最下位層レンズをガラス基板に対してより強固に接着させることが考案されている(例えば、特許文献1参照)。
 また、この最下位層レンズにAR(Anti Reflection)コートを施し、反射を防止することが考案されている(例えば、特許文献2参照)。このARコートは、例えば、アクリル系樹脂、エポキシ系樹脂、スチレン系等の樹脂、Si(ケイ素),C(炭素)、およびH(水素)を主成分とする絶縁膜(例えば、SiCH,SiCOH,SiCNH)、Si(ケイ素)とN(窒素)を主成分とする絶縁膜(例えば、SiON,SiN)、水酸化シリコン、アルキルシラン、アルコキシシラン、ポリシロキサン等の少なくともいずれかの材料ガスと酸化剤を用いて成膜されるSiO2膜、P-SiO膜、HDP-SiO膜などである。
特開2019-213151号公報 国際公開第2019/235247号
 ところで、固体撮像素子に積層されたガラス基板上に最下位層レンズを形成する方法としては、例えば、ガラス基板上の最下位層レンズを形成する領域であるレンズ領域に光硬化樹脂であるレンズ樹脂を塗布し、そのレンズ樹脂を最下位層レンズの所望の形状に対応する形状の遮光マスク付き金型を用いて露光する方法がある。この方法では、露光後に洗浄処理を行って未露光(未硬化)のレンズ樹脂等を除去することにより、所望の形状の最下位層レンズが形成される。
 しかしながら、露光用の光の屈折などの影響により、最下位層レンズの端部の形状を高精度で制御することは困難である。その結果、その端部に形成される裾部(レンズスソ)と洗浄処理によって除去される未硬化のレンズ樹脂等が接触すると、洗浄処理により、その未硬化のレンズ樹脂等とともに裾部の一部が剥離され、クラックが発生する場合がある。そして、このクラックにより、ガラス基板と最下位層レンズの密着力が低下すると、レンズ剥がれが発生する恐れがある。従って、このようなクラックの発生を抑制し、信頼性や耐久性を向上させることが望まれている。
 本技術は、このような状況に鑑みてなされたものであり、信頼性や耐久性を向上させることができるようにするものである。
 本技術の第1の側面の半導体チップは、撮像素子と、前記撮像素子上に設置されたガラス基板と、前記ガラス基板上に形成されたレンズとを備え、前記ガラス基板は、前記レンズが形成される領域の周囲に溝部を有するように構成された半導体チップである。
 本技術の第2の側面の製造方法は、撮像素子上に設置されるガラス基板の、レンズを形成する領域の周囲に溝部を形成し、前記ガラス基板の前記レンズを形成する領域に前記レンズを形成する半導体チップの製造方法である。
 本技術の第3の側面の電子機器は、撮像素子と、前記撮像素子上に設置されたガラス基板と、前記ガラス基板上に形成されたレンズとを備え、前記ガラス基板は、前記レンズが形成される領域の周囲に溝部を有するように構成された半導体チップと、前記半導体チップからの信号を処理する信号処理回路とを備える電子機器である。
 本技術の第1の側面においては、撮像素子と、前記撮像素子上に設置されたガラス基板と、前記ガラス基板上に形成されたレンズとが設けられ、前記ガラス基板は前記レンズが形成される領域の周囲に溝部を有する。
 本技術の第2の側面においては、撮像素子上に設置されるガラス基板の、レンズを形成する領域の周囲に溝部が形成され、前記ガラス基板の前記レンズを形成する領域に前記レンズが形成される。
 本技術の第3の側面においては、撮像素子と、前記撮像素子上に設置されたガラス基板と、前記ガラス基板上に形成されたレンズとを備え、前記ガラス基板は、前記レンズが形成される領域の周囲に溝部を有するように構成された半導体チップと、前記半導体チップからの信号を処理する信号処理回路とが設けられる。
本技術を適用した半導体チップの第1実施の形態の第1の構成例を示す断面図である。 図1の一体化部の製造方法を説明する図である。 図1の一体化部の製造方法を説明する図である。 図1の一体化部の製造方法を説明する図である。 工程S7と工程S9における溝部周辺の領域の断面図である。 図1の裾部の状態を説明する図である。 溝部がない場合の一体化部におけるレンズの成型を説明する図である。 溝部がない場合の一体化部の斜視図である。 図8の一体化部における理想的な裾部の周辺の断面図である。 図8の一体化部における実際の裾部の周辺の断面図である。 本技術を適用した半導体チップの第1実施の形態における一体化部の第2の構成例を示す断面図である。 本技術を適用した半導体チップの第1実施の形態における一体化部の第3の構成例を示す断面図である。 本技術を適用した半導体チップの第1実施の形態における一体化部の第4の構成例を示す断面図である。 本技術を適用した半導体チップの第2実施の形態の構成例を示す断面図である。 図14の一体化部の製造方法を説明する図である。 図14の一体化部の製造方法を説明する図である。 本技術を適用した半導体チップの第3実施の形態の構成例を示す断面図である。 本技術を適用した半導体チップの第4実施の形態の第1の構成例を示す図である。 図18の半導体チップの製造方法を説明する図である。 本技術を適用した半導体チップの第4実施の形態の第2の構成例を示す図である。 図20の半導体チップの製造方法を説明する図である。 固体撮像素子の第1の積層構造例の詳細を説明する図である。 固体撮像素子の第2の積層構造例の詳細を説明する図である。 本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。 半導体チップを使用する使用例を示す図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1実施の形態(凸形のレンズを有する半導体チップ)
2.第2実施の形態(溝の底面の断面形状が鋸の歯の形状である半導体チップ)
3.第3実施の形態(ARコートが形成される半導体チップ)
4.第4実施の形態(レンズの形状が角型で凹形である半導体チップ)
5.電子機器への適用例
6.半導体チップの使用例
7.内視鏡手術システムへの応用例
8.移動体への応用例
 なお、以下の説明で参照する図面において、同一又は類似の部分には同一又は類似の符号を付している。ただし、図面は模式的なものであり、厚みと平面寸法との関係、各層の厚みの比率等は実際のものとは異なる。また、図面相互間においても、互いの寸法の関係や比率が異なる部分が含まれている場合がある。
 また、以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本開示の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれる。
<第1実施の形態>
<半導体チップの第1の構成例>
 図1は、本技術を適用した半導体チップの第1実施の形態の第1の構成例を示す断面図である。
 図1に示すように、半導体チップ10は、CIS(CMOS(Complementary Metal Oxide Semiconductor) Image sensor)等の固体撮像素子11を有するWCSP(Wafer Level Chip Size Package)である。固体撮像素子11は、半導体基板が積層されて構成される積層基板11a上にオンチップレンズ11bを形成することにより構成される。この固体撮像素子11の上には、接着剤12を介して一体化部13が設置されている。一体化部13は、ガラス基板14とレンズ16が順に積層されることにより構成される。
 ガラス基板14の、レンズ16が形成される領域の周囲の、レンズ16が形成されない領域には、溝部15が形成されている。ここで、ガラス基板14の溝部15以外の領域の厚さをL1とすると、溝部15の厚さはL2(L1>L2)である。また、溝部15の側面15aは傾きを有しているが、この傾きは、ガラス基板14をエッチングして溝部15を形成する際に意図せず発生するものであり、溝部15の側面15aは、理想的には垂直面である。
 ガラス基板14上のオンチップレンズ11bに対応する領域には、凸形のアクリルレンズであるレンズ16が形成されている。レンズ16は、所望の形状の主部16aと、製造時にレンズ16の端部に意図せず形成される裾部16bとにより構成される。レンズ16は、積層基板11aの表面の、オンチップレンズ11bに対応する領域に形成される図示せぬ受光面に対して入射光を合焦させる複数のレンズのうちの最下位層のレンズである。
 以上のように構成される半導体チップ10では、図示せぬレンズおよびレンズ16を介して入射された光がガラス基板14、接着剤12、オンチップレンズ11bを介して、積層基板11aの受光面に入射し、その光に対応する電荷が蓄積されることにより、撮像が行われる。
<一体化部の製造方法>
 図2乃至図4は、図1の一体化部13の製造方法を説明する図である。
 図2に示すように、工程S1において、チャック31にガラス基板14が設置され、レジスト32がパターニングされる。具体的には、ガラス基板14上の溝部15を形成する領域以外の領域にレジスト32が塗布される。
 工程S2において、工程S1においてレジスト32が塗布されたガラス基板14に対して、ウェットエッチングやドライエッチングなどのエッチングが行われ、ガラス基板14のレジスト32が塗布されていない領域が垂直方向にエッチングされる。これにより、ガラス基板14の、レンズ16を形成する領域の周囲に溝部15が形成される。このとき、溝部15の側面15aは、理想的にはガラス基板14に対して垂直な面であるが、実際には溝部15の底面が上面より小さくなり、側面15aは傾きを有する。工程S3において、レジスト32が除去される。
 図3の工程S4において、溝部15が形成されたガラス基板14上の、レンズ16を形成しない領域に、溝部15の高さL1-L2よりも薄い、例えば数nmの厚さの撥水膜33がパターニングされる。工程S5において、ガラス基板14上のレンズ16を形成する領域に、光硬化樹脂であるレンズ樹脂34が塗布される。このとき、レンズ16を形成しない領域には撥水膜33が形成されているため、レンズ樹脂34が、レンズ16を形成しない領域、即ちレンズ樹脂34が不要である領域に拡散することを抑制することができる。その結果、レンズ16を形成するために必要なレンズ樹脂34の量を削減することができる。また、レンズ16の形状のバラつきを抑制することができる。
 工程S6において、レンズ樹脂34に対して、レンズ16の主部16aの形状に対応する形状の遮光マスク付きの金型35が押圧(インプリント)され、金型35を介してレンズ樹脂34に光が照射されることにより、レンズ樹脂34が露光される。これにより、主部16aの形状に対応する形状の、露光されたレンズ樹脂34が硬化され、レンズ16が成型される。即ち、ガラス基板14上のレンズ16を形成する領域に略所望の形状のレンズ16が形成される。一方、金型35からの光が届かず、露光されていないレンズ樹脂34は硬化しない。
 図4の工程S7において、金型35からレンズ16が離型される。工程S8において、ガラス基板14上に洗浄液36が注入され、洗浄処理が行われる。工程S9において、洗浄液36とともに、撥水膜33と未硬化(未露光)のレンズ樹脂34とが除去され、一体化部13が製造される。
 以上のようにして製造された一体化部13は、固体撮像素子11の上に、接着剤12を介して接着され、これにより半導体チップ10が製造される。
<溝部の説明>
 図5は、図4の工程S7と工程S9における溝部15周辺の領域の断面図である。
 図5の左側に示すように、図4の工程S7において金型35からレンズ16が離型されるとき、レンズ16の裾部16bは、ガラス基板14の上面から溝部15のレンズ16側の側面15aに沿って形成されている。
 具体的には、レンズ16が形成されるガラス基板14の上面と溝部15の底面には、L1-L2の距離の段差があるため、図3の工程S6における金型35の押圧によりガラス基板14の上から押し出されたレンズ樹脂34は、側面15aを伝って溝部15の底面の撥水膜33上に落下する。押し出されたレンズ樹脂34のうちの、金型35周辺の領域、即ち主部16a周辺の領域は、金型35を介して入射された光の屈折などにより意図せず露光されて硬化し、裾部16bを形成する。従って、この裾部16bは、ガラス基板14の上面から側面15aに沿って形成される。
 しかしながら、裾部16bは、主部16aの周辺、即ちガラス基板14の上面付近にのみ形成されるため、ガラス基板14の上面からL1―L2だけ低い位置にある溝部15の底面に塗布されている撥水膜33とは接触しない。従って、図5の右側に示すように、図4の工程S9において洗浄液36とともに撥水膜33および未硬化のレンズ樹脂34が除去される際、撥水膜33および未硬化のレンズ樹脂34とともに裾部16bが剥離されない。
 また、裾部16bは、ガラス基板14の上面から側面15aに沿って理想的には垂直方向に形成されるので、レンズ16とガラス基板14の密着力が向上し、レンズ16のガラス基板14からの剥離、いわゆるレンズ剥がれの発生を抑制することができる。
<裾部の状態の説明>
 図6は、裾部16bの状態を説明する図である。
 図6のAは、一体化部13全体の斜視図を示し、図6のBは、図6のAの矩形R1の拡大図である。
 図6のAに示すように、溝部15は、レンズ16の外周に沿って形成されている。従って、上述したように撥水膜33および未硬化のレンズ樹脂34とともに裾部16bが剥離されない。よって、図6のAおよびBに示すように、裾部16bには、裾部16bの一部がガラス基板14から剥離される(浮く)ことによるクラックが発生しない。その結果、このクラックによるガラス基板14とレンズ16の密着力の低下が防止され、レンズ剥がれの発生を抑制することができる。
<溝部がない場合の一体化部の説明>
 図7は、溝部15がない場合の一体化部におけるレンズの成型を説明する図である。
 即ち、図7のAは、図3の工程S6に対応するものであり、図7のBは、図4の工程S7に対応するものである。図7において、図3と同様のものには同一の符号を付してあり、説明は繰り返しになるので、適宜、省略する。
 図7のAに示すように、一体化部13において溝部15がない場合、溝部15がないガラス基板51上の、撥水膜33が形成されない領域に塗布されたレンズ樹脂34に対して金型35を用いた露光が行われることにより、レンズ52が成型される。このとき、金型35からの光が届かず、露光されないレンズ樹脂34は硬化しない。レンズ52は、裾部16bの代わりに裾部52bを備える点が、レンズ16と異なっており、その他の構成はレンズ16と同様である。
 図7のBに示すように、金型35からレンズ52が離型される際、ガラス基板14上には、レンズ52の主部16aだけでなく、金型35からの光の屈折等により意図せず硬化された裾部52bが形成されており、撥水膜33と接触する。
 具体的には、撥水膜33によりレンズ52を形成しない領域へのレンズ樹脂34の漏れが抑制されているが、金型35からの光の屈折等によりレンズ52の端部の形状を高精度で制御することは困難である。従って、レンズ52の成型時に主部16a以外の領域に意図せずに裾部52bが形成されるが、ガラス基板51には溝部15がないため、裾部52bと撥水膜33は同一のガラス基板14上にあり、接触する。従って、この後、洗浄処理が行われ、撥水膜33とその上の未硬化のレンズ樹脂34とが除去される際、撥水膜33および未硬化のレンズ樹脂34とともに裾部52bの一部が剥離される。
 図8は、以上のようにしてレンズ52が成型された場合の一体化部の斜視図である。図8のAは、一体化部全体の斜視図であり、図8のBは、図8のAの矩形R2の拡大図である。
 図8のAおよびBに示すように、一体化部53ではガラス基板51に溝部15が形成されていないので、上述したように撥水膜33および未硬化のレンズ樹脂34とともに裾部52bの一部が剥離される。従って、図8のAおよびBに示すように、裾部52bには、裾部52bの一部がガラス基板14から剥離されることによるクラック71が発生する場合がある。
 図9は、一体化部53における理想的な裾部の周辺の断面図であり、図10は、実際の裾部52bの周辺の断面図である。図9のAは、理想的な裾部の周辺全体の断面図であり、図9のBは、図9のAの矩形R3の拡大図である。図10のAは、実際の裾部52bの周辺全体の断面図である。図10のBの左側は、図10のAの矩形R4の拡大図であり、図10のBの右側は、図10のAの矩形R5の拡大図である。
 図9のAおよびBに示すように、レンズ52の理想的な裾部55は、クラックを有さず、ガラス基板51との密着力が高いものである。しかしながら、図10のBの左側に示すように、実際の裾部52bは、上述したようにクラック71が発生する場合がある。この場合、クラック71によりレンズ52とガラス基板51の密着力が低下する。従って、図10のAの右側に示すように、レンズ52が例えば矢印D方向の力を受けた際、図10のBの右側に示すように、裾部52bのクラック71が広がり、ガラス基板51からのレンズ52の剥離、いわゆるレンズ剥がれが発生する可能性がある。
<一体化部の第2の構成例>
 図11は、本技術を適用した半導体チップの第1実施の形態における一体化部の第2の構成例を示す断面図であり、図4の工程S7に対応する工程における一体化部を示す断面図である。
 図11のAは、一体化部90全体の断面図であり、図11のBは、図11のAの矩形R6の拡大図である。図11の一体化部90において、図1や図4の一体化部13と対応する部分については同一の符号を付してある。従って、その部分の説明は適宜省略し、一体化部13と異なる部分に着目して説明する。
 図11の一体化部90は、ガラス基板14の代わりにガラス基板91が設けられる点が、一体化部13と異なっており、その他は一体化部13と同様に構成されている。ガラス基板91は、溝部15の代わりに溝部92が設けられる点が、ガラス基板14と異なっており、その他はガラス基板14と同様に構成されている。
 溝部92は、溝部92の側面92aが所定の傾きを有する斜面である点が、溝部15と異なっており、その他は溝部15と同様に構成されている。図11では、溝部92の左側のレンズ16側の側面92aの水平方向に対する角度はα(0°<α<90°)であり、溝部92の右側のレンズ16側の側面92aの水平方向に対する角度はβ(0°<β<90°)である。角度αとβは同一であってもよいし、異なっていてもよい。
 溝部92は、溝部15と同様に、ガラス基板14の上面からL1-L2だけ低い位置に底面を有するので、図11に示すように、この底面に塗布されている撥水膜33と裾部16bは接触しない。従って、裾部16bにクラックが発生せず、レンズ剥がれの発生を抑制することができる。
 また、溝部92の側面92aは斜面であるので、垂直面である場合に比べて側面92aに対する裾部16bの接着面積が増加する。従って、側面92aと裾部16bの密着力が向上し、その結果、レンズ剥がれの発生をより抑制することができる。
<一体化部の第3の構成例>
 図12は、本技術を適用した半導体チップの第1実施の形態における一体化部の第3の構成例を示す断面図であり、図4の工程S7に対応する工程における一体化部を示す断面図である。
 図12のAは、一体化部110全体の断面図であり、図12のBは、図12のAの矩形R7の拡大図である。図12の一体化部110において、図1や図4の一体化部13と対応する部分については同一の符号を付してある。従って、その部分の説明は適宜省略し、一体化部13と異なる部分に着目して説明する。
 図12の一体化部110は、ガラス基板14の代わりにガラス基板111が設けられる点が、一体化部13と異なっており、その他は一体化部13と同様に構成されている。ガラス基板111は、溝部15の代わりに溝部112が設けられる点が、ガラス基板14と異なっており、その他はガラス基板14と同様に構成されている。
 溝部112は、側面112aに光の正反射を防止する加工として梨地加工が施されている点が、溝部15と異なっており、その他は溝部15と同様に構成されている。即ち、溝部112は、側面112aの表面に凹凸面113を有している。
 溝部112は、溝部15と同様に、ガラス基板14の上面からL1-L2だけ低い位置に底面を有するので、図12に示すように、この底面に塗布されている撥水膜33と裾部16bは接触しない。従って、裾部16bにクラックが発生せず、レンズ剥がれの発生を抑制することができる。
 また、溝部112の側面112aの表面には凹凸面113が設けられているので、レンズ16の成型時に金型35から入射されて漏れ出た光は凹凸面113で乱反射する。その結果、この漏れ出た光による裾部16bの形成を抑制することができる。
 側面112aに施される加工は、光の正反射を防止する加工であれば、梨地加工以外の加工であってもよい。
<一体化部の第4の構成例>
 図13は、本技術を適用した半導体チップの第1実施の形態における一体化部の第4の構成例を示す断面図であり、図4の工程S7に対応する工程における一体化部を示す断面図である。
 図13のAは、一体化部130全体の断面図であり、図13のBは、図13のAの矩形R8の拡大図である。図13の一体化部130において、図1や図4の一体化部13と対応する部分については同一の符号を付してある。従って、その部分の説明は適宜省略し、一体化部13と異なる部分に着目して説明する。
 図13の一体化部130は、ガラス基板14の代わりにガラス基板131が設けられる点が、一体化部13と異なっており、その他は一体化部13と同様に構成されている。ガラス基板131は、溝部15の代わりに溝部132が設けられる点が、ガラス基板14と異なっており、その他はガラス基板14と同様に構成されている。
 溝部132は、底面が曲面である点、および、底面の最も低い位置の厚さがL3(L1>L3)である点が、溝部15と異なっており、その他は溝部15と同様に構成されている。
 溝部132は、ガラス基板14の上面からL1-L3だけ低い位置を底面の最も低い位置とするので、溝部15と同様に、図13に示すように、この底面に塗布されている撥水膜33と裾部16bは接触しない。従って、裾部16bにクラックが発生せず、レンズ剥がれの発生を抑制することができる。
 また、溝部132の底面は曲面になっているので、洗浄処理後に、洗浄液36とともに、撥水膜33と未硬化のレンズ樹脂34を容易に除去することができる。
 以上のように、半導体チップ10は、固体撮像素子11と、固体撮像素子11上に設置されたガラス基板14(91,111,131)と、ガラス基板14(91,111,131)上に形成されたレンズ16とを備え、ガラス基板14は、レンズ16が形成される領域の周囲に溝部15(92,112,132)を有する。
 従って、レンズ16の形成時に、撥水膜33と裾部16bが接触しない。これにより、洗浄液36とともに撥水膜33と未硬化のレンズ樹脂34を除去する際に、それらとともに裾部16bの一部が剥離され、裾部16bにクラックが発生することを抑制することができる。従って、そのクラックによりガラス基板14(91,111,131)からレンズ16が剥離することを抑制することができる。その結果、半導体チップ10の信頼性や耐久性を向上させることができる。
 なお、図示は省略するが、一体化部90(110,130)の製造方法は、図2乃至図4で説明した一体化部13の製造方法と同様である。また、一体化部13(90,11,130)の製造方法において、撥水膜33は形成されなくてもよい。
<第2実施の形態>
<半導体チップの構成例>
 図14は、本技術を適用した半導体チップの第2実施の形態の構成例を示す断面図である。
 図14のAは、半導体チップ140全体の断面図であり、図14のBは、図14のAの矩形R9の拡大図である。図14の半導体チップ140において、図1の半導体チップ10と対応する部分については同一の符号を付してある。従って、その部分の説明は適宜省略し、半導体チップ10と異なる部分に着目して説明する。
 図14の半導体チップ140は、一体化部13の代わりに一体化部150が設けられる点が、半導体チップ10と異なっており、その他は半導体チップ10と同様に構成されている。一体化部150は、ガラス基板14の代わりにガラス基板151が設けられる点が、一体化部13と異なっており、その他は一体化部13と同様に構成されている。ガラス基板151は、溝部15の代わりに溝部152が設けられる点が、ガラス基板14と異なっており、その他はガラス基板14と同様に構成されている。
 溝部152は、底面に対して、溝部152の底面が平面である場合に比べて表面積が増加する加工として、断面形状を鋸の歯の形状にする加工が施されている点、および、底面の最も低い位置の厚さがL4(L4>L2)である点が、溝部15と異なっており、その他は溝部15と同様に構成されている。なお、L1-L4は、裾部16bが溝部15の底面と接触するほど小さい。
 溝部152の底面は裾部16bと接触するが、溝部152の底面の断面は鋸の歯の形状であり、底面が平面である場合に比べて溝部152の底面の表面積は大きい。従って、溝部152の底面と裾部16bの密着力は、溝部152の底面が平面である場合に比べて大きい。
 なお、溝部152の底面に対して行われる加工は、底面が平面である場合に比べて表面積が増加する加工、即ち底面が凹凸を有するようにする加工であれば、どのような加工であってもよい。
<一体化部の製造方法>
 図15および図16は、図14の一体化部150の製造方法を説明する図である。
 なお、図15および図16において、図3および図4と対応する部分については同一の符号を付してある。
 まず、図2の工程S1乃至S3の処理と同様の工程が行われ、ガラス基板151に溝部152が形成される。次に、図15の工程S31において、溝部152の底面に対して断面形状を鋸の歯の形状にする加工が施される。工程S32において、ガラス基板151上のレンズ16を形成する領域に、レンズ樹脂34が塗布される。
 工程S33において、レンズ樹脂34に対して金型35が押圧され、金型35を介してレンズ樹脂34に光が照射されることにより、レンズ樹脂34が露光される。これにより、主部16aの形状に対応する形状の、露光されたレンズ樹脂34が硬化され、レンズ16が成型される。即ち、ガラス基板151上のレンズ16を形成する領域に略所望の形状のレンズ16が形成される。一方、金型35からの光が届かず、露光されていないレンズ樹脂34は硬化しない。
 図16の工程S34において、金型35からレンズ16が離型される。工程S35において、ガラス基板151上に洗浄液36が注入され、洗浄処理が行われる。工程S36において、洗浄液36とともに、未硬化のレンズ樹脂34が除去され、一体化部150が製造される。
 ここで、溝部152の底面が平面である場合に比べて、溝部152の底面の表面積は大きいため、溝部152の底面と裾部16bの密着力は高い。従って、未硬化のレンズ樹脂34ととともに裾部16bが溝部152の底面から剥離され、裾部16bにクラックが発生することを抑制することができる。
 以上のようにして製造された一体化部150は、固体撮像素子11の上に、接着剤12を介して接着され、これにより半導体チップ140が製造される。なお、図15および図16の製造方法の例では、撥水膜が形成されないようにしたが、撥水膜が形成されるようにしてもよい。また、洗浄液36は、裾部16bと接触しない程度の厚さになるように注入されてもよい。この場合、裾部16bの剥離の発生をさらに抑制することができる。
 以上のように、半導体チップ140は、固体撮像素子11と、固体撮像素子11上に設置されたガラス基板151と、ガラス基板151上に形成されたレンズ16とを備え、ガラス基板151は、レンズ16が形成される領域の周囲に溝部152を有する。また、溝部152の底面には、溝部152の底面が平面である場合に比べて表面積が大きくなる加工が施されている。従って、溝部152の底面と裾部16bの密着力が向上する。これにより、洗浄液36とともに未硬化のレンズ樹脂34を除去する際に、未硬化のレンズ樹脂34とともに裾部16bが剥離され、裾部16bにクラックが発生することを抑制することができる。従って、そのクラックによりガラス基板151からレンズ16が剥離することを抑制することができる。その結果、半導体チップ140の信頼性や耐久性を向上させることができる。
 なお、第1実施の形態および第2実施の形態では、固体撮像素子11と一体化部13(90,110,130,150)の製造が別々に行われ、一体化部13(90,110,130,150)の製造後に固体撮像素子11に一体化部13(90,110,130,150)が接着されることにより半導体チップ10(140)が製造されたが、固体撮像素子11が形成された後、固体撮像素子11の上に一体化部13(90,110,130,150)が形成されるようにしてもよい。この場合、一体化部13(90,110,130,150)を製造する際、チャック31の上に、ガラス基板14(91,111,131,151)が接着剤12を介して接着された固体撮像素子11が設置される。
 また、第1実施の形態および第2実施の形態の溝部15(92,112,132,152)の特徴は、組み合わされてもよい。例えば、溝部112,132、および152は、溝部92と同様に側面に傾きを有していてもよい。また、溝部132および152は、溝部92と同様に側面の表面に凹凸面113を有していてもよい。
<第3実施の形態>
<半導体チップの構成例>
 図17は、本技術を適用した半導体チップの第3実施の形態の構成例を示す断面図である。
 図17の半導体チップ200において、図1の半導体チップ10と対応する部分については同一の符号を付してある。従って、その部分の説明は適宜省略し、半導体チップ10と異なる部分に着目して説明する。
 図17の半導体チップ200は、一体化部13の代わりに一体化部210が設けられる点が、半導体チップ10と異なっており、その他は半導体チップ10と同様に構成されている。一体化部210は、バッファ層211とARコート212が新たに設けられる点が、一体化部13と異なっており、その他は一体化部13と同様に構成されている。
 バッファ層211は、ARコート212とレンズ16の間に形成される。バッファ層211は、レンズ16の側面と上面を覆い、溝部15を含む、ガラス基板14のレンズ16が形成されない領域の上にも形成されている。バッファ層211は、外部からARコート212を介して入射された光をレンズ16に透過させる際にその光に影響を与えない程度の低い屈折率、例えばレンズ16と同一または少し高い屈折率を有する。また、バッファ層211は、ARコートの変形を抑制可能な程度に硬い。バッファ層211としては、SiO2,SiON等の膜を用いることができる。
 ARコート212は、反射防止膜であり、バッファ層211の全面を覆っている。ARコート212は、TiOx,TaOx,NbOx等のうちの少なくとも1つからなる高屈折率膜と、SiOx,SiON等のうちの少なくとも1つからなる低屈折率膜とが交互に積層された4層構造を有する。
 以上のように、半導体チップ200は、レンズ16とARコート212の間にバッファ層211を備える。これにより、半導体チップ200の信頼性評価のために、温度サイクル(TC(Temperature Cycle))試験、高温高湿保存(THS(Temperature Humidity Storage))試験等が行われる際、ARコート212が破損することを抑制することができる。
 具体的には、レンズ16とARコート212の間にバッファ層211が設けられない場合、半導体チップ200に対して温度サイクル試験等が行われると、レンズ16とARコート212の熱応力差によりARコート212が変形し、破損する恐れがある。また、バッファ層211が設けられない場合、半導体チップ200に対して高温高質保存試験等が行われると、レンズ16が水分を吸収して膨潤し、ARコート212が破損する恐れがある。
 従って、半導体チップ200では、レンズ16とARコート212の間にバッファ層211を挿入し、緩衝材として機能させることにより、温度サイクル試験等による熱変形および高温高質保存試験等によるレンズ16への水分の侵入を抑制する。その結果、ARコート212の破損が抑制され、半導体チップ200の信頼性を確保することができる。例えば、500時間以上の温度サイクル試験や高温高質保存試験における信頼性を確保することができる。
 なお、説明は省略するが、一体化部210の製造方法は、後述する第4実施の形態の一体化部の製造方法と同様である。
<第4実施の形態>
<半導体チップの第1の構成例>
 図18は、本技術を適用した半導体チップの第4実施の形態の第1の構成例を示す図である。
 図18のAは、半導体チップ300の上面図であり、図18のBは、半導体チップ300の断面図である。図18の半導体チップ300において、図17の半導体チップ200と対応する部分については同一の符号を付してある。従って、その部分の説明は適宜省略し、半導体チップ200と異なる部分に着目して説明する。
 図18の半導体チップ300は、一体化部210の代わりに一体化部310が設けられる点が、半導体チップ200と異なっており、その他は半導体チップ200と同様に構成されている。一体化部310は、レンズ16の代わりにレンズ311が設けられる点が、一体化部210と異なっており、その他は一体化部210と同様に構成されている。レンズ311は、アクリルレンズである。レンズ311は、角型で凹形の主部311aと、製造時に端部に意図せずに形成される裾部311bとを有する。
<製造方法の説明>
 図19は、図18の半導体チップ300の製造方法を説明する図である。
 図19の工程S51において、レンズ311に対してプラズマ処理が行われる。このレンズ311は、接着剤12を介して固体撮像素子11に接着され、図2の工程S1乃至S3と同様の工程により溝部15が形成されたガラス基板14に、図3および図4の工程S4乃至S9と同様の工程により形成されたものである。
 工程S52において、レンズ311の上面および側面、並びにガラス基板14のレンズ311が形成されていない領域の上に、スパッタ等によりバッファ層211が成膜される。このバッファ層211の厚みは、自重で破損しない程度の厚みであり、例えば、400nm~1100nmの任意の値をとり得るが、ここでは800nmとする。また、バッファ層211の側面の厚みは、水の侵入を抑制するために必要な厚み、例えば上面の厚みの60%以上である。バッファ層211の成膜はスパッタ以外の方法であってもよいが、スパッタである場合低温で成膜しやすい。
 工程S53において、工程S52において形成されたバッファ層211の全面にARコート212が成膜され、半導体チップ300が製造される。
 なお、図19においてチャック31は省略されているが、固体撮像素子11は、チャック等に設置される。このことは、後述する図21においても同様である。
 以上のように、半導体チップ300は、レンズ311とARコート212の間にバッファ層211を備える。従って、半導体チップ200と同様に、ARコート212の破損を抑制し、半導体チップ300の信頼性を確保することができる。
<半導体チップの第2の構成例>
 図20は、本技術を適用した半導体チップの第4実施の形態の第2の構成例を示す図である。
 図20のAは、半導体チップ330の上面図であり、図20のBは、半導体チップ330の断面図である。図20の半導体チップ330において、図18の半導体チップ300と対応する部分については同一の符号を付してある。従って、その部分の説明は適宜省略し、半導体チップ300と異なる部分に着目して説明する。
 図20の半導体チップ330は、一体化部310の代わりに一体化部340が設けられる点が、半導体チップ300と異なっており、その他は半導体チップ300と同様に構成されている。一体化部340は、ARコート212の代わりにARコート341が設けられる点が、一体化部310と異なっており、その他は一体化部310と同様に構成されている。
 ARコート341は、バッファ層211の全面ではなく、レンズ311の上面に形成されたバッファ層211のみを覆っている。即ち、レンズ311の側面およびガラス基板14のレンズ311が形成されない領域の上には、バッファ層211のみが形成されている。
<製造方法の説明>
 図21は、図20の半導体チップ330の製造方法を説明する図である。
 図21の工程S71およびS72は、図19の工程S51およびS52と同様であるので、説明は省略する。工程S73において、工程S72において形成されたバッファ層211のうちの、レンズ311の上面のバッファ層211の上にARコート212が成膜され、半導体チップ330が製造される。
 以上のように、半導体チップ330は、レンズ311とARコート341の間にバッファ層211を備える。従って、半導体チップ200と同様に、ARコート212の破損を抑制し、半導体チップ300の信頼性を確保することができる。
 また、半導体チップ330では、レンズ311の側面のバッファ層211の上にはARコート212が形成されないので、半導体チップ300の製造を容易に行うことができる。一方、レンズ311の側面(側壁)は光学特性に影響しないため、半導体チップ330は、レンズ311の側面のバッファ層211の上にARコート212を有さないが、半導体チップ300と同様の光学特性を有することができる。また、バッファ層211は、レンズ311の側面を覆うため、高温高質保存試験等によるレンズ311への水分の侵入を抑制することができる。
 その結果、例えば、高屈折率膜等の水平方向(レンズ311の側面に垂直な方向)の成膜が困難である場合であっても、半導体チップ300と同様の光学特性と信頼性を有する半導体チップ330を製造することができる。
 なお、第4実施の形態では、固体撮像素子11の形成後に一体化部310(340)が形成されるようにしたが、第1実施の形態および第2実施の形態と同様に、固体撮像素子11と一体化部310(340)の製造が別々に行われ、一体化部310(330)の製造後に固体撮像素子11に一体化部310(340)が接着されることにより半導体チップ300(330)が製造されるようにしてもよい。
 また、ARコート212および341の層数は4層に限定されず、何層であってもよい。レンズ16およびレンズ311は、アクリルレンズ以外のレンズであってもよい。
 さらに、第3実施の形態および第4実施の形態では、半導体チップ200(300,330)が溝部15を有するようにしたが、上述した他の溝部92,112,132、または152を有するようにしてもよい。
 上述した図1、図14、および図17乃至図21では、固体撮像素子11の構造を簡略化して記載したが、実際には、固体撮像素子11は、積層構造を有する。
<固体撮像素子の第1の積層構造例>
 図22を参照して、半導体チップ10における固体撮像素子11の第1の積層構造例について詳細に説明する。図22は、半導体チップ10の一部分を拡大して示した断面図である。図22の半導体チップ10において、図1と対応する部分については同一の符号を付してあり、説明は繰り返しになるので、適宜省略する。
 図22の固体撮像素子11の積層基板11aは、下側基板401と上側基板402とが積層されて構成される。下側基板401には、例えばシリコン(Si)で構成された半導体基板421の上側(上側基板402側)に、多層配線層422が形成されている。この多層配線層422により、画素ごとに光電変換を行う画素部から出力された画素信号を処理する信号処理回路などのロジック回路や画素部の制御を行う制御回路が構成されている。なお、制御回路は、上側基板402に構成されるようにしてもよい。
 多層配線層422は、上側基板402に最も近い最上層の配線層423a、中間の配線層423b、及び、半導体基板421に最も近い最下層の配線層423cなどからなる複数の配線層423と、各配線層423の間に形成された層間絶縁膜424とで構成される。
 複数の配線層423は、例えば、銅(Cu)、アルミニウム(Al)、タングステン(W)などを用いて形成され、層間絶縁膜424は、例えば、シリコン酸化膜、シリコン窒化膜などで形成される。複数の配線層423及び層間絶縁膜424のそれぞれは、全ての階層が同一の材料で形成されていてもよし、階層によって2つ以上の材料を使い分けてもよい。
 半導体基板421の所定の位置には、半導体基板421を貫通するシリコン貫通孔425が形成されており、シリコン貫通孔425の内壁に、絶縁膜426を介して接続導体427が埋め込まれることにより、シリコン貫通電極(TSV:Through Silicon Via)428が形成されている。絶縁膜426は、例えば、SiO2膜やSiN膜などで形成することができる。
 なお、図22に示されるシリコン貫通電極428では、内壁面に沿って絶縁膜426と接続導体427が成膜され、シリコン貫通孔425内部が空洞となっているが、内径によってはシリコン貫通孔425内部全体が接続導体427で埋め込まれることもある。換言すれば、貫通孔の内部が導体で埋め込まれていても、一部が空洞となっていてもどちらでもよい。このことは、後述するチップ貫通電極(TCV:Through Chip Via)458などについても同様である。
 シリコン貫通電極428の接続導体427は、半導体基板421の下面側に形成された再配線429と接続されており、再配線429は、はんだボール430と接続されている。接続導体427及び再配線429は、例えば、銅(Cu)、タングステン(W)、チタン(Ti)、タンタル(Ta)、チタンタングステン合金(TiW)、ポリシリコンなどで形成することができる。
 また、半導体基板421の下面側には、はんだボール430が形成されている領域を除いて、再配線429と絶縁膜426を覆うように、ソルダマスク(ソルダレジスト)431が形成されている。
 一方、上側基板402には、シリコン(Si)で構成された半導体基板451の下側(下側基板401側)に、多層配線層452が形成されている。この多層配線層452により、画素部の回路が構成されている。
 多層配線層452は、半導体基板451に最も近い最上層の配線層453a、中間の配線層453b、及び、下側基板401に最も近い最下層の配線層453cなどからなる複数の配線層453と、各配線層453の間に形成された層間絶縁膜454とで構成される。
 複数の配線層453及び層間絶縁膜454として使用される材料は、上述した配線層423及び層間絶縁膜424の材料と同種のものを採用することができる。また、複数の配線層453や層間絶縁膜454が、1または2つ以上の材料を使い分けて形成されてもよい点も、上述した配線層423及び層間絶縁膜424と同様である。
 なお、図22の例では、上側基板402の多層配線層452は3層の配線層453で構成され、下側基板401の多層配線層422は4層の配線層423で構成されているが、配線層の総数はこれに限られず、任意の層数で形成することができる。
 半導体基板451の上面には、PN接合により形成された、光電変換素子としてのフォトダイオード455が画素ごとに2次元状に配列された受光面が設けられる。フォトダイオード455は、受光量に応じた電荷(信号電荷)を生成し、蓄積する。
 また、図示は省略されているが、半導体基板451と多層配線層452には、画素部を構成する、フォトダイオード455以外の、複数の画素トランジスタやメモリ部なども形成されている。
 R(赤)、G(緑)、またはB(青)のカラーフィルタ456とオンチップレンズ11bが形成されていない半導体基板451の所定の位置には、上側基板402の配線層453aと接続されているシリコン貫通電極457と、下側基板401の配線層423aと接続されているチップ貫通電極458が、形成されている。
 シリコン貫通電極457とチップ貫通電極458は、半導体基板451上面に形成された接続用配線459で接続されている。また、シリコン貫通電極457及びチップ貫通電極458のそれぞれと半導体基板451との間には、絶縁膜460が形成されている。さらに、半導体基板451の上面には、絶縁膜(平坦化膜)461を介して、カラーフィルタ456やオンチップレンズ11bが形成されている。
 以上のように、固体撮像素子11の積層基板11aは、下側基板401の多層配線層422側と、上側基板402の多層配線層452側とを貼り合わせた積層構造となっている。図22では、下側基板401の多層配線層422と、上側基板402の多層配線層452との貼り合わせ面が、破線で示されている。
 また、積層基板11aでは、上側基板402の配線層453と下側基板401の配線層423が、シリコン貫通電極457とチップ貫通電極458の2本の貫通電極により接続され、下側基板401の配線層423とはんだボール(裏面電極)430が、シリコン貫通電極428と再配線429により接続されている。これにより、固体撮像素子11の平面積を、極限まで小さくすることができる。従って、半導体チップ10を小型化することができる。
<固体撮像素子の第2の積層構造例>
 図23は、半導体チップ10における固体撮像素子11の第2の積層構造例の詳細を説明する図であり、半導体チップ10の一部分を拡大して示した断面図である。
 図23の固体撮像素子11において、図22と対応する部分については同一の符号を付してある。従って、その部分の説明は適宜省略し、図22の固体撮像素子11と異なる部分に着目して説明する。
 図23の固体撮像素子11では、下側基板401と上側基板402の接続方法が、図22の基本構造と異なる。
 即ち、図22の固体撮像素子11では、下側基板401と上側基板402が、シリコン貫通電極457とチップ貫通電極458の2本の貫通電極を用いて接続されていたのに対して、図23の固体撮像素子11では、下側基板401の多層配線層422内の最上層の配線層423aと、上側基板402の多層配線層452内の最下層の配線層453cの金属結合(Cu-Cu接合)により接続されている。
 図23の固体撮像素子11下側のはんだボール430との接続方法は、図22の固体撮像素子11と同様である。すなわち、シリコン貫通電極428が下側基板401の最下層の配線層423cと接続されることにより、はんだボール430と積層基板11a内の配線層423及び配線層453とが接続されている。
 一方、図23の固体撮像素子11においては、半導体基板421の下面側に、はんだボール430が接続される再配線429と同一層に、電気的にはどこにも接続されていないダミー配線511が、再配線429と同一の配線材料で形成されている点が、図22の固体撮像素子11と異なる。
 このダミー配線511は、下側基板401側の最上層の配線層423aと、上側基板402側の最下層の配線層453cの金属結合(Cu-Cu接合)時の凹凸の影響を低減するためのものである。すなわち、Cu-Cu接合を行う際に、半導体基板421の下面の一部の領域のみに再配線429が形成されていると、再配線429の有無による厚みの差で凹凸が発生する。従って、ダミー配線511を設けることで、凹凸の影響を低減することができる。
 なお、図示は省略するが、半導体チップ140,200,300、および330における固体撮像素子11の構造も、図22や図23の固体撮像素子11と同様である。また、第1乃至第4実施の形態では、固体撮像素子11が積層構造を有する裏面照射型のCISであるものとしたが、本発明は、積層構造を有しないCISや表面照射型のCISにも適用することができる。
<5.電子機器への適用例>
 上述した半導体チップ10(140,200,300,330)は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像装置、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図24は、本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。
 図24に示される撮像装置1001は、光学系1002、シャッタ装置1003、固体撮像装置1004、駆動回路1005、信号処理回路1006、モニタ1007、およびメモリ1008を備えて構成され、静止画像および動画像を撮像可能である。
 光学系1002は、1枚または複数枚のレンズを有して構成され、被写体からの光(入射光)を固体撮像装置1004に導き、固体撮像装置1004の受光面に結像させる。
 シャッタ装置1003は、光学系1002および固体撮像装置1004の間に配置され、駆動回路1005の制御に従って、固体撮像装置1004への光照射期間および遮光期間を制御する。
 固体撮像装置1004は、上述した半導体チップ10(140,200,300,330)により構成される。固体撮像装置1004は、光学系1002およびシャッタ装置1003を介して受光面に結像される光に応じて、一定期間、信号電荷を蓄積する。固体撮像装置1004に蓄積された信号電荷は、駆動回路1005から供給される駆動信号(タイミング信号)に従って転送される。
 駆動回路1005は、固体撮像装置1004の転送動作、および、シャッタ装置1003のシャッタ動作を制御する駆動信号を出力して、固体撮像装置1004およびシャッタ装置1003を駆動する。
 信号処理回路1006は、固体撮像装置1004から出力された信号電荷に対して各種の信号処理を施す。信号処理回路1006が信号処理を施すことにより得られた画像(画像データ)は、モニタ1007に供給されて表示されたり、メモリ1008に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置1001においても、固体撮像装置1004として、半導体チップ10(140,200,300,330)を適用することにより、撮像装置1001の信頼性や耐久性を向上させることができる。
<6.半導体チップの使用例>
 図25は、上述の半導体チップ10(140,200,300,330)を使用する使用例を示す図である。
 上述した半導体チップ10(140,200,300,330)は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 <7.内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図26は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図26では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図27は、図26に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部11402等に適用され得る。具体的には、半導体チップ10(140,200,300,330)は、撮像部11402に適用することができる。撮像部11402に本開示に係る技術を適用することにより、撮像部11402の信頼性や耐久性を向上させることができる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 <8.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図28は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図28に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図28の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図29は、撮像部12031の設置位置の例を示す図である。
 図29では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図29には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。具体的には、半導体チップ10(140,200,300,330)は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、撮像部12031の信頼性や耐久性を向上させることができる。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、上述した複数の実施の形態の全てまたは一部を組み合わせた形態を採用することができる。
 本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
 なお、本技術は、以下の構成を取ることができる。
 (1)
 撮像素子と、
 前記撮像素子上に設置されたガラス基板と、
 前記ガラス基板上に形成されたレンズと、
 を備え、
 前記ガラス基板は、前記レンズが形成される領域の周囲に溝部を有する
 ように構成された
 半導体チップ。
 (2)
 前記溝部の側面は斜面である
 ように構成された
 前記(1)に記載の半導体チップ。
 (3)
 前記溝部の側面には光の正反射を防止する加工が施されている
 ように構成された
 前記(1)または(2)に記載の半導体チップ。
 (4)
 前記溝部の底面は曲面である
 ように構成された
 前記(1)乃至(3)のいずれかに記載の半導体チップ。
 (5)
 前記溝部の底面には、前記溝部の底面が平面である場合に比べて表面積が増加する加工が施されている
 ように構成された
 前記(1)乃至(3)のいずれかに記載の半導体チップ。
 (6)
 前記溝部の底面は、凹凸を有する
 ように構成された
 前記(5)に記載の半導体チップ。
 (7)
 前記レンズ上に形成される反射防止膜と、
 前記レンズと前記反射防止膜の間に形成されるバッファ層と
 をさらに備える
 前記(1)乃至(6)のいずれかに記載の半導体チップ。
 (8)
 前記バッファ層は、屈折率が低い膜である
 ように構成された
 前記(7)に記載の半導体チップ。
 (9)
 前記バッファ層は、前記レンズの上面と側面に形成される
 ように構成された
 前記(7)に記載の半導体チップ。
 (10)
 前記バッファ層の側面の厚みは、上面の厚みの60%以上である
 ように構成された
 前記(9)に記載の半導体チップ。
 (11)
 前記反射防止膜は、前記レンズの上面と側面に形成される
 ように構成された
 前記(9)または(10)に記載の半導体チップ。
 (12)
 前記反射防止膜は、前記レンズの上面に形成される
 ように構成された
 前記(9)または(10)に記載の半導体チップ。
 (13)
 撮像素子上に設置されるガラス基板の、レンズを形成する領域の周囲に溝部を形成し、 前記ガラス基板の前記レンズを形成する領域に前記レンズを形成する
 半導体チップの製造方法。
 (14)
 前記レンズの上にバッファ層が成膜され、
 前記バッファ層の上に反射防止膜が成膜される
 前記(13)に記載の半導体チップの製造方法。
 (15)
 撮像素子と、
 前記撮像素子上に設置されたガラス基板と、
 前記ガラス基板上に形成されたレンズと、
 を備え、
 前記ガラス基板は、前記レンズが形成される領域の周囲に溝部を有する
 ように構成された
 半導体チップと、
 前記半導体チップからの信号を処理する信号処理回路と
 を備える電子機器。
 10 半導体チップ, 11 固体撮像素子, 14 ガラス基板, 15 溝部, 16 レンズ, 91 ガラス基板, 92 溝部, 92a 側面, 111 ガラス基板, 112 溝部, 112a 側面, 131 ガラス基板, 132 溝部, 140 半導体チップ, 151 ガラス基板, 152 溝部, 211 バッファ層, 212 ARコート, 300 半導体チップ, 311 レンズ, 330 半導体チップ, 341 ARコート, 1001 撮像装置, 1006 信号処理回路

Claims (15)

  1.  撮像素子と、
     前記撮像素子上に設置されたガラス基板と、
     前記ガラス基板上に形成されたレンズと、
     を備え、
     前記ガラス基板は、前記レンズが形成される領域の周囲に溝部を有する
     ように構成された
     半導体チップ。
  2.  前記溝部の側面は斜面である
     ように構成された
     請求項1に記載の半導体チップ。
  3.  前記溝部の側面には光の正反射を防止する加工が施されている
     ように構成された
     請求項1に記載の半導体チップ。
  4.  前記溝部の底面は曲面である
     ように構成された
     請求項1に記載の半導体チップ。
  5.  前記溝部の底面には、前記溝部の底面が平面である場合に比べて表面積が増加する加工が施されている
     ように構成された
     請求項1に記載の半導体チップ。
  6.  前記溝部の底面は、凹凸を有する
     ように構成された
     請求項5に記載の半導体チップ。
  7.  前記レンズ上に形成される反射防止膜と、
     前記レンズと前記反射防止膜の間に形成されるバッファ層と
     をさらに備える
     請求項1に記載の半導体チップ。
  8.  前記バッファ層は、屈折率が低い膜である
     ように構成された
     請求項7に記載の半導体チップ。
  9.  前記バッファ層は、前記レンズの上面と側面に形成される
     ように構成された
     請求項7に記載の半導体チップ。
  10.  前記バッファ層の側面の厚みは、上面の厚みの60%以上である
     ように構成された
     請求項9に記載の半導体チップ。
  11.  前記反射防止膜は、前記レンズの上面と側面に形成される
     ように構成された
     請求項9に記載の半導体チップ。
  12.  前記反射防止膜は、前記レンズの上面に形成される
     ように構成された
     請求項9に記載の半導体チップ。
  13.  撮像素子上に設置されるガラス基板の、レンズを形成する領域の周囲に溝部を形成し、 前記ガラス基板の前記レンズを形成する領域に前記レンズを形成する
     半導体チップの製造方法。
  14.  前記レンズの上にバッファ層が成膜され、
     前記バッファ層の上に反射防止膜が成膜される
     請求項13に記載の半導体チップの製造方法。
  15.  撮像素子と、
     前記撮像素子上に設置されたガラス基板と、
     前記ガラス基板上に形成されたレンズと、
     を備え、
     前記ガラス基板は、前記レンズが形成される領域の周囲に溝部を有する
     ように構成された
     半導体チップと、
     前記半導体チップからの信号を処理する信号処理回路と
     を備える電子機器。
PCT/JP2022/004382 2021-05-17 2022-02-04 半導体チップおよびその製造方法、並びに電子機器 WO2022244327A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-083153 2021-05-17
JP2021083153A JP2022176627A (ja) 2021-05-17 2021-05-17 半導体チップおよびその製造方法、並びに電子機器

Publications (1)

Publication Number Publication Date
WO2022244327A1 true WO2022244327A1 (ja) 2022-11-24

Family

ID=84140511

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/004382 WO2022244327A1 (ja) 2021-05-17 2022-02-04 半導体チップおよびその製造方法、並びに電子機器

Country Status (2)

Country Link
JP (1) JP2022176627A (ja)
WO (1) WO2022244327A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000156486A (ja) * 1998-11-20 2000-06-06 Matsushita Electric Ind Co Ltd 固体撮像装置の製造方法
JP2004235635A (ja) * 2003-01-29 2004-08-19 Hynix Semiconductor Inc Cmosイメージセンサの製造方法
JP2012160691A (ja) * 2011-01-14 2012-08-23 Sumitomo Electric Ind Ltd 受光装置、光学装置および受光装置の製造方法
WO2013133225A1 (ja) * 2012-03-07 2013-09-12 旭硝子株式会社 マイクロレンズアレイおよび撮像素子パッケージ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000156486A (ja) * 1998-11-20 2000-06-06 Matsushita Electric Ind Co Ltd 固体撮像装置の製造方法
JP2004235635A (ja) * 2003-01-29 2004-08-19 Hynix Semiconductor Inc Cmosイメージセンサの製造方法
JP2012160691A (ja) * 2011-01-14 2012-08-23 Sumitomo Electric Ind Ltd 受光装置、光学装置および受光装置の製造方法
WO2013133225A1 (ja) * 2012-03-07 2013-09-12 旭硝子株式会社 マイクロレンズアレイおよび撮像素子パッケージ

Also Published As

Publication number Publication date
JP2022176627A (ja) 2022-11-30

Similar Documents

Publication Publication Date Title
WO2019087764A1 (ja) 裏面照射型の固体撮像装置、および裏面照射型の固体撮像装置の製造方法、撮像装置、並びに電子機器
JP7472366B2 (ja) 半導体装置、及び電子機器
WO2018088284A1 (ja) 固体撮像素子および製造方法、並びに電子機器
JP7237956B2 (ja) 撮像装置
US11837616B2 (en) Wafer level lens
JP7379163B2 (ja) カメラパッケージ、カメラパッケージの製造方法、および、電子機器
WO2020137285A1 (ja) 撮像素子および撮像素子の製造方法
US11329092B2 (en) Semiconductor device, manufacturing method of semiconductor device, and electronic equipment
WO2022009693A1 (ja) 固体撮像装置およびその製造方法
US20210223512A1 (en) Imaging device
WO2022091576A1 (ja) 固体撮像装置及び電子機器
US20230117904A1 (en) Sensor package, method of manufacturing the same, and imaging device
WO2022244327A1 (ja) 半導体チップおよびその製造方法、並びに電子機器
CN110998849B (zh) 成像装置、相机模块和电子设备
KR20220059473A (ko) 촬상 장치, 전자 기기, 제조 방법
WO2022201815A1 (ja) 半導体チップおよびその製造方法、半導体装置およびその製造方法、並びに電子機器
WO2023100492A1 (ja) 半導体装置及び電子機器
WO2023067891A1 (ja) 半導体装置、固体撮像装置及び半導体装置の製造方法
US20220392937A1 (en) Imaging apparatus and electronic equipment
WO2021261234A1 (ja) 固体撮像装置およびその製造方法、並びに電子機器
US20230030963A1 (en) Imaging apparatus and method for manufacturing the same
TWI826558B (zh) 攝像元件及攝像元件之製造方法
WO2023074136A1 (ja) 半導体装置、機器及び半導体装置の製造方法
WO2020105331A1 (ja) 固体撮像装置及び電子機器
JP2023083675A (ja) 固体撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22804249

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18558198

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22804249

Country of ref document: EP

Kind code of ref document: A1