WO2020246293A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2020246293A1
WO2020246293A1 PCT/JP2020/020581 JP2020020581W WO2020246293A1 WO 2020246293 A1 WO2020246293 A1 WO 2020246293A1 JP 2020020581 W JP2020020581 W JP 2020020581W WO 2020246293 A1 WO2020246293 A1 WO 2020246293A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
glass substrate
solid
image sensor
state image
Prior art date
Application number
PCT/JP2020/020581
Other languages
English (en)
French (fr)
Inventor
山本 篤志
兼作 前田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to EP20818462.2A priority Critical patent/EP3982410A4/en
Priority to US17/595,917 priority patent/US20220236454A1/en
Publication of WO2020246293A1 publication Critical patent/WO2020246293A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/10Optical coatings produced by application to, or surface treatment of, optical elements
    • G02B1/11Anti-reflection coatings
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0085Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing wafer level optics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0018Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for preventing ghost images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/02Simple or compound lenses with non-spherical faces
    • G02B3/04Simple or compound lenses with non-spherical faces with continuous faces that are rotationally symmetrical but deviate from a true sphere, e.g. so called "aspheric" lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/021Mountings, adjusting means, or light-tight connections, for optical elements for lenses for more than one lens
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14632Wafer-level processed structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14687Wafer level processing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures

Definitions

  • the present disclosure relates to an imaging device, and more particularly to an imaging device capable of performing imaging by suppressing the occurrence of flare and ghost.
  • the lens and the solid-state image sensor are closer to each other on the optical axis, and the infrared light cut filter is arranged near the lens.
  • the present disclosure has been made in view of such a situation, and in particular, in a solid-state image sensor, it is possible to realize miniaturization and low profile, and to suppress the occurrence of flare and ghost.
  • the image pickup device on one side of the present disclosure is formed on a solid-state image sensor composed of a laminated substrate in which a first substrate and a second substrate are laminated, a glass substrate located above the first substrate, and the glass substrate. It has a cavity between the lens and the solid-state image sensor.
  • a solid-state image sensor composed of a laminated substrate in which a first substrate and a second substrate are laminated, a glass substrate located above the first substrate, and a glass substrate formed on the glass substrate.
  • a lens is provided, and a cavity is provided between the lens and the solid-state image sensor.
  • the imaging device may be an independent device or a module incorporated in another device.
  • FIG. 5 is a schematic external view of an integrated configuration unit including a solid-state image sensor in the image pickup device of FIG. It is a figure explaining the board structure of the integrated component part. It is a figure which shows the circuit structure example of a laminated board. It is a figure which shows the equivalent circuit of a pixel. It is a figure which shows the detailed structure of a laminated substrate. It is a figure explaining that the ghost and flare due to the internal diffuse reflection do not occur in the image pickup apparatus of FIG. It is a figure explaining that the ghost and flare due to the diffuse reflection do not occur in the image imaged by the image pickup apparatus of FIG.
  • Embodiments for carrying out the present disclosure (hereinafter referred to as embodiments) will be described. The explanation will be given in the following order. 1. 1. First Embodiment 2. Second embodiment 3. Third embodiment 4. Fourth Embodiment 5. Fifth Embodiment 6. Sixth Embodiment 7. 7. Embodiment 8. Eighth embodiment 9. Ninth embodiment 10. 10. The tenth embodiment 11. Eleventh Embodiment 12. Twelfth Embodiment 13. Thirteenth Embodiment 14. 14th Embodiment 15. Fifteenth Embodiment 16. Sixteenth Embodiment 17. Seventeenth Embodiment 18. Eighteenth Embodiment 19. 19th Embodiment 20. 20th Embodiment 21. 21st Embodiment 22. 22nd Embodiment 23. Application example to electronic devices 24. Example of use of solid-state image sensor 25. Examples of applications to endoscopic surgery systems 26. Application example to mobile
  • FIG. 1 is a side sectional view of the image pickup apparatus.
  • the image pickup device 1 of FIG. 1 is composed of a solid-state image pickup element 11, a glass substrate 12, an IRCF (infrared light cut filter) 14, a lens group 16, a circuit board 17, an actuator 18, a connector 19, and a spacer 20.
  • IRCF infrared light cut filter
  • the solid-state image sensor 11 is an image sensor made of so-called CMOS (Complementary Metal Oxide Semiconductor), CCD (Charge Coupled Device), or the like, and is fixed in a state of being electrically connected on the circuit board 17.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the solid-state image sensor 11 is composed of a plurality of pixels arranged in an array, and is focused and incident on the pixel unit from the upper part of the drawing via the lens group 16. A pixel signal corresponding to the amount of incident light is generated and output as an image signal from the connector 19 to the outside via the circuit board 17.
  • a glass substrate 12 is provided on the upper surface of the solid-state image sensor 11 in FIG. 1, and is attached by a transparent adhesive (GLUE) 13 having a refractive index substantially the same as that of the glass substrate 12.
  • GLUE transparent adhesive
  • IRCF14 that cuts infrared light from the incident light is provided on the upper surface of the glass substrate 12 in FIG. 1, and is a transparent adhesive (GLUE) having a refractive index substantially the same as that of the glass substrate 12. ) 15 is pasted together.
  • IRCF14 is composed of, for example, blue plate glass, and cuts (removes) infrared light.
  • the solid-state image sensor 11, the glass substrate 12, and the IRCF 14 are laminated and bonded by the transparent adhesives 13 and 15, to form an integral structure, and are connected to the circuit board 17.
  • the solid-state image sensor 11, the glass substrate 12, and the IRCF 14 surrounded by the alternate long and short dash line in the figure are bonded and integrated with adhesives 13 and 15 having substantially the same refractive index. , Hereinafter, it is also simply referred to as an integrated component 10.
  • the IRCF 14 may be attached on the glass substrate 12 after being individualized in the manufacturing process of the solid-state image sensor 11, or the wafer-shaped glass substrate 12 composed of a plurality of solid-state image sensors 11. After the large-format IRCF 14 is attached to the entire upper surface, the solid-state image sensor may be individualized in units of 11, or any method may be adopted.
  • a spacer 20 is configured on the circuit board 17 so as to surround the entire solid-state image sensor 11, the glass substrate 12, and the IRCF 14 integrally configured. Further, an actuator 18 is provided on the spacer 20.
  • the actuator 18 has a cylindrical shape, and has a built-in lens group 16 formed by stacking a plurality of lenses inside the cylinder, and drives the actuator 18 in the vertical direction in FIG.
  • the actuator 18 moves the lens group 16 in the vertical direction (front-back direction with respect to the optical axis) in FIG. 1 to obtain a distance to an upper subject in the drawing (not shown).
  • autofocus is realized by adjusting the focus so as to form an image of the subject on the imaging surface of the solid-state image sensor 11.
  • FIG. 2 shows a schematic view of the appearance of the integrated configuration unit 10.
  • the integrated component 10 shown in FIG. 2 is a semiconductor package in which a solid-state image sensor 11 made of a laminated substrate composed of a lower substrate 11a and an upper substrate 11b laminated is packaged.
  • a plurality of solder balls 11e which are backside electrodes for electrically connecting to the circuit board 17 of FIG. 1, are formed on the lower substrate 11a of the laminated substrate constituting the solid-state image sensor 11.
  • the upper substrate 11b is formed with a pixel region 21 in which pixel portions for photoelectric conversion are two-dimensionally arranged in an array, and a control circuit 22 for controlling the pixel portions.
  • a logic circuit 23 such as a signal processing circuit for processing a pixel signal output from the pixel portion is formed on the lower substrate 11a.
  • only the pixel region 21 may be formed on the upper substrate 11b, and the control circuit 22 and the logic circuit 23 may be formed on the lower substrate 11a.
  • both the logic circuit 23 or the control circuit 22 and the logic circuit 23 are formed on the lower substrate 11a different from the upper substrate 11b of the pixel region 21 and laminated to form one semiconductor substrate.
  • the size of the image pickup apparatus 1 can be reduced as compared with the case where the pixel region 21, the control circuit 22, and the logic circuit 23 are arranged in the plane direction.
  • the upper substrate 11b on which at least the pixel region 21 is formed will be referred to as a pixel sensor substrate 11b
  • the lower substrate 11a on which at least the logic circuit 23 is formed will be referred to as a logic substrate 11a.
  • the solid-state image sensor 11 includes a pixel array unit 33 in which pixels 32 are arranged in a two-dimensional array, a vertical drive circuit 34, a column signal processing circuit 35, a horizontal drive circuit 36, an output circuit 37, a control circuit 38, and input / output. Includes terminal 39.
  • the pixel 32 includes a photodiode as a photoelectric conversion element and a plurality of pixel transistors. An example of the circuit configuration of the pixel 32 will be described later with reference to FIG.
  • the pixel 32 may have a shared pixel structure.
  • This pixel sharing structure is composed of a plurality of photodiodes, a plurality of transfer transistors, one shared floating diffusion (floating diffusion region), and one shared other pixel transistor. That is, in the shared pixel, the photodiode and the transfer transistor constituting the plurality of unit pixels are configured by sharing the other pixel transistor.
  • the vertical drive circuit 34 is composed of, for example, a shift register, selects a predetermined pixel drive wiring 40, supplies a pulse for driving the pixel 32 to the selected pixel drive wiring 40, and drives the pixel 32 in row units. To do. That is, the vertical drive circuit 34 selectively scans each pixel 32 of the pixel array unit 33 in a row-by-row manner in the vertical direction, and a pixel signal based on the signal charge generated in the photoelectric conversion unit of each pixel 32 according to the amount of light received. Is supplied to the column signal processing circuit 35 through the vertical signal line 41.
  • the solid-state image sensor 11 configured as described above is a CMOS image sensor called a column AD method in which a column signal processing circuit 35 that performs CDS processing and AD conversion processing is arranged for each pixel string.
  • FIG. 5 shows an equivalent circuit of pixels 32.
  • the pixel 32 shown in FIG. 5 shows a configuration that realizes an electronic global shutter function.
  • the memory unit 53 is a charge holding unit that temporarily holds the charge until the charge is transferred to the FD 55.
  • the second transfer transistor 54 When the second transfer transistor 54 is turned on by the transfer signal TRG, the second transfer transistor 54 reads out the electric charge held in the memory unit 53 and transfers it to the FD55.
  • the amplification transistor 57 outputs a pixel signal according to the potential of the FD55. That is, the amplification transistor 57 constitutes a load MOS 60 as a constant current source and a source follower circuit, and a pixel signal indicating a level corresponding to the electric charge stored in the FD 55 is a column signal from the amplification transistor 57 via the selection transistor 58. It is output to the processing circuit 35 (FIG. 4).
  • the load MOS 60 is arranged in, for example, the column signal processing circuit 35.
  • the transfer signals TRX and TRG, the reset signal RST, the discharge signal OFG, and the selection signal SEL are supplied from the vertical drive circuit 34 via the pixel drive wiring 40.
  • the high-level emission signal OFG is supplied to the emission transistor 59 to turn on the emission transistor 59, and the electric charge stored in the photodiode 51 is discharged to the constant voltage source VDD to all the pixels. Photodiode 51 is reset.
  • the electric charges held in the memory unit 53 of each pixel 32 are sequentially read out to the column signal processing circuit 35 row by row.
  • the second transfer transistor 54 of the pixel 32 of the read line is turned on by the transfer signal TRG, and the electric charge held in the memory unit 53 is transferred to the FD55.
  • the selection transistor 58 is turned on by the selection signal SEL, a signal indicating the level corresponding to the electric charge stored in the FD 55 is output from the amplification transistor 57 to the column signal processing circuit 35 via the selection transistor 58.
  • the exposure time is set to be the same for all the pixels of the pixel array unit 33, and the electric charge is temporarily held in the memory unit 53 after the exposure is completed.
  • the global shutter method operation (imaging) of sequentially reading the electric charge from the memory unit 53 in line units is possible.
  • FIG. 6 is an enlarged cross-sectional view showing a part of the solid-state image sensor 11.
  • a multilayer wiring layer 82 is formed on the upper side (pixel sensor substrate 11b side) of the semiconductor substrate 81 (hereinafter referred to as the silicon substrate 81) made of silicon (Si).
  • the multi-layer wiring layer 82 constitutes the control circuit 22 and the logic circuit 23 of FIG.
  • the plurality of wiring layers 83 are formed of, for example, copper (Cu), aluminum (Al), tungsten (W), etc.
  • the interlayer insulating film 84 is formed of, for example, a silicon oxide film, a silicon nitride film, or the like. ..
  • all layers may be formed of the same material, or two or more materials may be used properly depending on the layer.
  • a silicon through hole 85 penetrating the silicon substrate 81 is formed at a predetermined position of the silicon substrate 81, and the connecting conductor 87 is embedded in the inner wall of the silicon through hole 85 via the insulating film 86 to form silicon.
  • a through electrode (TSV: Through Silicon Via) 88 is formed.
  • the insulating film 86 can be formed of, for example, a SiO2 film or a SiN film.
  • an insulating film 86 and a connecting conductor 87 are formed along the inner wall surface, and the inside of the silicon through hole 85 is hollow.
  • the silicon through hole 85 The entire interior may be embedded with a connecting conductor 87. In other words, it does not matter whether the inside of the through hole is embedded with a conductor or a part of the through hole is hollow. This also applies to the through silicon via (TCV: Through Chip Via) 105, which will be described later.
  • the connecting conductor 87 of the through silicon via 88 is connected to the rewiring 90 formed on the lower surface side of the silicon substrate 81, and the rewiring 90 is connected to the solder balls 11e.
  • the connecting conductor 87 and the rewiring 90 can be formed of, for example, copper (Cu), tungsten (W), tungsten (W), polysilicon, or the like.
  • solder mask (solder resist) 91 is formed so as to cover the rewiring 90 and the insulating film 86 except for the region where the solder balls 11e are formed.
  • a multilayer wiring layer 102 is formed on the lower side (logic substrate 11a side) of the semiconductor substrate 101 (hereinafter, referred to as silicon substrate 101) made of silicon (Si).
  • the multilayer wiring layer 102 constitutes the pixel circuit of the pixel region 21 of FIG.
  • the multilayer wiring layer 102 includes a plurality of wiring layers 103 including an uppermost wiring layer 103a closest to the silicon substrate 101, an intermediate wiring layer 103b, and a lowermost wiring layer 103c closest to the logic substrate 11a. It is composed of an interlayer insulating film 104 formed between the wiring layers 103.
  • the multilayer wiring layer 102 of the pixel sensor substrate 11b is composed of the three-layer wiring layer 103
  • the multilayer wiring layer 82 of the logic substrate 11a is composed of the four-layer wiring layer 83.
  • the total number of wiring layers is not limited to this, and can be formed by any number of layers.
  • a photodiode 51 formed by a PN junction is formed for each pixel 32.
  • the through silicon via 109 connected to the wiring layer 103a of the pixel sensor substrate 11b and the wiring layer 83a of the logic substrate 11a A connected through silicon via 105 is formed.
  • the through silicon via 105 and the through silicon via 109 are connected by a connection wiring 106 formed on the upper surface of the silicon substrate 101. Further, an insulating film 107 is formed between each of the through silicon via 109 and the through silicon via 105 and the silicon substrate 101. Further, a color filter 11c and an on-chip lens 11d are formed on the upper surface of the silicon substrate 101 via a flattening film (insulating film) 108.
  • the solid-state image sensor 11 shown in FIG. 2 has a laminated structure in which the multilayer wiring layer 102 side of the logic substrate 11a and the multilayer wiring layer 82 side of the pixel sensor substrate 11b are bonded together.
  • FIG. 6 the surface where the multilayer wiring layer 102 side of the logic substrate 11a and the multilayer wiring layer 82 side of the pixel sensor substrate 11b are bonded is shown by a broken line.
  • the wiring layer 103 of the pixel sensor substrate 11b and the wiring layer 83 of the logic substrate 11a are connected by two through electrodes, a through silicon via 109 and a through silicon via 105, and logic.
  • the wiring layer 83 of the substrate 11a and the solder ball (back surface electrode) 11e are connected to the through silicon via 88 by the rewiring 90.
  • the height direction can also be lowered.
  • the solid line is used. As shown, the incident light is focused and is incident on the solid-state imaging device (CIS) 11 at position F0 via the IRCF 14, the glass substrate 12, and the adhesive 13, and then at position F0 as shown by the dotted line. It is reflected and reflected light is generated.
  • CIS solid-state imaging device
  • the reflected light reflected at the position F0 is partially arranged on the back surface of the IRCF 14 at a position separated from the glass substrate 12 via, for example, the adhesive 13 and the glass substrate 12 ( (Lower surface in FIG. 7) Reflected by R1 and again incident on the solid-state image sensor 11 at position F1 via the glass substrate 12 and the adhesive 13.
  • the reflected light reflected at the focal point F0 includes, for example, the adhesive 13, the glass substrate 12, and the IRCF 14 arranged at a position separated from the glass substrate 12. It is transmitted, reflected by the upper surface (upper surface in FIG. 7) R2 of the IRCF 14, and is again incident on the solid-state image sensor 11 at the position F2 via the IRCF 14, the glass substrate 12, and the adhesive 13.
  • the solid-state image sensor 11, the glass substrate 12, and the IRCF 14 surrounded by the alternate long and short dash line in the figure are bonded and integrated by the adhesives 13 and 15 having substantially the same refractive index. It is configured as.
  • the integrated constituent unit 10 by unifying the refractive indexes, the generation of internal disturbance reflection generated at the boundary between layers having different refractive indexes is suppressed, and for example, it is in the vicinity of the position F0 in the left portion of FIG. Re-incident at positions F1 and F2 is suppressed.
  • the configuration in which the focal length can be adjusted according to the distance to the subject by moving the lens group 16 in the vertical direction in FIG. 1 by the actuator 18 to realize autofocus will be described as an example.
  • the actuator 18 may not be provided, the focal length of the lens group 16 may not be adjusted, and the lens may function as a so-called single focus lens.
  • the image pickup device 1 of FIG. 9 differs from the image pickup device 1 of FIG. 1 in that the upper surface of the IRCF 14 in the drawing is further with respect to the incident direction of light among the plurality of lenses constituting the lens group 16. This is a point where the lens 131, which is the lowest layer, is provided separately from the lens group 16.
  • the lens group 16 of FIG. 9 has the same reference numerals as the lens group 16 of FIG. 1, but is strictly defined in that the lens 131, which is the lowest layer with respect to the incident direction of light, is not included. Is different from the lens group 16 of FIG.
  • the IRCF 14 is provided on the glass substrate 12 provided on the solid-state image sensor 11, and the lowest layer lens 131 constituting the lens group 16 is further formed on the IRCF 14. Since it is provided, it is possible to suppress the occurrence of flare and ghost due to the diffused reflection of light.
  • a lens 131 that is the lowest layer with respect to the incident direction of the light of the lens group 16 is provided on the glass substrate 12, and the IRCF 14 is separated from the lens 131.
  • the incident light indicated by the solid line is condensed and is passed through the IRCF 14, the lens 131, the glass substrate 12, and the adhesive 13, and is a solid-state imaging element. After incident on 11 at position F0, it is reflected from position F0 as shown by the dotted line, and reflected light is generated.
  • the lens 131 of the lowest layer of the lens group 16 is configured on the IRCF 14, as in the configuration of the image sensor 1 of FIG. 9, a solid line is formed.
  • the incident light is focused, incident on the solid-state image sensor 11 at position F0 via the lens 131, IRCF 14, adhesive 15, glass substrate 12, and adhesive 13, then reflected and dotted.
  • the reflected light is generated by the surface R41 on the lens group 16 at a sufficiently distant position via the adhesive 13, the glass substrate 12, the adhesive 15, the IRCF 14, and the lens 131, but the solid-state image sensor. Since it is reflected in a range where light cannot be received substantially in No. 11, it is possible to suppress the occurrence of flare and ghost.
  • the solid-state image sensor 11, the adhesive 13, the glass substrate 12, and the IRCF 14 are laminated and integrated with the adhesives 13 and 15 having substantially the same refractive index, they are integrated.
  • the refractive index is unified, so that the occurrence of internal disturbance reflection generated at the boundary between layers having different refractive indexes is suppressed.
  • the incident of reflected light or the like on the positions F11 and F12 near the position F0 as shown on the left side of 10 is suppressed.
  • the configuration such as the image pickup apparatus 1 of the second embodiment shown in FIG. 10 realizes miniaturization and reduction in height of the apparatus configuration and suppresses flare and ghost generation due to internal disturbance reflection. can do.
  • FIG. 11 shows a configuration example of the image pickup apparatus 1 in which the lens 131 of the lowermost layer and the IRCF 14 are bonded together with an adhesive.
  • the configurations having the same functions as the configuration of the image pickup apparatus 1 of FIG. 9 are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • the difference from the image pickup device 1 of FIG. 9 is that the lens 131 of the lowermost layer and the IRCF 14 are bonded by a transparent adhesive 151 having substantially the same refractive index. It is a point.
  • the IRCF 14 may be displaced with respect to the optical axis of the lens 131, but the lens 131 and the IRCF 14 are not aligned.
  • the IRCF 14 can be fixed to the optical axis of the lens 131 so that there is no deviation even if the flatness of the lens 131 is not large, which is caused by the deviation of the optical axis. It is possible to suppress the occurrence of image distortion.
  • the lens group 171 composed of the plurality of lenses forming the lowest layer among the plurality of lenses constituting the lens group 16 is configured on the IRCF 14, the number of lenses constituting the lens group 16 can be reduced. Since the weight of the lens group 16 can be reduced, the driving force of the actuator 18 used for autofocus can be reduced, and the actuator 18 can be miniaturized and reduced in power.
  • the lens 131 in the image pickup apparatus 1 of FIG. 11 of the third embodiment may be attached to the IRCF 14 with a transparent adhesive 151 instead of the lens group 171.
  • the glass substrate 12 is attached to the solid-state imaging element 11 with the adhesive 13 and the IRCF 14 is attached to the glass substrate 12 with the adhesive 15 has been described.
  • the adhesive 15, and the IRCF 14 may be replaced with a configuration having both the function of the glass substrate 12 and the function of the IRCF 14, and may be attached to the solid-state imaging device 11 by the adhesive 13.
  • FIG. 13 the glass substrate 12, the adhesive 15, and the IRCF 14 are replaced with a configuration having both the functions of the glass substrate 12 and the functions of the IRCF 14, and the adhesive 13 is attached onto the solid-state image sensor 11.
  • a configuration example of the image pickup device 1 in which the lens 131 of the lowest layer is provided above is shown.
  • the same reference numerals are given to the configurations having the same functions as the configuration of the image pickup apparatus 1 of FIG. 9, and the description thereof will be omitted as appropriate.
  • the difference from the image pickup device 1 of FIG. 9 is that the glass substrate 12 and the IRCF 14 are replaced with the IRCF glass substrate 14'which has the functions of the glass substrate 12 and the IRCF 14.
  • the lens 131 of the lowest layer is provided on the IRCF 14'by sticking it on the solid-state image sensor 11 with the adhesive 13.
  • the glass substrate 12 called a CSP (Chip Size Package) structure and the solid-state image sensor 11 are bonded to each other, and the solid-state image sensor 11 is used with the glass substrate as the base substrate.
  • the IRCF glass substrate 14 realizes not only the function of the IRCF 14 but also the function of the glass substrate 12 having a high flatness, so that the height can be reduced.
  • the glass substrate 12 is attached on the solid-state image sensor 11 having a CSP structure by the adhesive 13, and the IRCF 14 is attached on the glass substrate 12 by the adhesive 15, and further, on the IRCF 14.
  • the COB Chip on Board
  • a solid-state image sensor 11 having a structure may be used.
  • the glass substrate 12 and the IRCF 14 in the image pickup device 1 of FIG. 12 are replaced with an IRCF glass substrate 14'having the functions of the glass substrate 12 and the IRCF 14, and the solid-state image sensor 11 having a CSP structure is used.
  • a configuration example in which the solid-state image sensor 11 having a COB (Chip on Board) structure is used is shown.
  • the configurations having the same functions as the configuration of the image pickup apparatus 1 of FIG. 12 are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • the solid-state image sensor 11 having a COB (Chip on Board) structure may be replaced.
  • the image pickup device 1 of FIG. 15 differs from the image pickup device 1 of FIG. 9 in that the glass substrate 12 and the IRCF 14 are exchanged, the IRCF 14 is attached on the solid-state image pickup device 11 with a transparent adhesive 13, and the IRCF 14 is further transparent.
  • the point is that the glass substrate 12 is attached on the IRCF 14 by the adhesive 15, and the lens 131 is provided on the glass substrate 12.
  • IRCF14 is used as a configuration for cutting infrared light
  • a configuration other than IRCF14 may be used as long as it can cut infrared light, for example.
  • IRCF14 may be used by applying an infrared light blocking resin.
  • the image pickup device 1 of FIG. 16 is different from the image pickup device 1 of FIG. 1 in that an infrared light cut resin 211 is provided instead of the IRCF 14.
  • the infrared light cut resin 211 is provided, for example, by being applied.
  • the infrared light cut resin 211 can be applied to the glass substrate 12 during the production of the CSP type solid-state image sensor 11.
  • Infrared light is used instead of the IRCF14 in the image pickup apparatus 1 of FIGS. 9, 11, 12, and 15, which is the second embodiment to the fourth embodiment and the seventh embodiment.
  • the cut resin 211 may be used.
  • the lens 131 of the lowest layer of the lens group 16 is configured on the IRCF 14 provided on the glass substrate 12, but instead of the IRCF 14 on the glass substrate 12, It may be composed of an organic multilayer film coating agent having an infrared light blocking function.
  • FIG. 18 shows a configuration example of the image pickup apparatus 1 in which the IRCF 14 on the glass substrate 12 is replaced with an organic multilayer film coating agent having an infrared light blocking function.
  • FIG. 19 shows a configuration example of the image pickup device 1 in which the lens 131 in the image pickup device 1 of FIG. 13 is AR-coated.
  • the AR coat 271a of the lens 271 suppresses the diffuse reflection of the reflected light from the solid-state image sensor 11, it is possible to suppress the occurrence of flare and ghost with higher accuracy.
  • FIG. 20 shows a configuration example of the image pickup device 1 in which the lens 291 to which the antireflection function of the moth-eye structure is added is provided instead of the lens 131 in the image pickup device 1 of FIG.
  • the antireflection processing unit 291a processed so as to form a moth-eye structure in the lens 291 suppresses the diffuse reflection of the reflected light from the solid-state image sensor 11, flare and ghost are generated with higher accuracy. Can be suppressed.
  • the antireflection processing unit 291a may be subjected to antireflection processing other than the moth-eye structure as long as the antireflection function can be realized.
  • the antireflection processing unit 291a has a single-layer or multi-layer structure of the following film. That is, the antireflection treatment unit 291a contains, for example, a transparent silicon-based resin, an acrylic-based resin, an epoxy-based resin, a styrene-based resin, or Si (silicon), C (carbon), or H (hydrogen) as main components. Insulating films (eg, SiCH, SiCOH, SiCNH), insulating films containing Si (silicon), N (nitrogen) as the main components (eg, SiON, SiN), silicon hydroxide, alkylsilanes, alkoxysilanes, polysiloxanes, etc. At least, a SiO2 film, a P-SiO film, an HDP-SiO film, etc., which are formed by using any of the material gases and an oxidizing agent.
  • a transparent silicon-based resin e.g, an acrylic-based resin, an epoxy-based resin, a sty
  • the difference between the image pickup device 1 on the left side of FIG. 22 and the image pickup device 1 of FIG. 18 is that the edge portion Z2 is covered with a light-shielding film instead of the glass substrate 12, as shown in the right portion of FIG.
  • the point is that the glass substrate 321 provided with the black mask 321a is provided.
  • the black mask 321a is applied to the glass substrate 321 by photolithography or the like.
  • the central portion Z1 of the glass substrate 321 on the right side of FIG. 22 is not black masked.
  • the black mask 321a is applied to the edge portion Z2 of the glass substrate 321, the intrusion of stray light from the margin portion can be suppressed, and the generation of flare and ghost due to the stray light can be suppressed. Is possible.
  • the black mask 321a may be provided in other configurations as long as stray light can be prevented from entering not only the glass substrate 321 but also the solid-state imaging element 11.
  • an infrared light cut function may be provided.
  • the coating agent 251 of the provided organic multilayer film or the lens 131 may be provided, or IRCF14, IRCF glass substrate 14', glass substrate 231 and lens group 171, lens 271,291, infrared light cut resin 211, It may be provided in the infrared light cut lens 301 or the like.
  • the black mask may be applied to the surface having low flatness by inkjet.
  • the solid-state image sensor 11 By setting the external dimensions smaller than the external dimensions, setting the effective area near the center of the lens, and setting the non-effective area on the outer periphery, it is difficult to peel off, or even if the edges are slightly peeled off, it is effective.
  • the incident light may be focused.
  • the lens 131 when the lens 131 is adhered to or attached to the glass substrate 12 provided on the solid-state image sensor 11, for example, as shown in FIG. 23, the external dimensions of the lens 131 are set to the solid-state image sensor 11. It is made smaller than the upper glass substrate 12, and the ineffective region 131b is set on the outer peripheral portion of the lens 131, and the effective region 131a is set inside the non-effective region 131b.
  • a glass substrate 231 may be provided on the solid-state image sensor 11 instead of the glass substrate 12.
  • FIG. 23 is such that the IRCF 14 and the adhesive 15 in the integrated configuration unit 10 of the image pickup apparatus 1 in FIG. 9 are omitted, but they are omitted for convenience of explanation, and it is natural. However, it may be provided between the lens 131 and the glass substrate 12.
  • the effective region 131a is an aspherical shape of the region where the incident light of the lens 131 is incident, and is effective so as to concentrate the incident light on the photoelectric conversion possible region of the solid-state image sensor 11. It is an area that functions in.
  • the effective region 131a is a concentric structure in which an aspherical lens structure is formed, and is a region circumscribing the outer peripheral portion of the lens, and the incident light can be photoelectrically converted by the solid-state image sensor 11. This is the area that concentrates on the imaging surface.
  • the non-effective region 131b is a region that does not necessarily function as a lens that collects incident light incident on the lens 131 into a region that is photoelectrically converted by the solid-state image sensor 11.
  • the structure that functions as a lens is the non-effective region 131b and is extended near the boundary with the effective region 131a so that the lens 131 is adhered to the glass substrate 12 on the solid-state image sensor 11. Or, even if the position shift occurs when the lens is attached, the incident light can be appropriately focused on the image pickup surface of the solid-state image pickup device 11.
  • the size of the glass substrate 12 on the solid-state imaging element 11 is height Vs in the vertical direction (Y direction) ⁇ width Hs in the horizontal direction (X direction), and the glass substrate on the solid-state imaging element 11 Inside the 12, a lens 131 having a size of height Vn in the vertical direction and width Hn in the horizontal direction, which is smaller than the solid-state imaging element 11 (glass substrate 12), is adhered or attached to the central portion. Further, an ineffective region 131b that does not function as a lens is set on the outer peripheral portion of the lens 131, and an effective region 131a having a size of height Ve in the vertical direction and width He in the horizontal direction is set inside the non-effective region 131b.
  • the width and length of the effective region 131a of the lens 131 ⁇ the width and length of the non-effective region 131b ⁇ solid-state image sensor 11 (upper glass) in both the horizontal width and the vertical height.
  • the width and length of the outer size of the substrate 12) are related, and the center positions of the lens 131, the effective region 131a, and the non-effective region 131b are substantially the same.
  • FIG. 23 a top view seen from the incident direction side of light when the lens 131 is adhered or attached to the glass substrate 12 on the solid-state image sensor 11 is shown in the upper part of the drawing.
  • FIG. 23 an example is shown in which the side surface end portion of the lens 131 is perpendicular to the glass substrate 12 on the solid-state image sensor 11. Therefore, in the top view of FIG. 23, the outer boundary B2 of the non-effective region 131b is formed on the upper surface portion of the lens 131, and the boundary B1 between the effective region 131a and the ineffective region 131b is the lower surface portion of the lens 131. Since they are formed in, they have the same size. As a result, in the upper part of FIG. 23, the outer peripheral portion (boundary B1) of the lens 131 and the outer peripheral portion (boundary B2) of the ineffective region 131b are represented as the same outer shape.
  • the effective region 131a is set in the central portion of the lens 131, the ineffective region 131b is set in the outer peripheral portion thereof, and the effective region 131a is the outer peripheral size of the solid-state image sensor 11 (upper glass substrate 12).
  • the size is smaller than that of the lens 131 and the four corners of the outer shape of the lens 131 are all formed by an acute-angled shape has been described.
  • the size of the lens 131 is set smaller than the size of the solid-state image sensor 11 (upper glass substrate 12), the effective region 131a is set in the central portion of the lens 131, and the ineffective region 131b is set in the outer peripheral portion thereof. If so, the outer shape may be any other shape.
  • the effective region 131a may be rectangular and the outer peripheral portion of the non-effective region 131b may be circular.
  • the corner portion is formed into a polygonal shape having an obtuse angle of 90 degrees, a round shape, a concave portion, or a convex portion.
  • the same configuration as the effective region 131a as an aspherical lens is extended at the boundary with the effective region 131a in the ineffective region 131b, which is ineffective.
  • the end Z332 of the region 131b the end may be formed in a tapered shape.
  • the refracting film 351 may have a configuration in which a tapered shape is formed from the height of the end portion of the lens 131 to the end portion of the glass substrate 12. ..
  • the refracting film 351 is formed to be concave and round shape toward the glass substrate 12 from the height of the end portion of the lens 131. It may be.
  • the IRCF 14 is divided into two so as to be IRCF 14-1 and 14-2, and the IRCF 14-1 and 14-2 are bonded with the adhesive 15.
  • the blade is cut into the boundary in a state of being centered at the center position of the adjacent solid-state image sensor 11 indicated by the alternate long and short dash line.
  • the width WLA is the width at which the wiring layer formed at the ends of the two adjacent solid-state image sensors 11 is formed.
  • the width of one chip of the solid-state image sensor 11 to the center of the scribe line is the width Wc, and the width to the end of the glass substrate 12 is the width Wg.
  • the range Zb corresponds to the shape of the blade
  • the upper part is the width Wb of the blade
  • the lower part is represented by a hemispherical shape, but it corresponds to the shape of the blade.
  • the middle part of FIG. 33 is an enlarged view of the boundary of the adjacent solid-state image sensor 11 which is cut by individualization and viewed from the side surface.
  • the Si substrate (semiconductor substrate 81 in FIG. 6) is cut by dry etching, laser dicing, or a blade in a range Zh having a predetermined width Wd (for example, about 35 ⁇ m) thinner than the width Wb2.
  • a predetermined width Wd for example, about 35 ⁇ m
  • the width Wd is substantially zero.
  • the cut shape can be adjusted to a desired shape by dry etching, laser dicing, or a blade.
  • the horizontal outer shape of the solid-state image sensor 11 is the largest, followed by the outer shapes of IRCF14-1 and 14-2, followed by the adhesive 15.
  • the side cross section is formed so that the outer shape of the glass substrate 12 is large and the glass substrate 12 is the smallest. That is, as shown by the range Z452 in the lower part of FIG. 34, the outer shape of the adhesive 15 is smaller than the outer shape of IRCF14-1, 14-2.
  • the process of cutting the Si substrate (semiconductor substrate 81 in FIG. 6) forming the solid-state image sensor 11 by the range Zh may be executed before the cutting work of the ranges Zb and ZL.
  • the work may be performed in a state of being turned upside down with respect to the state shown in the middle of FIG. 34.
  • the middle part of FIG. 35 is an enlarged view of the boundary of the adjacent solid-state image sensor 11 which is cut by individualization and viewed from the side surface.
  • ablation processing is performed by a laser only for a predetermined width Wave, and a range ZL having a depth exceeding the wiring layer 11M in the IRCF14-1, 14-2 and the solid-state image sensor 11 is cut.
  • the ablation process using a laser is adjusted so that the cut surfaces of IRCF14-1, 14-2 and the adhesive 15 are the same.
  • the so-called stealth (laser) dicing process using a laser cuts the range Zs2 at which the width becomes substantially zero, and the solid-state image sensor 11 is fragmented. At this time, the organic matter generated by the ablation is discharged to the outside through the stealth dicing groove.
  • the outer shape of the solid-state image sensor 11 in the horizontal direction is the largest, followed by the outer shape of the glass substrate 12, IRCF14-1,14-.
  • the side cross section is formed so that the outer shapes of 2 and the adhesive 15 are the same and the smallest.
  • the order of the stealth dicing process on the glass substrate 12 and the stealth dicing process on the solid-state image sensor 11 may be interchanged. At this time, the work is performed in an upside-down state with respect to the state shown in the middle of FIG. May be done.
  • IRCF14-1 and 14-2 are formed by adhering IRCF14-1 and 14-2 on the solid-state image sensor 11 with an adhesive 15, and further, a glass substrate 12 is formed on IRCF14-1.
  • an additional film having an antireflection function may be further formed.
  • an additional film 371 having an antireflection function may be formed on the glass substrate 12.
  • one of the additional films 371-2, 371-4, 371-3 having an antireflection function is formed. It may be formed, or it may be formed by combining these.
  • the reflection is reflected on at least one of the boundary between the glass substrate 12 and IRCF14-1, the boundary between IRCF14-1 and the adhesive 15, and the boundary between the adhesive 15 and IRCF14-2 on the glass substrate 12.
  • an additional film that functions as an antireflection film or a light absorption film may be formed on the side surface portion.
  • an antireflection film, a light absorption film, or the like is formed on the entire side cross section of the glass substrate 12, IRCF14-1, 14-2, the adhesive 15, and the solid-state image sensor 11.
  • An additional film 381 that functions as an additional film 381 may be formed.
  • the antireflection film or light is applied only to the side surfaces of the glass substrate 12, IRCF14-1, 14-2, and the adhesive 15 except for the side surface of the solid-state image sensor 11.
  • An additional film 381 that functions as an absorbing film or the like may be formed.
  • the lens corresponding to the lens 271 on which the AR coat 271a is formed is joined (for example, the integrated configuration in the image pickup device 1 of FIG. 19).
  • the configuration of the image pickup device 1 may be other than that shown in FIG. 19.
  • the lens 131 in the integrated configuration unit 10 in the image pickup device 1 in FIG. 9 may be replaced with the lens 271.
  • the range Ze of the lens 401 has an aspherical curved surface structure common to the upper right portion and the lower right portion of FIG. 39. It constitutes an effective region for condensing the incident light of.
  • the thicknesses D, H, and Th are compact and lightweight because the lens 401 and the glass substrate 12 satisfying the relationship of thickness H> thickness Th> thickness D are used.
  • an imaging device 1 integrated configuration unit 10 capable of imaging at a high resolution.
  • volume VG of the glass substrate 12 smaller than the volume VL of the lens 401, it is possible to form the volume of the lens most efficiently, so that it is compact and lightweight and has high resolution. It is possible to realize an image pickup device 1 capable of taking an image of the above.
  • FIG. 40 shows the stress distribution due to expansion and contraction of the AR coat 402 at the time of mounting reflow heat load when the outer shape of the lens 401 of FIG. 39 is changed.
  • the stress distribution in FIG. 40 is a range of 1/2 of each and 1/4 of the whole with respect to the horizontal direction and the vertical direction with respect to the center position of the lens 401 shown by the range Zp shown in FIG. 38. Distribution is shown.
  • the second from the left in FIG. 40 shows the stress distribution generated in the AR coat 402B at the time of mounting reflow heat load in the lens 401B provided with the protrusion 401a shown in FIG. 39.
  • the taper provided on the side surface of the outer peripheral portion of the protruding portion 401a shown in FIG. 39 is enlarged as compared with the case of FIG. 39 at the time of mounting reflow heat load in the lens 401E.
  • the stress distribution generated on the AR coat 402E is shown.
  • the image pickup apparatus 1 which is compact and lightweight and capable of high-resolution imaging by the concave lens 401 provided with the protruding portion 401a having a tapered outer peripheral portion as shown in FIG. 39.
  • the examples that make up the above have been described.
  • the shape of the lens 401 may be another shape. ..
  • the volumes VG and VL satisfy the relationship of volume VG ⁇ volume VL.
  • the side surface on the outer peripheral side of the protruding portion 401a may be configured to be perpendicular to the glass substrate 12 so as not to include a taper.
  • the side surface on the outer peripheral side of the protruding portion 401a may be configured to include a round taper.
  • the protruding portion 401a itself may not be included, and the side surface may be configured to include a linear tapered shape forming a predetermined angle with respect to the glass substrate 12. ..
  • the protrusion 401a itself may not be included, and the side surface may be configured to be perpendicular to the glass substrate 12 so as not to include the tapered shape.
  • the protrusion 401a itself may not be included, and the side surface may be configured to include a round tapered shape with respect to the glass substrate 12.
  • the side surface of the lens may have a two-stage configuration having two inflection points without including the protrusion 401a itself.
  • the detailed configuration of the lens 401L will be described later with reference to FIG. 42.
  • the side surface of the lens 401L since the side surface of the lens 401L has a two-stage configuration having two inflection points, it will also be referred to as a two-stage side surface type lens hereafter.
  • the side surface may have a two-stage configuration including the protrusion 401a and having two inflection points on the outer side surface.
  • the protrusion portion 401a is included, the side surface is configured to form a right angle with respect to the glass substrate 12, and a square hem portion is further provided near the boundary with the glass substrate 12. 401b may be added.
  • a round-shaped hem portion 401b' is further provided near the boundary with the glass substrate 12 so as to include the protruding portion 401a and form a right angle to the glass substrate 12. It may be added.
  • FIG. 42 shows an external perspective view when the glass substrate 12 is formed on the solid-state image sensor 11 and the two-stage side lens 401L is provided on the glass substrate 12 when viewed from various directions.
  • the sides LA, LB, LC, and LD are set clockwise from the right side in the figure of the solid-state image sensor 11.
  • the right portion of FIG. 42 shows a perspective view of the corners of the sides LA and LB of the solid-state image sensor 11 when the solid-state image sensor 11 and the lens 401L are viewed from the line-of-sight E1 direction in the upper center of FIG. 42. ing.
  • the lower center of FIG. 42 shows a perspective view of the corners of the sides LA and LB of the solid-state image sensor 11 when the solid-state image sensor 11 and the lens 401L are viewed from the line-of-sight E2 direction in the upper center of FIG. 42. ing.
  • the left portion of FIG. 42 shows a perspective view of the corners of the sides LB and LC of the solid-state image sensor 11 when the solid-state image sensor 11 and the lens 401L are viewed from the line-of-sight E3 direction in the central portion of FIG. ing.
  • the central portion of the side LB (, LD (not shown)) which is the long side has a lens thickness as viewed from the upper surface of the two-stage side lens 401L which is a concave lens. Since the position is close to the center of gravity in the circle that functions as the thinnest lens, the lens becomes thin and the ridgeline has a gentle curved shape so as to be surrounded by a dotted line.
  • the central portion of the sides LA and LC which are the short sides, is located far from the center of gravity, so that the ridgeline is linear due to the thick lens.
  • the side surface of the non-effective region provided outside the effective region Ze has a two-stage configuration, and the average surface of each side surface is formed.
  • X1 and X2 are formed so as to be offset, and inflection points P1 and P2 in the cross-sectional shape are formed at positions where a step is generated by the two side surfaces.
  • the heights of the inflection points P1 and P2 from the glass substrate 12 are both provided at positions higher than the thinnest thickness Th of the two-stage side surface type lens 401L.
  • the difference between the average surfaces X1 and X2 on the two-stage side surfaces is the thickness of the solid-state image sensor 11 (thickness of the silicon substrate 81 of the solid-state image sensor 11 in FIG. 6). It is desirable to make it larger than the above.
  • the difference in the distance between the average surfaces X1 and X2 of the two-stage side surfaces is the region width perpendicular to the incident direction of the incident light in the effective region of the lens 401L (for example, in the horizontal direction of FIG. 23). It is desirable that the width is 1% or more with respect to the width He or the height Ve in the vertical direction.
  • the shape may be other than the two-stage side surface type lens 401L, and is shown in the second stage from the top of FIG. 43, for example.
  • Inflection points P11 and P12 having different curvatures from the inflection points P1 and P2 are provided at positions higher than the thinnest thickness Th of the lens from the glass substrate 12 by providing two-stage side surfaces composed of average surfaces X11 and X12. It may be the two-stage side surface type lens 401P in which is formed.
  • a two-step side surface composed of average surfaces X21 and X22 is provided, and the glass substrate 12 is bent at a position higher than the thinnest thickness Th of the lens.
  • It may be a two-stage side surface type lens 401Q in which inflection points P21 and P22 having different curvatures than the points P1, P2 and P11 and P22 are formed.
  • a two-step side surface composed of average surfaces X31 and X32 is provided, and an inflection point is provided at a position higher than the thinnest thickness Th of the lens from the glass substrate 12.
  • a two-stage side surface type lens 401R in which P31 and P32 are formed and the end portion at the thickest position of the lens 401 is rounded may be used.
  • FIG. 44 shows the stress distribution due to expansion and contraction of the AR coat 402 at the time of mounting reflow heat load when the outer shape of the lens 401 of FIG. 39 is changed.
  • the upper row shows the stress distribution of the AR coat 402 on the back side when the lens 401 is viewed from the diagonal direction
  • the lower row shows the AR coat 402 on the front side when the lens 401 is viewed from the diagonal direction. It is the stress distribution of.
  • the second from the left in FIG. 44 shows the stress distribution generated in the AR coat 402T at the time of mounting reflow heat load in the lens 401T corresponding to the two-stage side surface type lens 401L shown in FIG. 43.
  • FIG. 45 shows the overall maximum value (Worst) of the stress distribution generated in the AR coat in each lens shape of FIG. 44, the maximum value of the effective region of the lens (effective), and the maximum value of the ridge line (ridge line) in order from the left.
  • the graph of is shown.
  • the graph of each maximum value in FIG. 45 shows the maximum value of the stress distribution of AR coats 402S to 402V in order from the left.
  • the total maximum stress of each lens is 1390 MPa at the upper corner Ws (FIG. 44) in the case of the AR coat 402S of the lens 401S, and the ridgeline in the case of the AR coat 402T of the lens 401T. It is 1130 MPa at the corner Wt (FIG. 44), 800 MPa at the ridgeline Wu (FIG. 44) in the case of the AR coat 402U of the lens 401U, and Wv on the ridgeline in the case of the AR coat 402V of the lens 401V (FIG. 44). At 1230 MPa.
  • the maximum stress in the effective region of each lens is 646 MPa in the case of the AR coat 402S of the lens 401S, 588 MPa in the case of the AR coat 402T of the lens 401T, and the AR of the lens 401U.
  • the coat 402U it is 690 MPa
  • the AR coat 402V of the lens 401V it is 656 MPa.
  • the maximum stress of the ridgeline of each lens is 1050 MPa in the case of the AR coat 402S of the lens 401S, 950 MPa in the case of the AR coat 402T of the lens 401T, and 800 MPa in the case of the AR coat 402U of the lens 401U. In the case of AR coat 402U of lens 401V, it is 1230MPa.
  • the maximum stress is minimized in the AR coat 402S of the lens 401S, but according to FIG. 44, in the entire stress distribution of the effective region of the AR coat 402T of the lens 401T, the lens There is no stress distribution around 600MPa, which is often present in the range near the outer periphery of the AR coating 402U of the 401U, and as a whole, the AR coating 402T (same as the lens 401L) has an outer shape consisting of the AR coating 402T. It can be seen that the stress distribution generated in the AR coat 402T (same as the AR coat 402L) becomes smaller.
  • the two-stage side surface type lens 401L having two inflection points and the side surface of the two-stage configuration as the lens 401 by adopting the two-stage side surface type lens 401L having two inflection points and the side surface of the two-stage configuration as the lens 401, the mounting reflow heat load, reliability test, etc., due to heat. It is possible to suppress expansion and contraction.
  • the material of the lens 401 is formed in the space between the molding die 452 and the glass substrate 12 in a state where the molding die 452 is pressed against the glass substrate 12 on the solid-state image sensor 11 against the substrate 451.
  • the ultraviolet light-curing resin 461 is filled with the ultraviolet light, and is exposed to ultraviolet light from the upper part of the drawing for a predetermined time.
  • Both the substrate 451 and the molding die 452 are made of a material that transmits ultraviolet light.
  • the molding die 452 has an aspherical convex structure corresponding to the shape of the concave lens 401, and a light-shielding film 453 is formed on the outer peripheral portion, and is as shown in FIG. 46, for example, depending on the incident angle of ultraviolet light.
  • a taper can be formed on the side surface of the lens 401 having an angle ⁇ .
  • the ultraviolet light-curing resin 461 is cured to form a lens 401, and after the lens 401 is formed, the lens 401 is removed from the lens 401 on which the mold 452 is formed. (Release).
  • a part of the ultraviolet photocurable resin 461 seeps out from the molding die 452 to form an seepage portion 461a.
  • the exuding portion 461a is shielded from ultraviolet light by the light-shielding film 453, as shown by the range Zc in the enlarged view Zf, a part of the exuding portion 461a of the ultraviolet photocurable resin 461a Remains without being cured, and after being released from the mold, is cured by ultraviolet light contained in natural light, so that it remains as a hem portion 401d.
  • the lens 401 is formed as a concave lens by the molding die 452, and a tapered shape is formed on the side surface at an angle ⁇ defined by the light-shielding film 453. Further, by forming the hemming portion 401d at the boundary with the glass substrate 12 on the outer peripheral portion of the lens 401, the lens 401 can be more firmly adhered to the glass substrate 12.
  • the light-shielding film 453 is located on the outer peripheral portion of the lens 401 on the back surface side (lower side in the drawing) with respect to the incident direction of the ultraviolet light of the substrate 451.
  • the example provided has been described.
  • the light-shielding film 453 is provided on the outer peripheral portion of the lens 401 on the surface side (upper side in the drawing) with respect to the incident direction of the ultraviolet light of the substrate 451. May be good.
  • the light-shielding film 453 forms a molding die 452'which is larger in the horizontal direction than the molding die 452 in place of the substrate 451 and forms an incident direction of ultraviolet light.
  • it may be provided on the outer peripheral portion of the lens 401 on the back surface side (lower side in the drawing).
  • the light-shielding film 453 is the lens 401 on the surface side (upper side in the drawing) with respect to the incident direction of the ultraviolet light of the substrate 451 of the molding die 452'as shown by the second from the upper right in FIG. 47. It may be provided on the outer peripheral portion of the.
  • the light-shielding film 453 forms a molding die 452'' in which the substrate 451 and the molding die 452 are integrated, as shown at the third position from the upper left in FIG. 47, with respect to the incident direction of ultraviolet light. It may be provided on the outer peripheral portion of the lens 401 on the back surface side (lower side in the drawing).
  • the light-shielding film 453 forms a molding die 452'' in which the substrate 451 and the molding die 452 are integrated, as shown by the third from the upper right in FIG. 47, with respect to the incident direction of ultraviolet light. It may be provided on the outer peripheral portion of the lens 401 on the front surface side (upper side in the drawing).
  • a molding die 452''' provided with a structure defining a part of the side surface portion is formed, and the molding die 452
  • a light-shielding film 453 may be formed on the back surface side of the outer peripheral portion of the "" with respect to the incident direction of the ultraviolet light.
  • FIGS. 46 and 47 are such that the IRCF 14 and the adhesive 15 in the integrated configuration unit 10 of the image pickup apparatus 1 in FIG. 9 are omitted, but they are omitted only for convenience of explanation. As a matter of course, it may be provided between the lens 401 (131) and the glass substrate 12. Further, in the following, the IRCF 14 and the adhesive 15 will be described by taking as an example the omitted configuration from the configuration of the image pickup apparatus 1 in FIG. 9, but in each case, for example, the lens 401 (131). The IRCF 14 and the adhesive 15 may be provided between the glass substrate 12 and the IRCF 14.
  • the basic manufacturing method is the same as the manufacturing method for lenses that are not the two-stage side surface type described above.
  • a molding die 452 corresponding to the side shape of the two-stage side lens 401L is prepared for the substrate 451 and ultraviolet light is emitted on the glass substrate 12 on the solid-state image sensor 11.
  • the cured resin 461 is placed on it.
  • FIG. 48 the configuration of only the right half of the side cross section of the molding die 452 is shown.
  • the ultraviolet photocurable resin 461 on which the molding die 452 is placed is fixed so as to press against the glass substrate 12 so as to be pressed into the recess of the molding die 452. With the ultraviolet photocurable resin 461 filled, ultraviolet light is irradiated from above in the figure for a predetermined time.
  • the ultraviolet photo-curing resin 461 is cured by being exposed to ultraviolet light, and a concave two-stage side surface lens 401 corresponding to the molding mold 452 is formed.
  • the lens 401 is formed by being exposed to ultraviolet light for a predetermined time, as shown in the right part of FIG. 48, when the mold 452 is released, the lens 401 composed of a two-stage side surface lens is formed. It will be completed.
  • the glass substrate among a part of the portion of the outer peripheral portion of the molding die 452 that abuts on the glass substrate 12, for example, among the two inflection points in the cross-sectional shape of the side surface, the glass substrate.
  • a portion below the inflection point at a position close to 12 may be cut, and a light-shielding film 453 may be provided on the cut surface.
  • the ultraviolet light-curing resin 461 when the ultraviolet light-curing resin 461 is filled in the concave portion of the molding die 452 and the ultraviolet light is irradiated from above in the drawing for a predetermined time, the light is shielded. As for the lower part of the film 453, the ultraviolet light is blocked, so that the curing does not proceed, and the lens 401 is in an unfinished state. However, the ultraviolet light-curing resin 461 around the effective region in the figure exposed to ultraviolet light is cured and formed as a lens 401.
  • the outermost outermost two-stage side surface of the lens 401 formed as the two-stage side surface type lens.
  • the side surface of the portion close to the glass substrate 12 is left as an exuding portion 461a of the uncured ultraviolet photocurable resin 461.
  • the angle and surface roughness of the side surface are controlled to separately perform ultraviolet light. To cure by irradiating.
  • angles formed by the average surfaces X1 and X2 on the side surfaces of the lens 401 are different angles such as angles ⁇ 1 and ⁇ 2 with respect to the incident direction of the incident light, respectively. It is possible to set to.
  • angles of the side surfaces X1 and X2 are the angles ⁇ 1 and ⁇ 2, respectively, if the angle ⁇ 1 ⁇ angle ⁇ 2 is configured, the occurrence of side flare is suppressed and the mold is completed when the molding die 452 is released. It is possible to prevent the lens 401 from peeling off from the glass substrate 12.
  • the surface roughness ⁇ (X1) and ⁇ (X2) of the side surfaces X1 and X2 can be configured differently.
  • the side flare It is possible to suppress the occurrence of the lens 401 and prevent the completed lens 401 from peeling off from the glass substrate 12 when the molding die 452 is released.
  • the angles ⁇ 1, ⁇ 2, the surface roughness ⁇ (X1), ⁇ (X2), and the tailing portion 401d are formed according to the shape of the molding die 452 even when the light-shielding film 453 with reference to FIG. 48 is not used. It is possible to set. However, when the molding die 452 provided with the light-shielding film 453 is used as shown in FIG. 49, the ultraviolet photocurable resin 461 that remains as an uncured portion in the initial irradiation with ultraviolet light seeps out. Since the portion 461a can be adjusted later, it is possible to increase the degree of freedom in setting the angles ⁇ 1, ⁇ 2, the surface roughness ⁇ (X1), ⁇ (X2), and the hem pulling portion 401d.
  • the lens 401 can be formed with high accuracy on the glass substrate 12 of the solid-state image sensor 11. Further, since the angles of the side surfaces X1 and X2, the surface roughness ⁇ (X1), ⁇ (X2), and the presence / absence of the hem pulling portion 401d in the two-stage side surface type lens 401 can be adjusted, flare and ghost can be adjusted. It is possible to suppress the generation and to form the lens 401 more firmly on the glass substrate 12.
  • the lens 401 is formed on the glass substrate 12 on the solid-state imaging element 11 with high accuracy by the molding method.
  • the glass substrate 12 The lens 401 may be formed on the glass substrate 12 with higher accuracy by forming an alignment mark on the glass substrate and positioning the lens 401 based on the alignment mark.
  • an effective region Ze (corresponding to the effective region 131a in FIG. 23) of the lens 401 is provided from the center, and an ineffective region Zn (in the ineffective region 131b in FIG. 23) is provided on the outer peripheral portion thereof.
  • a region Zg in which the glass substrate 12 is exposed is provided on the outer peripheral portion thereof, and a region Zsc in which a scribing line is set is provided on the outermost peripheral portion of the solid-state image sensor 11.
  • the protruding portion 401a is provided in the ineffective region Zn (corresponding to the ineffective region 131b in FIG. 23).
  • each region has a relationship of the width of the effective region Ze> the width of the ineffective region Zn> the width of the region Zg where the glass substrate 12 is exposed> the width of the region Zsc where the scribe line is set.
  • the alignment mark 501 is formed in the region Zg on the glass substrate 12 where the glass substrate 12 is exposed. Therefore, the size of the alignment mark 501 is smaller than the region Zg, but needs to be a size that can be recognized by the image for alignment.
  • An alignment mark 501 is formed on the glass substrate 12 at a position where, for example, the corner portion of the lens 401 should come into contact, and the corner portion of the lens in the molding die 452 is aligned based on the image captured by the alignment camera. Alignment may be performed by adjusting the position so that the mark 501 is provided.
  • Alignment marks 501 are, for example, alignment marks 501A to 501K as shown in FIG. 52.
  • the alignment marks 501A to 501C are made of squares
  • the alignment marks 501D and 501E are made of circles
  • the alignment marks 501F to 501I are made of polygons
  • the alignment marks 501J and 501K are made of a plurality of linear shapes.
  • a black portion and a gray portion are formed at positions corresponding to the outer peripheral portion of the lens 401 on the molding die 452 and the region Zg on the glass substrate 12, respectively.
  • the positional relationship between the lens 401 and the glass substrate 12 may be aligned by confirming that the positional relationships correspond to each other based on the images captured by the alignment camera.
  • the alignment mark 501'of the gray portion formed of the square frame is placed on the molding die 452 so that the lens 401 and the molding die 452 have an appropriate positional relationship. It is provided to form an alignment mark 501 composed of a square portion that becomes a black portion.
  • the alignment mark 501 on the glass substrate 12 and the alignment mark 501'on the molding die 452 are imaged by the alignment camera, and the black directional alignment mark 501 is a gray square frame.
  • the alignment may be adjusted by adjusting the position of the molding die 452 so that the image is captured so as to be included in the alignment mark 501 ′.
  • the alignment mark 501 of the black portion and the alignment mark 501'of the gray portion are arranged in the same field of view of the same camera, but the positional relationship of the plurality of cameras is calibrated in advance.
  • the plurality of cameras may be aligned according to the positional relationship with the alignment marks 501, 501'provided at the corresponding different positions.
  • the alignment mark 501 makes it possible to position and form the lens 401 on the glass substrate 12 of the solid-state image sensor 11 with high accuracy.
  • the ineffective region (corresponding to the ineffective region 131b in FIG. 23) including the side surface and the flat portion of the protrusion 401a on the glass substrate 12, and the effective portion
  • the AR coat 402-P1 may be formed over the entire region (corresponding to the effective region 131a in FIG. 23).
  • the AR coat 402-P2 may be formed only in the effective region in the protruding portion 401a on the lens 401.
  • the AR coat 402-P2 is formed only in the region (effective region (corresponding to the effective region 131a in FIG. 23)) in the protruding portion 401a on the lens 401, so that the lens 401 can be subjected to mounting reflow heat load or the like. It is possible to reduce the stress generated by expansion and contraction due to heat, and it is possible to suppress the occurrence of cracks in the AR coat 402-P2.
  • the AR coat 402-P3 may be formed.
  • the AR coat 402-P3 is formed only in the inner region of the protruding portion 401a including the protruding portion 401a on the lens 401, so that the lens 401 expands or contracts due to heat when the mounting reflow heat load or the like. It is possible to reduce the stress generated on the AR coat 402-P3, and it is possible to suppress the occurrence of cracks.
  • the region inside the protruding portion 401a (effective region (FIG. FIG. AR coat 402-P4 is formed in (corresponding to the effective region 131a of 23))
  • AR coat 402-P5 is formed in the region of the glass substrate 12 and the lens 401 near the boundary between the glass substrate 12 and the glass substrate 12. It may be.
  • the lens 401 By forming a region where the AR coat is not formed on a part of the side surface portion of the lens 401, such as AR coat 402-P4 and 402-P5, the lens 401 expands and contracts due to heat during mounting reflow heat load and the like. It is possible to reduce the stress generated on the AR coat 402-P2, and it is possible to suppress the occurrence of cracks.
  • FIG. 55 summarizes the stress distribution generated in the AR coat 402 at the time of mounting reflow heat load by variously changing the region where the AR coat 402 is formed with respect to the lens 401.
  • FIG. 55 shows the outer shape of the lens 401 and the AR coat 402 when the lens 401 is divided into two horizontally and vertically, and the lower part shows the stress distribution generated in the AR coat 402 under the corresponding mounting reflow heat load. Is.
  • FIG. 55 shows a case where an AR coat 402AA having an AR coat formed on the entire surface including the peripheral glass substrate 12, the side surface of the lens 401, the protrusion 401a, and the inside of the protrusion 401a is formed. ..
  • the second from the left in FIG. 55 is that the AR coat was not formed on the peripheral glass substrate 12 and the side surface of the lens 401 with respect to the configuration of the leftmost part in FIG. 55, and the AR coat was formed in the other regions. This is the case of AR coat 402AB.
  • the third from the left in FIG. 55 shows that the AR coating is not formed in the side area of the lens 401 with respect to the configuration of the leftmost portion in FIG. 55, and the peripheral glass substrate 12, the protruding portion 401a, and the protruding portion This is the case of the AR coat 402AC in which the AR coat is formed inside the 401a.
  • the fourth from the left in FIG. 55 is the region on the side surface of the lens 401, the flat portion of the protrusion 401a, the inside of the protrusion 401a, and the upper surface of the protrusion 401a with respect to the configuration of the leftmost portion in FIG.
  • the width A is, for example, 100 ⁇ m.
  • the fifth from the left in FIG. 55 is the inner side of the protruding portion 401a, the flat portion on the upper surface of the protruding portion 401a, and the outer side surface of the protruding portion 401a with respect to the configuration of the leftmost portion in FIG. 55, from the flat portion.
  • This is the case of the AR coat 402AE in which the AR coat is formed in the region up to the lower part by a predetermined width A.
  • the sixth from the left in FIG. 55 is the inner side of the protruding portion 401a, the flat portion on the upper surface of the protruding portion 401a, and the outer side surface of the protruding portion 401a with respect to the configuration of the leftmost portion in FIG. 55, from the flat portion.
  • This is the case of the AR coat 402AF in which the AR coat is formed in the region up to a predetermined width 2A below.
  • the seventh from the left in FIG. 55 is the inner side of the protruding portion 401a, the flat portion on the upper surface of the protruding portion 401a, and the outer side surface of the protruding portion 401a with respect to the configuration of the leftmost portion in FIG. 55, from the flat portion.
  • This is the case of the AR coat 402AG in which the AR coat is formed in the region up to a predetermined width of 3A.
  • the eighth from the left in FIG. 55 is the inner side of the protruding portion 401a, the flat portion on the upper surface of the protruding portion 401a, and the outer side surface of the protruding portion 401a with respect to the configuration of the leftmost portion in FIG. 55, from the flat portion.
  • the AR coat 402 inside the protruding portion 401a of the lens 401 is larger than the AR coat 402AA formed so as to cover the entire surface of the lens 401. It is shown that the stress generated in the AR coat 402 is smaller when it is formed in a state where it is not continuously connected to the AR coat 402 on the glass substrate 12.
  • the AR coat 402 on the lens 401, it is possible to suppress the occurrence of flare and ghost, and it is possible to capture a higher definition image.
  • the AR coat 402 formed is formed on the entire surface including the effective region and the ineffective region of the lens 401 including the protruding portion 401a, and on the glass substrate 12 which is the outer peripheral portion thereof, other than the effective region and the glass substrate 12.
  • the AR coat 402 has been described here, other films may be used as long as the film is formed on the surface of the lens 401, and the same applies to, for example, an antireflection film such as a moth eye. ..
  • the lens having a protruding portion 401a has been described, but even if the lens does not have a protruding portion 401a, the entire surface including the effective region and the ineffective region, and the outer peripheral portion thereof.
  • An effective region and a region other than the glass substrate 12 where the AR coat is not formed may be provided on the glass substrate 12.
  • the AR coat 402 formed on the lens 401 may not be formed in a state of being continuously connected to the AR coat 402 formed on the lens side surface and the glass substrate 12.
  • the entire surface from the top of the glass substrate 12 to the side surface of the lens 401 and the flat surface of the upper surface of the protrusion 401a, that is, the entire surface portion other than the effective region is shielded from light.
  • the film 521 may be formed.
  • the cavity 612 is surrounded by convex portions 611a on all four side surfaces in the plane direction, and is surrounded by the upper surface of the first glass substrate 601a and the lower surface of the second glass substrate 601b in the vertical direction (vertical direction). That is, the cavity 612 is sealed (sealed) with the first glass substrate 601a and the second glass substrate 601b.
  • the AR coats 621 and 622 can be formed of the same film as the AR coat 271a shown in FIG. That is, the AR coats 621 and 622 contain, for example, transparent silicon-based resin, acrylic-based resin, epoxy-based resin, styrene-based resin, and Si (silicon), C (carbon), and H (hydrogen) as main components. Insulating films (eg, SiCH, SiCOH, SiCNH), insulating films containing Si (silicon), N (nitrogen) as the main components (eg, SiON, SiN), silicon hydroxide, alkylsilanes, alkoxysilanes, polysiloxanes, etc. It can be formed of a SiO2 film, a P-SiO film, an HDP-SiO film, or the like, which is formed by using at least one of the material gas and an oxidizing agent.
  • Insulating films eg, SiCH, SiCOH, SiCNH
  • FIG. 62 is a side sectional view showing a third configuration example according to the 22nd embodiment of the imaging device of the present disclosure.
  • ⁇ Devices that take images for viewing such as digital cameras and portable devices with camera functions.
  • ⁇ For safe driving such as automatic stop and recognition of the driver's condition, in front of the car Devices used for traffic, such as in-vehicle sensors that photograph the rear, surroundings, and interior of vehicles, surveillance cameras that monitor traveling vehicles and roads, and distance measurement sensors that measure distance between vehicles, etc.
  • ⁇ User gestures Devices used in home appliances such as TVs, refrigerators, and air conditioners to take pictures and operate the equipment according to the gestures
  • Endoscopes devices that perform angiography by receiving infrared light, etc.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like of a tissue.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator. Is sent.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-divided manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-divided manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • FIG. 70 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 69.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.
  • the image pickup unit 11402 is composed of an image pickup element.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication was performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 71 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up running based on inter-vehicle distance, vehicle speed maintenance running, vehicle collision warning, or vehicle lane deviation warning. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the audio image output unit 12052 transmits the output signal of at least one of the audio and the image to the output device capable of visually or audibly notifying the passenger or the outside of the vehicle of the information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 72 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100, for example.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 72 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above.
  • the image pickup apparatus 1 shown in FIGS. 1 and 9 can be applied to the image pickup unit 12031.
  • the present technology can have the following configurations.
  • a solid-state image sensor composed of a laminated substrate in which a first substrate and a second substrate are laminated, A glass substrate located above the first substrate and Including a lens formed on the glass substrate An image pickup device having a cavity between the lens and the solid-state image pickup device.
  • the image pickup apparatus according to any one of (1) to (4) above, wherein the glass substrate is formed by laminating a first glass substrate and a second glass substrate.
  • the imaging device according to (6), wherein the first glass substrate and the second glass substrate are directly bonded to each other by heat fusion.
  • 1 image pickup device 10 integrated components, 11 solid image pickup element (CPS structure), 11a lower substrate (logic substrate), 11b upper substrate (pixel sensor substrate), 11c color filter, 11d on-chip lens, 12 glass substrate , 13 adhesive, 14 IRCF (infrared light cut filter), 14'IRCF glass substrate, 15 adhesive, 16 lens group, 17 circuit board, 18 actuator, 19 connector, 20 spacer, 171 lens group, 231 glass substrate, 231a convex part, 231b cavity, 271 lens, 271a AR coat, 291 lens, 291a antireflection processing part, 301 infrared light cut lens, 321 glass substrate, 401 lens, 601 glass substrate, 601a first glass substrate , 601b, 601b'2nd glass substrate, 611a convex part, 612 cavity, 621,622 AR coat, 641 sealing film, 652 adhesive

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

本開示は、フレアやゴーストの発生を抑制することができるようにする撮像装置に関する。 撮像装置は、第1基板と第2基板とが積層された積層基板からなる固体撮像素子と、第1基板の上方に位置するガラス基板と、ガラス基板上に形成されたレンズとを含み、レンズと固体撮像素子との間に空洞を有する。本技術は、例えば、撮像装置等に適用できる。

Description

撮像装置
 本開示は、撮像装置に関し、特に、フレアやゴーストの発生を抑制して撮像できるようにした撮像装置に関する。
 近年、カメラ付き移動体端末装置や、デジタルスチルカメラなどで用いられる固体撮像素子において、高画素化および小型化、並びに低背化が進んでいる。
 カメラの高画素化および小型化にともない、レンズと固体撮像素子が光軸上で近くなり、赤外光カットフィルタがレンズ付近に配置されることが一般的となっている。
 例えば、複数のレンズからなるレンズ群のうち、最下位層となるレンズを、固体撮像素子上に構成することにより、固体撮像素子の小型化を実現する技術が提案されている。
特開2015-061193号公報
 しかしながら、固体撮像素子上に最下位層のレンズを構成するようにした場合、装置構成の小型化や低背化には貢献するものの、赤外光カットフィルタとレンズとの距離が近くなることにより、光の反射による内乱反射に起因したフレアや、ゴーストが生じてしまう。
 本開示は、このような状況に鑑みてなされたものであり、特に、固体撮像素子において、小型化や低背化を実現すると共に、フレアやゴーストの発生を抑制できるようにするものである。
 本開示の一側面の撮像装置は、第1基板と第2基板とが積層された積層基板からなる固体撮像素子と、前記第1基板の上方に位置するガラス基板と、前記ガラス基板上に形成されたレンズとを含み、前記レンズと前記固体撮像素子との間に空洞を有する。
 本開示の一側面においては、第1基板と第2基板とが積層された積層基板からなる固体撮像素子と、前記第1基板の上方に位置するガラス基板と、前記ガラス基板上に形成されたレンズとが設けられ、前記レンズと前記固体撮像素子との間に空洞が設けられている。
 撮像装置は、独立した装置であっても良いし、他の装置に組み込まれるモジュールであっても良い。
本開示の撮像装置の第1の実施の形態の構成例を説明する図である。 図1の撮像装置における固体撮像素子を含む一体化構成部の外観概略図である。 一体化構成部の基板構成を説明する図である。 積層基板の回路構成例を示す図である。 画素の等価回路を示す図である。 積層基板の詳細構造を示す図である。 図1の撮像装置において、内乱反射に起因するゴーストやフレアが発生しないことを説明する図である。 図1の撮像装置で撮像された画像に内乱反射に起因するゴーストやフレアが発生しないことを説明する図である。 本開示の撮像装置の第2の実施の形態の構成例を説明する図である。 図9の撮像装置において、内乱反射に起因するゴーストやフレアが発生しないことを説明する図である。 本開示の撮像装置の第3の実施の形態の構成例を説明する図である。 本開示の撮像装置の第4の実施の形態の構成例を説明する図である。 本開示の撮像装置の第5の実施の形態の構成例を説明する図である。 本開示の撮像装置の第6の実施の形態の構成例を説明する図である。 本開示の撮像装置の第7の実施の形態の構成例を説明する図である。 本開示の撮像装置の第8の実施の形態の構成例を説明する図である。 本開示の撮像装置の第9の実施の形態の構成例を説明する図である。 本開示の撮像装置の第10の実施の形態の構成例を説明する図である。 本開示の撮像装置の第11の実施の形態の構成例を説明する図である。 本開示の撮像装置の第12の実施の形態の構成例を説明する図である。 本開示の撮像装置の第13の実施の形態の構成例を説明する図である。 本開示の撮像装置の第14の実施の形態の構成例を説明する図である。 本開示の撮像装置の第15の実施の形態の構成例を説明する図である。 図23のレンズ外形形状の変形例を説明する図である。 図23のレンズ端部の構造の変形例を説明する図である。 図23のレンズ端部の構造の変形例を説明する図である。 図23のレンズ端部の構造の変形例を説明する図である。 図23のレンズ端部の構造の変形例を説明する図である。 本開示の撮像装置の第16の実施の形態の構成例を説明する図である。 図29の撮像装置の製造方法を説明する図である。 図29の構成例の個片化断面の変形例を説明する図である。 図31の左上部の撮像装置の製造方法を説明する図である。 図31の左下部の撮像装置の製造方法を説明する図である。 図31の右上部の撮像装置の製造方法を説明する図である。 図31の右下部の撮像装置の製造方法を説明する図である。 図29の構成において反射防止膜を付加する変形例を説明する図である。 図29の構成において反射防止膜を側面部に付加する変形例を説明する図である。 本開示の撮像装置の第17の実施の形態の構成例を説明する図である。 小型軽量で高解像度の画像を撮像可能なレンズの厚さの条件を説明する図である。 レンズの形状に応じた実装リフロー熱負荷時のレンズ上のARコートに掛かる応力分布を説明する図である。 図39のレンズ形状の変形例を説明する図である。 図41の2段側面型レンズの形状を説明する図である。 図41の2段側面型レンズの形状の変形例を説明する図である。 図41の2段側面型レンズの実装リフロー熱負荷時のレンズ上のARコートに掛かる応力分布を説明する図である。 図44の実装リフロー熱負荷時のレンズ上のARコートに掛かる応力分布の最大値を説明する図である。 本開示の撮像装置の第18の実施の形態における製造方法を説明する図である。 図46の製造方法の変形例を説明する図である。 2段側面型レンズの製造方法を説明する図である。 2段側面型レンズの製造方法の変形例を説明する図である。 図49の2段側面型レンズの製造方法における側面の平均面のなす角度の調整、表面粗さの調整、および裾引き部の付与を説明する図である。 本開示の撮像装置の第19の実施の形態の構成例を説明する図である。 図51のアライメントマークの例を説明する図である。 図51のアライメントマークを用いた応用例を説明する図である。 本開示の撮像装置の第20の実施の形態の構成例を説明する図である。 ARコートを全面に形成する場合とそれ以外の場合における実装リフロー熱負荷時のARコートに掛かる応力分布を説明する図である。 本開示の撮像装置の第21の実施の形態の構成例を説明する図である。 レンズと土手を接続するように構成して側面に遮光膜を形成する例を説明する図である。 本開示の撮像装置の第22の実施の形態に係る第1構成例を示す側面断面図である。 第1のガラス基板と第2のガラス基板とのプラズマ接合を説明する図である。 第22の実施の形態における効果を説明する模式図である。 本開示の撮像装置の第22の実施の形態に係る第2構成例を示す側面断面図である。 本開示の撮像装置の第22の実施の形態に係る第3構成例を示す側面断面図である。 本開示の撮像装置の第22の実施の形態に係る第4構成例を示す側面断面図である。 本開示の撮像装置の第22の実施の形態に係る第5構成例を示す側面断面図である。 本開示の撮像装置の第22の実施の形態に係る第6構成例を示す側面断面図である。 本開示の撮像装置の第22の実施の形態に係る第7構成例を示す側面断面図である。 本開示のカメラモジュールを適用した電子機器としての撮像装置の構成例を示すブロック図である。 本開示の技術を適用したカメラモジュールの使用例を説明する図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
 1.第1の実施の形態
 2.第2の実施の形態
 3.第3の実施の形態
 4.第4の実施の形態
 5.第5の実施の形態
 6.第6の実施の形態
 7.第7の実施の形態
 8.第8の実施の形態
 9.第9の実施の形態
 10.第10の実施の形態
 11.第11の実施の形態
 12.第12の実施の形態
 13.第13の実施の形態
 14.第14の実施の形態
 15.第15の実施の形態
 16.第16の実施の形態
 17.第17の実施の形態
 18.第18の実施の形態
 19.第19の実施の形態
 20.第20の実施の形態
 21.第21の実施の形態
 22.第22の実施の形態
 23.電子機器への適用例
 24.固体撮像装置の使用例
 25.内視鏡手術システムへの応用例
 26.移動体への応用例
 <1.第1の実施の形態>
 <撮像装置の構成例>
 図1を参照して、装置構成の小型化と低背化とを実現しつつ、ゴーストやフレアの発生を抑制する、本開示の第1の実施の形態の撮像装置の構成例について説明する。尚、図1は、撮像装置の側面断面図である。
 図1の撮像装置1は、固体撮像素子11、ガラス基板12、IRCF(赤外光カットフィルタ)14、レンズ群16、回路基板17、アクチュエータ18、コネクタ19、およびスペーサ20より構成されている。
 固体撮像素子11は、いわゆるCMOS(Complementary Metal Oxide Semiconductor)や、CCD(Charge Coupled Device)などからなるイメージセンサであり、回路基板17上で電気的に接続された状態で固定されている。固体撮像素子11は、図4を参照して後述するように、アレイ状に配置された複数の画素より構成され、画素単位で、図中上方よりレンズ群16を介して集光されて入射される、入射光の光量に応じた画素信号を生成し、画像信号として回路基板17を介してコネクタ19より外部に出力する。
 固体撮像素子11の図1中の上面部には、ガラス基板12が設けられており、透明の、すなわち、ガラス基板12と略同一の屈折率の接着剤(GLUE)13により貼り合わされている。
 ガラス基板12の図1中の上面部には、入射光のうち、赤外光をカットするIRCF14が設けられており、透明の、すなわち、ガラス基板12と略同一の屈折率の接着剤(GLUE)15により貼り合わされている。IRCF14は、例えば、青板ガラスから構成されており、赤外光をカット(除去)する。
 すなわち、固体撮像素子11、ガラス基板12、およびIRCF14が、積層され、透明の接着剤13,15により、貼り合わされて、一体的な構成とされて、回路基板17に接続されている。尚、図中の一点鎖線で囲まれた、固体撮像素子11、ガラス基板12、およびIRCF14は、略同一の屈折率の接着剤13,15により貼り合わされて一体化された構成にされているので、以降においては、単に、一体化構成部10とも称する。
 また、IRCF14は、固体撮像素子11の製造工程において、個片化された後に、ガラス基板12上に貼り付けられるようにしてもよいし、複数の固体撮像素子11からなるウェハ状のガラス基板12上の全体に大判のIRCF14を貼り付けた後、固体撮像素子11単位で個片化するようにしてもよく、いずれの手法を採用してもよい。
 固体撮像素子11、ガラス基板12、およびIRCF14が一体構成された全体を取り囲むようにスペーサ20が回路基板17上に構成されている。また、スペーサ20の上に、アクチュエータ18が設けられている。アクチュエータ18は、円筒状に構成されており、その円筒内部に複数のレンズが積層されて構成されるレンズ群16を内蔵し、図1中の上下方向に駆動させる。
 このような構成により、アクチュエータ18は、レンズ群16を、図1中の上下方向(光軸に対して前後方向)に移動させることで、図中の上方となる図示せぬ被写体までの距離に応じて、固体撮像素子11の撮像面上において、被写体を結像させるように焦点を調整することでオートフォーカスを実現する。
 <外観概略図>
 次に、図2乃至図6を参照して、一体化構成部10の構成につい説明する。図2は、一体化構成部10の外観概略図を示している。
 図2に示される一体化構成部10は、下側基板11aと上側基板11bとが積層されて構成されている積層基板からなる固体撮像素子11がパッケージ化された半導体パッケージである。
 固体撮像素子11を構成する積層基板の下側基板11aには、図1の回路基板17と電気的に接続するための裏面電極であるはんだボール11eが、複数、形成されている。
 上側基板11bの上面には、R(赤)、G(緑)、またはB(青)のカラーフィルタ11cとオンチップレンズ11dが形成されている。また、上側基板11bは、オンチップレンズ11dを保護するためのガラス基板12と、ガラスシール樹脂からなる接着剤13を介してキャビティレス構造で接続されている。
 例えば、上側基板11bには、図3のAに示されるように、光電変換を行う画素部がアレイ状に2次元配列された画素領域21と、画素部の制御を行う制御回路22が形成されており、下側基板11aには、画素部から出力された画素信号を処理する信号処理回路などのロジック回路23が形成されている。
 あるいはまた、図3のBに示されるように、上側基板11bには、画素領域21のみが形成され、下側基板11aに、制御回路22とロジック回路23が形成される構成でもよい。
 以上のように、ロジック回路23または制御回路22及びロジック回路23の両方を、画素領域21の上側基板11bとは別の下側基板11aに形成して積層させることで、1枚の半導体基板に、画素領域21、制御回路22、およびロジック回路23を平面方向に配置した場合と比較して、撮像装置1としてのサイズを小型化することができる。
 以下では、少なくとも画素領域21が形成される上側基板11bを、画素センサ基板11bと称し、少なくともロジック回路23が形成される下側基板11aを、ロジック基板11aと称して説明を行う。
 <積層基板の構成例>
 図4は、固体撮像素子11の回路構成例を示している。
 固体撮像素子11は、画素32が2次元アレイ状に配列された画素アレイ部33と、垂直駆動回路34、カラム信号処理回路35、水平駆動回路36、出力回路37、制御回路38、および入出力端子39を含む。
 画素32は、光電変換素子としてのフォトダイオードと、複数の画素トランジスタを有して成る。画素32の回路構成例については、図5を参照して後述する。
 また、画素32は、共有画素構造とすることもできる。この画素共有構造は、複数のフォトダイオードと、複数の転送トランジスタと、共有される1つのフローティングディフージョン(浮遊拡散領域)と、共有される1つずつの他の画素トランジスタとから構成される。すなわち、共有画素では、複数の単位画素を構成するフォトダイオード及び転送トランジスタが、他の1つずつの画素トランジスタを共有して構成される。
 制御回路38は、入力クロックと、動作モードなどを指令するデータを受け取り、また固体撮像素子11の内部情報などのデータを出力する。すなわち、制御回路38は、垂直同期信号、水平同期信号及びマスタクロックに基づいて、垂直駆動回路34、カラム信号処理回路35及び水平駆動回路36などの動作の基準となるクロック信号や制御信号を生成する。そして、制御回路38は、生成したクロック信号や制御信号を、垂直駆動回路34、カラム信号処理回路35及び水平駆動回路36等に出力する。
 垂直駆動回路34は、例えばシフトレジスタによって構成され、所定の画素駆動配線40を選択し、選択された画素駆動配線40に画素32を駆動するためのパルスを供給し、行単位で画素32を駆動する。すなわち、垂直駆動回路34は、画素アレイ部33の各画素32を行単位で順次垂直方向に選択走査し、各画素32の光電変換部において受光量に応じて生成された信号電荷に基づく画素信号を、垂直信号線41を通してカラム信号処理回路35に供給する。
 カラム信号処理回路35は、画素32の列ごとに配置されており、1行分の画素32から出力される信号を画素列ごとにノイズ除去などの信号処理を行う。例えば、カラム信号処理回路5は、画素固有の固定パターンノイズを除去するためのCDS(Correlated Double Sampling:相関2重サンプリング)およびAD変換等の信号処理を行う。
 水平駆動回路36は、例えばシフトレジスタによって構成され、水平走査パルスを順次出力することによって、カラム信号処理回路35の各々を順番に選択し、カラム信号処理回路35の各々から画素信号を水平信号線42に出力させる。
 出力回路37は、カラム信号処理回路35の各々から水平信号線42を通して順次に供給される信号に対し、信号処理を行って出力する。出力回路37は、例えば、バファリングだけする場合もあるし、黒レベル調整、列ばらつき補正、各種デジタル信号処理などが行われる場合もある。入出力端子39は、外部と信号のやりとりをする。
 以上のように構成される固体撮像素子11は、CDS処理とAD変換処理を行うカラム信号処理回路35が画素列ごとに配置されたカラムAD方式と呼ばれるCMOSイメージセンサである。
 <画素の回路構成例>
 図5は、画素32の等価回路を示している。
 図5に示される画素32は、電子式のグローバルシャッタ機能を実現する構成を示している。
 画素32は、光電変換素子としてのフォトダイオード51、第1転送トランジスタ52、メモリ部(MEM)53、第2転送トランジスタ54、FD(フローティング拡散領域)55、リセットトランジスタ56、増幅トランジスタ57、選択トランジスタ58、及び排出トランジスタ59を有する。
 フォトダイオード51は、受光量に応じた電荷(信号電荷)を生成し、蓄積する光電変換部である。フォトダイオード51のアノード端子が接地されているとともに、カソード端子が第1転送トランジスタ52を介してメモリ部53に接続されている。また、フォトダイオード51のカソード端子は、不要な電荷を排出するための排出トランジスタ59とも接続されている。
 第1転送トランジスタ52は、転送信号TRXによりオンされたとき、フォトダイオード51で生成された電荷を読み出し、メモリ部53に転送する。メモリ部53は、FD55に電荷を転送するまでの間、一時的に電荷を保持する電荷保持部である。
 第2転送トランジスタ54は、転送信号TRGによりオンされたとき、メモリ部53に保持されている電荷を読み出し、FD55に転送する。
 FD55は、メモリ部53から読み出された電荷を信号として読み出すために保持する電荷保持部である。リセットトランジスタ56は、リセット信号RSTによりオンされたとき、FD55に蓄積されている電荷が定電圧源VDDに排出されることで、FD55の電位をリセットする。
 増幅トランジスタ57は、FD55の電位に応じた画素信号を出力する。すなわち、増幅トランジスタ57は定電流源としての負荷MOS60とソースフォロワ回路を構成し、FD55に蓄積されている電荷に応じたレベルを示す画素信号が、増幅トランジスタ57から選択トランジスタ58を介してカラム信号処理回路35(図4)に出力される。負荷MOS60は、例えば、カラム信号処理回路35内に配置されている。
 選択トランジスタ58は、選択信号SELにより画素32が選択されたときオンされ、画素32の画素信号を、垂直信号線41を介してカラム信号処理回路35に出力する。
 排出トランジスタ59は、排出信号OFGによりオンされたとき、フォトダイオード51に蓄積されている不要電荷を定電圧源VDDに排出する。
 転送信号TRX及びTRG、リセット信号RST、排出信号OFG、並びに選択信号SELは、画素駆動配線40を介して垂直駆動回路34から供給される。
 画素32の動作について簡単に説明する。
 まず、露光開始前に、Highレベルの排出信号OFGが排出トランジスタ59に供給されることにより排出トランジスタ59がオンされ、フォトダイオード51に蓄積されている電荷が定電圧源VDDに排出され、全画素のフォトダイオード51がリセットされる。
 フォトダイオード51のリセット後、排出トランジスタ59が、Lowレベルの排出信号OFGによりオフされると、画素アレイ部33の全画素で露光が開始される。
 予め定められた所定の露光時間が経過すると、画素アレイ部33の全画素において、転送信号TRXにより第1転送トランジスタ52がオンされ、フォトダイオード51に蓄積されていた電荷が、メモリ部53に転送される。
 第1転送トランジスタ52がオフされた後、各画素32のメモリ部53に保持されている電荷が、行単位に、順次、カラム信号処理回路35に読み出される。読み出し動作は、読出し行の画素32の第2転送トランジスタ54が転送信号TRGによりオンされ、メモリ部53に保持されている電荷が、FD55に転送される。そして、選択トランジスタ58が選択信号SELによりオンされることで、FD55に蓄積されている電荷に応じたレベルを示す信号が、増幅トランジスタ57から選択トランジスタ58を介してカラム信号処理回路35に出力される。
 以上のように、図5の画素回路を有する画素32は、露光時間を画素アレイ部33の全画素で同一に設定し、露光終了後はメモリ部53に電荷を一時的に保持しておいて、メモリ部53から行単位に順次電荷を読み出すグローバルシャッタ方式の動作(撮像)が可能である。
 なお、画素32の回路構成としては、図5に示した構成に限定されるものではなく、例えば、メモリ部53を持たず、いわゆるローリングシャッタ方式による動作を行う回路構成を採用することもできる。
 <固体撮像装置の基本構造例>
 次に、図6を参照して、固体撮像素子11の詳細構造について説明する。図6は、固体撮像素子11の一部分を拡大して示した断面図である。
 ロジック基板11aには、例えばシリコン(Si)で構成された半導体基板81(以下、シリコン基板81という。)の上側(画素センサ基板11b側)に、多層配線層82が形成されている。この多層配線層82により、図3の制御回路22やロジック回路23が構成されている。
 多層配線層82は、画素センサ基板11bに最も近い最上層の配線層83a、中間の配線層83b、及び、シリコン基板81に最も近い最下層の配線層83cなどからなる複数の配線層83と、各配線層83の間に形成された層間絶縁膜84とで構成される。
 複数の配線層83は、例えば、銅(Cu)、アルミニウム(Al)、タングステン(W)などを用いて形成され、層間絶縁膜84は、例えば、シリコン酸化膜、シリコン窒化膜などで形成される。複数の配線層83及び層間絶縁膜84のそれぞれは、全ての階層が同一の材料で形成されていてもよし、階層によって2つ以上の材料を使い分けてもよい。
 シリコン基板81の所定の位置には、シリコン基板81を貫通するシリコン貫通孔85が形成されており、シリコン貫通孔85の内壁に、絶縁膜86を介して接続導体87が埋め込まれることにより、シリコン貫通電極(TSV:Through Silicon Via)88が形成されている。絶縁膜86は、例えば、SiO2膜やSiN膜などで形成することができる。
 なお、図6に示されるシリコン貫通電極88では、内壁面に沿って絶縁膜86と接続導体87が成膜され、シリコン貫通孔85内部が空洞となっているが、内径によってはシリコン貫通孔85内部全体が接続導体87で埋め込まれることもある。換言すれば、貫通孔の内部が導体で埋め込まれていても、一部が空洞となっていてもどちらでもよい。このことは、後述するチップ貫通電極(TCV:Through Chip Via)105などについても同様である。
 シリコン貫通電極88の接続導体87は、シリコン基板81の下面側に形成された再配線90と接続されており、再配線90は、はんだボール11eと接続されている。接続導体87及び再配線90は、例えば、銅(Cu)、タングステン(W)、タングステン(W)、ポリシリコンなどで形成することができる。
 また、シリコン基板81の下面側には、はんだボール11eが形成されている領域を除いて、再配線90と絶縁膜86を覆うように、ソルダマスク(ソルダレジスト)91が形成されている。
 一方、画素センサ基板11bには、シリコン(Si)で構成された半導体基板101(以下、シリコン基板101という。)の下側(ロジック基板11a側)に、多層配線層102が形成されている。この多層配線層102により、図3の画素領域21の画素回路が構成されている。
 多層配線層102は、シリコン基板101に最も近い最上層の配線層103a、中間の配線層103b、及び、ロジック基板11aに最も近い最下層の配線層103cなどからなる複数の配線層103と、各配線層103の間に形成された層間絶縁膜104とで構成される。
 複数の配線層103及び層間絶縁膜104として使用される材料は、上述した配線層83及び層間絶縁膜84の材料と同種のものを採用することができる。また、複数の配線層103や層間絶縁膜104が、1または2つ以上の材料を使い分けて形成されてもよい点も、上述した配線層83及び層間絶縁膜84と同様である。
 なお、図6の例では、画素センサ基板11bの多層配線層102は3層の配線層103で構成され、ロジック基板11aの多層配線層82は4層の配線層83で構成されているが、配線層の総数はこれに限られず、任意の層数で形成することができる。
 シリコン基板101内には、PN接合により形成されたフォトダイオード51が、画素32ごとに形成されている。
 また、図示は省略されているが、多層配線層102とシリコン基板101には、第1転送トランジスタ52、第2転送トランジスタ54などの複数の画素トランジスタや、メモリ部(MEM)53なども形成されている。
 カラーフィルタ11cとオンチップレンズ11dが形成されていないシリコン基板101の所定の位置には、画素センサ基板11bの配線層103aと接続されているシリコン貫通電極109と、ロジック基板11aの配線層83aと接続されているチップ貫通電極105が、形成されている。
 チップ貫通電極105とシリコン貫通電極109は、シリコン基板101上面に形成された接続用配線106で接続されている。また、シリコン貫通電極109及びチップ貫通電極105のそれぞれとシリコン基板101との間には、絶縁膜107が形成されている。さらに、シリコン基板101の上面には、平坦化膜(絶縁膜)108を介して、カラーフィルタ11cやオンチップレンズ11dが形成されている。
 以上のように、図2に示される固体撮像素子11は、ロジック基板11aの多層配線層102側と、画素センサ基板11bの多層配線層82側とを貼り合わせた積層構造となっている。図6では、ロジック基板11aの多層配線層102側と、画素センサ基板11bの多層配線層82側とを貼り合わせ面が、破線で示されている。
 また、撮像装置1の固体撮像素子11では、画素センサ基板11bの配線層103とロジック基板11aの配線層83が、シリコン貫通電極109とチップ貫通電極105の2本の貫通電極により接続され、ロジック基板11aの配線層83とはんだボール(裏面電極)11eが、シリコン貫通電極88と再配線90により接続されている。これにより、撮像装置1の平面積を、極限まで小さくすることができる。
 さらに、固体撮像素子11とガラス基板12との間を、キャビティレス構造にして、接着剤13により貼り合わせることにより、高さ方向についても低くすることができる。
 したがって、図1に示される撮像装置1によれば、より小型化した半導体装置(半導体パッケージ)を実現することができる。
 以上のような撮像装置1の構成により、IRCF14が、固体撮像素子11、およびガラス基板12上に設けられることになるので、光の内乱反射によるフレアやゴーストの発生を抑制することが可能となる。
 すなわち、図7の左部で示されるように、IRCF14が、ガラス基板(Glass)12に対して離間して、レンズ(Lens)16とガラス基板12との中間付近に構成される場合、実線で示されるように入射光が集光されて、IRCF14、ガラス基板12、および接着剤13を介して、固体撮像素子(CIS)11に位置F0に入射した後、点線で示されるように位置F0において反射し、反射光が発生する。
 位置F0で反射した反射光は、点線で示されるように、その一部が、例えば、接着剤13、およびガラス基板12を介して、ガラス基板12と離間した位置に配置されたIRCF14の背面(図7中の下方の面)R1で反射し、再び、ガラス基板12、および接着剤13を介して、位置F1において、再び固体撮像素子11に入射する。
 また、焦点F0で反射した反射光は、点線で示されるように、その他の一部が、例えば、接着剤13、およびガラス基板12、並びに、ガラス基板12と離間した位置に配置されたIRCF14を透過して、IRCF14の上面(図7中の上方の面)R2で反射し、IRCF14、ガラス基板12、および接着剤13を介して、位置F2において、再び固体撮像素子11に入射する。
 この位置F1,F2において、再び入射する光が、内乱反射に起因するフレアやゴーストを発生させる。より具体的には、図8の画像P1で示されるように、固体撮像素子11において、照明Lを撮像する際に、反射光R21,R22で示されるような、フレアやゴーストとして現れることになる。
 これに対して、図1の撮像装置1の構成と対応する、図7の右部で示されるような撮像装置1のように、IRCF14が、ガラス基板12上に構成されると、実線で示される入射光が集光されて、IRCF14、接着剤15、ガラス基板12、および接着剤13を介して、固体撮像素子11に位置F0で入射した後、点線で示されるように反射する。そして、反射した光は、接着剤13、ガラス基板12、接着剤15、およびIRCF14を介して、レンズ群16上の最下位層のレンズの面R11により反射するが、レンズ群16がIRCF14から十分に離れた位置であるので、固体撮像素子11において十分に受光できない範囲に反射される。
 ここで、図中の一点鎖線で囲まれた、固体撮像素子11、ガラス基板12、およびIRCF14は、略同一の屈折率の接着剤13,15により貼り合わされて一体化された一体化構成部10として構成されている。一体化構成部10においては、屈折率が統一されることで、異なる屈折率の層の境界で発生する内乱反射の発生が抑制され、例えば、図7の左部における位置F0の近傍である、位置F1,F2で再入射されることが抑制される。
 これにより、図1の撮像装置1は、照明Lを撮像した場合、図8の画像P2で示されるように、画像P1における反射光R21,R22のような、内乱反射に起因するフレアやゴーストの発生が抑制された画像を撮像することができる。
 結果として、図1で示される第1の実施の形態の撮像装置1のような構成により、装置構成の小型化および低背化を実現すると共に、内乱反射に起因するフレアやゴーストの発生を抑制することができる。
 尚、図8の画像P1は、図7の左部の構成からなる撮像装置1により夜間において照明Lが撮像された画像であり、画像P2は、図7の右部の構成からなる(図1の)撮像装置1により夜間において照明Lが撮像された画像である。
 また、以上においては、レンズ群16をアクチュエータ18により図1中において上下方向に移動させることにより被写体までの距離に応じて、焦点距離を調整して、オートフォーカスを実現できる構成を例に説明したが、アクチュエータ18を設けず、レンズ群16による焦点距離を調整せず、いわゆる単焦点レンズとして機能させるようにしてもよい。
 <2.第2の実施の形態>
 第1の実施の形態においては、IRCF14を固体撮像素子11の撮像面側に貼り付けられたガラス基板12上に貼り付ける例について説明してきたが、さらに、レンズ群16を構成する最下位層のレンズを、IRCF14上に設けるようにしてもよい。
 図9は、図1における撮像装置1を構成する複数のレンズからなるレンズ群16のうちの、光の入射方向に対して最下位層となるレンズを、レンズ群16から分離して、IRCF14上に構成するようにした撮像装置1の構成例を示している。尚、図5において、図1における構成と基本的に同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略するものとする。
 すなわち、図9の撮像装置1において、図1の撮像装置1と異なる点は、IRCF14の図中の上面において、さらに、レンズ群16を構成する複数のレンズのうちの、光の入射方向に対して最下位層となるレンズ131を、レンズ群16から分離して設けた点である。尚、図9のレンズ群16は、図1のレンズ群16と同一の符号を付しているが、光の入射方向に対して最下位層となるレンズ131が含まれていない点で、厳密には、図1のレンズ群16とは異なる。
 図9のような撮像装置1の構成により、IRCF14が、固体撮像素子11上に設けられたガラス基板12上に設けられ、さらに、IRCF14上にレンズ群16を構成する最下位層のレンズ131が設けられることになるので、光の内乱反射によるフレアやゴーストの発生を抑制することが可能となる。
 すなわち、図10の左部で示されるように、ガラス基板12上にレンズ群16の光の入射方向に対して最下位層となるレンズ131が設けられ、IRCF14が、レンズ131に対して離間して、レンズ群16とレンズ131との中間付近に構成される場合、実線で示される入射光が集光されて、IRCF14、レンズ131、ガラス基板12、および接着剤13を介して、固体撮像素子11に位置F0で入射した後、点線で示されるように位置F0から反射して、反射光が発生する。
 位置F0で反射した反射光は、点線で示されるように、その一部が、例えば、接着剤13、ガラス基板12、およびレンズ131を介して、レンズ131と離間した位置に配置されたIRCF14の背面(図2中の下方の面)R31で反射し、レンズ131、ガラス基板12、および接着剤13を介して、位置F11において、再び固体撮像素子11に入射する。
 また、焦点F0で反射した反射光は、点線で示されるように、その他の一部が、例えば、接着剤13、ガラス基板12、およびレンズ131、並びに、レンズ131と離間した位置に配置されたIRCF14を透過して、IRCF14の上面(図7中の上方の面)R32で反射し、IRCF14、レンズ131、ガラス基板12、および接着剤13を介して、位置F12において、再び固体撮像素子11に入射する。
 この位置F11,F12において、再び入射する光が、固体撮像素子11において、フレアやゴーストとして現れることになる。この点については、図8を参照して説明した画像P1における照明Lの反射光R21,R21が、図7の位置F1,F2において再入射した場合に発生する原理と基本的には同様である。
 これに対して、図9の撮像装置1における構成と同様に、図10の右部で示されるように、レンズ群16の最下位層のレンズ131が、IRCF14上に構成されると、実線で示されるように入射光が集光されて、レンズ131、IRCF14、接着剤15、ガラス基板12、および接着剤13を介して、固体撮像素子11に位置F0で入射した後、反射して、点線で示されるように接着剤13、ガラス基板12、接着剤15、IRCF14、およびレンズ131を介して、十分に離れた位置のレンズ群16上の面R41により反射光が発生するが、固体撮像素子11において略受光できない範囲に反射されるので、フレアやゴーストの発生を抑制することができる。
 すなわち、固体撮像素子11、接着剤13、ガラス基板12、およびIRCF14は、略同一の屈折率の接着剤13,15により貼り合わされて一体化された構成にされているので、一体化された構成である、図中の一点鎖線で囲まれた一体化構成部10においては、屈折率が統一されることで、異なる屈折率の層の境界で発生する内乱反射の発生が抑制され、例えば、図10の左部で示されるような位置F0の近傍の位置F11,F12への反射光などの入射が抑制される。
 結果として、図10で示される第2の実施の形態の撮像装置1のような構成により、装置構成の小型化および低背化を実現すると共に、内乱反射に起因するフレアやゴーストの発生を抑制することができる。
 <3.第3の実施の形態>
 第2の実施の形態においては、最下位層のレンズ131をIRCF14上に設ける例について説明してきたが、最下位層のレンズ131とIRCF14とを接着剤により貼り合わせるようにしてもよい。
 図11は、最下位層のレンズ131とIRCF14とを接着剤により貼り合わせるようにした撮像装置1の構成例を示している。尚、図11の撮像装置1において、図9の撮像装置1の構成と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
 すなわち、図11の撮像装置1において、図9の撮像装置1と異なる点は、最下位層のレンズ131とIRCF14とを透明の、すなわち、略屈折率が同一の接着剤151により貼り合わせている点である。
 図11の撮像装置1のような構成においても、図9の撮像装置1と同様に、フレアやゴーストの発生を抑制することが可能となる。
 また、レンズ131の平坦性が大きくない場合、接着剤151を用いずにIRCF14に固定しようとしても、レンズ131の光軸に対してIRCF14がずれてしまう恐れがあるが、レンズ131とIRCF14とが接着剤151により貼り合わされることにより、レンズ131の平坦性が大きくなくても、レンズ131の光軸に対して、ずれがないようにIRCF14を固定することが可能となり、光軸のずれにより生じる画像の歪みの発生を抑制することが可能となる。
 <4.第4の実施の形態>
 第2の実施の形態においては、光の入射方向に対して最下位層のレンズ131をIRCF14上に設ける例について説明してきたが、最下位層のレンズ131のみならず、レンズ群16の最下位層を構成する複数のレンズ群をIRCF14上に設けるようにしてもよい。
 図12は、レンズ群16のうちの、入射方向に対して最下位層を構成する複数のレンズからなるレンズ群をIRCF14上に構成するようにした撮像装置1の構成例を示している。尚、図12の撮像装置1において、図9の撮像装置1の構成と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
 すなわち、図12の撮像装置1において、図9の撮像装置1と異なる点は、レンズ131に代えて、レンズ群16のうちの光の入射方向に対して最下位層を構成する複数のレンズからなるレンズ群171をIRCF14上に設けている点である。尚、図12では、2枚のレンズからなるレンズ群171の例が示されているが、それ以上の数のレンズによりレンズ群171を構成するようにしてもよい。
 このような構成においても、図9の撮像装置1と同様に、フレアやゴーストの発生を抑制することが可能となる。
 また、レンズ群16を構成する複数のレンズのうちの最下位層を構成する複数のレンズからなるレンズ群171がIRCF14上に構成されるため、レンズ群16を構成するレンズ数を減らすことができ、レンズ群16を軽量化できるので、オートフォーカスに使用されるアクチュエータ18の駆動力量を低減させることが可能となり、アクチュエータ18の小型化と低電力化を実現することが可能となる。
 尚、第3の実施の形態の図11の撮像装置1におけるレンズ131を、レンズ群171に代えて、透明の接着剤151でIRCF14に貼り付けるようにしてもよい。
 <5.第5の実施の形態>
 第2の実施の形態においては、固体撮像素子11上にガラス基板12を接着剤13により貼り付け、ガラス基板12の上にIRCF14を接着剤15により貼り付ける例について説明してきたが、ガラス基板12、接着剤15、およびIRCF14を、ガラス基板12の機能とIRCF14の機能とを併せ持った構成で置き換えて、接着剤13により固体撮像素子11上に貼り付けるようにしてもよい。
 図13は、ガラス基板12、接着剤15、およびIRCF14を、ガラス基板12の機能とIRCF14の機能とを併せ持った構成で置き換えて、接着剤13により、固体撮像素子11上に貼り付けて、その上に最下位層のレンズ131を設けるようにした撮像装置1の構成例を示している。尚、図13の撮像装置1において、図9の撮像装置1の構成と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
 すなわち、図13の撮像装置1において、図9の撮像装置1と異なる点は、ガラス基板12およびIRCF14を、ガラス基板12の機能と、IRCF14の機能とを備えたIRCFガラス基板14’に置き換えて、接着剤13により固体撮像素子11上に貼り付け、さらに、IRCF14’上に最下位層のレンズ131を設けるようにした点である。
 このような構成においても、図9の撮像装置1と同様に、フレアやゴーストの発生を抑制することが可能となる。
 すなわち、現在、固体撮像素子11は、小型化のため、CSP(Chip Size Package)構造と称されるガラス基板12と固体撮像素子11を接着し、ガラス基板を基軸基板として、固体撮像素子11を薄く加工することにより、小型の固体撮像素子の実現が可能となっている。図13においては、IRCFガラス基板14’が、IRCF14の機能と共に、平坦度の高いガラス基板12としての機能も実現することで、低背化を実現することが可能となる。
 尚、第1の実施の形態、第3の実施の形態、および第4の実施の形態である、図1、図11、図12の撮像装置1における、ガラス基板12、接着剤15、およびIRCF14を、ガラス基板12の機能と、IRCF14の機能とを備えたIRCFガラス基板14’に置き換えるようにしてもよい。
 <6.第6の実施の形態>
 第4の実施の形態においては、CSP構造の固体撮像素子11上に接着剤13によりガラス基板12を貼り付け、さらに、ガラス基板12の上に接着剤15によりIRCF14を貼り付け、さらに、IRCF14上にレンズ群16を構成する複数のレンズのうち、最下位層の複数のレンズからなるレンズ群171を設ける例について説明してきたが、CSP構造の固体撮像素子11に代えて、COB(Chip on Board)構造の固体撮像素子11を用いるようにしてもよい。
 図14は、図12の撮像装置1における、ガラス基板12およびIRCF14を、ガラス基板12の機能と、IRCF14の機能とを備えたIRCFガラス基板14’に置き換えると共に、CSP構造の固体撮像素子11に代えて、COB(Chip on Board)構造の固体撮像素子11を用いるようにした構成例を示している。尚、図14の撮像装置1において、図12の撮像装置1の構成と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
 すなわち、図14の撮像装置1において、図12の撮像装置1と異なる点は、ガラス基板12およびIRCF14を、ガラス基板12の機能と、IRCF14の機能とを備えたIRCFガラス基板14’に置き換えた点と、CSP構造の固体撮像素子11に代えて、COB(Chip on Board)構造の固体撮像素子91を用いるようにした点である。
 このような構成においても、図12の撮像装置1と同様に、フレアやゴーストの発生を抑制することが可能となる。
 また、近年、撮像装置1の小型化とともに固体撮像素子11の小型化のためCSP構造が一般的となっているが、CSP構造はガラス基板12またはIRCFガラス基板14’との張り合わせや、固体撮像素子11の端子を受光面の裏側に配線するなど、加工が複雑になるため、COB構造の固体撮像素子11と比較して高価となる。そこで、CSP構造だけでなく、ワイヤボンド92などにより回路基板17と接続されるCOB構造の固体撮像素子91を用いるようにしてもよい。
 COB構造の固体撮像素子91を用いることにより、回路基板17への接続を容易なものとすることができるので、加工をシンプルにすることが可能となり、コストを低減させることができる。
 尚、第1の実施の形態乃至第3の実施の形態、および第5の実施の形態である図1,図9,図11,図13の撮像装置1におけるCSP構造の固体撮像素子11を、COB(Chip on Board)構造の固体撮像素子11に代えるようにしてもよい。
 <7.第7の実施の形態>
 第2の実施の形態においては、固体撮像素子11上にガラス基板12を設け、さらに、ガラス基板上にIRCF14を設ける例について説明してきたが、固体撮像素子11上にIRCF14を設け、さらに、IRCF14上にガラス基板12を設けるようにしてもよい。
 図15は、ガラス基板12を用いる場合であって、固体撮像素子11上にIRCF14を設け、さらに、IRCF14上にガラス基板12を設けるようにした撮像装置1の構成例を示している。
 図15の撮像装置1において、図9の撮像装置1と異なる点は、ガラス基板12とIRCF14とを入れ替えて、透明の接着剤13により固体撮像素子11上にIRCF14を貼り付け、さらに、透明の接着剤15によりIRCF14上にガラス基板12を貼り付けるようにして、そのガラス基板12上にレンズ131を設けるようにした点である。
 このような構成においても、図9の撮像装置1と同様に、フレアやゴーストの発生を抑制することが可能となる。
 また、IRCF14は、一般に、特性上、温度や外乱による影響により、平坦性が低く、固体撮像素子11上の画像に歪を生じさせる恐れがある。
 そこで、IRCF14の両面にコーティングの材料などを塗布するなどして、平坦性を保持させるような特殊な材料を採用したりすることが一般的であるが、これによりコスト高となっていた。
 これに対して、図15の撮像装置1においては、平坦性の低いIRCF14を平坦性の高い固体撮像素子11とガラス基板12とで挟み込むことにより、低コストで、平坦性を確保することが可能となり、画像の歪を低減させることが可能となる。
 従って、図15の撮像装置1により、フレアやゴーストの発生を抑制することが可能となると共に、IRCF14の特性により生じる画像の歪を抑制することが可能となる。また、平坦性を保持させるような特殊な材料からなるコーティングが不要となるので、コストを低減させることが可能となる。
 尚、第1の実施の形態、第3の実施の形態、および第4の実施の形態である図1,図11,図12の撮像装置1においても、ガラス基板12とIRCF14とを入れ替えて接着剤13,15で貼り付けるようにしてもよい。
 <8.第8の実施の形態>
 第1の実施の形態においては、赤外光をカットする構成としてIRCF14を用いる例について説明してきたが、赤外光をカットすることが可能な構成であれば、IRCF14以外の構成でもよく、例えば、IRCF14に代えて、赤外光カット樹脂を塗布して用いるようにしてもよい。
 図16は、IRCF14に代えて、赤外光カット樹脂を用いるようにした撮像装置1の構成例である。尚、図16の撮像装置1において、図1の撮像装置1と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
 すなわち、図16の撮像装置1において、図1の撮像装置1と異なる点は、IRCF14に代えて、赤外光カット樹脂211が設けられている点である。赤外光カット樹脂211は、例えば、塗布されることにより設けられる。
 このような構成においても、図1の撮像装置1と同様に、フレアやゴーストの発生を抑制することが可能となる。
 また、近年、樹脂の改良が進み、赤外カット効果のあるものが一般的になってきており、赤外光カット樹脂211はCSP型の固体撮像素子11の生産時にガラス基板12に塗布できることが知られている。
 尚、第2の実施の形態乃至第4の実施の形態,および第7の実施の形態である、図9,図11,図12,図15の撮像装置1におけるIRCF14に代えて、赤外光カット樹脂211を用いるようにしてもよい。
 <9.第9の実施の形態>
 第2の実施の形態においては、ガラス基板12を用いる場合、平板のものが固体撮像素子11に空洞などがない密着した状態で設けられる例について説明してきたが、ガラス基板12と固体撮像素子11との間に空洞(キャビティ)を設けるようにしてもよい。
 図17は、ガラス基板12と固体撮像素子11との間に空洞(キャビティ)を設けるようにした撮像装置1の構成例を示している。図17の撮像装置1において、図9の撮像装置1の構成と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
 すなわち、図17の撮像装置1において、図9の撮像装置と異なる点は、ガラス基板12に代えて、周囲に凸部231aを備えたガラス基板231が設けられている点である。周囲の凸部231aが固体撮像素子11と当接し、透明の接着剤232により凸部231aが接着されることで、固体撮像素子11の撮像面とガラス基板231との間に空気層からなる空洞(キャビティ)231bが形成される。
 このような構成においても、図9の撮像装置1と同様に、フレアやゴーストの発生を抑制することが可能となる。
 尚、第1の実施の形態、第3の実施の形態、第4の実施の形態,および第8の実施の形態である、図1,図11,図12,図16の撮像装置1におけるガラス基板12に代えて、ガラス基板231を用いるようにして、接着剤232により凸部231aのみが接着されるようにすることで、空洞(キャビティ)231bが形成されるようにしてもよい。
 <10.第10の実施の形態>
 第2の実施の形態においては、レンズ群16の最下位層のレンズ131をガラス基板12上に設けられたIRCF14の上に構成する例にしてきたが、ガラス基板12上のIRCF14に代えて、赤外光カット機能を備えた有機多層膜の塗布剤により構成されるようにしてもよい。
 図18は、ガラス基板12上のIRCF14に代えて、赤外光カット機能を備えた有機多層膜の塗布剤により構成されるようにした撮像装置1の構成例を示している。
 図18の撮像装置1において、図9の撮像装置1と異なる点は、ガラス基板12上のIRCF14に代えて、赤外光カット機能を備えた有機多層膜の塗布剤251により構成されるようにした点である。
 このような構成においても、図9の撮像装置1と同様に、フレアやゴーストの発生を抑制することが可能となる。
 尚、第1の実施の形態、第3の実施の形態、第4の実施の形態、第7の実施の形態、および第9の実施の形態である、図1,図6,図7,図10,図12の撮像装置1におけるIRCF14に代えて、赤外光カット機能を備えた有機多層膜の塗布剤251を用いるようにしてもよい。
 <11.第11の実施の形態>
 第10の実施の形態においては、ガラス基板12上のIRCF14に代えて、赤外光カット機能を備えた有機多層膜の塗布剤251上にレンズ群16の最下位層のレンズ131を備えるようにした例について説明してきたが、さらに、レンズ131にAR(Anti Reflection)コートをするようにしてもよい。
 図19は、図13の撮像装置1におけるレンズ131にARコートを施すようにした撮像装置1の構成例を示している。
 すなわち、図19の撮像装置1において、図18の撮像装置1と異なる点は、レンズ131に代えて、ARコート271aがなされた、レンズ群16の最下位層のレンズ271が設けられている点である。ARコート271aは、例えば、真空蒸着、スパッタリング、またはWETコーティングなどを採用することができる。
 このような構成においても、図9の撮像装置1と同様に、フレアやゴーストの発生を抑制することが可能となる。
 また、レンズ271のARコート271aにより、固体撮像素子11からの反射光の内乱反射が抑制されるので、より高い精度でフレアやゴーストの発生を抑制することが可能となる。
 尚、第2の実施の形態、第3の実施の形態、第5の実施の形態、第7の実施の形態、第9の実施の形態、および第10の実施の形態である、図9,図11,図13,図15,図17,図18の撮像装置1におけるレンズ131に代えて、ARコート271aが付されたレンズ271を用いるようにしてもよい。また、第4の実施の形態および第6の実施の形態である、図12,図14の撮像装置1におけるレンズ群171の表面(図中の再上面)にARコート271aと同様のARコートを施すようにしてもよい。
 ARコート271aは、以下の膜の単層または多層構造まくであることが望ましい。すなわち、ARコート271aは、例えば、透明なシリコン系樹脂、アクリル系樹脂、エポキシ系樹脂、スチレン系等の樹脂、Si(ケイ素),C(炭素),H(水素)を主成分とする絶縁膜(例えば、SiCH,SiCOH,SiCNH)、Si(ケイ素),N(窒素)を主成分とする絶縁膜(例えば、SiON,SiN)、水酸化シリコン、アルキルシラン、アルコキシシラン、ポリシロキサン等の少なくともいずれかの材料ガスと酸化剤を用いて成膜されるSiO2膜、P-SiO膜、HDP-SiO膜などである。
 <12.第12の実施の形態>
 第11の実施の形態においては、レンズ131に代えて、AR(Anti Reflection)コート271aが付されたレンズ271を用いるようにした例について説明してきたが、反射防止機能が実現できれば、ARコート以外の構成でもよく、例えば、反射を防止する微小な凹凸構造であるモスアイ構造にするようにしてもよい。
 図20は、図19の撮像装置1におけるレンズ131に代えて、モスアイ構造の反射防止機能が付加されたレンズ291を設けるようにした撮像装置1の構成例を示している。
 すなわち、図20の撮像装置1において、図18の撮像装置1と異なる点は、レンズ131に代えて、モスアイ構造となるような処理がなされた反射防止処理部291aが施されている、レンズ群16の最下位層のレンズ291が設けられている点である。
 このような構成においても、図18の撮像装置1と同様に、フレアやゴーストの発生を抑制することが可能となる。
 また、レンズ291には、モスアイ構造となるような処理がなされた反射防止処理部291aにより、固体撮像素子11からの反射光の内乱反射が抑制されるので、より高い精度でフレアやゴーストの発生を抑制することが可能となる。尚、反射防止処理部291aは、反射防止機能を実現できれば、モスアイ構造以外の反射防止処理がなされたものでもよい。
 反射防止処理部291aは、以下の膜の単層または多層構造まくであることが望ましい。すなわち、反射防止処理部291aは、例えば、透明なシリコン系樹脂、アクリル系樹脂、エポキシ系樹脂、スチレン系等の樹脂、Si(ケイ素),C(炭素),H(水素)を主成分とする絶縁膜(例えば、SiCH,SiCOH,SiCNH)、Si(ケイ素),N(窒素)を主成分とする絶縁膜(例えば、SiON,SiN)、水酸化シリコン、アルキルシラン、アルコキシシラン、ポリシロキサン等の少なくとも、いずれかの材料ガスと酸化剤を用いて成膜されるSiO2膜、P-SiO膜、HDP-SiO膜などである。
 尚、第2の実施の形態、第3の実施の形態、第5の実施の形態、第7の実施の形態、第9の実施の形態、および第10の実施の形態である、図9,図11,図13,図15,図17,図18の撮像装置1におけるレンズ131に代えて、反射防止処理部291aが付されたレンズ291を用いるようにしてもよい。また、第4の実施の形態および第6の実施の形態である、図12,図14の撮像装置1におけるレンズ群171の表面に反射防止処理部291aと同様の反射防止処理を施すようにしてもよい。
 <13.第13の実施の形態>
 第4の実施の形態においては、IRCF14の上にレンズ群16の最下位層のレンズ131が設けられる例について説明してきたが、赤外光カットの機能と、最下位層のレンズ131と同様の機能とを備えた構成で置き換えるようにしてもよい。
 図21は、図9の撮像装置1におけるIRCF14とレンズ群16の最下位層のレンズ131とに代えて、赤外光カット機能と、レンズ群16の最下位層のレンズと同様の機能とを備えた赤外光カットレンズを設けるようにした撮像装置1の構成例を示している。
 すなわち、図21の撮像装置1において、図9の撮像装置1と異なる点は、IRCF14とレンズ群16の最下位層のレンズ131に代えて、赤外光カット機能付きの赤外光カットレンズ301が設けられている点である。
 このような構成においても、図9の撮像装置1と同様に、フレアやゴーストの発生を抑制することが可能となる。
 また、赤外光カットレンズ301は、赤外光カット機能と、レンズ群16の最下位層のレンズ131としての機能とを兼ね備えた構成であるため、IRCF14とレンズ131とをそれぞれ個別に設ける必要がないので、撮像装置1の装置構成を、より小型化および低背化することが可能となる。また、第4の実施の形態である、図12の撮像装置1におけるレンズ群171とIRCF14に代えて、赤外光カット機能と、レンズ群16の最下位層の複数のレンズからなるレンズ群171としての機能とを兼ね備えた赤外光カットレンズに置き換えるようにしてもよい。
 <14.第14の実施の形態>
 固体撮像素子11の受光面の辺縁部からは、迷光が入り込みやすいことが知られている。そこで、固体撮像素子11の受光面の辺縁部にブラックマスクを施して、迷光の侵入を抑制することでフレアやゴーストの発生を抑制するようにしてもよい。
 図22の左部は、図18の撮像装置1におけるガラス基板12に代えて、固体撮像素子11の受光面の辺縁部を遮光するブラックマスク321aを設けたガラス基板321を設けるようにした撮像装置1の構成例を示している。
 すなわち、図22の左部の撮像装置1において、図18の撮像装置1と異なる点は、ガラス基板12に代えて、図22の右部で示されるように、辺縁部Z2に遮光膜からなるブラックマスク321aが施されたガラス基板321が設けられている点である。ブラックマスク321aは、フォトリソグラフィなどによりガラス基板321に施される。尚、図22の右部におけるガラス基板321の中心部Z1にはブラックマスクが施されていない。
 このような構成においても、図9の撮像装置1と同様に、フレアやゴーストの発生を抑制することが可能となる。
 また、ガラス基板321は、辺縁部Z2にブラックマスク321aが施されているので、辺縁部からの迷光の侵入を抑制することができ、迷光に起因するフレアやゴーストの発生を抑制することが可能となる。
 尚、ブラックマスク321aについては、ガラス基板321のみならず、固体撮像素子11に迷光が入らないようにすることができれば、その他の構成に設けるようにしてもよく、例えば、赤外光カット機能を備えた有機多層膜の塗布剤251やレンズ131に設けられるようにしてもよいし、IRCF14、IRCFガラス基板14’、ガラス基板231、レンズ群171、レンズ271,291、赤外光カット樹脂211、赤外光カットレンズ301等に設けられるようにしてもよい。尚、この際、表面の平坦性が低く、フォトリソグラフィによりブラックマスクを施すことができない場合については、例えば、インクジェットにより平坦性の低い表面にブラックマスクを施すようにしてもよい。
 以上の如く、本開示によれば、小型化に伴う光の固体撮像素子からの内乱反射に起因するフレア、およびゴーストを低減することが可能になると共に、撮像装置の性能を落とすことなく、高画素化、高画質化、および小型化を実現することが可能となる。
 <15.第15の実施の形態>
 以上においては、方形状の固体撮像素子11上にレンズ131,271,291、レンズ群171、または、赤外光カットレンズ301を接着する、または貼り付ける等により接合する例について説明してきた。
 しかしながら、方形状のレンズ131,271,291、レンズ群171、および、赤外光カットレンズ301のいずれかが、略同サイズの固体撮像素子11上に接着される、または貼り付けられると、角部近傍が剥がれ易くなり、レンズ131の角部の剥がれにより、入射光が固体撮像素子11に適切に入射せず、フレアやゴーストが発生してしまう恐れがある。
 そこで、方形状のレンズ131,271,291、レンズ群171、および、赤外光カットレンズ301のいずれかが、固体撮像素子11に接着される、または、貼り付けられる場合、固体撮像素子11の外形寸法よりも小さな外形寸法に設定し、さらに、レンズの中央付近に有効領域を設定すると共に外周部に非有効領域を設定することにより、剥がれ難く、または、端部が多少剥がれても有効に入射光を集光できるようにしてもよい。
 すなわち、レンズ131が、固体撮像素子11上に設けられたガラス基板12に接着される、または、貼り付けられる場合、例えば、図23で示されるように、レンズ131の外形寸法を固体撮像素子11上のガラス基板12よりも小さくし、かつ、レンズ131の外周部に非有効領域131bが設定され、その内側に有効領域131aが設定されるようにする。尚、固体撮像素子11上には、ガラス基板12に代えてガラス基板231が設けられるようにしてもよい。
 また、図23の構成は、図9における撮像装置1の一体化構成部10内のIRCF14と接着剤15が省略された構成となっているが、説明の便宜上省略したのみであり、当然のことながらレンズ131とガラス基板12との間に設けられるようにしてもよいものである。
 さらに、ここで、有効領域131aとは、レンズ131の入射光が入射する領域のうち、非球面形状であって、固体撮像素子11の光電変換可能な領域に入射光を集光するように有効に機能する領域である。換言すれば、有効領域131aは、非球面形状のレンズ構造が形成された同心円状の構造であって、レンズ外周部と外接する領域であって、入射光を固体撮像素子11の光電変換可能な撮像面に集光する領域である。
 一方、非有効領域131bとは、レンズ131に入射する入射光を、必ずしも、固体撮像素子11において光電変換される領域に集光するレンズとして機能しない領域である。
 ただし、非有効領域131bにおいて、有効領域131aとの境界においては、一部非球面形状のレンズとして機能する構造を延長した構造とすることが望ましい。このように、レンズとして機能する構造が、非有効領域131bであって、有効領域131aとの境界付近に延長して設けられることにより、レンズ131が固体撮像素子11上のガラス基板12に接着される、または、貼り付けられるときに位置ズレが生じても適切に入射光を固体撮像素子11の撮像面に集光させることが可能となる。
 尚、図23においては、固体撮像素子11上のガラス基板12のサイズが垂直方向(Y方向)に高さVs×水平方向(X方向)に幅Hsであり、固体撮像素子11上のガラス基板12の内側に、固体撮像素子11(ガラス基板12)よりも小さい、垂直方向に高さVn×水平方向に幅Hnのサイズからなるレンズ131が、中央部分に接着される、または貼り付けられる。さらに、レンズ131の外周部には、レンズとして機能しない非有効領域131bが設定され、その内側に垂直方向に高さVe×水平方向に幅Heのサイズからなる有効領域131aが設定される。
 換言すれば、水平方向の幅、および垂直方向の高さのいずれにおいても、レンズ131の有効領域131aの幅および長さ<非有効領域131bの幅および長さ<固体撮像素子11(上のガラス基板12)の外形サイズの幅および長さの関係となり、レンズ131、有効領域131aおよび非有効領域131bのそれぞれの中心位置は略同一である。
 また、図23においては、図中上部に固体撮像素子11上のガラス基板12にレンズ131を接着、または貼り付けたときの光の入射方向側から見た上面図が示されており、図中左下部に、固体撮像素子11上のガラス基板12にレンズ131を接着、または貼り付けたときの外観斜視図が示されている。
 さらに、図23の図中右下部には、固体撮像素子11上のガラス基板12にレンズ131を接着、または貼り付けたときの外観斜視図の端部におけるレンズ131の側面部とガラス基板12との境界B1、非有効領域131bの外側の境界B2、および有効領域131aの外側と非有効領域131bの内側との境界B3が示されている。
 ここで、図23においては、レンズ131の側面端部は、固体撮像素子11上のガラス基板12に対して垂直である例が示されている。このため、図23の上面図においては、非有効領域131bの外側境界B2は、レンズ131の上面部に形成され、有効領域131aと非有効領域131bとの境界B1とは、レンズ131の下面部に形成されるため、同一のサイズとされる。これにより、図23の上部においては、レンズ131の外周部(境界B1)と、非有効領域131bの外周部(境界B2)とは同一の外形として表現される。
 このような構成により、レンズ131の外周部となる側面と、固体撮像素子11上のガラス基板12の外周部との間には空間ができるので、レンズ131の側面部と他の物体との干渉を抑制することが可能となり、固体撮像素子11上のガラス基板12から剥がれ難くい構成とすることが可能となる。
 また、レンズ131の有効領域131aが、非有効領域131b内に設定されることにより、周辺部が多少剥がれるようなことがあっても、適切に入射光を固体撮像素子11の撮像面に集光させることが可能となる。また、レンズ131の剥がれが発生すると界面反射が大きくなり、フレアやゴーストが悪化するので、剥がれを抑制することで、結果として、フレアやゴーストの発生を抑制することが可能となる。
 尚、図23においては、レンズ131が固体撮像素子11上のガラス基板12に接着される、または、貼り付けられる例について説明してきたが、当然のことながら、レンズ271,291、レンズ群171、および、赤外光カットレンズ301のいずれであってもよい。
 <レンズの外形形状の変形例>
 以上においては、レンズ131の中央部に有効領域131aが設定され、その外周部に非有効領域131bが設定され、さらに、有効領域131aは、固体撮像素子11(上のガラス基板12)の外周サイズよりも小さなサイズとする例であって、レンズ131の外形形状の四隅がいずれも鋭角状の形状により構成される例について説明してきた。
 しかしながら、レンズ131のサイズが固体撮像素子11(上のガラス基板12)のサイズよりも小さく設定され、レンズ131の中央部に有効領域131aが設定されて、その外周部に非有効領域131bが設定されれば、外形形状は、その他の形状であってもよい。
 すなわち、図24の左上部(図23に対応)で示されるように、レンズ131の外形形状における四隅の領域Z301は、鋭角状の形状から構成されるようにしてもよい。また、図24の右上部のレンズ131’で示されるように、四隅の領域Z302は、鈍角からなる多角形のような形状であってもよい。
 また、図24の左中部のレンズ131’’で示されるように、外形形状における四隅の領域Z303が、円形のような形状であってもよい。
 さらに、図24の右中部のレンズ131’’’で示されるように、外形形状における四隅の領域Z304が、四隅から小さな方形部が突出した形状であってもよい。また、突出した形状は、方形以外の形状であってもよく、例えば、円形、楕円形、多角形等の形状であってもよい。
 また、図24の左下部のレンズ131’’’’で示されるように、外形形状における四隅の領域Z305が、方形状に凹んだ形状であってもよい。
 さらに、図24の右下部のレンズ131’’’’’で示されるように、有効領域131aは方形状とし、非有効領域131bの外周部は円形とするようにしてもよい。
 すなわち、レンズ131の角部は、鋭角であるほどガラス基板12に対して剥がれ易くなり、光学的に悪影響を及ぼす恐れがある。そこで、図24のレンズ131’乃至131'''''で示されるように、角部を、90度よりも鈍角となる多角形からなる形状、ラウンド状、凹部、または凸部を付与した形状等にすることで、レンズ131を、ガラス基板12から剥がれ難い構成とし、光学的に悪影響を及ぼすリスクを低減させることが可能となる。
 <レンズ端部の構造の変形例>
 以上においては、レンズ131の端部が、固体撮像素子11の撮像面に対して垂直に形成される例について説明してきた。しかしながら、レンズ131のサイズが固体撮像素子11のサイズよりも小さく設定され、レンズ131の中央部に有効領域131aが設定されて、その外周部に非有効領域131bが設定されれば、その他の形状で形成されていてもよい。
 すなわち、図25の左上部で示されるように、非有効領域131bにおける、有効領域131aとの境界において、非球面のレンズとしての有効領域131aと同様の構成が延長され、非有効領域131bの端部Z331で示されるように、端部が垂直に形成されてもよい(図23の構成に対応)。
 また、図25の左から2番目の上部で示されるように、非有効領域131bにおける、有効領域131aとの境界において、非球面のレンズとしての有効領域131aと同様の構成が延長され、非有効領域131bの端部Z332で示されるように、端部がテーパ形状に形成されてもよい。
 さらに、図25の左から3番目の上部で示されるように、非有効領域131bにおける、有効領域131aとの境界において、非球面のレンズとしての有効領域131aと同様の構成が延長され、非有効領域131bの端部Z333で示されるように、端部がラウンド状に形成されてもよい。
 また、図25の右上部で示されるように、非有効領域131bにおける、有効領域131aとの境界において、非球面のレンズとしての有効領域131aと同様の構成が延長され、非有効領域131bの端部Z334で示されるように、端部が多段構造の側面として形成されてもよい。
 さらに、図25の左下部で示されるように、非有効領域131bにおける、有効領域131aとの境界において、非球面のレンズとしての有効領域131aと同様の構成が延長され、非有効領域131bの端部Z335で示されるように、端部に水平方向の平面部を備え、有効領域131aよりも、入射光の入射方向と対向する方向に突出した土手状の突出部が形成された上で、突出部の側面が垂直に形成されてもよい。
 また、図25の左から2番目の下部で示されるように、非有効領域131bにおける、有効領域131aとの境界において、非球面のレンズとしての有効領域131aと同様の構成が延長され、非有効領域131bの端部Z336で示されるように、端部に水平方向の平面部を備え、有効領域131aよりも、入射光の入射方向と対向する方向に突出した土手状の突出部が形成された上で、突出部の側面がテーパ形状に形成されてもよい。
 さらに、図25の左から3番目の下部で示されるように、非有効領域131bにおける、有効領域131aとの境界において、非球面のレンズとしての有効領域131aと同様の構成が延長され、非有効領域131bの端部Z337で示されるように、端部に水平方向の平面部を備え、有効領域131aよりも、入射光の入射方向と対向する方向に突出した土手状の突出部が形成された上で、突出部の側面がラウンド形状に形成されてもよい。
 また、図25の右下部で示されるように、非有効領域131bにおける、有効領域131aとの境界において、非球面のレンズとしての有効領域131aと同様の構成が延長され、非有効領域131bの端部Z338で示されるように、端部に水平方向の平面部を備え有効領域131aよりも、入射光の入射方向と対向する方向に突出した土手状の突出部が形成された上で、突出部の側面が多段構造に形成されてもよい。
 尚、図25の上段には、レンズ131の端部に水平方向の平面部を備え、有効領域131aよりも、入射光の入射方向と対向する方向に突出した土手状の突出部が設けられていない構造例が示され、下段には、レンズ131の端部に水平方向の平面部を備えた突出部が設けられていない構造例が示されている。また、図25の上段および下段は、いずれも左から順に、レンズ131の端部がガラス基板12に対して垂直に構成された例、端部がテーパ形状に構成された例、端部がラウンド形状に構成された例、および端部が複数の側面が多段に構成された例が示されている。
 また、図26の上部で示されるように、非有効領域131bにおける、有効領域131aとの境界において、非球面のレンズとしての有効領域131aと同様の構成が延長され、非有効領域131bの端部Z351で示されるように、突出部がガラス基板12に対して垂直に形成され、さらに、固体撮像素子11上のガラス基板12との境界に方形状の境界構造Esを残すように構成するようにしてもよい。
 さらに、図26の下部で示されるように、非有効領域131bにおける、有効領域131aとの境界において、非球面のレンズとしての有効領域131aと同様の構成が延長され、非有効領域131bの端部Z352で示されるように、突出部がガラス基板12に垂直に形成され、さらに、固体撮像素子11上のガラス基板12との境界にラウンド形状の境界構造Erを残すように構成するようにしてもよい。
 方形状の境界構造Esおよびラウンド形状の境界構造Erについては、いずれにおいても、レンズ131とガラス基板12との接触面積を増大させることにより、レンズ131とガラス基板12とをより密着させて接合させることが可能となり、結果として、レンズ131のガラス基板12からの剥がれを抑制することが可能となる。
 尚、方形状の境界構造Esおよびラウンド形状の境界構造Erについては、端部がテーパ形状に形成される場合、ラウンド形状に形成される場合、および多段構造に形成される場合のいずれにおいて使用するようにしてもよい。
 また、図27で示されるように、非有効領域131bにおける、有効領域131aとの境界において、非球面のレンズとしての有効領域131aと同様の構成が延長され、非有効領域131bの端部Z371で示されるように、レンズ131の側面がガラス基板12に垂直に形成され、さらに、その外周部のガラス基板12上にレンズ131と略同一の高さで、所定の屈折率の屈折膜351が構成されるようにしてもよい。
 これにより、例えば、屈折膜351が所定の屈折率よりも高屈折率である場合、図27の上部の実線の矢印で示されるように、レンズ131の外周部からの入射光がある場合、レンズ131の外側に反射すると共に、点線の矢印で示されるように、レンズ131の側面部への入射光を低減する。結果として、レンズ131への迷光の侵入を抑制するので、フレアやゴーストの発生を抑制する。
 また、屈折膜351が所定の屈折率よりも低屈折率である場合、図27の下部の実線の矢印で示されるように、固体撮像素子11の入射面に入射せず、レンズ131の側面からレンズ131外に透過しようとする光を透過させると共に、点線の矢印で示されるように、レンズ131の側面からの反射光を低減させる。結果として、レンズ131への迷光の侵入を抑制するので、フレアやゴーストの発生を抑制することが可能となる。
 さらに、図27においては、屈折膜351は、ガラス基板12上のレンズ131と同一の高さに、かつ、端部が垂直に形成される例について説明してきたが、それ以外の形状であってもよい。
 例えば、図28の左上部の領域Z391で示されるように、屈折膜351は、ガラス基板12上の端部にテーパ形状が形成され、かつ、レンズ131の端部の高さよりも高い厚みを持った構成とするようにしてもよい。
 また、例えば、図28の中央上部の領域Z392で示されるように、屈折膜351は、端部にテーパ形状が形成され、かつ、レンズ131の端部の高さよりも高くなるような厚みを持った構成とし、さらに、一部がレンズ131の非有効領域131bに被るような構成にしてもよい。
 さらに、例えば、図28の右上部の領域Z393で示されるように、屈折膜351は、レンズ131の端部の高さからガラス基板12の端部にかけてテーパ形状が形成される構成にしてもよい。
 また、例えば、図28の左下部の領域Z394で示されるように、屈折膜351は、ガラス基板12の端部にテーパ形状が形成され、かつ、レンズ131の端部の高さよりも低い厚みを持った構成にしてもよい。
 さらに、例えば、図28の右下部の領域Z395で示されるように、屈折膜351は、レンズ131の端部の高さよりもガラス基板12に向かって凹状で、かつ、ラウンド形状に形成される構成にしてもよい。
 図27,図28のいずれの構成においても、レンズ131への迷光の侵入を抑制するので、フレアやゴーストの発生を抑制することが可能となる。
 <16.第16の実施の形態>
 以上においては、レンズ131がガラス基板12に対して剥がれ難い構成にしたり、迷光の侵入を抑制する構成にすることで、フレアやゴーストを低減する例について説明してきたが、加工に際して発生する接着剤のバリを抑制する構成にすることで、フレアやゴーストを低減するようにしてもよい。
 すなわち、図29の上段で示されるように、固体撮像素子11上にIRCF14が形成され、IRCF14上に接着剤15によりガラス基板12が接着される構成の場合(例えば、図15の第7の実施の形態の構成の場合)について考える。尚、図29の構成は、図15の撮像装置1における一体化構成部10におけるレンズ以外の構成に対応する。
 この場合、IRCF14は、所定の厚さの膜厚が必要となるが、一般的にIRCF14の材料の高粘度化は困難であり、一度に所望の膜厚を形成することはできない。しかしながら、重ね塗りを行うと、マイクロボイドや泡がみが発生してし、光学特性を劣化させてしまう恐れがあった。
 また、ガラス基板12は、固体撮像素子11上にIRCF14が形成された後、接着剤15により接着されることになるが、IRCF14の硬化収縮により、反りが生じるため、ガラス基板12とIRCF14との接合不良が発生する恐れがある。さらに、ガラス基板12のみではIRCF14の反りを強制できず、デバイス全体として反りが生じて、光学特性を劣化させる恐れがあった。
 さらに、特に、接着剤15を介して、ガラス基板12とIRCF14とが接合される場合、個片化に際して、図29の上部の範囲Z411で示されるように、接着剤15に起因する樹脂バリが発生してしまい、ピックアップ等、実装時において工作精度を低減させてしまう恐れがあった。
 そこで、図29の中部で示されるように、IRCF14をIRCF14-1,14-2とするように2分割し、IRCF14-1,14-2間を接着剤15により接着する。
 このような構成により、IRCF14-1,14-2の成膜に際しては、それぞれを分割して薄く製膜することが可能となるので、所望とする分光特性を得るための厚膜形成が容易(分割形成)となる。
 また、ガラス基板12を固体撮像素子11に接合する際、固体撮像素子11上の段差(PAD等のセンサ段差)をIRCF14-2で平坦化して接合することができるので、接着剤15を薄膜化することが可能となり、結果として撮像装置1を低背化することが可能となる。
 さらに、ガラス基板12と固体撮像素子11とのそれぞれに形成されたIRCF14-1,14-2により、反りが相殺され、デバイスチップの反りを低減することが可能となる。
 また、ガラスの弾性率は、IRCF14-1,14-2よりも高い。IRCF14-1,14-2の弾性率を、接着剤15の弾性率よりも高くすることで、個片化時に低弾性の接着剤15の上下を、接着剤15よりも弾性率の高いIRCF14-1,14-2で覆うことになるので、図29の上部の範囲Z412で示されるように、個片化(Expand)時の樹脂バリの発生を抑制することが可能となる。
 さらに、図29の下部で示されるように、接着剤としての機能を備えたIRCF14’-1、14’-2を形成し、相互に対向するようにして直接貼り合わせるようにしてもよい。このようにすることで、個片化時に生じる接着剤15の樹脂バリの発生を抑制することができる。
 <製造方法>
 次に、図30を参照して、図29の中部で示される固体撮像素子11に対して、IRCF14-1,14-2により接着剤15を挟んで、ガラス基板12を接合する製造方法について説明する。
 第1の工程において、図30の左上部で示されるように、ガラス基板12に対して、IRCF14-1が塗布されて形成される。また、固体撮像素子11に対して、IRCF14-2が塗布されて形成される。尚、図30の左上部においては、ガラス基板12は、IRCF14-2が塗布されて形成された後、上下が反転された状態で描かれている。
 第2の工程において、図30の中央上部で示されるように、IRCF14-2上に接着剤15が塗布される。
 第3の工程において、図30の右上部で示されるように、図30の中央上部で示された接着剤15上に、ガラス基板12のIRCF14-1が、接着剤15が塗布された面に対向するように貼り合わせられる。
 第4の工程において、図30の左下部で示されるように、固体撮像素子11の裏面側に電極が形成される。
 第5の工程において、図30の中央下部で示されるように、ガラス基板12が研磨により薄膜化される。
 そして、第5の工程の後に、ブレード等により端部が切断されることにより、個片化されて、撮像面にIRCF14-1,14-2が積層され、さらに、その上にガラス基板12が形成された固体撮像素子11が完成される。
 以上の工程により、接着剤15が、IRCF14-1,14-2に挟み込まれることになるので、個片化に伴うバリの発生を抑制することが可能となる。
 また、IRCF14-1,14-2は、必要な膜厚をそれぞれ半分ずつ形成することが可能となり、重ね塗りが必要な厚さを薄くすることができる、または、重ね塗りが不要となるので、マイクロボイドや泡がみの発生を抑制してし、光学特性の劣化を低減することが可能となる。
 さらに、IRCF14-1,14-2のそれぞれの膜厚が薄くなるので、硬化収縮による反りを低減させることが可能となり、ガラス基板12とIRCF14との接合不良の発生を抑制することが可能となり、反りに起因する光学特性の劣化を抑制させることが可能となる。
 尚、図29の下部で示されるように、接着剤の機能を備えたIRCF14’-1,14’-2が用いられる場合については、接着剤15を塗布する工程が省略されるのみであるので、その説明は省略する。
 <個片化後の側面形状の変形例>
 上述した製造方法により、IRCF14-1,14-2が形成され、さらに、ガラス基板12が形成された固体撮像素子11を個片化するにあたっては、端部をブレードなどにより側面断面が撮像面に対して垂直に切断されることが前提とされている。
 しかしながら、固体撮像素子11上に形成されるIRCF14-1,14-2、およびガラス基板12の側面断面の形状を調整することにより、ガラス基板12、IRCF14-1,14-2、および接着剤15に起因する脱落ゴミによる影響を、さらに低減させるようにしてもよい。
 例えば、図31の左上部で示されるように、固体撮像素子11の水平方向の外形形状が最も大きく、ガラス基板12、IRCF14-1,14-2、および接着剤15がいずれも等しく、かつ、固体撮像素子11よりも小さくなるように側面断面が形成されてもよい。
 さらに、図31の右上部で示されるように、固体撮像素子11の水平方向の外形形状が最も大きく、IRCF14-1,14-2および接着剤15の外形形状が等しく、かつ、固体撮像素子11の次に大きく、ガラス基板12の外形形状が最も小さくなるように側面断面が形成されてもよい。
 また、図31の左下部で示されるように、水平方向の外形形状が大きい順に、固体撮像素子11、IRCF14-1,14-2、接着剤15、ガラス基板12となるように、側面断面が形成されてもよい。
 また、図31の右下部で示されるように、固体撮像素子11の水平方向の外形形状が最も大きく、次に、ガラス基板12の外形形状が大きく、IRCF14-1,14-2および接着剤15の外形形状が等しく、かつ、最も小さくなるように側面断面が形成されてもよい。
 <図31の左上部の個片化方法>
 次に、図32を参照して、図31の左上部の個片化方法について説明する。
 図32の上段においては、図31の左上部で示される側面断面を説明する図が示されている。すなわち、図32の上段においては、固体撮像素子11の水平方向の外形形状が、最も大きく、その次に、ガラス基板12、IRCF14-1,14-2、および接着剤15がいずれも等しく大きく、固体撮像素子11よりも小さい側面断面が示されている。
 ここで、図32の中段を参照して、図31の左上部で示される側面断面の形成方法について説明する。尚、図32の中段は、個片化により切断される、隣接する固体撮像素子11の境界を側面から見た拡大図である。
 第1の工程において、隣接する固体撮像素子11の境界において、所定の幅Wb(例えば、100μm程度)のブレードにより、ガラス基板12、並びにIRCF14-1,14-2および接着剤15からなる範囲Zbが、IRCF14-1の表層から深さLc1まで切り込まれる。
 ここで、図32の中央部において、IRCF14-1の表層から深さLcとなる位置は、固体撮像素子11の表層であって、CuCu接合等により形成された配線層11Mまでの位置とされているが、固体撮像素子11の表層に達していればよい。したがって、深さLc1については、図6の半導体基板81の表層まで切り込まれるようにしてもよい。
 また、図32の中央部で示されるように、ブレードは、一点鎖線で示される、隣接する固体撮像素子11の中心位置にセンタリングされた状態で境界に切り込まれる。また、図中において、幅WLAは、隣接する2個の固体撮像素子11の端部に形成される配線層が形成される幅である。さらに、固体撮像素子11の一方のチップのスクライブラインの中央までの幅が幅Wcであり、ガラス基板12の端部までの幅が幅Wgである。
 さらに、範囲Zbは、ブレードの形状に対応しており、上部がブレードの幅Wbとされ、下部が半球面状の形状で表現されているが、ブレードの形状に対応する。
 第2の工程において、例えば、固体撮像素子11のSi基板(図6の半導体基板81)はドライエッチング、レーザダイシング、またはブレードにより、ガラス基板12を切り込んだブレードよりも薄い所定の幅Wd(例えば、35μm程度)からなる範囲Zhが切断されることにより、固体撮像素子11が個片化される。ただし、レーザダイシングの場合については、幅Wdは略ゼロとなる。また、切断形状は、ドライエッチング、レーザダイシング、またはブレードにより所望の形状に調整することができる。
 結果として、図32の下段で示されるように、固体撮像素子11の水平方向の外形形状が最も大きく、ガラス基板12、IRCF14-1,14-2、および接着剤15がいずれも等しく、かつ、固体撮像素子11よりも小さくなるように側面断面が形成される。
 尚、図32の下段においては、範囲Z431で示されるように、IRCF14-2の固体撮像素子11との境界付近の水平方向の一部が、IRCF14-1の水平方向の幅よりも広く描かれており、図32の上段におけるガラス基板12、IRCF14-1,14-2、および接着剤15の側面断面の形状とは異なる。
 しかしながら、ブレードによる切断形状をデフォルメして描いた結果であり、ドライエッチング、レーザダイシング、またはブレードにより切断形状を調整することで、実質的に、図32の下段における構成と、図32の上段における構成とは同一とすることができる。
 また、範囲Zhによる固体撮像素子11を形成するSi基板(図6の半導体基板81)を切断する処理は、範囲Zbの切り込み作業よりも先に実行するようにしてもよく、この際、図32の中段で示される状態に対して、上下反転した状態で作業がなされるようにしてもよい。
 さらに、配線層はブレードダイシング時にクラックや、膜剥がれを起こしやすいので、範囲Zhについては、短パルスレーザでのアブレーション加工により切り込むようにしてもよい。
 <図31の右上部の個片化方法>
 次に、図33を参照して、図31の右上部の個片化方法について説明する。
 図33の上段においては、図31の右上部で示される側面断面を説明する図が示されている。すなわち、図33の上段においては、固体撮像素子11の水平方向の外形形状が最も大きく、IRCF14-1,14-2および接着剤15の外形形状が等しく、かつ、固体撮像素子11の次に大きく、ガラス基板12の外形形状が最も小さくなるように形成された側面断面が示されている。
 ここで、図33の中段を参照して、図31の右上部で示される側面断面の形成方法について説明する。尚、図33の中段は、個片化により切断される、隣接する固体撮像素子11の境界を側面から見た拡大図である。
 第1の工程において、所定の幅Wb1(例えば、100μm程度)のブレードにより、ガラス基板12、並びにIRCF14-1,14-2および接着剤15からなる範囲Zb1が、IRCF14-1の表層から深さLc11まで切り込まれる。
 第2の工程において、所定の幅Wb2(<幅Wb1)のブレードにより、配線層11Mを超える深さとなる、範囲Zb2が切り込まれる。
 第3の工程において、例えば、Si基板(図6の半導体基板81)はドライエッチング、レーザダイシング、またはブレードにより、幅Wb2よりも薄い所定の幅Wd(例えば、35μm程度)からなる範囲Zhが切断されることにより、固体撮像素子11が個片化される。ただし、レーザダイシングの場合については、幅Wdは略ゼロとなる。また、切断形状は、ドライエッチング、レーザダイシング、またはブレードにより所望の形状に調整することができる。
 結果として、図33の下段で示されるように、固体撮像素子11の水平方向の外形形状が最も大きく、IRCF14-1,14-2および接着剤15の外形形状が等しく、かつ、固体撮像素子11の次に大きく、ガラス基板12が最も小さくなるように側面断面が形成される。
 尚、図33の下段においては、範囲Z441で示されるように、IRCF14-1の水平方向の一部が、ガラス基板12の水平方向の幅と同一に描かれている。また、範囲Z442で示されるように、IRCF14-2の水平方向の一部が、IRCF14-1の水平方向の幅よりも広く描かれている。
 従って、図33の下段におけるガラス基板12、IRCF14-1,14-2、および接着剤15の側面断面の形状は、図33の上段における形状と異なる。
 しかしながら、ブレードによる切断形状をデフォルメして描いた結果であり、ドライエッチング、レーザダイシング、またはブレードにより切断形状を調整することで、実質的に、図32の下段における構成と、図32の上段における構成とは同一とすることができる。
 また、範囲Zhによる固体撮像素子11を形成するSi基板(図6の半導体基板81)を切断する処理は、範囲Zb1,Zb2の切り込み作業よりも先に実行するようにしてもよく、この際、図33の中段で示される状態に対して、上下反転した状態で作業がなされるようにしてもよい。
 さらに、配線層はブレードダイシング時にクラックや、膜剥がれを起こしやすいので、範囲Zhについては、短パルスレーザでのアブレーション加工により切り込むようにしてもよい。
 <図31の左下部の個片化方法>
 次に、図34を参照して、図31の左下部の個片化方法について説明する。
 図34の上段においては、図31の左下部で示される側面断面を説明する図が示されている。すなわち、図34の上段において、外形形状の大きさは、固体撮像素子11の水平方向の外形形状、IRCF14-1,14-2、接着剤15、ガラス基板12の順に大きい側面断面が示されている。
 ここで、図34の中段を参照して、図31の右上部で示される側面断面の形成方法について説明する。尚、図34の中段は、個片化により切断される、隣接する固体撮像素子11の境界を側面から見た拡大図である。
 第1の工程において、所定の幅Wb1(例えば、100μm程度)のブレードにより、ガラス基板12、並びにIRCF14-1,14-2および接着剤15からなる範囲Zbが、IRCF14-2の表層から深さLc21まで切り込まれる。
 第2の工程において、所定の幅Wb2(<幅Wb1)だけレーザによるアブレーション加工を施し、配線層11Mを超える深さまでの、範囲ZLが切り込まれる。
 この工程において、IRCF14-1,14-2、および接着剤15は、加工表面付近において、レーザ光の吸収により、熱収縮を起こすことで、波長依存性により、接着剤15が、IRCF14-1,14-2の切断面に対して後退し、凹んだ形状となる。
 第3の工程において、例えば、Si基板(図6の半導体基板81)はドライエッチング、レーザダイシング、またはブレードにより、幅Wb2よりも薄い所定の幅Wd(例えば、35μm程度)からなる範囲Zhが切断されることにより、固体撮像素子11が個片化される。ただし、レーザダイシングの場合については、幅Wdは略ゼロとなる。また、切断形状は、ドライエッチング、レーザダイシング、またはブレードにより所望の形状に調整することができる。
 結果として、図34の下段で示されるように、固体撮像素子11の水平方向の外形形状が最も大きく、次に、IRCF14-1,14-2の外形形状が大きく、さらに、続いて接着剤15の外形形状が大きく、ガラス基板12が最も小さくなるように側面断面が形成される。すなわち、図34の下段における範囲Z452で示されるように、接着剤15の外形形状は、IRCF14-1,14-2の外形形状よりも小さくなる。
 尚、図34の下段においては、範囲Z453で示されるように、IRCF14-2の水平方向の一部が、IRCF14-1の水平方向の幅よりも広く描かれている。また、範囲Z451で示されるように、IRCF14-1の水平方向の一部が、ガラス基板12の水平方向の幅と同一に描かれている。
 従って、図34の下段におけるガラス基板12、IRCF14-1,14-2、および接着剤15の側面断面の形状は、図34の上段における形状と異なる。
 しかしながら、ブレードによる切断形状をデフォルメして描いた結果であり、ドライエッチング、レーザダイシング、またはブレードにより切断形状を調整することで、実質的に、図32の下段における構成と、図32の上段における構成とは同一とすることができる。
 また、範囲Zhによる固体撮像素子11を形成するSi基板(図6の半導体基板81)を切断する処理は、範囲Zb,ZLの切り込み作業よりも先に実行するようにしてもよく、この際、図34の中段で示される状態に対して、上下反転した状態で作業がなされるようにしてもよい。
 さらに、配線層はブレードダイシング時にクラックや、膜剥がれを起こしやすいので、範囲Zhについては、短パルスレーザでのアブレーション加工により切り込むようにしてもよい。
 <図31の右下部の個片化方法>
 次に、図35を参照して、図31の右下部の個片化方法について説明する。
 図35の上段においては、図31の右下部で示される側面断面を説明する図が示されている。すなわち、図35の上段においては、固体撮像素子11の水平方向の外形形状が最も大きく、次に、ガラス基板12の外形形状が大きく、IRCF14-1,14-2および接着剤15の外形形状が等しく、かつ、最も小さい側面断面が示されている。
 ここで、図35の中段を参照して、図31の右下部で示される側面断面の形成方法について説明する。尚、図35の中段は、個片化により切断される、隣接する固体撮像素子11の境界を側面から見た拡大図である。
 第1の工程において、レーザを用いた、いわゆるステルス(レーザ)ダイシング加工により、実質的に、ほぼ幅Ldがゼロとなる範囲Zs1のガラス基板12が、切り込まれる。
 第2の工程において、所定の幅Wabだけレーザによるアブレーション加工が施され、IRCF14-1,14-2、および固体撮像素子11における配線層11Mを超える深さとなる範囲ZLが切り込まれる。
 この工程においては、レーザを用いたアブレーション加工を調整して、IRCF14-1,14-2、および接着剤15の切断面が同一になるように加工される。
 第3の工程において、レーザを用いた、いわゆるステルス(レーザ)ダイシング加工により、幅が略ゼロとなる範囲Zs2が切り込まれて、固体撮像素子11が個片化される。この際、アブレーションにより生じた有機物は、ステルスダイシング加工された溝を介して外部に排出される。
 結果として、図35の下段における範囲Z461,Z462で示されるように、固体撮像素子11の水平方向の外形形状が最も大きく、次に、ガラス基板12の外形形状が大きく、IRCF14-1,14-2および接着剤15の外形形状が等しく、かつ、最も小さくなるように側面断面が形成される。
 また、ガラス基板12に対するステルスダイシング加工と、固体撮像素子11に対するステルスダイシング加工の順序は入れ替えるようにしてもよく、この際、図35の中段で示される状態に対して、上下反転した状態で作業がなされるようにしてもよい。
 <反射防止膜の付加>
 以上においては、図36の左上部で示されるように、固体撮像素子11上にIRCF14-1,14-2を接着剤15により接着して形成し、さらに、IRCF14-1上にガラス基板12を形成することで、バリの発生を抑制すると共に、光学特性の低減を抑制する例について説明してきたが、さらに、反射防止機能を備えた付加膜が形成されるようにしてもよい。
 すなわち、例えば、図36の左中部で示されるように、ガラス基板12上に反射防止機能を備えた付加膜371が形成されるようにしてもよい。
 また、例えば、図36の左下部で示されるように、ガラス基板12上、ガラス基板12とIRCF14-1との境界、IRCF14-1と接着剤15との境界、および接着剤15とIRCF14-2との境界のそれぞれに反射防止機能を備えた付加膜371-1乃至371-4が形成されるようにしてもよい。
 また、図36の右上部、右中部、右下部のそれぞれで示されるように、反射防止機能を備えた付加膜371-2,371-4,371-3のうちのいずれかが形成されるようにしてもよいし、これらが組み合わされて形成されてもよい。
 尚、付加膜371,371-1乃至371-4は、例えば、上述したARコート271a、または、反射防止処理部(モスアイ)291aと同等の機能を備えた膜より形成されるようにしてもよい。
 これらの付加膜371,371-1乃至371-4により、不要な光の入射が防止されて、ゴーストやフレアの発生が抑制される。
 <側面部への付加>
 以上においては、ガラス基板12上、ガラス基板12とIRCF14-1との境界、IRCF14-1と接着剤15との境界、および接着剤15とIRCF14-2との境界のそれぞれの少なくともいずれかに反射防止機能を備えた付加膜371-1乃至371-4が形成される例について説明してきたが、側面部に反射防止膜や光吸収膜として機能する付加膜が形成されてもよい。
 すなわち、図37の左部で示されるように、ガラス基板12、IRCF14-1,14-2、接着剤15、および固体撮像素子11の側面断面全体に、反射防止膜、または、光吸収膜などとして機能する付加膜381が形成されるようにしてもよい。
 また、図37の右部で示されるように、固体撮像素子11の側面を除く、ガラス基板12、IRCF14-1,14-2、および接着剤15の側面にのみ、反射防止膜、または、光吸収膜などとして機能する付加膜381が形成されるようにしてもよい。
 いずれにおいても、固体撮像素子11、ガラス基板12、IRCF14-1,14-2、および接着剤15の側面部に付加膜381が設けられることにより、固体撮像素子11への不要な光の入射が防止されて、ゴーストやフレアの発生が抑制される。
 <17.第17の実施の形態>
 以上においては、積層される固体撮像素子11、IRCF14-1、接着剤15、IRCF14-2、および、ガラス基板12のそれぞれの水平方向の大小関係を調整することにより、脱落ゴミを抑制すると共に、フレアやゴーストの発生を抑制する例について説明してきたが、レンズの形状を規定することにより、小型軽量で、かつ、高解像度撮像が可能なレンズを実現してもよい。
 例えば、固体撮像素子11上にガラス基板12が形成されて、その上にARコート271aが形成されたレンズ271に対応するレンズが接合される場合(例えば、図19の撮像装置1における一体化構成部10)について考える。尚、撮像装置1の構成は、図19以外でもよく、例えば、図9における撮像装置1における一体化構成部10におけるレンズ131をレンズ271に代えても同様である。
 すなわち、図38で示されるように、上面からみた重心位置を中心とした同心円状に非球面の凹型のレンズ401(図19のレンズ271に相当)が、固体撮像素子11上のガラス基板12上に形成されているものとする。また、レンズ401には、光が入射する面上にARコート402(上述したARコート271aまたは反射防止処理部291aと同等の機能を備えた膜)が形成され、外周部に突出部401aが形成されているものとする。尚、図38,図39は、図19の撮像装置1における一体化構成部10のうちの固体撮像素子11、ガラス基板12、およびレンズ271が抽出された構成を示している。
 ここで、レンズ401は、図39で示されるように、上面から見た重心位置を中心として非球面の凹型形状となるような、すり鉢状の形状とされている。尚、図39においては、図中の右上部が、図中の左上部の点線で示される方向におけるレンズ401の断面形状が示されており、図中の右下部が、図中の左上部の実線で示される方向におけるレンズ401の断面形状が示されている。
 図39においては、レンズ401の範囲Zeが図39の右上部および右下部において共通の非球面曲面構造とされており、このような形状により固体撮像素子11の撮像面に、図中の上方からの入射光を集光させる有効領域を構成する。
 また、レンズ401は、非球面曲面から構成されることにより、中心位置から光の入射方向と垂直な方向の距離に応じて厚さが変化する。より具体的には、中心位置においては、レンズ厚さは最も薄い厚さDであり、範囲Zeにおける中心から最も離れた位置のレンズ厚さは、最も厚い厚さHとなる。また、ガラス基板12の厚さが、厚さThである場合、レンズ401の最も厚くなる厚さHは、ガラス基板12の厚さThよりも厚く、レンズ401の最も薄くなる厚さDは、ガラス基板12の厚さThよりも薄い。
 すなわち、これらの関係をまとめると、厚さD,H,Thは、厚さH>厚さTh>厚さDの関係を満たしたレンズ401とガラス基板12とが用いられることで、小型軽量で、かつ、高解像度での撮像が可能な撮像装置1(の一体化構成部10)を実現することが可能となる。
 また、ガラス基板12の体積VGが、レンズ401の体積VLよりも小さくなるようにすることで、最も効率よくレンズの体積を形成することが可能となるので、小型軽量で、かつ、高解像度での撮像が可能な撮像装置1を実現することが可能となる。
 <ARコートへの加熱時に発生する応力分布>
 また、以上のような構成により、実装リフロー熱負荷時や信頼性試験時におけるARコート402の膨張や収縮による応力を抑制することができる。
 図40は、図39のレンズ401の外形形状を変化させたときの、実装リフロー熱負荷時のARコート402の膨張や収縮による応力分布を示している。尚、図40における応力分布は、図38で示される範囲Zpで示されるレンズ401の中心位置を基準として水平方向および垂直方向に対して、それぞれの1/2の、全体の1/4の範囲の分布が示されている。
 図40の最左部においては、突出部401aが設けられていないレンズ401Aにおける、実装リフロー熱負荷時のARコート402Aに生じる応力分布が示されている。
 図40の左から2番目においては、図39で示される突出部401aが設けられたレンズ401Bにおける、実装リフロー熱負荷時のARコート402Bに生じる応力分布が示されている。
 図40の左から3番目においては、図39で示される突出部401aの高さが、図39の場合よりも高くされているレンズ401Cにおける、実装リフロー熱負荷時のARコート402Cに生じる応力分布が示されている。
 図40の左から4番目においては、図39で示される突出部401aの幅が、図39の場合よりも拡大されているレンズ401Dにおける、実装リフロー熱負荷時のARコート402Dに生じる応力分布が示されている。
 図40の左から5番目においては、図39で示される突出部401aの外周部の側面に設けられたテーパが、図39の場合よりも拡大されているレンズ401Eにおける、実装リフロー熱負荷時のARコート402Eに生じる応力分布が示されている。
 図40の最右部においては、図39で示される突出部401aが外周部を構成する4辺にのみ設けられたレンズ401Fにおける、実装リフロー熱負荷時のARコート402Fに生じる応力分布が示されている。
 図40で示されるように、最左部で示される突出部401aがないレンズ401AのARコート402Aに生じた応力分布においては、有効領域の外周側において、大きな応力分布が表れているが、突出部401aが形成されたレンズ401B乃至401FのARコート402B乃至402Fについては、ARコート402Aにみられるほど大きな応力分布が存在しない。
 すなわち、レンズ401において突出部401aを設けるようにすることで、実装リフロー熱負荷時において、レンズ401の膨張収縮によるARコート402のクラックの発生を抑制させることが可能となる。
 <レンズ形状の変形例>
 以上においては、図39で示されるような、外周部にテーパが設けられた突出部401aを備えた凹型のレンズ401により、小型軽量で、かつ、高解像での撮像が可能な撮像装置1を構成する例について説明してきた。しかしながら、レンズ401、およびガラス基板12が、厚さD,H,Thは、厚さH>厚さTh>厚さDの関係を満たす限り、レンズ401の形状は他の形状であってもよい。また、体積VG,VLが、体積VG<体積VLの関係を満たせば、より好ましい。
 例えば、図41のレンズ401Gで示されるように、突出部401aより外周側の側面は、ガラス基板12に対して直角をなす構成として、テーパを含まない構成とするようにしてもよい。
 また、図41のレンズ401Hで示されるように、突出部401aより外周側の側面は、ラウンド状のテーパを含む構成とするようにしてもよい。
 さらに、図41のレンズ401Iで示されるように、突出部401aそのものを含まず、側面は、ガラス基板12に対して所定の角をなす直線状のテーパ形状を含む構成とするようにしてもよい。
 また、図41のレンズ401Jで示されるように、突出部401aそのものを含まず、側面は、ガラス基板12に対して直角をなす構成として、テーパ形状を含まない構成とするようにしてもよい。
 さらに、図41のレンズ401Kで示されるように、突出部401aそのものを含まず、側面は、ガラス基板12に対してラウンド状のテーパ形状を含む構成とするようにしてもよい。
 また、図41のレンズ401Lで示されるように、突出部401aそのものを含まず、レンズの側面は、2つの変曲点を有する2段構成とするようにしてもよい。尚、レンズ401Lの詳細な構成については、図42を参照して後述する。また、レンズ401Lの側面については、2つの変曲点を有する2段構成であるので、以降においては、2段側面型レンズとも称する。
 さらに、図41のレンズ401Mで示されるように、側面は、突出部401aを含み、かつ、外形側面に2つの変曲点を有する2段構成とするようにしてもよい。
 また、図41のレンズ401Nで示されるように、突出部401aを含み、側面は、ガラス基板12に対して直角をなす構成として、さらに、ガラス基板12との境界付近に方形状の裾引き部401bを付加するようにしてもよい。
 さらに、図41のレンズ401Nで示されるように、突出部401aを含み、ガラス基板12に対して直角をなす構成として、さらに、ガラス基板12との境界付近にラウンド形状の裾引き部401b’を付加するようにしてもよい。
 <2段側面型レンズの詳細な構成>
 ここで、図42を参照して、図41の2段側面型レンズ401Lの詳細な構成について説明する。
 図42は、固体撮像素子11上にガラス基板12が形成され、その上に2段側面型レンズ401Lが設けられたときに、様々な方向から見たときの外観斜視図が示されている。ここで、図42の中央上部においては、固体撮像素子11の図中右側の辺から時計回りに辺LA,LB,LC,LDが設定されている。
 そして、図42の右部は、図42の中央上部における視線E1方向から固体撮像素子11とレンズ401Lを見たときの、固体撮像素子11の辺LA,LBの角部周辺の斜視図を示している。また、図42の中央下部は、図42の中央上部における視線E2方向から固体撮像素子11とレンズ401Lを見たときの、固体撮像素子11の辺LA,LBの角部周辺の斜視図を示している。さらに、図42の左部は、図42の中央部における視線E3方向から固体撮像素子11とレンズ401Lを見たときの、固体撮像素子11の辺LB,LCの角部周辺の斜視図を示している。
 すなわち、2段側面型レンズ401Lにおいては、長辺となる辺LB(,LD(図示せず)の中央部は、凹型レンズとなる2段側面型レンズ401Lの上面から見て、レンズ厚さが最も薄くなるレンズとして機能する円形における重心位置に近い位置となるため、レンズが薄くなり、点線で囲まれるように稜線が緩やかな曲線形状とされる。
 これに対して、短辺となる辺LA,LCの中央部は、重心位置から遠い位置になるため、レンズが厚く構成されることにより、稜線は直線形状とされる。
 <2つの変曲点と2段の側面>
 また、2段側面型レンズ401Lは、図43で示されるように、断面形状において、有効領域Zeの外側に設けられた非有効領域の側面が、2段構成とされ、側面のそれぞれの平均面X1,X2がずれて形成され、2段の側面による段差が生じる位置に断面形状における変曲点P1,P2が形成される。
 変曲点P1,P2は、固体撮像素子11に近い位置から順に凹凸の順序で変化する。
 また、変曲点P1,P2のガラス基板12からの高さは、いずれも2段側面型レンズ401Lにおける最も薄い厚さThよりも高い位置に設けられる。
 さらに、2段の側面の、それぞれの平均面X1,X2間の差(平均面X1,X2間距離)は、固体撮像素子11の厚さ(図6の固体撮像素子11のシリコン基板81の厚さ)よりも大きくすることが望ましい。
 また、2段の側面の、それぞれの平均面X1,X2間の距離の差は、レンズ401Lの有効領域の入射光の入射方向に対して垂直となる領域幅(例えば、図23の水平方向の幅He、または、垂直方向の高さVe)に対して1%以上とすることが望ましい。
 従って、上述した条件を満たす2段の側面と2つの変曲点が形成されれば、2段側面型レンズ401L以外の形状であってもよく、例えば、図43の上から2段目で示されるように、平均面X11,X12からなる2段の側面が設けられ、ガラス基板12からレンズの最薄厚Thよりも高い位置に変曲点P1,P2とは異なる曲率の変曲点P11,P12が形成された2段側面型レンズ401Pであってもよい。
 また、例えば、図43の上から3段目で示されるように、平均面X21,X22からなる2段の側面が設けられ、ガラス基板12からレンズの最薄厚Thよりも高い位置に、変曲点P1,P2およびP11,P22とは異なる曲率の変曲点P21,P22が形成された2段側面型レンズ401Qであってもよい。
 さらに、例えば、図43の上から4段目で示されるように、平均面X31,X32からなる2段の側面が設けられ、ガラス基板12からレンズの最薄厚Thよりも高い位置に変曲点P31,P32が形成され、レンズ401の最も厚い位置の端部がラウンド形状にされた2段側面型レンズ401Rであってもよい。
 <2つの変曲点と2段構成の側面とを備えたレンズにおけるARコートへの加熱時に発生する応力分布>
 上述したように、2つの変曲点と2段構成の側面とを備えた2段側面型レンズ401Lの場合、実装リフロー熱負荷時や信頼性試験時におけるレンズ401Lの膨張や収縮によるARコート402にかかる応力を抑制することができる。
 図44は、図39のレンズ401の外形形状を変化させたときの、実装リフロー熱負荷時のARコート402の膨張や収縮による応力分布を示している。図44において、上段は、レンズ401を対角方向から見たときの奥手側のARコート402の応力分布であり、下段は、レンズ401を対角方向から見たときの手前側のARコート402の応力分布である。
 図44の最左部においては、突出部401aも設けられておらず、2段側面型レンズでもないレンズ401S(レンズ401Aに対応する)における、実装リフロー熱負荷時のARコート402Sに生じる応力分布が示されている。
 図44の左から2番目においては、図43で示される2段側面型レンズ401Lに対応するレンズ401Tおける、実装リフロー熱負荷時のARコート402Tに生じる応力分布が示されている。
 図44の左から3番目においては、突出部401aが設けられていないが、テーパ形状が設けられ、かつ、レンズの各辺の角部がラウンド形状に成型されたレンズ401Uにおける、実装リフロー熱負荷時のARコート402Uに生じる応力分布が示されている。
 図44の左から4番目においては、突出部401aも、テーパ形状も設けられておらず、側面がガラス基板12に対して垂直で、かつ、レンズの各辺の角部がラウンド形状に成型されたレンズ401Vにおける、実装リフロー熱負荷時のARコート402Vに生じる応力分布が示されている。
 また、図45は、左から順に図44の各レンズ形状におけるARコートに生じる応力分布における全体の最大値(Worst)、レンズの有効領域の最大値(有効)、および稜線における最大値(稜線)のグラフが示されている。また、図45におけるそれぞれの最大値のグラフは、左から順にARコート402S乃至402Vの応力分布の最大値を示している。
 図45で示されるように、各レンズの全体の最大応力は、レンズ401SのARコート402Sの場合、上面の角部Ws(図44)において1390MPaであり、レンズ401TのARコート402Tの場合、稜線の角部Wt(図44)において1130MPaであり、レンズ401UのARコート402Uの場合、稜線上Wu(図44)において800MPaであり、レンズ401VのARコート402Vの場合、稜線上Wv(図44)において1230MPaである。
 また、各レンズの有効領域の最大応力は、図45で示されるように、レンズ401SのARコート402Sの場合、646MPaであり、レンズ401TのARコート402Tの場合、588MPaであり、レンズ401UのARコート402Uの場合、690MPaであり、レンズ401VのARコート402Vの場合、656MPaである。
 さらに、各レンズの稜線の最大応力は、レンズ401SのARコート402Sの場合、1050MPaであり、レンズ401TのARコート402Tの場合、950MPaであり、レンズ401UのARコート402Uの場合、800MPaであり、レンズ401VのARコート402Uの場合、1230MPaである。
 図45によれば、いずれも最大応力が最小となるのは、レンズ401SのARコート402Sであるが、図44によれば、レンズ401TのARコート402Tの有効領域の全体の応力分布において、レンズ401UのARコート402Uの外周部に近い範囲に多く存在する600MPa付近の応力分布が存在せず、全体として、レンズ401T(レンズ401Lと同一)のARコート402Tからなる外形形状において、ARコート402T(ARコート402Lと同一)のARコート402Tに生じる応力分布が小さくなることがわかる。
 すなわち、図44,図45によれば、実装リフロー熱負荷時において、2つの変曲点と2段構成の側面とを備えたレンズ401T(401L)においては、ARコート402T(402L)に生じる膨張や収縮が抑制されて、膨張や収縮に起因して生じる応力が小さくなっていることがわかる。
 以上のように、レンズ401として、2つの変曲点と2段構成の側面とを備えた2段側面型レンズ401Lを採用することにより、実装リフロー熱負荷時や信頼性試験等において、熱による膨張や収縮を抑制することが可能となる。
 結果として、ARコート402Lに生じる応力を低減させることが可能となり、クラックの発生や、レンズ剥がれ等の発生を抑制させることが可能となる。また、レンズそのものの膨張や収縮を抑制することが可能となるので、歪の発生を低減し、歪に起因した複屈折の増加による画質劣化、屈折率の局所的な変化により発生する界面反射の増加によるフレアの発生を抑制することが可能となる。
 <18.第18の実施の形態>
 以上においては、レンズの形状を規定することにより、小型軽量で、かつ、高解像度撮像が可能なレンズを実現する例について説明してきたが、レンズを固体撮像素子11に形成する際の精度を向上させることで、より小型軽量で、かつ、高解像度画像が撮像可能なレンズを実現するようにしてもよい。
 図46の上部で示されるように、基板451に成形型452を固体撮像素子11上のガラス基板12に押し付けた状態で、成形型452とガラス基板12との間の空間に、レンズ401の材料となる紫外光硬化樹脂461を充填させ、図中の上部より紫外光により所定時間露光する。
 基板451および成形型452は、いずれも紫外光を透過させる材質により構成されている。
 成形型452は、凹型のレンズ401の形状に対応した非球面の凸型構造であり、外周部に遮光膜453が形成されており、紫外光の入射角度により、例えば、図46で示されるような角度θからなるレンズ401の側面にテーパを形成させることができる。
 レンズ401の材料となる紫外光硬化樹脂461は、所定時間紫外光に対して露光されることにより、硬化して、図46の下部で示されるように非球面の凹型レンズとして形成されると共に、ガラス基板12に貼り付けられる。
 紫外光が照射された状態で所定時間経過した後、紫外光硬化樹脂461が硬化することでレンズ401が形成され、レンズ401が形成された後、成形型452が形成されたレンズ401より外される(離型)。
 レンズ401の外周部と、ガラス基板12との境界においては、紫外光硬化樹脂461の一部が、成形型452から浸み出して浸み出し部461aが生じる。しかしながら、浸み出し部461aは、遮光膜453により紫外光が遮光されることになるので、拡大図Zfにおける範囲Zcで示されるように、紫外光硬化樹脂461の一部の浸み出し部461aは硬化せずに残り、離型された後、自然光に含まれた紫外光により硬化することで、裾引き部401dとして残る。
 これにより、レンズ401は、成形型452により凹型レンズとして形成されると共に、遮光膜453により規定された角度θで側面にテーパ形状が形成される。また、レンズ401の外周部には、裾引き部401dがガラス基板12との境界に形成されることで、レンズ401をガラス基板12に対してより強固に接着させることが可能となる。
 結果として、小型軽量で、かつ、高解像度画像が撮像可能なレンズを高精度に形成することが可能となる。
 尚、以上においては、遮光膜453は、図47の左上部で示されるように、基板451の紫外光の入射方向に対して裏面側(図中の下側)における、レンズ401の外周部に設けられる例について説明してきた。しかしながら、遮光膜453は、図47の右上部で示されるように、基板451の紫外光の入射方向に対して表面側(図中の上側)における、レンズ401の外周部に設けられるようにしてもよい。
 また、遮光膜453は、図47の左の上から2番目で示されるように、基板451に代えて、成形型452よりも水平方向に大きな成型型452’を形成し、紫外光の入射方向に対して裏面側(図中の下側)における、レンズ401の外周部に設けられるようにしてもよい。
 さらに、遮光膜453は、図47の右の上から2番目で示されるように、成型型452’の基板451の紫外光の入射方向に対して表面側(図中の上側)における、レンズ401の外周部に設けられるようにしてもよい。
 また、遮光膜453は、図47の左の上から3番目で示されるように、基板451と成形型452とを一体化させた成形型452’’を形成し、紫外光の入射方向に対して裏面側(図中の下側)における、レンズ401の外周部に設けられるようにしてもよい。
 さらに、遮光膜453は、図47の右の上から3番目で示されるように、基板451と成形型452とを一体化させた成形型452’’を形成し、紫外光の入射方向に対して表面側(図中の上側)における、レンズ401の外周部に設けられるようにしてもよい。
 また、図47の左下部で示されるように、基板451、および成形型452に加えて、側面部の一部を規定する構成が設けられた成形型452’’’を形成し、成形型452’’’の外周部であって、紫外光の入射方向に対して裏面側に遮光膜453が形成されるようにしてもよい。
 尚、図46,図47の構成は、図9における撮像装置1の一体化構成部10内のIRCF14と接着剤15が省略された構成となっているが、説明の便宜上省略したのみであり、当然のことながらレンズ401(131)とガラス基板12との間に設けられるようにしてもよいものである。また、以降においても、図9における撮像装置1における構成より、IRCF14と接着剤15は、省略した構成を例にして説明を進めるものとするが、いずれにおいても、例えば、レンズ401(131)とガラス基板12との間にIRCF14と接着剤15が設けられる構成としてもよいものである。
 <2段側面型レンズの形成方法>
 次に、2段側面型レンズの製造方法について説明する。
 基本的な製造方法については、上述した2段側面型ではないレンズの製造方法と同様である。
 すなわち、図48の左部で示されるように、基板451に対して2段側面型レンズ401Lの側面形状に対応した成形型452が用意され、固体撮像素子11上のガラス基板12上に紫外光硬化樹脂461が載置される。尚、図48においては、成形型452における側面断面の右側半分のみの構成が示されている。
 次に、図48の中央部で示されるように、成形型452が載置された紫外光硬化樹脂461をガラス基板12に対して押圧するように固定することで、成形型452の凹部内に紫外光硬化樹脂461を充填させた状態にして、図中上方より紫外光が所定時間照射される。
 紫外光硬化樹脂461は、紫外光に露光されることにより硬化し、成形型452に対応する凹型の2段側面型レンズ401が形成される。
 紫外光により所定時間露光されることで、レンズ401が形成された後、図48の右部で示されるように、成形型452が離型されると、2段側面型レンズからなるレンズ401が完成される。
 また、図49の左部で示されるように、成形型452の外周部のガラス基板12に当接する部位の一部のうち、例えば、側面の断面形状における2つの変曲点のうち、ガラス基板12に近い位置の変曲点となる高さから下の部分を切断し、切断面に遮光膜453を設けるようにしてもよい。
 この場合、図49の左から2番目で示されるように、紫外光硬化樹脂461が成形型452の凹部に充填された状態で、紫外光が図中の上方より所定時間照射されると、遮光膜453の下部については、紫外光が遮光されることで、硬化が進まない状態となり、レンズ401が未完成の状態となる。しかしながら、紫外光が露光された図中の有効領域の周囲の紫外光硬化樹脂461は硬化が進んでレンズ401として形成される。
 この状態で成形型452が離型されると、図49の左から3番目で示されるように、2段側面型レンズとして形成されるレンズ401のうちの、最外周の2段構成の側面のうちのガラス基板12に近い部分の側面が未硬化の紫外光硬化樹脂461の浸み出し部461aとして残される。
 そこで、図49の右部で示されるように、未硬化の紫外光硬化樹脂461の浸み出し部461aの状態のままの側面について、側面の角度や表面粗さを制御して、別途紫外光を照射して硬化させるようにする。
 このようにすることで、図50の上段で示されるように、レンズ401の側面の平均面X1,X2のなす角度を、例えば、入射光の入射方向に対してそれぞれ角度θ1,θ2といった異なる角度に設定することが可能となる。
 ここで、側面X1,X2の角度をそれぞれ角度θ1,θ2とするとき、角度θ1<角度θ2となるように構成すると、側面フレアの発生を抑制すると共に、成形型452の離型の際、完成したレンズ401がガラス基板12から剥がれてしまうといったことを抑制することが可能となる。
 また、側面X1,X2のそれぞれの表面粗さρ(X1),ρ(X2)を異なる構成とすることが可能となる。
 ここで、側面X1,X2のそれぞれの表面粗さρ(X1),ρ(X2)を、表面粗さρ(X1)<表面粗さρ(X2)となるように設定することで、側面フレアの発生を抑制すると共に、成形型452の離型の際、完成したレンズ401がガラス基板12から剥がれてしまうといったことを抑制することが可能となる。
 また、紫外光硬化樹脂461の浸み出し部461aの形状を調整することで、図50の下部で示されるように、裾引き部401dを形成することも可能となる。これにより、レンズ401をガラス基板12に対してより強固に固定することが可能となる。
 尚、角度θ1,θ2、表面粗さρ(X1),ρ(X2)、および裾引き部401dの形成については、図48を参照した遮光膜453を用いない場合でも、成形型452の形状により設定することは可能である。しかしながら、図49を参照したように遮光膜453が設けられた成形型452が用いられる場合については、最初の紫外光の照射において未硬化な部分として残された紫外光硬化樹脂461の浸み出し部461aを後から調整することができるので、角度θ1,θ2、表面粗さρ(X1),ρ(X2)、および裾引き部401dの設定の自由度を高くすることが可能となる。
 いずれにおいても、固体撮像素子11のガラス基板12上にレンズ401を高精度に形成することが可能となる。また、2段側面型レンズ401における側面X1,X2の角度、表面粗さρ(X1),ρ(X2)、および裾引き部401dの有無を調整することが可能となるので、フレアやゴーストの発生を抑制すると共に、レンズ401をより強固にガラス基板12に形成することが可能となる。
 <19.第19の実施の形態>
 以上においては、成形方法により高精度にレンズ401を固体撮像素子11上のガラス基板12に形成する例について説明してきたが、レンズ401をガラス基板12上の適切な位置に形成するためガラス基板12にアライメントマークを形成し、アライメントマークに基づいて位置決めすることで、より高精度にレンズ401をガラス基板12上に形成するようにしてもよい。
 すなわち、図51で示されるように、中心からレンズ401の有効領域Ze(図23の有効領域131aに対応する)が設けられ、その外周部に非有効領域Zn(図23の非有効領域131bに対応する)が設けられ、さらにその外周部にガラス基板12が露出した領域Zgが設けられ、固体撮像素子11の最外周部にスクライブラインが設定される領域Zscが設けられている。図51においては、非有効領域Zn(図23の非有効領域131bに対応する)に突出部401aが設けられている。
 各領域の幅は、有効領域Zeの幅>非有効領域Znの幅>ガラス基板12が露出した領域Zgの幅>スクライブラインが設定される領域Zscの幅の関係となる。
 アライメントマーク501は、ガラス基板12が露出した、ガラス基板12上の領域Zgに形成される。従って、アライメントマーク501のサイズは、領域Zgよりも小さいサイズとなるが、位置合わせするための画像により認識可能なサイズである必要がある。
 ガラス基板12上の、例えば、レンズ401の角部が当接すべき位置に、アライメントマーク501を形成し、アライメントカメラにより撮像される画像に基づいて、成形型452におけるレンズの角部を、アライメントマーク501が設けられた位置になるように調整することで、アライメントするようにしてもよい。
 <アライメントマークの例>
 アライメントマーク501は、例えば、図52で示されるようなアライメントマーク501A乃至501Kなどである。
 すなわち、アライメントマーク501A乃至501Cは方形からなり、アライメントマーク501D,501Eは円形からなり、アライメントマーク501F乃至501Iは多角形からなり、アライメントマーク501J,501Kは複数の線状形状からなる。
 <アライメントマークをガラス基板上と成形型とに設ける例>
 また、アライメントマーク501A乃至501Kのうち、黒色部分と、グレー部分とを、それぞれ成形型452上のレンズ401の外周部分と、ガラス基板12上の領域Zgとの対応する位置にそれぞれ形成し、例えば、アライメントカメラにより撮像される画像に基づいて、相互に対応する位置関係となっているかを確認することで、レンズ401とガラス基板12との位置関係をアライメントするようにしてもよい。
 すなわち、アライメントマーク501Aの場合、図52で示されるように、レンズ401と成形型452とが適切な位置関係となるように、成形型452上に方形枠からなるグレー部分のアライメントマーク501’を設け、黒色部分となる方形部からなるアライメントマーク501を形成する。
 そして、図53の矢印方向から、ガラス基板12上のアライメントマーク501と、成形型452上のアライメントマーク501’とをアライメントカメラにより撮像し、黒色の方向状のアライメントマーク501が、グレーの方形枠からなるアライメントマーク501’に内包して重なるように撮像されるように成形型452の位置を調整することで、アライメントを調整するようにしてもよい。
 この場合、同一のカメラの同一視野内に、黒色部分のアライメントマーク501と、グレー部分のアライメントマーク501’とが配置されることが望ましいが、複数のカメラの位置関係を予めキャリブレーションしておき、複数のカメラで、対応する異なる位置に設けられたアライメントマーク501,501’との位置関係の対応によりアライメントするようにしてもよい。
 いずれにおいても、アライメントマーク501により、固体撮像素子11のガラス基板12上にレンズ401を高精度に位置決めして形成することが可能となる。
 <20.第20の実施の形態>
 以上においては、アライメントマークによりレンズ401と固体撮像素子11上のガラス基板12とを高精度に位置決めして形成する例について説明してきたが、レンズ401の有効領域にARコート402を形成することで、感度を向上させ、高精細な撮像を実現するようにしてもよい。
 すなわち、例えば、図54の最上段の太線で示されるように、ガラス基板12上、突出部401aの側面および平面部を含む非有効領域(図23の非有効領域131bに対応する)、並びに有効領域(図23の有効領域131aに対応する)の全域に、ARコート402-P1が形成されるようにしてもよい。
 また、例えば、図54の上から2番目で示されるように、レンズ401上の突出部401a内の有効領域にのみARコート402-P2が形成されるようにしてもよい。ARコート402-P2は、レンズ401上の突出部401a内の領域(有効領域(図23の有効領域131aに対応する))にのみ形成されることにより、実装リフロー熱負荷時等でレンズ401が熱による膨張や収縮することで生じる応力を低減させることが可能となり、ARコート402-P2のクラックの発生を抑制することができる。
 さらに、例えば、図54の上から3番目で示されるように、レンズ401上の突出部401aの平面部を含む、突出部401aの内側の領域(有効領域(図23の有効領域131aに対応する))にARコート402-P3が形成されるようにしてもよい。ARコート402-P3は、レンズ401上の突出部401aを含む、突出部401aの内側の領域にのみ形成されることにより、実装リフロー熱負荷時等でレンズ401が熱による膨張や収縮することで生じる、ARコート402-P3に対して生じる応力を低減させることが可能となり、クラックの発生を抑制することができる。
 さらに、例えば、図54の上から4番目で示されるように、レンズ401上の突出部401aの平面部とその外周部の一部に加えて、突出部401aの内側の領域(有効領域(図23の有効領域131aに対応する))にARコート402-P4が形成され、さらに、ガラス基板12とレンズ401における、ガラス基板12との境界付近の領域にARコート402-P5が形成されるようにしてもよい。ARコート402-P4,402-P5のように、レンズ401の側面部分の一部にARコートが形成されない領域が形成されることにより、実装リフロー熱負荷時等でレンズ401が熱による膨張や収縮することで生じる、ARコート402-P2に対して生じる応力を低減させることが可能となり、クラックの発生を抑制することができる。
 図55は、レンズ401に対して、ARコート402が形成される領域を様々に変化させて実装リフロー熱負荷時にARコート402に生じる応力分布をまとめたものである。
 図55は、上部が、レンズ401を水平垂直にそれぞれ2分割したときの、レンズ401とARコート402の外形形状であり、下部が、対応する実装リフロー熱負荷時のARコート402に生じる応力分布である。
 図55の左部は、周辺のガラス基板12、レンズ401の側面、突出部401a、および突出部401aの内部を含めた全体にARコートが形成されたARコート402AAが形成されている場合である。
 図55の左から2番目は、図55の最左部の構成に対して、周辺のガラス基板12、およびレンズ401の側面にARコート形成されず、それ以外の領域にARコートが形成されたARコート402ABの場合である。
 図55の左から3番目は、図55の最左部の構成に対して、レンズ401の側面の領域にARコートが形成されておらず、周辺のガラス基板12、突出部401a、および突出部401aの内部にARコートがなされたARコート402ACの場合である。
 図55の左から4番目は、図55の最左部の構成に対して、レンズ401の側面の領域、突出部401aの平面部、突出部401aの内側であって、突出部401aの上面の平坦部から所定の幅Aまでの領域にARコートが形成されておらず、それ以外の突出部401aの内部および周辺のガラス基板12にARコートがなされたARコート402ADの場合である。ここで、幅Aは、例えば、100μmである。
 図55の左から5番目は、図55の最左部の構成に対して、突出部401aの内側、突出部401aの上面の平坦部、突出部401aの外側の側面であって、平坦部から所定の幅Aだけ下までの領域にARコートが形成されているARコート402AEの場合である。
 図55の左から6番目は、図55の最左部の構成に対して、突出部401aの内側、突出部401aの上面の平坦部、突出部401aの外側の側面であって、平坦部から所定の幅2Aだけ下までの領域にARコートが形成されているARコート402AFの場合である。
 図55の左から7番目は、図55の最左部の構成に対して、突出部401aの内側、突出部401aの上面の平坦部、突出部401aの外側の側面であって、平坦部から所定の幅3Aだけ下までの領域にARコートが形成されているARコート402AGの場合である。
 図55の左から8番目は、図55の最左部の構成に対して、突出部401aの内側、突出部401aの上面の平坦部、突出部401aの外側の側面であって、平坦部から所定の幅4Aだけ下までの領域にARコートが形成されているARコート402AHの場合である。
 図55の最左部との比較により、いずれにおいてもARコート402が、レンズ401の全面を覆うように形成されたARコート402AAよりも、レンズ401の突出部401aよりも内側におけるARコートが、ガラス基板12上のARコート402と連続的に繋がっていない状態で形成される方がARコート402に生じる応力が小さいことが示されている。
 以上のように、ARコート402が、レンズ401上に形成されることにより、フレアやゴーストの発生を抑制することが可能となり、より高精細な画像を撮像することが可能となる。
 また、形成されるARコート402は、突出部401aを含むレンズ401の有効領域と非有効領域とを含む全面と、その外周部となるガラス基板12上において、有効領域、およびガラス基板12以外の少なくとも一部にARコートが形成されない領域を設けるようにすることで、実装リフロー熱負荷時や信頼性検査等の加熱による膨張収縮に起因するクラックの発生を抑制することが可能となる。
 尚、ここでは、ARコート402について説明してきたが、レンズ401の表面に製膜される構成であれば、他の膜でもよく、例えば、モスアイ等の反射防止膜等であっても同様である。
 また、以上においては、突出部401aを備えたレンズの例について説明してきたが、突出部401aを備えていないレンズであっても、有効領域と非有効領域とを含む全面と、その外周部となるガラス基板12上において、有効領域、およびガラス基板12以外の少なくとも一部にARコートが形成されない領域が設けられればよい。換言すれば、レンズ401に形成されるARコート402が、レンズ側面およびガラス基板12上に形成されるARコート402と連続的に繋がった状態で形成されないようにすればよい。このため、レンズ401は、例えば、2段側面型レンズ401Lであってもよく、レンズ401上に形成されるARコート402が、レンズ側面、およびガラス基板12上に形成されるARコート402と連続的に繋がった状態で形成されないように形成されれば、同様の効果を奏する。
 <21.第21の実施の形態>
 以上においては、レンズ401に形成されるARコート402が、ガラス基板12上に形成されるARコート402と連続的に繋がった状態で形成されないようにすることで、実装リフロー熱負荷時に熱に起因する膨張収縮によりARコート402の生じる応力を低減させる例に説明してきた。
 しかしながら、レンズ401の突出部401aや側面を覆うように遮光膜が形成されるようにして、側面フレアの発生を抑制するようにしてもよい。
 すなわち、図56の最上段で示されるように、ガラス基板12上において、レンズ401の側面、および突出部401aの上面の平面部の高さまでの全範囲、すなわち、有効領域以外の範囲に遮光膜521が形成されるようにしてもよい。
 また、図56の上から2番目で示されるように、ガラス基板12上からレンズ401の側面、および突出部401aの上面の平面部までの全面、すなわち、有効領域以外の表面部分の全体に遮光膜521が形成されるようにしてもよい。
 さらに、図56の上から3番目で示されるように、ガラス基板12上からレンズ401の突出部401aの側面に遮光膜521が形成されるようにしてもよい。
 また、図56の上から4番目で示されるように、ガラス基板12上からレンズ401の突出部401aの側面における、ガラス基板12から所定の高さまでの範囲に遮光膜521が形成されるようにしてもよい。
 さらに、図56の上から5番目で示されるように、レンズ401の突出部401aの側面のみに遮光膜521が形成されるようにしてもよい。
 また、図56の上から6番目で示されるように、ガラス基板12上の2段側面型レンズ401の2つの側面の最高位置までの範囲に遮光膜521が形成されるようにしてもよい。
 さらに、図56の上から7番目で示されるように、ガラス基板12上の2段側面型レンズ401の2つの側面の最高位置までの表面の全体、および、固体撮像素子11の外周部分を覆うように遮光膜521が形成されるようにしてもよい。
 いずれにおいても、遮光膜521は、部分成膜により形成する、成膜後リソグラフィすることで形成する、レジストを形成した後、成膜し、レジストをリフトオフすることで形成する、または、リソグラフィにより形成する。
 また、2段側面型レンズ401の外周部に遮光膜を形成するための土手を形成し、2段側面型レンズ401の外周部であって、土手の内側に遮光膜521を形成するようにしてもよい。
 すなわち、図57の最上段で示されるように、2段側面型レンズ401の外周部におけるガラス基板12上に、レンズ高さと同一の高さの土手531を形成し、2段側面型レンズ401の外周部であって、土手531の内側にリソグラフィ、または、塗布により遮光膜521を形成した後、CMP(Chemical Mechanical Polishing)等の研磨により、遮光膜521、レンズ401、および土手531の高さを揃えるようにしてもよい。
 また、図57の2段目で示されるように、2段側面型レンズ401の外周部におけるガラス基板12上に、レンズ高さと同一の高さの土手531を形成し、2段側面型レンズ401の外周部であって、土手531の内側に遮光膜521の材料を塗布するのみで、遮光膜521、レンズ401、および土手531の高さについては、遮光膜521の材料によるセルフアラインとするようにしてもよい。
 さらに、図57の3段目で示されるように、2段側面型レンズ401の外周部におけるガラス基板12上に、レンズ高さと同一の高さの土手531を形成し、2段側面型レンズ401の外周部であって、土手531の内側にリソグラフィにより遮光膜521を形成するのみにしてもよい。
 また、図57の4段目で示されるように、2段側面型レンズ401の外周部におけるガラス基板12上に、2段側面型レンズ401とガラス基板12との境界が繋がるように土手531を形成し、2段側面型レンズ401の外周部であって、土手531の内側にリソグラフィ、または、塗布により遮光膜521を形成した後、CMP(Chemical Mechanical Polishing)等の研磨により、遮光膜521、レンズ401、および土手531の高さを揃えるようにしてもよい。
 また、図57の5段目で示されるように、2段側面型レンズ401の外周部におけるガラス基板12上に、2段側面型レンズ401とガラス基板12との境界が繋がるように土手531を形成し、2段側面型レンズ401の外周部であって、土手531の内側に遮光膜521の材料を塗布するのみで、遮光膜521、レンズ401、および土手531の高さについては、遮光膜521の材料によるセルフアラインとするようにしてもよい。
 さらに、図57の6段目で示されるように、2段側面型レンズ401の外周部におけるガラス基板12上に、2段側面型レンズ401とガラス基板12との境界が繋がるように土手531を形成し、2段側面型レンズ401の外周部であって、土手531の内側にリソグラフィにより遮光膜521を形成するのみにしてもよい。
 いずれにおいても、レンズ401の突出部401aや側面を覆うように遮光膜が形成されるので、側面フレアの発生を抑制することが可能となる。
 尚、以上においては、レンズ401の外周部に遮光膜が形成される例について説明してきたが、レンズ401の外周部からの光が侵入できないものであればよいので、遮光膜に代えて、例えば、光吸収膜を形成するようにしてもよい。
 <22.第22の実施の形態>
 以上においては、一体化構成部10の構成として、上側基板11bと、オンチップレンズ11dを保護するためのガラス基板12とが、ガラスシール樹脂からなる接着剤13を介して、空洞(キャビティ)を設けずに接続されたキャビティレス構造について主に説明した。
 上側基板11bとガラス基板12との間に空洞を設けた構造については、図17に示した第9の実施の形態を示したが、次の第22の実施の形態では、空洞を設けた他のキャビティ構造についてさらに説明する。
 <第22の実施の形態の第1構成例>
 図58は、本開示の撮像装置の第22の実施の形態に係る第1構成例を示す側面断面図である。
 なお、図58では、撮像装置1のうち、一体化構成部10と、回路基板17の一部のみを拡大して示し、上述した他の実施の形態と同様の構成が採用される、その他の周辺部分、具体的には、アクチュエータ18、コネクタ19、および、スペーサ20と、アクチュエータ18に接続されたレンズ群16については、図示が省略されている。この点は、後述する図61乃至図66についても同様である。
 図58において、固体撮像素子11の上面部には、第1のガラス基板601aと第2のガラス基板601bとを貼り合わせて構成されたガラス基板601が設けられている。
 ガラス基板601は、その下面において、透明、かつ、ガラス基板601と略同一の屈折率を有する接着剤13により、固体撮像素子11と貼り合わされている。ガラス基板601の上面には、図9に示した撮像装置1と同一の、レンズ131が形成されている。
 レンズ131は、レンズ群16を構成する複数のレンズのうちの、光の入射方向に対して最下位層となるレンズであり、図1のレンズ群16と同一の符号を付しているが、光の入射方向に対して最下位層となるレンズ131が含まれていない点で、図9の撮像装置1と共通する。
 一方、図9の撮像装置1では、レンズ131が、ガラス基板12上に形成されたIRCF14上に設けられていたが、図58では、IRCF14が省略されており、レンズ131がガラス基板601上に形成されている点で、図9の撮像装置1と相違する。なお、ガラス基板601とレンズ131との間に、IRCF14を設けるようにしてもよい。
 ガラス基板601は、上述したように、第1のガラス基板601aと第2のガラス基板601bとを貼り合わせて構成されているが、固体撮像素子11から遠い側となるレンズ群16側の第2のガラス基板601bが、第1のガラス基板601a側に張り出した凸部611aを有することにより、第1のガラス基板601aと第2のガラス基板601bとの間に、空気層からなる空洞(キャビティ)612が形成されている。凸部611aは、平面視において、矩形状の第2のガラス基板601bの外周部に設けられている。空洞612は、平面方向の四方の側面を凸部611aで囲まれ、上下方向(垂直方向)を、第1のガラス基板601aの上面と第2のガラス基板601bの下面とで囲まれている。つまり、空洞612は、第1のガラス基板601aと第2のガラス基板601bとで封止(密閉)されている。
 第1のガラス基板601aの上面には、ARコート621が成膜されており、第2のガラス基板601bの下面および凸部611aの空洞612と接する側面部にも、ARコート622が成膜されている。これにより、第1のガラス基板601aと第2のガラス基板601bの空洞612に接する面が、反射防止機能を有している。
 ARコート621および622は、図19に示したARコート271aと同様の膜で形成することができる。すなわち、ARコート621および622は、例えば、透明なシリコン系樹脂、アクリル系樹脂、エポキシ系樹脂、スチレン系等の樹脂、Si(ケイ素),C(炭素),H(水素)を主成分とする絶縁膜(例えば、SiCH,SiCOH,SiCNH)、Si(ケイ素),N(窒素)を主成分とする絶縁膜(例えば、SiON,SiN)、水酸化シリコン、アルキルシラン、アルコキシシラン、ポリシロキサン等の少なくともいずれかの材料ガスと酸化剤を用いて成膜されるSiO2膜、P-SiO膜、HDP-SiO膜などで形成することができる。
 ガラス基板601は、図59に示されるように、第1のガラス基板601aと第2のガラス基板601bとの接触面にプラズマによる表面活性化処理を施したうえで直接接合するプラズマ接合により貼り合わされて構成されている。第1のガラス基板601aと第2のガラス基板601bとがARコート621および622を介して張り合わされるが、ARコート621および622は、プラズマ接合において、接合強度を増加させる役割も有している。
 図60を参照して、空洞612の効果について説明する。図60は、固体撮像素子11の上側に形成された積層断面構造の模式図である。
 不図示のレンズ群16を通過して固体撮像素子11に向かう入射光631は、その一部が固体撮像素子11の上面の位置F31で反射され、反射光となる。
 固体撮像素子11の上面で発生した反射光は、第1のガラス基板601aと第2のガラス基板601bとの間に、空洞612を有さない構造の場合、ガラス基板601、接着剤13、および、レンズ131の屈折率が略同一とされているので、屈折率が異なる界面であるレンズ131の上面(表面)で全反射する。その結果、図60において点線の矢印で示されるように、入射光631の位置F31から離れた位置で、再び固体撮像素子11へ入り込み、フレアやゴーストの要因となる。
 これに対して、図58に示した第22の実施の形態に係る撮像装置の第1構成例によれば、最下位層のレンズ131の底面よりも固体撮像素子11側に、空洞612を設けたことにより、図60において実線の矢印で示されるように、反射光は、空洞612の界面で全反射する。その結果、入射光631の位置F31に近い位置で再入射されることになり、全反射フレアの拡がりを抑制することができる。これにより、画質劣化を低減することができる。
 また、図60の模式図では、図示を省略しているが、第1のガラス基板601aおよび第2のガラス基板601bと空洞612との界面に、反射を防止するARコート621および622が形成されているので、空洞612との界面における入射光631の反射を抑制することができ、より多くの入射光を、固体撮像素子11の光電変換部(フォトダイオード51)まで入射させることができる。なお、ARコート621および622のいずれか一方は省略してもよい。
 <第22の実施の形態の第2構成例>
 図61は、本開示の撮像装置の第22の実施の形態に係る第2構成例を示す側面断面図である。
 図61に示される第2構成例は、第1のガラス基板601aと第2のガラス基板601bとの接合面と、第2のガラス基板601bの凸部611aが空洞612と接する側面部とに、ARコート621および622が形成されていない点で第1構成例と相違し、その他の点で第1構成例と共通する。第2構成例において、第1のガラス基板601aと第2のガラス基板601bとは、例えば、ガラス基板どうしの熱融着によって、直接、貼り合わされている。
 図61の第2構成例においても、最下位層のレンズ131の底面よりも固体撮像素子11側に、空洞612が形成されている。したがって、図60を参照して説明したように、固体撮像素子11の界面で反射された反射光によるフレアの発生を抑制し、画質劣化を低減することができる。また、ARコート621および622により、より多くの入射光を、固体撮像素子11の光電変換部まで入射させることができる。
 <第22の実施の形態の第3構成例>
 図62は、本開示の撮像装置の第22の実施の形態に係る第3構成例を示す側面断面図である。
 図62に示される第3構成例では、図61の第2構成例における第2のガラス基板601bが、第2のガラス基板601b’に置き換えられている。第2のガラス基板601b’は、凸部611aを持たない平板状となっている点で、第2のガラス基板601bと異なる。そして、第2のガラス基板601bの凸部611aの代わりに、第1のガラス基板601aと第2のガラス基板601b’との間に、封止膜641が配置されて、封止膜641を介して、第1のガラス基板601aと第2のガラス基板601b’とが貼り合わされている。
 封止膜641は、例えば、有機系の接着剤とすることができる。あるいは、封止膜641には、例えば、タングステン(W)、アルミニウム(Al)、銅(Cu)、金(Au)などの金属膜、または、酸化シリコン(SiO2)、窒化シリコン(SiN)、酸窒化シリコン(SiON)、炭化シリコン(SiC)、酸炭化シリコン(SiOC)などの絶縁膜を用いてもよい。
 封止膜641が、平面視で、第1のガラス基板601aと第2のガラス基板601b’の外周部に配置され、第1のガラス基板601aおよび第2のガラス基板601b’とで、空洞612を封止(密閉)している点は、第1構成例および第2構成例と同様である。
 図62の第3構成例においても、最下位層のレンズ131の底面よりも固体撮像素子11側に、空洞612が形成されている。したがって、図60を参照して説明したように、固体撮像素子11の界面で反射された反射光によるフレアの発生を抑制し、画質劣化を低減することができる。また、ARコート621および622により、より多くの入射光を、固体撮像素子11の光電変換部まで入射させることができる。
 <第22の実施の形態の第4構成例>
 図63は、本開示の撮像装置の第22の実施の形態に係る第4構成例を示す側面断面図である。
 図63に示される第4構成例では、図61に示した第2構成例と比較して、第1のガラス基板601aが省略された構成とされている。換言すれば、図61に示した第2構成例では、第1のガラス基板601aと第2のガラス基板601bとの貼り合わせによりガラス基板601が構成されていたが、図63の第4構成例では、その一方である第2のガラス基板601bのみでガラス基板601が構成されている。
 第2のガラス基板601bは、凸部611aの下面で、平坦に形成された接着剤13と接着することにより、第2のガラス基板601bと接着剤13との間に、空洞612が形成されている。つまり、空洞612は、第2のガラス基板601bと接着剤13とで封止(密閉)されている。接着剤13は、オンチップレンズ11dの上面を平坦化する平坦膜としても機能し、空洞612と接する接着剤13の界面に、ARコート621が成膜されている。また、第2のガラス基板601bが空洞612と上下方向(垂直方向)に接する面には、ARコート622が成膜されている。
 図63の第4構成例においても、最下位層のレンズ131の底面よりも固体撮像素子11側に、空洞612が形成されている。したがって、図60を参照して説明したように、固体撮像素子11の界面で反射された反射光によるフレアの発生を抑制し、画質劣化を低減することができる。また、ARコート621および622により、より多くの入射光を、固体撮像素子11の光電変換部まで入射させることができる。
 <第22の実施の形態の第5構成例>
 図64は、本開示の撮像装置の第22の実施の形態に係る第5構成例を示す側面断面図である。
 図64に示される第5構成例では、図63に示した第4構成例における第2のガラス基板601bが、凸部611aを持たない第2のガラス基板601b’に置き換えられている。そして、第2のガラス基板601bの凸部611aの代わりに、接着剤13と第2のガラス基板601b’との間に、封止膜641が配置されている。空洞612の上下方向(垂直方向)が第2のガラス基板601b’と接着剤13とで囲まれ、空洞612の平面方向の四方の側面が封止膜641で囲まれて、空洞612が封止(密閉)されている。
 換言すれば、図64に示される第5構成例は、図62に示した第3構成例から、第1のガラス基板601aが省略された構成であり、その他の構成は、図62に示した第3構成例と同様である。
 図64の第5構成例においても、最下位層のレンズ131の底面よりも固体撮像素子11側に、空洞612が形成されている。したがって、図60を参照して説明したように、固体撮像素子11の界面で反射された反射光によるフレアの発生を抑制し、画質劣化を低減することができる。また、ARコート621および622により、より多くの入射光を、固体撮像素子11の光電変換部まで入射させることができる。
 <第22の実施の形態の第6構成例>
 図65は、本開示の撮像装置の第22の実施の形態に係る第6構成例を示す側面断面図である。
 図65に示される第6構成例は、図63に示した第4構成例と比較して、オンチップレンズ11dの上面を覆う接着剤13が省略された構成である。第2のガラス基板601bの凸部611aの底面が、透明の接着剤652を介して、固体撮像素子11と接着されることで、固体撮像素子11の上面のオンチップレンズ11dと第2のガラス基板601bとの間に、空洞612が形成されている。空洞612の上下方向(垂直方向)が第2のガラス基板601bと固体撮像素子11の上面とで囲まれ、空洞612の平面方向の四方の側面が第2のガラス基板601bで囲まれて、空洞612が封止(密閉)されている。平坦面を形成する接着剤13および第1のガラス基板601aが省略されたため、ARコート621も省略されている。その他の構成は、図63に示した第4構成例と同様である。
 図65の第6構成例においても、最下位層のレンズ131の底面よりも固体撮像素子11側に、空洞612が形成されている。したがって、図60を参照して説明したように、固体撮像素子11の界面で反射された反射光によるフレアの発生を抑制し、画質劣化を低減することができる。また、ARコート622により、より多くの入射光を、固体撮像素子11の光電変換部まで入射させることができる。
 <第22の実施の形態の第7構成例>
 図66は、本開示の撮像装置の第22の実施の形態に係る第7構成例を示す側面断面図である。
 図66に示される第7構成例は、図64に示した第5構成例と比較して、オンチップレンズ11dの上面を覆う接着剤13が省略された構成である。平板状の第2のガラス基板601b’の下面の外周部に形成された封止膜641の底面が固体撮像素子11と接着することで、固体撮像素子11の上面と第2のガラス基板601b’との間に、空洞612が形成されている。空洞612の上下方向(垂直方向)が第2のガラス基板601b’と固体撮像素子11の上面とで囲まれ、空洞612の平面方向の四方の側面が封止膜641で囲まれて、空洞612が封止(密閉)されている。平坦面を形成する接着剤13および第1のガラス基板601aが省略されたため、ARコート621も省略されている。その他の構成は、図64に示した第5構成例と同様である。
 図66の第7構成例においても、最下位層のレンズ131の底面よりも固体撮像素子11側に、空洞612が形成されている。したがって、図60を参照して説明したように、固体撮像素子11の界面で反射された反射光によるフレアの発生を抑制し、画質劣化を低減することができる。また、ARコート622により、より多くの入射光を、固体撮像素子11の光電変換部まで入射させることができる。
 <第22の実施の形態のまとめ>
 以上、説明した第22の実施の形態に係る第1構成例乃至第7構成例によれば、いずれも、一体化構成部10の第2のガラス基板601bまたは601b’上に形成されたレンズ131と固体撮像素子11との間に、空洞612が形成されている。これにより、図60を参照して説明したように、固体撮像素子11の界面で反射された反射光によるフレアの発生を抑制し、画質劣化を低減することができる。
 また、ARコート621または622の少なくとも一方により、より多くの入射光を固体撮像素子11の光電変換部まで入射させることができる。第2構成例乃至第7構成例では、空洞612の平面方向の四方の側面にはARコート622を形成していないが、第1構成例と同様に形成してもよい。
 空洞612は、平面方向の四方の側面および上下方向(垂直方向)の全ての面が、レンズ131の材料とは異なる材料、具体的には高弾性材料により囲まれて、封止(密閉)されている。これにより、水分侵入による結露等の発生を防止することができる。
 なお、図58乃至図66に示した第22の実施の形態においては、第2のガラス基板601b(または601b’)上に形成されるレンズの構造として、レンズ131を採用したが、第2のガラス基板601b上に形成されるレンズの構造は特に限定されない。
 すなわち、第2のガラス基板601b上に形成されるレンズは、例えば、複数のレンズからなるレンズ群171(図14)としてもよいし、ARコート271aがなされたレンズ271(図19)、モスアイ構造の反射防止機能が付加されたレンズ291(図20)、赤外光カット機能付きの赤外光カットレンズ301(図21)などでもよい。
 また、第2のガラス基板601b上に形成されるレンズは、図38および図39に示したような非球面曲面から構成され、中心位置から光の入射方向と垂直な方向の距離に応じて厚さが変化するレンズ401でもよい。レンズ401は、中心位置においては、レンズ厚さは最も薄い厚さDであり、範囲Zeにおける中心から最も離れた位置のレンズ厚さは、最も厚い厚さHとなる。また、ガラス基板601の厚さが、厚さThである場合、レンズ401の最も厚くなる厚さHは、ガラス基板601の厚さThよりも厚く、レンズ401の最も薄くなる厚さDは、ガラス基板601の厚さThよりも薄く形成されている。第2のガラス基板601b(または601b’)上に形成されるレンズの形状を、レンズ401のように規定することにより、上述したように、小型軽量で、かつ、高解像度撮像が可能なレンズを実現できる。
 <23.電子機器への適用例>
 上述した図1,図9等で上述した撮像装置1は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像装置、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図67は、本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。
 図67に示される撮像装置1001は、光学系1002、シャッタ装置1003、固体撮像素子1004、駆動回路1005、信号処理回路1006、モニタ1007、およびメモリ1008を備えて構成され、静止画像および動画像を撮像可能である。
 光学系1002は、1枚または複数枚のレンズを有して構成され、被写体からの光(入射光)を固体撮像素子1004に導き、固体撮像素子1004の受光面に結像させる。
 シャッタ装置1003は、光学系1002および固体撮像素子1004の間に配置され、駆動回路1005の制御に従って、固体撮像素子1004への光照射期間および遮光期間を制御する。
 固体撮像素子1004は、上述した固体撮像素子を含むパッケージにより構成される。固体撮像素子1004は、光学系1002およびシャッタ装置1003を介して受光面に結像される光に応じて、一定期間、信号電荷を蓄積する。固体撮像素子1004に蓄積された信号電荷は、駆動回路1005から供給される駆動信号(タイミング信号)に従って転送される。
 駆動回路1005は、固体撮像素子1004の転送動作、および、シャッタ装置1003のシャッタ動作を制御する駆動信号を出力して、固体撮像素子1004およびシャッタ装置1003を駆動する。
 信号処理回路1006は、固体撮像素子1004から出力された信号電荷に対して各種の信号処理を施す。信号処理回路1006が信号処理を施すことにより得られた画像(画像データ)は、モニタ1007に供給されて表示されたり、メモリ1008に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置1001においても、上述した光学系1002、および固体撮像素子1004に代えて、図1,図9等で上述した撮像装置1を適用することにより、装置構成の小型化および低背化を実現しつつ、内乱反射に起因するゴーストやフレアを抑制することが可能となる。
 <24.固体撮像装置の使用例>
 図68は、上述の撮像装置1を使用する使用例を示す図である。
 上述した撮像装置1は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 <25.内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図69は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図69では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図70は、図69に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100や、カメラヘッド11102(の撮像部11402)、CCU11201(の画像処理部11412)等に適用され得る。具体的には、例えば、図1,図9等の撮像装置1は、レンズユニット11401および撮像部10402に適用することができる。レンズユニット11401および撮像部10402に本開示に係る技術を適用することにより、装置構成の小型化および低背化を実現すると共に、内乱反射に起因するフレアやゴーストの発生を抑制させることが可能となる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 <26.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図71は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図71に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図71の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図72は、撮像部12031の設置位置の例を示す図である。
 図72では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図72には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。具体的には、例えば、図1,図9等の撮像装置1は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、装置構成の小型化および低背化を実現すると共に、内乱反射に起因するフレアやゴーストの発生を抑制させることが可能となる。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
 なお、本技術は、以下の構成を取ることができる。
(1)
 第1基板と第2基板とが積層された積層基板からなる固体撮像素子と、
 前記第1基板の上方に位置するガラス基板と、
 前記ガラス基板上に形成されたレンズと
 を含み、
 前記レンズと前記固体撮像素子との間に空洞を有する
 撮像装置。
(2)
 前記レンズの最も厚い厚さは、前記ガラス基板の厚さよりも厚く、前記レンズの最も薄い厚さは、前記ガラス基板の厚さよりも薄く、形成されている
 前記(1)に記載の撮像装置。
(3)
 前記空洞は、前記レンズの材料と異なる材料で封止されている
 前記(1)または(2)に記載の撮像装置。
(4)
 前記空洞との界面の少なくとも一部に、反射防止膜が形成されている
 前記(1)乃至(3)のいずれかに記載の撮像装置。
(5)
 前記ガラス基板は、第1のガラス基板と第2のガラス基板とを貼り合わせて構成されている
 前記(1)乃至(4)のいずれかに記載の撮像装置。
(6)
 前記第1のガラス基板と前記第2のガラス基板との間に、前記空洞が形成されている
 前記(5)に記載の撮像装置。
(7)
 前記第1のガラス基板と前記第2のガラス基板とが、反射防止膜を介して貼り合わされている
 前記(6)に記載の撮像装置。
(8)
 前記第1のガラス基板と前記第2のガラス基板とが、熱融着により、直接、貼り合わされている
 前記(6)に記載の撮像装置。
(9)
 前記第1のガラス基板と前記第2のガラス基板とが、封止膜を介して貼り合わされている
 前記(6)に記載の撮像装置。
(10)
 前記空洞は、前記ガラス基板と前記固体撮像素子のオンチップレンズを覆う平坦膜との間に形成されている
 前記(1)乃至(4)のいずれかに記載の撮像装置。
(11)
 前記空洞は、前記ガラス基板と前記平坦膜とで封止されている
 前記(10)に記載の撮像装置。
(12)
 前記空洞の上下方向が前記ガラス基板と前記平坦膜とで囲まれ、前記空洞の平面方向が封止膜で囲まれることにより、前記空洞が封止されている
 前記(10)に記載の撮像装置。
(13)
 前記空洞は、前記ガラス基板と前記固体撮像素子のオンチップレンズとの間に形成されている
 前記(1)乃至(4)のいずれかに記載の撮像装置。
(14)
 前記空洞の平面方向は前記ガラス基板で囲まれ、前記空洞が封止されている
 前記(13)に記載の撮像装置。
(15)
 前記空洞の平面方向は封止膜で囲まれ、前記空洞が封止されている
 前記(13)に記載の撮像装置。
 1 撮像装置, 10 一体化構成部, 11 (CPS構造の)固体撮像素子, 11a 下側基板(ロジック基板), 11b 上側基板(画素センサ基板), 11c カラーフィルタ, 11d オンチップレンズ, 12 ガラス基板, 13 接着剤, 14 IRCF(赤外光カットフィルタ), 14’ IRCFガラス基板, 15 接着剤, 16 レンズ群, 17 回路基板, 18 アクチュエータ, 19 コネクタ, 20 スペーサ, 171 レンズ群, 231 ガラス基板, 231a 凸部, 231b 空洞(キャビティ), 271 レンズ, 271a ARコート, 291 レンズ, 291a 反射防止処理部, 301 赤外光カットレンズ, 321 ガラス基板, 401 レンズ, 601 ガラス基板, 601a 第1のガラス基板, 601b,601b' 第2のガラス基板, 611a 凸部, 612 空洞, 621,622 ARコート, 641 封止膜, 652 接着剤

Claims (15)

  1.  第1基板と第2基板とが積層された積層基板からなる固体撮像素子と、
     前記第1基板の上方に位置するガラス基板と、
     前記ガラス基板上に形成されたレンズと
     を含み、
     前記レンズと前記固体撮像素子との間に空洞を有する
     撮像装置。
  2.  前記レンズの最も厚い厚さは、前記ガラス基板の厚さよりも厚く、前記レンズの最も薄い厚さは、前記ガラス基板の厚さよりも薄く、形成されている
     請求項1に記載の撮像装置。
  3.  前記空洞は、前記レンズの材料と異なる材料で封止されている
     請求項1に記載の撮像装置。
  4.  前記空洞との界面の少なくとも一部に、反射防止膜が形成されている
     請求項1に記載の撮像装置。
  5.  前記ガラス基板は、第1のガラス基板と第2のガラス基板とを貼り合わせて構成されている
     請求項1に記載の撮像装置。
  6.  前記第1のガラス基板と前記第2のガラス基板との間に、前記空洞が形成されている
     請求項5に記載の撮像装置。
  7.  前記第1のガラス基板と前記第2のガラス基板とが、反射防止膜を介して貼り合わされている
     請求項6に記載の撮像装置。
  8.  前記第1のガラス基板と前記第2のガラス基板とが、熱融着により、直接、貼り合わされている
     請求項6に記載の撮像装置。
  9.  前記第1のガラス基板と前記第2のガラス基板とが、封止膜を介して貼り合わされている
     請求項6に記載の撮像装置。
  10.  前記空洞は、前記ガラス基板と前記固体撮像素子のオンチップレンズを覆う平坦膜との間に形成されている
     請求項1に記載の撮像装置。
  11.  前記空洞は、前記ガラス基板と前記平坦膜とで封止されている
     請求項10に記載の撮像装置。
  12.  前記空洞の上下方向が前記ガラス基板と前記平坦膜とで囲まれ、前記空洞の平面方向が封止膜で囲まれることにより、前記空洞が封止されている
     請求項10に記載の撮像装置。
  13.  前記空洞は、前記ガラス基板と前記固体撮像素子のオンチップレンズとの間に形成されている
     請求項1に記載の撮像装置。
  14.  前記空洞の平面方向は前記ガラス基板で囲まれ、前記空洞が封止されている
     請求項13に記載の撮像装置。
  15.  前記空洞の平面方向は封止膜で囲まれ、前記空洞が封止されている
     請求項13に記載の撮像装置。
PCT/JP2020/020581 2019-06-06 2020-05-25 撮像装置 WO2020246293A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20818462.2A EP3982410A4 (en) 2019-06-06 2020-05-25 IMAGING DEVICE
US17/595,917 US20220236454A1 (en) 2019-06-06 2020-05-25 Imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-105899 2019-06-06
JP2019105899 2019-06-06

Publications (1)

Publication Number Publication Date
WO2020246293A1 true WO2020246293A1 (ja) 2020-12-10

Family

ID=73652859

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/020581 WO2020246293A1 (ja) 2019-06-06 2020-05-25 撮像装置

Country Status (3)

Country Link
US (1) US20220236454A1 (ja)
EP (1) EP3982410A4 (ja)
WO (1) WO2020246293A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023165232A (ja) * 2022-05-02 2023-11-15 維沃移動通信有限公司 固体撮像素子及び電子機器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005029A (ja) * 2004-06-15 2006-01-05 Fujitsu Ltd 撮像装置及びその製造方法
JP2013038164A (ja) * 2011-08-05 2013-02-21 Sony Corp 固体撮像装置、電子機器
JP2015061193A (ja) 2013-09-18 2015-03-30 ソニー株式会社 撮像素子、製造装置、製造方法、並びに電子機器
JP2018200423A (ja) * 2017-05-29 2018-12-20 ソニーセミコンダクタソリューションズ株式会社 撮像装置、および電子機器
JP2019047237A (ja) * 2017-08-31 2019-03-22 ソニーセミコンダクタソリューションズ株式会社 撮像装置、および電子機器、並びに撮像装置の製造方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100440544C (zh) * 2002-09-17 2008-12-03 安特约恩股份有限公司 照相装置、制造照相装置的方法以及晶片尺度的封装
WO2008108268A1 (ja) * 2007-03-06 2008-09-12 Sharp Kabushiki Kaisha 光学部材及びそれを備えた撮像デバイス

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005029A (ja) * 2004-06-15 2006-01-05 Fujitsu Ltd 撮像装置及びその製造方法
JP2013038164A (ja) * 2011-08-05 2013-02-21 Sony Corp 固体撮像装置、電子機器
JP2015061193A (ja) 2013-09-18 2015-03-30 ソニー株式会社 撮像素子、製造装置、製造方法、並びに電子機器
JP2018200423A (ja) * 2017-05-29 2018-12-20 ソニーセミコンダクタソリューションズ株式会社 撮像装置、および電子機器
JP2019047237A (ja) * 2017-08-31 2019-03-22 ソニーセミコンダクタソリューションズ株式会社 撮像装置、および電子機器、並びに撮像装置の製造方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3982410A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023165232A (ja) * 2022-05-02 2023-11-15 維沃移動通信有限公司 固体撮像素子及び電子機器
JP7431884B2 (ja) 2022-05-02 2024-02-15 維沃移動通信有限公司 固体撮像素子及び電子機器

Also Published As

Publication number Publication date
EP3982410A4 (en) 2022-08-03
US20220236454A1 (en) 2022-07-28
EP3982410A1 (en) 2022-04-13

Similar Documents

Publication Publication Date Title
JP7237956B2 (ja) 撮像装置
JPWO2019235249A1 (ja) 撮像装置
US11606519B2 (en) Imaging device
JP7446994B2 (ja) 撮像装置
WO2020246293A1 (ja) 撮像装置
CN112055826B (zh) 成像装置
WO2021187091A1 (ja) センサパッケージおよびその製造方法、並びに撮像装置
WO2021095562A1 (ja) 撮像装置および電子機器
WO2019097909A1 (ja) 半導体素子、半導体装置および半導体素子の製造方法
WO2021192584A1 (ja) 撮像装置およびその製造方法
US20240145510A1 (en) Imaging element, imaging device, and method for manufacturing imaging element
WO2020116088A1 (ja) 半導体装置および撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20818462

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2020818462

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: JP