WO2017163926A1 - 撮像装置、電子機器 - Google Patents

撮像装置、電子機器 Download PDF

Info

Publication number
WO2017163926A1
WO2017163926A1 PCT/JP2017/009669 JP2017009669W WO2017163926A1 WO 2017163926 A1 WO2017163926 A1 WO 2017163926A1 JP 2017009669 W JP2017009669 W JP 2017009669W WO 2017163926 A1 WO2017163926 A1 WO 2017163926A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
imaging device
input
signal
circuit
Prior art date
Application number
PCT/JP2017/009669
Other languages
English (en)
French (fr)
Inventor
信二 宮澤
佳明 桝田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/085,415 priority Critical patent/US10777598B2/en
Priority to DE112017001519.7T priority patent/DE112017001519T5/de
Priority to JP2018507215A priority patent/JPWO2017163926A1/ja
Priority to CN201780017130.8A priority patent/CN108780800B/zh
Priority to EP17769970.9A priority patent/EP3435414B1/en
Publication of WO2017163926A1 publication Critical patent/WO2017163926A1/ja
Priority to US16/938,324 priority patent/US11508773B2/en
Priority to US17/976,438 priority patent/US20230055685A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/70Manufacture or treatment of devices consisting of a plurality of solid state components formed in or on a common substrate or of parts thereof; Manufacture of integrated circuit devices or of parts thereof
    • H01L21/71Manufacture of specific parts of devices defined in group H01L21/70
    • H01L21/768Applying interconnections to be used for carrying current between separate components within a device comprising conductors and dielectrics
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L25/00Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof
    • H01L25/03Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes
    • H01L25/04Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers
    • H01L25/065Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers the devices being of a type provided for in group H01L27/00
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L25/00Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof
    • H01L25/03Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes
    • H01L25/04Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers
    • H01L25/07Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers the devices being of a type provided for in group H01L29/00
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L25/00Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof
    • H01L25/18Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof the devices being of types provided for in two or more different subgroups of the same main group of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/1469Assemblies, i.e. hybrid integration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/79Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2224/00Indexing scheme for arrangements for connecting or disconnecting semiconductor or solid-state bodies and methods related thereto as covered by H01L24/00
    • H01L2224/01Means for bonding being attached to, or being formed on, the surface to be connected, e.g. chip-to-package, die-attach, "first-level" interconnects; Manufacturing methods related thereto
    • H01L2224/42Wire connectors; Manufacturing methods related thereto
    • H01L2224/47Structure, shape, material or disposition of the wire connectors after the connecting process
    • H01L2224/48Structure, shape, material or disposition of the wire connectors after the connecting process of an individual wire connector
    • H01L2224/481Disposition
    • H01L2224/48151Connecting between a semiconductor or solid-state body and an item not being a semiconductor or solid-state body, e.g. chip-to-substrate, chip-to-passive
    • H01L2224/48221Connecting between a semiconductor or solid-state body and an item not being a semiconductor or solid-state body, e.g. chip-to-substrate, chip-to-passive the body and the item being stacked
    • H01L2224/48225Connecting between a semiconductor or solid-state body and an item not being a semiconductor or solid-state body, e.g. chip-to-substrate, chip-to-passive the body and the item being stacked the item being non-metallic, e.g. insulating substrate with or without metallisation
    • H01L2224/48227Connecting between a semiconductor or solid-state body and an item not being a semiconductor or solid-state body, e.g. chip-to-substrate, chip-to-passive the body and the item being stacked the item being non-metallic, e.g. insulating substrate with or without metallisation connecting the wire to a bond pad of the item
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2224/00Indexing scheme for arrangements for connecting or disconnecting semiconductor or solid-state bodies and methods related thereto as covered by H01L24/00
    • H01L2224/01Means for bonding being attached to, or being formed on, the surface to be connected, e.g. chip-to-package, die-attach, "first-level" interconnects; Manufacturing methods related thereto
    • H01L2224/42Wire connectors; Manufacturing methods related thereto
    • H01L2224/47Structure, shape, material or disposition of the wire connectors after the connecting process
    • H01L2224/48Structure, shape, material or disposition of the wire connectors after the connecting process of an individual wire connector
    • H01L2224/484Connecting portions
    • H01L2224/48463Connecting portions the connecting portion on the bonding area of the semiconductor or solid-state body being a ball bond
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2224/00Indexing scheme for arrangements for connecting or disconnecting semiconductor or solid-state bodies and methods related thereto as covered by H01L24/00
    • H01L2224/73Means for bonding being of different types provided for in two or more of groups H01L2224/10, H01L2224/18, H01L2224/26, H01L2224/34, H01L2224/42, H01L2224/50, H01L2224/63, H01L2224/71
    • H01L2224/732Location after the connecting process
    • H01L2224/73251Location after the connecting process on different surfaces
    • H01L2224/73257Bump and wire connectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L24/00Arrangements for connecting or disconnecting semiconductor or solid-state bodies; Methods or apparatus related thereto
    • H01L24/01Means for bonding being attached to, or being formed on, the surface to be connected, e.g. chip-to-package, die-attach, "first-level" interconnects; Manufacturing methods related thereto
    • H01L24/42Wire connectors; Manufacturing methods related thereto
    • H01L24/47Structure, shape, material or disposition of the wire connectors after the connecting process
    • H01L24/48Structure, shape, material or disposition of the wire connectors after the connecting process of an individual wire connector
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L24/00Arrangements for connecting or disconnecting semiconductor or solid-state bodies; Methods or apparatus related thereto
    • H01L24/73Means for bonding being of different types provided for in two or more of groups H01L24/10, H01L24/18, H01L24/26, H01L24/34, H01L24/42, H01L24/50, H01L24/63, H01L24/71

Definitions

  • the present disclosure relates to an imaging apparatus and an electronic apparatus, and more particularly, to an imaging apparatus and an electronic apparatus that can further reduce the apparatus size.
  • Imaging devices such as CMOS (Complementary Metal Oxide Semiconductor) image sensors have been further miniaturized, such as a configuration in which a plurality of semiconductor substrates are stacked (see, for example, Patent Document 1).
  • CMOS Complementary Metal Oxide Semiconductor
  • the area occupied by the terminal portion from which the output signal is extracted becomes larger with respect to the planar size of the apparatus, making it difficult to reduce the size.
  • the present disclosure has been made in view of such a situation, and enables the apparatus size to be further reduced.
  • a first imaging device includes a first structure in which a pixel array unit in which pixels that perform photoelectric conversion are two-dimensionally arranged is formed, and an input circuit unit that inputs a predetermined signal from the outside of the device An output circuit unit for outputting a pixel signal output from the pixel to the outside of the device and a signal processing circuit are formed, and a second structure located below the first structure is stacked.
  • An output unit including a signal output external terminal for connecting the unit to the outside of the device, the input circuit unit, a second through via connected to the input circuit unit and penetrating the semiconductor substrate, and the second through via
  • the input circuit section through the device An input unit including a signal input external terminal connected to the unit is disposed below the pixel array unit of the first structure, and is connected to the signal output external terminal and the signal input external terminal. And a circuit board connected to a surface of the substrate opposite to a surface to which the signal output external terminal and the signal input external terminal are connected.
  • a second imaging device includes a first structure in which a pixel array unit in which pixels that perform photoelectric conversion are two-dimensionally arranged is formed, and a glass substrate that is located above the first structure.
  • a transmittance attenuating layer positioned above the first structure for attenuating the transmittance of incident light; an input circuit unit for inputting a predetermined signal from the outside of the device; and a pixel signal output from the pixel
  • An output circuit unit for outputting to the outside and a signal processing circuit are formed, and a second structure located below the first structure is laminated to form the output circuit unit, the output A first through via that is connected to the circuit unit and penetrates a semiconductor substrate that forms part of the second structure, and a signal output that connects the output circuit unit to the outside of the device through the first through via.
  • An output unit including external terminals and the input circuit unit, A second through via connected to the input circuit section and penetrating the semiconductor substrate; and an input section including an external terminal for signal input connecting the input circuit section to the outside of the device through the second through via.
  • the first structure body is disposed below the pixel array section.
  • a third imaging device includes a first structure in which a pixel array unit in which pixels that perform photoelectric conversion are two-dimensionally arranged is formed, and is positioned above the first structure.
  • a glass substrate whose incident surface is moth-eye processed, an input circuit unit for inputting a predetermined signal from the outside of the device, an output circuit unit for outputting the pixel signal output from the pixel to the outside of the device, and A signal processing circuit is formed, and a second structure located below the first structure is stacked and connected to the output circuit unit and the output circuit unit, and a part of the second structure
  • a first through via that penetrates the semiconductor substrate that constitutes the output, an output unit including an external terminal for signal output that connects the output circuit unit to the outside of the device via the first through via, and the input circuit unit Connected to the input circuit portion and the semiconductor substrate.
  • a second through-via that passes through the input circuit, and an input unit that includes an external terminal for signal input that connects the input circuit unit to the outside of the device through the second through-
  • An electronic apparatus includes a first structure in which a pixel array unit in which pixels that perform photoelectric conversion are two-dimensionally formed is formed, an input circuit unit that inputs a predetermined signal from the outside of the device, and the pixel An output circuit unit for outputting a pixel signal output from the device to the outside of the device and a signal processing circuit are formed, and a second structure located below the first structure is stacked.
  • the output circuit unit the first through via that is connected to the output circuit unit and forms a part of the second structure and penetrates the semiconductor substrate, and the output circuit unit through the first through via
  • An output unit including an external terminal for signal output connected to the outside of the device, the input circuit unit, a second through via connected to the input circuit unit and penetrating through the semiconductor substrate, and the second through via
  • the input circuit unit is connected to the outside of the device.
  • An input portion including a signal input external terminal that is connected to the substrate, the substrate being disposed below the pixel array portion of the first structure and connected to the signal output external terminal and the signal input external terminal;
  • the signal output external terminal of the substrate and a circuit board connected to a surface opposite to a surface to which the signal input external terminal is connected.
  • the output circuit unit for outputting the pixel signal output from the pixel to the outside of the device, and the signal processing circuit are formed, and the second structure located below the first structure is stacked. It is configured.
  • An input unit including a signal input external terminal is disposed below the pixel array unit of the first structure.
  • An output circuit section for outputting to the signal and a signal processing circuit are formed, and a second structure located below the first structure is laminated.
  • the output circuit unit is connected to the output circuit unit, the first through via penetrating the semiconductor substrate constituting a part of the second structure, and the output circuit unit is connected to the outside of the device through the first through via.
  • An input section including an external terminal for signal input is disposed below the pixel array section of the first structure.
  • a glass substrate whose incident surface is moth-eye processed, an input circuit unit for inputting a predetermined signal from the outside of the device, an output circuit unit for outputting a pixel signal output from the pixel to the outside of the device, and a signal A processing circuit is formed, and a second structure located below the first structure is stacked.
  • An input unit including a signal input external terminal is disposed below the pixel array unit of the first structure.
  • the electronic apparatus is an apparatus including the first imaging device.
  • the device size can be further reduced.
  • FIG. 6 is a diagram showing a cross-sectional structure taken along line A-A ′ of FIG. 5. It is a figure showing the 2nd circuit arrangement composition example of circuit arrangement in an imaging device.
  • FIG. 8 is a diagram showing a cross-sectional structure taken along line B-B ′ of FIG. 7.
  • FIG. 6 is a diagram illustrating a cross section in a final shape of an imaging apparatus as Comparative Example 1.
  • FIG. 10 is a diagram illustrating a cross section in a final shape of an imaging apparatus as Comparative Example 2.
  • FIG. 10 is a diagram illustrating a cross section in a final shape of an imaging apparatus as Comparative Example 3. It is a figure which shows the 3rd circuit arrangement structural example of the circuit arrangement in an imaging device. It is a figure showing the 4th circuit arrangement composition example of circuit arrangement in an imaging device. It is a figure which shows the cross-section in the C-C 'line
  • FIG. 21 is a diagram showing a cross-sectional structure taken along line D-D ′ of FIG. 20. It is a figure which shows the 11th circuit arrangement configuration example of the circuit arrangement in an imaging device. 2 is an enlarged cross-sectional view of the vicinity of the outer periphery of the imaging apparatus 1.
  • FIG. It is a figure explaining the manufacturing method of the imaging device of a twin contact structure. It is a figure explaining the manufacturing method of the imaging device of a twin contact structure. It is a figure explaining the manufacturing method of the imaging device of a twin contact structure. It is a figure explaining the manufacturing method of the imaging device of a twin contact structure. It is a figure explaining the manufacturing method of the imaging device of a twin contact structure. It is a figure explaining the manufacturing method of the imaging device of a twin contact structure. It is a figure explaining the manufacturing method of the imaging device of a twin contact structure. It is a figure explaining the manufacturing method of the imaging device of a twin contact structure. It is a figure explaining the manufacturing method of the imaging device of a twin contact structure. It is a figure explaining the manufacturing method of the imaging device of a twin contact structure. It is a figure explaining the manufacturing method of the imaging device of a twin contact structure. It is a figure explaining the manufacturing method of the imaging device of a twin contact structure.
  • FIG. 1 shows a schematic structure of an imaging apparatus as a semiconductor device employing the present technology.
  • the imaging device 1 shown in FIG. 1 converts light or electromagnetic waves incident on the device in the direction of the arrow in the figure into an electrical signal.
  • an apparatus that converts light into an electrical signal will be described as an example of an object to be converted into an electrical signal.
  • the imaging apparatus 1 includes a stacked structure 13 in which a first structure 11 and a second structure 12 are stacked, an external terminal 14, and a protective substrate 18 formed on the upper side of the first structure 11.
  • the first structure 11 is shown as an upper structure in FIG. 1 with the incident surface side on which light is incident on the device as the upper side and the other surface side of the device facing the incident surface as the lower side.
  • the body 11 and the second structure 12 will be referred to as the lower structure 12.
  • the imaging apparatus 1 includes a semiconductor substrate (wafer) that forms part of the upper structure 11, a semiconductor substrate (wafer) that forms part of the lower structure 12, and a protective substrate 18. Are bonded to each image pickup apparatus 1 after being bonded at the wafer level.
  • the upper structure 11 before being solidified is a semiconductor substrate (wafer) on which pixels for converting incident light into electrical signals are formed.
  • the pixel includes, for example, a photodiode (PD) for photoelectric conversion, and a plurality of pixel transistors that control the photoelectric conversion operation and the operation of reading the photoelectrically converted electric signal.
  • the upper structure 11 included in the imaging device 1 after being separated into pieces may be referred to as an upper chip, an image sensor substrate, or an image sensor chip.
  • the pixel transistor included in the imaging device 1 is preferably, for example, a MOS transistor.
  • an R (red), G (green), or B (blue) color filter 15 and an on-chip lens 16 are formed on the upper surface of the upper structure 11.
  • a protective substrate 18 for protecting the structure of the imaging device 1, particularly the on-chip lens 16 and the color filter 15, is disposed above the on-chip lens 16.
  • the protective substrate 18 is a transparent glass substrate, for example. If the hardness of the protective substrate 18 is higher than the hardness of the on-chip lens 16, the effect of protecting the on-chip lens 16 is enhanced.
  • the lower structure 12 before being solidified is a semiconductor substrate (wafer) on which a semiconductor circuit including transistors and wirings is formed.
  • the lower structure 12 included in the imaging device 1 after being separated into pieces may be referred to as a lower chip, a signal processing board, or a signal processing chip.
  • the lower structure 12 is formed with a plurality of external terminals 14 for electrical connection with wiring (not shown) outside the apparatus.
  • the external terminal 14 is, for example, a solder ball.
  • the imaging device 1 has a cavityless structure in which a protective substrate 18 is fixed to the upper side of the upper structure 11 or the upper side of the on-chip lens 16 through a glass seal resin 17 disposed on the on-chip lens 16. Yes. Since the glass seal resin 17 has a hardness lower than that of the protective substrate 18, the stress applied to the protective substrate 18 from the outside of the imaging device 1 is transmitted to the inside of the device as compared with the case where the seal resin is not present. Can act to alleviate.
  • the imaging device 1 has a columnar or wall-like structure on the upper surface of the upper structure 11 as a structure different from the cavityless structure, and the protective substrate 18 is carried above the on-chip lens 16 with a gap. As described above, a cavity structure fixed to the columnar or wall-like structure may be formed.
  • FIG. 2 is a block diagram illustrating a system configuration example of the imaging apparatus 1.
  • pixel array unit 24 in which a plurality of pixels 31 each having a photoelectric conversion unit (PD) are arranged in a row direction and a column direction.
  • PD photoelectric conversion unit
  • the pixel array unit 24 includes a row drive signal line 32 for driving the pixel 31 for each row and a vertical signal line for reading a signal generated as a result of photoelectric conversion from the plurality of pixels 31 driven for each row. (Column readout line) 33 is provided. As shown in FIG. 2, a plurality of pixels 31 arranged in the row direction are connected to one row drive signal line 32. A plurality of pixels 31 arranged in the column direction are connected to one vertical signal line 33.
  • the imaging apparatus 1 further includes a row driving unit 22 and a column signal processing unit 25.
  • the row driving unit 22 includes, for example, a row address control unit that determines the position of a row for pixel driving, in other words, a row decoder unit, and a row driving circuit unit that generates a signal for driving the pixel 31.
  • the column signal processing unit 25 includes, for example, a load circuit unit that is connected to the vertical signal line 33 and forms a source follower circuit with the pixel 31. Further, the column signal processing unit 25 may include an amplification circuit unit that amplifies a signal read from the pixel 31 via the vertical signal line 33. Further, the column signal processing unit 25 may further include a noise processing unit for removing the noise level of the system from the signal read from the pixel 31 as a result of the photoelectric conversion.
  • the column signal processing unit 25 includes an analog-digital converter (ADC) for converting a signal read from the pixel 31 or the analog signal subjected to the noise processing into a digital signal.
  • the ADC includes a comparator unit for comparing the analog signal to be converted with the reference sweep signal to be compared, and a counter unit for measuring the time until the comparison result in the comparator unit is inverted.
  • the column signal processing unit 25 may further include a horizontal scanning circuit unit that performs control of scanning the readout column.
  • the imaging device 1 further includes a timing control unit 23.
  • the timing control unit 23 supplies a signal for controlling the timing to the row driving unit 22 and the column signal processing unit 25 based on the reference clock signal and the timing control signal input to the apparatus.
  • all or part of the row driving unit 22, the column signal processing unit 25, and the timing control unit 23 may be simply referred to as a pixel peripheral circuit unit, a peripheral circuit unit, or a control circuit unit. .
  • the imaging device 1 further includes an image signal processing unit 26.
  • the image signal processing unit 26 is a circuit that performs various types of signal processing on the data obtained as a result of the photoelectric conversion, in other words, the data obtained as a result of the imaging operation in the imaging device 1.
  • the image signal processing unit 26 includes, for example, an image signal processing circuit unit and a data holding unit.
  • the image signal processing unit 26 may further include a processor unit.
  • An example of signal processing executed in the image signal processing unit 26 is a case where AD-converted imaging data is data obtained by photographing a bright subject with a large gradation when the data is obtained by photographing a dark subject. Is a tone curve correction process for reducing gradation. In this case, it is desirable to store the tone curve characteristic data in advance in the data holding unit of the image signal processing unit 26 as to what tone curve is used to correct the gradation of the imaging data.
  • the imaging device 1 further includes an input unit 21A.
  • the input unit 21A for example, the timing clock signal such as the reference clock signal, the vertical synchronization signal and the horizontal synchronization signal, and the characteristic data stored in the data holding unit of the image signal processing unit 26 from the outside of the apparatus. Enter.
  • the input unit 21 ⁇ / b> A includes an input terminal 41 that is an external terminal 14 for inputting data to the imaging device 1, and an input circuit unit 42 that captures a signal input to the input terminal 41 into the imaging device 1.
  • the input unit 21A further includes an input amplitude changing unit 43 that changes the amplitude of the signal captured by the input circuit unit 42 to an amplitude that can be easily used inside the imaging apparatus 1.
  • the input unit 21A further includes an input data conversion circuit unit 44 that changes the arrangement of the data string of the input data.
  • the input data conversion circuit unit 44 is, for example, a serial / parallel conversion circuit that receives a serial signal as input data and converts it into a parallel signal.
  • the input unit 21A can further include a memory interface circuit that receives data from these external memory devices.
  • the imaging device 1 further includes an output unit 21B.
  • the output unit 21B outputs the image data captured by the imaging device 1 and the image data processed by the image signal processing unit 26 from the imaging device 1 to the outside of the device.
  • the output unit 21B is an output terminal 48 that is an external terminal 14 for outputting data from the imaging device 1 to the outside of the device, and a circuit that outputs data from the inside of the imaging device 1 to the outside of the device.
  • an output circuit unit 47 which is a circuit for driving external wiring outside the connected imaging device 1.
  • the output unit 21B further includes an output amplitude changing unit 46 that changes the amplitude of a signal used inside the imaging apparatus 1 to an amplitude that can be easily used by an external device connected to the outside of the imaging apparatus 1.
  • the output unit 21B further includes an output data conversion circuit unit 45 that changes the arrangement of the data string of the output data.
  • the output data conversion circuit unit 45 is, for example, a parallel / serial conversion circuit that converts a parallel signal used in the imaging apparatus 1 into a serial signal.
  • the output data conversion circuit unit 45 and the output amplitude change unit 46 may be omitted.
  • the output unit 21B can further include a memory interface circuit that outputs data to these external memory devices. .
  • a circuit block including both or at least one of the input unit 21A and the output unit 21B may be referred to as the input / output unit 21.
  • a circuit unit including at least one of the input circuit unit 42 and the output circuit unit 47 may be referred to as an input / output circuit unit 49.
  • FIG. 3 shows a circuit arrangement configuration example of the pixel 31 of the imaging device 1 according to the present embodiment.
  • the pixel 31 includes a photodiode 51 as a photoelectric conversion element, a transfer transistor 52, an FD (floating diffusion) 53, a reset transistor 54, an amplification transistor 55, and a selection transistor 56.
  • the photodiode 51 generates and accumulates charges (signal charges) corresponding to the received light quantity.
  • the photodiode 51 has an anode terminal grounded and a cathode terminal connected to the FD 53 via the transfer transistor 52.
  • the transfer transistor 52 When the transfer transistor 52 is turned on by the transfer signal TR, the transfer transistor 52 reads out the electric charge generated by the photodiode 51 and transfers it to the FD 53.
  • the FD 53 holds the electric charge read from the photodiode 51.
  • the reset transistor 54 is turned on by the reset signal RST, the charge accumulated in the FD 53 is discharged to the drain (constant voltage source Vdd), thereby resetting the potential of the FD 53.
  • the amplification transistor 55 outputs a pixel signal corresponding to the potential of the FD 53. That is, the amplification transistor 55 constitutes a load MOS (not shown) as a constant current source connected via the vertical signal line 33 and a source follower circuit, and shows a level corresponding to the charge accumulated in the FD 53. A pixel signal is output from the amplification transistor 55 to the column signal processing unit 25 via the selection transistor 56 and the vertical signal line 33.
  • the selection transistor 56 is turned on when the pixel 31 is selected by the selection signal SEL, and outputs the pixel signal of the pixel 31 to the column signal processing unit 25 via the vertical signal line 33.
  • Each signal line to which the transfer signal TR, the selection signal SEL, and the reset signal RST are transmitted corresponds to the row drive signal line 32 in FIG.
  • the pixel 31 can be configured as described above, but is not limited to this configuration, and other configurations may be employed.
  • FIG. 4 shows a circuit arrangement configuration example of the input circuit unit 42 provided in the input unit 21A and the output circuit unit 47 provided in the output unit 21B of the imaging apparatus 1 according to the present embodiment.
  • the input / output circuit unit 49 may include either the input circuit unit 42 or the output circuit unit 47 with respect to one external terminal 14, or both the input circuit unit 42 and the output circuit unit 47 may be included. May be a bidirectional input / output circuit configuration.
  • the input circuit unit 42 is a circuit having the following characteristics.
  • the logic is the same or only inverted between data input from the input terminal 41 of the imaging device 1 to the input circuit unit 42 and data output from the input circuit unit 42 to the internal circuit of the imaging device 1. In other words, it is a circuit that does not change the arrangement of the data in the signal sequence. In other words, logic “1” and “0” or “Hi” and “Low” are switched in the signal sequence. This circuit does not change the position.
  • the voltage amplitude of the signal input to the input terminal 41 of the image pickup apparatus 1 is preferably received by a circuit disposed in the subsequent stage of the input circuit unit 42, in other words, a circuit that is more internal in the image pickup apparatus 1. It is a circuit to convert to. This circuit may convert data input to the circuit in a direction in which the voltage amplitude decreases.
  • a signal (for example, LVDS small-amplitude differential signal) input to the input circuit unit 42 becomes more internal in the imaging device 1 in other words, a circuit arranged at the subsequent stage of the input circuit unit 42 It is a circuit that converts the output into a format or voltage amplitude (for example, a digital signal that fully swings in a single end) that is preferable for reception by the circuit and outputs the converted signal.
  • This circuit may convert data input to the circuit in a direction in which the voltage amplitude increases.
  • the output circuit unit 47 is a circuit having the following characteristics. (1) In data input from the internal circuit of the imaging device 1 to the output circuit unit 47 and data output from the output circuit unit 47 to the outside of the imaging device 1 via the output terminal 48 of the imaging device 1, Circuits that have the same or only inverted logic, in other words, circuits that do not change the arrangement of data in the signal string. In other words, logic “1” and “0” or “Hi” in the signal string. This is a circuit that does not change the position where “low” and “low” are switched.
  • the circuit increases the voltage amplitude of the signal line.
  • This circuit may convert data input to the circuit in a direction in which the voltage amplitude increases.
  • an external element connected to the output terminal 48 preferably receives a signal (a digital signal that performs a full swing at a single end) input from an internal circuit of the imaging apparatus 1 to the output circuit unit 47.
  • a signal a digital signal that performs a full swing at a single end
  • This is a circuit that converts the signal into a format or voltage amplitude (for example, LVDS small amplitude differential signal) and outputs the signal.
  • This circuit may convert data input to the circuit in a direction in which the voltage amplitude decreases.
  • the input / output circuit section 49 including at least one of the input circuit section 42 and the output circuit section 47 includes one or more transistors.
  • a transistor included in the input / output circuit unit 49 may be referred to as an input / output transistor.
  • the input / output circuit unit 49 may include an inverter circuit, a buffer circuit, and the like, and may further include an enable circuit that controls an input operation or an output operation.
  • the input circuit unit 42 or the output circuit unit 47 can also serve as an amplitude change unit for the input signal or the output signal by appropriately setting the power supply voltage used in the circuit.
  • the amplitude of a signal in a part of the pixel peripheral circuit unit of the imaging device 1 or the image signal processing unit 26 is V2
  • the circuit of the input circuit unit 42 or the output circuit unit 47 is, for example, in the circuit shown in FIG.
  • the input circuit unit 42 receives a signal of amplitude V1 from the outside, The amplitude is reduced to V2 and input to the internal circuit of the imaging apparatus 1, and the output circuit unit 47 receives the signal of the amplitude V2 from the internal circuit of the imaging apparatus 1, and increases the amplitude to V1 to the outside.
  • Output Can When the voltages V1 and V2 shown in FIG. 4 are the same voltage, the signal amplitude changing function is not provided.
  • the reference voltage in the transistor circuit in the case of the circuit of FIG. 4, the ground voltage
  • the voltage of the power source supplied to the circuit that is different from the reference voltage In the case of the circuit of FIG. 4, for example, the voltage difference from V1
  • a power supply voltage In the case of the circuit of FIG. 4, for example, the voltage difference from V1
  • FIG. 5 is a diagram illustrating a first circuit arrangement configuration example of the circuit arrangement in the imaging apparatus 1.
  • the pixel array unit 24 is arranged in the upper structure 11.
  • a part of the row driving unit 22 is disposed in the upper structure 11 and a part is disposed in the lower structure 12.
  • the row driving circuit unit is arranged in the upper structure 11 and the row decoder unit is arranged in the lower structure 12.
  • the row drive unit 22 arranged in the upper structure 11 is arranged outside the pixel array unit 24 in the row direction, and at least a part of the row drive unit 22 arranged in the lower structure 12 is the upper structure. 11 is disposed on the lower side of the row drive unit 22 provided in the vehicle 11.
  • a part of the column signal processing unit 25 is disposed on the upper structure 11 and a part is disposed on the lower structure 12.
  • the load circuit unit, the amplification circuit unit, the noise processing unit, and the ADC comparator unit are arranged in the upper structure 11, and the ADC counter unit is arranged in the lower structure 12. ing.
  • the column signal processing unit 25 arranged in the upper structure 11 is arranged outside the pixel array unit 24 in the column direction, and at least a part of the column signal processing unit 25 arranged in the lower structure 12 is on the upper side. It is disposed below the column signal processing unit 25 provided in the structure 11.
  • the wiring connection part 29 is arranged. In these wiring connection portions 29, a wiring connection structure described later with reference to FIG. 6 is used.
  • An image signal processing unit 26 is arranged inside the row driving unit 22 and the column signal processing unit 25 arranged in the lower structure 12.
  • the input / output circuit section 49 is arranged in a region below the pixel array section 24 of the upper structure 11.
  • the input / output circuit unit 49 is a circuit unit including both or at least one of the input circuit unit 42 and the output circuit unit 47.
  • the input / output circuit unit 49 includes both the input circuit unit 42 and the output circuit unit 47, the input / output circuit unit 49 is divided for each external terminal 14 and a plurality of input / output circuit units 49 are arranged in the lower structure 12.
  • the input / output circuit unit 49 is configured by only the input circuit unit 42, the input circuit unit 42 is divided into one external terminal 14 (input terminal 41), and a plurality of input circuit units 42 are arranged in the lower structure 12.
  • the output circuit unit 47 is divided into one external terminal 14 (output terminal 48), and a plurality of the output circuit units 47 are arranged in the lower structure 12.
  • An image signal processing unit 26 is arranged around each of the input / output circuit units 49 arranged in a plurality. In other words, the input / output circuit unit 49 is arranged in the area where the image signal processing unit 26 is arranged.
  • the input / output circuit unit 49 may be disposed in a region below the row driving unit 22 or the column signal processing unit 25 of the upper structure 11.
  • the input / output circuit section 49 is on the lower structure 12 side where the external terminals 14 are formed, and below the area of the pixel array section 24 of the upper structure 11 or around the pixels of the upper structure 11.
  • the circuit portion (a circuit portion formed in the upper structure 11 in the pixel peripheral circuit region 313 in FIG. 6) can be disposed in any region below.
  • the input terminal 41 and the input circuit unit 42 and the output circuit unit 47 and the output terminal 48 are arranged.
  • a power supply terminal and a ground terminal may be arranged in the region.
  • the power supply voltage of the transistor circuits constituting the input circuit unit 42 and the output circuit unit 47 is higher than the power supply voltage of the transistor circuits constituting the image signal processing unit 26. May be.
  • the power supply voltage of the transistor circuit constituting the input circuit unit 42 and the output circuit unit 47 is 1.8V to 3.3V
  • the power supply voltage of the transistor circuit constituting the image signal processing unit 26 is 1.2V to 1V. It may be 5V.
  • the input circuit section 42 and output circuit section 47 Since the power supply voltage of the former (transistor circuit constituting the input circuit section 42 and output circuit section 47) and the power supply voltage of the latter (transistor circuit constituting the image signal processing section 26) are different, the input circuit section 42 and output circuit section 47, a distance for arranging the well region to which the power supply voltage is applied and the well region to which the power supply voltage is applied in the image signal processing unit 26 arranged around these well regions, the width of the so-called well isolation region Is preferably larger than the distance provided between the plurality of well regions to which the power supply voltage is applied in the image signal processing unit 26.
  • the depth of the element isolation region provided in the input circuit unit 42 and the output circuit unit 47 may be deeper than the depth of the element isolation region provided in the image signal processing unit 26.
  • the gate lengths of the transistors provided in the input circuit unit 42 and the output circuit unit 47 are preferably larger than the gate lengths of the transistors provided in the image signal processing unit 26.
  • a part of the pixel peripheral circuit unit disposed in the upper structure 11 for example, a load circuit unit, an amplifier circuit unit, a noise processing unit, and the column signal processing unit 25
  • the power supply voltage of the transistor circuit that constitutes one of the comparator sections of the ADC is a transistor that constitutes a part of the pixel peripheral circuit section disposed in the lower structure 12, for example, the counter section of the ADC provided in the column signal processing section 25 It may be higher than the power supply voltage of the circuit.
  • the former (a pixel peripheral circuit unit disposed in the upper structure 11, such as a load circuit unit, an amplifier circuit unit, a noise processing unit, or a comparator unit of an ADC provided in the column signal processing unit 25) transistor
  • the power supply voltage of the circuit is 1.8 V to 3.3 V
  • the power supply voltage of the transistor circuit of the latter (pixel peripheral circuit portion arranged in the lower structure 12, for example, the counter portion of the ADC) is 1.2 V to 1 It may be 5V.
  • the power supply voltage of the latter transistor circuit may be the same as the power supply voltage of the transistor circuit constituting the image signal processing unit 26 arranged in the lower structure 12. Since the power supply voltage of the former transistor circuit is higher than the power supply voltage of the latter transistor circuit, the distance provided between the plurality of well regions to which the power supply voltage is applied in the former transistor circuit is the same as that in the latter transistor circuit. It is desirable that the distance is larger than the distance provided between the plurality of well regions to which the power supply voltage is applied.
  • the depth of the element isolation region provided in the former transistor circuit is preferably deeper than the depth of the element isolation region provided in the latter transistor circuit.
  • the gate length of the transistor included in the former transistor circuit is preferably larger than the gate length of the transistor included in the latter transistor circuit.
  • the power supply voltage of the pixel transistor circuit constituting the pixel 31 disposed in the upper structure 11 is supplied from the pixel peripheral circuit section (for example, the load circuit section and the amplification circuit provided in the column signal processing section 25) disposed in the upper structure 11. May be the same as the power supply voltage of the transistor circuit that constitutes the circuit unit, the noise processing unit, or the ADC comparator unit).
  • the power supply voltage of the pixel transistor circuit constituting the pixel 31 arranged in the upper structure 11 constitutes a pixel peripheral circuit unit (for example, a counter unit of ADC) or an image signal processing unit 26 arranged in the lower structure 12. It may be higher than the power supply voltage of the transistor circuit. Therefore, when an element isolation region having a structure in which a semiconductor substrate is dug is used as the element isolation region, the depth of a part of the element isolation region provided around the pixel transistor disposed in the upper structure 11 is lower It may be deeper than the depth of the element isolation region provided around the transistor of the pixel peripheral circuit unit or the image signal processing unit 26 arranged in the structure 12.
  • an element isolation region around the pixel transistor not an element isolation region in which a semiconductor substrate is dug, but an element isolation in which an impurity region having a conductivity type opposite to the diffusion layer region of the pixel transistor is formed around the pixel transistor.
  • a region may be used as a part.
  • the gate length of the pixel transistor arranged in the upper structure 11 may be larger than the gate length of the transistor in the pixel peripheral circuit unit or the image signal processing unit 26 arranged in the lower structure 12.
  • the depth of the element isolation region provided around the pixel transistors arranged in the upper structure 11 is reduced. The depth may be shallower than the depth of the element isolation region provided around the transistor constituting the pixel peripheral circuit portion arranged in the upper structure 11.
  • an element isolation region around the pixel transistor not an element isolation region in which a semiconductor substrate is dug, but an element isolation in which an impurity region having a conductivity type opposite to the diffusion layer region of the pixel transistor is formed around the pixel transistor.
  • a region may be used as a part.
  • FIG. 6 is a diagram showing a cross-sectional structure of the imaging apparatus 1 along the line AA ′ in FIG. For convenience, a part of FIG. 6 is described instead of a cross-sectional structure in another configuration example of the present technology to be described later.
  • a plurality of pixels 31 including an on-chip lens 16, a color filter 15, a pixel transistor, and a photodiode 51 are arranged in an array in a portion including the upper structure 11 provided in the imaging device 1 and the upper portion thereof.
  • the pixel array unit 24 is arranged.
  • a pixel transistor region 301 is also arranged in the region (pixel array region) of the pixel array unit 24.
  • the pixel transistor region 301 is a region where at least one pixel transistor of the transfer transistor 52, the amplification transistor 55, and the reset transistor 54 is formed.
  • a plurality of external terminals 14 are arranged on the lower surface of the semiconductor substrate 81 provided in the lower structure 12 and in a region located below the pixel array unit 24 provided in the upper structure 11.
  • a region located on the lower surface of the semiconductor substrate 81 included in the lower structure 12 and below the pixel array unit 24 included in the upper structure 11 is defined as the first.
  • the specific region, “a region located on the upper surface of the semiconductor substrate 81 included in the lower structure 12 and below the pixel array unit 24 included in the upper structure 11” is referred to as a second specific region.
  • At least a part of the plurality of external terminals 14 arranged in the first specific region is a signal input terminal 14A for inputting a signal from the outside to the imaging device 1 or a signal for outputting a signal from the imaging device 1 to the outside.
  • This is the output terminal 14B.
  • the signal input terminal 14 ⁇ / b> A and the signal output terminal 14 ⁇ / b> B are the external terminals 14 excluding the power supply terminal and the ground terminal from the external terminals 14.
  • the signal input terminal 14A or the signal output terminal 14B is referred to as a signal input / output terminal 14C.
  • a through via 88 penetrating the semiconductor substrate 81 is disposed in the first specific region and in the vicinity of the signal input / output terminal 14C.
  • the via hole penetrating the semiconductor substrate 81 and the via wiring formed therein may be simply referred to as a through via 88.
  • the through via hole is a conductive pad 322 (hereinafter referred to as the end of the via hole) that is a part of the multilayer wiring layer 82 disposed above the upper surface of the semiconductor substrate 81 from the lower surface of the semiconductor substrate 81 It is desirable that the structure is formed by digging up to the via pad 322).
  • the signal input / output terminal 14C arranged in the first specific region is electrically connected to a through via 88 (more specifically, a via wiring formed in the through via hole) similarly arranged in the first specific region.
  • An input / output circuit section 49 including the input circuit section 42 or the output circuit section 47 is disposed in the second specific area and in the vicinity of the signal input / output terminal 14C and the through via.
  • the signal input / output terminal 14C arranged in the first specific region is electrically connected to the input / output circuit unit 49 via the through via 88, the via pad 322, or a part of the multilayer wiring layer 82.
  • the area where the input / output circuit section 49 is arranged is called an input / output circuit area 311.
  • a signal processing circuit region 312 is formed adjacent to the input / output circuit region 311 on the upper surface of the semiconductor substrate 81 provided in the lower structure 12.
  • the signal processing circuit region 312 is a region where the image signal processing unit 26 described with reference to FIG. 2 is formed.
  • a pixel peripheral circuit area 313 The area where the pixel peripheral circuit section including all or part of the row driving section 22 and the column signal processing section 25 described with reference to FIG. 2 is referred to as a pixel peripheral circuit area 313.
  • a pixel peripheral circuit region 313 is provided in a region outside the pixel array unit 24. Has been placed.
  • the signal input / output terminal 14C may be disposed in a region below the input / output circuit region 311 disposed in the lower structure 12, or may be disposed in a region below the signal processing circuit region 312. May be.
  • the signal input / output terminal 14 ⁇ / b> C may be disposed below the pixel peripheral circuit unit such as the row driving unit 22 or the column signal processing unit 25 disposed in the lower structure 12.
  • the wiring connection structure that connects the wiring included in the multilayer wiring layer 102 of the upper structure 11 and the wiring included in the multilayer wiring layer 82 of the lower structure 12 is referred to as a vertical wiring connection structure.
  • a region where this structure is arranged is sometimes referred to as an upper and lower wiring connection region 314.
  • the vertical wiring connection structure includes a first through electrode (silicon through electrode) 109 that penetrates the semiconductor substrate 101 from the upper surface of the upper structure 11 to the multilayer wiring layer 102, and a semiconductor substrate from the upper surface of the upper structure 11. 101 and the second through-hole electrode (chip through-electrode) 105 that penetrates the multi-layer wiring layer 102 and reaches the multi-layer wiring layer 82 of the lower structure 12 and these two through-electrodes (Through Silicon Via, TSV)
  • the through-electrode connection wiring 106 is formed.
  • such an upper and lower wiring connection structure may be referred to as a twin contact structure.
  • a vertical wiring connection region 314 is disposed outside the pixel peripheral circuit region 313.
  • the pixel peripheral circuit region 313 is formed in both the upper structure 11 and the lower structure 12, but may be formed in only one of them.
  • the upper and lower wiring connection region 314 is arranged outside the pixel array unit 24 and outside the pixel peripheral circuit region 313, but outside the pixel array unit 24.
  • the pixel peripheral circuit region 313 may be disposed inside.
  • two structures of the silicon through electrode 109 and the chip through electrode 105 are used as a structure for electrically connecting the multilayer wiring layer 102 of the upper structure 11 and the multilayer wiring layer 82 of the lower structure 12.
  • the twin contact structure is used to connect using through electrodes.
  • the wiring layer 103 of the upper structure 11 and the wiring of the lower structure 12 are used.
  • Each of the layers 83 may have a shared contact structure that is commonly connected to one through electrode.
  • FIG. 8 is a diagram showing a cross-sectional structure of the imaging apparatus 1 along the line B-B ′ of FIG. 7 when a structure different from the vertical wiring connection structure shown in FIG. 6 is used. For convenience, a part of FIG. 8 is described instead of a cross-sectional structure in another configuration example of the present technology described later.
  • the multilayer wiring layer 102 of the upper structure 11 has a part of the wiring on the lowermost surface of the multilayer wiring layer 102, in other words, between the upper structure 11 and the lower structure 12. It is arranged on the joint surface.
  • the multilayer wiring layer 82 of the lower structure 12 is also arranged with a part of the wiring on the uppermost surface of the multilayer wiring layer 82, in other words, on the joint surface between the upper structure 11 and the lower structure 12. .
  • a part of the wiring of the multilayer wiring layer 102 and a part of the wiring of the multilayer wiring layer 82 are arranged at substantially the same position on the joint surface, and the wirings are electrically connected.
  • two wirings may be in direct contact with each other, or a thin insulating film or high resistance film is formed between the two wirings, and a part of the formed film is formed. It may be in a form of electrical conduction. Alternatively, a thin insulating film or a high resistance film may be formed between the two wirings, and the two wirings may propagate an electric signal by capacitive coupling.
  • a part of the wiring of the multilayer wiring layer 102 of the upper structure 11 and a part of the wiring of the multilayer wiring layer 82 of the lower structure 12 are formed at substantially the same position on the joint surface.
  • a structure for electrically connecting two wirings there are cases where it is referred to as a vertical wiring direct connection structure or simply a wiring direct connection structure.
  • the substantially same position for example, when the imaging apparatus 1 is viewed from the upper side to the lower side, it is a position where at least a part of the two wirings to be electrically connected overlap each other. good.
  • this connection structure may be referred to as a Cu—Cu direct junction structure or simply a Cu—Cu junction structure.
  • this connection structure can be arranged outside the pixel array unit 24.
  • this connection structure can be arranged inside the pixel peripheral circuit region 313 included in the upper structure 11 and inside the pixel peripheral circuit region 313 included in the lower structure 12.
  • the wiring arranged on the upper structure 11 side of the joint surface is the lower side of the circuit provided in the pixel peripheral circuit region 313 of the upper structure 11. Can be arranged. Further, among the wirings constituting the upper and lower wiring direct connection structure, the wiring disposed on the lower structure 12 side of the joint surface is disposed on the upper side of the circuit provided in the pixel peripheral circuit region 313 of the lower structure 12. be able to.
  • the wiring arranged in the pixel array unit 24 (pixel transistor region 301) is used as the wiring of the upper structure 11, and the vertical array direct connection structure by this and the wiring of the lower structure 12 is used as the pixel array unit 24.
  • the pixel transistor region 301 can also be disposed below.
  • FIG. 7 is a diagram illustrating a second circuit arrangement configuration example of the imaging apparatus 1.
  • the above vertical wiring direct connection structure is used as the vertical wiring connection structure.
  • the arrangement of the pixel array unit 24 in the second circuit arrangement configuration example is the same as that in the first circuit arrangement configuration example shown in FIG. That is, the pixel array unit 24 is disposed in the upper structure 11.
  • the arrangement of the row drive unit 22 and the column signal processing unit 25 of the imaging device 1 in the second circuit arrangement configuration example is the same as that of the first circuit arrangement configuration example shown in FIG. is there.
  • the arrangement of the upper and lower wiring connection portions in the second circuit arrangement configuration example is different from the first circuit arrangement configuration example shown in FIG.
  • connection between the wiring of the row driving unit 22 arranged in the upper structure 11 and the wiring of the row driving unit 22 arranged in the lower structure 12 is connected to the row driving unit 22 arranged in the upper structure 11 and the lower side. In a region where the row driving unit 22 arranged in the side structure 12 overlaps, the upper and lower wirings are directly connected.
  • connection between the wiring of the column signal processing unit 25 arranged in the upper structure 11 and the wiring of the column signal processing unit 25 arranged in the lower structure 12 is connected to the column signal processing unit arranged in the upper structure 11. 25 and the column signal processing unit 25 arranged in the lower structure 12 are formed using the upper and lower wiring direct connection structure.
  • the vertical wiring connection structure for connecting the wiring of the row driving unit 22 and the vertical wiring connection structure for connecting the wiring of the column signal processing unit 25 are respectively connected to the row driving unit.
  • the wiring connection portions 29 are arranged outside the line 22 and outside the column signal processing unit 25.
  • the vertical wiring connection structure for connecting the wiring of the row driving unit 22 and the vertical wiring connection structure for connecting the wiring of the column signal processing unit 25 are respectively In the region of the row drive unit 22 and in the region of the column signal processing unit 25.
  • the wiring connection portion 29 is omitted in the upper structure 11 and the lower structure 12, and the imaging device 1 shown in the first circuit arrangement configuration example. It is possible to realize a device having a smaller external size.
  • FIG. 9 is a diagram showing a cross section of the final shape of the imaging apparatus disclosed in Japanese Patent Application Laid-Open No. 2014-72294 (hereinafter referred to as Comparative Structure Disclosure Document 1) as Comparative Example 1.
  • the imaging device 600 of FIG. 9 includes a first portion 623 including a first element portion 621 including a first semiconductor layer 611 and a first wiring portion 622, a second element portion 641 including a second semiconductor layer 631, and a second portion.
  • the second portion 643 including the wiring portion 642 has a stacked structure.
  • An optical member 653 on which a color filter 651 and an on-chip lens 652 are formed is disposed on the back side of the first portion 623.
  • the imaging apparatus 600 includes the first wiring 661 and the first wiring 661 through the conductive member 662 outside the transistors Tr3 and Tr4 constituting the control unit and outside the region where the transistors Tr5 to Tr8 constituting the signal processing unit are arranged.
  • a structure for connecting the two wirings 663 is formed, and an external terminal 664 is disposed outside the connection structure. There is no description of where to place the input / output circuit.
  • the present technology includes (1) an external terminal 14, (2) a semiconductor region in which the input circuit unit 42 or the output circuit unit 47 connected to the external terminal 14 is formed, and (3) a photodiode that performs imaging.
  • the imaging device 600 of FIG. 9 has a structure in which 51 and a semiconductor region in which a pixel transistor is formed, (4) the color filter 15 and the on-chip lens 16, and (5) the protective substrate 18 are stacked in substantially the same region. As a result, the outer size can be reduced.
  • Comparative Structure Disclosure Document 1 as a method of manufacturing the imaging device 600 of FIG. After the inversion, it is described that the opening for exposing the electrode portion and the external terminal 664 are formed. When forming the external terminal 664, it is necessary to press the external terminal 664 onto the metal wiring by applying a stress greater than a specific value. In the imaging device 600 that does not include a protective substrate on the on-chip lens 652, when the external terminal 664 is formed by the above manufacturing method, the on-chip lens 652 is pressed against the manufacturing device when the external terminal 664 is pressure-bonded. 652 may be scratched.
  • the external terminal 664 is formed in a region outside the pixel array portion, and is not formed directly under the on-chip lens 652.
  • the force applied to the on-chip lens 652 when the external terminal 664 is crimped is the force applied to crimp the external terminal 664 dispersed in an oblique direction.
  • the external terminal 664 is formed immediately below the pixel region, that is, directly below the on-chip lens 652 in order to realize an imaging device with a small external size, the direction of the force applied to crimp the external terminal 664 Since there is the on-chip lens 652 on the extended line, the force applied to the on-chip lens 652 becomes larger, and the occurrence of scratches on the on-chip lens 652 may become more serious.
  • Comparative Structure Disclosure Document 1 also discloses a manufacturing method in which the color filter 651 and the on-chip lens 652 are formed after the external terminal 664 is formed.
  • the imaging device in the state where a large number of protruding portions by the external terminals 664 are provided on the surface of the imaging device, when forming the color filter 651 and the on-chip lens 652, the imaging device is connected to these manufacturing devices by the vacuum adsorption method However, it may be difficult to fix by the general method.
  • the imaging apparatus 1 in FIG. 1 has a protective substrate 18 on the on-chip lens 16. For this reason, it becomes possible to form the external terminal 14 without pressing the on-chip lens 16 against the manufacturing apparatus of the external terminal 14.
  • the imaging apparatus 1 includes (1) an external terminal 14, (2) a semiconductor region in which the input circuit unit 42 or the output circuit unit 47 connected to the external terminal 14 is formed, and (3) a photodiode 51 and a pixel transistor that perform imaging. 9, (4) the color filter 15 and the on-chip lens 16, and (5) the protective substrate 18 can be stacked in substantially the same region, which is more than the imaging device 600 of FIG. 9. The outer size can be reduced.
  • FIG. 10 is a diagram illustrating a cross section of the final shape of the imaging device disclosed in Japanese Patent Application Laid-Open No. 2010-50149 (Comparative Structure Disclosure Literature 2) as Comparative Example 2.
  • an imaging region 722 where a photodiode (not shown), a color filter 711, an on-chip lens 712 and the like are formed, and a peripheral region 723 formed around the imaging region 722.
  • a first pad 724 for driving pulse and signal input / output is arranged in the peripheral region 723.
  • a bonding wire 725 is connected to the first pad 724.
  • a second pad 726 that provides a reference potential Vss is disposed in the imaging region 722.
  • An external terminal (solder ball) 727 is provided on the second pad 726.
  • the imaging device 700 includes the external terminal 727 below the pixel array.
  • the imaging apparatus 1 includes (1) an external terminal 14, (2) a semiconductor region in which the input circuit unit 42 or the output circuit unit 47 connected to the external terminal 14 is formed, and (3) a photodiode 51 and a pixel transistor that perform imaging. 10 is formed by the structure in which the semiconductor region formed with (4) the color filter 15 and the on-chip lens 16 and (5) the protective substrate 18 are stacked in substantially the same region. The size can be reduced.
  • the imaging device 700 of FIG. 10 does not include a stacked structure like the upper structure 11 and the lower structure 12 of the imaging device 1, in other words, includes only one layer of a semiconductor substrate on which a transistor circuit is formed. It is a solid semiconductor device.
  • a via 732 and an external terminal 727 that penetrate the support substrate 731 are formed below the pixel array in the imaging area 722.
  • the external terminal 727 formed in FIG. 10 is a terminal for the reference potential Vss (ground potential).
  • the terminal of the reference potential Vss does not need an input circuit configured by a transistor circuit when supplying the reference potential Vss to the inside of the imaging device. For this reason, the imaging apparatus 700 disclosed in FIG. 10 can arrange the external terminal 727 for the reference potential Vss below the imaging area 722.
  • pixels each including a photodiode and a pixel transistor are arranged side by side. Therefore, in the case of a structure including only one layer of the semiconductor substrate 741 on which the transistor circuit is formed, it is difficult to form the input circuit in the pixel region in the semiconductor substrate 741 on which the pixel is formed. For this reason, in the imaging device 700 having only one layer of the semiconductor substrate 741 disclosed in FIG. 10, it is possible to dispose a power supply terminal that does not require an input / output circuit below the pixel region. An external terminal that requires a circuit or an output circuit, in other words, an external terminal for signal input or signal output cannot be arranged.
  • the image pickup apparatus 700 of FIG. 10 does not include a protective substrate on the on-chip lens 712, like the image pickup apparatus 600 shown in FIG. This causes a problem that the on-chip lens 712 is damaged when the external terminal is crimped.
  • the imaging apparatus 1 has a structure in which a plurality of semiconductor substrates on which transistor circuits are formed are stacked.
  • the external terminal 14 that requires an input circuit or an output circuit that is, a signal input / output terminal 14C for signal input or signal output can be arranged below the pixel region.
  • the imaging apparatus 1 has a protective substrate 18 on the on-chip lens 16. For this reason, it becomes possible to form the external terminal 14 without pressing the on-chip lens 16 against the manufacturing apparatus of the external terminal 14. Accordingly, the imaging apparatus 1 includes (1) the external terminal 14, (2) the semiconductor region in which the input circuit unit 42 or the output circuit unit 47 connected to the external terminal 14 is formed, and (3) the photodiode 51 that performs imaging. 10 and the semiconductor region in which the pixel transistor is formed, (4) the color filter 15 and the on-chip lens 16, and (5) the protective substrate 18 can be stacked in substantially the same region.
  • the external size can be made smaller than 700.
  • FIG. 11 is a diagram illustrating a cross section of the final shape of the imaging device disclosed in Japanese Patent Application Laid-Open No. 2011-9645 (Comparative Structure Disclosure Literature 3) as Comparative Example 3.
  • an imaging element 812 including a photodiode and a transistor is formed on the first main surface (upper surface) of the semiconductor substrate 811.
  • a multilayer wiring layer 813, a color filter 814, an overcoat 815, and an on-chip lens 816 are formed on the upper side of the image sensor 812.
  • the imaging apparatus 800 includes a protective substrate 817 above the on-chip lens 816.
  • a silicon through electrode 831 penetrating the semiconductor substrate 811, an external terminal (solder ball) 832 connected to the outside, and the like are formed.
  • the peripheral circuit portion 823 thus arranged is arranged.
  • the imaging device 800 of FIG. 11 does not include a stacked structure in which an upper structure and a lower structure are stacked, in other words, a semiconductor substrate on which a transistor circuit is formed. Is a solid-state semiconductor device having only one layer. Therefore, an external terminal that requires an input circuit or an output circuit, in other words, an external terminal for signal input or signal output cannot be arranged below the pixel region.
  • the imaging apparatus 1 has a structure in which a plurality of semiconductor substrates on which transistor circuits are formed are stacked. As a result, it is possible to dispose an external terminal 14 that requires an input circuit or an output circuit, in other words, an external terminal 14 for signal input or signal output, below the pixel region.
  • the imaging apparatus 1 includes (1) the external terminal 14, (2) the semiconductor region in which the input circuit unit 42 or the output circuit unit 47 connected to the external terminal 14 is formed, and (3) the photodiode 51 that performs imaging.
  • the image pickup apparatus shown in FIG. 11 can be configured by stacking the semiconductor region in which the pixel transistors are formed, (4) the color filter 15 and the on-chip lens 16, and (5) the protective substrate 18 in substantially the same region.
  • the external size can be made smaller than 800.
  • the silicon through electrode 831 is formed only on the outer peripheral portion (peripheral circuit portion 823) as in the imaging device 800 of FIG. 11, the power supply terminal and the ground terminal are similarly only on the outer peripheral portion of the apparatus. Will be placed.
  • the imaging device 1 can arrange the through via 88 in an arbitrary region of the lower structure 12 inside the upper and lower substrate connection regions 314, and a part thereof is used for a power supply terminal and a ground terminal. can do. That is, the power supply terminal and the ground terminal can also be arranged in arbitrary regions. Thereby, the number of power supply terminals and ground terminals can be reduced as compared with the case where they are arranged only on the outer peripheral portion. Thereby, the circuit area as the whole imaging device 1 can be reduced.
  • the imaging apparatus 1 includes (1) an external terminal 14, (2) a semiconductor region in which the input circuit unit 42 or the output circuit unit 47 connected to the external terminal 14 is formed, and (3) a photodiode 51 and a pixel transistor that perform imaging.
  • the outer size can be reduced by the structure in which the semiconductor region formed with (4) the color filter 15 and the on-chip lens 16 and (5) the protective substrate 18 are stacked in substantially the same region. is there.
  • the function of the present technology is “to realize an imaging device having a smaller external size than an imaging device that does not have this structure by stacking the above (1) to (5) in substantially the same region”.
  • the function are functions and operations that cannot be obtained by the configuration of the “imaging device having a semiconductor laminated structure without a protective substrate” shown in Comparative Example 1 and Comparative Example 2, and “Transistor” shown in Comparative Example 3 This is a function and action that cannot be obtained even with the configuration of the “imaging device having only one layer of a semiconductor substrate on which a circuit is formed”.
  • FIG. 12 is a diagram illustrating another circuit arrangement configuration example of the imaging apparatus 1 and a third circuit arrangement configuration example that is a modification of the first circuit arrangement configuration example.
  • the input / output circuit section 49 is arranged separately for each external terminal 14.
  • the image signal processing unit 26 surrounds each input / output circuit unit 49.
  • the input / output circuit section 49 is arranged for each of the plurality of external terminals 14.
  • the input / output circuit unit 49 of a certain external terminal 14 and the input / output circuit unit 49 of another external terminal 14 are arranged in contact with each other.
  • the image signal processing unit 26 is not disposed between the two.
  • a plurality of input / output circuit units 49 having the same power supply voltage are collectively 1
  • the third circuit arrangement configuration example arranged as a mass of input / output circuit area, the number of places where the wells having different power supply voltages are separated is reduced, so that the outer size of the imaging device 1 is the same.
  • the lower structure 12 there is a possibility that more circuits can be mounted on the image signal processing unit 26, for example.
  • a part of the input / output circuit unit 49 is not arranged below the pixel array unit 24 included in the upper structure 11, but the upper structure. 11 is disposed below the pixel peripheral circuit portion included in the pixel 11, for example, below the row driving unit 22 included in the upper structure 11 or outside the region where the image signal processing unit 26 included in the lower structure 12 is disposed. You may do it. Thereby, even if the external size of the imaging device 1 is the same, there is a possibility that more circuits can be mounted on the image signal processing unit 26 in the lower structure 12, for example.
  • FIG. 13 is a diagram illustrating another circuit arrangement configuration example of the imaging apparatus 1 and a fourth circuit arrangement configuration example that is a modification of the first and third circuit arrangement configuration examples.
  • FIG. 14 is a diagram showing a cross-sectional structure of the imaging apparatus 1 taken along the line C-C ′ of FIG. For convenience, a part of FIG. 14 is described instead of a cross-sectional structure in another configuration example of the present technology described later.
  • the input / output circuit unit 49 in other words, the input circuit unit 42 and the output circuit unit 47 are all included in the lower structure 12. It arrange
  • FIG. The region in which the input / output circuit unit 49 is disposed may be below the row driving unit 22 and the column signal processing unit 25 (pixel peripheral circuit region 313) included in the upper structure 11, or may be the upper structure 11. May be located below the outer peripheral portion of the pixel array portion 24 included in the pixel array.
  • the area where the input / output circuit unit 49 is disposed need not be disposed, for example, across the entire row direction of the column signal processing unit 25, and between the column signal processing unit 25 and the image signal processing unit 26. In addition, there may be a region where the input / output circuit unit 49 is not arranged.
  • the area where the input / output circuit unit 49 is disposed does not need to be arranged seamlessly across the entire column direction of the row driving unit 22, and the input / output circuit is provided between the row driving unit 22 and the image signal processing unit 26. There may be a region where the circuit unit 49 is not disposed.
  • the number of places where the wells having different power supply voltages are separated from each other is smaller than in the third circuit arrangement configuration example.
  • the image signal processing unit 26 there is a possibility that more circuits can be mounted on the image signal processing unit 26, for example.
  • FIG. 15 is a diagram illustrating another circuit arrangement configuration example of the imaging apparatus 1 and a fifth circuit arrangement configuration example that is a modification of the first, third, and fourth circuit arrangement configuration examples.
  • the input / output circuit unit 49 includes the column signal processing unit 25 and the image signal processing unit 26, and the row driving unit 22 and the image signal processing unit 26. There was an area that was not placed between.
  • the input / output circuit unit 49 extends over the entire row direction of the column signal processing unit 25 and over the entire column direction of the row drive unit 22. They are arranged in rows. Thereby, there is a possibility that the area of the input / output circuit section 49 can be increased.
  • the lower structure 12 may be connected to, for example, the image signal processing unit 26. There is a possibility that more circuits can be mounted.
  • FIG. 16 is a diagram illustrating another circuit arrangement configuration example of the imaging apparatus 1 and a sixth circuit arrangement configuration example that is a modification of the first and third circuit arrangement configuration examples.
  • the input / output circuit unit 49 is arranged in a region below the pixel array unit 24 of the upper structure 11 in the lower structure 12, and around it
  • the image signal processing unit 26 is arranged.
  • the image signal processing unit 26 of the lower structure 12 includes a plurality of (three in FIG. 16) circuit blocks divided by broken lines. Has been.
  • the input / output circuit unit 49 is arranged at a block boundary of a circuit block included in the image signal processing unit 26 or a part serving as a boundary with the row driving unit 22. .
  • a power supply line or a ground line for a circuit included in each circuit block may be arranged at a block boundary portion. For this reason, the distance between the circuits at the block boundary portion may be arranged to be larger than the distance between the circuits inside the circuit block.
  • the circuit layout design is more effective than the case where the input / output circuit section 49 is disposed inside the circuit block.
  • the input / output circuit unit 49 can be arranged without reducing the degree of circuit integration. Thereby, even if the external size of the imaging device 1 is the same, by using the sixth circuit arrangement configuration example, it is possible to mount more circuits, for example, in the image signal processing unit 26 in the lower structure 12. There is sex.
  • FIG. 17 is a diagram illustrating another circuit arrangement configuration example of the imaging apparatus 1 and a seventh circuit arrangement configuration example that is a modification of the fifth circuit arrangement configuration example.
  • the area of the row driving unit 22 arranged in the lower structure 12 is larger than the area of the row driving unit 22 arranged in the upper structure 11.
  • the row driving unit 22 arranged in the lower structure 12 is arranged so as to extend in the inner direction of the apparatus than the row driving unit 22 arranged in the upper structure 11.
  • the area of the column signal processing unit 25 arranged in the lower structure 12 is formed larger than the area of the column signal processing unit 25 arranged in the upper structure 11. Further, the column signal processing unit 25 arranged in the lower structure 12 is arranged so as to extend in the inner direction of the apparatus than the column signal processing unit 25 arranged in the upper structure 11. Yes.
  • the seventh circuit arrangement configuration example is different from the fifth circuit arrangement configuration example shown in FIG. 15 even if the size of the pixel array unit 24 of the imaging device 1 is the same. There is a possibility that the external size can be reduced.
  • FIG. 18 is a diagram illustrating another circuit arrangement configuration example of the imaging apparatus 1 and an eighth circuit arrangement configuration example that is a modification of the seventh circuit arrangement configuration example.
  • the row drive unit 22 is also arranged in the upper structure 11, although the area is smaller than the row drive unit 22 arranged in the lower structure 12. It was. Similarly, the column signal processing unit 25 is arranged in the upper structure 11 even though the area is smaller than that of the column signal processing unit 25 arranged in the lower structure 12.
  • the row driving unit 22 and the column signal processing unit 25 are arranged only in the lower structure 12.
  • a signal output from the row driving unit 22 to the pixel array unit 24 is arranged in the lower structure 12 via the wiring connection unit 29 having the upper and lower wiring connection structure of the pixel peripheral circuit region 313 shown in FIG. Then, the signal is transmitted from the row driving unit 22 to the pixel array unit 24 arranged in the upper structure 11.
  • the eighth circuit arrangement configuration example has the same size of the pixel array unit 24 of the imaging device 1 as the imaging device 1. There is a possibility that the external size can be reduced.
  • the arrangement example of the row driving unit 22 and the column signal processing unit 25 shown in the eighth circuit arrangement configuration example can be applied to other configuration examples of the present technology.
  • FIG. 19 is a diagram illustrating another circuit arrangement configuration example of the imaging apparatus 1 and a ninth circuit arrangement configuration example that is a modification of the fifth circuit arrangement configuration example.
  • the row driving unit 22 and the column signal processing unit 25 are all arranged in the upper structure 11.
  • the region positioned below the row driving unit 22 and the column signal processing unit 25 arranged in the upper structure 11 is the same as the fifth circuit arrangement configuration example illustrated in FIG. 15.
  • the image signal processing unit 26 is arranged extending in the outer circumferential direction.
  • the input / output circuit unit 49 may be arranged in an area located below the row driving unit 22 and the column signal processing unit 25 arranged in the upper structure 11. Accordingly, compared to the fifth circuit arrangement configuration example illustrated in FIG. 15, the ninth circuit arrangement configuration example has an image signal processing unit even if the size of the pixel array unit 24 of the imaging device 1 is the same. There is a possibility that a larger number of circuits can be mounted on the image signal processing unit 26 by increasing the area of the image signal processing unit 26.
  • the arrangement example of the row driving unit 22 and the column signal processing unit 25 shown in the ninth circuit arrangement configuration example can be applied to other configuration examples of the present technology.
  • FIG. 20 is a diagram illustrating another circuit arrangement configuration example of the imaging apparatus 1 and a tenth circuit arrangement configuration example that is a modification of the second circuit arrangement configuration example.
  • FIG. 21 is a diagram showing a cross-sectional structure of the imaging apparatus 1 along the line D-D ′ in FIG. For convenience, a part of FIG. 21 is described instead of a cross-sectional structure in another configuration example of the present technology to be described later.
  • a pixel in which the upper structure 11 has an upper and lower wiring direct connection structure can be arranged inside the peripheral circuit region 313 and inside the pixel peripheral circuit region 313 included in the lower structure 12.
  • the input / output circuit section 49 in other words, the input circuit section 42 and the output circuit section 47 are all connected to the image signal of the lower structure 12.
  • the processing unit 26 is arranged outside the area where the processing unit 26 is arranged.
  • the region where the input / output circuit unit 49 is disposed may be below the row driving unit 22 and the column signal processing unit 25 included in the upper structure 11, or the pixel array unit included in the upper structure 11.
  • the lower side of 24 may be sufficient.
  • the area where the input / output circuit unit 49 is arranged need not be arranged in a continuous manner in the entire row direction of the column signal processing unit 25, for example, and the area between the column signal processing unit 25 and the image signal processing unit 26 is not necessary. There may be a region between which the input / output circuit unit 49 is not disposed.
  • the area where the input / output circuit unit 49 is disposed does not need to be disposed without any break across the entire column direction of the row driving unit 22, and is not provided between the row driving unit 22 and the image signal processing unit 26. There may be a region where the output circuit unit 49 is not disposed. According to the tenth circuit arrangement configuration example, even if the outer size is the same as that of the imaging device 1 of the second circuit arrangement configuration example shown in FIG. There is a possibility that many circuits can be mounted.
  • circuit arrangement example shown in the tenth circuit arrangement configuration example can be applied to other configuration examples of the present technology.
  • FIG. 22 is a diagram illustrating another circuit arrangement configuration example of the imaging apparatus 1 and an eleventh circuit arrangement configuration example that is a modification of the tenth circuit arrangement configuration example.
  • a part of the row driving unit 22 and a part of the column signal processing unit 25 are arranged in both the upper structure 11 and the lower structure 12. It was.
  • the lower structure 12 is a lower region of the row drive unit 22 arranged in the upper structure 11 and is located on the inner side of the apparatus than the row drive unit 22 arranged in the lower structure 12.
  • the input / output circuit unit 49 is arranged in the region.
  • the input / output circuit section 49 is arranged in the region inside the apparatus.
  • a part of the row driving unit 22 and a part of the column signal processing unit 25 are arranged in both the upper structure 11 and the lower structure 12.
  • the lower structure 12 is a region on the lower side of the row drive unit 22 arranged in the upper structure 11 and is outside of the apparatus than the row drive unit 22 arranged in the lower structure 12.
  • the input / output circuit section 49 is arranged in the region.
  • a column signal processing unit 25 that is a region below the column signal processing unit 25 disposed in the upper structure 11 and is disposed in the lower structure 12.
  • An input / output circuit section 49 is arranged in a region that is closer to the outside of the apparatus.
  • the image signal processing unit 26 and the row driving unit 22 arranged in the lower structure 12 are arranged.
  • the signal lines between them and the signal lines between the image signal processing unit 26 and the column signal processing unit 25 are easily arranged, or these signal lines can be arranged with high density.
  • circuit arrangement example shown in the eleventh circuit arrangement configuration example can be applied to other configuration examples of the present technology.
  • FIG. 23 is an enlarged cross-sectional view of the vicinity of the outer periphery of the imaging device 1 having a twin contact structure.
  • a multilayer wiring layer 82 is formed on the upper side (upper structure 11 side) of a semiconductor substrate 81 made of, for example, silicon (Si).
  • the multilayer wiring layer 82 forms the input / output circuit region 311, the signal processing circuit region 312 (not shown in FIG. 23), the pixel peripheral circuit region 313, and the like shown in FIG.
  • the multilayer wiring layer 82 includes a plurality of wiring layers 83 including an uppermost wiring layer 83a closest to the upper structure 11, an intermediate wiring layer 83b, a lowermost wiring layer 83c closest to the semiconductor substrate 81, and the like.
  • the interlayer insulating film 84 is formed between the wiring layers 83.
  • the plurality of wiring layers 83 are formed by using, for example, copper (Cu), aluminum (Al), tungsten (W), etc., and the interlayer insulating film 84 is formed by, for example, a silicon oxide film, a silicon nitride film, or the like. .
  • Each of the plurality of wiring layers 83 and the interlayer insulating film 84 may be formed of the same material in all layers, or two or more materials may be used depending on the layer.
  • a silicon through hole 85 penetrating the semiconductor substrate 81 is formed at a predetermined position of the semiconductor substrate 81, and the connection conductor 87 is embedded in the inner wall of the silicon through hole 85 via an insulating film 86, thereby penetrating the silicon substrate 81.
  • Vias (TSV: Through Silicon Via) 88 are formed.
  • the insulating film 86 can be formed of, for example, a SiO2 film or a SiN film.
  • the through via 88 has a reverse taper shape in which the planar area on the wiring layer 83 side is smaller than that on the external terminal 14 side.
  • it may be a non-tapered shape in which the areas of the external terminal 14 side and the wiring layer 83 side are substantially the same.
  • connection conductor 87 of the through via 88 is connected to a rewiring 90 formed on the lower surface side of the semiconductor substrate 81, and the rewiring 90 is connected to the external terminal 14.
  • the connection conductor 87 and the rewiring 90 can be made of, for example, copper (Cu), tungsten (W), titanium (Ti), tantalum (Ta), titanium tungsten alloy (TiW), polysilicon, or the like.
  • solder mask (solder resist) 91 is formed on the lower surface side of the semiconductor substrate 81 so as to cover the rewiring 90 and the insulating film 86 except for the region where the external terminals 14 are formed.
  • a multilayer wiring layer 102 is formed in the upper structure 11 on the lower side (lower structure 12 side) of the semiconductor substrate 101 made of, for example, silicon (Si).
  • the multilayer wiring layer 102 forms the circuit of the pixel 31 shown in FIG.
  • the multilayer wiring layer 102 includes a plurality of wiring layers 103 including an uppermost wiring layer 103a closest to the semiconductor substrate 101, an intermediate wiring layer 103b, and a lowermost wiring layer 103c closest to the lower structure 12. And an interlayer insulating film 104 formed between the wiring layers 103.
  • the same materials as those for the wiring layer 83 and the interlayer insulating film 84 described above can be used as the materials used for the plurality of wiring layers 103 and the interlayer insulating film 104.
  • the plurality of wiring layers 103 and the interlayer insulating film 104 may be formed using one or more materials.
  • the multilayer wiring layer 102 of the upper structure 11 is composed of five wiring layers 103
  • the multilayer wiring layer 82 of the lower structure 12 is composed of four wiring layers 83.
  • the total number of wiring layers is not limited to this, and can be formed with an arbitrary number of layers.
  • a photodiode 51 formed by PN junction is formed for each pixel 31 in the semiconductor substrate 101.
  • the multilayer wiring layer 102 and the semiconductor substrate 101 are formed with a plurality of pixel transistors such as a transfer transistor 52 and an amplification transistor 55, an FD 53, and the like.
  • the chip through electrode 105 and the silicon through electrode 109 are connected by a connection wiring 106 formed on the upper surface of the semiconductor substrate 101.
  • An insulating film 107 is formed between each of the silicon through electrode 109 and the chip through electrode 105 and the semiconductor substrate 101.
  • a planarization film 108 is formed between the photodiode 51 and the color filter 15 of the semiconductor substrate 101, and a planarization film 110 is also formed between the on-chip lens 16 and the glass seal resin 17.
  • the stacked structure 13 of the imaging device 1 shown in FIG. 1 has a stacked structure in which the lower wiring layer 82 side of the lower structure 12 and the multilayer wiring layer 102 side of the upper structure 11 are bonded together. It has become.
  • the bonding surface of the multilayer wiring layer 82 of the lower structure 12 and the multilayer wiring layer 102 of the upper structure 11 is indicated by a one-dot chain line.
  • the wiring layer 103 of the upper structure 11 and the wiring layer 83 of the lower structure 12 are connected by two through electrodes of the silicon through electrode 109 and the chip through electrode 105.
  • the wiring layer 83 of the lower structure 12 and the external terminal (back electrode) 14 are connected by the through via 88 and the rewiring 90.
  • the lower structure 12 and the upper structure 11 in a wafer state are manufactured separately.
  • a multilayer wiring layer 82 serving as a part of the input / output circuit unit 49, the row driving unit 22, or the column signal processing unit 25 is formed in each chip unit region of a silicon substrate (silicon wafer) 81. Is formed.
  • the semiconductor substrate 81 at this point is in a state before being thinned, and has a thickness of about 600 ⁇ m, for example.
  • the photodiode 51 of each pixel 31 and the source / drain region of the pixel transistor are formed in a region to be each chip portion of the silicon substrate (silicon wafer) 101.
  • a multilayer wiring layer 102 constituting the row drive signal line 32, the vertical signal line 33, and the like is formed on one surface of the semiconductor substrate 101.
  • the semiconductor substrate 101 at this time is also in a state before being thinned, and has a thickness of about 600 ⁇ m, for example.
  • the semiconductor substrate 101 of the upper structure 11 is thinned.
  • Bonding includes, for example, plasma bonding and bonding using an adhesive, but in this embodiment, it is assumed that the bonding is performed by plasma bonding.
  • a film such as a plasma TEOS film, a plasma SiN film, a SiON film (block film), or a SiC film is formed on the bonding surface of the upper structure 11 and the lower structure 12 to form a bonding surface. Both are joined by performing plasma processing and superposition, and then annealing.
  • a silicon through electrode 109 and a chip through electrode 105 are formed in a region to be the upper and lower wiring connection region 314 using a damascene method or the like.
  • a connection wiring 106 for connecting them is formed.
  • the color filter 15 and the on-chip lens 16 are formed above the photodiode 51 of each pixel 31 via the planarization film 108.
  • the entire surface of the laminated structure 13 in which the upper structure 11 and the lower structure 12 are bonded to each other on which the on-chip lens 16 is formed is interposed via the planarization film 110.
  • Glass seal resin 17 is applied, and as shown in FIG. 29, the glass protective substrate 18 is connected in a cavityless structure.
  • the semiconductor substrate 81 of the lower structure 12 has a thickness that does not affect the device characteristics, for example, about 30 to 100 ⁇ m. Thinned.
  • an insulating film (isolation film) 86 is formed on the entire upper surface of the semiconductor substrate 81 including the opening 222 by, for example, a plasma CVD method.
  • the insulating film 86 can be, for example, a SiO2 film or a SiN film.
  • the insulating film 86 on the bottom surface of the opening 222 is removed using an etch-back method, and the wiring layer 83c closest to the semiconductor substrate 81 is exposed.
  • a barrier metal film (not shown) and a Cu seed layer 231 are formed by sputtering.
  • the barrier metal film is a film for preventing the diffusion of the connection conductor 87 (Cu) shown in FIG. 35, and the Cu seed layer 231 becomes an electrode when the connection conductor 87 is embedded by an electrolytic plating method.
  • tantalum (Ta), titanium (Ti), tungsten (W), zirconium (Zr), a nitride film thereof, a carbide film, or the like can be used as the material of the barrier metal film.
  • titanium is used as the barrier metal film.
  • the barrier metal film (not shown) and the Cu seed layer 231 under the resist pattern 241 are removed by wet etching.
  • solder mask 91 is removed only in the region where the external terminals 14 are mounted, thereby forming the solder mask opening 242. .
  • the external terminal 14 is formed in the solder mask opening 242 by a solder ball mounting method or the like.
  • the upper structure 11 (first semiconductor substrate) on which the photodiode 51 that performs photoelectric conversion, the pixel transistor circuit, and the like are formed, and the pixel 31 are output.
  • the lower structure 12 (second semiconductor substrate) formed so that the input / output circuit unit 49 for outputting the pixel signal to the outside of the imaging device 1 is below the pixel array unit 24 is a wiring layer. They are pasted so that they face each other.
  • a through via 88 that penetrates the lower structure 12 is formed, and an external terminal 14 that is electrically connected to the outside of the imaging device 1 through the input / output circuit portion 49 and the through via 88 is formed.
  • the imaging device 1 shown in FIG. 5 can be manufactured.
  • the through vias 88 are formed using the glass protective substrate 18 as a support substrate. Therefore, the through vias 88 have a shape dug from the external terminal 14 side to the wiring layer 83 (circuit) side. Become.
  • the lower structure 12 and the upper structure 11 in the wafer state are separately manufactured in the same manner as in the manufacturing method when the twin contact structure is adopted as the upper and lower wiring connection structure.
  • the upper structure 11 in the upper and lower wiring connection regions 314 further outside the pixel array section 24 is closest to the lower structure 12.
  • a wiring layer 103x for directly connecting to the wiring layer 83x of the lower structure 12 is formed further on the lower structure 12 side than the lower wiring layer 103c.
  • the wiring layer 103 x of the upper structure 11 is further closer to the upper structure 11 than the uppermost wiring layer 83 a closest to the upper structure 11.
  • a wiring layer 83x for direct connection is formed.
  • the lower structure 12 is bonded so that the multilayer wiring layer 82 side of the lower structure 12 and the multilayer wiring layer 102 side of the upper structure 11 face each other, and then the semiconductor substrate of the upper structure 11 101 is thinned.
  • the wiring layer 83x of the lower structure 12 and the wiring layer 103x of the upper structure 11 are connected by a metal bond (Cu—Cu bonding).
  • the color filter 15 and the on-chip lens 16 are formed above the photodiode 51 of each pixel 31 through the planarization film 108.
  • the glass seal resin 17 is applied to the entire surface of the bonded lower structure 12 and upper structure 11 on which the on-chip lens 16 is formed via the planarizing film 110. Then, the glass protective substrate 18 is connected with a cavityless structure.
  • the wiring layers of the upper structure 11 are separated from the wiring layers 83a to 83c that are part of the input / output circuit section 49, the row driving section 22, or the column signal processing section 25.
  • a wiring layer 83x for directly connecting to the lower structure body 12 is formed, and the upper structure body 11 is directly connected to the wiring layer 83 of the lower structure body 12 separately from the wiring layers 103a to 103c serving as drive wirings for the pixel transistors.
  • the uppermost wiring layer 83a of the lower structure 12 and the lowermost wiring layer 103c of the upper structure 11 are, of course, connected by metal bonding (Cu-Cu bonding). May be.
  • FIG. 44A is a cross-sectional view of the vicinity of the outer periphery of the imaging device 1 according to the further modification example 1
  • FIG. 44B is a plan view of the imaging device 1 according to the further modification example 1 on the external terminal 14 side. is there.
  • the external terminal 14 is formed immediately above the through via 88 so as to overlap the position of the through via 88 in a planar position.
  • an area for forming the rewiring 90 on the back surface side of the imaging device 1 is not necessary, so that an insufficient area for forming the input / output unit 21 can be solved.
  • FIG. 45 is a cross-sectional view of the imaging apparatus 1 according to a second modification.
  • a state before the image pickup device 1 is solidified that is, a plurality of image pickup devices 1 are formed on a wafer by using, for example, a general needle stand type semiconductor device measuring machine.
  • the imaging apparatus 1 includes a conductive pad 411 for raising a measurement needle.
  • the conductive pad 411 for measuring the needle stand is a region outside the pixel array unit 24, for example, a pixel peripheral circuit region 313 in which the row driving unit 22 and the column signal processing unit 25 are formed. It is formed on the upper side.
  • the conductive pad 411 is connected to a predetermined wiring layer 103 of the upper structure 11 by a silicon through electrode 412.
  • the conductive pad 411 for measuring the needle stand is formed before the protective substrate 18 is disposed on the surface of the imaging device 1. Accordingly, it is possible to measure the operation of the imaging device 1 in a state where the plurality of imaging devices 1 are formed on the wafer before the protective substrate 18 is fixed.
  • the needle pad measurement conductive pad 411 may be formed by a part of the multilayer wiring layer 102 included in the upper structure 11.
  • the conductive pad 411 for measuring the needle stand is generally an optical black pixel region or simply an optical black region (non-optical black region) for acquiring a reference level signal, in other words, a black level signal, included in the imaging device 1. It may be formed on the upper side of a region called “shown”.
  • the conductive pad 411 for measuring the needle stand on the imaging device 1 before fixing the protective substrate 18 of the imaging device 1 the plurality of imaging devices 1 before forming the protective substrate 18 are formed on the wafer. In this state, the operation of the image pickup apparatus 1 can be measured using a needle stand type semiconductor device measuring device.
  • FIG. 46 is a cross-sectional view of the imaging apparatus 1 according to a third modification.
  • the image pickup apparatus 1 according to the third modification is also a state before the image pickup apparatus 1 is solidified using, for example, a general needle stand type semiconductor device measuring machine, in other words, a plurality of image pickup apparatuses 1.
  • a conductive pad 421 for raising a measuring needle is provided.
  • the conductive pad 421 for measuring the needle stand is formed on a scribe line (dicing line) between the imaging devices 1 as shown in FIG.
  • the conductive pad 421 for measuring the needle stand is formed before the protective substrate 18 is disposed on the surface of the imaging device 1. Accordingly, it is possible to measure the operation of the imaging device 1 in a state where the plurality of imaging devices 1 are formed on the wafer before the protective substrate 18 is fixed.
  • the needle pad measurement conductive pad 421 may be formed as a part of the multilayer wiring layer 102 included in the upper structure 11 or may be formed as a part of the multilayer wiring layer 82 included in the lower structure 12. Alternatively, it may be formed of the same layer as a part of the conductive layer used in the upper and lower wiring connection structure.
  • the needle pad measurement conductive pad 421 may be connected to the inside of the imaging device 1 through a part of the multilayer wiring layer 102 provided in the upper structure 11 or the lower structure 12 is provided. It may be connected to the inside of the imaging device 1 through a part of the multilayer wiring layer 82.
  • the conductive pad 421 for measuring the needle stand on the imaging device 1 before fixing the protective substrate 18 of the imaging device 1 the plurality of imaging devices 1 before forming the protective substrate 18 are formed on the wafer. In this state, the operation of the image pickup apparatus 1 can be measured using a needle stand type semiconductor device measuring device.
  • FIG. 47 is a cross-sectional view of the imaging apparatus 1 according to a fourth modification.
  • the imaging apparatus 1 according to the fourth modification example is also for raising a measuring needle for the purpose of measuring the operation of the imaging apparatus 1 in a state where a plurality of imaging apparatuses 1 are formed on the wafer.
  • a conductive pad 422 is provided.
  • the conductive pad 422 for measuring the needle stand is formed on the lower side of the lower structure 12 in a state where the plurality of imaging devices 1 are formed on the wafer.
  • the conductive pad 422 for measuring the needle stand may be formed by the rewiring 90 provided in the lower structure 12, for example.
  • the wafer is turned upside down, and the protective substrate 18 is placed on the lower side for needle stand measurement. It is possible to measure the operation of the imaging device 1 by disposing the conductive pad 422 on the upper side. In this case, the operation of the imaging device 1 may be measured using a device that makes light incident from below the imaging device 1.
  • the stacked structure 13 of the imaging device 1 is configured by two layers of the lower structure 12 and the upper structure 11, but may be configured by a structure of three or more layers. .
  • FIG. 48 shows a configuration in the case where the pixel array unit 24 has a pixel sharing structure.
  • the photodiode (PD) 51 and the transfer transistor 52 are provided for each pixel 31, but the FD 53, the amplification transistor 55, the reset transistor 54, and the selection transistor 56 are shared by a plurality of pixels.
  • FIG. 48 a structure in which the FD 53, the amplification transistor 55, the reset transistor 54, and the selection transistor 56 are shared by four pixels (2 ⁇ 2) in the row direction and two in the column direction is shown as the sharing unit 520. Has been.
  • One transfer transistor drive signal line 521 extending in the row direction is connected to each gate electrode of the four transfer transistors 52.
  • Four transfer transistor drive signal lines 521 connected to the gate electrodes of the four transfer transistors 52 and extending in the row direction are arranged in parallel in the column direction.
  • the FD 53 is connected to the gate electrode of the amplification transistor 55 and the diffusion layer of the reset transistor 54 via a wiring (not shown).
  • One reset transistor drive signal line 522 extending in the row direction is connected to the gate electrode of the reset transistor 54.
  • a selection transistor drive signal line 523 extending in the row direction is connected to the gate electrode of the selection transistor 56.
  • the selection transistor 56 may be omitted.
  • a plurality of pixels 31 are connected to the vertical signal lines 33 extending in the column direction for each pixel. Then, each of the plurality of vertical signal lines 33 is connected to the column signal processing unit 25 disposed ahead of the vertical signal line 33, and the column signal processing unit 25 performs noise processing and AD conversion processing.
  • the imaging device 1 having the three-layer stacked structure 13 shown in FIG. 48 includes an area signal processing unit 531 in the third structure 511 between the lower structure 12 and the upper structure 11.
  • the area signal processing unit 531 includes a read signal processing unit 532 having a noise processing unit and an ADC, and a data holding unit 533 for holding digital data after AD conversion.
  • the data holding unit 533 uses a 64-bit latch or shift to hold these data.
  • Data holding means such as a register is provided.
  • the area signal processing unit 531 further includes an output signal wiring 537 for outputting the data held in the data holding unit 533 to the outside of the area signal processing unit 531.
  • the output signal wiring may be, for example, a 64-bit signal line that outputs 64-bit data held in the data holding unit 533 in parallel, or for four pixels held in the data holding unit 533. It may be a 16-bit signal line for outputting data for each pixel, or an 8-bit signal line that is half the data for one pixel, or a 32-bit data that is data for two pixels. It may be a signal line. Alternatively, it may be a 1-bit signal line for reading out data held in the data holding unit 533 bit by bit.
  • the third structure 511 includes an area signal processing unit array 534 in which a plurality of area signal processing units 531 are arranged in the row direction and the column direction, respectively.
  • the third structure 511 includes a row address control unit 535 that reads data from the data holding unit 533 provided in each area signal processing unit 531 arranged in a plurality in the row direction and the column direction.
  • the row address control unit 535 determines the reading position in the row direction as in a general semiconductor memory device.
  • the area signal processing units 531 arranged in the row direction of the area signal processing unit array 534 are connected to a control signal line extending from the row address control unit 535 in the row direction, and are controlled by the row address control unit 535 of the area signal processing unit 531. Operation is controlled.
  • the area signal processing units 531 arranged in the column direction of the area signal processing unit array 534 are connected to a column readout signal line 537 extending in the column direction, and the column readout signal line is arranged in a column arranged at the end of the area signal processing unit array 534.
  • the read unit 536 is connected.
  • the data held in the data holding unit 533 of each area signal processing unit 531 of the area signal processing unit array 534 is simultaneously read out from the data holding units 533 of all the area signal processing units 531 arranged in the row direction.
  • the data may be read out to the unit 536, or only the data of the specific area signal processing unit 531 specified from the column reading unit 536 may be read out.
  • the column readout unit 536 is connected to wiring for outputting the data read out from the area signal processing unit 531 to the outside of the third structure 511.
  • the lower structure 12 is connected to a wiring from the column reading unit 536 of the third structure 511 and includes a reading unit 541 for receiving data output from the column reading unit 536.
  • the lower structure 12 includes an image signal processing unit 26 for performing image signal processing on data received from the third structure 511.
  • the lower structure 12 includes an input / output unit 21 for outputting data received from the third structure 511 via the image signal processing unit 26 or not.
  • the input / output unit 21 inputs not only the output circuit unit 47 but also, for example, timing signals used in the pixel array unit 24 and characteristic data used in the image signal processing unit 26 from the outside of the imaging apparatus 1 into the apparatus.
  • An input circuit unit 42 may be provided.
  • each shared unit 520 formed in the upper structure 11 is connected to the area signal processing unit 531 of the third structure 511 arranged immediately below the shared unit 520.
  • the wiring connection between the upper structure 11 and the third structure 511 can be connected by, for example, a Cu—Cu direct bonding structure shown in FIG.
  • the column readout unit 536 outside the area signal processing unit array 534 formed in the third structure 511 is a lower structure arranged immediately below the column readout unit 536.
  • the reading unit 541 of the body 12 is connected.
  • the wiring connection between the third structure 511 and the lower structure 12 can be made by, for example, the Cu—Cu direct bonding structure shown in FIG. 8 or the twin contact structure shown in FIG. .
  • the pixel signal of each shared unit 520 formed in the upper structure 11 is output to the corresponding area signal processing unit 531 of the third structure 511.
  • the data held in the data holding unit 533 of the area signal processing unit 531 is output from the column reading unit 536 and supplied to the reading unit 541 of the lower structure 12.
  • the image signal processing unit 26 performs various signal processing (for example, tone curve correction processing) on the data, and outputs the data from the input / output unit 21 to the outside of the apparatus.
  • the input / output unit 21 formed in the lower structure 12 may be disposed below the row address control unit 535 of the third structure 511.
  • the input / output unit 21 formed in the lower structure 12 may be disposed below the area signal processing unit 531 of the third structure 511. .
  • the input / output unit 21 formed in the lower structure 12 may be disposed below the pixel array unit 24 of the upper structure 11.
  • FIG. 50 shows a configuration example (first structure of the imaging device 1 including the lens module) in the case where the imaging device 1 and the lens module are combined.
  • a lens module 901 is placed on the protective substrate 18 of the imaging device 1 and a substrate 921 is connected under the laminated structure 13 of the imaging device 1.
  • the lens module 901 includes an actuator 902, a lens barrel 903, and a lens 904.
  • a lens 904-1, a lens 904-2, and a lens 904-3 are incorporated inside the lens barrel 903, and the lens barrel 903 is configured to hold these lenses 904-1 to 904-3.
  • the lens barrel 903 is included in the actuator 902.
  • a screw (not shown) is provided on the outer side surface of the lens barrel 903, and a screw (not shown) is provided at a position where the screw mates with the screw on a part of the inside of the actuator 902.
  • the screw and the screw inside the actuator 902 are configured to be screwed together.
  • the reason why the lens barrel 903 is screwed to the actuator 902 is to adjust the distance from the imaging device 1 (focus) at the time of manufacture. Note that such a method of attaching the lens barrel 903 to the actuator 902 is an example, and the lens barrel 903 may be attached to the actuator 902 by another mechanism.
  • the lens barrel 903 When the lens barrel 903 is configured to be movable in the vertical direction in the drawing so that auto-focus (AF) can be performed, for example, the side surface of the lens barrel 903 (the lens to which the lens barrel 903 is attached).
  • Carry is provided with a coil.
  • a magnet is provided inside the actuator 902 at a position facing the coil.
  • the magnet is provided with a yoke, and the coil, magnet, and yoke constitute a voice coil motor.
  • the imaging device 1 is provided at the center of the lower part of the lens module 901.
  • the imaging device 1 has a structure as shown in FIG. 1, for example.
  • the imaging device 1 includes an external terminal 14 at the bottom.
  • the external terminal 14 is connected to a substrate 921 (wiring in the substrate 921) provided on the lower side of the imaging device 1.
  • a wiring is formed in the substrate 921.
  • the circuit board 931-1 and the circuit board 931-2 are connected to the substrate 921 through external terminals.
  • a bonding wire 941 is connected to the substrate 921.
  • a bonding wire 941 is connected to the lower part of the substrate 921 (the side facing the side connected to the imaging device 1) to which the circuit board 931 is connected (circuit board region A) and wire bonding.
  • a region (wire bonding region B) connected to the circuit (not shown) is provided.
  • circuit board 921 is not limited to the circuit board 931.
  • Passive elements such as a chip capacitor, a chip resistor, and a wireless antenna may be used. Further, it may be an IC such as a power supply IC, a wireless transmission IC, a semiconductor memory, or an active element. Further, an electronic substrate on which these passive elements, ICs, or active elements are mounted may be used.
  • a circuit board 931 in this specification.
  • the circuit board 931 described in this specification may be any one of these aspects or may include all of them.
  • the lens module 901, the imaging device 1, and the circuit board 931 are stacked in the vertical direction.
  • a conventional structure is shown in FIG.
  • the imaging device 1 is provided below the lens module 901 and is connected to the substrate 921 via the external terminal 14.
  • the difference is that the circuit board 931 and the bonding wire 941 are provided not on the lower side of the imaging device 1 but on the same plane.
  • the circuit board 931-1, the circuit board 931-2, and the circuit board 931-2 are arranged on the substrate 921 extended to the right side of the image pickup apparatus 1 in the drawing.
  • a bonding wire 941 is connected. That is, the imaging device 1, the circuit board 931, and the board 921 on which the bonding wires 941 are mounted have a circuit board area A, a wire bonding area B, and a lens module area C. In the lens module region C, an imaging device region D in which the imaging device 1 is mounted is included.
  • a lens module region C, a circuit board region A, and a wire bonding region B are provided on the plane of the substrate 921.
  • the structure shown in FIG. 50 has a structure in which only the lens module region C is provided on the plane of the substrate 921.
  • the lens module area C includes the imaging device area D.
  • the lens module area D also includes a circuit board area A and a wire bonding area B. That is, in the structure shown in FIG. 50, when viewed in the plane of the substrate 921, if the size is equal to the lens module region C, the main components such as the lens module 901, the imaging device 1, the circuit board 931, and the bonding wire 941 are used. Various parts can be mounted.
  • the structure shown in FIG. 50 in other words, the structure in which the lens module 901, the imaging device 1, and the circuit board 931 (bonding wire 941) are stacked can reduce the plane area. Become. In this way, by adopting a structure in which the plane area is reduced, it is possible to obtain a structure suitable for application to an apparatus that is desired to be reduced in size, such as a capsule endoscope described later.
  • FIG. 52 illustrates a second structure of the imaging apparatus 1 including a lens module.
  • a lens module 901 is placed on a substrate 921.
  • the structure shown in FIG. 50 is compared with the structure shown in FIG.
  • the structure shown in FIG. 50 is a structure in which a lens module 901 (a frame constituting a part of the lens module 901) is placed on the protective substrate 18 of the imaging device 1, whereas FIG. In this structure, a lens module 901 (a frame constituting a part of the lens module 901) is placed on the substrate 921.
  • the imaging device 1 is placed on the upper side of the substrate 921, and the circuit board 931 and the bonding wire 941 are connected to the lower side. In this way, the imaging module 1 may be surrounded and the lens module 901 may be placed on the substrate 921.
  • the plane area of the substrate 921 may be almost the same size as the lens module region C, and the plane area can be made smaller than the structure shown in FIG.
  • FIG. 53 illustrates a third structure of the imaging apparatus 1 including a lens module.
  • the structure shown in FIG. 53 is a structure in which the protective substrate 18 of the imaging device 1 is not provided.
  • the structure shown in FIG. 52 is compared with the structure shown in FIG.
  • the imaging device 1 having the structure shown in FIG. 53 is different from the imaging device 1 having the structure shown in FIG.
  • the protective substrate 18 is provided to protect the on-chip lens 16 and the color filter 15.
  • the imaging device 1 By adopting a structure in which the imaging device 1 is surrounded by the lens module 901 and the substrate 921, the imaging device 1 can be mounted in a space where the influence from the outside can be blocked, and the on-chip lens 16 and the color filter 15 can be mounted. Can be protected. Therefore, as illustrated in FIG. 53, the imaging device 1 may have a structure in which the protective substrate 18 is not stacked.
  • the imaging device 1 is placed on the upper side of the substrate 921, and the circuit board 931 and bonding wires 941 are connected to the lower side. In this way, the imaging module 1 may be surrounded and the lens module 901 may be placed on the substrate 921.
  • the plane area of the substrate 921 may be almost the same size as the lens module region C, and the plane area can be made smaller than the structure shown in FIG.
  • FIG. 54 illustrates a fourth structure of the imaging device including the lens module.
  • the structure shown in FIGS. 50 to 53 has been described by taking, as an example, the case where the imaging device 1 shown in FIG. 1 is used as the imaging device 1, but the lens module 901, the imaging device 1, and the circuit board 931 are used.
  • the application is not limited to the imaging device 1 shown in FIG.
  • the present invention can be applied to the imaging apparatus 1 having the structure described with reference to FIGS.
  • FIG. 54 shows an example of a structure in which a lens module 901 and a substrate 921 are stacked on the imaging device 700 shown in FIG.
  • the imaging device 700 is placed on a frame 961 and connected to an external terminal 727 provided at the lower portion of the frame 961 via a bonding wire 725 by wire bonding.
  • a protective substrate 962 (for example, glass) is laminated on the frame 961.
  • the lens module 901 is laminated on the substrate 921.
  • the plane area of the substrate 921 only needs to be approximately the same size as the lens module region C, and the plane area can be made smaller than the structure shown in FIG.
  • FIG. 55 illustrates a fifth structure of the imaging device provided with the lens module.
  • the structure shown in FIG. 55 is a structure in which the imaging device 700 is stacked on the substrate 921, similarly to the structure shown in FIG. 54, and the lens module 901 is stacked on the protective substrate 962 provided on the frame 961. Structure.
  • the plane area of the substrate 921 only needs to be approximately the same size as the lens module region C. Also, the plane area can be reduced.
  • FIG. 56 A sixth structure of the imaging device including the lens module will be described with reference to FIG.
  • the structure shown in FIG. 56 is different from the first to fifth structures in that the substrate 921 is formed in a T shape.
  • the substrate 921-1 is arranged in the horizontal direction, and the substrate 921-2 is arranged in the vertical direction.
  • the substrate 921-1 and the substrate 921-2 are substrates connected so as to cross each other vertically.
  • Circuit boards 931-1 to 931-4 are connected to the board 921-2 arranged in the vertical direction.
  • the imaging device 1 and the lens module 901 having the structure shown in FIG. 50 are stacked.
  • 56 illustrates the first structure shown in FIG. 50
  • the structure from the lens module 901 to the substrate 921-1 is the second structure shown in FIG. 52, shown in FIG.
  • the third structure, the fourth structure shown in FIG. 54, or the fifth structure shown in FIG. 55 may be used.
  • the plane area of the substrate 921 may be almost the same size as the lens module region C, as in the structures of FIGS. 1 to 5, and the structure shown in FIG. As a result, the plane area can be reduced.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an in-vivo information acquisition system for a patient using a capsule endoscope.
  • FIG. 57 is a diagram illustrating an example of a schematic configuration of an in-vivo information acquisition system 1000 to which the technology according to the present disclosure can be applied.
  • the in-vivo information acquisition system 1000 includes a capsule endoscope 1100 and an external control device 1200 that comprehensively controls the operation of the in-vivo information acquisition system 1000.
  • the capsule endoscope 1100 is swallowed by the patient.
  • the capsule endoscope 1100 has an imaging function and a wireless communication function, and moves inside the organ such as the stomach and intestine by peristaltic motion or the like until it is spontaneously discharged from the patient. Images (hereinafter also referred to as in-vivo images) are sequentially captured at predetermined intervals, and information about the in-vivo images is sequentially wirelessly transmitted to the external control device 1200 outside the body.
  • the external control device 1200 generates image data for displaying the in-vivo image on a display device (not shown) based on the received information about the in-vivo image.
  • an image obtained by imaging the inside of the patient's body can be obtained at any time from the time when the capsule endoscope 1100 is swallowed to the time when the capsule endoscope 1100 is discharged.
  • a capsule endoscope 1100 includes a light source unit 1103, an imaging unit 1105, an image processing unit 1107, a wireless communication unit 1109, a power supply unit 1113, a power supply unit 1115, and a state detection unit in a capsule type housing 1101.
  • the functions of the unit 1117 and the control unit 1119 are mounted.
  • the light source unit 1103 includes a light source such as an LED (light emitting diode), and irradiates the imaging field of the imaging unit 1105 with light.
  • a light source such as an LED (light emitting diode)
  • the imaging unit 1105 includes an imaging device and an optical system including a plurality of lenses provided in front of the imaging device. Reflected light (hereinafter referred to as observation light) of light irradiated on the body tissue to be observed is collected by the optical system and enters the image sensor. The imaging element receives the observation light and photoelectrically converts it to generate an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image. The image signal generated by the imaging unit 1105 is provided to the image processing unit 1107.
  • observation light Reflected light (hereinafter referred to as observation light) of light irradiated on the body tissue to be observed is collected by the optical system and enters the image sensor.
  • the imaging element receives the observation light and photoelectrically converts it to generate an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal generated by the imaging unit 1105 is provided to the image processing unit 1107.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the image processing unit 1107 is configured by a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and performs various signal processing on the image signal generated by the imaging unit 1105.
  • the signal processing may be minimum processing (for example, compression of image data, conversion of frame rate, conversion of data rate and / or conversion of format, etc.) for transmitting the image signal to the external control device 1200.
  • the image processing unit 1107 is configured to perform only the minimum necessary processing, the image processing unit 1107 can be realized with a smaller size and lower power consumption. Is preferred.
  • the imaging unit 1105 and the image processing unit 1107 are configured as shown in FIGS. 50 to 56 (excluding FIG. 51), so that the plane area can be reduced, which is suitable for the capsule endoscope 1100. is there.
  • the imaging device 1 and the lens module 901 illustrated in FIG. 50 can be applied as the imaging unit 1105, and the circuit board 931 can be applied as the image processing unit 1107.
  • the left-right direction is the direction in which the capsule endoscope 1100 advances, it is clear that the burden on the patient is further reduced when the size (width) in the vertical direction is small.
  • the imaging apparatus 1 shown in FIG. 50 is mounted on such a capsule endoscope 1100, for example, the opening of the lens module 901 is provided in the left-right direction, for example, the left side in FIG.
  • the vertical size of the capsule endoscope 1100 decreases as the plane area of the substrate 921 on which the imaging device 1 is placed decreases.
  • the imaging apparatus 1 since the plane area of the substrate 921 can be reduced, the imaging apparatus 1 suitable for application to an apparatus such as the capsule endoscope 1100 can do.
  • the image processing unit 1107 may perform further signal processing (for example, noise removal processing or other high image quality processing). Good.
  • the image processing unit 1107 provides the image signal subjected to signal processing to the wireless communication unit 1109 as RAW data.
  • the wireless communication unit 1109 associates the information with the information and wirelessly transmits the image signal. You may provide to the communication part 1109. FIG. Thereby, the position in the body where the image was captured, the imaging direction of the image, and the like can be associated with the captured image.
  • the wireless communication unit 1109 is configured by a communication device that can transmit and receive various types of information to and from the external control device 1200.
  • the communication apparatus includes an antenna 1111 and a processing circuit that performs modulation processing for signal transmission and reception.
  • the wireless communication unit 1109 performs predetermined processing such as modulation processing on the image signal that has been subjected to signal processing by the image processing unit 1107, and transmits the image signal to the external control device 1200 via the antenna 1111.
  • the wireless communication unit 1109 receives a control signal related to drive control of the capsule endoscope 1100 from the external control device 1200 via the antenna 1111.
  • the wireless communication unit 1109 provides the received control signal to the control unit 1119.
  • the power feeding unit 1113 includes a power receiving antenna coil, a power regeneration circuit that regenerates power from a current generated in the antenna coil, a booster circuit, and the like.
  • the power feeding unit 1113 generates power using a so-called non-contact charging principle. Specifically, when an external magnetic field (electromagnetic wave) having a predetermined frequency is applied to the antenna coil of the power feeding unit 1113, an induced electromotive force is generated in the antenna coil.
  • the electromagnetic wave may be a carrier wave transmitted from the external control device 1200 via the antenna 1201, for example. Electric power is regenerated from the induced electromotive force by the power regeneration circuit, and the potential is appropriately adjusted in the booster circuit, thereby generating power for storage. The electric power generated by the power supply unit 1113 is stored in the power supply unit 1115.
  • the power supply unit 1115 is composed of a secondary battery, and stores the electric power generated by the power supply unit 1113.
  • FIG. 57 in order to avoid the drawing from becoming complicated, an arrow or the like indicating a power supply destination from the power supply unit 1115 is omitted, but the power stored in the power supply unit 1115 is not stored in the light source unit 1103.
  • the imaging unit 1105, the image processing unit 1107, the wireless communication unit 1109, the state detection unit 1117, and the control unit 1119 can be used for driving them.
  • the state detection unit 1117 includes a sensor for detecting the state of the capsule endoscope 1100 such as an acceleration sensor and / or a gyro sensor.
  • the state detection unit 1117 can acquire information about the state of the capsule endoscope 1100 from the detection result of the sensor.
  • the state detection unit 1117 provides the image processing unit 1107 with information on the acquired state of the capsule endoscope 1100. In the image processing unit 1107, as described above, information about the state of the capsule endoscope 1100 can be associated with the image signal.
  • the control unit 1119 is constituted by a processor such as a CPU, and controls the operation of the capsule endoscope 1100 in an integrated manner by operating according to a predetermined program.
  • the control unit 1119 drives the light source unit 1103, the imaging unit 1105, the image processing unit 1107, the wireless communication unit 1109, the power supply unit 1113, the power supply unit 1115, and the state detection unit 1117 in accordance with control signals transmitted from the external control device 1200. By appropriately controlling, the function in each unit as described above is realized.
  • the external control device 1200 may be a processor such as a CPU or GPU, or a microcomputer or a control board in which a processor and a storage element such as a memory are mounted.
  • the external control device 1200 includes an antenna 1201 and is configured to be able to transmit and receive various types of information to and from the capsule endoscope 1100 via the antenna 1201.
  • the external control device 1200 controls the operation of the capsule endoscope 1100 by transmitting a control signal to the control unit 1119 of the capsule endoscope 1100.
  • the light irradiation conditions for the observation target in the light source unit 1103 can be changed by a control signal from the external control device 1200.
  • an imaging condition for example, a frame rate or an exposure value in the imaging unit 1105
  • the contents of processing in the image processing unit 1107 and the conditions for the wireless communication unit 1109 to transmit an image signal may be changed by a control signal from the external control device 1200.
  • the external control device 1200 performs various image processing on the image signal transmitted from the capsule endoscope 1100, and generates image data for displaying the captured in-vivo image on the display device.
  • image processing for example, development processing (demosaic processing), image quality enhancement processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing ( Various known signal processing such as electronic zoom processing may be performed.
  • the external control device 1200 controls driving of a display device (not shown) to display an in-vivo image captured based on the generated image data.
  • the external control device 1200 may record the generated image data on a recording device (not shown) or print it out on a printing device (not shown).
  • the imaging unit 1105 and the image processing unit 1107 are structured as shown in FIGS. 50 to 56 (excluding FIG. 51), whereby the plane area can be reduced and the capsule endoscope 1100 itself can be reduced in size. It becomes possible. Further, by applying the image pickup apparatus 1, the package size itself can be reduced, and the capsule endoscope 1100 itself can be further reduced in size. By being able to reduce the size in this way, the burden on the patient can be further reduced.
  • step S101 the imaging device 1 is manufactured at the wafer level as described above (described with reference to FIGS. 24 to 43).
  • step S ⁇ b> 102 the lens module 901 is loaded on the imaging device 1.
  • the lens module 901 is also manufactured at the wafer level.
  • step S103 it is separated into pieces.
  • the imaging device 1 in which the lens modules 901 are stacked is manufactured.
  • step S104 (FIG. 59), the substrate 921 is connected to the imaging device 1.
  • step S103 the substrate 921 may be stacked on the imaging device 1 at the wafer level, and then separated into pieces in step S104.
  • step S105 the circuit board 931 is further connected to the separated substrate 921 of the imaging device 1.
  • step S103 the substrate 921 may be stacked on the imaging device 1 at the wafer level, the circuit substrate 931 may be further stacked in step S104, and may be separated into pieces in step S105.
  • the imaging device 1 including the lens module 901 as shown in FIG. 50 is manufactured. Thereafter, a bonding wire 941 is connected as necessary and connected to an external circuit.
  • FIG. 60 is a diagram showing a form of a camera module using a laminated lens structure.
  • the 60 includes a laminated lens structure 2011 in which a plurality of lens-attached substrates 2021a to 2021e are laminated, and a laminated structure 13.
  • the laminated lens structure 2011 includes a plurality of optical units.
  • a one-dot chain line 2054 represents the optical axis of each optical unit.
  • the laminated structure 13 is disposed below the laminated lens structure 2011. In the camera module 2000, light incident on the camera module 2000 from above passes through the laminated lens structure 2011 and is received by the laminated structure 13 disposed below the laminated lens structure 2011.
  • the laminated lens structure 2011 includes five laminated substrates 2021a to 2021e with lenses. In the case where the five lens-attached substrates 2021a to 2021e are not particularly distinguished, they are simply described as the lens-attached substrate 2021.
  • the cross-sectional shape of the through hole 2053 of each lens-equipped substrate 2021 constituting the laminated lens structure 2011 is a so-called bottom dent shape in which the opening width decreases toward the lower side (side where the laminated structure 13 is disposed). ing.
  • a diaphragm plate 2031 is disposed on the laminated lens structure 2011.
  • the diaphragm plate 2031 includes, for example, a layer formed of a material having a light absorbing property or a light shielding property.
  • the aperture plate 2031 is provided with an opening 2032.
  • the laminated structure 13 is constituted by, for example, a front side irradiation type or a back side irradiation type CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • An on-chip lens 16 is formed on the upper surface of the laminated structure 13 on the laminated lens structure 2011 side, and external terminals 14 for inputting and outputting signals are provided on the lower surface of the laminated structure 13. Is formed.
  • the laminated lens structure 2011, the laminated structure 13, the diaphragm plate 2031 and the like are housed in the lens barrel 2043.
  • the laminated lens structure 2011 includes five laminated substrates 2021a to 2021e with lenses, but the number of laminated substrates 2021 with lenses is not particularly limited as long as it is two or more.
  • Each lens-attached substrate 2021 constituting the laminated lens structure 2011 has a structure in which a lens resin portion 2052 is added to a carrier substrate 2051.
  • the carrier substrate 2051 has a through hole 2053, and a lens resin portion 2052 is formed inside the through hole 2053.
  • the carrier substrate 2051 the lens resin portion 2052, or the through hole 2053 of each of the lens-equipped substrates 2021a to 2021e, as shown in FIG. 13, corresponding to the lens-equipped substrates 2021a to 2021e,
  • the carrier substrates 2051a to 2051e, the lens resin portions 2052a to 2052e, or the through holes 2053a to 2053e are described and described.
  • a glass sealing resin 17 having light transmittance is disposed on the upper side of the laminated structure 13.
  • the laminated structure 13 and the protective substrate 18 are fixed via the glass seal resin 17.
  • a structural material 2061 is disposed on the upper side of the protective substrate 18.
  • the protective substrate 18 and the laminated lens structure 2011 are fixed via the structural material 2061.
  • the structural material 2061 is, for example, an epoxy resin.
  • the glass seal resin 17 is disposed on the entire upper surface of the laminated structure 13.
  • the laminated structure 13 and the protective substrate 18 are fixed via the glass seal resin 17.
  • the glass seal resin 17 disposed on the entire upper surface of the laminated structure 13 is concentrated and applied to a partial region of the laminated structure 13. And the action or effect of dispersing and receiving stress over the entire surface of the laminated structure 13 is brought about.
  • a structural material 2061 is disposed on the upper side of the protective substrate 18.
  • the protective substrate 18 and the laminated lens structure 2011 are fixed via the structural material 2061.
  • the portion including the laminated structure 13 and the like located on the left side in the figure is the imaging device 1-1, and the portion including the laminated structure 13 and the like located on the right side is the imaging device 1-. 2.
  • the camera module 2000 having the configuration shown in FIG. 60 includes a total of four optical units (imaging device 1), two vertically and horizontally on the light incident surface, as shown in FIG. 61A. It can be.
  • imaging device 1 imaging device 1
  • the shape of the lens and the size of the opening 2032 of the diaphragm plate 2031 are the same.
  • the optical axes of two optical units arranged in each of the vertical direction and the horizontal direction of the light incident surface extend in the same direction.
  • the camera module 2000 having such a structure is suitable for capturing an image with a higher resolution than when capturing with a single optical unit using super-resolution technology.
  • images are taken by a plurality of stacked structures 13 (included in the light receiving elements) arranged at different positions while the optical axis faces the same direction in each of the vertical direction and the horizontal direction.
  • images are taken by a plurality of stacked structures 13 (included in the light receiving elements) arranged at different positions while the optical axis faces the same direction in each of the vertical direction and the horizontal direction.
  • by photographing images with light receiving pixels in different regions in one light receiving element it is possible to obtain a plurality of images that are not necessarily the same while the optical axes are directed in the same direction.
  • an image with a high resolution can be obtained.
  • the camera module 2000 can also be configured.
  • the configuration shown in B of FIG. 61 is configured to include a total of four optical units (imaging devices 1), two vertically and two horizontally on the light incident surface.
  • the four optical units have the same lens shape.
  • the four optical units include a diaphragm plate 2031 in the uppermost layer of the laminated lens structure 2011, but the size of the opening 2032 of the diaphragm plate 2031 is different among the four optical units.
  • the camera module 2000 can implement
  • a light receiving pixel that receives RGB three types of light for monitoring daytime color images, and an RGB color filter for monitoring monochrome images at night
  • the camera module 2000 using the laminated structure 13 including the light receiving pixels not including the aperture it is possible to increase the size of the aperture of the aperture by the pixels for photographing the black and white image at night when the illuminance is low.
  • the camera module 2000 is configured to include pixels for high illuminance and pixels for low illuminance, and a dynamic signal is obtained by using a signal obtained from the pixel for high illuminance and a signal obtained from the pixel for low illuminance. It is also possible to adopt a configuration that performs imaging with an expanded range.
  • the pixel A (low illuminance pixel) and the pixel B (high illuminance pixel) are operated more appropriately by the pixel B than the pixel A as signal generation means (for example, a photodiode) provided in the pixel.
  • signal generation means for example, a photodiode
  • a pixel having a higher limit (for example, one having a large saturation charge amount) and a generation signal conversion means (for example, a charge-voltage conversion capacitor) provided in the pixel is also larger in the pixel B than in the pixel A.
  • the output signal when a certain amount of signal (for example, charge) is generated per unit time is suppressed to be smaller than that of the pixel A and the saturation charge amount is large in the pixel B. Even when the illuminance is high, the pixel does not reach the operation limit, and this brings about an effect that an image having high gradation can be obtained.
  • a certain amount of signal for example, charge
  • the pixel A can generate a larger output signal than the pixel B when a certain amount of signal (for example, electric charge) is generated per unit time.
  • the pixel A has a high gradation even when the illuminance of the subject is low. This brings about an effect that an image having a sex can be obtained.
  • the pixel A and the pixel B are provided, it is possible to obtain an image having a high gradation in a wide illuminance range, that is, an image having a so-called wide dynamic range.
  • FIG. 62 in the case of a configuration including a pixel for high illuminance and a pixel for low illuminance, as shown in FIG. 62 can be realized, but can also be realized by providing a layer for attenuating the transmittance of incident light as shown in FIG. 62 in the pixel for low illuminance.
  • the camera module 2000 shown in FIG. 62 has basically the same configuration as the camera module 2000 shown in FIG. 60. Therefore, the same reference numerals are given to the same parts, and the description thereof is omitted.
  • . 60 is different from the camera module 2000 shown in FIG. 60 in that the transmittance attenuation layer 2100 is formed on the protective substrate 18 of the imaging device 1-2 of the camera module 2000 shown in FIG. Are the same.
  • one imaging device 1 includes a transmittance attenuation layer 2000, and the other does not.
  • the application of the present technology is not limited to such a configuration.
  • the present technology may be applied to an apparatus including one imaging apparatus 1 and the transmittance attenuation layer 2000 may be included. Moreover, it is good also as a structure provided with the transmittance
  • the transmittance attenuation layer 2100 is a layer that attenuates the transmittance of incident light.
  • the transmittance will be described with reference to FIG.
  • A% light is reflected by the transmittance attenuation layer 2100, and B% light is transmitted through the transmittance attenuation layer 2100.
  • C% of the light incident on the transmittance attenuation layer 2100 is absorbed by the transmittance attenuation layer 2100.
  • the transmittance attenuation layer 2100 is a layer that attenuates the ratio (transmittance) of transmitted light. In order to attenuate the transmittance, the ratio of reflected light may be increased or the ratio of absorbed light may be increased.
  • the transmittance attenuation layer 2100 for setting the reflectance to 0% or more and / or the absorption rate to 0% or more is formed on the imaging device 1-2.
  • the transmittance attenuation layer 2100 is a layer formed of a material for increasing the ratio of reflected light and a material for increasing the ratio of absorbed light.
  • a scattering surface may be formed on the surface of the protective substrate 18 as shown in FIG.
  • the protective substrate 18 is formed of, for example, a glass substrate, but a scattering surface may be formed on the glass surface to form the transmittance attenuation layer 2100. Since incident light is scattered by the scattering surface, the proportion of reflected light increases and the transmittance is attenuated.
  • the transmittance attenuation layer 2100 is a layer in which at least one of the reflectance, the absorptance, and the scattering coefficient has a value other than 0.
  • the transmittance attenuation layer 2100 is formed on a part of the plurality of imaging devices 1 included in the camera module 2000, and a signal from the imaging device 1 having a different ratio of transmitted light can be obtained. To do.
  • the imaging device 1 (the imaging device 1-2 in FIG. 62) provided with the transmittance attenuation layer 2100 corresponds to the pixel B and has a certain amount of signal (for example, charge per unit time). ) Is suppressed to be smaller than that of the pixel A, and the saturation charge amount is large. For example, even when the illuminance of the subject is high, the pixel does not reach the operation limit, and thus the higher level It can be used as a pixel from which an image having tonality can be obtained.
  • a certain amount of signal for example, charge per unit time
  • the imaging device 1 (the imaging device 1-1 in FIG. 62) that is not provided with the transmittance attenuation layer 2100 corresponds to the pixel A, and has a certain amount of signal per unit time ( For example, when a charge is generated, an output signal larger than that of the pixel B is obtained. Therefore, for example, even when the illuminance of the subject is low, the pixel can be used as a pixel capable of obtaining an image having high gradation. .
  • the camera module 2000 shown in FIG. 62 is configured to include the imaging device 1-1 and the imaging device 1-2 corresponding to the pixel A and the pixel B, and thus has high gradation in a wide illuminance range.
  • An apparatus capable of obtaining an image, that is, an image having a wide dynamic range can be obtained.
  • the transmittance attenuation layer 2100 may be formed on the protective substrate 18 of the imaging apparatus 1 as shown in FIG. 62, but may be formed at the positions shown in FIGS. 65 and 66, respectively. Referring to FIG. 65, the transmittance attenuation layer 2100 is formed between the protective substrate 18 of the imaging device 1 and the glass seal resin 17. In addition, referring to FIG. 66, the transmittance attenuation layer 2100 is formed in the protective substrate 18 of the imaging device 1.
  • the transmittance attenuation layer 2100 can be formed on the protective substrate 18, in the protective substrate 18, or below the protective substrate 18.
  • the transmittance attenuation layer 2100 may be formed on the protective substrate 18 of the imaging device 1 with a uniform material and substantially the same thickness, but as shown in FIG. It may be formed of a plurality of materials (a plurality of layers).
  • the transmittance attenuation layer 2100 shown in FIG. 67 is formed of three layers of a transmittance attenuation layer 2100-1, a transmittance attenuation layer 2100-2, and a transmittance attenuation layer 2100-3. These three layers of transmittance attenuation layer 2100 are formed of different materials. By forming with different materials, the layer can obtain a desired transmittance.
  • the transmittance attenuation layer 2100 may be formed of a plurality of layers other than three layers.
  • the transmittance attenuation layer 2100 may not be formed on the entire surface of the imaging device 1 but may be formed on a part thereof. In the example shown in FIG. 68, an example in which the transmittance attenuation layer 2100 is formed in a half area of the protective substrate 18 of the imaging device 1 (a half area of the effective pixel area) is shown.
  • the transmittance attenuating layer 2100 is formed in the right half of the effective pixel region, but it may be formed in the left half or in a strip shape. Further, as shown in FIG. 69, the transmittance attenuation layer 2100 may have a different thickness on the left and right. In the example shown in FIG. 69, the thickness of the transmittance attenuation layer 2100 provided in the left half of the effective pixel region is formed to be thinner than the thickness of the transmittance attenuation layer 2100 provided in the right half. .
  • a transmittance attenuation layer 2100 may be formed at both ends of the imaging device 1.
  • the transmittance attenuation layer 2100 may be formed on the optical black regions. In this case, an effect that flare can be suppressed can be obtained.
  • the transmittance attenuating layer 2100 described with reference to FIGS. 67 to 70 is formed on the protective substrate 18, in the protective substrate 18, It can be formed under the protective substrate 18.
  • the transmittance attenuation layer 2100 is made of metal such as Al (aluminum), Au (gold), Co (cobalt), Ni (nickel), Cu (copper), W (tungsten), Ti (titanium), SiO (silicon monoxide). ), SiN (silicon nitride), SiON (silicon oxynitride film) and the like.
  • metal such as Al (aluminum), Au (gold), Co (cobalt), Ni (nickel), Cu (copper), W (tungsten), Ti (titanium), SiO (silicon monoxide). ), SiN (silicon nitride), SiON (silicon oxynitride film) and the like.
  • An organic material may be used.
  • a polarizer such as a crystal or a liquid crystal may be used.
  • the transmittance attenuation layer 2100 may function as a color filter.
  • the transmittance attenuation layer 2100 illustrated in FIG. 62 may be a red (R) color filter, a green (G) color filter, or a blue (B) color filter.
  • the transmittance attenuating layer 2100 is composed of any one of these metals, inorganic materials, organic materials, and polarizers, or a combination thereof.
  • each imaging device 1 is formed with a red color filter as a transmittance attenuation layer 2100.
  • the imaging device 1 may be the imaging device 1 in which the green color filter is formed as the transmittance attenuation layer 2100, or the imaging device 1 in which the blue color filter is formed as the transmittance attenuation layer 2100.
  • the camera module 2000 can include two imaging devices 1 each having a green color filter formed as the transmittance attenuation layer 2100.
  • one of the four imaging devices 1 is formed with a transparent (C) color filter as the transmittance attenuation layer 2100, or the transmittance attenuation layer 2100 is formed.
  • the structure is not done.
  • the color filter array of the camera module 2000 provided with four imaging devices 1 includes, for example, RCCC (four imaging devices) in addition to the RGB and RGBC described above. 1 of which 1 is a red color filter and the remaining 3 are transparent color filters), RCCB (1 out of 4 imaging devices 1 is 1 red color filter, 2 are transparent color filters, and the rest 1 blue color filter), RGBIR (1 out of 4 imaging devices 1, 1 red color filter, 1 green color filter, 1 blue color filter, 1 transmits infrared) It is also possible to apply the present technology to an array such as a color filter.
  • the transmittance attenuation layer 2100 can be formed as shown in FIG. That is, the imaging device 1 in which the transmittance attenuation layer 2100 is formed is manufactured by bonding the substrate on which the transmittance attenuation layer 2100 is formed on the protective substrate 18 and the substrate laminated up to the glass seal resin 17. Can do.
  • the imaging device 1 in which the transmittance attenuation layer 2100 is formed between the glass seal resin 17 and the protective substrate 18 can be manufactured by bonding the transmittance attenuation layer 2100 and the glass seal resin 17.
  • the imaging device 1 in which the transmittance attenuation layer 2100 is formed can be manufactured by forming the transmittance attenuation layer 2100 on the imaging device 1 formed up to the protective substrate 18. it can.
  • the formation of the transmittance attenuation layer 2100 shown in FIGS. 71 and 72 may be performed at the wafer level or after being separated into individual pieces.
  • the transmittance attenuation layer 2100 can be formed also on the side surface of the imaging device 1 as shown in FIG. .
  • each chip imaging device 1
  • the transmittance attenuation layer 2100 is formed on the protective substrate 18, and the transmittance is also applied to the side surface.
  • An attenuation layer 2100 is formed.
  • the imaging device 1 can be surrounded by a material having a moisture-proof effect, and moisture can be prevented from entering the image-capturing device 1. It becomes.
  • the transmittance attenuation layer 2100 has been described as a layer that attenuates the transmittance of incident light, but may be formed as a layer that improves the transmittance.
  • the surface of the protective substrate 18 formed of a glass substrate can be subjected to moth-eye processing, whereby the reflectance at the glass interface can be suppressed and the transmittance can be improved.
  • the present technology is not limited to application to an imaging apparatus. That is, the present disclosure captures images in an image capturing unit (photoelectric conversion unit) such as an imaging device such as a digital still camera or a video camera, a portable terminal device having an imaging function, or a copier using the imaging device as an image reading unit.
  • an image capturing unit photoelectric conversion unit
  • the present invention can be applied to all electronic devices using the apparatus.
  • the imaging device may have a form formed as a single chip, or may have a module-like form having an imaging function in which an imaging unit and a signal processing unit or an optical system are packaged together.
  • FIG. 74 is a block diagram illustrating a configuration example of an imaging apparatus as an electronic apparatus to which the present technology is applied.
  • the 74 includes an optical unit 3001 including a lens group, an imaging device (imaging device) 3002 that employs the configuration of the imaging device 1 of FIG. 1, and a DSP (Digital Signal Processor) that is a camera signal processing circuit.
  • a circuit 3003 is provided.
  • the imaging device 3000 also includes a frame memory 3004, a display unit 3005, a recording unit 3006, an operation unit 3007, and a power supply unit 3008.
  • the DSP circuit 3003, the frame memory 3004, the display unit 3005, the recording unit 3006, the operation unit 3007 and the power supply unit 3008 are connected to each other via a bus line 3009.
  • the optical unit 3001 takes in incident light (image light) from a subject and forms an image on the imaging surface of the imaging device 3002.
  • the imaging apparatus 3002 converts the amount of incident light imaged on the imaging surface by the optical unit 3001 into an electrical signal for each pixel and outputs the electrical signal as a pixel signal.
  • the imaging device 3002 for the purpose of measuring the operation of the imaging device 1 of FIG. 1, that is, the laminated structure 13, a conductive pad for raising a measuring needle is not provided on the outer peripheral portion.
  • An imaging device that is downsized by using the input / output circuit section 49 below the area of the pixel array section 24 of the upper structure 11 or below the pixel peripheral circuit area 313 of the upper structure 11 is used. be able to.
  • the display unit 3005 includes, for example, a panel type display device such as a liquid crystal panel or an organic EL (Electro Luminescence) panel, and displays a moving image or a still image captured by the imaging device 3002.
  • the recording unit 3006 records a moving image or a still image captured by the imaging device 3002 on a recording medium such as a hard disk or a semiconductor memory.
  • the operation unit 3007 issues operation commands for various functions of the imaging device 3000 under the operation of the user.
  • the power supply unit 3008 appropriately supplies various power sources serving as operation power sources for the DSP circuit 3003, the frame memory 3004, the display unit 3005, the recording unit 3006, and the operation unit 3007 to these supply targets.
  • the package size of the semiconductor package can be reduced. Accordingly, it is possible to reduce the size of the imaging apparatus 3000 such as a video camera, a digital still camera, or a camera module for mobile devices such as a mobile phone.
  • the imaging apparatus 3000 such as a video camera, a digital still camera, or a camera module for mobile devices such as a mobile phone.
  • FIG. 75 is a diagram illustrating a usage example in which the above-described imaging device 1 is used.
  • the CMOS image sensor as the imaging device 1 can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray as follows.
  • Devices for taking images for viewing such as digital cameras and mobile devices with camera functions
  • Devices used for traffic such as in-vehicle sensors that capture the back, surroundings, and interiors of vehicles, surveillance cameras that monitor traveling vehicles and roads, and ranging sensors that measure distances between vehicles, etc.
  • Equipment used for home appliances such as TVs, refrigerators, air conditioners, etc. to take pictures and operate the equipment according to the gestures ⁇ Endoscopes, equipment that performs blood vessel photography by receiving infrared light, etc.
  • Equipment used for medical and health care ⁇ Security equipment such as security surveillance cameras and personal authentication cameras ⁇ Skin measuring instrument for photographing skin and scalp photography Such as a microscope to do beauty Equipment used for sports such as action cameras and wearable cameras for sports applications etc.
  • Equipment used for agriculture such as cameras for monitoring the condition of fields and crops
  • the imaging device 1 can be applied to both a device that uses electrons as a signal charge and a device that uses holes as a signal charge.
  • the present disclosure is not limited to application to an imaging device that detects the distribution of the amount of incident light of visible light and captures it as an image, but also an imaging device that captures the distribution of the incident amount of infrared rays, X-rays, particles, or the like as an image.
  • the present invention can be applied to all imaging devices (physical quantity distribution detection devices) such as a fingerprint detection sensor that senses other physical quantity distributions such as pressure and capacitance and captures images as images.
  • the present disclosure is applicable not only to the imaging device but also to all semiconductor devices having other semiconductor integrated circuits.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 76 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the technology (present technology) according to the present disclosure can be applied.
  • FIG. 76 shows a state where an operator (doctor) 11131 is performing surgery on a patient 11132 on a patient bed 11133 using an endoscopic surgery system 11000.
  • an endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as an insufflation tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 that supports the endoscope 11100. And a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 includes a lens barrel 11101 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • a lens barrel 11101 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • an endoscope 11100 configured as a so-called rigid mirror having a rigid lens barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible lens barrel. Good.
  • An opening into which the objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101. Irradiation is performed toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and reflected light (observation light) from the observation target is condensed on the image sensor by the optical system. Observation light is photoelectrically converted by the imaging element, and an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the CCU 11201 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102 and performs various kinds of image processing for displaying an image based on the image signal, such as development processing (demosaic processing), for example.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of a light source such as an LED (Light Emitting Diode), for example, and supplies irradiation light to the endoscope 11100 when photographing a surgical site or the like.
  • a light source such as an LED (Light Emitting Diode), for example, and supplies irradiation light to the endoscope 11100 when photographing a surgical site or the like.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • a user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment instrument control device 11205 controls the drive of the energy treatment instrument 11112 for tissue ablation, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 11206 passes gas into the body cavity via the pneumoperitoneum tube 11111.
  • the recorder 11207 is an apparatus capable of recording various types of information related to surgery.
  • the printer 11208 is a device that can print various types of information related to surgery in various formats such as text, images, or graphs.
  • the light source device 11203 that supplies the irradiation light when the surgical site is imaged to the endoscope 11100 can be configured by, for example, a white light source configured by an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of the output light every predetermined time. Synchronously with the timing of changing the intensity of the light, the drive of the image sensor of the camera head 11102 is controlled to acquire an image in a time-sharing manner, and the image is synthesized, so that high dynamic without so-called blackout and overexposure A range image can be generated.
  • the light source device 11203 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface of the mucous membrane is irradiated by irradiating light in a narrow band compared to irradiation light (ie, white light) during normal observation.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • the body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 77 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU 11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are connected to each other by a transmission cable 11400 so that they can communicate with each other.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101. Observation light taken from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 includes an imaging element.
  • One (so-called single plate type) image sensor may be included in the imaging unit 11402, or a plurality (so-called multi-plate type) may be used.
  • image signals corresponding to RGB may be generated by each imaging element, and a color image may be obtained by combining them.
  • the imaging unit 11402 may be configured to include a pair of imaging elements for acquiring right-eye and left-eye image signals corresponding to 3D (Dimensional) display. By performing the 3D display, the operator 11131 can more accurately grasp the depth of the living tissue in the surgical site.
  • 3D 3D
  • the imaging unit 11402 is not necessarily provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the driving unit 11403 is configured by an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405. Thereby, the magnification and the focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various types of information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information for designating the frame rate of the captured image, information for designating the exposure value at the time of imaging, and / or information for designating the magnification and focus of the captured image. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, a so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Auto White Balance
  • the camera head control unit 11405 controls driving of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various types of information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by electrical communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on the image signal that is RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various types of control related to imaging of the surgical site by the endoscope 11100 and display of a captured image obtained by imaging of the surgical site. For example, the control unit 11413 generates a control signal for controlling driving of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a picked-up image showing the surgical part or the like based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques.
  • the control unit 11413 detects surgical tools such as forceps, specific biological parts, bleeding, mist when using the energy treatment tool 11112, and the like by detecting the shape and color of the edge of the object included in the captured image. Can be recognized.
  • the control unit 11413 may display various types of surgery support information superimposed on the image of the surgical unit using the recognition result. Surgery support information is displayed in a superimposed manner and presented to the operator 11131, thereby reducing the burden on the operator 11131 and allowing the operator 11131 to proceed with surgery reliably.
  • the transmission cable 11400 for connecting the camera head 11102 and the CCU 11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • communication is performed by wire using the transmission cable 11400.
  • communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to, for example, the endoscope 11100, the camera head 11102 (the imaging unit 11402), the CCU 11201 (the image processing unit 11412), and the like.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device that is mounted on any type of mobile body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, and a robot. May be.
  • FIG. 78 is a block diagram illustrating a schematic configuration example of a vehicle control system which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 12020 can be input with radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle on which the vehicle control system 12000 is mounted.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle and receives the captured image.
  • the vehicle outside information detection unit 12030 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal corresponding to the amount of received light.
  • the imaging unit 12031 can output an electrical signal as an image, or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared rays.
  • the vehicle interior information detection unit 12040 detects vehicle interior information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the vehicle interior information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver is asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside / outside the vehicle acquired by the vehicle outside information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 realizes an ADAS (Advanced Driver Assistance System) function including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintaining traveling, vehicle collision warning, or vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of automatic driving that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare, such as switching from a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits an output signal of at least one of sound and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 79 is a diagram illustrating an example of an installation position of the imaging unit 12031.
  • the vehicle 12100 includes imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door, and an upper part of a windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the forward images acquired by the imaging units 12101 and 12105 are mainly used for detection of a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 79 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, an overhead image when the vehicle 12100 is viewed from above is obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object in the imaging range 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • cooperative control for the purpose of autonomous driving or the like autonomously traveling without depending on the operation of the driver can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as a two-wheeled vehicle, a normal vehicle, a large vehicle, a pedestrian, and a utility pole based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles.
  • the microcomputer 12051 identifies obstacles around the vehicle 12100 as obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
  • the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is connected via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration or avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the captured images of the imaging units 12101 to 12104. Such pedestrian recognition is, for example, whether or not the user is a pedestrian by performing a pattern matching process on a sequence of feature points indicating the outline of an object and a procedure for extracting feature points in the captured images of the imaging units 12101 to 12104 as infrared cameras. It is carried out by the procedure for determining.
  • the audio image output unit 12052 When the microcomputer 12051 determines that there is a pedestrian in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 has a rectangular contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to be superimposed and displayed.
  • voice image output part 12052 may control the display part 12062 so that the icon etc. which show a pedestrian may be displayed on a desired position.
  • this indication can also take the following structures.
  • a first structure in which a pixel array unit in which pixels for photoelectric conversion are two-dimensionally arranged is formed; An input circuit unit for inputting a predetermined signal from the outside of the device, an output circuit unit for outputting the pixel signal output from the pixel to the outside of the device, and a signal processing circuit are formed.
  • the second structure located below is Composed of laminated, The output circuit unit, a first through via that is connected to the output circuit unit and penetrates a semiconductor substrate that forms part of the second structure, and the output circuit unit via the first through via
  • An output unit including an external terminal for signal output connected to the outside of the The input circuit unit, a second through via connected to the input circuit unit and penetrating the semiconductor substrate, and an external terminal for signal input connecting the input circuit unit to the outside of the device through the second through via
  • an input unit including Disposed below the pixel array portion of the first structure, A substrate connected to the external terminal for signal output and the external terminal for signal input;
  • An image pickup apparatus comprising: the signal output external terminal of the substrate; and a circuit substrate connected to a surface opposite to a surface to which the signal input external terminal is connected.
  • a lens barrel, The circuit board and a wire for wire bonding are respectively connected in a region corresponding to a surface facing the surface where the lens barrel is disposed, in the region of the substrate where the lens barrel is disposed.
  • the imaging device according to any one of (1) to (4).
  • the second structure located below is Composed of laminated, The output circuit unit, a first through via that is connected to the output circuit unit and penetrates a semiconductor substrate that forms part of the second structure, and the output circuit unit via the first through via
  • An output unit including an external terminal for signal output connected to the outside of the
  • the input circuit unit a second through via connected to the input circuit unit and penetrating the semiconductor substrate, and an external terminal for signal input connecting the input circuit unit to the outside of the device through the second through via
  • an input unit including An imaging device disposed below the pixel array portion of the first structure.
  • the imaging device according to (7), wherein the transmittance attenuation layer is formed in the glass substrate.
  • the transmittance attenuation layer is formed in a half region on the glass substrate.
  • the transmittance attenuation layer is formed with a different thickness on the glass substrate.
  • the imaging device according to (7), wherein the transmittance attenuation layer is formed on an optical black region.
  • the imaging device according to (7), wherein the transmittance attenuation layer also has a function as a color filter.
  • the transmittance attenuation layer is configured of any one of metal, an inorganic material, an organic material, and a polarizer, or a combination thereof.
  • the transmittance attenuation layer is formed by using a surface of the glass substrate as a scattering surface that scatters light.
  • the second structure located below is Composed of laminated, The output circuit unit, a first through via that is connected to the output circuit unit and penetrates a semiconductor substrate that forms part of the second structure, and the output circuit unit via the first through via
  • An output unit including an external terminal for signal output connected to the outside of the
  • the input circuit unit a second through via connected to the input circuit unit and penetrating the semiconductor substrate, and an external terminal for signal input connecting the input circuit unit to the outside of the device through the second through via
  • an input unit including An imaging device disposed below the pixel array portion of the first structure.
  • the second structure located below is Composed of laminated, The output circuit unit, a first through via that is connected to the output circuit unit and penetrates a semiconductor substrate that forms part of the second structure, and the output circuit unit via the first through via
  • An output unit including an external terminal for signal output connected to the outside of the The input circuit unit, a second through via connected to the input circuit unit and penetrating the semiconductor substrate, and an external terminal for signal input connecting the input circuit unit to the outside of the device through the second through via
  • an input unit including Disposed below the pixel array portion of the first structure, A substrate connected to the external terminal for signal output and the external terminal for signal input;
  • An electronic device comprising: the signal output external terminal of the substrate; and a circuit substrate connected to a surface opposite to a surface to which the signal input external terminal is connected.
  • 1 imaging device 11 first structure (upper structure), 12 second structure (lower structure), 13 laminated structure, 14 external terminal (signal input / output terminal), 15 color filter, 16 on-chip lens , 17 glass seal resin, 18 protective substrate, 21 input / output unit, 22 row drive unit, 24 pixel array unit, 25 column signal processing unit, 26 image signal processing unit, 31 pixel, 41 input terminal, 42 input circuit unit, 47 Output circuit section, 48 output terminals, 49 I / O circuit section, 51 photodiode, 81 semiconductor substrate, 88 through electrode via, 90 rewiring, 101 semiconductor substrate, 105 chip through electrode, 106 connection wiring, 109 silicon through electrode, 311 I / O circuit area, 312 Signal processing circuit region, 313 the pixel peripheral circuit region, 314 the upper and lower substrate connecting region, 321 I / O circuit, 901 a lens module, 904 lens, 921 a substrate, 931 a circuit board, 941 a bonding wire, 2100 transmittance attenuation layer

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Internal Circuitry In Semiconductor Integrated Circuit Devices (AREA)

Abstract

本開示は、装置サイズをより小型化することができるようにする撮像装置、電子機器に関する。 画素アレイ部が形成された第1構造体と、所定の信号を装置の外部から入力させ、画素から出力された画素信号を装置の外部へ出力するための入出力回路部と信号処理回路が形成された第2構造体とが積層されて構成され、第2構造体の一部を構成する半導体基板を貫通する第1貫通ビアと、第1貫通ビアを介して外部と接続する信号出力用外部端子と、入力回路部に接続され半導体基板を貫通する第2貫通ビアと、第2貫通ビアを介して外部と接続する信号入力用外部端子と、第1構造体の画素アレイ部の下方に配置され、信号出力用外部端子と信号入力用外部端子とに接続される基板と、基板の信号出力用外部端子と信号入力用外部端子が接続されている面と対向する面に接続されている回路基板とを備える。本開示は、例えば、撮像装置等に適用できる。

Description

撮像装置、電子機器
 本開示は、撮像装置、電子機器に関し、特に、装置サイズをより小型化することができるようにする撮像装置、電子機器に関する。
 CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像装置は、複数の半導体基板を積層した構成が提案されるなど、より一層の小型化が進んでいる(例えば、特許文献1参照)。
特開2014-72294号公報
 撮像装置の小型化を進めると、装置の平面サイズに対して、出力信号を取り出す端子部の占める面積が大きくなり、小型化が難しくなる。
 本開示は、このような状況に鑑みてなされたものであり、装置サイズをより小型化することができるようにするものである。
 本技術の一側面の第1の撮像装置は、光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、所定の信号を装置の外部から入力させる入力回路部、前記画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、前記第1構造体の下方に位置する第2構造体とが、積層されて構成され、前記出力回路部、前記出力回路部に接続され前記第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、前記第1貫通ビアを介して前記出力回路部を前記装置の外部と接続する信号出力用外部端子を含む出力部と、前記入力回路部、前記入力回路部に接続され前記半導体基板を貫通する第2貫通ビア、及び、前記第2貫通ビアを介して前記入力回路部を前記装置の外部と接続する信号入力用外部端子を含む入力部とが、前記第1構造体の前記画素アレイ部の下方に配置され、前記信号出力用外部端子と前記信号入力用外部端子とに接続される基板と、前記基板の前記信号出力用外部端子と前記信号入力用外部端子が接続されている面と対向する面に接続されている回路基板とを備える。
 本技術の一側面の第2の撮像装置は、光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、前記第1構造体の上方に位置するガラス基板と、前記第1構造体の上方に位置し、入射光の透過率を減衰させる透過率減衰層と、所定の信号を装置の外部から入力させる入力回路部、前記画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、前記第1構造体の下方に位置する第2構造体とが、積層されて構成され、前記出力回路部、前記出力回路部に接続され前記第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、前記第1貫通ビアを介して前記出力回路部を前記装置の外部と接続する信号出力用外部端子を含む出力部と、前記入力回路部、前記入力回路部に接続され前記半導体基板を貫通する第2貫通ビア、及び、前記第2貫通ビアを介して前記入力回路部を前記装置の外部と接続する信号入力用外部端子を含む入力部とが、前記第1構造体の前記画素アレイ部の下方に配置されている。
 本技術の一側面の第3の撮像装置は、光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、前記第1構造体の上方に位置し、光が入射する面がモスアイ加工されているガラス基板と、所定の信号を装置の外部から入力させる入力回路部、前記画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、前記第1構造体の下方に位置する第2構造体とが、積層されて構成され、前記出力回路部、前記出力回路部に接続され前記第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、前記第1貫通ビアを介して前記出力回路部を前記装置の外部と接続する信号出力用外部端子を含む出力部と、前記入力回路部、前記入力回路部に接続され前記半導体基板を貫通する第2貫通ビア、及び、前記第2貫通ビアを介して前記入力回路部を前記装置の外部と接続する信号入力用外部端子を含む入力部とが、前記第1構造体の前記画素アレイ部の下方に配置されている。
 本技術の一側面の電子機器は、光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、所定の信号を装置の外部から入力させる入力回路部、前記画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、前記第1構造体の下方に位置する第2構造体とが、積層されて構成され、前記出力回路部、前記出力回路部に接続され前記第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、前記第1貫通ビアを介して前記出力回路部を前記装置の外部と接続する信号出力用外部端子を含む出力部と、前記入力回路部、前記入力回路部に接続され前記半導体基板を貫通する第2貫通ビア、及び、前記第2貫通ビアを介して前記入力回路部を前記装置の外部と接続する信号入力用外部端子を含む入力部とが、前記第1構造体の前記画素アレイ部の下方に配置され、前記信号出力用外部端子と前記信号入力用外部端子とに接続される基板と、前記基板の前記信号出力用外部端子と前記信号入力用外部端子が接続されている面と対向する面に接続されている回路基板とを備える。
 本技術の一側面の第1の撮像装置においては、光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、所定の信号を装置の外部から入力させる入力回路部、画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、第1構造体の下方に位置する第2構造体とが、積層されて構成されている。また、出力回路部、出力回路部に接続され第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、第1貫通ビアを介して出力回路部を装置の外部と接続する信号出力用外部端子を含む出力部と、入力回路部、入力回路部に接続され半導体基板を貫通する第2貫通ビア、及び、第2貫通ビアを介して入力回路部を装置の外部と接続する信号入力用外部端子を含む入力部とが、第1構造体の画素アレイ部の下方に配置されている。また、信号出力用外部端子と信号入力用外部端子とに接続される基板と、基板の信号出力用外部端子と信号入力用外部端子が接続されている面と対向する面に接続されている回路基板とが備えられている。
 本技術の一側面の第2の撮像装置においては、光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、第1構造体の上方に位置するガラス基板と、第1構造体の上方に位置し、入射光の透過率を減衰させる透過率減衰層と、所定の信号を装置の外部から入力させる入力回路部、画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、第1構造体の下方に位置する第2構造体とが、積層されて構成されている。また出力回路部、出力回路部に接続され第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、第1貫通ビアを介して出力回路部を装置の外部と接続する信号出力用外部端子を含む出力部と、入力回路部、入力回路部に接続され半導体基板を貫通する第2貫通ビア、及び、第2貫通ビアを介して入力回路部を装置の外部と接続する信号入力用外部端子を含む入力部とが、第1構造体の画素アレイ部の下方に配置されている。
 本技術の一側面の第3の撮像装置においては、光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、第1構造体の上方に位置し、光が入射する面がモスアイ加工されているガラス基板と、所定の信号を装置の外部から入力させる入力回路部、画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、第1構造体の下方に位置する第2構造体とが、積層されて構成されている。また、出力回路部、出力回路部に接続され第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、第1貫通ビアを介して出力回路部を装置の外部と接続する信号出力用外部端子を含む出力部と、入力回路部、入力回路部に接続され半導体基板を貫通する第2貫通ビア、及び、第2貫通ビアを介して入力回路部を装置の外部と接続する信号入力用外部端子を含む入力部とが、第1構造体の画素アレイ部の下方に配置されている。
 本技術の一側面の電子機器は、前記第1の撮像装置を含む装置とされている。
 本技術の一側面によれば、装置サイズをより小型化することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を採用した撮像装置の概略の構造を示す図である。 撮像装置のシステム構成例を示すブロック図である。 画素の回路配置構成例を示す図である。 入力回路部と出力回路部の構成例を示す図である。 撮像装置における回路配置の第1の回路配置構成例を示す図である。 図5のA-A’線における断面構造を示す図である。 撮像装置における回路配置の第2の回路配置構成例を示す図である。 図7のB-B’線における断面構造を示す図である。 比較例1としての撮像装置の最終形状における断面を表す図である。 比較例2としての撮像装置の最終形状における断面を表す図である。 比較例3としての撮像装置の最終形状における断面を表す図である。 撮像装置における回路配置の第3の回路配置構成例を示す図である。 撮像装置における回路配置の第4の回路配置構成例を示す図である。 図13のC-C’線における断面構造を示す図である。 撮像装置における回路配置の第5の回路配置構成例を示す図である。 撮像装置における回路配置の第6の回路配置構成例を示す図である。 撮像装置における回路配置の第7の回路配置構成例を示す図である。 撮像装置における回路配置の第8の回路配置構成例を示す図である。 撮像装置における回路配置の第9の回路配置構成例を示す図である。 撮像装置における回路配置の第10の回路配置構成例を示す図である。 図20のD-D’線における断面構造を示す図である。 撮像装置における回路配置の第11の回路配置構成例を示す図である。 撮像装置1の外周付近の拡大断面図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 ツインコンタクト構造の撮像装置の製造方法を説明する図である。 Cu-Cu直接接合構造の図5の撮像装置の製造方法を説明する図である。 Cu-Cu直接接合構造の図5の撮像装置の製造方法を説明する図である。 Cu-Cu直接接合構造の図5の撮像装置の製造方法を説明する図である。 Cu-Cu直接接合構造の図5の撮像装置の製造方法を説明する図である。 Cu-Cu直接接合構造の図5の撮像装置の製造方法を説明する図である。 撮像装置のさらなる変形例その1を説明する図である。 撮像装置のさらなる変形例その2を説明する図である。 撮像装置のさらなる変形例その3を説明する図である。 撮像装置のさらなる変形例その4を説明する図である。 撮像装置が3層の積層構造体で構成される例を説明する図である。 撮像装置が3層の積層構造体で構成される例を説明する図である。 レンズモジュールと基板に接続された撮像装置の構成について説明するための図である。 レンズモジュールと基板に接続された撮像装置の構成について説明するための図である。 レンズモジュールと基板に接続された撮像装置の構成について説明するための図である。 レンズモジュールと基板に接続された撮像装置の構成について説明するための図である。 レンズモジュールと基板に接続された撮像装置の構成について説明するための図である。 レンズモジュールと基板に接続された撮像装置の構成について説明するための図である。 レンズモジュールと基板に接続された撮像装置の構成について説明するための図である。 カプセル内視鏡の構成について説明するための図である。 レンズモジュールと基板を撮像装置に接続する工程について説明するための図である。 レンズモジュールと基板を撮像装置に接続する工程について説明するための図である。 カメラモジュールの構成について説明するための図である。 カメラモジュールの構成について説明するための図である。 カメラモジュールの構成について説明するための図である。 透過率について説明するための図である。 散乱面について説明するための図である。 透過率減衰層の形成位置について説明するための図である。 透過率減衰層の形成位置について説明するための図である。 透過率減衰層の形状について説明するための図である。 透過率減衰層の形状について説明するための図である。 透過率減衰層の形状について説明するための図である。 透過率減衰層の形状について説明するための図である。 透過率減衰層の形成について説明するための図である。 透過率減衰層の形成について説明するための図である。 透過率減衰層の形成について説明するための図である。 本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。 図1の撮像装置の使用例を説明する図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.撮像装置の概略の構造
2.撮像装置のシステム構成
3.画素の回路配置構成例
4.入力回路と出力回路の構成例
5.撮像装置の回路配置構成例
6.撮像装置の断面構造
7.他の上下配線接続構造を用いた場合の撮像装置の回路配置
8.他の撮像装置との比較例
9.撮像装置の他の回路配置構成例
10.撮像装置の詳細構造
11.製造方法
12.さらなる変形例
13.3層の積層構造体の例
14.レンズモジュールを備えた構成
15.カプセル内視鏡の構成
16.レンズモジュール付きの撮像装置の製造方法
17.複眼形態について
18.透過率減衰層を備えたカメラモジュール
19.透過率減衰層の形成
20.電子機器への適用例
21.イメージセンサの使用例
22.内視鏡手術システムへの応用例
23.移動体への応用例
 <1.撮像装置の概略の構造>
 図1は、本技術を採用した半導体装置としての撮像装置の概略の構造を示している。
 図1に示される撮像装置1は、図中の矢印の方向で装置に入射する光もしくは電磁波を電気信号へ変換する。以後、本開示では、便宜上、電気信号へと変換する対象として、光を電気信号へ変換する装置を例に用いて説明する。
 撮像装置1は、第1構造体11と第2構造体12とが積層された積層構造体13と、外部端子14と、第1構造体11の上側に形成された保護基板18とを備える。なお、以下では、便宜上、図1における、光が装置へ入射する入射面の側を上側、入射面と対向する装置のもう一方の面の側を下側として、第1構造体11を上側構造体11、第2構造体12を下側構造体12と呼ぶことにする。
 この撮像装置1は、後で述べるように、上側構造体11の一部を構成する半導体基板(ウエハ)と、下側構造体12の一部を構成する半導体基板(ウエハ)と、保護基板18とを、ウエハレベルで貼り合せた後、個々の撮像装置1へと固片化して形成される。
 固片化される前の上側構造体11は、半導体基板(ウエハ)に、入射した光を電気信号へ変換するための画素が形成されたものである。画素は、例えば、光電変換するためのフォトダイオード(PD)と、光電変換動作や光電変換された電気信号を読み出す動作を制御する、複数個の画素トランジスタを備える。固片化された後の撮像装置1に含まれる上側構造体11は、上側チップ、イメージセンサ基板、または、イメージセンサチップと呼ばれる場合もある。
 撮像装置1が備える画素トランジスタは、例えば、MOSトランジスタであることが望ましい。
 上側構造体11の上面には、例えば、R(赤)、G(緑)、またはB(青)のカラーフィルタ15とオンチップレンズ16が形成されている。オンチップレンズ16の上側には、撮像装置1の構造物、特にオンチップレンズ16やカラーフィルタ15を保護するための保護基板18が配置されている。保護基板18は、例えば透明なガラス基板である。保護基板18はその硬度がオンチップレンズ16の硬度よりも高いと、オンチップレンズ16を保護する作用が強まる。
 固片化される前の下側構造体12は、半導体基板(ウエハ)に、トランジスタと配線とを含む半導体回路が形成されたものである。固片化された後の撮像装置1に含まれる下側構造体12は、下側チップ、信号処理基板、または、信号処理チップと呼ばれる場合もある。下側構造体12には、装置外部の不図示の配線と電気的に接続するための外部端子14が、複数、形成されている。外部端子14は、例えば、はんだボールである。
 撮像装置1は、オンチップレンズ16上に配置されたガラスシール樹脂17を介して、上側構造体11の上側もしくはオンチップレンズ16の上側に保護基板18が固定されたキャビティレス構造を成している。ガラスシール樹脂17は、その硬度が保護基板18の硬度よりも低いため、シール樹脂が存在しない場合と比較すると、撮像装置1の外部から保護基板18へ加わった応力が装置内部へと伝わるのを緩和する作用を果たし得る。
 なお、撮像装置1は、キャビティレス構造と異なる構造として、上側構造体11の上面に、柱状もしくは壁状の構造を形成し、保護基板18がオンチップレンズ16の上方に空隙を持って担持されるように、上記柱状もしくは壁状の構造に固定されたキャビティ構造を成しても良い。
 <2.撮像装置のシステム構成>
 図2は、撮像装置1のシステム構成例を示すブロック図である。
 図2の撮像装置1は、光電変換部(PD)を有する画素31が、行方向および列方向に複数個配置された画素アレイ部24を備える。
 画素アレイ部24は、画素31を行毎に駆動するための行駆動信号線32や、行毎に駆動された複数個の画素31から、光電変換の結果生じた信号を読み出すための垂直信号線(列読出し線)33を備える。図2に示すように、1本の行駆動信号線32には、行方向に配列された複数個の画素31が接続されている。1本の垂直信号線33には、列方向に配列された複数個の画素31が接続されている。
 撮像装置1は、行駆動部22と列信号処理部25をさらに備える。
 行駆動部22は、例えば、画素駆動するための行の位置を決める行アドレス制御部、換言すれば、行デコーダ部と、画素31を駆動するための信号を発生させる行駆動回路部を備える。
 列信号処理部25は、例えば、垂直信号線33に接続され、画素31とソースフォロア回路を形成する負荷回路部を備える。また、列信号処理部25は、垂直信号線33を介して画素31から読み出された信号を増幅する増幅回路部を備えていても良い。さらに、列信号処理部25は、光電変換の結果として画素31から読み出された信号から、系のノイズレベルを取り除くための、ノイズ処理部をさらに備えても良い。
 列信号処理部25は、画素31から読み出された信号もしくは上記ノイズ処理されたアナログ信号を、デジタル信号へと変換するための、アナログデジタルコンバータ(ADC)を備える。ADCは、変換対象となるアナログ信号と、これと比較対象となる参照掃引信号とを比較するためのコンパレータ部、および、コンパレータ部での比較結果が反転するまでの時間を計測するカウンタ部を備える。列信号処理部25は、読出し列を走査する制御を行う水平走査回路部をさらに備えても良い。
 撮像装置1は、タイミング制御部23をさらに備える。タイミング制御部23は、装置へ入力された基準クロック信号やタイミング制御信号を基にして、行駆動部22と列信号処理部25へ、タイミングを制御する信号を供給する。以後、本開示においては、行駆動部22、列信号処理部25、及びタイミング制御部23の全部もしくは一部を、単に画素周辺回路部、周辺回路部、または、制御回路部と呼ぶ場合がある。
 撮像装置1は、画像信号処理部26をさらに備える。画像信号処理部26は、光電変換の結果得られたデータ、換言すれば、撮像装置1における撮像動作の結果得られたデータに対して、各種の信号処理を施す回路である。画像信号処理部26は、例えば、画像信号処理回路部と、データ保持部とを含んで構成される。画像信号処理部26は、更にプロセッサ部を備えても良い。
 画像信号処理部26において実行される信号処理の一例は、AD変換された撮像データが、暗い被写体を撮影したデータである場合には階調を多く持たせ、明るい被写体を撮影したデータである場合には階調を少なくするトーンカーブ補正処理である。この場合、撮像データの階調をどのようなトーンカーブに基づいて補正するか、トーンカーブの特性データを予め画像信号処理部26のデータ保持部に記憶させておくことが望ましい。
 撮像装置1は、入力部21Aをさらに備える。入力部21Aは、例えば、上記基準クロック信号や、垂直同期信号および水平同期信号などのタイミング制御信号や、画像信号処理部26のデータ保持部へ記憶させる特性データなどを、装置外部から撮像装置1へ入力する。入力部21Aは、撮像装置1へデータを入力するための外部端子14である入力端子41と、入力端子41へ入力された信号を撮像装置1の内部へと取り込む入力回路部42とを備える。
 入力部21Aは、入力回路部42で取り込まれた信号の振幅を、撮像装置1の内部で利用しやすい振幅へと変更する入力振幅変更部43をさらに備える。
 入力部21Aは、入力データのデータ列の並びを変更する入力データ変換回路部44をさらに備える。入力データ変換回路部44は、例えば、入力データとしてシリアル信号を受け取って、これをパラレル信号へと変換するシリアルパラレル変換回路である。
 なお、入力振幅変更部43と入力データ変換回路部44は、省略される場合もある。
 撮像装置1がフラッシュメモリやSRAM、DRAMと言った外部のメモリデバイスと接続される場合には、入力部21Aは、これら外部のメモリデバイスからのデータを受け取るメモリインタフェース回路をさらに備えることができる。
 撮像装置1は、出力部21Bをさらに備える。出力部21Bは、撮像装置1で撮影された画像データや、画像信号処理部26で信号処理された画像データを、撮像装置1から装置外部へと出力する。出力部21Bは、撮像装置1から装置外部へとデータを出力ための外部端子14である出力端子48と、撮像装置1の内部から装置外部へとデータを出力する回路であり、出力端子48と接続された撮像装置1外部の外部配線を駆動する回路である、出力回路部47とを備える。
 出力部21Bは、撮像装置1の内部で用いた信号の振幅を、撮像装置1の外部に接続された外部デバイスで利用しやすい振幅へと変更する出力振幅変更部46をさらに備える。
 出力部21Bは、出力データのデータ列の並びを変更する出力データ変換回路部45をさらに備える。出力データ変換回路部45は、例えば、撮像装置1内部で使用したパラレル信号を、シリアル信号へと変換するパラレルシリアル変換回路である。
 出力データ変換回路部45と出力振幅変更部46は、省略される場合もある。
 撮像装置1がフラッシュメモリやSRAM、DRAMと言った外部のメモリデバイスと接続される場合には、出力部21Bは、これら外部のメモリデバイスへとデータを出力するメモリインタフェース回路をさらに備えることができる。
 なお、本開示においては、便宜上、入力部21Aと出力部21Bの双方もしくは少なくとも一方を含む回路ブロックを、入出力部21と呼ぶ場合がある。また、入力回路部42と出力回路部47の双方もしくは少なくとも一方を含む回路部を、入出力回路部49と呼ぶ場合がある。
 <3.画素の回路配置構成例>
 図3は、本実施の形態に係る撮像装置1の画素31の回路配置構成例を示している。
 画素31は、光電変換素子としてのフォトダイオード51、転送トランジスタ52、FD(フローティングディフュージョン)53、リセットトランジスタ54、増幅トランジスタ55、および選択トランジスタ56を有する。
 フォトダイオード51は、受光した光量に応じた電荷(信号電荷)を生成し、かつ、蓄積する。フォトダイオード51は、アノード端子が接地されているとともに、カソード端子が転送トランジスタ52を介して、FD53に接続されている。
 転送トランジスタ52は、転送信号TRによりオンされたとき、フォトダイオード51で生成された電荷を読み出し、FD53に転送する。
 FD53は、フォトダイオード51から読み出された電荷を保持する。リセットトランジスタ54は、リセット信号RSTによりオンされたとき、FD53に蓄積されている電荷がドレイン(定電圧源Vdd)に排出されることで、FD53の電位をリセットする。
 増幅トランジスタ55は、FD53の電位に応じた画素信号を出力する。すなわち、増幅トランジスタ55は、垂直信号線33を介して接続されている定電流源としての負荷MOS(不図示)とソースフォロワ回路を構成し、FD53に蓄積されている電荷に応じたレベルを示す画素信号が、増幅トランジスタ55から選択トランジスタ56と垂直信号線33を介して列信号処理部25に出力される。
 選択トランジスタ56は、選択信号SELにより画素31が選択されたときオンされ、画素31の画素信号を、垂直信号線33を介して列信号処理部25に出力する。転送信号TR、選択信号SEL、及びリセット信号RSTが伝送される各信号線は、図2の行駆動信号線32に対応する。
 画素31は、以上のように構成することができるが、この構成に限定されるものではなく、その他の構成を採用することもできる。
 <4.入力回路部と出力回路部の構成例>
 図4は、本実施の形態に係る撮像装置1の入力部21Aに備わる入力回路部42と、出力部21Bに備わる出力回路部47の回路配置構成例を示している。
 なお、入出力回路部49は、1つの外部端子14に対して、入力回路部42もしくは出力回路部47のどちらか一方を含む構成でも良いし、入力回路部42と出力回路部47との双方を並列に備えた双方向の入出力回路の構成であっても良い。
 入力回路部42は、以下の特徴を有する回路である。
 (1) 撮像装置1の入力端子41から入力回路部42へ入力されるデータと、入力回路部42から撮像装置1の内部回路へと出力されるデータとにおいて、論理が同じ、もしくは反転するだけの回路である、換言すれば、信号列におけるデータの並びを変えない回路である、さらに換言すれば、信号列において論理の”1”と”0”若しくは”Hi”と”Low”が切替わる位置を変えない回路である。
 (2) 撮像装置1の入力端子41に入力された信号の電圧振幅を、入力回路部42の後段に配置された回路、換言すれば撮像装置1においてより内部となる回路が受け取るに好ましい電圧振幅へと変換する回路である。この回路は、回路に入力されたデータを、電圧振幅が小さくなる方向へ変換する場合がある。
 (2)’ または、入力回路部42に入力された信号(例えばLVDSの小振幅差動信号)を、入力回路部42の後段に配置された回路、換言すれば撮像装置1においてより内部となる回路が受け取るに好ましいフォーマットもしくは電圧振幅(例えばシングルエンドでフルスイングするデジタル信号)へと変換して出力する回路である。この回路は、回路に入力されたデータを、電圧振幅が大きくなる方向へ変換する場合がある。
 (3) さらに、入力回路部42へ過大なノイズが入力され場合に、このノイズを入力回路部42の後段に配置された回路、換言すれば撮像装置1においてより内部となる回路へ伝播させずに遮断する保護回路を備える場合もある。
 出力回路部47は、以下の特徴を有する回路である。
 (1) 撮像装置1の内部回路から出力回路部47へ入力されるデータと、出力回路部47から撮像装置1の出力端子48を介して撮像装置1の外部へと出力されるデータとにおいて、論理が同じ、もしくは反転するだけの回路である、換言すれば、信号列におけるデータの並びを変えない回路である、さらに換言すれば、信号列において論理の”1”と”0”若しくは”Hi”と”Low”が切替わる位置を変えない回路である。
 (2) 撮像装置1の出力端子48と撮像装置1に接続される外部素子との間の信号線を、駆動する電流能力を大きくする回路である。若しくは、信号線の電圧振幅を大きくする回路である。この回路は、回路に入力されたデータを、電圧振幅が大きくなる方向へ変換する場合がある。
 (2)’ または、撮像装置1の内部の回路から出力回路部47に入力された信号(シングルエンドでフルスイングするデジタル信号)を、出力端子48に接続された外部素子が信号を受け取るに好ましいフォーマットもしくは電圧振幅(例えばLVDSの小振幅差動信号)へと変換して出力する回路である。この回路は、回路に入力されたデータを、電圧振幅が小さくなる方向へ変換する場合がある。
 図4に示すように、少なくとも入力回路部42もしくは出力回路部47のどちらか一方を含む入出力回路部49は、1つ以上トランジスタを含む。本開示においては、便宜上、入出力回路部49に含まれるトランジスタを、入出力トランジスタと呼ぶ場合がある。入出力回路部49は、インバータ回路、バッファ回路、などを含んでいても良いし、入力動作または出力動作を制御するイネーブル回路をさらに含んでいても良い。
 入力回路部42または出力回路部47は、回路で使用する電源電圧を適切に設定することにより、入力信号または出力信号の振幅変更部を兼ねることが出来る。例えば、撮像装置1の画素周辺回路部の一部や画像信号処理部26における信号の振幅がV2であって、一方、撮像装置1の外部から入力端子41へと入力される信号の振幅、あるいは、出力端子48から撮像装置1の外部へと出力される信号の振幅がV2よりも大きなV1である場合、入力回路部42または出力回路部47の回路が、例えば図4で示す回路においては、撮像装置1の内部回路側に位置するインバータの電源電圧をV2、撮像装置1外側方向に位置するインバータの電源電圧をV1とすることによって、入力回路部42は外部から振幅V1の信号を受け取り、この振幅をV2へと小さくして撮像装置1の内部回路へ入力し、出力回路部47は、撮像装置1の内部回路から振幅V2の信号を受け取り、この振幅をV1へと大きくして外部へ出力することが出来る。なお、図4に示す電圧V1とV2を同電圧とする場合は、信号振幅変更の機能を持たない構成となる。
 なお、上記の説明を含め、本開示においては、トランジスタ回路における基準電圧(図4の回路の場合、接地電圧)と、回路へ供給される電源の電圧であって上記基準電圧とは異なる電圧(図4の回路の場合、例えばV1)との電圧差を、単に電源電圧と呼ぶ場合がある。
 <5.撮像装置の回路配置構成例>
 次に、本実施の形態に係る撮像装置1の回路の配置、すなわち、図2に示した撮像装置1の各ブロックを、上側構造体11と下側構造体12とにどのように分けて搭載するかを説明する。
 図5は、撮像装置1における回路配置の第1の回路配置構成例を示す図である。
 第1の回路配置構成例においては、画素アレイ部24は上側構造体11に配置されている。
 撮像装置1に備わる画素周辺回路部のうち、行駆動部22は、一部が上側構造体11に配置され、かつ、一部が下側構造体12に配置されている。例えば、行駆動部22のうち、行駆動回路部が上側構造体11に配置され、行デコーダ部が下側構造体12に配置されている。
 上側構造体11に配置される行駆動部22は、画素アレイ部24の行方向の外側に配置され、下側構造体12に配置される行駆動部22は、少なくともその一部が上側構造体11に備わる行駆動部22の下側に配置されている。
 撮像装置1に備わる画素周辺回路部のうち、列信号処理部25は、一部が上側構造体11に配置され、かつ、一部が下側構造体12に配置されている。例えば、列信号処理部25のうち、負荷回路部、増幅回路部、ノイズ処理部、及び、ADCのコンパレータ部が上側構造体11に配置され、ADCのカウンタ部が下側構造体12に配置されている。
 上側構造体11に配置される列信号処理部25は、画素アレイ部24の列方向の外側に配置され、下側構造体12に配置される列信号処理部25は、少なくともその一部が上側構造体11に備わる列信号処理部25の下側に配置されている。
 上側構造体11に配置された行駆動部22の外側と、下側構造体12に配置された行駆動部22の外側には、これら2つの行駆動部22の配線を接続するための配線接続部29が配置されている。
 上側構造体11に配置された列信号処理部25の外側と、下側構造体12に配置された列信号処理部25の外側にも、これら2つの列信号処理部25の配線を接続するための配線接続部29が配置されている。これらの配線接続部29においては、この後、図6を用いて説明する配線接続構造が用いられている。
 下側構造体12に配置された行駆動部22と列信号処理部25の内側に、画像信号処理部26が配置されている。
 下側構造体12において、入出力回路部49は、上側構造体11の画素アレイ部24の下側となる領域に配置される。
 入出力回路部49は、入力回路部42と出力回路部47の双方もしくは少なくとも一方を含む回路部である。入出力回路部49が入力回路部42と出力回路部47の双方で構成される場合、入出力回路部49は、1つの外部端子14ごとに分かれて、下側構造体12に複数個配置される。入出力回路部49が入力回路部42のみで構成される場合、入力回路部42は、1つの外部端子14(入力端子41)ごとに分かれて、下側構造体12に複数個配置される。
 入出力回路部49が出力回路部47のみで構成される場合、出力回路部47は、1つの外部端子14(出力端子48)ごとに分かれて、下側構造体12に複数個配置される。これら複数個に分かれて配置された各入出力回路部49の周囲には、画像信号処理部26が配置されている。換言すれば、画像信号処理部26を配置した領域内に、入出力回路部49が配置されている。
 なお、下側構造体12において、入出力回路部49は、上側構造体11の行駆動部22の下側もしくは列信号処理部25の下側となる領域に配置されても良い。
 換言すると、入出力回路部49は、外部端子14が形成される下側構造体12側で、かつ、上側構造体11の画素アレイ部24の領域の下方、若しくは、上側構造体11の画素周辺回路部(図6の画素周辺回路領域313のうち、上側構造体11に形成される回路部)の下方の任意の領域に配置することができる。
 なお、この後で説明する他の構成例も含めて、本実施の形態に係る撮像装置1においては、入力端子41と入力回路部42や、出力回路部47と出力端子48が配置されている領域に、これらの代わりに、電源端子や接地端子を配置しても良い。
 下側構造体12に配置されたトランジスタ回路のうち、入力回路部42および出力回路部47を構成するトランジスタ回路の電源電圧は、画像信号処理部26を構成するトランジスタ回路の電源電圧よりも、高くても良い。
 例えば、入力回路部42と出力回路部47を構成するトランジスタ回路の電源電圧が1.8V乃至3.3Vであって、画像信号処理部26を構成するトランジスタ回路の電源電圧が1.2V乃至1.5Vであっても良い。
 前者(入力回路部42および出力回路部47を構成するトランジスタ回路)の電源電圧と後者(画像信号処理部26を構成するトランジスタ回路)の電源電圧とが異なるため、入力回路部42および出力回路部47において電源電圧が印加されるウエル領域と、これらの周囲に配置された画像信号処理部26において電源電圧が印加されるウエル領域とを離間して配置するための距離、いわゆるウエル分離領域の幅は、画像信号処理部26内において電源電圧が印加される複数個のウエル領域の間に設けられた距離よりも、大きいことが望ましい。
 また、入力回路部42および出力回路部47に備わる素子分離領域の深さは、画像信号処理部26内に備わる素子分離領域の深さよりも、深くても良い。また、入力回路部42および出力回路部47に備わるトランジスタのゲート長は、画像信号処理部26内に備わるトランジスタのゲート長よりも、大きいことが望ましい。
 撮像装置1に備わる画素周辺回路部のうち、上側構造体11に配置された画素周辺回路部の一部、例えば列信号処理部25に備わる負荷回路部、増幅回路部、ノイズ処理部、及び、ADCのコンパレータ部のいずれかを構成するトランジスタ回路の電源電圧は、下側構造体12に配置された画素周辺回路部の一部、例えば列信号処理部25に備わるADCのカウンタ部を構成するトランジスタ回路の電源電圧よりも、高くても良い。
 例として、前者(上側構造体11に配置された画素周辺回路部、例えば列信号処理部25に備わる負荷回路部、増幅回路部、ノイズ処理部、または、ADCのコンパレータ部のいずれか)のトランジスタ回路の電源電圧が1.8V乃至3.3Vであって、後者(下側構造体12に配置された画素周辺回路部、例えばADCのカウンタ部)のトランジスタ回路の電源電圧が1.2V乃至1.5Vであっても良い。
 後者のトランジスタ回路の電源電圧は、下側構造体12に配置された画像信号処理部26を構成するトランジスタ回路の電源電圧と同じであっても良い。前者のトランジスタ回路の電源電圧が後者のトランジスタ回路の電源電圧よりも高いため、前者のトランジスタ回路において電源電圧が印加される複数個のウエル領域の間に設けられた距離は、後者のトランジスタ回路において電源電圧が印加される複数個のウエル領域の間に設けられた距離よりも、大きいことが望ましい。
 また、前者のトランジスタ回路に備わる素子分離領域の深さは、後者のトランジスタ回路に備わる素子分離領域の深さよりも、深いことが望ましい。また、前者のトランジスタ回路に備わるトランジスタのゲート長は、後者のトランジスタ回路に備わるトランジスタのゲート長よりも、大きいことが望ましい。
 さらに、上側構造体11に配置された画素31を構成する画素トランジスタ回路の電源電圧は、上側構造体11に配置された画素周辺回路部(例えば列信号処理部25に備わる負荷回路部、増幅回路部、ノイズ処理部、または、ADCのコンパレータ部のいずれか)を構成するトランジスタ回路の電源電圧と同じであっても良い。
 上側構造体11に配置された画素31を構成する画素トランジスタ回路の電源電圧は、下側構造体12に配置された画素周辺回路部(例えばADCのカウンタ部)もしくは画像信号処理部26を構成するトランジスタ回路の電源電圧よりも、高くても良い。このため、素子分離領域として半導体基板を掘り込む構造の素子分離領域を用いる場合には、上側構造体11に配置された画素トランジスタの周囲に備わる素子分離領域の一部の深さは、下側構造体12に配置された画素周辺回路部もしくは画像信号処理部26のトランジスタの周囲に備わる素子分離領域の深さよりも深くても良い。
 あるいは、画素トランジスタの周囲の素子分離領域として、半導体基板を掘り込む素子分離領域ではなく、画素トランジスタの周囲に、画素トランジスタの拡散層領域とは逆の導電型となる不純物領域を形成する素子分離領域を一部に用いても良い。
 また、上側構造体11に配置された画素トランジスタのゲート長は、下側構造体12に配置された画素周辺回路部もしくは画像信号処理部26のトランジスタのゲート長よりも大きくても良い。一方、素子分離領域が深くなることによって増加が懸念される素子分離領域近傍でのノイズ電荷の発生を抑制するために、上側構造体11に配置された画素トランジスタの周囲に備わる素子分離領域の深さは、上側構造体11に配置された画素周辺回路部を構成するトランジスタの周囲に備わる素子分離領域の深さよりも、浅くても良い。
 あるいは、画素トランジスタの周囲の素子分離領域として、半導体基板を掘り込む素子分離領域ではなく、画素トランジスタの周囲に、画素トランジスタの拡散層領域とは逆の導電型となる不純物領域を形成する素子分離領域を一部に用いても良い。
 <6.撮像装置の断面構造>
 本実施の形態に係る撮像装置1の断面構造と回路配置を、図6を参照してさらに説明する。図6は、図5のA-A’線における撮像装置1に係る断面構造を示す図である。なお、便宜上、図6の一部は、この後説明する本技術の他の構成例における断面構造へと替えて記載してある。
 撮像装置1に備わる上側構造体11とその上方とを含めた部分には、オンチップレンズ16とカラーフィルタ15と画素トランジスタとフォトダイオード51とを有する画素31が、複数個、アレイ状に配列された画素アレイ部24が配置されている。画素アレイ部24の領域(画素アレイ領域)には、画素トランジスタ領域301も配置される。画素トランジスタ領域301は、転送トランジスタ52、増幅トランジスタ55、リセットトランジスタ54のうちの少なくとも1つの画素トランジスタが形成される領域である。
 下側構造体12に備わる半導体基板81の下側の表面で、かつ、上側構造体11に備わる画素アレイ部24の下方に位置する領域には、外部端子14が複数個配置されている。
 なお、図6の説明おいては、「下側構造体12に備わる半導体基板81の下側の表面で、かつ、上側構造体11に備わる画素アレイ部24の下方に位置する領域」を第1特定領域、「下側構造体12に備わる半導体基板81の上側の表面で、かつ、上側構造体11に備わる画素アレイ部24の下方に位置する領域」を第2特定領域と呼ぶ。
 第1特定領域に配置された複数個の外部端子14の少なくとも一部は、外部から撮像装置1へ信号を入力するための信号入力端子14Aもしくは撮像装置1から外部へ信号を出力するための信号出力端子14Bである。換言すれば、信号入力端子14A及び信号出力端子14Bは、外部端子14のなかから、電源端子及び接地端子を除いた外部端子14である。本開示では、これらの信号入力端子14Aもしくは信号出力端子14Bを、信号入出力端子14Cと呼ぶ。
 第1特定領域であって、かつ、これら信号入出力端子14Cの近傍に、半導体基板81を貫通する貫通ビア88が配置される。なお、本開示においては、半導体基板81を貫通するビアホールとその内部に形成されたビア配線とを併せて、単に貫通ビア88と呼ぶ場合がある。
 この貫通ビアホールは、半導体基板81の下側表面から、半導体基板81の上側表面上方に配置された多層配線層82の一部であってビアホールの終端(底部)となる導電性パッド322(以後、ビア用パッド322と呼ぶ場合がある)まで、掘り込んで形成された構造であることが望ましい。
 第1特定領域に配置された信号入出力端子14Cは、同じく第1特定領域に配置された貫通ビア88(より具体的には、貫通ビアホール内に形成されたビア配線)へ電気的に接続される。
 第2特定領域であって、かつ、信号入出力端子14Cおよび上記貫通ビアの近傍となる領域に、入力回路部42もしくは出力回路部47を備えた入出力回路部49が配置される。
 第1特定領域に配置された信号入出力端子14Cは、貫通ビア88とビア用パッド322と、あるいはまた多層配線層82の一部とを介して、入出力回路部49へ電気的に接続される。
 入出力回路部49を配置した領域を入出力回路領域311と呼ぶ。下側構造体12に備わる半導体基板81の上側の表面には、入出力回路領域311に隣接して信号処理回路領域312が形成されている。信号処理回路領域312は、図2を参照して説明した画像信号処理部26が形成される領域である。
 図2を参照して説明した行駆動部22や列信号処理部25の全部もしくは一部を含む画素周辺回路部を配置した領域を、画素周辺回路領域313と呼ぶ。上側構造体11に備わる半導体基板101の下側の表面及び下側構造体12に備わる半導体基板81の上側の表面のうち、画素アレイ部24の外側となる領域には、画素周辺回路領域313が配置されている。
 信号入出力端子14Cは、下側構造体12に配置された、入出力回路領域311の下側の領域に配置されて良いし、あるいは、信号処理回路領域312の下側となる領域に配置されても良い。あるいは、信号入出力端子14Cは、下側構造体12に配置された、行駆動部22もしくは列信号処理部25などの画素周辺回路部の下側に配置されても良い。
 本開示においては、上側構造体11の多層配線層102に含まれる配線と、下側構造体12の多層配線層82に含まれる配線とを接続する配線接続構造を上下配線接続構造と呼ぶことがあり、この構造を配置した領域を上下配線接続領域314と呼ぶことがある。
 上下配線接続構造は、上側構造体11の上側の表面から半導体基板101を貫通し多層配線層102に至る第1貫通電極(シリコン貫通電極)109と、上側構造体11の上側の表面から半導体基板101と多層配線層102を貫通し下側構造体12の多層配線層82に至る第2貫通電極(チップ貫通電極)105と、これら2つの貫通電極(Through Silicon Via, TSV)を接続するための貫通電極接続配線106とによって形成されている。本開示においては、このような上下配線接続構造をツインコンタクト構造と呼ぶ場合がある。
 画素周辺回路領域313の外側に、上下配線接続領域314が配置されている。
 本実施の形態では、画素周辺回路領域313が、上側構造体11と下側構造体12の両方に形成されているが、いずれか一方のみに形成することもできる。
 また、本実施の形態では、上下配線接続領域314が、画素アレイ部24の外側であって、かつ、画素周辺回路領域313の外側に配置されているが、画素アレイ部24の外側であって、かつ、画素周辺回路領域313の内側に配置されてもよい。
 さらに、本実施の形態では、上側構造体11の多層配線層102と下側構造体12の多層配線層82とを電気的に接続する構造として、シリコン貫通電極109とチップ貫通電極105の2本の貫通電極を用いて接続するツインコンタクト構造を採用した。
 上側構造体11の多層配線層102と下側構造体12の多層配線層82とを電気的に接続する構造としては、例えば、上側構造体11の配線層103と、下側構造体12の配線層83のそれぞれが、1本の貫通電極に共通に接続するシェアコンタクト構造としてもよい。
 <7.他の上下配線接続構造を用いた場合の撮像装置の回路配置>
 他の上下配線接続構造を用いた場合の、撮像装置1の回路の配置と断面構造を、図7と図8を参照して説明する。
 図8は、図6に示す上下配線接続構造とは異なる構造を用いた場合の、図7のB-B’線における、撮像装置1の断面構造を示す図である。なお便宜上、図8の一部は、この後説明する本技術の他の構成例における断面構造へと替えて記載してある。
 図8の画素周辺回路領域313において、上側構造体11の多層配線層102は、一部の配線を多層配線層102の最下面、換言すれば、上側構造体11と下側構造体12との接合面に配置している。また、下側構造体12の多層配線層82も、一部の配線を多層配線層82の最上面、換言すれば、上側構造体11と下側構造体12との接合面に配置している。
 そして、多層配線層102の一部の配線と、多層配線層82の一部の配線が、この接合面における略同一の位置に配置されて、配線どうしが電気的に接続されている。配線どうしを電気的に接続する形態としては、2つの配線を直接接触させる形態で良いし、あるいは、2つの配線間に薄膜の絶縁膜や高抵抗膜が形成され、形成された膜が一部で電気的に導通している形態であっても良い。あるいは、2つの配線間に薄膜の絶縁膜や高抵抗膜が形成され、2つの配線が容量結合によって電気信号を伝播させる形態であっても良い。
 本開示においては、上側構造体11の多層配線層102の配線の一部の配線と下側構造体12の多層配線層82の配線の一部の配線を上記接合面の略同一の位置に形成し2つの配線を電気的に接続する構造の総称として、上下配線直接接続構造あるいは単に配線直接接続構造と呼ぶ場合がある。
 上記略同一の位置の具体的な例としては、例えば、撮像装置1を上側から下側方向へ平面視した場合に、電気的に接続する上記2つの配線の少なくとも一部が重なる位置であれば良い。接続する2つの配線の材料として、例えば、銅(Cu)を用いた場合には、この接続構造を、Cu-Cu直接接合構造あるいは単にCu-Cu接合構造と呼ぶ場合がある。
 上下配線直接接続構造を用いる場合には、この接続構造を画素アレイ部24の外側に配置することができる。あるいは、この接続構造を、上側構造体11が備える画素周辺回路領域313の内部と、下側構造体12が備える画素周辺回路領域313の内部とに、配置することができる。
 より具体的には、上下配線直接接続構造を構成する配線のうち、上記接合面の上側構造体11の側に配置する配線は、上側構造体11の画素周辺回路領域313に備わる回路の下側に配置することができる。また、上下配線直接接続構造を構成する配線のうち、上記接合面の下側構造体12の側に配置する配線は、下側構造体12の画素周辺回路領域313に備わる回路の上側に配置することができる。あるいは、上側構造体11の配線として画素アレイ部24(画素トランジスタ領域301)に配置された配線を用いて、これと下側構造体12の配線とによる上下配線直接接続構造を、画素アレイ部24(画素トランジスタ領域301)の下方に配置することもできる。
 <第2の回路配置構成例>
 図7は、撮像装置1の第2の回路配置構成例を示す図である。
 第2の回路配置構成例においては、上下配線接続構造として、上記上下配線直接接続構造を用いている。
 図7に示すように、第2の回路配置構成例における画素アレイ部24の配置は、図5に示した第1の回路配置構成例と同様である。すなわち、画素アレイ部24は上側構造体11に配置されている。
 また、図7に示すように、第2の回路配置構成例における撮像装置1の行駆動部22と列信号処理部25の配置も、図5に示した第1の回路配置構成例と同様である。
 一方、第2の回路配置構成例における上下配線接続部の配置は、図5に示す第1の回路配置構成例と異なる。
 上側構造体11に配置された行駆動部22の配線と、下側構造体12に配置された行駆動部22の配線との接続は、上側構造体11に配置された行駆動部22と下側構造体12に配置された行駆動部22とが重なる領域において、上下配線直接接続構造を用いて形成される。
 上側構造体11に配置された列信号処理部25の配線と、下側構造体12に配置された列信号処理部25の配線との接続は、上側構造体11に配置された列信号処理部25と下側構造体12に配置された列信号処理部25とが重なる領域において、上下配線直接接続構造を用いて形成される。
 図5に示した第1の回路配置構成例においては、行駆動部22の配線を接続する上下配線接続構造と列信号処理部25の配線を接続する上下配線接続構造は、それぞれ、行駆動部22の外側と列信号処理部25の外側の配線接続部29に配置されていた。これに対して、図7に示す第2の回路配置構成例においては、行駆動部22の配線を接続する上下配線接続構造と列信号処理部25の配線を接続する上下配線接続構造は、それぞれ、行駆動部22の領域内と列信号処理部25の領域内に形成されている。このため、第2の回路配置構成例に示す撮像装置1は、上側構造体11及び下側構造体12において配線接続部29が省略されており、第1の回路配置構成例に示す撮像装置1よりも、外形サイズの小さな装置を実現し得る。
 <8.他の撮像装置との比較例>
 <比較例1>
 他の撮像装置の構造と比較して、撮像装置1の構造の特徴について説明する。
 図9は、比較例1として、特開2014-72294号公報(以下、比較構造開示文献1という。)に開示された、撮像装置の最終形状における断面を表す図である。
 図9の撮像装置600は、第1半導体層611を含む第1素子部621と第1配線部622とを備える第1部分623と、第2半導体層631を含む第2素子部641と第2配線部642とを備える第2部分643とが積層された構造を有する。第1部分623の裏面側には、カラーフィルタ651とオンチップレンズ652などが形成された光学部材653が配置されている。
 撮像装置600は、制御ユニットを構成するトランジスタTr3とTr4の外側、および、信号処理ユニットを構成するトランジスタTr5乃至Tr8を配置した領域の外側に、導電部材662を介して、第1配線661と第2配線663を接続する構造が形成され、この接続構造の外側に、外部端子664が配置されている。なお、入出力回路をどこへ配置するかの記載は無い。
 これに対して、本技術は、(1)外部端子14と、(2)外部端子14に接続する入力回路部42もしくは出力回路部47を形成した半導体領域と、(3)撮像を行うフォトダイオード51および画素トランジスタを形成した半導体領域と、(4)カラーフィルタ15およびオンチップレンズ16と、(5)保護基板18と、を略同一となる領域に積層した構造によって、図9の撮像装置600よりも、外形サイズを小さくすることができる。
 図9の撮像装置600は、その最終形状において、オンチップレンズ652の上側に、オンチップレンズ652を保護するための保護基板を備えていない。そして、比較構造開示文献1では、図9の撮像装置600の製造方法として、第1部分623と第2部分643とを接合し、カラーフィルタ651とオンチップレンズ652を形成し、その後、基板を反転させた後、電極部を露出させる開口と外部端子664の形成を行うことが記載されている。外部端子664を形成する際には、外部端子664を金属配線上へ、特定値以上の応力を加えて圧着させる必要がある。オンチップレンズ652上に保護基板を備えない撮像装置600において、上記製造方法で外部端子664を形成すると、外部端子664を圧着させる際に、オンチップレンズ652が製造装置に押し付けられ、オンチップレンズ652に傷が付くおそれがある。
 さらに、図9の撮像装置600では、外部端子664は、画素アレイ部の外側の領域に形成されており、オンチップレンズ652の直下には形成されていない。この場合、外部端子664を圧着する際にオンチップレンズ652へ加わる力は、外部端子664を圧着するために印加する力が斜め方向に分散されたものとなる。
 仮に、外形サイズの小さな撮像装置を実現するために、画素領域の直下、すなわちオンチップレンズ652の直下に外部端子664を形成する場合には、外部端子664を圧着するために印加する力の方向の延長線上にオンチップレンズ652があるため、オンチップレンズ652に加わる力はより大きくなり、オンチップレンズ652への傷の発生がより深刻となるおそれがある。
 また、比較構造開示文献1では、外部端子664を形成した後、カラーフィルタ651とオンチップレンズ652を形成する製法も開示されている。
 しかし、この製法の場合、撮像装置表面に外部端子664による突出部を多数備えた状態では、カラーフィルタ651とオンチップレンズ652を形成する際に、これらの製造装置へ撮像装置を、真空吸着法と言った一般的な方法では固定することが困難となるおそれがある。
 これに対して、図1の撮像装置1は、オンチップレンズ16上に保護基板18を有する。このため、オンチップレンズ16を外部端子14の製造装置へと押し付けることなく、外部端子14を形成することが可能となる。撮像装置1は、(1)外部端子14と、(2)外部端子14に接続する入力回路部42もしくは出力回路部47を形成した半導体領域と、(3)撮像を行うフォトダイオード51および画素トランジスタを形成した半導体領域と、(4)カラーフィルタ15およびオンチップレンズ16と、(5)保護基板18と、を略同一となる領域に積層した構造を可能とし、図9の撮像装置600よりも、外形サイズを小さくすることができる。
 <比較例2>
 図10は、比較例2として、特開2010-50149号公報(比較構造開示文献2)に開示された、撮像装置の最終形状における断面を表す図である。
 図10の撮像装置700は、フォトダイオード(不図示)、カラーフィルタ711、オンチップレンズ712等が形成される撮像領域722と、その周辺に形成された周辺領域723とに分かれている。
 周辺領域723には、駆動パルスや信号入出力のための第1パッド724が配置されている。第1パッド724には、ボンディングワイヤ725が接続される。そして、撮像領域722内に、基準電位Vssを与える第2パッド726が配置されている。第2パッド726上に、外部端子(半田ボール)727が設けられている。
 以上のように、撮像装置700は、画素アレイの下側に外部端子727を備える。
 撮像装置1は、(1)外部端子14と、(2)外部端子14に接続する入力回路部42もしくは出力回路部47を形成した半導体領域と、(3)撮像を行うフォトダイオード51および画素トランジスタを形成した半導体領域と、(4)カラーフィルタ15およびオンチップレンズ16と、(5)保護基板18と、を略同一となる領域に積層した構造によって、図10の撮像装置700よりも、外形サイズを小さくすることができる。
 図10の撮像装置700は、撮像装置1の上側構造体11と下側構造体12のような積層構造を備えていない、換言すれば、トランジスタ回路が形成された半導体基板を1層しか備えない固体半導体装置である。
 図10に開示された撮像装置700は、その最終形状において、支持基板731を貫通するビア732と外部端子727とが、撮像領域722内の画素アレイの下側に形成されている。
 しかし、図10において形成されている外部端子727は、基準電位Vss(接地電位)用の端子である。基準電位Vssの端子は、基準電位Vssを撮像装置内部へと供給する際、トランジスタ回路によって構成される入力回路を必要としない。このため、図10に開示された撮像装置700は、基準電位Vss用の外部端子727を、撮像領域722の下側に配置出来ている。
 一方、撮像領域722には、フォトダイオードと画素トランジスタとを備えた画素が並べて配置されている。このため、トランジスタ回路が形成された半導体基板741を1層しか備えない構造の場合、画素が形成された半導体基板741において、画素領域内に入力回路を併せて形成することは難しい。このため、図10に開示された半導体基板741を1層しか備えない撮像装置700は、画素領域の下側に、入出力回路を必要としない電源端子を配置することは可能であるが、入力回路もしくは出力回路を必要とする外部端子、換言すれば信号入力用または信号出力用の外部端子を配置することは出来ない。
 さらに、図10の撮像装置700は、図9に示した撮像装置600と同様に、オンチップレンズ712上に保護基板を備えない。このため、外部端子圧着時にオンチップレンズ712に傷が付くという問題が発生する。
 これに対して、撮像装置1は、トランジスタ回路を形成した半導体基板を複数層積層した構造を備える。これにより、画素領域の下側に、入力回路もしくは出力回路を必要とする外部端子14、換言すれば信号入力用または信号出力用の信号入出力端子14Cを配置することが可能となる。
 また、撮像装置1は、オンチップレンズ16上に保護基板18を有する。このため、オンチップレンズ16を外部端子14の製造装置へと押し付けることなく、外部端子14を形成することが可能となる。これにより、撮像装置1は、(1)外部端子14と、(2)外部端子14に接続する入力回路部42もしくは出力回路部47を形成した半導体領域と、(3)撮像を行うフォトダイオード51および画素トランジスタを形成した半導体領域と、(4)カラーフィルタ15およびオンチップレンズ16と、(5)保護基板18と、を略同一となる領域に積層した構造を可能とし、図10の撮像装置700よりも、外形サイズを小さくすることができる。
 <比較例3>
 図11は、比較例3として、特開2011-9645号公報(比較構造開示文献3)に開示された、撮像装置の最終形状における断面を表す図である。
 図11の撮像装置800は、半導体基板811の第1主面(上側の面)に、フォトダイオード及びトランジスタを含む撮像素子812が形成されている。撮像素子812の上側に、多層配線層813、カラーフィルタ814、オーバーコート815、及び、オンチップレンズ816が形成されている。また、撮像装置800は、オンチップレンズ816の上側に、保護基板817を備えている。
 撮像素子812やカラーフィルタ814、オンチップレンズ816が形成された撮像画素部822の外側に、半導体基板811を貫通するシリコン貫通電極831、外部に接続される外部端子(はんだボール)832などが形成された周辺回路部823が配置されている。
 図11の撮像装置800は、比較例2の撮像装置700と同様に、上側構造体と下側構造体を積層させた積層構造を備えてない、換言すれば、トランジスタ回路が形成された半導体基板を1層しか備えない固体半導体装置である。このため、画素領域の下側に、入力回路もしくは出力回路を必要とする外部端子、換言すれば信号入力用または信号出力用の外部端子を配置することは出来ない。
 これに対して、撮像装置1は、トランジスタ回路を形成した半導体基板を複数層積層した構造を備える。これにより、画素領域の下側に、入力回路もしくは出力回路を必要とする外部端子14、換言すれば信号入力用または信号出力用の外部端子14を配置することが可能となる。
 これにより、撮像装置1は、(1)外部端子14と、(2)外部端子14に接続する入力回路部42もしくは出力回路部47を形成した半導体領域と、(3)撮像を行うフォトダイオード51および画素トランジスタを形成した半導体領域と、(4)カラーフィルタ15およびオンチップレンズ16と、(5)保護基板18と、を略同一となる領域に積層した構造を可能とし、図11の撮像装置800よりも、外形サイズを小さくすることができる。
 また、図11の撮像装置800のように、装置外周部(周辺回路部823)のみにシリコン貫通電極831が形成されている場合には、電源端子やグランド端子についても同様に、装置外周部のみに配置されることになる。
 この場合、IRドロップ対策や配線遅延対策のために、電源端子及びグランド端子を多数配置する必要があった。これに対して、撮像装置1は、貫通ビア88を、上下基板接続領域314より内側の下側構造体12の任意の領域に配置できるので、そのうちの一部を電源端子や接地端子用として使用することができる。即ち、電源端子や接地端子についても任意の領域に配置することができる。これにより、電源端子及び接地端子の個数を、外周部のみに配置した場合よりも少なくすることができる。これにより、撮像装置1全体としての回路面積を削減することができる。
 <図1の撮像装置と比較例との差異>
 撮像装置1は、(1)外部端子14と、(2)外部端子14に接続する入力回路部42もしくは出力回路部47を形成した半導体領域と、(3)撮像を行うフォトダイオード51および画素トランジスタを形成した半導体領域と、(4)カラーフィルタ15およびオンチップレンズ16と、(5)保護基板18と、を略同一となる領域に積層した構造によって、外形サイズを小さくすることができるものである。
 比較例1と比較例2に示した、保護基板を備えない、半導体積層構造の撮像装置の場合、オンチップレンズに傷が付く恐れがある。すなわち、上記(1)乃至(4)を略同一となる領域に積層した構造にして、本技術と同等の外形サイズの撮像装置を得るには、阻害要因がある。つまり、「上記(1)乃至(4)を略同一となる領域に積層して小型の撮像装置を実現する」という機能及び作用は、比較例1と比較例2に示した、保護基板を備えない、半導体積層構造の撮像装置によっては、得られない機能及び作用である。
 比較例3に示した、トランジスタ回路が形成された半導体基板を1層しか備えない固体半導体装置の場合、上記(1)乃至(5)を略同一となる領域に積層した構造にして、本技術と同等の外形サイズの撮像装置を得ることは出来ない。換言すれば、阻害要因がある。つまり、「上記(1)乃至(5)を略同一のとなる領域に積層して小型の撮像装置を実現する」という機能及び作用は、比較例3に示した、トランジスタ回路が形成された半導体基板を1層しか備えない撮像装置によっては、得られない機能及び作用である。
 このように、本技術の「上記(1)乃至(5)を略同一となる領域に積層した構造によって、この構造を備えない撮像装置よりも、外形サイズの小さな撮像装置を実現する」という機能及び作用は、比較例1と比較例2で示した「保護基板を備えない半導体積層構造の撮像装置」の構成単独では得られない機能及び作用であり、かつ、比較例3で示した「トランジスタ回路が形成された半導体基板を1層しか備えない撮像装置」の構成単独でも得られない機能及び作用である。
 <9.撮像装置の他の回路配置構成例>
 <第3の回路配置構成例>
 図12は、撮像装置1の他の回路配置構成例であって、第1の回路配置構成例の変形となる第3の回路配置構成例を示す図である。
 図5に示した第1の回路配置構成例においては、入出力回路部49が、それぞれ、1つの外部端子14ごとに分かれて配置されていた。そして、それぞれの入出力回路部49の周囲を、画像信号処理部26が取り囲んでいた。
 これに対して、図12に示す第3の回路配置構成例においては、入出力回路部49が、複数個の外部端子14毎にまとめて配置されている。入出力回路部49の1つの領域の内部では、例えば、ある外部端子14の入出力回路部49と他の外部端子14の入出力回路部49とが接して配置され、これら入出力回路部49の間には、画像信号処理部26が配置されていない。
 電源電圧が異なる入出力回路部49と画像信号処理部26とを交互に隣接させて配置する第1の回路配置構成例よりも、電源電圧が同じ複数個の入出力回路部49をまとめて1かたまりの入出力回路部領域として配置する第3の回路配置構成例の方が、電源電圧が異なるウエルの間を分離して配置する箇所が少なくなるため、撮像装置1の外形サイズが同じであっても、下側構造体12において、例えば画像信号処理部26へより多くの回路を搭載できる可能性がある。
 さらに、図12に示す第3の回路配置構成例においては、入出力回路部49の一部を、上側構造体11に含まれる画素アレイ部24の下側に配置するのではなく、上側構造体11に含まれる画素周辺回路部の下側、例えば上側構造体11に含まれる行駆動部22の下側、もしくは下側構造体12に含まれる画像信号処理部26を配置する領域の外側に配置しても良い。これにより、撮像装置1の外形サイズが同じであっても、下側構造体12において、例えば画像信号処理部26へさらに多くの回路を搭載できる可能性がある。
 <第4の回路配置構成例>
 図13は、撮像装置1の他の回路配置構成例であって、第1及び第3の回路配置構成例の変形となる第4の回路配置構成例を示す図である。
 図14は、図13のC-C’線における撮像装置1に係る断面構造を示す図である。なお便宜上、図14の一部は、この後説明する本技術の他の構成例における断面構造へと替えて記載してある。
 図13と図14に示す第4の回路配置構成例においては、入出力回路部49、換言すれば、入力回路部42と出力回路部47の全てを、下側構造体12に含まれる画像信号処理部26を配置した領域の外周部に配置している。この入出力回路部49を配置する領域は、上側構造体11に含まれる行駆動部22と列信号処理部25(画素周辺回路領域313)の下側であっても良いし、上側構造体11に含まれる画素アレイ部24の外周部下側でも良い。
 なお、入出力回路部49を配置する領域は、例えば、列信号処理部25の行方向全体に渡って切れ目なく配置される必要は無く、列信号処理部25と画像信号処理部26との間に、入出力回路部49が配置されない領域があっても良い。
 また、入出力回路部49を配置する領域は、行駆動部22の列方向全体に渡って切れ目なく配置される必要は無く、行駆動部22と画像信号処理部26との間に、入出力回路部49が配置されない領域があっても良い。
 第4の回路配置構成例により、電源電圧が異なるウエルの間を分離して配置する箇所が、第3の回路配置構成例よりも少なくなるため、撮像装置1の外形サイズが同じであっても、下側構造体12において、例えば画像信号処理部26へより多くの回路を搭載できる可能性がある。
 <第5の回路配置構成例>
 図15は、撮像装置1の他の回路配置構成例であって、第1、第3、及び第4の回路配置構成例の変形となる第5の回路配置構成例を示す図である。
 図13に示した第4の回路配置構成例においては、入出力回路部49が、列信号処理部25と画像信号処理部26との間、および、行駆動部22と画像信号処理部26との間に、配置されない領域があった。
 これに対して、図15に示す第5の回路配置構成例においては、入出力回路部49が、列信号処理部25の行方向全体に渡って、また、行駆動部22の列方向全体に渡って、列状に配置されている。これにより、入出力回路部49の面積を大きくできる可能性がある。
 また、第5の回路配置構成例においては、第1及び第3の回路配置構成例の撮像装置1と外形サイズが同じであっても、下側構造体12において、例えば画像信号処理部26へより多くの回路を搭載できる可能性がある。
 <第6の回路配置構成例>
 図16は、撮像装置1の他の回路配置構成例であって、第1及び第3の回路配置構成例の変形となる第6の回路配置構成例を示す図である。
 第1及び第3の回路配置構成例においては、入出力回路部49は、下側構造体12において、上側構造体11の画素アレイ部24の下側となる領域に配置され、その周囲には、画像信号処理部26が配置されていた。
 図16の第6の回路配置構成例においては、下側構造体12の画像信号処理部26は、破線により分割された複数個(図16では3個)の回路ブロックを含む構成となって配置されている。そして、第6の回路配置構成例においては、入出力回路部49は、画像信号処理部26が備える回路ブロックのブロック境界か、または、行駆動部22との境界となる部分に配置されている。
 画像信号処理部26を複数個の回路ブロックに分けて配置する場合、ブロック境界部分に、各回路ブロックが備える回路への電源供給線や接地線を配置する場合がある。このため、ブロック境界部分おける回路と回路との間の距離は、回路ブロック内部における回路と回路との間の距離よりも大きくなるように配置されている場合がある。
 このように、回路密度が比較的低くなっている回路ブロックの境界部分に入出力回路部49を配置することによって、回路ブロック内部に入出力回路部49を配置する場合よりも、回路のレイアウト設計が容易かつ回路の集積度をあまり下げることなく入出力回路部49を配置することが出来る可能性がある。これにより、撮像装置1の外形サイズが同じであっても、第6の回路配置構成例を用いることによって、下側構造体12において、例えば画像信号処理部26へより多くの回路を搭載できる可能性がある。
 <第7の回路配置構成例>
 図17は、撮像装置1の他の回路配置構成例であって、第5の回路配置構成例の変形となる第7の回路配置構成例を示す図である。
 図17の第7の回路配置構成例においては、上側構造体11に配置されている行駆動部22の面積よりも、下側構造体12に配置されている行駆動部22の面積が大きく形成されている。また、上側構造体11に配置されている行駆動部22よりも、下側構造体12に配置されている行駆動部22の方が、装置の内側方向へ延在させて配置されている。
 同様にして、上側構造体11に配置されている列信号処理部25の面積よりも、下側構造体12に配置されている列信号処理部25の面積が大きく形成されている。また、上側構造体11に配置されている列信号処理部25よりも、下側構造体12に配置されている列信号処理部25の方が、装置の内側方向へ延在させて配置されている。
 これにより、第7の回路配置構成例は、図15に示した第5の回路配置構成例と比較して、撮像装置1の画素アレイ部24のサイズが同じであっても、撮像装置1の外形サイズを小さく出来る可能性がある。
 なお、第7の回路配置構成例に示した行駆動部22と列信号処理部25の配置例は、本技術の他の構成例へも適応出来る。
 <第8の回路配置構成例>
 図18は、撮像装置1の他の回路配置構成例であって、第7の回路配置構成例の変形となる第8の回路配置構成例を示す図である。
 図17に示した第7の回路配置構成例においては、下側構造体12に配置される行駆動部22よりも面積が小さいながらも、上側構造体11にも行駆動部22が配置されていた。同様にして、下側構造体12に配置される列信号処理部25よりも面積が小さいながらも、上側構造体11にも列信号処理部25が配置されていた。
 これに対して、図18の第8の回路配置構成例においては、行駆動部22と列信号処理部25が、下側構造体12のみに配置されている。行駆動部22から画素アレイ部24へと出力される信号は、図8に示した画素周辺回路領域313の上下配線接続構造を有する配線接続部29を介して、下側構造体12に配置された行駆動部22から、上側構造体11に配置された画素アレイ部24へと伝達される。
 同様に、画素アレイ部24から列信号処理部25へと入力される信号は、図8に示した画素周辺回路領域313の上下配線接続構造を有する配線接続部29を介して、上側構造体11に配置された画素アレイ部24から、下側構造体12に配置された列信号処理部25へと伝達される。これにより、図17に示した第7の回路配置構成例と比較して、第8の回路配置構成例は、撮像装置1の画素アレイ部24のサイズが同じであっても、撮像装置1の外形サイズを小さく出来る可能性がある。
 なお、第8の回路配置構成例に示した行駆動部22と列信号処理部25の配置例は、本技術の他の構成例へも適応出来る。
 <第9の回路配置構成例>
 図19は、撮像装置1の他の回路配置構成例であって、第5の回路配置構成例の変形となる第9の回路配置構成例を示す図である。
 図19に示す第9の回路配置構成例においては、行駆動部22と列信号処理部25が、全て上側構造体11に配置されている。そして、下側構造体12において、上側構造体11に配置された行駆動部22と列信号処理部25の下側に位置する領域には、図15に示した第5の回路配置構成例と比較して、画像信号処理部26が、外周方向に延在して配置されている。
 また、上側構造体11に配置された行駆動部22と列信号処理部25の下側に位置する領域に、入出力回路部49を配置しても良い。これにより、図15に示した第5の回路配置構成例と比較して、第9の回路配置構成例は、撮像装置1の画素アレイ部24のサイズが同じであっても、画像信号処理部26の面積を大きくし、画像信号処理部26へより多くの回路を搭載できる可能性がある。
 なお、第9の回路配置構成例に示した行駆動部22と列信号処理部25の配置例は、本技術の他の構成例へも適応出来る。
 <第10の回路配置構成例>
 図20は、撮像装置1の他の回路配置構成例であって、第2の回路配置構成例の変形となる第10の回路配置構成例を示す図である。
 図21は、図20のD-D’線における撮像装置1に係る断面構造を示す図である。なお便宜上、図21の一部は、この後説明する本技術の他の構成例における断面構造へと替えて記載してある。
 図20と図21に示す第10の回路配置構成例においては、図7と図8に示す第2の回路配置構成例と同様にして、上下配線直接接続構造を、上側構造体11が備える画素周辺回路領域313の内部と、下側構造体12が備える画素周辺回路領域313の内部とに、配置することができる。
 また、図20と図21に示す第10の回路配置構成例においては、入出力回路部49、換言すれば、入力回路部42と出力回路部47の全てが、下側構造体12の画像信号処理部26が配置された領域の外側に配置されている。この入出力回路部49が配置される領域は、上側構造体11に含まれる行駆動部22と列信号処理部25の下側であっても良いし、上側構造体11に含まれる画素アレイ部24の下側でも良い。
 なお、入出力回路部49が配置される領域は、例えば、列信号処理部25の行方向全体に渡って切れ目なく配置される必要は無く、列信号処理部25と画像信号処理部26との間に、入出力回路部49が配置されない領域があっても良い。
 また、入出力回路部49が配置される領域は、行駆動部22の列方向全体に渡って切れ目なく配置される必要は無く、行駆動部22と画像信号処理部26との間に、入出力回路部49が配置されない領域があっても良い。第10の回路配置構成例により、図7に示した第2の回路配置構成例の撮像装置1と外形サイズが同じであっても、下側構造体12において、例えば画像信号処理部26へより多くの回路を搭載できる可能性がある。
 なお、第10の回路配置構成例に示した回路の配置例は、本技術の他の構成例へも適応出来る。
 <第11の回路配置構成例>
 図22は、撮像装置1の他の回路配置構成例であって、第10の回路配置構成例の変形となる第11の回路配置構成例を示す図である。
 図20に示した第10の回路配置構成例においては、上側構造体11と下側構造体12の双方に、行駆動部22の一部と列信号処理部25の一部とが配置されていた。そして、下側構造体12において、上側構造体11に配置された行駆動部22の下側となる領域であって、かつ、下側構造体12に配置された行駆動部22よりも装置内側となる領域に、入出力回路部49が配置されていた。
 同様に、下側構造体12において、上側構造体11に配置された列信号処理部25の下側となる領域であって、かつ、下側構造体12に配置された列信号処理部25よりも装置内側となる領域に、入出力回路部49が配置されていた。
 図22に示す第11の回路配置構成例においては、上側構造体11と下側構造体12の双方に、行駆動部22の一部と列信号処理部25の一部とが配置されている。そして、下側構造体12において、上側構造体11に配置された行駆動部22の下側となる領域であって、かつ、下側構造体12に配置された行駆動部22よりも装置外側となる領域に、入出力回路部49が配置されている。同様にして、下側構造体12において、上側構造体11に配置された列信号処理部25の下側となる領域であって、かつ、下側構造体12に配置された列信号処理部25よりも装置外側となる領域に、入出力回路部49が配置されている。
 これにより、図20に示した第10の回路配置構成例と比較して、例えば、下側構造体12において、下側構造体12に配置される画像信号処理部26と行駆動部22との間の信号線、および、画像信号処理部26と列信号処理部25との間の信号線の配置が容易になる、あるいは、これらの信号線を高密度に配置できる可能性がある。
 なお、第11の回路配置構成例に示した回路の配置例は、本技術の他の構成例へも適応出来る。
 <10.撮像装置の詳細構造>
 次に、図23を参照して、撮像装置1の詳細構造について説明する。図23は、ツインコンタクト構造を備えた撮像装置1の外周付近を拡大して示した断面図である。
 下側構造体12には、例えばシリコン(Si)で構成された半導体基板81の上側(上側構造体11側)に、多層配線層82が形成されている。この多層配線層82により、図6に示した入出力回路領域311、信号処理回路領域312(図23では不図示)、画素周辺回路領域313などが形成されている。
 多層配線層82は、上側構造体11に最も近い最上層の配線層83a、中間の配線層83b、及び、半導体基板81に最も近い最下層の配線層83cなどからなる複数の配線層83と、各配線層83の間に形成された層間絶縁膜84とで構成される。
 複数の配線層83は、例えば、銅(Cu)、アルミニウム(Al)、タングステン(W)などを用いて形成され、層間絶縁膜84は、例えば、シリコン酸化膜、シリコン窒化膜などで形成される。複数の配線層83及び層間絶縁膜84のそれぞれは、全ての階層が同一の材料で形成されていてもよし、階層によって2つ以上の材料を使い分けてもよい。
 半導体基板81の所定の位置には、半導体基板81を貫通するシリコン貫通孔85が形成されており、シリコン貫通孔85の内壁に、絶縁膜86を介して接続導体87が埋め込まれることにより、貫通ビア(TSV:Through Silicon Via)88が形成されている。
 絶縁膜86は、例えば、SiO2膜やSiN膜などで形成することができる。貫通ビア88は、本実施の形態では、外部端子14側よりも配線層83側の平面積が小さい逆テーパ形状となっているが、反対に、外部端子14側の平面積が小さい順テーパ形状でもよいし、外部端子14側と配線層83側の面積が略同一の非テーパ形状でも良い。
 貫通ビア88の接続導体87は、半導体基板81の下面側に形成された再配線90と接続されており、再配線90は、外部端子14と接続されている。接続導体87及び再配線90は、例えば、銅(Cu)、タングステン(W)、チタン(Ti)、タンタル(Ta)、チタンタングステン合金(TiW)、ポリシリコンなどで形成することができる。
 また、半導体基板81の下面側には、外部端子14が形成されている領域を除いて、再配線90と絶縁膜86を覆うように、ソルダマスク(ソルダレジスト)91が形成されている。
 一方、上側構造体11には、例えばシリコン(Si)で構成された半導体基板101の下側(下側構造体12側)に、多層配線層102が形成されている。この多層配線層102により、図3に示した画素31の回路が形成されている。
 多層配線層102は、半導体基板101に最も近い最上層の配線層103a、中間の配線層103b、及び、下側構造体12に最も近い最下層の配線層103cなどからなる複数の配線層103と、各配線層103の間に形成された層間絶縁膜104とで構成される。
 複数の配線層103及び層間絶縁膜104として使用される材料は、上述した配線層83及び層間絶縁膜84の材料と同種のものを採用することができる。また、複数の配線層103や層間絶縁膜104が、1または2つ以上の材料を使い分けて形成されてもよい点も、上述した配線層83及び層間絶縁膜84と同様である。
 なお、図23の例では、上側構造体11の多層配線層102は5層の配線層103で構成され、下側構造体12の多層配線層82は4層の配線層83で構成されているが、配線層の総数はこれに限られず、任意の層数で形成することができる。
 半導体基板101内には、PN接合により形成されたフォトダイオード51が、画素31ごとに形成されている。
 また、詳細な図示は省略されているが、多層配線層102と半導体基板101には、転送トランジスタ52、増幅トランジスタ55などの複数の画素トランジスタや、FD53なども形成されている。
 カラーフィルタ15とオンチップレンズ16が形成されていない半導体基板101の所定の位置には、上側構造体11の所定の配線層103と接続されているシリコン貫通電極109と、下側構造体12の所定の配線層83と接続されているチップ貫通電極105が、形成されている。
 チップ貫通電極105とシリコン貫通電極109は、半導体基板101上面に形成された接続用配線106で接続されている。また、シリコン貫通電極109及びチップ貫通電極105のそれぞれと半導体基板101との間には、絶縁膜107が形成されている。
 半導体基板101のフォトダイオード51とカラーフィルタ15の間は平坦化膜108が形成されており、オンチップレンズ16とガラスシール樹脂17の間も、平坦化膜110が形成されている。
 以上のように、図1に示される撮像装置1の積層構造体13は、下側構造体12の多層配線層82側と、上側構造体11の多層配線層102側とを貼り合わせた積層構造となっている。図23では、下側構造体12の多層配線層82と、上側構造体11の多層配線層102との貼り合わせ面が、一点鎖線で示されている。
 また、撮像装置1の積層構造体13では、上側構造体11の配線層103と下側構造体12の配線層83が、シリコン貫通電極109とチップ貫通電極105の2本の貫通電極により接続され、下側構造体12の配線層83と外部端子(裏面電極)14が、貫通ビア88と再配線90により接続されている。これにより、上側構造体11の画素31で生成された画素信号が、下側構造体12に伝送され、下側構造体12で信号処理が施されて、外部端子14から、装置の外部へ出力される。
 <11.製造方法>
 <ツインコンタクト構造の場合の製造方法>
 次に、図24乃至図38を参照して、ツインコンタクト構造を備えた撮像装置1の製造方法について説明する。
 初めに、ウエハ状態の下側構造体12と上側構造体11とが別々に製造される。
 下側構造体12としては、シリコン基板(シリコンウエハ)81の各チップ部となる領域に、入出力回路部49や、行駆動部22または列信号処理部25の一部となる多層配線層82が形成される。この時点での半導体基板81は、薄肉化される前の状態であり、例えば、600μm程度の厚みを有する。
 一方、上側構造体11としては、シリコン基板(シリコンウエハ)101の各チップ部となる領域に各画素31のフォトダイオード51や画素トランジスタのソース/ドレイン領域が形成される。また、半導体基板101の一方の面に、行駆動信号線32、垂直信号線33などを構成する多層配線層102が形成される。この時点での半導体基板101も、薄肉化される前の状態であり、例えば、600μm程度の厚みを有する。
 そして、図24に示されるように、製造されたウエハ状態の、下側構造体12の多層配線層82側と上側構造体11の多層配線層102側とが向き合うように貼り合わされた後、図25に示されるように、上側構造体11の半導体基板101が、薄肉化される。
 貼り合わせは、例えばプラズマ接合と、接着剤による接合があるが、本実施の形態では、プラズマ接合により行われるものとする。プラズマ接合の場合は、上側構造体11と下側構造体12の接合面に、それぞれプラズマTEOS膜、プラズマSiN膜、SiON膜(ブロック膜)、あるいはSiC膜などの膜を形成して接合面をプラズマ処理して重ね合わせ、その後アニール処理することにより、両者が接合される。
 上側構造体11の半導体基板101が薄肉化された後、図26に示されるように、上下配線接続領域314となる領域に、ダマシン法などを用いて、シリコン貫通電極109及びチップ貫通電極105、それらを接続する接続用配線106が、形成される。
 次に、図27に示されるように、各画素31のフォトダイオード51の上方に、平坦化膜108を介して、カラーフィルタ15及びオンチップレンズ16が形成される。
 そして、図28に示されるように、上側構造体11と下側構造体12とが貼り合わされた積層構造体13のオンチップレンズ16が形成されている面全体に、平坦化膜110を介してガラスシール樹脂17が塗布され、図29に示されるように、キャビティレス構造で、ガラス保護基板18が接続される。
 次に、図30に示されるように、積層構造体13全体が反転された後、下側構造体12の半導体基板81が、デバイス特性に影響がない程度の厚み、例えば、30乃至100μm程度に薄肉化される。
 次に、図31に示されるように、薄肉化された半導体基板81上の、貫通ビア88(不図示)を配置する位置が開口されるように、フォトレジスト221がパターニングされた後、ドライエッチングにより、半導体基板81と、その下の層間絶縁膜84の一部が除去され、開口部222が形成される。
 次に、図32に示されるように、開口部222を含む半導体基板81上面全体に、絶縁膜(アイソレーション膜)86が、例えば、プラズマCVD法で成膜される。上述したように、絶縁膜86は、例えば、SiO2膜やSiN膜などとすることができる。
 次に、図33に示されるように、開口部222の底面の絶縁膜86が、エッチバック法を用いて除去され、半導体基板81に最も近い配線層83cが露出される。
 次に、図34に示されるように、スパッタ法を用いて、バリアメタル膜(不図示)と、Cuシード層231が形成される。バリアメタル膜は、図35に示す接続導体87(Cu)の拡散を防止するための膜であり、Cuシード層231は、電解めっき法により接続導体87を埋め込む際の電極となる。
 バリアメタル膜の材料には、タンタル(Ta)、チタン(Ti)、タングステン(W)、ジルコニウム(Zr)及び、その窒化膜、炭化膜等を用いることができる。本実施の形態においては、バリアメタル膜としてチタンが用いられる。
 次に、図35に示されるように、Cuシード層231上の所要の領域にレジストパターン241を形成した後、電解めっき法により、接続導体87としての銅(Cu)がめっきされる。これにより、貫通ビア88が形成されるとともに、半導体基板81上側に再配線90も形成される。
 次に、図36に示されるように、レジストパターン241が除去された後、ウェットエッチングにより、レジストパターン241下のバリアメタル膜(不図示)とCuシード層231が除去される。
 次に、図37に示されるように、ソルダマスク91を形成して、再配線90を保護した後、外部端子14を搭載する領域のみソルダマスク91を除去することで、ソルダマスク開口部242が形成される。
 そして、図38に示されるように、ソルダマスク開口部242に、はんだボールマウント法などにより、外部端子14が形成される。
 以上のように、本開示の製造方法によれば、まず、光電変換を行うフォトダイオード51や画素トランジスタ回路などが形成された上側構造体11(第1の半導体基板)と、画素31から出力された画素信号を撮像装置1の外部へ出力するための入出力回路部49が画素アレイ部24の下方となるように形成された下側構造体12(第2の半導体基板)とが、配線層どうしが向き合うようにして貼り合わされる。
 そして、下側構造体12を貫通する貫通ビア88が形成され、入出力回路部49と貫通ビア88を介して撮像装置1の外部と電気的に接続する外部端子14が形成される。これにより、図5に示した撮像装置1を製造することができる。
 本開示の製造方法によれば、ガラス保護基板18を支持基板として、貫通ビア88を形成するので、貫通ビア88は、外部端子14側から配線層83(回路)側へと掘り込んだ形状となる。
 <Cu-Cu直接接合構造の場合の製造方法>
 次に、図39乃至図43を参照して、下側構造体12と上側構造体11がCu-Cu直接接合構造により接続される場合の撮像装置1の製造方法について説明する。
 初めに、上下配線接続構造としてツインコンタクト構造を採用した場合における製造方法と同様に、ウエハ状態の下側構造体12と上側構造体11とが別々に製造される。
 ただし、ツインコンタクト構造と異なる点として、図39に示されるように、画素アレイ部24のさらに外側となる上下配線接続領域314のうち、上側構造体11において、下側構造体12に最も近い最下層の配線層103cよりさらに下側構造体12側に、下側構造体12の配線層83xと直接接続するための配線層103xが形成されている。
 同様に、上下配線接続領域314のうち、下側構造体12においても、上側構造体11に最も近い最上層の配線層83aよりさらに上側構造体11側に、上側構造体11の配線層103xと直接接続するための配線層83xが形成されている。
 そして、図40に示されるように、下側構造体12の多層配線層82側と、上側構造体11の多層配線層102側とが向き合うように貼り合わされた後、上側構造体11の半導体基板101が、薄肉化される。この貼り合わせにより、下側構造体12の配線層83xと、上側構造体11の配線層103xが、金属結合(Cu-Cu接合)により接続される。
 次に、図41に示されるように、各画素31のフォトダイオード51の上方に、平坦化膜108を介して、カラーフィルタ15及びオンチップレンズ16が形成される。
 そして、図42に示されるように、貼り合わされた下側構造体12と上側構造体11のオンチップレンズ16が形成されている面全体に、平坦化膜110を介してガラスシール樹脂17が塗布され、キャビティレス構造で、ガラス保護基板18が接続される。
 なお、この例では、下側構造体12において、入出力回路部49や行駆動部22または列信号処理部25の一部となる配線層83a乃至83cとは別に、上側構造体11の配線層103と直接接続するための配線層83xを形成し、上側構造体11において、画素トランジスタの駆動配線等となる配線層103a乃至103cとは別に、下側構造体12の配線層83と直接接続するための配線層103xを形成したが、勿論、下側構造体12の最上層の配線層83aと、上側構造体11の最下層の配線層103cを、金属結合(Cu-Cu接合)により接続してもよい。
 図42に示した以降の工程は、上下配線接続構造としてツインコンタクト構造を採用した場合の、図30乃至図38を参照して説明した工程と同様である。最終状態として、図43に示す状態となる。
 <12.さらなる変形例>
 <さらなる変形例その1>
 次に、図44を参照して、撮像装置1のさらなる変形例について説明する。
 図44のAは、さらなる変形例その1に係る撮像装置1の外周付近の断面図であり、図44のBは、さらなる変形例その1に係る撮像装置1の外部端子14側の平面図である。
 さらなる変形例その1では、図44のAに示されるように、外部端子14が、平面位置で貫通ビア88の位置と重なるように、貫通ビア88の直上に形成されている。これにより、図44のBに示されるように、撮像装置1の裏面側に再配線90を形成する面積が不要となるので、入出力部21を形成する面積不足を解消することができる。
 <さらなる変形例その2>
 次に、図45を参照して、撮像装置1のさらなる変形例について説明する。
 図45は、さらなる変形例その2に係る撮像装置1の断面図である。
 さらなる変形例その2では、例えば一般的な針立て式の半導体装置測定機を用いて、撮像装置1を固片化する前の状態、換言すれば複数個の撮像装置1がウエハ上に形成された状態で、撮像装置1の動作を測定することを目的として、撮像装置1は、測定用の針を立てるための導電性パッド411を備えている。
 針立て測定用の導電性パッド411は、図45に示すように、画素アレイ部24の外側の領域、例えば、行駆動部22や列信号処理部25などが形成された画素周辺回路領域313の上側に形成されている。導電性パッド411は、シリコン貫通電極412により、上側構造体11の所定の配線層103に接続されている。
 撮像装置1の表面に保護基板18が配置される前に、針立て測定用の導電性パッド411が形成されていることが望ましい。これにより、保護基板18を固定する前に、複数個の撮像装置1がウエハ上に形成された状態で、撮像装置1の動作を測定することが可能となる。
 針立て測定用の導電性パッド411は、上側構造体11が備える多層配線層102の一部で形成されて良い。
 また、針立て測定用の導電性パッド411は、撮像装置1が備える、基準レベル信号、換言すれば黒レベル信号を取得するための、一般的にはオプティカルブラック画素領域あるいは単にオプティカルブラック領域(不図示)と呼ばれる領域の上側に形成されても良い。
 針立て測定用の導電性パッド411を、撮像装置1の保護基板18を固定する前に撮像装置1に形成することで、保護基板18を形成する前の、複数個の撮像装置1がウエハ上に形成された状態で、撮像装置1の動作を、針立て式の半導体装置の測定装置を用いて測定することが可能になる。
 <さらなる変形例その3>
 次に、図46を参照して、撮像装置1のさらなる変形例について説明する。
 図46は、さらなる変形例その3に係る撮像装置1の断面図である。
 さらなる変形例その3に係る撮像装置1もまた、例えば一般的な針立て式の半導体装置測定機を用いて、撮像装置1を固片化する前の状態、換言すれば複数個の撮像装置1がウエハ上に形成された状態で、撮像装置1の動作を測定することを目的として、測定用の針を立てるための導電性パッド421を備えている。
 針立て測定用の導電性パッド421は、図46に示すように、各撮像装置1の間のスクライブライン(ダイシングライン)上に形成されている。
 撮像装置1の表面に保護基板18が配置される前に、針立て測定用の導電性パッド421が形成されていることが望ましい。これにより、保護基板18を固定する前に、複数個の撮像装置1がウエハ上に形成された状態で、撮像装置1の動作を測定することが可能となる。
 針立て測定用の導電性パッド421は、上側構造体11が備える多層配線層102の一部で形成されて良いし、下側構造体12が備える多層配線層82の一部で形成されても良いし、あるいは、上下配線接続構造で用いる導電層の一部と同じ層で形成されても良い。そして、針立て測定用の導電性パッド421は、上側構造体11が備える多層配線層102の一部を介して撮像装置1の内部と接続されて良いし、あるいは、下側構造体12が備える多層配線層82の一部を介して撮像装置1の内部と接続されても良い。
 針立て測定用の導電性パッド421を、撮像装置1の保護基板18を固定する前に撮像装置1に形成することで、保護基板18を形成する前の、複数個の撮像装置1がウエハ上に形成された状態で、撮像装置1の動作を、針立て式の半導体装置の測定装置を用いて測定することが可能になる。
 <さらなる変形例その4>
 次に、図47を参照して、撮像装置1のさらなる変形例について説明する。
 図47は、さらなる変形例その4に係る撮像装置1の断面図である。
 さらなる変形例その4に係る撮像装置1もまた、複数個の撮像装置1がウエハ上に形成された状態で、撮像装置1の動作を測定することを目的として、測定用の針を立てるための導電性パッド422を備えている。
 針立て測定用の導電性パッド422は、図47に示すように、複数個の撮像装置1がウエハ上に形成された状態で、下側構造体12の下側に形成されている。針立て測定用の導電性パッド422は、例えば、下側構造体12が備える再配線90で形成されて良い。
 複数個の撮像装置1がウエハ上に形成された状態で、撮像装置1の表面に保護基板18が配置された後に、上記ウエハを上下反転させ、保護基板18を下側、針立て測定用の導電性パッド422を上側に配置させて、撮像装置1の動作を測定することが可能となる。この場合、撮像装置1の下側から光を入射させる装置を用いて、撮像装置1の動作を測定しても良い。
 <13.3層の積層構造体の例>
 上述した各実施の形態は、撮像装置1の積層構造体13が、下側構造体12と上側構造体11の2層で構成されていたが、3層以上の構造体で構成することもできる。
 図48及び図49を参照して、下側構造体12と上側構造体11の間に、第3構造体511を設けることにより、積層構造体13が3層で構成される例について説明する。
 図48においては、画素アレイ部24が、画素共有構造を有する場合の構成が示されている。
 画素共有構造は、フォトダイオード(PD)51と転送トランジスタ52については画素31ごとに有するが、FD53、増幅トランジスタ55、リセットトランジスタ54、及び選択トランジスタ56ついては複数画素で共有する構造である。
 図48では、共有ユニット520として、行方向に2個ずつ、列方向に2個ずつ(2x2)の4画素で、FD53、増幅トランジスタ55、リセットトランジスタ54、及び選択トランジスタ56を共有する構造が示されている。
 4個の転送トランジスタ52のゲート電極には、それぞれ行方向に延在する転送トランジスタ駆動信号線521が1本ずつ接続されている。4個の転送トランジスタ52のゲート電極のそれぞれに接続され、行方向に延在する4本の転送トランジスタ駆動信号線521は、4本が平行になって、列方向に並べて配置されている。
 FD53は、不図示の配線を介して、増幅トランジスタ55のゲート電極およびリセットトランジスタ54の拡散層へ接続されている。リセットトランジスタ54のゲート電極には、行方向に延在するリセットトランジスタ駆動信号線522が1本接続されている。
 選択トランジスタ56のゲート電極には、行方向に延在する選択トランジスタ駆動信号線523が1本接続されている。選択トランジスタ56は省略される場合もある。
 図2に示した撮像装置1のシステム構成例においては、列方向に延在する垂直信号線33に、複数個の画素31が、画素毎に接続されていた。そして、複数本の垂直信号線33のそれぞれが、その先に配置された列信号処理部25へと接続され、列信号処理部25において、ノイズ処理やAD変換処理が行われていた。
 これに対して、図48に示す3層の積層構造体13による撮像装置1は、下側構造体12と上側構造体11の間の第3構造体511に、エリア信号処理部531を備える。
 エリア信号処理部531は、ノイズ処理部やADCを有する読み出し信号処理部532と、AD変換後のデジタルデータを保持するデータ保持部533を備える。
 例えば、共有ユニット520の画素31それぞれが、AD変換後に16ビットで表されるデータを出力する場合には、データ保持部533は、これらのデータを保持するために、64ビット分のラッチやシフトレジスタなどのデータ保持手段を備える。
 エリア信号処理部531は、さらに、データ保持部533に保持されたデータを、エリア信号処理部531の外部へ出力するための出力信号配線537を備える。この出力信号配線は、例えば、データ保持部533に保持された64ビットのデータを並列して出力する64ビットの信号線であっても良いし、データ保持部533に保持された4画素分のデータを、1画素分ずつ出力するための16ビットの信号線であっても良いし、あるいは1画素分のデータの半分となる8ビットの信号線や、2画素分のデータとなる32ビットの信号線であっても良い。あるいは、データ保持部533に保持されたデータを1ビットずつ読み出す1ビットの信号線であっても良い。
 図48に示す撮像装置1は、上側構造体11の1個の共有ユニット520が、第3構造体511の1個のエリア信号処理部531に接続されている。換言すれば、共有ユニット520とエリア信号処理部531が1対1に対応している。このため、図48に示すように、第3構造体511は、エリア信号処理部531が、行方向および列方向にそれぞれ複数個配列されたエリア信号処理部アレイ534を備える。
 また、第3構造体511は、行方向および列方向にそれぞれ複数個配列された各エリア信号処理部531が備えるデータ保持部533のデータを読み出す行アドレス制御部535を備える。行アドレス制御部535は、一般的な半導体メモリ装置と同じように、行方向の読出し位置を定める。
 エリア信号処理部アレイ534の行方向に並ぶエリア信号処理部531は、行アドレス制御部535から行方向に延びる制御信号線に接続され、行アドレス制御部535の制御によって、エリア信号処理部531の動作が制御される。
 エリア信号処理部アレイ534の列方向に並ぶエリア信号処理部531は、列方向に延びる列読出し信号線537に接続され、列読出し信号線は、エリア信号処理部アレイ534の先に配置された列読出し部536へと接続されている。
 エリア信号処理部アレイ534の各エリア信号処理部531のデータ保持部533に保持されたデータは、行方向に並んだ全てのエリア信号処理部531のデータ保持部533のデータが、同時に、列読出し部536へと読み出されても良いし、列読出し部536から指定された、特定のエリア信号処理部531のデータのみが読み出されても良い。
 列読出し部536には、エリア信号処理部531から読み出したデータを、第3構造体511の外部へと出力するための配線が接続されている。
 下側構造体12は、第3構造体511の列読出し部536からの配線が接続され、この列読出し部536から出力されたデータを受け取るための読出し部541を備える。
 また、下側構造体12は、第3構造体511から受け取ったデータを画像信号処理するための画像信号処理部26を備える。
 さらに、下側構造体12は、第3構造体511から受け取ったデータを画像信号処理部26を経由して出力するあるいは経由せずに出力するための入出力部21を備える。この入出力部21は、出力回路部47だけでなく、例えば、画素アレイ部24で使用するタイミング信号や、画像信号処理部26で使用する特性データを、撮像装置1の外部から装置内へ入力するための入力回路部42を備えていても良い。
 図49のBに示されるように、上側構造体11に形成された各共有ユニット520は、その共有ユニット520の直下に配置された第3構造体511のエリア信号処理部531と接続されている。この上側構造体11と第3構造体511との間の配線接続は、例えば、図8に示したCu-Cu直接接合構造によって接続することができる。
 また、図49のBに示されるように、第3構造体511に形成されたエリア信号処理部アレイ534の外側の列読出し部536は、その列読出し部536の直下に配置された下側構造体12の読出し部541と接続されている。この第3構造体511と下側構造体12との間の配線接続は、例えば、図8に示したCu-Cu直接接合構造、あるいは、図6に示したツインコンタクト構造によって接続することができる。
 従って、図49のAに示されるように、上側構造体11に形成された各共有ユニット520の画素信号が、第3構造体511の対応するエリア信号処理部531に出力される。エリア信号処理部531のデータ保持部533で保持されているデータが、列読出し部536から出力され、下側構造体12の読出し部541に供給される。そして、画像信号処理部26において、データに対して、各種の信号処理(例えば、トーンカーブ補正処理)が施され、入出力部21から、装置外部へ出力される。
 なお、3層の積層構造体13による撮像装置1において、下側構造体12に形成される入出力部21は、第3構造体511の行アドレス制御部535の下側に配置して良い。
 また、3層の積層構造体13による撮像装置1において、下側構造体12に形成される入出力部21は、第3構造体511のエリア信号処理部531の下側に配置しても良い。
 さらに、3層の積層構造体13による撮像装置1において、下側構造体12に形成される入出力部21は、上側構造体11の画素アレイ部24の下側に配置しても良い。
 <14.レンズモジュールを備えた構成>
 <第1の構造>
 上述した撮像装置1を、レンズモジュールと組み合わせた場合の構成について説明する。図50に、撮像装置1とレンズモジュールを組み合わせた場合の構成例(レンズモジュールを備えた撮像装置1の第1の構造)を示す。
 図50に示した構成は、撮像装置1の保護基板18上に、レンズモジュール901が載置され、撮像装置1の積層構造体13下に、基板921が接続されている構造とされている。
 レンズモジュール901は、アクチュエータ902、レンズバレル903、レンズ904から構成されている。レンズバレル903の内側には、レンズ904-1、レンズ904-2、レンズ904-3が組み込まれ、レンズバレル903は、それらのレンズ904-1乃至904-3を保持する構成とされている。レンズバレル903は、アクチュエータ902に内包されている。
 例えば、レンズバレル903の外側の側面にはネジ(不図示)が備えられ、アクチュエータ902の内部の一部分には、このネジと螺合する位置にネジ(不図示)が備えられ、レンズバレル903のネジとアクチュエータ902内部のネジは、螺合するように構成されている。レンズバレル903がアクチュエータ902に螺合されるのは、製造時に撮像装置1との距離を合わせる(ピントを合わせる)ためである。なお、このようなレンズバレル903のアクチュエータ902への装着の仕方は、一例であり、他の仕組みでレンズバレル903がアクチュエータ902に装着されるようにしても良い。
 レンズバレル903が図中、上下方向に可動するように構成し、オートフォーカス(AF:Auto-Focus)が行えように構成した場合、例えば、レンズバレル903の側面(レンズバレル903が装着されたレンズキャリ)に、コイルが設けられる。また、このコイルに対向する位置であり、アクチュエータ902の内側には、マグネットが設けられる。マグネットには、ヨークが備えられ、コイル、マグネット、およびヨークでボイスコイルモータが構成される。
 コイルに電流が流されると、図中上下方向に力が発生する。この発生された力で、レンズバレル903が上方向または下方向に移動する。レンズバレル903が移動することで、レンズバレル903が保持しているレンズ904-1乃至904-3と、撮像装置1の距離が変化する。このような仕組みにより、オートフォーカスを実現することができる。
 なお、他の仕組みでオートフォーカスが実現されるように構成することも可能であり、その実現の仕方に応じた構成とされる。
 レンズモジュール901の下部の中央部には、撮像装置1が設けられている。撮像装置1は、例えば、図1に示したような構造を有する。撮像装置1は、下部に、外部端子14を備える。外部端子14は、撮像装置1の下側に設けられる基板921(基板921内の配線)と接続されている。基板921内には、配線が形成されている。
 基板921には、回路基板931-1、回路基板931-2が外部端子で接続されている。また、基板921には、ボンディングワイヤ941が接続されている。基板921の下部(撮像装置1と接続されている側と対向する側)には、回路基板931が接続される領域(回路基板領域A)と、ワイヤボンディングにより、ボンディングワイヤ941が接続され、外部の回路(不図示)と接続される領域(ワイヤボンディング領域B)が設けられている。
 なお、基板921に接続するものは、回路基板931に限定されない。チップコンデンサ、チップ抵抗、無線アンテナなどの受動素子であっても良い。また、電源IC、無線送信IC、半導体メモリなどのICまたは能動素子であっても良い。また、これらの受動素子やICもしくは能動素子を実装した電子基板でも良い。これらの各態様を包括して、本明細書では回路基板931と記載する。本明細書に記載の回路基板931は、これらの各態様のいずれかであっても良いし、全てを含んでいても良い。
 図50に示した構造においては、レンズモジュール901、撮像装置1、および回路基板931が縦方向に積層されている。ここで、比較のため、従来の構造を図51に示す。
 図51に示した構造においては、レンズモジュール901の下側に撮像装置1が設けられ、外部端子14を介して、基板921と接続されている点は、図50に示した構造と同じであるが、回路基板931とボンディングワイヤ941が、撮像装置1の下側ではなく、同一平面上に設けられている点が異なる。
 図51に示した構造においては、撮像装置1の図中右側に延長された基板921上であり、撮像装置1が積載されている側に、回路基板931-1、回路基板931-2、およびボンディングワイヤ941が接続されている。すなわち、撮像装置1、回路基板931、およびボンディングワイヤ941が搭載されている基板921は、回路基板領域A、ワイヤボンディング領域B、およびレンズモジュール領域Cを有している。レンズモジュール領域C内には、撮像装置1が搭載される撮像装置領域Dが含まれている。
 図51に示した構造においては、基板921の平面上には、レンズモジュール領域C、回路基板領域A、およびワイヤボンディング領域Bが設けられている。これに対して、図50に示した構造においては、基板921の平面上には、レンズモジュール領域Cだけ設けられていればよい構造となっている。
 図50を再度参照するに、レンズモジュール領域C内には、撮像装置領域Dが含まれる。また、レンズモジュール領域D内には、回路基板領域Aとワイヤボンディング領域Bも含まれる。すなわち、図50に示した構造においては、基板921の平面でみたとき、レンズモジュール領域Cと同等の大きさがあれば、レンズモジュール901、撮像装置1、回路基板931、ボンディングワイヤ941などの主要な部品を実装させることができる。
 このように、図50に示した構造、換言すれば、レンズモジュール901、撮像装置1、回路基板931(ボンディングワイヤ941)を積層する構造とすることで、平面積を小型化することが可能となる。このように、平面積が小型化された構造とすることで、例えば、後述するカプセル内視鏡などの小型化が望まれる装置に適用するのに好適な構造とすることが可能となる。
 <第2の構造>
 図52にレンズモジュールを備えた撮像装置1の第2の構造について説明する。図52に示した構造は、基板921上に、レンズモジュール901が載置されている。図50に示した構造と、図52に示した構造を比較する。図50に示した構造は、撮像装置1の保護基板18上にレンズモジュール901(レンズモジュール901の一部を構成するフレーム)が載置されている構造であったのに対し、図52に示した構造は、基板921にレンズモジュール901(レンズモジュール901の一部を構成するフレーム)が載置されている構造である。
 図52に示した構造も、基板921の上側には、撮像装置1が載置され、下側には回路基板931やボンディングワイヤ941が接続されている。このように、撮像装置1を囲み、基板921上に、レンズモジュール901が載置される構造としても良い。
 図52に示した構造においても、基板921の平面積は、レンズモジュール領域Cとほぼ同等の大きさであれば良く、図51に示した構造よりも平面積を小型化することができる。
 <第3の構造>
 図53にレンズモジュールを備えた撮像装置1の第3の構造について説明する。図53に示した構造は、撮像装置1の保護基板18が備えられていない構造となっている。図52に示した構造と、図53に示した構造を比較する。図53に示した構造における撮像装置1は、図52に示した構造における撮像装置1から、保護基板18を削除した構成となっている点が異なり、他の部分は、同一である。
 保護基板18は、オンチップレンズ16やカラーフィルタ15を保護するために設けられている。撮像装置1が、レンズモジュール901と基板921で囲まれる構造とすることで、外部からの影響を遮断できる空間内に、撮像装置1を搭載することができ、オンチップレンズ16やカラーフィルタ15を保護することができる。よって、図53に示したように、撮像装置1を保護基板18を積層しない構造としても良い。
 図53に示した構造も、基板921の上側には、撮像装置1が載置され、下側には回路基板931やボンディングワイヤ941が接続されている。このように、撮像装置1を囲み、基板921上に、レンズモジュール901が載置される構造としても良い。
 図53に示した構造においても、基板921の平面積は、レンズモジュール領域Cとほぼ同等の大きさであれば良く、図51に示した構造よりも平面積を小型化することができる。
 <第4の構造>
 図54にレンズモジュールを備えた撮像装置の第4の構造について説明する。図50乃至図53に示した構造は、撮像装置1として、例えば、図1に示した撮像装置1を用いた場合を例に挙げて説明したが、レンズモジュール901、撮像装置1、回路基板931を積層し、平面積を小型化する構造に関しては、図1に示した撮像装置1に適用が限定されるわけではない。
 例えば、撮像装置1の変形例として、図44乃至図47を参照して説明した構造を有する撮像装置1に対しても適用できる。
 また、図9乃至図11に示した撮像装置600、撮像装置700、または撮像装置800を、撮像装置1の代わりに用いることも可能である。図54では、例えば図10に示した撮像装置700にレンズモジュール901と基板921を積層した構造例を示している。
 図54に示したように、撮像装置700は、フレーム961上に載置され、フレーム961の下部に設けられている外部端子727とワイヤボンディングによるボンディングワイヤ725を介して接続されている。
 フレーム961上に保護基板962(例えば、ガラス)が積層されている。図53に示した構造と同じく、レンズモジュール901は、基板921上に積層されている。
 図54に示した構造においても、基板921の平面積は、レンズモジュール領域Cとほぼ同等の大きさであれば良く、図51に示した構造よりも平面積を小型化することができる。
 <第5の構造>
 図55にレンズモジュールを備えた撮像装置の第5の構造について説明する。図55に示した構造は、図54に示した構造と同じく、撮像装置700が基板921上に積載された構造であり、フレーム961上に設けられた保護基板962上にレンズモジュール901が積層された構造である。
 図55に示した構造の場合も、図50に示した構造の場合と同じく、基板921の平面積は、レンズモジュール領域Cとほぼ同等の大きさであれば良く、図51に示した構造よりも平面積を小型化することができる。
 <第6の構造>
 図56にレンズモジュールを備えた撮像装置の第6の構造について説明する。図56に示した構造は、基板921が、T字型に構成されている点が、第1乃至第5の構造と異なる。基板921-1は横方向に配置され、基板921-2は縦方向に配置されている。また基板921-1と基板921-2は、互いに垂直に交わるように接続された基板とされている。
 縦方向に配置されている基板921-2には、回路基板931-1乃至931-4が接続されている。基板921-1上側には、図50に示した構造を有する撮像装置1やレンズモジュール901が積層されている。なお、図56では、図50に示した第1の構造を例示しているが、レンズモジュール901から基板921-1までの構造は、図52に示した第2の構造、図53に示した第3の構造、図54に示した第4の構造、または図55に示した第5の構造であっても良い。
 なお、図56に示した例では、縦方向に配置されている基板921-2は、1枚である場合を例に挙げて説明したが、2枚、3枚など、多数の基板921が、横方向に配置されている基板921-1と接続された構造とすることも可能である。
 図56に示したように、基板921をT字型などの立体的な構成とすることで、より多くの回路基板931を接続することが可能となる。また、図56に示した構造の場合も、第1乃至図5の構造と同じく、基板921の平面積は、レンズモジュール領域Cとほぼ同等の大きさであれば良く、図51に示した構造よりも平面積を小型化することができる。
 <15.カプセル内視鏡の構成>
 ここで、図50乃至図56を参照して説明したように、平面積を小型化したレンズモジュール付きの撮像装置を適用して好適な装置の一例を挙げて、その説明を行う。
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、カプセル型内視鏡を用いた患者の体内情報取得システムに適用されてもよい。
 図57は、本開示に係る技術が適用され得る体内情報取得システム1000の概略的な構成の一例を示す図である。図57を参照すると、体内情報取得システム1000は、カプセル型内視鏡1100と、体内情報取得システム1000の動作を統括的に制御する外部制御装置1200と、から構成される。検査時には、カプセル型内視鏡1100が患者によって飲み込まれる。
 カプセル型内視鏡1100は、撮像機能及び無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置1200に順次無線送信する。外部制御装置1200は、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。
 体内情報取得システム1000では、このようにして、カプセル型内視鏡1100が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した画像を随時得ることができる。
 カプセル型内視鏡1100と外部制御装置1200の構成及び機能についてより詳細に説明する。図示するように、カプセル型内視鏡1100は、カプセル型の筐体1101内に、光源部1103、撮像部1105、画像処理部1107、無線通信部1109、給電部1113、電源部1115、状態検出部1117及び制御部1119の機能が搭載されて構成される。
 光源部1103は、例えばLED(light emitting diode)等の光源から構成され、撮像部1105の撮像視野に対して光を照射する。
 撮像部1105は、撮像素子、及び当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。当該撮像素子は、観察光を受光して光電変換することにより、観察光に対応した電気信号、すなわち観察像に対応した画像信号を生成する。撮像部1105によって生成された画像信号は、画像処理部1107に提供される。
 なお、撮像部1105の撮像素子としては、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等、各種の公知の撮像素子が用いられてよい。
 画像処理部1107は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部1105によって生成された画像信号に対して各種の信号処理を行う。当該信号処理は、画像信号を外部制御装置1200に伝送するための最小限の処理(例えば、画像データの圧縮、フレームレートの変換、データレートの変換及び/又はフォーマットの変換等)であってよい。画像処理部1107が必要最小限の処理のみを行うように構成されることにより、当該画像処理部1107を、より小型、より低消費電力で実現することができるため、カプセル型内視鏡1100に好適である。
 また、撮像部1105と画像処理部1107を、図50乃至図56(図51を除く)に示したような構造とすることで、平面積を小型化でき、カプセル型内視鏡1100に好適である。
 すなわち、例えば、図50に示した撮像装置1とレンズモジュール901を、撮像部1105として適用し、回路基板931を、画像処理部1107として適用することができる。
 図57中、左右方向を、カプセル型内視鏡1100が進む方向とした場合、上下方向の大きさ(幅)は小さい方が、より患者の負担が軽減されることは明らかである。このようなカプセル型内視鏡1100に、例えば、図50に示した撮像装置1を搭載した場合、レンズモジュール901の開口部は、左右方向、例えば図57では、図中左側方向に設けられる。
 よって、カプセル型内視鏡1100の上下方向の大きさは、撮像装置1が載置されている基板921の平面積が小さくなれば、その分小さくなる。上記したように、例えば、図50に示した撮像装置1においては、基板921の平面積を小さくすることができるため、カプセル型内視鏡1100等の装置に適用して好適な撮像装置1とすることができる。
 なお、筐体1101内のスペースや消費電力に余裕がある場合であれば、画像処理部1107において、更なる信号処理(例えば、ノイズ除去処理や他の高画質化処理等)が行われてもよい。画像処理部1107は、信号処理を施した画像信号を、RAWデータとして無線通信部1109に提供する。なお、無線通信部1109は、状態検出部1117によってカプセル型内視鏡1100の状態(動きや姿勢等)についての情報が取得されている場合には、当該情報と紐付けて、画像信号を無線通信部1109に提供してもよい。これにより、画像が撮像された体内における位置や画像の撮像方向等と、撮像画像とを関連付けることができる。
 無線通信部1109は、外部制御装置1200との間で各種の情報を送受信可能な通信装置によって構成される。当該通信装置は、アンテナ1111と、信号の送受信のための変調処理等を行う処理回路等から構成される。無線通信部1109は、画像処理部1107によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ1111を介して外部制御装置1200に送信する。また、無線通信部1109は、外部制御装置1200から、カプセル型内視鏡1100の駆動制御に関する制御信号を、アンテナ1111を介して受信する。無線通信部1109は、受信した制御信号を制御部1119に提供する。
 給電部1113は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、及び昇圧回路等から構成される。給電部1113では、いわゆる非接触充電の原理を用いて電力が生成される。具体的には、給電部1113のアンテナコイルに対して外部から所定の周波数の磁界(電磁波)が与えられることにより、当該アンテナコイルに誘導起電力が発生する。
 当該電磁波は、例えば外部制御装置1200からアンテナ1201を介して送信される搬送波であってよい。当該誘導起電力から電力再生回路によって電力が再生され、昇圧回路においてその電位が適宜調整されることにより、蓄電用の電力が生成される。給電部1113によって生成された電力は、電源部1115に蓄電される。
 電源部1115は、二次電池によって構成され、給電部1113によって生成された電力を蓄電する。図57では、図面が煩雑になることを避けるために、電源部1115からの電力の供給先を示す矢印等の図示を省略しているが、電源部1115に蓄電された電力は、光源部1103、撮像部1105、画像処理部1107、無線通信部1109、状態検出部1117及び制御部1119に供給され、これらの駆動に用いられ得る。
 状態検出部1117は、加速度センサ及び/又はジャイロセンサ等の、カプセル型内視鏡1100の状態を検出するためのセンサから構成される。状態検出部1117は、当該センサによる検出結果から、カプセル型内視鏡1100の状態についての情報を取得することができる。状態検出部1117は、取得したカプセル型内視鏡1100の状態についての情報を、画像処理部1107に提供する。画像処理部1107では、上述したように、当該カプセル型内視鏡1100の状態についての情報が、画像信号と紐付けられ得る。
 制御部1119は、CPU等のプロセッサによって構成され、所定のプログラムに従って動作することによりカプセル型内視鏡1100の動作を統括的に制御する。制御部1119は、光源部1103、撮像部1105、画像処理部1107、無線通信部1109、給電部1113、電源部1115及び状態検出部1117の駆動を、外部制御装置1200から送信される制御信号に従って適宜制御することにより、以上説明したような各部における機能を実現させる。
 外部制御装置1200は、CPU、GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイコン若しくは制御基板等であり得る。外部制御装置1200は、アンテナ1201を有し、当該アンテナ1201を介して、カプセル型内視鏡1100との間で各種の情報を送受信可能に構成される。
 具体的には、外部制御装置1200は、カプセル型内視鏡1100の制御部1119に対して制御信号を送信することにより、カプセル型内視鏡1100の動作を制御する。例えば、外部制御装置1200からの制御信号により、光源部1103における観察対象に対する光の照射条件が変更され得る。また、外部制御装置1200からの制御信号により、撮像条件(例えば、撮像部1105におけるフレームレート、露出値等)が変更され得る。また、外部制御装置1200からの制御信号により、画像処理部1107における処理の内容や、無線通信部1109が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置1200は、カプセル型内視鏡1100から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が行われてよい。
 外部制御装置1200は、表示装置(図示せず)の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置1200は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システム1000の一例について説明した。撮像部1105と画像処理部1107を、図50乃至図56(図51を除く)に示したような構造とすることで、平面積を小型化でき、カプセル型内視鏡1100自体を小型化することが可能となる。また撮像装置1を適用することでパッケージサイズ自体を小型化することができ、よりカプセル型内視鏡1100自体を小型化することが可能となる。このように小型化することが可能となることで、患者の負担を更に軽減することができる。
 <16.レンズモジュール付きの撮像装置の製造方法>
 図50乃至図56(図51を除く)に示したレンズモジュール901付きの撮像装置の製造方法について、図58、図59を参照して説明する。
 工程S101において、上記(図24乃至図43を参照して説明)したようにして、ウェハレベルで撮像装置1が製造される。工程S102において、レンズモジュール901が撮像装置1に積載される。レンズモジュール901も、ウェハレベルで製造される。
 工程S103において、個片化される。個片化されることで、レンズモジュール901が積層された撮像装置1が製造される。さらに、工程S104(図59)において、基板921が撮像装置1に接続される。
 ここでは、工程S103において、個片化され、その後、工程S104において、基板921が積層される例を示したが、この流れを入れ替えることも可能である。工程S103において、基板921がウェハレベルで撮像装置1に積層され、その後、工程S104において個片化されるようにしても良い。
 工程S105において、個片化された撮像装置1の基板921に、回路基板931がさらに接続される。
 ここでは、個片化された後、工程S105において、回路基板931が積層される例を示したが、この流れを入れ替えることも可能である。工程S103において、基板921がウェハレベルで撮像装置1に積層され、工程S104において、回路基板931がさらに積層され、工程S105において、個片化されるようにしても良い。
 このようにして、図50に示したようなレンズモジュール901を備えた撮像装置1が製造される。この後、必要に応じ、ボンディングワイヤ941が接続され、外部の回路と接続される。
 <17.複眼形態について>
 次に、撮像装置1を用いた複眼形態について説明する。図60は、積層レンズ構造体を用いたカメラモジュールの形態を示す図である。
 図60に示したカメラモジュール2000は、複数のレンズ付き基板2021a乃至2021eが積層された積層レンズ構造体2011と、積層構造体13を含んで構成される。積層レンズ構造体2011は、 複数個の光学ユニットを備える。1点鎖線2054は、それぞれの光学ユニットの光軸を表す。積層構造体13は、積層レンズ構造体2011の下側に配置されている。カメラモジュール2000において、上方からカメラモジュール2000内へと入射した光は、積層レンズ構造体2011を透過し、積層レンズ構造体2011の下側に配置された積層構造体13で受光される。
 積層レンズ構造体2011は、積層された5枚のレンズ付き基板2021a乃至2021eを備える。5枚のレンズ付き基板2021a乃至2021eを特に区別しない場合には、単に、レンズ付き基板2021と記述して説明する。
 積層レンズ構造体2011を構成する各レンズ付き基板2021の貫通孔2053の断面形状は、下側(積層構造体13を配置する側)に向かって開口幅が小さくなる、いわゆる下すぼみの形状となっている。
 積層レンズ構造体2011の上には、絞り板2031が配置されている。絞り板2031は、例えば、光吸収性もしくは遮光性を有する材料で形成された層を備える。絞り板2031には、開口部2032が設けられている。
 積層構造体13は、例えば、表面照射型または裏面照射型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサで構成される。積層構造体13の積層レンズ構造体2011側となる上側の面には、オンチップレンズ16が形成されており、積層構造体13の下側の面には、信号を入出力する外部端子14が形成されている。
 積層レンズ構造体2011、積層構造体13、絞り板2031などは、レンズバレル2043に収納されている。
 本実施の形態では、積層レンズ構造体2011は、積層された5枚のレンズ付き基板2021a乃至2021eを備えるが、レンズ付き基板2021の積層枚数は2枚以上であれば特に限定されない。
 積層レンズ構造体2011を構成するそれぞれのレンズ付き基板2021は、担体基板2051にレンズ樹脂部2052が追加された構成である。担体基板2051は貫通孔2053を有し、貫通孔2053の内側に、レンズ樹脂部2052が形成されている。
 なお、レンズ付き基板2021a乃至2021eそれぞれの担体基板2051、レンズ樹脂部2052、または、貫通孔2053を区別する場合には、図13に示されるように、レンズ付き基板2021a乃至2021eに対応して、担体基板2051a乃至2051e、レンズ樹脂部2052a乃至2052e、または、貫通孔2053a乃至2053eのように記述して説明する。
 積層構造体13の上側には、光透過性を有するガラスシール樹脂17が配置されている。そのガラスシール樹脂17を介して、積層構造体13と保護基板18が固定されている。
 保護基板18の上側には、構造材2061が配置されている。その構造材2061を介して、保護基板18と積層レンズ構造体2011が固定されている。構造材2061は、例えばエポキシ系の樹脂である。
 ガラスシール樹脂17は、積層構造体13の上側全面に配置されている。そのガラスシール樹脂17を介して、積層構造体13と保護基板18が固定されている。積層構造体13の上側全面に配置されたガラスシール樹脂17は、保護基板18の上方から保護基板18に応力が加わった場合に、これが積層構造体13の一部の領域に集中して印加されることを防ぎ、積層構造体13全面に応力を分散させて受け止める作用または効果をもたらす。
 保護基板18の上側には、構造材2061が配置されている。その構造材2061を介して、保護基板18と積層レンズ構造体2011が固定されている。
 図60以降における説明においては、図中、左側に位置する積層構造体13などを含む部分を、撮像装置1-1とし、右側に位置する積層構造体13などを含む部分を、撮像装置1-2とする。
 図60に示すような構成を有するカメラモジュール2000は、図61のAに示したように、光の入射面上に、縦横2個ずつ、合計4個の光学ユニット(撮像装置1)を備える構成とすることができる。4個の光学ユニット同士では、レンズの形状と絞り板2031の開口部2032の大きさは同じになっている。
 カメラモジュール2000は、光の入射面の縦方向と横方向のそれぞれについて2個ずつ配置した光学ユニットに備わる光軸が、同じ方向に延びている。このような構造のカメラモジュール2000は、超解像技術を利用して、1個の光学ユニットで撮影するよりも、解像度が高い画像を撮影することに適している。
 カメラモジュール2000では、縦方向と横方向のそれぞれについて、光軸が同じ方向を向きながら、異なる位置に配置された複数個の積層構造体13(に含まれる受光素子)で画像を撮影することにより、あるいは1個の受光素子の中の異なる領域の受光画素で画像を撮影することにより、光軸が同じ方向を向きながら、必ずしも同一ではない複数枚の画像を得ることができる。これら同一ではない複数枚の画像が持っている場所毎の画像データを合わせることで、解像度が高い画像を得ることができる。
 図61のBに示したように、カメラモジュール2000を構成することも可能である。図61のBに示した構成は、光の入射面上に、縦横2個ずつ、合計4個の光学ユニット(撮像装置1)を備え構成とされている。4個の光学ユニット同士では、レンズの形状は同じになっている。
 4個の光学ユニットは、積層レンズ構造体2011の最上層に、絞り板2031を備えるが、その絞り板2031の開口部2032の大きさが、4個の光学ユニットの間で異なる。これにより、カメラモジュール2000は、例えば、以下のようなカメラモジュール2000を実現することができる。
 すなわち、例えば防犯用の監視カメラにおいて、昼間のカラー画像監視用に、RGB3種類のカラーフィルタを備えてRGB3種の光を受光する受光画素と、夜間の白黒画像監視用に、RGB用のカラーフィルタを備えない受光画素と、を備えた積層構造体13を用いたカメラモジュール2000において、照度が低い夜間の白黒画像を撮影するための画素だけ絞りの開口の大きさを大きくすることが可能となる。
 <18.透過率減衰層を備えたカメラモジュール>
 また、カメラモジュール2000を、高照度用の画素と低照度用の画素を備える構成とし、高照度用の画素で得られた信号と、低照度用の画素で得られた信号を用いることでダイナミックレンジを拡大した撮像を行うような構成とすることも可能である。
 例えば、画素A(低照度用の画素)と画素B(高照度用の画素)は、画素に備わる信号生成手段(例えばフォトダイオード)として、画素Aよりも画素Bの方が、その適正な動作限界が高いもの(例えば飽和電荷量が大きいもの)を備え、かつ画素に備わる生成信号の変換手段(例えば電荷電圧変換容量)の大きさも、画素Aよりも画素Bの方が大きいものを備える。
 これらの構成により、画素Bは、単位時間当たりに一定量の信号(例えば電荷)が生成した場合の出力信号が画素Aよりも小さく抑えられ、かつ飽和電荷量が大きいために、例えば、被写体の照度が高い場合にも、画素が動作限界には至らず、これにより高い階調性を有する画像を得られる、という作用をもたらす。
 一方、画素Aは、単位時間当たりに一定量の信号(例えば電荷)が生成した場合に、画素Bよりも大きな出力信号が得られるため、例えば、被写体の照度が低い場合にも、高い階調性を有する画像を得られる、という作用をもたらす。
 このような画素Aと画素Bとを備えるため、広い照度範囲において高い階調性を有する画像を得られる、いわゆるダイナミックレンジの広い画像を得られる、という作用をもたらす。
 このように、高照度用の画素と低照度用の画素を備える構成とする場合、図61のBに示したように、絞りの開口の大きさ異ならせることで高照度用の画素と低照度用の画素を実現することもできるが、低照度用の画素に、図62に示すように、入射光の透過率を減衰させる層を設ける構成とすることで実現することもできる。
 図62に示したカメラモジュール2000は、図60に示したカメラモジュール2000と基本的に同様の構成を有しているため、同様の部分には、同様の符号を付し、その説明を省略する。図62に示したカメラモジュール2000の撮像装置1-2の保護基板18上に、透過率減衰層2100が形成されている点が、図60に示したカメラモジュール2000と異なり、他の部分は、同一である。
 なおここでは、図62に示すように、撮像装置1が2個備えられている装置(カメラモジュール2000)において、一方の撮像装置1に透過率減衰層2000を備え、他方は備えない構成を例に挙げて説明するが、本技術は、このような構成にのみ適用が限定されるわけではない。
 例えば、1個の撮像装置1を備える装置に対して本技術を適用し、透過率減衰層2000を備える構成としても良い。また、複数の撮像装置1を備え、そのうちの所定個の撮像装置1に対して、透過率減衰層2000を備える構成としてもよい。
 透過率減衰層2100は、入射された光の透過率を減衰させる層である。透過率について図63を参照して説明する。透過率減衰層2100に入射された光の内、A%の光は、透過率減衰層2100で反射され、B%の光は、透過率減衰層2100を透過する。また、透過率減衰層2100に入射された光の内、C%の光は、透過率減衰層2100に吸収される。
 すなわち、透過率減衰層2100に入射された光の内、A%は、反射光となり、B%は、透過光となり、C%は、吸収光となる。なお、A+B+C=100%である。透過率減衰層2100は、透過光の割合(透過率)を減衰させる層である。透過率を減衰させるためには、反射光の割合を高くしたり、吸収光の割合を高くしたりすればよい。
 すなわち、反射率を0%以上にし、または/および、吸収率を0%以上にするための透過率減衰層2100が、撮像装置1-2上に形成される。透過率減衰層2100は、反射光の割合を高くするための材料、吸収光の割合を高くするための材料で形成された層である。
 反射光の割合を高くするために、図64に示すように、保護基板18の表面に散乱面を形成しても良い。保護基板18は、例えば、ガラス基板で形成されるが、そのガラス面に散乱面を形成し、透過率減衰層2100としても良い。散乱面により、入射光が散乱されるため、反射光の割合が増え、透過率が減衰することになる。
 このように、透過率減衰層2100は、反射率、吸収率、散乱係数のうちの少なくとも1つが、0以外の値を有する層とされる。
 このように、カメラモジュール2000に含まれる複数の撮像装置1の一部の撮像装置1に、透過率減衰層2100を形成し、透過光の割合が異なる撮像装置1からの信号が得られる構成とする。
 上記した実施の形態において、透過率減衰層2100が設けられている撮像装置1(図62においては撮像装置1-2)は、画素Bに該当し、単位時間当たりに一定量の信号(例えば電荷)が生成した場合の出力信号が画素Aよりも小さく抑えられ、かつ飽和電荷量が大きいために、例えば、被写体の照度が高い場合にも、画素が動作限界には至らず、これにより高い階調性を有する画像を得られる画素として用いることが可能である。
 また、上記した実施の形態において、透過率減衰層2100が設けられていない撮像装置1(図62においては撮像装置1-1)は、画素Aに該当し、単位時間当たりに一定量の信号(例えば電荷)が生成した場合に、画素Bよりも大きな出力信号が得られるため、例えば、被写体の照度が低い場合にも、高い階調性を有する画像を得られる画素として用いることが可能である。
 よって、図62に記載のカメラモジュール2000は、画素Aと画素Bに相当する撮像装置1-1と撮像装置1-2を備える構成とされているため、広い照度範囲において高い階調性を有する画像を得られる、いわゆるダイナミックレンジの広い画像を得られる装置とすることができる。
 透過率減衰層2100は、図62に示したように、撮像装置1の保護基板18上に形成されても良いが、図65、図66にそれぞれ示す位置に形成されていても良い。図65を参照するに、透過率減衰層2100は、撮像装置1の保護基板18とガラスシール樹脂17との間に形成されている。また、図66を参照するに、透過率減衰層2100は、撮像装置1の保護基板18内に形成されている。
 このように、透過率減衰層2100は、保護基板18上、保護基板18内、または保護基板18下に形成することができる。
 また透過率減衰層2100は、図62に示したように、撮像装置1の保護基板18上に均一の材料で、略同一の厚さで形成されても良いが、図67に示すように、複数の材料(複数の層)で形成されていても良い。
 図67に示した透過率減衰層2100は、透過率減衰層2100-1、透過率減衰層2100-2、および透過率減衰層2100-3の3層で形成されている。これら3層の透過率減衰層2100は、それぞれ異なる材料で形成されている。異なる材料で形成することで、所望の透過率が得られる層とされている。
 なお、3層以外の複数層で透過率減衰層2100が形成されていても良い。
 また、図68に示したように、透過率減衰層2100は、撮像装置1の全面に形成されているのではなく、一部に形成されているようにしても良い。図68に示した例では、撮像装置1の保護基板18の平面の半分の領域(有効画素領域の半分の領域)に、透過率減衰層2100を形成した例を示している。
 なお、図68では、有効画素領域の右側半分に透過率減衰層2100を形成した例を示したが、左側半分に形成されたり、短冊状に形成されたりしても良い。また、図69に示したように、透過率減衰層2100の厚さを、左右で異なる厚さとしても良い。図69に示した例では、有効画素領域の左側半分に設けられている透過率減衰層2100の厚さは、右側半分に設けられている透過率減衰層2100の厚さよりも薄く形成されている。
 図68や図69に示したように、透過率減衰層2100の厚さを有効が領域内で異ならせることで、機能差分を付けることが可能となる。
 また、図70に示したように、撮像装置1の両端に透過率減衰層2100を形成するようにしても良い。例えば、撮像装置1の両端に、オプティカルブラック領域(OPB領域)が設けられている場合、そのオプティカルブラック領域上に、透過率減衰層2100を形成するようにしても良い。この場合、フレアを抑制できるという効果を得ることができる。
 図67乃至図70を参照して説明した透過率減衰層2100に対しても、図65、図66を参照して説明したように、形成する位置は、保護基板18上、保護基板18内、保護基板18下に形成することができる。
 透過率減衰層2100は、Al(アルミニウム)、Au(金)、Co(コバルト)、Ni(ニッケル)、Cu(銅)、W(タングステン)、Ti(チタン)などの金属、SiO(一酸化ケイ素)、SiN(シリコンナイトライド)、SiON(シリコン酸窒化膜)などの無機材料で形成することができる。また、有機材料が用いられても良い。また結晶や液晶などの偏光子が用いられても良い。
 透過率減衰層2100を有機材料で形成するようにした場合、カラーフィルタとしても透過率減衰層2100が機能するように構成しても良い。例えば、図62に示した透過率減衰層2100を、赤色(R)のカラーフィルタ、緑色(G)のカラーフィルタ、または青色(B)のカラーフィルタとすることができる。
 透過率減衰層2100は、このような金属、無機材料、有機材料、偏光子のいずれか、または組み合わせで構成される。
 また、図61のAに示したように、撮像装置1が、4個備えられているカメラモジュール2000の場合、それぞれの撮像装置1を、赤色のカラーフィルタが透過率減衰層2100として形成されている撮像装置1、緑色のカラーフィルタが透過率減衰層2100として形成されている撮像装置1、青色のカラーフィルタが透過率減衰層2100として形成されている撮像装置1としても良い。この場合、RGBのベイヤー配列を適用した場合、緑色のカラーフィルタが透過率減衰層2100として形成されている撮像装置1が2個、カメラモジュール2000に含まれるように構成することができる。
 また、RGBCの配列とした場合、4個の内の1個の撮像装置1には、透明(C)のカラーフィルタが透過率減衰層2100として形成されているか、または透過率減衰層2100が形成されていない構造とされる。
 図61のAに示したように、撮像装置1が、4個備えられているカメラモジュール2000のカラーフィルタの配列としては、上記したRGB、RGBC以外にも、例えば、RCCC(4個の撮像装置1の内、1個が赤色のカラーフィルタ、残り3個が透明のカラーフィルタ)、RCCB(4個の撮像装置1の内、1個が赤色のカラーフィルタ、2個が透明のカラーフィルタ、残り1個が青色のカラーフィルタ)、RGBIR(4個の撮像装置1の内、1個が赤色のカラーフィルタ、1個が緑色のカラーフィルタ、1個が青色のカラーフィルタ、1個が赤外線を透過するカラーフィルタ)等の配列に対して本技術を適用することも可能である。
 <19.透過率減衰層の形成>
 透過率減衰層2100は、図71に示すように形成することができる。すなわち、保護基板18上に透過率減衰層2100が形成された基板と、ガラスシール樹脂17まで積層された基板を張り合わすことで、透過率減衰層2100が形成された撮像装置1を製造することができる。
 図71では、透過率減衰層2100が、保護基板18上に形成されている場合を図示したが、図71に示した状態から、透過率減衰層2100が形成されている基板を反転し、反転後、透過率減衰層2100とガラスシール樹脂17を接合することで、ガラスシール樹脂17と保護基板18との間に透過率減衰層2100が形成された撮像装置1を製造することができる。
 また図72に示したように、保護基板18まで形成された撮像装置1上に、透過率減衰層2100を形成することで、透過率減衰層2100が形成された撮像装置1を製造することができる。
 図71、図72に示した透過率減衰層2100の形成は、ウェハレベルで行われても良いし、個片化された後に行われるようにしても良い。
 個片化した後に、透過率減衰層2100が形成されるようにした場合、図73に示すように、撮像装置1の側面にも、透過率減衰層2100が形成されるようにすることができる。個片化後は、各チップ(撮像装置1)は、シートに着いた状態でハンドリングされ、シートをエキスパンドしてから、透過率減衰層2100を保護基板18上に形成すると、側面にも透過率減衰層2100が形成される。
 例えば、透過率減衰層2100を防湿効果のある材料で形成した場合、撮像装置1を防湿効果のある材料で囲うことができ、撮像装置1内に水分が侵入するようなことを防ぐことが可能となる。
 上述した実施の形態においては、透過率減衰層2100は、入射された光の透過率を減衰させる層であるとして説明したが、透過率を向上させる層として形成しても良い。例えば、ガラス基板で形成されている保護基板18の表面を、モスアイ加工することで、ガラス界面の反射率を抑制し、透過率を向上させた構造とすることも可能である。
 <20.電子機器への適用例>
 本技術は、撮像装置への適用に限られるものではない。即ち、本開示は、デジタルスチルカメラやビデオカメラ等の撮像装置や、撮像機能を有する携帯端末装置や、画像読取部に撮像装置を用いる複写機など、画像取込部(光電変換部)に撮像装置を用いる電子機器全般に対して適用可能である。撮像装置は、ワンチップとして形成された形態であってもよいし、撮像部と信号処理部または光学系とがまとめてパッケージングされた撮像機能を有するモジュール状の形態であってもよい。
 図74は、本技術を適用した電子機器としての、撮像装置の構成例を示すブロック図である。
 図74の撮像装置3000は、レンズ群などからなる光学部3001、図1の撮像装置1の構成が採用される撮像装置(撮像デバイス)3002、およびカメラ信号処理回路であるDSP(Digital Signal Processor)回路3003を備える。また、撮像装置3000は、フレームメモリ3004、表示部3005、記録部3006、操作部3007、および電源部3008も備える。DSP回路3003、フレームメモリ3004、表示部3005、記録部3006、操作部3007および電源部3008は、バスライン3009を介して相互に接続されている。
 光学部3001は、被写体からの入射光(像光)を取り込んで撮像装置3002の撮像面上に結像する。撮像装置3002は、光学部3001によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。この撮像装置3002として、図1の撮像装置1、即ち、積層構造体13の動作を測定することを目的として、測定用の針を立てるための導電性パッドが外周部に設けられておらず、入出力回路部49が上側構造体11の画素アレイ部24の領域の下方、若しくは、上側構造体11の画素周辺回路領域313の下方の領域に配置されることにより小型化された撮像装置を用いることができる。
 表示部3005は、例えば、液晶パネルや有機EL(Electro Luminescence)パネル等のパネル型表示装置からなり、撮像装置3002で撮像された動画または静止画を表示する。記録部3006は、撮像装置3002で撮像された動画または静止画を、ハードディスクや半導体メモリ等の記録媒体に記録する。
 操作部3007は、ユーザによる操作の下に、撮像装置3000が持つ様々な機能について操作指令を発する。電源部3008は、DSP回路3003、フレームメモリ3004、表示部3005、記録部3006および操作部3007の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 上述したように、撮像装置3002として、上述した各実施の形態に係る撮像装置1を用いることで、半導体パッケージのパッケージサイズを小型化することができる。従って、ビデオカメラやデジタルスチルカメラ、さらには携帯電話機等のモバイル機器向けカメラモジュールなどの撮像装置3000においても、装置の小型化を図ることができる。
 <21.イメージセンサの使用例>
 図75は、上述の撮像装置1を使用する使用例を示す図である。
 撮像装置1としてのCMOSイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・デジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 撮像装置1は、電子を信号電荷とするもの、正孔を信号電荷とするものの両方に適用できる。
 また、本開示は、可視光の入射光量の分布を検知して画像として撮像する撮像装置への適用に限らず、赤外線やX線、あるいは粒子等の入射量の分布を画像として撮像する撮像装置や、広義の意味として、圧力や静電容量など、他の物理量の分布を検知して画像として撮像する指紋検出センサ等の撮像装置(物理量分布検知装置)全般に対して適用可能である。
 また、本開示は、撮像装置に限らず、他の半導体集積回路を有する半導体装置全般に対して適用可能である。
 <22.内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図76は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図76では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図77は、図76に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100や、カメラヘッド11102(の撮像部11402)、CCU11201(の画像処理部11412)等)に適用され得る。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 <23.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図78は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図78に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図78の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図79は、撮像部12031の設置位置の例を示す図である。
 図79では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図79には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031等に適用され得る。
 本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、上述した複数の実施の形態の全てまたは一部を組み合わせた形態を採用することができる。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
 なお、本開示は以下のような構成も取ることができる。
(1)
 光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、
 所定の信号を装置の外部から入力させる入力回路部、前記画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、前記第1構造体の下方に位置する第2構造体とが、
 積層されて構成され、
 前記出力回路部、前記出力回路部に接続され前記第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、前記第1貫通ビアを介して前記出力回路部を前記装置の外部と接続する信号出力用外部端子を含む出力部と、
 前記入力回路部、前記入力回路部に接続され前記半導体基板を貫通する第2貫通ビア、及び、前記第2貫通ビアを介して前記入力回路部を前記装置の外部と接続する信号入力用外部端子を含む入力部とが、
 前記第1構造体の前記画素アレイ部の下方に配置され、
 前記信号出力用外部端子と前記信号入力用外部端子とに接続される基板と、
 前記基板の前記信号出力用外部端子と前記信号入力用外部端子が接続されている面と対向する面に接続されている回路基板と
 を備える撮像装置。
(2)
 前記第1構造体の上方に位置するガラス基板と、
 レンズバレルとをさらに備え、
 前記ガラス基板上に前記レンズバレルが載置されている
 前記(1)に記載の撮像装置。
(3)
 レンズバレルをさらに備え、
 前記第1構造体上に前記レンズバレルが載置されている
 前記(1)に記載の撮像装置。
(4)
 前記基板は、垂直に交わる2以上の基板から構成されている
 前記(1)乃至(3)のいずれかに記載の撮像装置。
(5)
 レンズバレルをさらに備え、
 前記レンズバレルが配置されている前記基板の領域内であり、前記レンズバレルが配置されている面に対向する面の該当する領域内に前記回路基板が接続される
 前記(1)乃至(4)のいずれかに記載の撮像装置。
(6)
 レンズバレルをさらに備え、
 前記レンズバレルが配置されている前記基板の領域内であり、前記レンズバレルが配置されている面に対向する面の該当する領域内に前記回路基板とワイヤボンディングのためのワイヤがそれぞれ接続される
 前記(1)乃至(4)のいずれかに記載の撮像装置。
(7)
 光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、
 前記第1構造体の上方に位置するガラス基板と、
 前記第1構造体の上方に位置し、入射光の透過率を減衰させる透過率減衰層と、
 所定の信号を装置の外部から入力させる入力回路部、前記画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、前記第1構造体の下方に位置する第2構造体とが、
 積層されて構成され、
 前記出力回路部、前記出力回路部に接続され前記第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、前記第1貫通ビアを介して前記出力回路部を前記装置の外部と接続する信号出力用外部端子を含む出力部と、
 前記入力回路部、前記入力回路部に接続され前記半導体基板を貫通する第2貫通ビア、及び、前記第2貫通ビアを介して前記入力回路部を前記装置の外部と接続する信号入力用外部端子を含む入力部とが、
 前記第1構造体の前記画素アレイ部の下方に配置されている
 撮像装置。
(8)
 前記透過率減衰層は、前記ガラス基板上に形成されている
 前記(7)に記載の撮像装置。
(9)
 前記透過率減衰層は、前記ガラス基板内に形成されている
 前記(7)に記載の撮像装置。
(10)
 前記透過率減衰層は、前記ガラス基板と前記第1構造体との間に形成されている
 前記(7)に記載の撮像装置。
(11)
 前記透過率減衰層は、複数層で形成されている
 前記(7)乃至(10)のいずれかに記載の撮像装置。
(12)
 前記透過率減衰層は、前記ガラス基板上の半分の領域に形成されている
 前記(7)に記載の撮像装置。
(13)
 前記透過率減衰層は、前記ガラス基板上に異なる厚さで形成されている
 前記(7)に記載の撮像装置。
(14)
 前記透過率減衰層は、オプティカルブラック領域上に形成されている
 前記(7)に記載の撮像装置。
(15)
 前記透過率減衰層は、カラーフィルタとしての機能も有する
 前記(7)に記載の撮像装置。
(16)
 複数の前記撮像装置が備えられ、
 前記複数の撮像装置のうちの所定数の前記撮像装置に、前記透過率減衰層が形成されている
 前記(7)乃至(15)のいずれかに記載の撮像装置。
(17)
 前記透過率減衰層は、金属、無機材料、有機材料、偏光子のいずれか、または組み合わせで構成されている
 前記(7)乃至(16)のいずれかに記載の撮像装置。
(18)
 前記透過率減衰層は、前記ガラス基板の表面を、光を散乱する散乱面とすることで形成されている
 前記(7)に記載の撮像装置。
(19)
 光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、
 前記第1構造体の上方に位置し、光が入射する面がモスアイ加工されているガラス基板と、
 所定の信号を装置の外部から入力させる入力回路部、前記画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、前記第1構造体の下方に位置する第2構造体とが、
 積層されて構成され、
 前記出力回路部、前記出力回路部に接続され前記第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、前記第1貫通ビアを介して前記出力回路部を前記装置の外部と接続する信号出力用外部端子を含む出力部と、
 前記入力回路部、前記入力回路部に接続され前記半導体基板を貫通する第2貫通ビア、及び、前記第2貫通ビアを介して前記入力回路部を前記装置の外部と接続する信号入力用外部端子を含む入力部とが、
 前記第1構造体の前記画素アレイ部の下方に配置されている
 撮像装置。
(20)
 光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、
 所定の信号を装置の外部から入力させる入力回路部、前記画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、前記第1構造体の下方に位置する第2構造体とが、
 積層されて構成され、
 前記出力回路部、前記出力回路部に接続され前記第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、前記第1貫通ビアを介して前記出力回路部を前記装置の外部と接続する信号出力用外部端子を含む出力部と、
 前記入力回路部、前記入力回路部に接続され前記半導体基板を貫通する第2貫通ビア、及び、前記第2貫通ビアを介して前記入力回路部を前記装置の外部と接続する信号入力用外部端子を含む入力部とが、
 前記第1構造体の前記画素アレイ部の下方に配置され、
 前記信号出力用外部端子と前記信号入力用外部端子とに接続される基板と、
 前記基板の前記信号出力用外部端子と前記信号入力用外部端子が接続されている面と対向する面に接続されている回路基板と
 を備える電子機器。
 1 撮像装置, 11 第1構造体(上側構造体), 12 第2構造体(下側構造体), 13 積層構造体, 14 外部端子(信号入出力端子), 15 カラーフィルタ, 16 オンチップレンズ, 17 ガラスシール樹脂, 18 保護基板, 21 入出力部, 22 行駆動部, 24 画素アレイ部, 25 列信号処理部, 26 画像信号処理部, 31 画素, 41 入力端子, 42 入力回路部, 47 出力回路部, 48 出力端子, 49 入出力回路部, 51 フォトダイオード, 81 半導体基板, 88 貫通電極ビア, 90 再配線, 101 半導体基板, 105 チップ貫通電極, 106 接続用配線, 109 シリコン貫通電極, 311 入出力回路領域, 312 信号処理回路領域, 313 画素周辺回路領域, 314 上下基板接続領域, 321 I/O回路, 901 レンズモジュール, 904 レンズ, 921 基板, 931 回路基板, 941 ボンディングワイヤ, 2100 透過率減衰層

Claims (20)

  1.  光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、
     所定の信号を装置の外部から入力させる入力回路部、前記画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、前記第1構造体の下方に位置する第2構造体とが、
     積層されて構成され、
     前記出力回路部、前記出力回路部に接続され前記第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、前記第1貫通ビアを介して前記出力回路部を前記装置の外部と接続する信号出力用外部端子を含む出力部と、
     前記入力回路部、前記入力回路部に接続され前記半導体基板を貫通する第2貫通ビア、及び、前記第2貫通ビアを介して前記入力回路部を前記装置の外部と接続する信号入力用外部端子を含む入力部とが、
     前記第1構造体の前記画素アレイ部の下方に配置され、
     前記信号出力用外部端子と前記信号入力用外部端子とに接続される基板と、
     前記基板の前記信号出力用外部端子と前記信号入力用外部端子が接続されている面と対向する面に接続されている回路基板と
     を備える撮像装置。
  2.  前記第1構造体の上方に位置するガラス基板と、
     レンズバレルとをさらに備え、
     前記ガラス基板上に前記レンズバレルが載置されている
     請求項1に記載の撮像装置。
  3.  レンズバレルをさらに備え、
     前記第1構造体上に前記レンズバレルが載置されている
     請求項1に記載の撮像装置。
  4.  前記基板は、垂直に交わる2以上の基板から構成されている
     請求項1に記載の撮像装置。
  5.  レンズバレルをさらに備え、
     前記レンズバレルが配置されている前記基板の領域内であり、前記レンズバレルが配置されている面に対向する面の該当する領域内に前記回路基板が接続される
     請求項1に記載の撮像装置。
  6.  レンズバレルをさらに備え、
     前記レンズバレルが配置されている前記基板の領域内であり、前記レンズバレルが配置されている面に対向する面の該当する領域内に前記回路基板とワイヤボンディングのためのワイヤがそれぞれ接続される
     請求項1に記載の撮像装置。
  7.  光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、
     前記第1構造体の上方に位置するガラス基板と、
     前記第1構造体の上方に位置し、入射光の透過率を減衰させる透過率減衰層と、
     所定の信号を装置の外部から入力させる入力回路部、前記画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、前記第1構造体の下方に位置する第2構造体とが、
     積層されて構成され、
     前記出力回路部、前記出力回路部に接続され前記第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、前記第1貫通ビアを介して前記出力回路部を前記装置の外部と接続する信号出力用外部端子を含む出力部と、
     前記入力回路部、前記入力回路部に接続され前記半導体基板を貫通する第2貫通ビア、及び、前記第2貫通ビアを介して前記入力回路部を前記装置の外部と接続する信号入力用外部端子を含む入力部とが、
     前記第1構造体の前記画素アレイ部の下方に配置されている
     撮像装置。
  8.  前記透過率減衰層は、前記ガラス基板上に形成されている
     請求項7に記載の撮像装置。
  9.  前記透過率減衰層は、前記ガラス基板内に形成されている
     請求項7に記載の撮像装置。
  10.  前記透過率減衰層は、前記ガラス基板と前記第1構造体との間に形成されている
     請求項7に記載の撮像装置。
  11.  前記透過率減衰層は、複数層で形成されている
     請求項7に記載の撮像装置。
  12.  前記透過率減衰層は、前記ガラス基板上の半分の領域に形成されている
     請求項7に記載の撮像装置。
  13.  前記透過率減衰層は、前記ガラス基板上に異なる厚さで形成されている
     請求項7に記載の撮像装置。
  14.  前記透過率減衰層は、オプティカルブラック領域上に形成されている
     請求項7に記載の撮像装置。
  15.  前記透過率減衰層は、カラーフィルタとしての機能も有する
     請求項7に記載の撮像装置。
  16.  複数の前記撮像装置が備えられ、
     前記複数の撮像装置のうちの所定数の前記撮像装置に、前記透過率減衰層が形成されている
     請求項7に記載の撮像装置。
  17.  前記透過率減衰層は、金属、無機材料、有機材料、偏光子のいずれか、または組み合わせで構成されている
     請求項7に記載の撮像装置。
  18.  前記透過率減衰層は、前記ガラス基板の表面を、光を散乱する散乱面とすることで形成されている
     請求項7に記載の撮像装置。
  19.  光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、
     前記第1構造体の上方に位置し、光が入射する面がモスアイ加工されているガラス基板と、
     所定の信号を装置の外部から入力させる入力回路部、前記画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、前記第1構造体の下方に位置する第2構造体とが、
     積層されて構成され、
     前記出力回路部、前記出力回路部に接続され前記第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、前記第1貫通ビアを介して前記出力回路部を前記装置の外部と接続する信号出力用外部端子を含む出力部と、
     前記入力回路部、前記入力回路部に接続され前記半導体基板を貫通する第2貫通ビア、及び、前記第2貫通ビアを介して前記入力回路部を前記装置の外部と接続する信号入力用外部端子を含む入力部とが、
     前記第1構造体の前記画素アレイ部の下方に配置されている
     撮像装置。
  20.  光電変換を行う画素が2次元配列された画素アレイ部が形成された第1構造体と、
     所定の信号を装置の外部から入力させる入力回路部、前記画素から出力された画素信号を装置の外部へ出力するための出力回路部、及び、信号処理回路が形成され、前記第1構造体の下方に位置する第2構造体とが、
     積層されて構成され、
     前記出力回路部、前記出力回路部に接続され前記第2構造体の一部を構成する半導体基板を貫通する第1貫通ビア、及び、前記第1貫通ビアを介して前記出力回路部を前記装置の外部と接続する信号出力用外部端子を含む出力部と、
     前記入力回路部、前記入力回路部に接続され前記半導体基板を貫通する第2貫通ビア、及び、前記第2貫通ビアを介して前記入力回路部を前記装置の外部と接続する信号入力用外部端子を含む入力部とが、
     前記第1構造体の前記画素アレイ部の下方に配置され、
     前記信号出力用外部端子と前記信号入力用外部端子とに接続される基板と、
     前記基板の前記信号出力用外部端子と前記信号入力用外部端子が接続されている面と対向する面に接続されている回路基板と
     を備える電子機器。
PCT/JP2017/009669 2016-03-24 2017-03-10 撮像装置、電子機器 WO2017163926A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US16/085,415 US10777598B2 (en) 2016-03-24 2017-03-10 Image pickup device and electronic apparatus
DE112017001519.7T DE112017001519T5 (de) 2016-03-24 2017-03-10 Bildaufnahmevorrichtung und elektronische Einrichtung
JP2018507215A JPWO2017163926A1 (ja) 2016-03-24 2017-03-10 撮像装置、電子機器
CN201780017130.8A CN108780800B (zh) 2016-03-24 2017-03-10 图像拾取装置和电子设备
EP17769970.9A EP3435414B1 (en) 2016-03-24 2017-03-10 Image pickup device and electronic apparatus
US16/938,324 US11508773B2 (en) 2016-03-24 2020-07-24 Image pickup device and electronic apparatus
US17/976,438 US20230055685A1 (en) 2016-03-24 2022-10-28 Image pickup device and electronic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-059979 2016-03-24
JP2016059979 2016-03-24

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/085,415 A-371-Of-International US10777598B2 (en) 2016-03-24 2017-03-10 Image pickup device and electronic apparatus
US16/938,324 Continuation US11508773B2 (en) 2016-03-24 2020-07-24 Image pickup device and electronic apparatus

Publications (1)

Publication Number Publication Date
WO2017163926A1 true WO2017163926A1 (ja) 2017-09-28

Family

ID=59900190

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/009669 WO2017163926A1 (ja) 2016-03-24 2017-03-10 撮像装置、電子機器

Country Status (6)

Country Link
US (3) US10777598B2 (ja)
EP (1) EP3435414B1 (ja)
JP (1) JPWO2017163926A1 (ja)
CN (1) CN108780800B (ja)
DE (1) DE112017001519T5 (ja)
WO (1) WO2017163926A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108922899A (zh) * 2018-05-10 2018-11-30 友达光电股份有限公司 像素阵列基板及其驱动方法
KR20210136783A (ko) * 2020-05-08 2021-11-17 (주)에이피텍 카메라 패키징 장치
KR20210136784A (ko) * 2020-05-08 2021-11-17 (주)에이피텍 반도체 칩을 포함하는 카메라 패키징 장치
US20220041436A1 (en) * 2019-01-31 2022-02-10 Robert Bosch Gmbh Method for producing a plurality of sensor devices, and sensor device
WO2022054501A1 (ja) * 2020-09-10 2022-03-17 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及びその製造方法、並びに電子機器
WO2022186079A1 (ja) * 2021-03-05 2022-09-09 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、カバーガラスの製造方法及び電子機器
WO2022215442A1 (ja) * 2021-04-05 2022-10-13 パナソニックIpマネジメント株式会社 撮像装置及びその製造方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017122449A1 (ja) * 2016-01-15 2017-07-20 ソニー株式会社 半導体装置および撮像装置
JP2017183388A (ja) 2016-03-29 2017-10-05 ソニー株式会社 固体撮像装置
WO2019146144A1 (ja) * 2018-01-25 2019-08-01 オリンパス株式会社 光学ユニットおよび内視鏡
CN108470711B (zh) * 2018-02-12 2020-10-02 上海集成电路研发中心有限公司 图像传感器的深沟槽和硅通孔的制程方法
JP6897628B2 (ja) * 2018-04-26 2021-07-07 株式会社デンソー 半導体装置
US10700094B2 (en) 2018-08-08 2020-06-30 Xcelsis Corporation Device disaggregation for improved performance
TWI685125B (zh) * 2018-12-05 2020-02-11 海華科技股份有限公司 影像擷取模組及可攜式電子裝置
CN109817659B (zh) * 2019-02-15 2021-08-06 京东方科技集团股份有限公司 显示基板及其制作方法、显示装置
CN115236001A (zh) * 2022-07-26 2022-10-25 豪威半导体(上海)有限责任公司 图像传感器及其制作方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292354A (ja) * 2000-04-07 2001-10-19 Mitsubishi Electric Corp 撮像装置
JP2002171430A (ja) * 2000-11-30 2002-06-14 Canon Inc 複眼撮像系、撮像装置および電子機器
JP2003274420A (ja) * 2002-03-13 2003-09-26 Ricoh Co Ltd デジタルスチルカメラ
JP2007281929A (ja) * 2006-04-07 2007-10-25 Iwate Toshiba Electronics Co Ltd 固体撮像装置およびその製造方法
JP2008005488A (ja) * 2006-06-19 2008-01-10 Samsung Electro Mech Co Ltd カメラモジュール
JP2010273757A (ja) * 2009-05-27 2010-12-09 Zycube:Kk イメージセンサ応用装置
JP2012009732A (ja) * 2010-06-28 2012-01-12 Sony Corp 光電変換装置とそのパッケージ構造、並びに光電変換装置の製造方法
JP2012064883A (ja) * 2010-09-17 2012-03-29 Olympus Corp 撮像装置および撮像装置の製造方法
JP2013090127A (ja) * 2011-10-18 2013-05-13 Olympus Corp 固体撮像装置および撮像装置
JP2014030170A (ja) * 2012-07-04 2014-02-13 Makoto Shizukuishi 撮像素子、半導体集積回路及び撮像装置
JP2015068853A (ja) * 2013-09-26 2015-04-13 ソニー株式会社 積層体、撮像素子パッケージ、撮像装置および電子機器

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3713418B2 (ja) * 2000-05-30 2005-11-09 光正 小柳 3次元画像処理装置の製造方法
JP4799594B2 (ja) 2008-08-19 2011-10-26 株式会社東芝 固体撮像装置およびその製造方法
JP2011009645A (ja) 2009-06-29 2011-01-13 Toshiba Corp 半導体装置及びその製造方法
JP5489681B2 (ja) * 2009-12-02 2014-05-14 キヤノン株式会社 固体撮像装置
US8698887B2 (en) 2010-04-07 2014-04-15 Olympus Corporation Image pickup apparatus, endoscope and manufacturing method for image pickup apparatus
TWI577001B (zh) * 2011-10-04 2017-04-01 Sony Corp 固體攝像裝置、固體攝像裝置之製造方法及電子機器
JP2013090139A (ja) * 2011-10-18 2013-05-13 Sony Corp 撮像素子およびカメラシステム
US20130249031A1 (en) * 2012-03-22 2013-09-26 Vage Oganesian Quantum Efficiency Back Side Illuminated CMOS Image Sensor And Package, And Method Of Making Same
US8957358B2 (en) * 2012-04-27 2015-02-17 Taiwan Semiconductor Manufacturing Company, Ltd. CMOS image sensor chips with stacked scheme and methods for forming the same
JP2014072294A (ja) 2012-09-28 2014-04-21 Canon Inc 光電変換装置および半導体装置の製造方法
KR101908469B1 (ko) * 2013-02-19 2018-10-16 후지필름 가부시키가이샤 근적외선 흡수성 조성물, 근적외선 차단 필터와 그 제조 방법, 및 카메라 모듈과 그 제조 방법
JP5424371B1 (ja) * 2013-05-08 2014-02-26 誠 雫石 固体撮像素子及び撮像装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292354A (ja) * 2000-04-07 2001-10-19 Mitsubishi Electric Corp 撮像装置
JP2002171430A (ja) * 2000-11-30 2002-06-14 Canon Inc 複眼撮像系、撮像装置および電子機器
JP2003274420A (ja) * 2002-03-13 2003-09-26 Ricoh Co Ltd デジタルスチルカメラ
JP2007281929A (ja) * 2006-04-07 2007-10-25 Iwate Toshiba Electronics Co Ltd 固体撮像装置およびその製造方法
JP2008005488A (ja) * 2006-06-19 2008-01-10 Samsung Electro Mech Co Ltd カメラモジュール
JP2010273757A (ja) * 2009-05-27 2010-12-09 Zycube:Kk イメージセンサ応用装置
JP2012009732A (ja) * 2010-06-28 2012-01-12 Sony Corp 光電変換装置とそのパッケージ構造、並びに光電変換装置の製造方法
JP2012064883A (ja) * 2010-09-17 2012-03-29 Olympus Corp 撮像装置および撮像装置の製造方法
JP2013090127A (ja) * 2011-10-18 2013-05-13 Olympus Corp 固体撮像装置および撮像装置
JP2014030170A (ja) * 2012-07-04 2014-02-13 Makoto Shizukuishi 撮像素子、半導体集積回路及び撮像装置
JP2015068853A (ja) * 2013-09-26 2015-04-13 ソニー株式会社 積層体、撮像素子パッケージ、撮像装置および電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3435414A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108922899A (zh) * 2018-05-10 2018-11-30 友达光电股份有限公司 像素阵列基板及其驱动方法
US20220041436A1 (en) * 2019-01-31 2022-02-10 Robert Bosch Gmbh Method for producing a plurality of sensor devices, and sensor device
KR20210136783A (ko) * 2020-05-08 2021-11-17 (주)에이피텍 카메라 패키징 장치
KR20210136784A (ko) * 2020-05-08 2021-11-17 (주)에이피텍 반도체 칩을 포함하는 카메라 패키징 장치
KR102396489B1 (ko) * 2020-05-08 2022-05-10 (주)에이피텍 카메라 패키징 장치
KR102396490B1 (ko) 2020-05-08 2022-05-10 (주)에이피텍 반도체 칩을 포함하는 카메라 패키징 장치
WO2022054501A1 (ja) * 2020-09-10 2022-03-17 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及びその製造方法、並びに電子機器
WO2022186079A1 (ja) * 2021-03-05 2022-09-09 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、カバーガラスの製造方法及び電子機器
WO2022215442A1 (ja) * 2021-04-05 2022-10-13 パナソニックIpマネジメント株式会社 撮像装置及びその製造方法

Also Published As

Publication number Publication date
US11508773B2 (en) 2022-11-22
US20230055685A1 (en) 2023-02-23
CN108780800A (zh) 2018-11-09
DE112017001519T5 (de) 2018-12-06
JPWO2017163926A1 (ja) 2019-01-31
CN108780800B (zh) 2022-12-16
US10777598B2 (en) 2020-09-15
EP3435414A4 (en) 2019-05-22
EP3435414A1 (en) 2019-01-30
US20200357839A1 (en) 2020-11-12
US20190043910A1 (en) 2019-02-07
EP3435414B1 (en) 2020-12-16

Similar Documents

Publication Publication Date Title
US11508773B2 (en) Image pickup device and electronic apparatus
JP2023086799A (ja) 光検出素子
JP7267940B2 (ja) 固体撮像装置およびその製造方法、並びに電子機器
US11784197B2 (en) Solid-state imaging unit, method of producing the same, and electronic apparatus
WO2020170936A1 (ja) 撮像装置
US11830898B2 (en) Wafer level lens
JPWO2020100577A1 (ja) 固体撮像装置および電子機器
WO2019069669A1 (ja) 半導体装置、半導体装置の製造方法、及び、電子機器
EP4124010A1 (en) Sensor package, method for manufacturing same, and imaging device
US20240178079A1 (en) Semiconductor device
WO2021261234A1 (ja) 固体撮像装置およびその製造方法、並びに電子機器
WO2021192584A1 (ja) 撮像装置およびその製造方法
WO2019230243A1 (ja) 撮像装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018507215

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2017769970

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017769970

Country of ref document: EP

Effective date: 20181024

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17769970

Country of ref document: EP

Kind code of ref document: A1