WO2019220945A1 - 撮像素子、電子機器 - Google Patents

撮像素子、電子機器 Download PDF

Info

Publication number
WO2019220945A1
WO2019220945A1 PCT/JP2019/018212 JP2019018212W WO2019220945A1 WO 2019220945 A1 WO2019220945 A1 WO 2019220945A1 JP 2019018212 W JP2019018212 W JP 2019018212W WO 2019220945 A1 WO2019220945 A1 WO 2019220945A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
pixel
unit
substrate
contact
Prior art date
Application number
PCT/JP2019/018212
Other languages
English (en)
French (fr)
Inventor
哲弥 内田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN201980031807.2A priority Critical patent/CN112119501A/zh
Priority to KR1020247011994A priority patent/KR20240052878A/ko
Priority to US17/053,208 priority patent/US20210136310A1/en
Priority to KR1020207030347A priority patent/KR102664630B1/ko
Priority to EP19802743.5A priority patent/EP3796386B1/en
Priority to JP2020519568A priority patent/JPWO2019220945A1/ja
Priority to EP22197687.1A priority patent/EP4138137A1/en
Publication of WO2019220945A1 publication Critical patent/WO2019220945A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14641Electronic components shared by two or more pixel-elements, e.g. one amplifier shared by two pixel elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • H01L27/14614Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor having a special gate structure
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures

Definitions

  • the present technology relates to an image sensor and an electronic device, and for example, relates to an image sensor and an electronic device suitable for application when a predetermined transistor is shared by a plurality of pixels.
  • CMOS Complementary Metal Oxide Semiconductor
  • an image pickup apparatus includes an element such as a photodiode and a transistor for each pixel.
  • DTI Deep Trench Isolation
  • DTI By providing DTI, when a predetermined transistor is shared by a plurality of pixels, it is necessary to provide an FD (floating diffusion) region in each pixel and to electrically connect the plurality of FD regions by wiring. Since the wiring length is increased by connecting the FD regions with wiring, the FD capacity may be increased. When the FD capacity increases, the conversion efficiency decreases, the output signal decreases, and the S / N may deteriorate.
  • Patent Document 1 it is proposed to form a contact that is electrically connected to both of the FD regions of adjacent pixels, thereby electrically connecting the FD region and suppressing an increase in FD capacitance.
  • an FD region of adjacent pixels is connected to suppress an increase in contact resistance, and a contact is formed in a large size or an FD region is enlarged so that a contact misalignment may occur. It is necessary to form.
  • Patent Document 1 there is a limit to reducing the contact and the FD region. It is desired to reduce the FD capacity, increase the conversion efficiency, and increase the S / N.
  • the present technology has been made in view of such a situation, and is intended to increase S / N.
  • An imaging device is provided on the substrate, next to the substrate, the first pixel including the first photoelectric conversion region provided on the substrate, and the first photoelectric conversion region.
  • An electronic apparatus is provided on the substrate, adjacent to the substrate, the first pixel including the first photoelectric conversion region provided on the substrate, and the first photoelectric conversion region.
  • a second pixel including the formed second photoelectric conversion region, a trench provided in the substrate between the first photoelectric conversion region and the second photoelectric conversion region, and the first A first region included in the pixel, a second region included in the second pixel, and a third region in contact with the first region, the second region, and the trench. Includes an image sensor.
  • the substrate, the first pixel including the first photoelectric conversion region provided on the substrate, and the first photoelectric conversion region are provided on the substrate.
  • the electronic device includes the imaging element.
  • the S / N can be increased.
  • FIG. 1 shows the structural example of an imaging device. It is a figure which shows the structural example of an image pick-up element. It is a top view of a 1st embodiment of an image sensor to which this art is applied. It is a top view of a 1st embodiment of an image sensor to which this art is applied. It is a circuit diagram of an image sensor. It is sectional drawing of the image pick-up element of 1st Embodiment. It is sectional drawing of the image pick-up element of 1st Embodiment. It is a figure for demonstrating the structure of a connection part. It is a figure for demonstrating manufacture of an image pick-up element. It is a top view of the image sensor in a 2nd embodiment.
  • FIG. 1 It is a figure which shows an example of a schematic structure of an endoscopic surgery system. It is a block diagram which shows an example of a function structure of a camera head and CCU. It is a block diagram which shows an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • the present technology can be applied to an imaging apparatus, here, a case where the present technology is applied to an imaging apparatus will be described as an example.
  • the description will be continued by taking the imaging device as an example, but the present technology is not limited to the application to the imaging device, and the imaging function of an imaging device such as a digital still camera or a video camera, a mobile phone, etc.
  • the present invention is applicable to all electronic devices using an imaging device as an image capturing unit (photoelectric conversion unit), such as a portable terminal device and a copying machine using an imaging device as an image reading unit.
  • a module-like form mounted on an electronic device that is, a camera module is used as an imaging device.
  • FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus that is an example of the electronic apparatus of the present disclosure.
  • the imaging apparatus 10 includes an optical system including a lens group 11 and the like, an imaging element 12, a DSP circuit 13 that is a camera signal processing unit, a frame memory 14, a display unit 15, a recording unit 16, and an operation system 17. And a power supply system 18 and the like.
  • the DSP circuit 13, the frame memory 14, the display unit 15, the recording unit 16, the operation system 17, and the power supply system 18 are connected to each other via a bus line 19.
  • the CPU 20 controls each unit in the imaging device 10.
  • the lens group 11 takes in incident light (image light) from a subject and forms an image on the imaging surface of the imaging element 12.
  • the imaging element 12 converts the amount of incident light imaged on the imaging surface by the lens group 11 into an electrical signal in units of pixels and outputs it as a pixel signal.
  • this image sensor 12 an image sensor (image sensor) including pixels described below can be used.
  • the display unit 15 includes a panel type display unit such as a liquid crystal display unit or an organic EL (electroluminescence) display unit, and displays a moving image or a still image captured by the image sensor 12.
  • the recording unit 16 records a moving image or a still image captured by the image sensor 12 on a recording medium such as an HDD (Hard Disk Drive) or a memory card.
  • the operation system 17 issues operation commands for various functions of the imaging apparatus under operation by the user.
  • the power source system 18 appropriately supplies various power sources serving as operation power sources for the DSP circuit 13, the frame memory 14, the display unit 15, the recording unit 16, and the operation system 17 to these supply targets.
  • FIG. 2 is a block diagram illustrating a configuration example of the image sensor 12.
  • the imaging element 12 can be a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the imaging device 12 includes a pixel array unit 41, a vertical drive unit 42, a column processing unit 43, a horizontal drive unit 44, and a system control unit 45.
  • the pixel array unit 41, the vertical drive unit 42, the column processing unit 43, the horizontal drive unit 44, and the system control unit 45 are formed on a semiconductor substrate (chip) (not shown).
  • unit pixels for example, the pixels 50 in FIG. 3 having a photoelectric conversion element that generates and accumulates photoelectric charges having a charge amount corresponding to the amount of incident light are two-dimensionally arranged in a matrix.
  • a photocharge having a charge amount corresponding to the amount of incident light may be simply referred to as “charge”
  • a unit pixel may be simply referred to as “pixel”.
  • pixel drive lines 46 are formed for each row with respect to the matrix-like pixel arrangement along the horizontal direction in the drawing (pixel arrangement direction of the pixel row), and the vertical signal line 47 is provided for each column. Are formed along the vertical direction of the figure (pixel arrangement direction of the pixel column). One end of the pixel drive line 46 is connected to an output end corresponding to each row of the vertical drive unit 42.
  • the image sensor 12 further includes a signal processing unit 48 and a data storage unit 49.
  • the signal processing unit 48 and the data storage unit 49 may be processed by an external signal processing unit provided on a separate substrate from the image sensor 12, for example, DSP (Digital Signal Processor) or software, or on the same substrate as the image sensor 12. May be installed.
  • DSP Digital Signal Processor
  • the vertical drive unit 42 is configured by a shift register, an address decoder, or the like, and is a pixel drive unit that drives each pixel of the pixel array unit 41 at the same time or in units of rows.
  • the vertical drive unit 42 is configured to have a readout scanning system and a sweep-out scanning system, or batch sweep and batch transfer, although the specific configuration is not shown.
  • the readout scanning system selectively scans the unit pixels of the pixel array unit 41 in units of rows in order to read out signals from the unit pixels.
  • sweeping-out scanning is performed prior to the readout scanning by the time of the shutter speed with respect to the readout row in which readout scanning is performed by the readout scanning system.
  • global exposure global shutter operation
  • collective sweeping is performed prior to the collective transfer by a time corresponding to the shutter speed.
  • a so-called electronic shutter operation is performed by sweeping out (resetting) unnecessary charges.
  • the electronic shutter operation refers to an operation in which the photoelectric charge of the photoelectric conversion element is discarded and a new exposure is started (photocharge accumulation is started).
  • the signal read out by the readout operation by the readout scanning system corresponds to the amount of light incident after the immediately preceding readout operation or electronic shutter operation.
  • the period from the read timing by the previous read operation or the sweep timing by the electronic shutter operation to the read timing by the current read operation is the photocharge accumulation period (exposure period) in the unit pixel.
  • the period from batch sweep to batch transfer is the accumulation period (exposure period).
  • the pixel signal output from each unit pixel in the pixel row selectively scanned by the vertical drive unit 42 is supplied to the column processing unit 43 through each of the vertical signal lines 47.
  • the column processing unit 43 performs predetermined signal processing on the pixel signal output from each unit pixel in the selected row through the vertical signal line 47 for each pixel column of the pixel array unit 41, and the pixel signal after the signal processing. Hold temporarily.
  • the column processing unit 43 performs at least noise removal processing, for example, CDS (Correlated Double Sampling) processing as signal processing.
  • CDS Correlated Double Sampling
  • This correlated double sampling by the column processing unit 43 removes fixed pattern noise unique to the pixel such as reset noise and threshold variation of the amplification transistor.
  • the column processing unit 43 may have, for example, an AD (analog-digital) conversion function and output a signal level as a digital signal.
  • the horizontal drive unit 44 is configured by a shift register, an address decoder, and the like, and sequentially selects unit circuits corresponding to the pixel columns of the column processing unit 43. By the selective scanning by the horizontal driving unit 44, the pixel signals subjected to signal processing by the column processing unit 43 are sequentially output to the signal processing unit 48.
  • the system control unit 45 includes a timing generator that generates various timing signals, and the vertical driving unit 42, the column processing unit 43, the horizontal driving unit 44, and the like based on the various timing signals generated by the timing generator. Drive control is performed.
  • the signal processing unit 48 has at least an addition processing function, and performs various signal processing such as addition processing on the pixel signal output from the column processing unit 43.
  • the data storage unit 49 temporarily stores data necessary for the signal processing in the signal processing unit 48.
  • FIG. 3 is a diagram illustrating an arrangement example of the unit pixels 50 arranged in a matrix in the pixel array unit 41. The description will be continued assuming that the pixel 50 in the first embodiment is the pixel 50a.
  • FIG. 3 illustrates 16 ⁇ 4 ⁇ 4 pixels 50 a arranged in the pixel array unit 41.
  • the two pixels share the reset transistor, the amplification transistor, and the selection transistor, and share the FD (floating diffusion).
  • two pixels 50a arranged in the vertical direction are shared pixels.
  • the pixels 50a-1 and 50a-2 arranged in the vertical direction are shared pixels.
  • the pixels 50a-3 and 50a-4, the pixels 50a-5 and 50a-6, the pixels 50a-7 and 50a-8, the pixels 50a-9 and 50a-10, and the pixels arranged in the vertical direction The pixel 50a-11 and the pixel 50a-12, the pixel 50a-13 and the pixel 50a-14, and the pixel 50a-15 and the pixel 50a-16 are shared pixels.
  • FIG. 4 is a plan view of two shared pixels
  • FIG. 5 is a circuit diagram when two pixels are shared.
  • the pixel 50 described below will be described by taking the case of the backside illumination type as an example, but the present technology can also be applied to the frontside illumination type. Moreover, the following description is an example and can be suitably changed according to a product. For example, the following description will be continued by taking as an example the case where one shared transistor is shared by two shared pixels. However, a large format type or the like including two selection transistors is used as appropriate.
  • the present technology can be applied to the configuration after the change.
  • FIG. 4 illustrates the pixels 50a-1 and 50a-2 arranged in the vertical direction, and the description will be continued.
  • one square represents one pixel 50a.
  • the pixel 50 a includes a photodiode (PD) 71, and a through DTI (Deep Trench Isolation) 82 is disposed so as to surround the PD 71.
  • the through DTI 82 is formed in a shape penetrating the Si substrate 70 (FIG. 6) in the depth direction between adjacent pixels 50a.
  • a transfer transistor 90-1 On the surface side of the pixel 50a-1, a transfer transistor 90-1, an FD (floating diffusion) 91-1, a reset transistor 92, an amplification transistor 93-1, a conversion efficiency switching transistor 95, and a GND (ground) contact 96-1 are provided. Is formed. On the surface side of the pixel 50a-2, a transfer transistor 90-2, an FD 91-2, a selection transistor 94, and a GND contact 96-2 are formed.
  • the reset transistor 92, the amplification transistor 93, the selection transistor 94, and the conversion efficiency switching transistor 95 are configured to be shared by the pixel 50a-1 and the pixel 50b-1.
  • the amplification transistor 93 includes an amplification transistor 93-1 disposed in the pixel 50a-1 and an amplification transistor 93-2 disposed in the pixel 50a-2.
  • the number of transistors to be arranged in one pixel can be reduced, so that a region where one transistor is arranged can be enlarged.
  • effects such as noise reduction can be obtained.
  • the amplification transistor 93 includes an amplification transistor 93-1 disposed in the pixel 50a-1 and an amplification transistor 93-2 disposed in the pixel 50a-2. By doing so, a larger region can be allocated to the amplification transistor 93, and noise can be reduced.
  • the FD 91-1 of the pixel 50a-1 and the FD 91-2 of the pixel 50a-2 are connected by a connection part 97 formed in a part of the through DTI 82, and are configured to function as one FD 91.
  • the FD wiring 98 is connected to the amplification transistor 93-1, the amplification transistor 93-2, and the conversion efficiency switching transistor 95. A part of the FD wiring 98 is formed on the through DTI 82.
  • the PD 71 generates and accumulates charges (signal charges) corresponding to the received light quantity.
  • the PD 71 has an anode terminal grounded and a cathode terminal connected to the FD 91 via the transfer transistor 90.
  • the transfer transistor 90 When the transfer transistor 90 is turned on by the transfer signal TR, the transfer transistor 90 reads the charge generated by the PD 71 and transfers it to the FD 91.
  • FD91 holds the electric charge read from PD71.
  • the reset transistor 92 is turned on by the reset signal RST, the charge accumulated in the FD 91 is discharged to the drain (constant voltage source Vdd), thereby resetting the potential of the FD 91.
  • the conversion efficiency switching transistor 95 is turned on, the FD 91 is electrically coupled, the floating diffusion region of the FD 91 is expanded, the capacity of the FD 91 is increased, and the conversion efficiency is lowered.
  • the amplification transistor 93 outputs a pixel signal corresponding to the potential of the FD 91. That is, the amplifying transistor 93 constitutes a load MOS (not shown) as a constant current source connected via the vertical signal line 47 and a source follower circuit, and shows a level corresponding to the charge accumulated in the FD 91.
  • a pixel signal is output from the amplification transistor 93 to the column processing unit 43 (FIG. 2) via the selection transistor 94 and the vertical signal line 47.
  • the selection transistor 94 is turned on when the pixel 31 is selected by the selection signal SEL, and outputs the pixel signal of the pixel 31 to the column processing unit 43 via the vertical signal line 47.
  • Each signal line to which the transfer signal TR, the selection signal SEL, and the reset signal RST are transmitted corresponds to the pixel drive line 46 in FIG.
  • the pixel 50a can be configured as described above, but is not limited to this configuration, and other configurations may be employed.
  • FIG. 6 is a vertical sectional view of the pixel 50a and corresponds to the position of the line segment AA ′ in FIG.
  • the pixel 50 a includes a PD 71 that is a photoelectric conversion element of each pixel formed inside the Si substrate 70.
  • a P-type region 72 is formed on the light incident side of PD 71 (the lower side and the back side in the figure), and a planarizing film 73 is formed below the P-type region 72. .
  • the boundary between the P-type region 72 and the planarizing film 73 is a back Si interface 75.
  • a light shielding film 74 is formed on the planarizing film 73.
  • the light shielding film 74 is provided to prevent light from leaking into adjacent pixels, and is formed between adjacent PDs 71.
  • the light shielding film 74 is made of a metal material such as W (tungsten).
  • OCL on-chip lens
  • OCL can be formed of an inorganic material, for example, SiN, SiO, SiOxNy (where 0 ⁇ x ⁇ 1, 0 ⁇ y ⁇ 1) can be used.
  • a cover glass or a transparent plate such as resin may be bonded to the OCL.
  • a color filter layer may be formed between the OCL and the planarizing film 73.
  • the color filter layer can be configured such that a plurality of color filters are provided for each pixel, and the colors of the color filters are arranged in accordance with, for example, a Bayer array.
  • An active region (Pwell) 77 is formed on the opposite side of the light incident side of the PD 71 (upper side in the drawing and the front side). In the active region 77, there is also a region where an element isolation region (hereinafter referred to as STI (Shallow Trench Isolation) 78) for separating pixel transistors and the like is formed.
  • STI Shallow Trench Isolation
  • a wiring layer (not shown) is formed on the surface side (upper side of the drawing) of the Si substrate 70 and on the active region 77, and a plurality of transistors are formed in this wiring layer.
  • a trench is formed between the pixels 50a.
  • This trench is described as a penetration DTI (Deep Trench Isolation).
  • the through DTI 82 is formed in a shape that penetrates the Si substrate 70 in the depth direction (the vertical direction in the figure, the direction from the front surface to the back surface) between the adjacent pixels 50a.
  • the through DTI 82 also functions as a light shielding wall between the pixels so that unnecessary light does not leak into the adjacent pixels 50a.
  • a P-type solid phase diffusion layer 83 and an N-type solid phase diffusion layer 84 are formed in this order from the penetrating DTI 82 side to the PD 71.
  • the P-type solid phase diffusion layer 83 is formed until it contacts the back surface Si interface 75 of the Si substrate 70 along the through DTI 82.
  • the N-type solid phase diffusion layer 84 is formed until it contacts the P-type region 72 of the Si substrate 70 along the through DTI 82.
  • the solid phase diffusion layer refers to a layer formed by the manufacturing method described later for the formation of the P-type layer and the N-type layer by impurity doping, but the present technology is not limited to the manufacturing method by solid phase diffusion, and ion implantation or the like.
  • a P-type layer and an N-type layer generated by another manufacturing method may be provided between the penetrating DTI 82 and the PD 71, respectively.
  • the PD 71 in the embodiment is composed of an N-type region. Photoelectric conversion is performed in some or all of these N-type regions.
  • the N type means that the Si substrate 70 is doped with an impurity that behaves as an N type.
  • the Si substrate 70 is silicon (Si)
  • a region where silicon is doped with an N-type impurity is an N-type region.
  • P-type means that the Si substrate 70 is doped with an impurity that behaves as P-type.
  • the P-type solid phase diffusion layer 83 is formed until it contacts the back surface Si interface 75, but the N-type solid phase diffusion layer 84 does not contact the back surface Si interface 75, and the N-type solid phase diffusion layer 84 and the back surface Si interface. A space is provided between 75.
  • the PN junction region of the P-type solid phase diffusion layer 83 and the N-type solid phase diffusion layer 84 forms a strong electric field region, and holds the charge generated in the PD 71.
  • the P-type solid phase diffusion layer 83 and the N-type solid phase diffusion layer 84 formed along the penetrating DTI 82 form a strong electric field region and can retain the charge generated in the PD 71. it can.
  • the N-type solid phase diffusion layer 84 is formed along the penetrating DTI 82 until it contacts the back surface Si interface 75 of the Si substrate 70, the back surface Si interface 75 of the Si substrate 70 on the light incident surface side and the N
  • the charge generated at the portion in contact with the mold solid phase diffusion layer 84 flows into the PD 71 and the dark characteristics are deteriorated. For example, a white spot may be generated or a dark current may be generated.
  • the N-type solid phase diffusion layer 84 is not in contact with the back surface Si interface 75 of the Si substrate 70, and the P-type region 72 of the Si substrate 70 along the through DTI 82. It is supposed to be in contact with With such a configuration, it is possible to prevent the charge from flowing into the PD 71 and the dark characteristics from deteriorating.
  • a sidewall film 85 made of SiO 2 is formed on the inner wall of the through DTI 82, and a filler 86 made of polysilicon is embedded on the inside thereof.
  • the sidewall film 85 is formed so as to surround at least the side surface and the upper surface of the filler 86.
  • the pixel 50a in the first embodiment is configured such that the P-type region 72 is provided on the back side, and the PD 71 and the N-type solid phase diffusion layer 84 do not exist in the vicinity of the back Si interface 75. Thereby, it is possible to prevent the charge generated in the vicinity of the back Si interface 75 from flowing into the PD 71 and deteriorating the dark characteristics.
  • SiN may be employed instead of SiO2 employed for the sidewall film 85.
  • doped polysilicon may be used instead of the polysilicon employed for the filler 86.
  • FIG. 7 is a vertical sectional view of the pixel 50a, and corresponds to the position of the line segment B-B ′ in FIG. Since the basic configuration is the same as the configuration shown in FIG. 6, the description of the same parts is omitted.
  • a wiring layer (not shown) is formed on the active region 77 on the surface side (upper side of the drawing) of the Si substrate 70, and a plurality of transistors are formed in the wiring layer.
  • FIG. 7 shows an example in which the transfer transistor 90 is formed.
  • the transfer transistor (gate) 90 is formed of a vertical transistor. That is, in the transfer transistor (gate) 90, a vertical transistor trench is opened, and a transfer gate (TG) 90 for reading charges from the PD 71 is formed therein.
  • a contact connected to the wiring in the wiring layer is formed, which is not illustrated in FIG. In other cross-sectional views, the contact is not illustrated and will be described.
  • a SiO 2 film 99 is formed at a portion where the transfer transistor 90 (transfer gate 90) and the active region 77 are in contact with each other.
  • An FD 91 is formed in a region adjacent to the transfer transistor 90.
  • the FD 91-1 is formed on the right side of the transfer transistor 90-1 of the pixel 50a-1 illustrated on the left side.
  • an FD 91-2 is formed on the left side of the transfer transistor 90-2 of the pixel 50a-2 shown on the right side.
  • connection part 97 is formed between the FD 91-1 and the FD 91-2.
  • the connecting portion 97 is formed on the through DTI 82 (in the through DTI 82). As described with reference to FIGS. 4 and 6, the through DTI 82 is formed between the pixel 50 a-1 and the pixel 50 a-2.
  • the connection portion 97 is formed in a portion where the sidewall film 85 on the upper portion of the through DTI 82 is partially removed and removed.
  • connection part 97 When the connection part 97 is formed in a rectangular parallelepiped, the bottom surface and two of the four side surfaces are in contact with the sidewall film 85 (SiO 2 film). In addition, two of the four side surfaces of the connecting portion 97 are in contact with the FD 91. The upper surface of the connection portion 97 is in contact with the contact of the FD wiring 98.
  • the connecting portion 97 is made of, for example, polysilicon. Further, the connection portion 97 is the same semiconductor region as the FD 91. For example, when the FD 91 is an N-type semiconductor region, the connection portion 97 is also formed of the N-type semiconductor region. Alternatively, when the FD 91 is a P-type semiconductor region, the connection portion 97 is also formed of the P-type semiconductor region.
  • the FD 91 and the connection portion 97 will be described with an example in which the FD 91 and the connection portion 97 are formed of an N-type semiconductor region.
  • the FD 91-1, the connection part 97, and the FD 91-2 are formed to be a continuous N + diffusion layer.
  • the FD 91-1 and the connection portion 97 are in a conductive state
  • the FD 91-2 and the connection portion 97 are in a conductive state.
  • the FD 91-1 and the FD 91-2 are in a conductive state. It is comprised so that.
  • the FD 91-1, the connection unit 97, and the FD 91-2 exist as one N + diffusion layer and can be handled as one FD 91.
  • Such an FD 91 is shared by the pixels 50a-1 and 50a-2.
  • FD wiring 98 (contact which is a part of FD wiring 98) is connected to the connecting portion 97. As described with reference to FIG. 4, the FD wiring 98 is connected to the gate of the amplification transistor 93. The charges read from the PD 71 by the transfer transistor 90 flow to the wiring layer (not shown) via the FD 91 and the FD wiring 98, and the gate potential of the amplification transistor 93 is changed.
  • FIG. 8A is an enlarged view centering on the connecting portion 97 shown in FIG.
  • the connection portion 97 is between the FD 91-1 and the FD 91-2 and is formed on the sidewall film 85.
  • the upper surface of the connection portion 97 (the upper surface in the figure, the surface opposite to the light incident surface side), the upper surface of the FD 91-1 and the upper surface of the FD 91-2 are formed so as to be the same surface. ing.
  • the description is continued assuming that the upper surface of FD 91-1 and the upper surface of FD 91-2 are formed to be the same surface, but they may be formed at different heights. Further, the scope of application of the present technology also applies to cases where the heights are not intended at the time of manufacture.
  • connection part 97 The length from the upper surface to the lower surface of the connection part 97 is defined as a depth a, and the length from the upper surface to the lower surface of the FD 91 is defined as a depth b.
  • the connection part 97 is formed so that the depth a of the connection part 97 is shorter (shallow) than the depth b of the FD 91.
  • the connection part 97 is formed so that the depth a of the connection part 97 is within a range of 50 to 80%, for example.
  • connection portion 97 When the depth a of the connection portion 97 is formed to be shallower than 50% of the depth b of the FD 91, there is a possibility that the contact of the FD wiring 98 penetrates the connection portion 97. Further, the portion where the contact of the FD wiring 98 and the connection portion 97 are in contact with each other is shortened, and there is a high possibility that the charge cannot be read out from the FD 91 satisfactorily. Therefore, here, as an example, it is assumed that the depth a of the connection portion 97 is 50% or more of the depth b of the FD 91.
  • the depth a of the connection portion 97 may be formed to be shallower than 50% of the depth b of the FD 91 as long as the contact of the connection portion 97 and the FD wiring 98 can be formed so as not to cause such a concern.
  • connection portion 97 when the depth a of the connection portion 97 is formed to be deeper than 80% of the depth b of the FD 91, there is a high possibility that charges will leak from the connection portion 97 to the active region 77.
  • the depth a of the connection portion 97 is formed deeper than the depth b of the FD 91 (formed at a depth of 100% or more), there is a portion where the connection portion 97 and the active region 77 are in contact with each other. There is a high possibility of leaks.
  • the depth a of the connecting portion 97 is 80% or less of the depth b of the FD 91.
  • the depth a of the connection portion 97 may be formed deeper than 80% of the depth b of the FD 91 as long as the contact of the connection portion 97 and the FD wiring 98 can be formed so as not to cause such a concern.
  • the connecting portion 97 can be formed so that the bottom surface has a linear shape as shown in FIG. 8A, but is formed so that the bottom surface has an arc shape as shown in FIG. 8B. You can also.
  • the bottom of the connection part 97 shown in FIG. 8B has an arc shape, and the outer side of the arc is surrounded by the side wall film 85 so as not to contact the active region 77.
  • the depth c of the connection portion 97 can be defined as the length from the top surface of the connection portion 97 to the deepest position of the bottom surface. .
  • the connection part 97 is formed so that the depth c of the connection part 97 falls within a range of, for example, 50 to 100%.
  • the reason why the depth a of the connecting portion 97 is formed to be 50% or more of the depth b of the FD 91 is to maintain a reliable connection with the contact of the FD wiring 98 as described above. Even if the depth c of the connection portion 97 is formed to be about 100% of the depth b of the FD 91, the tip end portion of the connection portion 97 may be in contact with the active region 77 as shown in FIG. Therefore, it is possible to prevent the charge from leaking from the connection portion 97 to the active region 77.
  • connection portion 97 when the bottom surface of the connection portion 97 is formed in an arc shape, the connection portion 97 can be formed deeply.
  • the side surface of the connecting portion 97 is in the N + region.
  • two of the four side surfaces of the connection portion 97 are in contact with the sidewall film 85.
  • the bottom surface of the connecting portion 97 is in contact with the sidewall film 85.
  • connection part 97 is surrounded by being in contact with the FD 91 and the sidewall film 85 (for example, SiO 2), the increase in the leakage of the FD 81 due to the interface state does not occur regardless of the depletion layer.
  • the contact of the FD wiring 98 can be connected to the connecting portion 97.
  • the pixel 50d described with reference to FIG. 13 has a configuration in which the contact of the FD wiring 98 is connected to the FD 91. Therefore, the region of the FD 91 is set so that the contact and the transfer transistor 90 do not contact each other. It is necessary to form a large size so that the contact and the transfer transistor 90 are separated from each other.
  • the contact and the transfer transistor 90 are formed at a position separated by at least the FD 91 by connecting the contact of the FD wiring 98 to the connection portion 97. it can.
  • the area of the FD 91 can be reduced as compared with the case where the contact of the FD wiring 98 is connected to the FD 91. Even if the connection part 97 is formed and the FD 91-1, the connection part 97, and the FD 91-2 are connected, as a result, the FD region can be reduced and the conversion efficiency can be increased.
  • step S ⁇ b> 11 the through DTI 82 is opened in the Si substrate 70. Except for the position where the through DTI 82 is formed on the Si substrate 70, the hard mask composed of the SiN film 111 and the SiO2 film 112 is covered. Then, by performing dry etching, a groove opened in the vertical direction to a predetermined depth is formed in the portion of the Si substrate 70 not covered with the hard mask.
  • the SiO 2 film containing B (boron) formed on the inner wall of the groove is removed.
  • the Si substrate 70 on which the trench to be the through DTI 82, the P-type solid phase diffusion layer 83, and the N-type solid phase diffusion layer 84 are formed is prepared.
  • step S12 a sidewall film 85 made of SiO2 is formed on the inner wall of the opened groove, and filled with polysilicon to form a through DTI 82.
  • step S13 the sidewall film 85 where the connection portion 97 is to be formed, in this case, SiO 2 is etched by lithography and etching.
  • step S14 polysilicon 97 'is deposited on the entire surface.
  • step S15 the polysilicon 97 'is etched back so that the upper portion of the trench is filled with polysilicon.
  • step S16 the SiN (silicon nitride film) 111 and the SiO2 film 112 are removed, and a trench serving as a gate of the transfer transistor 90 including a vertical trench is formed. After the trench formation, the SiO2 film 99 is formed again. After the film formation, the transfer transistor 90 is formed.
  • impurities are implanted into the portion to be the FD 91 through the gate, thereby forming an N + diffusion layer.
  • the impurity is also implanted into the polysilicon above the trench, so that the polysilicon is also doped N-type. In this way, the FD 91 and the connection part 97 are formed.
  • connection portion 97 is formed, a contact of the FD wiring 98 is formed at the connection portion 97 on the N + polysilicon in this case.
  • the pixel 50a having the connection portion 97 is manufactured.
  • the pixel 50a according to the first embodiment can electrically connect the FD 91 of the adjacent pixel 50a by connecting the FD 91 of the adjacent pixel 50a by the connection unit 97. Therefore, the contact portion of the contact between the FD 91 and the FD wiring 98 may be provided at one place, and it is not necessary to provide each pixel 50a. Therefore, the region of the FD 91 (FD diffusion layer) can be reduced. As a result, FD capacity can be suppressed, conversion efficiency can be increased, and S / N can be improved.
  • FIG. 10 is a diagram illustrating a configuration example of the pixel 50b according to the second embodiment.
  • the basic configuration of the pixel 50b shown in FIG. 10 is the same as that of the pixel 50a shown in FIG.
  • the FD 91b of the pixel 50b shown in FIG. 10 is different in that the size of the FD 91b of the pixel 50b shown in FIG. 10 is smaller than the FD 91 of the pixel 50a shown in FIG. 4 (hereinafter, the FD 91 of the pixel 50a is described as FD 91a).
  • the width of the FD 91a (the length in the horizontal direction in the drawing) of the pixel 50a is longer than that of the connection portion 97.
  • the portion where the FD 91b and the connection portion 97 are in contact with each other may be formed in the same size.
  • the FD 91b of the adjacent pixel 50b is electrically connected to the FD 91b of the adjacent pixel 50b by connecting the FD 91b of the adjacent pixel 50b.
  • a conductive state can be obtained.
  • a contact portion of the contact of the FD wiring 98 can be provided in the connection portion 97.
  • the area of the FD 91 (FD diffusion layer) can be reduced, and as a result, the FD capacity can be suppressed, the conversion efficiency can be increased, and the S / N can be improved. .
  • FIG. 11 is a diagram illustrating a configuration example of the pixel 50c according to the third embodiment.
  • the basic configuration of the pixel 50c shown in FIG. 11 is the same as that of the pixel 50a shown in FIG.
  • the gate of the transfer transistor 90 of the pixel 50c shown in FIG. 11 is formed on the active region 77, and the gate of the transfer transistor 90 of the pixel 50a shown in FIG. 4 is formed on the STI 78.
  • the active region 77c-1 is located around the transfer transistor 90-1, and the STI 78 is located outside the active region 77c-1.
  • an active region 77c-2 is located around the transfer transistor 90-2, and an STI 78 is located outside the active region 77c-2.
  • FIG. 12A and 12B are a plan view and a cross-sectional view of the vicinity of the transfer transistor 90 (hereinafter referred to as transfer transistor 90a) of the pixel 50a in the first embodiment for comparison.
  • FIG. 12A is a plan view of the vicinity of the transfer transistor 90a of the pixel 50a
  • FIG. 12B is a cross-sectional view of the vicinity of the transfer transistor 90a corresponding to the position of the line segment cc ′ in A of FIG. is there.
  • the transfer transistor 90a is formed so that both ends of the transfer transistor 90a are located on the STI 78a.
  • FIG. 12C is a plan view of the vicinity of the transfer transistor 90c of the pixel 50c
  • FIG. 12D is a cross-sectional view of the vicinity of the transfer transistor 90c corresponding to the position of the line segment dd ′ in C of FIG. is there.
  • the portion other than the portion of the transfer transistor 90c that is in contact with the FD 91 is in contact with the active region 77c.
  • the transfer transistor 90c is formed so as to be positioned on the active region 77c, and is formed in a state not in contact with the STI 78c.
  • the transfer transistor 90 c can be configured to be formed on the STI 78, or can be configured to be formed on the active region 77.
  • the FD 91b of the pixel 50c shown in FIG. 11 applies the FD 91b of the second embodiment, and the part where the FD 91b and the connection part 97 are in contact with each other is about the same size as the connection part 97. The case where it is formed is shown.
  • the FD 91a of the first embodiment may be applied to the third embodiment, and the portion where the FD 91a and the connection portion 97 are in contact may be formed larger than the connection portion 97. That is, the third embodiment can be configured in combination with the first embodiment or the second embodiment.
  • the FD 91 of the adjacent pixel 50c is electrically connected by connecting the FD 91 of the adjacent pixel 50c with the connection unit 97.
  • a conductive state can be obtained, and a contact portion of the contact of the FD wiring 98 can be provided in the connection portion 97.
  • the area of the FD 91 (FD diffusion layer) can be reduced, and as a result, the FD capacity can be suppressed, the conversion efficiency can be increased, and the S / N can be improved. .
  • FIG. 13 is a diagram illustrating a configuration example of the pixel 50d according to the fourth embodiment.
  • the basic configuration of the pixel 50d shown in FIG. 13 is the same as that of the pixel 50a shown in FIG.
  • FIG. 13 is different in that the FD wiring 98d of the pixel 50d shown in FIG. 13 is connected to the FD 91d, and the FD wiring 98 of the pixel 50a shown in FIG.
  • the FD wiring 98d is connected to the FD 91d-2 of the pixel 50d-2.
  • the FD 91d-2 is formed larger than the FD 91d-1 to which the FD 98d is not connected because the FD wiring 98d is connected.
  • the FD 91d of the adjacent pixel 50d is electrically connected to the FD 91d of the adjacent pixel 50d by electrically connecting the FD 91d of the adjacent pixel 50d.
  • a conductive state can be obtained.
  • the region of the FD91 (FD diffusion layer) is compared with the case where the contact portion of the FD wiring 98 is provided for each pixel 50d. Can be reduced. As a result, FD capacity can be suppressed, conversion efficiency can be increased, and S / N can be improved.
  • connection part of the FD wiring 98 may be the connection part 97 or the FD 91, and the degree of freedom in wiring design can be increased.
  • FIG. 14 is a diagram illustrating a configuration example of the pixel 50e according to the fifth embodiment.
  • the basic configuration of the pixel 50e shown in FIG. 14 is the same as that of the pixel 50a shown in FIG.
  • the pixels 50a to 50d have been described by taking the case where the FD 91 is connected by the connection unit 97 as an example. Further, a case where a GND region is connected as the pixel 50e in the fifth embodiment will be described.
  • the GND region 201-1 is formed in the pixel 50e-1 shown in FIG. 14, and the GND region 201-2 is formed in the pixel 50e-2.
  • This GND region 201 can be formed as a P + diffusion layer.
  • a GND contact 96e is formed in a region connecting the GND region 201-1 and the GND region 201-2.
  • the GND contact 96e is on the through DTI 82 as in the connection portion 97, and is formed between the pixel 50e-1 and the pixel 50e-2.
  • the GND contact 96e can be formed as a P + diffusion layer, like the GND region 201.
  • the GND contact 96e is formed of polysilicon like the connection portion 97, and can be formed by injecting an impurity that becomes P + when the GND region 201 is formed as a P + diffusion layer.
  • the pixel 50e illustrated in FIG. 14 is an example in which the pixel 50e is combined with the pixel 50a (FIG. 4) of the first embodiment, but may be combined with the pixels 50b to 50d in the second to fourth embodiments. It is.
  • the FD 91 can be connected by the connection part 97 formed on the trench, or the GND region 201 can be connected by the GND contact 96 formed on the trench.
  • the predetermined regions such as the FD 91 and the GND region 201 of the adjacent pixel 50 are connected by the region formed on the trench, so that the predetermined region can be handled as one region. Can be.
  • the predetermined regions are the same impurity region, and the region formed on the trench is also the same impurity region as the predetermined region.
  • a predetermined region is connected in a region formed on the trench, thereby becoming a region having the same potential, and the regions desired to be made the region having the same potential are connected in a region formed on the trench. It becomes possible.
  • FIG. 15 is a diagram illustrating a configuration example of the pixel 50f according to the sixth embodiment.
  • the basic configuration of the pixel 50f shown in FIG. 15 is the same as that of the pixel 50a shown in FIG.
  • connection portion 97f of the pixel 50f shown in FIG. 15 is formed larger than the connection portion 97 of the pixel 50a shown in FIG.
  • connection part 97f is the same as the connection part 97 of the pixel 50a in the first embodiment shown in FIG. 7 in that the connection part 97f is formed on the through DTI 82.
  • connection part 97 of the pixel 50a shown in FIG. 7 is entirely formed in the Si substrate 70, whereas the connection part 97f of the pixel 50f shown in FIG. The other portions are different in that they are formed on the Si substrate 70 (in a wiring layer not shown).
  • the connecting portion 97f is formed at the same height as the gate of the transfer transistor 90 (in the vertical direction in FIG. 16).
  • the connecting portion 97f is a portion formed in a buried type and is in contact with the FD 91f-1 and the FD 91f-2, respectively.
  • the non-buried portion formed on the Si substrate 70 is also a FD 91f-1 and a FD 91f- 2 is in contact with each other.
  • connection portion 97f is in contact with the side surface of the FD 91f and is also in contact with the upper surface of the FD 91f. That is, in this case, the connection portion 97f is in contact with the FD 91f on two sides.
  • the connecting portion 97f is formed so as to overlap with the FD91f-1, and is formed so as to overlap with the FD91f-2. That is, the connection part 97f is formed larger than the connection part 97 (FIG. 4) of the pixel 50a.
  • step S51 the Si substrate 70 on which the trench to be the through DTI 82, the P-type solid phase diffusion layer 83, and the N-type solid phase diffusion layer 84 are formed is prepared. Since this process S51 is the same process as process S11 (FIG. 9), the description is abbreviate
  • step S52 SiO 2 and polysilicon are deposited and etched back on the entire surface of the Si substrate 70 including the inside of the trench. Thereafter, SiO2 is again deposited on the entire surface and etched back. By this step, the inside of the trench is in a state where the SiO 2 layer and the polysilicon layer are stacked (filled).
  • the SiO 2 layer is a portion that becomes the sidewall film 85
  • the polysilicon layer is a portion that becomes the filler 86.
  • the SiN film is removed, and phosphorus is ion-implanted, for example, in order to form an N + diffusion layer which is a part of the FD 91 on the surface of the Si substrate 70 around the trench (around the through DTI 82).
  • ion implantation may be performed on a portion that becomes the PD 71.
  • the transfer transistor 90 is formed by etching a portion that becomes a vertical transistor portion of the transfer transistor 90. After removing the SiO 2 film, the entire surface is gate oxidized.
  • step S53 a resist 151 is formed by lithography and etching so that only a portion where the connection portion 97f is to be formed is opened, and a portion of the SiO2 film where the connection portion 97f is to be formed is removed.
  • step S54 after the resist 151 is removed, polysilicon 152 doped with phosphorus is deposited on the entire surface of the Si substrate 70 including the inside of the trench.
  • step S55 the deposited polysilicon 152 is patterned by lithography and dry etching. By patterning, a portion that becomes a gate of the transfer transistor 90 and includes a vertical transistor is formed. A connecting portion 97f is also formed. As described above, in the pixel 50f according to the sixth embodiment, the gate of the transfer transistor 90 and the connection portion 97f are formed at the same time.
  • step S56 an N + diffusion layer is formed in the Si substrate 70 located beside the gate of the transfer transistor 90, that is, in a portion to be the FD 91 (a portion to be the FD 91 together with a part of the FD 91 formed in the step S52). Therefore, for example, phosphorus ion implantation is performed. Thereafter, a contact of the FD wiring 79 is formed at a portion which becomes the connection portion 97 of the polysilicon 152 doped with phosphorus.
  • the pixel 50f having the connection portion 97f is manufactured.
  • the FD 91f of the adjacent pixel 50f is electrically connected to the FD 91f of the adjacent pixel 50f by connecting the FD 91f of the adjacent pixel 50f with the connection unit 97f.
  • a conductive state can be obtained.
  • the contact portion of the FD wiring 98f can be provided in the connection portion 97f.
  • the region of the FD 91f (FD diffusion layer) can be reduced, and as a result, the FD capacity can be suppressed, the conversion efficiency can be increased, and the S / N can be improved.
  • the fifth embodiment is applied to the pixel 50f in the sixth embodiment, and the GND regions respectively formed in the pixel 50f-1 and the pixel 50f-2 are formed on the through DTI 82. It is also possible to adopt a configuration in which connection is made with a GND contact.
  • ⁇ Configuration Example of Pixel in Seventh Embodiment> 18 to 20 are diagrams illustrating a configuration example of the pixel 50g according to the seventh embodiment.
  • the pixel 50 in the first to sixth embodiments described above has been described by taking the case of sharing two pixels as an example, but the present technology is not limited to sharing two pixels, and two or more pixels are used. It can also be applied to the case of sharing transistors and the like.
  • FIG. 18 is an arrangement example of the unit pixels 50 arranged in a matrix in the pixel array unit 41, and is a diagram illustrating an arrangement example when four pixels are shared.
  • FIG. 18 illustrates 16 ⁇ 4 ⁇ 4 pixels 50 g arranged in the pixel array unit 41.
  • the four pixels share the reset transistor, the amplification transistor, and the selection transistor, and share the FD.
  • a total of four pixels 50g which are two pixels 50g arranged in the vertical direction and two pixels 50g arranged in the horizontal direction, are shared pixels.
  • the pixel 50g-5, the pixel 50g-6, the pixel 50g-7, and the pixel 50g-8 that are arranged in 2 ⁇ 2 are shared pixels.
  • the pixel 50g-9, the pixel 50g-10, the pixel 50g-11, and the pixel 50g-12 arranged in 2 ⁇ 2 are shared pixels.
  • the pixel 50g-13, the pixel 50g-14, the pixel 50g-15, and the pixel 50g-16 that are arranged in 2 ⁇ 2 are shared pixels.
  • FIG. 19 is a plan view of four shared pixels.
  • pixels 50g-1 to 50g-4 are illustrated as 2 ⁇ 2 four pixels arranged in the vertical direction and the horizontal direction, and the description will be continued. Since the basic configuration is the same as that of the pixel 50a when sharing two pixels shown in FIG. 3, the description of the same portions will be omitted as appropriate.
  • one square represents one pixel 50g.
  • the pixel 50g includes a photodiode (PD) 71, and a through DTI 82 is disposed so as to surround the PD 71.
  • PD photodiode
  • a transfer transistor 90g-1, FD91g-1, a reset transistor 92g, and a GND contact 96g-1 are formed on the surface side of the pixel 50g-1.
  • a transfer transistor 90g-2, FD91g-2, a selection transistor 94g, and a GND contact 96g-2 are formed on the surface side of the pixel 50g-2.
  • a transfer transistor 90g-3, an FD 91g-3, an amplification transistor 93g-1, and a GND contact 96g-3 are formed on the surface side of the pixel 50g-3.
  • a transfer transistor 90g-4, an FD91g-4, an amplification transistor 93g-2, and a GND contact 96g-4 are formed.
  • the reset transistor 92g, the amplification transistor 93g, and the selection transistor 94g are configured to be shared by the pixels 50g-1 to 50g-4.
  • the amplification transistor 93g includes an amplification transistor 93g-1 disposed in the pixel 50g-3 and an amplification transistor 93g-2 disposed in the pixel 50g-4.
  • a configuration in which a plurality of transistors are shared by the four pixels 50g can reduce the number of transistors to be arranged in one pixel, an area for arranging one transistor can be increased. By making the transistor large, effects such as noise reduction can be obtained.
  • the amplification transistor 93g is composed of an amplification transistor 93g-1 and an amplification transistor 93g-2 arranged in two pixels, thereby amplifying a larger region. This can be assigned to the transistor 93g, and noise can be further reduced.
  • the FD 91g-1 of the pixel 50g-1, the FD 91g-2 of the pixel 50g-2, the FD 91g-3 of the pixel 50g-3, and the FD 91g-4 of the pixel 50g-4 are connected to 97 g of a connection portion formed in a part of the through DTI 82. And are configured to function as one FD 91g.
  • the FD wiring 98g is connected to the connection portion 97g.
  • the FD wiring 98g is also connected to the reset transistor 92g, the amplification transistor 93g-1, and the amplification transistor 93g-2. A part of the FD wiring 98g is formed on the through DTI 82.
  • FIG. 20 is a vertical sectional view of the pixel 50g, which corresponds to the position of the line segment A-A ′ in FIG. Since the configuration of the cross section of the pixel 50g is the same as the configuration of the cross section of the pixel 50a shown in FIG. 7, detailed description thereof is omitted.
  • An FD 91g is formed in a region adjacent to the transfer transistor 90g (transfer gate 90g). 20, an FD 91g-1 is formed on the right side of the transfer transistor 90g-1 of the pixel 50g-1 illustrated on the left side, and the transfer transistor 90g- of the pixel 50g-4 illustrated on the right side of FIG. On the left side of 4, FD91g-4 is formed.
  • a connecting portion 97g is formed between FD91g-1 and FD91g-4.
  • the connecting portion 97g is on the through DTI 82 and is formed in the Si substrate 70.
  • a through DTI 82 is formed between the pixel 50g-1 and the pixel 50g-4.
  • 97 g of connection parts are formed in the part which removed the side wall film 85 in the upper part of penetration DTI82, and removed.
  • the connecting portion 97g is made of polysilicon, for example.
  • the connecting portion 97g is the same semiconductor region as the FD 91g.
  • the connection portion 97g is also formed of the N-type semiconductor region.
  • the FD 91g-1, the connecting portion 97g, and the FD 91g-4 are formed to be a continuous N + diffusion layer.
  • the FD 91g-1 and the connection part 97g are in a conductive state and the FD 91g-4 and the connection part 97g are in a conductive state, the FD 91g-1 and the FD 91g-4 are conductive through the connection part 97g. It becomes a state.
  • the FD 91g-1, the connection unit 97g, and the FD 91g-4 exist as one N + diffusion layer and can be handled as one FD 91g.
  • Such an FD 91g is shared by the pixel 50g-1 and the pixel 50g-4.
  • the FDs 91g-1 to 91g-4 and the connection unit 97g are It exists as one N + diffusion layer and can be handled as one FD91g.
  • Such an FD 91g is shared by the pixels 50g-1 to 50g-4.
  • FD wiring 98g (a contact that is a part of the FD wiring 98g) is connected to the connecting portion 97g. As described with reference to FIG. 19, the FD wiring 98g is connected to the gate of the amplification transistor 93g.
  • the charges read from the PD 71 by the transfer transistor 90g flow to the wiring layer (not shown) via the FD 91g and the FD wiring 98g, and the gate potential of the amplification transistor 93g varies.
  • the present technology can be applied even when four pixels are shared.
  • the case of 2-pixel sharing and the case of 4-pixel sharing have been described as examples.
  • the present technology is also applied to a case of sharing by a plurality of pixels such as 8-pixel sharing. I can.
  • the FD 91g of the adjacent pixel 50g is electrically connected by connecting the FD 91g of the adjacent pixel 50g with the connecting portion 97g. It can be made into the state which carried out. Further, a contact portion of the contact of the FD wiring 98g can be provided in the connection portion 97g.
  • the region of the FD 91g (FD diffusion layer) can be reduced, and as a result, the FD capacity can be suppressed, the conversion efficiency can be increased, and the S / N can be improved.
  • the case where the P-type solid phase diffusion layer 83 and the N-type solid phase diffusion layer 84 are formed in the through DTI 82 and the strong electric field region is formed is described as an example.
  • the present technology can also be applied to a pixel in which a strong electric field region is not formed.
  • the technology (present technology) according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 21 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the technology (present technology) according to the present disclosure can be applied.
  • FIG. 21 shows a state in which an operator (doctor) 11131 is performing an operation on a patient 11132 on a patient bed 11133 using an endoscopic operation system 11000.
  • an endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as an insufflation tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 that supports the endoscope 11100. And a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 includes a lens barrel 11101 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • a lens barrel 11101 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • an endoscope 11100 configured as a so-called rigid mirror having a rigid lens barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible lens barrel. Good.
  • An opening into which the objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101. Irradiation is performed toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and reflected light (observation light) from the observation target is condensed on the image sensor by the optical system. Observation light is photoelectrically converted by the imaging element, and an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU: “Camera Control Unit”) 11201 as RAW data.
  • the CCU 11201 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102 and performs various kinds of image processing for displaying an image based on the image signal, such as development processing (demosaic processing), for example.
  • image processing for example, development processing (demosaic processing
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 includes a light source such as an LED (light emitting diode), and supplies irradiation light to the endoscope 11100 when photographing a surgical site or the like.
  • a light source such as an LED (light emitting diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • a user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment instrument control device 11205 controls the drive of the energy treatment instrument 11112 for tissue ablation, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 11206 passes gas into the body cavity via the insufflation tube 11111.
  • the recorder 11207 is an apparatus capable of recording various types of information related to surgery.
  • the printer 11208 is a device that can print various types of information related to surgery in various formats such as text, images, or graphs.
  • the light source device 11203 that supplies the irradiation light when the surgical site is imaged to the endoscope 11100 can be configured by, for example, a white light source configured by an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of the output light every predetermined time. Synchronously with the timing of changing the intensity of the light, the drive of the image sensor of the camera head 11102 is controlled to acquire an image in a time-sharing manner, and the image is synthesized, so that high dynamic without so-called blackout and overexposure A range image can be generated.
  • the light source device 11203 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface of the mucous membrane is irradiated by irradiating light in a narrow band compared to irradiation light (ie, white light) during normal observation.
  • a so-called narrow-band light observation (Narrow Band Imaging) is performed in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • the body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 22 is a block diagram showing an example of the functional configuration of the camera head 11102 and the CCU 11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are connected to each other by a transmission cable 11400 so that they can communicate with each other.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101. Observation light taken from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging device constituting the imaging unit 11402 may be one (so-called single plate type) or plural (so-called multi-plate type).
  • image signals corresponding to RGB may be generated by each imaging element, and a color image may be obtained by combining them.
  • the imaging unit 11402 may be configured to include a pair of imaging elements for acquiring right-eye and left-eye image signals corresponding to 3D (dimensional) display. By performing the 3D display, the operator 11131 can more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of lens units 11401 can be provided corresponding to each imaging element.
  • the imaging unit 11402 is not necessarily provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the driving unit 11403 is configured by an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405. Thereby, the magnification and the focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various types of information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information for designating the frame rate of the captured image, information for designating the exposure value at the time of imaging, and / or information for designating the magnification and focus of the captured image. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good.
  • a so-called AE (Auto-Exposure) function, AF (Auto-Focus) function, and AWB (Auto-White Balance) function are mounted on the endoscope 11100.
  • the camera head control unit 11405 controls driving of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various types of information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by electrical communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on the image signal that is RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various types of control related to imaging of the surgical site by the endoscope 11100 and display of a captured image obtained by imaging of the surgical site. For example, the control unit 11413 generates a control signal for controlling driving of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a picked-up image showing the surgical part or the like based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques.
  • the control unit 11413 detects surgical tools such as forceps, specific biological parts, bleeding, mist when using the energy treatment tool 11112, and the like by detecting the shape and color of the edge of the object included in the captured image. Can be recognized.
  • the control unit 11413 may display various types of surgery support information superimposed on the image of the surgical unit using the recognition result. Surgery support information is displayed in a superimposed manner and presented to the operator 11131, thereby reducing the burden on the operator 11131 and allowing the operator 11131 to proceed with surgery reliably.
  • the transmission cable 11400 for connecting the camera head 11102 and the CCU 11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • communication is performed by wire using the transmission cable 11400.
  • communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure is an apparatus that is mounted on any type of moving body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. It may be realized.
  • FIG. 23 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, a sound image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 12020 can be input with radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle on which the vehicle control system 12000 is mounted.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle and receives the captured image.
  • the vehicle outside information detection unit 12030 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal corresponding to the amount of received light.
  • the imaging unit 12031 can output an electrical signal as an image, or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared rays.
  • the vehicle interior information detection unit 12040 detects vehicle interior information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the vehicle interior information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver is asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside / outside the vehicle acquired by the vehicle outside information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintenance traveling, vehicle collision warning, or vehicle lane departure warning. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of automatic driving that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare, such as switching from a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits an output signal of at least one of sound and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 24 is a diagram illustrating an example of an installation position of the imaging unit 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door, and an upper part of a windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 24 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, an overhead image when the vehicle 12100 is viewed from above is obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object in the imaging range 12111 to 12114 and the temporal change of this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • cooperative control for the purpose of automatic driving or the like autonomously traveling without depending on the operation of the driver can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, and power poles based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 as obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is connected via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration or avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as two-
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the captured images of the imaging units 12101 to 12104.
  • pedestrian recognition is, for example, whether or not a person is a pedestrian by performing a pattern matching process on a sequence of feature points indicating the outline of an object and a procedure for extracting feature points in the captured images of the imaging units 12101 to 12104 as infrared cameras. It is carried out by the procedure for determining.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 has a rectangular outline for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to be superimposed and displayed. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the present technology can also have the following configurations.
  • the imaging device according to (1) or (2), wherein the first region, the second region, and the third region are regions having the same potential.
  • the imaging device according to any one of (1) to (4), wherein the first region and the second region are ground regions.
  • the third region is formed of polysilicon containing an N-type or P-type impurity with respect to the substrate.
  • the imaging device according to any one of (1) to (6), wherein two of the side surfaces and the bottom surface of the third region are in contact with a predetermined film formed in the trench.
  • the depth of the third region is 50 to 80% of the depth of the first region.
  • the first region is formed to be approximately the same as or larger than the third region.
  • Any one of (1) to (9) The imaging device described in 1. (11) The imaging device according to any one of (1) to (10), wherein the third region is in contact with the first region on two surfaces. (12)
  • a wiring connected to the transistor is connected to the first region, The imaging device according to any one of (1) to (7), wherein the first region is formed in a region larger than the second region.
  • the imaging device according to any one of (1) to (12), wherein a PN junction region including a P-type region and an N-type region is formed on a sidewall of the trench.
  • a substrate A first pixel including a first photoelectric conversion region provided on the substrate; A second pixel adjacent to the first photoelectric conversion region and including a second photoelectric conversion region provided on the substrate; A trench provided between the first photoelectric conversion region and the second photoelectric conversion region and provided in the substrate; A first region included in the first pixel; A second region included in the second pixel;
  • An electronic device comprising: an imaging device comprising: the first region, the second region, and a third region in contact with the trench.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本技術は、FD容量を小さくすることができるようにする撮像素子、電子機器に関する。 基板と、基板に設けられた第1の光電変換領域を含む第1の画素と、第1の光電変換領域の隣であって、基板に設けられた第2の光電変換領域を含む第2の画素と、第1の光電変換領域と第2の光電変換領域との間であって、基板に設けられたトレンチと、第1の画素に含まれる第1の領域と、第2の画素に含まれる第2の領域と、第1の領域、第2の領域、およびトレンチに接した第3の領域とを備える。本技術は、例えば、CMOSイメージセンサに適用できる。

Description

撮像素子、電子機器
 本技術は撮像素子、電子機器関し、例えば、所定のトランジスタを複数の画素で共有して用いる場合に適用して好適な撮像素子、電子機器に関する。
 従来、撮像装置に設けられるCMOS(Complementary Metal Oxide Semiconductor)イメージセンサは、フォトダイオードおよびトランジスタなどの素子を画素毎に備える。また、CMOSイメージセンサとして、各画素の間に隣接する画素を電気的に分離するDTI(Deep Trench Isolation)を備える構成についての提案もある。
 DTIを設けることで、所定のトランジスタを複数の画素で共有する場合に、FD(フローティングディフュージョン)領域を各画素に設け、複数のFD領域を配線で電気的に接続する必要がある。FD領域を配線で接続することで配線長が長くなるためにFD容量が大きくなる可能性があった。FD容量が大きくなると変換効率が下がり、出力信号が小さくなり、S/Nが悪化する可能性があった。
 特許文献1では、隣接画素のFD領域の両方に電気的に接続されるコンタクトを形成することで、FD領域を電気的に導通させ、FD容量の増大を抑制することが提案されている。
米国特許出願公開第2017/0200763号明細書
 特許文献1によると、隣接画素のFD領域を接続し、接触抵抗の上昇を抑えるために、またコンタクトの合わせずれが発生しても大丈夫なように、コンタクトを大きく形成したり、FD領域を大きく形成したりする必要がある。
 特許文献1によると、コンタクトやFD領域を小さくするのは限界があった。FD容量を小さくし、変換効率をより高め、S/Nをより高めることが望まれている。
 本技術は、このような状況に鑑みてなされたものであり、S/Nを高めることができるようにするものである。
 本技術の一側面の撮像素子は、基板と、前記基板に設けられた第1の光電変換領域を含む第1の画素と、前記第1の光電変換領域の隣であって、前記基板に設けられた第2の光電変換領域を含む第2の画素と、前記第1の光電変換領域と前記第2の光電変換領域との間であって、前記基板に設けられたトレンチと、前記第1の画素に含まれる第1の領域と、前記第2の画素に含まれる第2の領域と、前記第1の領域、前記第2の領域、および前記トレンチに接した第3の領域とを備える。
 本技術の一側面の電子機器は、基板と、前記基板に設けられた第1の光電変換領域を含む第1の画素と、前記第1の光電変換領域の隣であって、前記基板に設けられた第2の光電変換領域を含む第2の画素と、前記第1の光電変換領域と前記第2の光電変換領域との間であって、前記基板に設けられたトレンチと、前記第1の画素に含まれる第1の領域と、前記第2の画素に含まれる第2の領域と、前記第1の領域、前記第2の領域、および前記トレンチに接した第3の領域とを備える撮像素子を含む。
 本技術の一側面の撮像素子においては、基板と、基板に設けられた第1の光電変換領域を含む第1の画素と、第1の光電変換領域の隣であって、基板に設けられた第2の光電変換領域を含む第2の画素と、第1の光電変換領域と第2の光電変換領域との間であって、基板に設けられたトレンチと、第1の画素に含まれる第1の領域と、第2の画素に含まれる第2の領域と、第1の領域、第2の領域、およびトレンチに接した第3の領域とが備えられる。
 本技術の一側面の電子機器においては、前記撮像素子が含まれる。
 本技術の一側面によれば、S/Nを高めることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
撮像装置の構成例を示す図である。 撮像素子の構成例を示す図である。 本技術が適用された撮像素子の第1の実施の形態の平面図である。 本技術が適用された撮像素子の第1の実施の形態の平面図である。 撮像素子の回路図である。 第1の実施の形態の撮像素子の断面図である。 第1の実施の形態の撮像素子の断面図である。 接続部の構成について説明するための図である。 撮像素子の製造について説明するための図である。 第2の実施の形態における撮像素子の平面図である。 第3の実施の形態における撮像素子の平面図である。 第3の実施の形態における撮像素子の断面図である。 第4の実施の形態における撮像素子の平面図である。 第5の実施の形態における撮像素子の平面図である。 第6の実施の形態における撮像素子の平面図である。 第6の実施の形態における撮像素子の断面図である。 撮像素子の製造について説明するための図である。 第7の実施の形態における撮像素子の平面図である。 第7の実施の形態における撮像素子の平面図である。 第7の実施の形態における撮像素子の断面図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。
 本技術は、撮像装置に適用できるため、ここでは、撮像装置に本技術を適用した場合を例に挙げて説明を行う。なおここでは、撮像装置を例に挙げて説明を続けるが、本技術は、撮像装置への適用に限られるものではなく、デジタルスチルカメラやビデオカメラ等の撮像装置、携帯電話機などの撮像機能を有する携帯端末装置、画像読取部に撮像装置を用いる複写機など、画像取込部(光電変換部)に撮像装置を用いる電子機器全般に対して適用可能である。なお、電子機器に搭載されるモジュール状の形態、即ちカメラモジュールを撮像装置とする場合もある。
 図1は、本開示の電子機器の一例である撮像装置の構成例を示すブロック図である。図1に示すように、撮像装置10は、レンズ群11等を含む光学系、撮像素子12、カメラ信号処理部であるDSP回路13、フレームメモリ14、表示部15、記録部16、操作系17、及び、電源系18等を有している。
 そして、DSP回路13、フレームメモリ14、表示部15、記録部16、操作系17、及び、電源系18がバスライン19を介して相互に接続された構成となっている。CPU20は、撮像装置10内の各部を制御する。
 レンズ群11は、被写体からの入射光(像光)を取り込んで撮像素子12の撮像面上に結像する。撮像素子12は、レンズ群11によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。この撮像素子12として、以下に説明する画素を含む撮像素子(イメージセンサ)を用いることができる。
 表示部15は、液晶表示部や有機EL(electro luminescence)表示部等のパネル型表示部からなり、撮像素子12で撮像された動画または静止画を表示する。記録部16は、撮像素子12で撮像された動画または静止画を、HDD(Hard Disk Drive)やメモリカード等の記録媒体に記録する。
 操作系17は、ユーザによる操作の下に、本撮像装置が持つ様々な機能について操作指令を発する。電源系18は、DSP回路13、フレームメモリ14、表示部15、記録部16、及び、操作系17の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 <撮像素子の構成>
 図2は、撮像素子12の構成例を示すブロック図である。撮像素子12は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサとすることができる。
 撮像素子12は、画素アレイ部41、垂直駆動部42、カラム処理部43、水平駆動部44、およびシステム制御部45を含んで構成される。画素アレイ部41、垂直駆動部42、カラム処理部43、水平駆動部44、およびシステム制御部45は、図示しない半導体基板(チップ)上に形成されている。
 画素アレイ部41には、入射光量に応じた電荷量の光電荷を発生して内部に蓄積する光電変換素子を有する単位画素(例えば、図3の画素50)が行列状に2次元配置されている。なお、以下では、入射光量に応じた電荷量の光電荷を、単に「電荷」と記述し、単位画素を、単に「画素」と記述する場合もある。
 画素アレイ部41にはさらに、行列状の画素配列に対して行ごとに画素駆動線46が図の左右方向(画素行の画素の配列方向)に沿って形成され、列ごとに垂直信号線47が図の上下方向(画素列の画素の配列方向)に沿って形成されている。画素駆動線46の一端は、垂直駆動部42の各行に対応した出力端に接続されている。
 撮像素子12はさらに、信号処理部48およびデータ格納部49を備えている。信号処理部48およびデータ格納部49については、撮像素子12とは別の基板に設けられる外部信号処理部、例えばDSP(Digital Signal Processor)やソフトウェアによる処理でも良いし、撮像素子12と同じ基板上に搭載しても良い。
 垂直駆動部42は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部41の各画素を、全画素同時あるいは行単位等で駆動する画素駆動部である。この垂直駆動部42は、その具体的な構成については図示を省略するが、読み出し走査系と、掃き出し走査系あるいは、一括掃き出し、一括転送を有する構成となっている。
 読み出し走査系は、単位画素から信号を読み出すために、画素アレイ部41の単位画素を行単位で順に選択走査する。行駆動(ローリングシャッタ動作)の場合、掃き出しについては、読み出し走査系によって読み出し走査が行われる読み出し行に対して、その読み出し走査よりもシャッタスピードの時間分だけ先行して掃き出し走査が行なわれる。また、グローバル露光(グローバルシャッタ動作)の場合は、一括転送よりもシャッタスピードの時間分先行して一括掃き出しが行なわれる。
 この掃き出しにより、読み出し行の単位画素の光電変換素子から不要な電荷が掃き出される(リセットされる)。そして、不要電荷の掃き出し(リセット)により、いわゆる電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、光電変換素子の光電荷を捨てて、新たに露光を開始する(光電荷の蓄積を開始する)動作のことを言う。
 読み出し走査系による読み出し動作によって読み出される信号は、その直前の読み出し動作または電子シャッタ動作以降に入射した光量に対応するものである。行駆動の場合は、直前の読み出し動作による読み出しタイミングまたは電子シャッタ動作による掃出しタイミングから、今回の読み出し動作による読み出しタイミングまでの期間が、単位画素における光電荷の蓄積期間(露光期間)となる。グローバル露光の場合は、一括掃き出しから一括転送までの期間が蓄積期間(露光期間)となる。
 垂直駆動部42によって選択走査された画素行の各単位画素から出力される画素信号は、垂直信号線47の各々を通してカラム処理部43に供給される。カラム処理部43は、画素アレイ部41の画素列ごとに、選択行の各単位画素から垂直信号線47を通して出力される画素信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
 具体的には、カラム処理部43は、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling;相関二重サンプリング)処理を行う。このカラム処理部43による相関二重サンプリングにより、リセットノイズや増幅トランジスタの閾値ばらつき等の画素固有の固定パターンノイズが除去される。なお、カラム処理部43にノイズ除去処理以外に、例えば、AD(アナログ-デジタル)変換機能を持たせ、信号レベルをデジタル信号で出力することも可能である。
 水平駆動部44は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理部43の画素列に対応する単位回路を順番に選択する。この水平駆動部44による選択走査により、カラム処理部43で信号処理された画素信号が順番に信号処理部48に出力される。
 システム制御部45は、各種のタイミング信号を生成するタイミングジェネレータ等によって構成され、タイミングジェネレータで生成された各種のタイミング信号を基に垂直駆動部42、カラム処理部43、および水平駆動部44などの駆動制御を行う。
 信号処理部48は、少なくとも加算処理機能を有し、カラム処理部43から出力される画素信号に対して加算処理等の種々の信号処理を行う。データ格納部49は、信号処理部48での信号処理に当たって、その処理に必要なデータを一時的に格納する。
 <画素アレイ部の画素配置>
 <第1の実施の形態における画素の構成例>
 図3は、画素アレイ部41に行列状に配置されている単位画素50の配置例を示す図である。第1の実施の形態における画素50を、画素50aとして説明を続ける。
 画素アレイ部41には、行列状に、単位画素50aが複数配置されている。図3では、画素アレイ部41に配置されている4×4の16個の画素50aを例示している。ここでは、2画素共有の場合を例に挙げて説明する。図4を参照して後述するように、2画素において、リセットトランジスタ、増幅トランジスタ、選択トランジスタを共有し、FD(フローティングディフュージョン)を共有した構成とされている。
 図3においては、縦方向に配置されている2画素50aが共有画素とされている。縦方向に配置されている画素50a-1と画素50a-2が共有画素とされている。同じく、縦方向に配置されている画素50a-3と画素50a-4、画素50a-5と画素50a-6、画素50a-7と画素50a-8、画素50a-9と画素50a-10、画素50a-11と画素50a-12、画素50a-13と画素50a-14、画素50a-15と画素50a-16が、それぞれ共有画素とされている。
 なお、画素50a-1乃至50a-16を個々に区別する必要が無い場合、単に、画素50aと記述する。他の部分も同様に記述する。
 図4は、共有された2画素の平面図であり、図5は、2画素共有時の回路図である。以下に説明する画素50は、裏面照射型である場合を例に挙げて説明を行うが、表面照射型に対しても本技術を適用することはできる。また、以下の説明は一例であり、製品に合わせて適宜変更可能である。例えば、以下の説明は、共有された2画素で、1個の選択トランジスを共有する場合を例に挙げて説明を続けるが、大判タイプなどで2個の選択トランジスタを備える構成とするなど、適宜、変更可能であり、変更後の構成に対しても本技術を適用できる。
 図4では、縦方向に配置されている画素50a-1と画素50a-2を図示し、説明を続ける。図4中、1つの四角形は、1画素50aを表す。画素50aは、フォトダイオード(PD)71を含み、PD71を取り囲むように、貫通DTI(Deep Trench Isolation)82が配置されている。貫通DTI82は、隣接する画素50a間に、Si基板70(図6)を深さ方向に貫く形状で形成されている。
 画素50a-1の表面側には、転送トランジスタ90-1、FD(フローティングディフュージョン)91-1、リセットトランジスタ92、増幅トランジスタ93-1、変換効率切替トランジスタ95、GND(グランド)コンタクト96-1が形成されている。画素50a-2の表面側には、転送トランジスタ90-2、FD91-2、選択トランジスタ94、GNDコンタクト96-2が形成されている。
 リセットトランジスタ92、増幅トランジスタ93、選択トランジスタ94、変換効率切替トランジスタ95は、画素50a-1と画素50b-1で共有される構成とされている。また、増幅トランジスタ93は、画素50a-1に配置されている増幅トランジスタ93-1と画素50a-2に配置されている増幅トランジスタ93-2とから構成されている。
 複数のトランジスタを、2画素50aで共有する構成とすることで、1画素内に配置すべきトランジスタの個数を減らすことができるため、1つのトランジスタを配置する領域を大きくすることができる。トランジスタを大きく構成することで、ノイズを低減するなどの効果を得られる。
 さらに、図3に示したように、増幅トランジスタ93を、画素50a-1に配置されている増幅トランジスタ93-1と画素50a-2に配置されている増幅トランジスタ93-2とから構成されているようにすることで、より大きな領域を増幅トランジスタ93に割り当てることでき、ノイズを低減することが可能となる。
 画素50a-1のFD91-1と画素50a-2のFD91-2は、貫通DTI82の一部に形成されている接続部97により接続され、1つのFD91として機能するように構成されている。
 FD配線98は、増幅トランジスタ93-1、増幅トランジスタ93-2、および変換効率切替トランジスタ95に接続されている。またFD配線98の一部は、貫通DTI82上に形成されている。
 図5を参照するに、PD71は、受光した光量に応じた電荷(信号電荷)を生成し、かつ、蓄積する。PD71は、アノード端子が接地されているとともに、カソード端子が転送トランジスタ90を介して、FD91に接続されている。
 転送トランジスタ90は、転送信号TRによりオンされたとき、PD71で生成された電荷を読み出し、FD91に転送する。
 FD91は、PD71から読み出された電荷を保持する。リセットトランジスタ92は、リセット信号RSTによりオンされたとき、FD91に蓄積されている電荷がドレイン(定電圧源Vdd)に排出されることで、FD91の電位をリセットする。変換効率切替トランジスタ95はオンにされると、FD91とが電気的に結合され、FD91の浮遊拡散領域が拡大し、FD91の容量が増え、変換効率が下げられるように構成されている。
 増幅トランジスタ93は、FD91の電位に応じた画素信号を出力する。すなわち、増幅トランジスタ93は、垂直信号線47を介して接続されている定電流源としての負荷MOS(不図示)とソースフォロワ回路を構成し、FD91に蓄積されている電荷に応じたレベルを示す画素信号が、増幅トランジスタ93から選択トランジスタ94と垂直信号線47を介してカラム処理部43(図2)に出力される。
 選択トランジスタ94は、選択信号SELにより画素31が選択されたときオンされ、画素31の画素信号を、垂直信号線47を介してカラム処理部43に出力する。転送信号TR、選択信号SEL、及びリセット信号RSTが伝送される各信号線は、図2の画素駆動線46に対応する。
 画素50aは、以上のように構成することができるが、この構成に限定されるものではなく、その他の構成を採用することもできる。
 <画素50aの断面の構成>
 図6は、画素50aの垂直方向の断面図であり、図4中の線分A-A’の位置に対応するものである。画素50aは、Si基板70の内部に形成された各画素の光電変換素子であるPD71を有する。PD71の光入射側(図中、下側であり、裏面側となる)には、P型領域72が形成され、そのP型領域72のさらに下層には、平坦化膜73が形成されている。このP型領域72と平坦化膜73の境界を、裏面Si界面75とする。
 平坦化膜73には、遮光膜74が形成されている。遮光膜74は、隣接する画素への光の漏れ込みを防止するために設けられ、隣接するPD71の間に形成されている。遮光膜74は、例えば、W(タングステン)等の金属材から成る。
 平坦化膜73上であり、Si基板70の裏面側には、入射光をPD71に集光させるOCL(オンチップレンズ)(不図示)が形成されている。OCLは、無機材料で形成することができ、例えば、SiN、SiO、SiOxNy(ただし、0<x≦1、0<y≦1である)を用いることができる。
 図6では図示していないが、OCL上にカバーガラスや、樹脂などの透明板が接着されている構成とすることもできる。また、図6では図示していないが、OCLと平坦化膜73との間にカラーフィルタ層を形成した構成としても良い。またそのカラーフィルタ層は、複数のカラーフィルタが画素毎に設けられており、各カラーフィルタの色は、例えば、ベイヤ配列に従って並べられているように構成することができる。
 PD71の光入射側の逆側(図中、上側であり、表面側となる)には、アクティブ領域(Pwell)77が形成されている。アクティブ領域77には、画素トランジスタ等を分離する素子分離領域(以下、STI(Shallow Trench Isolation)78と称する)が形成されている領域もある。Si基板70の表面側(図面上側)であり、アクティブ領域77上には、配線層(不図示)が形成されており、この配線層には、複数のトランジスタが形成されている。
 画素50a間には、トレンチが形成されている。このトレンチを、貫通DTI(Deep Trench Isolation)と記述する。この貫通DTI82は、隣接する画素50a間に、Si基板70を深さ方向(図中縦方向であり、表面から裏面への方向)に貫く形状で形成される。貫通DTI82は、隣接する画素50aに不要な光が漏れないように、画素間の遮光壁としても機能する。
 PD71と貫通DTI82との間には、貫通DTI82側からPD71に向かって順にP型固相拡散層83とN型固相拡散層84が形成されている。P型固相拡散層83は、貫通DTI82に沿ってSi基板70の裏面Si界面75に接するまで形成されている。N型固相拡散層84は、貫通DTI82に沿ってSi基板70のP型領域72に接するまで形成されている。
 なお、固相拡散層とは、不純物ドーピングによるP型層とN型層の形成を、後述する製法によって形成した層を指すが、本技術では固相拡散による製法に限られず、イオン注入などの別の製法によって生成されたP型層とN型層を貫通DTI82とPD71との間にそれぞれ設けてもよい。また、実施の形態におけるPD71はN型領域で構成されている。光電変換は、これらN型領域の一部、または全てにおいて行われる。
 また、N型とは、Si基板70に対してN型として振る舞う不純物がドーピングされていることを意味する。ここでは、Si基板70は、シリコン(Si)であるため、シリコンに対して、N型となる不純物がドーピングされている領域がN型領域となる。同じく、P型とは、Si基板70に対してP型として振る舞う不純物がドーピングされていることを意味する。
 P型固相拡散層83は裏面Si界面75に接するまで形成されているが、N型固相拡散層84は裏面Si界面75に接しておらず、N型固相拡散層84と裏面Si界面75の間に間隔が設けられている。
 このような構成により、P型固相拡散層83とN型固相拡散層84のPN接合領域は強電界領域を成し、PD71にて発生された電荷を保持するようにされている。このような構成によれば、貫通DTI82に沿って形成したP型固相拡散層83とN型固相拡散層84が強電界領域を成し、PD71にて発生された電荷を保持することができる。
 仮に、N型固相拡散層84が、貫通DTI82に沿ってSi基板70の裏面Si界面75に接するまで形成されていた場合、光の入射面側であるSi基板70の裏面Si界面75とN型固相拡散層84が接する部分で発生した電荷が、PD71に流れ込んでDark特性が悪化してしまい、例えば、白点が生じたり、暗電流が発生したりしてしまう可能性がある。
 しかしながら、図6に示した画素50aにおいては、N型固相拡散層84が、Si基板70の裏面Si界面75とは接しない構成とされ、貫通DTI82に沿ってSi基板70のP型領域72に接する形成とされている。このような構成とすることで、電荷がPD71に流れ込んでDark特性が悪化してしまうようなことを防ぐことが可能となる。
 また、図6に示した画素50aは、貫通DTI82の内壁に、SiO2から成る側壁膜85が形成され、その内側にはポリシリコンから成る充填材86が埋め込まれている。側壁膜85は、充填材86を側面と上面を少なくとも囲むように形成されている。
 第1の実施の形態における画素50aは、裏面側にP型領域72が設けられており、PD71およびN型固相拡散層84が裏面Si界面75付近に存在しないような構成とされている。これにより、裏面Si界面75付近において発生した電荷がPD71に流れ込んでDark特性が悪化してしまうようなことを抑止することができる。
 なお、貫通DTI82については、側壁膜85に採用したSiO2の代わりSiNを採用してもよい。また、充填材86に採用したポリシリコンの代わりにドーピングポリシリコンを用いてもよい。ドーピングポリシリコンを充填した場合、または、ポリシリコンを充填した後にN型不純物またはP型不純物をドーピングした場合には、そこに負バイアスを印加すれば、貫通DTI82の側壁におけるDark特性をさらに改善することができる。
 図7は、画素50aの垂直方向の断面図であり、図4中の線分B-B’の位置に対応するものである。基本的な構成は、図6に示した構成と同様であるため、同様な部分に関しては説明を省略する。
 図4中の線分B-B’の位置画素50aの垂直方向の断面には、転送トランジスタ90(転送トランジスタ90のゲート)がある点と、FD91がある点が、図4中の線分A-A’の位置の画素50aの垂直方向の断面と異なる。
 Si基板70の表面側(図面上側)であり、アクティブ領域77上には、配線層(不図示)が形成されており、この配線層には、複数のトランジスタが形成されている。図7では、転送トランジスタ90が形成されている例を示した。
 転送トランジスタ(ゲート)90は、縦型トランジスタで形成されている。すなわち、転送トランジスタ(ゲート)90は、縦型トランジスタトレンチが開口され、そこにPD71から電荷を読み出すための転送ゲート(TG)90が形成されている。
 なお、転送トランジスタ90などのトランジスタには、配線層内の配線と接続されるコンタクトが形成されているが、図6では不図示としてある。他の断面図においても、コンタクトは不図示で説明を行う。
 転送トランジスタ90(転送ゲート90)と、アクティブ領域77が接する部分には、SiO2膜99が成膜されている。転送トランジスタ90と隣接する領域には、FD91が形成されている。図7中、左側に図示してある画素50a-1の転送トランジスタ90-1の右側に、FD91-1が形成されている。また図7中、右側に図示してある画素50a-2の転送トランジスタ90-2の左側に、FD91-2が形成されている。
 FD91-1とFD91-2の間には、接続部97が形成されている。この接続部97は、貫通DTI82上(貫通DTI82内)に形成されている。画素50a-1と画素50a-2の間には、図4、図6を参照して説明したように、貫通DTI82が形成されている。接続部97は、貫通DTI82の上部にある側壁膜85を一部除去し、その除去した部分に形成されている。
 接続部97が直方体で形成されている場合、底面と、側面の4面のうちの2面は、側壁膜85(SiO2膜)と接している。また、接続部97の側面の4面のうちの2面は、FD91と接している。そして、接続部97の上面は、FD配線98のコンタクトと接している。
 接続部97は、例えばポリシリコンで形成されている。また、接続部97は、FD91と同一の半導体領域とされている。例えば、FD91が、N型半導体領域である場合、接続部97も、N型半導体領域で形成される。またはFD91が、P型半導体領域である場合、接続部97も、P型半導体領域で形成される。ここでは、FD91と接続部97は、N型半導体領域で形成されている場合を例に挙げて説明を続ける。
 FD91-1、接続部97、およびFD91-2は、連続したN+拡散層となるように形成されている。換言すれば、FD91-1と接続部97が導通した状態であり、かつFD91-2と接続部97が導通した状態であるように構成され、結果としてFD91-1とFD91-2が導通した状態となるように構成されている。
 よって、FD91-1、接続部97、およびFD91-2は、1つのN+拡散層として存在し、1つのFD91として扱うことができる。このようなFD91が、画素50a-1と画素50a-2で共有される。
 接続部97には、FD配線98(FD配線98の一部であるコンタクト)が接続されている。このFD配線98は、図4を参照して説明したように、増幅トランジスタ93のゲートと接続されている。転送トランジスタ90によりPD71から読み出された電荷は、FD91、FD配線98を介して配線層(不図示)に流れ、増幅トランジスタ93のゲート電位が変動するように構成されている。
 ここで、図8を参照して、FD91と接続部97の位置関係について説明を加える。図8のAは、図7に示した接続部97の部分を中心とした拡大図である。上記したように、接続部97は、FD91-1とFD91-2の間であり、側壁膜85上に形成されている。また接続部97の上面(図中上側の面であり、光入射面側の反対側の面)、FD91-1の上面、およびFD91-2の上面は、同一面となるように、それぞれ形成されている。なお、ここでは、FD91-1の上面、およびFD91-2の上面は、同一面となるように形成されているとして説明を続けるが、異なる高さで形成されていても良い。また、製造時などに意図せず高さが異なるような場合も、本技術の適用範囲である。
 接続部97の上面からの下面までの長さを深さaとし、FD91の上面から下面までの長さを深さbとする。接続部97の深さaは、FD91の深さbよりも短く(浅く)なるように、接続部97は形成される。FD91の深さbを100%とした場合、接続部97の深さaは、例えば、50乃至80%となる範囲内となるように、接続部97は形成される。
 接続部97の深さaが、FD91の深さbの50%よりも浅く形成されていた場合、FD配線98のコンタクトが、接続部97を突き抜けてしまう可能性がある。また、FD配線98のコンタクトと接続部97が接している部分が短くなり、FD91からの電荷の読み出しを良好に行えない可能性が高くなる。よって、ここでは、一例として、接続部97の深さaは、FD91の深さbの50%以上であるとする。
 なお、このような懸念がないように接続部97やFD配線98のコンタクトを形成できれば、接続部97の深さaは、FD91の深さbの50%よりも浅く形成されていても良い。
 また、接続部97の深さaが、FD91の深さbの80%よりも深く形成されていた場合、接続部97から、アクティブ領域77に電荷がリークしてしまう可能性が高くなる。例えば、接続部97の深さaが、FD91の深さbよりも深く形成(100%以上の深さで形成)されると、接続部97とアクティブ領域77が接する部分があり、その部分から、リークが発生する可能性が高い。
 このようなリークを防ぐために、ここでは、一例として、接続部97の深さaは、FD91の深さbの80%以下であるとする。
 なお、このような懸念がないように接続部97やFD配線98のコンタクトを形成できれば、接続部97の深さaは、FD91の深さbの80%よりも深く形成されていても良い。
 接続部97は、図8のAに示したように、底面が直線形状であるように形成することもできるが、図8のBに示したように、底面が円弧形状であるように形成することもできる。図8のBに示した接続部97は、底面が、円弧形状となっており、その円弧の外側は、側壁膜85で囲まれ、アクティブ領域77とは接しないように形成されている。
 図8のBに示したように、接続部97の底面が円弧形状である場合、接続部97の深さcは、接続部97の上面から、底面の最も深い位置までの長さとして定義できる。このように定義した場合、接続部97の深さcは、例えば、50乃至100%となる範囲内となるように、接続部97は形成される。
 接続部97の深さaが、FD91の深さbの50%以上に形成されるのは、上記した場合と同じく、FD配線98のコンタクトとの確実な接続を維持するためである。接続部97の深さcが、FD91の深さbの100%程度まで深く形成されていても、図8のBに示したように、接続部97の先端部分がアクティブ領域77と接することが無いように形成することができるため、接続部97から、アクティブ領域77に電荷がリークしてしまうようなことを防ぐことができる。
 図8のBに示したように、接続部97の底面が円弧形状で形成することで、接続部97を深く形成することが可能となる。
 以下の説明においては、図8のAに示したように、接続部97の上面と下面は、ともに直線形状で形成されている場合を例示して説明を続ける。
 接続部97の側面の4面のうち2面は、FD91と接しているため、接続部97の側面は、N+領域内にある。また、接続部97の側面の4面のうち2面は、側壁膜85と接している。また、接続部97の底面は、側壁膜85と接している。
 このように、接続部97は、FD91や側壁膜85(例えば、SiO2)に接した状態で囲まれているため、空乏層にかかわらず、界面準位によるFD81のリークの増大は起きない。
 接続部97にFD配線98のコンタクトを接続する構成とすることができる。第4の実施の形態として、図13を参照して説明する画素50dは、FD91にFD配線98のコンタクトを接続する構成とするため、コンタクトと転送トランジスタ90が接しないように、FD91の領域を大きく形成し、コンタクトと転送トランジスタ90が離れるように形成する必要がある。
 第1の実施の形態における画素50aにおいては、接続部97にFD配線98のコンタクトを接続する構成とすることで、コンタクトと転送トランジスタ90を、少なくともFD91の分だけ離した位置に形成することができる。
 よって、FD91にFD配線98のコンタクトを接続する構成とする場合に比べて、FD91の領域を小さくすることができる。接続部97を形成し、FD91-1、接続部97、およびFD91-2を接続した構成としても、結果として、FD領域を小さくすることができ、変換効率を高めることが可能となる。
 <接続部の製造について>
 画素50aの製造、特に、接続部97の製造について、図9を参照して説明を加える。
 工程S11において、Si基板70に貫通DTI82が開口される。Si基板70上の貫通DTI82を形成する位置以外が、SiN膜111とSiO2膜112で構成されるハードマスクで覆われる。そして、ドライエッチングが行われることで、ハードマスクによって覆われていないSi基板70の部分に、所定の深さまで垂直方向に開口された溝が形成される。
 次に、開口された溝の内側にN型の不純物であるP(リン)を含むSiO2膜を成膜してから熱処理を行い、SiO2膜からSi基板70側にP(リン)をドーピング(固相拡散と称する)させる。
 次に、開口した溝の内側に成膜したP(リン)を含むSiO2膜を除去してから、再び熱処理を行い、P(リン)をSi基板70の内部にまで拡散させることによって、現状の溝の形状にセルフアラインされたN型固相拡散層84が形成される。
 次に、溝の内側にP型の不純物であるB(ボロン)を含むSiO2膜が成膜されてから熱処理が行われ、SiO2膜からSi基板70側にB(ボロン)が固相拡散されることにより、溝の形状にセルフアラインされたP型固相拡散層83が形成される。
 この後、溝の内壁に成膜されているB(ボロン)を含むSiO2膜が除去される。このように、貫通DTI82となるトレンチ、P型固相拡散層83、およびN型固相拡散層84が形成されたSi基板70が用意される。
 工程S12において、開口されている溝の内壁にSiO2から成る側壁膜85を成膜し、ポリシリコンを充填して貫通DTI82が形成される。
 工程S13において、リソグラフィーとエッチングにより、接続部97を形成したいところの側壁膜85、この場合SiO2がエッチングされる。
 工程S14において、全面にポリシリコン97’が堆積される。
 工程S15において、ポリシリコン97’をエッチバックしてトレンチの上部がポリシリコンで埋まるような形状とされる。
 工程S16において、SiN(シリコン窒化膜)111とSiO2膜112が除去され、縦型のトレンチを含む転送トランジスタ90のゲートとなる部分のトレンチが形成される。トレンチ形成後、再度SiO2膜99が成膜される。成膜後、転送トランジスタ90が形成される。
 転送トランジスタ90のゲートとなる部分が形成された後、そのゲート越しに、FD91となる部分に不純物の注入が行われることで、N+拡散層が形成される。また、このとき、トレンチ上部にあるポリシリコンに対しても不純物注入が行われることで、ポリシリコンも、N型にドーピングされる。このようにして、FD91と接続部97が形成される。
 FD91となるN+拡散層が形成されるとき、ポリシリコンの底部よりもN+拡散層の底部が深い位置に形成されるように、不純物注入が行われる。接続部97が形成された後、その接続部97の部分に、この場合N+のポリシリコン上にFD配線98のコンタクトが形成される。
 以上のような工程を経て、接続部97を有する画素50aが製造される。
 このように、第1の実施の形態における画素50aは、隣接する画素50aのFD91を接続部97で接続することで、隣接する画素50aのFD91を電気的に導通した状態とすることができる。よって、FD91とFD配線98のコンタクトの接触部は、1カ所設ければ良く、画素50a毎に設ける必要がなくなる。よって、FD91の領域(FD拡散層)を小さくすることができる。結果として、FD容量を抑制することが可能となり、変換効率を高めることが可能となり、S/Nを改善することが可能となる。
 <第2の実施の形態における画素の構成例>
 図10は、第2の実施の形態における画素50bの構成例を示す図である。図10に示した画素50bの基本的な構成は、図4に示した画素50aと同様なため、同様の部分には同様の符号を付し、説明は省略する。
 図10に示した画素50bのFD91bの大きさが、図4に示した画素50aのFD91(以下、画素50aのFD91は、FD91aと記述する)よりも小さく構成されている点が異なる。
 再度図4に示した画素50aを参照するに、画素50aのFD91aの幅(図中、横方向の長さ)は、接続部97よりも長く形成されている。図10に示した画素50bのFD91bの幅は、接続部97と同程度に形成されている。
 図10に示したように、FD91bと接続部97が接する部分は、同程度の大きさで形成されているようにしても良い。
 第2の実施の形態における画素50bにおいても、第1の実施の形態における画素50aと同じく、隣接する画素50bのFD91bを接続部97で接続することで、隣接する画素50bのFD91bを電気的に導通した状態とすることができる。また接続部97に、FD配線98のコンタクトの接触部を設けることができる。
 よって、FD91の領域(FD拡散層)を小さくすることができ、結果として、FD容量を抑制することが可能となり、変換効率を高めることが可能となり、S/Nを改善することが可能となる。
 <第3の実施の形態における画素の構成例>
 図11は、第3の実施の形態における画素50cの構成例を示す図である。図11に示した画素50cの基本的な構成は、図4に示した画素50aと同様なため、同様の部分には同様の符号を付し、説明は省略する。
 図11に示した画素50cの転送トランジスタ90のゲートは、アクティブ領域77上に形成され、図4に示した画素50aの転送トランジスタ90のゲートは、STI78上に形成されている点が異なる。
 図11に示した画素50cの平面図において、転送トランジスタ90-1の周りには、アクティブ領域77c-1が位置し、そのアクティブ領域77c-1の外側にSTI78が位置している。同じく、転送トランジスタ90-2の周りには、アクティブ領域77c-2が位置し、そのアクティブ領域77c-2の外側にSTI78が位置している。
 このことを、断面図で示すと、図12のようになる。図12のAと図12のBに、比較のため第1の実施の形態における画素50aの転送トランジスタ90(以下、転送トランジスタ90aと記述する)付近の平面図と断面図を示す。
 図12のAは、画素50aの転送トランジスタ90a付近の平面図であり、図12のBは、図12のA中の線分c-c’の位置に対応する転送トランジスタ90a付近の断面図である。
 図12のAに示したように、転送トランジスタ90aのFD91と接している部分以外は、STI78aと接している。断面で見ると、図12のBに示したように、転送トランジスタ90aの両端は、STI78a上に位置するように、転送トランジスタ90aは形成されている。
 図12のCは、画素50cの転送トランジスタ90c付近の平面図であり、図12のDは、図12のC中の線分d-d’の位置に対応する転送トランジスタ90c付近の断面図である。
 図12のCに示したように、転送トランジスタ90cのFD91と接している部分以外は、アクティブ領域77cと接している。断面で見ると、図12のDに示したように、転送トランジスタ90cは、アクティブ領域77c上に位置するように、転送トランジスタ90cは形成され、STI78cとは接しない状態で形成されている。
 このように、転送トランジスタ90cは、STI78上に形成されているように構成することも可能であるし、アクティブ領域77上に形成されているように構成することも可能である。
 図11を再度参照するに、図11に示した画素50cのFD91は、第2の実施の形態のFD91bを適用し、FD91bと接続部97が接する部分は、接続部97と同程度の大きさで形成されている場合を示した。
 第3の実施の形態に、第1の実施の形態のFD91aを適用し、FD91aと接続部97が接する部分は、接続部97よりも大きく形成されているようにしても良い。すなわち、第3の実施の形態は、第1の実施の形態、または第2の実施の形態と組み合わせた構成とすることができる。
 第3の実施の形態における画素50cにおいても、第1の実施の形態における画素50aと同じく、隣接する画素50cのFD91を接続部97で接続することで、隣接する画素50cのFD91を電気的に導通した状態とすることができ、その接続部97に、FD配線98のコンタクトの接触部を設けることができる。
 よって、FD91の領域(FD拡散層)を小さくすることができ、結果として、FD容量を抑制することが可能となり、変換効率を高めることが可能となり、S/Nを改善することが可能となる。
 <第4の実施の形態における画素の構成例>
 図13は、第4の実施の形態における画素50dの構成例を示す図である。図13に示した画素50dの基本的な構成は、図4に示した画素50aと同様なため、同様の部分には同様の符号を付し、説明は省略する。
 図13に示した画素50dのFD配線98dは、FD91dに接続され、図4に示した画素50aのFD配線98は、接続部97に接続されている点が異なる。
 図13に示した画素50dの平面図において、FD配線98dは、画素50d-2のFD91d-2に接続されている。また、FD91d-2は、FD配線98dが接続されるため、FD98dが接続されないFD91d-1よりも大きく形成されている。
 画素50dのように、FD配線98dを、FD91dに接続されるように構成することも可能である。
 第4の実施の形態における画素50dにおいても、第1の実施の形態における画素50aと同じく、隣接する画素50dのFD91dを接続部97で接続することで、隣接する画素50dのFD91dを電気的に導通した状態とすることができる。
 また、画素50d毎にFD配線98のコンタクトの接触部を設けなくても良いため、画素50d毎にFD配線98のコンタクトの接触部を設ける場合と比較して、FD91の領域(FD拡散層)を小さくすることができる。結果として、FD容量を抑制することが可能となり、変換効率を高めることが可能となり、S/Nを改善することが可能となる。
 また、このように、FD配線98の接続箇所は、接続部97でも良いし、FD91でも良く、配線の設計の自由度を高めることができる。
 <第5の実施の形態における画素の構成例>
 図14は、第5の実施の形態における画素50eの構成例を示す図である。図14に示した画素50eの基本的な構成は、図4に示した画素50aと同様なため、同様の部分には同様の符号を付し、説明は省略する。
 上記した第1乃至第4の実施の形態における画素50a乃至50dは、FD91を接続部97により接続する場合を例に挙げて説明した。さらに、第5の実施の形態における画素50eとして、GND領域を接続する場合について説明する。
 図14に示した画素50e-1には、GND領域201-1が形成され、画素50e-2には、GND領域201-2が形成されている。このGND領域201は、P+拡散層として形成することができる。このGND領域201-1とGND領域201-2を接続する領域に、GNDコンタクト96eが形成されている。
 GNDコンタクト96eは、接続部97と同じく、貫通DTI82上であり、画素50e-1と画素50e-2の間に形成されている。GNDコンタクト96eは、GND領域201と同じく、P+拡散層として形成することができる。
 またGNDコンタクト96eは、接続部97と同じく、ポリシリコンで形成され、GND領域201をP+拡散層として形成するときに、P+となる不純物を注入することで形成されるようにすることができる。
 画素50eのように構成することで、GNDコンタクト96を画素50e毎に形成する必要がなくなる。よって、画素50eに配置するトランジスタを大きく形成したり、トランジスタを多く配置したりすることができる。
 図14に示した画素50eは、第1の実施の形態の画素50a(図4)と組み合わせた例を示したが、第2乃至第4の実施の形態における画素50b乃至50dと組み合わせることも可能である。
 このように、本技術においては、FD91をトレンチ上に形成された接続部97で接続したり、GND領域201をトレンチ上に形成されたGNDコンタクト96で接続したりする構成とすることができる。
 換言すれば、隣接する画素50のFD91やGND領域201といった所定の領域同士を、トレンチ上に形成された領域で接続する構成とすることで、所定の領域を1つの領域として扱うことができるようにすることができる。
 また、所定の領域同士は、同一の不純物領域であり、トレンチ上に形成された領域も、所定の領域と同一の不純物領域である。また、所定の領域が、トレンチ上に形成された領域で接続されることで、同電位の領域となり、そのような同電位の領域としたい領域同士を、トレンチ上に形成された領域で接続することが可能となる。
 <第6の実施の形態における画素の構成例>
 図15は、第6の実施の形態における画素50fの構成例を示す図である。図15に示した画素50fの基本的な構成は、図4に示した画素50aと同様なため、同様の部分には同様の符号を付し、説明は省略する。
 図15に示した画素50fの接続部97fは、図4に示した画素50aの接続部97よりも大きく形成されている点が異なる。
 図16に示した画素50fの断面図を参照する。接続部97fは、貫通DTI82上に形成されている点は、図7に示した第1の実施の形態における画素50aの接続部97と同じである。
 一方で、図7に示した画素50aの接続部97は、全体がSi基板70内に形成されているのに対し、図16に示した画素50fの接続部97fは、一部がSi基板70に形成され、他の部分は、Si基板70上(図示していない配線層内)に形成されている点が異なる。
 また接続部97fは、転送トランジスタ90のゲートと同一の高さ(図16中、上下方向)で形成されている。接続部97fは、埋め込み型に形成されている部分で、FD91f-1とFD91f-2にそれぞれ接しているとともに、Si基板70上に形成された埋め込み型では無い部分でも、FD91f-1とFD91f-2とそれぞれ接している。
 換言すれば、接続部97fは、FD91fの側面で接しているとともに、FD91fの上面とも接している。すなわちこの場合、接続部97fは、FD91fと2面で接している。
 図15の平面図を参照するに、接続部97fは、FD91f-1と重なる部分があるように形成されているとともに、FD91f-2とも重なる部分があるように形成されている。すなわち、接続部97fは、画素50aの接続部97(図4)よりも大きく形成されている。このように接続部97fを大きく構成することで、合わせずれが発生したとしても、接続部97fとFD91fが接するように構成することができる。
 <接続部の製造について>
 画素50fの製造、特に、接続部97fの製造について、図17を参照して説明を加える。
 工程S51において、貫通DTI82となるトレンチ、P型固相拡散層83、およびN型固相拡散層84が形成されたSi基板70が用意される。この工程S51は、工程S11(図9)と同様の工程であるため、その説明は省略する。
 工程S52において、トレンチ内を含むSi基板70の全面に、SiO2とポリシリコンが堆積され、エッチバックされる。その後、再度全面にSiO2が堆積され、エッチバックされる。この工程により、トレンチの内部は、SiO2層とポリシリコン層が積層(充填)された状態となる。SiO2層は、側壁膜85となる部分であり、ポリシリコン層は、充填材86となる部分である。
 この後、SiN膜が除去され、トレンチの周囲(貫通DTI82の周囲)でありSi基板70の表面にFD91の一部となるN+拡散層を形成するために、例えば、リンがイオン注入される。このとき、PD71となる部分などに対するイオン注入も行われるようにしても良い。イオン注入後、転送トランジスタ90のゲートの縦型トランジスタ部となる部分をエッチングすることで形成し、SiO2膜を除去した後、全面がゲート酸化される。
 工程S53において、リソグラフィーとエッチングにより、接続部97fを形成したい部分のみ開口されるようにレジスト151が成膜され、接続部97fを形成したい部分のSiO2膜が除去される。
 工程S54において、レジスト151が除去された後、リンがドーピングされたポリシリコン152が、トレンチの内部を含み、Si基板70の全面に堆積される。
 工程S55において、リソグラフィーとドライエッチングにより、堆積されたポリシリコン152がパターニングされる。パターニングされることで、転送トランジスタ90のゲートとなる部分であり、縦型トランジスタを含む部分が形成される。また、接続部97fも形成される。このように、第6の実施の形態における画素50fにおいては、転送トランジスタ90のゲートと、接続部97fが、同時に形成される。
 工程S56において、転送トランジスタ90のゲート横に位置するSi基板70内、すなわちFD91となる部分(工程S52で形成されたFD91の一部と合わせてFD91となる部分)に、N+拡散層を形成するために、例えばリンのイオン注入が行われる。その後、リンがドーピングされているポリシリコン152であり、接続部97となる部分に、FD配線79のコンタクトが形成される。
 以上のような工程を経て、接続部97fを有する画素50fが製造される。
 第6の実施の形態における画素50fにおいても、第1の実施の形態における画素50aと同じく、隣接する画素50fのFD91fを接続部97fで接続することで、隣接する画素50fのFD91fを電気的に導通した状態とすることができる。また、その接続部97fに、FD配線98fのコンタクトの接触部を設けることができる。
 よって、FD91fの領域(FD拡散層)を小さくすることができ、結果として、FD容量を抑制することが可能となり、変換効率を高めることが可能となり、S/Nを改善することが可能となる。
 なお、第6の実施の形態における画素50fに対して、第5の実施の形態を適用し、画素50f-1と画素50f-2にそれぞれ形成されているGND領域を、貫通DTI82上に形成されたGNDコンタクトで接続する構成とすることも可能である。
 <第7の実施の形態における画素の構成例>
 図18乃至図20は、第7の実施の形態における画素50gの構成例を示す図である。上記した第1乃至第6の実施の形態における画素50は、2画素共有である場合を例に挙げて説明したが、本技術は、2画素共有に限定されるわけではなく、2以上の画素でトランジスタなどを共有する場合も適用できる。
 第7の実施の形態として、4画素共有である場合を例に挙げて説明する。図18は、画素アレイ部41に行列状に配置されている単位画素50の配置例であり、4画素共有時の配置例を示す図である。
 画素アレイ部41には、行列状に、単位画素50gが複数配置されている。図18では、画素アレイ部41に配置されている4×4の16個の画素50gを例示している。図19を参照して後述するように、4画素において、リセットトランジスタ、増幅トランジスタ、選択トランジスタを共有し、FDを共有した構成とされている。
 図18においては、縦方向に配置されている2画素50gと横方向に配置されている2画素50gの合計4画素50gが共有画素とされている。2×2で配置されている画素50g-1、画素50g-2、画素50g-3、および画素50g-4が共有画素とされている。同じく、2×2で配置されている画素50g-5、画素50g-6、画素50g-7、および画素50g-8が共有画素とされている。
 同じく、2×2で配置されている画素50g-9、画素50g-10、画素50g-11、および画素50g-12が共有画素とされている。同じく2×2で配置されている画素50g-13、画素50g-14、画素50g-15、および画素50g-16が共有画素とされている。
 なお、画素50g-1乃至50g-16を個々に区別する必要が無い場合、単に、画素50gと記述する。他の部分も同様に記述する。
 図19は、共有された4画素の平面図である。図19では、縦方向と横方向に配置されている2×2の4画素として、画素50g-1乃至50g-4を図示し、説明を続ける。基本的な構成は、図3に示した2画素共有時の画素50aと同様であるため、同様の部分は、適宜説明を省略する。
 図19中、1つの四角形は、1画素50gを表す。画素50gは、フォトダイオード(PD)71を含み、PD71を取り囲むように、貫通DTI82が配置されている。
 画素50g-1の表面側には、転送トランジスタ90g-1、FD91g-1、リセットトランジスタ92g、GNDコンタクト96g-1が形成されている。画素50g-2の表面側には、転送トランジスタ90g-2、FD91g-2、選択トランジスタ94g、GNDコンタクト96g-2が形成されている。
 画素50g-3の表面側には、転送トランジスタ90g-3、FD91g-3、増幅トランジスタ93g-1、GNDコンタクト96g-3が形成されている。画素50g-4の表面側には、転送トランジスタ90g-4、FD91g-4、増幅トランジスタ93g-2、GNDコンタクト96g-4が形成されている。
 リセットトランジスタ92g、増幅トランジスタ93g、選択トランジスタ94gは、画素50g-1乃至50g-4で共有される構成とされている。また、増幅トランジスタ93gは、画素50g-3に配置されている増幅トランジスタ93g-1と画素50g-4に配置されている増幅トランジスタ93g-2とから構成されている。
 複数のトランジスタを、4画素50gで共有する構成とすることで、1画素内に配置すべきトランジスタの個数を減らすことができるため、1つのトランジスタを配置する領域を大きくすることができる。トランジスタを大きく構成することで、ノイズを低減するなどの効果を得られる。
 さらに、図19に示したように、増幅トランジスタ93gを、2画素に配置されている増幅トランジスタ93g-1と増幅トランジスタ93g-2とから構成されているようにすることで、より大きな領域を増幅トランジスタ93gに割り当てることでき、ノイズをより低減することが可能となる。
 画素50g-1のFD91g-1、画素50g-2のFD91g-2、画素50g-3のFD91g-3、画素50g-4のFD91g-4は、貫通DTI82の一部に形成されている接続部97gにより接続され、1つのFD91gとして機能するように構成されている。この接続部97gに、FD配線98gが接続されている。
 FD配線98gは、リセットトランジスタ92g、増幅トランジスタ93g-1、増幅トランジスタ93g-2にも接続されている。またFD配線98gの一部は、貫通DTI82上に形成されている。
 図20は、画素50gの垂直方向の断面図であり、図19中の線分A-A’の位置に対応するものである。画素50gの断面の構成は、図7に示した画素50aの断面の構成と同様であるため、詳細な説明は省略する。
 転送トランジスタ90g(転送ゲート90g)と隣接する領域には、FD91gが形成されている。図20中、左側に図示してある画素50g-1の転送トランジスタ90g-1の右側に、FD91g-1が形成され、図20中、右側に図示してある画素50g-4の転送トランジスタ90g-4の左側に、FD91g-4が形成されている。
 FD91g-1とFD91g-4の間には、接続部97gが形成されている。この接続部97gは、貫通DTI82上であり、Si基板70内に形成されている。画素50g-1と画素50g-4の間には、図18、図19を参照して説明したように、貫通DTI82が形成されている。接続部97gは、貫通DTI82の上部にある側壁膜85を一部除去し、その除去した部分に形成されている。
 接続部97gは、例えばポリシリコンで形成されている。また、接続部97gは、FD91gと同一の半導体領域とされている。例えば、FD91gが、N型半導体領域である場合、接続部97gも、N型半導体領域で形成される。
 FD91g-1、接続部97g、およびFD91g-4は、連続したN+拡散層となるように形成されている。換言すれば、FD91g-1と接続部97gが導通した状態であり、FD91g-4と接続部97gが導通した状態であるため、接続部97gを介して、FD91g-1とFD91g-4が導通した状態となる。
 よって、FD91g-1、接続部97g、およびFD91g-4は、1つのN+拡散層として存在し、1つのFD91gとして扱うことができる。このようなFD91gが、画素50g-1と画素50g-4で共有される。
 図20では図示していないが、画素50g-2のFD91g-2と画素50g-3のFD91g-3も、接続部97gと接続されているため、FD91g-1乃至91g-4と接続部97gは、1つのN+拡散層として存在し、1つのFD91gとして扱うことができる。このようなFD91gが、画素50g-1乃至50g-4で共有される。
 接続部97gには、FD配線98g(FD配線98gの一部であるコンタクト)が接続されている。このFD配線98gは、図19を参照して説明したように、増幅トランジスタ93gのゲートと接続されている。転送トランジスタ90gによりPD71から読み出された電荷は、FD91g、FD配線98gを介して配線層(不図示)に流れ、増幅トランジスタ93gのゲート電位が変動するように構成されている。
 このように、4画素共有の場合にも、本技術を適用することができる。なお、本明細書では、2画素共有の場合と4画素共有の場合を例に挙げて説明をしたが、例えば8画素共有のような複数の画素での共有の場合にも本技術を適用することはできる。
 4画素共有の場合も、2画素共有の場合と同じく、2画素共有の場合と同じく、隣接する画素50gのFD91gを接続部97gで接続することで、隣接する画素50gのFD91gを電気的に導通した状態とすることができる。また、その接続部97gに、FD配線98gのコンタクトの接触部を設けることができる。
 よって、FD91gの領域(FD拡散層)を小さくすることができ、結果として、FD容量を抑制することが可能となり、変換効率を高めることが可能となり、S/Nを改善することが可能となる。
 なお、4画素共有の場合の第7の実施の形態は、第1乃至第6の実施の形態のいずれかと組み合わせて適用することもできる。
 なお、上述した実施の形態においては、貫通DTI82に、P型固相拡散層83とN型固相拡散層84が形成され、強電界領域が形成されている場合を例に挙げて説明したが、強電界領域が形成されていない画素に対しても、本技術を適用することはできる。
 <内視鏡手術システムへの応用例>
 また、例えば、本開示に係る技術(本技術)は、内視鏡手術システムに適用されてもよい。
 図21は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図21では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図22は、図21に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 <移動体への応用例>
 また、例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図23は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図23に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図23の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図24は、撮像部12031の設置位置の例を示す図である。
 図24では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図24には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 本技術は以下のような構成も取ることができる。
(1)
 基板と、
 前記基板に設けられた第1の光電変換領域を含む第1の画素と、
 前記第1の光電変換領域の隣であって、前記基板に設けられた第2の光電変換領域を含む第2の画素と、
 前記第1の光電変換領域と前記第2の光電変換領域との間であって、前記基板に設けられたトレンチと、
 前記第1の画素に含まれる第1の領域と、
 前記第2の画素に含まれる第2の領域と、
 前記第1の領域、前記第2の領域、および前記トレンチに接した第3の領域と
 を備える撮像素子。
(2)
 前記第1の領域、前記第2の領域、および前記第3の領域は、N型の不純物領域またはP型の不純物領域である
 前記(1)に記載の撮像素子。
(3)
 前記第1の領域、前記第2の領域、および前記第3の領域は、同一の電位となる領域である
 前記(1)または(2)に記載の撮像素子。
(4)
 前記第1の領域と前記第2の領域は、FD(フローティングディフュージョン)である
 前記(1)乃至(3)のいずれかに記載の撮像素子。
(5)
 前記第1の領域と前記第2の領域は、グランド領域である
 前記(1)乃至(4)のいずれかに記載の撮像素子。
(6)
 前記第3の領域は、前記基板に対してN型またはP型の不純物を含むポリシリコンで形成されている
 前記(1)乃至(5)のいずれかに記載の撮像素子。
(7)
 前記第3の領域の側面のうち2面と底面は、前記トレンチに形成されている所定の膜と接している
 前記(1)乃至(6)のいずれかに記載の撮像素子。
(8)
 前記第3の領域に、トランジスタと接続される配線が接続されている
 前記(1)乃至(7)のいずれかに記載の撮像素子。
(9)
 前記第3の領域の深さは、前記第1の領域の深さの50乃至80%の深さとされている
 前記(1)乃至(8)のいずれかに記載の撮像素子。
(10)
 前記第1の領域と前記第3の領域が接している部分において、前記第1の領域は、前記第3の領域と同程度または大きく形成されている
 前記(1)乃至(9)のいずれかに記載の撮像素子。
(11)
 前記第3の領域は、前記第1の領域と2面で接している
 前記(1)乃至(10)のいずれかに記載の撮像素子。
(12)
 前記第1の領域に、トランジスタと接続される配線が接続され、
 前記第1の領域は、前記第2の領域よりも大きい領域で形成されている
 前記(1)乃至(7)のいずれかに記載の撮像素子。
(13)
 前記トレンチの側壁に、P型領域とN型領域から構成されるPN接合領域が形成されている
 前記(1)乃至(12)のいずれかに記載の撮像素子。
(14)
 基板と、
 前記基板に設けられた第1の光電変換領域を含む第1の画素と、
 前記第1の光電変換領域の隣であって、前記基板に設けられた第2の光電変換領域を含む第2の画素と、
 前記第1の光電変換領域と前記第2の光電変換領域との間であって、前記基板に設けられたトレンチと、
 前記第1の画素に含まれる第1の領域と、
 前記第2の画素に含まれる第2の領域と、
 前記第1の領域、前記第2の領域、および前記トレンチに接した第3の領域と
 を備える撮像素子を含む
 電子機器。
 50 画素, 70 Si基板, 72 P型領域, 73 平坦化膜, 74 遮光膜, 75 裏面Si界面, 77 アクティブ領域, 79 FD配線, 83 P型固相拡散層, 84 N型固相拡散層, 85 側壁膜, 86 充填材, 90 転送トランジスタ, 91 FD, 92 リセットトランジスタ, 93 増幅トランジスタ, 94 選択トランジスタ, 95 変換効率切替トランジスタ, 96 GNDコンタクト, 97 接続部, 98 FD配線, 99 SiO2膜, 201 GND領域

Claims (14)

  1.  基板と、
     前記基板に設けられた第1の光電変換領域を含む第1の画素と、
     前記第1の光電変換領域の隣であって、前記基板に設けられた第2の光電変換領域を含む第2の画素と、
     前記第1の光電変換領域と前記第2の光電変換領域との間であって、前記基板に設けられたトレンチと、
     前記第1の画素に含まれる第1の領域と、
     前記第2の画素に含まれる第2の領域と、
     前記第1の領域、前記第2の領域、および前記トレンチに接した第3の領域と
     を備える撮像素子。
  2.  前記第1の領域、前記第2の領域、および前記第3の領域は、N型の不純物領域またはP型の不純物領域である
     請求項1に記載の撮像素子。
  3.  前記第1の領域、前記第2の領域、および前記第3の領域は、同一の電位となる領域である
     請求項1に記載の撮像素子。
  4.  前記第1の領域と前記第2の領域は、FD(フローティングディフュージョン)である
     請求項1に記載の撮像素子。
  5.  前記第1の領域と前記第2の領域は、グランド領域である
     請求項1に記載の撮像素子。
  6.  前記第3の領域は、前記基板に対してN型またはP型の不純物を含むポリシリコンで形成されている
     請求項1に記載の撮像素子。
  7.  前記第3の領域の側面のうち2面と底面は、前記トレンチに形成されている所定の膜と接している
     請求項1に記載の撮像素子。
  8.  前記第3の領域に、トランジスタと接続される配線が接続されている
     請求項1に記載の撮像素子。
  9.  前記第3の領域の深さは、前記第1の領域の深さの50乃至80%の深さとされている
     請求項1に記載の撮像素子。
  10.  前記第1の領域と前記第3の領域が接している部分において、前記第1の領域は、前記第3の領域と同程度または大きく形成されている
     請求項1に記載の撮像素子。
  11.  前記第3の領域は、前記第1の領域と2面で接している
     請求項1に記載の撮像素子。
  12.  前記第1の領域に、トランジスタと接続される配線が接続され、
     前記第1の領域は、前記第2の領域よりも大きい領域で形成されている
     請求項1に記載の撮像素子。
  13.  前記トレンチの側壁に、P型領域とN型領域から構成されるPN接合領域が形成されている
     請求項1に記載の撮像素子。
  14.  基板と、
     前記基板に設けられた第1の光電変換領域を含む第1の画素と、
     前記第1の光電変換領域の隣であって、前記基板に設けられた第2の光電変換領域を含む第2の画素と、
     前記第1の光電変換領域と前記第2の光電変換領域との間であって、前記基板に設けられたトレンチと、
     前記第1の画素に含まれる第1の領域と、
     前記第2の画素に含まれる第2の領域と、
     前記第1の領域、前記第2の領域、および前記トレンチに接した第3の領域と
     を備える撮像素子を含む
     電子機器。
PCT/JP2019/018212 2018-05-18 2019-05-07 撮像素子、電子機器 WO2019220945A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201980031807.2A CN112119501A (zh) 2018-05-18 2019-05-07 摄像元件和电子设备
KR1020247011994A KR20240052878A (ko) 2018-05-18 2019-05-07 촬상 소자, 전자 기기
US17/053,208 US20210136310A1 (en) 2018-05-18 2019-05-07 Image sensor and electronic device
KR1020207030347A KR102664630B1 (ko) 2018-05-18 2019-05-07 촬상 소자, 전자 기기
EP19802743.5A EP3796386B1 (en) 2018-05-18 2019-05-07 Imaging element and electronic device
JP2020519568A JPWO2019220945A1 (ja) 2018-05-18 2019-05-07 撮像素子、電子機器
EP22197687.1A EP4138137A1 (en) 2018-05-18 2019-05-07 Image sensor and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018095904 2018-05-18
JP2018-095904 2018-05-18

Publications (1)

Publication Number Publication Date
WO2019220945A1 true WO2019220945A1 (ja) 2019-11-21

Family

ID=68540370

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/018212 WO2019220945A1 (ja) 2018-05-18 2019-05-07 撮像素子、電子機器

Country Status (7)

Country Link
US (1) US20210136310A1 (ja)
EP (2) EP4138137A1 (ja)
JP (1) JPWO2019220945A1 (ja)
KR (2) KR20240052878A (ja)
CN (1) CN112119501A (ja)
TW (1) TWI834644B (ja)
WO (1) WO2019220945A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172176A1 (ja) * 2020-02-28 2021-09-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
WO2022249575A1 (ja) * 2021-05-27 2022-12-01 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、固体撮像素子の製造方法および電子機器
WO2023074461A1 (ja) * 2021-10-25 2023-05-04 ソニーセミコンダクタソリューションズ株式会社 撮像装置
WO2023171129A1 (ja) * 2022-03-10 2023-09-14 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置
WO2023176430A1 (ja) * 2022-03-15 2023-09-21 ソニーセミコンダクタソリューションズ株式会社 光検出装置
WO2023190194A1 (ja) * 2022-03-31 2023-10-05 ソニーセミコンダクタソリューションズ株式会社 撮像素子、撮像装置及び半導体素子
WO2023203811A1 (ja) * 2022-04-18 2023-10-26 ソニーセミコンダクタソリューションズ株式会社 光検出装置
WO2023249116A1 (ja) * 2022-06-24 2023-12-28 ソニーセミコンダクタソリューションズ株式会社 撮像素子及び電子機器
WO2024075405A1 (ja) * 2022-10-04 2024-04-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011014808A (ja) * 2009-07-06 2011-01-20 Sony Corp 固体撮像装置、固体撮像装置の製造方法及び電子機器
JP2015046477A (ja) * 2013-08-28 2015-03-12 ソニー株式会社 固体撮像装置および製造方法、並びに、電子機器
JP2015233122A (ja) * 2014-05-16 2015-12-24 ソニー株式会社 固体撮像素子および固体撮像素子の製造方法、並びに電子機器
US20170200763A1 (en) 2015-10-30 2017-07-13 Taiwan Semiconductor Manufacturing Co., Ltd. Method for manufacturing image sensor structure having wide contact
WO2017187957A1 (ja) * 2016-04-25 2017-11-02 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7315014B2 (en) * 2005-08-30 2008-01-01 Micron Technology, Inc. Image sensors with optical trench
JP5320659B2 (ja) * 2005-12-05 2013-10-23 ソニー株式会社 固体撮像装置
JP5292787B2 (ja) * 2007-11-30 2013-09-18 ソニー株式会社 固体撮像装置及びカメラ
KR101776955B1 (ko) * 2009-02-10 2017-09-08 소니 주식회사 고체 촬상 장치와 그 제조 방법, 및 전자 기기
JP4816768B2 (ja) * 2009-06-22 2011-11-16 ソニー株式会社 固体撮像装置とその製造方法、及び電子機器
JP4798232B2 (ja) * 2009-02-10 2011-10-19 ソニー株式会社 固体撮像装置とその製造方法、及び電子機器
JP5118715B2 (ja) * 2010-03-11 2013-01-16 株式会社東芝 固体撮像装置
JP2013038118A (ja) * 2011-08-04 2013-02-21 Sony Corp 固体撮像素子および電子機器
JP5999402B2 (ja) * 2011-08-12 2016-09-28 ソニー株式会社 固体撮像素子および製造方法、並びに電子機器
KR101968197B1 (ko) * 2012-05-18 2019-04-12 삼성전자주식회사 이미지 센서 및 이의 형성 방법
JP2014096490A (ja) * 2012-11-09 2014-05-22 Sony Corp 撮像素子、製造方法
KR102009192B1 (ko) * 2013-02-05 2019-08-09 삼성전자주식회사 이미지 센서의 단위 픽셀 및 이를 포함하는 이미지 센서
JP6119432B2 (ja) * 2013-05-31 2017-04-26 ソニー株式会社 固体撮像素子、電子機器、および製造方法
JP2015012127A (ja) * 2013-06-28 2015-01-19 ソニー株式会社 固体撮像素子および電子機器
JP6171997B2 (ja) * 2014-03-14 2017-08-02 ソニー株式会社 固体撮像素子およびその駆動方法、並びに電子機器
KR102134636B1 (ko) * 2014-07-14 2020-07-16 삼성전자주식회사 이미지 센서의 단위 픽셀 및 이를 포함하는 이미지 센서
KR102410088B1 (ko) * 2014-12-11 2022-06-20 삼성전자주식회사 이미지 센서
KR102384890B1 (ko) * 2015-01-13 2022-04-11 삼성전자주식회사 이미지 센서 및 그 형성 방법
JP6800839B2 (ja) * 2015-03-09 2020-12-16 ソニーセミコンダクタソリューションズ株式会社 撮像素子及びその製造方法、並びに電子機器
WO2017061295A1 (ja) * 2015-10-09 2017-04-13 ソニー株式会社 固体撮像素子および製造方法、並びに電子機器
KR20180077393A (ko) * 2016-12-28 2018-07-09 삼성전자주식회사 광센서

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011014808A (ja) * 2009-07-06 2011-01-20 Sony Corp 固体撮像装置、固体撮像装置の製造方法及び電子機器
JP2015046477A (ja) * 2013-08-28 2015-03-12 ソニー株式会社 固体撮像装置および製造方法、並びに、電子機器
JP2015233122A (ja) * 2014-05-16 2015-12-24 ソニー株式会社 固体撮像素子および固体撮像素子の製造方法、並びに電子機器
US20170200763A1 (en) 2015-10-30 2017-07-13 Taiwan Semiconductor Manufacturing Co., Ltd. Method for manufacturing image sensor structure having wide contact
WO2017187957A1 (ja) * 2016-04-25 2017-11-02 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3796386A4

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172176A1 (ja) * 2020-02-28 2021-09-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
WO2022249575A1 (ja) * 2021-05-27 2022-12-01 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、固体撮像素子の製造方法および電子機器
WO2023074461A1 (ja) * 2021-10-25 2023-05-04 ソニーセミコンダクタソリューションズ株式会社 撮像装置
WO2023171129A1 (ja) * 2022-03-10 2023-09-14 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置
WO2023176430A1 (ja) * 2022-03-15 2023-09-21 ソニーセミコンダクタソリューションズ株式会社 光検出装置
WO2023190194A1 (ja) * 2022-03-31 2023-10-05 ソニーセミコンダクタソリューションズ株式会社 撮像素子、撮像装置及び半導体素子
WO2023203811A1 (ja) * 2022-04-18 2023-10-26 ソニーセミコンダクタソリューションズ株式会社 光検出装置
WO2023249116A1 (ja) * 2022-06-24 2023-12-28 ソニーセミコンダクタソリューションズ株式会社 撮像素子及び電子機器
WO2024075405A1 (ja) * 2022-10-04 2024-04-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置

Also Published As

Publication number Publication date
CN112119501A (zh) 2020-12-22
EP3796386B1 (en) 2022-09-28
KR20210010442A (ko) 2021-01-27
US20210136310A1 (en) 2021-05-06
KR102664630B1 (ko) 2024-05-10
KR20240052878A (ko) 2024-04-23
TWI834644B (zh) 2024-03-11
EP3796386A4 (en) 2021-05-19
EP3796386A1 (en) 2021-03-24
EP4138137A1 (en) 2023-02-22
TW202005070A (zh) 2020-01-16
JPWO2019220945A1 (ja) 2021-06-17

Similar Documents

Publication Publication Date Title
US20230033933A1 (en) Imaging element having p-type and n-type solid phase diffusion layers formed in a side wall of an interpixel light shielding wall
EP3796386B1 (en) Imaging element and electronic device
WO2020012824A1 (ja) 固体撮像素子および電子機器
WO2021015009A1 (en) Solid-state imaging device and electronic apparatus
US20230353894A1 (en) Imaging device and electronic device
WO2020066640A1 (ja) 撮像素子、電子機器
US11502122B2 (en) Imaging element and electronic device
WO2019239754A1 (ja) 固体撮像素子および固体撮像素子の製造方法ならびに電子機器
US20240088191A1 (en) Photoelectric conversion device and electronic apparatus
JP7275125B2 (ja) 撮像素子、電子機器
WO2024057805A1 (ja) 撮像素子および電子機器
WO2022145190A1 (ja) 固体撮像装置および電子機器
WO2024034411A1 (ja) 半導体装置およびその製造方法
US20220344390A1 (en) Organic cis image sensor
WO2023021740A1 (ja) 撮像素子、撮像装置、製造方法
WO2023017650A1 (ja) 撮像装置及び電子機器
WO2023017640A1 (ja) 撮像装置及び電子機器
WO2022249678A1 (ja) 固体撮像装置およびその製造方法
JP2023088634A (ja) 固体撮像装置及び電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19802743

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020519568

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2019802743

Country of ref document: EP