WO2019082689A1 - 半導体装置、固体撮像素子、製造方法、および電子機器 - Google Patents

半導体装置、固体撮像素子、製造方法、および電子機器

Info

Publication number
WO2019082689A1
WO2019082689A1 PCT/JP2018/038060 JP2018038060W WO2019082689A1 WO 2019082689 A1 WO2019082689 A1 WO 2019082689A1 JP 2018038060 W JP2018038060 W JP 2018038060W WO 2019082689 A1 WO2019082689 A1 WO 2019082689A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor substrate
area
stopper layer
semiconductor
region
Prior art date
Application number
PCT/JP2018/038060
Other languages
English (en)
French (fr)
Inventor
利仁 三浦
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/757,162 priority Critical patent/US20200251516A1/en
Priority to JP2019550995A priority patent/JPWO2019082689A1/ja
Publication of WO2019082689A1 publication Critical patent/WO2019082689A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/04Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer
    • H01L21/18Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer the devices having semiconductor bodies comprising elements of Group IV of the Periodic Table or AIIIBV compounds with or without impurities, e.g. doping materials
    • H01L21/30Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26
    • H01L21/302Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26 to change their surface-physical characteristics or shape, e.g. etching, polishing, cutting
    • H01L21/306Chemical or electrical treatment, e.g. electrolytic etching
    • H01L21/3065Plasma etching; Reactive-ion etching
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L23/00Details of semiconductor or other solid state devices
    • H01L23/544Marks applied to semiconductor devices or parts, e.g. registration marks, alignment structures, wafer maps
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14632Wafer-level processed structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14687Wafer level processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2223/00Details relating to semiconductor or other solid state devices covered by the group H01L23/00
    • H01L2223/544Marks applied to semiconductor devices or parts
    • H01L2223/54453Marks applied to semiconductor devices or parts for use prior to dicing
    • H01L2223/5446Located in scribe lines

Definitions

  • the present disclosure relates to a semiconductor device, a solid-state imaging device, a manufacturing method, and an electronic device, and more particularly to a semiconductor device, a solid-state imaging device, a manufacturing method, and an electronic device capable of achieving stabilization of device characteristics.
  • a semiconductor substrate having a recessed portion with a predetermined depth formed by etching is used.
  • an interference wave EPD (Etch Pit Density) is used to control the processing depth of the dug portion.
  • the interference wave EPD irradiates laser light from above, for example, and monitors the etching depth from the phase difference between the reflected wave of the area where a mask such as photoresist is disposed and not etched and the reflected wave of the area to be etched, This is a method of end point detection at a desired etching depth.
  • the interference wave EPD is considered to be an effective method under conditions where the processing depth is relatively shallow at 1 ⁇ m or less and the aperture ratio is about 30% or more, such as processing of STI (Shallow Trench Isolation).
  • the aperture ratio is less than 20%, the reflected wave in the etched area can not be detected sufficiently, and it is very difficult to monitor the etching depth by the interference wave EPD. there were. Specifically, in the case of processing a hole pattern on a semiconductor substrate, since the aperture ratio is about 1%, it can not be said that monitoring the etching depth using the interference wave EPD is realistic.
  • Patent Document 1 discloses a method of manufacturing a semiconductor device which performs plasma etching while detecting plasma impedance when forming a trench in a semiconductor substrate by plasma etching.
  • the present disclosure has been made in view of such a situation, and enables stabilization of device characteristics.
  • the semiconductor device is an ineffective region in which a semiconductor element required to function effectively is formed on a semiconductor substrate, and an ineffective region in which the semiconductor element is not formed on the semiconductor substrate.
  • the effective region of the semiconductor substrate and the ineffective region to a depth corresponding to the region, the stopper layer formed of a material different from the semiconductor substrate at a predetermined depth of the semiconductor substrate in the ineffective region, and the stopper layer And a digging portion formed by digging the area.
  • a pixel required to function effectively is a pixel region which is a region formed on a semiconductor substrate, and a periphery which is a region where the pixel is not formed on the semiconductor substrate.
  • the pixel region and the periphery of the semiconductor substrate to a depth corresponding to a stopper layer formed of a material different from the semiconductor substrate at a predetermined depth of the semiconductor substrate in the region and the peripheral region, and to a depth corresponding to the stopper layer And a digging portion formed by digging the area.
  • an effective area which is an area where a semiconductor element which is required to function effectively is formed on a semiconductor substrate and an ineffective area which is an area where the semiconductor element is not formed on the semiconductor substrate
  • the effective region of the semiconductor substrate and the ineffective region to a depth corresponding to the region, the stopper layer formed of a material different from the semiconductor substrate at a predetermined depth of the semiconductor substrate in the ineffective region, and the stopper layer
  • a method of manufacturing a semiconductor device comprising a digging portion formed by digging a region, comprising: forming the stopper layer on the semiconductor substrate thinner than a prescribed thickness; and defining the semiconductor substrate And epitaxially growing to a thickness of
  • the electronic device is an ineffective region in which a semiconductor element required to function effectively is formed on a semiconductor substrate and an ineffective region in which the semiconductor element is not formed on the semiconductor substrate.
  • the effective region of the semiconductor substrate and the ineffective region to a depth corresponding to the region, the stopper layer formed of a material different from the semiconductor substrate at a predetermined depth of the semiconductor substrate in the ineffective region, and the stopper layer
  • a semiconductor device having a digging portion formed by digging a region.
  • an effective area which is an area where a semiconductor element (pixel) required to function effectively is formed on a semiconductor substrate, and a semiconductor element (pixel) in the semiconductor substrate
  • An invalid area which is an area not to be formed is provided.
  • a stopper layer is formed of a material different from the semiconductor substrate at a predetermined depth of the semiconductor substrate in the ineffective region (peripheral region), and the effective region (pixel region) and ineffectiveness of the semiconductor substrate to a depth corresponding to the stopper layer
  • a digging portion is formed by digging the area (peripheral area).
  • stabilization of device characteristics can be achieved.
  • FIG. 1 It is a perspective view showing an example of composition of a 1st embodiment of a solid-state image sensing device to which this art is applied. It is a figure which shows the cross-sectional structure of a part of solid-state image sensor. It is a figure which shows the state in which the solid-state image sensor is formed in the wafer before separating into pieces by dicing. It is a figure which expands and shows the area
  • FIG. 1 It is a figure explaining the example which injects an impurity into a deep area
  • FIG. 1 A perspective view of the solid-state imaging device 11 is shown in FIG.
  • the solid-state imaging device 11 is a complementary metal oxide semiconductor (CMOS) image sensor, and a pixel area 12 is provided at the center of the solid-state imaging device 11 and an area surrounding the periphery of the pixel area 12 is a peripheral area 13 .
  • CMOS complementary metal oxide semiconductor
  • the pixel area 12 is a sensor surface on which an image of a subject is formed when the solid-state imaging device 11 captures an image.
  • a plurality of pixels which are required to function effectively when capturing an image are formed in an array.
  • a drive circuit for driving a pixel, a connection pad used for connection to the outside, etc. are formed, and pixels required to be effectively functioned when capturing an image are formed. I will not.
  • FIG. 1 The cross-sectional structure of a part of solid-state image sensor 11 is shown by FIG.
  • the solid-state imaging device 11 is formed of a semiconductor substrate 21 made of silicon or the like, and a stopper layer 22 is formed in the peripheral area 13.
  • the stopper layer 22 is formed, for example, at a position of a predetermined depth of the semiconductor substrate 21 using silicon nitride (SiN) as a material.
  • a plurality of digging portions 23 formed in a circular blind hole shape are provided by digging the surface of the solid-state imaging device 11 by etching. ing.
  • the stopper layer 22 formed in the peripheral area 13 has a function for detecting the processing depth when performing processing for forming the plurality of indented portions 23.
  • a compound generated by processing the stopper layer 22 is detected by optical emission spectrometry (OES) using plasma emission. can do.
  • the compound can be detected by a quadrupole mass spectrometer (Q-Mass: Quadrupole Mass analyzer), which is a type of mass spectrometer.
  • the stopper layer 22 a compound of a type different from the semiconductor substrate 21 (for example, silicon) to be processed can be used.
  • the stopper layer 22 is formed of a compound containing silicon such as SiN, N, SiO, SiON, or SiC, a compound containing a metal such as Al, W, or TiN, or the like.
  • silicon nitride SiN
  • SiO silicon monoxide
  • the stopper layer 22 may affect the pixels formed in the pixel area 12. It can be avoided. That is, in the configuration in which the stopper layer 22 is formed in the pixel area 12, it is assumed that the performance is lowered due to the influence of the stopper layer 22 on the pixel, but the solid-state imaging device 11 has such a performance decrease. It does not occur.
  • the plurality of digging portions 23 can be processed to have a constant processing depth without causing variations among devices, stabilization of device characteristics can be achieved.
  • FIG. 3 shows an image of the four solid-state imaging devices 11-1 to 11-4 formed on the wafer before being singulated by dicing, as viewed from the upper side.
  • a dicing area 31 which is an area to be removed by dicing, is provided so as to divide the solid-state imaging devices 11-1 to 11-4.
  • the stopper layer 22 is formed on the scribe line (line between the solid-state imaging elements 11) including the dicing area 31. May be formed.
  • the area corresponding to the circle A in broken lines in FIG. 3 is shown enlarged.
  • the dicing width of the dicing area 31 is about 40 ⁇ m
  • the scribing width as the interval between the solid-state imaging elements 11 is about 100 to 200 ⁇ m.
  • the distance between the pixel area 12 and the scribe line, that is, the width of the peripheral area 13 is about 200 to 300 ⁇ m.
  • the hole pattern is provided in a dicing width of about 40 ⁇ m. Therefore, in this configuration, when the chip width of the solid-state imaging device 11 is 5 mm, the dicing width is 1% or less of the whole, so the aperture ratio is 0.1% or less. For this reason, it is very difficult to monitor the etching depth of the plurality of dug-in portions 23 by the interference wave EPD as described above.
  • the width of the region is preferably about 500 ⁇ m.
  • an area corresponding to a circle B indicated by a broken line in FIG. 3 is enlarged.
  • the area width in which the stopper layer 22 can be provided is wider than the scribe width including the dicing area 31, and a certain distance from the pixel area 12 (not hatched in FIG. 5)
  • An outer area separated by the area) is an area where the stopper layer 22 can be provided.
  • the stopper layer 22 is formed at a position which is provided in this area, for avoiding a mark for alignment, a peripheral circuit and the like.
  • the opening ratio of the indented portion 23 formed to open in the stopper layer 22 is larger, the change in light emission due to the compound generated by processing the stopper layer 22 becomes larger. Therefore, it is desirable to increase the aperture ratio of the dug portion 23 formed so as to be opened in the stopper layer 22.
  • the aperture ratio is about 1% (for example, with respect to the area of the solid-state imaging device 11) If it is, light emission change can be detected.
  • the entire surface of the semiconductor substrate 21 is formed by depositing silicon nitride used as the stopper layer 22 on the semiconductor substrate 21 thinner than the specified thickness.
  • the SiN film 41 is formed on the Then, the resist 42 is disposed in accordance with the area to be the peripheral area 13.
  • RIE Reactive Ion Etching
  • silicon is epitaxially grown to form a semiconductor substrate 21 of a specified thickness.
  • the semiconductor substrate 21 is processed to form a plurality of indented portions 23 using, for example, a resist.
  • the end point determination of the etching time is performed using the detection of the compound generated due to the processing of the stopper layer 22.
  • the processing depth of the plurality of digging portions 23 in the pixel area 12 is determined as the desired processing depth by performing over-etching. Can be adjusted to
  • the processing depth of the plurality of dug-in portions 23 formed in the pixel area 12 can be accurately controlled.
  • a second method of manufacturing the solid-state imaging device 11 will be described with reference to FIG.
  • the resist 42 is disposed in accordance with the area to be the pixel area 12 of the semiconductor substrate 21 thinner than the specified thickness.
  • the resist 42 is used as a mask, and impurities (P, B, As, N, etc.) for forming the stopper layer 22 are formed on the semiconductor substrate 21. Implant at high concentration near the surface.
  • silicon is epitaxially grown to form a semiconductor substrate 21 of a specified thickness.
  • the semiconductor substrate 21 is processed to form a plurality of indented portions 23 using a resist.
  • the end point determination of the etching time is performed using the detection of the compound generated due to the processing of the stopper layer 22.
  • the processing depth of the plurality of dug-in portions 23 formed in the pixel area 12 can be accurately controlled.
  • the method of providing the stopper layer 22 at a specific place in the semiconductor substrate 21 is not limited to a substrate using silicon, and for example, a compound such as gallium arsenide (GaAs) or gallium nitride (GaN) may be used.
  • GaAs gallium arsenide
  • GaN gallium nitride
  • the present invention can be applied to the same substrate.
  • a method of providing the stopper layer 22 on one semiconductor substrate 21 without performing the step of epitaxially growing silicon will be examined. .
  • a plurality of digging portions 23 are formed in a groove shape.
  • the solid-state imaging device 11A uses these recessed portions 23 as a trench (RDTI: Reverse side Deep Trench Isolation) for filling the insulator at the boundary of each pixel in order to suppress color mixture between adjacent pixels. can do.
  • RDTI Reverse side Deep Trench Isolation
  • the solid-state imaging device 11A can make the insulation performance between the pixels uniform for each device by utilizing the recessed portion 23 having the groove shape, so that the device characteristics can be stabilized.
  • a red PD (photodiode) region for photoelectrically converting red light and a blue PD region for photoelectrically converting blue light are arranged in the longitudinal direction of the semiconductor substrate 21. It is a longitudinal spectroscopy device.
  • illustration of the red PD region is omitted, and the blue PD region 51 is illustrated.
  • the blue light is photoelectrically converted at a shallow position near the back surface. Therefore, in the solid-state imaging device 11B, a plurality of digging portions 23 are used to form vertical electrodes for reading out charges from the blue PD region 51 to the surface of the semiconductor substrate 21.
  • the solid-state imaging device 11B can make the depth of the vertical electrode uniform for each device by utilizing the digging portion 23. Therefore, with regard to the readout of the charge from the blue PD region 51, Stabilization can be achieved.
  • the SiO film 52 is formed on the entire surface of the semiconductor substrate 21 by depositing silicon monoxide on the semiconductor substrate 21 thinner than the prescribed thickness. Do. Then, the resist 42 is disposed so that the region for forming the blue PD region 51 is opened, and the impurity is implanted near the surface of the semiconductor substrate 21 using the resist 42 as a mask to form the blue PD region 51. .
  • the SiO film 52 and the resist 42 are removed.
  • a SiN film 41 is formed on the entire surface of the semiconductor substrate 21 by depositing silicon nitride used as the stopper layer 22 on the semiconductor substrate 21. Do. Then, the resist 42 is disposed in accordance with the area to be the peripheral area 13.
  • RIE processing is performed to remove the SiN film 41 in the pixel area 12 using the resist 42, and the damaged layer on the surface of the semiconductor substrate 21 is removed. .
  • the resist 42 is removed.
  • the blue PD region 51 is formed in the vicinity of the surface of the semiconductor substrate 21, and the stopper layer 22 is stacked on the surface of the semiconductor substrate 21. And the stopper layer 22 will be formed.
  • silicon is epitaxially grown to form a semiconductor substrate 21 of a prescribed thickness.
  • the semiconductor substrate 21 is processed to form a plurality of digging portions 23 using a resist, for example.
  • a resist for example.
  • the processing depth of the plurality of dug-in portions 23 formed in the pixel area 12 can be accurately controlled.
  • the individual solid-state imaging device 11B the occurrence of variations in the processing depth of the plurality of digging portions 23 is suppressed, and stabilization of device characteristics is achieved with respect to reading of charges from the blue PD region 51. be able to.
  • the technique for determining the end point of the etching time when etching the plurality of digging portions 23 using the stopper layer 22 is not limited to the solid-state imaging device 11 and can be applied to various semiconductor devices. .
  • the present technology by applying the present technology to a memory and forming a plurality of digging portions 23 in a groove shape (see FIG. 9), it can be used to configure a capacitor of the memory.
  • the present technology is suitably applied to a device which digs the semiconductor substrate 21 to form the digging portion 23 and is manufactured by a process of adding the semiconductor substrate 21 by epitaxially growing silicon. can do. Further, by adjusting the thickness of silicon by epitaxial growth, it is possible to control the depth at which the stopper layer 22 is disposed.
  • the solid-state imaging device 11 as described above is applied to various electronic devices such as an imaging system such as a digital still camera or a digital video camera, a mobile phone having an imaging function, or another device having an imaging function. be able to.
  • FIG. 12 is a block diagram showing a configuration example of an imaging device mounted on an electronic device.
  • the imaging apparatus 101 includes an optical system 102, an imaging element 103, a signal processing circuit 104, a monitor 105, and a memory 106, and can capture still images and moving images.
  • the optical system 102 includes one or more lenses, guides image light (incident light) from a subject to the image sensor 103, and forms an image on the light receiving surface (sensor unit) of the image sensor 103.
  • the solid-state imaging device 11 described above is applied as the imaging device 103. Electrons are accumulated in the imaging element 103 for a certain period according to the image formed on the light receiving surface through the optical system 102. Then, a signal corresponding to the electrons stored in the imaging element 103 is supplied to the signal processing circuit 104.
  • the signal processing circuit 104 performs various signal processing on the pixel signal output from the image sensor 103.
  • An image (image data) obtained by the signal processing circuit 104 performing signal processing is supplied to a monitor 105 for display, or supplied to a memory 106 for storage (recording).
  • the imaging device 101 configured as described above, by applying the solid-state imaging device 11 described above, for example, it is possible to capture a higher quality image in which the variation in characteristics between pixels is suppressed.
  • FIG. 13 is a view showing an application example using the above-mentioned image sensor (imaging element).
  • the image sensor described above can be used, for example, in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays as described below.
  • a device that captures images for viewing such as a digital camera or a portable device with a camera function-For safe driving such as automatic stop, recognition of driver's condition, etc.
  • a device provided for traffic such as an on-vehicle sensor for capturing images of the rear, surroundings, inside of a car, a monitoring camera for monitoring a traveling vehicle or a road, a distance measuring sensor for measuring distance between vehicles, etc.
  • Devices used for home appliances such as TVs, refrigerators, air conditioners, etc. to perform imaging and device operation according to the gesture ⁇ Endoscopes, devices for performing blood vessel imaging by receiving infrared light, etc.
  • Equipment provided for medical and healthcare use-Equipment provided for security such as surveillance cameras for crime prevention, cameras for personal identification, etc.
  • -Skin measuring equipment for photographing skin, photographing for scalp Beauty such as a microscope Equipment provided for use-Equipment provided for sports use, such as action cameras and wearable cameras for sports applications, etc.-Used for agriculture, such as cameras for monitoring the condition of fields and crops apparatus
  • the technology according to the present disclosure (the present technology) can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 14 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology (the present technology) according to the present disclosure can be applied.
  • FIG. 14 illustrates a surgeon (doctor) 11131 performing surgery on a patient 11132 on a patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as an insufflation tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 for supporting the endoscope 11100.
  • a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 includes a lens barrel 11101 whose region of a predetermined length from the tip is inserted into a body cavity of a patient 11132, and a camera head 11102 connected to a proximal end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid endoscope having a rigid barrel 11101 is illustrated, but even if the endoscope 11100 is configured as a so-called flexible mirror having a flexible barrel Good.
  • the endoscope 11100 may be a straight endoscope, or may be a oblique endoscope or a side endoscope.
  • An optical system and an imaging device are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is condensed on the imaging device by the optical system.
  • the observation light is photoelectrically converted by the imaging element to generate an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal is transmitted as RAW data to a camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU 11201 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and centrally controls the operations of the endoscope 11100 and the display device 11202. Furthermore, the CCU 11201 receives an image signal from the camera head 11102 and performs various image processing for displaying an image based on the image signal, such as development processing (demosaicing processing), on the image signal.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under control of the CCU 11201.
  • the light source device 11203 includes, for example, a light source such as an LED (light emitting diode), and supplies the endoscope 11100 with irradiation light at the time of imaging an operation part or the like.
  • a light source such as an LED (light emitting diode)
  • the input device 11204 is an input interface to the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging condition (type of irradiated light, magnification, focal length, and the like) by the endoscope 11100, and the like.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for ablation of tissue, incision, sealing of a blood vessel, and the like.
  • the insufflation apparatus 11206 is a gas within the body cavity via the insufflation tube 11111 in order to expand the body cavity of the patient 11132 for the purpose of securing a visual field by the endoscope 11100 and securing a working space of the operator.
  • Send The recorder 11207 is a device capable of recording various types of information regarding surgery.
  • the printer 11208 is an apparatus capable of printing various types of information regarding surgery in various types such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light when imaging the surgical site to the endoscope 11100 can be configured of, for example, an LED, a laser light source, or a white light source configured by a combination of these.
  • a white light source is configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high precision. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in time division, and the drive of the image pickup element of the camera head 11102 is controlled in synchronization with the irradiation timing to cope with each of RGB. It is also possible to capture a shot image in time division. According to the method, a color image can be obtained without providing a color filter in the imaging device.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the light to be output every predetermined time.
  • the drive of the imaging device of the camera head 11102 is controlled in synchronization with the timing of the change of the light intensity to acquire images in time division, and by combining the images, high dynamic without so-called blackout and whiteout is obtained. An image of the range can be generated.
  • the light source device 11203 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, the mucous membrane surface layer is irradiated by irradiating narrow band light as compared with irradiation light (that is, white light) at the time of normal observation using the wavelength dependency of light absorption in body tissue.
  • the so-called narrow band imaging is performed to image a predetermined tissue such as a blood vessel with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiation with excitation light.
  • body tissue is irradiated with excitation light and fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into body tissue and the body tissue is Excitation light corresponding to the fluorescence wavelength of the reagent can be irradiated to obtain a fluorescence image or the like.
  • the light source device 11203 can be configured to be able to supply narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 15 is a block diagram showing an example of functional configurations of the camera head 11102 and the CCU 11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and is incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging device constituting the imaging unit 11402 may be one (a so-called single-plate type) or a plurality (a so-called multi-plate type).
  • the imaging unit 11402 When the imaging unit 11402 is configured as a multi-plate type, for example, an image signal corresponding to each of RGB may be generated by each imaging element, and a color image may be obtained by combining them.
  • the imaging unit 11402 may be configured to have a pair of imaging devices for acquiring image signals for right eye and left eye corresponding to 3D (dimensional) display. By performing 3D display, the operator 11131 can more accurately grasp the depth of the living tissue in the operation site.
  • a plurality of lens units 11401 may be provided corresponding to each imaging element.
  • the imaging unit 11402 may not necessarily be provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the driving unit 11403 is configured by an actuator, and moves the zoom lens and the focusing lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405. Thereby, the magnification and the focus of the captured image by the imaging unit 11402 can be appropriately adjusted.
  • the communication unit 11404 is configured of a communication device for transmitting and receiving various types of information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 to the CCU 11201 as RAW data via the transmission cable 11400.
  • the communication unit 11404 also receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information indicating that the frame rate of the captured image is designated, information indicating that the exposure value at the time of imaging is designated, and / or information indicating that the magnification and focus of the captured image are designated, etc. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus described above may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are incorporated in the endoscope 11100.
  • AE Auto Exposure
  • AF Auto Focus
  • AWB Automatic White Balance
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various types of information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by telecommunication or optical communication.
  • An image processing unit 11412 performs various types of image processing on an image signal that is RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various types of control regarding imaging of a surgical site and the like by the endoscope 11100 and display of a captured image obtained by imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a captured image in which a surgical site or the like is captured, based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects a shape, a color, and the like of an edge of an object included in a captured image, thereby enabling a surgical tool such as forceps, a specific biological site, bleeding, mist when using the energy treatment tool 11112, and the like. It can be recognized.
  • control unit 11413 may superimpose various surgical support information on the image of the surgery section using the recognition result.
  • the operation support information is superimposed and presented to the operator 11131, whereby the burden on the operator 11131 can be reduced and the operator 11131 can reliably proceed with the operation.
  • a transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electric signal cable corresponding to communication of an electric signal, an optical fiber corresponding to optical communication, or a composite cable of these.
  • communication is performed by wire communication using the transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technique according to the present disclosure may be applied to the endoscope 11100, the camera head 11102 (the imaging unit 11402 thereof), and the like among the configurations described above.
  • the plurality of digging portions 23 can be machined so as to have a certain machining depth for each device, and the occurrence of variations in the characteristics for each device can be avoided, so that a certain quality can be guaranteed. can do.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on any type of mobile object such as a car, an electric car, a hybrid electric car, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot May be
  • FIG. 16 is a block diagram showing a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 includes a plurality of electronic control units connected via communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an external information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the driveline control unit 12010 controls the operation of devices related to the driveline of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, and a steering angle of the vehicle. It functions as a control mechanism such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • Body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device of various lamps such as a headlamp, a back lamp, a brake lamp, a blinker or a fog lamp.
  • the body system control unit 12020 may receive radio waves or signals of various switches transmitted from a portable device substituting a key.
  • Body system control unit 12020 receives the input of these radio waves or signals, and controls a door lock device, a power window device, a lamp and the like of the vehicle.
  • Outside vehicle information detection unit 12030 detects information outside the vehicle equipped with vehicle control system 12000.
  • an imaging unit 12031 is connected to the external information detection unit 12030.
  • the out-of-vehicle information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing or distance detection processing of a person, a vehicle, an obstacle, a sign, characters on a road surface, or the like based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of light received.
  • the imaging unit 12031 can output an electric signal as an image or can output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared light.
  • In-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver state detection unit 12041 that detects a state of a driver is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera for imaging the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver does not go to sleep.
  • the microcomputer 12051 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the information inside and outside the vehicle acquired by the outside information detecting unit 12030 or the in-vehicle information detecting unit 12040, and a drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the outside information detecting unit 12030 or the in-vehicle information detecting unit 12040 so that the driver can Coordinated control can be performed for the purpose of automatic driving that travels autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12030 based on the information outside the vehicle acquired by the external information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or oncoming vehicle detected by the external information detection unit 12030, and performs cooperative control for the purpose of antiglare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and image to an output device capable of visually or aurally notifying information to a passenger or the outside of a vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 17 is a diagram illustrating an example of the installation position of the imaging unit 12031.
  • imaging units 12101, 12102, 12103, 12104, and 12105 are provided as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, on the front nose of the vehicle 12100, a side mirror, a rear bumper, a back door, an upper portion of a windshield of a vehicle interior, and the like.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle cabin mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 included in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the imaging unit 12105 provided on the top of the windshield in the passenger compartment is mainly used to detect a leading vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 17 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors
  • the imaging range 12114 indicates The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown.
  • a bird's eye view of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging devices, or an imaging device having pixels for phase difference detection.
  • the microcomputer 12051 measures the distance to each three-dimensional object in the imaging ranges 12111 to 12114, and the temporal change of this distance (relative velocity with respect to the vehicle 12100). In particular, it is possible to extract a three-dimensional object traveling at a predetermined speed (for example, 0 km / h or more) in substantially the same direction as the vehicle 12100 as a leading vehicle, in particular by finding the it can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. As described above, it is possible to perform coordinated control for the purpose of automatic driving or the like that travels autonomously without depending on the driver's operation.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 converts three-dimensional object data relating to three-dimensional objects into two-dimensional vehicles such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, telephone poles, and other three-dimensional objects. It can be classified, extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 into obstacles visible to the driver of the vehicle 12100 and obstacles difficult to see.
  • the microcomputer 12051 determines the collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk is a setting value or more and there is a possibility of a collision, through the audio speaker 12061 or the display unit 12062 By outputting an alarm to the driver or performing forcible deceleration or avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared light.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • pedestrian recognition is, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as an infrared camera, and pattern matching processing on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not
  • the procedure is to determine
  • the audio image output unit 12052 generates a square outline for highlighting the recognized pedestrian.
  • the display unit 12062 is controlled so as to display a superimposed image. Further, the audio image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the example of the vehicle control system to which the technology according to the present disclosure can be applied has been described above.
  • the technology according to the present disclosure may be applied to the imaging unit 12031 and the like among the configurations described above.
  • the plurality of digging portions 23 can be machined so as to have a certain machining depth for each device, and the occurrence of variations in the characteristics for each device can be avoided, so that a certain quality can be guaranteed. can do.
  • the present technology can also have the following configurations.
  • An effective area which is an area where a semiconductor element which is required to function effectively is formed on a semiconductor substrate;
  • An invalid area which is an area where the semiconductor element is not formed on the semiconductor substrate;
  • a stopper layer formed of a material different from the semiconductor substrate at a predetermined depth of the semiconductor substrate in the ineffective region;
  • a semiconductor device comprising: a digging portion formed by digging the effective area and the invalid area of the semiconductor substrate to a depth corresponding to the stopper layer.
  • the stopper layer manufactures by epitaxially growing the said semiconductor substrate until it becomes prescription
  • the stopper layer is formed by depositing a material on the semiconductor substrate thinner than a predetermined thickness, and removing a film formed on the entire surface of the semiconductor substrate in the effective region. The semiconductor device as described in 2.).
  • a pixel area which is an area formed on a semiconductor substrate, in which a pixel required to function effectively is formed;
  • a peripheral region which is a region in which the pixel is not formed in the semiconductor substrate;
  • a stopper layer formed of a material different from the semiconductor substrate at a predetermined depth of the semiconductor substrate in the peripheral region;
  • a solid-state imaging device comprising: a digging portion formed by digging the pixel area and the peripheral area of the semiconductor substrate to a depth corresponding to the stopper layer.
  • An effective area which is an area where a semiconductor element which is required to function effectively is formed on a semiconductor substrate;
  • An invalid area which is an area where the semiconductor element is not formed on the semiconductor substrate;
  • a stopper layer formed of a material different from the semiconductor substrate at a predetermined depth of the semiconductor substrate in the ineffective region;
  • An electronic apparatus comprising: a semiconductor device including: a digging portion formed by digging the effective area and the invalid area of the semiconductor substrate to a depth corresponding to the stopper layer.
  • 11 solid-state imaging device 12 pixel area, 13 peripheral area, 21 semiconductor substrate, 22 stopper layer, 23 digging portion, 31 dicing area, 41 SiN film, 42 resist, 51 blue PD area, 52 SiO film

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Plasma & Fusion (AREA)
  • Manufacturing & Machinery (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Drying Of Semiconductors (AREA)
  • Dicing (AREA)

Abstract

本開示は、よりデバイス特性の安定化を図ることができるようにする半導体装置、固体撮像素子、製造方法、および電子機器に関する。 固体撮像素子には、半導体基板に対して画素が形成される領域である画素領域と、半導体基板において画素が形成されない領域である周辺領域とが設けられる。そして、周辺領域における半導体基板の所定の深さに、半導体基板とは異なる材料によりストッパ層を形成し、ストッパ層に応じた深さまで半導体基板の画素領域および周辺領域を掘り込むことによって掘り込み部を形成する。このとき、ストッパ層の材料を含む化合物の検知を利用して、掘り込み部を掘り込む加工時間の終点判定を行う。本技術は、例えば、CMOSイメージセンサに適用できる。

Description

半導体装置、固体撮像素子、製造方法、および電子機器
 本開示は、半導体装置、固体撮像素子、製造方法、および電子機器に関し、特に、デバイス特性の安定化を図ることができるようにした半導体装置、固体撮像素子、製造方法、および電子機器に関する。
 従来、固体撮像素子などの半導体装置には、エッチングにより所定の深さの掘り込み部が形成された半導体基板が利用されている。
 一般的に、このような掘り込み部の加工を行う際に、掘り込み部の加工深さを制御するために、干渉波EPD(Etch Pit Density)が用いられる。干渉波EPDは、例えば、上部からレーザ光を照射し、フォトレジストなどマスクが配置されてエッチングされない領域の反射波と、エッチングされる領域の反射波との位相差からエッチング深さをモニタし、所望のエッチング深さで終点検出する手法である。例えば、干渉波EPDは、STI(Shallow Trench Isolation)の加工などのように、加工深さが1μm以下と比較的浅く、30%程度以上の開口率がある条件において有効な手法とされている。
 これに対し、例えば、20%未満の開口率である場合にはエッチングされる領域の反射波を十分に検出することができず、干渉波EPDによってエッチング深さをモニタすることは非常に困難であった。具体的には、半導体基板にホールのパターンを加工する場合には、開口率は1%程度であるため、干渉波EPDを用いてエッチング深さをモニタすることは現実的であるとは言えなかった。
 例えば、特許文献1には、プラズマエッチング処理により半導体基板にトレンチを形成する際に、プラズマインピーダンスを検出しつつプラズマエッチング処理を実行する半導体装置の製造方法が開示されている。
特開2007-287855号公報
 上述したように、シリコン基板に掘り込み部を形成する際の加工深さをモニタすることが困難であることより、一定の加工深さとなるように制御することは難しく、デバイスごとに掘り込み部の深さにバラツキが発生することがあった。そのため、デバイスごとの特性が異なるものとなってしまい、デバイス特性を安定化させることが求められていた。
 本開示は、このような状況に鑑みてなされたものであり、デバイス特性の安定化を図ることができるようにするものである。
 本開示の一側面の半導体装置は、有効に機能させることが求められる半導体素子が半導体基板に対して形成される領域である有効領域と、前記半導体基板において前記半導体素子が形成されない領域である無効領域と、前記無効領域における前記半導体基板の所定の深さに、前記半導体基板とは異なる材料により形成されるストッパ層と、前記ストッパ層に応じた深さまで前記半導体基板の前記有効領域および前記無効領域を掘り込むことによって形成される掘り込み部とを備える。
 本開示の一側面の固体撮像素子は、有効に機能させることが求められる画素が、半導体基板に対して形成される領域である画素領域と、前記半導体基板において前記画素が形成されない領域である周辺領域と、前記周辺領域における前記半導体基板の所定の深さに、前記半導体基板とは異なる材料により形成されるストッパ層と、前記ストッパ層に応じた深さまで前記半導体基板の前記画素領域および前記周辺領域を掘り込むことによって形成される掘り込み部とを備える。
 本開示の一側面の製造方法は、有効に機能させることが求められる半導体素子が半導体基板に対して形成される領域である有効領域と、前記半導体基板において前記半導体素子が形成されない領域である無効領域と、前記無効領域における前記半導体基板の所定の深さに、前記半導体基板とは異なる材料により形成されるストッパ層と、前記ストッパ層に応じた深さまで前記半導体基板の前記有効領域および前記無効領域を掘り込むことによって形成される掘り込み部とを備える半導体装置の製造方法であって、規定の厚みよりも薄い前記半導体基板に対して前記ストッパ層を形成することと、前記半導体基板を規定の厚みとなるまでエピタキシャル成長させることとを含む。
 本開示の一側面の電子機器は、有効に機能させることが求められる半導体素子が半導体基板に対して形成される領域である有効領域と、前記半導体基板において前記半導体素子が形成されない領域である無効領域と、前記無効領域における前記半導体基板の所定の深さに、前記半導体基板とは異なる材料により形成されるストッパ層と、前記ストッパ層に応じた深さまで前記半導体基板の前記有効領域および前記無効領域を掘り込むことによって形成される掘り込み部とを有する半導体装置を備える。
 本開示の一側面においては、有効に機能させることが求められる半導体素子(画素)が半導体基板に対して形成される領域である有効領域(画素領域)と、半導体基板において半導体素子(画素)が形成されない領域である無効領域(周辺領域)とが設けられる。そして、無効領域(周辺領域)における半導体基板の所定の深さに、半導体基板とは異なる材料によりストッパ層が形成され、そのストッパ層に応じた深さまで半導体基板の有効領域(画素領域)および無効領域(周辺領域)を掘り込むことによって掘り込み部が形成される。
 本開示の一側面によれば、デバイス特性の安定化を図ることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した固体撮像素子の第1の実施の形態の構成例を示す斜視図である。 固体撮像素子の一部分の断面的な構成を示す図である。 ダイシングにより個片化する前のウェハに固体撮像素子が形成されている状態を示す図である。 図3に示されている破線の円形Aに対応する領域を拡大して示す図である。 図3に示されている破線の円形Bに対応する領域を拡大して示す図である。 固体撮像素子の第1の製造方法を説明する図である。 固体撮像素子の第2の製造方法を説明する図である。 深い領域に不純物を注入する例について説明する図である。 本技術を適用した固体撮像素子の第2の実施の形態の構成例を示す断面図である。 本技術を適用した固体撮像素子の第3の実施の形態の構成例を示す断面図である。 図10に示す固体撮像素子の製造方法を説明する図である。 撮像装置の構成例を示すブロック図である。 イメージセンサを使用する使用例を示す図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
 <固体撮像素子の第1の構成例>
 図1乃至図5を参照して、本技術を適用した固体撮像素子の第1の実施の形態について説明する。
 図1には、固体撮像素子11の斜視図が示されている。
 例えば、固体撮像素子11は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサであり、固体撮像素子11の中央には画素エリア12が設けられ、画素エリア12の周辺を囲う領域が周辺エリア13とされる。
 画素エリア12は、固体撮像素子11により画像を撮像するときに被写体の像が結像するセンサ面である。画素エリア12には、画像を撮像する際に有効に機能させることが求められる複数の画素がアレイ状に形成される。
 周辺エリア13には、例えば、画素を駆動するための駆動回路や、外部との接続に利用される接続パッドなどが形成され、画像を撮像する際に有効に機能させることが求められる画素は形成されない。
 図2には、固体撮像素子11の一部分の断面的な構成が示されている。
 図2に示すように、固体撮像素子11は、シリコンなどからなる半導体基板21により構成され、周辺エリア13にストッパ層22が形成されている。ストッパ層22は、例えば、シリコン窒化物(SiN)を材料として、半導体基板21の所定の深さとなる位置に形成される。
 また、画素エリア12および周辺エリア13には、固体撮像素子11の表面をエッチングにより掘り込むことで、例えば、円形の止まり穴形状(非貫通)に形成される複数の掘り込み部23が設けられている。例えば、周辺エリア13に形成されるストッパ層22は、複数の掘り込み部23を形成する加工を行う際に、加工深さを検出するための機能を備えている。
 即ち、複数の掘り込み部23を半導体基板21に対して加工するとき、ストッパ層22が加工されることで発生する化合物を、プラズマ発光を利用した発光分光計測(OES:Optical Emission Spectrometry)により検出することができる。または、その化合物を、質量分析計の一種である四重極型質量分析計(Q-Mass:Quadrupole Mass analyzer)により検出することができる。
 ここで、ストッパ層22としては、加工の対象となる半導体基板21(例えば、シリコン)とは異なる種類の化合物を用いることができる。具体的には、ストッパ層22は、SiN,N,SiO,SiON,SiCのようなシリコンを含む化合物や、Al,W,TiNのような金属を含む化合物などを材料として形成される。
 例えば、複数の掘り込み部23を加工する際に、ストッパ層22として、シリコン窒化物(SiN)を用いた場合には窒素を含む化合物が発生し、一酸化ケイ素(SiO)を用いた場合には酸素を含む化合物が発生する。従って、それらのシリコン以外の化合物の発生を、プラズマの発光をモニタすることにより検知することができる。
 このように、ストッパ層22が加工されることで発生する化合物の検出を利用して、複数の掘り込み部23をエッチングする際のエッチング時間の終点判定を行うことができる。これにより、画素エリア12に形成される複数の掘り込み部23の加工深さについて、固体撮像素子11ごとにバラツキが発生することを抑制し、個々の固体撮像素子11で一定の加工深さとなるように複数の掘り込み部23を加工することができる。
 また、固体撮像素子11は、周辺エリア13にのみ、選択的にストッパ層22を形成する構成であることより、ストッパ層22が、画素エリア12に形成される画素に影響を与えてしまうことを回避することができる。即ち、画素エリア12にストッパ層22を形成した構成では、ストッパ層22が画素に与える影響によって性能が低下することが想定されるのに対し、固体撮像素子11は、そのような性能の低下が発生することはない。
 このように構成される固体撮像素子11は、デバイスごとにバラツキが発生せずに、一定の加工深さとなるように複数の掘り込み部23を加工することができるので、デバイス特性の安定化を図ることができる。
 図3乃至図5を参照して、ストッパ層22が形成される領域について説明する。
 図3には、ダイシングにより個片化する前のウェハに形成されている状態の4つの固体撮像素子11-1乃至11-4を上側から見たイメージが示されている。図示するように、固体撮像素子11-1乃至11-4を分割するように、ダイシングにより除去される領域であるダイシング領域31が設けられる。このようなウェハの状態において複数の掘り込み部23の加工を行う場合には、周辺エリア13に加えて、ダイシング領域31を含むスクライブライン(固体撮像素子11どうしの間のライン)にストッパ層22を形成してもよい。
 図4には、図3において破線の円形Aに対応する領域が拡大して示されている。例えば、ダイシング領域31のダイシング幅は40μm程度とされ、固体撮像素子11どうしの間隔となるスクライブ幅は100~200μm程度とされる。また、画素エリア12とスクライブラインとの間隔、即ち、周辺エリア13の幅は、200~300μm程度とされる。
 例えば、仮に、ストッパ層22をダイシング領域31だけに設ける構成では、40μm程度のダイシング幅にホールパターンを設置することになる。従って、この構成では、固体撮像素子11のチップ幅が5mmである場合、ダイシング幅は全体の1%以下となるため、開口率は0.1%以下となる。このため、上述したような干渉波EPDにより、複数の掘り込み部23のエッチング深さをモニタすることは非常に難しいものとなる。
 そこで、図5においてドットのハッチングで示すようにストッパ層22を設けることが可能な領域を設け、その領域の幅としては、500μm程度とすることが好適である。図5には、図3において破線の円形Bに対応する領域が拡大して示されている。
 図5に示すように、ストッパ層22を設けることが可能な領域幅は、ダイシング領域31を含むスクライブ幅より広く設けられており、画素エリア12から一定間隔(図5においてハッチングが施されていない領域)だけ離れた外側の領域が、ストッパ層22を設けることが可能な領域とされる。また、ストッパ層22は、この領域に設けられる位置合わせのためのマークや、周辺回路などを避けた位置に形成される。
 また、ストッパ層22に開口するように形成される掘り込み部23の開口率が大きいほど、ストッパ層22が加工されることで発生する化合物による発光変化が大きくなる。そのため、ストッパ層22に開口するように形成される掘り込み部23の開口率を大きくすることが望ましいが、例えば、その開口率が1%程度(例えば、固体撮像素子11の面積に対して)であれば発光変化を検知することができる。
 <固体撮像素子の製造方法>
 図6を参照して、固体撮像素子11の第1の製造方法について説明する。
 第1の工程において、図6の1段目に示すように、規定の厚みよりも薄い半導体基板21に対してストッパ層22として用いられるシリコン窒化物を成膜することで、半導体基板21の全面にSiN膜41を形成する。そして、周辺エリア13となる領域に応じてレジスト42を配置する。
 第2の工程において、図6の2段目に示すように、レジスト42を利用して画素エリア12のSiN膜41を除去するRIE(Reactive Ion Etching)加工を行うとともに、半導体基板21の表面のダメージ層を除去する。これによりストッパ層22が形成された後、レジスト42を除去する。
 第3の工程において、図6の3段目に示すように、シリコンをエピタキシャル成長させることにより規定の厚みの半導体基板21を形成する。
 第4の工程において、図6の4段目に示すように、半導体基板21に対して、例えば、レジストを利用して複数の掘り込み部23を形成する加工を行う。このとき、上述したように、ストッパ層22が加工されることで発生する化合物の検知を利用してのエッチング時間の終点判定を行う。
 また、画素エリア12における複数の掘り込み部23の加工深さは、実際には、ストッパ層22を利用してエッチング時間の終点判定を行った後、オーバーエッチングを行うことによって所望の加工深さとなるように調整することができる。
 以上のような製造方法により、画素エリア12に形成される複数の掘り込み部23の加工深さを正確に制御することができる。これにより、個々の固体撮像素子11で、複数の掘り込み部23の加工深さにバラツキが発生することを抑制して、デバイス特性が安定化するように固体撮像素子11を製造することができる。
 図7を参照して、固体撮像素子11の第2の製造方法について説明する。
 第11の工程において、図7の1段目に示すように、規定の厚みよりも薄い半導体基板21の画素エリア12となる領域に応じてレジスト42を配置する。
 第12の工程において、図7の2段目に示すように、レジスト42をマスクとして利用し、ストッパ層22を構成するための不純物(P,B,As,Nなど)を、半導体基板21の表面近傍に高濃度で注入する。
 第13の工程において、図7の3段目に示すように、シリコンをエピタキシャル成長させることにより規定の厚みの半導体基板21を形成する。
 第14の工程において、図7の4段目に示すように、半導体基板21に対して、レジストを利用して複数の掘り込み部23を形成する加工を行う。このとき、上述したように、ストッパ層22が加工されることで発生する化合物の検知を利用してのエッチング時間の終点判定を行う。
 以上のような製造方法により、画素エリア12に形成される複数の掘り込み部23の加工深さを正確に制御することができる。これにより、個々の固体撮像素子11で、複数の掘り込み部23の加工深さにバラツキが発生することを抑制して、デバイス特性が安定化するように固体撮像素子11を製造することができる。
 また、半導体基板21中の特定の場所にストッパ層22を設ける手法は、シリコンを用いた基板に限定されることなく、例えば、ヒ化ガリウム(GaAs)や窒化ガリウム(GaN)などの化合物を用いた基板に対しても適用することができる。
 ここで、例えば、シリコンをエピタキシャル成長させる工程(例えば、図6の第3の工程または図7の第13の工程)を行わずに、1層の半導体基板21にストッパ層22を設ける手法について検討する。
 即ち、図8に示すように、規定の厚みの半導体基板21の深い領域に、ストッパ層22を構成するための不純物を注入することで、シリコンをエピタキシャル成長させる工程を行う必要がなくなると考えられる。しかしながら、この手法では、不純物が縦方向に広範囲に拡がるように分布することになり、一定の加工深さとするためのエッチング時間の終点判定として利用することは困難であると想定される。従って、上述したような第1または第2の製造方法を採用することが好適である。
 <固体撮像素子の第2の構成例>
 図9を参照して、本技術を適用した固体撮像素子の第2の実施の形態について説明する。
 図9に示す固体撮像素子11Aでは、複数の掘り込み部23が溝形状に形成されている。固体撮像素子11Aは、これらの掘り込み部23を、隣接する画素間での混色を抑止するために各画素の境界に絶縁体を充填するためのトレンチ(RDTI:Reverse side Deep Trench Isolation)として利用することができる。
 従って、固体撮像素子11Aは、溝形状の掘り込み部23を利用することにより、画素間の絶縁性能をデバイスごとに均一化することができるので、デバイス特性の安定化を図ることができる。
 <固体撮像素子の第3の構成例>
 図10を参照して、本技術を適用した固体撮像素子の第3の実施の形態について説明する。
 図10に示す固体撮像素子11Bは、赤色の光を光電変換する赤PD(photodiode)領域と、青色の光を光電変換する青PD領域とが、半導体基板21の縦方向に並んで配置される縦分光デバイスである。なお、図10では、赤PD領域の図示は省略され、青PD領域51が図示されている。
 例えば、青色の光は、半導体基板21の裏面(図10の下側を向く面)から光が照射される構成では、その裏面の近傍となる浅い位置で光電変換される。このため、固体撮像素子11Bでは、青PD領域51から半導体基板21の表面まで電荷を読み出すための縦型電極を形成するために複数の掘り込み部23が利用される。
 従って、固体撮像素子11Bは、掘り込み部23を利用することにより、縦型電極の深さをデバイスごとに均一化することができるので、青PD領域51からの電荷の読み出しに関し、デバイス特性の安定化を図ることができる。
 図11を参照して、固体撮像素子11Bの製造方法について説明する。
 第21の工程において、図11の1段目に示すように、規定の厚みよりも薄い半導体基板21に対して一酸化ケイ素を成膜することで、半導体基板21の全面にSiO膜52を形成する。そして、青PD領域51を形成する領域が開口するようにレジスト42を配置し、レジスト42をマスクとして利用して半導体基板21の表面近傍に不純物を注入することで、青PD領域51を形成する。
 第22の工程において、図11の2段目に示すように、SiO膜52およびレジスト42を除去する。
 第23の工程において、図11の3段目に示すように、半導体基板21に対してストッパ層22として用いられるシリコン窒化物を成膜することで、半導体基板21の全面にSiN膜41を形成する。そして、周辺エリア13となる領域に応じてレジスト42を配置する。
 第24の工程において、図11の4段目に示すように、レジスト42を利用して画素エリア12のSiN膜41を除去するRIE加工を行うとともに、半導体基板21の表面のダメージ層を除去する。これによりストッパ層22が形成された後、レジスト42を除去する。このとき、半導体基板21の表面近傍に青PD領域51が形成され、半導体基板21の表面にストッパ層22が積層されるため、半導体基板21の縦方向に近傍位置となるように青PD領域51およびストッパ層22が形成されることになる。
 第25の工程において、図11の5段目に示すように、シリコンをエピタキシャル成長させることにより規定の厚みの半導体基板21を形成する。
 第26の工程において、図11の6段目に示すように、半導体基板21に対して、例えば、レジストを利用して複数の掘り込み部23を形成する加工を行う。このとき、上述したように、ストッパ層22が加工されることで発生する化合物の検知を利用してのエッチング時間の終点判定を行うことで、画素エリア12では、青PD領域51の近傍の深さとなるように、青PD領域51ごとに掘り込み部23が形成される。
 以上のような製造方法により、画素エリア12に形成される複数の掘り込み部23の加工深さを正確に制御することができる。これにより、個々の固体撮像素子11Bで、複数の掘り込み部23の加工深さにバラツキが発生することを抑制して、青PD領域51からの電荷の読み出しに関し、デバイス特性の安定化を図ることができる。
 なお、ストッパ層22を利用して複数の掘り込み部23をエッチングする際のエッチング時間の終点判定する技術は、固体撮像素子11のみに限定されることなく様々な半導体装置に適用することができる。例えば、本技術をメモリに適用し、複数の掘り込み部23を溝形状(図9参照)に形成することで、メモリのキャパシタを構成するのに利用することができる。
 即ち、本技術は、半導体基板21を深掘りして掘り込み部23を形成するデバイスであって、シリコンをエピタキシャル成長させることによって半導体基板21を積み増しするようなプロセスで製造されるデバイスに好適に適用することができる。また、エピタキシャル成長によるシリコンの厚みを調整することとで、ストッパ層22を配置する深さを制御することができる。
 <電子機器の構成例>
 上述したような固体撮像素子11は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像システム、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図12は、電子機器に搭載される撮像装置の構成例を示すブロック図である。
 図12に示すように、撮像装置101は、光学系102、撮像素子103、信号処理回路104、モニタ105、およびメモリ106を備えて構成され、静止画像および動画像を撮像可能である。
 光学系102は、1枚または複数枚のレンズを有して構成され、被写体からの像光(入射光)を撮像素子103に導き、撮像素子103の受光面(センサ部)に結像させる。
 撮像素子103としては、上述した固体撮像素子11が適用される。撮像素子103には、光学系102を介して受光面に結像される像に応じて、一定期間、電子が蓄積される。そして、撮像素子103に蓄積された電子に応じた信号が信号処理回路104に供給される。
 信号処理回路104は、撮像素子103から出力された画素信号に対して各種の信号処理を施す。信号処理回路104が信号処理を施すことにより得られた画像(画像データ)は、モニタ105に供給されて表示されたり、メモリ106に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置101では、上述した固体撮像素子11を適用することで、例えば、画素ごとの特性のバラツキが抑制された、より高画質な画像を撮像することができる。
 <イメージセンサの使用例>
 図13は、上述のイメージセンサ(撮像素子)を使用する使用例を示す図である。
 上述したイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 <内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図14は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図14では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図15は、図14に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、内視鏡11100や、カメラヘッド11102(の撮像部11402)等に適用され得る。これにより、デバイスごとに一定の加工深さとなるように複数の掘り込み部23を加工することができ、デバイスごとの特性にバラツキが発生することを回避することができる結果、一定の品質を保障することができる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 <移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図16は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図16に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図16の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図17は、撮像部12031の設置位置の例を示す図である。
 図17では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図17には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。これにより、デバイスごとに一定の加工深さとなるように複数の掘り込み部23を加工することができ、デバイスごとの特性にバラツキが発生することを回避することができる結果、一定の品質を保障することができる。
 <構成の組み合わせ例>
 なお、本技術は以下のような構成も取ることができる。
(1)
 有効に機能させることが求められる半導体素子が半導体基板に対して形成される領域である有効領域と、
 前記半導体基板において前記半導体素子が形成されない領域である無効領域と、
 前記無効領域における前記半導体基板の所定の深さに、前記半導体基板とは異なる材料により形成されるストッパ層と、
 前記ストッパ層に応じた深さまで前記半導体基板の前記有効領域および前記無効領域を掘り込むことによって形成される掘り込み部と
 を備える半導体装置。
(2)
 前記ストッパ層の材料を含む化合物の検知を利用して、前記掘り込み部を掘り込む加工時間の終点判定が行われる
 上記(1)に記載の半導体装置。
(3)
 前記ストッパ層は、ダイシング幅を含むスクライブラインに形成可能である
 上記(1)または(2)に記載の半導体装置。
(4)
 規定の厚みよりも薄い前記半導体基板に対して前記ストッパ層を形成した後に、前記半導体基板を規定の厚みとなるまでエピタキシャル成長させることにより製造される
 上記(1)から(3)までのいずれかに記載の半導体装置。
(5)
 前記ストッパ層は、規定の厚みよりも薄い前記半導体基板に対して材料を成膜して、前記半導体基板の全面に形成された膜を、前記有効領域において除去することにより形成される
 上記(4)に記載の半導体装置。
(6)
 前記ストッパ層は、前記無効領域において前記半導体基板の表面近傍に不純物を注入することにより形成される
 上記(4)に記載の半導体装置。
(7)
 前記掘り込み部は、円形の止まり穴形状に形成される
 上記(1)から(6)までのいずれかに記載の半導体装置。
(8)
 前記掘り込み部は、溝形状に形成される
 上記(1)から(6)までのいずれかに記載の半導体装置。
(9)
 有効に機能させることが求められる画素が、半導体基板に対して形成される領域である画素領域と、
 前記半導体基板において前記画素が形成されない領域である周辺領域と、
 前記周辺領域における前記半導体基板の所定の深さに、前記半導体基板とは異なる材料により形成されるストッパ層と、
 前記ストッパ層に応じた深さまで前記半導体基板の前記画素領域および前記周辺領域を掘り込むことによって形成される掘り込み部と
 を備える固体撮像素子。
(10)
 前記掘り込み部は、前記半導体基板の所定の深さに形成されるフォトダイオードから電荷を読み出すための縦型電極を形成するのに利用される
 上記(9)に記載の固体撮像素子。
(11)
 有効に機能させることが求められる半導体素子が半導体基板に対して形成される領域である有効領域と、
 前記半導体基板において前記半導体素子が形成されない領域である無効領域と、
 前記無効領域における前記半導体基板の所定の深さに、前記半導体基板とは異なる材料により形成されるストッパ層と、
 前記ストッパ層に応じた深さまで前記半導体基板の前記有効領域および前記無効領域を掘り込むことによって形成される掘り込み部と
 を備える半導体装置の製造方法であって、
 規定の厚みよりも薄い前記半導体基板に対して前記ストッパ層を形成することと、
 前記半導体基板を規定の厚みとなるまでエピタキシャル成長させることと
 を含む製造方法。
(12)
 有効に機能させることが求められる半導体素子が半導体基板に対して形成される領域である有効領域と、
 前記半導体基板において前記半導体素子が形成されない領域である無効領域と、
 前記無効領域における前記半導体基板の所定の深さに、前記半導体基板とは異なる材料により形成されるストッパ層と、
 前記ストッパ層に応じた深さまで前記半導体基板の前記有効領域および前記無効領域を掘り込むことによって形成される掘り込み部と
 を有する半導体装置を備える電子機器。
 なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 11 固体撮像素子, 12 画素エリア, 13 周辺エリア, 21 半導体基板, 22 ストッパ層, 23 掘り込み部, 31 ダイシング領域, 41 SiN膜, 42 レジスト, 51 青PD領域, 52 SiO膜

Claims (12)

  1.  有効に機能させることが求められる半導体素子が半導体基板に対して形成される領域である有効領域と、
     前記半導体基板において前記半導体素子が形成されない領域である無効領域と、
     前記無効領域における前記半導体基板の所定の深さに、前記半導体基板とは異なる材料により形成されるストッパ層と、
     前記ストッパ層に応じた深さまで前記半導体基板の前記有効領域および前記無効領域を掘り込むことによって形成される掘り込み部と
     を備える半導体装置。
  2.  前記ストッパ層の材料を含む化合物の検知を利用して、前記掘り込み部を掘り込む加工時間の終点判定が行われる
     請求項1に記載の半導体装置。
  3.  前記ストッパ層は、ダイシング幅を含むスクライブラインに形成可能である
     請求項1に記載の半導体装置。
  4.  規定の厚みよりも薄い前記半導体基板に対して前記ストッパ層を形成した後に、前記半導体基板を規定の厚みとなるまでエピタキシャル成長させることにより製造される
     請求項1に記載の半導体装置。
  5.  前記ストッパ層は、規定の厚みよりも薄い前記半導体基板に対して材料を成膜して、前記半導体基板の全面に形成された膜を、前記有効領域において除去することにより形成される
     請求項4に記載の半導体装置。
  6.  前記ストッパ層は、前記無効領域において前記半導体基板の表面近傍に不純物を注入することにより形成される
     請求項4に記載の半導体装置。
  7.  前記掘り込み部は、円形の止まり穴形状に形成される
     請求項1に記載の半導体装置。
  8.  前記掘り込み部は、溝形状に形成される
     請求項1に記載の半導体装置。
  9.  有効に機能させることが求められる画素が、半導体基板に対して形成される領域である画素領域と、
     前記半導体基板において前記画素が形成されない領域である周辺領域と、
     前記周辺領域における前記半導体基板の所定の深さに、前記半導体基板とは異なる材料により形成されるストッパ層と、
     前記ストッパ層に応じた深さまで前記半導体基板の前記画素領域および前記周辺領域を掘り込むことによって形成される掘り込み部と
     を備える固体撮像素子。
  10.  前記掘り込み部は、前記半導体基板の所定の深さに形成されるフォトダイオードから電荷を読み出すための縦型電極を形成するのに利用される
     請求項9に記載の固体撮像素子。
  11.  有効に機能させることが求められる半導体素子が半導体基板に対して形成される領域である有効領域と、
     前記半導体基板において前記半導体素子が形成されない領域である無効領域と、
     前記無効領域における前記半導体基板の所定の深さに、前記半導体基板とは異なる材料により形成されるストッパ層と、
     前記ストッパ層に応じた深さまで前記半導体基板の前記有効領域および前記無効領域を掘り込むことによって形成される掘り込み部と
     を備える半導体装置の製造方法であって、
     規定の厚みよりも薄い前記半導体基板に対して前記ストッパ層を形成することと、
     前記半導体基板を規定の厚みとなるまでエピタキシャル成長させることと
     を含む製造方法。
  12.  有効に機能させることが求められる半導体素子が半導体基板に対して形成される領域である有効領域と、
     前記半導体基板において前記半導体素子が形成されない領域である無効領域と、
     前記無効領域における前記半導体基板の所定の深さに、前記半導体基板とは異なる材料により形成されるストッパ層と、
     前記ストッパ層に応じた深さまで前記半導体基板の前記有効領域および前記無効領域を掘り込むことによって形成される掘り込み部と
     を有する半導体装置を備える電子機器。
PCT/JP2018/038060 2017-10-26 2018-10-12 半導体装置、固体撮像素子、製造方法、および電子機器 WO2019082689A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/757,162 US20200251516A1 (en) 2017-10-26 2018-10-12 Semiconductor device, solid-state image sensor, manufacturing method, and electronic device
JP2019550995A JPWO2019082689A1 (ja) 2017-10-26 2018-10-12 半導体装置、固体撮像素子、製造方法、および電子機器

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-206754 2017-10-26
JP2017206754 2017-10-26

Publications (1)

Publication Number Publication Date
WO2019082689A1 true WO2019082689A1 (ja) 2019-05-02

Family

ID=66246861

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/038060 WO2019082689A1 (ja) 2017-10-26 2018-10-12 半導体装置、固体撮像素子、製造方法、および電子機器

Country Status (3)

Country Link
US (1) US20200251516A1 (ja)
JP (1) JPWO2019082689A1 (ja)
WO (1) WO2019082689A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63140537A (ja) * 1986-12-02 1988-06-13 Oki Electric Ind Co Ltd 半導体層のエツチング方法
JPH07273082A (ja) * 1994-03-29 1995-10-20 Sharp Corp 回路内蔵受光装置の作製方法
JP2011066241A (ja) * 2009-09-17 2011-03-31 Sony Corp 固体撮像装置とその製造方法、及び電子機器
WO2011148973A1 (ja) * 2010-05-25 2011-12-01 ローム株式会社 圧力センサおよび圧力センサの製造方法
JP2015144197A (ja) * 2014-01-31 2015-08-06 住友電工デバイス・イノベーション株式会社 半導体装置の製造方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100388682B1 (ko) * 2001-03-03 2003-06-25 삼성전자주식회사 반도체 메모리 장치의 스토리지 전극층 및 그 형성방법
KR101874586B1 (ko) * 2012-08-06 2018-07-04 삼성전자주식회사 포토키를 이용한 반도체 소자의 제조 방법
US9305822B2 (en) * 2014-01-17 2016-04-05 Taiwan Semiconductor Manufacturing Company, Ltd. Alignment marks in non-STI isolation formation and methods of forming the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63140537A (ja) * 1986-12-02 1988-06-13 Oki Electric Ind Co Ltd 半導体層のエツチング方法
JPH07273082A (ja) * 1994-03-29 1995-10-20 Sharp Corp 回路内蔵受光装置の作製方法
JP2011066241A (ja) * 2009-09-17 2011-03-31 Sony Corp 固体撮像装置とその製造方法、及び電子機器
WO2011148973A1 (ja) * 2010-05-25 2011-12-01 ローム株式会社 圧力センサおよび圧力センサの製造方法
JP2015144197A (ja) * 2014-01-31 2015-08-06 住友電工デバイス・イノベーション株式会社 半導体装置の製造方法

Also Published As

Publication number Publication date
US20200251516A1 (en) 2020-08-06
JPWO2019082689A1 (ja) 2020-12-03

Similar Documents

Publication Publication Date Title
US10879280B2 (en) Solid-state imaging device and method of manufacturing solid-state imaging device
US10872998B2 (en) Chip size package, method of manufacturing the same, electronic device, and endoscope
US11869914B2 (en) Image sensor and method for manufacturing image sensor
JP2022044653A (ja) 撮像装置
US11750932B2 (en) Image processing apparatus, image processing method, and electronic apparatus
WO2021131318A1 (ja) 固体撮像装置及び電子機器
EP3796388A1 (en) Imaging element and imaging device
US20220293656A1 (en) Solid-state imaging device and electronic apparatus
US20220005858A1 (en) Solid-state imaging device and electronic device
US20220254823A1 (en) Imaging device
US20220102411A1 (en) Imaging device and imaging system
WO2019054177A1 (ja) 撮像素子および撮像素子の製造方法、撮像装置、並びに電子機器
US11362123B2 (en) Imaging device, camera module, and electronic apparatus to enhance sensitivity to light
WO2019082689A1 (ja) 半導体装置、固体撮像素子、製造方法、および電子機器
WO2019106983A1 (ja) 半導体装置および半導体装置の製造方法
EP4307373A1 (en) Semiconductor device and imaging device
WO2022138097A1 (ja) 固体撮像装置およびその製造方法
US11862662B2 (en) Image device
US20240145506A1 (en) Semiconductor package and electronic device
WO2022230355A1 (ja) 撮像装置および電子機器
US20210272995A1 (en) Imaging element and electronic apparatus
WO2019097949A1 (ja) 半導体装置および半導体の製造方法、並びに撮像装置
JP2022112252A (ja) 光検出素子および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18871171

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019550995

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18871171

Country of ref document: EP

Kind code of ref document: A1