WO2019038999A1 - 固体撮像装置およびその製造方法 - Google Patents

固体撮像装置およびその製造方法 Download PDF

Info

Publication number
WO2019038999A1
WO2019038999A1 PCT/JP2018/017739 JP2018017739W WO2019038999A1 WO 2019038999 A1 WO2019038999 A1 WO 2019038999A1 JP 2018017739 W JP2018017739 W JP 2018017739W WO 2019038999 A1 WO2019038999 A1 WO 2019038999A1
Authority
WO
WIPO (PCT)
Prior art keywords
solid
imaging device
state imaging
inter
absorption layer
Prior art date
Application number
PCT/JP2018/017739
Other languages
English (en)
French (fr)
Inventor
恭輔 山田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2019038999A1 publication Critical patent/WO2019038999A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/22Absorbing filters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present technology relates to a solid-state imaging device. Specifically, the present invention relates to a solid-state imaging device including a polarizing element in each pixel and a method of manufacturing the same.
  • an image sensor using a polarization filter has been known in order to obtain polarization information in a solid-state imaging device.
  • polarization filter polarization element
  • an imaging device provided with a wire grid polarizer in which a plurality of strip-like laminated structures are juxtaposed and spaced apart is proposed (for example, see Patent Document 1).
  • polarization information is acquired using a polarization filter.
  • the light incident surface side of the polarizing filter is an absorbing layer as a low-reflection structure of the polarizing filter, the material and thickness of the absorbing layer also affect the characteristics of the polarizing filter such as light transmittance and extinction ratio. give. Therefore, the compatibility of both the suppression of the reflected light and the characteristics of the polarizing filter requires a great deal of effort in materials and structure, which is disadvantageous in the formation of the polarizing filter involving the microfabrication process.
  • the present technology is produced in view of such a situation, and it is an object of the present invention to suppress reflected light in a solid-state imaging device including a polarizing element without affecting the characteristics of the polarizing element.
  • a first aspect of the present technology is directed to a photoelectric conversion element and a plurality of pixels including a polarization element provided on the light incident side of the photoelectric conversion element.
  • a solid-state imaging device including: a light absorption layer formed to a position higher than the height of the polarizing element in the inter-pixel region of the plurality of pixels. This brings about the effect
  • the light absorption layer may be formed at a position higher than the height of the polarizing element in the inter-pixel region. That is, the light absorbing layer may be formed in a higher layer different from the layer in which the polarizing element is formed.
  • the light absorbing layer may be formed also in a quadrangular four corner area corresponding to each of the plurality of pixels in addition to the inter-pixel area. This brings about the effect
  • an inter-pixel frame may be further provided to separate the plurality of pixels in the inter-pixel region. This brings about the effect
  • the light absorption layer may have a width different from that of the inter-pixel frame. That is, the width of the light absorption layer may be wider than the width of the inter-pixel frame, and conversely, the width of the light absorption layer may be narrower than the width of the inter-pixel frame.
  • the inter-pixel frame may form the light absorption layer. This brings about the effect
  • the polarizing element may be continuously formed in the inter-pixel region. This brings about the effect
  • the polarization element may be formed of a plurality of layers different from each other. This brings about the effect
  • an optical filter provided at a position higher than the light absorption layer corresponding to each of the plurality of pixels may be further included. Further, an optical filter provided at a position higher than the light absorption layer may be further provided corresponding to each of the plurality of pixels.
  • the polarizing element may be a polarizing filter made of a wire grid polarizer. Further, the polarizing element may be a band pass filter composed of a nanohole array.
  • a light absorption layer is stacked after formation of a plurality of pixels including a photoelectric conversion element and a polarizing element provided on the light incident side of the photoelectric conversion element, and the pixels of the plurality of pixels
  • the light absorption layer is removed by dry etching in a region other than the intermediate region, an oxide film is formed on the entire dry-etched surface, and the oxide film is polished and planarized.
  • the light absorbing layer is formed at a position higher than the height of the polarizing element in the inter-pixel region of the plurality of pixels, and the light absorbing layer absorbs the reflected light generated in the polarizing element.
  • an oxide film is stacked after formation of a plurality of pixels including a photoelectric conversion element and a polarization element provided on the light incident side of the photoelectric conversion element, and In the region, the oxide film is removed by dry etching, the light absorption layer is stacked on the dry etched upper surface, the light absorption layer is removed by polishing in the region other than the inter-pixel region, and the entire polished surface is removed.
  • an oxide film is formed on the substrate and the oxide film is polished and planarized. As a result, the light absorbing layer is formed at a position higher than the height of the polarizing element in the inter-pixel region of the plurality of pixels, and the light absorbing layer absorbs the reflected light generated in the polarizing element.
  • the present technology in a solid-state imaging device provided with a polarizing element, it is possible to achieve an excellent effect that reflected light can be suppressed without affecting the characteristics of the polarizing element.
  • the effect described here is not necessarily limited, and may be any effect described in the present disclosure.
  • FIG. 1 is a block diagram showing a schematic configuration example of a vehicle control system that is an example of a mobile object control system to which the technology according to the present disclosure can be applied. It is a figure which shows the example of the installation position of the imaging part 12031.
  • FIG. FIG. 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • FIG. 19 is a block diagram showing an example of functional configurations of a camera head 11102 and a CCU 11201 shown in FIG. 18.
  • FIG. 1 is a diagram illustrating a configuration example of a solid-state imaging device according to an embodiment of the present technology.
  • the solid-state imaging device includes a pixel area 10 and a peripheral circuit unit.
  • the peripheral circuit unit includes a vertical drive circuit 20, a horizontal drive circuit 30, a control circuit 40, a column signal processing circuit 50, and an output circuit 60.
  • the pixel area 10 is a pixel array in which a plurality of pixels 100 including photoelectric conversion units (photoelectric conversion elements) are arranged in a two-dimensional array.
  • the photoelectric conversion unit of the pixel 100 includes, for example, a photodiode and a plurality of pixel transistors.
  • the plurality of pixel transistors can be configured by, for example, three transistors: a transfer transistor, a reset transistor, and an amplification transistor.
  • a polarizing element is provided on the light incident side of the photoelectric conversion unit of the pixel 100.
  • the vertical drive circuit 20 drives the pixels 100 row by row.
  • the vertical drive circuit 20 is configured of, for example, a shift register.
  • the vertical drive circuit 20 selects a pixel drive wiring and supplies a pulse for driving the pixel 100 to the selected pixel drive wiring.
  • the vertical drive circuit 20 selectively scans the pixels 100 in the pixel area 10 sequentially in the vertical direction in row units, and a pixel signal based on the signal charge generated according to the light reception amount in the photoelectric conversion unit of each pixel 100 Are supplied to the column signal processing circuit 50 via the vertical signal line 19.
  • the horizontal drive circuit 30 drives the column signal processing circuit 50 in units of columns.
  • the horizontal drive circuit 30 is configured of, for example, a shift register.
  • the horizontal drive circuit 30 sequentially selects each of the column signal processing circuits 50 by sequentially outputting horizontal scanning pulses, and pixel signals from each of the column signal processing circuits 50 are transmitted via the horizontal signal line 59.
  • the output circuit 60 is made to output.
  • the control circuit 40 controls the entire solid-state imaging device.
  • the control circuit 40 receives an input clock and data instructing an operation mode and the like, and outputs data such as internal information of the solid-state imaging device. That is, the control circuit 40 generates clock signals and control signals that become the reference of operations of the vertical drive circuit 20, the column signal processing circuit 50, the horizontal drive circuit 30, etc. based on the vertical synchronization signal, the horizontal synchronization signal and the master clock. Generate Then, these signals are input to the vertical drive circuit 20, the column signal processing circuit 50, the horizontal drive circuit 30, and the like.
  • the column signal processing circuit 50 is disposed, for example, for each column of the pixels 100, and performs signal processing such as noise removal for each pixel column on signals output from the pixels 100 for one row. That is, the column signal processing circuit 50 performs signal processing such as CDS (Correlated Double Sampling) for removing fixed pattern noise specific to the pixel 100, signal amplification, AD (Analog to Digital) conversion, and the like.
  • a horizontal selection switch (not shown) is connected between the output stage of the column signal processing circuit 50 and the horizontal signal line 59.
  • the output circuit 60 performs signal processing on signals sequentially supplied from each of the column signal processing circuits 50 through the horizontal signal line 59 and outputs the processed signals. At this time, the output circuit 60 buffers the signal from the column signal processing circuit 50.
  • the output circuit 60 may perform black level adjustment, column variation correction, various digital signal processing, and the like on the signal from the column signal processing circuit 50.
  • this solid-state imaging device When this solid-state imaging device is applied to a backside illuminated solid-state imaging device, no wiring layer is formed on the back surface on the light incident surface (so-called light receiving surface) side, and the wiring layer is the surface opposite to the light receiving surface. Formed on the side.
  • FIG. 2 is an example of a plan view of the pixel region 10 of the solid-state imaging device according to the embodiment of the present technology.
  • a plurality of pixels 100 are arranged in an array in the pixel area 10.
  • Each pixel 100 includes a photoelectric conversion element that converts incident light into an electrical signal.
  • the pixel 100 includes the polarization filter 150 on the light incident side of the photoelectric conversion element.
  • the polarization filter 150 is an optical system for acquiring polarization information of incident light, and thus, it is possible to divide and handle the light for the right eye and the light for the left eye, for example, in a stereoscopic image application.
  • a wire grid polarizer is assumed as the polarization filter 150, but as will be described later, for example, a nanohole array or the like can be used.
  • An inter-pixel area 103 exists between the plurality of pixels 100.
  • a light absorption layer that absorbs light is formed in the inter-pixel area 103.
  • produces in the polarizing filter 150 can be suppressed.
  • FIG. 3 is an example of a cross-sectional view of the pixel region 10 of the solid-state imaging device according to the embodiment of the present technology.
  • An on-chip lens 110 is provided corresponding to the pixel 100, and incident light incident from the on-chip lens 110 is incident on the layer of the photodiode 170 through the polarizing filter 150.
  • the photodiode 170 is a photoelectric conversion element that converts incident light into an electrical signal.
  • polarizing filter 150 As the polarizing filter 150, a wire grid polarizer 151 is assumed in this embodiment.
  • the material of the polarizing filter 150 include metal materials such as Al, Ag, Au, Cu, Pt, Mo, Cr, Ti, Ni, W, Fe, Si, Ge, and Te, and semiconductor materials including these. It can be used.
  • the polarization filter 150 is formed on the insulating film 160.
  • an inter-pixel frame 152 is formed instead of the wire grid polarizer 151.
  • the inter-pixel frame 152 is formed to prevent collapse of the wire grid and accumulation of charge on the wire grid when the wire grid polarizer 151 is stacked.
  • the inter-pixel frame 152 may not be provided.
  • the wire grid polarizer 151 and the inter-pixel frame 152 are covered with a protective film 140.
  • a material of the protective film 140 for example, a material such as SiO 2 , SiON, SiN, SiC, SiOC, SiCN, AlO x , HfO x , ZrO x , or TaO x can be used.
  • a planarization film 120 is formed on the surface of the protective film 140.
  • the planarizing film 120 can use, for example, a silicide material such as FeSi 2 or MgSi 2 .
  • a light absorption layer 130 that absorbs light is formed in the inter-pixel region 103.
  • the light absorbing layer 130 suppresses the reflected light generated in the polarizing filter 150.
  • the light absorption layer 130 is formed at a position higher than the height of the polarizing filter 150.
  • the light absorption layer 130 may be formed from the height overlapping the height of the polarizing filter 150, and even in that case, the light absorbing layer 130 needs to be formed to a position higher than the height of the polarizing filter 150 There is.
  • FIG. 4 is a diagram showing an example of the suppression effect of the reflected light by the solid-state imaging device according to the embodiment of the present technology.
  • B in the same figure is the conventional structure which does not have a light absorption layer, and the reflected light which generate
  • the light absorption layer 130 is formed in the inter-pixel region 103, whereby the reflected light 502 with respect to the incident light 501 is suppressed more than in the conventional structure. I understand. And thereby, the reflected light as the whole element can be reduced.
  • FIG. 5 is a diagram illustrating an example of a procedure of a first method of manufacturing a solid-state imaging device according to an embodiment of the present technology.
  • the type of barrier metal may differ depending on the type and area of the material to be the light absorption layer 130, or the barrier metal itself may be unnecessary.
  • titanium (Ti) may be used as a barrier metal with respect to tungsten (W) assumed as the light absorption layer 130.
  • This first manufacturing method is an example in the case of assuming Ti / W as a material to be the light absorption layer 130.
  • a material to be a barrier metal and a material 133 to be a light absorbing layer are laminated.
  • the portion of the material 133 other than the portion corresponding to the inter-pixel region 103 is removed by dry etching. Thereby, the light absorption layer 130 is formed.
  • planarization film 120 is formed.
  • the material of the planarizing film 120 include metal materials such as Al, Ag, Au, Cu, Pt, Mo, Cr, Ti, Ni, W, Fe, Si, Ge, and Te, and semiconductor materials containing these. Silicide materials such as FeSi 2 and MgSi 2 can be used.
  • FIG. 6 is a diagram illustrating an example of a procedure of a second method of manufacturing a solid-state imaging device according to an embodiment of the present technology.
  • a protective film 140 covering the polarizing filter 150 and the polarizing filter 150 is formed, and then an oxide film 121 is laminated.
  • a material to be a barrier metal and a stop layer for polishing and a material 133 to be a light absorbing layer are laminated.
  • polishing is performed to remove the portion of the material 133 other than the portion corresponding to the inter-pixel region 103. Thereby, the light absorption layer 130 is formed.
  • the oxide film is polished and planarized. Thereby, the planarization film 120 is formed.
  • the polarization filter 150 is formed by providing the light absorption layer 130 which is formed to a position higher than the height of the polarization filter 150 in the inter-pixel area 103 of the plurality of pixels 100. Reflected light can be suppressed.
  • FIG. 7 is an example of a plan view of the pixel region 10 of the solid-state imaging device in the first modified example of the embodiment of the present technology.
  • the light absorbing layer 130 is provided in the inter-pixel area 103, but in this first modification, the light absorbing layer 131 is also provided in the quadrangular four corners corresponding to each of the pixels 100. It is formed.
  • the on-chip lens 110 is provided in each of the pixels 100, and the incident light incident from the on-chip lens 110 is the original target of the photoelectric conversion. Therefore, the intensity of the reflected light as a whole can be reduced by absorbing the light of the portion which is not condensed by the on-chip lens 110 in the light absorbing layer 131 in the four corners.
  • the triangular light absorbing layer 131 is provided at each of the quadrangular four corners, but a circular opening is secured according to the shape of the on-chip lens 110, and the other portion is A light absorbing layer may be provided.
  • FIG. 8 is an example of a cross-sectional view of a pixel region 10 of a solid-state imaging device according to a second modified example of the embodiment of the present technology.
  • the inter-pixel frame 152 is formed in the inter-pixel area 103, but in the second modification, the inter-pixel frame 152 is not provided. Also in this case, the light absorption layer 130 is provided in the inter-pixel region 103. That is, the present technology can also be applied to such a frameless structure.
  • FIG. 9 is an example of a cross-sectional view of a pixel region 10 of a solid-state imaging device according to a third modified example of the embodiment of the present technology.
  • the width of the light absorption layer 130 and the width of the inter-pixel frame 152 are substantially equal, but the widths can be determined as appropriate. For example, when vignetting occurs in incident light, it may be considered that the width of the light absorption layer 130 is wider than the width of the inter-pixel frame 152 as shown in the drawing. Also, conversely, the width of the light absorption layer 130 may be narrower than the width of the inter-pixel frame 152.
  • FIG. 10 is an example of a cross-sectional view of the pixel region 10 of the solid-state imaging device according to the fourth modified example of the embodiment of the present technology.
  • the light absorbing layer 130 is provided on the upper surface of the protective film 140 covering the polarizing filter 150.
  • the light absorbing layer 132 is formed as a part of the interpixel frame 152.
  • the uppermost layer of the laminated inter-pixel frame 152 is the light absorption layer 132.
  • the light absorption layer 132 can be formed integrally with the inter-pixel frame 152.
  • the light absorbing layer 132 may be formed at a position lower than the height of the polarizing filter 150, but the upper surface of the light absorbing layer 132 is formed to a position higher than the height of the polarizing filter 150. Be done.
  • FIG. 11 is an example of a cross-sectional view of the pixel region 10 of the solid-state imaging device according to the fifth modification of the embodiment of the present technology.
  • the inter-pixel frame 152 is formed in the inter-pixel area 103, but in the fifth modification, the wire grid polarizer 151 is continuously formed in the inter-pixel area 103 as well.
  • the wire grid polarizers 151 can be connected to perform photolithography, and it is possible to avoid a situation in which the pattern end and the central portion have different finishes.
  • FIG. 12 is an example of a cross-sectional view of a pixel region 10 of a solid-state imaging device according to a sixth modification of the embodiment of the present technology.
  • the wire grid polarizer 151 and the inter-pixel frame 152 may be composed of a plurality of layers. As a result, the effects of the respective layers can be exhibited, and the characteristics of the polarizing filter 150 can be improved. In this example, a three-layer structure is shown, but it may be composed of other number of layers.
  • FIG. 13 is an example of a cross-sectional view of the pixel region 10 of the solid-state imaging device according to the seventh modified example of the embodiment of the present technology.
  • an optical filter such as a color filter can be formed.
  • color filters 181 and 182 may be stacked on the top of the light absorption layer 130 as shown in a of FIG.
  • color filters 181 and 182 may be laminated between the light absorbing layer 130 and the polarizing filter 150.
  • FIG. 14 is an example of a plan view of the pixel region 10 of the solid-state imaging device in the eighth modified example of the embodiment of the present technology.
  • the wire grid polarizer 151 is assumed as the polarization filter 150, but in the eighth modification, an example using the nanohole array 153 is shown.
  • the nanohole array 153 is formed by forming a plurality of nanoholes in an array.
  • a nanohole is an opening having a size on the order of nanometers.
  • the nanohole array 153 functions as a band pass filter that passes a specific wavelength.
  • the eighth modification by providing the light absorption layer 130 in the inter-pixel region 103, it is possible to suppress the reflected light generated in the nanohole array 153.
  • FIG. 15 is an example of a cross-sectional view of a pixel region 10 of a solid-state imaging device according to a ninth modified embodiment of the embodiment of the present technology.
  • the on-chip lens 110 is provided on the top surface of the pixel 100, and the light absorption layer 130 is provided below the on-chip lens 110.
  • the lens corresponding to the pixel 100 is provided below the polarization filter 150 and functions as the inner lens 111.
  • the light absorption layer 130 is provided on the top surface of the polarization filter 150 and the inner lens 111.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on any type of mobile object such as a car, an electric car, a hybrid electric car, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot May be
  • FIG. 16 is a block diagram showing a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 includes a plurality of electronic control units connected via communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an external information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the driveline control unit 12010 controls the operation of devices related to the driveline of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, and a steering angle of the vehicle. adjusting steering mechanism, and functions as a control device of the braking device or the like to generate a braking force of the vehicle.
  • Body system control unit 12020 controls the operation of the camera settings device to the vehicle body in accordance with various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device of various lamps such as a headlamp, a back lamp, a brake lamp, a blinker or a fog lamp.
  • the body system control unit 12020 the signal of the radio wave or various switches is transmitted from wireless controller to replace the key can be entered.
  • Body system control unit 12020 receives an input of these radio or signal, the door lock device for a vehicle, the power window device, controls the lamp.
  • Outside vehicle information detection unit 12030 detects information outside the vehicle equipped with vehicle control system 12000.
  • an imaging unit 12031 is connected to the external information detection unit 12030.
  • the out-of-vehicle information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing or distance detection processing of a person, a vehicle, an obstacle, a sign, characters on a road surface, or the like based on the received image.
  • Imaging unit 12031 receives light, an optical sensor for outputting an electric signal corresponding to the received light amount of the light.
  • the imaging unit 12031 can output an electric signal as an image or can output it as distance measurement information.
  • the light image pickup unit 12031 is received may be a visible light, it may be invisible light such as infrared rays.
  • Vehicle information detection unit 12040 detects the vehicle information.
  • a driver state detection unit 12041 that detects a state of a driver is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera for imaging the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver does not go to sleep.
  • the microcomputer 12051 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the information inside and outside the vehicle acquired by the outside information detecting unit 12030 or the in-vehicle information detecting unit 12040, and a drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 is collision avoidance or cushioning of the vehicle, follow-up running based on inter-vehicle distance, vehicle speed maintained running, functions realized in the vehicle collision warning, or ADAS including lane departure warning of the vehicle (Advanced Driver Assistance System) It is possible to perform coordinated control aiming at
  • the microcomputer 12051 the driving force generating device on the basis of the information around the vehicle acquired by the outside information detection unit 12030 or vehicle information detection unit 12040, by controlling the steering mechanism or braking device, the driver automatic operation such that autonomously traveling without depending on the operation can be carried out cooperative control for the purpose of.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the external information detection unit 12030.
  • the microcomputer 12051 controls the headlamps in response to the preceding vehicle or the position where the oncoming vehicle is detected outside the vehicle information detection unit 12030, the cooperative control for the purpose of achieving the anti-glare such as switching the high beam to the low beam It can be carried out.
  • Audio and image output unit 12052 transmits, to the passenger or outside of the vehicle, at least one of the output signal of the voice and image to be output device to inform a visually or aurally information.
  • the audio speaker 12061, the display part 12062, and the instrument panel 12063 are illustrated as an output device.
  • Display unit 12062 may include at least one of the on-board display and head-up display.
  • FIG. 17 is a diagram illustrating an example of the installation position of the imaging unit 12031.
  • a vehicle 12100 includes imaging units 12101, 12102, 12103, 12104, and 12105 as an imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as the front nose of the vehicle 12100, a side mirror, a rear bumper, a back door, and an upper portion of a windshield of a vehicle interior.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle cabin mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 included in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100. Images in the front acquired by the imaging units 12101 and 12105 are mainly used to detect a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • Imaging range 12111 indicates an imaging range of the imaging unit 12101 provided in the front nose
  • imaging range 12112,12113 are each an imaging range of the imaging unit 12102,12103 provided on the side mirror
  • an imaging range 12114 is The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown.
  • a bird's eye view of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging unit 12101 through 12104 may have a function of obtaining distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging devices, or an imaging device having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from to no imaging unit 12101 12104, and the distance to the three-dimensional object in to no imaging range 12111 in 12114, the temporal change of the distance (relative speed with respect to the vehicle 12100) In particular, it is possible to extract a three-dimensional object traveling at a predetermined speed (for example, 0 km / h or more) in substantially the same direction as the vehicle 12100 as a leading vehicle, in particular by finding the it can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. Automatic operation or the like for autonomously traveling without depending on the way of the driver operation can perform cooperative control for the purpose.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 converts three-dimensional object data relating to three-dimensional objects into two-dimensional vehicles such as two-wheeled vehicles, ordinary vehicles, large vehicles, classification and extracted, can be used for automatic avoidance of obstacles.
  • the microcomputer 12051 identifies obstacles around the vehicle 12100 into obstacles visible to the driver of the vehicle 12100 and obstacles difficult to see.
  • the microcomputer 12051 determines a collision risk which indicates the risk of collision with the obstacle, when a situation that might collide with the collision risk set value or more, through an audio speaker 12061, a display portion 12062 By outputting a warning to the driver or performing forcible deceleration or avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging unit 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • Such pedestrian recognition is, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as an infrared camera, and pattern matching processing on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not
  • the procedure is to determine Microcomputer 12051 is, determines that the pedestrian in the captured image of the imaging unit 12101 to 12104 is present, recognizing the pedestrian, the sound image output unit 12052 is rectangular outline for enhancement to the recognized pedestrian to superimpose, controls the display unit 12062.
  • the audio image output unit 12052 is, an icon or the like indicating a pedestrian may control the display unit 12062 to display the desired position.
  • the example of the vehicle control system to which the technology according to the present disclosure can be applied has been described above.
  • the technology according to the present disclosure may be applied to the imaging unit 12031 among the configurations described above. Specifically, reflected light in the imaging unit 12031 can be suppressed by applying the technology according to the present disclosure to the imaging unit 12031.
  • Endoscopic surgery system The technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 18 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the endoscopic operation system 11000 includes an endoscope 11100, such as pneumoperitoneum tube 11111 and the energy treatment instrument 11112, and other surgical instrument 11110, a support arm device 11120 which supports the endoscope 11100 , the cart 11200 which various devices for endoscopic surgery is mounted, and a.
  • an endoscope 11100 such as pneumoperitoneum tube 11111 and the energy treatment instrument 11112
  • other surgical instrument 11110 such as pneumoperitoneum tube 11111 and the energy treatment instrument 11112
  • a support arm device 11120 which supports the endoscope 11100
  • the cart 11200 which various devices for endoscopic surgery is mounted
  • the endoscope 11100 includes a lens barrel 11101 whose region of a predetermined length from the tip is inserted into a body cavity of a patient 11132, and a camera head 11102 connected to a proximal end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid endoscope having a barrel 11101 of the rigid endoscope 11100, be configured as a so-called flexible scope with a barrel of flexible Good.
  • the endoscope 11100 may be a straight endoscope, or may be a oblique endoscope or a side endoscope.
  • An optical system and an imaging device are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is condensed on the imaging device by the optical system.
  • the observation light is photoelectrically converted by the imaging element to generate an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal as the RAW data camera control unit: sent to (CCU Camera Control Unit) 11201.
  • CCU11201 is constituted by a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit) or the like, and performs overall control of the operation of the endoscope 11100 and a display device 11202. Furthermore, the CCU 11201 receives an image signal from the camera head 11102 and performs various image processing for displaying an image based on the image signal, such as development processing (demosaicing processing), on the image signal.
  • image processing for displaying an image based on the image signal, such as development processing (demosaicing processing), on the image signal.
  • Display device 11202 under the control of the CCU11201, displays an image based on the image signal subjected to image processing by the CCU11201.
  • the light source device 11203 includes, for example, a light source such as a light emitting diode (LED), and supplies the endoscope 11100 with irradiation light at the time of imaging a surgical site or the like.
  • a light source such as a light emitting diode (LED)
  • LED light emitting diode
  • the input device 11204 is an input interface to the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user type of illumination light, magnification and focal length
  • endoscopes 11100 by the imaging condition inputting the setting of the instruction or the like to change.
  • Surgical instrument control unit 11205 is, tissue ablation, to control the driving of the energy treatment instrument 11112 for such sealing of the incision or blood vessel.
  • the insufflation apparatus 11206 is a gas within the body cavity via the insufflation tube 11111 in order to expand the body cavity of the patient 11132 for the purpose of securing a visual field by the endoscope 11100 and securing a working space of the operator.
  • Send The recorder 11207 is a device capable of recording various types of information regarding surgery.
  • the printer 11208 is an apparatus capable of printing various types of information regarding surgery in various types such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light when imaging the surgical site to the endoscope 11100 can be configured of, for example, an LED, a laser light source, or a white light source configured by a combination of these. If a white light source by a combination of RGB laser light source is constructed, since it is possible to control the output intensity and output timing of each color (each wavelength) with high accuracy, the adjustment of the white balance of the captured image in the light source apparatus 11203 It can be carried out.
  • a color image can be obtained without providing a color filter in the imaging device.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the light to be output every predetermined time. Acquiring an image at the time of controlling the driving of the image pickup device of the camera head 11102 divided in synchronization with the timing of the change of the intensity of the light, by synthesizing the image, a high dynamic no so-called underexposure and overexposure An image of the range can be generated.
  • the light source device 11203 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • the special light observation for example, by utilizing the wavelength dependency of the absorption of light in body tissue, the irradiation light in normal observation (i.e., white light) by irradiation with light of a narrow band as compared to the mucosal surface
  • the so-called narrow band imaging is performed to image a predetermined tissue such as a blood vessel with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiation with excitation light.
  • body tissue is irradiated with excitation light and fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into body tissue and the body tissue is Excitation light corresponding to the fluorescence wavelength of the reagent can be irradiated to obtain a fluorescence image or the like.
  • Light source device 11203 such may be configured to provide a narrow-band light and / or the excitation light corresponding to the special light observation.
  • FIG. 19 is a block diagram showing an example of functional configurations of the camera head 11102 and the CCU 11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413. Camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.
  • Lens unit 11401 is an optical system provided in the connecting portion of the barrel 11101. Observation light taken from the tip of the barrel 11101 is guided to the camera head 11102, incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 includes an imaging element.
  • the imaging device constituting the imaging unit 11402 may be one (a so-called single-plate type) or a plurality (a so-called multi-plate type).
  • an image signal corresponding to each of RGB may be generated by each imaging element, and a color image may be obtained by combining them.
  • the imaging unit 11402 is, 3D (Dimensional) may be configured to have a pair of image pickup elements for obtaining respective image signals for the right eye and the left eye corresponding to the display. By 3D display is performed, the operator 11131 is enabled to grasp the depth of the living tissue in the operative site more accurately.
  • the imaging unit 11402 is to be composed by multi-plate, corresponding to the imaging elements, the lens unit 11401 may be provided a plurality of systems.
  • the imaging unit 11402 may not necessarily provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the driving unit 11403 is configured by an actuator, and moves the zoom lens and the focusing lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405. Thereby, the magnification and the focus of the captured image by the imaging unit 11402 can be appropriately adjusted.
  • the communication unit 11404 is configured of a communication device for transmitting and receiving various types of information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 to CCU11201 via a transmission cable 11400 as RAW data.
  • the communication unit 11404 also receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the the control signal for example, information that specifies the frame rate of the captured image, information that specifies the exposure value at the time of imaging, and / or magnification and information, etc. indicating that specifies the focal point of the captured image, captured Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus described above may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are incorporated in the endoscope 11100.
  • AE Auto Exposure
  • AF Auto Focus
  • AWB Automatic White Balance
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various types of information to and from the camera head 11102.
  • the communication unit 11411 is, from the camera head 11102 receives image signals transmitted via a transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by telecommunication or optical communication.
  • An image processing unit 11412 performs various types of image processing on an image signal that is RAW data transmitted from the camera head 11102.
  • Control unit 11413 the imaging of the operated portion due endoscope 11100, and various types of control related to the display of the captured image obtained by the imaging of the surgical section are performed.
  • the control unit 11413 generates a control signal for controlling the driving of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a captured image in which a surgical site or the like is captured, based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413, by detecting the edge of the shape and color of an object or the like included in the captured image, the surgical instrument such as forceps, a specific body part, bleeding, during use of the energy treatment instrument 11112 mist etc. It can be recognized.
  • the control unit 11413 may superimpose various surgical support information on the image of the surgery section using the recognition result. The operation support information is superimposed and presented to the operator 11131, whereby the burden on the operator 11131 can be reduced and the operator 11131 can reliably proceed with the operation.
  • a transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electric signal cable corresponding to communication of an electric signal, an optical fiber corresponding to optical communication, or a composite cable of these.
  • the technique according to the present disclosure may be applied to the endoscope 11100 and the imaging unit 11402 of the camera head 11102 among the configurations described above. Specifically, the technology according to the present disclosure is applied to the endoscope 11100 and the imaging unit 11402 of the camera head 11102 to suppress reflected light in the endoscope 11100 and the imaging unit 11402 of the camera head 11102. Can.
  • the present technology can also be configured as follows.
  • a plurality of pixels including a photoelectric conversion element and a polarizing element provided on the light incident side of the photoelectric conversion element;
  • a solid-state imaging device comprising: a light absorption layer formed to a position higher than the height of the polarizing element in an inter-pixel region of the plurality of pixels.
  • the solid-state imaging device according to any one of (1) to (8), further including an optical filter provided at a position higher than the light absorption layer corresponding to each of the plurality of pixels.
  • the optical filter according to any one of (1) to (8) further comprising an optical filter provided at a position between the light absorption layer and the polarization element corresponding to each of the plurality of pixels.
  • Solid-state imaging device (11) The solid-state imaging device according to any one of (1) to (10), wherein the polarizing element is a polarizing filter made of a wire grid polarizer.
  • the polarizing element is a band pass filter composed of a nanohole array.
  • a light absorption layer is laminated after formation of a photoelectric conversion element and a plurality of pixels including a polarizing element provided on the light incident side of the photoelectric conversion element, Removing the light absorption layer by dry etching in a region other than the inter-pixel region of the plurality of pixels;
  • An oxide film is formed on the entire surface of the dry-etched surface, The manufacturing method of the solid-state imaging device which grind
  • An oxide film is laminated after formation of a photoelectric conversion element and a plurality of pixels provided with a polarization element provided on the light incident side of the photoelectric conversion element, Removing the oxide film by dry etching in an inter-pixel region of the plurality of pixels; Laminating a light absorption layer on the dry-etched upper surface; Removing the light absorbing layer by polishing in a region other than the inter-pixel region; Forming an oxide film on the entire polished surface; The manufacturing method of the solid-state imaging device which grind

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Polarising Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Optical Filters (AREA)

Abstract

偏光素子を備える固体撮像装置において、偏光素子の特性に影響を与えることなく反射光を抑制する。 固体撮像装置は、複数の画素を備える。これら複数の画素は、光電変換を行う光電変換素子と、その光電変換素子の光入射側に設けられた偏光素子とを備える。また、固体撮像装置は、光吸収層を備える。この光吸収層は、複数の画素の画素間領域において、画素の偏光素子の高さよりも高い位置まで形成される。これにより、偏光素子において発生した反射光を光吸収層が吸収する。

Description

固体撮像装置およびその製造方法
 本技術は、固体撮像装置に関する。詳しくは、各画素に偏光素子を備える固体撮像装置およびその製造方法に関する。
 従来、固体撮像装置において偏光情報を取得するために、偏光フィルタ(偏光素子)を用いたイメージセンサが知られている。例えば、帯状の積層構造体を複数、離間して並置して成るワイヤグリッド偏光子を備える撮像装置が提案されている(例えば、特許文献1参照。)。
特開2017-076683号公報
 上述の従来技術では、偏光フィルタを利用して偏光情報を取得している。しかしながら、偏光フィルタに入射した光の半分程度は反射または吸収されるため、通常のイメージセンサよりも反射光が多く発生してしまう。この反射光はフレアゴーストの発生リスクを高めるため、その反射光を抑制することが重要である。一方、偏光フィルタの低反射化構造として、偏光フィルタの光入射面側を吸収層とした場合、その吸収層の材料や厚さは、光透過率や消光比といった偏光フィルタの特性にも影響を与える。したがって、反射光の抑制および偏光フィルタの特性の両者を両立させることは、材料および構造に多大な工夫を要し、微細加工プロセスを伴う偏光フィルタの形成においては不利になる。
 本技術はこのような状況に鑑みて生み出されたものであり、偏光素子を備える固体撮像装置において、偏光素子の特性に影響を与えることなく反射光を抑制することを目的とする。
 本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、光電変換素子および上記光電変換素子の光入射側に設けられた偏光素子を備える複数の画素と、上記複数の画素の画素間領域において上記偏光素子の高さよりも高い位置まで形成される光吸収層とを具備する固体撮像装置である。これにより、偏光素子において発生した反射光を光吸収層が吸収するという作用をもたらす。
 また、この第1の側面において、上記光吸収層は、上記画素間領域において上記偏光素子の高さよりも高い位置に形成されるようにしてもよい。すなわち、偏光素子が形成される層とは別の、より高い層に光吸収層が形成されていてもよい。
 また、この第1の側面において、上記光吸収層は、上記画素間領域に加えて上記複数の画素の各々に対応する四角形状の四隅の領域にも形成されてもよい。これにより、オンチップレンズによって集光されない部分の光を吸収して、全体としての反射光の強さを軽減させるという作用をもたらす。
 また、この第1の側面において、上記画素間領域において上記複数の画素を隔てる画素間フレームをさらに具備してもよい。これにより、偏光素子の崩れや偏光素子への電荷の蓄積を防ぐという作用をもたらす。
 また、この第1の側面において、上記光吸収層は、上記画素間フレームと異なる幅を有してもよい。すなわち、光吸収層の幅を画素間フレームの幅よりも広げてもよく、逆に、光吸収層の幅を画素間フレームの幅よりも狭めてもよい。
 また、この第1の側面において、上記画素間フレームは、上記光吸収層を形成してもよい。これにより、光吸収層を画素間フレームと一体として形成するという作用をもたらす。
 また、この第1の側面において、上記偏光素子は、上記画素間領域においても連続的に形成されてもよい。これにより、フォトリソグラフィを全面に繋げて行うことによって、偏光素子の仕上がりを均質化するという作用をもたらす。
 また、この第1の側面において、上記偏光素子は、互いに異なる複数の層から形成されてもよい。これにより、偏光素子としての特性を向上させるという作用をもたらす。
 また、この第1の側面において、上記複数の画素の各々に対応して上記光吸収層よりも高い位置に設けられた光学フィルタをさらに具備してもよい。また、上記複数の画素の各々に対応して上記光吸収層よりも高い位置に設けられた光学フィルタをさらに具備してもよい。
 また、この第1の側面において、上記偏光素子は、ワイヤグリッド偏光子からなる偏光フィルタであってもよい。また、上記偏光素子は、ナノホールアレイからなるバンドパスフィルタであってもよい。
 また、本技術の第2の側面は、光電変換素子および上記光電変換素子の光入射側に設けられた偏光素子を備える複数の画素の形成後に光吸収層を積層し、上記複数の画素の画素間領域以外の領域において上記光吸収層をドライエッチングによって除去し、上記ドライエッチングされた面全体に酸化膜を形成し、上記酸化膜を研磨して平坦化する固体撮像装置の製造方法である。これにより、複数の画素の画素間領域において偏光素子の高さよりも高い位置に光吸収層を形成し、その光吸収層によって、偏光素子において発生した反射光を吸収するという作用をもたらす。
 また、本技術の第3の側面は、光電変換素子および上記光電変換素子の光入射側に設けられた偏光素子を備える複数の画素の形成後に酸化膜を積層し、上記複数の画素の画素間領域において上記酸化膜をドライエッチングによって除去し、上記ドライエッチングされた上面に光吸収層を積層し、上記画素間領域以外の領域において上記光吸収層を研磨により除去し、上記研磨された面全体に酸化膜を形成し、上記酸化膜を研磨して平坦化する固体撮像装置の製造方法である。これにより、複数の画素の画素間領域において偏光素子の高さよりも高い位置に光吸収層を形成し、その光吸収層によって、偏光素子において発生した反射光を吸収するという作用をもたらす。
 本技術によれば、偏光素子を備える固体撮像装置において、偏光素子の特性に影響を与えることなく反射光を抑制することができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の実施の形態における固体撮像装置の構成例を示す図である。 本技術の実施の形態における固体撮像装置の画素領域10の平面図の例である。 本技術の実施の形態における固体撮像装置の画素領域10の断面図の例である。 本技術の実施の形態における固体撮像装置による反射光の抑制効果の例を示す図である。 本技術の実施の形態における固体撮像装置の第1の製造方法の手順の一例を示す図である。 本技術の実施の形態における固体撮像装置の第2の製造方法の手順の一例を示す図である。 本技術の実施の形態の第1の変形例における固体撮像装置の画素領域10の平面図の例である。 本技術の実施の形態の第2の変形例における固体撮像装置の画素領域10の断面図の例である。 本技術の実施の形態の第3の変形例における固体撮像装置の画素領域10の断面図の例である。 本技術の実施の形態の第4の変形例における固体撮像装置の画素領域10の断面図の例である。 本技術の実施の形態の第5の変形例における固体撮像装置の画素領域10の断面図の例である。 本技術の実施の形態の第6の変形例における固体撮像装置の画素領域10の断面図の例である。 本技術の実施の形態の第7の変形例における固体撮像装置の画素領域10の断面図の例である。 本技術の実施の形態の第8の変形例における固体撮像装置の画素領域10の平面図の例である。 本技術の実施の形態の第9の変形例における固体撮像装置の画素領域10の断面図の例である。 本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 撮像部12031の設置位置の例を示す図である。 本開示に係る技術が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。 図18に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
 1.実施の形態
 2.変形例
 3.適用例
 <1.実施の形態>
 [固体撮像装置の構成]
 図1は、本技術の実施の形態における固体撮像装置の構成例を示す図である。この固体撮像装置は、画素領域10および周辺回路部からなる。周辺回路部は、垂直駆動回路20と、水平駆動回路30と、制御回路40と、カラム信号処理回路50と、出力回路60とを備える。
 画素領域10は、光電変換部(光電変換素子)を含む複数の画素100を、2次元アレイ状に配列した画素アレイである。この画素100の光電変換部は、例えばフォトダイオードと、複数の画素トランジスタを含む。ここで、複数の画素トランジスタは、例えば、転送トランジスタ、リセットトランジスタおよび増幅トランジスタの3つのトランジスタにより構成することができる。また、選択トランジスタを追加して4つのトランジスタにより構成することもできる。また、後述するように、この画素100の光電変換部の光入射側には偏光素子が設けられる。
 垂直駆動回路20は、行単位で画素100を駆動するものである。この垂直駆動回路20は、例えばシフトレジスタによって構成される。この垂直駆動回路20は、画素駆動配線を選択して、その選択された画素駆動配線に画素100を駆動するためのパルスを供給する。これにより、垂直駆動回路20は、画素領域10の各画素100を行単位で順次垂直方向に選択走査し、各画素100の光電変換部において受光量に応じて生成された信号電荷に基づく画素信号を、垂直信号線19を介して、カラム信号処理回路50に供給する。
 水平駆動回路30は、列単位にカラム信号処理回路50を駆動するものである。この水平駆動回路30は、例えばシフトレジスタによって構成される。この水平駆動回路30は、水平走査パルスを順次出力することによって、カラム信号処理回路50の各々を順番に選択し、カラム信号処理回路50の各々から画素信号を、水平信号線59を介して、出力回路60に出力させる。
 制御回路40は、固体撮像装置の全体を制御するものである。この制御回路40は、入力クロックと、動作モードなどを指令するデータとを受け取り、固体撮像装置の内部情報などのデータを出力する。すなわち、この制御回路40は、垂直同期信号、水平同期信号およびマスタクロックに基いて、垂直駆動回路20、カラム信号処理回路50および水平駆動回路30などの動作の基準となるクロック信号や制御信号を生成する。そして、これらの信号を垂直駆動回路20、カラム信号処理回路50および水平駆動回路30等に入力する。
 カラム信号処理回路50は、画素100の例えば列ごとに配置され、1行分の画素100から出力される信号に対し、画素列ごとにノイズ除去などの信号処理を行うものである。すなわち、このカラム信号処理回路50は、画素100固有の固定パターンノイズを除去するためのCDS(Correlated Double Sampling)や、信号増幅、AD(Analog to Digital)変換等の信号処理を行う。カラム信号処理回路50の出力段には、図示しない水平選択スイッチが水平信号線59との間に接続される。
 出力回路60は、カラム信号処理回路50の各々から水平信号線59を通して順次に供給される信号に対し、信号処理を行って出力するものである。その際、この出力回路60は、カラム信号処理回路50からの信号をバッファリングする。また、この出力回路60は、カラム信号処理回路50からの信号に対して、黒レベル調整、列ばらつき補正、各種デジタル信号処理などを行うようにしてもよい。
 この固体撮像装置を、裏面照射型の固体撮像装置に適用する場合は、光入射面(いわゆる受光面)側の裏面上には配線層が形成されず、配線層は受光面と反対側の表面側に形成される。
 図2は、本技術の実施の形態における固体撮像装置の画素領域10の平面図の例である。画素領域10には複数の画素100がアレイ状に配列される。各々の画素100は、入射光を電気信号に変換する光電変換素子を備える。
 また、画素100は、光電変換素子の光入射側に、偏光フィルタ150を備える。偏光フィルタ150は、入射光の偏光情報を取得するための光学系であり、これにより、例えば立体映像の用途において右眼用と左眼用の光線を分けて取り扱うことができる。なお、この実施の形態では、偏光フィルタ150としてワイヤグリッド偏光子を想定するが、後述のように例えばナノホールアレイ等を利用することもできる。
 複数の画素100の間には画素間領域103が存在する。この実施の形態では、この画素間領域103において、光を吸収する光吸収層が形成される。これにより、偏光フィルタ150において発生する反射光を抑制することができる。なお、この実施の形態では、画素間領域103に画素間フレームが存在することを想定するが、後述のように画素間フレームを設けない構造であってもよい。
 図3は、本技術の実施の形態における固体撮像装置の画素領域10の断面図の例である。画素100に対応して、オンチップレンズ110が設けられ、このオンチップレンズ110から入射した入射光は、偏光フィルタ150を介してフォトダイオード170の層まで入射する。フォトダイオード170は、入射光を電気信号に変換する光電変換素子である。
 偏光フィルタ150として、この実施の形態ではワイヤグリッド偏光子151を想定する。この偏光フィルタ150の材料としては、例えば、Al、Ag、Au、Cu、Pt、Mo、Cr、Ti、Ni、W、Fe、Si、Ge、Te等の金属材料や、これらを含む半導体材料を用いることができる。この偏光フィルタ150は、絶縁膜160上に形成される。
 また、画素間領域103においては、ワイヤグリッド偏光子151ではなく、画素間フレーム152が形成される。この画素間フレーム152は、ワイヤグリッド偏光子151の積層時の、ワイヤグリッドの崩れやワイヤグリッドへの電荷の蓄積を防ぐために形成される。ただし、後述するように、この画素間フレーム152を有しない構造であってもよい。
 ワイヤグリッド偏光子151および画素間フレーム152は、保護膜140に覆われている。この保護膜140の材料としては、例えば、SiO、SiON、SiN、SiC、SiOC、SiCN、AlO、HfO、ZrO、TaO等の材料を用いることができる。
 保護膜140の表面には、平坦化膜120が形成される。この平坦化膜120は、上述の偏光フィルタ150の材料に加えて、例えばFeSi、MgSi等のシリサイド材料を用いることができる。
 この実施の形態においては、画素間領域103において、光を吸収する光吸収層130が形成される。この光吸収層130は、偏光フィルタ150において発生する反射光を抑制するものである。この図から明らかなように、この光吸収層130は、偏光フィルタ150の高さよりも高い位置に形成される。ただし、後述するように、この光吸収層130は、偏光フィルタ150の高さと重なる高さから形成してもよく、その場合であっても偏光フィルタ150の高さよりも高い位置まで形成される必要がある。
 図4は、本技術の実施の形態における固体撮像装置による反射光の抑制効果の例を示す図である。同図におけるbは、光吸収層を有しない従来の構造であり、偏光フィルタにおいて発生した反射光がオンチップレンズに強く入射している。
 これに対して、同図におけるaのように、この実施の形態では画素間領域103に光吸収層130を形成したことにより、入射光501に対する反射光502が従来構造よりも抑制されることが分かる。そして、これにより、素子全体としての反射光を減らすことができる。
 [製造方法]
 図5は、本技術の実施の形態における固体撮像装置の第1の製造方法の手順の一例を示す図である。本技術の実施の形態における固体撮像装置では、光吸収層130となる材料の種類や面積によって、バリアメタルの種類が異なり、もしくは、バリアメタル自体が不要となる場合がある。例えば、可視光向けセンサの場合には、光吸収層130として想定されるタングステン(W)に対して、バリアメタルとしてチタン(Ti)を使用することがある。この第1の製造方法は、光吸収層130となる材料としてTi/Wを想定した場合の例である。
 同図におけるaに示すように、偏光フィルタ150およびその偏光フィルタ150を覆う保護膜140を形成した後、バリアメタルとなる材料および光吸収層となる材料133を積層する。
 そして、同図におけるbに示すように、材料133のうち画素間領域103に相当する部分以外をドライエッチングにより除去する。これにより、光吸収層130が形成される。
 その後、同図におけるcに示すように、ドライエッチングされた面全体に酸化膜を形成し、その酸化膜を研磨して平坦化する。これにより、平坦化膜120が形成される。この平坦化膜120の材料としては、例えば、Al、Ag、Au、Cu、Pt、Mo、Cr、Ti、Ni、W、Fe、Si、Ge、Te等の金属材料や、これらを含む半導体材料、FeSi、MgSi等のシリサイド材料を用いることができる。
 図6は、本技術の実施の形態における固体撮像装置の第2の製造方法の手順の一例を示す図である。
 同図におけるaに示すように、偏光フィルタ150およびその偏光フィルタ150を覆う保護膜140を形成した後、酸化膜121を積層する。
 そして、同図におけるbに示すように、酸化膜121のうち画素間領域103に相当する部分のみをドライエッチングにより除去する。
 その後、同図におけるcに示すように、バリアメタルおよび研磨のストップ層となる材料と、光吸収層となる材料133を積層する。
 そして、同図におけるdに示すように、研磨を行い、材料133のうち画素間領域103に相当する部分以外を取り去る。これにより、光吸収層130が形成される。
 その後、同図におけるeに示すように、再び酸化膜を形成した後に、その酸化膜を研磨して平坦化する。これにより、平坦化膜120が形成される。
 このように、本技術の実施の形態によれば、複数の画素100の画素間領域103において偏光フィルタ150の高さよりも高い位置まで形成される光吸収層130を設けたことにより、偏光フィルタ150において発生する反射光を抑制することができる。
 <2.変形例>
 [第1の変形例]
 図7は、本技術の実施の形態の第1の変形例における固体撮像装置の画素領域10の平面図の例である。
 上述の実施の形態においては、画素間領域103において光吸収層130を設けていたが、この第1の変形例では画素100の各々に対応する四角形状の四隅の領域にも光吸収層131が形成される。上述のように、画素100の各々にはオンチップレンズ110が設けられており、このオンチップレンズ110から入射した入射光が、光電変換の本来の対象となる。したがって、オンチップレンズ110によって集光されない部分の光を、四隅の領域の光吸収層131において吸収することにより、全体としての反射光の強さを軽減することができる。
 なお、ここでは、四角形状の四隅のそれぞれに三角形状の光吸収層131を設ける例を示したが、オンチップレンズ110の形状に合わせて円形状の開口を確保して、それ以外の部分に光吸収層を設けるようにしてもよい。
 [第2の変形例]
 図8は、本技術の実施の形態の第2の変形例における固体撮像装置の画素領域10の断面図の例である。
 上述の実施の形態においては、画素間領域103に画素間フレーム152が形成されていたが、この第2の変形例では画素間フレーム152を有しない構造となっている。この場合においても、画素間領域103には光吸収層130が設けられる。すなわち、このようなフレームレス構造においても、本技術を適用することができる。
 [第3の変形例]
 図9は、本技術の実施の形態の第3の変形例における固体撮像装置の画素領域10の断面図の例である。
 上述の実施の形態においては、光吸収層130の幅と画素間フレーム152の幅がほぼ等しい構造を示したが、これらの幅は適宜決定することができる。例えば、入射光にケラレが発生してしまう場合等において、図のように光吸収層130の幅を画素間フレーム152の幅よりも広げることが考えられる。また、逆に、光吸収層130の幅を画素間フレーム152の幅よりも狭めてもよい。
 [第4の変形例]
 図10は、本技術の実施の形態の第4の変形例における固体撮像装置の画素領域10の断面図の例である。
 上述の実施の形態においては、偏光フィルタ150を覆う保護膜140の上面に光吸収層130を設けていたが、この第4の変形例では画素間フレーム152の一部の層として光吸収層132を設ける。この例では、積層された画素間フレーム152の最上位層が光吸収層132となっている。これにより、光吸収層132を画素間フレーム152と一体として形成することができる。
 この第4の変形例においては、光吸収層132は偏光フィルタ150の高さよりも低い位置から形成される場合があるが、光吸収層132の上面は偏光フィルタ150の高さよりも高い位置まで形成される。
 [第5の変形例]
 図11は、本技術の実施の形態の第5の変形例における固体撮像装置の画素領域10の断面図の例である。
 上述の実施の形態においては、画素間領域103に画素間フレーム152が形成されていたが、この第5の変形例では画素間領域103にもワイヤグリッド偏光子151が連続的に形成される。これにより、ワイヤグリッド偏光子151を繋げてフォトリソグラフィを行うことができ、パターン端と中心部とにおいて異なる仕上がりになる事態を回避することができる。
 [第6の変形例]
 図12は、本技術の実施の形態の第6の変形例における固体撮像装置の画素領域10の断面図の例である。
 ワイヤグリッド偏光子151および画素間フレーム152については、複数の層により構成されてもよい。これにより、それぞれの層による効果を発揮することができ、偏光フィルタ150としての特性を向上させることができる。この例では、3層からなる構造を示しているが、それ以外の数の層から構成されていてもよい。
 [第7の変形例]
 図13は、本技術の実施の形態の第7の変形例における固体撮像装置の画素領域10の断面図の例である。
 固体撮像装置においては、カラーフィルタ等の光学フィルタを形成することができる。この第7の変形例においては、同図のaに示すように、光吸収層130の上部にカラーフィルタ181および182を積層してもよい。また、同図のbに示すように、光吸収層130と偏光フィルタ150との間にカラーフィルタ181および182を積層してもよい。
 [第8の変形例]
 図14は、本技術の実施の形態の第8の変形例における固体撮像装置の画素領域10の平面図の例である。
 上述の実施の形態においては、偏光フィルタ150としてワイヤグリッド偏光子151を想定していたが、この第8の変形例においては、ナノホールアレイ153を利用した例を示す。
 ナノホールアレイ153は、複数のナノホールをアレイ状に形成したものである。ナノホールとは、ナノメートルオーダの大きさを有する開口部である。このナノホールアレイ153は、特定波長を通すバンドパスフィルタとして機能する。
 この第8の変形例においても、画素間領域103に光吸収層130を設けることにより、ナノホールアレイ153において発生した反射光を抑制することができる。
 [第9の変形例]
 図15は、本技術の実施の形態の第9の変形例における固体撮像装置の画素領域10の断面図の例である。
 上述の実施の形態においては、画素100の最上面にオンチップレンズ110が設けられ、光吸収層130はオンチップレンズ110の下に設けられていた。これに対し、この第9の変形例では、画素100に対応するレンズは偏光フィルタ150の下に設けられて、インナーレンズ111として機能する。このとき、光吸収層130は偏光フィルタ150およびインナーレンズ111の上面に設けられる。これにより、偏光フィルタ150とインナーレンズ111との間の反射によるフレアゴーストを抑制することができる。
 <3.適用例>
 [移動体]
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図16は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。同図に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。同図の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図17は、撮像部12031の設置位置の例を示す図である。
 同図では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、同図には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、撮像部12031に本開示に係る技術を適用することにより、撮像部12031における反射光を抑制することができる。
 [内視鏡手術システム]
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図18は、本開示に係る技術が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 同図では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図19は、図18に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、内視鏡11100や、カメラヘッド11102の撮像部11402に適用され得る。具体的には、内視鏡11100や、カメラヘッド11102の撮像部11402に本開示に係る技術を適用することにより、内視鏡11100や、カメラヘッド11102の撮像部11402における反射光を抑制することができる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
 なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。
 なお、本技術は以下のような構成もとることができる。
(1)光電変換素子および前記光電変換素子の光入射側に設けられた偏光素子を備える複数の画素と、
 前記複数の画素の画素間領域において前記偏光素子の高さよりも高い位置まで形成される光吸収層と
を具備する固体撮像装置。
(2)前記光吸収層は、前記画素間領域において前記偏光素子の高さよりも高い位置に形成される前記(1)に記載の固体撮像装置。
(3)前記光吸収層は、前記画素間領域に加えて前記複数の画素の各々に対応する四角形状の四隅の領域にも形成される前記(1)または(2)に記載の固体撮像装置。
(4)前記画素間領域において前記複数の画素を隔てる画素間フレームをさらに具備する前記(1)から(3)のいずれかに記載の固体撮像装置。
(5)前記光吸収層は、前記画素間フレームと異なる幅を有する前記(4)に記載の固体撮像装置。
(6)前記画素間フレームは、前記光吸収層を形成する前記(4)に記載の固体撮像装置。
(7)前記偏光素子は、前記画素間領域においても連続的に形成される前記(1)から(3)のいずれかに記載の固体撮像装置。
(8)前記偏光素子は、互いに異なる複数の層から形成される前記(1)から(7)のいずれかに記載の固体撮像装置。
(9)前記複数の画素の各々に対応して前記光吸収層よりも高い位置に設けられた光学フィルタをさらに具備する前記(1)から(8)のいずれかに記載の固体撮像装置。
(10)前記複数の画素の各々に対応して前記光吸収層と前記偏光素子との間の位置に設けられた光学フィルタをさらに具備する前記(1)から(8)のいずれかに記載の固体撮像装置。
(11)前記偏光素子は、ワイヤグリッド偏光子からなる偏光フィルタである前記(1)から(10)のいずれかに記載の固体撮像装置。
(12)前記偏光素子は、ナノホールアレイからなるバンドパスフィルタである前記(1)から(10)のいずれかに記載の固体撮像装置。
(13)光電変換素子および前記光電変換素子の光入射側に設けられた偏光素子を備える複数の画素の形成後に光吸収層を積層し、
 前記複数の画素の画素間領域以外の領域において前記光吸収層をドライエッチングによって除去し、
 前記ドライエッチングされた面全体に酸化膜を形成し、
 前記酸化膜を研磨して平坦化する
固体撮像装置の製造方法。
(14)光電変換素子および前記光電変換素子の光入射側に設けられた偏光素子を備える複数の画素の形成後に酸化膜を積層し、
 前記複数の画素の画素間領域において前記酸化膜をドライエッチングによって除去し、
 前記ドライエッチングされた上面に光吸収層を積層し、
 前記画素間領域以外の領域において前記光吸収層を研磨により除去し、
 前記研磨された面全体に酸化膜を形成し、
 前記酸化膜を研磨して平坦化する
固体撮像装置の製造方法。
 10 画素領域
 20 垂直駆動回路
 30 水平駆動回路
 40 制御回路
 50 カラム信号処理回路
 60 出力回路
 100 画素
 103 画素間領域
 110 オンチップレンズ
 111 インナーレンズ
 120 平坦化膜
 121 酸化膜
 130~132 光吸収層
 140 保護膜
 150 偏光フィルタ
 151 ワイヤグリッド偏光子
 152 画素間フレーム
 153 ナノホールアレイ
 160 絶縁膜
 170 フォトダイオード
 181、182 カラーフィルタ
 11100 内視鏡
 11102 カメラヘッド
 11402、12031 撮像部

Claims (14)

  1.  光電変換素子および前記光電変換素子の光入射側に設けられた偏光素子を備える複数の画素と、
     前記複数の画素の画素間領域において前記偏光素子の高さよりも高い位置まで形成される光吸収層と
    を具備する固体撮像装置。
  2.  前記光吸収層は、前記画素間領域において前記偏光素子の高さよりも高い位置に形成される請求項1記載の固体撮像装置。
  3.  前記光吸収層は、前記画素間領域に加えて前記複数の画素の各々に対応する四角形状の四隅の領域にも形成される請求項1記載の固体撮像装置。
  4.  前記画素間領域において前記複数の画素を隔てる画素間フレームをさらに具備する請求項1記載の固体撮像装置。
  5.  前記光吸収層は、前記画素間フレームと異なる幅を有する請求項4記載の固体撮像装置。
  6.  前記画素間フレームは、前記光吸収層を形成する請求項4記載の固体撮像装置。
  7.  前記偏光素子は、前記画素間領域においても連続的に形成される請求項1記載の固体撮像装置。
  8.  前記偏光素子は、互いに異なる複数の層から形成される請求項1記載の固体撮像装置。
  9.  前記複数の画素の各々に対応して前記光吸収層よりも高い位置に設けられた光学フィルタをさらに具備する請求項1記載の固体撮像装置。
  10.  前記複数の画素の各々に対応して前記光吸収層と前記偏光素子との間の位置に設けられた光学フィルタをさらに具備する請求項1記載の固体撮像装置。
  11.  前記偏光素子は、ワイヤグリッド偏光子からなる偏光フィルタである請求項1記載の固体撮像装置。
  12.  前記偏光素子は、ナノホールアレイからなるバンドパスフィルタである請求項1記載の固体撮像装置。
  13.  光電変換素子および前記光電変換素子の光入射側に設けられた偏光素子を備える複数の画素の形成後に光吸収層を積層し、
     前記複数の画素の画素間領域以外の領域において前記光吸収層をドライエッチングによって除去し、
     前記ドライエッチングされた面全体に酸化膜を形成し、
     前記酸化膜を研磨して平坦化する
    固体撮像装置の製造方法。
  14.  光電変換素子および前記光電変換素子の光入射側に設けられた偏光素子を備える複数の画素の形成後に酸化膜を積層し、
     前記複数の画素の画素間領域において前記酸化膜をドライエッチングによって除去し、
     前記ドライエッチングされた上面に光吸収層を積層し、
     前記画素間領域以外の領域において前記光吸収層を研磨により除去し、
     前記研磨された面全体に酸化膜を形成し、
     前記酸化膜を研磨して平坦化する
    固体撮像装置の製造方法。
PCT/JP2018/017739 2017-08-24 2018-05-08 固体撮像装置およびその製造方法 WO2019038999A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017160704A JP2019040965A (ja) 2017-08-24 2017-08-24 固体撮像装置およびその製造方法
JP2017-160704 2017-08-24

Publications (1)

Publication Number Publication Date
WO2019038999A1 true WO2019038999A1 (ja) 2019-02-28

Family

ID=65438547

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/017739 WO2019038999A1 (ja) 2017-08-24 2018-05-08 固体撮像装置およびその製造方法

Country Status (2)

Country Link
JP (1) JP2019040965A (ja)
WO (1) WO2019038999A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI804785B (zh) * 2019-12-04 2023-06-11 美商豪威科技股份有限公司 具有偏光器之光感測系統及光感測器
WO2023243363A1 (ja) * 2022-06-17 2023-12-21 ソニーグループ株式会社 光検出装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209647A1 (ja) * 2021-03-31 2022-10-06 ソニーセミコンダクタソリューションズ株式会社 光検出装置および電子機器
JP2023100350A (ja) * 2022-01-06 2023-07-19 ソニーセミコンダクタソリューションズ株式会社 光検出装置及び電子機器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009164385A (ja) * 2008-01-08 2009-07-23 Fujifilm Corp 裏面照射型撮像素子
JP2011216865A (ja) * 2010-03-17 2011-10-27 Canon Inc 固体撮像装置
JP2016164956A (ja) * 2015-03-06 2016-09-08 株式会社東芝 固体撮像装置
JP2017076684A (ja) * 2015-10-14 2017-04-20 ソニーセミコンダクタソリューションズ株式会社 撮像素子及び撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009164385A (ja) * 2008-01-08 2009-07-23 Fujifilm Corp 裏面照射型撮像素子
JP2011216865A (ja) * 2010-03-17 2011-10-27 Canon Inc 固体撮像装置
JP2016164956A (ja) * 2015-03-06 2016-09-08 株式会社東芝 固体撮像装置
JP2017076684A (ja) * 2015-10-14 2017-04-20 ソニーセミコンダクタソリューションズ株式会社 撮像素子及び撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI804785B (zh) * 2019-12-04 2023-06-11 美商豪威科技股份有限公司 具有偏光器之光感測系統及光感測器
WO2023243363A1 (ja) * 2022-06-17 2023-12-21 ソニーグループ株式会社 光検出装置

Also Published As

Publication number Publication date
JP2019040965A (ja) 2019-03-14

Similar Documents

Publication Publication Date Title
WO2020050289A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2018221192A1 (en) Imaging device, solid state image sensor, and electronic device
WO2018074250A1 (ja) 半導体装置、製造方法、および電子機器
JP6951866B2 (ja) 撮像素子
WO2019038999A1 (ja) 固体撮像装置およびその製造方法
JP2019046960A (ja) 固体撮像装置および電子機器
WO2019220696A1 (ja) 撮像素子および撮像装置
WO2019049662A1 (ja) センサチップおよび電子機器
WO2019207978A1 (ja) 撮像素子および撮像素子の製造方法
US20230008784A1 (en) Solid-state imaging device and electronic device
WO2020137203A1 (ja) 撮像素子および撮像装置
JP2019091745A (ja) 撮像素子および撮像装置
WO2023013444A1 (ja) 撮像装置
WO2019188131A1 (ja) 半導体装置および半導体装置の製造方法
WO2019176303A1 (ja) 撮像装置駆動回路および撮像装置
WO2018173793A1 (ja) 固体撮像素子、および電子機器
WO2021075116A1 (ja) 固体撮像装置及び電子機器
US20230343802A1 (en) Solid-state imaging device and electronic device
WO2021100338A1 (ja) 固体撮像素子
WO2021075117A1 (ja) 固体撮像装置及び電子機器
JP2019036788A (ja) 固体撮像装置
WO2024029408A1 (ja) 撮像装置
WO2023058326A1 (ja) 撮像装置
WO2024075253A1 (ja) 光検出装置および電子機器
JP7316340B2 (ja) 固体撮像装置および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18848147

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18848147

Country of ref document: EP

Kind code of ref document: A1