WO2019142661A1 - 撮像素子、製造方法、および電子機器 - Google Patents

撮像素子、製造方法、および電子機器 Download PDF

Info

Publication number
WO2019142661A1
WO2019142661A1 PCT/JP2019/000032 JP2019000032W WO2019142661A1 WO 2019142661 A1 WO2019142661 A1 WO 2019142661A1 JP 2019000032 W JP2019000032 W JP 2019000032W WO 2019142661 A1 WO2019142661 A1 WO 2019142661A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
filter
partition
filter layer
imaging device
Prior art date
Application number
PCT/JP2019/000032
Other languages
English (en)
French (fr)
Inventor
鉄也 山口
博士 田舎中
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2019142661A1 publication Critical patent/WO2019142661A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present disclosure relates to an imaging device, a manufacturing method, and an electronic device, and more particularly to an imaging device, a manufacturing method, and an electronic device capable of suppressing the occurrence of shading.
  • a structure for performing optical separation in a color filter layer is employed.
  • an oxide film or the like which is a material having a refractive index lower than that of the material of the color filter, as a partition for performing optical separation in the color filter layer.
  • the conventional imaging device as described above has a structure in which the partition walls in the color filter layer have the same height in any area regardless of the center or the periphery of the imaging area. Therefore, each color filter is formed to have the same thickness in the central portion and the peripheral portion of the imaging region, and the transmittance of the color filter is constant in each region.
  • the amount of received light decreases in the peripheral region of the imaging region due to the incidence of oblique light in the peripheral region of the imaging region, and the sensitivity characteristic in the peripheral region of the imaging region decreases. It sometimes happens that shading occurs.
  • the present disclosure has been made in view of such a situation, and makes it possible to suppress the occurrence of shading.
  • a filter in an imaging device according to one aspect of the present disclosure, includes a semiconductor substrate on which a photoelectric conversion unit is formed for each of a plurality of pixels, and a filter on which a plurality of filters transmitting light of a wavelength received by the photoelectric conversion unit are arranged.
  • a layer and a partition for optically separating the filters disposed in the filter layer are provided, and the partition is formed to have different heights in respective portions of an imaging region formed by the light receiving surface of the pixel.
  • a manufacturing method is a filter in which a semiconductor substrate on which a photoelectric conversion unit is formed for each of a plurality of pixels, and a plurality of filters transmitting a light of a wavelength received by the photoelectric conversion unit are arranged planarly.
  • a method of manufacturing an imaging device including a layer and a partition that optically separates the filters disposed in the filter layer the heights of the portions of the imaging region formed by the light receiving surface of the pixels are different. Forming a partition wall;
  • An electronic device is a filter in which a semiconductor substrate on which a photoelectric conversion unit is formed for each of a plurality of pixels and a plurality of filters transmitting light of a wavelength received by the photoelectric conversion unit are arranged in a plane.
  • a layer and a partition for optically separating the filters disposed in the filter layer, wherein the partition is formed to have different heights in respective portions of an imaging region formed by the light receiving surface of the pixel An imaging device is provided.
  • a semiconductor substrate in which a photoelectric conversion unit is formed for each of a plurality of pixels and a plurality of filters transmitting light of a wavelength received by the photoelectric conversion unit are planarly disposed in an imaging device. Filter layers and partitions for optically separating the filters disposed in the filter layers, and the heights of the filter regions are different in each part of the imaging region formed by the light receiving surface of the pixel.
  • FIG. 1 is a cross-sectional view showing a configuration example of a first embodiment of an imaging device to which the present technology is applied.
  • the imaging device 11 shown in FIG. 1 is a back side illumination type configured by laminating the insulating layer 13, the filter layer 14, the flattening layer 15, and the on-chip lens layer 16 on the back surface of the semiconductor substrate 12. ing.
  • the semiconductor substrate 12 is, for example, a thin slice of a single crystal silicon wafer, and a photoelectric conversion unit (not shown) is formed for each of the plurality of pixels 21 arranged in an array.
  • the imaging device 11 illustrated in FIG. 1 has a configuration example in which a red pixel 21R that receives light in the red wavelength range and a transparent pixel 21CL that receives light in all the wavelength ranges are disposed.
  • the insulating layer 13 is formed, for example, by laminating silicon nitride (SiN), silicon dioxide (SiO 2) or the like having an insulating property on the back surface of the semiconductor substrate 12, and insulates the light receiving surface of the semiconductor substrate 12.
  • the filter layer 14 is configured by planarly arranging a plurality of filters transmitting light of a wavelength received by a photoelectric conversion unit (not shown) formed on the semiconductor substrate 12 for each pixel 21.
  • a red filter 14R transmitting red light to the red pixel 21R
  • a transparent filter 14CL transmitting light of all wavelength ranges to the transparent pixel 21CL are disposed. Between them, CL partitions 17 are formed. Then, the filter layer 14 is formed to have a film thickness corresponding to the height of the CL partition wall 17.
  • the planarizing layer 15 is formed by laminating an organic material with a constant thickness to the filter layer 14, and the unevenness of the surface of the filter layer 14 (for example, the red filter 14 R and the transparent filter 14 CL and the CL partition wall 17) Flatten the unevenness due to the difference in height.
  • the on-chip lens layer 16 is configured by laminating a microlens, which condenses light irradiated to the imaging element 11 for each pixel 21, on the planarization layer 15 for each pixel 21.
  • the CL partition wall 17 is made of an oxide or the like which is a material having a refractive index lower than that of the material forming the filter layer 14, and optically between the red filter 14 R and the transparent filter 14 CL provided in the filter layer 14. To separate.
  • the heights of the CL barrier ribs 17 differ according to the part of the imaging area which is the area where the pixels 21 used for imaging the image are arranged on the light receiving surface.
  • the CL partition wall 17 is formed to be lower in height toward the end.
  • an intermediate portion b (from the central portion a to the peripheral portion c) which is on the peripheral side with respect to the central portion a than the height of the CL partition 17a formed in the central portion a which is the central portion of the imaging region.
  • the height of the CL partition 17b formed in the middle portion toward the bottom is low.
  • the height of the CL partition 17 c formed in the peripheral portion c on the peripheral side with respect to the middle portion b is greater than the height of the CL partition 17 b formed in the middle portion b of the imaging region It's getting lower.
  • the CL partition wall 17 is formed to have different heights in each of the imaging area of the imaging device 11 (central part a, middle part b, peripheral part c), for example, from the central part toward the peripheral part It can be formed to change its height gradually (see FIG. 4).
  • the imaging device 11 has a first area A 1, a second area A 2, a third area A 3, a fourth area A 4, a fifth area A 1, a second area A 2, a third area A 3, a fourth area A 4.
  • the sixth area A6, the seventh area A7, and the eighth area A8 are disposed outside the seventh area A7, and the pixel 21 used as an optical black is disposed, and the sixth area A6 has an open aperture between the fifth area A5 and the seventh area A7. Represents an area.
  • the inner side of the first area A1 is a central portion a
  • the outer side of the fourth area A4 (the inner side of the fifth region A5) is a peripheral portion c.
  • the CL partition wall 17 is formed to be lower in height toward the lower end.
  • the numerical values shown in FIG. 2 are an example of the number of pixels for which the respective regions A are set, and the central portion a and the peripheral portion c are not limited to the illustrated number of pixels.
  • the imaging device 11 reduces the height of the CL partition wall 17c formed in the peripheral portion c to be lower than the height of the CL partition wall 17a formed in the central portion a. Can be made thinner as compared with the central portion a.
  • the filter layer 14 is formed to have a film thickness such that the transmittance is higher in the peripheral portion c than in the central portion a, and the transmittance of the filter layer 14 in the peripheral portion c is The transmittance of the filter layer 14 can be increased.
  • the imaging device 11 improves sensitivity characteristics around the imaging area by avoiding reduction in the amount of received light due to the presence of more oblique light components in the peripheral part of the imaging area than in the central part. Can.
  • the imaging device 11 can capture an image with uniform brightness in any part of the imaging region, and can suppress the occurrence of shading.
  • the transmittance of the red filter 14R is expected to be increased by about 2% by thinning the film thickness of about 10%. Therefore, by setting the height of the CL partition wall 17 so that the film thickness of the filter layer 14 becomes about 0.7 ⁇ m at the central part a and about 0.5 ⁇ m at the peripheral part c, the imaging area of the imaging element 11
  • the sensitivity can be constant (eg, 0.78) in the plane. As a result, the imaging device 11 can improve the sensitivity in the peripheral portion c, and as a result, can suppress the occurrence of shading more favorably.
  • the numerical values used in the description herein are merely examples, and the present invention is not limited to these numerical values.
  • RCCC pixels a pixel array in which one is a red pixel 21 R and the other three are transparent pixels 21 CL (hereinafter referred to as RCCC pixels It is preferred to apply to the
  • an RCCC pixel array including one red pixel 21R and three transparent pixels 21CL-1 to 21CL-3 will be described.
  • the light amount of light leaking into the red pixel 21R is different. That is, as shown by the white arrow, the transparent pixels 21CL-1 at the positions above and below or to the left and right with respect to the red pixel 21R than the transparent pixel 21CL-2 at the diagonal position with respect to the red pixel 21R. Light of a larger amount of light leaks into the red pixel 21R in the transparent pixel 21CL-3. As described above, due to the difference in the amount of light leaking into the red pixel 21R, the sensitivity of the transparent pixels 21CL-1 to 21CL-3 varies.
  • the CL partition wall 17 is provided between the transparent pixels 21CL-1 to 21CL-3 and the red pixel 21R, and they are in direct contact with each other. There is no configuration. That is, the transparent pixels 21CL-1 to 21CL-3 are optically separated from the red pixel 21R by forming the CL partition wall 17 with an oxide film having a smaller refractive index than the material constituting the red filter 14R and the transparent filter 14CL. be able to.
  • the imaging device 11 As a result, in the imaging device 11, as shown by the white arrows, it is possible to prevent light from leaking from the transparent pixels 21CL-1 to 21CL-3 into the red pixel 21R. As a result, the imaging device 11 can suppress the occurrence of variations in the sensitivities of the transparent pixels 21CL-1 to 21CL-3 as described above.
  • the present technology may be applied to the imaging device 11 adopting an arrangement other than the RCCC pixel arrangement, for example, in four pixels 21 arranged in 2 ⁇ 2, the pixels 21 receiving light of the same color are Variations in sensitivity can be suppressed in an arrangement in which there are two or more.
  • the insulating layer 13 to be a stopper layer is formed to a uniform film thickness by a CVD (Chemical Vapor Deposition) method or the like on the back surface of the semiconductor substrate 12.
  • CVD Chemical Vapor Deposition
  • the oxide film 31 to be the CL partition 17 is stacked on the insulating layer 13 with a uniform film thickness by the CVD method or the like.
  • a resist is uniformly applied to the oxide film 31 and then patterning using a grating mask is performed to obtain a single chip of the imaging device 11.
  • a resist 41 having a different film thickness in the imaging region of the imaging device 11 is formed. That is, for each chip of the image sensor 11, the film thickness becomes thicker at the central portion a of the imaging region of the image sensor 11, and gradually thinner toward the peripheral portion c of the imaging region of the image sensor 11.
  • a resist 41 can be formed.
  • the grating mask is a mask used for a patterning technology that can change the light amount of the resist by using the density of chromium.
  • the oxide film 31 is processed by resist etch back using, for example, RIE (Reactive Ion Etching) or the like, whereby each chip of the image pickup device 11 alone Then, the shape of the resist 41 is transferred to the oxide film 31.
  • RIE Reactive Ion Etching
  • the film thickness becomes thicker at the central part a of the imaging region of the imaging device 11 and becomes thinner toward the peripheral part c of the imaging region of the imaging device 11 Oxide film 31 'is formed.
  • a resist 42 is applied to the oxide film 31 '. At this time, the surface of the resist 42 is formed to be flat.
  • patterning is performed on the resist 42 so that, for example, a portion where the CL barrier rib 17 is to be formed is left.
  • the CL partition walls 17 are formed by processing the oxide film 31 ′ by, for example, RIE, and the resist 42 is removed.
  • the CL partition walls 17 having different heights in each part of the imaging area of the imaging device 11 and having a height that decreases from the central part to the peripheral part of the imaging area. That is, the CL partition 17a, the CL partition 17b, and the CL partition 17c whose height gradually changes as shown in the drawing from the center part a to the peripheral part c via the intermediate part b may be formed. it can.
  • the red filter 14R and the transparent filter 14CL are applied and patterned by a conventional method, and an organic film or the like is thinly applied to form the planarizing layer 15, whereby the on-chip lens layer 16 and the base or filter layer are formed.
  • the planarizing layer 15 thinly with a uniform thickness, the surface thereof has a shape that is convex at the central portion as in the filter layer 14.
  • the on-chip lens layer 16 is laminated on the flattening layer 15 by forming a microlens for each pixel 21 by a conventional method, and the imaging device 11 having the structure as shown in FIG. 1 is manufactured. .
  • the manufacturing method as described above it is possible to manufacture the imaging device 11 capable of suppressing the occurrence of shading and suppressing the variation in the sensitivity of the transparent pixel 21CL.
  • the imaging device 11 ′ is configured in the same manner as the imaging device 11 of FIG. 1 in that the insulating layer 13 and the filter layer 14 are stacked on the back surface of the semiconductor substrate 12. . Then, in the imaging element 11 ′, a planarizing layer 15 ′ having a planar surface is stacked on the filter layer 14 formed to have different heights according to the portion of the imaging region, and is planarized. It differs from the imaging device 11 of FIG. 1 in that the on-chip lens layer 16 is formed so as to be laminated on the passivation layer 15 ′.
  • the film thickness of the planarizing layer 15 ′ is formed thin at the central portion a in accordance with the change in the film thickness of the filter layer 14 and proceeds from the central portion a to the peripheral portion c. It is formed to be thicker according to. Thereby, the surface of the planarization layer 15 'is planarized.
  • the method of manufacturing the imaging device 11 ′ having such a configuration is the same as the method of manufacturing the imaging device 11 of FIG. 1 described with reference to FIG. 4. Then, in the subsequent steps, when forming a planarizing layer 15 ′ by thinly applying an organic film or the like, the planarizing layer is formed to eliminate the difference in height between the central portion a and the peripheral portion c of the imaging region. 15 'is stacked. Furthermore, the on-chip lens layer 16 is stacked on the planarizing layer 15 ′ by forming a microlens for each pixel 21 in a conventional manner. Accordingly, in the imaging device 11 ′, the height from the semiconductor substrate 12 to the respective micro lenses of the on-chip lens layer 16 can be made constant at the central portion a and the peripheral portion c of the imaging region.
  • the imaging device 11 'configured as described above can suppress the occurrence of shading and can suppress the variation in the sensitivity of the transparent pixel 21CL, similarly to the imaging device 11 of FIG.
  • the imaging device 11 ′ has a structure that is easier to manufacture in process than the imaging device 11 of FIG. 1.
  • the imaging device 11 as described above is applied to various electronic devices such as an imaging system such as a digital still camera or a digital video camera, a mobile phone having an imaging function, or another device having an imaging function. Can.
  • FIG. 6 is a block diagram showing a configuration example of an imaging device mounted on an electronic device.
  • the imaging device 101 includes an optical system 102, an imaging element 103, a signal processing circuit 104, a monitor 105, and a memory 106, and can capture still images and moving images.
  • the optical system 102 includes one or more lenses, guides image light (incident light) from a subject to the image sensor 103, and forms an image on the light receiving surface (sensor unit) of the image sensor 103.
  • the imaging device 103 As the imaging device 103, the above-described imaging device 11 is applied. Electrons are accumulated in the imaging element 103 for a certain period according to the image formed on the light receiving surface through the optical system 102. Then, a signal corresponding to the electrons stored in the imaging element 103 is supplied to the signal processing circuit 104.
  • the signal processing circuit 104 performs various signal processing on the pixel signal output from the image sensor 103.
  • An image (image data) obtained by the signal processing circuit 104 performing signal processing is supplied to a monitor 105 for display, or supplied to a memory 106 for storage (recording).
  • the imaging device 101 configured as described above, by applying the above-described imaging element 11, for example, the occurrence of shading can be suppressed and an image with higher image quality can be imaged.
  • FIG. 7 is a view showing an application example using the above-mentioned image sensor (imaging element).
  • the image sensor described above can be used, for example, in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays as described below.
  • a device that captures images for viewing such as a digital camera or a portable device with a camera function-For safe driving such as automatic stop, recognition of driver's condition, etc.
  • a device provided for traffic such as an on-vehicle sensor for capturing images of the rear, surroundings, inside of a car, a monitoring camera for monitoring a traveling vehicle or a road, a distance measuring sensor for measuring distance between vehicles, etc.
  • Devices used for home appliances such as TVs, refrigerators, air conditioners, etc. to perform imaging and device operation according to the gesture ⁇ Endoscopes, devices for performing blood vessel imaging by receiving infrared light, etc.
  • Equipment provided for medical and healthcare use-Equipment provided for security such as surveillance cameras for crime prevention, cameras for personal identification, etc.
  • -Skin measuring equipment for photographing skin, photographing for scalp Beauty such as a microscope Equipment provided for use-Equipment provided for sports use, such as action cameras and wearable cameras for sports applications, etc.-Used for agriculture, such as cameras for monitoring the condition of fields and crops apparatus
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on any type of mobile object such as a car, an electric car, a hybrid electric car, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot May be
  • FIG. 8 is a block diagram showing a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 includes a plurality of electronic control units connected via communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an external information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the driveline control unit 12010 controls the operation of devices related to the driveline of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, and a steering angle of the vehicle. It functions as a control mechanism such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • Body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device of various lamps such as a headlamp, a back lamp, a brake lamp, a blinker or a fog lamp.
  • the body system control unit 12020 may receive radio waves or signals of various switches transmitted from a portable device substituting a key.
  • Body system control unit 12020 receives the input of these radio waves or signals, and controls a door lock device, a power window device, a lamp and the like of the vehicle.
  • Outside vehicle information detection unit 12030 detects information outside the vehicle equipped with vehicle control system 12000.
  • an imaging unit 12031 is connected to the external information detection unit 12030.
  • the out-of-vehicle information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing or distance detection processing of a person, a vehicle, an obstacle, a sign, characters on a road surface, or the like based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of light received.
  • the imaging unit 12031 can output an electric signal as an image or can output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared light.
  • In-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver state detection unit 12041 that detects a state of a driver is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera for imaging the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver does not go to sleep.
  • the microcomputer 12051 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the information inside and outside the vehicle acquired by the outside information detecting unit 12030 or the in-vehicle information detecting unit 12040, and a drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the outside information detecting unit 12030 or the in-vehicle information detecting unit 12040 so that the driver can Coordinated control can be performed for the purpose of automatic driving that travels autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the external information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or oncoming vehicle detected by the external information detection unit 12030, and performs cooperative control for the purpose of antiglare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and image to an output device capable of visually or aurally notifying information to a passenger or the outside of a vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as the output device.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 9 is a diagram illustrating an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 includes imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as the front nose of the vehicle 12100, a side mirror, a rear bumper, a back door, and an upper portion of a windshield of a vehicle interior.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle cabin mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 included in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100. Images in the front acquired by the imaging units 12101 and 12105 are mainly used to detect a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 9 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors
  • the imaging range 12114 indicates The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown.
  • a bird's eye view of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging devices, or an imaging device having pixels for phase difference detection.
  • the microcomputer 12051 measures the distance to each three-dimensional object in the imaging ranges 12111 to 12114, and the temporal change of this distance (relative velocity with respect to the vehicle 12100). In particular, it is possible to extract a three-dimensional object traveling at a predetermined speed (for example, 0 km / h or more) in substantially the same direction as the vehicle 12100 as a leading vehicle, in particular by finding the it can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. As described above, it is possible to perform coordinated control for the purpose of automatic driving or the like that travels autonomously without depending on the driver's operation.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 converts three-dimensional object data relating to three-dimensional objects into two-dimensional vehicles such as two-wheeled vehicles, ordinary vehicles, large vehicles, It can be classified, extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 into obstacles visible to the driver of the vehicle 12100 and obstacles difficult to see.
  • the microcomputer 12051 determines the collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk is a setting value or more and there is a possibility of a collision, through the audio speaker 12061 or the display unit 12062 By outputting an alarm to the driver or performing forcible deceleration or avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared light.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • pedestrian recognition is, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as an infrared camera, and pattern matching processing on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not
  • the procedure is to determine
  • the audio image output unit 12052 generates a square outline for highlighting the recognized pedestrian.
  • the display unit 12062 is controlled so as to display a superimposed image. Further, the audio image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the example of the vehicle control system to which the technology according to the present disclosure can be applied has been described above.
  • the technology according to the present disclosure may be applied to the imaging unit 12031 and the like among the configurations described above. Then, by applying the technology according to the present disclosure to the imaging unit 12031, it is possible to obtain an accurate captured image in which the occurrence of shading is suppressed, so image processing using the captured image (for example, object detection processing or distance) Detection processing etc.) can be performed accurately.
  • the present technology can also have the following configurations.
  • the imaging element according to any one of the above (1) to (8) which is a filter array in which a transparent filter that transmits light in the wavelength range of (1) is disposed.
  • a method of manufacturing an imaging device comprising: a partition that optically separates the filters disposed in the filter layer; The method includes the step of forming the partition wall so that the height is different in each portion of the imaging region including the light receiving surface of the pixel.
  • 11 imaging device 12 semiconductor substrate, 13 insulating layer, 14 filter layer, 14R red filter, 14CL transparent filter, 15 flattening layer, 16 on-chip lens layer, 17 CL partition wall, 21 pixel, 21R red pixel, 21CL transparent pixel, 31 oxide film, 41 and 42 resist

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Optical Filters (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本開示は、シェーディングの発生を抑制することができるようにする撮像素子、製造方法、および電子機器に関する。 撮像素子は、複数の画素ごとに光電変換部が形成される半導体基板と、光電変換部が受光する波長の光を透過する複数のフィルタが平面的に配置されるフィルタ層と、フィルタ層に配置されるフィルタどうしを光学的に分離する隔壁とを備える。そして、その隔壁が、画素の受光面からなる撮像領域の各部分で高さが異なり、撮像領域の中央部分よりも周辺部分において高さが低くなるように形成される。本技術は、例えば、RCCC画素配列を採用した撮像素子に適用できる。

Description

撮像素子、製造方法、および電子機器
 本開示は、撮像素子、製造方法、および電子機器に関し、特に、シェーディングの発生を抑制することができるようにした撮像素子、製造方法、および電子機器に関する。
 従来、赤色のカラーフィルタ、緑色のカラーフィルタ、および青色のカラーフィルタが、いわゆるベイヤ配列された撮像素子では、カラーフィルタ層における光学的な分離を行う構造が採用される。例えば、カラーフィルタ層における光学的な分離を行うための隔壁として、カラーフィルタの材料よりも屈折率の低い材料である酸化膜などを用いることが提案されている。
 例えば、特許文献1に開示されている固体撮像装置では、各カラーフィルタ間に隔壁を備える構成とすることで、外部からの侵入光が受光部に達するのを抑制することができる。
特開2012-227476号公報
 ところで、上述したような従来の撮像素子は、カラーフィルタ層における隔壁が、撮像領域の中央や周辺などの部分に依らず、どの領域でも同一の高さとなるような構造となっている。そのため、各カラーフィルタは、撮像領域の中央部分と周辺部分とで同一の厚みとなるように形成されることになり、それぞれの領域でカラーフィルタの透過率が一定のものとなっていた。
 しかしながら、このような構造の撮像素子では、撮像領域の周辺領域において斜め光が入射することに起因して、撮像領域の周辺領域で受光光量が低減し、撮像領域の周辺領域における感度特性が低下してしまうシェーディングが発生することがあった。
 本開示は、このような状況に鑑みてなされたものであり、シェーディングの発生を抑制することができるようにするものである。
 本開示の一側面の撮像素子は、複数の画素ごとに光電変換部が形成される半導体基板と、前記光電変換部が受光する波長の光を透過する複数のフィルタが平面的に配置されるフィルタ層と、前記フィルタ層に配置される前記フィルタどうしを光学的に分離する隔壁とを備え、前記隔壁が、前記画素の受光面からなる撮像領域の各部分で高さが異なって形成される。
 本開示の一側面の製造方法は、複数の画素ごとに光電変換部が形成される半導体基板と、前記光電変換部が受光する波長の光を透過する複数のフィルタが平面的に配置されるフィルタ層と、前記フィルタ層に配置される前記フィルタどうしを光学的に分離する隔壁とを備える撮像素子の製造方法において、前記画素の受光面からなる撮像領域の各部分で高さが異なるように前記隔壁を形成する工程を含む。
 本開示の一側面の電子機器は、複数の画素ごとに光電変換部が形成される半導体基板と、前記光電変換部が受光する波長の光を透過する複数のフィルタが平面的に配置されるフィルタ層と、前記フィルタ層に配置される前記フィルタどうしを光学的に分離する隔壁とを有し、前記隔壁が、前記画素の受光面からなる撮像領域の各部分で高さが異なって形成される撮像素子を備える。
 本開示の一側面においては、撮像素子には、複数の画素ごとに光電変換部が形成される半導体基板と、光電変換部が受光する波長の光を透過する複数のフィルタが平面的に配置されるフィルタ層と、フィルタ層に配置されるフィルタどうしを光学的に分離する隔壁とが備えられ、画素の受光面からなる撮像領域の各部分で高さが異なって形成される。
 本開示の一側面によれば、シェーディングの発生を抑制することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した撮像素子の第1の実施の形態の構成例を示す断面図である。 撮像素子の各領域を説明する図である。 CF隔壁を設けることによる効果を説明する図である。 撮像素子の製造方法を説明する図である。 撮像素子の第2の実施の形態の構成例を示す断面図である。 撮像装置の構成例を示すブロック図である。 イメージセンサを使用する使用例を示す図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
 <撮像素子の第1の構成例>
 図1は、本技術を適用した撮像素子の第1の実施の形態の構成例を示す断面図である。
 図1に示される撮像素子11は、半導体基板12の裏面に対して、絶縁層13、フィルタ層14、平坦化層15、およびオンチップレンズ層16が積層されて構成される裏面照射型とされている。
 半導体基板12は、例えば、単結晶のシリコンウェハを薄くスライスした基板であり、アレイ状に配置される複数の画素21ごとに、図示しない光電変換部が形成されている。なお、図1に示す撮像素子11は、赤色の波長域の光を受光する赤色画素21Rと、全ての波長域の光を受光する透明画素21CLとが配置された構成例とされる。
 絶縁層13は、例えば、絶縁性を備えた窒化ケイ素(SiN)や二酸化ケイ素(SiO2)などを半導体基板12の裏面に積層することにより構成され、半導体基板12の受光面を絶縁する。
 フィルタ層14は、画素21ごとに、半導体基板12に形成される光電変換部(図示せず)が受光する波長の光を透過する複数のフィルタが平面的に配置されて構成される。図1に示す構成例では、フィルタ層14には、赤色画素21Rには赤色の光を透過する赤色フィルタ14R、および、透明画素21CLには全ての波長域の光を透過する透明フィルタ14CLが配置されており、それぞれの間に、CL隔壁17が形成されている。そして、フィルタ層14は、CL隔壁17の高さに応じた膜厚で形成される。
 平坦化層15は、フィルタ層14に対して一定の厚みで有機材料を積層することにより形成され、フィルタ層14の表面の凹凸(例えば、赤色フィルタ14Rおよび透明フィルタ14CLと、CL隔壁17との高さの違いによる凹凸)を平坦化する。
 オンチップレンズ層16は、撮像素子11に照射される光を画素21ごとに集光するマイクロレンズが、画素21ごとに平坦化層15に積層されて構成される。
 CL隔壁17は、フィルタ層14を構成する材料よりも低屈折率な材料である酸化物(Oxide)などにより構成され、フィルタ層14に設けられる赤色フィルタ14Rおよび透明フィルタ14CLそれぞれの間を光学的に分離する。
 そして、撮像素子11では、受光面において画像の撮像に用いられる画素21が配置された領域である撮像領域の部分に応じてCL隔壁17の高さが異なっており、中央部aから周辺部cへ向かうに従って、高さが低くなるようにCL隔壁17が形成されている。例えば、撮像素子11では、撮像領域の中央部分である中央部aに形成されるCL隔壁17aの高さよりも、中央部aに対して周辺側となる中間部b(中央部aから周辺部cへ向かう中間の部分)に形成されるCL隔壁17bの高さが低くなっている。同様に、撮像素子11では、撮像領域の中間部bに形成されるCL隔壁17bの高さよりも、中間部bに対して周辺側となる周辺部cに形成されるCL隔壁17cの高さが低くなっている。
 なお、CL隔壁17は、撮像素子11の撮像領域の部分(中央部a、中間部b、周辺部c)ごとに高さが異なるように形成する他、例えば、中央部分から周辺部分に向かって緩やかに高さが変化するように形成することができる(図4参照)。
 ここで、図2に示すように、撮像素子11は、中央部分から周辺部分に向かって、第1の領域A1、第2の領域A2、第3の領域A3、第4の領域A4、第5の領域A5、第6の領域A6、第7の領域A7、および第8の領域A8に区分することができる。例えば、第7の領域A7より外側は、オプティカルブラックとして用いられる画素21が配置され、第6の領域A6は、第5の領域A5から第7の領域A7までの間において、開口が不問とされる領域を表している。そして、撮像素子11では、例えば、第1の領域A1より内側を中央部aとし、第4の領域A4より外側(第5の領域A5よりも内側)を周辺部cとして、中央部分から周辺部分に向かうに従って高さが低くなるようにCL隔壁17が形成される。なお、図2に示す数値は、それぞれの領域Aが設定される画素数の一例であって、中央部aや周辺部cは図示されている画素数に限定されるものではない。
 このように、撮像素子11は、周辺部cに形成されるCL隔壁17cの高さを、中央部aに形成されるCL隔壁17aの高さよりも低くすることで、周辺部cにおけるフィルタ層14を中央部aと比較して薄膜化することができる。これにより、撮像素子11は、中央部aよりも周辺部cにおいて透過率が高くなるような膜厚でフィルタ層14が形成され、周辺部cにおけるフィルタ層14の透過率を、中央部aにおけるフィルタ層14の透過率よりも高めることができる。
 その結果、撮像素子11は、撮像領域の周辺部分において中央部分よりも斜め光成分が多いことに起因して受光光量が低減することを回避して、撮像領域の周辺における感度特性を向上させることができる。このとき、CL隔壁17の高さを適切に設定して、フィルタ層14の膜厚を調整することで、撮像領域の中央部分と周辺部分とで同等の感度特性とすることができる。従って、撮像素子11は、撮像領域のどの部分でも明るさが均一となる画像を撮像することができ、シェーディングの発生を抑制することができる。
 具体的には、赤色フィルタ14Rの透過率は、10%程度の膜厚の薄膜化を行うことによって、2%程度高くなることが見込まれる。そこで、フィルタ層14の膜厚が、中央部aで0.7μm程度となるとともに周辺部cで0.5μm程度となるように、CL隔壁17の高さを設定することで、撮像素子11の撮像領域面内で感度を一定(例えば、0.78)とすることができる。これにより、撮像素子11は、周辺部cにおける感度を改善することができる結果、より良好にシェーディングの発生を抑制することができる。なお、ここの説明で用いた数値は一例であって、これらの数値に限定されることはない。
 また、撮像素子11は、特に、2×2で配置される4つの画素21において、1つを赤色画素21Rとして、他の3つを透明画素21CLとするような画素配列(以下適宜、RCCC画素配列と称する)に適用することが好適である。
 ここで、図3に示すように、1つの赤色画素21Rと、3つの透明画素21CL-1乃至21CL-3とからなるRCCC画素配列について説明する。
 例えば、図3のAに示すように、CL隔壁17が設けられない構成では、屈折率の違いに起因して、透明画素21CL-1乃至21CL-3のフィルタ層14に入射した光が赤色画素21Rのフィルタ層14に漏れ込むことがある。即ち、透明画素21CL-1乃至21CL-3のフィルタ層14の屈折率が、赤色画素21Rのフィルタ層14の屈折率よりも低いため、透明画素21CL-1乃至21CL-3から赤色画素21Rに対して光が漏れ込んでしまう。
 このとき、赤色画素21Rに対する透明画素21CL-1乃至21CL-3の位置関係に応じて、赤色画素21Rに漏れ込む光の光量が異なるものとなる。即ち、白抜きの矢印で示すように、赤色画素21Rに対して対角位置にある透明画素21CL-2よりも、赤色画素21Rに対して上下または左右の隣接位置にある透明画素21CL-1および透明画素21CL-3の方が、より大きな光量の光が赤色画素21Rに漏れ込んでしまう。このように赤色画素21Rに漏れ込む光量の違いによって、透明画素21CL-1乃至21CL-3どうしの感度にバラツキが発生することになる。
 つまり、CL隔壁17が設けられずに、透明画素21CL-1乃至21CL-3が赤色画素21Rに直接的に接するような構成では、透明画素21CL-1乃至21CL-3の感度がばらつくことになっていた。
 これに対し、撮像素子11は、図3のBに示すように、透明画素21CL-1乃至21CL-3と赤色画素21Rとの間にCL隔壁17が設けられ、それらが直接的に接することがない構成となっている。即ち、赤色フィルタ14Rおよび透明フィルタ14CLを構成する材料よりも屈折率の小さな酸化膜でCL隔壁17を形成することにより、透明画素21CL-1乃至21CL-3を赤色画素21Rから光学的に分離することができる。
 これにより、撮像素子11では、白抜きの矢印で示すように、透明画素21CL-1乃至21CL-3から赤色画素21Rへ光が漏れ込むことを回避することができる。その結果、撮像素子11は、上述したような透明画素21CL-1乃至21CL-3どうしの感度にバラツキが発生することを抑制することができる。
 もちろん、本技術は、RCCC画素配列以外の配列を採用した撮像素子11に適用してもよく、例えば、2×2で配置される4つの画素21において、同じ色の光を受光する画素21が2個以上あるような配列において、感度のバラツキを抑制することができる。
 <撮像素子の製造方法>
 図4を参照して、撮像素子11の製造方法について説明する。
 第1の工程において、図4の1段目に示すように、例えば、半導体基板12の裏面に対して、ストッパー層となる絶縁層13をCVD(Chemical Vapor Deposition)法などにより均一な膜厚で積層する。さらに、絶縁層13に対して、CL隔壁17となる酸化膜31をCVD法などにより均一な膜厚で積層する。
 第2の工程において、図4の2段目に示すように、例えば、酸化膜31に対してレジストを均一に塗布した後、グレーティングマスクを用いたパターニングを行うことにより、撮像素子11のチップ単体ごとに、撮像素子11の撮像領域内で膜厚が異なるレジスト41を形成する。即ち、撮像素子11のチップ単体ごとに、撮像素子11の撮像領域の中央部aでは膜厚が厚くなり、撮像素子11の撮像領域の周辺部cへ向かうに従って緩やかに膜厚が薄くなるようなレジスト41を形成することができる。ここで、グレーティングマスクとは、クロムの粗密を利用してレジストの光量を変えられるパターニング技術に利用するマスクである。
 第3の工程において、図4の3段目に示すように、例えば、RIE(Reactive Ion Etching)などを用いてレジストエッチバックにより酸化膜31に対する加工を行うことで、撮像素子11のチップ単体ごとに、レジスト41の形状を酸化膜31に転写する。これにより、撮像素子11のチップ単体ごとに、撮像素子11の撮像領域の中央部aでは膜厚が厚くなり、撮像素子11の撮像領域の周辺部cへ向かうに従って膜厚が薄くなるような形状の酸化膜31’が形成される。
 第4の工程において、図4の4段目に示すように、例えば、酸化膜31’に対してレジスト42が塗布される。このとき、レジスト42の表面は平坦となるように形成される。
 第5の工程において、図4の5段目に示すように、例えば、CL隔壁17が形成される箇所が残されるように、レジスト42に対してパターニングを行う。
 第6の工程において、図4の6段目に示すように、例えば、RIEなどにより酸化膜31’に対する加工を行うことでCL隔壁17を形成し、レジスト42を除去する。これにより、撮像素子11の撮像領域の各部分で高さが異なり、撮像領域の中央部分から周辺部分へ向かうに従って高さが低くなるようなCL隔壁17を形成することができる。即ち、中央部aから中間部bを経由して周辺部cに向かって、図示するように緩やかに高さが変化するようなCL隔壁17a、CL隔壁17b、およびCL隔壁17cを形成することができる。
 その後、従来通りの方法で、赤色フィルタ14Rおよび透明フィルタ14CLの塗布およびパターニングを行い、有機膜などを薄く塗布して平坦化層15を形成することで、オンチップレンズ層16と下地またはフィルタ層14との密着性を向上させる。ここで、平坦化層15を均一の厚みで薄く形成することで、その表面は、フィルタ層14と同様に中央部分で凸となるような形状となる。さらに、従来通りの方法で、画素21ごとにマイクロレンズを形成することでオンチップレンズ層16を平坦化層15に積層して、図1に示したような構造の撮像素子11が製造される。
 以上のような製造方法によって、シェーディングの発生を抑制するとともに、透明画素21CLの感度のバラツキを抑制することができる撮像素子11を製造することができる。
 <撮像素子の第2の構成例>
 図5を参照して、本技術を適用した撮像素子の第2の実施の形態の構成例について説明する。なお、図5に示す撮像素子11’において、図1の撮像素子11と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図5に示すように、撮像素子11’は、半導体基板12の裏面に対して、絶縁層13およびフィルタ層14が積層されている点で、図1の撮像素子11と同様に構成されている。そして、撮像素子11’は、撮像領域の部分に応じて高さが異なるように形成されているフィルタ層14に対して、表面が平面状に形成される平坦化層15’が積層され、平坦化層15’にオンチップレンズ層16が積層されるように形成されている点で、図1の撮像素子11と異なる構成となっている。
 即ち、撮像素子11’では、フィルタ層14の膜厚の変化に対応して、平坦化層15’の膜厚が、中央部aで薄く形成されるとともに、中央部aから周辺部cへ向かうに従って厚くなるように形成されている。これにより、平坦化層15’の表面が平面状になっている。
 このような構成の撮像素子11’の製造方法は、図4を参照して説明した図1の撮像素子11の製造方法と共通である。そして、その後の工程において、有機膜などを薄く塗布して平坦化層15’を形成する際に、撮像領域の中央部aと周辺部cとの高さの差を解消するように平坦化層15’が積層される。さらに、平坦化層15’に対して、従来通りの方法で、画素21ごとにマイクロレンズを形成することでオンチップレンズ層16が積層される。従って、撮像素子11’では、撮像領域の中央部aと周辺部cとで、半導体基板12からオンチップレンズ層16の各マイクロレンズまでの高さを一定とすることができる。
 このように構成される撮像素子11’は、図1の撮像素子11と同様に、シェーディングの発生を抑制するとともに、透明画素21CLの感度のバラツキを抑制することができる。なお、撮像素子11’は、図1の撮像素子11よりも工程的に作り易い構造となっている。
 <電子機器の構成例>
 上述したような撮像素子11は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像システム、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図6は、電子機器に搭載される撮像装置の構成例を示すブロック図である。
 図6に示すように、撮像装置101は、光学系102、撮像素子103、信号処理回路104、モニタ105、およびメモリ106を備えて構成され、静止画像および動画像を撮像可能である。
 光学系102は、1枚または複数枚のレンズを有して構成され、被写体からの像光(入射光)を撮像素子103に導き、撮像素子103の受光面(センサ部)に結像させる。
 撮像素子103としては、上述した撮像素子11が適用される。撮像素子103には、光学系102を介して受光面に結像される像に応じて、一定期間、電子が蓄積される。そして、撮像素子103に蓄積された電子に応じた信号が信号処理回路104に供給される。
 信号処理回路104は、撮像素子103から出力された画素信号に対して各種の信号処理を施す。信号処理回路104が信号処理を施すことにより得られた画像(画像データ)は、モニタ105に供給されて表示されたり、メモリ106に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置101では、上述した撮像素子11を適用することで、例えば、シェーディングの発生を抑制し、より高画質な画像を撮像することができる。
 <イメージセンサの使用例>
 図7は、上述のイメージセンサ(撮像素子)を使用する使用例を示す図である。
 上述したイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 <移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図8は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図8に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図8の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図9は、撮像部12031の設置位置の例を示す図である。
 図9では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図9には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。そして、撮像部12031に本開示に係る技術を適用することにより、シェーディングの発生を抑制した正確な撮影画像を得ることができるため、その撮影画像を利用した画像処理(例えば、物体検出処理や距離検出処理など)を正確に行うことができる。
 <構成の組み合わせ例>
 なお、本技術は以下のような構成も取ることができる。
(1)
 複数の画素ごとに光電変換部が形成される半導体基板と、
 前記光電変換部が受光する波長の光を透過する複数のフィルタが平面的に配置されるフィルタ層と、
 前記フィルタ層に配置される前記フィルタどうしを光学的に分離する隔壁と
 を備え、
 前記隔壁が、前記画素の受光面からなる撮像領域の各部分で高さが異なって形成される
 撮像素子。
(2)
 前記隔壁は、前記撮像領域の中央部分よりも周辺部分において高さが低くなるように形成される
 上記(1)に記載の撮像素子。
(3)
 前記隔壁は、前記撮像領域の前記中央部分から前記周辺部分に向かって緩やかに高さが変化するように形成される
 上記(2)に記載の撮像素子。
(4)
 前記隔壁は、前記フィルタを構成する材料よりも低屈折率な材料により構成される
 上記(1)から(3)までのいずれかに記載の撮像素子。
(5)
 前記フィルタは、前記隔壁の高さに応じた膜厚で形成される
 上記(1)から(4)までのいずれかに記載の撮像素子。
(6)
 前記フィルタは、前記撮像領域の中央部分よりも周辺部分において透過率が高くなるような膜厚に形成される
 上記(5)に記載の撮像素子。
(7)
 前記フィルタ層に対して一定の厚みで積層される平坦化層と、
 前記平坦化層に対して前記画素ごとに光を集光する複数のマイクロレンズが積層されて構成されるオンチップレンズ層と
 をさらに備える上記(1)から(6)までのいずれかに記載の撮像素子。
(8)
 前記フィルタ層に対して表面が平面状となるように積層される平坦化層と、
 前記平坦化層に対して前記画素ごとに光を集光する複数のマイクロレンズが積層されて構成されるオンチップレンズ層と
 をさらに備える上記(1)から(6)までのいずれかに記載の撮像素子。
(9)
 前記フィルタ層は、2×3で配置される4つの前記画素において、1つの前記画素に対して赤色の波長域の光を透過する赤色フィルタが配置され、他の3つの前記画素に対して全ての波長域の光を透過する透明フィルタが配置されるフィルタ配列となっている
 上記(1)から(8)までのいずれかに記載の撮像素子。
(10)
 複数の画素ごとに光電変換部が形成される半導体基板と、
 前記光電変換部が受光する波長の光を透過する複数のフィルタが平面的に配置されるフィルタ層と、
 前記フィルタ層に配置される前記フィルタどうしを光学的に分離する隔壁と
 を備える撮像素子の製造方法において、
 前記画素の受光面からなる撮像領域の各部分で高さが異なるように前記隔壁を形成する工程を含む
 製造方法。
(11)
 複数の画素ごとに光電変換部が形成される半導体基板と、
 前記光電変換部が受光する波長の光を透過する複数のフィルタが平面的に配置されるフィルタ層と、
 前記フィルタ層に配置される前記フィルタどうしを光学的に分離する隔壁と
 を有し、
 前記隔壁が、前記画素の受光面からなる撮像領域の各部分で高さが異なって形成される
 撮像素子を備える電子機器。
 なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 11 撮像素子, 12 半導体基板, 13 絶縁層, 14 フィルタ層, 14R 赤色フィルタ, 14CL 透明フィルタ, 15 平坦化層, 16 オンチップレンズ層, 17 CL隔壁, 21 画素, 21R 赤色画素, 21CL 透明画素, 31 酸化膜, 41および42 レジスト

Claims (11)

  1.  複数の画素ごとに光電変換部が形成される半導体基板と、
     前記光電変換部が受光する波長の光を透過する複数のフィルタが平面的に配置されるフィルタ層と、
     前記フィルタ層に配置される前記フィルタどうしを光学的に分離する隔壁と
     を備え、
     前記隔壁が、前記画素の受光面からなる撮像領域の各部分で高さが異なって形成される
     撮像素子。
  2.  前記隔壁は、前記撮像領域の中央部分よりも周辺部分において高さが低くなるように形成される
     請求項1に記載の撮像素子。
  3.  前記隔壁は、前記撮像領域の前記中央部分から前記周辺部分に向かって緩やかに高さが変化するように形成される
     請求項2に記載の撮像素子。
  4.  前記隔壁は、前記フィルタを構成する材料よりも低屈折率な材料により構成される
     請求項1に記載の撮像素子。
  5.  前記フィルタは、前記隔壁の高さに応じた膜厚で形成される
     請求項1に記載の撮像素子。
  6.  前記フィルタは、前記撮像領域の中央部分よりも周辺部分において透過率が高くなるような膜厚に形成される
     請求項5に記載の撮像素子。
  7.  前記フィルタ層に対して一定の厚みで積層される平坦化層と、
     前記平坦化層に対して前記画素ごとに光を集光する複数のマイクロレンズが積層されて構成されるオンチップレンズ層と
     をさらに備える請求項1に記載の撮像素子。
  8.  前記フィルタ層に対して表面が平面状となるように積層される平坦化層と、
     前記平坦化層に対して前記画素ごとに光を集光する複数のマイクロレンズが積層されて構成されるオンチップレンズ層と
     をさらに備える請求項1に記載の撮像素子。
  9.  前記フィルタ層は、2×3で配置される4つの前記画素において、1つの前記画素に対して赤色の波長域の光を透過する赤色フィルタが配置され、他の3つの前記画素に対して全ての波長域の光を透過する透明フィルタが配置されるフィルタ配列となっている
     請求項1に記載の撮像素子。
  10.  複数の画素ごとに光電変換部が形成される半導体基板と、
     前記光電変換部が受光する波長の光を透過する複数のフィルタが平面的に配置されるフィルタ層と、
     前記フィルタ層に配置される前記フィルタどうしを光学的に分離する隔壁と
     を備える撮像素子の製造方法において、
     前記画素の受光面からなる撮像領域の各部分で高さが異なるように前記隔壁を形成する工程を含む
     製造方法。
  11.  複数の画素ごとに光電変換部が形成される半導体基板と、
     前記光電変換部が受光する波長の光を透過する複数のフィルタが平面的に配置されるフィルタ層と、
     前記フィルタ層に配置される前記フィルタどうしを光学的に分離する隔壁と
     を有し、
     前記隔壁が、前記画素の受光面からなる撮像領域の各部分で高さが異なって形成される
     撮像素子を備える電子機器。
PCT/JP2019/000032 2018-01-19 2019-01-04 撮像素子、製造方法、および電子機器 WO2019142661A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-007148 2018-01-19
JP2018007148A JP2019125757A (ja) 2018-01-19 2018-01-19 撮像素子、製造方法、および電子機器

Publications (1)

Publication Number Publication Date
WO2019142661A1 true WO2019142661A1 (ja) 2019-07-25

Family

ID=67301760

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/000032 WO2019142661A1 (ja) 2018-01-19 2019-01-04 撮像素子、製造方法、および電子機器

Country Status (2)

Country Link
JP (1) JP2019125757A (ja)
WO (1) WO2019142661A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006128513A (ja) * 2004-10-29 2006-05-18 Matsushita Electric Ind Co Ltd 固体撮像素子
JP2012227476A (ja) * 2011-04-22 2012-11-15 Panasonic Corp 固体撮像装置およびその製造方法
WO2017073321A1 (ja) * 2015-10-26 2017-05-04 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
JP2017163010A (ja) * 2016-03-10 2017-09-14 ソニー株式会社 撮像装置、電子機器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006128513A (ja) * 2004-10-29 2006-05-18 Matsushita Electric Ind Co Ltd 固体撮像素子
JP2012227476A (ja) * 2011-04-22 2012-11-15 Panasonic Corp 固体撮像装置およびその製造方法
WO2017073321A1 (ja) * 2015-10-26 2017-05-04 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
JP2017163010A (ja) * 2016-03-10 2017-09-14 ソニー株式会社 撮像装置、電子機器

Also Published As

Publication number Publication date
JP2019125757A (ja) 2019-07-25

Similar Documents

Publication Publication Date Title
US11869911B2 (en) Imaging element and electronic apparatus
WO2018030138A1 (ja) 固体撮像素子および製造方法、並びに電子機器
US10840284B2 (en) Imaging element with a first and second converging portion for converging light between a first and second signal extraction portion of adjacent pixels
US20210288192A1 (en) Sensor element and electronic device
JPWO2018043654A1 (ja) 固体撮像装置およびその製造方法、並びに電子機器
WO2018173872A1 (ja) センサチップおよび電子機器
CN110192128B (zh) 相机模块、其制造方法和电子设备
CN110431460B (zh) 层叠透镜结构、层叠透镜结构的制造方法和电子设备
US20180376089A1 (en) Image sensing device
WO2018070259A1 (ja) 固体撮像素子およびその製造方法、並びに、電子機器
US20200004039A1 (en) Camera module, method of manufacturing the same, and electronic apparatus
US20200235142A1 (en) Solid-state imaging device and electronic device
US20210297589A1 (en) Imaging device and method of controlling imaging device
WO2021192677A1 (ja) センサ装置およびその製造方法
WO2018128096A2 (en) Lens module, method of producing lens module, imaging device, and electronic device
WO2019142661A1 (ja) 撮像素子、製造方法、および電子機器
JP7261168B2 (ja) 固体撮像装置及び電子機器
WO2019159561A1 (ja) 固体撮像素子、電子装置、および、固体撮像素子の製造方法
WO2023053525A1 (ja) 撮像素子、撮像装置、製造方法
WO2023189071A1 (ja) 撮像装置及び電子機器
WO2022019111A1 (ja) 光検出装置
WO2023112479A1 (ja) 受光装置および電子機器
WO2023127512A1 (ja) 撮像装置、電子機器
JP2021136352A (ja) 固体撮像装置およびその製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19740883

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19740883

Country of ref document: EP

Kind code of ref document: A1