WO2012042741A1 - 固体撮像装置及び撮像装置 - Google Patents

固体撮像装置及び撮像装置 Download PDF

Info

Publication number
WO2012042741A1
WO2012042741A1 PCT/JP2011/004781 JP2011004781W WO2012042741A1 WO 2012042741 A1 WO2012042741 A1 WO 2012042741A1 JP 2011004781 W JP2011004781 W JP 2011004781W WO 2012042741 A1 WO2012042741 A1 WO 2012042741A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
signal
imaging device
solid
color
Prior art date
Application number
PCT/JP2011/004781
Other languages
English (en)
French (fr)
Inventor
真治 吉田
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN2011800355696A priority Critical patent/CN103004212A/zh
Publication of WO2012042741A1 publication Critical patent/WO2012042741A1/ja
Priority to US13/798,247 priority patent/US20130193311A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers

Definitions

  • the present invention relates to a solid-state imaging device and an imaging device mounted on a digital still camera or the like.
  • Patent Document 1 discloses a method for realizing high sensitivity of a pixel by using a part of a pixel without using a color filter without dispersing light and detecting a wide transmission wavelength band.
  • FIG. 15 is a schematic diagram of a conventional solid-state imaging device described in Patent Document 1.
  • the solid-state imaging device 300 illustrated in the figure includes a solid-state imaging element 312, an infrared light cut filter layer 313, and a color filter group 314.
  • the infrared light cut filter layer 313 includes an opening 313a that is transmissive to visible light and infrared light, and a non-transmissive material that is transmissive to visible light and impermeable to infrared light.
  • An opening 313b is provided.
  • the color filter group 314 includes a filter 314G that transmits green, a filter 314R that transmits red, and a filter 314B that transmits blue, and separates the visible light region into R, G, and B components.
  • the infrared light cut filter layer 313 and the color filter group 314 are disposed so as to be integrated on the solid-state imaging device 312.
  • the solid-state imaging device 312 detects a wide wavelength region component including visible light and infrared light that has passed through the filter 314W (or a portion where no filter is disposed) of the color filter group 314 and the opening 313a with the wavelength region pixel 312A. Then, a luminance signal is generated with the detection signal.
  • the R, G, and B color components that have passed through the filter 314G, the filter 314R, or the filter 314B and the non-opening portion 313b are detected by the red pixel 312R, the green pixel 312G, and the blue pixel 312B, and a color difference signal is obtained from each color signal. Generate. According to this configuration, since the signal component of only the spectral wavelength region component and the non-spectral wide wavelength region component can be acquired independently or simultaneously by the individual detection units, the color signal and the luminance signal are obtained. Highly sensitive imaging can be realized by individually detecting.
  • Patent Document 2 discloses a solid-state imaging device that has white pixels to improve sensitivity, enables handling of a strong incident light amount, and improves the output signal range of each color pixel.
  • FIG. 16 is a schematic diagram of a pixel block in the solid-state imaging device described in Patent Document 2.
  • the solid-state imaging device 400 shown in the figure is provided with a white photoelectric conversion element 420W and light-shielding photoelectric conversion elements 420LS1 and 420LS2 in a pixel block.
  • one pixel block is configured by arranging the white photoelectric conversion element 420W and the light-shielding photoelectric conversion elements 420LS1 and 420LS2 for one of the red photoelectric conversion element 420R, the green photoelectric conversion element 420G, and the blue photoelectric conversion element 420B, respectively.
  • the white photoelectric conversion element 420W is electrically connected to the light-shielding photoelectric conversion elements 420LS1 and 420LS2 via the overflow path 422 in one pixel block.
  • the on-chip lens 421 is disposed only on the opened red photoelectric conversion element 420R, green photoelectric conversion element 420G, blue photoelectric conversion element 420B, and white photoelectric conversion element 420W.
  • the wavelength region pixel 312A for detecting the wide wavelength region component is highly sensitive, but the saturation speed is very fast compared to the R, G, B spectral pixels. For this reason, imaging under high illuminance becomes difficult. This means that the dynamic range is reduced by increasing the saturation speed, which is a common problem in achieving high sensitivity by detecting non-spectral signals and wide wavelength region component signals. is there.
  • the white photoelectric conversion area is substantially increased.
  • the saturation level of the white signal increases, a wide dynamic range and high sensitivity can be expected, but a light-shielded pixel must be provided.
  • the pixel aperture ratio of the photoelectric conversion element is reduced, which hinders high sensitivity.
  • the area of the light-shielding pixels must be ensured in the imaging region, and miniaturization and increase in the number of pixels are difficult. Therefore, there is a problem that it is impossible to achieve both high sensitivity and wide dynamic range without lowering the aperture ratio.
  • the present invention has been made in view of the above problems, and can realize a wide dynamic range without reducing the aperture ratio and provide a solid-state imaging device provided with high-sensitivity white pixels that can be imaged even under high illuminance.
  • the purpose is to provide.
  • a solid-state imaging device is a solid-state imaging device having an imaging region in which pixel portions including photodiodes formed on the surface of a semiconductor substrate are two-dimensionally arranged.
  • the imaging region is configured with an array unit of a pixel block including four pixel units in two rows and two columns, and the pixel block includes a first pixel unit that detects a first color signal, A second pixel portion for detecting a second color signal different from the first color signal, a third pixel portion for detecting the first luminance signal, and a fourth pixel for detecting the second luminance signal.
  • a color filter that selectively transmits light in a wavelength band corresponding to a desired color signal is provided above the first pixel portion and the second pixel portion, respectively.
  • the saturation speed of the fourth pixel unit is slower than that of the third pixel unit, the first luminance signal detected by the third pixel unit and the fourth pixel unit detected by the fourth pixel unit are detected.
  • the saturation speed of the pixel block can be matched with the saturation speed of the fourth pixel unit.
  • the light receiving sensitivity of the fourth pixel unit is equal to or higher than the spectral sensitivity of the pixel unit having the smaller spectral sensitivity of the first pixel unit and the second pixel unit, and the light attenuation filter It is preferable that the light receiving sensitivity has a light transmittance that is equal to or higher than the spectral sensitivity.
  • the saturation determination can be performed only with the luminance signals of the third pixel portion and the fourth pixel portion, and the first pixel portion and the second pixel portion are saturated within a range where the fourth pixel portion is not saturated. Can be prevented. Therefore, it is possible to suppress a decrease in the S / N of the color signal, and it is possible to acquire a high-sensitivity and high-definition image.
  • the third pixel portion and the fourth pixel portion are provided at positions that are diagonal to each other in the pixel block.
  • the first color signal may be a blue signal
  • the second color signal may be a red signal
  • the error of the color difference signal is minimized with respect to the Bayer array, and a high-sensitivity and high-quality image is obtained without reducing the color S / N. It becomes possible to do.
  • the first color signal may be a red signal
  • the second color signal may be a green signal
  • the first color signal may be a cyan signal
  • the second color signal may be a yellow signal
  • first color signal or the second color signal may be different between adjacent pixel blocks.
  • first color signal and the second color signal may be any one of a blue signal, a green signal, and a red signal, respectively.
  • the first color signal and the second color signal may be any one of a cyan signal, a yellow signal, and a magenta signal, respectively.
  • a high-definition color image can be obtained by using the three primary colors of light or the three complementary colors for the first and second pixel portions.
  • the light attenuation filter is preferably composed of a thin film made of amorphous silicon or amorphous germanium, or a carbon thin film.
  • reflection can be suppressed by the thin film structure and light can be attenuated over a wide range of visible light region. Therefore, generation of a false color signal in color correction such as subtraction processing can be suppressed and a high-quality image can be acquired.
  • an imaging device includes any of the solid-state imaging devices described above and a signal processing device that processes a pixel signal output from the pixel unit.
  • the signal processing device uses a signal obtained by adding the first luminance signal and the second luminance signal in the pixel block as a luminance signal of the pixel block.
  • the saturation speed of the fourth pixel unit is slower than that of the third pixel unit, a signal obtained by adding the first luminance signal and the second luminance signal is used as the luminance signal.
  • the saturation speed of the pixel block can be matched with the saturation speed of the fourth pixel unit. Therefore, it is possible to realize a high-sensitivity imaging device that can capture images even under high illuminance and achieves both high sensitivity and a wide dynamic range.
  • the signal processing device includes any one of the solid-state imaging devices described above and a signal processing device that processes a pixel signal output from the pixel unit, and the signal processing device is configured such that the first luminance signal in the pixel block is a predetermined period.
  • the determination unit that determines whether to saturate the pixel and the determination unit determines that the first luminance signal is saturated in the predetermined period
  • the second luminance signal in the pixel block is determined as the pixel.
  • a selection unit that selects the luminance signal of the block.
  • the saturation determination of the first luminance signal is performed by the signal processing device, and when the illuminance of the subject is high, the second luminance signal can be selected as the luminance signal of the pixel block. Therefore, a wide dynamic range and high sensitivity can be achieved by selecting a luminance signal that matches the illuminance.
  • two white pixels having different sensitivities and two color pixels for detecting two different color signals are arranged in a pixel block that is an array unit of the imaging region.
  • a low sensitivity / high sensitivity luminance signal can be selected in accordance with the imaging surface illuminance. Therefore, it is possible to provide a solid-state imaging device and an imaging device that can capture images with high sensitivity and a wide dynamic range, and that can capture images even under high illuminance.
  • FIG. 1 is a functional block diagram showing the configuration of the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a circuit configuration diagram of a pixel block included in the solid-state imaging device according to Embodiment 1 of the present invention.
  • FIG. 3 is a schematic diagram of the color arrangement in the imaging region of the solid-state imaging device according to Embodiment 1 of the present invention.
  • FIG. 4 is a graph showing the relationship between accumulated charge and accumulation time for each pixel of the pixel block according to the present invention.
  • FIG. 5 is a schematic cross-sectional view of a pixel in the imaging region of the solid-state imaging device according to the present invention.
  • FIG. 6 is a graph showing the relationship between the light absorption rate and film thickness of amorphous silicon.
  • FIG. 1 is a functional block diagram showing the configuration of the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a circuit configuration diagram of a pixel block included in the solid-state imaging
  • FIG. 7 is a graph showing the transmission spectrum of the color filter used in the present embodiment.
  • FIG. 8 is a cross-sectional view of the main part structure of a low-sensitivity white pixel included in the MOS image sensor according to Embodiment 1 of the present invention.
  • FIG. 9 is a process sectional view of the low-sensitivity white pixel included in the MOS image sensor according to the first embodiment of the present invention.
  • FIG. 10 is a flowchart for signal processing of the imaging apparatus according to Embodiment 2 of the present invention.
  • FIG. 11 is a schematic diagram of the color arrangement in the imaging region of the solid-state imaging device according to Embodiment 3 of the present invention.
  • FIG. 12 is a schematic diagram of the color arrangement in the pixel block of the solid-state imaging device according to Embodiment 4 of the present invention.
  • FIG. 13 is a schematic diagram of color arrangement in the imaging region of the solid-state imaging device according to Embodiment 5 of the present invention.
  • FIG. 14 is a schematic diagram of a color arrangement in an imaging region of a solid-state imaging device showing a modification according to Embodiment 5 of the present invention.
  • FIG. 15 is a schematic diagram of a conventional solid-state imaging device described in Patent Document 1.
  • FIG. 16 is a schematic diagram of a pixel block in the solid-state imaging device described in Patent Document 2.
  • FIG. 1 is a functional block diagram showing the configuration of the imaging apparatus according to Embodiment 1 of the present invention.
  • An imaging device 200 illustrated in the figure is a digital camera including a solid-state imaging device 100, a lens 201, a drive circuit 202, a signal processing device 203, and an external interface unit 204.
  • the signal processing device 203 drives the solid-state imaging device 100 through the driving circuit 202, takes in an output signal from the solid-state imaging device 100, and outputs the internally processed signal to the outside via the external interface unit 204.
  • the solid-state imaging device 100 has two non-spectral pixels with different sensitivities in the imaging region, and the signal processing device 203 uses the sum of the luminance signals of the two non-spectral pixels according to the illuminance on the imaging surface, or either By selecting one, the amount of light incident on the imaging region can be adjusted.
  • FIG. 2 is a circuit configuration diagram of a pixel block included in the solid-state imaging device according to Embodiment 1 of the present invention.
  • the solid-state imaging device 100 shown in FIG. 1 includes an imaging region 2 in which unit pixels 1 having photodiodes 11 are two-dimensionally arranged, a horizontal shift register 3 and a vertical shift register 4 for selecting pixel signals, And an output terminal 5 for providing a signal from the selected unit pixel 1 to the outside.
  • the imaging area 2 includes a plurality of unit pixels 1.
  • the unit pixel 1 includes a photodiode 11, a transfer transistor 12, a reset transistor 13, an amplification transistor 14, and a selection transistor 15.
  • Each of the transfer transistor 12, the reset transistor 13, the amplification transistor 14, and the selection transistor 15 is configured by a MOS transistor.
  • the solid-state imaging device 100 according to Embodiment 1 of the present invention has two non-spectral pixels having different light receiving sensitivities as unit pixels 1 in a pixel block.
  • FIG. 3 is a schematic diagram of the color arrangement in the imaging region of the solid-state imaging device according to Embodiment 1 of the present invention.
  • the color arrangement for acquiring a color image is called a Bayer array, in which two green pixels are placed at one diagonal position of a pixel block of 2 rows and 2 columns, and a red pixel and a blue color are placed at the other diagonal position.
  • This is a configuration in which pixels are arranged.
  • the solid-state imaging device 100 of the present invention as shown in FIG. 3, two pixels out of four pixels belonging to a pixel block of 2 rows and 2 columns are directly detected without color separation of incident light. White pixels are used.
  • the pixel block included in the imaging region 2A of the solid-state imaging device 100 is configured by four unit pixels 1 arranged in two rows and two columns, and at one diagonal position, a red pixel 11R and a blue pixel 11B and white pixels 11W1 and 11W2 are arranged at the other diagonal position.
  • the red pixel 11R is a first pixel unit that detects a red signal that is a first color signal
  • the blue pixel 11B is a second pixel unit that detects a blue signal that is a second color signal.
  • the white pixel 11W1 is a third pixel unit that detects the first luminance signal
  • the white pixel 11W2 is a fourth pixel unit that detects the second luminance signal.
  • the white pixel 11W2 is provided with an optical attenuation filter that absorbs and attenuates visible light above the photodiode 11, and is lower in sensitivity to visible light than the white pixel 11W1. Details of the light attenuation filter will be described later.
  • the pixel block With the configuration of the pixel block, light in a wavelength region that is normally discarded by the color filter is photoelectrically converted by the photodiodes 11 of the white pixels 11W1 and 11W2, so that high sensitivity can be realized.
  • the white pixels 11W1 and 11W2 having different sensitivities are provided, the first luminance signal can be acquired from the white pixel 11W1, and the second luminance signal can be acquired from the white pixel 11W2. Can do.
  • the imaging region 2A has a configuration in which unit pixels for detecting the luminance signal are arranged for each row and for each column, and high sensitivity can be realized without reducing the resolution.
  • the first color signal is red
  • the second color signal is blue
  • the green signal having the highest visibility is replaced with the first luminance signal and the second luminance signal.
  • the YCbCr color difference space is a color space represented by one luminance signal Y and two color signals Cb and Cr.
  • the blue signal is B
  • the red signal is R
  • the first luminance signal is W1
  • the second luminance signal is W2
  • Cb is (YB)
  • Cr is specified as (YR).
  • (YB) and (YR) can be directly created using (W1 + W2).
  • FIG. 4 is a graph showing the relationship between accumulated charge and accumulation time for each pixel of the pixel block according to the present invention.
  • the horizontal axis of the graph shown in the figure represents the exposure time of each pixel, and the vertical axis represents the amount of charge accumulated in each pixel.
  • the slope Q / t in this graph is defined as the light receiving sensitivity of each pixel.
  • the total light sensitivity that is the light reception sensitivity of the white pixel 11W1 is the largest
  • the total light sensitivity that is the light reception sensitivity of the white pixel 11W2 is set smaller than the total light sensitivity of the white pixel 11W1. .
  • the total light sensitivity of the white pixel 11W2 is the light reception sensitivity of the red pixel 11R that detects the red signal and the blue pixel 11B that detects the blue pixel by controlling the transmittance of the light attenuation filter disposed thereon. It is set to be larger than a certain spectral sensitivity. With the above setting, the red signal and the blue signal are not saturated in a region where the luminance signal is not saturated.
  • the saturation determination can be performed only with the luminance signals of the white pixels 11W1 and 11W2, and the red pixel 11R and the blue pixel 11B can be prevented from being saturated in a range where the white pixel 11W2 is not saturated. It is possible to suppress a decrease in signal S / N and obtain a high-sensitivity and high-definition image.
  • the white pixel is highly sensitive because it photoelectrically converts light in the entire wavelength range without performing spectroscopy, but on the other hand, it reaches the saturation charge amount in a fast time.
  • the accumulated charge is saturated at time t1 in the white pixel 11W1
  • the accumulated charge is saturated at time t2 in the white pixel 11W2.
  • the exposure time is set up to time t1
  • the signal level of the red pixel 11R and the blue pixel 11B is low, which causes a decrease in S / N.
  • the signal level of the white pixel 11W2 is lower than the signal level of the white pixel 11W1
  • the saturation level of W2 is substantially reduced to the saturation level of the luminance signal Y.
  • the exposure time until the luminance signal Y is saturated can be increased.
  • the accumulation time of Y the accumulated charge amount of the red pixel 11R and the blue pixel 11B also increases, so that the S / N of the entire pixel block can be improved.
  • the signal processing device 203 calculates a luminance signal using (W1 + W2) using the characteristic difference between the white pixels 11W1 and 11W2 described above. Then, by calculating the ratio of the color signal component included in the calculated luminance signal, the signal intensity obtained from the white pixels 11W1 and 11W2 with respect to the red signal from the red pixel 11R and the blue signal from the blue pixel 11B. By using, the S / N of the generated color image can be improved.
  • the signal processing device 203 is provided in the imaging device 200. However, the signal processing device 203 is installed inside the solid-state imaging device 100, and the solid-state imaging device 100 processes the luminance signal of the pixel block. May be.
  • the first luminance signal W2 is set to W2 / ⁇ .
  • the luminance signal W1 and the second luminance signal have the same light receiving sensitivity.
  • the ratios included in the white pixels of the respective colors are expressed by Equations 1 to 3, respectively.
  • Red ratio Rr R / (W2 / ⁇ ) (Formula 1)
  • Blue ratio Br B / (W2 / ⁇ ) (Formula 2)
  • Green ratio Gr ⁇ (W2 / ⁇ ) -RB ⁇ / (W2 / ⁇ ) (Formula 3)
  • the luminance signal Y is calculated by multiplying the R, G, and B signal intensities by the visibility coefficient, so that the noise component increases.
  • the saturation speed of the white pixel 11W2 is slower than that of the white pixel 11W1, a signal obtained by adding the first luminance signal W1 and the second luminance signal W2 is used as the luminance signal.
  • the saturation speed of the pixel block can be matched with the saturation speed of the white pixel 11W2. Therefore, it is possible to realize a solid-state imaging device and a small and highly sensitive imaging device that can capture images even under high illuminance and achieve both high sensitivity and a wide dynamic range.
  • FIG. 5 is a schematic cross-sectional view of pixels in the imaging region of the solid-state imaging device according to the present invention.
  • the pixel block according to the present invention includes the white pixel 31 corresponding to the white pixel 11W1, the color signal detection pixel 32 corresponding to the red pixel 11R and the blue pixel 11B, and the low sensitivity white pixel 33 corresponding to the white pixel 11W2. These are the three types of pixels.
  • the color signal detection pixel 32 is composed of two pixels, and the white pixel 31 and the low-sensitivity white pixel 33 each constitute one pixel block.
  • the white pixels 31, the color signal detection pixels 32, and the low-sensitivity white pixels 33 are arranged on a straight line for the sake of convenience. However, actually, as shown in FIG.
  • the color signal detection pixel 32 is disposed at one diagonal position, and the white pixel 31 and the low-sensitivity white pixel 33 are disposed at the other diagonal position.
  • the photodiode 11 is formed by ion implantation inside a silicon semiconductor substrate 20 and photoelectrically converts an incident optical signal and reads it as an electrical signal.
  • a transistor gate and gate wiring 22 are provided on the semiconductor substrate 20, and a metal wiring 23 for electrically connecting them is provided with an interlayer film 24 therebetween.
  • a dielectric film 29 is disposed above the wiring layer composed of the metal wiring 23 and the interlayer film 24 with the interlayer film 25 interposed therebetween, and a micro-film disposed with a planarizing film 27 interposed therebetween.
  • a lens 28 is formed. Since the white pixel 31 is a non-spectral pixel, no color filter is disposed, and a transparent dielectric film 29 is disposed in the visible light region. For example, a SiO 2 film is used as the dielectric film 29. This is because the interlayer films 24 and 25 are mainly composed of SiO 2 , and therefore it is desirable to use the same material in order to prevent reflection and refraction.
  • a color filter 26 is disposed above the wiring layer via an interlayer film 25, and a microlens 28 is formed above the wiring layer with a planarizing film 27 interposed therebetween.
  • a light absorption film 30 is disposed above the wiring layer via an interlayer film 25, and a microlens 28 is formed above the wiring layer with a planarization film 27 interposed therebetween.
  • the light collected by the microlens 28 passes through the dielectric film 29, the color filter 26 or the light absorption film 30, and is photoelectrically converted by the photodiode 11.
  • no color filter is disposed, and the light absorbing film 30 is disposed to attenuate light.
  • the solid-state imaging device equipped with the light attenuation filter it is possible to control the transmission amount of light reaching the imaging area in accordance with the luminance of the subject, and imaging under high illuminance is possible.
  • the solid-state imaging device equipped with the light attenuation filter it is possible to control the transmission amount of light reaching the imaging area in accordance with the luminance of the subject, and imaging under high illuminance is possible.
  • by installing these for each pixel block it is possible to express gradation of a low-luminance and high-luminance subject simultaneously.
  • the light attenuation filter that is the light absorption film 30 disposed on the white pixel 11W2 will be described.
  • the light attenuation filter according to the present embodiment is made of an amorphous silicon thin film.
  • FIG. 6 is a graph showing the relationship between the light absorption rate and film thickness of amorphous silicon. It is known that amorphous silicon has a broad and high light absorption in the wavelength region of the visible light region.
  • crystalline silicon such as polysilicon is known to have a large light absorption coefficient on the long wavelength side from about 400 nm. Therefore, amorphous silicon is optimal for the light attenuation filter according to the present invention.
  • the absorption coefficient ⁇ of amorphous silicon is about 100,000 to 500,000, which is very large.
  • the amorphous silicon according to the present embodiment is manufactured by sputtering, for example. In this case, the absorption coefficient ⁇ is about 200,000.
  • the light attenuation filter according to the present invention must be set so that the total light sensitivity of the white pixel 11W2 is equal to or higher than the spectral sensitivity of the red pixel 11R and the blue pixel 11B.
  • amorphous silicon is used.
  • the light attenuating filter is an absorptive thin film, and a material having broad light absorption in the visible light region is required. Therefore, amorphous germanium and carbon thin films are also an absorptive material having a small band gap, and can be applied as a light absorption film.
  • FIG. 8 is a cross-sectional view of the main part structure of a low-sensitivity white pixel included in the MOS image sensor according to Embodiment 1 of the present invention.
  • FIG. 9 is a process cross-sectional view of the low-sensitivity white pixel included in the MOS image sensor according to the first embodiment of the present invention.
  • a diffusion region 52 is formed by ion implantation in the semiconductor substrate 20, and the imaging unit 51 and the peripheral circuit unit 50 of the pixel unit are formed on the semiconductor substrate 20. Is formed.
  • the transistor 54 is electrically isolated by the element isolation part 53.
  • the transistor 54 corresponds to, for example, any of the transfer transistor 12, the reset transistor 13, the amplification transistor 14, and the selection transistors 15 and 17 illustrated in FIG.
  • an insulating interlayer film 56 such as BPSG (Boron Phosphorate Silicate Glass) is formed, planarized by CMP (Chemical Mechanical Polishing) or etch back, and then contact holes are formed by dry etching to form metal.
  • a metal plug 55 is formed by a CVD method. With the metal plug 55 exposed, an aluminum film is formed by sputtering or the like, and patterning is performed by dry etching to produce the wiring layer 57. By repeating this process configuration, a multilayer wiring structure can be made. Since the solid-state imaging device according to the present embodiment is a two-layer wiring, an insulating interlayer film 58 is formed on the first wiring layer 57 and planarized, and after forming a metal plug, the second-layer wiring is formed. Layer 59 is formed.
  • BPSG is formed as part of the insulating interlayer film 61.
  • an amorphous silicon layer 62 is formed by depositing amorphous silicon by sputtering and removing the amorphous silicon by etching leaving only the opening of the white pixel 11W2. To do.
  • an BPSG film is formed again on the amorphous silicon layer 62, and planarized using CMP to form an insulator interlayer film 61.
  • a microlens is formed on the planarizing film formed on the insulator interlayer film 61. Since amorphous silicon is used as the light attenuation filter in this way, it can be manufactured at a low temperature and in a thin film, so that it is excellent in compatibility with the silicon process, and a solid-state imaging device can be easily manufactured at low cost. it can.
  • the light attenuating filter is not necessarily installed on the uppermost layer of the wiring, and the structure shown in this embodiment is an example. That is, the light attenuation filter may be disposed in the optical path from the microlens to the pixel.
  • the amorphous silicon film is formed by a technique such as CVD. It is also possible.
  • the signal processing device 203 determines whether or not the luminance signal of the white pixel 11W1 is saturated, and the white pixel 11W1 detects the imaging device according to the first embodiment.
  • the white pixel 11W1 detects the imaging device according to the first embodiment.
  • one of the first luminance signal W1 and the second luminance signal detected by the white pixel 11W2 is selected as the luminance signal of the pixel block.
  • the pixel block included in the solid-state imaging device 100 includes the white pixel 11W1 and the white pixel 11W2 having different pixel sensitivities, the first luminance signal W1 and the second luminance signal according to the illuminance on the imaging surface.
  • a wide dynamic range can be realized by selecting one of W2 as a luminance signal.
  • the signal processing device 203 determines whether or not the first luminance signal W1 in the pixel block is saturated in a predetermined period, and the determination unit determines that the first luminance signal W1 is saturated in the predetermined period. In such a case, a selection unit that selects the second luminance signal W2 in the pixel block as the luminance signal of the pixel block is provided.
  • the high-sensitivity first brightness signal W1 is used as a brightness signal for picking up a low-brightness subject.
  • W1 can expand the dynamic range within the same angle of view by using low sensitivity W2.
  • FIG. 10 is a flowchart of signal processing of the imaging apparatus according to Embodiment 2 of the present invention.
  • the signal processing device 203 measures the luminance signal of the white pixel 11W1 for each pixel block (S11).
  • the determination unit of the signal processing device 203 determines whether the white pixel 11W1 is saturated from the pixel sensitivity of the white pixel 11W1 (S12). This is determined by calculating Q / t shown in FIG. 4, that is, light reception sensitivity, from the luminance signal measured in step S11.
  • the selection of the signal processing device 203 is performed.
  • the unit selects the low-sensitivity second luminance signal W2 as the luminance signal (S13).
  • the highly sensitive first luminance signal W1 is selected (S14). ).
  • the signal processing device 203 causes the solid-state imaging device 100 to image the subject with the necessary exposure time (S15), selects the signal of the white pixel 11W1 or 11W2 selected for each pixel block as a luminance signal, Generate an image. Thereby, a wide dynamic range can be realized.
  • the saturation determination of the first luminance signal W1 detected by the white pixel 11W1 is performed by the signal processing device, and when the illuminance is high, the second luminance signal W2 detected by the white pixel 11W2 is used as the luminance signal. You can choose. Therefore, by selecting a luminance signal in accordance with the illuminance, it is possible to realize an imaging device that achieves a wide dynamic range and high sensitivity.
  • the necessary exposure time means a time during which the S / N of the red pixel 11R and the blue pixel 11B having the lowest sensitivity can be sufficiently obtained, and can be arbitrarily determined by the user of the imaging apparatus.
  • the signal processing device 203 is provided in the imaging device 200.
  • the signal processing device 203 is installed inside the solid-state imaging device, and the solid-state imaging device performs the above processing of the luminance signal of the pixel block. Also good.
  • the solid-state imaging device according to the present embodiment is different from the solid-state imaging device according to the first embodiment in the arrangement configuration of unit pixels constituting the pixel block.
  • description of the same points as in the first embodiment will be omitted, and only different points will be described.
  • FIG. 11 is a schematic diagram of the color arrangement in the imaging region of the solid-state imaging device according to Embodiment 3 of the present invention.
  • the pixel block included in the imaging region 2B described in the figure has a configuration in which one of the blue pixel and the green pixel in the Bayer array is replaced with a white pixel.
  • two pixels are white pixels that directly detect incident light without color separation.
  • the pixel block included in the imaging region 2B includes four unit pixels 1 arranged in two rows and two columns, and a red pixel 11R and a green pixel 11G are arranged at one diagonal position.
  • the white pixel 11W1 and the white pixel 11W2 are disposed at the other diagonal position.
  • the red pixel 11R is a first pixel unit that detects a red signal that is a first color signal
  • the green pixel 11G is a second pixel unit that detects a green signal that is a second color signal. It is.
  • the white pixel 11W1 is a third pixel unit that detects the first luminance signal
  • the white pixel 11W2 is a fourth pixel unit that detects the second luminance signal.
  • the white pixel 11W2 is provided with an optical attenuation filter that absorbs and attenuates visible light above the photodiode 11, and is lower in sensitivity to visible light than the white pixel 11W1.
  • the subtraction process increases the noise and causes a decrease in S / N.
  • the subtraction process can be performed on blue with low visibility to suppress the deterioration of color reproduction. It becomes possible. With this configuration, it is possible to perform imaging with high sensitivity and a wide dynamic range without deterioration of image quality.
  • the pixel block With the configuration of the pixel block, light in a wavelength region that is normally discarded by the color filter is photoelectrically converted by the photodiodes 11 of the white pixels 11W1 and 11W2, so that high sensitivity can be realized. .
  • the white pixels 11W1 and 11W2 having different sensitivities are provided, the first luminance signal can be acquired from the white pixel 11W1, and the second luminance signal can be acquired from the white pixel 11W2. Can do.
  • the imaging region 2B has a configuration in which unit pixels for detecting the luminance signal are arranged for each row and for each column, and high sensitivity can be realized without reducing the resolution.
  • the white pixel 11W1 and the white pixel 11W2 are diagonally arranged to maximize the resolution, but the total light sensitivity of the low-sensitivity white pixel 11W2 is set to the spectral sensitivity of the green pixel 11G.
  • the white pixel 11W1 and the green pixel 11G may be arranged diagonally.
  • the solid-state imaging device according to the present embodiment is different from the solid-state imaging device according to the first embodiment in the arrangement configuration of unit pixels constituting the pixel block.
  • description of the same points as in the first embodiment will be omitted, and only different points will be described.
  • FIG. 12 is a schematic diagram of the color arrangement in the pixel block of the solid-state imaging device according to Embodiment 4 of the present invention.
  • the pixel block shown in the figure has a configuration in which the red pixel 11R and the blue pixel 11B in the pixel block shown in FIG. 3 of Embodiment 1 are replaced with a cyan pixel 11Cy and a yellow pixel 11Ye, respectively. Yes.
  • the first color signal and the second color signal detected by the first pixel unit and the second pixel unit are two colors of the complementary color system.
  • the two complementary colors are preferably cyan and yellow, which contain a green component with high visibility.
  • the solid-state imaging device white pixels are arranged in the pixel block, and pixels having completely different sensitivities are mixed in the same block, and the sensitivity difference (saturation speed difference) between the color detection pixel and the white pixel is reduced.
  • the complementary color system has a wider detection wavelength region than the primary color system, and thus the spectral sensitivity of the cyan pixel 11 ⁇ / b> Cy and the yellow pixel 11 ⁇ / b> Ye that are color detection pixels is high. Accordingly, the sensitivity of the color signal pixel and the sensitivity of the white pixel are closer, and thus the sensitivity of the entire pixel block is the highest. Therefore, it is possible to perform imaging with a high dynamic range and ultra-high sensitivity.
  • one of the three colors included in the Bayer array is deleted and a white pixel is provided.
  • the pixel block array is schematically expressed as conventional Bayer array ⁇ array of the present invention, RGB ⁇ RB + W, RGB ⁇ RG + W, MgCyYe ⁇ CyYe + W.
  • Mg represents magenta.
  • FIG. 13 is a schematic diagram of color arrangement in the imaging region of the solid-state imaging device according to Embodiment 5 of the present invention.
  • the imaging region 2C shown in the figure has a structure in which two types of pixel blocks of two rows and two columns are alternately arranged.
  • the first pixel block includes a white pixel 11W1 and a white pixel 11W2 at one diagonal position, and a red pixel 11R that is a first pixel section and a second pixel section at the other diagonal position. It has a certain green pixel 11G.
  • the second pixel block has a white pixel 11W1 and a white pixel 11W2 at one diagonal position, and a blue pixel 11B as a first pixel section and a second pixel section at the other diagonal position. It has a certain green pixel 11G.
  • the first pixel block and the second pixel block are adjacent to each other and are alternately arranged two-dimensionally. That is, the first color signal is different between adjacent pixel blocks.
  • the first pixel block has a red pixel 11R as the first pixel portion and a blue pixel 11B as the second pixel portion at the other diagonal position
  • the second pixel block may include a red pixel 11R as a first pixel portion and a green pixel 11G as a second pixel portion at the other diagonal position. That is, the second color signal may be different between adjacent pixel blocks.
  • each of the white pixels 11W1 and 11W2 comes into contact with all three color signal pixels (red pixel 11R, green pixel 11G, and blue pixel 11B).
  • the color reproduction of the first luminance signal W1 and the second luminance signal W2 can be determined by the ratio of the color signals in contact with these white pixels. Therefore, the color components constituting the luminance signal can be expressed with high accuracy using adjacent R and B and two Gs.
  • the signal processing device 203 can generate the color image of the pixel block without performing the subtraction process.
  • an average value of G may be used instead of 2G.
  • Y 0.299 ⁇ R + 0.587 ⁇ G + 0.114 ⁇ B may be set in consideration of visibility.
  • the three primary colors of RGB are used as the color signal, but a complementary color system of CyMgYe may be used.
  • FIG. 14 is a schematic diagram of the color arrangement in the imaging region of the solid-state imaging device showing a modification according to Embodiment 5 of the present invention.
  • the imaging region 2D shown in the figure has a structure in which two types of pixel blocks of 2 rows and 2 columns are alternately arranged.
  • the first pixel block has a white pixel 11W1 and a white pixel 11W2 at one diagonal position, and a cyan pixel 11Cy that is the first pixel portion and a yellow that is the second pixel portion at the other diagonal position.
  • a pixel 11Ye is a schematic diagram of the color arrangement in the imaging region of the solid-state imaging device showing a modification according to Embodiment 5 of the present invention.
  • the imaging region 2D shown in the figure has a structure in which two types of pixel blocks of 2 rows and 2 columns are alternately arranged.
  • the first pixel block has a white pixel 11W1 and a white pixel 11W2 at one diagonal position, and a cyan
  • the second pixel block has a white pixel 11W1 and a white pixel 11W2 at one diagonal position, and a magenta pixel 11Mg as a first pixel section and a second pixel section at the other diagonal position. It has a certain yellow pixel 11Ye.
  • the first pixel block and the second pixel block are adjacent to each other and are alternately arranged two-dimensionally. That is, the first color signal is different between adjacent pixel blocks. Note that the second color signal may be different between adjacent pixel blocks.
  • the color signal pixel is a complementary color system, as described in the fourth embodiment, since the detection wavelength region is wide, higher sensitivity can be realized.
  • the solid-state imaging device and imaging device of the present invention can provide a high-performance, high-performance camera having a wide dynamic range, a small size, and a light amount adjustment function. it can.
  • the solid-state imaging device and the imaging device of the present invention have been described based on the embodiments, the solid-state imaging device and the imaging device according to the present invention are not limited to the above-described embodiments.
  • CMOS type solid-state imaging device has been described as an example.
  • the present invention is not limited to this, and a CCD-type solid-state imaging device can achieve the same effect.
  • the present invention is particularly useful for a digital camera, and is optimal for use in a solid-state imaging device and camera that require a wide dynamic range and high-quality images.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Color Television Image Signal Generators (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

開口率を低下させることなく広ダイナミックレンジを実現することができ、高照度下においても撮像可能な固体撮像装置を提供する。半導体基板(20)の表面に形成された画素部が二次元状に配列された撮像領域(2A)を有する固体撮像装置であって、撮像領域(2A)は、2行2列の画素部からなる画素ブロックを配列単位として構成され、当該画素ブロックは赤色信号を検出する赤色画素(11R)と、青色信号を検出する青色画素(11B)と、第1の輝度信号を検出する白色画素(11W1)と、第2の輝度信号を検出する白色画素(11W2)とで構成されており、白色画素(11W2)の受光面上部には、可視光線領域の光透過率を低減させる光減衰フィルタが設けられている。

Description

固体撮像装置及び撮像装置
 本発明は、デジタルスチルカメラなどに搭載される固体撮像装置及び撮像装置に関する。
 固体撮像装置がカラー画像を取得する一般的な原理は、各画素の上部に特定の波長帯のみを透過させるカラーフィルタを設け、画素によって異なる色信号を検出し、これらの異なる色信号を信号処理により合成し、画像として再構成するものである。そのため、画素に到達する光は各画素の上部でカラーフィルタによって不必要な波長帯が除去されている反面、画素に到達する光量は撮像面に到達する全光量と比べると小さくなる。そこで、一部の画素に対してカラーフィルタで光を分光せずに利用し、広い透過波長帯を検出することで画素の高感度化を実現する方法が特許文献1に開示されている。
 図15は、特許文献1に記載された従来の固体撮像装置の概略図である。同図に記載された固体撮像装置300は、固体撮像素子312と、赤外光カットフィルタ層313と、色フィルタ群314とを備える。赤外光カットフィルタ層313には、可視光および赤外光に対して透過性を有する開口部313aと、可視光に対して透過性を有するとともに赤外光に対して非透過性を有する非開口部313bとが設けられている。色フィルタ群314は、緑色を透過するフィルタ314G、赤色を透過するフィルタ314R及び青色を透過するフィルタ314Bを備え、可視光領域をR、G、B成分に分離する。そして、赤外光カットフィルタ層313と色フィルタ群314とは、固体撮像素子312上において一体的となるように配置されている。固体撮像素子312は、色フィルタ群314のフィルタ314W(またはフィルタが配置されていない部分)と開口部313aとを通過した可視光および赤外光を含む広波長領域成分を波長領域画素312Aで検知し、その検知信号で輝度信号を生成する。また、フィルタ314G、フィルタ314Rまたはフィルタ314Bと非開口部313bとを通過したR、G、Bの各色成分を赤色画素312R、緑色画素312G及び青色画素312Bで検知し、その各色信号から色差信号を生成する。この構成によれば、分光された波長領域成分のみの信号成分と非分光の広波長領域成分とを、個別の検出部で、独立に、あるいは、同時に取得できることから、色信号と輝度信号とを個別に検出することで高感度な撮像を実現することができる。
 また、特許文献2には、白色画素を有して感度の向上を図りつつ、強い入射光量の取り扱いを可能にし、かつ各色画素の出力信号レンジの向上を図った固体撮像装置が開示されている。図16は、特許文献2に記載された固体撮像装置における画素ブロックの概略図である。同図に記載された固体撮像装置400は、画素ブロック内に白色光電変換素子420Wと遮光光電変換素子420LS1及び420LS2を設けられている。つまり、赤色光電変換素子420R、緑色光電変換素子420G及び青色光電変換素子420Bうちの1つに対し、それぞれ、白色光電変換素子420Wと遮光光電変換素子420LS1及び420LS2を配置して1画素ブロックが構成され、1画素ブロック内で白色光電変換素子420Wが遮光光電変換素子420LS1及び420LS2にオーバーフローパス422を介して電気的に接続されている。また、オンチップレンズ421は、開口している赤色光電変換素子420R、緑色光電変換素子420G、青色光電変換素子420Bならびに白色光電変換素子420Wの上のみに配置されている。
特開2007-329380号公報 特開2009-206210号公報
 しかしながら、図15に示された固体撮像装置300の構造では、広波長領域成分を検出する波長領域画素312Aは高感度であるが、R、G、Bの分光画素に比べ飽和速度が非常に速いため、高照度下での撮像が困難となる。これは、飽和速度が速くなることにより、ダイナミックレンジを低減させていることを意味しており、非分光信号や広波長領域成分信号の検出による高感度化を達成させる上での共通の課題である。
 また、非分光画素の飽和を抑制するために、シャッタや絞りを用いた光量調節を用いることが一般的であるが、R信号やB信号といった弱い分光画素の信号が減少してしまい、S/Nの低下の原因となっている。さらに、図15に示された構成では、分光を行う非開口部313bの誘電体積層膜は、特定の波長の光を反射させることで分光を実現していることから、反射光によるフレアやゴーストといった偽信号が発生するという問題を有している。
 一方、図16に示された固体撮像装置400の構造では、白色光電変換素子420Wから溢れた光電子が遮光光電変換素子420LS1及び420LS2内に蓄積されるため、実質、白色光電変換領域が増大しており、白色信号の飽和レベルが大きくなるためダイナミックレンジの広域化と高感度化とが期待できるが、遮光画素を設けなければならない。このため、光電変換素子の画素開口率を低減させてしまい、高感度化の妨げとなる。さらに、遮光画素の面積を撮像領域内に確保しなければならず、微細化や多画素化が困難となっている。したがって、開口率を低下させることなく高感度化と広ダイナミックレンジ化を両立させることが出来ないという課題を有している。
 本発明は、上記課題に鑑みてなされたものであり、開口率を低下させることなく広ダイナミックレンジを実現することができ、高照度下においても撮像できる高感度な白色画素を設けた固体撮像装置を提供することを目的とする。
 上記の課題を解決するために、本発明の一態様に係る固体撮像装置は、半導体基板表面に形成されたフォトダイオードを備える画素部が二次元状に配列された撮像領域を有する固体撮像装置であって、前記撮像領域は、2行2列の4つの前記画素部からなる画素ブロックを配列単位として構成され、前記画素ブロックは、第1の色信号を検出する第1の画素部と、前記第1の色信号とは異なる第2の色信号を検出する第2の画素部と、第1の輝度信号を検出する第3の画素部と、第2の輝度信号を検出する第4の画素部とで構成されており、前記第1の画素部及び前記第2の画素部の上部には、所望の色信号に対応する波長帯の光を選択的に透過させるカラーフィルタがそれぞれ設けられており、前記第4の画素部の上部には、可視光線領域の光透過率を低減させる光減衰フィルタが設けられており、前記第3の画素部と前記第4の画素部との受光感度は異なることを特徴とする。
 この構成によれば、第4の画素部の飽和速度が第3の画素部に比べて遅いことから、第3の画素部が検出する第1の輝度信号と第4の画素部が検出する第2の輝度信号を、画素ブロックの輝度信号として使うことで、当該画素ブロックの飽和速度を第4の画素部の飽和速度に合わせることができる。これにより、高感度と広ダイナミックレンジを両立する固体撮像装置を実現することができる。
 また、前記第4の画素部の受光感度は、前記第1の画素部及び前記第2の画素部のうち分光感度が小さい方の画素部の分光感度以上であり、前記光減衰フィルタは、前記受光感度が前記分光感度以上となる光透過率を有することが好ましい。
 これにより、飽和判定は第3の画素部及び第4の画素部の輝度信号のみで可能となり、第4の画素部が飽和しない範囲においては、第1の画素部及び第2の画素部が飽和することを防ぐことができる。よって、色信号のS/Nの低下を抑制でき、高感度で高精細な画像を取得することが可能となる。
 また、前記第3の画素部と前記第4の画素部とは、前記画素ブロック内において、互いに対角を成す位置に設けられていることが好ましい。
 これにより、輝度信号の配置ピッチは1行ごと及び1列ごととなるので、輝度の空間分解能が高い状態を維持することが可能となる。
 また、前記第1の色信号は青色の信号であり、前記第2の色信号は赤色の信号であってもよい。
 これにより、視感度の最も高い緑色信号を輝度信号に置き換えることで、ベイヤー配列に対して色差信号の誤差が最も小さくなり、色S/Nを低下させることなく高感度で高画質な画像を取得することが可能となる。
 また、前記第1の色信号は赤色の信号であり、前記第2の色信号は緑色の信号であってもよい。
 これにより、視感度の最も小さい青色を検出する画素を白色画素に置き換えることで、色S/Nの低下を抑制し、高感度で高画質な画像を得ることが可能となる。
 また、前記第1の色信号はシアンの信号であり、前記第2の色信号はイエローの信号であってもよい。
 これにより、より広い波長領域を検出する補色系を用い、さらに視感度の高い緑色を含むシアンとイエローの2色で構成することで、より高感度で高画質な画像を得ることが可能となる。
 また、互いに隣接する画素ブロック間では、前記第1の色信号または前記第2の色信号が異なってもよい。
 これにより、3色すべての色を撮像領域内に配置することができるとともに、輝度信号を検出する第3及び第4の画素部の各々に、3色すべての色信号画素が接している構造となる。この構造により、輝度信号の色構成の精度が高くなるとともに、減算処理をすることなく3色のカラー画像を生成できる。よって、高感度で高画質な画像を得ることが可能となる。
 また、前記第1の色信号及び前記第2の色信号は、それぞれ、青色の信号、緑色の信号及び赤色の信号のいずれかであってもよい。
 もしくは、前記第1の色信号及び前記第2の色信号は、それぞれ、シアンの信号、イエローの信号及びマゼンダの信号のいずれかであってもよい。
 これらにより、第1及び第2の画素部に、光の3原色または補色系3色を用いることで、高精細なカラー画像を取得することが可能となる。
 また、前記光減衰フィルタは、アモルファスシリコンまたはアモルファスゲルマニウムからなる薄膜、もしくはカーボン薄膜から構成されることが好ましい。
 これにより、薄膜構造により反射を抑制するとともに可視光線領域の広い範囲にわたり光を減衰させることができる。よって、減算処理などの色補正における偽色信号の発生を抑制し高画質な画像を取得することが可能となる。
 また、上記の課題を解決するために、本発明の一態様に係る撮像装置は、上述したいずれかの固体撮像装置と、前記画素部から出力される画素信号を処理する信号処理装置とを備え、前記信号処理装置は、前記画素ブロックにおける前記第1の輝度信号と前記第2の輝度信号とを加算した信号を当該画素ブロックの輝度信号とすることを特徴とする。
 上記構成によれば、第4の画素部の飽和速度が第3の画素部のそれに比べて遅いことから、第1の輝度信号と第2の輝度信号とが加算された信号を輝度信号として使うことで、画素ブロックの飽和速度を第4の画素部の飽和速度に合わせることができる。よって、高照度下においても撮像でき、高感度と広ダイナミックレンジを両立する高感度な撮像装置を実現することができる。
 また、上述したいずれかの固体撮像装置と、前記画素部から出力される画素信号を処理する信号処理装置とを備え、前記信号処理装置は、前記画素ブロックにおける前記第1の輝度信号が所定期間に飽和するかどうかを判定する判定部と、前記判定部において、前記第1の輝度信号が前記所定期間に飽和すると判定された場合には、当該画素ブロックにおける前記第2の輝度信号を当該画素ブロックの輝度信号として選択する選択部とを備えてもよい。
 これにより、第1の輝度信号の飽和判定を信号処理装置で行い、被写体の照度が高い場合には、第2の輝度信号を画素ブロックの輝度信号として選択できる。よって、照度に合わせた輝度信号を選ぶことで広ダイナミックレンジと高感度化を達成することが可能となる。
 本発明の固体撮像装置及び撮像装置によれば、撮像領域の配列単位である画素ブロック内に2つの異なる感度を有する白色画素と2つの異なる色信号を検出する色画素とが配置されている。また、撮像面照度に合わせて低感度/高感度の輝度信号を選択できる。よって、高感度で広ダイナミックレンジの画像を撮像でき、高照度下でも撮像が可能な固体撮像装置及び撮像装置を提供することが可能となる。
図1は、本発明の実施の形態1に係る撮像装置の構成を示す機能ブロック図である。 図2は、本発明の実施の形態1に係る固体撮像装置の有する画素ブロックの回路構成図である。 図3は、本発明の実施の形態1に係る固体撮像装置の撮像領域における色配列の模式図である。 図4は、本発明に係る画素ブロックの各画素についての、蓄積電荷と蓄積時間との関係を表すグラフである。 図5は、本発明に係る固体撮像装置の撮像領域における画素の断面概略図である。 図6は、アモルファスシリコンの光吸収率と膜厚の関係を表すグラフである。 図7は、本実施の形態で用いたカラーフィルタの透過スペクトルを表すグラフである。 図8は、本発明の実施の形態1に係るMOS型イメージセンサの有する低感度白色画素の要部構造断面図である。 図9は、本発明の実施の形態1に係るMOS型イメージセンサの有する低感度白色画素の工程断面図である。 図10は、本発明の実施の形態2に係る撮像装置の信号処理についてのフローチャートである。 図11は、本発明の実施の形態3に係る固体撮像装置の撮像領域における色配列の模式図である。 図12は、本発明の実施の形態4に係る固体撮像装置の画素ブロックにおける色配列の模式図である。 図13は、本発明の実施の形態5に係る固体撮像装置の撮像領域における色配置の模式図である。 図14は、本発明の実施の形態5に係る変形例を示す固体撮像装置の撮像領域における色配置の模式図である。 図15は、特許文献1に記載された従来の固体撮像装置の概略図である。 図16は、特許文献2に記載された固体撮像装置における画素ブロックの概略図である。
 以下、本発明の実施の形態について図面を参照しながら説明する。
 (実施の形態1)
 図1は、本発明の実施の形態1に係る撮像装置の構成を示す機能ブロック図である。同図に記載された撮像装置200は、固体撮像装置100と、レンズ201と、駆動回路202と、信号処理装置203と、外部インターフェイス部204とを備えるデジタルカメラである。
 信号処理装置203は、駆動回路202を通して固体撮像装置100を駆動し、固体撮像装置100からの出力信号を取り込み、内部処理した信号を、外部インターフェイス部204を介して外部に出力する。
 固体撮像装置100は、撮像領域に感度の異なる2つの非分光画素を有し、信号処理装置203は、撮像面照度に合わせて上記2つの非分光画素の輝度信号の合計を用いる、またはどちらか一方を選択することにより、撮像領域に入射する光量を調節することが可能である。
 この構成によれば、被写体の輝度に合わせて撮像領域に到達する光の透過量を制御することがきることから、高照度下での撮像が可能となる。また、これらをベイヤー配列毎に設置することで低輝度及び高輝度の被写体を同時に階調表現することが可能となる。以下、本発明の要部である固体撮像装置100について詳細に説明する。
 図2は、本発明の実施の形態1に係る固体撮像装置の有する画素ブロックの回路構成図である。同図に記載された固体撮像装置100は、フォトダイオード11を有する単位画素1が二次元状に配列された撮像領域2と、画素信号を選択するための水平シフトレジスタ3及び垂直シフトレジスタ4と、選択された単位画素1からの信号を外部に与える出力端子5とを備える。
 撮像領域2は、複数の単位画素1を含む。図2では、1画素ブロックとなる4個の単位画素1が描かれている。単位画素1は、フォトダイオード11と、転送用トランジスタ12と、リセット用トランジスタ13と、増幅用トランジスタ14と、選択トランジスタ15とを備える。転送用トランジスタ12、リセット用トランジスタ13、増幅用トランジスタ14及び選択トランジスタ15は、それぞれ、MOSトランジスタで構成されている。
 本発明の実施の形態1に係る固体撮像装置100は、画素ブロック内に、単位画素1として受光感度の異なる2つの非分光画素を有している。
 図3は、本発明の実施の形態1に係る固体撮像装置の撮像領域における色配列の模式図である。一般に、カラー画像を取得する色配置は、ベイヤー配列と呼ばれており、2行2列の画素ブロックの一方の対角位置に2つの緑色画素を置き、他方の対角位置に赤色画素と青色画素とを配置した構成である。これに対し、本発明の固体撮像装置100では、図3に示されるように、2行2列の画素ブロックに属する4画素のうち、2つの画素を、入射光を色分離せず直接検出する白色画素としている。
 具体的には、固体撮像装置100の撮像領域2Aの有する画素ブロックは、2行2列に配置された4つの単位画素1で構成され、一方の対角位置には、赤色画素11Rと青色画素11Bとが配置され、他方の対角位置には、白色画素11W1と白色画素11W2とが配置されている。ここで、赤色画素11Rは、第1の色信号である赤色信号を検出する第1の画素部であり、青色画素11Bは、第2の色信号である青色信号を検出する第2の画素部である。また、白色画素11W1は、第1の輝度信号を検出する第3の画素部であり、白色画素11W2は、第2の輝度信号を検出する第4の画素部である。このとき、白色画素11W2は、フォトダイオード11の上部に、可視光を吸収して減衰させる光減衰フィルタが設けられており、白色画素11W1よりも可視光に対して低感度化されている。光減衰フィルタの詳細については後述する。
 上記画素ブロックの構成により、通常ではカラーフィルタによって捨てられてしまう波長領域の光が、白色画素11W1及び11W2のフォトダイオード11で光電変換されるので高感度化を実現することが可能となる。また、本発明に係る構成では、感度が異なる白色画素11W1及び11W2が設けられているので、白色画素11W1から第1の輝度信号を取得でき、白色画素11W2から第2の輝度信号を取得することができる。
 画像解像度は、輝度信号の空間周波数によって決まるため、輝度信号を得るための白色画素11W1と白色画素11W2とを対角に配置している。これにより、撮像領域2Aは、1行ずつ、かつ、1列ずつ輝度信号を検出する単位画素が配置された構成となり、解像度を低下させることなく高感度化を実現できる。
 また本実施の形態では、第1の色信号を赤色、第2の色信号を青色とし、視感度の最も高い緑色信号が、第1の輝度信号及び第2の輝度信号に置き換えられることとなる。これにより、ベイヤー配列と比較して色差信号の誤差が最も小さくなり、色S/Nを低下させることなく高感度が達成できる。
 YCbCr色差空間は、一つの輝度信号Yと二つの色信号Cb及びCrで表現される色空間である。ここで、青色信号をB、赤色信号をR、第1の輝度信号をW1、第2の輝度信号をW2とすると、Cbは(Y-B)であり、Crは(Y-R)に特定の係数を掛けたものであり、(W1+W2)を用いて直接(Y-B)及び(Y-R)を作り出すことができる。通常、ベイヤー配列における輝度信号Yは、Y=0.299×R + 0.587×G + 0.114×Bであり、60%近くが緑色信号から成ることから、緑色を輝度画素である白色画素11W1及び11W2に置き換えることにより、Y≒W1、Y≒W2、またはY≒(W1+W2)とすることでS/Nの低下を抑えて直接色差信号を作り出すことができる。
 図4は、本発明に係る画素ブロックの各画素についての、蓄積電荷と蓄積時間との関係を表すグラフである。同図に記載されたグラフの横軸は、各画素の露光時間を表し、縦軸は、各画素への蓄積電荷量を表す。露光時間をt、蓄積電荷量をQとすると、このグラフにおける傾きQ/tが、各画素の受光感度と定義される。本発明の実施の形態では、白色画素11W1の受光感度である全光感度が最も大きく、白色画素11W2の受光感度である全光感度は、白色画素11W1の全光感度よりも小さく設定されている。また、白色画素11W2の全光感度は、その上に配置される光減衰フィルタの透過率を制御することにより、赤色信号を検出する赤色画素11R及び青色画素を検出する青色画素11Bの受光感度である分光感度よりも大きくなるように設定されている。上記設定により、輝度信号が飽和しない領域では、赤色信号及び青色信号は飽和しない。
 上記設定によれば、飽和判定は白色画素11W1及び11W2の輝度信号のみで可能となり白色画素11W2が飽和しない範囲においては、赤色画素11R及び青色画素11Bが飽和することを防ぐことができることから、色信号のS/Nの低下を抑制でき、高感度で高精細な画像を得ることが可能となる。
 以下、白色画素11W1よりも低感度である白色画素11W2の導入により、ダイナミックレンジを広くすることができる原理について詳細に説明する。
 白色画素は、分光せず全波長域の光を光電変換するので高感度であるが、その反面、速い時間で飽和電荷量に達してしまう。図4のグラフでは、白色画素11W1においては、時刻t1で蓄積電荷が飽和し、白色画素11W2においては、時刻t2で蓄積電荷が飽和することを表している。このとき、例えば、時刻t1までを露光時間と設定すると、赤色画素11R及び青色画素11Bの信号レベルが低いため、S/Nの低下の原因となる。
 しかし、白色画素11W2の信号レベルは、白色画素11W1の信号レベルに比べて低いため、輝度信号Yとして、Y≒(W1+W2)とすることにより、実質上W2の飽和レベルが輝度信号Yの飽和レベルとなり、輝度信号Yが飽和するまでの露光時間を大きくすることが可能となる。Yの蓄積時間を大きくすることにより、赤色画素11R及び青色画素11Bの蓄積電荷量も多くなるので、画素ブロック全体のS/Nを向上させることが可能となる。
 信号処理装置203は、以上説明した白色画素11W1及び11W2の特性差を用いて、(W1+W2)を用いた輝度信号の算出を行う。そして、算出された輝度信号に含まれる色信号成分の比率を算出することにより、また、赤色画素11Rによる赤色信号及び青色画素11Bによる青色信号に対して白色画素11W1及び11W2から得られた信号強度を用いることにより、生成されたカラー画像のS/Nを向上させることができる。
 なお、本実施の形態において、信号処理装置203は、撮像装置200が備えているものとしているが、固体撮像装置100の内部に設置され、固体撮像装置100が画素ブロックの輝度信号の処理をしてもよい。
 白色画素11W2の全光感度は、白色画素11W1の全光感度と比較して透過率α分だけ低く設定されているため、第2の輝度信号W2をW2/αとすることで、第1の輝度信号W1と第2の輝度信号とは同一の受光感度となる。このとき、各色の白色画素に含まれる比率は、それぞれ、式1~式3のようになる。
赤色比率Rr:R/(W2/α)      (式1)
青色比率Br:B/(W2/α)      (式2)
緑色比率Gr:{(W2/α)-R-B}/(W2/α)   (式3)
 ここで、画素ブロック全体の輝度Yを(W1+W2)で構成したとすると、全体の色強度は、それぞれ、式4~式6のように表される。
赤色強度Ri:(W1+W2)×赤色比率Rr     (式4)
青色強度Bi:(W1+W2)×青色比率Br     (式5)
緑色強度Gi:(W1+W2)×緑色比率Gr     (式6)
 通常のベイヤー配列では、輝度信号YはR、G、Bの信号強度に視感度係数を掛けて算出されるため、ノイズ成分が増加する。
 一方、本発明の実施の形態に係る固体撮像装置100では、輝度信号として生データ(W1+W2)が用いられ、当該輝度信号のS/Nはベイヤー配列の輝度信号よりも大きい。これにより、S/Nの大きな輝度信号を用いて色強度を算出することから、各色強度のS/Nも向上する。しかし、緑色信号に関しては、緑色比率Grを算出する際に減算処理が入るため、ベイヤー配列に比べるとS/Nが低下する。また、色差信号はこの演算で得られた赤色強度Riと青色強度Biを用いても作り出すことができる。輝度信号においても、(W1+W2)ではなく、Y=0.299×Ri+0.587×Gi+0.114×Biとして再作成することもできる。
 上記構成によれば、白色画素11W2の飽和速度が白色画素11W1のそれに比べて遅いことから、第1の輝度信号W1と第2の輝度信号W2とが加算された信号を輝度信号として使うことで、画素ブロックの飽和速度を白色画素11W2の飽和速度に合わせることができる。よって、高照度下においても撮像でき、高感度と広ダイナミックレンジを両立する固体撮像装置及び小型で高感度な撮像装置を実現することができる。
 図5は、本発明に係る固体撮像装置の撮像領域における画素の断面概略図である。上述したように、本発明に係る画素ブロックは、白色画素11W1に対応する白色画素31、赤色画素11R及び青色画素11Bに対応する色信号検出画素32、白色画素11W2に対応する低感度白色画素33の3種類の画素から構成されている。そして、色信号検出画素32が2画素、白色画素31及び低感度白色画素33がそれぞれ1画素ずつで画素ブロックを構成している。図5では、白色画素31、色信号検出画素32及び低感度白色画素33は、便宜上直線上に配置されているが、実際には、図3に示されたように、2行2列を構成し、一方の対角位置に色信号検出画素32が配置され、他方の対角位置に白色画素31と低感度白色画素33とが配置されている。
 フォトダイオード11は、シリコンの半導体基板20の内部に、イオン注入により形成されており、入射した光信号を光電変換して電気信号として読み出す。半導体基板20の上には、トランジスタのゲート及びゲート配線22が設けられており、それらを電気的に接続するための金属配線23が層間膜24を隔てて設けられている。
 白色画素31においては、金属配線23及び層間膜24からなる配線層の上方には、層間膜25を介して誘電体膜29が配置され、その上方に平坦化膜27を隔てて設置されたマイクロレンズ28が形成されている。白色画素31は非分光画素であるため、カラーフィルタは配置されず、可視光線領域に透明な誘電体膜29が配置されている。誘電体膜29は、例えば、SiO2膜が用いられる。これは、層間膜24及び25が、主に、SiO2から構成されることから、反射や屈折を防ぐために同一材料を用いた方が望ましいためである。
 色信号検出画素32においては、配線層の上方には、層間膜25を介してカラーフィルタ26が配置され、その上方に平坦化膜27を隔てて設置されたマイクロレンズ28が形成されている。
 低感度白色画素33においては、配線層の上方には、層間膜25を介して光吸収膜30が配置され、その上方に平坦化膜27を隔てて設置されたマイクロレンズ28が形成されている。上記構成により、マイクロレンズ28で集光された光が、誘電体膜29、カラーフィルタ26または光吸収膜30を通過し、フォトダイオード11で光電変換される。低感度白色画素33は、カラーフィルタは配置されず、光吸収膜30が配置されることで光を減衰させている。
 上記光減衰フィルタを搭載した固体撮像装置によれば、被写体の輝度に合わせて撮像領域に到達する光の透過量を制御することが可能となり、高照度下での撮像が可能となる。また、これらを画素ブロック毎に設置することで低輝度と高輝度の被写体を同時に階調表現することが可能となる。
 次に、白色画素11W2の上に配置された光吸収膜30である光減衰フィルタについて説明する。本実施の形態に係る光減衰フィルタは、アモルファスシリコン薄膜からなる。
 図6は、アモルファスシリコンの光吸収率と膜厚の関係を表すグラフである。アモルファスシリコンは可視光線領域の波長域において、ブロードで高い光吸収性を有することが知られている。
 一方、ポリシリコンなどの結晶性シリコンは、400nm程度から長波長側で光吸収係数が大きく減少することが知られているため、本発明に係る光減衰フィルタには、アモルファスシリコンが最適である。成膜方法にも依存するが、アモルファスシリコンの吸収係数βは約100000~500000程度であり、非常に大きい。本実施の形態に係るアモルファスシリコンは、例えば、スパッタにより作製される。この場合の吸収係数βは、約200000である。
 図6に示されたグラフにおいて、β=200000であり膜厚が150nmという薄膜では、95%以上の光を吸収することができる。本発明に係る光減衰フィルタは、白色画素11W2の全光感度が赤色画素11R及び青色画素11Bの分光感度以上となるよう、設定されなければならない。
 図7は、本実施の形態で用いたカラーフィルタの透過スペクトルを表すグラフである。各色信号は全光量の約1/3であることから、アモルファスシリコンの光吸収率は66.7%以下であることが望ましく、β=200000の場合の膜厚は、55nm以下でなければならない。本実施の形態では、例えば、アモルファスシリコンの膜厚を25nmと設定している。このときの光吸収率は40%である。
 なお、本実施の形態では、アモルファスシリコンを用いたが、光減衰フィルタには吸収性の薄膜であり、可視光線領域でブロードな光吸収を有する材料が求められる。そこで、アモルファスゲルマニウムや炭素薄膜もバンドギャップが小さい吸収性の材料であり、光吸収膜として適用することができる。
 これにより、薄膜で反射を抑制するとともに可視光線領域の広い範囲にわたって光を減衰させるので、減算処理などの色補正により偽色信号が発生することを抑制できる。よって、高画質な画像を取得することが可能となる。
 次に、アモルファスシリコンを光吸収膜とした低感度白色画素の製造方法の一例について説明する。本製造方法は、光減衰フィルタの形成プロセスを必要とする。本実施の形態では、アモルファスシリコンを配線最上層の上部に配置したため、最上層配線以降の製造プロセスについて詳細について説明する。
 図8は、本発明の実施の形態1に係るMOS型イメージセンサの有する低感度白色画素の要部構造断面図である。また、図9は、本発明の実施の形態1に係るMOS型イメージセンサの有する低感度白色画素の工程断面図である。
 まず、図8及び図9の(a)に示されるように、半導体基板20にイオン注入によって拡散領域52が形成されており、半導体基板20上に画素部の撮像部51と周辺回路部50が形成されている。トランジスタ54は素子分離部53によって電気的に分離されている。トランジスタ54は、例えば、図2に記載された転送用トランジスタ12、リセット用トランジスタ13、増幅用トランジスタ14、選択トランジスタ15及び17のいずれかに相当する。トランジスタ54の形成後、BPSG(Boron Phosphor Silicate Glass)などの絶縁体層間膜56を成膜し、CMP(Chemical Mechanical Polishing)やエッチバックによって平坦化した後、ドライエッチングによってコンタクトホールを形成し、メタルCVD法によって金属プラグ55を形成する。金属プラグ55が露出した状態でアルミをスパッタなどで成膜し、ドライエッチングでパターニングすることで配線層57を作製する。このプロセス構成を繰り返すことで多層配線構造を作ることができる。本実施の形態に係る固体撮像装置は2層配線であるため、1層目の配線層57の上部に絶縁体層間膜58を形成して平坦化し、金属プラグを形成後、2層目の配線層59を形成する。
 次に、図9の(b)に示されるように、光減衰フィルタ形成工程に移る。絶縁体層間膜61の一部としてBPSGを成膜する。
 次に、図9の(c)に示されるように、スパッタによりアモルファスシリコンを成膜し、白色画素11W2の開口部のみを残してアモルファスシリコンをエッチングで除去することにより、アモルファスシリコン層62を形成する。
 次に、図9の(d)に示されるように、アモルファスシリコン層62の上部に、再びBPSGを成膜し、CMPを用いて平坦化することで絶縁体層間膜61を形成する。
 その後、絶縁体層間膜61の上に形成された平坦化膜上部に、マイクロレンズを形成する。このように光減衰フィルタとしてアモルファスシリコンを用いることで、低温かつ薄膜で製造が可能であることから、シリコンプロセスの適合性にも優れており、固体撮像装置を低コストで容易に作製することができる。
 なお、光減衰フィルタの設置場所は配線最上層の上部である必要はなく、本実施の形態で示した構造は一例である。つまり、光減衰フィルタは、マイクロレンズから画素までの光路内に配置すればよい。例えば、シリコン基板表面から1層目のアルミ配線までにアモルファスシリコンを成膜する場合は、当該アルミ配線までに低融点の金属が含まれていないため、CVDなどの手法でアモルファスシリコンを成膜することも可能となる。
 (実施の形態2)
 本実施の形態に係る撮像装置は、実施の形態1に係る撮像装置と比較して、信号処理装置203が、白色画素11W1の輝度信号が飽和するかどうかを判定し、白色画素11W1が検出する第1の輝度信号W1と白色画素11W2が検出する第2の輝度信号のいずれか一方を画素ブロックの輝度信号として選択する点のみが異なる。以下、実施の形態1と同じ点は説明を省略し、異なる点のみ説明する。
 固体撮像装置100の有する画素ブロックには、画素感度の異なる白色画素11W1と白色画素11W2とが含まれていることから、撮像面の照度に応じて第1の輝度信号W1及び第2の輝度信号W2のいずれか一方を輝度信号として選択することにより、広ダイナミックレンジを実現することができる。
 信号処理装置203は、画素ブロックにおける第1の輝度信号W1が所定期間に飽和するかどうかを判定する判定部と、当該判定部において、第1の輝度信号W1が所定期間に飽和すると判定された場合には、当該画素ブロックにおける第2の輝度信号W2を当該画素ブロックの輝度信号として選択する選択部とを備える。
 例えば、一つの撮像面に輝度の高い被写体と輝度の低い被写体とを撮像する場合、輝度の低い被写体の撮像には高感度である第1の輝度信号W1を輝度信号として用い、輝度の高い被写体は低感度のW2を用いることで同一画角内でのダイナミックレンジを拡大することができる。このときの信号処理フローを図10を用いて説明する。
 図10は、本発明の実施の形態2に係る撮像装置の信号処理についてのフローチャートである。
 まず、信号処理装置203は、画素ブロックごとに白色画素11W1の輝度信号測定を行う(S11)。
 次に、信号処理装置203の判定部は、白色画素11W1の画素感度から白色画素11W1が飽和するかどうかを判定する(S12)。これは、ステップS11で測定された輝度信号より、図4で示されたQ/t、つまり受光感度を算出することにより判定される。
 このとき、算出された受光感度から、必要露光時間で第1の輝度信号W1が飽和する、または、飽和レベルに近いと判定された場合には(ステップS12でYes)、信号処理装置203の選択部は、輝度信号として低感度な第2の輝度信号W2を選択する(S13)。逆に、被写体の照度が低いため輝度信号が小さく、必要露光時間で第1の輝度信号W1が飽和しない場合は(ステップS12でNo)、高感度な第1の輝度信号W1を選択する(S14)。
 その後、信号処理装置203は、固体撮像装置100に対し、必要露光時間で被写体の撮像を行わせ(S15)、画素ブロックごとに選択した白色画素11W1または11W2の信号を輝度信号として選択し、カラー画像の生成を行う。これにより、広いダイナミックレンジを実現することができる。
 上記構成によれば、白色画素11W1が検出する第1の輝度信号W1の飽和判定を、信号処理装置で行い、照度が高い場合は白色画素11W2が検出する第2の輝度信号W2を輝度信号として選択できる。よって、照度に合わせた輝度信号を選ぶことにより、広ダイナミックレンジと高感度化が達成された撮像装置を実現することが可能となる。
 なお、必要露光時間とは感度が最も低い赤色画素11Rや青色画素11BのS/Nが十分取れる時間を意味しており、撮像装置の使用者が任意で決めることも可能である。
 また、本実施の形態において、信号処理装置203は、撮像装置200が備えているものとしているが、固体撮像装置の内部に設置され、固体撮像装置が画素ブロックの輝度信号の上記処理をしてもよい。
 (実施の形態3)
 本実施の形態に係る固体撮像装置は、実施の形態1に係る固体撮像装置と比較して、画素ブロックを構成する単位画素の配置構成が異なる。以下、実施の形態1と同じ点は説明を省略し、異なる点のみ説明する。
 図11は、本発明の実施の形態3に係る固体撮像装置の撮像領域における色配列の模式図である。同図に記載された撮像領域2Bの有する画素ブロックは、ベイヤー配列における青色画素と緑色画素の1つとを、白色画素に置きかえた構成となっている。図11に示されるように、2行2列の画素ブロックに属する4画素のうち、2つの画素を、入射光を色分離せず直接検出する白色画素としている。具体的には、撮像領域2Bの有する画素ブロックは、2行2列に配置された4つの単位画素1で構成され、一方の対角位置には、赤色画素11Rと緑色画素11Gとが配置され、他方の対角位置には、白色画素11W1と白色画素11W2とが配置されている。ここで、赤色画素11Rは、第1の色信号である赤色信号を検出する第1の画素部であり、緑色画素11Gは、第2の色信号である緑色信号を検出する第2の画素部である。また、白色画素11W1は、第1の輝度信号を検出する第3の画素部であり、白色画素11W2は、第2の輝度信号を検出する第4の画素部である。このとき、白色画素11W2は、フォトダイオード11の上部に、可視光を吸収して減衰させる光減衰フィルタが設けられており、白色画素11W1よりも可視光に対して低感度化されている。
 青色画素は輝度信号の構成において最も視感度が低い色である。そのため、視感度が低い青色成分ほど色S/Nを必要としない。そこで、高い色S/Nが必要である緑色画素11Gを残し、視感度の低い青色画素を白色画素11W1または11W2に置き換えた構造においても、画質の劣化を抑制して高感度な撮像が可能となる。このとき、青色信号は白色画素から緑色及び赤色信号の差分を取るという式7の減算処理により算出される。
青色信号:B=(W2/α)―G-R      (式7)
 実施の形態1で述べたように、減算処理はノイズを大きくすることからS/Nの低下の原因となるが、視感度の低い青色に対して行うことで色再現の劣化を抑制することが可能となる。この構成により、画質の劣化が無く、高感度で広ダイナミックレンジの撮像が可能となる。
 つまり、上期構成によれば、視感度の最も小さい青色信号を検出する画素を白色画素に置き換えることで、色S/Nの低下を抑制し、高感度で高画質な画像を得ることが可能となる。
 また、上記画素ブロックの構成により、通常ではカラーフィルタによって捨てられてしまう波長領域の光が、白色画素11W1及び11W2のフォトダイオード11で光電変換されるので高感度化を実現することが可能となる。また、本発明に係る構成では、感度が異なる白色画素11W1及び11W2が設けられているので、白色画素11W1から第1の輝度信号を取得でき、白色画素11W2から第2の輝度信号を取得することができる。
 画像解像度は、輝度信号の空間周波数によって決まるため、輝度信号を得るための白色画素11W1と白色画素11W2とを対角に配置している。これにより、撮像領域2Bは、1行ずつ、かつ、1列ずつ輝度信号を検出する単位画素が配置された構成となり、解像度を低下させることなく高感度化を実現できる。
 なお、本実施の形態では、解像度を最大限にするために白色画素11W1と白色画素11W2とを対角に配置したが、低感度である白色画素11W2の全光感度を緑色画素11Gの分光感度と同等にした場合には、白色画素11W1と緑色画素11Gとを対角に配置した構成でもよい。
 (実施の形態4)
 本実施の形態に係る固体撮像装置は、実施の形態1に係る固体撮像装置と比較して、画素ブロックを構成する単位画素の配置構成が異なる。以下、実施の形態1と同じ点は説明を省略し、異なる点のみ説明する。
 図12は、本発明の実施の形態4に係る固体撮像装置の画素ブロックにおける色配列の模式図である。同図に記載された画素ブロックは、実施の形態1の図3に記載された画素ブロックにおける赤色画素11Rと青色画素11Bとを、それぞれ、シアン画素11Cy及びイエロー画素11Yeに置きかえた構成となっている。
 つまり、第1の画素部及び第2の画素部で検出する第1の色信号及び第2の色信号が、補色系の2色となっている。特に、画素感度の観点から、上記補色系の2色は、視感度の高い緑成分が含まれるシアンとイエローが望ましい。
 本発明に係る固体撮像装置では、画素ブロック内に白色画素が配置され、感度が全く異なる画素が同一ブロック内に混在することになり、色検出画素と白色画素の感度差(飽和速度差)を有してしまう。しかしながら、本実施の形態に係る画素ブロックの配列によれば、補色系は原色系に比べて検出波長領域が広域なため、色検出画素であるシアン画素11Cy及びイエロー画素11Yeの分光感度が高い。よって、色信号画素の感度と白色画素の感度がより近くなるため、画素ブロック全体の感度が最も高い構成となる。よって、高ダイナミックレンジで超高感度な撮像が可能となる。
 (実施の形態5)
 実施の形態1~実施の形態4では、ベイヤー配列に含まれる3色のうち、1色を削除して白色画素を設けていた。画素ブロックの配列を、従来のベイヤー配列⇒本発明の配列、というように模式的に表現すると、RGB⇒RB+W、RGB⇒RG+W、MgCyYe⇒CyYe+Wとなる。ここで、Mgは、マゼンダを表す。上記表現から解るように、本発明の実施の形態1~4に係る画素ブロックの配列では、色情報が一つ欠落することによる色再現性の低下は避けられない。この課題に対し、色配置の空間周波数を低下させて3色すべてを配置することで、減算処理を用いずに色再現性を確保することができる。
 図13は、本発明の実施の形態5に係る固体撮像装置の撮像領域における色配置の模式図である。同図に記載された撮像領域2Cは、2種類の2行2列の画素ブロックを交互に配置した構造となっている。例えば、第1の画素ブロックは、一方の対角位置に白色画素11W1と白色画素11W2とを有し、他方の対角位置に第1の画素部である赤色画素11Rと第2の画素部である緑色画素11Gとを有する。また、第2の画素ブロックは、一方の対角位置に白色画素11W1と白色画素11W2とを有し、他方の対角位置に第1の画素部である青色画素11Bと第2の画素部である緑色画素11Gとを有する。第1の画素ブロックと第2の画素ブロックとは、互いに隣接し、2次元状に交互に配置されている。つまり、互いに隣接する画素ブロック間では、第1の色信号が異なっている。
 なお、上記構成の変形例として、例えば、第1の画素ブロックが、他方の対角位置に第1の画素部である赤色画素11Rと第2の画素部である青色画素11Bとを有し、第2の画素ブロックが、他方の対角位置に第1の画素部である赤色画素11Rと第2の画素部である緑色画素11Gとを有してもよい。つまり、互いに隣接する画素ブロック間では、第2の色信号が異なっていてもよい。
 上記配列により、白色画素11W1及び11W2のそれぞれは、3色すべての色信号画素(赤色画素11R、緑色画素11G、青色画素11B)と接することとなる。これにより、第1の輝度信号W1及び第2の輝度信号W2の色再現は、これらの白色画素に接する色信号の比率で決定することが可能となる。よって、輝度信号を構成する色成分は、隣接するRとBと2つのGとを用いて高精度に表すことが可能となる。
 例えば、色信号の生データをそのまま用いて輝度信号W(W1またはW2)を色成分に分解するとW=R+B+2Gとなり、白色画素に加算処理で色を与えることができる。これにより、信号処理装置203は、画素ブロックのカラー画像を減算処理することなく生成できる。ここで、上記2Gの代わりに、Gの平均値を用いてもよい。または視感度を考慮してY=0.299×R+0.587×G+0.114×Bとしてもよい。
 また、本実施の形態では、色信号としてRGBの三原色を用いたが、CyMgYeの補色系であってもよい。
 図14は、本発明の実施の形態5に係る変形例を示す固体撮像装置の撮像領域における色配置の模式図である。同図に記載された撮像領域2Dは、2種類の2行2列の画素ブロックを交互に配置した構造となっている。第1の画素ブロックは、一方の対角位置に白色画素11W1と白色画素11W2とを有し、他方の対角位置に第1の画素部であるシアン画素11Cyと第2の画素部であるイエロー画素11Yeとを有する。また、第2の画素ブロックは、一方の対角位置に白色画素11W1と白色画素11W2とを有し、他方の対角位置に第1の画素部であるマゼンダ画素11Mgと第2の画素部であるイエロー画素11Yeとを有する。第1の画素ブロックと第2の画素ブロックとは、互いに隣接し、2次元状に交互に配置されている。つまり、互いに隣接する画素ブロック間では、第1の色信号が異なっている。なお、互いに隣接する画素ブロック間では、第2の色信号が異なっていてもよい。
 上記配列のように、色信号画素を補色系とした場合は、実施の形態4でも説明したように、検出波長領域が広域なためさらなる高感度が実現できる。
 以上、実施の形態1~5で説明したように、本発明の固体撮像装置及び撮像装置は、広いダイナミックレンジを有し、小型で光量調節機能を有する高機能高性能のカメラを提供することができる。
 以上、本発明の固体撮像装置及び撮像装置について、実施の形態に基づいて説明してきたが、本発明に係る固体撮像装置及び撮像装置は、上記実施の形態に限定されるものではない。実施の形態1~5における任意の構成要素を組み合わせて実現される別の実施の形態や、実施の形態1~5に対して本発明の主旨を逸脱しない範囲で当業者が思いつく各種変形を施して得られる変形例や、本発明に係る固体撮像装置または撮像装置を内蔵した各種機器も本発明に含まれる。
 なお、実施の形態1では、CMOS型の固体撮像装置を例に挙げたが、本発明は、これにとらわれることなく、CCD型の固体撮像装置でも同様の効果が得られる。
 本発明は、特にデジタルカメラに有用であり、広いダイナミックレンジ及び高画質の画像が必要な固体撮像装置及びカメラに用いるのに最適である。
 1  単位画素
 2、2A、2B、2C、2D  撮像領域
 3  水平シフトレジスタ
 4  垂直シフトレジスタ
 5  出力端子
 11  フォトダイオード
 11B、312B  青色画素
 11Cy  シアン画素
 11G、312G  緑色画素
 11Mg  マゼンダ画素
 11R、312R  赤色画素
 11W1、11W2、31  白色画素
 11Ye  イエロー画素
 12  転送用トランジスタ
 13  リセット用トランジスタ
 14  増幅用トランジスタ
 15  選択トランジスタ
 20  半導体基板
 22  ゲート及びゲート配線
 23  金属配線
 24、25  層間膜
 26  カラーフィルタ
 27  平坦化膜
 28  マイクロレンズ
 29  誘電体膜
 30  光吸収膜
 32  色信号検出画素
 33  低感度白色画素
 50  周辺回路部
 51  撮像部
 52  拡散領域
 53  素子分離部
 54  トランジスタ
 55  金属プラグ
 56、58、61  絶縁体層間膜
 57、59  配線層
 62  アモルファスシリコン層
 100、300、400  固体撮像装置
 200  撮像装置
 201  レンズ
 202  駆動回路
 203  信号処理装置
 204  外部インターフェイス部
 312  固体撮像素子
 312A  波長領域画素
 313  赤外光カットフィルタ層
 313a  開口部
 313b  非開口部
 314  色フィルタ群
 314B、314G、314R、314W  フィルタ
 420B  青色光電変換素子
 420G  緑色光電変換素子
 420LS1、420LS2  遮光光電変換素子
 420R  赤色光電変換素子
 420W  白色光電変換素子
 421  オンチップレンズ
 422  オーバーフローパス

Claims (12)

  1.  半導体基板表面に形成されたフォトダイオードを備える画素部が二次元状に配列された撮像領域を有する固体撮像装置であって、
     前記撮像領域は、2行2列の4つの前記画素部からなる画素ブロックを配列単位として構成され、
     前記画素ブロックは、
     第1の色信号を検出する第1の画素部と、
     前記第1の色信号とは異なる第2の色信号を検出する第2の画素部と、
     第1の輝度信号を検出する第3の画素部と、
     第2の輝度信号を検出する第4の画素部とで構成されており、
     前記第1の画素部及び前記第2の画素部の上部には、所望の色信号に対応する波長帯の光を選択的に透過させるカラーフィルタがそれぞれ設けられており、
     前記第4の画素部の上部には、可視光線領域の光透過率を低減させる光減衰フィルタが設けられており、前記第3の画素部と前記第4の画素部との受光感度は異なる
     固体撮像装置。
  2.  前記第4の画素部の受光感度は、前記第1の画素部及び前記第2の画素部のうち分光感度が小さい方の画素部の分光感度以上であり、
     前記光減衰フィルタは、前記受光感度が前記分光感度以上となる光透過率を有する
     請求項1に記載の固体撮像装置。
  3.  前記第3の画素部と前記第4の画素部とは、前記画素ブロック内において、互いに対角を成す位置に設けられている
     請求項1及び2に記載の固体撮像装置。
  4.  前記第1の色信号は青色の信号であり、
     前記第2の色信号は赤色の信号である
     請求項1~3のうちいずれか1項に記載の固体撮像装置。
  5.  前記第1の色信号は赤色の信号であり、
     前記第2の色信号は緑色の信号である
     請求項1~3のうちいずれか1項に記載の固体撮像装置。
  6.  前記第1の色信号はシアンの信号であり、
     前記第2の色信号はイエローの信号である
     請求項1~3のうちいずれか1項に記載の固体撮像装置。
  7.  互いに隣接する画素ブロック間では、前記第1の色信号または前記第2の色信号が異なる
     請求項1~3のうちいずれか1項に記載の固体撮像装置。
  8.  前記第1の色信号及び前記第2の色信号は、それぞれ、青色の信号、緑色の信号及び赤色の信号のいずれかである
     請求項7に記載の固体撮像装置。
  9.  前記第1の色信号及び前記第2の色信号は、それぞれ、シアンの信号、イエローの信号及びマゼンダの信号のいずれかである
     請求項7に記載の固体撮像装置。
  10.  前記光減衰フィルタは、アモルファスシリコンまたはアモルファスゲルマニウムからなる薄膜、もしくはカーボン薄膜から構成される
     請求項1~9のうちいずれか1項に記載の固体撮像装置。
  11.  請求項1~10のうちいずれか1項に記載の固体撮像装置と、
     前記画素部から出力される画素信号を処理する信号処理装置とを備え、
     前記信号処理装置は、前記画素ブロックにおける前記第1の輝度信号と前記第2の輝度信号とを加算した信号を当該画素ブロックの輝度信号とする
     撮像装置。
  12.  請求項1~10のうちいずれか1項に記載の固体撮像装置と、
     前記画素部から出力される画素信号を処理する信号処理装置とを備え、
     前記信号処理装置は、前記画素ブロックにおける前記第1の輝度信号が所定期間に飽和するかどうかを判定する判定部と、
     前記判定部において、前記第1の輝度信号が前記所定期間に飽和すると判定された場合には、当該画素ブロックにおける前記第2の輝度信号を当該画素ブロックの輝度信号として選択する選択部とを備える
     撮像装置。
PCT/JP2011/004781 2010-09-27 2011-08-29 固体撮像装置及び撮像装置 WO2012042741A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2011800355696A CN103004212A (zh) 2010-09-27 2011-08-29 固体摄像装置及摄像装置
US13/798,247 US20130193311A1 (en) 2010-09-27 2013-03-13 Solid-state imaging device and imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-215896 2010-09-27
JP2010215896A JP5442571B2 (ja) 2010-09-27 2010-09-27 固体撮像装置及び撮像装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/798,247 Continuation US20130193311A1 (en) 2010-09-27 2013-03-13 Solid-state imaging device and imaging apparatus

Publications (1)

Publication Number Publication Date
WO2012042741A1 true WO2012042741A1 (ja) 2012-04-05

Family

ID=45892237

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/004781 WO2012042741A1 (ja) 2010-09-27 2011-08-29 固体撮像装置及び撮像装置

Country Status (4)

Country Link
US (1) US20130193311A1 (ja)
JP (1) JP5442571B2 (ja)
CN (1) CN103004212A (ja)
WO (1) WO2012042741A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI608624B (zh) * 2016-09-07 2017-12-11 友達光電股份有限公司 顯示面板之薄膜電晶體及其製作方法
JP2019106574A (ja) * 2017-12-08 2019-06-27 キヤノン株式会社 撮像装置及び撮像システム

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5979961B2 (ja) * 2012-05-07 2016-08-31 キヤノン株式会社 焦点検出装置、焦点検出方法及び撮像装置
JP5702895B2 (ja) * 2012-07-06 2015-04-15 富士フイルム株式会社 カラー撮像素子および撮像装置
KR101965175B1 (ko) 2012-11-01 2019-04-03 후지필름 가부시키가이샤 감광성 조성물, 이것을 이용한 회색 경화막, 회색 화소 및 고체 촬상 소자
TWI644568B (zh) * 2013-07-23 2018-12-11 新力股份有限公司 攝像元件、攝像方法及攝像程式
CN105453268B (zh) 2013-08-07 2019-02-05 索尼公司 固态成像装置和电子设备
KR102071325B1 (ko) * 2013-09-27 2020-04-02 매그나칩 반도체 유한회사 조도와 물체의 거리를 측정하는 광 센서
DE102013223699A1 (de) * 2013-11-20 2015-05-21 Takata AG Filteranordnung und Verfahren zum Herstellen einer Filteranordnung
US20150146037A1 (en) * 2013-11-25 2015-05-28 Semiconductor Components Industries, Llc Imaging systems with broadband image pixels for generating monochrome and color images
KR102159256B1 (ko) 2013-11-25 2020-09-23 삼성전자 주식회사 픽셀 어레이 및 이를 포함하는 이미지 센서
JP6217537B2 (ja) * 2014-01-07 2017-10-25 株式会社デンソー 受光装置および光学距離測定装置
US9277195B2 (en) * 2014-04-08 2016-03-01 Taiwan Semiconductor Manufacturing Co., Ltd. Pixel array with clear and color pixels exhibiting improved blooming performance
KR102219199B1 (ko) 2014-04-29 2021-02-23 삼성전자주식회사 이미지 센서의 픽셀 어레이 및 이미지 센서
US9866764B2 (en) 2014-11-21 2018-01-09 Motorola Mobility Llc Method and apparatus for synchronizing auto exposure between chromatic pixels and panchromatic pixels in a camera system
CN107427183B (zh) * 2015-03-19 2019-04-19 奥林巴斯株式会社 内窥镜装置
JP2017038311A (ja) * 2015-08-12 2017-02-16 株式会社東芝 固体撮像装置
GB2544851B (en) * 2015-09-22 2019-04-17 Motorola Mobility Llc Method and apparatus for synchronizing auto exposure between chromatic pixels and panchromatic pixels in a camera system
EP3182453A1 (en) * 2015-12-17 2017-06-21 Autoliv Development AB Image sensor for a vision device and vision method for a motor vehicle
WO2017199557A1 (ja) * 2016-05-17 2017-11-23 富士フイルム株式会社 撮像装置、撮像方法、プログラム、及び非一時的記録媒体
JP6739542B2 (ja) 2016-12-02 2020-08-12 オリンパス株式会社 内視鏡用画像処理装置および内視鏡用画像処理方法
JP6953297B2 (ja) * 2017-12-08 2021-10-27 キヤノン株式会社 撮像装置及び撮像システム
US11172142B2 (en) * 2018-09-25 2021-11-09 Taiwan Semiconductor Manufacturing Co., Ltd. Image sensor for sensing LED light with reduced flickering
CN109065564B (zh) * 2018-09-29 2021-01-22 德淮半导体有限公司 图像传感器及其形成方法
FR3091023B1 (fr) * 2018-12-20 2021-01-08 Commissariat Energie Atomique Capteur d'images
CN109950264A (zh) * 2019-03-25 2019-06-28 德淮半导体有限公司 背照式图像传感器及其制造方法
US20220368867A1 (en) * 2019-09-26 2022-11-17 Sony Semiconductor Solutions Corporation Imaging device
CN111432099B (zh) * 2020-03-30 2021-04-30 Oppo广东移动通信有限公司 图像传感器、处理系统及方法、电子设备和存储介质
KR102345485B1 (ko) * 2020-07-02 2022-01-03 재단법인대구경북과학기술원 초분광 카메라의 동적 비닝 조절 장치 및 그 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04225560A (ja) * 1990-12-27 1992-08-14 Canon Inc カラー撮像用固体撮像素子
JPH04298175A (ja) * 1991-03-27 1992-10-21 Toshiba Corp 固体撮像装置
JP2001119705A (ja) * 1999-10-19 2001-04-27 Matsushita Electric Ind Co Ltd カラー撮像装置
WO2006134923A1 (ja) * 2005-06-14 2006-12-21 Nikon Corporation 画像処理装置、コンピュータプログラム製品および画像処理方法
JP2007281785A (ja) * 2006-04-05 2007-10-25 Toppan Printing Co Ltd 撮像素子
JP2009253439A (ja) * 2008-04-02 2009-10-29 Fujifilm Corp 撮像装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7196829B2 (en) * 2002-01-10 2007-03-27 Micron Technology Inc. Digital image system and method for combining sensing and image processing on sensor with two-color photo-detector
JP4252098B2 (ja) * 2006-09-20 2009-04-08 三洋電機株式会社 光検出装置
JP4484944B2 (ja) * 2008-04-01 2010-06-16 富士フイルム株式会社 撮像装置及び撮像装置の駆動方法
JP5526673B2 (ja) * 2009-09-16 2014-06-18 ソニー株式会社 固体撮像装置及び電子機器
US20110285895A1 (en) * 2010-05-21 2011-11-24 Chung Shan Institute Of Science And Technology Image Sensing Device and Processing System

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04225560A (ja) * 1990-12-27 1992-08-14 Canon Inc カラー撮像用固体撮像素子
JPH04298175A (ja) * 1991-03-27 1992-10-21 Toshiba Corp 固体撮像装置
JP2001119705A (ja) * 1999-10-19 2001-04-27 Matsushita Electric Ind Co Ltd カラー撮像装置
WO2006134923A1 (ja) * 2005-06-14 2006-12-21 Nikon Corporation 画像処理装置、コンピュータプログラム製品および画像処理方法
JP2007281785A (ja) * 2006-04-05 2007-10-25 Toppan Printing Co Ltd 撮像素子
JP2009253439A (ja) * 2008-04-02 2009-10-29 Fujifilm Corp 撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI608624B (zh) * 2016-09-07 2017-12-11 友達光電股份有限公司 顯示面板之薄膜電晶體及其製作方法
JP2019106574A (ja) * 2017-12-08 2019-06-27 キヤノン株式会社 撮像装置及び撮像システム

Also Published As

Publication number Publication date
CN103004212A (zh) 2013-03-27
JP5442571B2 (ja) 2014-03-12
JP2012074763A (ja) 2012-04-12
US20130193311A1 (en) 2013-08-01

Similar Documents

Publication Publication Date Title
JP5442571B2 (ja) 固体撮像装置及び撮像装置
CN110649056B (zh) 图像传感器、摄像头组件及移动终端
US8710418B2 (en) Solid-state image capture device and image capture apparatus
JP4984634B2 (ja) 物理情報取得方法および物理情報取得装置
TWI460520B (zh) 固態影像感測裝置及照相機模組
US8035708B2 (en) Solid-state imaging device with an organic photoelectric conversion film and imaging apparatus
US7773137B2 (en) Imaging apparatus, imaging element, and image processing method
JP5187433B2 (ja) 物理情報取得方法および物理情報取得装置
US8436308B2 (en) Multilayer image sensor
US7990444B2 (en) Solid-state imaging device and camera
US20190006406A1 (en) Imaging element and camera system
CN110649057B (zh) 图像传感器、摄像头组件及移动终端
JP4867448B2 (ja) 物理情報取得方法および物理情報取得装置
JP2012018951A (ja) 固体撮像素子及びその製造方法、並びに固体撮像装置及び撮像装置
JP2007242697A (ja) 撮像装置および撮像システム
US7518096B2 (en) Method of designing photoelectric conversion apparatus with carefully set antireflective film thickness
US20190123083A1 (en) Structures and methods of creating clear pixels
US20220336508A1 (en) Image sensor, camera assembly and mobile terminal
CN109922283B (zh) 摄像设备及摄像设备的控制方法
TW201415613A (zh) 固體攝像裝置、固體攝像裝置之製造方法及電子機器
US20140285691A1 (en) Solid state imaging device
JP2007066962A (ja) カラー固体撮像装置及びデジタルカメラ
US20220415949A1 (en) Solid-state imaging apparatus, method for manufacturing the same, and electronic device
JP2011243785A (ja) 固体撮像素子
US20080129856A1 (en) Image sensor color filter array and method of producing the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11828309

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11828309

Country of ref document: EP

Kind code of ref document: A1