WO2013065226A1 - 固体撮像素子、撮像装置および信号処理方法 - Google Patents

固体撮像素子、撮像装置および信号処理方法 Download PDF

Info

Publication number
WO2013065226A1
WO2013065226A1 PCT/JP2012/005810 JP2012005810W WO2013065226A1 WO 2013065226 A1 WO2013065226 A1 WO 2013065226A1 JP 2012005810 W JP2012005810 W JP 2012005810W WO 2013065226 A1 WO2013065226 A1 WO 2013065226A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
photosensitive cell
color component
incident
color
Prior art date
Application number
PCT/JP2012/005810
Other languages
English (en)
French (fr)
Inventor
平本 政夫
中村 達也
藤井 俊哉
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US13/821,954 priority Critical patent/US8860855B2/en
Priority to CN201280003715.1A priority patent/CN103222267B/zh
Priority to JP2013506032A priority patent/JP5894573B2/ja
Publication of WO2013065226A1 publication Critical patent/WO2013065226A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors

Definitions

  • This application relates to a technology for increasing the sensitivity and color of a solid-state imaging device.
  • image sensors In recent years, there has been a remarkable increase in functionality and performance of digital cameras and digital movies using solid-state image sensors such as CCDs and CMOSs (hereinafter sometimes referred to as “image sensors”). In particular, due to rapid progress in semiconductor manufacturing technology, the pixel structure in an image sensor has been miniaturized. As a result, the pixels of the image sensor and the drive circuit are highly integrated, and the performance of the image sensor is increasing. In particular, in recent years, a camera using a backside illumination type image sensor that receives light on the back surface side rather than the surface (front surface) side on which the wiring layer of the solid-state image sensor is formed has been developed, and its characteristics are attracting attention. ing. On the other hand, with the increase in the number of pixels of the image sensor, the amount of light received by one pixel is reduced, which causes a problem that the camera sensitivity is reduced.
  • The sensitivity of the camera is reduced due to the use of color filters for color separation in addition to the increase in the number of pixels.
  • a subtractive color filter using an organic pigment as a coloring matter is arranged facing each photosensitive cell of the image sensor. Since the color filter absorbs light other than the color component to be used, when such a color filter is used, the light utilization rate of the camera is lowered.
  • each color filter of R, G, B is Only the R, G, B light is transmitted and the remaining light is absorbed. Therefore, the light used in the color camera with the Bayer array is about 1/3 of the entire incident light.
  • Japanese Patent Application Laid-Open No. H10-228561 discloses a technique for increasing the amount of received light by attaching a microlens array to the light receiving portion of the image sensor in order to capture much incident light.
  • the light aperture ratio in the image sensor can be substantially improved by condensing the light sensing cell using the microlens.
  • This technique is currently used in most solid-state image sensors. If this technique is used, the substantial aperture ratio is certainly improved, but it does not solve the problem of a decrease in the light utilization rate due to the color filter.
  • Patent Document 2 discloses a technique for making maximum use of light by combining a multilayer color filter (dichroic mirror) and a microlens.
  • a multilayer color filter dichroic mirror
  • a microlens a plurality of dichroic mirrors that selectively transmit light in a specific wavelength region and reflect light in other wavelength regions without absorbing light are used.
  • FIG. 10 is a diagram schematically showing a cross section in a direction perpendicular to the imaging surface of the imaging device disclosed in Patent Document 2.
  • the imaging device includes condensing microlenses 4a and 4b, a light shielding unit 20, photosensitive cells 2a, 2b, and 2c, and dichroic mirrors 17, 18, and 19 disposed on and inside the imaging device, respectively. It has.
  • the dichroic mirrors 17, 18, and 19 are disposed so as to face the photosensitive cells 2a, 2b, and 2c, respectively.
  • the dichroic mirror 17 has characteristics of transmitting R light and reflecting G light and B light.
  • the dichroic mirror 18 has a characteristic of reflecting G light and transmitting R light and B light.
  • the dichroic mirror 19 has characteristics of reflecting B light and transmitting R light and G light.
  • the light incident on the microlens 4 a is incident on the first dichroic mirror 17 after the light flux is adjusted by the microlens 4 b.
  • the first dichroic mirror 17 transmits R light but reflects G light and B light.
  • the light transmitted through the first dichroic mirror 17 is incident on the photosensitive cell 2a.
  • the G light and B light reflected by the first dichroic mirror 17 are incident on the adjacent second dichroic mirror 18.
  • the second dichroic mirror 18 reflects G light out of incident light and transmits B light.
  • the G light reflected by the second dichroic mirror 18 enters the photosensitive cell 2b.
  • the B light transmitted through the second dichroic mirror 18 is reflected by the third dichroic mirror 19 and is incident on the photosensitive cell 2c immediately below it.
  • Patent Document 3 discloses an image sensor that can prevent light loss by using a microprism.
  • This imaging device has a structure in which different photosensitive cells receive light separated into red, green, and blue by a microprism. Such an image sensor can also prevent light loss.
  • Patent Document 2 and Patent Document 3 it is necessary to provide as many photosensitive cells as the number of dichroic mirrors to be used or the number of spectrums. For example, in order to detect light of three colors of RGB, there is a problem that the number of photosensitive cells must be increased by a factor of three compared to the number of photosensitive cells when a conventional color filter is used.
  • Patent Document 4 discloses a technique for increasing the utilization factor of light using a dichroic mirror and reflection.
  • FIG. 11 shows a part of a cross-sectional view of an image sensor using the technique.
  • dichroic mirrors 22 and 23 are disposed in a translucent resin 21.
  • the dichroic mirror 22 has characteristics of transmitting G light and reflecting R light and B light.
  • the dichroic mirror 23 has characteristics of transmitting R light and reflecting G light and B light.
  • R light and G light can all be detected by the following principle.
  • the R light is reflected by the dichroic mirror 22 and transmitted by the dichroic mirror 23.
  • the R light reflected by the dichroic mirror 22 is further reflected at the interface between the translucent resin 21 and air and enters the dichroic mirror 23.
  • the R light passes through the dichroic mirror 23, and further passes through the organic dye filter 25 and the microlens 26 having R light transmittance. In this way, although part of the light is reflected by the metal layer 27, most of the R light incident on the dichroic mirrors 22 and 23 is incident on the light sensing unit.
  • the G light when the G light is incident on the dichroic mirrors 22 and 23, the G light is transmitted through the dichroic mirror 22 and reflected by the dichroic mirror 23.
  • the G light reflected by the dichroic mirror 23 is further totally reflected at the interface between the translucent resin 21 and air, and enters the dichroic mirror 22.
  • the G light passes through the dichroic mirror 22, and further passes through the organic dye filter 24 and the micro lens 26 having G light transmittance. In this way, although part of the light is reflected by the metal layer 27, most of the G light incident on the dichroic mirrors 22 and 23 is incident on the light sensing unit without any loss.
  • the technique disclosed in Patent Document 4 can receive two colors with almost no loss, although one color of RGB light is lost. For this reason, it is not necessary to arrange the light sensing units for the three colors RGB.
  • the light utilization rate with only the organic dye filter is about 3
  • the light utilization factor when using this technique is about 2/3 of the total incident light. That is, according to this technique, the imaging sensitivity is improved about twice. However, even with this technique, one of the three colors is lost.
  • Patent Document 5 discloses a colorization technique that increases the light utilization rate without significantly increasing the number of photosensitive cells using a spectral element. According to this technique, light is incident on different photosensitive cells depending on the wavelength range by the spectral elements arranged corresponding to the photosensitive cells. Each photosensitive cell receives light on which components in different wavelength ranges are superimposed from a plurality of spectral elements. As a result, a color signal can be generated by signal calculation using a photoelectric conversion signal output from each photosensitive cell.
  • Embodiments of the present invention provide a color imaging technique that can increase the light utilization rate and have good color reproducibility without significantly increasing the number of photosensitive cells.
  • a solid-state imaging device includes a first photosensitive cell, a second photosensitive cell, a third photosensitive cell, and a fourth photosensitive cell.
  • the light received by each photosensitive cell is the cell incident light of each photosensitive cell, and the visible light included in the cell incident light includes the first color component, the second
  • the visible light of the color component which is composed of the color component and the third color component, excluding each color component is used as the complementary color light of the color component
  • the spectral element array is incident on the cell of the first photosensitive cell.
  • Light obtained by adding light of the first color component to light obtained by removing complementary color light of the first color component from light is incident on the first photosensitive cell, and cell incidence of the second photosensitive cell
  • the light obtained by adding the complementary color light of the first color component to the light obtained by removing the light of the first color component from the light is incident on the second photosensitive cell, and is incident on the cell of the third photosensitive cell.
  • the light obtained by adding the complementary color light of the third color component to the light obtained by removing the light of the third color component from the light is the third light.
  • the solid-state imaging device and the imaging apparatus by using a spectral element that causes incident light to be incident on different photosensitive cells according to color components, it is possible to use light without significantly increasing the number of photosensitive cells.
  • the rate is high, and color imaging with higher color reproducibility than before is possible.
  • FIG. 1 It is a perspective view which shows typically the arrangement
  • FIG. 1 is a top view which shows an example of the unit block of the solid-state image sensor by this invention,
  • (b) is AA 'sectional view,
  • (c) is BB' sectional view.
  • (A) is a figure which shows an example of the pixel array of the image pick-up element in Embodiment 1 of this invention
  • (b) is a figure which shows the other example of the pixel array of the image pick-up element in Embodiment 1 of this invention.
  • (A) is a top view which shows the basic structure of the image pick-up element in Embodiment 1 of this invention
  • (b) is AA 'sectional view
  • (c) is BB' sectional view. It is a flowchart which shows the procedure of the color information generation process in Embodiment 1 of this invention.
  • (A) is a top view which shows the basic structure of the other image pick-up element in Embodiment 1 of this invention, (b) is AA 'sectional view, (c) is BB' sectional view.
  • (A) is a top view which shows the basic structure of the image pick-up element in Embodiment 2 of this invention, (b) is CC 'line sectional drawing, (c) is DD' line sectional drawing. It is sectional drawing of the conventional image pick-up element using a micro lens and a multilayer film filter (dichroic mirror). It is sectional drawing of the conventional image pick-up element using a multilayer filter (dichroic mirror) and reflection.
  • a solid-state imaging device includes a plurality of unit blocks each including a first photosensitive cell, a second photosensitive cell, a third photosensitive cell, and a fourth photosensitive cell. Is arranged in a two-dimensional manner, and a spectral element array that is arranged to face the photosensitive cell array and includes a plurality of spectral elements.
  • the light received by each photosensitive cell is the cell incident light of each photosensitive cell, and the visible light included in the cell incident light includes the first color component, the second
  • the visible light of the color component which is composed of the color component and the third color component, excluding each color component is used as the complementary color light of the color component
  • the spectral element array is incident on the cell of the first photosensitive cell.
  • Light obtained by adding light of the first color component to light obtained by removing complementary color light of the first color component from light is incident on the first photosensitive cell, and cell incidence of the second photosensitive cell
  • the light obtained by adding the complementary color light of the first color component to the light obtained by removing the light of the first color component from the light is incident on the second photosensitive cell, and is incident on the cell of the third photosensitive cell.
  • the light obtained by adding the complementary color light of the third color component to the light obtained by removing the light of the third color component from the light is the third light.
  • the spectral element array includes a first spectral element arranged to face the first photosensitive cell in each unit block, Opposing to the second light-sensing element disposed opposite to the second light-sensitive cell, facing the third light-sensing element disposed opposite to the third light-sensitive cell, and facing the fourth light-sensitive cell.
  • a fourth spectral element arranged in the same manner. The first spectral element causes at least a part of the complementary color light of the first color component to be incident on the second photosensitive cell, and the light of the first color component enters the first photosensitive cell.
  • the second spectral element causes at least part of the light of the first color component to enter the first photosensitive cell, and the complementary color light of the first color component is input to the second light.
  • the third spectral element causes at least a part of the light of the third color component to enter the fourth photosensitive cell, and the complementary color light of the third color component is incident on the fourth light sensing cell.
  • the fourth light-splitting element causes at least a part of the complementary color light of the third color component to be incident on the third light-sensitive cell, so that the light of the third color component is incident on the third light-sensitive cell. Is incident on the fourth photosensitive cell.
  • the first spectral element causes half of the complementary color light of the first color component to enter the second photosensitive cell, and The other half of the complementary color light of the first color component is incident on one photosensitive cell included in the adjacent first adjacent unit block, and the second spectral element is configured to emit light of the first color component.
  • Half of the light is incident on the first photosensitive cell, and the remaining half of the light of the first color component is incident on one photosensitive cell included in an adjacent second adjacent unit block, and the third
  • the spectral element causes the half of the light of the third color component to enter the fourth photosensitive cell, and the other half of the light of the third color component is adjacent to the first and second adjacent units.
  • the light is incident on one photosensitive cell included in one of the blocks, and the fourth spectral element is Half of the complementary color light of the color component is incident on the third photosensitive cell, and the other half of the complementary color light of the third color component is included in the other of the adjacent first and second adjacent unit blocks. Is incident on one photosensitive cell.
  • the first spectral element causes almost all of the complementary color light of the first color component to be incident on the second photosensitive cell
  • the second spectral element causes almost all of the light of the first color component to be incident on the first photosensitive cell
  • the third spectral element is substantially all of the light of the third color component. Is incident on the fourth photosensitive cell, and the fourth light-splitting element causes substantially all of the complementary color light of the third color component to be incident on the third photosensitive cell.
  • the first color component is one of red and blue
  • the third color component is The other color component of red and blue.
  • the first spectral element, the second spectral element, the third spectral element, and the fourth has a translucent member, the shape of the translucent member, and the refraction of the translucent member and another translucent member having a refractive index lower than that of the translucent member. Spectroscopy using the difference in rate.
  • the first spectral element, the second spectral element, the third spectral element, and the fourth Each of the light-splitting elements includes a dichroic mirror, and the light is dispersed by the dichroic mirror.
  • An imaging device includes a solid-state imaging device according to any one of items (1) to (7), an optical system that forms an image on the solid-state imaging device, and the solid-state imaging device.
  • a signal processing unit that generates color information by calculation using the third photoelectric conversion signal output from the third photosensitive cell and the fourth photoelectric conversion signal output from the fourth photosensitive cell; Is provided.
  • the signal processing unit calculates a difference between the first photoelectric conversion signal and the second photoelectric conversion signal, and the third photoelectric conversion.
  • a first color signal and a second color signal are generated by calculating a difference between the signal and the fourth photoelectric conversion signal.
  • the signal processing unit adds the first and second photoelectric conversion signals, and the third and fourth photoelectric conversion signals. And a luminance signal is generated by an operation including any one of addition of the first to fourth photoelectric conversion signals.
  • a signal processing method is a method for processing a signal output from a solid-state imaging device according to any one of items (1) to (7), wherein the first light sensing is performed.
  • the method includes a step A for obtaining a fourth photoelectric conversion signal output from the fourth photosensitive cell, and a step B for generating color information using the first to fourth photoelectric conversion signals.
  • the step B generates a first difference signal indicating a difference between the first photoelectric conversion signal and the second photoelectric conversion signal. And generating a second difference signal indicating a difference between the third photoelectric conversion signal and the fourth photoelectric conversion signal.
  • the step B includes the addition of the first and second photoelectric conversion signals, the addition of the third and fourth photoelectric conversion signals, and the first A step of generating a luminance signal by an operation including any one of addition of the first to fourth photoelectric conversion signals, and the cell incident light using the luminance signal, the first difference signal, and the second difference signal. Generating red, green, and blue color signals included in.
  • a solid-state imaging device includes a photosensitive cell array including a plurality of photosensitive cells (pixels) arranged two-dimensionally on an imaging surface, and a spectral element array including a plurality of spectral elements.
  • FIG. 1 is a perspective view schematically showing a part of the photosensitive cell array 200 and the spectral element array 100 formed on the imaging surface of the solid-state imaging device 10.
  • the spectral element array 100 is disposed on the light incident side facing the photosensitive cell array 200.
  • the arrangement, shape, size, and the like of the photosensitive cells 2 are not limited to the example shown in this figure, and may be any known arrangement, shape, and size.
  • the spectral element array 100 is represented by a quadrangular prism for convenience, the spectral element array 100 does not actually have such a shape and can have various structures.
  • each light sensing cell 2 When each light sensing cell 2 receives light, it outputs an electrical signal (hereinafter referred to as a “photoelectric conversion signal” or a “pixel signal”) corresponding to the intensity of the light received by photoelectric conversion (incident light amount). To do.
  • each photosensitive cell 2 receives light in a plurality of wavelength regions (color components) whose traveling directions are changed by the spectral element array 100. As a result, the light received by each photosensitive cell 2 has a spectral distribution (intensity distribution for each wavelength range) different from the light received when it is assumed that there is no spectral element.
  • FIG. 2A is a plan view showing an example of a basic pixel configuration (unit block) 40 of the photosensitive cell array 200.
  • the photosensitive cell array 200 has a structure in which a plurality of unit blocks 40 each including four photosensitive cells 2a, 2b, 2c, and 2d are two-dimensionally arranged on the imaging surface. In the example shown in the figure, four photosensitive cells are arranged in two rows and two columns in one unit block.
  • FIG. 2 (b) and 2 (c) are diagrams schematically showing an AA ′ line cross-section and a BB ′ line cross-section in FIG. 2 (a), respectively.
  • 2B and 2C the traveling direction changes depending on the color component when light incident on the image sensor 10 passes through the spectral element array 100, and as a result, the spectral distribution of the light received by each photosensitive cell is shown. It shows that they are different from each other.
  • the spectral element array 1 does not exist, the light received by each photosensitive cell is referred to as “cell incident light” of the photosensitive cell.
  • the photosensitive cells 2a to 2d included in one unit block are close to each other, it can be considered that the light intensity and the spectral distribution included in the cell incident light of the photosensitive cells are almost the same.
  • the intensity of the visible light component of the cell incident light of these photosensitive cells is represented by the symbol “W”.
  • the visible light color component excluding each color component is referred to as “complementary color” of the color component
  • the complementary color light is referred to as “complementary color light”.
  • the complementary color of the first color component C1 is represented by C2 + C3
  • the complementary color of the second color component C2 is represented by C1 + C3
  • the complementary color of the third color component C3 is represented by C1 + C2.
  • the complementary color of the color component Cn (Cn is any one of C1, C2, and C3) and its intensity may be represented by Cn ⁇ .
  • the combination of the first to third color components is typically a combination of three primary colors of red (R), green (G), and blue (B), but divides visible light into three wavelength ranges. Any other combination of color components may be used.
  • the spectral element array 100 is obtained by removing the first color component light (intensity C1) from the light obtained by removing the complementary color light (intensity C1 ⁇ ) of the first color component from the cell incident light (intensity W) of the first photosensitive cell 2a. ) Is added to the first photosensitive cell 2a. Further, the complementary color light (intensity C1 ⁇ ) of the first color component is added to the light obtained by removing the light (intensity C1) of the first color component from the cell incident light (intensity W) of the second photosensitive cell 2b. Light is incident on the second photosensitive cell 2b.
  • complementary color light (intensity C3 ⁇ ) of the third color component was added to light obtained by removing light of the third color component (intensity C3) from the cell incident light (intensity W) of the third photosensitive cell 2c. Light is incident on the third photosensitive cell 2c. Further, the light of the third color component (intensity C3) is added to the light obtained by removing the complementary color light (intensity C3 ⁇ ) of the third color component from the cell incident light (intensity W) of the fourth photosensitive cell 2d. Light is incident on the fourth photosensitive cell 2d.
  • the photosensitive cells 2a to 2d are respectively W-C1 ⁇ + C1, W-C1 + C1 ⁇ , W-C3 + C3 ⁇ , and W-C3 ⁇ + C3, as shown in FIGS. Receives light of the indicated intensity. Each photosensitive cell outputs a photoelectric conversion signal (pixel signal) corresponding to these intensities.
  • S2a to S2d can be expressed by the following formulas 1 to 4, respectively.
  • D1 and D2 are expressed by the following formulas 5 and 6, respectively.
  • the RGB signal can be obtained by matrix operation. That is, the color signal can be calculated by signal calculation based on the four photoelectric conversion signals S2a to S2d output from the photosensitive cells 2a to 2d.
  • color information can be obtained by signal calculation using a spectral element without using a color filter that absorbs part of light. Therefore, loss of light can be prevented and imaging sensitivity can be increased.
  • the spectral element array 100 is depicted as a continuous element covering a plurality of photosensitive cells, but the spectral element array 4 is spatially separated. It may be an aggregate of a plurality of spectral elements. As such a spectral element, for example, a high refractive index transparent member, a dichroic mirror, a microprism, etc., which will be described later, can be used.
  • the spectral element array 100 in the present embodiment may be configured in any way as long as the photoelectric conversion signals represented by the above formulas 1 to 4 can be obtained.
  • the spectral element array 100 may perform spectroscopy using a hologram element or the like. .
  • FIG. 3 is a block diagram illustrating the overall configuration of the imaging apparatus according to the first embodiment.
  • the imaging apparatus according to the present embodiment is a digital electronic camera, and includes an imaging unit 300 and a signal processing unit 400 that generates a signal (image signal) indicating an image based on a signal transmitted from the imaging unit 300. ing. Note that the imaging device may generate only a still image or may have a function of generating a moving image.
  • the imaging unit 300 is an optical lens 12 for imaging a subject, an optical filter 11, and a solid-state imaging device 10 (converting optical information imaged through the optical lens 12 and the optical filter 11 into an electrical signal by photoelectric conversion ( Image sensor).
  • the imaging unit 300 further generates a basic signal for driving the imaging device 10, receives an output signal from the imaging device 10, and sends it to the signal processing unit 400, and signal generation / reception.
  • an element driving unit 14 that drives the image sensor 10 based on the basic signal generated by the unit 13.
  • the optical lens 12 is a known lens and may be a lens unit having a plurality of lenses.
  • the optical filter 11 is a combination of a quartz low-pass filter for reducing moire patterns generated due to pixel arrangement and an infrared cut filter for removing infrared rays.
  • the image sensor 10 is typically a CMOS or a CCD, and is manufactured by a known semiconductor manufacturing technique.
  • the signal generation / reception unit 13 and the element driving unit 14 are configured by an LSI such as a CCD driver, for example.
  • the signal processing unit 400 generates an image signal by processing a signal transmitted from the imaging unit 300, a memory 30 for storing various data generated in the process of generating the image signal, and the generated signal And an image signal output unit 16 for sending the image signal to the outside.
  • the image signal generation unit 15 can be suitably realized by a combination of hardware such as a known digital signal processor (DSP) and software that executes image processing including image signal generation processing.
  • the memory 30 is configured by a DRAM or the like. The memory 30 records the signal transmitted from the imaging unit 300 and temporarily records the image data generated by the image signal generation unit 15 and the compressed image data. These image data are sent to a recording medium (not shown) or a display unit via the image signal output unit 16.
  • the imaging apparatus may include known components such as an electronic shutter, a viewfinder, a power source (battery), and a flashlight, but a description thereof is omitted because it is not particularly necessary for understanding the present embodiment.
  • the above configuration is merely an example, and in the present embodiment, publicly known elements can be appropriately combined and used for the constituent elements other than the image sensor 10 and the image signal generation unit 15.
  • FIG. 4 is a diagram schematically illustrating a state in which light transmitted through the lens 12 is incident on the image sensor 10 during exposure.
  • the lens 12 can be generally composed of a plurality of lenses arranged in the optical axis direction, but is drawn as a single lens for simplicity.
  • a photosensitive cell array including a plurality of photosensitive cells (pixels) arranged two-dimensionally is disposed on the imaging surface 10a of the imaging element 10. Each photosensitive cell is typically a photodiode, and outputs a photoelectric conversion signal (pixel signal) corresponding to the amount of incident light by photoelectric conversion.
  • Light (visible light) transmitted through the lens 12 and the optical filter 11 is incident on the imaging surface 10a.
  • the intensity of light incident on the imaging surface 10a and the distribution (spectral distribution) of the amount of incident light for each wavelength range differ depending on the incident position.
  • FIGS. 5A and 5B are plan views showing an example of a pixel array in the present embodiment.
  • the photosensitive cell array 200 includes a plurality of photosensitive cells arranged in a square lattice pattern on the imaging surface 10a as shown in FIG.
  • the photosensitive cell array 200 includes a plurality of unit blocks 40, and each unit block 40 includes four photosensitive cells 2a, 2b, 2c, and 2d.
  • the arrangement of the photosensitive cells is not such a square lattice arrangement, and may be, for example, an oblique arrangement shown in FIG. 4B or another arrangement.
  • the four photosensitive cells 2a to 2d included in each unit block are close to each other as shown in FIGS. 5 (a) and 5 (b). It is possible to obtain color information by appropriately configuring the spectral element array.
  • Each unit block may include five or more photosensitive cells.
  • a spectral element array including a plurality of spectral elements is disposed on the light incident side facing the photosensitive cell array 200.
  • one spectral element is provided for each of the four photosensitive cells included in each unit block.
  • the spectroscopic element in the present embodiment is an optical element that directs incident light in different directions according to the wavelength range by using diffraction of light generated at the boundary between two types of translucent members having different refractive indexes.
  • This type of spectroscopic element consists of a high refractive index transparent member (core part) formed of a material having a relatively high refractive index and a low contact with each side surface of the core part formed of a material having a relatively low refractive index. And a refractive index transparent member (cladding portion). Due to the difference in refractive index between the core part and the clad part, a phase difference occurs between the light transmitted through the core part and diffraction occurs.
  • a high refractive index transparent member may be referred to as a “spectral element” because spectroscopy is possible due to a difference in refractive index between the core portion and the cladding portion. Details of such a diffractive spectral element are disclosed in, for example, Japanese Patent No. 4264465.
  • the spectral element array having the spectral elements as described above can be manufactured by performing thin film deposition and patterning by a known semiconductor manufacturing technique.
  • the material (refractive index), shape, size, arrangement pattern, and the like of the spectral elements it becomes possible to separate and integrate light in a desired wavelength range into individual photosensitive cells.
  • a signal corresponding to a necessary color component can be calculated from a set of photoelectric conversion signals output from each photosensitive cell.
  • FIG. 6A is a plan view showing the basic structure of the image sensor 10.
  • the spectroscopic elements 1a, 1b, 1c, and 1d are disposed to face the four photosensitive cells 2a, 2b, 2c, and 2d, respectively.
  • a plurality of patterns having such a basic structure are repeatedly formed on the imaging surface 10a.
  • the imaging device 10 includes a semiconductor substrate 7 made of a material such as silicon, photosensitive cells 2a to 2d arranged inside the semiconductor substrate 7, and a surface side of the semiconductor substrate 7 (light is incident thereon).
  • microlenses 4a for efficiently condensing light to each photosensitive cell are arranged corresponding to the individual photosensitive cells with a transparent layer 6a interposed therebetween. Even if the microlens 4a is not arranged, it is possible to obtain the effect of the present embodiment.
  • the imaging element 10 shown in FIGS. 6A to 6C can be manufactured by a known semiconductor manufacturing technique.
  • the imaging element 10 shown in FIGS. 6A to 6C has a surface irradiation type structure in which light enters each photosensitive cell from the wiring layer 5 side.
  • the imaging device 10 of the present embodiment is not limited to such a structure, and may have a back-illuminated structure that receives light from the opposite side of the wiring layer 5.
  • the spectral elements 1a and 1b have a rectangular cross section that is long in the light transmitting direction, and spectrally separate by the difference in refractive index between itself and the transparent layer 6a.
  • the spectral element 1a makes red (R) light incident on the opposing photosensitive cell 2a, and halves cyan (Cy) light into the photosensitive cell 2b and photosensitive cells (not shown) included in adjacent unit blocks. Make it incident.
  • cyan (Cy) light is light composed of green (G) light and blue (B) light.
  • the spectroscopic element 1b causes Cy light to enter the opposing photosensitive cell 2b, and causes R light to be incident in half on the photosensitive cell 2a and on photosensitive cells (not shown) included in other adjacent unit blocks.
  • the length and thickness of the spectral elements 1a and 1b are designed so that the spectral elements 1a and 1b have the spectral characteristics described above.
  • Cy light is not necessarily light which makes the cyan color which is a mixed color of green and blue visually recognized. For example, when the cell incident light does not include B light at all, the Cy light is light that makes green visible as in the G light.
  • the photosensitive cell 2a receives R light from the spectral element 1a, and also receives R light by half from the spectral element 1b and the spectral elements included in the adjacent unit block.
  • the photosensitive cell 2b receives Cy light from the spectral element 1b, and also receives Cy light by half from the spectral element 1a and spectral elements (not shown) included in adjacent unit blocks.
  • the spectroscopic elements 1c and 1d also have a rectangular cross section that is long in the direction in which light is transmitted, and spectrally separate by the difference in refractive index between itself and the transparent layer 6a.
  • the light-splitting element 1c makes yellow light (Ye) incident on the opposing photosensitive cell 2c, and divides blue (B) light by half into the photosensitive cell 2d and the photosensitive cell (not shown) included in the adjacent unit block. Make it incident.
  • yellow light (Ye) is light composed of red (R) light and green (G) light.
  • the spectroscopic element 1d causes blue (B) light to enter the opposing photosensitive cell 2d, and yellow (Ye) is applied to the photosensitive cell 2c and the photosensitive cells (not shown) included in other adjacent unit blocks.
  • Light is incident half by one.
  • the length and thickness of the spectral elements 1c and 1d are designed so that the spectral elements 1c and 1d have the spectral characteristics described above.
  • Ye light is not necessarily light which visually recognizes yellow which is a mixed color of red and green. For example, when the cell incident light does not include G light at all, Ye light is light that causes red to be visually recognized, like R light.
  • the photosensitive cells 2a to 2d output photoelectric conversion signals S2a to S2d represented by the following equations 12 to 15, respectively.
  • signals corresponding to the intensities of red light, green light, and blue light are respectively represented by Rs, Gs, and Bs.
  • a signal Cs corresponding to the intensity of cyan light is Gs + Bs
  • a signal Ys corresponding to the intensity of yellow light is Rs + Gs
  • a signal Ws corresponding to the intensity of white light is Rs + Gs + Bs.
  • Equations 12 to 15 correspond to those obtained by substituting C1s for Rs, C1 ⁇ s for Cs, C3s for Bs, and C3 ⁇ s for Ys in Equations 1 to 4, respectively. That is, in the present embodiment, the first color component is R light, the second color component is G light, and the third color component is B light.
  • the image signal generation unit 15 (FIG. 3) generates color information by a calculation using the photoelectric conversion signals represented by equations 12 to 15.
  • color information generation processing by the image signal generation unit 15 will be described with reference to FIG.
  • FIG. 7 is a flowchart showing the procedure of color information generation processing in the present embodiment.
  • an RGB color signal is obtained from the two color difference signals and one luminance signal by matrix calculation. Specifically, 4Rs is generated by adding 1/2 of the luminance signal to the color difference signal (4Rs-2Ws), and 4Bs is generated by adding 1/2 of the luminance signal to the color difference signal (4Bs-2Ws). 4Gs is obtained by subtracting 4Rs and 4Bs from.
  • the image signal generation unit 15 executes the above signal calculation for each unit block 40 of the photosensitive cell array 2 to thereby generate a signal (referred to as a “color image signal”) indicating an image of each color component of R, G, and B. Generate.
  • the generated color image signal is output to a recording medium (not shown) or a display unit by the image signal output unit 16.
  • a color image signal can be obtained by the addition / subtraction process using the photoelectric conversion signals S2a to S2d.
  • the imaging device 10 in the present embodiment since an optical element that absorbs light is not used, light loss can be significantly reduced as compared with the conventional technology using a color filter or the like.
  • the spectral element array having a basic configuration of 2 rows and 2 columns is arranged facing the photosensitive cell array.
  • a spectral element 1a that divides light into red light and non-red light is arranged.
  • a spectral element 1b for separating light into cyan light and non-cyan light is arranged.
  • a spectral element 1c that divides light into yellow light and non-yellow light is arranged.
  • a spectral element 1d that divides light into blue light and non-blue light is arranged.
  • the four photoelectric conversion signals obtained are: It is always a combination of four signals represented by equations 12-15. That is, by performing the above signal calculation while shifting the pixel block to be calculated one row and one column at a time, it is possible to obtain information on each RGB color component by the number of pixels. This means that the resolution of the imaging device can be increased to the number of pixels. Therefore, the imaging apparatus of the present embodiment can generate a high-resolution color image in addition to higher sensitivity than the conventional imaging apparatus.
  • the image signal generation unit 15 does not necessarily generate all the image signals of the three color components. It may be configured to generate only one or two color image signals depending on the application. Further, signal amplification, synthesis, and correction may be performed as necessary.
  • each spectral element has the above-described spectral performance strictly, but their spectral performance may be slightly shifted. That is, the photoelectric conversion signal actually output from each photosensitive cell may be slightly deviated from the photoelectric conversion signals shown in equations 12-15. Even when the spectral performance of each spectral element deviates from the ideal performance, good color information can be obtained by correcting the signal according to the degree of deviation.
  • the signal calculation performed by the image signal generation unit 15 in the present embodiment can be executed not by the imaging apparatus itself but by another device.
  • the color information can also be generated by causing an external device that has received an input of the photoelectric conversion signal output from the image sensor 10 to execute a program that defines the signal calculation processing in the present embodiment.
  • the basic structure of the image sensor 10 is not limited to the configuration shown in FIG.
  • the effect of this embodiment is not changed even if the spectral element 1a and the spectral element 1b are interchanged or the spectral element 1c and the spectral element 1d are interchanged.
  • the arrangement of the first row and the arrangement of the second row shown in FIG. 6A may be interchanged, and the spectral elements 1a and 1b and the spectral elements 1c and 1d are arranged in the column direction instead of the row direction. Even if it is arranged like this, its effectiveness does not change.
  • Any configuration may be used as long as it is configured as described above.
  • the spectral element in the present embodiment emits light of a desired color component to each photosensitive cell. Any type of incident light can be used.
  • a microprism or a dichroic mirror may be used as the spectral element. It is also possible to use different types of spectral elements in combination.
  • FIG. 8 shows a configuration example of an image sensor that partially uses light transmission and reflection by a dichroic mirror.
  • FIG. 8A is a plan view showing a basic pixel configuration in this example.
  • FIGS. 8B and 8C are views showing the AA ′ line cross section and the BB ′ line cross section in FIG. 8A, respectively.
  • spectral elements 1e and 1f including dichroic mirrors are arranged instead of the spectral elements 1a and 1b shown in FIG.
  • the spectral elements 1c and 1d have the same characteristics as the spectral elements 1c and 1d shown in FIG.
  • the imaging element 10 shown in FIG. 8 has a back-illuminated structure in which light enters from the opposite side of the wiring layer 5, but this is not particularly important, and has a front-illuminated structure. It may be.
  • the image pickup device 10 includes a semiconductor substrate 7 made of a material such as silicon, photosensitive cells 2a to 2d arranged in the semiconductor substrate 7, and A transparent layer 6b formed on the back side (light incident side), and spectral elements 1e and 1f and spectral elements 1c and 1d arranged inside the transparent layer 6b are provided.
  • a wiring layer 5 is formed on the surface side of the semiconductor substrate 7 (the side opposite to the light incident side).
  • a fixed base 9 that supports the semiconductor substrate 7, the wiring layer 5, and the like is disposed on the surface side. The fixed substrate 9 is bonded to the semiconductor substrate 7 through the transparent layer 6b.
  • the transparent layer 6b is formed of a translucent member having a higher refractive index than air and a lower refractive index than the spectral elements 1c and 1d.
  • the spectroscopic element 1e includes a combination of two dichroic mirrors that reflect Cy light and transmit light other than Cy light.
  • the spectral element 1f includes a combination of two dichroic mirrors that reflect R light and transmit light other than R light.
  • the two dichroic mirrors included in each spectral element are arranged so as to be symmetrically inclined with respect to the normal line of the imaging surface. The inclination angles of these dichroic mirrors are set so that the reflected light is totally reflected at the interface with the air layer outside the image sensor 10 and enters two pixels adjacent to the opposing pixel.
  • the R light When light enters the spectral element 1f, the R light is reflected and the Cy light is transmitted. Half of the reflected R light is totally reflected at the interface between the transparent layer 6b and air and enters the photosensitive cell 2a. The remaining half of the reflected R light is totally reflected at the interface between the transparent layer 6b and air, and enters the photosensitive cell included in another adjacent unit block. The Cy light transmitted through the spectral element 1f enters the photosensitive cell 2a.
  • the spectroscopic element 1 c causes Ye light to be incident on the photosensitive cell 2 c and B light is incident on the photosensitive cell included in the unit block adjacent to the photosensitive cell 2 d.
  • the B light is incident on the photosensitive cell 2d
  • the Ye light is incident on the photosensitive cell included in the unit block adjacent to the photosensitive cell 2c.
  • the sizes and shapes of the spectral elements 1c and 1d are designed in consideration of refraction at the interface between the transparent layer 6b and the semiconductor substrate 7.
  • each of the photosensitive cells 2a to 2d receives the same light as when the configuration shown in FIG. 6 is adopted. Therefore, the photoelectric conversion signal output from each of the photosensitive cells 2a to 2d is not different from the photoelectric conversion signal in the configuration of FIG. 6, and the above signal calculation can be applied as it is. Thus, even if the configuration shown in FIG. 8 is adopted, the same effect as that obtained when the configuration shown in FIG. 6 is adopted can be obtained.
  • the imaging apparatus according to the present embodiment is different from the imaging apparatus according to the first embodiment only in the structure of the imaging element 10, and the other components are the same. The following description will be focused on the differences from the imaging apparatus of the first embodiment, and the description of overlapping points will be omitted.
  • the image sensor 10 in the present embodiment is not a spectral element using diffraction, but includes a dichroic mirror that separates light into primary and complementary colors.
  • each spectral element in the present embodiment does not allow light to be incident on the photosensitive cell in the adjacent unit block, but allows light to be incident only on the photosensitive cell in each unit block.
  • the basic structure of the image sensor 10 in the present embodiment will be described.
  • FIG. 9 is a diagram showing a basic structure of the image sensor 10 in the present embodiment.
  • the image sensor 10 in the present embodiment is a back-illuminated image sensor. Also in this embodiment, it is not important whether the type of the image sensor 10 is a backside illumination type or a front side illumination type, and the image sensor 10 may be a front side illumination type.
  • FIG. 9A is a plan view of the light receiving surface side of the image sensor 10. The arrangement of the photosensitive cells of the imaging device 10 in the present embodiment is the same as that in the first embodiment, and one unit block has four photosensitive cells 2a to 2d.
  • Dichroic mirrors 3a, 3b, 3c, and 3d are arranged to be inclined with respect to the imaging surface so as to face the photosensitive cells 2a, 2b, and 2c.
  • the inclination angle of the dichroic mirror is set so that the reflected light is totally reflected at the interface with the air layer outside the image sensor 10 and enters the adjacent pixel of the counter pixel.
  • FIGS. 9B and 9C are diagrams respectively showing a CC ′ line cross section and a DD ′ line cross section in FIG. 9A.
  • the image pickup device 10 includes a semiconductor substrate 7 made of a material such as silicon, photosensitive cells 2a to 2d disposed in the semiconductor substrate 7, and a back surface side of the semiconductor substrate 7 (a light incident side). ) And a dichroic mirror 3a, 3b, 3c, 3d disposed inside the transparent layer 6b.
  • a wiring layer 5 is formed on the surface side of the semiconductor substrate 7 (the side opposite to the light incident side).
  • a fixed base 9 that supports the semiconductor substrate 7, the wiring layer 5, and the like is disposed on the surface side. The fixed substrate 9 is bonded to the semiconductor substrate 7 through the transparent layer 6b.
  • the dichroic mirror 3a has a characteristic of transmitting R light and reflecting Cy light. Further, the dichroic mirror 3b has a characteristic of transmitting Cy light and reflecting R light. As a result, the R light transmitted through the dichroic mirror 3a enters the photosensitive cell 2a. The Cy light reflected by the dichroic mirror 3a is totally reflected at the interface between the transparent layer 6b and air and enters the photosensitive cell 2b. The Cy light transmitted through the dichroic mirror 3b enters the photosensitive cell 2b. The R light reflected by the dichroic mirror 3b is totally reflected at the interface between the transparent layer 6b and air and enters the photosensitive cell 2a.
  • the dichroic mirror 3c has a characteristic of transmitting Ye light and reflecting B light. Further, the dichroic mirror 3d has a characteristic of transmitting B light and reflecting Ye light. As a result, the Ye light transmitted through the dichroic mirror 3c enters the photosensitive cell 2c. The B light reflected by the dichroic mirror 3c is totally reflected at the interface between the transparent layer 6b and air and enters the photosensitive cell 2d. The B light transmitted through the dichroic mirror 3d enters the photosensitive cell 2d. The Ye light reflected by the dichroic mirror 3d is totally reflected at the interface between the transparent layer 6b and air and enters the photosensitive cell 2c.
  • each of the photosensitive cells 2a to 2d receives light of the same color component as when the configuration in the first embodiment is adopted. That is, the photosensitive cell 2a receives the R light transmitted through the dichroic mirror 3a and the R light reflected by the dichroic mirror 3b.
  • the photosensitive cell 2b receives Cy light transmitted through the dichroic mirror 3b and Cy light reflected by the dichroic mirror 3a.
  • the photosensitive cell 2c receives Ye light transmitted through the dichroic mirror 3c and Ye light reflected by the dichroic mirror 3d.
  • the photosensitive cell 2d receives the B light transmitted through the dichroic mirror 3d and the B light reflected by the dichroic mirror 3c.
  • the photoelectric conversion signals S2a to S2d output from the photosensitive cells 2a to 2d can be expressed by equations 12 to 15 as in the case of adopting the configuration in the first embodiment. Therefore, color information can be obtained by the same processing as that in the first embodiment.
  • a color image signal can be obtained by signal calculation processing using the photoelectric conversion signals S2a to S2d, as in the imaging device of Embodiment 1.
  • the imaging device 10 according to the present embodiment also does not use an optical element that absorbs light, so that the loss of light can be significantly reduced as compared with the conventional technique using a color filter or the like.
  • three color signals are obtained by calculation using four photoelectric conversion signals, there is an effect that the amount of color information obtained with respect to the number of pixels is larger than in the case of a conventional image sensor.
  • the dichroic mirror 3a that divides light into cyan light and non-cyan light is arranged in the first row and the first column.
  • a dichroic mirror 3b that divides light into red light and non-red light is arranged in the first row and the second column.
  • a dichroic mirror 3c that divides light into blue light and non-blue light is arranged in the second row and the first column.
  • a dichroic mirror 3d that divides light into yellow light and non-yellow light is arranged in the second row and the second column.
  • the four photoelectric conversion signals obtained are always obtained even if the method of selecting unit blocks in the photosensitive cell array 200 is changed one row or one column at a time.
  • This is a combination of four signals represented by equations 12-15. That is, by performing the above signal calculation while shifting the pixel block to be calculated one row and one column at a time, it is possible to obtain information on each RGB color component by the number of pixels. Therefore, the imaging apparatus of the present embodiment can generate a high-resolution color image in addition to higher sensitivity than the conventional imaging apparatus.
  • the basic structure of the image sensor 10 is not limited to the configuration shown in FIG.
  • the dichroic mirror 3a and the dichroic mirror 3b are interchanged and the dichroic mirror 3c and the dichroic mirror 3d are interchanged, the effect of this embodiment is not changed.
  • the arrangement of the first row and the arrangement of the second row shown in FIG. 9A may be interchanged, and the dichroic mirrors 3a and 3b are arranged so as to be aligned in the column direction instead of the row direction. There is no change in its effectiveness.
  • a dichroic mirror is used as the spectral element, but the spectral element may be any element as long as it separates into primary color light and its complementary color light.
  • the spectroscopic element a microprism or an optical element using diffraction used in the first embodiment may be used. It is also possible to use different types of spectral elements in combination.
  • the solid-state imaging device, the imaging apparatus, and the program according to the embodiment of the present invention are effective for all cameras using the solid-state imaging device.
  • it can be used for consumer cameras such as digital still cameras and digital video cameras, and industrial solid-state surveillance cameras.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Color Television Image Signal Generators (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

 固体撮像素子10は、複数の光感知セルを含む光感知セルアレイと、複数の分光要素を含む分光要素アレイとを備える。光感知セルアレイは、複数の単位ブロック40から構成され、各単位ブロック40は、4つの光感知セル2a、2b、2c、2dを有する。分光要素アレイ100は、入射光(W)から第1の色成分の補色光(C1^)を除いた光に第1の色成分の光(C1)を加えた光を第1の光感知セル2aに入射させ、入射光(W)から第1の色成分の光(C1)を除いた光に第1の色成分の補色光(C1^)を加えた光を第2の光感知セル2bに入射させ、入射光(W)から第3の色成分の光(C3)を除いた光に第3の色成分の補色光(C3^)を加えた光を第3の光感知セル2cに入射させ、入射光(W)から第3の色成分の補色光(C3^)を除いた光に第3の色成分の光(C3)を加えた光を第4の光感知セル2dに入射させる。

Description

固体撮像素子、撮像装置および信号処理方法
 本願は、固体撮像装置の高感度化およびカラー化の技術に関する。
 近年、CCDやCMOS等の固体撮像素子(以下、「撮像素子」と称する場合がある。)を用いたデジタルカメラやデジタルムービーの高機能化、高性能化には目を見張るものがある。特に半導体製造技術の急速な進歩により、撮像素子における画素構造の微細化が進んでいる。その結果、撮像素子の画素および駆動回路の高集積化が図られ、撮像素子の高性能化が進んでいる。特に近年では、固体撮像素子の配線層が形成された面(表面)側ではなく裏面側で受光する裏面照射型(backside illumination)の撮像素子を用いたカメラも開発され、その特性等が注目されている。その一方で撮像素子の多画素化に伴い、1画素の受ける光量が低下するため、カメラ感度が低下するという問題が起きている。
 カメラの感度低下は、多画素化以外にも、色分離用の色フィルタが用いられることにも原因がある。通常のカラーカメラでは、撮像素子の各光感知セルに対向して有機顔料を色素とする減色型の色フィルタが配置される。色フィルタは、利用する色成分以外の光を吸収するため、このような色フィルタを用いた場合、カメラの光利用率は低下する。例えば、赤(R)1画素、緑(G)2画素、青(B)1画素を基本構成とするベイヤー型の色フィルタ配列をもつカラーカメラでは、R、G、Bの各色フィルタは、それぞれR、G、B光のみを透過させ、残りの光を吸収する。したがって、ベイヤー配列によるカラーカメラにおいて利用される光は、入射光全体の約1/3である。
 上記の感度低下の問題に対して、入射光を多く取り込むために、撮像素子の受光部にマイクロレンズアレイを取り付けることによって受光量を増やす技術が特許文献1に開示されている。この技術によれば、マイクロレンズを用いて光感知セルに集光することにより、撮像素子における光開口率を実質的に向上させることができる。この技術は現在殆どの固体撮像素子に用いられている。この技術を用いれば、確かに実質的な開口率は向上するが、色フィルタによる光利用率低下の問題を解決するものではない。
 光利用率低下と感度低下の問題を同時に解決する技術として、多層膜の色フィルタ(ダイクロイックミラー)とマイクロレンズとを組み合わせて、光を最大限利用する技術が特許文献2に開示されている。この技術では、光を吸収せず特定波長域の光を選択的に透過させ、他の波長域の光を反射する複数のダイクロイックミラーが用いられる。これにより、光を損失することなく、個々の光感知部に必要な波長域の光のみを入射させることができる。
 図10は、特許文献2に開示された撮像素子の撮像面に垂直な方向の断面を模式的に示す図である。この撮像素子は、撮像素子の表面および内部にそれぞれ配置された集光用のマイクロレンズ4a、4bと、遮光部20と、光感知セル2a、2b、2cと、ダイクロイックミラー17、18、19とを備えている。ダイクロイックミラー17、18、19は、光感知セル2a、2b、2cにそれぞれ対向して配置されている。ダイクロイックミラー17は、R光を透過させ、G光およびB光を反射する特性を有している。ダイクロイックミラー18は、G光を反射し、R光およびB光を透過させる特性を有している。ダイクロイックミラー19は、B光を反射し、R光およびG光を透過させる特性を有している。
 マイクロレンズ4aに入射した光は、マイクロレンズ4bによって光束を調整された後、第1のダイクロイックミラー17に入射する。第1のダイクロイックミラー17は、R光を透過させるが、G光およびB光を反射する。第1のダイクロイックミラー17を透過した光は、光感知セル2aに入射する。第1のダイクロイックミラー17で反射されたG光およびB光は、隣接する第2のダイクロイックミラー18に入射する。第2のダイクロイックミラー18は、入射した光のうちG光を反射し、B光を透過させる。第2のダイクロイックミラー18で反射されたG光は、光感知セル2bに入射する。第2のダイクロイックミラー18を透過したB光は、第3のダイクロイックミラー19で反射され、その直下の光感知セル2cに入射する。このように、特許文献2に開示された撮像素子によれば、集光マイクロレンズ4aに入射した可視光は、色フィルタによって吸収されず、そのRGBの各成分が3つの光感知セルによって無駄なく検出される。
 上記の従来技術のほか、マイクロプリズムを用いることによって光の損失を防ぐことができる撮像素子が特許文献3に開示されている。この撮像素子は、マイクロプリズムによって赤、緑、青に分離された光をそれぞれ異なる光感知セルが受ける構造を有している。このような撮像素子によっても光の損失を防ぐことができる。
 しかしながら、特許文献2および特許文献3に開示された技術では、利用するダイクロイックミラーの数だけ、または分光する数だけ光感知セルを設ける必要がある。例えばRGB3色の光を検出するには、光感知セルの数を、従来の色フィルタを用いた場合の光感知セルの数と比較して3倍に増やさなければならないという課題がある。
 以上の技術に対し、光の損失は一部発生するが、ダイクロイックミラーと反射とを用いて光の利用率を高める技術が特許文献4に示されている。図11は当該技術を用いた撮像素子の断面図の一部を示したものである。図示されるように、透光性の樹脂21内にダイクロイックミラー22、23が配置される。ダイクロイックミラー22はG光を透過させ、R光およびB光を反射する特性を有する。また、ダイクロイックミラー23はR光を透過させ、G光およびB光を反射する特性を有する。
 このような構成により、B光は光感知部で受光できないが、R光、G光は以下の原理で全て検出できる。まずR光がダイクロイックミラー22、23に入射すると、ダイクロイックミラー22では反射され、ダイクロイックミラー23では透過する。ダイクロイックミラー22で反射されたR光は、さらに透光性の樹脂21と空気との界面でも反射され、ダイクロイックミラー23に入射する。R光は、ダイクロイックミラー23を透過し、さらにR光透過性を有する有機色素フィルタ25およびマイクロレンズ26も透過する。このようにして、一部が金属層27で反射するものの、ダイクロイックミラー22、23に入射するR光の殆どが光感知部に入射する。一方、G光がダイクロイックミラー22、23に入射すると、ダイクロイックミラー22では透過し、ダイクロイックミラー23では反射される。ダイクロイックミラー23で反射されたG光は、さらに透光性の樹脂21と空気との界面で全反射し、ダイクロイックミラー22に入射する。G光は、ダイクロイックミラー22を透過し、さらにG光透過性を有する有機色素フィルタ24およびマイクロレンズ26も透過する。このようにして、一部が金属層27で反射するものの、ダイクロイックミラー22、23に入射するG光の殆どが損失なく光感知部に入射する。
 上記の原理により、特許文献4に示された技術では、RGB光のうち1色は損失するものの2色は殆ど損失なく受光できる。このため、RGB3色分の光感知部を配置する必要はない。ここで、ダイクロイックミラーを有さず有機色素フィルタのみによってカラー化を行う場合と比較すると、有機色素フィルタのみによる場合の光利用率が約1/3であるのに対して、特許文献4に開示された技術を用いた場合の光利用率は全入射光の約2/3となる。すなわち、この技術によれば撮像感度が約2倍に向上する。しかしながら、この技術によっても、3色のうちの1色は損失することになる。
 一方、分光要素を用いて大幅に光感知セルを増やすことなく光利用率を高めるカラー化技術が特許文献5に開示されている。この技術によれば、光感知セルに対応して配置された分光要素によって光が波長域に応じて異なる光感知セルに入射する。個々の光感知セルは、複数の分光要素から異なる波長域の成分が重畳された光を受ける。その結果、各光感知セルから出力される光電変換信号を用いた信号演算によって色信号を生成することができる。
特開昭59-90467号公報 特開2000-151933号公報 特開2001-309395号公報 特開2003-78917号公報 国際公開第2009/153937号
 従来技術では、光吸収タイプの色フィルタを用いれば、大幅に光感知セルを増やさずに済むが、光利用率が低くなるという問題点がある。また、特許文献2~4に開示された技術のように、ダイクロイックミラーやマイクロプリズムを用いれば、光利用率を高くすることができるが、光感知セルを大幅に増やさなければならないという課題がある。
 一方、特許文献5に開示された技術によれば、確かに光利用率の高いカラー画像が理論上得られるが、理想的な分光特性を持つ分光要素を製造することが難しい。分光要素の材料特性や製造精度が低いと、各光感知セルから出力される光電変換信号も理想的な信号にはならず、カラー画像の色再現性が低下するという課題がある。
 本発明の実施形態は、光感知セルを大幅に増やすことなく、光利用率を高くすることができ、かつ色再現性の良好なカラー撮像技術を提供する。
 上記の課題を解決するため、本発明の一態様による固体撮像素子は、各々が第1の光感知セル、第2の光感知セル、第3の光感知セル、および第4の光感知セルを含む複数の単位ブロックが2次元状に配列された光感知セルアレイと、前記光感知セルアレイに対向して配置され、複数の分光要素を含む分光要素アレイとを備えている。前記分光要素アレイが存在しないと仮定した場合に各光感知セルが受ける光を各光感知セルのセル入射光とし、前記セル入射光に含まれる可視光が、第1の色成分、第2の色成分、および第3の色成分から構成され、各色成分を除く色成分の可視光を、当該色成分の補色光とするとき、前記分光要素アレイは、前記第1の光感知セルのセル入射光から前記第1の色成分の補色光を除いた光に前記第1の色成分の光を加えた光を前記第1の光感知セルに入射させ、前記第2の光感知セルのセル入射光から前記第1の色成分の光を除いた光に前記第1の色成分の補色光を加えた光を前記第2の光感知セルに入射させ、前記第3の光感知セルのセル入射光から前記第3の色成分の光を除いた光に前記第3の色成分の補色光を加えた光を前記第3の光感知セルに入射させ、前記第4の光感知セルのセル入射光から前記第3の色成分の補色光を除いた光に前記第3の色成分の光を加えた光を前記第4の光感知セルに入射させる。
 上述の一般的かつ特定の態様は、システム、方法、およびコンピュータプログラムを用いて実装され、または、システム、方法およびコンピュータプログラムの組み合わせを用いて実現され得る。
 本発明の一態様による固体撮像素子および撮像装置によれば、入射光を色成分に応じて異なる光感知セルに入射させる分光要素を用いることにより、光感知セルを大幅に増やすことなく、光利用率が高く、従来よりも色再現性の高いカラー撮像が可能となる。
本発明による固体撮像素子における光感知セル200および分光要素100との配置関係を模式的に示す斜視図である。 (a)は本発明による固体撮像素子の単位ブロックの一例を示す平面図であり、(b)はAA´線断面図であり、(c)はBB´線断面図である。 本発明の実施形態1の撮像装置の概略構成を示すブロック図である。 本発明の実施形態1におけるレンズと撮像素子を示す図である。 (a)は本発明の実施形態1における撮像素子の画素配列の一例を示す図であり、(b)は本発明の実施形態1における撮像素子の画素配列の他の例を示す図である。 (a)は本発明の実施形態1における撮像素子の基本構造を示す平面図であり、(b)はAA´線断面図であり、(c)はBB´線断面図である。 本発明の実施形態1における色情報生成処理の手順を示すフロー図である。 (a)は本発明の実施形態1における他の撮像素子の基本構造を示す平面図であり、(b)はAA´線断面図であり、(c)はBB´線断面図である。 (a)は本発明の実施形態2における撮像素子の基本構造を示す平面図であり、(b)はCC´線断面図であり、(c)はDD´線断面図である。 マイクロレンズと多層膜フィルタ(ダイクロイックミラー)とを用いた従来の撮像素子の断面図である。 多層膜フィルタ(ダイクロイックミラー)と反射とを用いた従来の撮像素子の断面図である。
 本発明の例示的な実施形態の概要は以下のとおりである。
 (1)本発明の一態様による固体撮像素子は、各々が第1の光感知セル、第2の光感知セル、第3の光感知セル、および第4の光感知セルを含む複数の単位ブロックが2次元状に配列された光感知セルアレイと、前記光感知セルアレイに対向して配置され、複数の分光要素を含む分光要素アレイと、を備える。前記分光要素アレイが存在しないと仮定した場合に各光感知セルが受ける光を各光感知セルのセル入射光とし、前記セル入射光に含まれる可視光が、第1の色成分、第2の色成分、および第3の色成分から構成され、各色成分を除く色成分の可視光を、当該色成分の補色光とするとき、前記分光要素アレイは、前記第1の光感知セルのセル入射光から前記第1の色成分の補色光を除いた光に前記第1の色成分の光を加えた光を前記第1の光感知セルに入射させ、前記第2の光感知セルのセル入射光から前記第1の色成分の光を除いた光に前記第1の色成分の補色光を加えた光を前記第2の光感知セルに入射させ、前記第3の光感知セルのセル入射光から前記第3の色成分の光を除いた光に前記第3の色成分の補色光を加えた光を前記第3の光感知セルに入射させ、前記第4の光感知セルのセル入射光から前記第3の色成分の補色光を除いた光に前記第3の色成分の光を加えた光を前記第4の光感知セルに入射させる。
 (2)項目(1)に記載の固体撮像素子のある態様において、前記分光要素アレイは、各単位ブロックにおいて、前記第1の光感知セルに対向して配置された第1の分光要素、前記第2の光感知セルに対向して配置された第2の分光要素、前記第3の光感知セルに対向して配置された第3の分光要素、および前記第4の光感知セルに対向して配置された第4の分光要素を含む。前記第1の分光要素は、前記第1の色成分の補色光の少なくとも一部を前記第2の光感知セルに入射させ、前記第1の色成分の光を前記第1の光感知セルに入射させ、前記第2の分光要素は、前記第1の色成分の光の少なくとも一部を前記第1の光感知セルに入射させ、前記第1の色成分の補色光を前記第2の光感知セルに入射させ、前記第3の分光要素は、前記第3の色成分の光の少なくとも一部を前記第4の光感知セルに入射させ、前記第3の色成分の補色光を前記第3の光感知セルに入射させ、前記第4の分光要素は、前記第3の色成分の補色光の少なくとも一部を前記第3の光感知セルに入射させ、前記第3の色成分の光を前記第4の光感知セルに入射させる。
 (3)項目(2)に記載の固体撮像素子のある態様において、前記第1の分光要素は、前記第1の色成分の補色光の半分を前記第2の光感知セルに入射させ、前記第1の色成分の補色光の残りの半分を隣接する第1の隣接単位ブロックに含まれる1つの光感知セルに入射させ、前記第2の分光要素は、前記第1の色成分の光の半分を前記第1の光感知セルに入射させ、前記第1の色成分の光の残りの半分を隣接する第2の隣接単位ブロックに含まれる1つの光感知セルに入射させ、前記第3の分光要素は、前記第3の色成分の光の半分を前記第4の光感知セルに入射させ、前記第3の色成分の光の残りの半分を隣接する前記第1および第2の隣接単位ブロックの一方に含まれる1つの光感知セルに入射させ、前記第4の分光要素は、前記第3の色成分の補色光の半分を前記第3の光感知セルに入射させ、前記第3の色成分の補色光の残りの半分を隣接する前記第1および第2の隣接単位ブロックの他方に含まれる1つの光感知セルに入射させる。
 (4)項目(2)に記載の固体撮像素子のある態様において、前記第1の分光要素は、前記第1の色成分の補色光のほぼ全てを前記第2の光感知セルに入射させ、前記第2の分光要素は、前記第1の色成分の光のほぼ全てを前記第1の光感知セルに入射させ、前記第3の分光要素は、前記第3の色成分の光のほぼ全てを前記第4の光感知セルに入射させ、前記第4の分光要素は、前記第3の色成分の補色光のほぼ全てを前記第3の光感知セルに入射させる。
 (5)項目(1)から(4)のいずれかに記載の固体撮像素子のある態様において、前記第1の色成分は赤および青の一方の色成分であり、前記第3の色成分は赤および青の他方の色成分である。
 (6)項目(1)から(5)のいずれかに記載の固体撮像素子のある態様において、前記第1の分光要素、前記第2の分光要素、前記第3の分光要素、および前記第4の分光要素の各々は、透光性部材を有し、前記透光性部材の形状、および前記透光性部材と前記透光性部材よりも屈折率の低い他の透光性部材との屈折率の差を利用して分光する。
 (7)項目(1)から(5)のいずれかに記載の固体撮像素子のある態様において、前記第1の分光要素、前記第2の分光要素、前記第3の分光要素、および前記第4の分光要素の各々は、ダイクロイックミラーを含み、前記ダイクロイックミラーによって分光する。
 (8)本発明の一態様による撮像装置は、項目(1)から(7)のいずれかに記載の固体撮像素子と、前記固体撮像素子に像を形成する光学系と、前記固体撮像素子から出力される信号を処理する信号処理部であって、前記第1の光感知セルから出力される第1の光電変換信号、前記第2の光感知セルから出力される第2の光電変換信号、および前記第3の光感知セルから出力される第3の光電変換信号、前記第4の光感知セルから出力される第4の光電変換信号を用いた演算によって色情報を生成する信号処理部とを備える。
 (9)項目(8)に記載の撮像装置のある態様において、前記信号処理部は、前記第1の光電変換信号と前記第2の光電変換信号との差分演算と、前記第3の光電変換信号と前記第4の光電変換信号との差分演算とにより、第1の色信号および第2の色信号を生成する。
 (10)項目(8)または(9)に記載の撮像装置のある態様において、前記信号処理部は、前記第1および第2の光電変換信号の加算、前記第3および第4の光電変換信号の加算、および前記第1から第4の光電変換信号の加算のいずれかを含む演算により、輝度信号を生成する。
 (11)本発明の一態様による信号処理方法は、項目(1)から(7)のいずれかに記載の固体撮像素子から出力される信号を処理する方法であって、前記第1の光感知セルから出力される第1の光電変換信号、前記第2の光感知セルから出力される第2の光電変換信号、前記第3の光感知セルから出力される第3の光電変換信号、および前記第4の光感知セルから出力される第4の光電変換信号を取得するステップAと、前記第1から第4の光電変換信号を用いて色情報を生成するステップBとを含む。
 (12)項目(11)に記載の信号処理方法のある態様において、前記ステップBは、前記第1の光電変換信号と前記第2の光電変換信号との差分を示す第1の差分信号を生成するステップと、前記第3の光電変換信号と前記第4の光電変換信号との差分を示す第2の差分信号を生成するステップとを含む。
 (13)項目(12)に記載の方法のある態様において、前記ステップBは、前記第1および第2の光電変換信号の加算、前記第3および第4の光電変換信号の加算、および前記第1から第4の光電変換信号の加算のいずれかを含む演算によって輝度信号を生成するステップと、前記輝度信号、前記第1の差分信号、および前記第2の差分信号を用いて前記セル入射光に含まれる赤、緑、および青の色信号を生成するステップとをさらに含む。
 以下、具体的な実施形態を説明する前に、まず図1、2を参照しながら、本開示における実施形態の基本原理を説明する。なお、以下の説明において、波長域または色成分の異なる光を空間的に分離することを「分光」と称することがある。
 本発明の一態様による固体撮像素子は、撮像面に2次元状に配列された複数の光感知セル(画素)を含む光感知セルアレイと、複数の分光要素を含む分光要素アレイとを備えている。図1は、固体撮像素子10の撮像面に形成された光感知セルアレイ200および分光要素アレイ100の一部を模式的に示す斜視図である。分光要素アレイ100は、光感知セルアレイ200に対向して光が入射する側に配置されている。なお、光感知セル2の配列、形状、サイズなどはこの図の例に限られず、公知のどのような配列、形状、サイズであってもよい。また、分光要素アレイ100は、便宜上、四角柱で表されているが、実際はこのような形状を有しているわけではなく、様々な構造をとり得る。
 各光感知セル2は、光を受けると光電変換によって受けた光の強度(入射光量)に応じた電気信号(以下、「光電変換信号」または「画素信号」と呼ぶこととする。)を出力する。本実施形態では、各光感知セル2は、分光要素アレイ100によって進行方向が変化した複数の波長域(色成分)の光を受ける。その結果、各光感知セル2が受ける光は、分光要素が存在しないと仮定した場合に受ける光とは異なる分光分布(波長域ごとの強度分布)を有する。
 以下、図2を参照しながら、撮像素子10の基本構造を説明する。
 図2(a)は、光感知セルアレイ200の基本画素構成(単位ブロック)40の一例を示す平面図である。光感知セルアレイ200は、各々が4つの光感知セル2a、2b、2c、2dを含む複数の単位ブロック40が撮像面上に2次元状に配列された構造を有している。図示される例では、1つの単位ブロック内に4つの光感知セルが2行2列に配置されている。
 図2(b)、(c)は、それぞれ図2(a)におけるAA´線断面、BB´線断面を模式的に示す図である。図2(b)、(c)は、撮像素子10に入射した光が分光要素アレイ100を透過する際に色成分によって進行方向が変化し、結果として各光感知セルが受ける光の分光分布が互いに異なっていることを示している。ここで、分光要素アレイ1が存在しないと仮定した場合に各光感知セルが受ける光をその光感知セルの「セル入射光」と呼ぶこととする。1つの単位ブロックに含まれる光感知セル2a~2dが近接している場合、それらの光感知セルのセル入射光に含まれる光の強度および分光分布はほぼ同一であると考えることができる。それらの光感知セルのセル入射光の可視光成分の強度を記号「W」で表すこととする。本明細書では、セル入射光に含まれる可視光成分を、大別して第1の色成分、第2の色成分、第3の色成分に分類する。第1~第3の色成分の強度をそれぞれC1、C2、C3と表すと、W=C1+C2+C3となる。
 以下の説明では、各色成分の強度だけでなく、色成分自体をC1、C2、C3で表すことがある。また、各色成分を除く可視光の色成分をその色成分の「補色」と呼び、補色の光を「補色光」と呼ぶ。すると、第1の色成分C1の補色はC2+C3、第2の色成分C2の補色はC1+C3、第3の色成分C3の補色はC1+C2で表される。以下では、便宜上、色成分Cn(CnはC1、C2、C3のいずれか)の補色およびその強度をCn^で表す場合がある。第1~第3の色成分の組み合わせは、典型的には赤(R)、緑(G)、青(B)の3原色の組み合わせであるが、可視光を3つの波長域に分けるものであれば他の色成分の組み合わせであってもよい。
 以下、本実施形態における分光要素アレイ100の働きを説明する。分光要素アレイ100は、第1の光感知セル2aのセル入射光(強度W)から第1の色成分の補色光(強度C1^)を除いた光に第1の色成分の光(強度C1)を加えた光を第1の光感知セル2aに入射させる。また、第2の光感知セル2bのセル入射光(強度W)から第1の色成分の光(強度C1)を除いた光に第1の色成分の補色光(強度C1^)を加えた光を第2の光感知セル2bに入射させる。さらに、第3の光感知セル2cのセル入射光(強度W)から第3の色成分の光(強度C3)を除いた光に第3の色成分の補色光(強度C3^)を加えた光を第3の光感知セル2cに入射させる。また、第4の光感知セル2dのセル入射光(強度W)から第3の色成分の補色光(強度C3^)を除いた光に第3の色成分の光(強度C3)を加えた光を第4の光感知セル2dに入射させる。
 以上の構成により、光感知セル2a~2dは、図2(b)、(c)に示すように、それぞれW-C1^+C1、W-C1+C1^、W-C3+C3^、W-C3^+C3で表される強度の光を受ける。各光感知セルは、これらの強度に応じた光電変換信号(画素信号)を出力する。ここで、光感知セル2a~2dが出力する光電変換信号をそれぞれS2a~S2dとし、強度Wに対応する信号をWs、強度C1に対応する信号をC1s、強度C2に対応する信号をC2s、強度C3に対応する信号をC3s、さらに強度C1^に対応する信号をC1^s(=C2s+C3s)、強度C2^に対応する信号をC2^s(=C1s+C3s)、強度C3^に対応する信号をC3^s(=C1s+C2s)とし、Ws=C1s+C2s+C3sとする。すると、S2a~S2dは、それぞれ以下の式1~4で表すことができる。
 (式1) S2a=Ws-C1^s+C1s=2C1s
 (式2) S2b=Ws-C1s+C1^s=2C1^s
 (式3) S2c=Ws-C3s+C3^s=2C3^s
 (式4) S2d=Ws-C3^s+C3s=2C3s
 信号S2a、S2bの差分をD1とし、信号S2c、S2dの差分をD2とすると、D1、D2は、それぞれ以下の式5、6で表される。
 (式5) D1=S2a-S2b=2C1s-2C1^s
 (式6) D2=S2d-S2c=2C3s-2C3^s
 さらに、C1^s=Ws-C1s、C3^s=Ws-C3sにより、それぞれ以下の式7、8が得られる。
 (式7) D1=4C1s-2Ws
 (式8) D2=4C3s-2Ws
すなわち、(4C1s-2Ws)および(4C3s-2Ws)の色差信号が得られる。
 一方、S2aとS2bとの加算、S2cとS2dとの加算、およびS2a~S2dの加算のいずれかの演算により、以下の式9~11に示すように、セル入射光の強度Wの2倍または4倍に相当する信号が得られる。また、これらの信号は、入射光の全てを損失なく光電変換されたものであるから、これらを輝度信号として利用すれば、画像の感度としては理想的である。
 (式9)  S2a+S2b=2Ws
 (式10) S2c+S2d=2Ws
 (式11) S2a+S2b+S2c+S2d=4Ws
 式9~11のいずれかの演算によって求められる輝度信号と、式7、8によって求められる2つの色差信号が得られれば、行列演算によりRGB信号を求めることができる。すなわち、光感知セル2a~2dから出力される4つの光電変換信号S2a~S2dに基づく信号演算によってカラー信号を算出できる。
 本実施形態の撮像素子10によれば、光の一部を吸収する色フィルタを用いることなく、分光要素を用いて信号演算によってカラー情報を得ることができる。そのため、光の損失を防ぐことができ、撮像感度を高めることが可能となる。
 なお、図1および図2(b)、(c)では、分光要素アレイ100は複数の光感知セルを覆う連続的な要素として描かれているが、分光要素アレイ4は、空間的に分離した複数の分光要素の集合体であってもよい。このような分光要素として、例えば後述する高屈折率透明部材、ダイクロイックミラー、マイクロプリズムなどが用いられ得る。本実施形態における分光要素アレイ100は、上記の式1~4で表される光電変換信号が得られればどのように構成されていてもよく、例えばホログラム素子などを用いて分光を行ってもよい。
 以下、図3から図8を参照しながらより具体的な実施形態を説明する。以下の説明において、共通する要素には同一の符号を付している。
 (実施形態1)
 図3は、第1の実施形態による撮像装置の全体構成を示すブロック図である。本実施形態の撮像装置は、デジタル式の電子カメラであり、撮像部300と、撮像部300から送出される信号に基づいて画像を示す信号(画像信号)を生成する信号処理部400とを備えている。なお、撮像装置は静止画のみを生成してもよいし、動画を生成する機能を備えていてもよい。
 撮像部300は、被写体を結像するための光学レンズ12と、光学フィルタ11と、光学レンズ12および光学フィルタ11を通して結像した光情報を、光電変換によって電気信号に変換する固体撮像素子10(イメージセンサ)とを備えている。撮像部300はさらに、撮像素子10を駆動するための基本信号を発生するとともに撮像素子10からの出力信号を受信して信号処理部400に送出する信号発生/受信部13と、信号発生/受信部13によって発生された基本信号に基づいて撮像素子10を駆動する素子駆動部14とを備えている。光学レンズ12は、公知のレンズであり、複数のレンズを有するレンズユニットであり得る。光学フィルタ11は、画素配列が原因で発生するモアレパターンを低減するための水晶ローパスフィルタに、赤外線を除去するための赤外カットフィルタを合体させたものである。撮像素子10は、典型的にはCMOSまたはCCDであり、公知の半導体製造技術によって製造される。信号発生/受信部13および素子駆動部14は、例えばCCDドライバなどのLSIから構成されている。
 信号処理部400は、撮像部300から送出される信号を処理して画像信号を生成する画像信号生成部15と、画像信号の生成過程で発生する各種のデータを格納するメモリ30と、生成した画像信号を外部に送出する画像信号出力部16とを備えている。画像信号生成部15は、公知のデジタル信号処理プロセッサ(DSP)などのハードウェアと、画像信号生成処理を含む画像処理を実行するソフトウェアとの組合せによって好適に実現され得る。メモリ30は、DRAMなどによって構成される。メモリ30は、撮像部300から送出された信号を記録するとともに、画像信号生成部15によって生成された画像データや、圧縮された画像データを一時的に記録する。これらの画像データは、画像信号出力部16を介して不図示の記録媒体や表示部などに送出される。
 なお、本実施形態の撮像装置は、電子シャッタ、ビューファインダ、電源(電池)、フラッシュライトなどの公知の構成要素を備え得るが、それらの説明は本実施形態の理解に特に必要でないため省略する。また、以上の構成はあくまでも一例であり、本実施形態において、撮像素子10および画像信号生成部15を除く構成要素には、公知の要素を適切に組み合わせて用いることができる。
 以下、本実施形態における固体撮像素子10を説明する。
 図4は、露光中にレンズ12を透過した光が撮像素子10に入射する様子を模式的に示す図である。図4では、簡単のためレンズ12および撮像素子10以外の構成要素の記載は省略されている。また、レンズ12は、一般には光軸方向に並んだ複数のレンズによって構成され得るが、簡単のため、単一のレンズとして描かれている。撮像素子10の撮像面10aには、2次元状に配列された複数の光感知セル(画素)を含む光感知セルアレイが配置されている。各光感知セルは、典型的にはフォトダイオードであり、光電変換によって入射光量に応じた光電変換信号(画素信号)を出力する。撮像面10aにはレンズ12および光学フィルタ11を透過した光(可視光)が入射する。一般に撮像面10aに入射する光の強度および波長域ごとの入射光量の分布(分光分布)は、入射位置に応じて異なる。
 図5(a)、(b)は、本実施形態における画素配列の例を示す平面図である。光感知セルアレイ200は、例えば、図5(a)に示すように撮像面10a上に正方格子状に配列された複数の光感知セルを有する。光感知セルアレイ200は、複数の単位ブロック40から構成され、各単位ブロック40は4つの光感知セル2a、2b、2c、2dを含んでいる。なお、光感知セルの配列は、このような正方格子状の配列ではなく、例えば、図4(b)に示す斜交型の配列であってもよいし、他の配列であってもよい。本実施形態では、各単位ブロックに含まれる4つの光感知セル2a~2dは、図5(a)、(b)に示すように、互いに近接しているが、これらが離れていても、後述する分光要素アレイを適切に構成することによって色情報を得ることが可能である。また、各単位ブロックが5個以上の光感知セルを含んでいてもよい。
 光感知セルアレイ200に対向して、光が入射する側に複数の分光要素を含む分光要素アレイが配置される。本実施形態では、各単位ブロックに含まれる4つの光感知セルに対して各々1つずつ分光要素が設けられる。
 以下、本実施形態における分光要素を説明する。
 本実施形態における分光要素は、屈折率が異なる2種類の透光性部材の境界で生じる光の回折を利用して入射光を波長域に応じて異なる方向に向ける光学素子である。このタイプの分光要素は、屈折率が相対的に高い材料で形成された高屈折率透明部材(コア部)と、屈折率が相対的に低い材料で形成されコア部の各々の側面と接する低屈折率透明部材(クラッド部)とを有している。コア部とクラッド部との間の屈折率差により、両者を透過した光の間で位相差が生じるため、回折が起こる。この位相差は光の波長によって異なるため、光を波長域(色成分)に応じて空間的に分離することが可能となる。例えば、第1の方向および第2の方向に第1色成分の光を半分ずつ向け、第3の方向に第1色成分以外の光を向けることができる。また、3つの方向にそれぞれ異なる波長域(色成分)の光を向けることも可能である。コア部とクラッド部との屈折率差によって分光が可能になるため、本明細書では、高屈折率透明部材のことを「分光要素」と呼ぶことがある。このような回折型の分光要素の詳細は、例えば、特許第4264465号公報に開示されている。
 以上のような分光要素を有する分光要素アレイは、公知の半導体製造技術により、薄膜の堆積およびパターニングを実行することにより、製造され得る。分光要素の材質(屈折率)、形状、サイズ、配列パターンなどを適切に設計することにより、個々の光感知セルに所望の波長域の光を分離・統合して入射させることが可能となる。その結果、各光感知セルが出力する光電変換信号の組から、必要な色成分に対応する信号を算出することができる。
 以下、図6を参照しながら本実施形態における撮像素子10の基本構造および各分光要素の働きを説明する。
 図6(a)は撮像素子10の基本構造を示す平面図である。各単位ブロックにおいて、4つの光感知セル2a、2b、2c、2dの各々に対向して分光要素1a、1b、1c、1dがそれぞれ配置されている。このような基本構造を有する複数のパターンが撮像面10a上に繰り返し形成されている。
 図6(b)、(c)は、図6(a)におけるAA´線断面およびBB´線断面をそれぞれ示す図である。図示されるように、撮像素子10は、シリコンなどの材料からなる半導体基板7と、半導体基板7の内部に配置された光感知セル2a~2dと、半導体基板7の表面側(光が入射する側)に形成された配線層5および低屈折率透明部材からなる透明層6aと、透明層6aの内部に配置された高屈折率透明部材からなる分光要素1a、1b、1c、1dとを備えている。また、各光感知セルへの集光を効率的に行うためのマイクロレンズ4aが透明層6aを隔てて個々の光感知セルに対応して配置されている。なお、マイクロレンズ4aが配置されていなくても本実施形態の効果を得ることは可能である。
 図6(a)~(c)に示す構造は、公知の半導体製造技術により作製され得る。図6(a)~(c)に示される撮像素子10は、配線層5の側から各光感知セルに光が入射する表面照射型の構造を有している。しかしながら、本実施形態の撮像素子10はこのような構造に限られず、配線層5の反対側から光を受ける裏面照射型の構造を有していてもよい。
 分光要素1a、1bは、図6(b)に示すように、光が透過する方向に長い長方形状の断面を有し、自身と透明層6aとの間の屈折率差によって分光する。分光要素1aは、対向する光感知セル2aに赤(R)光を入射させ、光感知セル2b、および隣接する単位ブロックに含まれる光感知セル(不図示)にシアン(Cy)光を半分ずつ入射させる。ここで、シアン(Cy)光は緑(G)光および青(B)光から成る光である。一方、分光要素1bは、対向する光感知セル2bにCy光を入射させ、光感知セル2a、および隣接する他の単位ブロックに含まれる光感知セル(不図示)にR光を半分ずつ入射させる。本実施形態では、分光要素1a、1bが上記の分光特性をもつように分光要素1a、1bの長さおよび厚さが設計されている。なお、G光およびB光の強度は必ずしも一致しないため、Cy光は、緑と青の混色であるシアン色を視認させる光であるとは限らない。例えば、セル入射光がB光を全く含んでいない場合、Cy光は、G光と同様、緑色を視認させる光である。
 このような分光要素1a、1bを用いることにより、光感知セル2aは、分光要素1aからR光を受け、分光要素1b、および隣接する単位ブロックに含まれる分光要素からもR光を半分ずつ受ける。また、光感知セル2bは、分光要素1bからCy光を受け、分光要素1a、および隣接する単位ブロックに含まれる分光要素(不図示)からもCy光を半分ずつ受ける。
 また、分光要素1c、1dも、図6(c)に示すように、光が透過する方向に長い長方形状の断面を有し、自身と透明層6aとの間の屈折率差によって分光する。分光要素1cは、対向する光感知セル2cに黄光(Ye)を入射させ、光感知セル2d、および隣接する単位ブロックに含まれる光感知セル(不図示)に青(B)光を半分ずつ入射させる。ここで、黄光(Ye)は赤(R)光と緑(G)光から成る光である。一方、分光要素1dは、対向する光感知セル2dに青(B)光を入射させ、光感知セル2c、および隣接する他の単位ブロックに含まれる光感知セル(不図示)に黄(Ye)光を半分ずつ入射させる。本実施形態では、分光要素1c、1dが上記の分光特性をもつように分光要素1c、1dの長さおよび厚さが設計されている。なお、R光およびG光の強度は必ずしも一致しないため、Ye光は、赤と緑の混色である黄色を視認させる光であるとは限らない。例えば、セル入射光がG光を全く含んでいない場合、Ye光は、R光と同様、赤色を視認させる光である。
 上記の分光要素1a~1dによる分光の結果、光感知セル2a~2dは、それぞれ以下の式12~15で表される光電変換信号S2a~S2dを出力する。ここで、赤光、緑光、青光の強度に相当する信号をそれぞれRs、Gs、Bsで表す。また、シアン光の強度に相当する信号CsをGs+Bs、黄光の強度に相当する信号YsをRs+Gs、白光の強度に相当する信号WsはRs+Gs+Bsとする。
 (式12)S2a=Ws-Cs+Rs=2Rs
 (式13)S2b=Ws-Rs+Cs=2Cs
 (式14)S2c=Ws-Bs+Ys=2Ys
 (式15)S2d=Ws-Ys-Bs=2Bs
 式12~15は、それぞれ式1~4においてC1sをRsに、C1^sをCsに、C3sをBsに、C3^sをYsに置換したものに相当する。すなわち、本実施形態では、第1の色成分はR光、第2の色成分はG光、第3の色成分はB光である。
 画像信号生成部15(図3)は、式12~15で示される光電変換信号を用いた演算によって色情報を生成する。以下、図7を参照しながら、画像信号生成部15による色情報生成処理を説明する。図7は、本実施形態における色情報生成処理の手順を示すフロー図である。
 画像信号生成部15は、まず、ステップS10において、光電変換信号S2a~S2dを取得する。続いて、ステップS12において、(S2a-S2b)の演算によって2(Rs-Cs)、すなわち色差信号(4Rs-2Ws)を生成し、(S2d-S2c)の演算によって2(Bs-Ys)、すなわち色差信号(4Bs-2Ws)を生成する。次に、ステップS14において、画素信号S2a~S2dを合算することによってセル入射光の強度を示す信号4(Rs+Gs+Bs)=4Wsを生成し、これを輝度信号とする。最後に、ステップS16において、2つの色差信号と1つの輝度信号から行列演算によりRGBカラー信号を得る。具体的には、色差信号(4Rs-2Ws)に輝度信号の1/2を加えて4Rsを作り、色差信号(4Bs-2Ws)に輝度信号の1/2を加えて4Bsを作り、輝度信号4Wsから4Rsと4Bsを減算することにより、4Gsが得られる。
 画像信号生成部15は、以上の信号演算を光感知セルアレイ2の単位ブロック40ごとに実行することによってR、G、Bの各色成分の画像を示す信号(「カラー画像信号」と呼ぶ。)を生成する。生成されたカラー画像信号は、画像信号出力部16によって不図示の記録媒体や表示部に出力される。
 このように、本実施形態の撮像装置によれば、光電変換信号S2a~S2dを用いた加減算処理により、カラー画像信号が得られる。本実施形態における撮像素子10によれば、光を吸収する光学素子を用いないため、色フィルタなどを用いる従来技術と比較して光の損失を大幅に低減することができる。
 以上のように、本実施形態の撮像素子10では、光感知セルアレイに対向して2行2列を基本構成とする分光要素アレイが配置される。1行1列目には光を赤光と赤光以外とに分ける分光要素1aが配置される。1行2列目には光をシアン光とシアン光以外とに分ける分光要素1bが配置される。2行1列目には光を黄光と黄光以外とに分ける分光要素1cが配置される。2行2列目には光を青光と青光以外とに分ける分光要素1dが配置される。このような分光要素の配列パターンが撮像面上に繰り返し形成されているため、光感知セルアレイ200における単位ブロック40の選び方を1行または1列ずつ変えても、得られる4つの光電変換信号は、常に式12~15で表される4つの信号の組み合わせとなる。すなわち、演算対象の画素ブロックを1行および1列ずつずらしながら上記の信号演算を行うことにより、RGB各色成分の情報をほぼ画素数分だけ得ることができる。このことは、撮像装置の解像度を画素数の程度まで高めることができることを意味している。したがって、本実施形態の撮像装置は、従来の撮像装置よりも高感度であることに加えて、高解像度のカラー画像を生成することが可能である。
 なお、画像信号生成部15は、必ずしも3つの色成分の画像信号を全て生成しなくてもよい。用途に応じて1色または2色の画像信号だけを生成するように構成されていてもよい。また、必要に応じて信号の増幅、合成、補正を行ってもよい。
 また、各分光要素は上述した分光性能を厳密に有していることが理想であるが、それらの分光性能が多少ずれていてもよい。すなわち、各光感セルから実際に出力される光電変換信号が、式12~15に示す光電変換信号から多少ずれていてもよい。各分光要素の分光性能が理想的な性能からずれている場合であっても、ずれの程度に応じて信号を補正することによって良好な色情報を得ることができる。
 さらに、本実施形態における画像信号生成部15が行う信号演算を、撮像装置自身ではなく他の機器に実行させることも可能である。例えば、撮像素子10から出力される光電変換信号の入力を受けた外部の機器に本実施形態における信号演算処理を規定するプログラムを実行させることによっても色情報を生成することができる。
 なお、撮像素子10の基本構造は図6に示す構成に限られるものではない。例えば、分光要素1aと分光要素1bとが入れ替わった構成、あるいは分光要素1cと分光要素1dとが入れ替わった構成で配置されていても本実施形態の効果に変わりはない。また、図6(a)に示す1行目の配置と2行目の配置とが入れ替わっていてもよいし、分光要素1a、1bおよび分光要素1c、1dが行方向ではなく、列方向に並ぶように配置されていてもその有効性に変わりはない。
 さらに、分光要素アレイは、単位ブロック40に含まれる4つの光感知セル2a、2b、2c、2dに、それぞれ2R、2Cy(2G+2B)、2Ye(=2R+2G)、2Bで表される光が入射するように構成されていれば、どのように構成されていてもよい。
 以上の説明では、分光要素として、2つの部材の屈折率差を利用して分光する光学素子を用いているが、本実施形態における分光要素は、各光感知セルに所望の色成分の光を入射できればどのようなものであってもよい。例えば、分光要素としてマイクロプリズムやダイクロイックミラーを用いてもよい。また、異なる種類の分光要素を組み合わせて用いることも可能である。
 一例として、ダイクロイックミラーによる光の透過と反射とを一部に利用した撮像素子の構成例を図8に示す。図8(a)は、この例における基本画素構成を示す平面図である。図8(b)、(c)は、それぞれ図8(a)におけるAA´線断面およびBB´線断面を示す図である。この構成例では、図6に示す分光要素1a、1bの代わりに、ダイクロイックミラーを含む分光要素1e、1fがそれぞれ配置されている。分光要素1c、1dは、図6に示す分光要素1c、1dと同様の特性を有している。なお、図8に示す撮像素子10は、配線層5の反対側から光が入射する裏面照射型の構造を有しているが、このことは特に重要ではなく、表面照射型の構造を有していてもよい。
 撮像素子10は、図8(b)、(c)に示すように、シリコンなどの材料からなる半導体基板7と、半導体基板7内に配置された光感知セル2a~2dと、半導体基板7の裏面側(光が入射する側)に形成された透明層6bと、透明層6bの内部に配置された分光要素1e、1f、および分光要素1c、1dとを備えている。半導体基板7の表面側(光が入射する側の反対側)には配線層5が形成されている。また、表面側には半導体基板7や配線層5などを支持する固定基盤9が配置されている。固定基板9は透明層6bを介して半導体基板7と接合されている。透明層6bは、空気よりも屈折率が高く、分光要素1c、1dよりも屈折率が低い透光性の部材から形成される。
 分光要素1eは、Cy光を反射し、Cy光以外を透過させるダイクロイックミラーを2つ接合したものを含んでいる。分光要素1fは、R光を反射し、R光以外を透過させるダイクロイックミラーを2つ接合したものを含んでいる。各分光要素に含まれる2つのダイクロイックミラーは、撮像面の法線に対して対称に傾斜して配置されている。これらのダイクロイックミラーの傾斜角度は、その反射光が撮像素子10の外部の空気層との界面で全反射し、対向画素に隣接する2つの画素に入射するように設定されている。
 分光要素1eに光が入射すると、Cy光は反射され、R光は透過する。反射されたCy光の半分は、透明層6bと空気との界面で全反射し、光感知セル2bに入射する。反射されたCy光の残りの半分は、透明層6bと空気との界面で全反射し、隣接する単位ブロックに含まれる光感知セルに入射する。分光要素1eを透過したR光は光感知セル2aに入射する。
 分光要素1fに光が入射すると、R光は反射され、Cy光は透過する。反射されたR光の半分は、透明層6bと空気との界面で全反射し、光感知セル2aに入射する。反射されたR光の残りの半分は、透明層6bと空気との界面で全反射し、隣接する他の単位ブロックに含まれる光感知セルに入射する。分光要素1fを透過したCy光は光感知セル2aに入射する。
 分光要素1cは、図6に示す構成と同様、Ye光を光感知セル2cに入射させ、B光を光感知セル2dと隣接する単位ブロックに含まれる光感知セルに入射させる。また、分光要素1dについても、上記と同様、B光を光感知セル2dに入射させ、Ye光を光感知セル2cと隣接する単位ブロックに含まれる光感知セルに入射させる。なお、分光要素1c、1dのサイズおよび形状は、透明層6bと半導体基板7との界面での屈折を考慮して設計される。
 このような構成により、各光感知セル2a~2dは、図6に示す構成を採用した場合と全く同様の光を受ける。したがって、各光感知セル2a~2dから出力される光電変換信号も図6の構成における光電変換信号と変わりはなく、上述の信号演算がそのまま適用できる。このように、図8に示す構成を採用しても、図6に示す構成を採用した場合と同様の効果を得ることができる。
 (実施形態2)
 次に、図9を参照しながら、第2の実施形態を説明する。本実施形態の撮像装置は、実施形態1の撮像装置と比較して、撮像素子10の構造のみが異なっており、その他の構成要素は同一である。以下、実施形態1の撮像装置との相違点を中心に説明し、重複する点は説明を省略する。
 本実施形態における撮像素子10は、回折を利用する分光要素ではなく、光を原色と補色とに分離するダイクロイックミラーを備えている。また、本実施形態における各分光要素は、隣接単位ブロックの光感知セルに光を入射させず、各単位ブロック内の光感知セルのみに光を入射させる。以下、本実施形態における撮像素子10の基本構造を説明する。
 図9は、本実施形態における撮像素子10の基本構造を示す図である。本実施形態における撮像素子10は、裏面照射型の撮像素子である。なお、本実施形態においても撮像素子10のタイプが裏面照射型であるか表面照射型であるかは重要ではなく、撮像素子10は表面照射型であってもよい。図9(a)は、撮像素子10の受光面側の平面図である。本実施形態における撮像素子10の光感知セルの配列は実施形態1における配列と同様であり、1つの単位ブロックは、4つの光感知セル2a~2dを有している。光感知セル2a、2b、2cに対向してダイクロイックミラー3a、3b、3c、3dがそれぞれ撮像面に対して傾斜して配置されている。ここで、ダイクロイックミラーの傾斜角度は、その反射光が撮像素子10外の空気層との界面で全反射し、対向画素の隣接画素に入射するように設定されている。
 図9(b)、(c)は、図9(a)におけるCC´線断面およびDD´線断面をそれぞれ示す図である。図示されるように、撮像素子10は、シリコンなどの材料からなる半導体基板7と、半導体基板7内に配置された光感知セル2a~2dと、半導体基板7の裏面側(光が入射する側)に形成された透明層6bと、透明層6bの内部に配置されたダイクロイックミラー3a、3b、3c、3dとを備えている。半導体基板7の表面側(光が入射する側の反対側)には配線層5が形成されている。また、表面側には半導体基板7や配線層5などを支持する固定基盤9が配置されている。固定基板9は透明層6bを介して半導体基板7と接合されている。
 図9(b)に示されるように、ダイクロイックミラー3aは、R光を透過させ、Cy光を反射する特性を有している。また、ダイクロイックミラー3bは、Cy光を透過させ、R光を反射する特性を有している。その結果、ダイクロイックミラー3aを透過したR光は、光感知セル2aに入射する。ダイクロイックミラー3aで反射されたCy光は、透明層6bと空気との界面で全反射し、光感知セル2bに入射する。ダイクロイックミラー3bを透過したCy光は、光感知セル2bに入射する。ダイクロイックミラー3bで反射されたR光は、透明層6bと空気との界面で全反射し、光感知セル2aに入射する。
 図9(c)に示されるように、ダイクロイックミラー3cは、Ye光を透過させ、B光を反射する特性を有している。また、ダイクロイックミラー3dは、B光を透過させ、Ye光を反射する特性を有している。その結果、ダイクロイックミラー3cを透過したYe光は、光感知セル2cに入射する。ダイクロイックミラー3cで反射されたB光は、透明層6bと空気との界面で全反射し、光感知セル2dに入射する。ダイクロイックミラー3dを透過したB光は、光感知セル2dに入射する。ダイクロイックミラー3dで反射されたYe光は、透明層6bと空気との界面で全反射し、光感知セル2cに入射する。
 このようなダイクロイックミラー3a~3dを用いることにより、各光感知セル2a~2dは、実施形態1における構成を採用した場合と全く同様の色成分の光を受ける。すなわち、光感知セル2aは、ダイクロイックミラー3aを透過したR光と、ダイクロイックミラー3bで反射されたR光とを受ける。光感知セル2bは、ダイクロイックミラー3bを透過したCy光と、ダイクロイックミラー3aで反射されたCy光とを受ける。光感知セル2cは、ダイクロイックミラー3cを透過したYe光と、ダイクロイックミラー3dで反射されたYe光とを受ける。光感知セル2dは、ダイクロイックミラー3dを透過したB光と、ダイクロイックミラー3cで反射されたB光とを受ける。その結果、各光感知セル2a~2dから出力される光電変換信号S2a~S2dは、実施形態1における構成を採用した場合と同様、それぞれ式12~15で表すことができる。したがって、実施形態1における処理と全く同様の処理によって色情報を得ることができる。
 以上のように、本実施形態の撮像装置によれば、実施形態1の撮像装置と同様、光電変換信号S2a~S2dを用いた信号演算処理により、カラー画像信号が得られる。本実施形態における撮像素子10によっても、光を吸収する光学素子を用いないため、色フィルタなどを用いる従来技術と比較して光の損失を大幅に低減することができる。また、4つの光電変換信号を用いた演算によって3つの色信号が得られるため、画素数に対して得られる色情報の量が従来の撮像素子による場合よりも多いという効果を有する。
 以上のように、本実施形態の撮像素子10では、1行1列目には光をシアン光とシアン光以外とに分けるダイクロイックミラー3aが配置される。1行2列目には光を赤光と赤光以外とに分けるダイクロイックミラー3bが配置される。2行1列目には光を青光と青光以外とに分けるダイクロイックミラー3cが配置される。2行2列目には光を黄光と黄光以外とに分けるダイクロイックミラー3dが配置される。このような分光要素の配列パターンが撮像面上に繰り返し形成されているため、光感知セルアレイ200における単位ブロックの選び方を1行または1列ずつ変えても、得られる4つの光電変換信号は、常に式12~15で表される4つの信号の組み合わせとなる。すなわち、演算対象の画素ブロックを1行および1列ずつずらしながら上記の信号演算を行うことによって、RGB各色成分の情報をほぼ画素数分だけ得ることができる。したがって、本実施形態の撮像装置は、従来の撮像装置よりも高感度であることに加えて、高解像度のカラー画像を生成することが可能である。
 なお、撮像素子10の基本構造は図9に示す構成に限られるものではない。例えば、ダイクロイックミラー3aとダイクロイックミラー3bとが入れ替わり、ダイクロイックミラー3cとダイクロイックミラー3dが入れ替わった構成で配置されていても本実施形態の効果に変わりはない。また、図9(a)に示す1行目の配置と2行目の配置とが入れ替わっていてもよいし、ダイクロイックミラー3a、3bが行方向ではなく、列方向に並ぶように配置されていてもその有効性に変わりはない。
 本実施形態では、分光要素として、ダイクロイックミラーを用いているが、分光要素は、原色光とその補色の光とに分離するものであればどのようなものでもよい。例えば、分光要素として、マイクロプリズムや、実施形態1で用いられる回折を利用する光学素子を用いてもよい。また、異なる種類の分光要素を組み合わせて用いることも可能である。
 本発明の実施形態による固体撮像素子、撮像装置、およびプログラムは、固体撮像素子を用いるすべてのカメラに有効である。例えば、デジタルスチルカメラやデジタルビデオカメラなどの民生用カメラや、産業用の固体監視カメラなどに利用可能である。
  1a、1b、1c、1d、1e、1f 分光要素
  2,2a,2b,2c,2d 撮像素子の光感知セル
  3a、3b、3c、3d 分光要素(ダイクロイックミラー)
  4a、4b マイクロレンズ
  5 撮像素子の配線層
  6a、6b 透明層
  7 シリコン基板
  9 固定基板
 10 撮像素子
 11 光学フィルタ
 12 光学レンズ
 13 信号発生/受信部
 14 素子駆動部
 15 画像信号生成部
 16 画像信号出力部
 17 赤(R)以外を反射する多層膜フィルタ(ダイクロイックミラー)
 18 緑(G)のみを反射する多層膜フィルタ(ダイクロイックミラー)
 19 青(B)のみを反射する多層膜フィルタ(ダイクロイックミラー)
 20 遮光部
 21 透光性の樹脂
 22 G光透過の多層膜フィルタ(ダイクロイックミラー)
 23 R光透過の多層膜フィルタ(ダイクロイックミラー)
 24 G光透過の有機色素フィルタ
 25 R光透過の有機色素フィルタ
 26 マイクロレンズ
 27 金属層
 30 メモリ
 40 光感知セルの単位ブロック
 100 分光要素アレイ
 200 光感知セルアレイ
 300 撮像部
 400 信号処理部

Claims (13)

  1.  各々が第1の光感知セル、第2の光感知セル、第3の光感知セル、および第4の光感知セルを含む複数の単位ブロックが2次元状に配列された光感知セルアレイと、
     前記光感知セルアレイに対向して配置され、複数の分光要素を含む分光要素アレイと、を備え、
     前記分光要素アレイが存在しないと仮定した場合に各光感知セルが受ける光を各光感知セルのセル入射光とし、前記セル入射光に含まれる可視光が、第1の色成分、第2の色成分、および第3の色成分から構成され、各色成分を除く色成分の可視光を、当該色成分の補色光とするとき、
     前記分光要素アレイは、
     前記第1の光感知セルのセル入射光から前記第1の色成分の補色光を除いた光に前記第1の色成分の光を加えた光を前記第1の光感知セルに入射させ、
     前記第2の光感知セルのセル入射光から前記第1の色成分の光を除いた光に前記第1の色成分の補色光を加えた光を前記第2の光感知セルに入射させ、
     前記第3の光感知セルのセル入射光から前記第3の色成分の光を除いた光に前記第3の色成分の補色光を加えた光を前記第3の光感知セルに入射させ、
     前記第4の光感知セルのセル入射光から前記第3の色成分の補色光を除いた光に前記第3の色成分の光を加えた光を前記第4の光感知セルに入射させる、
    固体撮像素子。
  2.  前記分光要素アレイは、各単位ブロックにおいて、前記第1の光感知セルに対向して配置された第1の分光要素、前記第2の光感知セルに対向して配置された第2の分光要素、前記第3の光感知セルに対向して配置された第3の分光要素、および前記第4の光感知セルに対向して配置された第4の分光要素を含み、
     前記第1の分光要素は、前記第1の色成分の補色光の少なくとも一部を前記第2の光感知セルに入射させ、前記第1の色成分の光を前記第1の光感知セルに入射させ、
     前記第2の分光要素は、前記第1の色成分の光の少なくとも一部を前記第1の光感知セルに入射させ、前記第1の色成分の補色光を前記第2の光感知セルに入射させ、
     前記第3の分光要素は、前記第3の色成分の光の少なくとも一部を前記第4の光感知セルに入射させ、前記第3の色成分の補色光を前記第3の光感知セルに入射させ、
     前記第4の分光要素は、前記第3の色成分の補色光の少なくとも一部を前記第3の光感知セルに入射させ、前記第3の色成分の光を前記第4の光感知セルに入射させる、請求項1に記載の固体撮像素子。
  3.  前記第1の分光要素は、前記第1の色成分の補色光の半分を前記第2の光感知セルに入射させ、前記第1の色成分の補色光の残りの半分を隣接する第1の隣接単位ブロックに含まれる1つの光感知セルに入射させ、
     前記第2の分光要素は、前記第1の色成分の光の半分を前記第1の光感知セルに入射させ、前記第1の色成分の光の残りの半分を隣接する第2の隣接単位ブロックに含まれる1つの光感知セルに入射させ、
     前記第3の分光要素は、前記第3の色成分の光の半分を前記第4の光感知セルに入射させ、前記第3の色成分の光の残りの半分を隣接する前記第1および第2の隣接単位ブロックの一方に含まれる1つの光感知セルに入射させ、
     前記第4の分光要素は、前記第3の色成分の補色光の半分を前記第3の光感知セルに入射させ、前記第3の色成分の補色光の残りの半分を隣接する前記第1および第2の隣接単位ブロックの他方に含まれる1つの光感知セルに入射させる、請求項2に記載の固体撮像素子。
  4.  前記第1の分光要素は、前記第1の色成分の補色光のほぼ全てを前記第2の光感知セルに入射させ、
     前記第2の分光要素は、前記第1の色成分の光のほぼ全てを前記第1の光感知セルに入射させ、
     前記第3の分光要素は、前記第3の色成分の光のほぼ全てを前記第4の光感知セルに入射させ、
     前記第4の分光要素は、前記第3の色成分の補色光のほぼ全てを前記第3の光感知セルに入射させる、請求項2に記載の固体撮像素子。
  5.  前記第1の色成分は赤および青の一方の色成分であり、前記第3の色成分は赤および青の他方の色成分である、請求項1から4のいずれかに記載の固体撮像素子。
  6.  前記第1の分光要素、前記第2の分光要素、前記第3の分光要素、および前記第4の分光要素の各々は、透光性部材を有し、前記透光性部材の形状、および前記透光性部材と前記透光性部材よりも屈折率の低い他の透光性部材との屈折率の差を利用して分光する、請求項1から5のいずれかに記載の固体撮像素子。
  7.  前記第1の分光要素、前記第2の分光要素、前記第3の分光要素、および前記第4の分光要素の各々は、ダイクロイックミラーを含み、前記ダイクロイックミラーによって分光する、請求項1から5のいずれかに記載の固体撮像装置。
  8.  請求項1から7のいずれかに記載の固体撮像素子と、
     前記固体撮像素子に像を形成する光学系と、
     前記固体撮像素子から出力される信号を処理する信号処理部であって、前記第1の光感知セルから出力される第1の光電変換信号、前記第2の光感知セルから出力される第2の光電変換信号、および前記第3の光感知セルから出力される第3の光電変換信号、前記第4の光感知セルから出力される第4の光電変換信号を用いた演算によって色情報を生成する信号処理部と、
    を備える撮像装置。
  9.  前記信号処理部は、前記第1の光電変換信号と前記第2の光電変換信号との差分演算と、前記第3の光電変換信号と前記第4の光電変換信号との差分演算とにより、第1の色信号および第2の色信号を生成する、請求項8に記載の撮像装置。
  10.  前記信号処理部は、前記第1および第2の光電変換信号の加算、前記第3および第4の光電変換信号の加算、および前記第1から第4の光電変換信号の加算のいずれかを含む演算により、輝度信号を生成する、請求項8または9に記載の撮像装置。
  11.  請求項1から7のいずれかの固体撮像素子から出力される信号を処理する方法であって、
     前記第1の光感知セルから出力される第1の光電変換信号、前記第2の光感知セルから出力される第2の光電変換信号、前記第3の光感知セルから出力される第3の光電変換信号、および前記第4の光感知セルから出力される第4の光電変換信号を取得するステップAと、
     前記第1から第4の光電変換信号を用いて色情報を生成するステップBと、
    を含む方法。
  12.  前記ステップBは、
     前記第1の光電変換信号と前記第2の光電変換信号との差分を示す第1の差分信号を生成するステップと、
     前記第3の光電変換信号と前記第4の光電変換信号との差分を示す第2の差分信号を生成するステップと、
    を含む、請求項11に記載の方法。
  13.  前記ステップBは、
     前記第1および第2の光電変換信号の加算、前記第3および第4の光電変換信号の加算、および前記第1から第4の光電変換信号の加算のいずれかを含む演算によって輝度信号を生成するステップと、
     前記輝度信号、前記第1の差分信号、および前記第2の差分信号を用いて前記セル入射光に含まれる赤、緑、および青の色信号を生成するステップと、
    をさらに含む請求項12に記載の方法。
PCT/JP2012/005810 2011-10-31 2012-09-13 固体撮像素子、撮像装置および信号処理方法 WO2013065226A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/821,954 US8860855B2 (en) 2011-10-31 2012-09-13 Solid-state image sensor with dispersing element that disperses light according to color component, image capture device and signal processing method
CN201280003715.1A CN103222267B (zh) 2011-10-31 2012-09-13 固体摄像元件、摄像装置和信号处理方法
JP2013506032A JP5894573B2 (ja) 2011-10-31 2012-09-13 固体撮像素子、撮像装置および信号処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011239178 2011-10-31
JP2011-239178 2011-10-31

Publications (1)

Publication Number Publication Date
WO2013065226A1 true WO2013065226A1 (ja) 2013-05-10

Family

ID=48191609

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/005810 WO2013065226A1 (ja) 2011-10-31 2012-09-13 固体撮像素子、撮像装置および信号処理方法

Country Status (4)

Country Link
US (1) US8860855B2 (ja)
JP (1) JP5894573B2 (ja)
CN (1) CN103222267B (ja)
WO (1) WO2013065226A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012221356A1 (de) * 2012-06-20 2013-12-24 Robert Bosch Gmbh Sensor und Verfahren zur Erfassung von Licht und Verfahren und Vorrichtung zur Ermittlung einer Farbinformation
JP6271900B2 (ja) * 2013-07-31 2018-01-31 キヤノン株式会社 固体撮像素子およびそれを用いた撮像装置
US9816804B2 (en) 2015-07-08 2017-11-14 Google Inc. Multi functional camera with multiple reflection beam splitter
KR102409389B1 (ko) * 2015-10-06 2022-06-15 삼성전자주식회사 색분리 소자를 포함하는 이미지 센서
KR102561097B1 (ko) * 2015-12-22 2023-07-28 삼성전자주식회사 색분리 소자 어레이, 이를 포함한 이미지 센서 및 전자 장치
US10638061B2 (en) 2018-09-18 2020-04-28 Analog Devices Global Unlimited Company Active-pixel image sensor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003243639A (ja) * 2002-02-21 2003-08-29 Canon Inc 撮像素子及び撮像装置
JP2005167356A (ja) * 2003-11-28 2005-06-23 Canon Inc 撮像素子
JP2005260067A (ja) * 2004-03-12 2005-09-22 Matsushita Electric Ind Co Ltd 固体撮像装置及びカメラ
JP2007282054A (ja) * 2006-04-10 2007-10-25 Matsushita Electric Ind Co Ltd 固体撮像装置、カメラおよび信号処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5990467A (ja) 1982-11-15 1984-05-24 Mitsubishi Electric Corp 固体撮像素子
JP2000151933A (ja) * 1998-11-06 2000-05-30 Nec Corp 撮像素子及びその製造方法
JP2001309395A (ja) 2000-04-21 2001-11-02 Sony Corp 固体撮像素子及びその製造方法
JP4652634B2 (ja) 2001-08-31 2011-03-16 キヤノン株式会社 撮像装置
US7250973B2 (en) 2002-02-21 2007-07-31 Canon Kabushiki Kaisha Image pickup apparatus for reflecting light at an area between successive refractive areas
KR20110019724A (ko) 2008-06-18 2011-02-28 파나소닉 주식회사 고체 촬상 장치
KR20110084367A (ko) * 2008-11-19 2011-07-22 파나소닉 주식회사 촬상 장치
US8208052B2 (en) * 2008-12-19 2012-06-26 Panasonic Corporation Image capture device
WO2010082455A1 (ja) * 2009-01-14 2010-07-22 パナソニック株式会社 撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003243639A (ja) * 2002-02-21 2003-08-29 Canon Inc 撮像素子及び撮像装置
JP2005167356A (ja) * 2003-11-28 2005-06-23 Canon Inc 撮像素子
JP2005260067A (ja) * 2004-03-12 2005-09-22 Matsushita Electric Ind Co Ltd 固体撮像装置及びカメラ
JP2007282054A (ja) * 2006-04-10 2007-10-25 Matsushita Electric Ind Co Ltd 固体撮像装置、カメラおよび信号処理方法

Also Published As

Publication number Publication date
CN103222267A (zh) 2013-07-24
US20140168485A1 (en) 2014-06-19
JP5894573B2 (ja) 2016-03-30
US8860855B2 (en) 2014-10-14
JPWO2013065226A1 (ja) 2015-04-02
CN103222267B (zh) 2017-02-08

Similar Documents

Publication Publication Date Title
JP5503459B2 (ja) 固体撮像素子および撮像装置
JP5237998B2 (ja) 固体撮像素子、撮像装置および信号処理方法
WO2011010455A1 (ja) 撮像装置および固体撮像素子
JP5325117B2 (ja) 固体撮像装置
JP5331107B2 (ja) 撮像装置
TWI500330B (zh) 攝像裝置
JP5113249B2 (ja) 撮像装置
JP6039558B2 (ja) 固体撮像装置
JP5503458B2 (ja) 固体撮像素子および撮像装置
JP5894573B2 (ja) 固体撮像素子、撮像装置および信号処理方法
JP5997149B2 (ja) 固体撮像素子、撮像装置、および信号処理方法
WO2014033976A1 (ja) 固体撮像素子、撮像装置および信号処理方法
JP5852006B2 (ja) 固体撮像素子、撮像装置および信号処理方法
JP6039567B2 (ja) 固体撮像装置
JP2014086743A (ja) 固体撮像素子、撮像装置、および信号処理方法
JP2014086742A (ja) 固体撮像素子、撮像装置、および信号処理方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013506032

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13821954

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12845048

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12845048

Country of ref document: EP

Kind code of ref document: A1