WO2013145433A1 - 撮像素子及び撮像装置 - Google Patents

撮像素子及び撮像装置 Download PDF

Info

Publication number
WO2013145433A1
WO2013145433A1 PCT/JP2012/080186 JP2012080186W WO2013145433A1 WO 2013145433 A1 WO2013145433 A1 WO 2013145433A1 JP 2012080186 W JP2012080186 W JP 2012080186W WO 2013145433 A1 WO2013145433 A1 WO 2013145433A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging device
pixels
shape
microlenses
pixel
Prior art date
Application number
PCT/JP2012/080186
Other languages
English (en)
French (fr)
Inventor
田中 俊介
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2014507319A priority Critical patent/JP5542247B2/ja
Priority to CN201280072169.7A priority patent/CN104205332B/zh
Publication of WO2013145433A1 publication Critical patent/WO2013145433A1/ja
Priority to US14/500,154 priority patent/US9386206B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout

Definitions

  • the present invention relates to an imaging element and an imaging apparatus, and more particularly to an imaging element and an imaging apparatus that have high light receiving sensitivity, excellent color separation performance, and can be driven at high speed.
  • an image pickup device for picking up a single-plate color image mounted on a digital camera has increased in number of pixels, and it has become common to have 10 million pixels or more.
  • each pixel is miniaturized and the pitch between the pixels is narrowed.
  • the proportion of the amount of incident light that leaks into a certain pixel leaks into adjacent pixels, that is, different color pixels, and color mixing occurs.
  • a light shielding portion having a triangular cross section is provided between the pixels so that leakage of incident light to adjacent pixels is reduced.
  • the light shielding portion is formed higher in the direction of the color filter layer and the microlens layer, and is formed of a total reflection film, so that the amount of incident light leaking to adjacent pixels can be further increased. Can be reduced.
  • the cross-shaped light shielding wall 6 is formed of a metal film as described in Patent Document 2, the electrical load capacitance component of the light shielding wall 6 is increased, which reduces the driving speed of the solid-state imaging device. The problem of causing it to occur also arises.
  • An object of the present invention is to provide an imaging device having high light receiving sensitivity, excellent color separation performance, and capable of high-speed driving, and an imaging device equipped with this imaging device.
  • An image pickup device includes a semiconductor substrate in which a plurality of pixels are arranged in a two-dimensional array, a color filter layer stacked on the upper layer of the semiconductor substrate at a position corresponding to the pixel, and the color filter layer A plurality of microlenses that are stacked on the upper layer and collect light incident on the pixels, and a gap between the semiconductor substrate and the microlens that is formed by being surrounded by the adjacent microlenses. And an isolated columnar reflecting wall that reflects light incident on the color filter from the gap in a direction toward the pixel corresponding to the color filter.
  • the image pickup apparatus of the present invention is characterized by mounting the above-described image pickup element.
  • each light shielding wall is isolated. Since it is provided in an island shape, the light receiving sensitivity of each pixel is not lowered. Furthermore, even if the light shielding walls are made of metal, each light shielding wall has an isolated island shape, so that the electric load capacity is reduced, and high speed driving is not hindered.
  • FIG. 1 is an external perspective view of an imaging apparatus according to a first embodiment of the present invention. It is a functional block block diagram of the imaging device shown in FIG. It is a surface schematic diagram of the solid-state image sensor shown in FIG. It is a surface schematic diagram of the lower layer of the microlens layer shown in FIG. FIG. 5 is a schematic cross-sectional view taken along line IV-IV in FIG. 4. It is the surface schematic diagram of the 2nd Embodiment of this invention which concerns on the solid-state image sensor whose pixel arrangement
  • FIG. 10 It is a surface schematic diagram of a solid-state image sensor in which the pixel array is a honeycomb array and all pixels are phase difference detection pixels by a microlens sharing method. It is a principal part enlarged surface schematic diagram of the solid-state image sensor which provided the reflective wall which concerns on 3rd Embodiment of this invention in the solid-state image sensor of FIG. It is a surface schematic diagram concerning a 4th embodiment of the present invention different from FIG. It is an external appearance perspective view of the wedge-shaped reflection wall used in embodiment of FIG. It is a surface schematic diagram of an embodiment in which the wedge-shaped reflection wall of FIG. 10 is applied to a solid-state imaging device having a square lattice arrangement.
  • FIG. 1 It is a figure which shows the color filter arrangement
  • FIG. 1 is an external perspective view of an imaging apparatus (digital camera) 10 according to an embodiment of the present invention.
  • the digital camera 10 includes a photographic lens 12 at the front of a rectangular casing 11.
  • the taking lens 12 is housed in a retractable lens barrel 13.
  • a shutter release button 14 is provided on the left shoulder portion of the housing 11.
  • a liquid crystal display unit (LCD 16 in FIG. 2) that displays a captured image, a through image (live view image), a camera menu image, and the like is provided on the rear surface of the housing 11.
  • a flash light emitting unit 44 is provided at the front of the right shoulder.
  • FIG. 2 is a functional block configuration diagram of the digital camera shown in FIG.
  • the digital camera 10 includes a solid-state imaging device (in this embodiment, a back-illuminated CMOS image sensor) 21 provided on the back of the taking lens 12 and a CPU (central processing unit) that controls the digital camera 10 in an integrated manner. ) 22.
  • a solid-state imaging device in this embodiment, a back-illuminated CMOS image sensor
  • a CPU central processing unit
  • the CPU 22 is connected to the bus 23, and stores the frame memory 24, a signal processing unit (DSP) 25 that performs image processing, and captured image data compressed in JPEG format or the like in the external memory card 26.
  • DSP signal processing unit
  • a card interface (I / F) 27 a display control unit 28 that performs display control of an LCD (liquid crystal display unit) 16 on the back of the camera, and an OSD signal generation unit 29 that generates OSD signals such as character information to be displayed on the LCD 16. Is connected.
  • the CPU 22 is connected to a ROM 22a and a RAM 22b that store control programs and the like, and an operation unit 40 including a shutter release button 14 is connected.
  • the digital camera 10 includes a lens driving unit 41 that controls the position of the focus lens of the photographing lens 12, a timing generator (TG) 42 that generates a driving timing signal for the solid-state imaging device 21, and the solid-state imaging device 21.
  • a driver 43 to be driven and a flash control circuit 45 that performs light emission control of the light emitting unit 44 are provided, and these are instructed to be controlled by the CPU 22.
  • the CPU 22 performs various control processes using the subordinate DSP 25 or the like. For example, in the case of a solid-state imaging device 21 equipped with a phase difference detection pixel, which will be described later, the signal output from the phase difference detection pixel is processed, the distance to the subject is calculated, and the focus lens position of the photographing lens 12 is adjusted. Then, an image focused on the subject is captured.
  • the subject image viewed with the left eye and the right eye are viewed from one and the other captured image signals of the phase difference detection pixel pair.
  • a subject image in a state is generated, and a stereoscopically viewable image is generated.
  • FIG. 3 is a schematic surface view showing an example of the solid-state imaging device 21.
  • a plurality of pixels (photoelectric conversion units) 50 are formed in a two-dimensional array form, in this example, in a square lattice form.
  • a micro lens (on-chip lens) 51 indicated by a circle is formed above each pixel 50.
  • R (red) G (green) B (blue) described on each pixel 50 represents the color of the color filter.
  • a solid-state imaging device 21 in which three primary color filters are arranged in a Bayer array is shown.
  • FIG. 4 is a view of the semiconductor substrate viewed from the lower side of the microlens layer in FIG.
  • the solid-state imaging device 21 positions where a large number of column-shaped isolated reflection walls 60 according to the present embodiment are provided are shown.
  • the island-shaped reflective wall 60 is erected only at the positions of the grid-shaped grid points.
  • the light shielding walls described in Patent Document 1 and Patent Document 2 are formed in a cross-beam shape, and are formed up to places that are not gaps formed between a plurality of adjacent microlenses. For this reason, the light refracted by the microlens and shields the light traveling toward the pixel may be reduced, which may reduce the sensitivity.
  • the island-shaped reflecting wall 60 is provided only at a necessary place, a decrease in sensitivity can be minimized.
  • a rectangular gap 53 becomes large. That is, the gap between the diagonal positions of each pixel 50 is increased. Most of the incident light leaks to the adjacent pixels through the gap 53 without passing through the microlens 51.
  • the incident light passing through the microlens 51 is refracted in the direction of the center of the pixel by the microlens, but the light incident on the gap 53 is not refracted by the microlens and enters the adjacent pixel.
  • each reflecting wall 60 in a quadrangular pyramid shape having four reflecting surfaces so that the light incident from the gap 53 is reflected in the direction of the pixel on the incident side.
  • the vertex position is preferably manufactured so as to be a lattice point position (center position of the gap 53: this position also coincides with the partition position for each pixel of the color filter).
  • each reflecting surface of the quadrangular pyramid is incident on the pixel facing the reflecting surface. That is, in the lower right reflecting wall 60 in FIG. 4, the reflecting surface 60a faces the pixel 50a side, the reflecting surface 60b faces the pixel 50b, the reflecting surface 60c faces the pixel 50c, and the reflecting surface 60d faces the pixel 50d.
  • the reflecting wall 60 having a quadrangular pyramid shape is manufactured so as to face the surface.
  • the columnar reflecting wall 60 may have a conical shape instead of a quadrangular pyramid shape, and it is only necessary that the reflected light of the incident light reflected by the reflecting wall 60 enters the pixels in the direction of the reflecting surface.
  • FIG. 5 is a schematic cross-sectional view taken along the line VV of FIG.
  • a transparent insulating layer 63 is laminated on the rear surface of the semiconductor substrate 62, and a light shielding film 64 is laminated thereon.
  • the light shielding film 64 is provided with an opening 64a at a position corresponding to the pixel, and has a cross-like shape when viewed from the upper surface.
  • the charge accumulation region (photoelectric conversion region) that becomes the pixel 50 is formed on the semiconductor substrate surface side at a position facing the light shielding film opening 64a.
  • a quadrangular pyramid-shaped reflecting wall 60 is erected on the grid-like grid point positions of the light shielding film 64.
  • the reflection wall 60 is formed of silicon dioxide (SiO 2 ).
  • a silicon nitride (SiN) layer 65 is laminated on the upper layer on the back surface side of the semiconductor substrate 62 except for the reflection wall 60, and the upper surface is flattened.
  • a color filter layer 66 is laminated on the silicon nitride layer 65, a planarizing layer 67 is laminated thereon, and a microlens 51 is formed thereon.
  • the reflection wall 60 and the color filter layer 66 are arranged such that the tip of the reflection wall 60 is aligned with the partition position 66c of the color filter 66a corresponding to the pixel and the color filter 66b corresponding to the adjacent pixel in the color filter layer 66. Is formed.
  • the light from the subject that has entered the color filter 66a through the gap 53 between the microlenses 50 is reflected by the reflection surface of the reflection wall 60 and is applied to the pixels corresponding to the color filter 66a. It will go in the direction of heading.
  • Light that has entered the color filter 66b through the gap 53 travels in the direction of the pixel corresponding to the color filter 66b. Thereby, color mixing prevention is achieved.
  • the reflecting wall 60 of the present embodiment is formed in an isolated island shape without being continuous, it is possible to capture a subject image with high sensitivity and high S / N without reducing the light receiving sensitivity of each pixel. Is possible.
  • the reflecting wall 60 is also possible to form the reflecting wall 60 with a metal film. Since the reflecting wall 60 of the present embodiment has an island-like shape, it can be made of a metal film separated from the electrode film and the wiring layer film. This is because, since the reflection walls 60 are individually isolated, the electrical load capacitance component is small, and even when the solid-state imaging device 21 is driven at high speed, there is no hindrance.
  • the reflecting wall 60 made of silicon dioxide shown in FIG. 5 can be manufactured as follows. An insulating layer 63 is laminated on the semiconductor substrate 62 to form a light shielding film 64 having a light shielding film opening 64a. Then, a thick silicon dioxide layer is laminated thereon.
  • the silicon dioxide layer where the reflecting wall 60 is to be formed is left, and the silicon dioxide layer at other locations is removed by etching.
  • the silicon dioxide layer at other locations is removed by etching.
  • a thick silicon nitride layer 65 is laminated next time. Then, after the surface is flattened, the color filter layer 66, the flattening layer 67, and the microlens layer 51 are stacked.
  • the reflecting wall 60 is formed of silicon dioxide having a low refractive index, and the portion that becomes the waveguide of incident light to the pixel 50 is formed of the silicon nitride layer 65 having a high refractive index.
  • the advanced light is totally reflected.
  • the light incident from the gap 53 between the microlenses and totally reflected by the reflection wall 60 enters the corresponding pixel without loss.
  • FIG. 6 is a schematic view of the surface of a solid-state imaging device 21 according to another embodiment of the present invention.
  • the solid-state imaging device 21 has a so-called honeycomb pixel arrangement in which odd-numbered pixel rows are formed with a 1 ⁇ 2 pixel pitch shifted from the even-numbered pixel rows.
  • a quadrangular pyramid-shaped reflecting wall 60 is erected at the position of a gap formed in the adjacent portion of the four microlenses 51 stacked in the four adjacent pixels.
  • it may be conical. Thereby, leakage of incident light to adjacent pixels of different colors is prevented, and color separation performance is improved.
  • a large number of reflecting walls 60 isolated in an island shape are provided, it is possible to capture a bright image without reducing the light receiving sensitivity of each pixel.
  • one light shielding film opening 55a and the other light shielding film opening 55b of the pair pixel are made smaller than the light shielding film opening 64a (see FIG. 5) of the normal pixel, Provide eccentric in the opposite direction.
  • light viewed from the subject with the right eye enters one of the phase difference detection pixel pairs, and light viewed from the subject with the left eye enters the other.
  • phase difference detection pixel pair By providing such a phase difference detection pixel pair at discrete positions on the imaging surface of the solid-state image sensor 21, it is possible to calculate the distance from the detection signal of the phase difference detection pixel to the subject.
  • a solid-state imaging device having such a phase difference detection pixel is already known, and is described in, for example, Japanese Patent Application Laid-Open No. 2012-058522.
  • the phase difference detection pixel having the light shielding film openings 55a and 55b having an opening area smaller than that of the normal pixel has lower light receiving sensitivity than the normal pixel. For this reason, if leaked light from surrounding pixels with different colors enters, it becomes impossible to detect the phase difference amount with high accuracy.
  • the reflection wall 60 is erected in the gap position between the microlenses, the color separation performance is improved without sacrificing the light receiving sensitivity, and the phase difference amount can be detected with high accuracy. Becomes easy.
  • the light-shielding film openings 55a and 55b which are reduced in size are provided eccentrically in opposite directions, and the pupil division of the phase difference detection pixel pair is performed.
  • this is performed for all the pixel pairs mounted on the solid-state image sensor 21, it is possible to capture a stereoscopic color image of the subject using only the monocular solid-state image sensor 21.
  • Japanese Patent Application Laid-Open Publication No. 2007-281296 discloses a conventional technique in which one microlens is mounted on two pixels to divide the pupil into phase difference detection pixels.
  • the problem is color mixture prevention, that is, color separation performance. Therefore, also in the embodiment of FIG. 8, a columnar isolated reflection wall is provided as in the above-described embodiment.
  • the elliptical microlenses 70 are arranged in the oval direction, but the microlenses 70 are shifted by a half pitch in a row that is one row with respect to the oblique row of the microlenses 70. For this reason, the gap 71 formed by three adjacent microlenses 70 has a triangular shape.
  • FIG. 9 shows an enlarged view of the gap 71 portion, and a triangular pyramid-shaped reflecting wall 72 is erected at the position of the gap 71.
  • the reflecting walls 72 are manufactured so that the three reflecting surfaces of the reflecting wall 72 face the pixels below the respective microlenses 70. Thereby, the light incident from the gap 71 between the microlenses is reflected by the reflecting surface in the incident direction, and is incident on the pixel that should be incident.
  • the reflection wall 72 may have a conical shape.
  • the triangular pyramid-shaped reflection wall 72 is provided.
  • a single plate-shaped wedge-shaped reflection wall 75 is formed by connecting two adjacent reflection walls 72. Also good.
  • FIG. 11 shows a perspective view of the wedge-shaped reflection wall 75.
  • the reflection wall 75 has a trapezoidal shape when viewed from the front and an isosceles triangle when viewed from the side, and has four reflective surfaces 75a, 75b, 75c, and 75d.
  • the reflection wall 75 is located between the four microlenses 70, and each reflection surface is provided in a direction facing the microlens side. As a result, light that has entered from a portion having a large gap between the microlenses 70 is reflected by each reflecting surface, and the color separation performance is improved.
  • the pixel arrangement is an example of a honeycomb pixel arrangement, and one elliptical microlens 70 is provided for two phase difference detection pixels that are obliquely adjacent to each other.
  • the pixels are arranged in a square lattice arrangement.
  • the present invention can be similarly applied to the solid-state imaging device. This is shown in FIG. In the case of FIG. 12, the elliptical microlens 70 is continuous in the horizontal direction.
  • a reflecting wall having a triangular pyramid shape or a conical shape may be erected at a location that is separated.
  • the wedge-shaped reflection wall 75 described in FIGS. 10 and 11 may be erected.
  • FIG. 12 shows an example in which a reflecting wall 75 is provided.
  • FIGS. 13 shows an arrangement in which the color filter array shown in FIG. 14, diagonal rows of microlenses are arranged as G filter mounted pixels every other row, and the remaining B filters and R filters are alternately provided in two rows.
  • the microlens columns are shifted by half a pitch every other row.
  • the microlenses 70 may be arranged without being displaced in both the horizontal and vertical directions.
  • the gap 76 formed when the four microlenses 70 are adjacent to each other has a quadrangular shape.
  • the reflective wall provided at the position of the gap 76 may be a quadrangular pyramid-shaped or conical-shaped reflective wall as in the embodiment described with reference to FIGS. If the wedge-shaped reflecting wall 75 shown in FIG. 11 is provided in the gap 76, a large number of reflecting walls 75 are continuous in the vertical direction, which may reduce the light receiving sensitivity of each pixel. However, there is no problem if each pixel has a large solid-state imaging device.
  • FIG. 16 shows a solid-state imaging device in which one microlens 80 is mounted on four pixels.
  • a quadrangular gap 81 surrounded by the four adjacent microlenses 80 is formed, but this may also be provided with the quadrangular pyramid-shaped or conical reflecting walls described with reference to FIGS. .
  • Each embodiment described above is a back-illuminated CMOS image sensor, but can be applied to other MOS image sensors. Further, it can also be applied to a backside illumination type or a frontside illumination type CCD image sensor.
  • the wiring layer is provided on the light incident side. However, if the reflection wall 60 is provided at a corresponding position on the upper side of the wiring layer, an effect of preventing color mixture can be obtained.
  • the microlens formation position is shifted toward the center of the light-receiving surface with respect to the corresponding charge accumulation region (pixel) formation position.
  • an isolated columnar reflecting wall standing at a diagonal position of peripheral pixels may be set up obliquely in accordance with the shift position of the microlens.
  • the digital camera has been described as the embodiment of the photographing apparatus of the present invention, but the configuration of the photographing apparatus is not limited to this.
  • a built-in type or an external type PC camera or a portable terminal device having a shooting function as described below can be used.
  • Examples of the portable terminal device that is an embodiment of the photographing apparatus of the present invention include a mobile phone, a smartphone, a PDA (Personal Digital Assistant), and a portable game machine.
  • a smartphone will be described as an example, and will be described in detail with reference to the drawings.
  • FIG. 17 shows an appearance of a smartphone 200 that is an embodiment of the photographing apparatus of the present invention.
  • a smartphone 200 illustrated in FIG. 17 includes a flat housing 201, and a display input in which a display panel 202 as a display unit and an operation panel 203 as an input unit are integrated on one surface of the housing 201. Part 204 is provided.
  • Such a casing 201 includes a speaker 205, a microphone 206, an operation unit 207, and a camera unit 208.
  • the configuration of the housing 201 is not limited thereto, and for example, a configuration in which the display unit and the input unit are independent can be employed, or a configuration having a folding structure and a slide mechanism can be employed.
  • FIG. 18 is a block diagram showing a configuration of the smartphone 200 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 210, a display input unit 204, a call unit 211, an operation unit 207, a camera unit 208, a storage unit 212, and an external input / output unit. 213, a GPS (Global Positioning System) receiving unit 214, a motion sensor unit 215, a power supply unit 216, and a main control unit 220.
  • a wireless communication function for performing mobile wireless communication via a base station device BS (not shown) and a mobile communication network NW (not shown) is provided.
  • the wireless communication unit 210 performs wireless communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 220. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.
  • the display input unit 204 displays images (still images and moving images), character information, and the like, visually transmits information to the user under the control of the main control unit 220, and detects user operations on the displayed information.
  • a so-called touch panel which includes a display panel 202 and an operation panel 203.
  • the display panel 202 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • the operation panel 203 is a device on which an image displayed on the display surface of the display panel 202 is placed so as to be visible, and detects one or a plurality of coordinates operated by a user's finger or stylus. When this device is operated with a user's finger or stylus, a detection signal generated due to the operation is output to the main control unit 220. Next, the main control unit 220 detects an operation position (coordinates) on the display panel 202 based on the received detection signal.
  • the display panel 202 and the operation panel 203 of the smartphone 200 exemplified as an embodiment of the photographing apparatus of the present invention integrally constitute a display input unit 204.
  • the arrangement 203 covers the display panel 202 completely.
  • the operation panel 203 may have a function of detecting a user operation even in an area outside the display panel 202.
  • the operation panel 203 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 202 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 202. May be included).
  • the operation panel 203 may include two sensitive areas of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 201 and the like.
  • the position detection method employed in the operation panel 203 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, and the like. You can also
  • the call unit 211 includes a speaker 205 and a microphone 206, converts user's voice input through the microphone 206 into voice data that can be processed by the main control unit 220, and outputs the voice data to the main control unit 220. 210 or the audio data received by the external input / output unit 213 is decoded and output from the speaker 205.
  • the speaker 205 can be mounted on the same surface as the display input unit 204 and the microphone 206 can be mounted on the side surface of the housing 201.
  • the operation unit 207 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 207 is mounted on the side surface of the housing 201 of the smartphone 200 and is turned on when pressed with a finger or the like, and turned off when the finger is released with a restoring force such as a spring. It is a push button type switch.
  • the storage unit 212 includes a control program and control data of the main control unit 220, application software, address data that associates the name and telephone number of a communication partner, transmitted / received e-mail data, Web data downloaded by Web browsing, The downloaded content data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 212 includes an internal storage unit 217 built in the smartphone and an external storage unit 218 having a removable external memory slot.
  • Each of the internal storage unit 217 and external storage unit 218 constituting the storage unit 212 includes a flash memory type (flash memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), It is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory) or the like.
  • flash memory type flash memory type
  • hard disk type hard disk type
  • multimedia card micro type multimedia card micro type
  • a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory) or the like.
  • the external input / output unit 213 serves as an interface with all external devices connected to the smartphone 200, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE 1394, etc.
  • a network for example, the Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark), ZigBee ( ZigBee) (registered trademark, etc.) for direct or indirect connection.
  • Examples of external devices connected to the smartphone 200 include a memory card connected via a wired / wireless headset, wired / wireless external charger, wired / wireless data port, card socket, and SIM (Subscriber).
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video equipment connected via audio / video I / O (Input / Output) terminal
  • external audio / video equipment connected wirelessly, yes / no
  • the external input / output unit 213 transmits data received from such an external device to each component inside the smartphone 200, or allows the data inside the smartphone 200 to be transmitted to the external device. Can do.
  • the GPS receiving unit 214 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 220, executes positioning calculation processing based on the received plurality of GPS signals, and the latitude of the smartphone 200 Detect the position consisting of longitude and altitude.
  • the GPS reception unit 214 can acquire position information from the wireless communication unit 210 or the external input / output unit 213 (for example, a wireless LAN), the GPS reception unit 214 can also detect the position using the position information.
  • the motion sensor unit 215 includes, for example, a three-axis acceleration sensor, and detects the physical movement of the smartphone 200 in accordance with an instruction from the main control unit 220. By detecting the physical movement of the smartphone 200, the moving direction and acceleration of the smartphone 200 are detected. The detection result is output to the main control unit 220.
  • the power supply unit 216 supplies power stored in a battery (not shown) to each unit of the smartphone 200 in accordance with an instruction from the main control unit 220.
  • the main control unit 220 includes a microprocessor, operates according to a control program and control data stored in the storage unit 212, and controls each unit of the smartphone 200 in an integrated manner.
  • the main control unit 220 includes a mobile communication control function that controls each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 210.
  • the application processing function is realized by the main control unit 220 operating according to the application software stored in the storage unit 212.
  • Application processing functions include, for example, an infrared communication function that controls the external input / output unit 213 to perform data communication with the opposite device, an e-mail function that transmits and receives e-mails, and a web browsing function that browses web pages. .
  • the main control unit 220 has an image processing function such as displaying video on the display input unit 204 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 220 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 204.
  • the main control unit 220 executes display control for the display panel 202 and operation detection control for detecting a user operation through the operation unit 207 and the operation panel 203.
  • the main control unit 220 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 202.
  • the main control unit 220 detects a user operation through the operation unit 207 or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 203. Or a display image scroll request through a scroll bar.
  • the main control unit 220 causes the operation position with respect to the operation panel 203 to overlap with the display panel 202 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 202.
  • a touch panel control function for controlling the sensitive area of the operation panel 203 and the display position of the software key.
  • the main control unit 220 can also detect a gesture operation on the operation panel 203 and execute a preset function in accordance with the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 208 is a digital camera that performs electronic photography using an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device).
  • the camera unit 208 converts image data obtained by imaging into compressed image data such as JPEG (Joint Photographic coding Experts Group) under the control of the main control unit 220 and records the data in the storage unit 212 or externally.
  • the data can be output through the input / output unit 213 and the wireless communication unit 210.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge-Coupled Device
  • the camera unit 208 is mounted on the same surface as the display input unit 204, but the mounting position of the camera unit 208 is not limited to this, and the camera unit 208 may be mounted on the back surface of the display input unit 204. Alternatively, a plurality of camera units 208 may be mounted. When a plurality of camera units 208 are installed, the camera unit 208 used for shooting can be switched to perform shooting alone, or a plurality of camera units 208 can be used for shooting simultaneously.
  • the camera unit 208 can be used for various functions of the smartphone 200.
  • an image acquired by the camera unit 208 can be displayed on the display panel 202, or the image of the camera unit 208 can be used as one of operation inputs of the operation panel 203.
  • the GPS receiving unit 214 detects a position
  • the position can be detected with reference to an image from the camera unit 208.
  • the optical axis direction of the camera unit 208 of the smartphone 200 can be determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 208 can also be used in the application software.
  • the position information acquired by the GPS receiver 214 to the image data of the still image or the moving image, the voice information acquired by the microphone 206 (the text information may be converted into voice information by the main control unit or the like), Posture information and the like acquired by the motion sensor unit 215 can be added and recorded in the storage unit 212 or output through the external input / output unit 213 or the wireless communication unit 210.
  • the imaging device includes a semiconductor substrate in which a plurality of pixels are arranged in a two-dimensional array, a color filter layer stacked on the semiconductor substrate at a position corresponding to the pixel, and a color filter
  • the semiconductor substrate and the microlens are stacked for each of a plurality of microlenses that are stacked on the upper layer of the filter layer and collect light incident on the pixels, and gaps that are surrounded by the adjacent microlenses.
  • an isolated columnar reflecting wall that reflects light incident on the color filter from the gap in a direction toward the pixel corresponding to the color filter.
  • the reflection wall of the image pickup device of the embodiment is characterized by being configured in a pyramid shape, a cone shape, or a wedge shape with apexes formed on the color filter layer side.
  • the shape of the gap formed by the three microlenses is a triangular shape
  • the reflecting wall is a triangular pyramid shape or a conical shape.
  • the shape of the gap formed by being surrounded by the four microlenses is a quadrangular shape
  • the reflecting wall is a quadrangular pyramid shape or a conical shape.
  • the shape of the gap formed by being surrounded by the three microlenses is a triangle shape, and the reflection wall is a wedge shape connecting between the adjacent triangular gaps. It is characterized by being.
  • the reflection wall of the imaging element of the embodiment includes a reflection surface that totally reflects incident light based on a refractive index difference between the constituent material of the intermediate layer and the constituent material of the reflection wall.
  • the reflection wall of the image sensor according to the embodiment includes a metal reflection surface.
  • the image pickup device of the embodiment is characterized in that some or all of the pixels are configured by a phase difference detection pixel pair in which light shielding film openings are formed eccentrically in opposite directions.
  • each of the microlenses is provided in common to a plurality of adjacent pixels in which color filters of the same color are stacked, and all the pixels are configured by microlens sharing type phase difference detection pixels. It is characterized by that.
  • the image pickup apparatus is characterized by mounting any one of the image pickup elements described above.
  • the image pickup device has high color separation performance, high light receiving sensitivity, and can obtain a picked-up image signal with high S / N. It is useful when applied to an imaging apparatus such as a device or an electronic endoscope apparatus. In particular, the present invention is useful when applied to an imaging apparatus that performs an AF method using phase difference detection pixels or a monocular 3D camera.
  • Imaging device 21 Imaging element 50 Pixel 51 Microlens 53, 71 Gap 60 between microlenses 60 Pyramid shaped reflecting walls 60a, 60b, 60c, 60d Reflecting surface 64 Light shielding film 64a Light shielding film opening 66 Color filter layer 55a, 55b Light-shielding film opening 70 for phase difference detection pixel Micro lens 72 for pupil division Triangular pyramid-shaped reflecting wall 75 Wedge-shaped reflecting walls 75a, 75b, 75c, 75d Reflecting surface

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

 複数の画素が二次元アレイ状に配列形成された半導体基板と、半導体基板の上層に画素に対応する位置に積層されたカラーフィルタ層と、カラーフィルタ層の上層に積層され画素に入射する光を集光する複数のマイクロレンズと、隣接する複数の前記マイクロレンズに囲まれて形成される隙間の位置毎に、半導体基板とマイクロレンズとの間の中間層内に立設され、かつ、隙間からカラーフィルタに入射する光を、そのカラーフィルタに対応する画素に向かう方向に反射する孤立した柱状の反射壁とを設ける。

Description

撮像素子及び撮像装置
 本発明は、撮像素子及び撮像装置に係り、特に、受光感度が高くかつ色分離性能が優れ、しかも高速駆動が可能な撮像素子及び撮像装置に関する。
 近年のデジタルカメラに搭載される単板式カラー画像撮像用の撮像素子は、多画素化が進展し、1千万画素以上を持つのが普通になっている。多画素化が図られた固体撮像素子は、1画素1画素が微細化されると共に、画素間のピッチが狭くなっている。この結果、ある画素への入射光が、隣接画素つまり色違い画素に洩れ出てしまう量の割合が増え、混色が発生してしまう。
 そこで従来は、特許文献1,2に記載されている様に、画素間に、断面が三角形状の遮光部を設け、隣接画素への入射光の洩れが少なくなる様にしている。この遮光部を、特許文献2に記載されている様に、カラーフィルタ層やマイクロレンズ層の方向に高く形成し、かつ全反射膜で形成することで、より隣接画素への入射光の洩れ量を減らすことができる。
日本国特開2011―119445号公報 日本国特開2009―88415号公報
 画素間に断面三角形状の遮光壁を立設することで、色分離性能は向上する。しかし、図19に示す様に、各画素5間を分離する位置に遮光壁6を設けると、遮光壁6は、図19に示す例では井桁状(格子状)に設けることになる。つまり、各画素5の受光面は、四方が遮光壁6で囲まれた状態になる。
 画素の四方が遮光壁6で囲まれた状態の各画素の受光感度をシミュレーションで求めてみると、遮光壁6が無い状態に比較して、約20%の低下があることが分かる。多画素化が図られた固体撮像素子は、1画素1画素の受光面積が狭く、もともと受光感度は高くないため、この20%の感度低下は、撮像画像の品質を大きく劣化させてしまう。
 また、井桁状の遮光壁6を、特許文献2に記載されている様に、金属膜で形成すると、遮光壁6の電気的な負荷容量成分が大きくなり、これが固体撮像素子の駆動速度を低下させてしまうという問題も生じる。
 本発明の目的は、受光感度が高くかつ色分離性能が優れ、しかも高速駆動が可能な撮像素子及びこの撮像素子を搭載した撮像装置を提供することにある。
 本発明の撮像素子は、複数の画素が二次元アレイ状に配列形成された半導体基板と、その半導体基板の上層に上記画素に対応する位置に積層されたカラーフィルタ層と、そのカラーフィルタ層の上層に積層され上記画素に入射する光を集光する複数のマイクロレンズと、隣接する複数の上記マイクロレンズに囲まれて形成される隙間の位置毎に、上記半導体基板と上記マイクロレンズとの間の中間層内に立設され、かつ、上記隙間から上記カラーフィルタに入射する光を、そのカラーフィルタに対応する上記画素に向かう方向に反射する孤立した柱状の反射壁とを備える。
 本発明の撮像装置は、上記の撮像素子を搭載したことを特徴とする。
 本発明によれば、マイクロレンズ間の隙間毎に、柱状の孤立した反射壁を設けることで、入射光の隣接画素への漏洩を阻止して混色抑制を図ることができ、遮光壁が孤立した島状に設けられるため、各画素の受光感度を落とすこともない。更に、遮光壁を金属製としても、各遮光壁が孤立した島状なため、電気的な負荷容量が小さくなり、高速駆動に支障は生じない。
本発明の第1の実施形態に係る撮像装置の外観斜視図である。 図1に示す撮像装置の機能ブロック構成図である。 図2に示す固体撮像素子の表面模式図である。 図3に示すマイクロレンズ層の下層の表面模式図である。 図4のIV―IV線断面模式図である。 画素配列がハニカム配列の固体撮像素子に係る本発明の第2の実施形態の表面模式図である。 図6の実施形態に位相差検出画素を設けた表面模式図である。 画素配列がハニカム配列でマイクロレンズ共有方式により全画素を位相差検出画素にした固体撮像素子の表面模式図である。 図8の固体撮像素子に本発明の第3実施形態に係る反射壁を設けた固体撮像素子の要部拡大表面模式図である。 図9とは異なる本発明の第4実施形態に係る表面模式図である。 図10の実施形態で用いたくさび形の反射壁の外観斜視図である。 画素配列が正方格子配列の固体撮像素子に図10のくさび形反射壁を適用した実施形態の表面模式図である。 図12の実施形態に適用するカラーフィルタ配列を示す図である。 図13とは異なるカラーフィルタ配列を示す図である。 図10とは異なるマイクロレンズ配列を持つ固体撮像素子の表面模式図である。 画素配列が正方格子配列で4画素に1つのマイクロレンズを搭載した固体撮像素子の表面模式図である。 本発明の別実施形態に係る撮像装置の外観斜視図である。 図17に示す撮像装置の機能ブロック構成図である。 従来の固体撮像素子の説明図である。
 以下、本発明の一実施形態について、図面を参照して説明する。
 図1は、本発明の一実施形態に係る撮像装置(デジタルカメラ)10の外観斜視図である。このデジタルカメラ10は、矩形の筐体11の前部に、撮影レンズ12を備える。この撮影レンズ12は、沈胴式のレンズ鏡筒13内に収納されている。筐体11の向かって左肩部分にはシャッタレリーズボタン14が設けられている。筐体11の背面には、撮影画像やスルー画像(ライブビュー画像),カメラメニュー画像等を表示する液晶表示部(図2のLCD16)が設けられている。右肩部分の前部にはフラッシュ発光部44が設けられている。
 図2は、図1に示すデジタルカメラの機能ブロック構成図である。このデジタルカメラ10は、撮影レンズ12の背部に設けられた固体撮像素子(この実施形態では、裏面照射型のCMOSイメージセンサ)21と、デジタルカメラ10を統括的に制御するCPU(中央演算処理装置)22を備える。
 CPU22は、バス23に接続され、このバス23に、フレームメモリ24と、画像処理を行う信号処理部(DSP)25と、JPEG形式等に圧縮された撮影画像データを外部メモリカード26に保存するカードインタフェース(I/F)27と、カメラ背面のLCD(液晶表示部)16の表示制御を行う表示制御部28と、LCD16に表示する文字情報等のOSD信号を発生させるOSD信号発生部29とが接続される。
 CPU22には、制御プログラム等を格納したROM22aやRAM22bが接続されており、また、シャッタレリーズボタン14を含む操作部40が接続されている。また、このデジタルカメラ10には、撮影レンズ12のフォーカスレンズ位置等を制御するレンズ駆動部41と、固体撮像素子21の駆動タイミング信号を発生するタイミングジェネレータ(TG)42と、固体撮像素子21を駆動するドライバ43と、発光部44の発光制御を行うフラッシュ制御回路45とが設けられており、これらはCPU22によって制御指示される。
 CPU22は、配下のDSP25等を用いて、各種制御処理を行う。例えば、後述する位相差検出画素を搭載した固体撮像素子21の場合には、位相差検出画素から出力される信号を処理し、被写体までの距離を算出し、撮影レンズ12のフォーカスレンズ位置を調整して、被写体に合焦した画像を撮像する。
 あるいは、全画素を位相差検出画素とした固体撮像素子21の場合には、位相差検出画素ペアの一方と他方の撮像画像信号から、左眼で見た状態の被写体画像と右眼で見た状態の被写体画像を生成し、立体視可能な画像を生成する。
 図3は、固体撮像素子21の一例を示す表面模式図である。半導体基板には、二次元アレイ状に、この例では正方格子状に複数の画素(光電変換部)50が形成されている。そして、各画素50の上方に、○印で示すマイクロレンズ(オンチップレンズ)51が形成されている。各画素50上に記載したR(赤)G(緑)B(青)は、カラーフィルタの色を表している。この例では、三原色のカラーフィルタがベイヤ配列された固体撮像素子21を示している。
 図4は、図3からマイクロレンズ層の下側から半導体基板方向を見た図である。固体撮像素子21のうち、本実施形態の柱形状の孤立した多数の反射壁60を設ける位置を示している。図19の井桁状の遮光壁6に比較すると、本実施形態では、井桁状の格子点の位置にだけに、島状の反射壁60を立設している。
 ここで、本願発明の実施形態における原理と、従来の特許文献1,2との違いを説明する。特許文献1や特許文献2に記載の遮光壁は、マイクロレンズにより屈折を受けた光を更に画素部に導くためのものなので、マイクロレンズの内側に形成する必要がある。しかし、隣接するマイクロレンズ間に形成される後述の隙間53に入射した光による混色を防止する効果は乏しく、また、混色に大きく影響する光は、隣接するマイクロレンズ間に形成される隙間53に入射する光であることを本願発明者は見出し、この実施形態に記載の島状の反射壁60を設けることとした。
 特許文献1や特許文献2に記載の遮光壁は、井桁状に形成され、複数の隣接するマイクロレンズ間に形成される隙間ではない場所にまで形成している。そのため、マイクロレンズによって屈折され、画素に向かう光まで遮光してしまい、かえって感度を低下させる場合がある。これに対し、必要な場所にしか島状の反射壁60を設けない本願発明の実施形態では、感度低下を最小限に抑えることができる。
 図3に示す様に、マイクロレンズ51が4個隣接する場所では、四角形状の隙間53が大きくなる。つまり各画素50の対角位置の隙間が大きくなる。入射光の隣接画素への漏洩は、マイクロレンズ51を通ることなく、隙間53を通って入射した光が殆どである。マイクロレンズ51を通る入射光は、マイクロレンズによって画素の中心の方向に屈折するが、隙間53に入射した光は、マイクロレンズによる屈折を受けず、隣接する画素に入射してしまう。
 そこで、隙間53から入射した光が、入射した側に在る画素の方向に反射する様に、各反射壁60を、4面の反射面を備える四角錐形状で形成するのが良い。その頂点位置は、格子点位置(隙間53の中心位置:この位置は、カラーフィルタの画素毎の区画位置にも一致する。)となる様に製造するのが良い。
 四角錐の夫々の反射面で反射した光は、反射面が向く画素に入射することになる。つまり、図4の右下の反射壁60で言えば、反射面60aは画素50a側に向き、反射面60bは画素50b側に、反射面60cは画素50c側に、反射面60dは画素50d側に向く様に、四角錐形状の反射壁60が製造されている。柱状の反射壁60は、四角錐形状でなく円錐形状でも良く、入射光の反射壁60による反射光が、反射面の向く方向の画素に入射する様になれば良い。
 図5は、図4のV-V線断面模式図である。半導体基板62の裏面側表面には透明な絶縁層63が積層され、その上に、遮光膜64が積層される。遮光膜64は、画素に対応する位置に開口64aが設けられており、上面から見たとき井桁状になっている。画素50となる電荷蓄積領域(光電変換領域)は、遮光膜開口64aに臨む位置の半導体基板表面側に形成される。
 遮光膜64の井桁状の格子点位置の上に、四角錐形状の反射壁60が立設される。反射壁60は、本実施形態では、二酸化シリコン(SiO)で形成される。反射壁60を除く箇所の半導体基板62の裏面側上層には、窒化シリコン(SiN)層65が積層され、上面が平坦化される。
 窒化シリコン層65の上に、カラーフィルタ層66が積層され、その上に、平坦化層67が積層され、その上に、マイクロレンズ51が形成される。
 反射壁60の先端は、カラーフィルタ層66のうち、その画素に対応するカラーフィルタ66aと隣接画素に対応するカラーフィルタ66bとの区画位置66cに整列する様に、反射壁60及びカラーフィルタ層66が形成される。
 この様な構造を持つ固体撮像素子21では、マイクロレンズ50間の隙間53からカラーフィルタ66aに入射した被写体からの光は、反射壁60の反射面によって反射され、カラーフィルタ66aに対応する画素に向かう方向に進むことになる。隙間53を通りカラーフィルタ66bに入射した光は、カラーフィルタ66bに対応する画素の方向に進む。これにより、混色防止が図られる。
 本実施形態の反射壁60は、各々が連続せずに孤立した島状に形成されるため、各画素の受光感度は低下せずに、高感度かつS/Nの高い被写体画像を撮像することが可能となる。
 この反射壁60を、金属膜で形成することも可能である。本実施形態の反射壁60は、島状に孤立した形状であるため、これを電極膜や配線層の膜とは分離した金属膜製とすることも可能である。反射壁60が個々に孤立しているため、電気的な負荷容量成分は小さく、固体撮像素子21を高速駆動するときでも、妨げになることはないからである。
 図5に示す二酸化シリコン製の反射壁60は、次の様にして製造することが可能である。半導体基板62の上に絶縁層63を積層し、遮光膜開口64aを持つ遮光膜64を形成する。そして、その上に、厚手に、二酸化シリコン層を積層する。
 次に、反射壁60を形成する箇所の二酸化シリコン層を残し、他の場所の二酸化シリコン層をエッチングで除去する。エッチング深さが深くなるほど水平方向のエッチング速度が遅くなる条件でエッチングすることで、錐形状の孤立した柱状反射壁60が製造できる。
 遮光膜開口64aを通して絶縁層63までエッチングした後、今度は、厚手に、窒化シリコン層65を積層する。そして、表面を平坦化した後、カラーフィルタ層66,平坦化層67,マイクロレンズ層51を積層する。
 反射壁60が屈折率の低い二酸化シリコンで形成され、入射光の画素50への導波路となる箇所が屈折率の高い窒化シリコン層65で形成されるため、窒化シリコン層65から反射壁60に進んだ光は、全反射する。これにより、マイクロレンズ間の隙間53から入射し、反射壁60で全反射した光は、ロス無く、対応画素に入射することになる。
 図6は、本発明の別実施形態に係る固体撮像素子21の表面模式図である。この固体撮像素子21は、奇数行の画素行が偶数行の画素行に対して1/2画素ピッチずつずらして形成された、所謂、ハニカム画素配列となっている。
 この様な固体撮像素子21でも、最隣接4画素の夫々に積層される4つのマイクロレンズ51の隣接箇所にできる隙間の位置に、四角錐形状の反射壁60を立設する。勿論、円錐形状でも良い。これにより、色違いの隣接画素への入射光の漏洩が防止され、色分離性能が向上する。また、島状に孤立した多数の反射壁60が立設されるため、各画素の受光感度は低下せずに、明るい画像を撮像することが可能となる。
 図6に図示するカラーフィルタ配列は、奇数行の画素行に三原色のカラーフィルタRGBをベイヤ配列し、偶数行の画素行にも三原色のカラーフィルタr(=R)g(=G)b(=B)をベイヤ配列している。つまり、斜めに隣接する画素が同色のカラーフィルタを持つことになる。
 この様に、2つの隣接画素が同色画素になる場合、2つの隣接画素をペア画素とし、位相差検出画素ペアとすることができる。例えば図7に示す様に、ペア画素の一方の遮光膜開口55aと、他方の遮光膜開口55bとを、通常画素の遮光膜開口64a(図5参照)より小さな開口にすると共に、両者を互いに反対方向に偏心して設ける。これにより、位相差検出画素ペアの一方には右眼で被写体を見た光が入射し、他方には左眼で被写体を見た光が入射することになる。
 この様な位相差検出画素ペアを、固体撮像素子21の撮像面上の離散的位置に設けておくことで、位相差検出画素の検出信号から被写体までの距離を算出することが可能になる。なお、この様な位相差検出画素を持つ固体撮像素子については既に公知であり、例えば、特開2012-058522号公報などに記載されている。
 通常画素より開口面積の小さな遮光膜開口55a,55bを持つ位相差検出画素は、当然、通常画素より、受光感度が小さくなる。このため、周りの色違い画素からの漏洩光が入射してくると、高精度な位相差量の検出ができなくなってしまう。しかし、図7に示す様に、マイクロレンズ間の隙間位置に反射壁60を立設しておけば、受光感度を犠牲にすることなく色分離性能が向上し、高精度な位相差量の検出が容易となる。
 図7では、位相差量を検出するために、小さくした遮光膜開口55a,55bを互いに反対方向に偏心して設け、位相差検出画素ペアの瞳分割を行った。これを固体撮像素子21に搭載される全画素のペアについて行うと、被写体の立体カラー画像を、単眼の固体撮像素子21だけで撮像することが可能になる。
 しかし、遮光膜開口を小さくするため、各画素の受光感度が低下してしまう。そこで、遮光膜開口を通常画素と同じ大きさとし、位相差検出画素ペアに一つのマイクロレンズを搭載することで瞳分割を行うのが良い。2画素に1つのマイクロレンズを搭載することで瞳分割し、位相差検出画素とする従来技術として、例えば特開2007―281296号公報等に記載のものがある。
 図8は、図6と同じ画素配列,同じカラーフィルタ配列で、斜めに隣接するペア画素の夫々に、楕円形状の瞳分割用マイクロレンズ70を設け、単眼で被写体の3D(立体)画像を撮像できる様にしている。
 この場合も問題となるのが、混色防止つまり色分離性能である。そこで、図8の実施形態でも、上述した実施形態と同様に、柱状の孤立した反射壁を設ける。
 図8の実施形態では、楕円状のマイクロレンズ70が長円方向に並んでいるが、マイクロレンズ70の斜め方向の列に対する一列となりの列では、マイクロレンズ70が半ピッチ分ずれている。このため、マイクロレンズ70の3個が隣接してできる隙間71は、三角形状となる。そこで、図9に隙間71部分を拡大した図を示すが、この隙間71の位置に、三角錐形状の反射壁72を立設する。
 反射壁72には、3つのマイクロレンズ70が隣接するが、反射壁72の3つの反射面が夫々のマイクロレンズ70下部の画素に面するように、反射壁72を製造する。これにより、マイクロレンズ間の隙間71から入射した光は、入射してきた方向の反射面で反射され、本来入射すべき画素に入射することになる。なお、前述と同様に、反射壁72は、円錐形状でも良い。
 図9に示す実施形態では、三角錐形状の反射壁72を設けたが、隣接する2つの反射壁72を繋げて、図10に示す様に、1個の平板形状のくさび型反射壁75としても良い。
 図11に、くさび型反射壁75の斜視図を示す。反射壁75は、正面から見ると台形、側面から見ると二等辺三角形をしており、4面の反射面75a,75b,75c,75dを持つ。反射壁75は、4つのマイクロレンズ70の間に位置し、各反射面は、各マイクロレンズ側に面する方向に設けられる。これにより、マイクロレンズ70間の隙間の大きな箇所から入射した光は、各反射面で反射され、色分離性能が向上する。
 図8,図9,図10では、画素配列がハニカム画素配列を例にし、斜めに隣接する2画素の位相差検出画素に1つの楕円形状のマイクロレンズ70を設けたが、画素が正方格子配列された固体撮像素子にも同様に適用可能である。これを図12に示す。図12の場合、楕円形状のマイクロレンズ70は、水平方向に連続することになる。
 この実施形態でも、図8,図9の実施形態と同様に、マイクロレンズ70間のギャップが大きくなる箇所、つまり、マイクロレンズ70の円弧状の縁が、隣接マイクロレンズ70と接することができず離間してしまう箇所に、三角錐形状又は円錐形状の反射壁を立設すれば良い。あるいは、図10,図11に記載したくさび形の反射壁75を立設すれば良い。図12は、反射壁75を設けた例を示している。
 1つの楕円形マイクロレンズ70の下側に設けられる2つの画素は、同色のカラーフィルタを持つ必要があるが、このカラーフィルタの配列は任意である。図13,図14に一例を示す。図13は、図8に示すカラーフィルタ配列を45度傾けて水平にした配列となっている。図14は、マイクロレンズの斜めの列が一列置きにGフィルタ搭載画素となり、残りがBフィルタとRフィルタが2行ずつ交互に設けられている。
 図8,図12~図14の実施形態は、マイクロレンズの列が1行置きに半ピッチずれている。しかし、図15に示す様に、各マイクロレンズ70が、水平方向,垂直方向共に、ずれることなく配列される場合もある。この場合、4つのマイクロレンズ70が隣接することで形成される隙間76は、四角形状となる。このため、この隙間76の位置に設ける反射壁は、図4,図5で説明した実施形態と同様に、四角錐形状又は円錐形状の反射壁とすれば良い。この隙間76に、図11に示すくさび形の反射壁75を設けると、垂直方向に多数の反射壁75が連続してしまい、各画素の受光感度を低下させる虞がある。尤も、1画素1画素が大きな固体撮像素子であれば問題は無い。
 図16は、4画素に1つのマイクロレンズ80を搭載した固体撮像素子を示している。この場合も、最隣接する4個のマイクロレンズ80に囲まれる四角形状の隙間81ができるが、これも、図4,図5で説明した四角錐形状又は円錐形状の反射壁を設ければ良い。
 なお、上述した各実施形態は、裏面照射型のCMOSイメージセンサであるが、他のMOS型イメージセンサにも適用可能である。また、裏面照射型や表面照射型のCCDイメージセンサにも適用できる。表面照射型のMOSイメージセンサは、配線層が光入射側に設けられるが、配線層の上側の該当個所に反射壁60を設ければ、混色防止の効果が得られる。
 固体撮像素子では、中央部の画素に対し周辺部の画素の感度が低下するのを防止するために、例えば特開平1―213079号公報や特開2007―201090号公報に記載されている様に、マイクロレンズの形成位置を、対応する電荷蓄積領域(画素)の形成位置に対して、受光面中心方向にずらすものがある。この様なシェーディング対策が施された固体撮像素子の場合、周辺画素の対角位置に立設する孤立した柱状の反射壁を、マイクロレンズのずらし位置に合わせて斜めに立設すれば良い。
 以上、本発明の撮影装置の実施形態として、デジタルカメラについて説明してきたが、撮影装置の構成はこれに限定されない。本発明のその他の撮影装置としては、例えば、内蔵型又は外付け型のPC用カメラ、或いは、以下に説明するような、撮影機能を有する携帯端末装置とすることができる。
 本発明の撮影装置の一実施形態である携帯端末装置としては、例えば、携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。
 図17は、本発明の撮影装置の一実施形態であるスマートフォン200の外観を示すものである。図17に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。また、この様な筐体201は、スピーカ205と、マイクロホン206、操作部207と、カメラ部208とを備えている。なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用したりすることもできる。
 図18は、図17に示すスマートフォン200の構成を示すブロック図である。図18に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部204は、主制御部220の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。
 表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。
 図17に示すように、本発明の撮影装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体201の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部211は、スピーカ205やマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力するものである。また、図17に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。
 操作部207は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図17に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部212は、主制御部220の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達することや、スマートフォン200の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、そのスマートフォン200の緯度、経度、高度からなる位置を検出する。GPS受信部214は、無線通信部210や外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部215は、例えば、3軸の加速度センサなどを備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向や加速度が検出される。係る検出結果は、主制御部220に出力されるものである。
 電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部220は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。
 更に、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部208は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部208は、主制御部220の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部212に記録したり、外部入出力部213や無線通信部210を通じて出力することができる。図17に示すにスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよいし、あるいは、複数のカメラ部208が搭載されてもよい。なお、複数のカメラ部208が搭載されている場合には、撮影に供するカメラ部208を切り替えて単独にて撮影したり、あるいは、複数のカメラ部208を同時に使用して撮影することもできる。
 また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示することや、操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用することができる。また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。更には、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等などを付加して記憶部212に記録したり、外部入出力部213や無線通信部210を通じて出力することもできる。
 以上述べた実施形態の撮像素子は、複数の画素が二次元アレイ状に配列形成された半導体基板と、その半導体基板の上層に上記画素に対応する位置に積層されたカラーフィルタ層と、そのカラーフィルタ層の上層に積層され上記画素に入射する光を集光する複数のマイクロレンズと、隣接する複数の上記マイクロレンズに囲まれて形成される隙間の位置毎に、上記半導体基板と上記マイクロレンズとの間の中間層内に立設され、かつ、上記隙間から上記カラーフィルタに入射する光を、そのカラーフィルタに対応する上記画素に向かう方向に反射する孤立した柱状の反射壁と、を備える。
 また、実施形態の撮像素子の上記反射壁は、頂点が上記カラーフィルタ層側に形成された角錐形又は円錐形又はくさび形で構成されることを特徴とする。
 また、実施形態の撮像素子は、上記マイクロレンズ3個に囲まれて形成される上記隙間の形状が三角形状であり、上記反射壁が三角錐形状又は円錐形状であることを特徴とする。
 また、実施形態の撮像素子は、上記マイクロレンズ4個に囲まれて形成される上記隙間の形状が四角形状であり、上記反射壁が四角錐形状又は円錐形状であることを特徴とする。
 また、実施形態の撮像素子は、上記マイクロレンズ3個に囲まれて形成される上記隙間の形状が三角形状であり、上記反射壁が、隣接する上記三角形状の隙間の間を結ぶくさび形形状であることを特徴とする。
 また、実施形態の撮像素子の上記反射壁は、上記中間層の構成材料とその反射壁の構成材料との屈折率差に基づいて入射光を全反射する反射面を備えることを特徴とする。
 また、実施形態の撮像素子の上記反射壁は、金属の反射面を備えることを特徴とする。
 また、実施形態の撮像素子は、上記画素のうち一部画素又は全画素が、遮光膜開口が互いに反対方向に偏心して形成された位相差検出画素ペアで構成されることを特徴とする。
 また、実施形態の撮像素子は、上記マイクロレンズの夫々が、同一色のカラーフィルタが積層された隣接する複数画素に共通に設けられ、全画素がマイクロレンズ共有方式の位相差検出画素で構成されることを特徴とする。
 また、実施形態の撮像装置は、上述したいずれかに記載の撮像素子を搭載したことを特徴とする。
 以上述べた実施形態によれば、微細化を図った撮像素子であっても、混色が抑制されて色分離性能が良く、また、各画素の受光感度も高く、更に、高速駆動することが可能となる。
 本発明に係る撮像素子は、色分離性能が高く、受光感度が高く、S/Nの高い撮像画像信号を得ることができるため、デジタルカメラやデジタルビデオカメラ,カメラ付携帯電話機,カメラ付小型電子機器,電子内視鏡装置等の撮像装置に適用すると有用である。特に、位相差検出画素を用いたAF方式を行う撮像装置や、単眼3Dカメラに適用すると有用である。
 本出願は、2012年3月30日出願の日本特許出願(特願2012-80667)に基づくものであり、その内容はここに参照として取り込まれる。
10,200 撮像装置
21 撮像素子
50 画素
51 マイクロレンズ
53,71 マイクロレンズ間の隙間
60 四角錐形状の反射壁
60a,60b,60c,60d 反射面
64 遮光膜
64a 遮光膜開口
66 カラーフィルタ層
55a,55b 位相差検出画素用の遮光膜開口
70 瞳分割用のマイクロレンズ
72 三角錐形状の反射壁
75 くさび形の反射壁
75a,75b,75c,75d 反射面

Claims (10)

  1.  複数の画素が二次元アレイ状に配列形成された半導体基板と、
     該半導体基板の上層に前記画素に対応する位置に積層されたカラーフィルタ層と、
     該カラーフィルタ層の上層に積層され前記画素に入射する光を集光する複数のマイクロレンズと、
     隣接する複数の前記マイクロレンズに囲まれて形成される隙間の位置毎に、前記半導体基板と前記マイクロレンズとの間の中間層内に立設され、かつ、前記隙間から前記カラーフィルタに入射する光を、当該カラーフィルタに対応する前記画素に向かう方向に反射する孤立した柱状の反射壁と、
    を備える撮像素子。
  2.  請求項1に記載の撮像素子であって、前記反射壁は、頂点が前記カラーフィルタ層側に形成された角錐形又は円錐形又はくさび形で構成される撮像素子。
  3.  請求項2に記載の撮像素子であって、前記マイクロレンズ3個に囲まれて形成される前記隙間の形状が三角形状であり、前記反射壁が三角錐形状又は円錐形状である撮像素子。
  4.  請求項2に記載の撮像素子であって、前記マイクロレンズ4個に囲まれて形成される前記隙間の形状が四角形状であり、前記反射壁が四角錐形状又は円錐形状である撮像素子。
  5.  請求項2に記載の撮像素子であって、前記マイクロレンズ3個に囲まれて形成される前記隙間の形状が三角形状であり、前記反射壁が、隣接する前記三角形状の隙間の間を結ぶくさび形形状である撮像素子。
  6.  請求項1乃至請求項5のいずれか1項に記載の撮像素子であって、前記反射壁は、前記中間層の構成材料と該反射壁の構成材料との屈折率差に基づいて入射光を全反射する反射面を備える撮像素子。
  7.  請求項1乃至請求項5のいずれか1項に記載の撮像素子であって、前記反射壁は金属の反射面を備える撮像素子。
  8.  請求項1乃至請求項5のいずれか1項に記載の撮像素子であって、前記画素のうち一部画素又は全画素が、遮光膜開口が互いに反対方向に偏心して形成された位相差検出画素ペアで構成される撮像素子。
  9.  請求項1乃至請求項5のいずれか1項に記載の撮像素子であって、前記マイクロレンズの夫々が、同一色のカラーフィルタが積層された隣接する複数画素に共通に設けられ、全画素がマイクロレンズ共有方式の位相差検出画素で構成される撮像素子。
  10.  請求項1乃至請求項9のいずれか1項に記載の撮像素子を搭載した撮像装置。
PCT/JP2012/080186 2012-03-30 2012-11-21 撮像素子及び撮像装置 WO2013145433A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014507319A JP5542247B2 (ja) 2012-03-30 2012-11-21 撮像素子及び撮像装置
CN201280072169.7A CN104205332B (zh) 2012-03-30 2012-11-21 摄像元件以及摄像装置
US14/500,154 US9386206B2 (en) 2012-03-30 2014-09-29 Imaging element and imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012080667 2012-03-30
JP2012-080667 2012-03-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/500,154 Continuation US9386206B2 (en) 2012-03-30 2014-09-29 Imaging element and imaging device

Publications (1)

Publication Number Publication Date
WO2013145433A1 true WO2013145433A1 (ja) 2013-10-03

Family

ID=49258767

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/080186 WO2013145433A1 (ja) 2012-03-30 2012-11-21 撮像素子及び撮像装置

Country Status (4)

Country Link
US (1) US9386206B2 (ja)
JP (1) JP5542247B2 (ja)
CN (1) CN104205332B (ja)
WO (1) WO2013145433A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104733482A (zh) * 2013-12-18 2015-06-24 索尼公司 固体摄像装置、固体摄像装置制造方法和电子设备
WO2015170628A1 (ja) * 2014-05-09 2015-11-12 ソニー株式会社 固体撮像装置および電子機器
JP2015228467A (ja) * 2014-06-02 2015-12-17 キヤノン株式会社 光電変換装置および撮像システム
EP2955753A3 (en) * 2014-06-13 2016-03-30 Samsung Electronics Co., Ltd Stacked type image sensor including color separation element and image pickup apparatus including the stacked type image sensor
WO2019131122A1 (ja) * 2017-12-26 2019-07-04 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、距離計測装置、及び製造方法
JP2020515867A (ja) * 2017-04-06 2020-05-28 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 光伝送素子、受光ユニット、光アクチュエータユニット、lidarシステム、作業装置および車両
CN115914861A (zh) * 2021-09-29 2023-04-04 三星电子株式会社 多光谱图像传感器和包括该多光谱图像传感器的电子装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102312964B1 (ko) * 2014-12-15 2021-10-15 에스케이하이닉스 주식회사 이미지 센서 및 그 제조방법
US9360607B1 (en) * 2015-01-15 2016-06-07 Omnivision Technologies, Inc. Color filter array with support structures to provide improved filter thickness uniformity
KR102242563B1 (ko) * 2015-03-11 2021-04-20 삼성전자주식회사 픽셀 패턴 및 이를 포함하는 이미지 센서
JP2017011513A (ja) * 2015-06-23 2017-01-12 ソニー株式会社 撮像装置および撮像方法
CN107039468B (zh) 2015-08-06 2020-10-23 联华电子股份有限公司 影像感测器及其制作方法
US9716868B1 (en) * 2016-03-03 2017-07-25 Omnivision Technologies, Inc. Color filter including diamond-shaped pixels
CN107688243A (zh) * 2017-10-20 2018-02-13 上海天马微电子有限公司 一种显示装置
CN109728044B (zh) * 2018-12-29 2021-07-30 武汉天马微电子有限公司 有机发光显示面板和显示装置
KR20220038222A (ko) * 2020-09-18 2022-03-28 삼성전자주식회사 이미지 센서
KR20220068034A (ko) * 2020-11-18 2022-05-25 삼성전자주식회사 카메라 모듈 및 카메라 모듈을 포함하는 전자 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092392A (ja) * 2001-09-18 2003-03-28 Canon Inc 撮像装置
JP2006295125A (ja) * 2005-01-18 2006-10-26 Matsushita Electric Ind Co Ltd 固体撮像装置及びその製造方法並びにカメラ
JP2011176715A (ja) * 2010-02-25 2011-09-08 Nikon Corp 裏面照射型撮像素子および撮像装置
JP2011193047A (ja) * 2010-03-11 2011-09-29 Olympus Corp 撮像素子、撮像装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8139131B2 (en) 2005-01-18 2012-03-20 Panasonic Corporation Solid state imaging device and fabrication method thereof, and camera incorporating the solid state imaging device
JP2006228938A (ja) 2005-02-17 2006-08-31 Fuji Photo Film Co Ltd 光電変換膜積層型固体撮像素子
KR100809323B1 (ko) * 2006-01-31 2008-03-05 삼성전자주식회사 크로스토크가 감소하고 감도가 증가한 이미지 센서
JP5364989B2 (ja) 2007-10-02 2013-12-11 ソニー株式会社 固体撮像装置およびカメラ
JP4599417B2 (ja) 2008-01-31 2010-12-15 富士フイルム株式会社 裏面照射型固体撮像素子
US8237832B2 (en) * 2008-05-30 2012-08-07 Omnivision Technologies, Inc. Image sensor with focusing interconnections
JP2010067827A (ja) 2008-09-11 2010-03-25 Fujifilm Corp 固体撮像素子及び撮像装置
US20100133638A1 (en) * 2008-12-01 2010-06-03 Samsung Electronics Co., Ltd. Image sensors and methods of manufacturing the same
TWI553844B (zh) * 2009-07-02 2016-10-11 邰祐南 影像感測器及形成影像感測器的方法
JP2011119445A (ja) * 2009-12-03 2011-06-16 Toshiba Corp 裏面照射型固体撮像装置
JP5595298B2 (ja) * 2010-04-06 2014-09-24 キヤノン株式会社 固体撮像装置及び撮像システム
JP2011258728A (ja) 2010-06-08 2011-12-22 Sharp Corp 固体撮像素子および電子情報機器
JPWO2013021541A1 (ja) * 2011-08-10 2015-03-05 パナソニック株式会社 固体撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092392A (ja) * 2001-09-18 2003-03-28 Canon Inc 撮像装置
JP2006295125A (ja) * 2005-01-18 2006-10-26 Matsushita Electric Ind Co Ltd 固体撮像装置及びその製造方法並びにカメラ
JP2011176715A (ja) * 2010-02-25 2011-09-08 Nikon Corp 裏面照射型撮像素子および撮像装置
JP2011193047A (ja) * 2010-03-11 2011-09-29 Olympus Corp 撮像素子、撮像装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104733482A (zh) * 2013-12-18 2015-06-24 索尼公司 固体摄像装置、固体摄像装置制造方法和电子设备
CN104733482B (zh) * 2013-12-18 2020-05-19 索尼公司 固体摄像装置、固体摄像装置制造方法和电子设备
US9911768B2 (en) 2014-05-09 2018-03-06 Sony Corporation Solid state imaging device and electronic apparatus
CN105308748A (zh) * 2014-05-09 2016-02-03 索尼公司 固态成像装置和电子设备
WO2015170628A1 (ja) * 2014-05-09 2015-11-12 ソニー株式会社 固体撮像装置および電子機器
CN105308748B (zh) * 2014-05-09 2020-09-18 索尼公司 固态成像装置和电子设备
JP2015228467A (ja) * 2014-06-02 2015-12-17 キヤノン株式会社 光電変換装置および撮像システム
EP2955753A3 (en) * 2014-06-13 2016-03-30 Samsung Electronics Co., Ltd Stacked type image sensor including color separation element and image pickup apparatus including the stacked type image sensor
US9525006B2 (en) 2014-06-13 2016-12-20 Samsung Electronics Co., Ltd. Stacked type image sensor including color separation element and image pickup apparatus including the stacked type image sensor
JP2020515867A (ja) * 2017-04-06 2020-05-28 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 光伝送素子、受光ユニット、光アクチュエータユニット、lidarシステム、作業装置および車両
US11480663B2 (en) 2017-04-06 2022-10-25 Robert Bosch Gmbh Light transmission element, optical receiving unit, optical actuator unit, LIDAR system, working device and vehicle
WO2019131122A1 (ja) * 2017-12-26 2019-07-04 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、距離計測装置、及び製造方法
CN115914861A (zh) * 2021-09-29 2023-04-04 三星电子株式会社 多光谱图像传感器和包括该多光谱图像传感器的电子装置

Also Published As

Publication number Publication date
CN104205332A (zh) 2014-12-10
CN104205332B (zh) 2016-05-18
JPWO2013145433A1 (ja) 2015-12-10
US20150015768A1 (en) 2015-01-15
JP5542247B2 (ja) 2014-07-09
US9386206B2 (en) 2016-07-05

Similar Documents

Publication Publication Date Title
JP5542247B2 (ja) 撮像素子及び撮像装置
JP5690977B2 (ja) 撮像素子及び撮像装置
JP6151632B2 (ja) 撮像モジュール及び撮像装置
JP5750394B2 (ja) 固体撮像素子及び撮像装置
JP5542249B2 (ja) 撮像素子及びこれを用いた撮像装置及び撮像方法
US9470875B2 (en) Image pickup device
JP6165680B2 (ja) 撮像装置
US9436064B2 (en) Imaging device, and focus-confirmation display method
JP6077967B2 (ja) 撮像装置
JP5926391B2 (ja) 撮像装置及び合焦確認表示方法
JP2021530875A (ja) イメージセンサ及び移動端末
JP5542248B2 (ja) 撮像素子及び撮像装置
US9344646B2 (en) Imaging device and imaging method
JP2013211790A (ja) 撮像装置
JP2014066897A (ja) 領域分割レンズ及びプレノプティックカメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12873361

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014507319

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 12873361

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE