WO2018181358A1 - 撮像装置および撮像素子 - Google Patents

撮像装置および撮像素子 Download PDF

Info

Publication number
WO2018181358A1
WO2018181358A1 PCT/JP2018/012506 JP2018012506W WO2018181358A1 WO 2018181358 A1 WO2018181358 A1 WO 2018181358A1 JP 2018012506 W JP2018012506 W JP 2018012506W WO 2018181358 A1 WO2018181358 A1 WO 2018181358A1
Authority
WO
WIPO (PCT)
Prior art keywords
filter
interval
state
spatial frequency
pixel
Prior art date
Application number
PCT/JP2018/012506
Other languages
English (en)
French (fr)
Inventor
奏太 中西
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to JP2019509911A priority Critical patent/JP6760486B2/ja
Priority to US16/476,437 priority patent/US11056521B2/en
Priority to CN201880013721.2A priority patent/CN110326284B/zh
Publication of WO2018181358A1 publication Critical patent/WO2018181358A1/ja
Priority to US17/338,072 priority patent/US11626436B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/79Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof

Definitions

  • the present invention relates to an imaging device and an imaging element.
  • Patent Document 1 An imaging device having a wavelength tunable filter whose transmission wavelength is variable for each pixel is known (Patent Document 1).
  • Patent Document 1 An imaging device having a wavelength tunable filter whose transmission wavelength is variable for each pixel is known (Patent Document 1).
  • the conventional imaging apparatus has a problem that the set transmission wavelength of each pixel may not be suitable for the subject.
  • the imaging apparatus includes: a filter capable of changing a wavelength of light to be transmitted between the first wavelength and the second wavelength; and a light receiving unit that receives light transmitted through the filter.
  • a filter capable of changing a wavelength of light to be transmitted between the first wavelength and the second wavelength
  • a light receiving unit that receives light transmitted through the filter.
  • a plurality of pixels arranged, an imaging unit that captures an image by an optical system, an analysis unit that analyzes an image captured by the imaging unit, and a filter that transmits based on an analysis result of the analysis unit And a control unit that controls the wavelength of light.
  • the imaging apparatus includes: a filter capable of changing between a first state that transmits light of a first wavelength and a second state that transmits light of a second wavelength; and the filter A light receiving unit that receives the transmitted light and outputs a signal; and a control unit that controls the filter to the first state or the second state based on the signal output from the light receiving unit.
  • the imaging apparatus can change between a first state in which light having a first wavelength is transmitted among light from a subject and a second state in which light having a second wavelength is transmitted.
  • the imaging apparatus includes: a filter capable of changing a first state that transmits light of a first wavelength and a second state that transmits light of a second wavelength; and the filter A light receiving unit that receives the transmitted light and outputs a signal, a detection unit that detects a spatial frequency component of an image based on the signal output from the light receiving unit, and the spatial frequency component detected by the detection unit And a control unit that controls the filter to the first state or the second state.
  • the imaging device includes a filter capable of changing between a first state that transmits light of a first wavelength and a second state that transmits light of a second wavelength, and the filter.
  • a light receiving unit that receives the transmitted light and outputs a signal; and a control unit that controls the filter to the first state or the second state based on the signal output from the light receiving unit.
  • FIG. 3 is a flowchart illustrating an example of an operation of the imaging apparatus according to the first embodiment. It is a block diagram which shows the structure of the imaging device which concerns on 2nd Embodiment. It is a figure which shows the color filter arrangement
  • FIG. 1 is a diagram illustrating a configuration example of an electronic camera 1 (hereinafter referred to as a camera 1) that is an example of an imaging apparatus according to the first embodiment.
  • the camera 1 includes a camera body 2 and an interchangeable lens 3.
  • the interchangeable lens 3 is detachably attached to the camera body 2 via a mount portion (not shown).
  • the connection portion 202 on the camera body 2 side and the connection portion 302 on the interchangeable lens 3 side are connected, and communication between the camera body 2 and the interchangeable lens 3 becomes possible.
  • the interchangeable lens 3 includes an imaging optical system (imaging optical system) 31, a lens control unit 32, and a lens memory 33.
  • the imaging optical system 31 includes a plurality of lenses including a focus adjustment lens (focus lens) and an aperture, and forms a subject image on the imaging surface of the imaging element 4 of the camera body 2.
  • the lens control unit 32 adjusts the focal position of the imaging optical system 31 by moving the focus adjustment lens forward and backward in the direction of the optical axis L1 based on the signal output from the body control unit 21 of the camera body 2.
  • the lens control unit 32 controls the aperture diameter of the diaphragm based on a signal output from the body control unit 21 of the camera body 2.
  • the lens memory 33 is configured by, for example, a nonvolatile storage medium. Information relating to the interchangeable lens 3 is stored in the lens memory 33 as lens information.
  • the lens control unit 32 writes lens information to the lens memory 33 and reads lens information from the lens memory 33.
  • the camera body 2 includes a body control unit 21, an image sensor 4, a memory 23, a display unit 24, and an operation unit 25.
  • the image sensor 4 is, for example, a CMOS image sensor or a CCD image sensor.
  • the imaging element 4 receives the light beam that has passed through the imaging optical system 31 and captures a subject image.
  • a plurality of pixels having photoelectric conversion units are arranged in a row direction (horizontal direction) that is a first direction and a column direction (vertical direction) that is a second direction intersecting with the row direction.
  • the photoelectric conversion unit is configured by, for example, a photodiode (PD).
  • the imaging element 4 is an imaging unit 4 that has a plurality of pixels having a photoelectric conversion unit and captures a subject image by the imaging optical system 31.
  • the image sensor 4 photoelectrically converts incident light to generate a pixel signal, and outputs the generated pixel signal to the body control unit 21.
  • the pixel signal is a signal generated based on the charge photoelectrically converted by the photoelectric conversion unit.
  • the memory 23 is a recording medium such as a memory card, for example. Image data and the like are recorded in the memory 23. Writing of data to the memory 23 and reading of data from the memory 23 are performed by the body control unit 21.
  • the display unit 24 displays an image based on image data, information relating to shooting such as a shutter speed and an aperture value, a menu screen, and the like.
  • the operation unit 25 includes various setting switches such as a release button and a power switch, and outputs an operation signal corresponding to each operation to the body control unit 21.
  • the body control unit 21 includes a CPU, a ROM, a RAM, and the like, and controls each unit of the camera 1 based on a control program.
  • the body control unit 21 includes a shooting mode setting unit 211, a focus detection unit 212, an analysis unit 22 having a frequency characteristic detection unit 213, a filter control unit 214, a first image data generation unit 215, 2 image data generation unit 216.
  • the shooting mode setting unit 211 sets the shooting mode based on the operation signal output from the operation unit 25. For example, if the shooting mode setting unit 211 detects a half-press operation of the release button based on the operation signal, the shooting mode setting unit 211 generates a through image, which will be described later, that is, image data for display and displays it on the display unit 24. Set to mode. The first shooting mode may be set based on the power switch being turned on. The shooting mode setting unit 211 sets the second shooting mode in which image data for recording is generated and the image data is recorded in the memory 23 when the release button is fully pressed based on the operation signal. To do.
  • the image data is image data for still images or image data for moving images.
  • the focus detection unit 212 performs processing necessary for automatic focus adjustment (AF) of the imaging optical system 31. Specifically, the focus detection unit 212 moves the focus adjustment lens of the imaging optical system 31 by a predetermined distance in the optical axis direction, and based on the pixel signal from the image sensor 4 for each predetermined distance, the contrast evaluation value of the subject image Are calculated sequentially. The focus detection unit 212 calculates, as the focus position, the position of the focus adjustment lens that exhibits the peak contrast evaluation value, that is, the maximum value. The focus detection unit 212 outputs a signal related to the calculated in-focus position to the lens control unit 32. The lens control unit 32 adjusts the focus by moving the focus adjustment lens to the in-focus position.
  • AF automatic focus adjustment
  • the analysis unit 22 analyzes the subject image formed by the imaging optical system 31. For example, the analysis unit 22 detects the spatial frequency characteristics of the subject image using the frequency characteristic detection unit 213. Specifically, the frequency characteristic detection unit 213 detects the spatial frequency characteristic of the subject image based on the pixel signal of each pixel output from the image sensor 4.
  • the spatial frequency characteristic is a characteristic obtained by analyzing the frequency of the entire image (data) or a part of the image, for example, and representing the image by components (amplitude intensity, signal intensity) for each spatial frequency.
  • the spatial frequency characteristic is represented by a spatial frequency distribution indicating the relationship between the spatial frequency and a component for each spatial frequency, and indicates the periodic pattern of the image and the degree of repetition.
  • the frequency characteristic detection unit 213 calculates a high-frequency component of the spatial frequency in the horizontal direction (row direction of the pixel array) and a high-frequency component of the spatial frequency in the vertical direction (column direction of the pixel array) of the subject image, respectively. Based on the above, the spatial frequency characteristic of the subject image is detected. Although described in detail later, the frequency characteristic detection unit 213 calculates a high frequency component of the spatial frequency for each color component (R component, G component, and B component) of the subject image.
  • the high frequency component (high frequency component) of the spatial frequency of the subject image is a component (amplitude intensity, signal strength) at a relatively high frequency (high frequency) of the spatial frequency of the subject image.
  • the high-frequency component of the subject image is a component having a spatial frequency corresponding to a pixel pitch (pixel interval) d described later among the spatial frequency components of the subject image.
  • the high frequency component is not limited to this, and may be a frequency component corresponding to the interval 2d.
  • the high frequency component may be a sum of a plurality of frequency components. Further, a value obtained by integrating the differences between pixel signals of adjacent pixels may be used as a high-frequency component of the subject image.
  • the frequency characteristic detection unit 213 determines the spatial frequency characteristic of the subject image when the high frequency component of the horizontal spatial frequency is greater than the high frequency component of the vertical spatial frequency by a predetermined amount T1 or more, that is, a predetermined amount or more. Detection is performed as the first spatial frequency characteristic.
  • the frequency characteristic detection unit 213 determines the spatial frequency characteristics of the subject image when the high-frequency component of the vertical spatial frequency is greater than the high-frequency component of the horizontal spatial frequency by a predetermined amount T1 or more, that is, a predetermined amount or more.
  • the second spatial frequency characteristic is detected.
  • the frequency characteristic detection unit 213 When the high frequency component of the horizontal spatial frequency and the high frequency component of the vertical spatial frequency are substantially equal, that is, when the difference between the high frequency components in both directions is within the predetermined amount T1, the frequency characteristic detection unit 213 The spatial frequency characteristic of the image is detected as a third spatial frequency characteristic. Thus, in the present embodiment, the frequency characteristic detection unit 213 detects whether the spatial frequency characteristics of the subject image belong to the first, second, or third spatial frequency characteristics.
  • the frequency characteristic detection unit 213 calculates the high-frequency component of the spatial frequency by performing, for example, fast Fourier transform (FFT) processing on the pixel signal from the image sensor 4. Further, the frequency characteristic detection unit 213 performs a fast Fourier transform process on the high-frequency component of the spatial frequency on the image data generated by the first image data generation unit 215 or the second image data generation unit 216. You may make it calculate. Furthermore, the frequency characteristic detection unit 213 can calculate the high frequency component of the spatial frequency by the following arithmetic processing instead of the fast Fourier transform processing. That is, the frequency characteristic detection unit 213 calculates differences between pixel signals of adjacent pixels arranged in the row direction, integrates these differences, and calculates a high frequency component of the horizontal spatial frequency. Similarly, the frequency characteristic detection unit 213 calculates differences between pixel signals of adjacent pixels arranged in the column direction, integrates these differences, and calculates a high frequency component of the spatial frequency in the vertical direction.
  • FFT fast Fourier transform
  • the filter control unit 214 controls the color arrangement of the pixels of the image sensor 4 based on the analysis result of the subject image in the analysis unit 22. It can be said that the filter control unit 214 controls the pixel position of the image sensor 4 based on the analysis result of the subject image. For example, the filter control unit 214 changes the resolution (resolution) of the image sensor 4 by controlling the color arrangement of the pixels of the image sensor 4 based on the spatial frequency characteristics of the subject image detected by the frequency characteristic detector 213. . Although details will be described later, the filter control unit 214 changes the resolution by controlling the transmission wavelength of the wavelength variable filter of each pixel of the image sensor 4.
  • the filter control unit 214 may control the transmission wavelength of the wavelength tunable filter based on the image structure of an image obtained by imaging the subject.
  • the filter control unit 214 may control the transmission wavelength of the wavelength tunable filter based on information about the characteristics of the subject image such as the texture of the image, the edge included in the image, the pixel signal, or the periodic pattern of the image data.
  • the analysis unit 22 analyzes the pixel signal or image data of each pixel, and generates information regarding the characteristics of the subject image.
  • the filter control unit 214 changes the resolution of the image sensor 4 by controlling the transmission wavelength of the wavelength tunable filter based on the information about the characteristics of the subject image generated by the analysis unit 22.
  • the first image data generation unit 215 performs various types of image processing on the pixel signal output from the image sensor 4 when the first shooting mode is set by the shooting mode setting unit 211, and displays the image data for display. Generate image data.
  • the display unit 24 displays an image based on the display image data generated by the first image data generation unit 215.
  • the second image data generation unit 216 performs various types of image processing on the pixel signal output from the image sensor 4 when the second shooting mode is set by the shooting mode setting unit 211, and performs recording. Generate image data.
  • the second image data generation unit 216 records the generated image data for recording in the memory 23.
  • the image processing performed by the first image data generation unit 215 and the second image data generation unit 216 includes known image processing such as gradation conversion processing and contour enhancement processing, for example.
  • the first image data generation unit 215 and the second image data generation unit 216 may be integrally configured as an image data generation unit that generates display image data or recording image data.
  • FIG. 2 is a block diagram illustrating a partial configuration of the image sensor 4 according to the first embodiment.
  • FIG. 3 is a diagram for explaining the structure of the image sensor 4 according to the first embodiment.
  • FIG. 3A is a cross-sectional view showing an example of the cross-sectional structure of the image sensor 4
  • FIG. 3B is a plan view for explaining a layout example of the transparent electrode of the wavelength variable filter 72 of the image sensor 4. It is.
  • the image sensor 4 includes a plurality of pixels 10, a filter vertical drive unit 41, a filter horizontal drive unit 42, a pixel vertical drive unit 43, a column circuit unit 44, and a horizontal scanning unit 45.
  • the output unit 46 and the control unit 47 are provided.
  • the pixels 10 are arranged two-dimensionally (for example, in the row direction and the column direction intersecting with the row direction).
  • the pixel 10 is illustrated with only 15 pixels in the horizontal direction ⁇ 12 pixels in the vertical direction, but the image sensor 4 may have, for example, several million pixels to several hundred million pixels, or It has more pixels.
  • the imaging device 4 includes a semiconductor substrate 100, a wiring layer 110, a support substrate 120, a microlens 71, and a wavelength tunable filter 72.
  • the image sensor 4 is configured as a back-illuminated image sensor.
  • the semiconductor substrate 100 is stacked on the support substrate 120 via the wiring layer 110.
  • the semiconductor substrate 100 is configured by a semiconductor substrate such as silicon, and the support substrate 120 is configured by a semiconductor substrate, a glass substrate, or the like.
  • the wiring layer 110 is a wiring layer including a conductor film (metal film) and an insulating film, and a plurality of wirings and vias are arranged therein. Copper, aluminum, or the like is used for the conductor film.
  • the insulating film is composed of an oxide film, a nitride film, or the like. As described above, the light that has passed through the imaging optical system 31 is incident mainly in the positive direction of the Z axis.
  • the pixel 10 (pixels 10a to 10c in FIG. 3) includes a microlens 71, a wavelength tunable filter 72, a light shielding film 74, and a photoelectric conversion unit 75.
  • the microlens 71 collects incident light on the photoelectric conversion unit 75.
  • the light shielding film 74 is disposed at the boundary between adjacent pixels, and suppresses light from leaking between adjacent pixels.
  • the photoelectric conversion unit 75 photoelectrically converts incident light to generate charges.
  • the wavelength tunable filter 72 includes electrochromic (hereinafter referred to as EC) layers 61, 62, and 63, and transparent electrodes 51, 52, 53, and 54, which are sequentially stacked from the microlens 71 side toward the semiconductor substrate 100 side.
  • the EC layers 61 to 63 are formed using an electrochromic material such as a metal oxide.
  • the transparent electrodes 51 to 54 are made of, for example, ITO (indium tin oxide). Insulating films 73 are provided between the EC layer 61 and the transparent electrode 52, between the EC layer 62 and the transparent electrode 53, and between the EC layer 63 and the transparent electrode 54, respectively.
  • the wavelength tunable filter 72 is provided with an electrolyte layer (electrolyte film) (not shown).
  • the transparent electrode 51 has a plurality of ECs arranged in the row direction so as to cover one surface of the plurality of EC layers 61 arranged in the X direction, that is, in the row direction. Arranged for each layer.
  • the transparent electrode 52 and the transparent electrode 53 are arranged so as to cover one surface of the plurality of EC layers 62 and EC layers 63 arranged in the X direction.
  • the transparent electrode 54 is an electrode common to the three EC layers 61, 62, and 63 and is disposed on the other surface side of the EC layer 63.
  • the common transparent electrode 54 includes a plurality of ECs arranged in the column direction along a plurality of EC layers 63 arranged in the Y direction intersecting the X direction, that is, the column direction. Arranged for each layer. In the example shown in FIG. 2, since the array of the pixels 10 is 15 columns, 15 common transparent electrodes 54 are juxtaposed.
  • the transparent electrodes 51 to 53 and the common transparent electrode 54 are electrodes arranged in a matrix (mesh) with respect to the EC layers 61, 62, and 63.
  • the transparent electrodes 51 to 53 are connected to the filter vertical drive unit 41, and the common transparent electrode 54 is connected to the filter horizontal drive unit.
  • active matrix driving that performs drive control of the EC layers 61, 62, and 63 using matrix electrodes can be performed.
  • the EC layer 61 develops B (blue) by causing an oxidation-reduction reaction by supplying drive signals from the transparent electrode 51 and the common transparent electrode 54. Therefore, the EC layer 61 transmits light in a wavelength region corresponding to B (blue) among incident light by supplying the drive signal.
  • the EC layer 62 develops G (green) by causing an oxidation-reduction reaction by supplying drive signals from the transparent electrode 52 and the common transparent electrode 54. Accordingly, the EC layer 62 transmits light in a wavelength region corresponding to G (green) among incident light by supplying the drive signal.
  • the EC layer 63 develops R (red) by causing an oxidation-reduction reaction by supplying drive signals from the transparent electrode 53 and the common transparent electrode 54.
  • the EC layer 63 transmits light in a wavelength region corresponding to R (red) among the incident light by supplying the drive signal.
  • the EC layers 61, 62, and 63 maintain the above color development for a certain time when the supply of the drive signal is stopped, and all wavelengths of incident light when the reset signal is supplied. It becomes a transparent (decolored) state that transmits the light of the area.
  • each of the plurality of wavelength tunable filters 72 includes three of the EC layer 61 that develops B (blue), the EC layer 62 that develops G (green), and the EC layer 63 that develops R (red). Consists of two filters.
  • the three-layer EC transmission wavelength region is W (white).
  • the three-layer EC transmission wavelength region is BK (black).
  • the wavelength tunable filter 72 has a wavelength of W (white), BK (black), R (red), G (green), or B (blue) depending on the combination of the transmission wavelengths of the EC layers 61 to 63. It becomes possible to transmit mainly the light of the area.
  • a pixel in which the three-layer EC transmission wavelength region of the wavelength tunable filter 72 is B (blue) is referred to as a B pixel
  • a pixel in which the three-layer EC transmission wavelength region is G (green) is referred to as a G pixel
  • a pixel in which the three-layer EC transmission wavelength region is R (red) is referred to as an R pixel. That is, a pixel whose wavelength variable filter 72 is controlled to be a B (blue) color filter is referred to as a B pixel, and similarly, a pixel whose wavelength variable filter 72 is controlled to be a G (green) color filter is a G pixel.
  • a pixel controlled by the R (red) color filter is referred to as an R pixel.
  • each pixel 10 is appropriately changed in the wavelength transmitted through the wavelength tunable filter 72 and photoelectrically converts the light component of the wavelength.
  • the photoelectric conversion unit 75 of each pixel 10 photoelectrically converts the light transmitted through the wavelength tunable filter 72.
  • the photoelectric conversion unit 75 is also a light receiving unit 75 that receives light from a subject that has passed through the wavelength tunable filter 72.
  • the photoelectric conversion unit 75 (light receiving unit 75) photoelectrically converts incident light to generate a signal (charge). To do.
  • the filter vertical drive unit 41 selects a row of the plurality of wavelength tunable filters 72, that is, selects a predetermined transparent electrode among the plurality of transparent electrodes 51 to 53 and supplies a drive signal thereto.
  • the filter horizontal drive unit 42 selects a row of the plurality of wavelength tunable filters 72, that is, selects a predetermined common transparent electrode among the plurality of common transparent electrodes 54 and supplies a drive signal thereto.
  • the EC layer relating to both the transparent electrodes 51 to 53 selected by the filter vertical drive unit 41 and the common transparent electrode 54 selected by the filter horizontal drive unit 42 is colored.
  • the filter horizontal driving unit 42 selects the rightmost common transparent electrode 54 out of the three common transparent electrodes 54 and supplies a drive signal, and further has nine filter vertical driving units 41.
  • the EC layer 61 located at the upper right end develops color.
  • the filter horizontal drive unit 42 selects the same common transparent electrode 54 and supplies a drive signal
  • the filter vertical drive unit 41 selects the upper transparent electrode 52 in FIG. 3B and supplies the drive signal.
  • the EC layer 62 at the upper right end is colored.
  • the filter horizontal drive unit 42 selects the same common transparent electrode 54 and supplies a drive signal
  • the filter vertical drive unit 41 selects the upper transparent electrode 53 in FIG. 3B and supplies the drive signal.
  • the EC layer 63 at the upper right end is colored.
  • the control unit 47 is based on a signal from the body control unit 21 of the camera 1, a filter vertical drive unit 41, a filter horizontal drive unit 42, a pixel vertical drive unit 43, a column circuit unit 44, and a horizontal scanning unit 45.
  • the output unit 46 is controlled.
  • the control unit 47 controls the filter vertical drive unit 41 and the filter horizontal drive unit 42 in accordance with an instruction from the filter control unit 214 of the body control unit 21.
  • the control unit 47 sets (changes) the transmission wavelength of each wavelength tunable filter 72 by controlling signals input to the wavelength tunable filters 72 from the filter vertical drive unit 41 and the filter horizontal drive unit 42.
  • the pixel vertical drive unit 43 supplies a control signal to each pixel 10 based on a signal from the control unit 47 to control the operation of each pixel 10.
  • the column circuit unit 44 includes a plurality of analog / digital conversion units (AD conversion units), converts pixel signals input from the pixels 10 through the vertical signal lines into digital signals, and converts the converted digital signals.
  • the signal is output to the horizontal scanning unit 45.
  • the horizontal scanning unit 45 sequentially outputs the pixel signals output from the column circuit unit 44 to the output unit 46.
  • the output unit 46 includes a signal processing unit (not shown), performs signal processing such as correlated double sampling and signal amount correction on the signal input from the horizontal scanning unit 45, and controls the body of the camera 1.
  • the output unit 46 includes an input / output circuit or the like corresponding to a high-speed interface such as LVDS or SLVS, and transmits a signal to the body control unit 21 at high speed.
  • the camera 1 detects the spatial frequency component of the subject image based on the pixel signal of each pixel output from the image sensor 4.
  • the camera 1 changes the resolution of the image sensor 4 by controlling the wavelength variable filter 72 based on the spatial frequency component and switching the color arrangement of the pixels.
  • the filter control unit 214 changes the control mode, for example, the pixel color arrangement in FIG. 4A, the pixel color arrangement in FIG. 5A, and the pixel arrangement in FIG. Switch between pixel color array.
  • the filter control unit 214 has first, second, and third filter control modes. As will be described in detail below, the filter control unit 214 arranges the R pixel, the G pixel, and the B pixel in the color array of FIG. 4A in the first filter control mode, and in the second filter control mode. Arranged in the color arrangement of FIG. 5A, and arranged in the color arrangement of FIG. 6A in the third filter control mode. That is, the filter control unit 214 controls the positions of the R pixel, the G pixel, and the B pixel.
  • the pixel color arrangement shown in FIG. 4A provides a well-balanced resolution in the horizontal and vertical directions. Further, the pixel color arrangement shown in FIG.
  • the filter control unit 214 selects one of the first, second, and third filter control modes based on the spatial frequency component of the subject image, and obtains a resolution suitable for the subject to be photographed. Switch to color array.
  • the filter control unit 214 executes the first filter control mode, for example, when capturing a subject image having substantially the same high-frequency component of each spatial frequency in the horizontal direction and the vertical direction, and in the horizontal direction of FIG.
  • the pixel color arrangement is set to obtain a resolution that is well balanced in the vertical direction.
  • the filter control unit 214 executes the second filter control mode and captures the subject image as shown in FIG. ) In the horizontal direction of pixels, the color arrangement of the pixels is obtained.
  • the filter control unit 214 executes the third filter control mode, for example, when capturing a subject image in which the high frequency component of the vertical spatial frequency has a predetermined amount greater than the high frequency component of the horizontal spatial frequency, It is set to a color arrangement of pixels that can obtain a high resolution in the vertical direction of FIG.
  • the pixel color arrangement in each control mode of the filter control unit 214 will be described in detail.
  • FIG. 4A shows the color arrangement of the R pixel, G pixel, and B pixel in the first filter control mode of the filter control unit 214
  • FIG. 4B shows the case of the color arrangement of FIG. 4A. It is a figure which shows the spatial frequency range which can be resolved.
  • the R pixel 10 is the pixel 10 in which the wavelength tunable filter 72 is controlled by the R (red) filter.
  • the G pixel 10 is a pixel 10 in which the wavelength variable filter 72 is controlled to be a G (green) filter
  • the B pixel 10 is a pixel 10 in which the wavelength variable filter 72 is controlled to be a B (blue) filter.
  • the control unit 47 controls each wavelength variable filter 72 in accordance with an instruction from the filter control unit 214 of the body control unit 21, and the R pixel 10, the G pixel 10, and the B pixel 10 are controlled.
  • R pixel 10 and G pixel 10 are alternately arranged in the row direction at a pitch d, that is, an interval d
  • G pixel 10 and B pixel 10 are alternately arranged in the row direction at a pitch d, that is, an interval d.
  • the pixel columns thus arranged are alternately arranged in the column direction.
  • the interval (2d) between R pixels in the horizontal direction (row direction) is the same as the interval (2d) between R pixels in the vertical direction (column direction).
  • the interval (2d) between the G pixels in the horizontal direction (row direction) is the same as the interval (2d) between the G pixels in the vertical direction (column direction) and the B pixels in the horizontal direction (row direction).
  • the interval (2d) is the same as the interval (2d) between the B pixels in the vertical direction (column direction).
  • FIG. 4 (b) shows a resolvable spatial frequency range in the case of the Bayer array of FIG. 4 (a).
  • the vertical axis fy shows the spatial frequency in the vertical direction
  • the horizontal axis fx shows the spatial frequency in the horizontal direction.
  • the resolvable spatial frequency range of the G pixel 10 is indicated by a solid line
  • the resolvable spatial frequency ranges of the R pixel 10 and the B pixel 10 are indicated by dotted lines.
  • the resolvable spatial frequency range of the G pixel 10 is the same in the horizontal direction and the vertical direction
  • the resolvable spatial frequency range of the R pixel 10 and the B pixel 10 is also horizontal.
  • the direction and the vertical direction are the same.
  • Such a Bayer arrangement of the R pixel, G pixel, and B pixel in FIG. 4A generates frequency characteristic detection in the second shooting mode in which image data for recording is generated and the image data is recorded in the memory 23. Used when the third spatial frequency characteristic is detected by the unit 213. Further, the Bayer array in FIG. 4A is used regardless of the spatial frequency characteristics of the subject image in the first photographing mode in which a through image, that is, image data for display is generated and displayed on the display unit 24.
  • FIG. 5 (a) is a diagram showing the color arrangement of the R, G, and B pixels that place importance on the horizontal in the second filter control mode of the filter control unit 214.
  • FIG. 5B shows a spatial frequency range that can be resolved in the case of the color arrangement of FIG.
  • a pixel column in which R pixels 10 are continuously arranged in the row direction at intervals (pitch) d a pixel column in which G pixels 10 are continuously arranged in the row direction at intervals d
  • a pixel column in which the B pixels 10 are continuously arranged in the row direction at an interval d is repeatedly arranged in the column direction. Therefore, each of the R pixel 10, the G pixel 10, and the B pixel 10 is arranged at an interval 3d in the column direction.
  • the control unit 47 controls each wavelength variable filter 72 in accordance with an instruction from the filter control unit 214 of the body control unit 21. Is achieved.
  • the R pixel, G pixel, and the B pixel is arranged at the interval d in the row direction and at the interval 3d in the column direction, the R pixel, G of the color arrangement of such pixels is arranged.
  • the resolution in the horizontal direction (row direction) is higher than the resolution in the vertical direction (column direction).
  • the first spatial frequency characteristic is detected by the frequency characteristic detection unit 213 in the second shooting mode. Used when.
  • FIG. 6A is a diagram illustrating the color arrangement of the R, G, and B pixels in the third filter control mode of the filter control unit 214 that emphasizes the vertical.
  • FIG. 6B shows a spatial frequency range that can be resolved in the case of the color arrangement of FIG.
  • a pixel column in which R pixels 10 are continuously arranged in the column direction at intervals d a pixel column in which G pixels 10 are continuously arranged in the column direction at intervals d
  • B pixels 10 are continuously arranged in the row direction with pixel columns arranged at intervals d in the column direction. Accordingly, each of the R pixel 10, the G pixel 10, and the B pixel 10 is arranged at an interval 3d in the row direction (horizontal direction).
  • the control unit 47 controls each wavelength variable filter 72 according to an instruction from the filter control unit 214 of the body control unit 21. Is achieved.
  • each of the R pixel, the G pixel, and the B pixel is arranged at the interval d in the column direction and at the interval 3d in the row direction.
  • the resolution in the vertical direction (column direction) is higher than the resolution in the horizontal direction (row direction).
  • the second spatial frequency characteristic is detected by the frequency characteristic detection unit 213 in the second imaging mode. Used for.
  • the frequency characteristic detection unit 213 described above calculates the high frequency component of the spatial frequency for each color component of the subject image. Specifically, the frequency characteristic detection unit 213 generates R, G, and B components based on pixel signals of R, G, and B pixels output from the image sensor 4, that is, R component, G component, and B component pixel signals. A high-frequency component in the horizontal direction and a high-frequency component in the vertical direction are calculated for the color and B color, respectively.
  • the image sensor 4 has an R component pixel signal for each horizontal interval 2d, a G component pixel signal for each horizontal interval 2d, and a horizontal interval 2d. A pixel signal of each B component is generated.
  • the image sensor 4 also generates an R component pixel signal for each vertical interval 2d, a G component pixel signal for each vertical interval 2d, and a B component pixel signal for each vertical interval 2d.
  • the frequency characteristic detection unit 213 performs a fast Fourier transform process on the R component pixel signal for each interval 2d in the horizontal direction, and performs a horizontal high frequency component (such as a signal component having a spatial frequency of 1 / 2d) on the R component. Is calculated. Similarly, the frequency characteristic detection unit 213 performs a fast Fourier transform process on the B component pixel signal for each interval 2d in the horizontal direction, and performs a horizontal high frequency component (spatial frequency 1 / 2d signal) for the B component. Component).
  • the frequency characteristic detection unit 213 performs fast Fourier transform processing on the R component pixel signal for each interval 2d in the vertical direction, and performs a high frequency component in the vertical direction (a signal component having a spatial frequency of 1 / 2d) on the R component. Etc.). Similarly, the frequency characteristic detection unit 213 performs fast Fourier transform processing on the B component pixel signal for each interval 2d in the vertical direction, and performs a vertical high frequency component (spatial frequency 1 / 2d signal) on the B component. Component).
  • the frequency characteristic detection unit 213 When calculating the high-frequency component for the G component, the frequency characteristic detection unit 213 performs an interpolation process on the pixel signal of the G component, so that the R pixel 10 or the B pixel 10 positioned between adjacent G pixels. The G component pixel signal at the position is generated. In other words, the frequency characteristic detection unit 213 performs interpolation processing to acquire a G component pixel signal for each horizontal interval d and acquire a G component pixel signal for each vertical interval d.
  • the frequency characteristic detection unit 213 outputs a pixel signal of the G component corresponding to the position of the R pixel as the R pixel.
  • the G component pixel signal corresponding to the position of the B pixel is a pixel of two G pixels positioned above and below the B pixel. Interpolated using the signal.
  • the frequency characteristic detection unit 213 outputs a pixel signal of the G component corresponding to the position of the R pixel to the R pixel.
  • the G component pixel signal corresponding to the position of the B pixel is a pixel of two G pixels positioned to the left and right of the B pixel. Interpolated using the signal.
  • the pixel signal of the G component in the interpolation processing it may be calculated by averaging the pixel signals of the two pixels or by calculating the weighted average of the pixel signals of the two pixels. Good.
  • the frequency characteristic detection unit 213 acquires the G component pixel signal for each horizontal interval d by performing the above-described interpolation processing, and acquires the G component pixel signal for each vertical interval d.
  • the frequency characteristic detection unit 213 performs fast Fourier transform processing on the G component pixel signal for each horizontal interval d, and the horizontal high frequency component for the G component (spatial frequency 1 / d signal component or the like). Is calculated. Further, the frequency characteristic detection unit 213 performs fast Fourier transform processing on the G component pixel signal for each interval d in the vertical direction, so that the vertical high frequency component (spatial frequency 1 / d signal component) for the G component is obtained. Etc.).
  • the frequency characteristic detection unit 213 calculates a high frequency component for each color component in the horizontal direction and the vertical direction.
  • the frequency characteristic detection unit 213 performs spatial frequency characteristic determination processing based on the calculated high frequency component. For example, the frequency characteristic detection unit 213 adds horizontal high-frequency components related to the R component, the G component, and the B component to calculate a horizontal added high-frequency component, and similarly, vertical components related to the R component, the G component, and the B component.
  • the high frequency component in the direction is added to calculate the high frequency component in the vertical direction.
  • the frequency characteristic detection unit 213 performs a spatial frequency characteristic determination process by comparing the horizontal high frequency component and the vertical high frequency component. Instead of calculating the high frequency component for each color component, the high frequency component may be calculated by mixing three color components of RGB.
  • the frequency characteristic detection unit 213 calculates the difference between pixel signals of adjacent pixels arranged in the row direction and the column direction, integrates these differences, and calculates the high-frequency component of the spatial frequency in the horizontal direction and the vertical direction. Also in the case of calculating each, a high frequency component for each color component may be calculated. Also in this case, when calculating the high frequency component of the G component, the pixel signal of the G component corresponding to the position of the R pixel or B pixel between the adjacent G pixels is calculated by interpolation as described above.
  • the filter control unit 214 selects one of the first, second, and third filter control modes based on the spatial frequency characteristics of the subject image, and sets the pixel color arrangement to Bayer arrangement, horizontal importance arrangement, and vertical importance. Switch to one of the arrays.
  • the camera 1 controls the position of the R pixel, the G pixel, and the B pixel by controlling the wavelength variable filter 72 of the imaging device 4, and the horizontal and vertical resolutions are controlled. Can be changed. That is, the camera 1 switches, for example, a resolution with a good balance in the horizontal direction and the vertical direction shown in FIG. 4, a high resolution in the horizontal direction shown in FIG. 5, and a high resolution in the vertical direction shown in FIG. be able to.
  • FIG. 7 is a flowchart showing an example of the operation of the camera 1 according to the first embodiment. An example of the operation of the camera 1 will be described with reference to the flowchart of FIG. The process shown in FIG. 7 is started when, for example, the user presses the release button halfway and the shooting mode setting unit 211 sets the first shooting mode.
  • step S100 the filter control unit 214 executes the first filter control mode, controls the wavelength tunable filter 72 of each pixel 10 via the control unit 47 of the image sensor 4, and is shown in FIG. In this manner, the R pixel 10, the G pixel 10, and the B pixel 10 are arranged according to the Bayer array.
  • the body control unit 21 causes the imaging device 4 to perform imaging.
  • the image sensor 4 photoelectrically converts light from the subject and outputs a pixel signal of each pixel 10 to the body control unit 21.
  • the first image data generation unit 215 performs image processing on the pixel signal output from the image sensor 4 to generate image data for display.
  • the display unit 24 displays a through image based on the display image data.
  • step S120 the focus detection unit 212 sequentially calculates the contrast evaluation value of the subject image based on the pixel signal from the imaging device 4.
  • the focus detection unit 212 generates a signal related to the position of the focus adjustment lens when the contrast evaluation value reaches the maximum value, and outputs the signal to the lens control unit 32.
  • the lens control unit 32 adjusts the focus by moving the focus adjustment lens to the in-focus position.
  • the frequency characteristic detection unit 213 determines the high-frequency component of the subject image in the horizontal direction and the subject image in the vertical direction based on each pixel signal output from the image sensor 4. Are respectively calculated.
  • the calculation of the high-frequency component in step S130 is not necessarily performed after the AF operation in step S120, and may be performed before the AF operation or simultaneously with the AF operation. However, the high-frequency component of the focused subject image is calculated. In order to calculate, it is desirable to carry out after the AF operation.
  • step S140 the shooting mode setting unit 211 sets the second shooting mode when detecting that the user fully presses the release button.
  • step S150 the frequency characteristic detection unit 213 determines whether the high frequency component of the spatial frequency of the subject image in the horizontal direction is greater than the high frequency component of the spatial frequency of the subject image in the vertical direction by a predetermined amount T1 or more. If the horizontal high-frequency component is greater than the vertical high-frequency component by a predetermined amount T1 or more, the frequency characteristic detection unit 213 determines that the spatial frequency characteristic of the subject image is the first spatial frequency characteristic, and proceeds to step S160. If a negative determination is made in step S150, the process proceeds to step S170.
  • the filter control unit 214 executes the second filter control mode based on the detection of the first spatial frequency characteristic by the frequency characteristic detection unit 213. By this second filter control mode, the R pixel 10, the G pixel 10, and the B pixel 10 are arranged as shown in FIG. 5A, and the pixel color arrangement (horizontal emphasis) is high in the horizontal direction. Array).
  • step S170 the frequency characteristic detection unit 213 determines whether the high frequency component of the spatial frequency of the subject image in the vertical direction is greater than the high frequency component of the spatial frequency of the subject image in the horizontal direction by a predetermined amount T1 or more. If the high frequency component in the vertical direction is greater than the high frequency component in the horizontal direction by the predetermined amount T1, the frequency characteristic detection unit 213 determines that the spatial frequency characteristic of the subject image is the second spatial frequency characteristic, and proceeds to step S180. .
  • the filter control unit 214 executes the third filter control mode based on the detection of the second spatial frequency characteristic by the frequency characteristic detection unit 213. By this third filter control mode, the R pixel 10, the G pixel 10, and the B pixel 10 are arranged as shown in FIG. 6A, and the pixel color arrangement (vertical emphasis) is high in the vertical direction. Array).
  • the frequency characteristic detection unit 213 determines that the spatial frequency characteristic of the subject image is the third spatial frequency characteristic, that is, the high-frequency component in the horizontal direction and the high-frequency component in the vertical direction are almost equal. It determines with it being equal, and progresses to step S190.
  • the filter control unit 214 executes the first filter control mode based on the detection of the third spatial frequency characteristic by the frequency characteristic detection unit 213. In the first filter control mode, the R pixel 10, the G pixel 10, and the B pixel 10 are arranged according to the Bayer array as shown in FIG.
  • step S200 the body control unit 21 causes the image sensor 4 to perform main imaging.
  • the image sensor 4 outputs the generated pixel signal of each pixel 10 to the body control unit 21.
  • the second image data generation unit 216 performs image processing on the pixel signal output from the image sensor 4 to generate image data for recording.
  • the memory 23 records image data for recording.
  • the main imaging in step S200 is performed by the color arrangement of the pixels in FIG. 5A, FIG. 6A, or FIG. 4A based on the spatial frequency characteristics of the subject image detected by the frequency characteristic detection unit 213. And done.
  • the filter control unit 214 is based on the analysis result of the subject image in the analysis unit 22, and the wavelength tunable filters of the plurality of pixels 10 of the imaging unit 4 (imaging element 4).
  • the transmission wavelength of 72 is controlled, and the position of the pixel is controlled. For this reason, the resolution of the image sensor 4 can be changed according to the subject.
  • the control unit 21 controls the transmission wavelength of the wavelength tunable filter 72 based on the pixel signal due to the charges generated by the light receiving unit 75 (photoelectric conversion unit 75). Switches the color arrangement of pixels. For this reason, the resolution of the image sensor 4 can be changed according to the subject.
  • the frequency characteristic detection unit 213 detects the first spatial frequency component and the second spatial frequency component of the subject image, and the filter control unit 214 performs the first and second spatial frequency components.
  • the wavelength tunable filter 72 is controlled based on the two spatial frequency components. Since this is done, the color arrangement of the pixels can be switched based on the spatial frequency component of the subject image. As a result, the resolution can be changed according to the subject.
  • FIG. 8 is a diagram illustrating a configuration example of the camera 1 which is an example of the imaging apparatus according to the second embodiment.
  • the same or corresponding parts as those in the first embodiment are denoted by the same reference numerals, and differences will mainly be described.
  • the body control unit 21 of the camera 1 includes an area change unit 217 and an addition control unit 218.
  • the region changing unit 217 can change the size of the pixel block by controlling the imaging device 4 so that the transmission wavelength regions of the wavelength variable filters 72 of the plurality of adjacent pixels 10 are the same. That is, the area changing unit 217 changes the size of the pixel block to a G pixel block of 2 pixels ⁇ 2 pixels, a G pixel block of 4 pixels ⁇ 4 pixels, a G pixel block of 6 pixels ⁇ 6 pixels, or the like. can do.
  • the region changing unit 217 sets the size of the pixel block to an R pixel block (B pixel block) of 2 pixels ⁇ 2 pixels, an R pixel block (B pixel block) of 4 pixels ⁇ 4 pixels, or 6 pixels ⁇ It can be changed to an R pixel block (B pixel block) of 6 pixels.
  • the number of display pixels of the external display device and the number of pixels of the image sensor 4 are substantially equal. There are cases where the number of display pixels of the external display device is smaller than the number of pixels of the image sensor 4.
  • the region changing unit 217 is configured so that the pixel block is configured by one pixel 10. Determine the size of. That is, the above-described first embodiment is an example in which the pixel block is configured by one pixel.
  • the area changing unit 217 is configured so that when the number of pixels of the external display device is smaller than the number of pixels of the image sensor 4, the pixel block is configured by a plurality of pixels (2 pixels ⁇ 2 pixels or the like). Determine the block size.
  • the addition control unit 218 controls the operation of the image sensor 4 based on the pixel block determined by the region changing unit 217.
  • the addition control unit 218 causes the image sensor 4 to perform an addition process of adding signals of a plurality of pixels constituting the pixel block.
  • the imaging device 4 performs on / off control of a switch connecting each floating diffusion of each of the plurality of pixels 10 in the pixel block, and averages the signals of the plurality of pixels 10 as addition processing. Do.
  • the image sensor 4 generates a pixel signal obtained by adding the signals of the plurality of pixels 10 and outputs the pixel signal to the body control unit 21.
  • the pixel signal output from the image sensor 4 may be added outside the image sensor 4.
  • the first image data generation unit 215 performs various types of image processing on the added pixel signal obtained by adding the signals of a plurality of pixels in the pixel block, and generates display image data. Generate.
  • the display unit 24 displays an image based on the display image data generated by the first image data generation unit 215.
  • the second image data generation unit 216 performs various kinds of image processing on the added pixel signal obtained by adding the signals of a plurality of pixels in the pixel block, and generates image data for recording. Generate.
  • the second image data generation unit 216 records the generated image data for recording in the memory 23.
  • the filter control unit 214 switches the color arrangement of the R pixel block, G pixel block, and B pixel block determined by the region changing unit 217 based on the filter control mode. That is, the filter control unit 214 arranges the R pixel block, the G pixel block, and the B pixel block in the Bayer array of FIG. 9A in the first filter control mode, as will be described in detail below. Similarly, the filter control unit 214 arranges the R pixel block, the G pixel block, and the B pixel block in the horizontal emphasis array in FIG. 10A in the second filter control mode, and in the third filter control mode. They are arranged in the vertical emphasis array in FIG.
  • the filter control unit 214 selects one of the first, second, and third filter control modes, and switches to a pixel color array that provides a resolution suitable for the subject to be imaged.
  • pixel color arrangement in each control mode of the filter control unit 214 will be described in detail.
  • FIG. 9A shows the color arrangement of the pixels in the first filter control mode of the filter control unit 214
  • FIG. 9B shows the spatial frequencies that can be resolved in the case of the color arrangement of FIG. 9A. It is a figure which shows a range.
  • the control unit 47 of the image sensor 4 includes an R pixel block 20 having 2 ⁇ 2 R pixels 10, a G pixel block 20 having 2 ⁇ 2 4 G pixels 10, and B pixel blocks 20 having 2 ⁇ 2 four B pixels 10 are arranged according to a Bayer array.
  • the interval (4d) between the R pixel blocks 20 in the horizontal direction (row direction) is the same as the interval (4d) between the R pixel blocks 20 in the vertical direction (column direction).
  • the interval (4d) between the G pixel blocks 20 in the horizontal direction (row direction) is the same as the interval (4d) between the G pixel blocks 20 in the vertical direction (column direction), and the horizontal direction (row direction).
  • the interval (4d) between the B pixel blocks 20 is the same as the interval (4d) between the B pixel blocks 20 in the vertical direction (column direction).
  • FIG. 9B shows a resolvable spatial frequency range of the R pixel block 20, the G pixel block 20, and the B pixel block 20 in the Bayer array shown in FIG.
  • the resolvable spatial frequency range of the G pixel block 20 is indicated by a solid line
  • the resolvable spatial frequency ranges of the R pixel block 20 and the B pixel block 20 are indicated by dotted lines.
  • the resolvable spatial frequency range of the G pixel block 20 is the same in the horizontal direction and the vertical direction
  • the resolvable spatial frequency range of the R pixel block 20 and the B pixel block 20 is. Is the same in the horizontal and vertical directions.
  • the frequency characteristic detection unit 213 performs the third operation. Used when spatial frequency characteristics are detected.
  • FIG. 10A is a diagram showing a color arrangement of pixels in the second filter control mode of the filter control unit 214.
  • FIG. 10B shows a spatial frequency range that can be resolved in the case of the color arrangement of FIG.
  • each of the R pixel block 20, the G pixel block 20, and the B pixel block 20 is arranged at an interval 6d in the column direction.
  • each of the R pixel block 20, the G pixel block 20, and the B pixel block 20 is arranged at the interval 2d in the row direction and at the interval 6d in the column direction.
  • the resolvable spatial frequency range in the case of the array has a higher resolution in the horizontal direction (row direction) than in the vertical direction (column direction).
  • the frequency characteristic detection unit 213 in the second imaging mode Used for.
  • FIG. 11A is a diagram showing a color arrangement of pixels in the third filter control mode of the filter control unit 214.
  • FIG. 11B shows a spatial frequency range that can be resolved in the case of the color arrangement shown in FIG.
  • a pixel column in which R pixel blocks 20 are continuously arranged in the column direction at intervals 2d, a pixel column in which G pixel blocks 20 are arranged in the column direction continuously at intervals 2d, and B Pixel columns in which the pixel blocks 20 are continuously arranged in the column direction at intervals 2d are repeatedly arranged in the row direction. Therefore, each of the R pixel block 20, the G pixel block 20, and the B pixel block 20 is arranged at an interval 6d in the row direction.
  • each of the R pixel block 20, the G pixel block 20, and the B pixel block 20 is arranged at the interval 2d in the column direction and at the interval 6d in the row direction.
  • the resolvable spatial frequency range in the case of the arrangement has a higher resolution in the vertical direction (column direction) than in the horizontal direction (row direction).
  • Such a vertical emphasis arrangement of the R pixel block, the G pixel block, and the B pixel block in FIG. 11A is performed when the second spatial frequency characteristic is detected by the frequency characteristic detection unit 213 in the second imaging mode. used.
  • the camera 1 performs the same processing as in the flowchart of FIG.
  • the camera 1 executes the first filter control mode, and as shown in FIG. 9A, the pixel color arrangement is the Bayer arrangement.
  • steps S150 to S190 the camera 1 performs a process of changing the color arrangement of the pixels based on the spatial frequency characteristics of the subject image.
  • the camera 1 detects the first spatial frequency characteristic
  • the camera 1 executes the second filter control mode to change the pixel color arrangement to the horizontal importance arrangement shown in FIG.
  • the third filter control mode is executed to set the pixel color arrangement to the vertical emphasis arrangement shown in FIG.
  • the color arrangement of the pixels is a Bayer arrangement.
  • the camera 1 can change the resolution in the horizontal direction and the vertical direction by determining the size of the pixel block and controlling the wavelength variable filter 72 of the image sensor 4. it can. That is, the camera 1 switches, for example, a resolution with a good balance in the horizontal direction and the vertical direction shown in FIG. 9, a high resolution in the horizontal direction shown in FIG. 10, and a high resolution in the vertical direction shown in FIG. be able to.
  • the R pixel block interval 2d, the G pixel block interval 2d, and the B pixel block interval in the column direction 2d is also the same.
  • the R pixel block interval 6d, the G pixel block interval 6d, and the B pixel block interval 6d in the row direction are also the same.
  • the interval between the G pixel blocks, the interval between the R pixel blocks, and the interval between the B pixel blocks are different.
  • Other configurations are the same as those of the second embodiment.
  • the filter control unit 214 sets the R pixel block 20, the G pixel block 20, and the B pixel block 20 in the first filter control mode as in the second embodiment, as shown in FIG. It arrange
  • FIG. 12A is a diagram showing the color arrangement of the horizontally emphasized pixels in the second filter control mode of the filter control unit 214.
  • FIG. 12B shows a spatial frequency range that can be resolved in the case of the color arrangement of FIG.
  • a pixel column in which R pixel blocks 20 and B pixel blocks 20 are alternately arranged in the row direction at intervals 2d, and a G pixel block 20 is arranged in the row direction continuously at intervals 2d.
  • the pixel column is repeatedly arranged in the column direction. Accordingly, in the row direction, the G pixel blocks 20 are arranged with an interval 2d, and the R pixel blocks 20 and the B pixel blocks 20 are arranged with an interval 4d. Further, in the column direction, the G pixel blocks 20 are arranged at an interval 4d, and the R pixel blocks 20 and the B pixel blocks 20 are arranged at an interval 8d.
  • the interval 4d between the R pixel blocks 20 in the row direction is smaller than the interval 8d between the R pixel blocks 20 in the column direction.
  • the interval 2d between the G pixel blocks 20 in the row direction is smaller than the interval 4d between the G pixel blocks 20 in the column direction
  • the interval 4d between the B pixel blocks 20 in the row direction is the B pixel in the column direction. It becomes smaller than the interval 8d between the blocks 20.
  • the interval 2d between the G pixel blocks 20 in the row direction is smaller than each of the interval 4d between the R pixel blocks 20 in the row direction and the interval 4d between the B pixel blocks 20.
  • the interval 4d between the G pixel blocks 20 in the column direction is smaller than each of the interval 8d between the R pixel blocks 20 in the column direction and the interval 8d between the B pixel blocks 20.
  • the resolvable spatial frequency range in the case of the horizontal emphasis arrangement as described above is such that the resolution in the horizontal direction (row direction) is higher than the resolution in the vertical direction (column direction). Become. In such a horizontal emphasis arrangement of the R pixel block, the G pixel block, and the B pixel block in FIG. 12A, when the first spatial frequency characteristic is detected by the frequency characteristic detection unit 213 in the second imaging mode. Used for.
  • FIG. 13A is a diagram showing the color arrangement of the pixels that emphasize verticality in the third filter control mode of the filter control unit 214.
  • FIG. 13B shows a spatial frequency range that can be resolved in the case of the color arrangement of FIG.
  • FIG. 13 (a) a pixel column in which G pixel blocks 20 are continuously arranged in the column direction at intervals 2d, and an R pixel block 20 and a B pixel block 20 are alternately arranged in the column direction at intervals 2d. Pixel columns are repeatedly arranged in the row direction. Therefore, in the column direction, the G pixel blocks 20 are arranged with an interval 2d, and the R pixel blocks 20 and the B pixel blocks 20 are arranged with an interval 4d. Further, in the row direction, the G pixel blocks 20 are arranged at an interval 4d, and the R pixel blocks 20 and the B pixel blocks 20 are arranged at an interval 8d.
  • the interval 4d between the R pixel blocks 20 in the column direction is smaller than the interval 8d between the R pixel blocks 20 in the row direction.
  • the interval 2d between the G pixel blocks 20 in the column direction is smaller than the interval 4d between the G pixel blocks 20 in the row direction
  • the interval 4d between the B pixel blocks 20 in the column direction is B pixels in the row direction. It becomes smaller than the interval 8d between the blocks 20.
  • the interval 2d between the G pixel blocks 20 in the column direction is smaller than each of the interval 4d between the R pixel blocks 20 in the column direction and the interval 4d between the B pixel blocks 20.
  • the interval 4d between the G pixel blocks 20 in the row direction is smaller than each of the interval 8d between the R pixel blocks 20 in the row direction and the interval 8d between the B pixel blocks 20.
  • the resolvable spatial frequency range in the case of the above-described vertical emphasis array is such that the resolution in the vertical direction (column direction) is higher than the resolution in the horizontal direction (row direction).
  • the vertical importance arrangement of the R pixel block, the G pixel block, and the B pixel block in FIG. 13A is obtained when the second spatial frequency characteristic is detected by the frequency characteristic detection unit 213 in the second imaging mode. used.
  • the camera 1 performs the same processing as in the flowchart of FIG.
  • step S100 the camera 1 executes the first filter control mode, and as shown in FIG. 9A, the pixel color arrangement is the Bayer arrangement.
  • steps S150 to S190 the camera 1 performs a process of changing the color arrangement of the pixels based on the spatial frequency characteristics of the subject image.
  • the camera 1 detects the first spatial frequency characteristic
  • the camera 1 executes the second filter control mode to change the pixel color arrangement to the horizontal importance arrangement shown in FIG.
  • the third filter control mode is executed to set the pixel color arrangement to the vertical emphasis arrangement shown in FIG.
  • the color arrangement of the pixels is a Bayer arrangement.
  • the camera 1 has, for example, the resolution that is well balanced in the horizontal direction and the vertical direction shown in FIG. 9, the high resolution in the horizontal direction shown in FIG. 12, and the resolution shown in FIG. High resolution can be switched in the vertical direction.
  • the pixel color array of FIG. 14A may be switched to the pixel color array of FIG.
  • the pixel columns arranged at the interval 2d are repeatedly arranged so as to be shifted by a half block in the column direction, that is, shifted by the interval d.
  • the resolvable spatial frequency range in the case of the color arrangement in FIG. 14A is the same as the spatial frequency range shown in FIG.
  • the pixel arrangement shown in FIG. 14B may be used instead of the pixel arrangement shown in FIG.
  • the pixel columns arranged at the interval 2d are repeatedly arranged so as to be shifted by a half block in the column direction, that is, shifted by the interval d.
  • the resolvable spatial frequency range in the case of the color arrangement in FIG. 14B is the same as the spatial frequency range shown in FIG.
  • the Bayer arrangement shown in FIG. For example, the color arrangement of pixels in odd rows and the color arrangement of pixels in even rows may be shifted relative to each other by a half block in the column direction, that is, shifted by an interval (pitch) d.
  • the color arrangement of the odd-numbered pixels and the color arrangement of the even-numbered pixels in the above-mentioned horizontal-oriented arrangement, and the color arrangement of the odd-numbered and even-numbered pixels in the vertical-oriented arrangement is also applied to the horizontal emphasis array in FIG. 5 (a), the vertical emphasis array in FIG. 6 (a), and the Bayer arrangement in FIG. 4 (a). Each can be applied.
  • the frequency characteristic detection unit 213 shows that the high frequency component of the spatial frequency related to the G component (G color) is greatly different between the horizontal direction and the vertical direction, but the R component (R color) and This is effective when it is determined that the high frequency components of the spatial frequency related to the B component (B color) are substantially equal in the horizontal direction and the vertical direction.
  • the interval between the horizontal direction and the vertical direction is changed as described above, but the remaining pixels (for example, R pixel) are changed. May be the same interval in the horizontal direction and the vertical direction without changing the interval.
  • the frequency characteristic detection unit 213 has a difference in the high frequency component of the spatial frequency related to each of the G component and the B component between the horizontal direction and the vertical direction. This is effective when it is determined that the high frequency components of the spatial frequency are substantially equal in the horizontal direction and the vertical direction.
  • the above-described change in the interval of only one type of RGB pixel or the change in the interval of only two types of RGB pixels can be applied to the second and third embodiments. That is, only one type of pixel block among the R pixel block, G pixel block, and B pixel block may be changed in the horizontal and vertical directions, or only two types of pixel blocks may be changed in the horizontal and vertical directions. The interval may be changed with.
  • Modification 2 Instead of controlling the wavelength variable filter 72 of the entire image pickup device 4 to be the same, only the subject portion may be controlled so that the resolution (resolution) is appropriately improved. For example, when a specific subject is detected using a known subject recognition technique or the like, only the wavelength variable filter 72 corresponding to the specific subject portion may be controlled.
  • the interval between pixels or pixel blocks in the case of the horizontal emphasis array is not limited to the above-described interval, and the horizontal interval and the vertical interval are set under the condition of (horizontal interval) ⁇ (vertical interval). It may be changed.
  • the interval between pixels or pixel blocks in the case of the vertical arrangement is not limited to the above-described interval, and the horizontal interval and the vertical direction under the condition of (horizontal interval)> (vertical interval). The interval may be changed.
  • Modification 4 Analysis of the subject image (for example, detection of a spatial frequency component) is performed using a signal from a sensor other than the image sensor 4 (for example, a sensor that performs processing necessary for AF, a sensor for determining an exposure amount, etc.). You may make it perform.
  • the imaging optical system (imaging optical system) 31 in FIG. 1 captures a subject image equivalent to the subject image formed on the imaging surface of the imaging device 4 by the other sensor, and this other sensor.
  • the subject image is analyzed by the analyzing unit 22 based on the pixel signal.
  • the frequency characteristic detection unit 213 of the analysis unit 22 detects the spatial frequency characteristic of the subject image based on the pixel signal of the other sensor.
  • the pixels arranged in another sensor are arranged at the same interval as the pixels of the image sensor 4 in order to detect the same high-frequency component as in the above-described embodiment.
  • the color arrangement of the pixels may be switched from the Bayer arrangement to one of the horizontal importance arrangement and the vertical importance arrangement.
  • the frequency characteristic detection unit 213 calculates the high frequency component of the spatial frequency in the horizontal direction of the subject image, and when the high frequency component exceeds a predetermined value, Switch to the priority array.
  • the horizontal-oriented array may be switched when the high-frequency component in the horizontal direction is larger (larger) than the high-frequency component in the vertical direction.
  • the frequency characteristic detection unit 213 calculates the high frequency component of the spatial frequency in the vertical direction of the subject image, and when the high frequency component exceeds a predetermined value, the vertical Switch to the priority array.
  • the vertical-oriented array may be used when there are more high-frequency components in the vertical direction than high-frequency components in the horizontal direction.
  • the color arrangement of the pixels may be switched from the horizontal importance arrangement to the vertical importance arrangement.
  • the horizontal-oriented array is switched to the vertical-oriented array.
  • the vertical priority array is switched to the horizontal priority array.
  • the horizontal priority array is switched to the horizontal priority array.
  • the frequency characteristic detection unit 213 determines the spatial frequency characteristics of the subject image when the high frequency component of the vertical spatial frequency is greater than the high frequency component of the horizontal spatial frequency by a predetermined amount T1 or more.
  • T1 the frequency characteristic detection unit 213 determines the spatial frequency characteristics of the subject image when the high frequency component of the vertical spatial frequency is greater than the high frequency component of the horizontal spatial frequency by a predetermined amount T1 or more.
  • T2 the frequency characteristic detection unit 213 has a spatial frequency characteristic of the subject image. May be detected as the second spatial frequency characteristic.
  • Modification 8 In the embodiment described above, an example in which still image shooting is performed has been described using the flowchart of FIG. However, this imaging apparatus can also be applied to the case of moving image shooting. In this case, since it is difficult to detect the high-frequency component of the spatial frequency in the horizontal direction and the vertical direction with an image sensor with a horizontal emphasis array or a vertical emphasis array during moving image shooting, the imaging described in Modification 3 above. It is desirable to detect the spatial frequency component by a sensor different from the element 4.
  • the focus detection unit 212 may be a focus detection unit that performs processing necessary for the phase difference AF based on the pixel signal of the focus detection pixel provided in the image sensor 4.
  • the focus detection unit 212 determines the phase difference based on the pixel signal from the focus detection pixel in a state where the filter control unit 214 controls the pixel color arrangement to the Bayer arrangement. Processing necessary for AF is performed.
  • a focus detection sensor different from the image sensor 4 may be provided in the optical path branched from the optical path of the imaging optical system 31, and processing necessary for the phase difference AF may be performed in this focus detection sensor. .
  • the wavelength tunable filter 72 includes three filters: an EC layer that develops R (red), an EC layer that develops G (green), and an EC layer that develops B (blue).
  • the tunable filter 72 may be configured by three filters: an EC layer that develops Mg (magenta), an EC layer that develops Ye (yellow), and an EC layer that develops Cy (cyan).
  • the wavelength tunable filter 72 can mainly transmit light in one of the wavelength ranges of Mg, Ye, Cy, W, BK, R, G, and B, depending on the combination of the transmission wavelengths of the three EC layers. It becomes possible.
  • the wavelength variable filter 72 may be a wavelength variable filter using liquid crystal.
  • the imaging element 4 may have a surface irradiation type configuration in which the wiring layer 110 is provided on the incident surface side on which light is incident.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Blocking Light For Cameras (AREA)

Abstract

撮像装置は、透過させる光の波長を第1の波長と第2の波長とで変更可能なフィルタと、前記フィルタを透過した光を受光する受光部とを有する複数の画素が配置され、光学系による像を撮像する撮像部と、前記撮像部で撮像された像を解析する解析部と、前記解析部での解析結果に基づいて、前記フィルタで透過させる光の波長を制御する制御部と、を備える。

Description

撮像装置および撮像素子
 本発明は、撮像装置および撮像素子に関する。
 透過波長が可変である波長可変フィルタを画素毎に備えた撮像装置が知られている(特許文献1)。しかし、従来の撮像装置では、設定した各画素の透過波長が被写体に適していない場合があるという問題があった。
日本国特開2013-85028号公報
 本発明の第1の態様によると、撮像装置は、透過させる光の波長を第1の波長と第2の波長とで変更可能なフィルタと、前記フィルタを透過した光を受光する受光部とを有する複数の画素が配置され、光学系による像を撮像する撮像部と、前記撮像部で撮像された像を解析する解析部と、前記解析部での解析結果に基づいて、前記フィルタで透過させる光の波長を制御する制御部と、を備える。
 本発明の第2の態様によると、撮像装置は、第1の波長の光を透過させる第1状態と第2の波長の光を透過させる第2状態とを変更可能なフィルタと、前記フィルタを透過した光を受光して信号を出力する受光部と、前記受光部から出力された前記信号に基づいて、前記フィルタを前記第1状態又は前記第2状態に制御する制御部と、を備える。
 本発明の第3の態様によると、撮像装置は、被写体からの光のうち第1の波長の光を透過させる第1状態と第2の波長の光を透過させる第2状態とを変更可能なフィルタと、前記フィルタを透過した光を受光して信号を出力する受光部と、前記被写体からの光を検出し、前記フィルタを前記第1状態又は前記第2状態に制御する制御部と、を備える。
 本発明の第4の態様によると、撮像装置は、第1の波長の光を透過させる第1状態と第2の波長の光を透過させる第2状態とを変更可能なフィルタと、前記フィルタを透過した光を受光して信号を出力する受光部と、前記受光部から出力された信号に基づく像の空間周波数成分を検出する検出部と、前記検出部により検出された前記空間周波数成分に基づいて、前記フィルタを前記第1状態又は前記第2状態に制御する制御部と、を備える。
 本発明の第5の態様によると、撮像素子は、第1の波長の光を透過させる第1状態と第2の波長の光を透過させる第2状態とを変更可能なフィルタと、前記フィルタを透過した光を受光して信号を出力する受光部と、前記受光部から出力された前記信号に基づいて、前記フィルタを前記第1状態又は前記第2状態に制御する制御部と、を備える。
第1の実施の形態に係る撮像装置の構成を示すブロック図である。 第1の実施の形態に係る撮像素子の一部の構成を示すブロック図である。 第1の実施の形態に係る撮像素子の構造を説明するための図である。 第1の実施の形態に係る撮像素子の波長可変フィルタによる色フィルタ配列と、空間周波数範囲を示す図である。 第1の実施の形態に係る撮像素子の波長可変フィルタによる色フィルタ配列と、空間周波数範囲を示す図である。 第1の実施の形態に係る撮像素子の波長可変フィルタによる色フィルタ配列と、空間周波数範囲を示す図である。 第1の実施の形態に係る撮像装置の動作の一例を示したフローチャートである。 第2の実施の形態に係る撮像装置の構成を示すブロック図である。 第2の実施の形態に係る撮像素子の波長可変フィルタによる色フィルタ配列と、空間周波数範囲を示す図である。 第2の実施の形態に係る撮像素子の波長可変フィルタによる色フィルタ配列と、空間周波数範囲を示す図である。 第2の実施の形態に係る撮像素子の波長可変フィルタによる色フィルタ配列と、空間周波数範囲を示す図である。 第3の実施の形態に係る撮像素子の波長可変フィルタによる色フィルタ配列と、空間周波数範囲を示す図である。 第3の実施の形態に係る撮像素子の波長可変フィルタによる色フィルタ配列と、空間周波数範囲を示す図である。 第3の実施の形態に係る撮像素子の波長可変フィルタによる色フィルタ配列を示す図である。
(第1の実施の形態)
 図1は、第1の実施の形態に係る撮像装置の一例である電子カメラ1(以下、カメラ1と称する)の構成例を示す図である。カメラ1は、カメラボディ2と交換レンズ3とにより構成される。交換レンズ3は、不図示のマウント部を介してカメラボディ2に着脱可能に装着される。カメラボディ2に交換レンズ3が装着されると、カメラボディ2側の接続部202と交換レンズ3側の接続部302とが接続され、カメラボディ2および交換レンズ3間の通信が可能となる。
 図1において、被写体からの光は、図1のZ軸プラス方向に向かって入射する。また、座標軸に示すように、Z軸に直交する紙面手前方向をX軸プラス方向、Z軸およびX軸に直交する下方向をY軸プラス方向とする。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きが分かるように座標軸を表示する。
 交換レンズ3は、撮像光学系(結像光学系)31と、レンズ制御部32と、レンズメモリ33とを備える。撮像光学系31は、焦点調節レンズ(フォーカスレンズ)を含む複数のレンズと絞りとを含み、カメラボディ2の撮像素子4の撮像面上に被写体像を結像する。
 レンズ制御部32は、カメラボディ2のボディ制御部21から出力される信号に基づき、焦点調節レンズを光軸L1方向に進退移動させて撮像光学系31の焦点位置を調節する。また、レンズ制御部32は、カメラボディ2のボディ制御部21から出力される信号に基づき、絞りの開口径を制御する。
 レンズメモリ33は、例えば、不揮発性の記憶媒体等により構成される。レンズメモリ33には、交換レンズ3に関連する情報がレンズ情報として記憶される。レンズメモリ33へのレンズ情報の書き込みや、レンズメモリ33からのレンズ情報の読み出しは、レンズ制御部32によって行われる。
 カメラボディ2は、ボディ制御部21と、撮像素子4と、メモリ23と、表示部24と、操作部25とを備える。撮像素子4は、例えば、CMOSイメージセンサやCCDイメージセンサである。撮像素子4は、撮像光学系31を通過した光束を受光して、被写体像を撮像する。撮像素子4には、光電変換部を有する複数の画素が、第1の方向である行方向(水平方向)及びそれと交差する第2の方向である列方向(垂直方向)に配置される。光電変換部は、例えばフォトダイオード(PD)によって構成される。撮像素子4は、光電変換部を有する複数の画素を有し、撮像光学系31による被写体像を撮像する撮像部4である。撮像素子4は、入射した光を光電変換して画素信号を生成し、生成した画素信号をボディ制御部21に出力する。画素信号は、光電変換部によって光電変換された電荷に基づいて生成される信号である。
 メモリ23は、例えば、メモリカード等の記録媒体である。メモリ23には、画像データ等が記録される。メモリ23へのデータの書き込みや、メモリ23からのデータの読み出しは、ボディ制御部21によって行われる。表示部24は、画像データに基づく画像、シャッター速度や絞り値等の撮影に関する情報、およびメニュー画面等を表示する。操作部25は、レリーズボタン、電源スイッチなどの各種設定スイッチ等を含み、それぞれの操作に応じた操作信号をボディ制御部21へ出力する。
 ボディ制御部21は、CPU、ROM、RAM等により構成され、制御プログラムに基づきカメラ1の各部を制御する。また、ボディ制御部21は、撮影モード設定部211と、焦点検出部212と、周波数特性検出部213を有する解析部22と、フィルタ制御部214と、第1の画像データ生成部215と、第2の画像データ生成部216とを有する。
 撮影モード設定部211は、操作部25から出力される操作信号に基づいて、撮影モードを設定する。例えば、撮影モード設定部211は、操作信号に基づき、レリーズボタンの半押し操作を検知した場合には、後述するスルー画像、即ち表示用の画像データを生成し表示部24に表示する第1撮影モードに設定する。なお、第1撮影モードは、電源スイッチのオンに基づき、設定してもよい。また、撮影モード設定部211は、操作信号に基づき、レリーズボタンの全押し操作を検知した場合には、記録用の画像データを生成しその画像データをメモリ23に記録する第2撮影モードに設定する。ここで、画像データとは、静止画用の画像データ、または動画用の画像データである。
 焦点検出部212は、撮像光学系31の自動焦点調節(AF)に必要な処理を行う。具体的には、焦点検出部212は、撮像光学系31の焦点調節レンズを光軸方向に所定距離ずつ移動させながら、所定距離毎に撮像素子4からの画素信号に基づき被写体像のコントラスト評価値を順次算出する。焦点検出部212は、コントラスト評価値がピーク、即ち最大値を示す焦点調節レンズの位置を合焦位置として算出する。焦点検出部212は、算出した合焦位置に関する信号を、レンズ制御部32に出力する。レンズ制御部32は、焦点調節レンズを合焦位置に移動して焦点調節を行う。
 解析部22は、撮像光学系31によって形成される被写体像を解析する。解析部22は、例えば、周波数特性検出部213によって被写体像の空間周波数特性を検出する。具体的には、周波数特性検出部213は、撮像素子4から出力される各画素の画素信号に基づき被写体像の空間周波数特性を検出する。空間周波数特性とは、例えば画像(データ)全体または画像の一部を周波数解析して得られる、画像を空間周波数ごとの成分(振幅強度、信号強度)により示した特性である。例えば、空間周波数特性は、空間周波数と空間周波数ごとの成分との関係を示す空間周波数分布によって表され、画像の周期パターンや繰り返しの程度を示す。
 周波数特性検出部213は、被写体像の水平方向(画素配列の行方向)の空間周波数の高周波成分及び垂直方向(画素配列の列方向)の空間周波数の高周波成分をそれぞれ算出し、算出した高周波成分に基づき、被写体像の空間周波数特性を検出する。周波数特性検出部213は、詳細は後述するが、被写体像の各色成分(R成分、G成分、およびB成分)について空間周波数の高周波成分を算出する。被写体像の空間周波数の高周波成分(高周波数成分)とは、被写体像の空間周波数のうちの相対的に高い周波数(高周波数)における成分(振幅強度、信号強度)である。例えば、被写体像の高周波成分は、被写体像の空間周波数成分のうちの後述の画素ピッチ(画素の間隔)dに相当する空間周波数の成分である。なお、高周波成分は、これに限られず、間隔2dに相当する周波数成分であってもよい。また、高周波成分は、複数の周波数成分を合算したものであってもよい。更に、隣り合う画素の画素信号の差分を積算した値を、被写体像の高周波成分として用いてもよい。
 周波数特性検出部213は、水平方向の空間周波数の高周波成分が、垂直方向の空間周波数の高周波成分よりも、所定量T1以上、即ち定められた量以上多い場合に、被写体像の空間周波数特性を第1の空間周波数特性として検出する。
 周波数特性検出部213は、垂直方向の空間周波数の高周波成分が、水平方向の空間周波数の高周波成分よりも、所定量T1以上、即ち定められた量以上多い場合に、被写体像の空間周波数特性を第2の空間周波数特性として検出する。
 周波数特性検出部213は、水平方向の空間周波数の高周波成分と垂直方向の空間周波数の高周波成分とが略等しい場合、即ち両方向の高周波成分の差が上記の所定量T1以内である場合に、被写体像の空間周波数特性を第3の空間周波数特性として検出する。
 このように本実施の形態では、周波数特性検出部213は、被写体像の空間周波数特性が、第1、第2、第3の空間周波数特性のいずれに、属するかを検出する。
 周波数特性検出部213は、空間周波数の高周波成分を、例えば、撮像素子4からの画素信号に対して高速フーリエ変換(FFT)処理を行うことによって算出する。また、周波数特性検出部213は、空間周波数の高周波成分を、第1の画像データ生成部215または第2の画像データ生成部216により生成される画像データに対して高速フーリエ変換処理を行うことによって算出するようにしてもよい。更に、周波数特性検出部213は、高速フーリエ変換処理の代わりに、以下の演算処理によって空間周波数の高周波成分を算出することもできる。即ち、周波数特性検出部213は、行方向に配置された隣接画素の画素信号の差分をそれぞれ算出して、それらの差分を積算して水平方向の空間周波数の高周波成分を算出する。同様に、周波数特性検出部213は、列方向に配置された隣接画素の画素信号の差分をそれぞれ算出して、それらの差分を積算して垂直方向の空間周波数の高周波成分を算出する。
 フィルタ制御部214は、解析部22での被写体像の解析結果に基づいて、撮像素子4の画素の色配列を制御する。フィルタ制御部214が、被写体像の解析結果に基づいて、撮像素子4の画素の位置を制御するともいえる。例えば、フィルタ制御部214は、周波数特性検出部213によって検出された被写体像の空間周波数特性に基づいて撮像素子4の画素の色配列を制御して、撮像素子4の解像度(分解能)を変更する。詳細は後述するが、フィルタ制御部214は、撮像素子4の各画素の波長可変フィルタの透過波長を制御することによって解像度を変更する。
 なお、フィルタ制御部214は、被写体を撮像して得られる画像の画像構造に基づいて、波長可変フィルタの透過波長を制御してもよい。フィルタ制御部214は、画像のテキスチャ、画像に含まれるエッジ、画素信号または画像データの周期パターン等の被写体画像の特徴に関する情報に基づいて、波長可変フィルタの透過波長を制御するようにしてもよい。この場合、解析部22は、各画素の画素信号または画像データを解析し、被写体画像の特徴に関する情報を生成する。フィルタ制御部214は、解析部22により生成された被写体画像の特徴に関する情報に基づいて、波長可変フィルタの透過波長を制御して撮像素子4の解像度を変更する。
 第1の画像データ生成部215は、撮影モード設定部211により第1撮影モードに設定された場合に、撮像素子4から出力される画素信号に対して各種の画像処理を行って、表示用の画像データを生成する。表示部24は、第1の画像データ生成部215により生成された表示用の画像データに基づいて画像を表示する。
 第2の画像データ生成部216は、撮影モード設定部211により第2撮影モードに設定された場合に、撮像素子4から出力される画素信号に対して各種の画像処理を行って、記録用の画像データを生成する。第2の画像データ生成部216は、生成した記録用の画像データをメモリ23に記録させる。第1の画像データ生成部215および第2の画像データ生成部216により行われる画像処理には、例えば、階調変換処理、輪郭強調処理等の公知の画像処理が含まれる。なお、第1の画像データ生成部215と第2の画像データ生成部216とは、表示用の画像データまたは記録用の画像データを生成する画像データ生成部として一体的に構成されてもよい。
 図2および図3を参照して、第1の実施の形態に係る撮像素子4の構成について説明する。図2は、第1の実施の形態に係る撮像素子4の一部の構成を示すブロック図である。図3は、第1の実施の形態に係る撮像素子4の構造を説明するための図である。図3(a)は、撮像素子4の断面構造の一例を示す断面図であり、図3(b)は、撮像素子4の波長可変フィルタ72の透明電極のレイアウト例を説明するための平面図である。
 図2に示すように、撮像素子4は、複数の画素10と、フィルタ垂直駆動部41と、フィルタ水平駆動部42と、画素垂直駆動部43と、カラム回路部44と、水平走査部45と、出力部46と、制御部47とを備える。撮像素子4では、画素10が二次元状(例えば、行方向およびそれと交差する列方向)に配置される。図2に示す例では、説明を簡略化するために、画素10は水平方向15画素×垂直方向12画素のみ図示しているが、撮像素子4は、例えば数百万画素~数億画素、又はそれ以上の画素を有する。
 図3(a)に示すように、撮像素子4は、半導体基板100と、配線層110と、支持基板120と、マイクロレンズ71と、波長可変フィルタ72とを備える。図3(a)に示す例では、撮像素子4は、裏面照射型の撮像素子として構成されている。半導体基板100は、配線層110を介して支持基板120に積層される。半導体基板100は、シリコン等の半導体基板により構成され、支持基板120は、半導体基板やガラス基板等により構成される。配線層110は、導体膜(金属膜)および絶縁膜を含む配線層であり、複数の配線やビアなどが配置される。導体膜には、銅、アルミニウム等が用いられる。絶縁膜は、酸化膜や窒化膜などで構成される。上述したように、撮像光学系31を通過した光は、主にZ軸プラス方向へ向かって入射する。
 画素10(図3においては画素10a~10c)は、マイクロレンズ71と、波長可変フィルタ72と、遮光膜74と、光電変換部75とを含んで構成される。マイクロレンズ71は、入射した光を光電変換部75に集光する。遮光膜74は、隣接する画素の境界に配置され、隣接画素間で光が漏れることを抑制する。光電変換部75は、入射した光を光電変換して電荷を生成する。
 波長可変フィルタ72は、マイクロレンズ71側から半導体基板100側に向かって順次積層されたエレクトロクロミック(以下、ECと称する)層61、62、63と、透明電極51、52、53、54とを有する。EC層61~63は、金属酸化物等のエレクトロクロミック材料を用いて形成される。透明電極51~54は、例えばITO(酸化インジウムスズ)等により形成される。EC層61と透明電極52との間、EC層62と透明電極53との間、及びEC層63と透明電極54との間には、絶縁膜73がそれぞれ設けられる。また、波長可変フィルタ72には、不図示の電解質層(電解質膜)が設けられる。
 透明電極51は、図3(b)に明示したように、X方向に、即ち行方向に配列された複数のEC層61の一方の面を覆うように、行方向に配列された複数のEC層毎に、配置される。図2に示した例では、画素10の配列は、12行であるので、透明電極51は、12本並置されている。透明電極52及び透明電極53は、透明電極51と同様に、X方向に配置された複数のEC層62及びEC層63の一方の面を覆うように配置される。
 透明電極54は、3つのEC層61、62、63に共通の電極で、EC層63の他方の面側に配置される。共通透明電極54は、図3(b)に明示したように、X方向と交差するY方向、即ち列方向に配列された複数のEC層63に沿って、列方向に配列された複数のEC層毎に、配置される。図2に示した例では、画素10の配列は、15列であるので、共通透明電極54は、15本並置されている。
 透明電極51~53および共通透明電極54は、EC層61、62、63に対してマトリクス状(網目状)に配置される電極となる。透明電極51~53は、フィルタ垂直駆動部41に接続され、共通透明電極54は、フィルタ水平駆動部42に接続される。これにより、本実施の形態では、マトリクス状の電極を用いてEC層61、62、63の駆動制御を行うアクティブマトリクス駆動を行うことができる。
 EC層61は、透明電極51と共通透明電極54とによる駆動信号の供給によって酸化還元反応を生じることによりB(青)を発色する。従って、EC層61は、駆動信号の供給によって、入射光のうち、B(青)に対応する波長域の光を透過させる。EC層62は、透明電極52と共通透明電極54とによる駆動信号の供給によって酸化還元反応を生じることによりG(緑)を発色する。従って、EC層62は、駆動信号の供給によって、入射光のうち、G(緑)に対応する波長域の光を透過させる。EC層63は、透明電極53と共通透明電極54とによる駆動信号の供給によって酸化還元反応を生じることによりR(赤)を発色する。従って、EC層63は、駆動信号の供給によって、入射光のうち、R(赤)に対応する波長域の光を透過させる。EC層61、62、63は、上述の駆動信号の供給を停止した場合は、一定時間の間は上記の発色が持続され、リセット信号を供給した場合は、入射する光のうちの全ての波長域の光を透過する透明(消色)の状態になる。
 上述のように、複数の波長可変フィルタ72の各々は、B(青)を発色するEC層61、G(緑)を発色するEC層62、およびR(赤)を発色するEC層63の3つのフィルタにより構成される。3つのEC層61、62、63のいずれにも、駆動信号が供給されていない状態では、3層EC透過波長域は、W(白)となる。3つのEC層61、62、63の全てに駆動信号を供給すると、3層EC透過波長域は、BK(黒)となる。同様に、EC層61のみに、EC層62のみに、及びEC層63のみに、それぞれ駆動信号を供給した場合には、3層EC透過波長域は、それぞれB(青)、G(緑)、R(赤)になる。
 これにより、波長可変フィルタ72は、EC層61~63の透過波長の組み合わせにより、W(白)、BK(黒)、R(赤)、G(緑)、B(青)のいずれかの波長域の光を主に透過させることが可能となる。
 以下の説明において、波長可変フィルタ72の3層EC透過波長域がB(青)になった画素をB画素と称し、3層EC透過波長域がG(緑)になった画素をG画素と称し、3層EC透過波長域がR(赤)になった画素をR画素と称する。即ち、波長可変フィルタ72が、B(青)の色フィルタに制御された画素をB画素と称し、同様に、波長可変フィルタ72が、G(緑)の色フィルタに制御された画素をG画素と、R(赤)の色フィルタに制御された画素をR画素と、称する。このように、各画素10は、波長可変フィルタ72を透過する波長が適宜変更され、その波長の光成分を光電変換する。各画素10の光電変換部75は、波長可変フィルタ72を透過した光を光電変換する。光電変換部75は、波長可変フィルタ72を透過した被写体からの光を受光する受光部75でもあり、光電変換部75(受光部75)は、入射光を光電変換して信号(電荷)を生成する。
 図2において、フィルタ垂直駆動部41は、複数の波長可変フィルタ72の行を選択して、即ち、複数の透明電極51~53のうちの所定の透明電極を選択してそれに駆動信号を供給する。フィルタ水平駆動部42は、複数の波長可変フィルタ72の列を選択して、即ち、複数の共通透明電極54のうちの所定の共通透明電極を選択してそれに駆動信号を供給する。こうして、フィルタ垂直駆動部41によって選択された透明電極51~53とフィルタ水平駆動部42によって選択された共通透明電極54との両方に関するEC層が発色する。
 例えば、図3(b)において、フィルタ水平駆動部42が3本の共通透明電極54のうちの右端の共通透明電極54を選択して駆動信号を供給し、更にフィルタ垂直駆動部41が9本の透明電極51~53のうち図3(b)において上端の透明電極51を選択して駆動信号を供給すると、右上端に位置するEC層61が発色する。また、フィルタ水平駆動部42が同じ共通透明電極54を選択して駆動信号を供給し、更にフィルタ垂直駆動部41が図3(b)において上端の透明電極52を選択して駆動信号を供給すると、右上端のEC層62が発色する。また、フィルタ水平駆動部42が同じ共通透明電極54を選択して駆動信号を供給し、更にフィルタ垂直駆動部41が図3(b)において上端の透明電極53を選択して駆動信号を供給すると、右上端のEC層63が発色する。
 図2において、制御部47は、カメラ1のボディ制御部21からの信号に基づいて、フィルタ垂直駆動部41、フィルタ水平駆動部42、画素垂直駆動部43、カラム回路部44、水平走査部45、および出力部46を制御する。例えば、制御部47は、ボディ制御部21のフィルタ制御部214からの指示に応じて、フィルタ垂直駆動部41およびフィルタ水平駆動部42を制御する。制御部47は、フィルタ垂直駆動部41およびフィルタ水平駆動部42から各波長可変フィルタ72に入力される信号を制御することにより、各波長可変フィルタ72の透過波長を設定(変更)する。画素垂直駆動部43は、制御部47からの信号に基づいて、制御信号を各画素10に供給して、各画素10の動作を制御する。
 カラム回路部44は、複数のアナログ/デジタル変換部(AD変換部)を含んで構成され、各画素10から垂直信号線を介して入力された画素信号をデジタル信号に変換し、変換後のデジタル信号を水平走査部45に出力する。水平走査部45は、カラム回路部44から出力された画素信号を、出力部46に順次出力する。出力部46は、不図示の信号処理部を有し、水平走査部45から入力された信号に対して相関二重サンプリングや信号量を補正する処理等の信号処理を行い、カメラ1のボディ制御部21に出力する。出力部46は、LVDSやSLVS等の高速インタフェースに対応した入出力回路等を有し、信号をボディ制御部21に高速に伝送する。
 本実施の形態によるカメラ1は、上述したように、撮像素子4から出力される各画素の画素信号に基づいて、被写体像の空間周波数成分を検出する。そして、カメラ1は、空間周波数成分に基づいて波長可変フィルタ72を制御して、画素の色配列を切り替えることによって、撮像素子4の解像度を変更する。具体的には、フィルタ制御部214は、制御モードを変更して、例えば、図4(a)の画素の色配列と、図5(a)の画素の色配列と、図6(a)の画素の色配列とを切り替える。
 フィルタ制御部214は、第1、第2、及び第3のフィルタ制御モードを有する。フィルタ制御部214は、以下に詳述するようにR画素、G画素、及びB画素を、第1のフィルタ制御モードでは図4(a)の色配列に配置し、第2のフィルタ制御モードでは図5(a)の色配列に配置し、第3のフィルタ制御モードでは図6(a)の色配列に配置する。即ち、フィルタ制御部214は、R画素、G画素、及びB画素の位置を制御する。詳細は後述するが、図4(a)に示した画素の色配列では、水平方向および垂直方向にバランスのよい解像度となる。また、図5(a)に示した画素の色配列では、水平方向に高い解像度となり、図6(a)に示した画素の色配列では、垂直方向に高い解像度となる。フィルタ制御部214は、被写体像の空間周波数成分に基づき、第1、第2、及び第3のフィルタ制御モードのいずれかを選択して、撮影対象となる被写体に適した解像度が得られる画素の色配列に切り替える。
 フィルタ制御部214は、例えば、水平方向及び垂直方向の各々の空間周波数の高周波成分がほぼ等しい被写体像を撮像する場合は、第1のフィルタ制御モードを実行し、図4(a)の水平方向及び垂直方向にバランスのよい解像度が得られる画素の色配列に設定する。フィルタ制御部214は、水平方向の空間周波数の高周波成分が垂直方向の空間周波数の高周波成分よりも所定量多い被写体像を撮像する場合は、第2のフィルタ制御モードを実行し、図5(a)の水平方向に高い解像度が得られる画素の色配列に設定する。また、フィルタ制御部214は、例えば、垂直方向の空間周波数の高周波成分が水平方向の空間周波数の高周波成分よりも所定量多い被写体像を撮像する場合は、第3のフィルタ制御モードを実行し、図6(a)の垂直方向に高い解像度が得られる画素の色配列に設定する。以下では、フィルタ制御部214の各制御モードにおける画素の色配列について詳細に説明する。
 図4(a)は、フィルタ制御部214の第1のフィルタ制御モードにおけるR画素、G画素、B画素の色配列を示し、図4(b)は、図4(a)の色配列の場合に解像可能な空間周波数範囲を示す図である。図4(a)においては、上述したように、R画素10は、波長可変フィルタ72がR(赤)フィルタに制御された画素10である。G画素10は、波長可変フィルタ72がG(緑)フィルタに制御された画素10であり、B画素10は、波長可変フィルタ72がB(青)フィルタに制御された画素10である。
 図4(a)では、制御部47は、ボディ制御部21のフィルタ制御部214からの指示に応じて各波長可変フィルタ72を制御して、R画素10と、G画素10と、B画素10とをベイヤー配列に従って配置させている。R画素10とG画素10とが行方向に交互にピッチd、即ち間隔dで配置された画素列と、G画素10とB画素10とが行方向に交互にピッチd、即ち間隔dで配置された画素列とが列方向に交互に並べられている。ベイヤー配列では、水平方向(行方向)のR画素同士の間隔(2d)は、垂直方向(列方向)のR画素同士の間隔(2d)と同一である。同様に、水平方向(行方向)のG画素同士の間隔(2d)は、垂直方向(列方向)のG画素同士の間隔(2d)と同一であり、水平方向(行方向)のB画素同士の間隔(2d)は、垂直方向(列方向)のB画素同士の間隔(2d)と同一である。
 図4(b)は、図4(a)のベイヤー配列の場合の解像可能な空間周波数範囲を示している。図4(b)において、縦軸fyは垂直方向の空間周波数を示しており、横軸fxは水平方向の空間周波数を示している。図4(b)では、G画素10の解像可能な空間周波数範囲が実線で示され、R画素10、B画素10の解像可能な空間周波数範囲が点線で示されている。このように、ベイヤー配列では、G画素10の解像可能な空間周波数範囲は、水平方向と垂直方向とで同一になり、R画素10、B画素10の解像可能な空間周波数範囲も、水平方向と垂直方向とで同一になる。
 このような図4(a)のR画素、G画素、及びB画素のベイヤー配列は、記録用の画像データを生成しその画像データをメモリ23に記録する第2撮影モード時において、周波数特性検出部213によって第3の空間周波数特性が検出された場合に、使用される。また、図4(a)のベイヤー配列は、スルー画像、即ち表示用の画像データを生成し表示部24に表示する第1撮影モード時には、被写体像の空間周波数特性に関係なく、使用される。
 図5(a)は、フィルタ制御部214の第2のフィルタ制御モードにおけるR画素、G画素、及びB画素の水平重視の画素の色配列を示す図である。図5(b)は、図5(a)の色配列の場合に解像可能な空間周波数範囲を示している。
 図5(a)では、R画素10が行方向に連続して間隔(ピッチ)dで配置された画素列と、G画素10が行方向に連続して間隔dで配置された画素列と、B画素10が行方向に連続して間隔dで配置された画素列とが列方向に繰り返し並べられている。従って、R画素10、G画素10、およびB画素10の各々は、列方向において間隔3dで配置されている。このようなR画素、G画素、及びB画素の水平重視の画素の色配列は、制御部47が、ボディ制御部21のフィルタ制御部214からの指示に応じて各波長可変フィルタ72を制御することによって達成される。
 以上のように、R画素、G画素、及びB画素の各々は、行方向に間隔dで配置され、列方向に間隔3dで配置されるので、このような画素の色配列のR画素、G画素及びB画素の解像可能な空間周波数範囲は、図5(b)に示したように、水平方向(行方向)の解像度が垂直方向(列方向)の解像度よりも高くなる。
 このような図5(a)のR画素、G画素、及びB画素の水平重視の画素の色配列は、第2撮影モード時に、周波数特性検出部213によって第1の空間周波数特性が検出された場合に使用される。
 図6(a)は、フィルタ制御部214の第3のフィルタ制御モードにおけるR画素、G画素、及びB画素の垂直重視の画素の色配列を示す図である。図6(b)は、図6(a)の色配列の場合に解像可能な空間周波数範囲を示している。
 図6(a)では、R画素10が列方向に連続して間隔dで配置された画素列と、G画素10が列方向に連続して間隔dで配置された画素列と、B画素10が列方向に連続して間隔dで配置された画素列とが行方向に繰り返し並べられている。従って、R画素10、G画素10、およびB画素10の各々は、行方向(水平方向)において間隔3dで配置されている。このようなR画素、G画素、及びB画素の垂直重視の画素の色配列は、制御部47が、ボディ制御部21のフィルタ制御部214からの指示に応じて各波長可変フィルタ72を制御することによって達成される。
 以上のように、R画素、G画素、及びB画素の各々は、列方向に間隔dで配置され、行方向に間隔3dで配置されるので、このような画素の色配列のR画素、G画素及びB画素の解像可能な空間周波数範囲は、図6(b)に示したように、垂直方向(列方向)の解像度が水平方向(行方向)の解像度よりも高くなる。
 このような図6(a)のR画素、G画素、及びB画素の垂直重視の画素の色配列は、第2撮影モード時に周波数特性検出部213によって第2の空間周波数特性が検出された場合に使用される。
 前述した周波数特性検出部213は、被写体像の各色成分についての空間周波数の高周波成分を算出する。具体的には、周波数特性検出部213は、撮像素子4から出力されるR、G、およびB画素の画素信号、即ちR成分、G成分、およびB成分の画素信号に基づき、R色、G色、及びB色に関する水平方向の高周波成分と垂直方向の高周波成分とをそれぞれ算出する。図4(a)に示すベイヤー配列の場合は、撮像素子4は、水平方向の間隔2d毎のR成分の画素信号、水平方向の間隔2d毎のG成分の画素信号、および水平方向の間隔2d毎のB成分の画素信号を生成する。また、撮像素子4は、垂直方向の間隔2d毎のR成分の画素信号、垂直方向の間隔2d毎のG成分の画素信号、および垂直方向の間隔2d毎のB成分の画素信号を生成する。
 周波数特性検出部213は、水平方向の間隔2d毎のR成分の画素信号に対して高速フーリエ変換処理を行って、R成分についての水平方向の高周波成分(空間周波数1/2dの信号成分等)を算出する。同様に、周波数特性検出部213は、水平方向の間隔2d毎のB成分の画素信号に対して高速フーリエ変換処理を行って、B成分についての水平方向の高周波成分(空間周波数1/2dの信号成分等)を算出する。
 また、周波数特性検出部213は、垂直方向の間隔2d毎のR成分の画素信号に対して高速フーリエ変換処理を行って、R成分についての垂直方向の高周波成分(空間周波数1/2dの信号成分等)を算出する。同様に、周波数特性検出部213は、垂直方向の間隔2d毎のB成分の画素信号に対して高速フーリエ変換処理を行って、B成分についての垂直方向の高周波成分(空間周波数1/2dの信号成分等)を算出する。
 周波数特性検出部213は、G成分についての高周波成分を算出する場合は、G成分の画素信号に対して補間処理を行うことによって、隣り合うG画素の間に位置するR画素10またはB画素10の位置におけるG成分の画素信号を生成する。即ち、周波数特性検出部213は、補間処理を行うことによって、水平方向の間隔d毎のG成分の画素信号を取得し、垂直方向の間隔d毎のG成分の画素信号を取得する。
 以下に、G成分の水平方向の補間処理について説明する。周波数特性検出部213は、図4(a)においてR画素とG画素とが水平方向に交互に配置された画素列については、R画素の位置に対応するG成分の画素信号を、そのR画素の上下に位置する2つのG画素の画素信号を用いて補間する。同様に、G画素とB画素とが水平方向に交互に配置された画素列については、B画素の位置に対応するG成分の画素信号は、B画素の上下に位置する2つのG画素の画素信号を用いて補間される。
 以下に、G成分の垂直方向の補間処理について説明する。周波数特性検出部213は、図4(a)においてR画素とG画素とが垂直方向に交互に配置された画素列については、R画素の位置に対応するG成分の画素信号を、そのR画素の左右に位置する2つのG画素の画素信号を用いて補間する。同様に、G画素とB画素とが垂直方向に交互に配置された画素列については、B画素の位置に対応するG成分の画素信号は、B画素の左右に位置する2つのG画素の画素信号を用いて補間される。なお、補間処理においてG成分の画素信号を算出する場合は、2つの画素の画素信号を平均することで算出してもよいし、2つの画素の画素信号を重み付け平均することで算出してもよい。
 周波数特性検出部213は、上述した補間処理を行うことによって、水平方向の間隔d毎のG成分の画素信号を取得し、垂直方向の間隔d毎のG成分の画素信号を取得する。周波数特性検出部213は、水平方向の間隔d毎のG成分の画素信号に対して高速フーリエ変換処理を行って、G成分についての水平方向の高周波成分(空間周波数1/dの信号成分等)を算出する。また、周波数特性検出部213は、垂直方向の間隔d毎のG成分の画素信号に対して高速フーリエ変換処理を行って、G成分についての垂直方向の高周波成分(空間周波数1/dの信号成分等)を算出する。
 このように、周波数特性検出部213は、水平方向および垂直方向について、色成分ごとの高周波成分を算出する。周波数特性検出部213は、算出した高周波成分に基づいて、空間周波数特性の判定処理を行う。例えば、周波数特性検出部213は、R成分とG成分とB成分に関する水平方向の高周波成分を加算して水平方向の加算高周波成分を算出し、同様に、R成分とG成分とB成分に関する垂直方向の高周波成分を加算して垂直方向の加算高周波成分を算出する。周波数特性検出部213は、水平方向の加算高周波成分と垂直方向の加算高周波成分とを比較して、空間周波数特性の判定処理を行う。なお、色成分ごとに高周波成分を算出する代わりに、RGBの3つの色成分を混合して高周波成分を算出するようにしてもよい。
 なお、周波数特性検出部213は、行方向及び列方向に配置された隣接画素の画素信号の差分をそれぞれ算出して、それらの差分を積算して水平方向及び垂直方向の空間周波数の高周波成分をそれぞれ算出する場合にも、色成分毎の高周波成分を算出してもよい。この場合にも、G成分の高周波成分を算出する際に、隣り合うG画素の間のR画素又はB画素の位置に対応するG成分の画素信号を、上述のように補間により算出する。
 フィルタ制御部214は、被写体像の空間周波数特性に基づき、第1、第2、及び第3のフィルタ制御モードのいずれかを選択し、画素の色配列をベイヤー配列、水平重視配列、および垂直重視配列のいずれかに切り替える。
 このように、本実施の形態では、カメラ1は、撮像素子4の波長可変フィルタ72を制御することによって、R画素、G画素、及びB画素の位置を制御し、水平及び垂直方向の解像度を変更することができる。即ち、カメラ1は、例えば、図4に示した水平方向および垂直方向にバランスのよい解像度と、図5に示した水平方向に高い解像度と、図6に示した垂直方向に高い解像度とを切り替えることができる。
 図7は、第1の実施の形態に係るカメラ1の動作の一例を示したフローチャートである。この図7のフローチャートを参照して、カメラ1の動作例について説明する。図7に示す処理は、例えばユーザによりレリーズボタンが半押しされて、撮影モード設定部211によって第1撮影モードに設定された場合に開始される。
 ステップS100において、フィルタ制御部214は、第1のフィルタ制御モードを実行し、撮像素子4の制御部47を介して各画素10の波長可変フィルタ72を制御して、図4(a)に示すように、R画素10と、G画素10と、B画素10とをベイヤー配列に従って配置させる。
 ステップS110において、ボディ制御部21は、撮像素子4に撮像を行わせる。撮像素子4は、被写体からの光を光電変換し、各画素10の画素信号をボディ制御部21に出力する。第1の画像データ生成部215は、撮像素子4から出力される画素信号に対して画像処理を行って、表示用の画像データを生成する。表示部24は、表示用の画像データに基づいて、スルー画像を表示する。
 ステップS120において、焦点検出部212は、撮像素子4からの画素信号に基づき、被写体像のコントラスト評価値を順次算出する。焦点検出部212は、コントラスト評価値が最大値となるときの焦点調節レンズの位置に関する信号を生成して、レンズ制御部32に出力する。レンズ制御部32は、焦点調節レンズを合焦位置に移動して焦点調節を行う。
 焦点調節レンズが合焦位置に移動した後に、ステップS130において、周波数特性検出部213は、撮像素子4から出力される各画素信号に基づき、水平方向における被写体像の高周波成分と垂直方向における被写体像の高周波成分とをそれぞれ算出する。なお、ステップS130の高周波成分の算出は、必ずしもステップS120のAF動作の後に行う必要はなく、AF動作の前、又はAF動作と同時に行ってもよいが、合焦状態の被写体像の高周波成分を算出するためにはAF動作の後に行うのが望ましい。
 ステップS140において、撮影モード設定部211は、ユーザによるレリーズボタンの全押し操作を検知すると、第2撮影モードに設定する。
 ステップS150において、周波数特性検出部213は、水平方向における被写体像の空間周波数の高周波成分が垂直方向における被写体像の空間周波数の高周波成分よりも所定量T1以上多いか否かを判定する。水平方向の高周波成分が垂直方向の高周波成分よりも所定量T1以上多い場合は、周波数特性検出部213は被写体像の空間周波数特性が第1の空間周波数特性であると判定して、ステップS160へ進み、ステップS150で否定判定されると、ステップS170へ進む。ステップS160において、フィルタ制御部214は、周波数特性検出部213による第1の空間周波数特性の検出に基づき、第2のフィルタ制御モードを実行する。この第2のフィルタ制御モードによって、R画素10、G画素10、およびB画素10は、図5(a)に示すように配置されて、水平方向に高い解像度となる画素の色配列(水平重視配列)へ切り替えられる。
 ステップS170において、周波数特性検出部213は、垂直方向における被写体像の空間周波数の高周波成分が水平方向における被写体像の空間周波数の高周波成分よりも所定量T1以上多いか否かを判定する。垂直方向の高周波成分が水平方向の高周波成分よりも所定量T1以上多い場合は、周波数特性検出部213は被写体像の空間周波数特性が第2の空間周波数特性であると判定してステップS180へ進む。ステップS180において、フィルタ制御部214は、周波数特性検出部213による第2の空間周波数特性の検出に基づき、第3のフィルタ制御モードを実行する。この第3のフィルタ制御モードによって、R画素10、G画素10、およびB画素10は、図6(a)に示すように配置されて、垂直方向に高い解像度となる画素の色配列(垂直重視配列)へ切り替えられる。
 ステップS170で否定判定されると、周波数特性検出部213は被写体像の空間周波数特性が第3の空間周波数特性であると判定し、即ち、水平方向における高周波成分と垂直方向における高周波成分とがほぼ等しいと判定し、ステップS190へ進む。ステップS190においては、フィルタ制御部214は、周波数特性検出部213による第3の空間周波数特性の検出に基づき、第1のフィルタ制御モードを実行する。この第1のフィルタ制御モードによって、R画素10、G画素10、およびB画素10は、図4(a)に示すようにベイヤー配列に従って配置される。
 ステップS200において、ボディ制御部21は、撮像素子4に本撮像を行わせる。撮像素子4は、生成した各画素10の画素信号を、ボディ制御部21に出力する。第2の画像データ生成部216は、撮像素子4から出力される画素信号に対して画像処理を行って、記録用の画像データを生成する。メモリ23は、記録用の画像データを記録する。このように、ステップS200の本撮像は、周波数特性検出部213が検出した被写体像の空間周波数特性に基づく図5(a)、図6(a)、又は図4(a)の画素の色配列で、行われる。
 上述した実施の形態によれば、次の作用効果が得られる。
(1)本実施の形態による撮像装置1では、フィルタ制御部214は、解析部22での被写体像の解析結果に基づいて、撮像部4(撮像素子4)の複数の画素10の波長可変フィルタ72の透過波長を制御し、画素の位置を制御する。このため、被写体に応じて撮像素子4の解像度を変更することができる。
(2)本実施の形態による撮像装置1では、制御部21は、受光部75(光電変換部75)により生成された電荷による画素信号に基づいて、波長可変フィルタ72の透過波長を制御し、画素の色配列を切り替える。このため、被写体に応じて撮像素子4の解像度を変更することができる。
(3)本実施の形態による撮像装置1では、周波数特性検出部213は、被写体像の第1の空間周波数成分及び第2の空間周波数成分を検出し、フィルタ制御部214は、第1及び第2の空間周波数成分に基づき、波長可変フィルタ72を制御する。このようにしたので、被写体像の空間周波数成分に基づいて、画素の色配列を切り替えることができる。この結果、被写体に応じて解像度を変更することができる。
(第2の実施の形態)
 図面を参照して、第2の実施の形態に係る撮像装置を説明する。第2の実施の形態の撮像装置は、同色の画素から構成される画素ブロックの大きさを変更すると共に、被写体像の空間周波数特性に基づき画素の色配列を変更する処理を行う。図8は、第2の実施の形態に係る撮像装置の一例であるカメラ1の構成例を示す図である。なお、図中、第1の実施の形態と同一もしくは相当部分には、同一の参照番号を付し、相違点を主に説明する。
 カメラ1のボディ制御部21は、領域変更部217と、加算制御部218とを有する。 領域変更部217は、互いに隣り合う複数の画素10の波長可変フィルタ72の透過波長域が同一になるように撮像素子4を制御することによって、画素ブロックの大きさを変更することができる。即ち、領域変更部217は、画素ブロックの大きさを、2画素×2画素のG画素ブロック、4画素×4画素のG画素ブロック、又は6画素×6画素のG画素ブロック等のように変更することができる。同様に、領域変更部217は、画素ブロックの大きさを、2画素×2画素のR画素ブロック(B画素ブロック)、4画素×4画素のR画素ブロック(B画素ブロック)、又は6画素×6画素のR画素ブロック(B画素ブロック)等のように変更することができる。
 一般に、カメラ1で撮影されメモリ23に記録された画像データを用いて外部の表示装置で再生表示する際に、外部の表示装置の表示画素の数と撮像素子4の画素数とがほぼ同等である場合と、外部の表示装置の表示画素の数が撮像素子4の画素数よりも少ない場合とが存在する。
 領域変更部217は、例えば、画像を表示する外部の表示装置の表示画素数が撮像素子4の画素数とほぼ同等である場合は、画素ブロックが1つの画素10によって構成されるように画素ブロックの大きさを決定する。即ち、上述の第1の実施の形態は、画素ブロックが1画素によって構成される例である。
 また、領域変更部217は、外部の表示装置の画素数が撮像素子4の画素数に比べて少ない場合は、画素ブロックが複数の画素(2画素×2画素など)によって構成されるように画素ブロックの大きさを決定する。
 加算制御部218は、領域変更部217により決定された画素ブロックに基づき、撮像素子4の動作を制御する。加算制御部218は、画素ブロックが複数の画素から構成された場合に、画素ブロックを構成する複数の画素の信号を加算する加算処理を、撮像素子4に行わせる。具体的には、例えば、撮像素子4は、加算処理として、画素ブロック内の複数の画素10の各々のフローティングディフュージョンを接続するスイッチをオンオフ制御し、複数の画素10の信号を平均化する処理を行う。撮像素子4は、複数の画素10の信号を加算した画素信号を生成して、ボディ制御部21に出力する。なお、撮像素子4内において加算処理を行う代わりに、撮像素子4から出力された画素信号を撮像素子4の外部で加算処理するようにしてもよい。
 第1の画像データ生成部215は、第1撮影モードの場合に、画素ブロック内の複数の画素の信号を加算した加算画素信号に対して各種の画像処理を行って、表示用の画像データを生成する。表示部24は、第1の画像データ生成部215により生成された表示用の画像データに基づいて画像を表示する。
 第2の画像データ生成部216は、第2撮影モードの場合に、画素ブロック内の複数の画素の信号を加算した加算画素信号に対して各種の画像処理を行って、記録用の画像データを生成する。第2の画像データ生成部216は、生成した記録用の画像データをメモリ23に記録させる。
 本実施の形態では、フィルタ制御部214は、領域変更部217によって決定されたR画素ブロック、G画素ブロック、B画素ブロックの色配列を、フィルタ制御モードに基づき、切り替える。即ち、フィルタ制御部214は、以下に詳述するようにR画素ブロック、G画素ブロック、及びB画素ブロックを、第1のフィルタ制御モードでは図9(a)のベイヤー配列に配置する。同様に、フィルタ制御部214は、R画素ブロック、G画素ブロック、及びB画素ブロックを、第2のフィルタ制御モードでは図10(a)の水平重視配列に配置し、第3のフィルタ制御モードでは図11(a)の垂直重視配列に配置する。フィルタ制御部214は、第1、第2、及び第3のフィルタ制御モードのいずれかを選択して、撮影対象となる被写体に適した解像度が得られる画素の色配列に切り替える。以下では、フィルタ制御部214の各制御モードにおける画素の色配列について詳細に説明する。
 図9(a)は、フィルタ制御部214の第1のフィルタ制御モードにおける画素の色配列を示し、図9(b)は、図9(a)の色配列の場合に解像可能な空間周波数範囲を示す図である。図9(a)では、撮像素子4の制御部47は、2×2の4つのR画素10を有するR画素ブロック20と、2×2の4つのG画素10を有するG画素ブロック20と、2×2の4つのB画素10を有するB画素ブロック20とをベイヤー配列に従って配置させている。
 R画素ブロック20とG画素ブロック20とが行方向に交互に間隔2dで配置された画素列と、G画素ブロック20とB画素ブロック20とが行方向に交互に間隔2dで配置された画素列とが列方向に交互に並べられている。ベイヤー配列では、水平方向(行方向)のR画素ブロック20同士の間隔(4d)は、垂直方向(列方向)のR画素ブロック20同士の間隔(4d)と同一である。同様に、水平方向(行方向)のG画素ブロック20同士の間隔(4d)は、垂直方向(列方向)のG画素ブロック20同士の間隔(4d)と同一であり、水平方向(行方向)のB画素ブロック20同士の間隔(4d)は、垂直方向(列方向)のB画素ブロック20同士の間隔(4d)と同一である。
 図9(b)は、図9(a)のベイヤー配列のR画素ブロック20、G画素ブロック20、B画素ブロック20の解像可能な空間周波数範囲を示している。図9(b)では、G画素ブロック20の解像可能な空間周波数範囲が実線で示され、R画素ブロック20、B画素ブロック20の解像可能な空間周波数範囲が点線で示されている。このように、ベイヤー配列では、G画素ブロック20の解像可能な空間周波数範囲は、水平方向と垂直方向とで同一になり、R画素ブロック20、B画素ブロック20の解像可能な空間周波数範囲は、水平方向と垂直方向とで同一になる。
 このようなベイヤー配列は、第1の実施の形態と同様に、第1撮影モード時に、被写体像の空間周波数特性に関係なく使用され、第2撮影モード時には、周波数特性検出部213によって第3の空間周波数特性が検出された場合に使用される。
 図10(a)は、フィルタ制御部214の第2のフィルタ制御モードにおける画素の色配列を示す図である。図10(b)は、図10(a)の色配列の場合に解像可能な空間周波数範囲を示している。
 図10(a)では、R画素ブロック20が行方向に連続して間隔2dで配置された画素列と、G画素ブロック20が行方向に連続して間隔2dで配置された画素列と、B画素ブロック20が行方向に連続して間隔2dで配置された画素列とが列方向に繰り返し並べられている。従って、R画素ブロック20、G画素ブロック20、およびB画素ブロック20の各々は、列方向において間隔6dで配置されている。
 以上のように、R画素ブロック20、G画素ブロック20、及びB画素ブロック20の各々は、行方向に間隔2dで配置され、列方向に間隔6dで配置されるので、このような画素の色配列の場合の解像可能な空間周波数範囲は、図10(b)に示したように、水平方向(行方向)の解像度が垂直方向(列方向)の解像度よりも高くなる。
 このような図10(a)のR画素ブロック、G画素ブロック、及びB画素ブロックの水平重視配列は、第2撮影モード時に、周波数特性検出部213によって第1の空間周波数特性が検出された場合に使用される。
 図11(a)は、フィルタ制御部214の第3のフィルタ制御モードにおける画素の色配列を示す図である。図11(b)は、図11(a)の色配列の場合に解像可能な空間周波数範囲を示している。
 図11(a)では、R画素ブロック20が列方向に連続して間隔2dで配置された画素列と、G画素ブロック20が列方向に連続して間隔2dで配置された画素列と、B画素ブロック20が列方向に連続して間隔2dで配置された画素列とが行方向に繰り返し並べられている。従って、R画素ブロック20、G画素ブロック20、およびB画素ブロック20の各々は、行方向において間隔6dで配置されている。
 以上のように、R画素ブロック20、G画素ブロック20、及びB画素ブロック20の各々は、列方向に間隔2dで配置され、行方向に間隔6dで配置されるので、このような画素の色配列の場合の解像可能な空間周波数範囲は、図11(b)に示したように、垂直方向(列方向)の解像度が水平方向(行方向)の解像度よりも高くなる。
 このような図11(a)のR画素ブロック、G画素ブロック、及びB画素ブロックの垂直重視配列は、第2撮影モード時に周波数特性検出部213によって第2の空間周波数特性が検出された場合に使用される。
 次に、本実施の形態のカメラ1の動作を説明する。本実施の形態のカメラ1は、図7のフローチャートと同様の処理を行う。ステップS100においては、カメラ1は、第1のフィルタ制御モードを実行し、図9(a)に示すように、画素の色配列をベイヤー配列とする。ステップS150からステップS190においては、カメラ1は、被写体像の空間周波数特性に基づき画素の色配列を変更する処理を行う。カメラ1は、第1の空間周波数特性を検出した場合は、第2のフィルタ制御モードを実行して画素の色配列を図10(a)に示す水平重視配列とし、第2の空間周波数特性を検出した場合は、第3のフィルタ制御モードを実行して画素の色配列を図11(a)に示す垂直重視配列とする。カメラ1は、第1及び第2の空間周波数特性を検出しない場合は、画素の色配列をベイヤー配列とする。
 このように、本実施の形態では、カメラ1は、画素ブロックの大きさを決定すると共に、撮像素子4の波長可変フィルタ72を制御することによって、水平方向及び垂直方向の解像度を変更することができる。即ち、カメラ1は、例えば、図9に示した水平方向および垂直方向にバランスのよい解像度と、図10に示した水平方向に高い解像度と、図11に示した垂直方向に高い解像度とを切り替えることができる。
(第3の実施の形態)
 図面を参照して、第3の実施の形態に係る撮像装置を説明する。第3の実施の形態と第2の実施の形態との主な相違は、以下の通りである。第2の実施の形態の場合の水平重視配列では、図10(a)に示したように、行方向におけるR画素ブロックの間隔2d、G画素ブロックの間隔2d、およびB画素ブロックの間隔2dは互いに同一である。同様に、列方向におけるR画素ブロックの間隔6d、G画素ブロックの間隔6d、およびB画素ブロックの間隔6dも、互いに同一である。また、第2の実施の形態の場合の垂直重視配列でも、図11(a)に示したように、列方向におけるR画素ブロックの間隔2d、G画素ブロックの間隔2d、およびB画素ブロックの間隔2dも互いに同一である。同様に、行方向におけるR画素ブロックの間隔6d、G画素ブロックの間隔6d、およびB画素ブロックの間隔6dも、互いに同一である。
 第3の実施の形態の場合の水平重視配列および垂直重視配列では、G画素ブロック同士の間隔と、R画素ブロック同士の間隔およびB画素ブロック同士の間隔とが異なっている。その他の構成は、第2の実施の形態と同一である。
 本実施の形態では、フィルタ制御部214は、R画素ブロック20、G画素ブロック20、及びB画素ブロック20を、第1のフィルタ制御モードでは第2の実施の形態の場合と同様に、図9(a)のベイヤー配列に配置する。同様に、フィルタ制御部214は、R画素ブロック20、G画素ブロック20、及びB画素ブロック20を、第2のフィルタ制御モードでは図12(a)の水平重視配列に配置し、第3のフィルタ制御モードでは図13(a)の垂直重視配列に配置する。
 図12(a)は、フィルタ制御部214の第2のフィルタ制御モードにおける水平重視の画素の色配列を示す図である。図12(b)は、図12(a)の色配列の場合に解像可能な空間周波数範囲を示している。
 図12(a)では、R画素ブロック20とB画素ブロック20とが行方向に交互に間隔2dで配置された画素列と、G画素ブロック20が行方向に連続して間隔2dで配置された画素列とが列方向に繰り返し並べられている。従って、行方向には、G画素ブロック20同士は、間隔2dで配置され、R画素ブロック20同士及びB画素ブロック20同士は、それぞれ間隔4dで配置されている。また、列方向には、G画素ブロック20同士は、間隔4dで配置され、R画素ブロック20同士及びB画素ブロック20同士は、それぞれ間隔8dで配置されている。
 こうして、図12(a)に示す水平重視の画素の色配列では、行方向のR画素ブロック20同士の間隔4dは、列方向のR画素ブロック20同士の間隔8dよりも小さくなる。同様に、行方向のG画素ブロック20同士の間隔2dは、列方向のG画素ブロック20同士の間隔4dよりも小さくなり、行方向のB画素ブロック20同士の間隔4dは、列方向のB画素ブロック20同士の間隔8dよりも小さくなる。また、行方向のG画素ブロック20同士の間隔2dは、行方向のR画素ブロック20同士の間隔4dおよびB画素ブロック20同士の間隔4dの各々よりも小さくなる。更に、列方向のG画素ブロック20同士の間隔4dは、列方向のR画素ブロック20同士の間隔8dおよびB画素ブロック20同士の間隔8dの各々よりも小さくなる。
 以上のような水平重視配列の場合の解像可能な空間周波数範囲は、図12(b)に示したように、水平方向(行方向)の解像度が垂直方向(列方向)の解像度よりも高くなる。
 このような図12(a)のR画素ブロック、G画素ブロック、及びB画素ブロックの水平重視配列は、第2撮影モード時に、周波数特性検出部213によって第1の空間周波数特性が検出された場合に使用される。
 図13(a)は、フィルタ制御部214の第3のフィルタ制御モードにおける垂直重視の画素の色配列を示す図である。図13(b)は、図13(a)の色配列の場合に解像可能な空間周波数範囲を示している。
 図13(a)では、G画素ブロック20が列方向に連続して間隔2dで配置された画素列と、R画素ブロック20とB画素ブロック20とが列方向に交互に間隔2dで配置された画素列とが行方向に繰り返し並べられている。従って、列方向には、G画素ブロック20同士は、間隔2dで配置され、R画素ブロック20同士及びB画素ブロック20同士は、それぞれ間隔4dで配置されている。また、行方向には、G画素ブロック20同士は、間隔4dで配置され、R画素ブロック20同士及びB画素ブロック20同士は、それぞれ間隔8dで配置されている。
 こうして、図13(a)に示す垂直重視の画素の色配列では、列方向のR画素ブロック20同士の間隔4dは、行方向のR画素ブロック20同士の間隔8dよりも小さくなる。同様に、列方向のG画素ブロック20同士の間隔2dは、行方向のG画素ブロック20同士の間隔4dよりも小さくなり、列方向のB画素ブロック20同士の間隔4dは、行方向のB画素ブロック20同士の間隔8dよりも小さくなる。また、列方向のG画素ブロック20同士の間隔2dは、列方向のR画素ブロック20同士の間隔4dおよびB画素ブロック20同士の間隔4dの各々よりも小さくなる。更に、行方向のG画素ブロック20同士の間隔4dは、行方向のR画素ブロック20同士の間隔8dおよびB画素ブロック20同士の間隔8dの各々よりも小さくなる。
 以上のような垂直重視配列の場合の解像可能な空間周波数範囲は、図13(b)に示したように、垂直方向(列方向)の解像度が水平方向(行方向)の解像度よりも高くなる。
 このような図13(a)のR画素ブロック、G画素ブロック、及びB画素ブロックの垂直重視配列は、第2撮影モード時に周波数特性検出部213によって第2の空間周波数特性が検出された場合に使用される。
 次に、本実施の形態の動作を説明する。本実施の形態のカメラ1は、図7のフローチャートと同様の処理を行う。ステップS100においては、カメラ1は、第1のフィルタ制御モードを実行し、図9(a)に示すように、画素の色配列をベイヤー配列とする。ステップS150からステップS190においては、カメラ1は、被写体像の空間周波数特性に基づき画素の色配列を変更する処理を行う。カメラ1は、第1の空間周波数特性を検出した場合は、第2のフィルタ制御モードを実行して画素の色配列を図12(a)に示す水平重視配列とし、第2の空間周波数特性を検出した場合は、第3のフィルタ制御モードを実行して画素の色配列を図13(a)に示す垂直重視配列とする。カメラ1は、第1及び第2の空間周波数特性を検出しない場合は、画素の色配列をベイヤー配列とする。
 このように、本実施の形態では、カメラ1は、例えば、図9に示した水平方向および垂直方向にバランスのよい解像度と、図12に示した水平方向に高い解像度と、図13に示した垂直方向に高い解像度とを切り替えることができる。
 なお、水平重視配列に切り替える場合に、図12(a)の画素の色配列に代えて、図14(a)の画素の色配列に切り替えるようにしてもよい。図14(a)に示す画素の色配列では、R画素ブロック20とB画素ブロック20とが行方向に交互に間隔2dで配置された画素列と、G画素ブロック20が行方向に連続して間隔2dで配置された画素列とが列方向に半ブロックずれて、即ち間隔dだけシフトして、繰り返し並べられている。図14(a)の色配列の場合における解像可能な空間周波数範囲は、図12(b)に示す空間周波数範囲と同様となる。
 また、垂直重視配列に切り替える場合に、図13(a)の画素の色配列に代えて、図14(b)の画素の色配列に切り替えるようにしてもよい。図14(b)に示す画素の色配列では、G画素ブロック20が列方向に連続して間隔2dで配置された画素列と、R画素ブロック20とB画素ブロック20とが列方向に交互に間隔2dで配置された画素列とが列方向に半ブロックずれて、即ち間隔dだけシフトして、繰り返し並べられている。図14(b)の色配列の場合における解像可能な空間周波数範囲は、図13(b)に示す空間周波数範囲と同様となる。
 このように、図14(a)に示した水平重視の画素の色配列及び図14(b)に示した垂直重視の画素の色配列を使用する場合には、図9に示したベイヤー配列も、例えば奇数行の画素の色配列と偶数行の画素の色配列とを列方向に相対的に半ブロックずらして、即ち間隔(ピッチ)dだけシフトして配置してもよい。
 また、上述した水平重視配列における奇数行の画素の色配列と偶数行の画素の色配列との相対的なずらし、垂直重視配列における奇数列の画素の色配列と偶数列の画素の色配列との相対的なずらし、及びベイヤー配列における同様の相対的なずらしは、図5(a)の水平重視配列、図6(a)の垂直重視配列、及び図4(a)のベイヤー配列にも、それぞれ適用することができる。
 次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
 上述した第1の実施の形態では、ベイヤー配列から水平重視配列または垂直重視配列に切り替える場合に、R画素10、G画素10、およびB画素10の各々について、水平方向と垂直方向との間隔を変更する例について説明した。しかし、RGB画素のうちの一種の画素(例えばG画素)については、上述のように水平方向と垂直方向との間隔を変更するが、他の画素(R画素、B画素)については、間隔を変更せずに水平方向および垂直方向で同一間隔にしてもよい。例えばG画素のみの間隔変更は、周波数特性検出部213が、G成分(G色)に関する空間周波数の高周波成分が水平方向と垂直方向とで大きく相違しているが、R成分(R色)及びB成分(B色)に関する空間周波数の高周波成分が水平方向と垂直方向とでほぼ同等であると判定した場合などに、有効である。
 また、RGB画素のうちの二種の画素(例えば、G画素とB画素)については、上述のように水平方向と垂直方向との間隔を変更するが、残りの画素(例えば、R画素)については、間隔を変更せずに水平方向および垂直方向で同一間隔にしてもよい。例えばG画素とB画素のみの間隔変更は、周波数特性検出部213が、G成分及びB成分の各々に関する空間周波数の高周波成分が水平方向と垂直方向とで大きく相違しているが、R成分に関する空間周波数の高周波成分が水平方向と垂直方向とでほぼ同等であると判定した場合などに、有効である。
 上述のRGB画素のうちの一種の画素のみの間隔変更、又は、RGB画素のうちの二種の画素のみの間隔変更は、第2及び第3の実施の形態にも適用することができる。即ち、R画素ブロック、G画素ブロック、及びB画素ブロックのうちの一種の画素ブロックのみを水平方向及び垂直方向で間隔を変更してもよいし、二種の画素ブロックのみを水平方向及び垂直方向で間隔を変更してもよい。
(変形例2)
 撮像素子4全体の波長可変フィルタ72を同一に制御するのではなく、被写体の部分だけを適宜解像度(分解能)が良好になるように制御してもよい。例えば、公知の被写体認識技術等を用いて特定の被写体を検出した場合に、特定の被写体の部分に対応する波長可変フィルタ72のみ制御してもよい。
(変形例3)
 水平重視配列の場合の画素間または画素ブロック間の間隔は、上述した間隔に限らず、(水平方向の間隔)<(垂直方向の間隔)の条件下で、水平方向間隔と垂直方向間隔とを変更してもよい。同様に、垂直重視配列の場合の画素間または画素ブロック間の間隔は、上述した間隔に限らず、(水平方向の間隔)>(垂直方向の間隔)の条件下で、水平方向間隔と垂直方向間隔とを変更してもよい。
(変形例4)
 撮像素子4とは別のセンサ(例えば、AFのために必要な処理を行うセンサ、露光量決定用のセンサ等)からの信号を用いて、被写体像の解析(例えば空間周波数成分の検出)を行うようにしてもよい。この場合には、図1の撮像光学系(結像光学系)31が撮像素子4の撮像面に結像する被写体像と同等の被写体像を上記の別のセンサによって撮像し、この別のセンサの画素信号に基づき、解析部22によって被写体像を解析する。例えば、解析部22の周波数特性検出部213が、この別のセンサの画素信号に基づき、被写体像の空間周波数特性を検出する。なお、別のセンサに配置される画素は、上述した実施の形態と同様の高周波成分を検出するために、撮像素子4の画素と同等の間隔で配置されることが望ましい。
(変形例5)
 上述した実施の形態では、周波数特性検出部213の検出結果に基づき、画素の色配列を、ベイヤー配列から水平重視配列又は垂直重視配列に切り替える例について説明した。その代わりに、周波数特性検出部213の検出結果に基づき、画素の色配列を、ベイヤー配列から水平重視配列と垂直重視配列との一方に切り替えるようにしてもよい。例えば、ベイヤー配列から水平重視配列のみに切り替える場合には、周波数特性検出部213が被写体像の水平方向の空間周波数の高周波成分を算出して、その高周波成分が所定の値以上になったら、水平重視配列に切り替える。ベイヤー配列から水平重視配列のみに切り替える場合には、水平方向の高周波成分が垂直方向の高周波成分よりも多い(大きい)場合に、水平重視配列に切り替えるようにしてもよい。
 他方、ベイヤー配列から垂直重視配列のみに切り替える場合には、周波数特性検出部213が被写体像の垂直方向の空間周波数の高周波成分を算出して、その高周波成分が所定の値以上になったら、垂直重視配列に切り替える。ベイヤー配列から垂直重視配列のみに切り替える場合には、垂直方向の高周波成分が水平方向の高周波成分よりも多い場合に、垂直重視配列に切り替えるようにしてもよい。
 画素の色配列を、水平重視配列から垂直重視配列に切り替えるようにしてもよい。この場合には、例えば、垂直方向の高周波成分が水平方向の高周波成分よりも所定量以上多い場合に、水平重視配列から垂直重視配列に切り替える。なお、垂直方向の高周波成分が水平方向の高周波成分よりも多い場合に垂直重視配列に切り替えるようにしてもよい。
 画素の色配列を、垂直重視配列から水平重視配列に切り替えるようにしてもよい。この場合には、例えば、水平方向の高周波成分が垂直方向の高周波成分よりも所定量以上多い場合に、垂直重視配列から水平重視配列に切り替える。なお、水平方向の高周波成分が垂直方向の高周波成分よりも多い場合に水平重視配列に切り替えるようにしてもよい。
(変形例6)
 上述した実施の形態では、周波数特性検出部213は、レリーズボタンの半押し操作に応じて空間周波数特性を検出する例について説明した。しかし、周波数特性検出部213は、レリーズボタンの全押し操作に応じて、空間周波数特性を検出するようにしても良い。
(変形例7)
 上述した実施の形態では、周波数特性検出部213は、垂直方向の空間周波数の高周波成分が、水平方向の空間周波数の高周波成分よりも、所定量T1以上多い場合に、被写体像の空間周波数特性を第2の空間周波数特性として検出する例について説明した。しかし、周波数特性検出部213は、垂直方向の空間周波数の高周波成分が、水平方向の空間周波数の高周波成分よりも、所定値T1とは異なる所定量T2以上多い場合に、被写体像の空間周波数特性を第2の空間周波数特性として検出するようにしてもよい。
(変形例8)
 上述した実施の形態では、図7のフローチャートを用いて静止画撮影を行う場合の例について説明した。しかし、動画撮影を行う場合についても、この撮像装置を適用することができる。この場合には、動画撮影中の水平重視配列又は垂直重視配列の撮像素子では、水平方向及び垂直方向の空間周波数の高周波成分を検出することは難しいので、上述の変形例3に説明した、撮像素子4とは別のセンサによって、空間周波数成分の検出を行うようにすることが望ましい。
(変形例9)
 上述した実施の形態では、焦点検出部212は、撮像素子4からの信号に基づいてコントラストAFに必要な処理を行う例について説明した。しかし、焦点検出部212は、撮像素子4に設けた焦点検出用画素の画素信号に基づいて、位相差AFに必要な処理を行う焦点検出部であってもよい。この場合には、上述のステップS120において、焦点検出部212は、フィルタ制御部214が画素の色配列をベイヤー配列に制御している状態における焦点検出用画素からの画素信号に基づいて、位相差AFに必要な処理を行う。更には、撮像光学系31の光路から分岐された光路に撮像素子4とは別の焦点検出用センサを設けて、この焦点検出用センサにおいて位相差AFに必要な処理を行うようにしてもよい。
(変形例10)
 上述した実施の形態では、波長可変フィルタ72は、R(赤)を発色するEC層、G(緑)を発色するEC層、およびB(青)を発色するEC層の3つのフィルタにより構成される例について説明した。しかし、波長可変フィルタ72は、Mg(マゼンタ)を発色するEC層、Ye(イエロー)を発色するEC層、およびCy(シアン)を発色するEC層の3つのフィルタにより構成するようにしてもよい。この場合、波長可変フィルタ72は、3つのEC層の透過波長の組み合わせにより、Mg、Ye、Cy、W、BK、R、G、Bのいずれかの波長域の光を主に透過させることが可能となる。また、波長可変フィルタ72には液晶を用いた波長可変フィルタを用いるようにしてもよい。
(変形例11)
 上述した実施の形態では、光電変換部としてフォトダイオードを用いる例について説明した。しかし、光電変換部として光電変換膜を用いるようにしてもよい。
(変形例12)
 上述した実施の形態では、撮像素子4は、裏面照射型の構成とする例について説明した。しかし、撮像素子4を、光が入射する入射面側に配線層110を設ける表面照射型の構成としてもよい。
(変形例13)
 上述の実施の形態および変形例で説明した撮像素子および撮像装置は、カメラ、スマートフォン、タブレット、PCに内蔵のカメラ、車載カメラ、無人航空機(ドローン、ラジコン機等)に搭載されるカメラ等に適用されてもよい。
 上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2017年第60527号(2017年3月27日出願)
1 撮像装置、3 撮像素子、21 ボディ制御部、22 解析部、31 撮像光学系、72 波長可変フィルタ、75 光電変換部、213 周波数特性検出部、214 フィルタ制御部、215 第1の画像データ生成部、216 第2の画像データ生成部

Claims (20)

  1.  透過させる光の波長を第1の波長と第2の波長とで変更可能なフィルタと、前記フィルタを透過した光を受光する受光部とを有する複数の画素が配置され、光学系による像を撮像する撮像部と、
     前記撮像部で撮像された像を解析する解析部と、
     前記解析部での解析結果に基づいて、前記フィルタで透過させる光の波長を制御する制御部と、
    を備える撮像装置。
  2.  請求項1に記載の撮像装置において、
     前記制御部は、前記解析部での解析結果に基づいて、前記第1の波長を受光する画素と前記第2の波長を受光する画素の位置を制御する撮像装置。
  3.  請求項2に記載の撮像装置において、
     前記制御部は、第1の方向と第2の方向とで解像度を変えるように前記位置を制御する撮像装置。
  4.  第1の波長の光を透過させる第1状態と第2の波長の光を透過させる第2状態とを変更可能なフィルタと、
     前記フィルタを透過した光を受光して信号を出力する受光部と、
     前記受光部から出力された前記信号に基づいて、前記フィルタを前記第1状態又は前記第2状態に制御する制御部と、
    を備える撮像装置。
  5.  被写体からの光のうち第1の波長の光を透過させる第1状態と第2の波長の光を透過させる第2状態とを変更可能なフィルタと、
     前記フィルタを透過した光を受光して信号を出力する受光部と、
     前記被写体からの光を検出し、前記フィルタを前記第1状態又は前記第2状態に制御する制御部と、
    を備える撮像装置。
  6.  請求項4または請求項5に記載の撮像装置において、
     前記制御部は、前記信号から生成される画像に基づいて、前記フィルタを前記第1状態又は前記第2状態に制御する撮像装置。
  7.  請求項4から請求項6までのいずれか一項に記載の撮像装置において、
     前記信号から生成される像の第1の方向における第1の空間周波数成分、及び前記第1の方向と異なる第2の方向における第2の空間周波数成分を検出する検出部を有し、
     前記制御部は、検出した前記第1及び第2の空間周波数成分に基づいて、前記フィルタを前記第1状態又は前記第2状態に制御する撮像装置。
  8.  請求項7に記載の撮像装置において、
     前記第1及び第2の空間周波数成分は、前記像の空間周波数成分のうちの高周波成分である撮像装置。
  9.  請求項7または請求項8に記載の撮像装置において、
     前記制御部は、前記第1の空間周波数成分が前記第2の空間周波数成分よりも多い場合は、前記第1の方向における前記第1状態のフィルタの間隔を、前記第2の方向における前記第1状態のフィルタの間隔よりも小さくする撮像装置。
  10.  請求項7から請求項9までのいずれか一項に記載の撮像装置において、
     前記制御部は、前記第2の空間周波数成分が前記第1の空間周波数成分よりも多い場合には、前記第2の方向における前記第1状態のフィルタの間隔を、前記第1の方向における前記第1状態のフィルタの間隔よりも小さくする撮像装置。
  11.  請求項7から請求項10までのいずれか一項に記載の撮像装置において、
     前記制御部は、前記第1の空間周波数成分が前記第2の空間周波数成分よりも多い場合は、前記第1の方向における前記第2状態のフィルタの間隔を、前記第2の方向における前記第2状態のフィルタの間隔よりも小さくし、前記第2の空間周波数成分が前記第1の空間周波数成分よりも多い場合には、前記第2の方向における前記第2状態のフィルタの間隔を、前記第1の方向における前記第2状態のフィルタの間隔よりも小さくする撮像装置。
  12.  請求項7から請求項11までのいずれか一項に記載の撮像装置において、
     前記フィルタは、第3の波長の光を透過させる第3状態を有し、
     前記制御部は、前記フィルタを前記第1状態と前記第2状態と前記第3状態とのいずれかに制御し、
     前記制御部は、前記第1の空間周波数成分が前記第2の空間周波数成分よりも多い場合は、前記第1の方向における前記第3状態のフィルタの間隔を、前記第2の方向における前記第3状態のフィルタの間隔よりも小さくし、前記第2の空間周波数成分が前記第1の空間周波数成分よりも多い場合には、前記第2の方向における前記第3状態のフィルタの間隔を、前記第1の方向における前記第3状態のフィルタの間隔よりも小さくする撮像装置。
  13.  請求項12に記載の撮像装置において、
     前記制御部は、前記第1の方向及び前記第2の方向における、前記第1状態のフィルタの間隔を同一とし、前記第2状態のフィルタの間隔を同一とし、前記第3状態のフィルタの間隔を同一とする第1の制御を有し、
     前記制御部は、前記第1の方向における、前記第1状態のフィルタの間隔、前記第2状態のフィルタの間隔、及び前記第3状態のフィルタの間隔を、前記第2の方向における、前記第1状態のフィルタの間隔、前記第2状態のフィルタの間隔、及び前記第3状態のフィルタの間隔よりもそれぞれ小さくする第2の制御を有し、
     前記制御部は、前記第2の方向における、前記第1状態のフィルタの間隔、前記第2状態のフィルタの間隔、及び前記第3状態のフィルタの間隔を、前記第1の方向における前記第1状態のフィルタの間隔、前記第2状態のフィルタの間隔、及び前記第3状態のフィルタの間隔よりもそれぞれ小さくする第3の制御を有する撮像装置。
  14.  請求項13に記載の撮像装置において、
     前記制御部は、前記第1の空間周波数成分と前記第2の空間周波数成分との差が定められた量よりも小さい場合には、前記第1の制御で前記フィルタを制御し、
     前記制御部は、前記第1の空間周波数成分が前記第2の空間周波数成分よりも、定められた量以上多い場合は、前記第2の制御で前記フィルタを制御し、
     前記制御部は、前記第2の空間周波数成分が前記第1の空間周波数成分よりも、定められた量以上多い場合は、前記第3の制御で前記フィルタを制御する撮像装置。
  15.  請求項7から請求項11までのいずれか一項に記載の撮像装置において、
     前記制御部は、複数の前記第1状態の前記フィルタからなる第1のフィルタ群と、複数の前記第2状態の前記フィルタからなる第2のフィルタ群とを生成し、
     前記制御部は、前記第1の空間周波数成分が前記第2の空間周波数成分よりも多い場合は、第1の方向における前記第1のフィルタ群の間隔を、第2の方向における前記第1のフィルタ群の間隔よりも小さくし、前記第2の空間周波数成分が前記第1の空間周波数成分よりも多い場合は、前記第2の方向における前記第1のフィルタ群の間隔を、前記第1の方向における前記第1のフィルタ群の間隔よりも小さくする撮像装置。
  16.  請求項15に記載の撮像装置において、
     前記フィルタは、第3の波長の光を透過させる第3状態を有し、
     前記制御部は、複数の前記第3状態の前記フィルタからなる第3のフィルタ群を生成し、
     前記制御部は、前記フィルタを前記第1状態と前記第2状態と前記第3状態とのいずれかに制御し、
     前記制御部は、前記第1の空間周波数成分が前記第2の空間周波数成分よりも多い場合は、前記第1の方向における前記第2のフィルタ群の間隔及び前記第3のフィルタ群の間隔を、前記第2の方向における前記第2のフィルタ群の間隔及び前記第3のフィルタ群の間隔よりもそれぞれ小さくし、前記第2の空間周波数成分が前記第1の空間周波数成分よりも多い場合は、前記第2の方向における前記第2のフィルタ群の間隔及び前記第3のフィルタ群の間隔を、前記第1の方向における前記第2のフィルタ群の間隔及び前記第3のフィルタ群の間隔よりもそれぞれ小さくする撮像装置。
  17.  請求項16に記載の撮像装置において、
     前記制御部は、前記第1の方向及び第2の方向における、前記第1のフィルタ群の間隔を同一とし、前記第2のフィルタ群の間隔を同一とし、前記第3のフィルタ群の間隔を同一とする第1の制御を有し、
     前記制御部は、前記第1の方向における、前記第1のフィルタ群の間隔、前記第2のフィルタ群の間隔、及び前記第3のフィルタ群の間隔を、前記第2の方向における、前記第1のフィルタ群の間隔、前記第2のフィルタ群の間隔、及び前記第3のフィルタ群の間隔よりもそれぞれ小さくする第2の制御を有し、
     前記制御部は、前記第2の方向における、前記第1のフィルタ群の間隔、前記第2のフィルタ群の間隔、及び前記第3のフィルタ群の間隔を、前記第1の方向における前記第1のフィルタ群の間隔、前記第2のフィルタ群の間隔、及び前記第3のフィルタ群の間隔よりもそれぞれ小さくする第3の制御を有する撮像装置。
  18.  請求項17に記載の撮像装置において、
     前記制御部は、前記第1の空間周波数成分と前記第2の空間周波数成分との差が定められた量よりも小さい場合には、前記第1の制御で前記フィルタを制御し、
     前記制御部は、前記第1の空間周波数成分が前記第2の空間周波数成分よりも、定められた量以上多い場合は、前記第2の制御で前記フィルタを制御し、
     前記制御部は、前記第2の空間周波数成分が前記第1の空間周波数成分よりも、定められた量以上多い場合は、前記第3の制御で前記フィルタを制御する撮像装置。
  19.  第1の波長の光を透過させる第1状態と第2の波長の光を透過させる第2状態とを変更可能なフィルタと、
     前記フィルタを透過した光を受光して信号を出力する受光部と、
     前記受光部から出力された信号に基づく像の空間周波数成分を検出する検出部と、
     前記検出部により検出された前記空間周波数成分に基づいて、前記フィルタを前記第1状態又は前記第2状態に制御する制御部と、
    を備える撮像装置。
  20.  第1の波長の光を透過させる第1状態と第2の波長の光を透過させる第2状態とを変更可能なフィルタと、
     前記フィルタを透過した光を受光して信号を出力する受光部と、
     前記受光部から出力された前記信号に基づいて、前記フィルタを前記第1状態又は前記第2状態に制御する制御部と、
    を備える撮像素子。
PCT/JP2018/012506 2017-03-27 2018-03-27 撮像装置および撮像素子 WO2018181358A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019509911A JP6760486B2 (ja) 2017-03-27 2018-03-27 撮像装置
US16/476,437 US11056521B2 (en) 2017-03-27 2018-03-27 Imaging device and image sensor
CN201880013721.2A CN110326284B (zh) 2017-03-27 2018-03-27 摄像装置及摄像元件
US17/338,072 US11626436B2 (en) 2017-03-27 2021-06-03 Imaging device and image sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017060527 2017-03-27
JP2017-060527 2017-03-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/476,437 A-371-Of-International US11056521B2 (en) 2017-03-27 2018-03-27 Imaging device and image sensor
US17/338,072 Continuation US11626436B2 (en) 2017-03-27 2021-06-03 Imaging device and image sensor

Publications (1)

Publication Number Publication Date
WO2018181358A1 true WO2018181358A1 (ja) 2018-10-04

Family

ID=63675864

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/012506 WO2018181358A1 (ja) 2017-03-27 2018-03-27 撮像装置および撮像素子

Country Status (4)

Country Link
US (2) US11056521B2 (ja)
JP (1) JP6760486B2 (ja)
CN (1) CN110326284B (ja)
WO (1) WO2018181358A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018222332A1 (de) * 2018-12-19 2020-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verpackung mit Transponder und Kryptomodul

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7010235B2 (ja) * 2016-11-17 2022-02-10 凸版印刷株式会社 反射型表示装置
US11056521B2 (en) * 2017-03-27 2021-07-06 Nikon Corporation Imaging device and image sensor
JP6946058B2 (ja) * 2017-05-31 2021-10-06 キヤノン株式会社 撮像素子及び撮像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0470720A (ja) * 1990-07-11 1992-03-05 Minolta Camera Co Ltd 撮影装置
JP2002320236A (ja) * 2001-04-23 2002-10-31 Canon Inc 撮像装置
JP2006178320A (ja) * 2004-12-24 2006-07-06 Olympus Corp 分光透過率可変素子、及び分光透過率可変素子を備えた内視鏡装置
JP2009118359A (ja) * 2007-11-09 2009-05-28 Casio Comput Co Ltd 撮像装置、撮像装置制御プログラム及び撮像装置制御方法
JP2013157671A (ja) * 2012-01-26 2013-08-15 Sony Corp 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003007995A (ja) 2001-06-20 2003-01-10 Iwate Toshiba Electronics Co Ltd Cmosイメージセンサ
KR100976284B1 (ko) * 2007-06-07 2010-08-16 가부시끼가이샤 도시바 촬상 장치
US8063976B2 (en) 2007-07-24 2011-11-22 Casio Computer Co., Ltd. Image pick-up apparatus and method of controlling the image pick-up apparatus
US8068153B2 (en) * 2009-03-27 2011-11-29 Omnivision Technologies, Inc. Producing full-color image using CFA image
JP5942984B2 (ja) * 2011-03-30 2016-06-29 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
JP5909975B2 (ja) * 2011-10-06 2016-04-27 ソニー株式会社 撮像装置および電子機器
CN104025580A (zh) * 2011-12-27 2014-09-03 富士胶片株式会社 彩色摄像元件及摄像装置
WO2013100097A1 (ja) * 2011-12-27 2013-07-04 富士フイルム株式会社 撮像装置、撮像装置の制御方法、及び制御プログラム
CN104429060B (zh) * 2012-07-06 2016-04-20 富士胶片株式会社 彩色摄像元件及摄像装置
JP6378767B2 (ja) * 2014-07-15 2018-08-22 シャープ株式会社 撮像装置、及び解析装置
WO2017119447A1 (ja) * 2016-01-08 2017-07-13 株式会社ニコン 撮像装置および電子カメラ
US11056521B2 (en) * 2017-03-27 2021-07-06 Nikon Corporation Imaging device and image sensor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0470720A (ja) * 1990-07-11 1992-03-05 Minolta Camera Co Ltd 撮影装置
JP2002320236A (ja) * 2001-04-23 2002-10-31 Canon Inc 撮像装置
JP2006178320A (ja) * 2004-12-24 2006-07-06 Olympus Corp 分光透過率可変素子、及び分光透過率可変素子を備えた内視鏡装置
JP2009118359A (ja) * 2007-11-09 2009-05-28 Casio Comput Co Ltd 撮像装置、撮像装置制御プログラム及び撮像装置制御方法
JP2013157671A (ja) * 2012-01-26 2013-08-15 Sony Corp 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018222332A1 (de) * 2018-12-19 2020-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verpackung mit Transponder und Kryptomodul

Also Published As

Publication number Publication date
US11626436B2 (en) 2023-04-11
US20200058694A1 (en) 2020-02-20
CN110326284A (zh) 2019-10-11
JP6760486B2 (ja) 2020-09-23
US20210296386A1 (en) 2021-09-23
CN110326284B (zh) 2021-11-30
JPWO2018181358A1 (ja) 2020-02-06
US11056521B2 (en) 2021-07-06

Similar Documents

Publication Publication Date Title
US20210358981A1 (en) Image-capturing device and image sensor
CN110099204B (zh) 摄像元件和摄像装置
US8611738B2 (en) Image capturing apparatus
JP5547349B2 (ja) デジタルカメラ
JP5572765B2 (ja) 固体撮像素子、撮像装置、及び合焦制御方法
US11626436B2 (en) Imaging device and image sensor
CN104221365A (zh) 拍摄元件、摄影方法及拍摄装置
US20040090550A1 (en) Image sensing means for digital camera and digital camera adopting the same
JP2008017116A (ja) 撮像素子および撮像装置
JP5680797B2 (ja) 撮像装置、画像処理装置、及び画像処理方法
JP2008177903A (ja) 撮像装置
CN104508531A (zh) 拍摄元件和拍摄装置
JP7283079B2 (ja) 撮像装置および撮像素子
WO2018062558A1 (ja) 撮像素子、焦点検出装置、及び、電子カメラ
JP5278123B2 (ja) 撮像装置
JP5634614B2 (ja) 撮像素子及び撮像装置
JP6929511B2 (ja) 撮像素子、及び、撮像装置
WO2018062559A1 (ja) 撮像素子、焦点検出装置、及び、電子カメラ
CN102948152B (zh) 成像设备和成像方法
JP5978570B2 (ja) 撮像装置
JPWO2018062561A1 (ja) 撮像素子およびカメラ
JP7419975B2 (ja) 撮像素子、及び、撮像装置
JP2020109779A (ja) 撮像素子、及び、撮像装置
JP2017188926A (ja) 撮像素子および撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18777603

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019509911

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18777603

Country of ref document: EP

Kind code of ref document: A1