WO2015093332A1 - 撮像モジュール及び撮像装置 - Google Patents

撮像モジュール及び撮像装置 Download PDF

Info

Publication number
WO2015093332A1
WO2015093332A1 PCT/JP2014/082391 JP2014082391W WO2015093332A1 WO 2015093332 A1 WO2015093332 A1 WO 2015093332A1 JP 2014082391 W JP2014082391 W JP 2014082391W WO 2015093332 A1 WO2015093332 A1 WO 2015093332A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical system
light receiving
image
pupil
annular
Prior art date
Application number
PCT/JP2014/082391
Other languages
English (en)
French (fr)
Inventor
小野 修司
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP14871445.4A priority Critical patent/EP3086546B1/en
Priority to CN201480067516.6A priority patent/CN105814882B/zh
Publication of WO2015093332A1 publication Critical patent/WO2015093332A1/ja
Priority to US15/163,755 priority patent/US10027918B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/04Reversed telephoto objectives
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • G02B17/08Catadioptric systems
    • G02B17/0804Catadioptric systems using two curved mirrors
    • G02B17/0808Catadioptric systems using two curved mirrors on-axis systems with at least one of the mirrors having a central aperture
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • G02B17/08Catadioptric systems
    • G02B17/0856Catadioptric systems comprising a refractive element with a reflective surface, the reflection taking place inside the element, e.g. Mangin mirrors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/447Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by preserving the colour pattern with or without loss of information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters

Definitions

  • the present invention relates to an imaging module and an imaging apparatus, and more particularly to an imaging module and an imaging apparatus that can simultaneously capture a plurality of images having different characteristics.
  • An imaging optical system 1 composed of an annular optical system 1b having different characteristics, an image sensor 3, and an array composed of a plurality of microlenses (pupil imaging lenses) disposed on the incident surface side of the image sensor 3.
  • an imaging apparatus that includes a lens 2 and an array lens 2 that forms a pupil image of a photographing optical system on an image sensor 3 using each microlens (Patent Document 1).
  • the image plane of the photographing optical system 1 is on the array lens 2, and the array lens 2 forms a pupil image of the photographing optical system 1 on the image sensor 3.
  • FIG. 21 shows one light receiving cell 3 a on the image sensor 3 and a pupil image of the photographing optical system 1 that is imaged on the image sensor 3 by one microlens of the array lens 2.
  • This pupil image has a central pupil image (wide-angle lens component) corresponding to the central optical system 1a and an annular pupil image (telephoto lens component) corresponding to the annular optical system 1b.
  • the center pupil image (wide-angle lens component) is received by the light receiving cell at the center for every 5 ⁇ 5 25 light receiving cell groups, and the light receiving cells at the periphery thereof.
  • An annular pupil image (telephoto lens component) is received.
  • an image signal for one pixel of the wide-angle image is generated from the light-receiving cell that receives the wide-angle lens component, and similarly, an image for one pixel of the telephoto image from the light-receiving cell that receives the telephoto lens component.
  • a wide-angle image corresponding to the wide-angle lens and a telephoto image corresponding to the telephoto lens are obtained as shown in FIGS. 22 (b) and 22 (c).
  • the simplest method for suppressing the decrease in the number of pixels of images with different characteristics obtained from the image sensor 3 is to reduce the number of light receiving cells (number of allocation) allocated to one microlens.
  • the number of pixels of images with different characteristics that can be extracted can be increased by the amount corresponding to the reduced number of allocation.
  • 23A and 23B show an example in which 5 ⁇ 5 light receiving cells 3a of the image sensor 3 are assigned to one microlens, and an example in which 3 ⁇ 3 light receiving cells 3a are assigned to each microlens. Is shown.
  • the number of light receiving cells that can be assigned per microlens of the array lens is limited to 3 ⁇ 3.
  • the light receiving cells of the image sensor 3 are limited.
  • Patent Document 1 there is a description that color filters are arranged in a light receiving element in a predetermined pattern in order to capture a color image, but there is no description regarding a specific color filter arrangement.
  • Patent Documents 2 and 3 use a general imaging lens and an array lens (microlens array) arranged on the incident surface side of the image sensor, and pass the passing light of the imaging lens by the lens array.
  • an imaging device that obtains a pixel signal based on the amount of received light by being incident on each light receiving cell of an image sensor while being separated into light rays from a plurality of viewpoints.
  • Patent Documents 2 and 3 describe that a light beam that has passed through one microlens is received by 3 ⁇ 3 light receiving cells, and further, a Bayer array color filter is provided on the image sensor to receive light. There is a description that any one of red (R), green (G), and blue (B) color filters is provided for each cell.
  • the generated viewpoint image is also a Bayer array color image (mosaic image) (see FIG. 11 of Patent Document 2).
  • the pupil dividing means there is one in which a light beam that has passed through each region having different characteristics of various lenses is incident on different light receiving cells by a micro lens and a light shielding mask provided for each light receiving cell (Patent Document 4). ).
  • an image sensor having a general Bayer arrangement as described in Patent Documents 2 and 3 as shown in FIG. Consider an imaging apparatus having a configuration in which the light receiving cells are assigned to one microlens. Note that an imaging apparatus having this configuration is not a known one.
  • the image sensor and array lens shown in part (a) of FIG. 24 have a grid-like 6 ⁇ 6 light receiving cell (2 ⁇ 2 array lens) as a basic block, and this basic block is repeated in the horizontal and vertical directions. Arranged and configured.
  • FIG. 24 (b) shows a basic block.
  • the basic block is composed of four unit blocks, with one microlens and 3 ⁇ 3 light receiving cells per one microlens as unit blocks. ing.
  • the (c1) part and (c2) part of FIG. 24 are respectively a group of light receiving cells in the center of the unit block (3 ⁇ 3) (light receiving cells into which a light beam having passed through the central optical system 1a shown in FIG. 20 is incident). And a group of eight surrounding light receiving cells (light receiving cells into which a light beam that has passed through the annular optical system 1b shown in FIG. 20 is incident).
  • the image of the central light receiving cell group is a mosaic image of the Bayer array.
  • a color image can be obtained without any problem by demosaicing (also referred to as synchronization processing) the Bayer array mosaic image.
  • a group of eight surrounding light receiving cells includes eight light receiving cells including all RGB light receiving cells and eight light receiving cells having no R light receiving cells. And 8 light receiving cells having no B light receiving cells are mixed, and the arrangement of RGB light receiving cells is not balanced.
  • the eight light receiving cells around the 3 ⁇ 3 light receiving cell whose central light receiving cell is a G light receiving cell are two R light receiving cells, four G light receiving cells, and two G light receiving cells. B light receiving cells, and there is all RGB color information.
  • the 8 light receiving cells around the 3 ⁇ 3 light receiving cell whose center light receiving cell is R have 4 G light receiving cells, 4 B light receiving cells, and the R light receiving cells are Similarly, the eight light receiving cells around the 3 ⁇ 3 light receiving cell whose central light receiving cell is B have four R light receiving cells, four G light receiving cells, and B light receiving cells. There is no cell.
  • the 8 light receiving cells around the 3 ⁇ 3 light receiving cell without the R light receiving cell or the B light receiving cell use the R light receiving cell or the B light receiving cell acquired in the adjacent unit block. Therefore, there is a problem that the processing for complementation is required, which is troublesome and the resolution performance of an image generated by a group of eight surrounding light receiving cells deteriorates.
  • the number of light receiving cells that can be assigned per microlens of the array lens is limited to 3 ⁇ 3.
  • the number of pixels of different images is reduced.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide an imaging module and an imaging apparatus capable of improving the image quality and resolution of a plurality of images with different characteristics that are simultaneously captured.
  • an imaging module simultaneously captures X (X is an integer of 2 or more) subject images having different characteristics, and at least one subject of the X subject images.
  • An imaging module that outputs pixel signals of a plurality of wavelength ranges to an image, and has X regions on which subject light is incident, and subject images having different characteristics for each of the X regions are superimposed on the same image plane
  • pupil dividing means for dividing the pupil image of the various lenses into X areas
  • X light receiving areas for receiving X pupil images divided by the pupil dividing means, respectively.
  • Y (an integer greater than or equal to X + 1) photoelectric converters, and a plurality of photoelectric converters are provided in at least one of the X light receiving areas. Multiple photoelectric converters arranged in one light receiving area And it outputs a pixel signal of the wavelength range.
  • the pupil images of various lenses having different characteristics for each of the X regions, and the X pupil images divided by the pupil dividing unit correspond to the X light receiving regions. It is made to inject into Y (an integer greater than or equal to X + 1) photoelectric converters.
  • a plurality of photoelectric converters are arranged in at least one of the X light receiving areas, and the plurality of photoelectric converters output pixel signals in a plurality of wavelength ranges, so that the characteristics of being simultaneously imaged
  • pixel signals in a plurality of wavelength ranges can be obtained from a plurality of photoelectric converters corresponding to one pupil image, and the resolution per pixel is improved. Can be made.
  • the plurality of photoelectric converters arranged in one light receiving region include all the pixels necessary for generating pixels that form an image including information of a plurality of wavelength regions. It is preferable to output a pixel signal in the wavelength range.
  • the plurality of photoelectric converters arranged in one light receiving region outputs pixel signals in all the wavelength regions necessary for generating pixels constituting an image composed of information in a plurality of wavelength regions.
  • a demosaic image signal of one pixel can be obtained using only pixel signals from a plurality of photoelectric converters arranged in one light receiving region. .
  • all of the pixel signals output from a plurality of photoelectric converters arranged in one light receiving region are all necessary for generating pixels that constitute an image composed of information of a plurality of wavelength ranges.
  • the pixel signals (pixels in the specific wavelength range) output from the surrounding Y photoelectric converters Signal) must be interpolated to generate a pixel signal in a specific wavelength range.
  • the resolution (substantial number of pixels) of the output image is reduced. According to the aspect, such a problem can be solved.
  • the pupil dividing means is an array lens composed of two-dimensionally arranged microlenses, and is arranged on the incident surface side of the photoelectric converter. It is preferable that the lens is an array lens in which pupil images of various lenses are incident on Y photoelectric converters by a microlens.
  • the plurality of photoelectric converters arranged in one light receiving region are pixel signals in the same wavelength region. It is preferable that the two or more photoelectric converters are arranged symmetrically with respect to the center of the unit block.
  • the plurality of photoelectric converters disposed in one light receiving region include pixels for each of the red (R), green (G), and blue (B) wavelength regions. Output a signal. Thereby, all color information can be acquired from a plurality of photoelectric converters arranged in one light receiving region, and a high-definition color image can be generated.
  • the various lenses are provided in the central first optical system and in the peripheral portion of the first optical system, and the second has different characteristics from the first optical system. Those consisting of these optical systems are preferred.
  • the various lenses formed by the central first optical system and the second optical system provided at the periphery of the first optical system are, for example, in comparison with a photographing optical system composed of an optical system divided vertically. Lens performance will be excellent.
  • one of the first optical system and the second optical system is a wide-angle optical system and the other is a telephoto optical system.
  • the first optical system of the various lenses is a circular central optical system
  • the second optical system is a ring arranged concentrically with respect to the central optical system.
  • An optical system is preferable.
  • the first optical system of the various lenses is a circular central optical system
  • the second optical system is a ring arranged concentrically with respect to the central optical system.
  • the unit block has 3 ⁇ 3 photoelectric converters arranged in a lattice shape, and corresponds to the central optical system.
  • the pupil image is preferably incident on the photoelectric converter in the center of the unit block, and the annular pupil image corresponding to the annular optical system is preferably incident on eight photoelectric converters around the unit block.
  • the photoelectric converter at the center of the unit block may be any one of pixel signals in the wavelength range of red (R), green (G), and blue (B). It is preferable that the photoelectric converters that output pixel signals and that output pixel signals in the R, G, and B wavelength regions are periodically arranged in the central photoelectric converter of the plurality of unit blocks. Accordingly, the pixel signal output from the central photoelectric converter of the 3 ⁇ 3 photoelectric converters includes pixel signals in the R, G, and B wavelength regions, and is all necessary to generate one image. Can be obtained.
  • the eight photoelectric converters around the unit block include four photoelectric converters that output pixel signals in the G wavelength region, and pixels in the R wavelength region. It is preferable to include two photoelectric converters that output signals and two photoelectric converters that output pixel signals in the B wavelength region. As a result, the ratio of the number of RGB pixel signals is 1: 2: 1, and a large number of G photoelectric converters that contribute most to obtaining a luminance signal can be arranged.
  • an image sensor is configured by using 6 ⁇ 6 photoelectric converters arranged in a grid as basic blocks, and the basic blocks are repeatedly arranged in the horizontal and vertical directions. It is preferable. Since the basic blocks of 6 ⁇ 6 photoelectric converters are repeated in the horizontal direction and the vertical direction, when performing image processing such as demosaic processing in the subsequent stage, processing can be performed according to a repetition pattern.
  • the array lens overlaps a part of adjacent pupil images on the photoelectric converter among the pupil images incident on the photoelectric converter by each microlens. It is preferable to make it.
  • the array lens a part of the pupil images adjacent to each other are overlapped on the photoelectric converter, so that the number of photoelectric converters allocated substantially per microlens of the array lens is 3 ⁇ 3. As a result, it is possible to increase the number of pixels of images with different characteristics captured simultaneously.
  • the various lenses are provided in the central first optical system and in the peripheral portion of the first optical system, and the second has different characteristics from the first optical system. If the pupil dividing means and the Y photoelectric converters are unit blocks, the unit block has 3 ⁇ 3 photoelectric converters arranged in a lattice pattern, and is the first of various lenses.
  • the optical system is a circular central optical system
  • the second optical system is an annular optical system arranged concentrically with respect to the central optical system
  • the central pupil image corresponding to the first optical system is The annular pupil image corresponding to the second optical system that is incident on the photoelectric converter in the center of the unit block is incident on the eight photoelectric converters around the unit block, and is arranged in a lattice shape.
  • the basic block is repeatedly arranged in the horizontal and vertical directions. It is preferable that the image sensor is configured.
  • the various lenses are provided in the central first optical system and in the peripheral portion of the first optical system, and the second has different characteristics from the first optical system.
  • the first optical system of the various lenses is a circular central optical system
  • the second optical system is an annular optical system arranged concentrically with respect to the central optical system, and an array
  • the lens overlaps a part of the annular pupil images corresponding to the annular optical systems adjacent to each other on the Y photoelectric converters among the pupil images formed on the Y photoelectric converters by the microlenses.
  • the central pupil image corresponding to the adjacent central optical system overlaps with a part of the annular pupil image corresponding to the second optical system, and the annular optical system overlaps with the central pupil image corresponding to the central optical system.
  • the part corresponding to a part of the annular pupil image is shielded or centered It is preferred that the portion corresponding to a portion of the annular pupil image that overlaps with the central pupil image corresponding to the academic system is formed missing.
  • the annular optical system is formed such that a part thereof is shielded from light or a part thereof is omitted so that the central pupil image and the annular pupil image do not overlap on the photoelectric converter. ing.
  • the substantial number of photoelectric converters allocated to one microlens of the array lens can be further reduced.
  • the various lenses are provided in the central first optical system and in the peripheral portion of the first optical system, and the second has different characteristics from the first optical system.
  • the first optical system of the various lenses is a circular central optical system
  • the second optical system is an annular optical system disposed concentrically with respect to the central optical system
  • An annular optical system in which third and fourth optical systems having different characteristics are alternately arranged, and the array lens is a pupil image formed on each of Y photoelectric converters by each microlens.
  • the first annular pupil images corresponding to the third optical system of the annular optical systems adjacent to each other are overlapped on the Y photoelectric converters
  • the fourth optical system of the annular optical system adjacent to each other is used.
  • the corresponding second annular pupil images are overlapped on the Y photoelectric converters.
  • Door is preferable. Thereby, three types of images having different characteristics can be simultaneously acquired by one imaging.
  • the unit block is a single central photoelectric module.
  • a central pupil image corresponding to the central optical system is incident on the central photoelectric converter and includes a first optical system corresponding to the third optical system of the annular optical system.
  • the annular pupil image is incident on three photoelectric converters in 120 degrees and three directions from the central photoelectric converter among the six surrounding photoelectric converters, and corresponds to the fourth optical system of the annular optical system. It is preferable that the second annular pupil image is incident on the other three photoelectric converters at 120 degrees and three directions from the central photoelectric converter among the six surrounding photoelectric converters.
  • the central optical system of the various lenses is a wide-angle optical system
  • the third optical system and the fourth optical system of the annular optical system have different focal lengths. It is preferable that Thereby, it is possible to simultaneously acquire a wide-angle image and two telephoto images having different shooting magnifications by one imaging.
  • the central optical system of the various lenses is a wide-angle optical system
  • the third optical system and the fourth optical system of the annular optical system are telephoto optical systems having different shooting distances. It is preferable that Accordingly, it is possible to simultaneously acquire a wide-angle image and two telephoto images focused on subjects having different shooting distances by one imaging.
  • the annular optical system has a reflection optical system that reflects the light beam twice or more.
  • the dimension of the annular optical system in the optical axis direction can be shortened, and the apparatus can be made compact.
  • An imaging apparatus outputs any one of the imaging modules described above, the pupil dividing unit, and Y photoelectric converters as unit blocks, and is output from the photoelectric converters in one unit block.
  • an image generation unit that generates an image signal for one pixel constituting at least one image composed of information of a plurality of wavelength regions based on the pixel signal.
  • a demosaiced image signal for one pixel is generated using a pixel signal in a unit block for at least one of X images that are simultaneously captured.
  • the image quality and resolution of the image can be improved.
  • the present invention it is possible to improve the image quality and resolution of at least one of a plurality of images that are simultaneously imaged and have different characteristics.
  • the array lens overlaps a part of pupil images of various adjacent lenses on the photoelectric converter, the number of photoelectric converters allocated substantially per microlens of the array lens is reduced. As a result, the number of pixels of images having different characteristics that can be simultaneously imaged can be increased.
  • 1 is an external perspective view of an imaging apparatus including an imaging module according to the present invention.
  • 1 is a block diagram showing an embodiment of an internal configuration of the imaging apparatus shown in FIG. Sectional drawing which shows 1st Embodiment of the imaging optical system applied to the imaging device shown in FIG. The principal part enlarged view of the array lens used in order to demonstrate 1st Embodiment of the imaging device which concerns on this invention, and an image sensor
  • the figure used for explaining the suitable color filter arrangement in the image sensor Other figures used to describe a preferred color filter array in an image sensor
  • the block diagram which shows the principal part constitution of the smart phone The figure which shows the conventional imaging device provided with the imaging
  • photography optical system which has a center optical system and a ring optical system, an array lens, and an image sensor.
  • the figure which shows the relationship between one light receiving cell and a pupil image The figure which shows an example of each pupil image imaged on the conventional image sensor
  • the figure which shows the other example of each pupil image imaged on the conventional image sensor The figure used for explaining the problem to be solved by the invention
  • FIG. 1 is an external perspective view of an imaging apparatus including an imaging module according to the present invention.
  • a variety of lenses (shooting optical system) 12 a flash light emitting unit 19 and the like are disposed on the front surface of the imaging apparatus 10, and a shutter button 38-1 is provided on the upper surface.
  • L1 represents the optical axis of the various lenses 12.
  • FIG. 2 is a block diagram showing an embodiment of the internal configuration of the imaging apparatus 10.
  • the image pickup apparatus 10 records the picked-up image on the memory card 54, and is mainly characterized by the image pickup module 11 including the various lenses 12, the array lens 16, the image sensor 18, and the like.
  • FIG. 3 is a cross-sectional view showing a first embodiment of a variety of lenses applied to the imaging apparatus 10 (imaging module 11).
  • the various lenses 12 each have a central optical system (first optical system) 13 and an annular optical system (second optical system) at the periphery thereof arranged on the same optical axis. 14.
  • the central optical system 13 is a wide-angle optical system (wide-angle lens) including a first lens 13 a, a second lens 13 b, a third lens 13 c, a fourth lens 13 d, and a common lens 15. An image is formed.
  • the annular optical system 14 includes a first lens 14a, a second lens 14b, a first reflection mirror 14c (reflection optical system), a second reflection mirror 14d (reflection optical system), and a telephoto optical system (common lens 15).
  • a telephoto lens), and a telephoto image is formed on the array lens 16.
  • the light beam incident through the first lens 14a and the second lens 14b is reflected twice by the first reflection mirror 14c and the second reflection mirror 14d, and then passes through the common lens 15.
  • the light beam is folded back by the first reflecting mirror 14c and the second reflecting mirror 14d, so that the length in the optical axis direction of the telephoto optical system (telephoto lens) having a long focal length is shortened.
  • FIG. 4 is an enlarged view of a main part of the array lens 16 and the image sensor 18 shown in FIGS.
  • the array lens 16 is configured by two-dimensionally arranging a plurality of microlenses (pupil imaging lenses) 16a.
  • the horizontal and vertical intervals between the microlenses are the light receiving cells (photoelectric cells) of the image sensor 18. This corresponds to three intervals of the converter 18a. That is, the microlenses of the array lens 16 are formed corresponding to the positions of every two light receiving cells in the horizontal and vertical directions.
  • Each micro lens 16a of the array lens 16 has a circular central pupil image (first pupil image) 17a and an annular pupil image (second pupil image) corresponding to the central optical system 13 and the annular optical system 14 of the various lenses 12.
  • a pupil image) 17b is formed on the light receiving cell 18a in the corresponding light receiving region of the image sensor 18.
  • the array lens 16 and the image sensor 18 of the first embodiment shown in FIG. 4 there are 3 ⁇ 3 light receiving cells 18 a having a lattice shape (square lattice shape) per 1 micro lens 16 a of the array lens 16. Assigned.
  • one microlens 16a and a light receiving cell group (3 ⁇ 3 light receiving cells 18a) corresponding to one microlens 16a are referred to as a unit block.
  • the central pupil image 17a is formed only on the light receiving cell 18a at the center of the unit block, and the annular pupil image 17b is formed on eight light receiving cells 18a around the unit block.
  • the imaging apparatus 10 (imaging module 11) according to the present invention can simultaneously capture a wide-angle image corresponding to the central optical system 13 and a telephoto image corresponding to the annular optical system 14, as will be described later.
  • FIG. 5 is a diagram showing an image sensor 18 applied to the image pickup apparatus 10 (image pickup module 11) according to the present invention.
  • the array lens 16 is omitted, but the area indicated by a circle is a unit including 3 ⁇ 3 light receiving cells on which pupil images are formed by the microlenses 16 a of the array lens 16. Indicates a block.
  • a color filter array composed of color filters arranged on each light receiving cell is provided.
  • This color filter array is constituted by three primary color filters (hereinafter referred to as R filter, G filter, and B filter) that transmit light in each wavelength band of red (R), green (G), and blue (B).
  • R filter three primary color filters
  • G filter three primary color filters
  • B filter blue filter
  • One of the RGB filters is disposed on each light receiving cell.
  • the light receiving cell in which the R filter is disposed is referred to as “R light receiving cell”
  • the light receiving cell in which the G filter is disposed is referred to as “G light receiving cell”
  • B light receiving cell the light receiving cell in which the B filter is disposed
  • the color filter array shown in part (a) of FIG. 5 includes 6 ⁇ 6 light receiving cells as basic blocks B (blocks indicated by a thick frame in part (a) of FIG. 5 and part (b) of FIG. 5). ), And the basic block B is repeatedly arranged in the horizontal direction and the vertical direction.
  • the basic block B is composed of four unit blocks B1 to B4.
  • (C1) and (c2) in FIG. 5 are groups of light receiving cells (light receiving cells into which light beams having passed through the central optical system 13 shown in FIG. 3 are incident) at the center of each of the four unit blocks B1 to B4. And a group of eight surrounding light receiving cells (light receiving cells into which the speed of light that has passed through the annular optical system 14 shown in FIG. 3 is incident).
  • the image of the central light receiving cell group is a Bayer array mosaic image.
  • a color image can be obtained without any problem by demosaicing the Bayer array mosaic image.
  • a group of eight light receiving cells around each central light receiving cell of the unit blocks B1 to B4 includes all the light receiving cells of RGB in the eight light receiving cells. (R light receiving cell, G light receiving cell, B light receiving cell) and the RGB light receiving cells are arranged in the same pattern regardless of the unit blocks B1 to B4.
  • the G light receiving cells are arranged in the four light receiving cells at the four corners of each of the unit blocks B1 to B4, and the R light receiving cells are arranged in the two upper and lower light receiving cells across the center light receiving cell.
  • the B light receiving cells are arranged in the two left and right light receiving cells with the central light receiving cell interposed therebetween.
  • the R light receiving cell, the G light receiving cell, and the B light receiving cell are respectively arranged at symmetrical positions with respect to the center light receiving cell (center) of the unit block.
  • the pixel value of the G pixel at the center position of the unit block (1 microlens) can be obtained.
  • Pixel values can be acquired.
  • the pixel values of the RGB light receiving cells in the unit block are used. Therefore, it is not necessary to generate pixel values of pixels in a specific wavelength range by interpolating the pixel values of the light receiving cells of the surrounding unit blocks, and the resolution of the output image (substantial number of pixels) ) Is not reduced.
  • the eight light receiving cells around the unit blocks B1 to B4 have two R light receiving cells, four G light receiving cells, and two B light receiving cells.
  • the ratio of the RGB light receiving cells is 1 : 2: 1, and many G light receiving cells that contribute most to obtaining a luminance signal are arranged.
  • the imaging apparatus 10 (imaging module 11) includes the various lenses 12 having the central optical system 13 and the annular optical system 14 described with reference to FIG. 3, and the first embodiment described with reference to FIGS. 4 and 5.
  • the array lens 16 and the image sensor 18 are provided.
  • the operation of the entire apparatus is centrally controlled by a central processing unit (CPU) 40 based on a camera control program stored in an EEPROM (ElectricallyrErasable Programmable Read-Only Memory) 56.
  • the EEPROM 56 stores various types of parameters and tables used for pixel defect information, image processing, and the like of the image sensor 14.
  • the imaging device 10 is provided with an operation unit 38 such as a shutter button 38-1, a mode dial (mode switching device), a playback button, a MENU / OK key, a cross key, and a BACK key.
  • a signal from the operation unit 38 is input to the CPU 40, and the CPU 40 controls each circuit of the imaging device 10 based on the input signal. For example, photographing operation control, image processing control, image data recording / reproduction control, liquid crystal monitor The display control of the (LCD) 30 is performed.
  • the shutter button 38-1 (FIG. 1) is an operation button for inputting an instruction to start shooting, and is composed of a two-stroke switch having an S1 switch that is turned ON when half-pressed and an S2 switch that is turned ON when fully pressed. Has been.
  • the mode dial is a selection means for switching between an auto shooting mode for shooting a still image, a manual shooting mode, a scene position such as a person, a landscape, a night view, and a moving image mode for shooting a moving image.
  • the mode dial is a first imaging mode for obtaining a wide-angle image (first image) formed through the central optical system 13 and a telephoto image formed through the annular optical system 14 in the imaging mode. It functions as a selection unit that switches between a second shooting mode for acquiring an image (second image), a hybrid shooting mode for simultaneously acquiring a wide-angle image and a telephoto image, and the like.
  • the playback button is a button for switching to a playback mode in which a captured still image or moving image is displayed on the liquid crystal monitor 30.
  • the MENU / OK key is an operation key having both a function as a menu button for instructing to display a menu on the screen of the liquid crystal monitor 30 and a function as an OK button for instructing confirmation and execution of the selection contents. It is.
  • the cross key is an operation unit for inputting instructions in four directions, up, down, left, and right, and functions as a button (cursor moving operation means) for selecting an item from the menu screen or instructing selection of various setting items from each menu. To do.
  • the up / down key of the cross key functions as a zoom switch for shooting or a playback zoom switch in playback mode
  • the left / right key functions as a frame advance (forward / reverse feed) button in playback mode.
  • the BACK key is used to delete a desired object such as a selection item, cancel an instruction content, or return to the previous operation state.
  • the subject light is imaged on the light receiving surface of the image sensor 18 through the various lenses 12 and the array lens 16.
  • each light receiving cell (photoelectric converter) of the image sensor 18 is converted into a signal voltage (or electric charge) of an amount corresponding to the amount of incident light.
  • the signal voltage (or charge) accumulated in the image sensor 18 is accumulated in the light receiving cell itself or an attached capacitor.
  • the stored signal voltage (or charge) is read by the sensor control unit 32 together with the selection of the light receiving cell position by using a method of a MOS type image pickup device (so-called CMOS sensor) using the XY address method.
  • CMOS sensor MOS type image pickup device
  • the pixel signal indicating the wide-angle image of the group of the light receiving cells in the center corresponding to the central optical system 13 from the image sensor 18 and the pixel indicating the telephoto image of the group of eight light receiving cells corresponding to the annular optical system 14. Signal can be read out.
  • the pixel signal (voltage signal) read from the image sensor 18 is converted into an output signal for each light receiving cell for the purpose of reducing correlated double sampling processing (noise (particularly thermal noise) included in the sensor output signal).
  • the pixel signal for each light-receiving cell is sampled and held by a process of obtaining accurate pixel data by taking the difference between the included feedthrough component level and the signal component level, and is amplified and applied to the A / D converter 20 .
  • the A / D converter 20 converts sequentially input pixel signals into digital signals and outputs them to the image input controller 22. Note that some MOS type sensors include an A / D converter. In this case, a digital signal is directly output from the image sensor 18.
  • the pixel signal indicating the wide-angle image and the pixel signal indicating the telephoto image can be selectively read by selecting the light receiving cell position of the image sensor 18 and reading the pixel signal.
  • a pixel signal indicating an image (a pixel signal indicating a Bayer array mosaic image) can be acquired, and on the other hand, the pixel signals of the eight light receiving cells on which the annular pupil image 17b of the image sensor 18 enters are selectively read out.
  • eight pixel signals can be acquired per microlens.
  • pixel signals are read from the image sensor 18 and temporarily stored in the memory (SDRAM) 48, and the same as described above based on the pixel signals stored in the memory 48 by the digital signal processing unit (image generation unit) 24.
  • image generation unit image generation unit
  • pixel signals of two images, a wide-angle image and a telephoto image may be grouped.
  • the digital signal processing unit 24 performs offset processing, gamma correction processing, and RGB processing on digital pixel signals (RGB dot-sequential R, G, and B signals) input via the image input controller 22.
  • Predetermined signal processing such as demosaic processing is performed on the mosaic image signal.
  • the demosaic process is a process of calculating all color information for each pixel from the RGB mosaic image corresponding to the color filter array of the single-plate image sensor 18, and is also referred to as a synchronization process.
  • this is a process of calculating color information of all RGB for each pixel from a mosaic image composed of RGB.
  • the demosaic processing unit included in the digital signal processing unit 24 has no R light receiving cell and B light receiving cell at the position of the G light receiving cell in the wide-angle image (Bayer array mosaic image).
  • R signal and B signal of the R light receiving cell and B light receiving cell are respectively interpolated to generate R signal and B signal at the position of the G light receiving cell.
  • the G light receiving cell around the R light receiving cell, the G signal of the B light receiving cell, and the B signal are respectively interpolated.
  • G signal and B signal are generated at the position of the R light receiving cell, and since there are no G light receiving cell and R light receiving cell at the position of the B light receiving cell of the mosaic image, the G light receiving cells around the B light receiving cell, The G signal and R signal at the position of the B light receiving cell are generated by interpolating the G signal and R signal of the R light receiving cell, respectively.
  • the telephoto image is composed of 8 mosaic images per microlens 16a (8 around the 3 ⁇ 3 unit block), and all the RGB color information (R light reception) is contained in the 8 light reception cells.
  • the demosaic processing unit constructs an image that is demosaic processed for each unit block using the output signals of the eight light receiving cells in the unit block.
  • One pixel RGB pixel value
  • a demosaic processing unit (image generation unit) that performs demosaic processing on a mosaic image of a telephoto image obtains an average value of pixel values of four G light receiving cells in the unit block, thereby obtaining a unit block (1 micron).
  • the G pixel value of the pixel at the center position of the lens is calculated, and similarly the average value of the pixel values of the two R light receiving cells and the average value of the pixel values of the two B light receiving cells in the unit block are obtained.
  • the R pixel value and the B pixel value of the pixel at the center position of each unit block are calculated.
  • the demosaic image of the telephoto image of the two demosaic images of the wide-angle image and the telephoto image generated by the demosaic processing unit is demosaiced using the output signals of the eight light receiving cells in the unit block.
  • the resolution is substantially higher than the demosaic image of the wide-angle image in which the demosaic process is performed using (interpolating) the output signals of the light receiving cells of the surrounding unit blocks.
  • the digital signal processing unit 24 performs RGB / YC conversion for generating the luminance signal Y and the color difference signals Cb and Cr from the RGB color information (R signal, G signal, and B signal) demosaiced by the demosaic processing unit. Do.
  • the image signal processed by the digital signal processing unit 24 is input to a VRAM (Video Random Access Memory) 50.
  • VRAM Video Random Access Memory
  • the image signal read from the VRAM 50 is encoded by the video encoder 28 and output to the liquid crystal monitor 30 provided on the back of the camera, whereby the subject image is displayed on the display screen of the liquid crystal monitor 30.
  • the CPU 40 starts the AE operation, and the image data output from the A / D converter 20 is the AE detection unit 44. Is taken in.
  • the AE detection unit 44 integrates the image signals of the entire screen, or integrates the image signals with different weights at the center and the periphery of the screen, and outputs the integrated value to the CPU 40.
  • the CPU 40 calculates the brightness of the subject (shooting Ev value) from the integrated value input from the AE detection unit 44, and based on this shooting Ev value, the aperture value of an aperture (not shown) and the electronic shutter ( (Shutter speed) is determined according to a predetermined program diagram, the aperture is controlled based on the determined aperture value, and the charge accumulation time in the image sensor 18 is determined via the sensor control unit 32 based on the determined shutter speed. Control.
  • image data output from the A / D converter 20 in response to the depression is stored from the image input controller 22 into the memory.
  • SDRAM “Synchronous Dynamic” RAM
  • the image signal temporarily stored in the memory 48 is appropriately read out by the digital signal processing unit 24, where predetermined signal processing is performed and stored in the memory 48 again.
  • the image signals stored in the memory 48 are respectively output to the compression / decompression processing unit 26, and after predetermined compression processing such as JPEG (Joint Photographic Experts Group) is performed, the image signal is sent to the memory card 54 via the media controller 52. To be recorded.
  • predetermined compression processing such as JPEG (Joint Photographic Experts Group)
  • a wide-angle image or a telephoto image can be selectively acquired.
  • the hybrid shooting mode is selected with the mode dial, the wide-angle image is selected. Images and telephoto images can be acquired simultaneously. Accordingly, it is possible to acquire a wide-angle image and a telephoto image without mechanical switching between the wide-angle optical system and the telephoto optical system and without a zoom operation of the zoom lens.
  • FIG. 6 is a diagram showing another embodiment of the image sensor 18 applied to the imaging device 10 (imaging module 11) according to the present invention, and in particular, a second embodiment of the color filter disposed in the image sensor 18. It is a figure which shows the color filter arrangement
  • the color filter array of another embodiment of the image sensor 18 includes 6 ⁇ 6 light receiving cells in the same manner as the color filter array shown in part (a) of FIG. 5.
  • a basic block B (refer to a block indicated by a thick frame in part (a) of FIG. 6 and a part (b) of FIG. 6) is formed by repeatedly arranging the basic block B in the horizontal direction and the vertical direction.
  • the basic block B is composed of four unit blocks B1 to B4.
  • the image of the center light receiving cell group is a mosaic image of a Bayer array.
  • a color image can be obtained without any problem by demosaicing the Bayer array mosaic image.
  • a group of eight light receiving cells around each central light receiving cell of the unit blocks B1 to B4 includes all the light receiving cells of RGB in the eight light receiving cells. (R light receiving cell, G light receiving cell, B light receiving cell) and the RGB light receiving cells are arranged in the same pattern regardless of the unit blocks B1 to B4.
  • the G light receiving cells are arranged in the four light receiving cells in the upper, lower, left, and right sides of the center light receiving cell of each unit block B1 to B4, and the two light receiving cells in the upper left and lower right of the unit block are , R light receiving cells are arranged, and B light receiving cells are arranged in the two light receiving cells at the upper right and lower left of the unit block.
  • the R light receiving cell, the G light receiving cell, and the B light receiving cell are respectively arranged at symmetrical positions with respect to the center light receiving cell (center) of the unit block. Accordingly, it is possible to generate one pixel (RGB pixel value) constituting an image after demosaic processing for each unit block using the output signal of the RGB light receiving cells in the unit block.
  • the pixel value of the G light receiving cell at the center position of the unit block (1 microlens) can be obtained.
  • the R pixel value and B of the pixel at the center position of the unit block respectively. Pixel values can be acquired.
  • the eight light receiving cells around the unit blocks B1 to B4 have two R light receiving cells, four G light receiving cells, and two B light receiving cells.
  • the ratio of the RGB light receiving cells is 1 : 2: 1, and many G light receiving cells that contribute most to obtaining a luminance signal are arranged.
  • color filters are periodically arranged in a fixed pattern in each central light-receiving cell so that the image of the group of light-receiving cells in the center of the unit blocks B1 to B4 becomes a Bayer array mosaic image.
  • the color filter arranged in each center light receiving cell may be a color filter such as a G stripe R / G complete checkered pattern, an X-Trans (registered trademark) arrangement, In short, it is only necessary that the color filters are arranged so that pixel signals in all wavelength regions can be obtained.
  • the color filter arrangement for the eight light receiving cells around the unit block having 3 ⁇ 3 light receiving cells may be various in addition to the first and second embodiments shown in FIGS. .
  • FIG. 7 (a) and 7 (b) show the first embodiment of the color filter shown in FIG. 5 (a), respectively, and transmit the annular optical system 14 of the various lenses 12, in particular.
  • the incident light beams are incident on the eight light receiving cells around the 3 ⁇ 3 unit blocks, which are incident due to the directivity of the microlens 16a.
  • the incident area of the light beam transmitted through the annular optical system 14 is a clean circular shape. There is no difference in RGB filter arrangement in the eight light receiving cells.
  • RGB light receiving cells that output pixel signals in each wavelength region are uniformly assigned to eight light receiving cells.
  • the crescent-shaped luminous flux is evenly distributed in the surrounding eight RGB light receiving cells.
  • the area ratio of each of the RGB light receiving cells that are incident and the crescent-shaped light beam is incident is substantially equal (G ⁇ R ⁇ B).
  • the eight light receiving cells in the surrounding RGB are not uniformly arranged in the surrounding direction, and each light receiving cell in RGB in which a crescent-shaped light beam enters.
  • the area ratio becomes non-uniform (G >> R> B).
  • the eight light receiving cells in the surrounding RGB are not uniformly arranged in the surrounding direction, and each light receiving in RGB in which a crescent-shaped light beam enters.
  • the filter arrangement of the eight light receiving cells around the unit block having 3 ⁇ 3 light receiving cells is the first, shown in the part (a) of FIG. 5 and the part (b) of FIG.
  • the RGB light receiving cells are arranged evenly with respect to the surrounding orientation (so that the center of gravity is at the center of the unit block).
  • 8 (a) and 8 (b) show the color filter arrangements of the first and second embodiments shown in FIG. 5 (a) and FIG. 6 (b), respectively.
  • wavelength filters color filters
  • the filter parts can be connected, so the manufacturing process for forming the wavelength filter is simplified.
  • the wavelength filters of pixels in contact with adjacent unit blocks are arranged to be the same type.
  • the G light receiving cell among the eight light receiving cells when the unit blocks having 3 ⁇ 3 light receiving cells are arranged is 2 ⁇ 2 4 G light receiving cells are adjacent to each other, and among the surrounding 8 light receiving cells, 2 R light receiving cells are adjacent in the vertical direction, and 2 B light receiving cells are horizontally disposed. Adjacent.
  • the color filter manufacturing process of the color filter array of the first embodiment is the same. Since it becomes simple and interference can be reduced, it can be said that it is a more suitable color filter arrangement.
  • FIG. 9 is an enlarged view of a main part of the array lens 116 and the image sensor 118 used for explaining the second embodiment of the imaging apparatus (imaging module) according to the present invention. Note that the imaging device of the second embodiment is different from the imaging device 10 of the first embodiment shown in FIGS. 1 to 3 mainly in the array lens 116 and the image sensor 118. Will be described.
  • the array lens 116 is configured by arranging a plurality of microlenses 116 a in a two-dimensional manner, and the distance between the microlenses in the horizontal direction and the vertical direction is two of the light receiving cells 118 a of the image sensor 118. Corresponds to the minute interval. That is, each microlens of the array lens 116 is formed corresponding to the position of every other light receiving cell in each of the horizontal direction and the vertical direction.
  • each micro lens 116 a of the array lens 116 forms a circular central pupil image 117 a and an annular pupil image 117 b corresponding to the central optical system 13 and the annular optical system 14 of the various lenses 12 on the image sensor 118.
  • the annular pupil images 117b adjacent to each other partially overlap on the image sensor 118. That is, the array lens 116 is disposed at an appropriate position on the incident surface side of the image sensor 118, and among the central pupil image 117a and the annular pupil image 117b formed on the image sensor 118 by each micro lens 116a, respectively. A part of the annular pupil images 117b adjacent to each other is configured to overlap on the image sensor 118.
  • the central pupil image 117a is only in one light receiving cell 118a (3 ⁇ 3 central light receiving cells) on the image sensor 118.
  • the annular pupil image 117b is formed on the eight light receiving cells 118a around the light receiving cell 118a on which the central pupil image 117a is formed.
  • the central pupil image 117a formed on the eight light receiving cells 118a overlaps with the central pupil image 117a adjacent in the horizontal direction and the vertical direction (up and down, left and right directions) in the range of one light receiving cell.
  • the imaging apparatus only needs to be able to capture a wide-angle image corresponding to the central optical system 13 and a telephoto image corresponding to the annular optical system 14, so that the central pupil image 117a and the annular pupil image 117b overlap. If not, it ’s good. That is, even if a part of the annular pupil images 117b adjacent to each other overlaps on the image sensor 118, the image does not fail.
  • FIG. 10 (a) and 10 (b) are diagrams showing a color filter array and the like disposed in the image sensor 118.
  • FIG. 10 (a) and 10 (b) are diagrams showing a color filter array and the like disposed in the image sensor 118.
  • FIG. 10 (a) and 10 (b) are diagrams showing a color filter array and the like disposed in the image sensor 118.
  • the color filter array arranged in the image sensor 118 includes 4 ⁇ 4 light receiving cells in the basic block B (the block indicated by the thick frame in the part (a) of FIG. ), And the basic block B is repeatedly arranged in the horizontal direction and the vertical direction.
  • the image sensor 118 has unit blocks (four types of unit blocks B1 to B4) in which 3 ⁇ 3 light receiving cells are allocated per microlens 16a. Adjacent unit blocks overlap each other within the range of one light receiving cell.
  • the four unit blocks B1 to B4 shown in part (b) of FIG. 10 have the same color filter array as the four unit blocks B1 to B4 shown in part (b) of FIG.
  • the image of the center light receiving cell group is a Bayer array mosaic image.
  • each central light receiving cell of the unit blocks B1 to B4 four light receiving cells at the four corners of each unit block B1 to B4 are arranged with the G light receiving cells.
  • R light receiving cells are arranged in the two upper and lower light receiving cells with the light receiving cell in between, and B light receiving cells are arranged in the two left and right light receiving cells with the center light receiving cell in between.
  • the RGB light receiving cells of the light receiving cells are arranged uniformly in the surrounding direction.
  • the second embodiment of the imaging apparatus of the present invention when the number of light receiving cells of the image sensor 118 is M and the number of pixels of the wide-angle image and the telephoto image obtained from the image sensor is N,
  • FIG. 11A and FIG. 11B are diagrams showing a first modification of the second embodiment, respectively.
  • the first modification of the second embodiment is a color of an image sensor.
  • the filter arrangement is different from that of the second embodiment.
  • the image sensor 218 shown in part (a) of FIG. 11 uses 4 ⁇ 4 light receiving cells as basic blocks B (blocks indicated by thick frames in part (a) of FIG. 11). It is configured to be repeatedly arranged in the vertical direction.
  • the image sensor 218 includes unit blocks (four types of unit blocks B1 to B4) in which 3 ⁇ 3 light receiving cells are allocated per microlens 16a. Adjacent unit blocks overlap each other within the range of one light receiving cell.
  • the eight light receiving cells around the four unit blocks B1 to B4 are all two R light receiving cells, four G light receiving cells, and two B light receiving cells. have.
  • the unit blocks B1 and B4 whose center is the G light receiving cell have two patterns in which the arrangement of the R light receiving cell and the B light receiving cell is different.
  • FIGS. 12A and 12B are diagrams showing a second modification of the second embodiment, respectively.
  • the second modification of the second embodiment is a color of an image sensor.
  • the filter arrangement is different from the previous embodiment.
  • the image sensor 318 shown in part (a) of FIG. 12 uses 4 ⁇ 4 light receiving cells as basic blocks B (blocks indicated by thick frames in part (a) of FIG. 12). It is configured to be repeatedly arranged in the vertical direction.
  • one set of 2 ⁇ 2 R light receiving cells is included in the basic block B, and 2 ⁇ 2 G light receiving cells are included.
  • the image sensor 318 has unit blocks (4 types of unit blocks B1 to B4) in which 3 ⁇ 3 light receiving cells are allocated per microlens 16a. Adjacent unit blocks overlap each other within the range of one light receiving cell.
  • the eight light receiving cells around the unit blocks B1 and B4 whose center is the G light receiving cell among the four unit blocks B1 to B4 are two R light receiving cells and four.
  • G light receiving cells and two B light receiving cells, and the eight light receiving cells around the unit block B2 having the R light receiving cell at the center are three R light receiving cells, four G light receiving cells, and 1
  • the eight light receiving cells around the unit block B3 having the B light receiving cell at the center have one R light receiving cell, four G light receiving cells, and three B light receiving cells.
  • the color balance of the RGB light receiving cells is lower than that of the first modification of the second embodiment.
  • Part (a) and part (b) of FIG. 13 are views showing a third modification of the second embodiment, and in particular, the third modification of the second embodiment is the color of the image sensor.
  • the filter arrangement is different from the previous embodiment.
  • the image sensor 418 shown in the part (a) of FIG. 13 uses the square lattice-like 4 ⁇ 4 light receiving cells as the basic block B (the block indicated by the thick frame in the part (a) of FIG. 13). Are repeatedly arranged in the horizontal direction and the vertical direction.
  • a set of 2 ⁇ 2 G light receiving cells exists in the basic block B as shown in FIG.
  • the manufacturing process is simplified and interference can be reduced.
  • the image sensor 418 has unit blocks (four types of unit blocks B1 to B4) in which 3 ⁇ 3 light receiving cells are allocated per microlens 16a. Adjacent unit blocks overlap each other within the range of one light receiving cell.
  • the eight light receiving cells around the unit blocks B1 and B4 having the G light receiving cell at the center among the four unit blocks B1 to B4 are composed of two R light receiving cells and four R light receiving cells.
  • the G light receiving cells and the two B light receiving cells, the eight light receiving cells around the unit block B2 having the R light receiving cell at the center are one R light receiving cell, four G light receiving cells, and 3
  • the eight light receiving cells around the unit block B3 having the B light receiving cell at the center have three R light receiving cells, four G light receiving cells, and one B light receiving cell.
  • the color balance of the RGB light receiving cells is lower than that of the first modification of the second embodiment.
  • the imaging apparatus according to the third embodiment is different from the first and second embodiments mainly in a variety of lenses, an array lens, and an image sensor, and the differences will be described below.
  • the various lenses instead of the above-described various lenses 12 from which the central pupil image 17a and the annular pupil image 17b shown in the portion (a) of FIG. 14 are obtained, the central pupil image 517a shown in the portion (b) of FIG. What uses the annular pupil image 517b is used.
  • the various lenses from which the central pupil image 517a and the annular pupil image 517b shown in part (b) of FIG. 14 are obtained are configured by shielding a part of the annular optical system 14 of the various lenses 12 shown in FIG. can do.
  • the annular optical system corresponding to the annular pupil image 517b can be configured by forming partial openings only in the upper, lower, left and right directions and shielding the other portions. As a result, a partially missing annular pupil image 517b is obtained.
  • the ring is formed only in the upper, lower, left and right peripheral portions (positions corresponding to the partial opening of the ring optical system)
  • Four optical systems having the same characteristics as the optical system may be arranged.
  • the microlenses of the array lens are staggered with respect to the light receiving cells 518a arranged in a grid pattern of the image sensor 518 as shown in FIG. 14 (c).
  • the pupil image formed on the image sensor by each microlens of the array lens is made incident on 3 ⁇ 3 light receiving cells.
  • the annular pupil image 517b lacks a portion overlapping the adjacent central pupil image 517a, the central pupil image 517a and the annular pupil image 517b do not overlap on the image sensor 518.
  • FIG. 14 part of FIG. 14 is a figure which shows the color filter arrangement
  • the color filter array arranged in the image sensor 518 includes 4 ⁇ 4 light receiving cells in the basic block B (the block indicated by the thick frame in FIG. 14D). ), And the basic block B is repeatedly arranged in the horizontal direction and the vertical direction.
  • the light receiving cell indicated by a thick frame corresponds to the light receiving cell at the center of 3 ⁇ 3 light receiving cells corresponding to one microlens.
  • the image of the group of light receiving cells in the center of the 3 ⁇ 3 light receiving cells corresponding to each microlens of the array lens arranged in a staggered manner is a mosaic image in which RGB light receiving cells are arranged in a staggered manner.
  • the mosaic image in which the RGB light receiving cells are arranged in a staggered manner has alternating G lines in which G light receiving cells are continuous in the horizontal direction and BR lines in which B light receiving cells and R light receiving cells are alternately arranged. Arranged.
  • four light receiving cells on the top, bottom, left, and right sides sandwiching the light receiving cell in the center of the 3 ⁇ 3 light receiving cells include RGB light receiving cells. That is, the upper and lower light receiving cells sandwiching the central G light receiving cell are G light receiving cells, and the left and right light receiving cells sandwiching the central G light receiving cell are the R light receiving cell and the B light receiving cell.
  • the upper and lower light receiving cells sandwiching the R or B center light receiving cell are the R light receiving cell and the B light receiving cell, and the left and right light receiving cells sandwiching the center R or B light receiving cell are the G light receiving cells.
  • the four light receiving cells corresponding to the annular pupil image 517b (portion (b) in FIG. 14) in which partial openings are formed only in the four directions, up, down, left, and right, are uniformly assigned RGB light receiving cells.
  • pixel signals in all wavelength ranges are obtained from the four light receiving cells on the top, bottom, left, and right across the center light receiving cell among the five light receiving cells corresponding to one microlens. be able to.
  • FIGS. 15 and 16 a fourth embodiment of the imaging apparatus according to the present invention will be described with reference to FIGS. 15 and 16.
  • the imaging apparatus of the fourth embodiment is different from the first, second, and third embodiments mainly in a variety of lenses, an array lens, and an image sensor, and the differences will be described below.
  • the various lenses instead of the various lenses 12 for obtaining the central pupil image 17a and the annular pupil image 17b shown in the portion (a) of FIG. 15, the central pupil image 617a and the annular pupil shown in the portion (b) of FIG. An image from which images 617b and 617c are obtained is used.
  • the annular optical system among the various lenses including the central optical system and the annular optical system divided concentrically is only six directions whose directions are different by 60 degrees around the central optical system corresponding to the central pupil image 617a.
  • two sets of optical systems (a third optical system and a fourth optical system) disposed in the openings corresponding to the 120 ° three-way annular pupil image 617b and the annular pupil image 617c. ).
  • the central optical system corresponding to the central pupil image 617a is a wide-angle optical system
  • the third optical system and the fourth optical system corresponding to the annular pupil image 617b and the annular pupil image 617c are respectively These are two types of telephoto optical systems having different focal lengths.
  • the light receiving cells 618a are arranged in a hexagonal lattice pattern as shown in a part (c) of FIG.
  • the microlenses of the array lens are arranged in a staggered manner with respect to the respective light receiving cells 618a arranged in a hexagonal lattice pattern of the image sensor 618 as shown in part (c) of FIG. It is assumed that every other one is arranged, and every other two are arranged in the vertical direction.
  • the central pupil image 617a formed on the image sensor 618 by each microlens of the array lens is incident on one light receiving cell corresponding to the center position of each microlens
  • the annular pupil image) and the annular pupil image 617c (second annular pupil image) are each composed of six light receiving cells (one located in three directions of 120 degrees) around one light receiving cell corresponding to the center position of each microlens. X2 light receiving cell).
  • the annular pupil image 617b and the annular pupil image 617c overlap with the adjacent annular pupil image 617b and annular pupil image 617c on the image sensor 618, respectively.
  • the image 617c does not overlap.
  • the third optical system and the fourth optical system corresponding to the annular pupil image 617b and the annular pupil image 617c are two types of telephoto optical systems having different focal lengths.
  • two telephoto optical systems having different shooting distances (focus positions) may be used.
  • 16 (a) to 16 (f) are diagrams each showing a color filter array disposed in the image sensor 618.
  • FIG. 16 (a) to 16 (f) are diagrams each showing a color filter array disposed in the image sensor 618.
  • the color filter array shown in part (a) of FIG. 16 is configured by using the nine light receiving cells shown in the upper left as basic blocks, and the basic blocks are repeatedly arranged in the horizontal and vertical directions.
  • the light receiving cell indicated by a thick frame is the central light receiving cell among the seven light receiving cells (one central light receiving cell and six surrounding light receiving cells) corresponding to one microlens. Correspond.
  • the image of the group of light receiving cells in the center of the seven light receiving cells corresponding to each microlens of the array lens arranged in a staggered manner is a mosaic image in which RGB light receiving cells are arranged in a staggered manner, and RGB images are arranged on each horizontal line. Light receiving cells.
  • three light receiving cells located in three directions at 120 degrees corresponding to the 120 degree three-way annular pupil image 617b each have one RGB light receiving cell.
  • three light receiving cells located at 120 degrees in three directions corresponding to the 120 degree three-way annular pupil image 617c are also assigned one RGB light receiving cell.
  • pixel signals in all wavelength ranges can be obtained from the surrounding six light receiving cells among the seven light receiving cells corresponding to one microlens.
  • color filter array shown in the (b) to (f) portions of FIG. 16 is also similar to the color filter array shown in the (a) portion of FIG. Two sets of pixel signals in all wavelength regions can be obtained from the six light receiving cells around the cell.
  • FIG. 17 is a cross-sectional view showing a second embodiment of a variety of lenses applicable to the imaging device 10 (imaging module 11).
  • the various lenses 112 are each composed of a central optical system 113 at the center and an annular optical system 114 at the periphery thereof arranged on the same optical axis.
  • the central optical system 113 is a telephoto optical system including a first lens 113a, a second lens 113b, and a common lens 115, and has an angle of view ⁇ .
  • the annular optical system 114 is a wide-angle optical system including a lens 114 a and a common lens 115, has an angle of view ⁇ ( ⁇ > ⁇ ), and is wider than the central optical system 113.
  • the various lenses 112 do not use a reflecting mirror
  • the central optical system 113 is a telephoto optical system
  • the annular optical system 114 is a wide-angle optical system. It is different in point.
  • imaging device 10 includes, for example, a mobile phone or smartphone having a camera function, a PDA (Personal Digital Assistant), and a portable game machine.
  • a smartphone will be described as an example, and will be described in detail with reference to the drawings.
  • FIG. 18 shows an appearance of a smartphone 500 that is another embodiment of the imaging apparatus 10.
  • a smartphone 500 illustrated in FIG. 18 includes a flat housing 502, and a display input in which a display panel 521 as a display unit and an operation panel 522 as an input unit are integrated on one surface of the housing 502. Part 520.
  • the housing 502 includes a speaker 531, a microphone 532, an operation unit 540, and a camera unit 541.
  • the configuration of the housing 502 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent, or a configuration having a folding structure and a slide mechanism can be employed.
  • FIG. 19 is a block diagram showing a configuration of the smartphone 500 shown in FIG.
  • the main components of the smartphone 500 include a wireless communication unit 510, a display input unit 520, a call unit 530, an operation unit 540, a camera unit 541, a storage unit 550, and an external input / output.
  • Unit 560 GPS (Global Positioning System) reception unit 570, motion sensor unit 580, power supply unit 590, and main control unit 501.
  • a wireless communication function for performing mobile wireless communication via the base station device BS and the mobile communication network NW is provided as a main function of the smartphone 500.
  • the wireless communication unit 510 performs wireless communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 501. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.
  • the display input unit 520 displays images (still images and moving images), character information, and the like visually by the control of the main control unit 501, and visually transmits information to the user, and detects user operations on the displayed information.
  • This is a so-called touch panel, and includes a display panel 521 and an operation panel 522.
  • the display panel 521 is preferably a 3D display panel.
  • the display panel 521 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • the operation panel 522 is a device that is placed so that an image displayed on the display surface of the display panel 521 is visible and detects one or a plurality of coordinates operated by a user's finger or stylus.
  • a detection signal generated due to the operation is output to the main control unit 501.
  • the main control unit 501 detects an operation position (coordinates) on the display panel 521 based on the received detection signal.
  • the display panel 521 and the operation panel 522 of the smartphone 500 integrally form the display input unit 520, but the operation panel 522 is disposed so as to completely cover the display panel 521. ing.
  • the operation panel 522 may have a function of detecting a user operation even in an area outside the display panel 521.
  • the operation panel 522 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 521 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 521. May be included).
  • the size of the display area and the size of the display panel 521 may be completely matched, but it is not always necessary to match the two.
  • the operation panel 522 may include two sensitive regions of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like.
  • examples of the position detection method employed in the operation panel 522 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. You can also
  • the call unit 530 includes a speaker 531 and a microphone 532, and converts a user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501, and outputs the voice data to the main control unit 501, or a wireless communication unit 510 or the audio data received by the external input / output unit 560 is decoded and output from the speaker 531.
  • the speaker 531 and the microphone 532 can be mounted on the same surface as the surface on which the display input unit 520 is provided.
  • the operation unit 540 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 540 is mounted on a lower portion and a lower side of the display unit of the housing 502 of the smartphone 500 and is turned on when pressed with a finger or the like, and is turned off when a finger is released with a restoring force such as a spring. It is a button type switch.
  • the storage unit 550 includes control programs and control data of the main control unit 501, address data in which names and telephone numbers of communication partners are associated, transmitted and received e-mail data, Web data downloaded by Web browsing, and downloaded contents Data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 550 includes an internal storage unit 551 with a built-in smartphone and an external storage unit 552 having a removable external memory slot.
  • Each of the internal storage unit 551 and the external storage unit 552 constituting the storage unit 550 includes a flash memory type (flash memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), It is realized using a storage medium such as a card type memory (for example, Micro SD (registered trademark) memory), RAM (Random Access Memory), ROM (Read Only Memory), or the like.
  • flash memory type flash memory type
  • hard disk type hard disk type
  • multimedia card micro type multimedia card micro type
  • a storage medium such as a card type memory (for example, Micro SD (registered trademark) memory), RAM (Random Access Memory), ROM (Read Only Memory), or the like.
  • the external input / output unit 560 serves as an interface with all external devices connected to the smartphone 500, and communicates with other external devices (for example, universal serial bus (USB), IEEE1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE1394, etc.
  • a network for example, the Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark), ZigBee ( ZigBee) (registered trademark, etc.) for direct or indirect connection.
  • Examples of the external device connected to the smartphone 500 include a memory card connected via a wired / wireless headset, wired / wireless external charger, wired / wireless data port, card socket, and SIM (Subscriber).
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video equipment connected via audio / video I / O (Input / Output) terminal
  • external audio / video equipment connected wirelessly, yes / no
  • the external input / output unit may transmit data received from such an external device to each component inside the smartphone 500, or may allow data inside the smartphone 500 to be transmitted to the external device. it can.
  • the GPS receiving unit 570 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 501, performs positioning calculation processing based on the received GPS signals, and calculates the latitude of the smartphone 500, A position consisting of longitude and altitude is detected.
  • the GPS receiving unit 570 can acquire position information from the wireless communication unit 510 or the external input / output unit 560 (for example, a wireless LAN), the GPS receiving unit 570 can also detect the position using the position information.
  • the motion sensor unit 580 includes, for example, a three-axis acceleration sensor, and detects the physical movement of the smartphone 500 in accordance with an instruction from the main control unit 501. By detecting the physical movement of the smartphone 500, the moving direction and acceleration of the smartphone 500 are detected. This detection result is output to the main control unit 501.
  • the power supply unit 590 supplies power stored in a battery (not shown) to each unit of the smartphone 500 in accordance with an instruction from the main control unit 501.
  • the main control unit 501 includes a microprocessor, operates according to a control program and control data stored in the storage unit 550, and controls each unit of the smartphone 500 in an integrated manner. Further, the main control unit 501 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 510.
  • the application processing function is realized by the main control unit 501 operating in accordance with application software stored in the storage unit 550.
  • Application processing functions include, for example, an infrared communication function that controls the external input / output unit 560 to perform data communication with the opposite device, an e-mail function that transmits and receives e-mails, and a web browsing function that browses web pages. .
  • the main control unit 501 has an image processing function such as displaying video on the display input unit 520 based on image data (still image data or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 501 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 520.
  • the main control unit 501 executes display control for the display panel 521 and operation detection control for detecting a user operation through the operation unit 540 and the operation panel 522.
  • the main control unit 501 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 521.
  • the main control unit 501 detects a user operation through the operation unit 540, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 522. Or a display image scroll request through a scroll bar.
  • the main control unit 501 causes the operation position with respect to the operation panel 522 to overlap with the display panel 521 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 521.
  • a touch panel control function for controlling the sensitive area of the operation panel 522 and the display position of the software key.
  • the main control unit 501 can also detect a gesture operation on the operation panel 522 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 541 is a digital camera that performs electronic photography using an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device).
  • the imaging device 10 or the imaging module 11 described above can be applied to the camera unit 541.
  • a wide-angle image and a telephoto image can be taken without requiring a mechanical switching mechanism or the like, which is suitable as a camera unit incorporated in a thin portable terminal like the smartphone 500.
  • the camera unit 541 converts image data obtained by shooting into compressed image data such as JPEG (JointoPhotographic coding Experts Group) under the control of the main control unit 501, and records the data in the storage unit 550.
  • the data can be output through the external input / output unit 560 and the wireless communication unit 510.
  • the camera unit 541 is mounted on the same surface as the display input unit 520, but the mounting position of the camera unit 541 is not limited to this and may be mounted on the back surface of the display input unit 520. Alternatively, a plurality of camera units 541 may be mounted. Note that when a plurality of camera units 541 are mounted, the camera unit 541 used for shooting can be switched to shoot alone, or a plurality of camera units 541 can be used simultaneously for shooting.
  • the camera unit 541 can be used for various functions of the smartphone 500.
  • an image acquired by the camera unit 541 can be displayed on the display panel 521, or the image of the camera unit 541 can be used as one of operation inputs of the operation panel 522.
  • the GPS receiving unit 570 detects the position, the position can also be detected with reference to an image from the camera unit 541.
  • the optical axis direction of the camera unit 541 of the smartphone 500 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 541 can be used in the application software.
  • the light receiving cells of three colors of RGB are assigned to each microlens as pixels for each wavelength region for generating at least one image among a plurality of images that are simultaneously imaged.
  • color image sensors that obtain one output from a plurality of wavelengths include two color image sensors in addition to three color (RGB, etc.) color image sensors, so two light receiving cells are provided for each microlens. You may make it allocate.
  • Different light receiving cells are assigned to detect two types of wavelengths (two-color sensing), and one light receiving cell is assigned to the second group to detect one type of wavelength.
  • the effective data sampling number of the first group two-color sensing
  • the sampling number of the second group can also be made equal to the number of microlenses. it can.
  • a light receiving cell that outputs a pixel signal for each wavelength region for generating one image instead of any light receiving cell of RGB light receiving cell or in addition to RGB light receiving cell, transparent (white)
  • a light receiving cell having a color filter corresponding to another color such as an emerald color may be allocated.
  • a light receiving cell having a filter that cuts visible light and transmits only infrared light may be allocated, and according to this, an infrared image can be acquired.
  • one of the central optical system and the annular optical system is a wide-angle optical system, and the other is a telephoto optical system.
  • the present invention is not limited to this.
  • Various optical systems such as an optical system and two types of optical systems having different spatial frequency characteristics (blur) can be considered.
  • an optical system in which a plurality of optical systems having different characteristics are concentrically divided is used. Good.
  • the reflecting mirror in the reflecting mirror type lens configuration of the various lenses 12 shown in FIG. 3 is not limited to a concave mirror or a convex mirror, and may be a plane mirror. Also, the number of reflecting mirrors is not limited to two, but three You may make it provide above.
  • a common lens for the central optical system and the annular optical system, or a moving mechanism for moving the image sensor in the optical axis direction may be provided, and thereby focus adjustment may be performed.
  • the array lens 16 is used as the pupil dividing means.
  • the present invention is not limited to this, and a pinhole is provided at the position of each microlens 16a of the array lens 16, and pupil images of various lenses are obtained by each pinhole.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

本発明は、同時に撮像される特性の異なる複数の画像の画質及び解像度の向上を図ることができる撮像モジュール及び撮像装置を提供する。本発明は、光軸を共通にする中央光学系(広角レンズ)と、環状光学系(望遠レンズ)とからなる多様レンズと、イメージセンサ(18)と、イメージセンサ(18)の入射面側に配設され、マイクロレンズ(瞳結像レンズ)から構成されたアレイレンズとを備えた撮像装置に関する。本発明の好ましい態様では、アレイレンズの1マイクロレンズ当たりに割り付けられる3×3個の受光セルからなる単位ブロックB毎の瞳像に基づいて特性の異なる2つの画像が生成される。単位ブロックBは、2つの画像のうちの一方の画像に対応する周囲8個の受光セルを有し、単位ブロック内の周囲8個の受光セルは、1つの画像を生成するために必要な全ての波長域のRGBの画素信号を出力するように構成されている。

Description

撮像モジュール及び撮像装置
 本発明は撮像モジュール及び撮像装置に関し、特に特性の異なる複数の画像を同時に撮像することができる撮像モジュール及び撮像装置に関する。
 従来、図20に示すように同一の光軸上に配置された中央部の中央光学系(広角レンズ)1aと、その周辺部の環状光学系(望遠レンズ)1bであって、中央光学系1aとは特性の異なる環状光学系1bとからなる撮影光学系1と、イメージセンサ3と、イメージセンサ3の入射面側に配設された複数のマイクロレンズ(瞳結像レンズ)から構成されたアレイレンズ2であって、各マイクロレンズにより撮影光学系の瞳像をイメージセンサ3上に結像させるアレイレンズ2と、を備えた撮像装置が提案されている(特許文献1)。
 上記撮影光学系1の像面はアレイレンズ2上にあり、アレイレンズ2が撮影光学系1の瞳像をイメージセンサ3上に結像させる。
 図21は、イメージセンサ3上の1つの受光セル3aと、アレイレンズ2の1つのマイクロレンズがイメージセンサ3上に結像させる撮影光学系1の瞳像とを示している。この瞳像は、中央光学系1aに対応する中央瞳像(広角レンズ成分)と、環状光学系1bに対応する環状瞳像(望遠レンズ成分)とを有している。
 図22の(a)部分は、1つのマイクロレンズ当たりに、イメージセンサ3の5×5の受光セル3aを割り付けた一例を示す。
 図22の(a)部分に示すように、5×5の25個の受光セル群毎に、その中央部の受光セルに中央瞳像(広角レンズ成分)が受光し、その周辺部の受光セルに環状瞳像(望遠レンズ成分)が受光する。
 25個の受光セル群毎に、広角レンズ成分を受光する受光セルから広角画像の1画素分の画像信号が生成され、同様に望遠レンズ成分を受光する受光セルから望遠画像の1画素分の画像信号が生成され、これにより図22の(b)部分及び(c)部分に示すように広角レンズに対応する広角画像と、望遠レンズに対応する望遠画像とが得られる。
 図22に示す例では、イメージセンサ3の受光セル数と、イメージセンサ3から得られる広角画像及び望遠画像の画素数との関係は、受光セル数:画素数(×画像数)=25:1(×2)となる。
 図22に示すように1つのマイクロレンズ当たりにイメージセンサ3の5×5の受光セル3aを割り付けると、イメージセンサ3の受光セル数に比べてイメージセンサ3から得られる特性の異なる画像(上記の例では、広角画像と望遠画像)の画素数が大幅に低下するという問題がある。
 イメージセンサ3から得られる特性の異なる画像の画素数の低下を抑える最もシンプルな方法は、1つのマイクロレンズ当たりに割り付ける受光セルの数(割付数)を減らすことである。割付数を減らした分だけ、取り出すことができる特性の異なる画像の画素数を増やすことができる。
 図23の(a)部分及び(b)部分は、それぞれ1つのマイクロレンズ当たりにイメージセンサ3の5×5の受光セル3aを割り付けた例と、3×3の受光セル3aを割り付けた例とを示している。
 即ち、撮影光学系を同心円分割にした場合、アレイレンズの1マイクロレンズ当たりに割り付けることができる受光セルの割付数は、3×3が限界となっており、この場合のイメージセンサ3の受光セル数と、イメージセンサ3から得られる広角画像又は望遠画像の画素数との関係は、受光セル数:画素数=9:1となる。
 ところで、特許文献1には、カラー画像を撮像すべく、予め定められたパターンで受光素子にカラーフィルタが配列されている旨の記載があるが、具体的なカラーフィルタ配列に関する記載はない。
 一方、特許文献2、3には、一般的な撮像レンズと、イメージセンサの入射面側に配設されたアレイレンズ(マイクロレンズアレイ)とを使用し、撮像レンズの通過光線を、レンズアレイによって複数の視点からの光線に分離しつつ、イメージセンサの各受光セルに入射させ、受光量に基づく画素信号を取得する撮像装置が記載されている。
 特許文献2、3には、1つのマイクロレンズを通過した光線が、3×3個の受光セルに受光される記載があり、更にイメージセンサ上には、ベイヤ配列のカラーフィルタが設けられ、受光セル毎に赤(R)、緑(G)、青(B)のいずれかのカラーフィルタが設けられている記載がある。
 各マイクロレンズに対応する3×3個の受光セルから同一位置の受光セルの出力信号を抽出して画像を再構成することにより、9つの視点画像を生成することができるが、このようにして生成された視点画像もベイヤ配列のカラー画像(モザイク画像)になる(特許文献2の図11参照)。
 瞳分割手段の一例としては、受光セル毎に設けたマイクロレンズと遮光マスクとにより、多様レンズの特性の異なる各領域を通過した光束を、異なる受光セルに入射させるものが挙げられる(特許文献4)。
特開2012-253670号公報 特開2013-90059号公報 特開2013-115532号公報 特開2012-253670号公報
 いま、特許文献1に記載の撮像装置において、図24の(a)部分に示すように特許文献2、3に記載のような一般的なベイヤ配列を有するイメージセンサを適用し、かつ3×3の受光セルを1つのマイクロレンズに割り付けた構成の撮像装置について考察する。尚、この構成を有する撮像装置は公知のものではない。
 図24の(a)部分に示したイメージセンサ及びアレイレンズは、格子状の6×6の受光セル(2×2のアレイレンズ)を基本ブロックとし、この基本ブロックが水平方向及び垂直方向に繰り返し配置されて構成されている。
 図24の(b)部分は基本ブロックを示しており、基本ブロックは、1つのマイクロレンズと、その1つのマイクロレンズ当たり3×3の受光セルとを単位ブロックとして、4つの単位ブロックから構成されている。
 図24の(c1)部分及び(c2)部分は、それぞれ単位ブロック(3×3)の中央の受光セル(図20に示した中央光学系1aを通過した光束が入射する受光セル)のグループと、周囲の8個の受光セル(図20に示した環状光学系1bを通過した光束が入射する受光セル)のグループとを示す。
 図24の(c1)部分に示すように中央の受光セルのグループの画像は、ベイヤ配列のモザイク画像となる。これにより、ベイヤ配列のモザイク画像をデモザイク処理(同時化処理ともいう)することにより、問題なくカラー画像を得ることができる。
 一方、図24の(c2)部分に示すように周囲の8個の受光セルのグループは、RGBの全ての受光セルを含む8個の受光セルと、Rの受光セルが無い8個の受光セルと、Bの受光セルが無い8個の受光セルとが混在し、RGBの受光セルの配置としてバランスを欠いたものとなる。
 具体的には、中央の受光セルがGの受光セルである3×3の受光セルの周囲の8個の受光セルは、2個のRの受光セル、4個のGの受光セル、2個のBの受光セルを有し、RGBのすべての色情報がある。
 一方、中央の受光セルがRである3×3の受光セルの周囲の8個の受光セルは、4個のGの受光セル、4個のBの受光セルを有し、Rの受光セルが無く、同様に中央の受光セルがBである3×3の受光セルの周囲の8個の受光セルは、4個のRの受光セル、4個のGの受光セルを有し、Bの受光セルが無い。
 従って、Rの受光セル、又はBの受光セルがない3×3の受光セルの周囲の8個の受光セルは、隣接する単位ブロックで獲得されるRの受光セル、又はBの受光セルを使って補完するなどの処理が必要となり、手間がかかる上に、周囲8個の受光セルのグループにより生成される画像の解像性能が低下するという問題が生じる。
 また、前述したように撮影光学系を同心円分割にした場合、アレイレンズの1マイクロレンズ当たりに割り付けることができる受光セルの割付数は、3×3が限界となっており、同時に撮像される特性の異なる画像の画素数が低減するという問題がある。
 本発明はこのような事情に鑑みてなされたもので、同時に撮像される特性の異なる複数の画像の画質及び解像度の向上を図ることができる撮像モジュール及び撮像装置を提供することを目的とする。
 上記目的を達成するために本発明の一の態様に係る撮像モジュールは、特性が異なるX(Xは2以上の整数)個の被写体像を同時に撮像し、X個の被写体像の少なくとも1つの被写体像に対し、複数の波長域の画素信号を出力する撮像モジュールであって、被写体光が入射するX個の領域を有し、X個の領域毎に特性が異なる被写体像を同じ像面で重ねて結像させる多様レンズと、多様レンズの瞳像をX個の領域毎に分割する瞳分割手段と、瞳分割手段によって分割されたX個の瞳像をそれぞれ受光するX個の受光領域に対応して配設されたY(X+1以上の整数)個の光電変換器と、を備え、X個の受光領域のうちの少なくとも1つの受光領域には、複数の光電変換器が配設され、1つの受光領域に配設された複数の光電変換器は、複数の波長域の画素信号を出力する。
 本発明の一の態様によれば、X個の領域毎に特性が異なる多様レンズの瞳像であって、瞳分割手段によって分割されたX個の瞳像を、X個の受光領域に対応して配設されたY(X+1以上の整数)個の光電変換器に入射させるようにしている。そして、X個の受光領域のうちの少なくとも1つの受光領域には複数の光電変換器を配設し、複数の光電変換器は複数の波長域の画素信号を出力するため、同時に撮像される特性の異なるX枚の画像のうちの少なくとも1つの画像については、1つの瞳像に対応する複数の光電変換器から複数の波長域の画素信号を取得することができ、1画素当たりの解像度を向上させることができる。
 本発明の他の態様に係る撮像モジュールにおいて、1つの受光領域に配設された複数の光電変換器は、複数の波長域の情報からなる画像を構成する画素を生成するために必要な全ての波長域の画素信号を出力することが好ましい。
 1つの受光領域に配設された複数の光電変換器は、複数の波長域の情報からなる画像を構成する画素を生成するために必要な全ての波長域の画素信号を出力するため、X個の画像のうちの少なくとも1つの画像については、1つの受光領域に配設された複数の光電変換器からの画素信号のみを使用して、デモザイク処理された1画素の画像信号を得ることができる。
 逆に、1つの受光領域に配設された複数の光電変換器から出力される複数の画素信号内に、複数の波長域の情報からなる画像を構成する画素を生成するために必要な全ての波長域の画素信号が含まれていない場合(特定の波長域の画素信号が欠落している場合)には、周囲のY個の光電変換器から出力される画素信号(特定の波長域の画素信号)を補間して特定の波長域の画素信号を生成する必要があり、この場合には、出力画像の解像度(実質的な画素数)が低下するという問題が生じるが、本発明の他の態様によれば、このような問題を解消することができる。
 本発明の更に他の態様に係る撮像モジュールにおいて、瞳分割手段は、2次元状に配列されたマイクロレンズから構成されたアレイレンズであって、光電変換器の入射面側に配設され、各マイクロレンズにより多様レンズの瞳像をY個の光電変換器に入射させるアレイレンズであることが好ましい。
 本発明の他の態様に係る撮像モジュールにおいて、瞳分割手段及びY個の光電変換器を単位ブロックとすると、1つの受光領域に配設された複数の光電変換器は、同じ波長域の画素信号を出力する2以上の光電変換器を含み、2以上の光電変換器は、単位ブロックの中心に対して対称位置に配置されていることが好ましい。
 本発明の更に他の態様に係る撮像モジュールにおいて、1つの受光領域に配設された複数の光電変換器は、赤(R)、緑(G)、及び青(B)の波長域毎の画素信号を出力する。これにより、1つの受光領域に配設された複数の光電変換器から全ての色情報を取得することができ、高精細なカラー画像を生成することができる。
 本発明の更に他の態様に係る撮像モジュールにおいて、多様レンズは、中央の第1の光学系と、第1の光学系の周辺部に設けられ、第1の光学系とは特性が異なる第2の光学系とからなるものが好ましい。中央の第1の光学系と第1の光学系の周辺部に設けられた第2の光学系とにより構成された多様レンズは、例えば、上下に分割した光学系からなる撮影光学系に比べてレンズ性能が優れたものになる。
 本発明の更に他の態様に係る撮像モジュールにおいて、多様レンズは、第1の光学系及び第2の光学系のうちの一方が広角光学系であり、他方が望遠光学系である。これにより、1回の撮像により広角画像と、望遠画像とを同時に取得することができる。
 本発明の更に他の態様に係る撮像モジュールにおいて、多様レンズの第1の光学系は円形の中央光学系であり、第2の光学系は中央光学系に対して同心円状に配設された環状光学系であることが好ましい。
 本発明の更に他の態様に係る撮像モジュールにおいて、多様レンズの第1の光学系は円形の中央光学系であり、第2の光学系は中央光学系に対して同心円状に配設された環状光学系であり、瞳分割手段及びY個の光電変換器を単位ブロックとすると、単位ブロックは、格子状に配列された3×3個の光電変換器を有し、中央光学系に対応する中央瞳像は、単位ブロックの中央の光電変換器に入射し、環状光学系に対応する環状瞳像は、単位ブロックの周囲の8個の光電変換器に入射することが好ましい。
 本発明の更に他の態様に係る撮像モジュールにおいて、単位ブロックの中央の光電変換器は、赤(R)、緑(G)及び青(B)の波長域の画素信号のうちのいずれか1つの画素信号を出力し、かつ複数の単位ブロックの中央の光電変換器は、R、G及びBの波長域の画素信号を出力する光電変換器が周期的に配列されていることが好ましい。これにより、3×3個の光電変換器の中央の光電変換器から出力される画素信号は、R、G及びBの波長域の画素信号を含み、1つの画像を生成するために必要な全ての波長域の画素信号を得ることができる。
 本発明の更に他の態様に係る撮像モジュールにおいて、単位ブロックの周囲の8個の光電変換器は、Gの波長域の画素信号を出力する4個の光電変換器と、Rの波長域の画素信号を出力する2個の光電変換器と、Bの波長域の画素信号を出力する2個の光電変換器とからなることが好ましい。これにより、RGBの画素信号の個数の比率は、1:2:1になり、輝度信号を得るために最も寄与するGの光電変換器を多く配置することができる。
 本発明の更に他の態様に係る撮像モジュールにおいて、格子状に配列された6×6個の光電変換器を基本ブロックとし、基本ブロックが水平方向及び垂直方向に繰り返し配置されてイメージセンサが構成されていることが好ましい。6×6個の光電変換器の基本ブロックが水平方向及び垂直方向に繰り返されているため、後段でのデモザイク処理等の画像処理を行う際に、繰り返しパターンにしたがって処理を行うことができる。
 本発明の更に他の態様に係る撮像モジュールにおいて、アレイレンズは、各マイクロレンズにより光電変換器上にそれぞれ入射させる瞳像のうち、互いに隣り合う瞳像の一部同士を光電変換器上で重複させることが好ましい。
 アレイレンズの1マイクロレンズ当たりに割り付ける光電変換器の割付数を、3×3よりも少ない割り付けにすると、隣接するマイクロレンズの瞳像同士が重なり始める(クロストークが発生する)。一般にクロストークが発生している光電変換器からは、光線空間(ライトフィールド)を取り出すことができず、特許文献2、3のように各瞳像から同じ視点位置に対応する画素信号を1つずつ取り出し、画像を再構成する場合には、正しい画像が生成できなくなる。
 しかしながら、本発明の場合、同時に撮像される特性の異なるX枚の画像の画素信号を取得することができればよいため、少なくともX個の受光領域(異なる受光領域)に対応する瞳像同士が重ならなければよい。即ち、互いに隣り合う瞳像の一部同士が光電変換器上で重複しても、同じ特性の瞳像の近傍の像が重なるだけであり、多少の特性変化はあるが、画像として破綻することはない。
 このように、アレイレンズは、互いに隣り合う瞳像の一部同士が光電変換器上で重複させるため、アレイレンズの1マイクロレンズ当たりに実質的に割り付けられる光電変換器の割付数を3×3よりも少なくすることができ、その結果、同時に撮像される特性の異なる画像の画素数を増加させることができる。
 本発明の更に他の態様に係る撮像モジュールにおいて、多様レンズは、中央の第1の光学系と、第1の光学系の周辺部に設けられ、第1の光学系とは特性が異なる第2の光学系とからなり、瞳分割手段及びY個の光電変換器を単位ブロックとすると、単位ブロックは、格子状に配列された3×3個の光電変換器を有し、多様レンズの第1の光学系は円形の中央光学系であり、第2の光学系は中央光学系に対して同心円状に配設された環状光学系であり、第1の光学系に対応する中央瞳像は、単位ブロックの中央の光電変換器に入射し、第2の光学系に対応する環状瞳像は、単位ブロックの周囲の8個の光電変換器に入射し、格子状に配列された4×4個の光電変換器を基本ブロックとし、基本ブロックが水平方向及び垂直方向に繰り返し配置されてイメージセンサが構成されていることが好ましい。
 本発明の更に他の態様に係る撮像モジュールにおいて、多様レンズは、中央の第1の光学系と、第1の光学系の周辺部に設けられ、第1の光学系とは特性が異なる第2の光学系とからなり、多様レンズの第1の光学系は円形の中央光学系であり、第2の光学系は中央光学系に対して同心円状に配設された環状光学系であり、アレイレンズは、各マイクロレンズによりY個の光電変換器にそれぞれ結像させる瞳像のうち、互いに隣り合う環状光学系に対応する環状瞳像の一部同士をY個の光電変換器上で重複させるとともに、互いに隣り合う中央光学系に対応する中央瞳像と第2の光学系に対応する環状瞳像の一部とを重複させ、環状光学系は、中央光学系に対応する中央瞳像と重複する環状瞳像の一部に対応する部分が遮光され、又は中央光学系に対応する中央瞳像と重複する環状瞳像の一部に対応する部分が欠落して形成されていることが好ましい。
 本発明の更に他の態様によれば、環状光学系は、一部が遮光され、又は一部が欠落して形成され、中央瞳像と環状瞳像とが光電変換器上で重複しないようにしている。これにより、アレイレンズの1マイクロレンズ当たりの実質的な光電変換器の割当数を更に減少させることが可能になる。
 本発明の更に他の態様に係る撮像モジュールにおいて、多様レンズは、中央の第1の光学系と、第1の光学系の周辺部に設けられ、第1の光学系とは特性が異なる第2の光学系とからなり、多様レンズの第1の光学系は円形の中央光学系であり、第2の光学系は中央光学系に対して同心円状に配設された環状光学系であって、特性が異なる第3の光学系と第4の光学系とが交互に配置されてなる環状光学系であり、アレイレンズは、各マイクロレンズによりY個の光電変換器にそれぞれ結像させる瞳像のうち、互いに隣り合う環状光学系の第3の光学系に対応する第1の環状瞳像同士をY個の光電変換器上で重複させるとともに、互いに隣り合う環状光学系の第4の光学系に対応する第2の環状瞳像同士をY個の光電変換器上で重複させることが好ましい。これにより、1回の撮像により3種類の特性の異なる画像を同時に取得することができる。
 本発明の更に他の態様に係る撮像モジュールにおいて、光電変換器が六方格子状に配列され、瞳分割手段及びY個の光電変換器を単位ブロックとすると、単位ブロックは、1個の中央の光電変換器と周囲の6個の光電変換器とからなり、中央光学系に対応する中央瞳像は、中央の光電変換器に入射し、環状光学系の第3の光学系に対応する第1の環状瞳像は、周囲の6個の光電変換器のうちの中央の光電変換器から120度3方向の3個の光電変換器に入射し、環状光学系の第4の光学系に対応する第2の環状瞳像は、周囲の6個の光電変換器のうちの中央の光電変換器から120度3方向の他の3個の光電変換器に入射することが好ましい。
 本発明の更に他の態様に係る撮像モジュールにおいて、多様レンズの中央光学系は広角光学系であり、環状光学系の第3の光学系及び第4の光学系はそれぞれ焦点距離の異なる望遠光学系であることが好ましい。これにより、1回の撮像により広角画像と、それぞれ撮影倍率の異なる2枚の望遠画像とを同時に取得することができる。
 本発明の更に他の態様に係る撮像モジュールにおいて、多様レンズの中央光学系は広角光学系であり、環状光学系の第3の光学系及び第4の光学系はそれぞれ撮影距離の異なる望遠光学系であることが好ましい。これにより、1回の撮像により広角画像と、撮影距離の異なる被写体に対して合焦した2枚の望遠画像とを同時に取得することができる。
 本発明の更に他の態様に係る撮像モジュールにおいて、環状光学系は、光束を2回以上反射させる反射光学系を有することが好ましい。これにより、環状光学系の光軸方向の寸法を短くすることができ、装置をコンパクトにすることができる。
 本発明の更に他の態様に係る撮像装置は、上記のいずれかの撮像モジュールと、瞳分割手段及びY個の光電変換器を単位ブロックとすると、1つの単位ブロック内の光電変換器から出力される画素信号に基づいて、複数の波長域の情報からなる少なくとも1つの画像を構成する1画素分の画像信号を生成する画像生成部と、を備えている。
 本発明の他の態様によれば、同時に撮像されるX枚の画像のうちの少なくとも1つの画像については、単位ブロック内の画素信号を使用して1画素分のデモザイク処理された画像信号を生成することができ、画像の画質及び解像度の向上を図ることができる。
 本発明によれば、同時に撮像される特性の異なる複数の画像のうちの少なくとも1つの画像の画質及び解像度の向上を図ることができる。また、アレイレンズは、互いに隣り合う多様レンズの瞳像の一部同士を光電変換器上で重複させるため、アレイレンズの1マイクロレンズ当たりに実質的に割り付けられる光電変換器の割付数を少なくすることができ、その結果、同時に撮像可能な特性の異なる画像の画素数を増加させることができる。
本発明に係る撮像モジュールを含む撮像装置の外観斜視図 図1に示した撮像装置の内部構成の実施形態を示すブロック図 図1に示した撮像装置に適用された撮影光学系の第1の実施形態を示す断面図 本発明に係る撮像装置の第1の実施形態を説明するために用いたアレイレンズ及びイメージセンサの要部拡大図 本発明に係る撮像装置に適用されるイメージセンサに配設されたカラーフィルタの第1の実施形態のカラーフィルタ配列等を示す図 本発明に係る撮像装置に適用されるイメージセンサに配設されたカラーフィルタの第2の実施形態のカラーフィルタ配列等を示す図 イメージセンサにおける好適なカラーフィルタ配列を説明するために用いた図 イメージセンサにおける好適なカラーフィルタ配列を説明するために用いた他の図 本発明に係る撮像装置の第2の実施形態を説明するために用いたアレイレンズ及びイメージセンサの要部拡大図 本発明に係る撮像装置の第2の実施形態におけるイメージセンサのカラーフィルタ配列等を示す図 第2の実施形態におけるイメージセンサのカラーフィルタ配列の第1の変形例を示す図 第2の実施形態におけるイメージセンサのカラーフィルタ配列の第2の変形例を示す図 第2の実施形態におけるイメージセンサのカラーフィルタ配列の第3の変形例を示す図 本発明に係る撮像装置の第3の実施形態を説明するために用いた撮影光学系、アレイレンズ及びイメージセンサ等を示す図 本発明に係る撮像装置の第4の実施形態を説明するために用いた撮影光学系、アレイレンズ及びイメージセンサ等を示す図 第4の実施形態におけるイメージセンサのカラーフィルタ配列を示す図 図1に示した撮像装置に適用可能な撮影光学系の第2の実施形態を示す断面図 撮像装置の他の実施形態であるスマートフォンの外観図 スマートフォンの要部構成を示すブロック図 中央光学系及び環状光学系を有する撮影光学系、アレイレンズ及びイメージセンサを備えた従来の撮像装置を示す図 1つの受光セルと瞳像との関係を示す図 従来のイメージセンサ上に結像される各瞳像の一例を示す図 従来のイメージセンサ上に結像される各瞳像の他の例を示す図 発明が解決しようとする課題を説明するために用いた図
 以下、添付図面に従って本発明に係る撮像モジュール及び撮像装置の実施の形態について説明する。
 <撮像装置の外観>
 図1は本発明に係る撮像モジュールを含む撮像装置の外観斜視図である。図1に示すように、撮像装置10の前面には、多様レンズ(撮影光学系)12、フラッシュ発光部19等が配置され、上面にはシャッタボタン38-1が設けられている。L1は多様レンズ12の光軸を表す。
 図2は撮像装置10の内部構成の実施形態を示すブロック図である。
 この撮像装置10は、撮像した画像をメモリカード54に記録するもので、主として多様レンズ12、アレイレンズ16、及びイメージセンサ18等を含む撮像モジュール11に特徴がある。
 [撮影光学系]
 図3は、撮像装置10(撮像モジュール11)に適用された多様レンズの第1の実施形態を示す断面図である。
 図3に示すように多様レンズ12は、それぞれ同一の光軸上に配置された中央部の中央光学系(第1の光学系)13とその周辺部の環状光学系(第2の光学系)14とから構成されている。
 中央光学系13は、第1レンズ13a、第2レンズ13b、第3レンズ13c、第4レンズ13d、及び共通レンズ15から構成された広角光学系(広角レンズ)であり、アレイレンズ16上に広角画像を結像させる。
 環状光学系14は、第1レンズ14a、第2レンズ14b、第1反射ミラー14c(反射光学系)、第2反射ミラー14d(反射光学系)、及び共通レンズ15から構成された望遠光学系(望遠レンズ)であり、アレイレンズ16上に望遠画像を結像させる。第1レンズ14a、及び第2レンズ14bを介して入射した光束は、第1反射ミラー14c及び第2反射ミラー14dにより2回反射された後、共通レンズ15を通過する。第1反射ミラー14c及び第2反射ミラー14dにより光束が折り返されることにより、焦点距離の長い望遠光学系(望遠レンズ)の光軸方向の長さを短くしている。
 [本発明に係る撮像装置の第1の実施形態]
 次に、本発明に係る撮像装置の第1の実施形態について説明する。
 図4は、図2及び図3に示したアレイレンズ16及びイメージセンサ18の要部拡大図である。
 アレイレンズ16は、複数のマイクロレンズ(瞳結像レンズ)16aが2次元状に配列されて構成されており、各マイクロレンズの水平方向及び垂直方向の間隔は、イメージセンサ18の受光セル(光電変換器)18aの3つ分の間隔に対応している。即ち、アレイレンズ16の各マイクロレンズは、水平方向及び垂直方向の各方向に対して、2つ置きの受光セルの位置に対応して形成されたものが使用される。
 また、アレイレンズ16の各マイクロレンズ16aは、多様レンズ12の中央光学系13及び環状光学系14に対応する、円形の中央瞳像(第1の瞳像)17a及び環状瞳像(第2の瞳像)17bを、イメージセンサ18の対応する受光領域の受光セル18a上に結像させる。
 図4に示す第1の実施形態のアレイレンズ16及びイメージセンサ18によれば、アレイレンズ16の1マイクロレンズ16a当たりに付き、格子状(正方格子状)の3×3個の受光セル18aが割り付けられている。以下、1つのマイクロレンズ16a及び1つのマイクロレンズ16aに対応する受光セル群(3×3個の受光セル18a)を単位ブロックという。
 中央瞳像17aは、単位ブロックの中央の受光セル18aのみに結像し、環状瞳像17bは、単位ブロックの周囲の8個の受光セル18aに結像する。
 本発明に係る撮像装置10(撮像モジュール11)によれば、後述するように中央光学系13に対応する広角画像と、環状光学系14に対応する望遠画像とを同時に撮像することができる。
 [イメージセンサの第1の実施形態]
 図5は本発明に係る撮像装置10(撮像モジュール11)に適用されるイメージセンサ18を示す図であり、特にイメージセンサ18に配設されたカラーフィルタの第1の実施形態のカラーフィルタ配列等を示す図である。尚、図5上で、アレイレンズ16は省略されているが、円形で示した領域は、アレイレンズ16の各マイクロレンズ16aにより瞳像が結像される3×3個の受光セルを含む単位ブロックを示している。
 図5の(a)部分に示すようにイメージセンサ18の撮像面上には、各受光セル上に配設されたカラーフィルタにより構成されるカラーフィルタ配列が設けられる。
 このカラーフィルタ配列は、赤(R)、緑(G)、及び青(B)の各波長域の光を透過させる3原色のカラーフィルタ(以下、Rフィルタ、Gフィルタ、Bフィルタという)により構成されている。そして、各受光セル上には、RGBフィルタのいずれかが配置される。以下、Rフィルタが配置された受光セルを「R受光セル」、Gフィルタが配置された受光セルを「G受光セル」、Bフィルタが配置された受光セルを「B受光セル」という。
 図5の(a)部分に示すカラーフィルタ配列は、6×6個の受光セルを基本ブロックB(図5の(a)部分の太枠で示したブロック、及び図5の(b)部分参照)とし、基本ブロックBが水平方向及び垂直方向に繰り返し配置されて構成されている。
 図5の(b)部分に示すように基本ブロックBは、4個の単位ブロックB1~B4により構成されている。
 図5の(c1)部分及び(c2)部分は、それぞれ4個の単位ブロックB1~B4の中央の受光セル(図3に示した中央光学系13を通過した光束が入射する受光セル)のグループと、周囲の8個の受光セル(図3に示した環状光学系14を通過した光速が入射する受光セル)のグループとを示す。
 図5の(c1)部分に示すように中央の受光セルのグループの画像は、ベイヤ配列のモザイク画像となる。これにより、ベイヤ配列のモザイク画像をデモザイク処理することにより、問題なくカラー画像を得ることができる。
 一方、図5の(c2)部分に示すように、単位ブロックB1~B4の各中央の受光セルの周囲の8個の受光セルのグループは、8個の受光セル内にRGBの全ての受光セル(R受光セル、G受光セル、B受光セル)を含み、かつ単位ブロックB1~B4にかかわらず、RGBの受光セルが同じパターンで配置されている。
 具体的には、各単位ブロックB1~B4の4隅の4つの受光セルは、G受光セルが配置され、中央の受光セルを挟んで上下の2個の受光セルは、R受光セルが配置され、中央の受光セルを挟んで左右の2個の受光セルは、B受光セルが配置されている。
 また、R受光セル、G受光セル、及びB受光セルは、それぞれ単位ブロックの中央の受光セル(中心)に対して対称位置に配置されている。これにより、単位ブロック内のRGBの受光セルの出力信号を使用して、その単位ブロック毎のデモザイク処理(同時化処理)後の、画像を構成する1つの画素(RGBの画素値)を生成することができる。
 即ち、単位ブロック内の4個のG受光セルの出力信号(画素値)の平均値を求めることにより、単位ブロック(1マイクロレンズ)の中心位置におけるG画素の画素値を取得することができ、同様に単位ブロック内の2個のR受光セルの画素値の平均値、及び2個のB受光セルの画素値の平均値を求めることにより、それぞれ単位ブロックの中心位置におけるR画素及びB画素の画素値を取得することができる。
 これにより、単位ブロックの周囲の8個の受光セルのグループにより生成される、環状光学系14(望遠光学系)に対応する望遠画像については、単位ブロック内のRGBの受光セルの画素値を使用してデモザイク処理を行うことができ、周囲の単位ブロックの受光セルの画素値を補間して特定の波長域の画素の画素値を生成する必要がなく、出力画像の解像度(実質的な画素数)を低下させることがない。
 また、単位ブロックB1~B4の周囲の8個の受光セルは、2個のR受光セル、4個のG受光セル、2個のB受光セルを有し、RGBの受光セルの比率は、1:2:1になり、輝度信号を得るために最も寄与するG受光セルが多く配置されている。
 図2に戻って、撮像装置10(撮像モジュール11)は、図3で説明した中央光学系13及び環状光学系14を有する多様レンズ12と、図4及び図5で説明した第1の実施形態のアレイレンズ16及びイメージセンサ18とを備えている。装置全体の動作は、EEPROM(Electrically Erasable Programmable Read-Only Memory)56に格納されたカメラ制御プログラムに基づいて、中央処理装置(CPU)40によって統括制御される。尚、EEPROM56には、カメラ制御プログラムの他に、イメージセンサ14の画素の欠陥情報、画像処理等に使用する各種のパラメータやテーブル等が記憶されている。
 撮像装置10には、シャッタボタン38-1、モードダイヤル(モード切替装置)、再生ボタン、MENU/OKキー、十字キー、BACKキー等の操作部38が設けられている。この操作部38からの信号はCPU40に入力され、CPU40は入力信号に基づいて撮像装置10の各回路を制御し、例えば、撮影動作制御、画像処理制御、画像データの記録/再生制御、液晶モニタ(LCD)30の表示制御などを行う。
 シャッタボタン38-1(図1)は、撮影開始の指示を入力する操作ボタンであり、半押し時にONするS1スイッチと、全押し時にONするS2スイッチとを有する二段ストローク式のスイッチで構成されている。
 モードダイヤルは、静止画を撮影するオート撮影モード、マニュアル撮影モード、人物、風景、夜景等のシーンポジション、及び動画を撮影する動画モードを切り替える選択手段である。また、モードダイヤルは、撮影モード時に、中央光学系13を介して結像される広角画像(第1の画像)を取得する第1の撮影モード、環状光学系14を介して結像される望遠画像(第2の画像)を取得する第2の撮影モード、広角画像及び望遠画像を同時に取得するハイブリッド撮影モード等を切り替える選択手段として機能する。
 再生ボタンは、撮影記録した静止画又は動画を液晶モニタ30に表示させる再生モードに切り替えるためのボタンである。MENU/OKキーは、液晶モニタ30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キーは、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。また、十字キーの上/下キーは撮影時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。BACKキーは、選択項目など所望の対象の消去や指示内容の取消し、あるいは1つ前の操作状態に戻らせるときなどに使用される。
 撮影モード時において、被写体光は、多様レンズ12及びアレイレンズ16を介してイメージセンサ18の受光面に結像される。
 イメージセンサ18の各受光セル(光電変換器)の受光面に結像された被写体像は、その入射光量に応じた量の信号電圧(または電荷)に変換される。
 イメージセンサ18に蓄積された信号電圧(または電荷)は、受光セルそのもの若しくは付設されたキャパシタに蓄えられる。蓄えられた信号電圧(または電荷)は、センサ制御部32により、X-Yアドレス方式を用いたMOS型撮像素子(いわゆるCMOSセンサ)の手法を用いて、受光セル位置の選択とともに読み出される。
 これにより、イメージセンサ18から中央光学系13に対応する中央の受光セルのグループの広角画像を示す画素信号と、環状光学系14に対応する周囲8個の受光セルのグループの望遠画像を示す画素信号とを読み出すことができる。
 イメージセンサ18から読み出された画素信号(電圧信号)は、相関二重サンプリング処理(センサ出力信号に含まれるノイズ(特に熱雑音)等を軽減することを目的として、受光セル毎の出力信号に含まれるフィードスルー成分レベルと信号成分レベルとの差をとることにより正確な画素データを得る処理)により受光セル毎の画素信号がサンプリングホールドされ、増幅されたのちA/D変換器20に加えられる。A/D変換器20は、順次入力する画素信号をデジタル信号に変換して画像入力コントローラ22に出力する。尚、MOS型センサでは、A/D変換器が内蔵されているものがあり、この場合、イメージセンサ18から直接デジタル信号が出力される。
 イメージセンサ18の受光セル位置を選択して画素信号を読み出すことにより、広角画像を示す画素信号と望遠画像を示す画素信号とを選択的に読み出すことができる。
 即ち、イメージセンサ18の中央瞳像17aが入射する受光セルの画素信号を選択的に読み出すことにより、1マイクロレンズ当たり1個の受光セル(3×3の受光セルの中央の受光セル)の広角画像を示す画素信号(ベイヤ配列のモザイク画像を示す画素信号)を取得することができ、一方、イメージセンサ18の環状瞳像17bが入射する、8個の受光セルの画素信号を選択的に読み出すことにより、1マイクロレンズ当たり8個の画素信号を取得することができる。
 尚、イメージセンサ18から全ての画素信号を読み出してメモリ(SDRAM)48に一時的に記憶させ、デジタル信号処理部(画像生成部)24がメモリ48に記憶させた画素信号に基づいて上記と同様に広角画像と望遠画像の2つ画像の画素信号のグループ分けを行ってもよい。
 また、デジタル信号処理部24は、画像入力コントローラ22を介して入力するデジタルの画素信号(RGBの点順次のR信号、G信号、B信号)に対して、オフセット処理、ガンマ補正処理、及びRGBのモザイク画像の信号に対するデモザイク処理等の所定の信号処理を行う。ここで、デモザイク処理とは、単板式のイメージセンサ18のカラーフィルタ配列に対応したRGBのモザイク画像から画素毎に全ての色情報を算出する処理であり、同時化処理ともいう。例えば、RGB3色のカラーフィルタからなるイメージセンサ18の場合、RGBからなるモザイク画像から画素毎にRGB全ての色情報を算出する処理である。
 即ち、デジタル信号処理部24に含まれるデモザイク処理部は、広角画像(ベイヤ配列のモザイク画像)のG受光セルの位置には、R受光セル、B受光セルが無いため、そのG受光セルの周囲のR受光セル、B受光セルのR信号、B信号をそれぞれ補間して、G受光セルの位置におけるR信号、B信号を生成する。同様に、モザイク画像のR受光セルの位置には、G受光セル、B受光セルが無いため、そのR受光セルの周囲のG受光セル、B受光セルのG信号、B信号をそれぞれ補間してR受光セルの位置におけるG信号、B信号を生成し、また、モザイク画像のB受光セルの位置には、G受光セル、R受光セルが無いため、そのB受光セルの周囲のG受光セル、R受光セルのG信号、R信号をそれぞれ補間してB受光セルの位置におけるG信号、R信号を生成する。
 一方、望遠画像は、1マイクロレンズ16a当たり8個(3×3の単位ブロックの周囲8個)のモザイク画像からなり、かつ8個の受光セル内には、RGBの全ての色情報(R受光セル、G受光セル、B受光セル)が含まれているため、デモザイク処理部は、単位ブロック内の8個の受光セルの出力信号を使用して単位ブロック毎にデモザイク処理した、画像を構成する1つの画素(RGBの画素値)を生成することができる。
 具体的には、望遠画像のモザイク画像をデモザイク処理するデモザイク処理部(画像生成部)は、単位ブロック内の4個のG受光セルの画素値の平均値を求めることにより、単位ブロック(1マイクロレンズ)の中心位置における画素のGの画素値を算出し、同様に単位ブロック内の2個のR受光セルの画素値の平均値、及び2個のB受光セルの画素値の平均値を求めることにより、それぞれ単位ブロックの中心位置における画素のRの画素値及びBの画素値を算出する。
 上記デモザイク処理部により生成される広角画像及び望遠画像の2つのデモザイク画像のうちの望遠画像のデモザイク画像は、単位ブロック内の8個の受光セルの出力信号を使用してデモザイク処理が行われるため、周囲の単位ブロックの受光セルの出力信号を使用(補間)してデモザイク処理が行われる広角画像のデモザイク画像よりも解像度が実質的に高いものとなる。
 また、デジタル信号処理部24は、デモザイク処理部によりデモザイク処理されたRGBの色情報(R信号、G信号、B信号)から輝度信号Yと色差信号Cb,Crを生成するRGB/YC変換等を行う。
 デジタル信号処理部24で処理され画像信号は、VRAM(Video Random Access Memory)50に入力される。VRAM50から読み出された画像信号はビデオ・エンコーダ28においてエンコーディングされ、カメラ背面に設けられている液晶モニタ30に出力され、これにより被写体像が液晶モニタ30の表示画面上に表示される。
 操作部38のシャッタボタン38-1の第1段階の押下(半押し)があると、CPU40は、AE動作を開始させ、A/D変換器20から出力される画像データは、AE検出部44に取り込まれる。
 AE検出部44では、画面全体の画像信号を積算し、又は画面中央部と周辺部とで異なる重みづけをした画像信号を積算し、その積算値をCPU40に出力する。CPU40は、AE検出部44から入力する積算値より被写体の明るさ(撮影Ev値)を算出し、この撮影Ev値に基づいて絞り(図示せず)の絞り値及びイメージセンサ18の電子シャッタ(シャッタスピード)を所定のプログラム線図に従って決定し、その決定した絞り値に基づいて絞りを制御すると共に、決定したシャッタスピードに基づいてセンサ制御部32を介してイメージセンサ18での電荷蓄積時間を制御する。
 AE動作が終了し、シャッタボタン38-1の第2段階の押下(全押し)があると、その押下に応答してA/D変換器20から出力される画像データが画像入力コントローラ22からメモリ(SDRAM: Synchronous Dynamic RAM)48に入力され、一時的に記憶される。メモリ48に一時的に記憶された画像信号は、デジタル信号処理部24により適宜読み出され、ここで所定の信号処理が行われて再びメモリ48に記憶される。
 メモリ48に記憶された画像信号は、それぞれ圧縮伸張処理部26に出力され、JPEG(Joint Photographic Experts Group)などの所定の圧縮処理が実行されたのち、メディア・コントローラ52を介してメモリカード54に記録される。
 そして、モードダイヤルにより第1の撮影モード又は第2の撮影モードが選択されると、広角画像又は望遠画像を選択的に取得することができ、モードダイヤルによりハイブリッド撮影モードが選択されると、広角画像と望遠画像とを同時に取得することができる。これにより、広角光学系と望遠光学系のメカ的な切り替えや、ズームレンズのズーム操作なしに、広角画像と望遠画像とを取得することができる。
 [イメージセンサの第2の実施形態]
 図6は本発明に係る撮像装置10(撮像モジュール11)に適用されるイメージセンサ18の他の実施形態を示す図であり、特にイメージセンサ18に配設されたカラーフィルタの第2の実施形態のカラーフィルタ配列等を示す図である。
 図6の(a)部分に示すようにイメージセンサ18の他の実施形態のカラーフィルタ配列は、図5の(a)部分に示したカラーフィルタ配列と同様に、6×6個の受光セルを基本ブロックB(図6の(a)部分の太枠で示したブロック、及び図6の(b)部分参照)とし、基本ブロックBが水平方向及び垂直方向に繰り返し配置されて構成されている。
 図6の(b)部分に示すように基本ブロックBは、4個の単位ブロックB1~B4により構成されている。
 図6の(c1)部分及び(c2)部分は、それぞれ4個の単位ブロックB1~B4の中央の受光セルのグループと、周囲の8個の受光セルのグループとを示す。
 図6の(c1)部分に示すように中央の受光セルのグループの画像は、ベイヤ配列のモザイク画像となる。これにより、ベイヤ配列のモザイク画像をデモザイク処理することにより、問題なくカラー画像を得ることができる。
 一方、図6の(c2)部分に示すように、単位ブロックB1~B4の各中央の受光セルの周囲の8個の受光セルのグループは、8個の受光セル内にRGBの全ての受光セル(R受光セル、G受光セル、B受光セル)を含み、かつ単位ブロックB1~B4にかかわらず、RGBの受光セルが同じパターンで配置されている。
 具体的には、各単位ブロックB1~B4の中央の受光セルを挟んで上下左右の4個の受光セルは、G受光セルが配置され、単位ブロックの左上及び右下の2個の受光セルは、R受光セルが配置され、単位ブロックの右上及び左下の2個の受光セルは、B受光セルが配置されている。
 また、R受光セル、G受光セル、及びB受光セルは、それぞれ単位ブロックの中央の受光セル(中心)に対して対称位置に配置されている。これにより、単位ブロック内のRGBの受光セルの出力信号を使用して、その単位ブロック毎のデモザイク処理後の、画像を構成する1つの画素(RGBの画素値)を生成することができる。
 即ち、単位ブロック内の4個のG受光セルの画素値の平均値を求めることにより、単位ブロック(1マイクロレンズ)の中心位置におけるG受光セルの画素値を取得することができ、同様に単位ブロック内の2個のR受光セルの画素値の平均値、及び2個のB受光セルの画素値の平均値を求めることにより、それぞれ単位ブロックの中心位置における画素のRの画素値及びBの画素値を取得することができる。
 また、単位ブロックB1~B4の周囲の8個の受光セルは、2個のR受光セル、4個のG受光セル、2個のB受光セルを有し、RGBの受光セルの比率は、1:2:1になり、輝度信号を得るために最も寄与するG受光セルが多く配置されている。
 尚、上記の実施形態では、単位ブロックB1~B4の中央の受光セルのグループの画像は、ベイヤ配列のモザイク画像になるように各中央の受光セルにカラーフィルタが一定のパターンで周期的に配置されているが、これに限らず、各中央の受光セルに配置されるカラーフィルタは、GストライプR/G完全市松、X-Trans(登録商標)配列等のカラーフィルタを配置してもよく、要は全ての波長域の画素信号を得ることができるようにカラーフィルタが配列されていればよい。
 [より好適な周囲8画素のフィルタ配置(1)]
 3×3個の受光セルを有する単位ブロックの周囲の8個の受光セルに対するカラーフィルタ配置は、図5及び図6に示した第1、第2の実施形態以外にも種々の配置が考えられる。
 図7の(a)部分及び(b)部分は、それぞれ図5の(a)部分に示したカラーフィルタの第1の実施形態を示し、特に多様レンズ12のうちの環状光学系14を透過してくる光束が、マイクロレンズ16aの指向性により入射する、3×3個の単位ブロックの周囲の8個の受光セルにおける入射領域を示している。
 図7の(a)部分に示すように画像中心(イメージセンサ18の光軸近くの単位ブロック)では、環状光学系14を透過してくる光束の入射領域は、きれいな円環状となるので、周囲の8個の受光セルにおけるRGBのフィルタ配置の差は生じない。
 一方、光学レンズの一般的な性質として、光軸から離れた画像周辺になるほど「けられ」が生じることが知られている。本例の環状光学系14のように円環瞳を持つ光学レンズの場合には、センサ面への入射光パターンは、「けられ」によって円形から三日月状になる(図7の(b)部分~(e)部分)。
 即ち、イメージセンサ18の周辺では、単位ブロックの周囲8個の受光セルのうち、偏った受光セルでしか光を検出できなくなりがちである。このようなときにも、全色の情報を獲得するためには、各波長域の画素信号を出力するRGBの受光セルを、満遍なく8個の受光セルに割り付けておくことが好ましい。
 図7の(b)部分に示すカラーフィルタ配列(第1の実施形態)の場合、イメージセンサ18の4隅周辺の単位ブロックであっても、周囲8個のRGBの受光セルに三日月状の光束が満遍なく入射し、三日月状の光束が入射するRGBの各受光セルの面積比は、ほぼ等しくなる(G≒R=B)。
 また、図7の(c)部分に示すカラーフィルタ配列(図6の(a)部分に示した第2の実施形態)の場合も、周囲8個のRGBの受光セルに三日月状の光束が満遍なく入射し、三日月状の光束が入射するRGBの各受光セルの面積比は、ほぼ等しくなる(G≒R≒B)。
 一方、図7の(d)部分に示すカラーフィルタ配列の場合、周囲8個のRGBの受光セルが、周囲の方向に関して満遍なく配置されておらず、三日月状の光束が入射するRGBの各受光セルの面積比は、不均一になる(G≫R>B)。同様に図7の(e)部分に示すカラーフィルタ配列の場合も、周囲8個のRGBの受光セルが、周囲の方向に関して満遍なく配置されておらず、三日月状の光束が入射するRGBの各受光セルの面積比は、不均一になる(G>R=B)。
 上記のように、3×3個の受光セルを有する単位ブロックの周囲8個の受光セルのフィルタ配置としては、図5の(a)部分及び図6の(b)部分に示した第1、第2の実施形態のように、RGBの受光セルが周囲の方位に関して満遍なく(重心が単位ブロックの中心に来るように)配置することがより好ましい。
 [より好適な周囲8画素のフィルタ配置(2)]
 次に、カラーフィルタの製造工程及び混信(クロストーク)を低減する観点から、より好適な周囲8個の受光セルのフィルタ配置について説明する。
 図8の(a)部分及び(b)部分は、それぞれ図5の(a)部分及び図6の(b)部分に示した第1、第2の実施形態のカラーフィルタ配列に関して示している。
 図8の(a)部分に示すように、3×3個の受光セルを有する単位ブロックを並べたときに、隣接する単位ブロックと接する画素同士の波長フィルタ(カラーフィルタ)は、同種になるように配置するのがより好適である。
 その理由は、以下の通りである。
 (1)同種であれば、フィルタ部を繋げてしまうことができるので、波長フィルタを形成する製造工程が、シンプルになる。
 (2)同種(同色)であれば、隣接する単位ブロックからの信号の混信(クロストーク)があった場合でも、空間解像度の低下だけで済む。もし、混信信号が異なる色の成分であった場合には、空間解像度の低下に加えて、色信号の誤差が生じて画像品質が低下する。
 従って、隣接する単位ブロックと接する画素同士の波長フィルタは、同種になるように配置するのがより好ましい。
 図8の(a)部分に示す第1の実施形態のカラーフィルタ配列の場合、3×3個の受光セルを有する単位ブロックを並べたときの周囲8個の受光セルのうちのG受光セルは、2×2個の4個のG受光セルが隣接し、また、周囲8個の受光セルのうちのR受光セルは、垂直方向に2個隣接し、B受光セルは、水平方向に2個隣接する。
 一方、図8の(b)部分に示す第2の実施形態のカラーフィルタ配列の場合、3×3個の受光セルを有する単位ブロックを並べたときの周囲8個の受光セルのうちのG受光セルは、2個隣接するが、周囲8個の受光セルのうちのR受光セル及びB受光セルは、隣接する全ての方向の受光セルと波長フィルタが異なる。
 従って、図8の(a)部分及び(b)部分に示す第1、第2の実施形態のカラーフィルタ配列のうち、第1の実施形態のカラーフィルタ配列の方が、カラーフィルタの製造工程がシンプルになり、かつ混信を低減することができるため、より好適なカラーフィルタ配列と言える。
 <画素の高密度化>
 次に、イメージセンサの受光セル数を変えずに、アレイレンズの1マイクロレンズ当たりに割り付ける受光セルの割付数を大幅に低減し、同時に撮像される特性の異なる複数の画像の画素数を増加させる、画素の高密度化を図った実施形態について説明する。
 [本発明に係る撮像装置の第2の実施形態]
 図9は、本発明に係る撮像装置(撮像モジュール)の第2の実施形態を説明するために用いたアレイレンズ116及びイメージセンサ118の要部拡大図である。尚、第2の実施形態の撮像装置は、図1から図3に示した第1の実施形態の撮像装置10とは、主としてアレイレンズ116及びイメージセンサ118が相違するため、以下、その相違点について説明する。
 図9において、アレイレンズ116は、複数のマイクロレンズ116aが2次元状に配列されて構成されており、各マイクロレンズの水平方向及び垂直方向の間隔は、イメージセンサ118の受光セル118aの2つ分の間隔に対応している。即ち、アレイレンズ116の各マイクロレンズは、水平方向及び垂直方向の各方向に対して、1つ置きの受光セルの位置に対応して形成されたものが使用される。
 また、アレイレンズ116の各マイクロレンズ116aは、多様レンズ12の中央光学系13及び環状光学系14に対応する、円形の中央瞳像117a及び環状瞳像117bをイメージセンサ118上に結像させる。
 ここで、互いに隣り合う環状瞳像117bは、その一部同士がイメージセンサ118上で重なっている。即ち、アレイレンズ116は、イメージセンサ118の入射面側の適宜の位置に配置されており、各マイクロレンズ116aによりイメージセンサ118上にそれぞれ結像させる中央瞳像117a及び環状瞳像117bのうち、互いに隣り合う環状瞳像117bの一部同士がイメージセンサ118上で重複するように構成されている。
 図9に示す第2の実施形態のアレイレンズ116及びイメージセンサ118によれば、中央瞳像117aは、イメージセンサ118上の1つの受光セル118a(3×3個の中央の受光セル)のみに結像し、環状瞳像117bは、中央瞳像117aが結像する受光セル118aの周囲の8個の受光セル118aに結像する。そして、8個の受光セル118aに結像する中央瞳像117aは、水平方向及び垂直方向(上下左右方向)に隣接する中央瞳像117aと1つの受光セル分の範囲で重複している。
 本発明に係る撮像装置は、中央光学系13に対応する広角画像と、環状光学系14に対応する望遠画像とを撮像することができればよいため、中央瞳像117aと環状瞳像117bとが重ならなければよい。即ち、互いに隣り合う環状瞳像117bの一部同士がイメージセンサ118上で重複しても画像として破綻することはない。
 図10の(a)部分及び(b)部分は、イメージセンサ118に配設されたカラーフィルタ配列等を示す図である。
 図10の(a)部分に示すようにイメージセンサ118に配設されたカラーフィルタ配列は、4×4個の受光セルを基本ブロックB(図10の(a)部分の太枠で示したブロック)とし、基本ブロックBが水平方向及び垂直方向に繰り返し配置されて構成されている。
 また、図10の(b)部分に示すようにイメージセンサ118は、1マイクロレンズ16a当たり3×3個の受光セルが割り付けられた単位ブロック(4種類の単位ブロックB1~B4)を有しており、隣接する単位ブロックは、互いに1個の受光セル分の範囲で重複している。
 図10の(b)部分に示す4つの単位ブロックB1~B4は、図5の(b)部分に示した4つの単位ブロックB1~B4と同じカラーフィルタ配列になり、単位ブロックB1~B4の各中央の受光セルのグループの画像は、ベイヤ配列のモザイク画像となる。
 また、単位ブロックB1~B4の各中央の受光セルの周囲の8個の受光セルのうち、各単位ブロックB1~B4の4隅の4個の受光セルは、G受光セルが配置され、中央の受光セルを挟んで上下の2個の受光セルは、R受光セルが配置され、中央の受光セルを挟んで左右の2個の受光セルは、B受光セルが配置されており、周囲8個の受光セルのRGBの受光セルが、周囲の方向に関して満遍なく配置されている。
 上記のように本発明に係る撮像装置の第2の実施形態によれば、イメージセンサ118の受光セル数をMとし、イメージセンサから得られる広角画像及び望遠画像の画素数をそれぞれNとすると、受光セル数Mと画素数Nの比は、M:N=4:1となり、第1の実施形態の場合の比(M:N=9:1)よりも大きくすることができる。即ち、広角画像及び望遠画像の画素の高密度化を図ることができ、解像度を向上させることができる。
 [本発明に係る撮像装置の第2の実施形態の第1の変形例]
 図11の(a)部分及び(b)部分は、それぞれ第2の実施形態の第1の変形例を示す図であり、特に第2の実施形態の第1の変形例は、イメージセンサのカラーフィルタ配列が第2の実施形態と相違する。
 図11の(a)部分に示すイメージセンサ218は、4×4個の受光セルを基本ブロックB(図11の(a)部分の太枠で示したブロック)とし、基本ブロックBが水平方向及び垂直方向に繰り返し配置されて構成されている。
 第2の実施形態の第1の変形例は、図11の(a)部分に示すように基本ブロックB内に2×2個のG受光セルが2組存在しており、Gのカラーフィルタの製造工程がシンプルになり、かつ混信を低減することができる。
 また、図11の(b)部分に示すようにイメージセンサ218は、1マイクロレンズ16a当たり3×3個の受光セルが割り付けられた単位ブロック(4種類の単位ブロックB1~B4)を有しており、隣接する単位ブロックは、互いに1個の受光セル分の範囲で重複している。
 図11の(b)部分に示すように4つの単位ブロックB1~B4の周囲8個の受光セルは、いずれも2個のR受光セル、4個のG受光セル、及び2個のB受光セルを有している。また、中心がG受光セルの単位ブロックB1、B4は、R受光セル、B受光セルの配置が異なる2パターンある。
 [本発明に係る撮像装置の第2の実施形態の第2の変形例]
 図12の(a)部分及び(b)部分は、それぞれ第2の実施形態の第2の変形例を示す図であり、特に第2の実施形態の第2の変形例は、イメージセンサのカラーフィルタ配列が前述の実施形態と相違する。
 図12の(a)部分に示すイメージセンサ318は、4×4個の受光セルを基本ブロックB(図12の(a)部分の太枠で示したブロック)とし、基本ブロックBが水平方向及び垂直方向に繰り返し配置されて構成されている。
 第2の実施形態の第2の変形例は、図12の(a)部分に示すように基本ブロックB内に2×2個のR受光セルが1組、2×2個のG受光セルが2組、及び2×2個のB受光セルが1組存在しており、RGBのカラーフィルタの製造工程が最もシンプルになり、かつ混信を最も低減することができる。
 また、図12の(b)部分に示すようにイメージセンサ318は、1マイクロレンズ16a当たり3×3個の受光セルが割り付けられた単位ブロック(4種類の単位ブロックB1~B4)を有しており、隣接する単位ブロックは、互いに1個の受光セル分の範囲で重複している。
 図12の(b)部分に示すように4つの単位ブロックB1~B4のうちの中心がG受光セルの単位ブロックB1、B4の周囲8個の受光セルは、2個のR受光セル、4個のG受光セル、及び2個のB受光セルを有し、中心がR受光セルの単位ブロックB2の周囲8個の受光セルは、3個のR受光セル、4個のG受光セル、及び1個のB受光セルを有し、中心がB受光セルの単位ブロックB3の周囲8個の受光セルは、1個のR受光セル、4個のG受光セル、及び3個のB受光セルを有し、RGBの受光セルの色バランスは、第2実施形態の第1の変形例よりも低い。
 [本発明に係る撮像装置の第2の実施形態の第3の変形例]
 図13の(a)部分及び(b)部分は、それぞれ第2の実施形態の第3の変形例を示す図であり、特に第2の実施形態の第3の変形例は、イメージセンサのカラーフィルタ配列が前述の実施形態と相違する。
 図13の(a)部分に示すイメージセンサ418は、正方格子状の4×4個の受光セルを基本ブロックB(図13の(a)部分の太枠で示したブロック)とし、基本ブロックBが水平方向及び垂直方向に繰り返し配置されて構成されている。
 第2の実施形態の第3の変形例は、図13の(a)部分に示すように基本ブロックB内に2×2個のG受光セルが1組存在しており、Gのカラーフィルタの製造工程がシンプルになり、かつ混信を低減することができる。
 また、図13の(b)部分に示すようにイメージセンサ418は、1マイクロレンズ16a当たり3×3個の受光セルが割り付けられた単位ブロック(4種類の単位ブロックB1~B4)を有しており、隣接する単位ブロックは、互いに1個の受光セル分の範囲で重複している。
 図13の(b)部分に示すように4つの単位ブロックB1~B4のうちの中心がG受光セルの単位ブロックB1、B4の周囲8個の受光セルは、2個のR受光セル、4個のG受光セル、及び2個のB受光セルを有し、中心がR受光セルの単位ブロックB2の周囲8個の受光セルは、1個のR受光セル、4個のG受光セル、及び3個のB受光セルを有し、中心がB受光セルの単位ブロックB3の周囲8個の受光セルは、3個のR受光セル、4個のG受光セル、及び1個のB受光セルを有し、RGBの受光セルの色バランスは、第2実施形態の第1の変形例よりも低い。
 [本発明に係る撮像装置の第3の実施形態]
 次に、本発明に係る撮像装置の第3の実施形態について、図14を用いて説明する。尚、第3の実施形態の撮像装置は、第1、2の実施形態とは、主として多様レンズ、アレイレンズ及びイメージセンサが相違するため、以下、その相違点について説明する。
 まず、多様レンズとして、図14の(a)部分に示す中央瞳像17a及び環状瞳像17bが得られる前述した多様レンズ12の代わりに、図14の(b)部分に示す中央瞳像517a及び環状瞳像517bが得られるものを使用する。図14の(b)部分に示す中央瞳像517a及び環状瞳像517bが得られる多様レンズとしては、図3に示した多様レンズ12のうちの環状光学系14の一部を遮光することにより構成することができる。
 即ち、環状瞳像517bに対応する環状光学系は、上下左右の四方のみに部分的な開口部を形成し、他の部分を遮光することにより構成することができる。これにより、部分的に欠落した環状瞳像517bが得られるようにする。
 尚、環状光学系に対して部分的な開口部及び遮光部を形成する代わりに、中央光学系の上下左右の周辺部(環状光学系の部分的な開口部に対応する位置)のみに、環状光学系と同じ特性の4つの光学系を配置してもよい。
 一方、アレイレンズの各マイクロレンズは、図14の(c)部分に示すようにイメージセンサ518の格子状に配列された各受光セル518aに対して、千鳥配置されたものとする。また、このアレイレンズの各マイクロレンズによりイメージセンサ上に結像される瞳像は、3×3個の受光セルに入射するようにする。
 この環状瞳像517bは、隣接する中央瞳像517aと重なる部分が欠落しているため、中央瞳像517aと環状瞳像517bとがイメージセンサ518上で重なることがない。
 その一方、アレイレンズの各マイクロレンズは、千鳥状に密に配置することができ、アレイレンズの1マイクロレンズ当たりに割り付けるイメージセンサの受光セルの割付数を、第2の実施形態よりも少なくすることができる。即ち、イメージセンサの受光セル数をMとし、イメージセンサから得られる広角画像及び望遠画像の画素数をそれぞれNとすると、受光セル数Mと画素数Nの比は、M:N=2:1となる。
 図14の(d)部分は、イメージセンサ518に配設されたカラーフィルタ配列を示す図である。
 図14の(d)部分に示すようにイメージセンサ518に配設されたカラーフィルタ配列は、4×4個の受光セルを基本ブロックB(図14の(d)部分の太枠で示したブロック)とし、基本ブロックBが水平方向及び垂直方向に繰り返し配置されて構成されている。
 また、同図において、太枠で示した受光セルが、1マイクロレンズに対応する3×3個の受光セルの中央の受光セルに対応する。
 千鳥配置されたアレイレンズの各マイクロレンズに対応する3×3個の受光セルの中央の受光セルのグループの画像は、RGBの受光セルが千鳥配置されたモザイク画像となる。本例の場合、RGBの受光セルが千鳥配置されるモザイク画像は、水平方向にG受光セルが連続するGラインと、B受光セルとR受光セルとが交互に配置されたBRラインとが交互に配列される。
 一方、3×3個の受光セルの中央の受光セルを挟む上下左右の4個の受光セルは、RGBの受光セルを含む。即ち、中央のG受光セルを挟む上下の受光セルは、G受光セルであり、中央のG受光セルを挟む左右の受光セルは、R受光セルとB受光セルである。また、R又はBの中央の受光セルを挟む上下の受光セルは、R受光セルとB受光セルであり、中央のR又はB受光セルを挟む左右の受光セルは、G受光セルである。
 即ち、上下左右の四方のみに部分的な開口部が形成された環状瞳像517b(図14の(b)部分)に対応する4個の受光セルは、RGBの受光セルが満遍なく割り付けられ、1個のR受光セル、2個のG受光セル、1個のB受光セルを有している。
 これにより、望遠画像を生成する場合に、1マイクロレンズに対応する5個の受光セルのうちの中央の受光セルを挟む上下左右の4個の受光セルから、全ての波長域の画素信号を得ることができる。
 [本発明に係る撮像装置の第4の実施形態]
 次に、本発明に係る撮像装置の第4の実施形態について、図15及び図16を用いて説明する。尚、第4の実施形態の撮像装置は、第1、2、3の実施形態とは、主として多様レンズ、アレイレンズ及びイメージセンサが相違するため、以下、その相違点について説明する。
 まず、多様レンズとして、図15の(a)部分に示す中央瞳像17a及び環状瞳像17bが得られる多様レンズ12の代わりに、図15の(b)部分に示す中央瞳像617a及び環状瞳像617b、617cが得られるものを使用する。
 この場合、同心円状に分割された中央光学系及び環状光学系からなる多様レンズのうちの環状光学系は、中央瞳像617aに対応する中央光学系を中心に、60度ずつ方向が異なる六方のみに部分的な開口部が形成され、かつ120度三方の環状瞳像617b及び環状瞳像617cに対応する開口部に配置された2組の光学系(第3の光学系、第4の光学系)により構成されている。
 第4の実施形態では、中央瞳像617aに対応する中央光学系は広角光学系であり、環状瞳像617b及び環状瞳像617cに対応する第3の光学系及び第4の光学系は、それぞれ焦点距離が異なる2種類の望遠光学系である。
 また、イメージセンサ618は、図15の(c)部分に示すように受光セル618aが六方格子状に配列されている。
 一方、アレイレンズの各マイクロレンズは、図15の(c)部分に示すようにイメージセンサ618の六方格子状に配列された各受光セル618aに対して、千鳥配置されたものであり、水平方向に1つ置きに配置され、垂直方向に2つ置きに配置されているものとする。
 そして、アレイレンズの各マイクロレンズによりイメージセンサ618上にそれぞれ結像される中央瞳像617aは、各マイクロレンズの中心位置に対応する1つの受光セルに入射し、環状瞳像617b(第1の環状瞳像)及び環状瞳像617c(第2の環状瞳像)は、それぞれ各マイクロレンズの中心位置に対応する1つの受光セルの周囲の6個の受光セル(120度三方に位置する3個×2の受光セル)に入射する。
 図15の(c)部分に示すように環状瞳像617b及び環状瞳像617cは、それぞれ隣接する環状瞳像617b及び環状瞳像617cとイメージセンサ618上で重なるが、環状瞳像617bと環状瞳像617cとが重なることはない。
 イメージセンサ618の受光セル数をMとし、イメージセンサ618から得られる広角画像、焦点距離が異なる2つの望遠画像の画素数をそれぞれNとすると、受光セル数Mと画素数Nの比は、M:N=3:1となる。
 尚、第4の実施形態では、環状瞳像617b及び環状瞳像617cに対応する第3の光学系及び第4の光学系は、それぞれ焦点距離が異なる2種類の望遠光学系であるが、これに限らず、例えば、撮影距離(ピント位置)が異なる2つの望遠光学系であってもよい。
 図16の(a)部分~(f)部分は、それぞれイメージセンサ618に配設されるカラーフィルタ配列を示す図である。
 図16の(a)部分に示すカラーフィルタ配列は、左上に示した9個の受光セルを基本ブロックとし、基本ブロックが水平方向及び垂直方向に繰り返し配置されて構成されている。
 また、同図において、太枠で示した受光セルが、1マイクロレンズに対応する7個の受光セル(1つの中央の受光セルと周囲の6個の受光セル)のうちの中央の受光セルに対応する。
 千鳥配置されたアレイレンズの各マイクロレンズに対応する7個の受光セルの中央の受光セルのグループの画像は、RGBの受光セルが千鳥配置されたモザイク画像となり、水平方向の各ライン上にRGBの受光セルを含んでいる。
 一方、中央の受光セルの周囲6個の受光セルのうちの、120度三方の環状瞳像617bに対応する120度三方に位置する3個の受光セルには、それぞれRGBの受光セルが1個ずつ割り付けられ、同様に120度三方の環状瞳像617cに対応する120度三方に位置する3個の受光セルも、それぞれRGBの受光セルが1個ずつ割り付けられている。
 これにより、2つの望遠画像をそれぞれ生成する場合に、1マイクロレンズに対応する7個の受光セルのうちの周囲6個の受光セルから、全ての波長域の画素信号を得ることができる。
 尚、図16の(b)部分~(f)部分に示すカラーフィルタ配列も、それぞれ上記図16の(a)部分に示したカラーフィルタ配列と同様に、1マイクロレンズに対応する7個の受光セルのうちの周囲6個の受光セルから、全ての波長域の画素信号を2組得ることができる。
 [撮影光学系の第2の実施形態]
 図17は、撮像装置10(撮像モジュール11)に適用可能な多様レンズの第2の実施形態を示す断面図である。
 この多様レンズ112は、それぞれ同一の光軸上に配置された中央部の中央光学系113とその周辺部の環状光学系114とから構成されている。
 中央光学系113は、第1レンズ113a、第2レンズ113b、及び共通レンズ115から構成された望遠光学系であり、画角αを有している。
 環状光学系114は、レンズ114a及び共通レンズ115から構成された広角光学系であり、画角β(β>α)を有し、中央光学系113よりも広角である。
 この多様レンズ112は、図3に示した多様レンズ12と比較すると、反射ミラーを使用しておらず、また、中央光学系113が望遠光学系であり、環状光学系114が広角光学系である点で相違する。
 撮像装置10の他の実施形態としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。
 <スマートフォンの構成>
 図18は、撮像装置10の他の実施形態であるスマートフォン500の外観を示すものである。図18に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。尚、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用することや、折り畳み構造やスライド機構を有する構成を採用することもできる。
 図19は、図18に示したスマートフォン500の構成を示すブロック図である。図19に示すように、スマートフォン500の主たる構成要素として、無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記憶部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。また、スマートフォン500の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部510は、主制御部501の指示に従って、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部520は、主制御部501の制御により、画像(静止画及び動画)や文字情報などを表示して視覚的にユーザに情報を伝達すると共に、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。生成された3D画像を鑑賞する場合には、表示パネル521は、3D表示パネルであることが好ましい。
 表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。
 操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。
 図18に示すように、スマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。この配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 尚、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要はない。また、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力したり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力するものである。また、図18に示すように、例えば、スピーカ531及びマイクロホン532を表示入力部520が設けられた面と同じ面に搭載することができる。
 操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、操作部540は、スマートフォン500の筐体502の表示部の下部、下側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部550は、主制御部501の制御プログラムや制御データ、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552により構成される。尚、記憶部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth(登録商標))、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、イヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達することや、スマートフォン500の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部570は、主制御部501の指示に従って、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該スマートフォン500の緯度、経度、高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できるときには、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部580は、例えば、3軸の加速度センサなどを備え、主制御部501の指示に従って、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。
 電源部590は、主制御部501の指示に従って、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部501は、マイクロプロセッサを備え、記憶部550が記憶する制御プログラムや制御データに従って動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部550が記憶するアプリケーションソフトウェアに従って主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。
 更に、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。
 表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示し、あるいは電子メールを作成するためのウィンドウを表示する。尚、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定し、操作パネル522の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部541は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラである。このカメラ部541に前述した撮像装置10(又は撮像モジュール11)を適用することができる。メカ的な切り替え機構等を必要とせずに、広角画像と望遠画像とを撮影することができ、スマートフォン500のように薄型の携帯端末に組み込むカメラ部として好適である。
 また、カメラ部541は、主制御部501の制御により、撮影によって得た画像データを、例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部550に記録したり、外部入出力部560や無線通信部510を通じて出力することができる。図18に示すにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、あるいは、複数のカメラ部541が搭載されてもよい。尚、複数のカメラ部541が搭載されている場合には、撮影に供するカメラ部541を切り替えて単独にて撮影したり、あるいは、複数のカメラ部541を同時に使用して撮影することもできる。
 また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。更には、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、あるいは、3軸の加速度センサと併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。
 [その他]
 本実施形態では、同時に撮像される特性の異なる複数の画像のうちの少なくとも1つの画像を生成するための波長域別の画素として、RGBの3色の受光セルを1マイクロレンズ毎に割り付けるようにしたが、複数波長から1出力を得るカラーイメージセンサには、3色(RGBなど)のカラーイメージセンサの他に2色のカラーイメージセンサもあるため、2色の受光セルを1マイクロレンズ毎に割り付けるようにしてもよい。
 3色よりも識別数は少なくなるが、構成が簡便になるため、用途によっては2色で十分なケースもあり、この場合、2つの波長域別の色信号(色情報)から1種の画像出力を得ることになる。
 よって、本発明の最小の構成は、Y個(Y=3)の画素に対して、1つのマイクロレンズを割り付け、更に1つ目のグループにX個(X=2)のセンシングする波長域の異なる受光セルを割り付けて2種の波長を検出(2色センシング)し、2つ目のグループに1個の受光セルを割り付けて1種の波長を検出する構成になる。これにより、1つ目のグループ(2色センシング)の実効的なデータサンプリング数をマイクロレンズの数と等しくすることができ、2つ目のグループのサンプリング数もマイクロレンズの数と等しくすることができる。
 また、1つの画像を生成するための波長域別の画素信号を出力する受光セルとして、RGBの受光セルの何れかの受光セルの代わりに、又はRGBの受光セルに加えて、透明(ホワイト)、エメラルド色等の他の色に対応する色フィルタを有する受光セルを割り付けるようにしてもよい。更に、可視光をカットして赤外光のみを透過させるフィルタを有する受光セルを割り付けるようにしてもよく、これによれば、赤外画像を取得することができる。
 また、本実施形態の多様レンズは、中央光学系及び環状光学系のうちの一方を広角光学系、他方を望遠光学系としたが、これに限らず、例えば、合焦距離が異なる2種類の光学系、空間周波数特性(ボケ味)が異なる2種類の光学系等、種々の光学系の適用が考えられる。
 更に、本実施形態では、多様レンズとして、複数の特性が異なる光学系が同心円分割されたものを使用したが、これに限らず、上下4分割、あるいは上下左右の4分割された撮像光学系でもよい。
 また、図3に示した多様レンズ12の反射ミラー型のレンズ構成のうちの反射ミラーは、凹面鏡や凸面鏡に限らず、平面鏡でもよく、また、反射ミラーの枚数も2枚に限らず、3枚以上設けるようにしてもよい。
 更にまた、中央光学系及び環状光学系の共通レンズ、又はイメージセンサを光軸方向に移動させる移動機構を設け、これにより焦点調節を行うようにしてもよい。
 また、本実施形態では、瞳分割手段としてアレイレンズ16を使用したが、これに限らず、アレイレンズ16の各マイクロレンズ16aの位置にピンホールを設け、各ピンホールにより多様レンズの瞳像を複数の受光セルに入射させるもの、受光セル毎に設けたマイクロレンズと遮光マスクとにより、多様レンズの特性の異なる各領域を通過した光束を、異なる受光セルに入射させるもの(例えば、特許文献4)を適用することができる。
 更に、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。

Claims (21)

  1.  特性が異なるX(Xは2以上の整数)個の被写体像を同時に撮像し、前記X個の被写体像の少なくとも1つの被写体像に対し、複数の波長域の画素信号を出力する撮像モジュールであって、
     被写体光が入射するX個の領域を有し、X個の領域毎に特性が異なる被写体像を同じ像面で重ねて結像させる多様レンズと、
     前記多様レンズの瞳像を前記X個の領域毎に分割する瞳分割手段と、
     前記瞳分割手段によって分割されたX個の瞳像をそれぞれ受光するX個の受光領域に対応して配設されたY(X+1以上の整数)個の光電変換器と、を備え、
     前記X個の受光領域のうちの少なくとも1つの受光領域には、複数の光電変換器が配設され、
     前記1つの受光領域に配設された複数の光電変換器は、前記複数の波長域の画素信号を出力する撮像モジュール。
  2.  前記1つの受光領域に配設された複数の光電変換器は、前記複数の波長域の情報からなる画像を構成する画素を生成するために必要な全ての波長域の画素信号を出力する請求項1に記載の撮像モジュール。
  3.  前記瞳分割手段は、2次元状に配列されたマイクロレンズから構成されたアレイレンズであって、前記光電変換器の入射面側に配設され、各マイクロレンズにより前記多様レンズの瞳像を前記Y個の光電変換器に入射させるアレイレンズである請求項1又は2に記載の撮像モジュール。
  4.  前記瞳分割手段及び前記Y個の光電変換器を単位ブロックとすると、前記1つの受光領域に配設された複数の光電変換器は、同じ波長域の画素信号を出力する2以上の光電変換器を含み、前記2以上の光電変換器は、前記単位ブロックの中心に対して対称位置に配置されている請求項1から3のいずれか1項に記載の記載の撮像モジュール。
  5.  前記1つの受光領域に配設された複数の光電変換器は、赤(R)、緑(G)、及び青(B)の波長域毎の画素信号を出力する請求項1から4のいずれか1項に記載の撮像モジュール。
  6.  前記多様レンズは、中央の第1の光学系と、前記第1の光学系の周辺部に設けられ、該第1の光学系とは特性が異なる第2の光学系とからなる請求項1から5のいずれか1項に記載の撮像モジュール。
  7.  前記多様レンズは、前記第1の光学系及び第2の光学系のうちの一方が広角光学系であり、他方が望遠光学系である請求項6に記載の撮像モジュール。
  8.  前記多様レンズの第1の光学系は円形の中央光学系であり、前記第2の光学系は前記中央光学系に対して同心円状に配設された環状光学系である請求項6又は7に記載の撮像モジュール。
  9.  前記多様レンズの第1の光学系は円形の中央光学系であり、前記第2の光学系は前記中央光学系に対して同心円状に配設された環状光学系であり、
     前記瞳分割手段及び前記Y個の光電変換器を単位ブロックとすると、前記単位ブロックは、格子状に配列された3×3個の光電変換器を有し、
     前記中央光学系に対応する中央瞳像は、前記単位ブロックの中央の光電変換器に入射し、
     前記環状光学系に対応する環状瞳像は、前記単位ブロックの周囲の8個の光電変換器に入射する請求項6又は7に記載の撮像モジュール。
  10.  前記単位ブロックの中央の光電変換器は、赤(R)、緑(G)及び青(B)の波長域の画素信号のうちのいずれか1つの画素信号を出力し、かつ複数の前記単位ブロックの中央の光電変換器は、R、G及びBの波長域の画素信号を出力する光電変換器が周期的に配列されている請求項9に記載の撮像モジュール。
  11.  前記単位ブロックの周囲の8個の光電変換器は、Gの波長域の画素信号を出力する4個の光電変換器と、Rの波長域の画素信号を出力する2個の光電変換器と、Bの波長域の画素信号を出力する2個の光電変換器とからなる請求項9又は10に記載の撮像モジュール。
  12.  格子状に配列された6×6個の前記光電変換器を基本ブロックとし、該基本ブロックが水平方向及び垂直方向に繰り返し配置されてイメージセンサが構成されている請求項9から11のいずれか1項に記載の撮像モジュール。
  13.  前記アレイレンズは、各マイクロレンズにより前記光電変換器上にそれぞれ入射させる瞳像のうち、互いに隣り合う前記瞳像の一部同士を前記光電変換器上で重複させる請求項3に記載の撮像モジュール。
  14.  前記多様レンズは、中央の第1の光学系と、前記第1の光学系の周辺部に設けられ、該第1の光学系とは特性が異なる第2の光学系とからなり、
     前記瞳分割手段及び前記Y個の光電変換器を単位ブロックとすると、前記単位ブロックは、格子状に配列された3×3個の光電変換器を有し、
     前記多様レンズの第1の光学系は円形の中央光学系であり、前記第2の光学系は前記中央光学系に対して同心円状に配設された環状光学系であり、
     前記第1の光学系に対応する中央瞳像は、前記単位ブロックの中央の光電変換器に入射し、
     前記第2の光学系に対応する環状瞳像は、前記単位ブロックの周囲の8個の光電変換器に入射し、
     格子状に配列された4×4個の光電変換器を基本ブロックとし、該基本ブロックが水平方向及び垂直方向に繰り返し配置されてイメージセンサが構成されている請求項13に記載の撮像モジュール。
  15.  前記多様レンズは、中央の第1の光学系と、前記第1の光学系の周辺部に設けられ、該第1の光学系とは特性が異なる第2の光学系とからなり、
     前記多様レンズの第1の光学系は円形の中央光学系であり、前記第2の光学系は前記中央光学系に対して同心円状に配設された環状光学系であり、
     前記アレイレンズは、各マイクロレンズにより前記Y個の光電変換器にそれぞれ結像させる瞳像のうち、互いに隣り合う前記環状光学系に対応する環状瞳像の一部同士を前記Y個の光電変換器上で重複させるとともに、互いに隣り合う前記中央光学系に対応する中央瞳像と前記第2の光学系に対応する環状瞳像の一部とを重複させ、
     前記環状光学系は、前記中央光学系に対応する中央瞳像と重複する環状瞳像の一部に対応する部分が遮光され、又は前記中央光学系に対応する中央瞳像と重複する環状瞳像の一部に対応する部分が欠落して形成されている請求項3に記載の撮像モジュール。
  16.  前記多様レンズは、中央の第1の光学系と、前記第1の光学系の周辺部に設けられ、該第1の光学系とは特性が異なる第2の光学系とからなり、
     前記多様レンズの第1の光学系は円形の中央光学系であり、前記第2の光学系は前記中央光学系に対して同心円状に配設された環状光学系であって、特性が異なる第3の光学系と第4の光学系とが交互に配置されてなる環状光学系であり、
     前記アレイレンズは、各マイクロレンズにより前記Y個の光電変換器にそれぞれ結像させる瞳像のうち、互いに隣り合う前記環状光学系の第3の光学系に対応する第1の環状瞳像同士を前記Y個の光電変換器上で重複させるとともに、互いに隣り合う前記環状光学系の第4の光学系に対応する第2の環状瞳像同士を前記Y個の光電変換器上で重複させる請求項3に記載の撮像モジュール。
  17.  前記光電変換器が六方格子状に配列され、
     前記瞳分割手段及び前記Y個の光電変換器を単位ブロックとすると、前記単位ブロックは、1個の中央の光電変換器と周囲の6個の光電変換器とからなり、
     前記中央光学系に対応する中央瞳像は、前記中央の光電変換器に入射し、前記環状光学系の第3の光学系に対応する第1の環状瞳像は、前記周囲の6個の光電変換器のうちの前記中央の光電変換器から120度3方向の3個の光電変換器に入射し、前記環状光学系の第4の光学系に対応する第2の環状瞳像は、前記周囲の6個の光電変換器のうちの前記中央の光電変換器から120度3方向の他の3個の光電変換器に入射する請求項16に記載の撮像モジュール。
  18.  前記多様レンズの中央光学系は広角光学系であり、前記環状光学系の第3の光学系及び第4の光学系はそれぞれ焦点距離の異なる望遠光学系である請求項16又は17に記載の撮像モジュール。
  19.  前記多様レンズの中央光学系は広角光学系であり、前記環状光学系の第3の光学系及び第4の光学系はそれぞれ撮影距離の異なる望遠光学系である請求項16又は17に記載の撮像モジュール。
  20.  前記環状光学系は、光束を2回以上反射させる反射光学系を有する請求項8から12及び14から19のいずれか1項に記載の撮像モジュール。
  21.  請求項1から20のいずれか1項に記載の撮像モジュールと、
     前記瞳分割手段及び前記Y個の光電変換器を単位ブロックとすると、前記1つの単位ブロック内の光電変換器から出力される画素信号に基づいて、前記複数の波長域の情報からなる少なくとも1つの画像を構成する1画素分の画像信号を生成する画像生成部と、
     を備えた撮像装置。
PCT/JP2014/082391 2013-12-20 2014-12-08 撮像モジュール及び撮像装置 WO2015093332A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14871445.4A EP3086546B1 (en) 2013-12-20 2014-12-08 Image capturing module and image capturing device
CN201480067516.6A CN105814882B (zh) 2013-12-20 2014-12-08 摄像模块及摄像装置
US15/163,755 US10027918B2 (en) 2013-12-20 2016-05-25 Imaging module that captures subject images having different characteristics and imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-263660 2013-12-20
JP2013263660A JP6151632B2 (ja) 2013-12-20 2013-12-20 撮像モジュール及び撮像装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/163,755 Continuation US10027918B2 (en) 2013-12-20 2016-05-25 Imaging module that captures subject images having different characteristics and imaging device

Publications (1)

Publication Number Publication Date
WO2015093332A1 true WO2015093332A1 (ja) 2015-06-25

Family

ID=53402681

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/082391 WO2015093332A1 (ja) 2013-12-20 2014-12-08 撮像モジュール及び撮像装置

Country Status (5)

Country Link
US (1) US10027918B2 (ja)
EP (1) EP3086546B1 (ja)
JP (1) JP6151632B2 (ja)
CN (1) CN105814882B (ja)
WO (1) WO2015093332A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3131292A1 (en) * 2015-08-14 2017-02-15 Thomson Licensing Plenoptic camera comprising a shuffled color filter array
WO2017029827A1 (ja) * 2015-08-19 2017-02-23 富士フイルム株式会社 撮像装置、撮像方法、プログラム、及び非一時的記録媒体
WO2017126242A1 (ja) * 2016-01-18 2017-07-27 富士フイルム株式会社 撮像装置、及び、画像データ生成方法
CN108139559A (zh) * 2015-08-19 2018-06-08 富士胶片株式会社 透镜装置
WO2020050289A1 (ja) * 2018-09-07 2020-03-12 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法および画像処理プログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9876946B2 (en) * 2015-08-03 2018-01-23 Semiconductor Energy Laboratory Co., Ltd. Imaging device and electronic device
JP6409134B2 (ja) 2015-08-19 2018-10-17 富士フイルム株式会社 撮像装置
JP2018197765A (ja) * 2015-10-08 2018-12-13 富士フイルム株式会社 撮像装置
JP2018198344A (ja) * 2015-10-08 2018-12-13 富士フイルム株式会社 レンズ装置、撮像ユニット及び撮像装置
USD861211S1 (en) * 2015-12-08 2019-09-24 Coast Cutlery Co. Headlamp
USD812278S1 (en) * 2016-01-03 2018-03-06 Industrial Revolution, Inc. Headlamp assembly with adjustable head strap
USD843035S1 (en) * 2016-01-03 2019-03-12 Industrial Revolutions, Inc. Headlamp
JPWO2018030213A1 (ja) * 2016-08-09 2019-06-13 ソニー株式会社 固体撮像素子、固体撮像素子の瞳補正方法、撮像装置及び情報処理装置
EP3686642A1 (en) * 2019-01-24 2020-07-29 Depixus Multichannel close-up imaging device
TWI710793B (zh) 2019-08-23 2020-11-21 大立光電股份有限公司 光學攝影系統及電子裝置
JP2022085551A (ja) * 2020-11-27 2022-06-08 セイコーエプソン株式会社 画像処理装置
CN112911150A (zh) * 2021-01-29 2021-06-04 广州合易威视信息科技有限公司 一种目标区域高清人脸自动抓拍方法
KR20230006343A (ko) 2021-07-02 2023-01-10 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102635554B1 (ko) * 2021-11-26 2024-02-13 국방과학연구소 이미지를 생성하기 위한 장치 및 방법
CN115629076A (zh) * 2022-09-27 2023-01-20 威海华菱光电股份有限公司 一种阵列式图像检测装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0583746U (ja) * 1992-04-14 1993-11-12 コニカ株式会社 フィルム一体型カメラの多焦点レンズ
JP2010239337A (ja) * 2009-03-31 2010-10-21 Sony Corp 固体撮像装置、固体撮像装置の信号処理方法および撮像装置
JP2012247645A (ja) * 2011-05-27 2012-12-13 Fujifilm Corp 撮像装置
JP2012253670A (ja) 2011-06-06 2012-12-20 Fujifilm Corp 撮像装置
JP2013090059A (ja) 2011-10-14 2013-05-13 Sony Corp 撮像装置、画像生成システム、サーバおよび電子機器
JP2013115532A (ja) 2011-11-28 2013-06-10 Sony Corp 画像処理装置および方法、記録媒体、並びに、プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0583746A (ja) * 1991-09-19 1993-04-02 Nippon Telegr & Teleph Corp <Ntt> 3次元表示装置
US7764440B2 (en) * 2007-11-27 2010-07-27 Eastman Kodak Company Dual focal length lens system
JP5302663B2 (ja) * 2008-12-24 2013-10-02 キヤノン株式会社 焦点検出装置及び方法、及び撮像装置
JP5246424B2 (ja) * 2009-05-11 2013-07-24 ソニー株式会社 撮像装置
EP2624540B1 (en) * 2010-10-01 2016-11-09 FUJIFILM Corporation Imaging device
GB2488519A (en) * 2011-02-16 2012-09-05 St Microelectronics Res & Dev Multi-channel image sensor incorporating lenslet array and overlapping fields of view.
EP2536153B1 (en) * 2011-04-22 2016-04-13 Panasonic Intellectual Property Management Co., Ltd. Image capture device, image capture system, and image capture method
EP3267677B1 (en) * 2011-08-24 2019-08-28 Fujifilm Corporation Imaging device
CN103237162A (zh) * 2013-04-15 2013-08-07 华中科技大学 光学数据采集装置及产生输出与场景对应图像数据的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0583746U (ja) * 1992-04-14 1993-11-12 コニカ株式会社 フィルム一体型カメラの多焦点レンズ
JP2010239337A (ja) * 2009-03-31 2010-10-21 Sony Corp 固体撮像装置、固体撮像装置の信号処理方法および撮像装置
JP2012247645A (ja) * 2011-05-27 2012-12-13 Fujifilm Corp 撮像装置
JP2012253670A (ja) 2011-06-06 2012-12-20 Fujifilm Corp 撮像装置
JP2013090059A (ja) 2011-10-14 2013-05-13 Sony Corp 撮像装置、画像生成システム、サーバおよび電子機器
JP2013115532A (ja) 2011-11-28 2013-06-10 Sony Corp 画像処理装置および方法、記録媒体、並びに、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3086546A4

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9807368B2 (en) 2015-08-14 2017-10-31 Thomson Licensing Plenoptic camera comprising a shuffled color filter array
EP3131292A1 (en) * 2015-08-14 2017-02-15 Thomson Licensing Plenoptic camera comprising a shuffled color filter array
EP3339931A4 (en) * 2015-08-19 2018-08-08 Fujifilm Corporation Lens device
JPWO2017029827A1 (ja) * 2015-08-19 2018-01-18 富士フイルム株式会社 撮像装置、撮像方法、プログラム、及び非一時的記録媒体
CN108139559A (zh) * 2015-08-19 2018-06-08 富士胶片株式会社 透镜装置
WO2017029827A1 (ja) * 2015-08-19 2017-02-23 富士フイルム株式会社 撮像装置、撮像方法、プログラム、及び非一時的記録媒体
US10393993B2 (en) 2015-08-19 2019-08-27 Fujifilm Corporation Lens device
US10552963B2 (en) 2015-08-19 2020-02-04 Fujifilm Corporation Imaging device, imaging method, and non-transitory recording medium
WO2017126242A1 (ja) * 2016-01-18 2017-07-27 富士フイルム株式会社 撮像装置、及び、画像データ生成方法
CN108432233A (zh) * 2016-01-18 2018-08-21 富士胶片株式会社 摄像装置及图像数据生成方法
US10691002B2 (en) 2016-01-18 2020-06-23 Fujifilm Corporation Imaging device and image data generation method
CN108432233B (zh) * 2016-01-18 2020-08-18 富士胶片株式会社 摄像装置及图像数据生成方法
WO2020050289A1 (ja) * 2018-09-07 2020-03-12 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法および画像処理プログラム
US11847759B2 (en) 2018-09-07 2023-12-19 Sony Semiconductor Solutions Corporation Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP6151632B2 (ja) 2017-06-21
CN105814882A (zh) 2016-07-27
JP2015119456A (ja) 2015-06-25
EP3086546B1 (en) 2018-08-01
CN105814882B (zh) 2018-10-02
EP3086546A4 (en) 2016-12-14
EP3086546A1 (en) 2016-10-26
US10027918B2 (en) 2018-07-17
US20160269667A1 (en) 2016-09-15

Similar Documents

Publication Publication Date Title
JP6151632B2 (ja) 撮像モジュール及び撮像装置
JP6077967B2 (ja) 撮像装置
US9674461B2 (en) Imaging device and imaging method
JP5690977B2 (ja) 撮像素子及び撮像装置
JP6165680B2 (ja) 撮像装置
US10003731B2 (en) Image element, and imaging device and imaging method using the same for achieving improved image quality regardless of an incident angle of light
JP5697801B2 (ja) 撮像装置及び自動焦点調節方法
JP5959714B2 (ja) 撮像装置
JP5802858B2 (ja) 撮像装置、画像処理装置、画像処理方法及びプログラム
WO2015045829A1 (ja) 撮像装置及び撮像方法
WO2014050699A1 (ja) 画像処理装置及び方法並びに撮像装置
WO2014006783A1 (ja) 撮像装置及び画像処理方法
US9204114B2 (en) Imaging element and imaging apparatus
US9344646B2 (en) Imaging device and imaging method
JP6427720B2 (ja) 撮像素子及び撮像装置
JP5740053B6 (ja) 撮像装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14871445

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2014871445

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014871445

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE