WO2016080150A1 - 撮像装置、撮像方法及び画像処理プログラム - Google Patents

撮像装置、撮像方法及び画像処理プログラム Download PDF

Info

Publication number
WO2016080150A1
WO2016080150A1 PCT/JP2015/080049 JP2015080049W WO2016080150A1 WO 2016080150 A1 WO2016080150 A1 WO 2016080150A1 JP 2015080049 W JP2015080049 W JP 2015080049W WO 2016080150 A1 WO2016080150 A1 WO 2016080150A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light receiving
interference
receiving element
region
Prior art date
Application number
PCT/JP2015/080049
Other languages
English (en)
French (fr)
Inventor
小野 修司
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP15861459.4A priority Critical patent/EP3223509A4/en
Priority to JP2016560127A priority patent/JP6397048B2/ja
Priority to CN201580063159.0A priority patent/CN107005652B/zh
Publication of WO2016080150A1 publication Critical patent/WO2016080150A1/ja
Priority to US15/499,911 priority patent/US10142569B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/615Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0085Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing wafer level optics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Definitions

  • the present invention relates to an imaging apparatus, an imaging method, and an image processing program, and more particularly to an imaging apparatus, an imaging method, and an image processing program that can simultaneously acquire a plurality of images having different characteristics.
  • a multi-lens including a first region having a first characteristic and a second region having a second characteristic different from the first characteristic, a light beam passing through the first region of the multi-lens, and a second And a directional sensor capable of simultaneously acquiring a first image having the first characteristic and a second image having the second characteristic by receiving the light beam that has passed through the region of the light by dividing the pupil.
  • An imaging device has been proposed (Patent Documents 1 and 2).
  • the directional sensor is configured to have an angle characteristic in the light detection sensitivity
  • Patent Documents 1 and 2 disclose the following directional sensors.
  • Directional sensor in which the photodetection sensitivity has angular characteristics by assigning one microlens to multiple light receiving cells (2) A light shielding mask is placed near the light receiving cells to Directional sensor with angle characteristics in photodetection sensitivity by shielding light flux that passed through first area or light flux that passed through second area (3) Provide prism elements that function as prisms for each light receiving cell The directional sensor in which the angle characteristic is given to the light detection sensitivity by the prism element.
  • the imaging device described in Patent Documents 1 and 2 has various lenses having different characteristics depending on the location of the pupil region, and the angle characteristic to the light detection sensitivity. By combining with a directional sensor, a variety of images with different characteristics can be simultaneously captured with a single directional sensor and various lenses.
  • an imaging apparatus has been proposed that can use a directional sensor in which only a part of the light receiving cells are provided with a light-shielding mask to simultaneously capture various images with different characteristics (Patent Document 3).
  • the imaging device described in Patent Literature 3 includes a variety of lenses having a ratio a that the first region of the various lenses occupies a ratio a and a ratio b (a ⁇ b) of the second region, and a first region of the variety of lenses.
  • Directivity including a first light receiving cell provided with a light-shielding mask so that only a light beam passing therethrough is incident and a second light receiving cell into which a light beam passing through the first region and the second region of the various lenses is incident And a sensor. Then, a first image having the characteristics of the first region is acquired from the first light receiving cell of the directivity sensor, and a second image having the first and second characteristics is acquired from the second light receiving cell. I am doing so.
  • the first characteristic and the second characteristic of the various lenses are mixed, but the ratio b occupied by the second area is larger than the ratio a occupied by the first area. It mainly has the second characteristic.
  • the directivity sensors described in Patent Documents 1 and 2 are configured to have angular characteristics in the light detection sensitivity, they pass through the first region and the second region of the various lenses. It is difficult to accurately divide the light flux into pupils, so that the light fluxes that have passed through the first area are incident only on the first light receiving cell, and the light flux that has passed through the second area is incident only on the second light receiving cell.
  • the first image includes an interference component indicating the characteristics of the second region of the various lenses
  • the second image includes an interference component indicating the characteristics of the first region.
  • the second image acquired from the second light receiving cell includes various lenses. An interference component showing the first characteristic is included.
  • Patent Document 4 discloses a method of removing / reducing interference components from a first image and a second image by image processing.
  • Patent Document 5 describes a color solid-state imaging device in which light receiving areas of a first light receiving cell and a second light receiving cell (light receiving unit) arranged in a checkered pattern (checker pattern shape) are different.
  • JP 2012-253670 A International Publication No. 2012/043212 International Publication No. 2013/027507 International Publication No. 2013/146506 JP-A-2005-286104
  • the directivity sensor in which one microlens is installed for a plurality of light receiving cells is significantly different from a normal image sensor in structure, and a large microlens must be installed with high accuracy. There is a problem that manufacturing and adjustment are difficult.
  • the light shielding mask or the prism element In the directional sensor in which the light shielding mask or the prism element is arranged, it is necessary to add the light shielding mask or the prism element which is not necessary for a normal image sensor as a structure of each light receiving cell, which increases the cost. In addition, there is a problem that it becomes an obstacle to miniaturization of the size (pixel pitch and thickness) of the light receiving cell.
  • a light-shielding mask is not provided in some light-receiving cells of the directional sensor, but structures (light-shielding) are still present in other light-receiving cells of the directional sensor.
  • the problem of increasing the cost and obstructing the miniaturization of the size (pixel pitch and thickness) of the light receiving cell has not been solved.
  • Patent Document 5 the light receiving areas of the first light receiving cells and the second light receiving cells arranged in a checkered pattern are different, which is a high sensitivity image and a low sensitivity image. This is because a high dynamic range image is generated. That is, Patent Document 5 has no idea of simultaneously capturing the first image and the second image having the characteristics of the first region and the second region of the various lenses.
  • the present invention has been made in view of such circumstances, and images corresponding to various characteristics of a variety of lenses having a plurality of characteristics are simultaneously captured using an image sensor having a structure similar to that of a normal image sensor. It is an object of the present invention to provide an imaging apparatus, an imaging method, and an image processing program that can reduce the size of sensor pixels of the image sensor and reduce manufacturing man-hours and costs.
  • an imaging apparatus includes a first region having a first characteristic and a second region having a second characteristic different from the first characteristic.
  • An image sensor in which a variety of lenses, a first light receiving element having a first microlens, and a second light receiving element having a second microlens having a different degree of focus are arranged in a two-dimensional manner
  • the first light receiving element in which the light beam passing through the first area of the various lenses and the light beam passing through the second area are mixedly incident via the first microlens, and the first light receiving element of the various lenses
  • a light beam that passes through the first region and a light beam that passes through the second region are incident on the second microlens through interference, and a second light receiving element having a crosstalk ratio different from that of the first light receiving element;
  • An image sensor and an image sensor The interference components are removed from the first interference image obtained from the first light receiving element and the second interference image obtained from the second light receiving element, respectively, and the first characteristic and the second characteristic
  • the light beam passing through the first region of the various lenses and the light beam passing through the second region interfere with each other, and the first light receiving element and the second light receiving element of the image sensor
  • the crosstalk ratio between the first light receiving element and the second light receiving element is made different.
  • the interference component is removed from each of the first interference image obtained from the first light receiving element of the image sensor and the second interference image obtained from the second light receiving element, and the first characteristic and second of the various lenses are removed.
  • the first image and the second image having the above characteristics are generated.
  • the first microlens provided for the first light receiving element and the second microlens provided for the second light receiving element have different degrees of focus.
  • the sensor pixel can be miniaturized and the number of manufacturing steps and cost can be reduced.
  • the expression “characteristic” is a concept including the meaning of “optical characteristic”.
  • An imaging apparatus includes a microlens including a variety of lenses including a first region having a first characteristic and a second region having a second characteristic different from the first characteristic, and a microlens.
  • An image sensor in which a first light-receiving element having a light-receiving element and a second light-receiving element not having a microlens are two-dimensionally arranged, and a light beam that passes through a first region and a light beam that passes through a second region of the various lenses And the first light receiving element incident through the microlens through interference, the light beam passing through the first region of the various lenses and the light beam passing through the second region are mixedly incident, and the first An image sensor having a second light receiving element having a different interference ratio from the first light receiving element, a first interference image obtained from the first light receiving element of the image sensor, and a second interference obtained from the second light receiving element.
  • the second light receiving element that does not have a microlens does not have an image forming / condensing effect on a light beam that passes through the first region of the various lenses and a light beam that passes through the second region.
  • the second light receiving element having no microlens have different degrees of focus on the light receiving surface of the pupil image of the various lenses.
  • the first light receiving element and the second light receiving element The crosstalk ratio between the light beam passing through the first region and the light beam passing through the second region is also different.
  • the first characteristic of the various lenses and A first image and a second image each having a second characteristic can be generated.
  • the interference removal processing unit includes an inverse matrix of a matrix constituted by the detection gain distribution and the interference gain distribution of each of the first interference image and the second interference image, It is preferable to calculate the first image and the second image based on the first interference image and the second interference image.
  • the detection gain distribution and the interference gain distribution relate to each of the imaging light that has passed through the first region having the first characteristic of the various lenses and the imaging light that has passed through the second region optical system having the second characteristic. Distribution information.
  • the detection gain distribution indicates a distribution (information data) of imaging light appropriately received by the originally intended light receiving element.
  • the detection gain distribution is represented by “the distribution (information data) of the imaging light that has passed through the second region among the imaging light received by the light receiving element”.
  • the interference gain distribution indicates a distribution (information data) of imaging light that is improperly received that is not originally intended in the first light receiving element and the second light receiving element.
  • Interference gain distribution is represented by “distribution (information data) of imaging light that has passed through the first region among imaging light received by the light receiving element”.
  • the first microlens and the second microlens are provided for each of the first light receiving element and the second imaging element, respectively.
  • the microlens forms an image of the pupil of the various lenses on the light receiving surface of the first light receiving element with a first degree of focus
  • the second microlens forms the pupil image of the various lenses of the second light receiving element.
  • An image is formed on the light receiving surface with a second focus degree different from the first focus degree. Since the first microlens and the second microlens have different degrees of focus, the light flux that passes through the first region of the various lenses that enters the light receiving surface of the first light receiving element via the first microlens.
  • the first microlens and the second microlens are respectively provided with a radius of curvature and a light receiving surface of the first light receiving element and a light receiving surface of the second light receiving element, respectively. At least one of the distances is different.
  • the image sensor is a back-illuminated image sensor.
  • the back-illuminated image sensor is advantageous not only for miniaturization of the pixel size but also for high sensitivity because of high light utilization efficiency.
  • the back-illuminated image sensor does not have a circuit layer on the incident surface side of the light receiving unit, the conventional technology using a part of the circuit layer as a light shielding mask cannot be applied. Since the light-shielding mask is not used, it can be applied to a back-illuminated image sensor.
  • the various lenses correspond to the first optical system corresponding to the first region having the first characteristic and the second region having the second characteristic. And a second optical system.
  • the first optical system and the second optical system have a common optical axis, and the first optical system is a circular central optical system.
  • the second optical system is more preferably an annular optical system disposed concentrically with respect to the central optical system.
  • the first optical system and the second optical system are different from each other in at least one of a focal length, a focusing distance, and a modulation transfer function characteristic.
  • the invention includes a first lens having a first region having a first characteristic and a second lens having a second region having a second characteristic different from the first characteristic, and a first microlens.
  • An image sensor in which a first light-receiving element having a second micro-lens having a second micro-lens having a different degree of focus is arranged two-dimensionally, and the first micro-lens has a first micro-lens, A first light receiving element on which a light beam passing through the region and a light beam passing through the second region interfere with each other via the first microlens, a light beam passing through the first region of the various lenses, and a second light beam.
  • An imaging method for an apparatus comprising: The first interference image and the second interference image captured simultaneously by the first and second interference images, which are photoelectrically converted by the first light receiving element of the image sensor, and photoelectrically converted by the second light receiving element.
  • a step of acquiring a second crosstalk image a first crosstalk component is removed from each of the acquired first crosstalk image and second crosstalk image, and the first characteristic and the second characteristic of the various lenses are respectively obtained. Generating an image and a second image.
  • the invention according to yet another aspect includes a first lens having a first lens region having a first characteristic and a second lens region having a second characteristic different from the first characteristic, and a microlens.
  • the light receiving element and the second light receiving element having no microlens are two-dimensionally arranged, and the light flux passing through the first area and the light flux passing through the second area of the various lenses are microscopic.
  • the first light receiving element that is mixedly incident through the lens and the light beam that passes through the first region and the light beam that passes through the second region of the various lenses are mixed and incident, and the first light receiving element.
  • the first of the image sensor From the step of acquiring the first interference image photoelectrically converted by the light receiving element and the second interference image photoelectrically converted by the second light receiving element, and from the acquired first interference image and second interference image Removing first interference component and generating a first image and a second image respectively having a first characteristic and a second characteristic of the various lenses.
  • the step of generating the first image and the second image is performed according to the detection gain distribution and the interference gain distribution of the first interference image and the second interference image, respectively. It is preferable to calculate the first image and the second image based on the inverse matrix of the configured matrix and the first interference image and the second interference image.
  • the invention includes a first lens having a first region having a first characteristic and a second lens having a second region having a second characteristic different from the first characteristic, and a first microlens.
  • An image sensor in which a first light-receiving element having a second micro-lens having a second micro-lens having a different degree of focus is arranged two-dimensionally, and the first micro-lens has a first micro-lens, A first light receiving element on which a light beam passing through the region and a light beam passing through the second region interfere with each other via the first microlens, a light beam passing through the first region of the various lenses, and a second light beam.
  • An image sensor having a second light receiving element having a crosstalk ratio different from that of the first light receiving element.
  • An image processing program for the device A first interference image and a second interference image captured simultaneously by the apparatus, the first interference image photoelectrically converted by the first light receiving element of the image sensor, and the photoelectric conversion by the second light receiving element. Acquiring the second interference image, removing the interference components from the acquired first interference image and second interference image, and having the first characteristic and the second characteristic of the various lenses, respectively. Generating a first image and a second image in a computer.
  • the invention according to yet another aspect includes a first lens having a first lens region having a first characteristic and a second lens region having a second characteristic different from the first characteristic, and a microlens.
  • the light receiving element and the second light receiving element having no microlens are two-dimensionally arranged, and the light flux passing through the first area and the light flux passing through the second area of the various lenses are microscopic.
  • the first light receiving element that is mixedly incident through the lens and the light beam that passes through the first region and the light beam that passes through the second region of the various lenses are mixed and incident, and the first light receiving element.
  • a step of acquiring a first interference image photoelectrically converted by the first light receiving element and a second interference image photoelectrically converted by the second light receiving element, and the acquired first interference image and second interference is realized by a computer.
  • the step of generating the first image and the second image includes the detection gain distribution and the interference gain distribution of the first interference image and the second interference image, respectively. It is preferable to calculate the first image and the second image based on the inverse matrix of the matrix constituted by the first interference image and the second interference image.
  • an image corresponding to each characteristic of a variety of lenses having a plurality of characteristics can be simultaneously captured using a single image sensor.
  • the image sensor according to the present invention is a normal image. Since the structure can be the same as that of the sensor (because an additional structure is unnecessary), the sensor pixel can be miniaturized and the number of manufacturing steps and cost can be reduced.
  • FIG. 1 is a perspective view showing an example of a digital camera (image pickup apparatus) to which the present invention can be applied.
  • FIG. 2 is a perspective view showing an example of an automatic tracking imaging apparatus (imaging apparatus) to which the present invention can be applied.
  • FIG. 3 shows a cross-sectional configuration of the various lenses according to the first embodiment.
  • FIG. 4 is an enlarged cross-sectional view of a main part of the image sensor of the present embodiment.
  • FIG. 5 is a diagram showing a cross-sectional configuration example of the image sensor shown in FIG.
  • FIG. 6 is a diagram showing an optical path of a light beam of a wide-angle image incident on the various lenses (particularly the first optical system) and the image sensor shown in FIG. FIG.
  • FIG. 7 is a diagram showing an optical path of a light beam of a telephoto image incident on the various lenses (particularly the second optical system) and the image sensor shown in FIG.
  • FIG. 8 is a diagram in which the optical path of the wide-angle image and the optical path of the telephoto image are added to the image sensor shown in FIG.
  • FIG. 9 is a diagram illustrating a relationship between a true wide-angle image, a true telephoto image, a first interference image, a second interference image, and a matrix composed of a detection gain distribution and an interference gain distribution.
  • FIG. 10 is a conceptual diagram illustrating a method of calculating an interference removal image (a true wide-angle image, a true telephoto image) from the first interference image and the second interference image acquired from the image sensor.
  • FIG. 10 is a conceptual diagram illustrating a method of calculating an interference removal image (a true wide-angle image, a true telephoto image) from the first interference image and the second interference image acquired from the image sensor.
  • FIG. 11 is a diagram illustrating Expression (1) for calculating the first image (true wide-angle image) and the second image (true telephoto image) from which interference has been removed.
  • FIG. 13 is a diagram showing elements w1_11 to w1_mn constituting “W1” in the equation (1) shown in FIG. FIG.
  • FIG. 14 shows an equation (2) for calculating an element “w1_ij” corresponding to a pixel component (pixel value) constituting the first image (true wide-angle image) derived based on the equation (1) shown in FIG. ).
  • FIG. 15 shows an equation (3) for calculating an element “t1_ij” corresponding to a pixel component (pixel value) constituting the second image (true telephoto image) derived based on the equation (1) shown in FIG. ).
  • FIG. 16 is a block diagram illustrating an internal configuration of a main part of the imaging apparatus illustrated in FIGS. 1 and 2.
  • FIG. 17 is a view for explaining an imaging mechanism using the various lenses according to the second embodiment.
  • FIG. 18 is a graph showing modulation transfer function characteristics (MTF: Modulation Transfer Function) of the first optical system and the second optical system of the various lenses according to the third embodiment.
  • FIG. 19 is an enlarged cross-sectional view of a main part of an image sensor according to another embodiment.
  • FIG. 20 is an enlarged cross-sectional view of a main part of an image sensor according to another embodiment.
  • FIG. 21 is a diagram illustrating an appearance of a smartphone that is an embodiment of the imaging apparatus of the present invention. 22 is a block diagram showing a configuration of the smartphone shown in FIG.
  • the present invention can be widely applied to an imaging apparatus, an imaging method, and an application technique thereof capable of imaging a plurality of types of images using a variety of lenses having a plurality of types of optical characteristics.
  • an imaging apparatus an imaging method, and an application technique thereof capable of imaging a plurality of types of images using a variety of lenses having a plurality of types of optical characteristics.
  • the present invention can be applied not only to an imaging device that captures an image in response to a user operation but also to an imaging device that automatically captures an image.
  • the present invention can also be applied to an imaging apparatus that performs imaging.
  • FIG. 1 is a perspective view showing an example of a digital camera 10 (imaging device 30) to which the present invention can be applied.
  • the various lenses 11 and the flash 13 are provided on the front surface of the camera body of the digital camera 10, and the release button 12 is provided on the upper surface of the camera body.
  • the symbol “L” in FIG. 1 represents the optical axis of the various lenses 11.
  • FIG. 2 is a perspective view showing an example of the automatic tracking imaging device 14 (imaging device 30) to which the present invention can be applied.
  • the holding unit 18 including the gear 19 and the various lenses 11 attached to the holding unit 18 are fixedly installed on a pedestal 16 provided on the apparatus main body 15.
  • the pedestal 16 is provided so as to be rotatable about an axis in the vertical direction Z of the apparatus body 15, and a panning operation about the axis in the vertical direction Z is performed by a pan driving unit (not shown).
  • the gear 19 is provided coaxially with the axis in the horizontal direction X, and when the driving force is transmitted through a gear 19 from a tilt driving unit (not shown), the various lenses 11 are rotated in the vertical direction to perform a tilting operation. Done.
  • the various lenses 11, the holding portion 18 (gear 19), and the base 16 are covered with a dome cover 17 for dustproofing and dripproofing.
  • FIG. 3 is a diagram illustrating a cross-sectional configuration of the various lenses 11 and the image sensor 24 according to the first embodiment.
  • the multi-lens 11 includes a first region having a first characteristic and a second region having a second characteristic different from the first characteristic, and in the present embodiment, the first lens corresponding to the first region.
  • the first optical system 21 and the second optical system 22 have different focal lengths (optical characteristics) and have the same optical axis L.
  • the first optical system 21 is a wide-angle lens.
  • the second optical system 22 is a telephoto lens. Note that, as described above, the different optical characteristics (the second characteristics different from the first characteristics and the first characteristics) in the various lenses 11 according to the first embodiment have different focal lengths (telephoto / wide angle).
  • the configuration of the present invention is not limited thereto, and examples of different optical characteristics include, for example, different focus distances (focus positions) and different transmission wavelength ranges (visible wavelengths). Light and infrared light, etc.
  • it includes different optical characteristics such as when the transmission wavelength range is different due to the multilayer coating, or when the transmission wavelength range is different due to coloring with a pigment.
  • the first optical system (wide-angle lens) 21 shown in FIG. 3 includes a first wide-angle lens 21a, a second wide-angle lens 21b, a third wide-angle lens 21c, and a fourth wide-angle lens arranged on the same optical axis L. 21d for common use and the common lens 23 are included.
  • the second optical system (telephoto lens) 22 is provided with a first telephoto reflector 22b provided with a first telephoto lens 22a, a first telephoto reflective mirror 22c, and a second telephoto reflective mirror 22e. 2 includes a telephoto reflector 22d and a common lens 23.
  • the first optical system 21 (particularly the first wide-angle lens 21a, the second wide-angle lens 21b, the third wide-angle lens 21c, and the fourth wide-angle lens 21d) forms a circular central optical system.
  • the second optical system 22 (particularly the first telephoto lens 22a, the first telephoto reflector 22b, the first telephoto reflector 22c, the second telephoto reflector 22d, and the second telephoto reflector 22e) is provided.
  • the annular optical system is provided in the peripheral portion of the central optical system formed by the first optical system 21 and arranged concentrically with the central optical system formed by the first optical system 21.
  • the common lens 23 is disposed on the optical axis L and is shared between the first optical system 21 and the second optical system 22.
  • the second optical system 22 is a lens group (first lens) provided around the lens group (the first wide-angle lens 21a to the fourth wide-angle lens 21d and the common lens 23) constituting the first optical system 21.
  • the first optical system 21 has the same optical axis L as the first optical system 21, but has a different focal length from the first optical system 21.
  • the image sensor 24 is configured by two-dimensionally arranging a plurality of light receiving elements (also referred to as “light receiving cells” or “light receiving sensors”) 25 with respect to a direction perpendicular to the optical axis L.
  • the image sensor 24 according to the embodiment includes a first light receiving element 25A having different curvature radii (degrees of focus) between the first micro lens 29A and the second micro lens 29B as shown in FIG.
  • the second light receiving elements 25B are arranged in a checkered pattern (checker pattern).
  • FIG. 4 is an enlarged cross-sectional view of the main part of the image sensor 24, showing the first light receiving element 25A and the second light receiving element 25B.
  • charges accumulated in the first photodiode 26A and the second photodiode 26B are formed on the light receiving surface (front surface) side of the first photodiode 26A and the second photodiode 26B.
  • This is a surface irradiation type image sensor provided with a wiring layer 27 on which wiring for reading out a corresponding image signal is formed.
  • smoothing layers 28A and 28B are provided on the incident surface side of the wiring layer 27, and the first microlens 29A and the second microlens 29B (on) are provided on the incident surface side of the smoothing layers 28A and 28B. Chip microlenses) are formed.
  • the first microlens 29A and the second microlens 29B are provided for each of the first light receiving element 25A and the second light receiving element 25B, and the first microlens 29A and the second microlens 29B are provided.
  • a wide-angle image light and a telephoto image light (pupil image of the various lenses 11) incident on the lens 29B are focused on the light receiving surfaces of the first photodiode 26A and the second photodiode 26B, respectively.
  • the image is formed at the in-focus level and the second in-focus level (see FIG. 8).
  • the incident light rays incident on the first microlens 29A and the second microlens 29B change in incident angle according to the distance (image height) from the center of the image sensor 24, and thus the first microlens 29A.
  • the second microlens 29B is preferably arranged (scaled) with a slight shift with respect to the light receiving element 25 in accordance with the position (image height) on the image sensor 24.
  • the image sensor 24 is replaced with the smoothing layers 28A and 28B or between the smoothing layers 28A and 28B and the first microlens 29A and the second microlens 29B, for example, red, green, and blue.
  • Each color filter may be formed and configured as a color image sensor.
  • FIG. 5 is a diagram showing a cross-sectional configuration example of the image sensor 24 shown in FIG.
  • the plurality of light receiving elements 25 constituting the image sensor 24 of the present example include a first light receiving element 25A having a first micro lens 29A and a second light having a second micro lens 29B.
  • the first light receiving element 25A and the second light receiving element 25B are two-dimensionally arranged alternately.
  • the pixel signals of the group of the first light receiving elements 25A and the pixel signals of the group of the second light receiving elements 25B are read out separately, and the pixel signals of the group of the first light receiving elements 25A are read out.
  • the pixel signals of the group of the second light receiving elements 25B are acquired as the sensor output of the first interference image and the sensor output of the second interference image, as will be described later.
  • FIG. 6 is a diagram illustrating an optical path of a light beam of the wide-angle image W incident on the various lenses 11 (particularly, the first optical system 21) and the image sensor 24 illustrated in FIG.
  • the wide-angle image W sequentially passes through the first wide-angle lens 21a, the second wide-angle lens 21b, the third wide-angle lens 21c, the fourth wide-angle lens 21d, and the common lens 23 of the first optical system 21. Then, an image is formed on the image sensor 24.
  • FIG. 7 is a diagram showing an optical path of the luminous flux of the telephoto image T incident on the various lenses 11 (particularly the second optical system 22) and the image sensor 24 shown in FIG.
  • the telephoto image T passes (transmits) through the first telephoto lens 22a, passes through the common lens 23 after being reflected by each of the first telephoto reflection mirror 22c and the second telephoto reflection mirror 22e.
  • the image is formed on the image sensor 24.
  • the optical axis of the second optical system 22 for taking a telephoto image with a long focal length is reflected by each of the first telephoto reflecting mirror 22c and the second telephoto reflecting mirror 22e and folded back.
  • the length in the L direction can be shortened.
  • the light beam of the wide-angle image W and the light beam of the telephoto image T have different angles of incidence on the image sensor 24.
  • Figure 8 is a diagram append the optical path P T of the optical path P W and the telephoto image T wide angle image W to the image sensor 24 shown in FIG.
  • the first light receiving element 25A and the second light receiving element 25B have different curvature radii (focal lengths) between the first microlens 29A and the second microlens 29B. Since the degree of focus of the pupil image of the various lenses 11 formed on the light receiving surface is different, the light receiving sensitivity characteristics are also different.
  • the first microlens 29A provided for the first light receiving element 25A generates a pupil image so that the pupil image of the various lenses 11 is in focus on the light receiving surface of the first light receiving element 25A.
  • the second microlens 29B provided for the second light receiving element 25B is focused so that the pupil image of the various lenses 11 is out of focus on the light receiving surface of the second light receiving element 25B. A pupil image is formed.
  • the light is incident more than the light at the periphery of the pupil image (the light of the telephoto image T), but in the first light receiving element 25A, the pupil image of the various lenses 11 is focused on the first photodiode 26A. Therefore, more light in the center of the pupil image (that is, light of the wide-angle image W) is incident on the first photodiode 26A than in the second light receiving element 25B.
  • the light beam of the wide-angle image W and the light beam of the telephoto image T are incident on the first light receiving element 25A and the second light receiving element 25B of the image sensor 24, respectively.
  • the interference ratio is different from that of the second light receiving element 25B.
  • the interference ratio of the telephoto image T with respect to the wide angle image W is small, and in the second light receiving element 25B, the telephoto image T with respect to the wide angle image W is reduced.
  • the interference ratio is larger than that of the first light receiving element 25A.
  • the interference ratio between the wide-angle image W and the telephoto image T is as described above.
  • Sensor outputs indicating the first and second interference images different from each other can be acquired.
  • the first interference image obtained from the plurality of first light receiving elements 25A included in the image sensor 24 is defined as a sensor output W2, and the second obtained from the plurality of second light receiving elements 25B included in the image sensor 24.
  • the interference image is the sensor output T2
  • interference removal processing for removing the interference component from these sensor outputs W2 and T2 (first interference image and second interference image)
  • a desired first signal without interference can be obtained.
  • One image (wide-angle image W1) and second image (telephoto image T1) can be obtained.
  • FIG. 9 is composed of a true wide-angle image W1 (W1 ij ), a true telephoto image T1 (T1 ij ), a sensor output W2 (W2 ij ), a sensor output T2 (T2 ij ), and a detection gain distribution and interference gain distribution. It is a figure which shows the relationship of the matrix M performed. Note that subscripts i and j indicate pixel positions on a two-dimensional image.
  • the sensor output W2 and the sensor output T2 output from the image sensor 24 are “the detection gain distribution A (A ij of the wide-angle true signal). ), The detection gain distribution D (D ij ) of the telephoto true signal, the interference gain distribution B (B ij ) of the telephoto image for the wide angle image, and the interference gain distribution C (C ij ) of the wide angle image for the telephoto image.
  • the matrix M constituted by the detection gain distributions A and D and the interference gain distributions B and C is a 2 ⁇ 2 matrix as shown in FIG.
  • the detection gain distributions A and D are 1 and the interference gain distributions B and C are 0, respectively. If the image sensor is an ideal image sensor, the sensor output W2 is a true wide angle. It coincides with the image W1, and the sensor output T2 coincides with the true telephoto image T1.
  • the sensor output W2 (the first output) obtained from the image sensor 24
  • the interference component is removed from the interference image) and the sensor output T2 (second interference image), and a true wide-angle image W1 (first image) and a true telephoto image T1 (second image) can be obtained.
  • FIG. 10 is a conceptual diagram showing a method for calculating an interference removal image (true wide-angle image W1, true telephoto image T1) from the sensor output W2 acquired from the image sensor 24 and the sensor output T2.
  • an interference removal image true wide-angle image W1, true telephoto image T1
  • the true wide-angle image W1 and the true telephoto image T1 are calculated by the equation (1) shown in FIG. 12 based on the sensor output W2, the sensor output T2, and the inverse matrix M ⁇ 1 of the matrix M shown in FIG. be able to.
  • A, B, C, and D constituting the inverse matrix M ⁇ 1 are the detection gain distribution A of the wide-angle true signal, the interference gain distribution B of the telephoto image with respect to the wide-angle image, and the telephoto as described above.
  • the case of .5 is shown.
  • FIG. 11 shows a sensor output W2 (first interference image) and a sensor output T2 (second interference image) obtained by using the image sensor 24 of the present embodiment, and an interference rejection image ( It is a figure which shows the simulation result which acquired the true wide-angle image W1 and the true telephoto image T1).
  • the size of each part of the image sensor 24 of the present embodiment is as follows.
  • Curvature radius of first microlens 29A 3.7 ⁇ m Curvature radius of second microlens 29B: 5.0 ⁇ m Refractive index of the first microlens 29A and the second microlens 29B: 1.55 Distance between the apex of the first microlens 29A and the incident surface of the first photodiode 26A: 9.1 ⁇ m Distance between top of second microlens 29B and incident surface of second photodiode 26B: 9.1 ⁇ m Interval (pixel pitch) between first light receiving element 25A and second light receiving element 25B: 7 ⁇ m Opening size / pixel pitch of the first photodiode 26A of the first light receiving element 25A: 32% Opening size / pixel pitch of the second photodiode 26B of the second light receiving element 25B: 32% 11A1 and 11A2 illustrate the pupil image of the various lenses 11 formed by the first microlens 29A of the first light receiving element 25A and the second microlens 29B of the second light receiving
  • the pupil image of the various lenses 11 formed by the first microlens 29A of the first light receiving element 25A is in focus, and as shown in FIG.
  • the pupil image of the various lenses 11 formed by the second microlens 29B of the second light receiving element 25B is out of focus and is larger than the pupil image shown in FIG. 11A1.
  • FIGS. 11B1 and 11B2 show a sensor output W2 (first interference image) and a sensor output T2 (second interference image), respectively.
  • the first photodiode 26A of the first light receiving element 25A and the second photodiode 26B of the second light receiving element 25B cause a difference in the degree of focus of the pupil image of the various lenses 11 due to the difference in focus degree.
  • the interference ratio of the telephoto image T with respect to the wide-angle image W is different between the first interference image and the second interference image.
  • 11 (C1) and 11 (C2) show a true wide-angle image W1 and a true telephoto image T1 from which interference has been removed, respectively.
  • the true wide-angle image W1 and the true telephoto image T1 are the inverse matrix M ⁇ 1 of the matrix constituted by the detection gain distribution and the interference gain distribution of the sensor output W2 and the sensor output T2, respectively, and the sensor output W2 and the sensor output T2. Based on the above, it can be calculated by the equation (1) shown in FIG.
  • FIG. 13 shows elements w1_11 to w1_mn constituting “W1” in the equation (1) shown in FIG. That is, “W1” is composed of elements w1_11 to w1_mn corresponding to the pixel components (pixel values) of the true wide-angle image W1.
  • “W2”, “T1”, and “T2” illustrated in FIG. 12 are elements w2_11 to w2_mn and t1_11 corresponding to the pixel components (pixel values) of the sensor output W2, the true telephoto image T1, and the sensor output T2, respectively.
  • t1_mn and t2_11 to t2_mn (not shown).
  • the gain distributions A to D constituting the inverse matrix M ⁇ 1 are also constituted by elements a11 to amn, b11 to bmn, c11 to cmn, and d11 to dmn determined according to the pixels of the wide-angle image and the telephoto image, respectively. It is preferable (not shown).
  • FIG. 14 shows an equation (2) for calculating an element “w1_ij” corresponding to the pixel component (pixel value) constituting the true wide-angle image W1 derived based on the equation (1) shown in FIG.
  • FIG. 15 shows an equation (3) for calculating an element “t1_ij” corresponding to a pixel component (pixel value) constituting the true telephoto image T1 derived based on the equation (1) shown in FIG. Indicates.
  • FIG. 16 is a block diagram illustrating an internal configuration of a main part of the imaging device 30 illustrated in FIGS. 1 and 2.
  • the imaging apparatus 30 includes an image acquisition unit 32, an interference removal processing unit 34, a digital signal processing unit 36, and the like, in addition to the above-described various lenses 11 and the image sensor 24.
  • the image acquisition unit 32, the interference removal processing unit 34, the digital signal processing unit 36, and the like are realized by, for example, one or a plurality of microprocessors inside the digital camera shown in FIG. 1 or the smartphone shown in FIG.
  • the image acquisition unit 32, the interference removal processing unit 34, the digital signal processing unit 36, and the like are realized by, for example, one or a plurality of microprocessors inside the digital camera shown in FIG. 1 or the smartphone shown in FIG.
  • a wide-angle image and a telephoto image picked up by the first optical system 21 and the second optical system 22 of the various lenses 11 are formed on the light receiving surface of the image sensor 24, and the photodiodes 26A and 26B respond to the amount of incident light. It is converted into a signal voltage (or charge) of the amount of charge.
  • the signal voltage (or electric charge) accumulated in the image sensor 24 is accumulated in each light receiving element 25 itself or an attached capacitor.
  • the stored signal voltage (or electric charge) is obtained by using the technique of a MOS (Metal ⁇ ⁇ Oxide ⁇ Semiconductor) type image sensor (so-called CMOS (Complementary Metal ⁇ ⁇ Oxide Semiconductor) sensor) using the XY address method. Is read out together with the selection.
  • MOS Metal ⁇ ⁇ Oxide ⁇ Semiconductor
  • CMOS Complementary Metal ⁇ ⁇ Oxide Semiconductor
  • the image signal (sensor output W2) indicating the first interference image from the plurality of first light receiving elements 25A included in the image sensor 24 and the second signal from the plurality of second light receiving elements 25B included in the image sensor 24. It is possible to read out an image signal (sensor output T2) indicating two interference images.
  • the image signal (voltage signal) read from the image sensor 24 is included in the output signal of each light receiving element for the purpose of reducing correlated double sampling processing (noise (particularly thermal noise) included in the sensor output).
  • the process of obtaining accurate pixel data by taking the difference between the feedthrough component level and the signal component level) is sampled and held for each light receiving element and amplified and then A / D (Analog-to-Digital) Added to the transducer 20.
  • the A / D converter 20 converts sequentially input image signals into digital signals and outputs them to the image acquisition unit 32.
  • some MOS type image sensors include an A / D converter. In this case, a digital signal is directly output from the image sensor 24.
  • the image acquisition unit 32 reads out the image signal by selecting the position of the light receiving element of the image sensor 24, thereby obtaining an image signal indicating the first interference image and an image signal indicating the second interference image that are simultaneously captured. Can be acquired.
  • an image signal indicating a first interference image is obtained.
  • an image signal indicating a second interference image is obtained. Can be acquired.
  • all image signals are read from the image sensor 24 and temporarily stored in the buffer memory. From the image signals stored in the buffer memory, the image signals of two images, the first interference image and the second interference image. The grouping may be performed.
  • the image signal indicating the first interference image and the second interference image acquired by the image acquisition unit 32 is output to the interference removal processing unit 34.
  • the interference removal processing unit 34 removes the interference component from the image signal indicating the first interference image and the second interference image input from the image acquisition unit 32, and the first characteristic of the first optical system of the various lenses 11. (Wide-angle) and a portion that generates image signals indicating a first image (wide-angle image) and a second image (telephoto image) having the second characteristic (telephoto) of the second optical system 22, respectively. Based on the equation (1) shown in FIG. 12, an image signal indicating a wide-angle image and a telephoto image without interference is generated.
  • the interference removal processing unit 34 includes a storage unit 34A such as a ROM (Read Only Memory) that stores the gain distributions A to D constituting the inverse matrix M ⁇ 1 shown in Expression (1).
  • a storage unit 34A such as a ROM (Read Only Memory) that stores the gain distributions A to D constituting the inverse matrix M ⁇ 1 shown in Expression (1).
  • the image signals indicating the wide-angle image W1 and the telephoto image T1 without interference generated by the interference removal processing unit 34 are output to the digital signal processing unit 36, respectively.
  • the digital signal processing unit 36 performs predetermined signal processing such as offset processing and gamma correction processing on the input digital image signal.
  • the image signals indicating the wide-angle image and the telephoto image processed by the digital signal processing unit 36 are output to the recording unit 38 and the display unit 40, respectively.
  • the recording unit 38 records an image signal for still image recording or moving image recording indicating the wide-angle image and the telephoto image processed by the digital signal processing unit 36 on a recording medium (hard disk, memory card, etc.).
  • the display unit 40 displays a wide-angle image and a telephoto image by an image signal for still image display or moving image display indicating the wide-angle image and the telephoto image processed by the digital signal processing unit 36.
  • the display unit 40 can also reproduce a wide-angle image and a telephoto image based on the image signal recorded in the recording unit 38.
  • FIG. 17 is a diagram for explaining an imaging mechanism using the various lenses 11 according to the second embodiment.
  • the 17 includes a circular first optical system 21 and an annular second optical system 22 arranged concentrically with respect to the first optical system 21.
  • the optical system 21 and the second optical system have the same optical axis, but have different focus distances.
  • a1 Distance between the lens and the light receiving surface of the first optical system 21 (far focusing area 60a)
  • a2 Distance between the lens and the light receiving surface of the second optical system 22 (close focusing area 60b)
  • b1 First optical Lens-to-subject distance in system 21 (far focusing area 60a)
  • b2 Lens-to-subject distance in second optical system 22 (near focusing area 60b)
  • FD1 first optical system 21 (far focusing area 60a)
  • Focusing distance FD2 Focusing distance of the second optical system 22 (near focusing area 60b)
  • Q1A, Q1B and Q2 Subject
  • the “focusing distance” is the light received by the image sensor 24 The distance from the light receiving surface of the element 25 to the subject in focus with the light receiving element 25 is indicated.
  • the same functional configuration as that of the first embodiment is used.
  • the first image focused on the long-distance subjects Q1A and Q1B by the first optical system 21 and the second image focused on the short-range subject Q2 by the second optical system 22 can be simultaneously captured. it can.
  • the light of the focal image interferes and enters the first light receiving element 25A and the second light receiving element 25B of the image sensor 24.
  • the first light receiving element 25 ⁇ / b> A of the image sensor 24 it is possible to acquire a first interference image in which the first focused image and the second focused image interfere with each other.
  • the second light receiving element 25B it is possible to acquire a second interference image in which the first focused image and the second focused image have different interference, which is different from the first light receiving element 25A.
  • Interference removal processing section 34 the inverse matrix M -1 (M -1 in the formula (1) shown in FIG. 12), and a first interference image and a second interference image acquired from the image sensor 24 By multiplying, it is possible to generate the first image focused on the long-distance subjects Q1B and Q1B and the second image focused on the short-distance subject Q2, respectively.
  • the various lenses 11 according to the second embodiment have different characteristics from the various lenses 11 shown in FIG. 3 and the like, the gain distributions A to D constituting the inverse matrix M ⁇ 1 are also different.
  • FIG. 18 is a graph showing modulation transfer function characteristics (MTF: Modulation Transfer Function) of the first optical system and the second optical system of the various lenses (not shown) according to the third embodiment.
  • MTF Modulation Transfer Function
  • the first optical system and the second optical system of the various lenses according to the third embodiment have the same focal length and in-focus distance, but different MTFs, and the first optical system has the MTF shown in FIG.
  • the first MTF shown by the curve a is included, and the second optical system has the second MTF shown by the MTF curve b of FIG.
  • the various lenses according to the third embodiment can have, for example, substantially the same external shape as the various lenses 11 shown in FIG.
  • the first optical system having the first MTF is an optical system having a higher resolution but lower contrast than the second optical system having the second MTF.
  • the second optical system having the second MTF has a lower resolution than the first optical system having the first MTF, but the contrast is low. High optical system.
  • the first optical system has the same functional configuration as that of the first embodiment (see FIG. 16). And the 1st image and 2nd image corresponding to each MTF of a 2nd optical system can be imaged simultaneously.
  • the light of the first image corresponding to the first MTF of the first optical system and the light of the second image corresponding to the second MTF of the second optical system interfere with each other, and the image sensor 24.
  • the first light receiving element 25A and the second light receiving element 25B are incident.
  • the first light receiving element 25 ⁇ / b> A of the image sensor 24 it is possible to obtain a first interference image in which the first image and the second image interfere with each other, and the second light receiving element of the image sensor 24. From 25B, it is possible to acquire a second interference image in which the first image and the second image have interference with a different interference ratio from that of the first light receiving element 25A.
  • Interference removal processing section 34 the inverse matrix M -1 (M -1 in the formula (1) shown in FIG. 12), and a first interference image and a second interference image acquired from the image sensor 24 By multiplying, a first image having a first MTF without interference and a second image having a second MTF can be generated.
  • FIG. 19 is a cross-sectional view showing another embodiment of the image sensor applied to the present invention, and is an enlarged cross-sectional view of the main part of the image sensor.
  • the image sensor 124 illustrated in FIG. 19 accumulates in the first photodiode 126A and the second photodiode 126B on the side opposite to the light receiving surface (back side) of the first photodiode 126A and the second photodiode 126B.
  • This is a back-illuminated image sensor provided with a wiring layer 127 on which wiring for reading out an image signal corresponding to the charged electric charge is formed.
  • a layer 128 such as an antireflection layer, a smoothing layer, or a color filter is provided on the light receiving surface (front surface) side of the first photodiode 126A and the second photodiode 126B.
  • the first microlens 129A and the second microlens 129B (on-chip microlens) are formed, and the first light receiving element 125A and the second light receiving element 125B are configured.
  • One first microlens 129A and one second microlens 129B are provided for each first light receiving element 125A and each second light receiving element 125B, and the first microlens 129A and the second microlens 129B are provided.
  • the wide-angle image light and the telephoto image light (pupil image of the various lenses 11) incident on the lens 129B are formed on the light receiving surfaces of the first photodiode 126A and the second photodiode 126B with different degrees of focus. .
  • the first microlens 129A and the second microlens 129B have different radii of curvature as the first microlens 29A and the second microlens 29B of the image sensor 24 shown in FIG.
  • Image sensor 124 Since the image sensor 124 according to this embodiment is a back-illuminated image sensor, there is no wiring layer on the light receiving surface (front surface) side of the first photodiode 126A and the second photodiode 126B.
  • Image sensor 24 according to the first embodiment shown in FIG. 4 ie, a front-illuminated image sensor in which a wiring layer 27 is formed on the light receiving surface (front surface) side of the first photodiode 26A and the second photodiode 26B).
  • a wiring layer 27 is formed on the light receiving surface (front surface) side of the first photodiode 26A and the second photodiode 26B.
  • FIG. 20 is a cross-sectional view showing still another embodiment of the image sensor applied to the present invention, and is an enlarged cross-sectional view of a main part of the image sensor.
  • the parts common to the image sensor 24 shown in FIG. 4 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the image sensor 224 shown in FIG. 20 has a different microlens configuration compared to the image sensor 24 shown in FIG. 4, and the microlens is placed on the incident surface side of the smoothing layer 28A on the first light receiving element 225A side. 29A is provided, but no microlens is provided on the incident surface side of the smoothing layer 28B on the second light receiving element 225B side.
  • first light receiving elements 225A having microlenses 29A and second light receiving elements 225B not having microlenses are alternately arranged two-dimensionally. ing.
  • the microlens 29A provided for the first light receiving element 225A is the same microlens as the first microlens 29A of the image sensor 24 shown in FIG. 4, and the first light receiving element 225A is shown in FIG. It has substantially the same structure as the first light receiving element 25A shown.
  • the pupil image of the various lenses 11 is focused on the light receiving surface of the first light receiving element 225A by the micro lens 29A.
  • the second light receiving element 225B is not provided with a microlens, the light beam of the wide-angle image W and the light beam of the telephoto image T incident on the second light receiving element 225B are imaged and condensed. Instead, the light reaches the light receiving surface of the second light receiving element 225B with substantially parallel light.
  • the light of the wide-angle image and the light of the telephoto image (the pupil image of the various lenses 11) focused by the micro lens 29A are incident on the light receiving surface of the first photodiode 26A of the first light receiving element 225A.
  • the pupil image of the out-of-focus various lenses 11 is incident on the light receiving surface of the second photodiode 26B of the second light receiving element 225B.
  • the first light receiving element 225A and the second light receiving element 225B differ in the degree of focusing of the pupil image of the various lenses 11 on the light receiving surface, and also have different light receiving sensitivity characteristics.
  • Sensor outputs indicating a first interference image and a second interference image having different interference ratios with T can be acquired.
  • the above-described embodiments may be appropriately combined, and the characteristics of the various lenses according to the first embodiment, the various lenses according to the second embodiment, and the various lenses according to the third embodiment will be described.
  • the present invention can be applied to various lenses formed by combining two or more lenses.
  • the various lenses 11 are configured by two types of optical systems (the first optical system 21 and the second optical system 22) has been described.
  • the lens 11 may be configured.
  • the image sensor 24 of the present embodiment is configured by arranging the first light receiving element 25A and the second light receiving element 25B in a checkered pattern (checker pattern), but the image sensor according to the present invention is configured as follows.
  • the present invention is not limited to this, and the first light receiving element and the second light receiving element that are different in the degree of focusing by the microlens are adjacent to each other to form a pair, and this pair is two-dimensionally arranged.
  • the ratio of the number of the two light receiving elements is not 1: 1, the number of the first light receiving elements is larger than the number of the second light receiving elements, and conversely, the number of the first light receiving elements is the second light receiving element. Includes less than the number of elements.
  • the sensor outputs of the light receiving elements with a small number are interpolated to enable the calculation of the expression (1) shown in FIG. Therefore, it is preferable that the image size is the same as the sensor output of a large number of light receiving elements.
  • the curvature radii of the first microlens of the first light receiving element and the microlens of the second light receiving element are made different from each other, thereby each of the first light receiving element and the second light receiving element.
  • the degree of focus of the pupil image of the various lenses formed on the light receiving surface is made different, but not limited to this, using the first microlens and the second microlens having the same radius of curvature,
  • the distance from the apex of the first microlens to the first photodiode is made different from the distance from the apex of the second microlens to the second photodiode.
  • the degree of focus of the pupil image of the various lenses in the two light receiving elements may be varied.
  • the present invention acquires a first interference image from the plurality of first light receiving elements of the image sensor, acquires a second interference image from the plurality of second light receiving elements, and the acquired first
  • An imaging method including a step of removing interference components from the interference image and the second interference image, and generating a first image and a second image respectively having the first characteristic and the second characteristic of the various lenses. Is also applicable.
  • a first interference image and a second interference image are directly input to a computer from an imaging device including the various lenses 11 and the image sensor 24 (FIG. 3) or indirectly via a recording medium, and the above-described steps.
  • the present invention also relates to an image processing program that causes a computer to execute the above, a computer-readable recording medium (non-temporary recording medium) in which such an image processing program is recorded, or a computer in which such an image processing program can be installed. It is possible to apply.
  • the aspect to which the present invention can be applied is not limited to the digital camera 10 shown in FIG. 1 and the automatic tracking imaging device 14 shown in FIG. 2, in addition to the cameras whose main function is imaging, in addition to the imaging function.
  • the present invention can also be applied to mobile devices having functions other than imaging (call function, communication function, or other computer functions).
  • Other modes to which the present invention can be applied include, for example, mobile phones and smartphones having a camera function, PDAs (Personal Digital Assistants), and portable game machines.
  • PDAs Personal Digital Assistants
  • portable game machines Portable game machines.
  • FIG. 21 is a diagram illustrating an appearance of a smartphone 101 that is an embodiment of the imaging apparatus of the present invention.
  • a smartphone 101 illustrated in FIG. 21 includes a flat housing 102, and a display panel 121 as a display unit and an operation panel 122 as an input unit are integrally formed on one surface of the housing 102.
  • a display input unit 120 is provided.
  • the housing 102 includes a speaker 131, a microphone 132, an operation unit 140, and a camera unit 141. Note that the configuration of the housing 102 is not limited thereto, and for example, a configuration in which a display unit and an input unit are provided independently, or a configuration having a folding structure or a slide mechanism may be employed.
  • FIG. 22 is a block diagram showing a configuration of the smartphone 101 shown in FIG.
  • the main components of the smartphone 101 include a wireless communication unit 110, a display input unit 120, a call unit 130, an operation unit 140, a camera unit 141, a storage unit 150, and an external input / output.
  • Unit 160 GPS (Global Positioning System) receiving unit 170, motion sensor unit 180, power supply unit 190, and main control unit 100.
  • a wireless communication function for performing mobile wireless communication via a base station device and a mobile communication network is provided.
  • the wireless communication unit 110 performs wireless communication with a base station device connected to the mobile communication network in accordance with an instruction from the main control unit 100.
  • the wireless communication is used to transmit and receive various file data such as audio data and image data, e-mail data, and receive Web data and streaming data.
  • the display input unit 120 is a so-called touch panel including a display panel 121 and an operation panel 122, and displays images (still images and moving images), character information, and the like visually to the user under the control of the main control unit 100. , And detects user operations on the displayed information.
  • the display panel 121 uses an LCD (Liquid Crystal Display) or an OELD (Organic Electro-Luminescence Display) as a display device.
  • the operation panel 122 is a device that is provided in a state where an image displayed on the display surface of the display panel 121 is visible and detects one or more coordinates operated by a user's finger or stylus. When the device is operated by the user's finger or stylus, the operation panel 122 outputs a detection signal generated due to the operation to the main control unit 100. Next, the main control unit 100 detects an operation position (coordinates) on the display panel 121 based on the received detection signal.
  • the display panel 121 and the operation panel 122 of the smartphone 101 illustrated in FIG. 21 as an embodiment of the imaging apparatus of the present invention integrally constitute the display input unit 120, and the operation panel 122 completely covers the display panel 121. It is arranged to cover.
  • the operation panel 122 may have a function of detecting a user operation even in an area outside the display panel 121.
  • the operation panel 122 includes a detection area (hereinafter referred to as “display area”) for the overlapping portion overlapping the display panel 121 and a detection area (hereinafter referred to as “display area”) for the other outer edge portion that does not overlap the display panel 121. (Referred to as “non-display area”).
  • the operation panel 122 may be provided with two sensitive areas of an outer edge part and the other inner part. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 102 and the like. Furthermore, examples of the position detection method employed in the operation panel 122 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. It may be adopted.
  • the call unit 130 includes a speaker 131 and a microphone 132, converts user's voice input through the microphone 132 into voice data that can be processed by the main control unit 100, and outputs the voice data to the main control unit 100, or a wireless communication unit. 110 or the audio data received by the external input / output unit 160 is decoded and output from the speaker 131.
  • the speaker 131 and the microphone 132 can be mounted on the same surface as the surface on which the display input unit 120 is provided.
  • the operation unit 140 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 140 is mounted on the side surface of the housing 102 of the smartphone 101 and is switched on when pressed with a finger or the like, and is switched off by a restoring force such as a spring when the finger is released. It is a push button type switch that is in a state.
  • the storage unit 150 includes a control program and control data of the main control unit 100, application software, address data that associates the name and telephone number of a communication partner, transmitted and received e-mail data, Web data downloaded by Web browsing, and Stores downloaded content data and the like, and temporarily stores streaming data and the like.
  • the storage unit 150 includes an internal storage unit 151 with a built-in smartphone and an external storage unit 152 having a removable external memory slot.
  • Each of the internal storage unit 151 and the external storage unit 152 constituting the storage unit 150 includes a flash memory type (flash memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), It is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), or a ROM (Read Only Memory).
  • flash memory type flash memory type
  • hard disk type hard disk type
  • multimedia card micro type multimedia card micro type
  • a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), or a ROM (Read Only Memory).
  • the external input / output unit 160 serves as an interface with all external devices connected to the smartphone 101, and includes communication (for example, USB (Universal Serial Bus), IEEE 1394, etc.) or a network (for example, the Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA), UWB (Ultra Wideband) (registered trademark), ZigBee (registered trademark), etc. Connect directly or indirectly to the device.
  • communication for example, USB (Universal Serial Bus), IEEE 1394, etc.
  • a network for example, the Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA), UWB (Ultra Wideband) (registered trademark), ZigBee (registered trademark), etc. Connect directly or indirectly to the device.
  • External devices connected to the smartphone 101 include, for example, a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, a memory card connected via a card socket, a SIM (Subscriber) Identity Module Card) / UIM User Identity Module Card, external audio / video equipment connected via audio / video I / O (Input / Output) terminal, external audio / video equipment connected wirelessly, wired /
  • the external input / output unit 160 is configured to transmit data received from such an external device to each component inside the smartphone 101, or to transmit data inside the smartphone 101 to the external device. May be.
  • the GPS receiving unit 170 receives GPS signals transmitted from the GPS satellites ST1, ST2 to STn according to instructions from the main control unit 100, executes positioning calculation processing based on the received GPS signals, and calculates the latitude of the smartphone 101. Detect the position specified by longitude and altitude.
  • the GPS receiving unit 170 can acquire position information from the wireless communication unit 110 and / or the external input / output unit 160 (for example, a wireless LAN), the GPS receiving unit 170 can also detect the position using the position information.
  • the motion sensor unit 180 includes, for example, a triaxial acceleration sensor and detects the physical movement of the smartphone 101 in accordance with an instruction from the main control unit 100. By detecting the physical movement of the smartphone 101, the moving direction and acceleration of the smartphone 101 are detected. The detection result is output to the main control unit 100.
  • the power supply unit 190 supplies power stored in a battery (not shown) to each unit of the smartphone 101 in accordance with an instruction from the main control unit 100.
  • the main control unit 100 includes a microprocessor, operates according to a control program and control data stored in the storage unit 150, and controls each unit of the smartphone 101 in an integrated manner.
  • the main control unit 100 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 110.
  • the application processing function is realized by the main control unit 100 operating according to the application software stored in the storage unit 150.
  • Application processing functions include, for example, an infrared communication function for performing data communication with an opposite device by controlling the external input / output unit 160, an e-mail function for transmitting and receiving e-mails, and a web browsing function for browsing web pages. There is.
  • the main control unit 100 also has an image processing function such as displaying video on the display input unit 120 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function refers to a function in which the main control unit 100 decodes the image data, performs image processing on the decoding result, and displays an image obtained through the image processing on the display input unit 120. .
  • the main control unit 100 executes display control for the display panel 121 and operation detection control for detecting a user operation through the operation unit 140 or the operation panel 122.
  • the main control unit 100 By executing the display control, the main control unit 100 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move an image display portion of a large image that cannot fit in the display area of the display panel 121.
  • the main control unit 100 detects a user operation through the operation unit 140, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 122. Or a display image scroll request through a scroll bar.
  • the main control unit 100 causes the operation position on the operation panel 122 to correspond to an overlapping portion (display area) overlapping the display panel 121 or to be an outer edge portion not overlapping the other display panel 121.
  • a touch panel control function is provided for determining whether it corresponds to (non-display area) and controlling the sensitive area of the operation panel 122 and the display position of the software key.
  • the main control unit 100 can also detect a gesture operation on the operation panel 122 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation of drawing a trajectory with at least one position from a plurality of positions by drawing a trajectory with a finger or the like, or specifying a plurality of positions simultaneously. means.
  • the above-described imaging device 30 can be applied to the camera unit 141.
  • the camera unit 141 converts image data obtained by imaging into compressed image data such as JPEG (Joint Photographic Experts Group) under the control of the main control unit 100, and records the image data in the storage unit 150. Or can be output through the external input / output unit 160 or the wireless communication unit 110.
  • JPEG Joint Photographic Experts Group
  • the camera unit 141 is mounted on the same surface as the display input unit 120.
  • the mounting position of the camera unit 141 is not limited thereto, and the housing 102 in which the display input unit 120 is provided.
  • the camera unit 141 may be mounted not on the front surface of the housing 102 but on the back surface of the housing 102, or a plurality of camera units 141 may be mounted on the housing 102. Note that when a plurality of camera units 141 are mounted, the camera unit 141 used for imaging may be switched and imaging may be performed by a single camera unit 141, or a plurality of camera units 141 may be used simultaneously. Then, imaging may be performed.
  • the camera unit 141 can be used for various functions of the smartphone 101.
  • an image acquired by the camera unit 141 may be displayed on the display panel 121, or an image captured and acquired by the camera unit 141 may be used as one of the operation input methods of the operation panel 122.
  • the GPS receiving unit 170 detects the position, the position may be detected by referring to an image from the camera unit 141.
  • the image from the camera unit 141 is referred to, and the optical axis direction of the camera unit 141 of the smartphone 101 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 141 can also be used in the application software.
  • the digital signal processing unit 36 such as the image acquisition unit 32, the interference removal processing unit 34, and the like described above can be realized by the main control unit 100, for example.
  • DESCRIPTION OF SYMBOLS 10 ... Digital camera, 11 ... Various lenses, 14 ... Automatic tracking imaging device, 21 ... 1st optical system, 22 ... 2nd optical system, 24, 124, 224 ... Image sensor, 25, 225 ... Light receiving element, 25A , 125A, 225A ... first light receiving element, 25B, 125B, 225B ... second light receiving element, 26A ... first photodiode, 26B ... second photodiode, 27, 127 ... wiring layer, 29A, 129A ... First microlens, 29B, 129B ... second microlens, 30 ... imaging device, 32 ... image acquisition unit, 34 ... interference removal processing unit, 36 ... digital signal processing unit, 38 ... recording unit, 40 ... display unit , 100 ... main control unit, 101 ... smartphone, 141 ... camera unit

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Cameras In General (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

複数の特性を有する多様レンズの各特性に対応する画像を、通常のイメージセンサと同様の構造のイメージセンサを使用して同時に撮像することができる撮像装置、撮像方法及び画像処理プログラムを提供する。撮像装置は、第1の特性を有する第1の領域と第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、第1のマイクロレンズを有する第1の受光素子25Aと第1のマイクロレンズとは合焦度合いが異なる第2のマイクロレンズを有する第2の受光素子25Bとが2次元配列されたイメージセンサと、イメージセンサの第1の受光素子25Aから得られる第1の混信画像及び第2の受光素子から得られる第2の混信画像からそれぞれ混信成分を除去し、多様レンズの第1の特性及び第2の特性をそれぞれ有する第1の画像及び第2の画像を生成する混信除去処理部と、を備えている。

Description

撮像装置、撮像方法及び画像処理プログラム
 本発明は撮像装置、撮像方法及び画像処理プログラムに係り、特に特性が異なる複数の画像を同時に取得可能な撮像装置、撮像方法及び画像処理プログラムに関する。
 従来、第1の特性を有する第1の領域と第1の特性とは異なる第2の特性を有する第2の領域と含む多様レンズと、多様レンズの第1の領域を通過した光束と第2の領域を通過した光束とを瞳分割して受光し、第1の特性を有する第1の画像と第2の特性を有する第2の画像とを同時に取得可能な指向性センサと、を備えた撮像装置が提案されている(特許文献1、2)。
 ここで、指向性センサは、光検出感度に角度特性を持つように構成されたものであり、特許文献1、2には、下記の指向性センサが開示されている。
 (1) 複数の受光セルに1つのマイクロレンズを割り付けることにより受光セル毎に光検出感度に角度特性を持たせた指向性センサ
 (2) 受光セルの近傍に遮光マスクを配置し、多様レンズの第1の領域を通過した光束又は第2の領域を通過した光束を遮光することにより光検出感度に角度特性を持たせた指向性センサ
 (3) 受光セル毎にプリズムとして機能するプリズム要素を設け、プリズム要素により光検出感度に角度特性を持たせた指向性センサ
 特許文献1、2に記載の撮像装置は、瞳領域の場所に応じて特性の異なる多様レンズと、光検出感度に角度特性を持つ指向性センサとを組み合わせることで、特性の異なる多様な画像を、単一の指向性センサと多様レンズとで同時に撮像することができる。
 また、一部の受光セルのみに遮光マスクを設けた指向性センサを使用し、特性の異なる多様な画像を同時に撮像することができる撮像装置が提案されている(特許文献3)。
 特許文献3に記載の撮像装置は、多様レンズの第1の領域が占める割合aと第2の領域が占める割合b(a<b)とが異なる多様レンズと、多様レンズの第1の領域を通過する光束のみが入射するように遮光マスクを設けた第1の受光セルと、多様レンズの第1の領域及び第2の領域を通過する光束が入射する第2の受光セルとを含む指向性センサとを備えている。そして、指向性センサの第1の受光セルから第1の領域の特性を有する第1の画像を取得し、第2の受光セルから第1、第2の特性を有する第2の画像を取得するようにしている。ここで、第2の画像には、多様レンズの第1の特性と第2の特性とが混在するが、第2の領域が占める割合bが第1の領域が占める割合aよりも大きいため、主として第2の特性を有するものとなる。
 更に、特許文献1、2に記載の指向性センサは、光検出感度に角度特性を持つように構成されているものの、多様レンズの第1の領域を通過した光束と第2の領域を通過した光束とを精度よく瞳分割し、それぞれ第1の領域を通過した光束を第1の受光セルのみに入射させ、第2の領域を通過した光束を第2の受光セルのみに入射させることは困難であり、第1の画像には多様レンズの第2の領域の特性を示す混信成分が含まれ、第2の画像には第1の領域の特性を示す混信成分が含まれる。また、特許文献3に記載の指向性センサの第2の受光セルは、そもそも光検出感度に角度特性を持たないため、第2の受光セルから取得される第2の画像には、多様レンズの第1の特性を示す混信成分が含まれている。
 尚、特許文献4には、第1の画像及び第2の画像からそれぞれ混信成分を画像処理により除去・低減する方法が開示されている。また、特許文献5には、市松状(チェッカーパターン状)に配列された第1の受光セルと第2の受光セル(受光部)の受光面積が異なるカラー固体撮像装置が記載されている。
特開2012-253670号公報 国際公開第2012/043212号 国際公開第2013/027507号 国際公開第2013/146506号 特開2005-286104号公報
 ところで、複数の受光セルにつき1つのマイクロレンズを設置するようにした指向性センサは、構造自体が通常のイメージセンサとは大きく異なり、また、大きなマイクロレンズを高精度に設置しなくてはならず、製造や調整が難しいという問題がある。
 遮光マスク又はプリズム要素を配設するようにした指向性センサは、通常のイメージセンサでは不要な遮光マスク又はプリズム要素を、個々の受光セルの構造体として追加する必要があり、これはコストの上昇や、受光セルのサイズ(画素ピッチや厚さ)の微細化の障害となるという問題がある。
 また、特許文献3に記載の撮像装置の場合、指向性センサの一部の受光セルには、遮光マスクが設けられていないが、依然として指向性センサの他の受光セルには、構造体(遮光マスク)を埋め込む必要があり、コストの上昇や、受光セルのサイズ(画素ピッチや厚さ)の微細化の障害となるという課題は解決されていない。
 一方、特許文献5に記載のカラー固体撮像装置は、市松状に配列された第1の受光セルと第2の受光セルの受光面積が異なるが、これは高感度の画像と低感度の画像とを同時に撮像し、高ダイナミックレンジの画像を生成するためである。即ち、特許文献5には、多様レンズの第1の領域の特性及び第2の領域の特性を有する第1の画像及び第2の画像を同時に撮像する発想はない。
 本発明はこのような事情に鑑みてなされたもので、複数の特性を有する多様レンズの各特性に対応する画像を、通常のイメージセンサと同様の構造のイメージセンサを使用して同時に撮像することができ、これによりイメージセンサのセンサ画素の微細化や製造工数・コストの抑制を図ることができる撮像装置、撮像方法及び画像処理プログラムを提供することを目的とする。
 上記目的を達成するために本発明の一の態様に係る撮像装置は、第1の特性を有する第1の領域と第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、第1のマイクロレンズを有する第1の受光素子と第1のマイクロレンズとは合焦度合いが異なる第2のマイクロレンズを有する第2の受光素子とが2次元配列されたイメージセンサであって、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とが第1のマイクロレンズを介して混信して入射する第1の受光素子と、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とが第2のマイクロレンズを介して混信して入射し、かつ第1の受光素子とは混信比率が異なる第2の受光素子とを有するイメージセンサと、イメージセンサの第1の受光素子から得られる第1の混信画像及び第2の受光素子から得られる第2の混信画像からそれぞれ混信成分を除去し、多様レンズの第1の特性及び第2の特性をそれぞれ有する第1の画像及び第2の画像を生成する混信除去処理部と、を備えている。
 本発明の一の態様によれば、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とが混信してイメージセンサの第1の受光素子と第2の受光素子とに入射することを許容し、その一方、イメージセンサの第1の受光素子に対応して設けられた第1のマイクロレンズと、第2の受光素子に対応して設けられた第2のマイクロレンズとの合焦度合いを異ならせ、その結果、第1の受光素子と第2の受光素子との混信比率が異なるようにしている。そして、イメージセンサの第1の受光素子から得られる第1の混信画像及び第2の受光素子から得られる第2の混信画像からそれぞれ混信成分を除去し、多様レンズの第1の特性及び第2の特性をそれぞれ有する第1の画像及び第2の画像を生成するようにしている。本発明に係るイメージセンサは、第1の受光素子に対して設けられた第1のマイクロレンズと、第2の受光素子に対して設けられた第2のマイクロレンズとの合焦度合いが異なるものの、通常のイメージセンサと比較して追加構造がなく、センサ画素の微細化や製造工数・コストの抑制が可能である。尚、ここでいう「特性」という表現は、「光学特性」という意味を包含する概念である。
 本発明の他の態様に係る撮像装置は、第1の特性を有する第1の領域と第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、マイクロレンズを有する第1の受光素子とマイクロレンズを有しない第2の受光素子とが2次元配列されたイメージセンサであって、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とがマイクロレンズを介して混信して入射する第1の受光素子と、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とが混信して入射し、かつ第1の受光素子とは混信比率が異なる第2の受光素子とを有するイメージセンサと、イメージセンサの第1の受光素子から得られる第1の混信画像及び第2の受光素子から得られる第2の混信画像からそれぞれ混信成分を除去し、多様レンズの第1の特性及び第2の特性をそれぞれ有する第1の画像及び第2の画像を生成する混信除去処理部と、を備えている。
 マイクロレンズを有しない第2の受光素子には、多様レンズの第1の領域を通過する光束及び第2の領域を通過する光束に対する結像・集光作用がないため、マイクロレンズを有する第1の受光素子とマイクロレンズを有しない第2の受光素子とは、多様レンズの瞳像の受光面上での合焦度合いが異なるものとなり、その結果、第1の受光素子及び第2の受光素子に入射する第1の領域を通過する光束と第2の領域を通過する光束との混信比率も異なる。従って、イメージセンサの第1の受光素子から得られる第1の混信画像及び第2の受光素子から得られる第2の混信画像からそれぞれ混信成分を除去することで、多様レンズの第1の特性及び第2の特性をそれぞれ有する第1の画像及び第2の画像を生成することができる。
 本発明の更に他の態様に係る撮像装置において、混信除去処理部は、第1の混信画像及び第2の混信画像のそれぞれの検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列と、第1の混信画像及び第2の混信画像とに基づいて第1の画像及び第2の画像を算出することが好ましい。尚、検出ゲイン分布及び混信ゲイン分布は、多様レンズの第1の特性を有する第1の領域を通過した撮像光及び第2の特性を有する第2の領域光学系を通過した撮像光の各々に関する分布情報である。検出ゲイン分布は、本来意図した受光素子によって適切に受光された撮像光の分布(情報データ)を示す。例えば「第1の領域に対応する第1の受光素子によって受光される撮像光のうち、第1の領域を通過した撮像光の分布(情報データ)」及び「第2の領域に対応する第2の受光素子によって受光される撮像光のうち、第2の領域を通過した撮像光の分布(情報データ)」によって検出ゲイン分布が表される。一方、混信ゲイン分布は、第1の受光素子及び第2の受光素子において、本来意図していない不適切に受光された撮像光の分布(情報データ)を示す。例えば「第1の領域に対応する第1の受光素子によって受光される撮像光のうち、第2の領域を通過した撮像光の分布(情報データ)及び「第2の領域に対応する第2の受光素子によって受光される撮像光のうち、第1の領域を通過した撮像光の分布(情報データ)」によって混信ゲイン分布が表される。
 本発明の更に他の態様に係る撮像装置において、第1のマイクロレンズ及び第2のマイクロレンズは、それぞれ第1の受光素子毎及び第2の撮像素子毎に1つずつ設けられ、第1のマイクロレンズは、多様レンズの瞳像を第1の受光素子の受光面上に第1の合焦度合いで結像させ、第2のマイクロレンズは、多様レンズの瞳像を第2の受光素子の受光面上に第1の合焦度合いとは異なる第2の合焦度合いで結像させる。第1のマイクロレンズと第2のマイクロレンズとは合焦度合いが異なるため、第1のマイクロレンズを介して第1の受光素子の受光面に入射する多様レンズの第1の領域を通過する光束と第2の領域を通過する光束との混信比率と、第2のマイクロレンズを介して第2の受光素子の受光面に入射する多様レンズの第1の領域を通過する光束と第2の領域を通過する光束との混信比率とが異なる。各受光素子の受光面上の多様レンズの瞳像は、合焦度合い応じて大きさが変化するからである。尚、各受光素子の受光面上の多様レンズの瞳像は、合焦度合いが低い程、ボケて大きくなる。
 本発明の更に他の態様に係る撮像装置において、第1のマイクロレンズと第2のマイクロレンズとは、それぞれ曲率半径及び第1の受光素子の受光面及び第2の受光素子の受光面からの距離のうちの少なくとも一方が異なるものである。
 本発明の更に他の態様に係る撮像装置において、イメージセンサは、裏面照射型イメージセンサであることが好ましい。裏面照射型イメージセンサは、画素サイズの微細化に有利であるのみならず、光利用効率が高くため、高感度化にとっても有利である。尚、裏面照射型イメージセンサは、受光部の入射面側に回路層がないため、回路層の一部を遮光マスクに利用する従来技術を適用することができないが、本発明に係るイメージセンサは、遮光マスクを使用しないため、裏面照射型イメージセンサに適用することができる。
 本発明の更に他の態様に係る撮像装置において、多様レンズは、第1の特性を有する第1の領域に対応する第1の光学系と、第2の特性を有する第2の領域に対応する第2の光学系とを含むことが好ましい。
 本発明の更に他の態様に係る撮像装置において、第1の光学系と第2の光学系とは、光軸が共通していることが好ましく、第1の光学系は円形の中央光学系であり、第2の光学系は中央光学系に対して同心円状に配設された環状光学系であることが更に好ましい。第1の光学系及び第2の光学系をそれぞれ回転対称の光学系にすることで、第1の画像と第2の画像との間に視差が発生せず、かつ回転対称でない光学系に比べて画質のよい第1の画像及び第2の画像を取得することができる。
 本発明の更に他の態様に係る撮像装置において、第1の光学系と第2の光学系とは、それぞれ焦点距離、合焦距離及び変調伝達関数特性のうちの少なくとも1つが異なることが好ましい。
 更に他の態様に係る発明は、第1の特性を有する第1の領域と第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、第1のマイクロレンズを有する第1の受光素子と第1のマイクロレンズとは合焦度合いが異なる第2のマイクロレンズを有する第2の受光素子とが2次元配列されたイメージセンサであって、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とが第1のマイクロレンズを介して混信して入射する第1の受光素子と、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とが第2のマイクロレンズを介して混信して入射し、かつ第1の受光素子とは混信比率が異なる第2の受光素子とを有するイメージセンサと、を備えた撮像装置における撮像方法であって、撮像装置により同時に撮像された第1の混信画像及び第2の混信画像であって、イメージセンサの第1の受光素子により光電変換された第1の混信画像と、第2の受光素子により光電変換された第2の混信画像とを取得するステップと、取得した第1の混信画像及び第2の混信画像からそれぞれ混信成分を除去し、多様レンズの第1の特性及び第2の特性をそれぞれ有する第1の画像及び第2の画像を生成するステップと、を含んでいる。 
 更に他の態様に係る発明は、第1の特性を有する第1の領域と第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、マイクロレンズを有する第1の受光素子とマイクロレンズを有しない第2の受光素子とが2次元配列されたイメージセンサであって、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とがマイクロレンズを介して混信して入射する第1の受光素子と、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とが混信して入射し、かつ第1の受光素子とは混信比率が異なる第2の受光素子とを有するイメージセンサと、を備えた撮像装置における撮像方法であって、撮像装置により同時に撮像された第1の混信画像及び第2の混信画像であって、イメージセンサの第1の受光素子により光電変換された第1の混信画像と、第2の受光素子により光電変換された第2の混信画像とを取得するステップと、取得した第1の混信画像及び第2の混信画像からそれぞれ混信成分を除去し、多様レンズの第1の特性及び第2の特性をそれぞれ有する第1の画像及び第2の画像を生成するステップと、を含んでいる。
 本発明の更に他の態様に係る撮像方法において、第1の画像及び第2の画像を生成するステップは、第1の混信画像及び第2の混信画像のそれぞれの検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列と、第1の混信画像及び第2の混信画像とに基づいて第1の画像及び第2の画像を算出することが好ましい。
 更に他の態様に係る発明は、第1の特性を有する第1の領域と第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、第1のマイクロレンズを有する第1の受光素子と第1のマイクロレンズとは合焦度合いが異なる第2のマイクロレンズを有する第2の受光素子とが2次元配列されたイメージセンサであって、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とが第1のマイクロレンズを介して混信して入射する第1の受光素子と、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とが第2のマイクロレンズを介して混信して入射し、かつ第1の受光素子とは混信比率が異なる第2の受光素子とを有するイメージセンサと、を備えた撮像装置の画像処理プログラムであって、撮像装置により同時に撮像された第1の混信画像及び第2の混信画像であって、イメージセンサの第1の受光素子により光電変換された第1の混信画像と、第2の受光素子により光電変換された第2の混信画像とを取得するステップと、取得した第1の混信画像及び第2の混信画像からそれぞれ混信成分を除去し、多様レンズの第1の特性及び第2の特性をそれぞれ有する第1の画像及び第2の画像を生成するステップと、をコンピュータに実現させる。
 更に他の態様に係る発明は、第1の特性を有する第1の領域と第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、マイクロレンズを有する第1の受光素子とマイクロレンズを有しない第2の受光素子とが2次元配列されたイメージセンサであって、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とがマイクロレンズを介して混信して入射する第1の受光素子と、多様レンズの第1の領域を通過する光束と第2の領域を通過する光束とが混信して入射し、かつ第1の受光素子とは混信比率が異なる第2の受光素子とを有するイメージセンサと、を備えた撮像装置の画像処理プログラムであって、撮像装置により同時に撮像された第1の混信画像及び第2の混信画像であって、イメージセンサの第1の受光素子により光電変換された第1の混信画像と、第2の受光素子により光電変換された第2の混信画像とを取得するステップと、取得した第1の混信画像及び第2の混信画像からそれぞれ混信成分を除去し、多様レンズの第1の特性及び第2の特性をそれぞれ有する第1の画像及び第2の画像を生成するステップと、をコンピュータに実現させる。
 本発明の更に他の態様に係る画像処理プログラムにおいて、第1の画像及び第2の画像を生成するステップは、第1の混信画像及び第2の混信画像のそれぞれの検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列と、第1の混信画像及び第2の混信画像とに基づいて第1の画像及び第2の画像を算出することが好ましい。
 本発明によれば、複数の特性を有する多様レンズの各特性に対応する画像を、単一のイメージセンサを使用して同時に撮像することができ、特に本発明に係るイメージセンサは、通常のイメージセンサと同様の構造にすることができるため(追加構造が不要であるため)、センサ画素の微細化や製造工数・コストの抑制を図ることができる。
図1は本発明を適用可能なデジタルカメラ(撮像装置)の一例を示す斜視図である。 図2は本発明を適用可能な自動追尾撮像装置(撮像装置)の一例を示す斜視図である。 図3は第1実施形態に係る多様レンズの断面構成を示す。 図4は本実施形態のイメージセンサの要部を拡大した断面図である。 図5は図3に示すイメージセンサの断面構成例を示す図である。 図6は図3に示した多様レンズ(特に第1の光学系)及びイメージセンサに入射する広角像の光束の光路を示す図である。 図7は図3に示した多様レンズ(特に第2の光学系)及びイメージセンサに入射する望遠像の光束の光路を示す図である。 図8は図4に示したイメージセンサに広角像の光路と望遠像の光路とを追記した図である。 図9は真の広角像、真の望遠像、第1の混信画像、第2の混信画像、及び検出ゲイン分布及び混信ゲイン分布によって構成される行列の関係を示す図である。 図10はメージセンサから取得される第1の混信画像、及び第2の混信画像から混信除去像(真の広角像、真の望遠像)を算出する方法を示す概念図である。 図11は本実施形態のイメージセンサを使用して第1の混信画像、及び第2の混信画像を取得し、混信除去方法により混信除去像(真の広角像、真の望遠像)を取得したシミュレーション結果を示す図である。 図12は混信を除去した第1の画像(真の広角像)及び第2の画像(真の望遠像)を算出する式(1)を示す図である。 図13は図12に示した式(1)中の「W1」を構成する要素w1_11~w1_mnを示す図である。 図14は図12に示した式(1)に基づいて導出される第1の画像(真の広角像)を構成する画素成分(画素値)に対応する要素「w1_ij」を算出する式(2)を示す図である。 図15は図12に示した式(1)に基づいて導出される第2の画像(真の望遠像)を構成する画素成分(画素値)に対応する要素「t1_ij」を算出する式(3)を示す図である。 図16は図1及び図2に示した撮像装置の要部の内部構成を示すブロック図である。 図17は第2実施形態に係る多様レンズを使用した撮像メカニズムを説明するための図である。 図18は第3実施形態に係る多様レンズの第1の光学系と第2の光学系の変調伝達関数特性(MTF:Modulation Transfer Function)を示すグラフである。 図19は他の実施形態のイメージセンサの要部を拡大した断面図である。 図20は更に他の実施形態のイメージセンサの要部を拡大した断面図である。 図21は本発明の撮像装置の一実施形態であるスマートフォンの外観を示す図である。 図22は図21に示すスマートフォンの構成を示すブロック図である。
 以下、図面を参照して本発明の実施形態について説明する。
 本発明は、複数種類の光学特性を有する多様レンズを使って複数種類の画像を撮像可能な撮像装置、撮像方法及びそれらの応用技術に対して広く適用可能であり、その適用可能な技術分野は特に限定されない。例えば、ユーザ操作に応じて撮像を行う撮像装置だけではなく、自動的に撮像を行う撮像装置に対しても本発明は適用可能であり、また静止画を撮像する撮像装置だけではなく、動画を撮像する撮像装置に対しても本発明は適用可能である。
 図1は、本発明を適用可能なデジタルカメラ10(撮像装置30)の一例を示す斜視図である。図1に示す例では、デジタルカメラ10のカメラ本体の前面に多様レンズ11及びフラッシュ13等が設けられ、カメラ本体の上面にレリーズボタン12等が設けられている。図1の符号「L」は、多様レンズ11の光軸を表す。
 図2は、本発明を適用可能な自動追尾撮像装置14(撮像装置30)の一例を示す斜視図である。図2に示す自動追尾撮像装置14では、ギア19を含む保持部18と保持部18に取り付けられた多様レンズ11とが、装置本体15上に設けられる台座16に固定的に据え付けられている。台座16は、装置本体15の垂直方向Zの軸を中心に回転自在に設けられており、図示しないパン駆動部により垂直方向Zの軸を中心にしたパン動作が行われる。ギア19は水平方向Xの軸と同軸上に設けられ、図示しないチルト駆動部からギア19を介して駆動力が伝達されることにより、多様レンズ11が上下方向に回動させられてチルト動作が行われる。これらの多様レンズ11、保持部18(ギア19)及び台座16は、防塵及び防滴用のドームカバー17によって覆われている。
 以下に説明する本発明の各実施形態及び各変形例は、例えば図1に示すようなデジタルカメラ10に対して適用されてもよいし、図2に示すような自動追尾撮像装置14に対して適用されてもよい。
 <第1実施形態>
 図3は、第1実施形態に係る多様レンズ11及びイメージセンサ24の断面構成を示す図である。
 多様レンズ11は、第1の特性を有する第1の領域と第1の特性とは異なる第2の特性を有する第2の領域とを含み、本実施形態では、第1の領域に対応する第1の光学系21と、第2の領域に対応する第2の光学系22とから構成されている。また、第1の光学系21と第2の光学系22とは、焦点距離(光学特性)が異なり、かつ光軸Lが共通しており、第1の光学系21は広角レンズであり、第2の光学系22は望遠レンズである。なお、上述したように、第1実施形態に係る多様レンズ11における異なる光学特性(第1の特性と第1の特性とは異なる第2の特性)は、焦点距離が異なる(望遠・広角)ことに係る光学特性であるが、本発明の構成はそれに限定されるものではなく、異なる光学特性の例としては、例えば、合焦距離(ピント位置)が異なる場合や、透過波長域が異なる(可視光と赤外光など。その他に、多層膜コーティングにより透過波長域が異ならせたり、色素で色をつけることにより透過波長域が異ならせたりするなど)場合などの異なる光学特性を含むものである。
 図3に示す第1の光学系(広角レンズ)21は、同一の光軸L上に配置される第1広角用レンズ21a、第2広角用レンズ21b、第3広角用レンズ21c、第4広角用レンズ21d及び共通レンズ23を含む。一方、第2の光学系(望遠レンズ)22は、第1望遠用レンズ22a、第1望遠用反射ミラー22cが設けられる第1望遠用反射体22b、第2望遠用反射ミラー22eが設けられる第2望遠用反射体22d、及び共通レンズ23を含む。第1の光学系21(特に第1広角用レンズ21a、第2広角用レンズ21b、第3広角用レンズ21c及び第4広角用レンズ21d)が、円形の中央光学系を形成する。一方、第2の光学系22(特に第1望遠用レンズ22a、第1望遠用反射体22b、第1望遠用反射ミラー22c、第2望遠用反射体22d及び第2望遠用反射ミラー22e)は、第1の光学系21が形成する中央光学系の周辺部において設けられ、第1の光学系21が形成する中央光学系に対して同心円状に配設された環状光学系を形成する。尚、共通レンズ23は、光軸L上に配置され、第1の光学系21と第2の光学系22との間で共用される。
 このように第2の光学系22は、第1の光学系21を構成するレンズ群(第1広角用レンズ21a~第4広角用レンズ21d及び共通レンズ23)の周辺に設けられるレンズ群(第1望遠用レンズ22a及び共通レンズ23)及び反射ミラー群(第1望遠用反射ミラー22c(第1望遠用反射体22b)及び第2望遠用反射ミラー22e(第2望遠用反射体22d))を含み、第1の光学系21と同一の光軸Lを有するが、第1の光学系21とは異なる焦点距離を有する。
 イメージセンサ24は、光軸Lと垂直を形成する方向に関し、複数の受光素子(「受光セル」又は「受光センサ」ともいう)25が2次元的に配置されることで構成され、特に本実施形態のイメージセンサ24は、複数の受光素子25として、図4に示すように第1のマイクロレンズ29Aと第2のマイクロレンズ29Bとの曲率半径(合焦度合い)が異なる第1の受光素子25Aと第2の受光素子25Bとが、市松状(チェッカーパターン状)に配列されて構成されている。
 図4はイメージセンサ24の要部を拡大した断面図であり、第1の受光素子25Aと第2の受光素子25Bとを示している。
 図4に示すイメージセンサ24は、第1のフォトダイオード26A及び第2のフォトダイオード26Bの受光面(表面)側に、第1のフォトダイオード26A及び第2のフォトダイオード26Bに蓄積される電荷に対応する画像信号を読み出すための配線等が形成された配線層27が設けられた、表面照射型イメージセンサである。また、配線層27の入射面側には、平滑化層28A、28Bが設けられ、平滑化層28A、28Bの入射面側には、第1のマイクロレンズ29A、第2のマイクロレンズ29B(オンチップマイクロレンズ)が形成されている。
 第1のマイクロレンズ29A及び第2のマイクロレンズ29Bは、第1の受光素子25A毎及び第2の受光素子25B毎にそれぞれ1つ設けられており、第1のマイクロレンズ29A及び第2のマイクロレンズ29Bに入射する広角像の光及び望遠像の光(多様レンズ11の瞳像)を第1のフォトダイオード26A及び第2のフォトダイオード26Bの受光面に、それぞれ異なる合焦度合い(第1の合焦度合い及び第2の合焦度合い)で結像させる(図8参照)。
 尚、第1のマイクロレンズ29A及び第2のマイクロレンズ29Bに入射する入射光線は、イメージセンサ24の中心からの距離(像高)に応じて入射角が変化するため、第1のマイクロレンズ29A及び第2のマイクロレンズ29Bは、イメージセンサ24上の位置(像高)に応じて受光素子25に対してわずかにシフトして配置(スケーリング)することが好ましい。また、イメージセンサ24は、平滑化層28A、28Bに代えて、又は平滑化層28A,28Bと第1のマイクロレンズ29A、第2のマイクロレンズ29Bとの間に、例えば赤、緑、青の各色のフィルタを形成し、カラーイメージセンサとして構成してもよい。
 図5は、図3に示すイメージセンサ24の断面構成例を示す図である。
 本例のイメージセンサ24を構成する複数の受光素子25は、図4に示したように第1のマイクロレンズ29Aを有する第1の受光素子25Aと、第2のマイクロレンズ29Bを有する第2の受光素子25Bとを含み、これらの第1の受光素子25A及び第2の受光素子25Bは2次元的に交互に配置されている。
 このイメージセンサ24からは、第1の受光素子25Aのグループの画素信号と、第2の受光素子25Bのグループの画素信号とが区別して読み出され、第1の受光素子25Aのグループの画素信号、及び第2の受光素子25Bのグループの画素信号は、後述するように第1の混信画像のセンサ出力及び第2の混信画像のセンサ出力として取得される。
 図6は、図3に示した多様レンズ11(特に第1の光学系21)及びイメージセンサ24に入射する広角像Wの光束の光路を示す図である。本実施形態において広角像Wは、第1の光学系21の第1広角用レンズ21a、第2広角用レンズ21b、第3広角用レンズ21c、第4広角用レンズ21d及び共通レンズ23を順次通過し、イメージセンサ24上に結像する。
 図7は、図3に示した多様レンズ11(特に第2の光学系22)及びイメージセンサ24に入射する望遠像Tの光束の光路を示す図である。本実施形態において望遠像Tは、第1望遠用レンズ22aを通過(透過)し、第1望遠用反射ミラー22c及び第2望遠用反射ミラー22eの各々により反射された後に共通レンズ23を通過し、イメージセンサ24上に結像する。このように、第1望遠用反射ミラー22c及び第2望遠用反射ミラー22eの各々により反射されて光路が折り返されることにより、焦点距離の長い望遠像撮像用の第2の光学系22の光軸Lの方向に関する長さを短くすることができる。
 図6及び図7に示したように広角像Wの光束と望遠像Tの光束とは、イメージセンサ24に入射する角度が異なる。
 図8は、図4に示したイメージセンサ24に広角像Wの光路Pと望遠像Tの光路Pとを追記した図である。
 第1の受光素子25Aと第2の受光素子25Bとは、後述するように第1のマイクロレンズ29Aと第2のマイクロレンズ29Bとの曲率半径(焦点距離)が異なり、その結果、受光素子25の受光面上に結像される多様レンズ11の瞳像の合焦度合いが異なるため、受光感度特性も異なる。本例では、第1の受光素子25Aに対して設けられた第1のマイクロレンズ29Aは、第1の受光素子25Aの受光面上で多様レンズ11の瞳像のピントが合うように瞳像を結像させるのに対し、第2の受光素子25Bに対して設けられた第2のマイクロレンズ29Bは、第2の受光素子25Bの受光面上で多様レンズ11の瞳像のピントが外れるように瞳像を結像させる。
 図8に示した第1の受光素子25Aの第1のフォトダイオード26A及び第2の受光素子25Bの第2のフォトダイオード26Bには、それぞれ瞳像の中央部の光(即ち、広角像Wの光)が、瞳像の周辺部の光(望遠像Tの光)よりも多く入射するが、第1の受光素子25Aでは、多様レンズ11の瞳像が第1のフォトダイオード26Aに合焦しているため、第2の受光素子25Bに比べて、より多く瞳像の中央部の光(即ち、広角像Wの光)が第1のフォトダイオード26Aに入射している。
 即ち、イメージセンサ24の第1の受光素子25A及び第2の受光素子25Bには、それぞれ広角像Wの光束と望遠像Tの光束とが混信して入射するが、第1の受光素子25Aと第2の受光素子25Bとは混信比率が異なり、第1の受光素子25Aでは、広角像Wに対する望遠像Tの混信比率が小さく、第2の受光素子25Bでは、広角像Wに対する望遠像Tの混信比率が第1の受光素子25Aよりも大きい。
 図5に示したようにイメージセンサ24に含まれる複数の第1の受光素子25Aと、複数の第2の受光素子25Bとからは、上記のように広角像Wと望遠像Tとの混信比率がそれぞれ異なる第1の混信画像と第2の混信画像とを示すセンサ出力を取得することができる。
 ここで、イメージセンサ24に含まれる複数の第1の受光素子25Aから得られる第1の混信画像をセンサ出力W2とし、イメージセンサ24に含まれる複数の第2の受光素子25Bから得られる第2の混信画像をセンサ出力T2とすると、これらのセンサ出力W2,T2(第1の混信画像、第2の混信画像)から混信成分を除去する混信除去処理を行うことで、混信のない所望の第1の画像(広角像W1)及び第2の画像(望遠像T1)を得ることができる。
 [混信除去方法]
 次に、本発明に適用可能な混信除去方法について説明する。
 図9は、真の広角像W1(W1ij)、真の望遠像T1(T1ij)、センサ出力W2(W2ij)、センサ出力T2(T2ij)、及び検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの関係を示す図である。尚、添え字のi,jは、2次元の画像上の画素位置を示す。
 図9に示すようにイメージセンサ24(第1の受光素子25A及び第2の受光素子25B)から出力されるセンサ出力W2、及びセンサ出力T2は、「広角真信号の検出ゲイン分布A(Aij),望遠真信号の検出ゲイン分布D(Dij),及び広角像に対する望遠像の混信ゲイン分布B(Bij),望遠像に対する広角像の混信ゲイン分布C(Cij)によって構成される行列M」と、「第1の光学系21及び第2の光学系22の各々を通過した広角像Wのみ,及び望遠像Tのみによって生成される真の広角像W1及び真の望遠像T1」との積で表される。
 検出ゲイン分布A,D及び混信ゲイン分布B,Cによって構成される行列Mは、図9に示すように2×2行列である。
 イメージセンサとしては、検出ゲイン分布A,Dがそれぞれ1であり、混信ゲイン分布B,Cがそれぞれ0であることが理想であり、理想のイメージセンサであれば、センサ出力W2は、真の広角像W1と一致し、センサ出力T2は、真の望遠像T1と一致する。
 しかし、本実施形態のイメージセンサ24(理想特性を有しないイメージセンサ)であっても、行列Mの逆行列M-1が存在すれば、イメージセンサ24から取得されるセンサ出力W2(第1の混信画像)、及びセンサ出力T2(第2の混信画像)から混信成分を除去し、真の広角像W1(第1の画像)、真の望遠像T1(第2の画像)を得ることができる。
 仮に、C=0.5、D=0.5のように、センサ出力T2に含まれる広角像と望遠像の成分が均等の場合(つまり、第2の受光素子25Bに広角像と望遠像との分離能力がない場合)であっても、A≠Bでありさえすれば、AD-BC≠0(行列Mの逆行列M-1が存在する条件)を満たし、センサ出力W2及びセンサ出力T2から混信成分を除去することができる。
 図10は、イメージセンサ24から取得されるセンサ出力W2、及びセンサ出力T2から混信除去像(真の広角像W1、真の望遠像T1)を算出する方法を示す概念図である。
 真の広角像W1、真の望遠像T1は、センサ出力W2、センサ出力T2、及び図9に示した行列Mの逆行列M-1に基づいて、図12に示す式(1)により算出することができる。
 尚、式(1)において、逆行列M-1を構成するA,B,C,Dは、前述したように広角真信号の検出ゲイン分布A,広角像に対する望遠像の混信ゲイン分布B、望遠像に対する広角像の混信ゲイン分布C、及び望遠真信号の検出ゲイン分布Dであり、図10に示す例では、A=0.7、B=0.3、C=0.5、D=0.5の場合に関して示している。
 図11は、本実施形態のイメージセンサ24を使用してセンサ出力W2(第1の混信画像)、及びセンサ出力T2(第2の混信画像)を取得し、上記混信除去方法により混信除去像(真の広角像W1、真の望遠像T1)を取得したシミュレーション結果を示す図である。
 本実施形態のイメージセンサ24の各部のサイズ等は、以下の通りである。
 第1のマイクロレンズ29Aの曲率半径:3.7μm
 第2のマイクロレンズ29Bの曲率半径:5.0μm
 第1のマイクロレンズ29A及び第2のマイクロレンズ29Bの屈折率:1.55
 第1のマイクロレンズ29Aの頂点と第1のフォトダイオード26Aの入射面との距離:9.1μm
 第2のマイクロレンズ29Bの頂点と第2のフォトダイオード26Bの入射面との距離:9.1μm
 第1の受光素子25Aと第2の受光素子25Bとの間隔(画素ピッチ):7μm
 第1の受光素子25Aの第1のフォトダイオード26Aの開口サイズ/画素ピッチ:32%
 第2の受光素子25Bの第2のフォトダイオード26Bの開口サイズ/画素ピッチ:32%
 図11(A1)及び(A2)は、第1の受光素子25Aの第1のマイクロレンズ29A及び第2の受光素子25Bの第2のマイクロレンズ29Bにより結像される多様レンズ11の瞳像と、第1の受光素子25Aの第1のフォトダイオード26A及び第2の受光素子25Bの第2のフォトダイオード26Bのそれぞれの開口Oとの関係を示している。
 図11(A1)に示すように第1の受光素子25Aの第1のマイクロレンズ29Aにより結像される多様レンズ11の瞳像はピントが合っており、図11(A2)に示すように第2の受光素子25Bの第2のマイクロレンズ29Bにより結像される多様レンズ11の瞳像はピントが外れ、図11(A1)に示した瞳像よりもボケて大きくなっている。
 本例では、第1の受光素子25Aから得られるセンサ出力W2の広角真信号の検出ゲイン分布Aは、A=0.4029あり、広角像に対する望遠像の混信ゲイン分布Bは、B=0.0654である。また、第2の受光素子25Bから得られるセンサ出力T2の望遠像に対する広角像の混信ゲイン分布Cは、C=0.3705であり、望遠像真信号の検出ゲイン分布Dは、D=0.1612である。
 図11(B1)及び(B2)は、それぞれセンサ出力W2(第1の混信画像)、及びセンサ出力T2(第2の混信画像)を示している。同図に示すように、第1の受光素子25Aの第1のフォトダイオード26A及び第2の受光素子25Bの第2のフォトダイオード26Bによる多様レンズ11の瞳像の合焦度合いの違いにより、第1の混信画像と第2の混信画像とは、広角像Wに対する望遠像Tの混信比率が異なる。
 図11(C1)及び(C2)は、それぞれ混信が除去された真の広角像W1及び真の望遠像T1を示している。
 真の広角像W1及び真の望遠像T1は、センサ出力W2及びセンサ出力T2のそれぞれの検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列M-1と、センサ出力W2及びセンサ出力T2とに基づいて、図12に示す式(1)により算出することができる。
 図13は、図12に示した式(1)中の「W1」を構成する要素w1_11~w1_mnを示す。即ち「W1」は、真の広角像W1の画素成分(画素値)に対応する要素w1_11~w1_mnによって構成される。
 同様に、図12に示す「W2」、「T1」及び「T2」も、それぞれセンサ出力W2、真の望遠像T1及びセンサ出力T2の画素成分(画素値)に対応する要素w2_11~w2_mn、t1_11~t1_mn及びt2_11~t2_mnによって構成される(図示省略)。
 また、図11に示したシミュレーションでは、図12に示す式(1)中の逆行列M-1を構成するゲイン分布A~Dを、A=0.4029、B=0.0654、C=0.3705、D=0.1612としたが、厳密にはゲイン分布A~Dは、イメージセンサ24の場所毎に異なるので、各場所での行列・逆行列(画素数分だけ存在)を使って、真の画像を求めることが好ましい。即ち、逆行列M-1を構成するゲイン分布A~Dも、それぞれ広角像及び望遠像の各画素に応じて定められる要素a11~amn、b11~bmn、c11~cmn及びd11~dmnによって構成することが好ましい(図示省略)。
 図14は、図12に示した式(1)に基づいて導出される真の広角像W1を構成する画素成分(画素値)に対応する要素「w1_ij」を算出する式(2)を示す。同様に、図15は、図12に示した式(1)に基づいて導出される真の望遠像T1を構成する画素成分(画素値)に対応する要素「t1_ij」を算出する式(3)を示す。
 <撮像装置の内部構成>
 図16は、図1及び図2に示した撮像装置30の要部の内部構成を示すブロック図である。
 図16に示すように撮像装置30は、主として前述した多様レンズ11及びイメージセンサ24の他に、画像取得部32、混信除去処理部34、及びデジタル信号処理部36等を備えている。画像取得部32、混信除去処理部34、及びデジタル信号処理部36等は、例えば、図1で示されるデジタルカメラや図20で示されるスマートフォン内部にある、1つ又は複数のマイクロプロセッサによって実現される。
 多様レンズ11の第1の光学系21及び第2の光学系22により撮像される広角像及び望遠像は、イメージセンサ24の受光面に結像され、各フォトダイオード26A,26Bにより入射光量に応じた電荷量の信号電圧(または電荷)に変換される。
 イメージセンサ24に蓄積された信号電圧(または電荷)は、各受光素子25そのもの若しくは付設されたキャパシタに蓄えられる。蓄えられた信号電圧(または電荷)は、X-Yアドレス方式を用いたMOS(Metal Oxide Semiconductor)型イメージセンサ(いわゆるCMOS(Complementary Metal Oxide Semiconductor)センサ)の手法を用いて、受光素子25の位置の選択とともに読み出される。
 これにより、イメージセンサ24に含まれる複数の第1の受光素子25Aから第1の混信画像を示す画像信号(センサ出力W2)と、イメージセンサ24に含まれる複数の第2の受光素子25Bから第2の混信画像を示す画像信号(センサ出力T2)とを読み出すことができる。
 イメージセンサ24から読み出された画像信号(電圧信号)は、相関二重サンプリング処理(センサ出力に含まれるノイズ(特に熱雑音)等を軽減することを目的として、受光素子毎の出力信号に含まれるフィードスルー成分レベルと信号成分レベルとの差をとることにより正確な画素データを得る処理)により受光素子毎の画像信号がサンプリングホールドされ、増幅されたのちA/D(Analog-to-Digital)変換器20に加えられる。A/D変換器20は、順次入力する画像信号をデジタル信号に変換して画像取得部32に出力する。尚、MOS型イメージセンサでは、A/D変換器が内蔵されているものがあり、この場合、イメージセンサ24から直接デジタル信号が出力される。
 画像取得部32は、イメージセンサ24の受光素子の位置を選択して画像信号を読み出すことにより、同時に撮像された第1の混信画像を示す画像信号と第2の混信画像を示す画像信号とを取得することができる。
 即ち、イメージセンサ24の複数の第1の受光素子25Aを選択し、複数の第1の受光素子25Aから画像信号を選択的に読み出すことにより、第1の混信画像を示す画像信号を取得することができ、一方、イメージセンサ24の複数の第2の受光素子25Bを選択し、複数の第2の受光素子25Bから画像信号を選択的に読み出すことにより、第2の混信画像を示す画像信号を取得することができる。
 尚、イメージセンサ24から全ての画像信号を読み出してバッファメモリに一時的に記憶させ、バッファメモリに記憶させた画像信号から、第1の混信画像と第2の混信画像の2つ画像の画像信号のグループ分けを行ってもよい。
 画像取得部32により取得された第1の混信画像及び第2の混信画像を示す画像信号は、混信除去処理部34に出力される。
 混信除去処理部34は、画像取得部32から入力する第1の混信画像及び第2の混信画像を示す画像信号から混信成分を除去し、多様レンズ11の第1の光学系の第1の特性(広角)及び第2の光学系22の第2の特性(望遠)をそれぞれ有する第1の画像(広角像)及び第2の画像(望遠像)を示す画像信号を生成する部分であり、図12に示した式(1)に基づいて混信のない広角像及び望遠像を示す画像信号を生成する。
 即ち、混信除去処理部34は、式(1)に示した逆行列M-1を構成するゲイン分布A~Dを記憶するROM(Read Only Memory)等の記憶部34Aを有しており、記憶部34Aに記憶された逆行列M-1と、画像取得部32から入力する第1の混信画像及び第2の混信画像を示す画像信号(センサ出力W2,T2)とを乗算することにより、混信のない広角像W1及び望遠像T1を示す画像信号を生成する。尚、逆行列M-1を構成するゲイン分布A~Dは、多様レンズ11及びイメージセンサ24の特性により一意に特定することができるため、予め算出して記憶部34Aに記憶させておくことができる。
 混信除去処理部34により生成された混信のない広角像W1及び望遠像T1を示す画像信号は、それぞれデジタル信号処理部36に出力される。
 デジタル信号処理部36は、入力するデジタルの画像信号に対して、オフセット処理、ガンマ補正処理等の所定の信号処理を行う。
 デジタル信号処理部36で処理された広角像及び望遠像を示す画像信号は、それぞれ記録部38及び表示部40に出力される。記録部38は、デジタル信号処理部36により処理された広角像及び望遠像を示す静止画記録用又は動画記録用の画像信号を記録媒体(ハードディスク、メモリカード等)に記録する。
 表示部40は、デジタル信号処理部36により処理された広角像及び望遠像を示す静止画表示用又は動画表示用の画像信号により、広角画像及び望遠画像を表示する。尚、表示部40は、記録部38に記録された画像信号に基づいて広角画像及び望遠画像を再生することもできる。
 <第2実施形態>
 図17は、第2実施形態に係る多様レンズ11を使用した撮像メカニズムを説明するための図である。
 図17に示す多様レンズ11は、円形の第1の光学系21と、第1の光学系21に対して同心円状に配設された環状の第2の光学系22とからなり、第1の光学系21と第2の光学系とは光軸が共通するが、合焦距離が異なる。
 図17において、各参照符号が示す内容は以下の通りである。
 a1:第1の光学系21(遠合焦領域60a)のレンズ-受光面間距離
 a2:第2の光学系22(近合焦領域60b)のレンズ-受光面間距離
 b1:第1の光学系21(遠合焦領域60a)のレンズ-被写体間距離
 b2:第2の光学系22(近合焦領域60b)のレンズ-被写体間距離
 FD1:第1の光学系21(遠合焦領域60a)の合焦距離
 FD2:第2の光学系22(近合焦領域60b)の合焦距離
 Q1A、Q1B及びQ2:被写体
 尚、本実施形態において「合焦距離」とは、イメージセンサ24の受光素子25の受光面から受光素子25と合焦関係にある被写体までの距離を指し、図17に示す例では「FD1=a1+b1」及び「FD2=a2+b2」の関係が成立する。また、第1の光学系21(遠合焦領域60a)の焦点距離を「f1」とし、第2の光学系22(近合焦領域60b)の焦点距離を「f2」とすると、「1/f1=(1/a1)+(1/b1)」及び「1/f2=(1/a2)+(1/b2)」の関係が成立する。
 このような「合焦距離の異なる第1の光学系21及び第2の光学系22」を具備する撮像装置30おいても、第1実施形態と同様の機能構成(図16参照)によって、第1の光学系21により遠距離の被写体Q1A及びQ1Bに合焦した第1の画像と、第2の光学系22により近距離の被写体Q2に合焦した第2の画像とを同時に撮像することができる。
 即ち、第1の光学系21により遠距離の被写体Q1B及びQ1Bに合焦した第1の合焦像の光と、第2の光学系22により近距離の被写体Q2に合焦した第2の合焦像の光とが混信し、イメージセンサ24の第1の受光素子25A及び第2の受光素子25Bに入射する。
 これにより、イメージセンサ24の第1の受光素子25Aからは、第1の合焦像と第2の合焦像とが混信した第1の混信画像を取得することができ、イメージセンサ24の第2の受光素子25Bからは、第1の受光素子25Aとは混信比率が異なる、第1の合焦像と第2の合焦像とが混信した第2の混信画像を取得することができる。
 混信除去処理部34は、逆行列M-1(図12に示した式(1)中のM-1)と、イメージセンサ24から取得された第1の混信画像及び第2の混信画像とを乗算することにより、それぞれ混信のない遠距離の被写体Q1B及びQ1Bに合焦した第1の画像と、近距離の被写体Q2に合焦した第2の画像とを生成することができる。
 尚、第2実施形態に係る多様レンズ11は、図3等に示した多様レンズ11とは特性が異なるため、逆行列M-1を構成するゲイン分布A~Dも異なることは言うまでもない。
 <第3実施形態>
 図18は、第3実施形態に係る多様レンズ(図示せず)の第1の光学系と第2の光学系の変調伝達関数特性(MTF:Modulation Transfer Function)を示すグラフである。
 第3実施形態に係る多様レンズの第1の光学系と第2の光学系とは、焦点距離及び合焦距離は同一であるが、MTFが異なり、第1の光学系は、図18のMTF曲線aに示す第1のMTFを有し、第2の光学系は、図18のMTF曲線bに示す第2のMTFを有する。尚、第3実施形態に係る多様レンズは、例えば、図17に示した多様レンズ11とほぼ同様の外観形状とすることができる。
 第1のMTFを有する第1の光学系は、図18に示すMTF曲線aによれば、第2のMTFを有する第2の光学系と比較して解像度は高いが、コントラストが低い光学系であり、一方、第2のMTFを有する第2の光学系は、図18に示すMTF曲線bによれば、第1のMTFを有する第1の光学系と比較して解像度は低いが、コントラストが高い光学系である。
 このような「MTFの異なる第1の光学系及び第2の光学系」を具備する撮像装置30おいても、第1実施形態と同様の機能構成(図16参照)によって、第1の光学系及び第2の光学系のそれぞれのMTFに対応した第1の画像と第2の画像とを同時に撮像することができる。
 即ち、第1の光学系の第1のMTFに対応する第1の像の光と、第2の光学系の第2のMTFに対応する第2の像の光とが混信し、イメージセンサ24の第1の受光素子25A及び第2の受光素子25Bに入射する。
 これにより、イメージセンサ24の第1の受光素子25Aからは、第1の像と第2の像とが混信した第1の混信画像を取得することができ、イメージセンサ24の第2の受光素子25Bからは、第1の受光素子25Aとは混信比率が異なる、第1の像と第2の像とが混信した第2の混信画像を取得することができる。
 混信除去処理部34は、逆行列M-1(図12に示した式(1)中のM-1)と、イメージセンサ24から取得された第1の混信画像及び第2の混信画像とを乗算することにより、それぞれ混信のない第1のMTFを有する第1の画像と、第2のMTFを有する第2の画像とを生成することができる。
 <イメージセンサの他の実施形態>
 図19は、本発明に適用されるイメージセンサの他の実施形態を示す断面図であり、イメージセンサの要部を拡大した断面図である。
 図19に示すイメージセンサ124は、第1のフォトダイオード126A及び第2のフォトダイオード126Bの受光面とは反対側(裏面側)に、第1のフォトダイオード126A及び第2のフォトダイオード126Bに蓄積される電荷に対応する画像信号を読み出すための配線等が形成された配線層127が設けられた、裏面照射型イメージセンサである。また、第1のフォトダイオード126A及び第2のフォトダイオード126Bの受光面(表面)側には、反射防止層、平滑化層、カラーフィルタ等の層128が設けられ、層128の入射面側には、第1のマイクロレンズ129A,第2のマイクロレンズ129B(オンチップマイクロレンズ)が形成され、第1の受光素子125A及び第2の受光素子125Bが構成されている。
 第1のマイクロレンズ129A及び第2のマイクロレンズ129Bは、第1の受光素子125A毎及び第2の受光素子125B毎にそれぞれ1つ設けられており、第1のマイクロレンズ129A及び第2のマイクロレンズ129Bに入射する広角像の光及び望遠像の光(多様レンズ11の瞳像)を第1のフォトダイオード126A及び第2のフォトダイオード126Bの受光面に、それぞれ異なる合焦度合いで結像させる。尚、第1のマイクロレンズ129A及び第2のマイクロレンズ129Bは、図4に示したイメージセンサ24の第1のマイクロレンズ29A及び第2のマイクロレンズ29Bと同様に曲率半径が異なっている。
 この実施形態に係るイメージセンサ124は、裏面照射型イメージセンサであるため、第1のフォトダイオード126A及び第2のフォトダイオード126Bの受光面(表面)側には、配線層がなく、その結果、図4に示した第1実施形態に係るイメージセンサ24(即ち、第1のフォトダイオード26A及び第2のフォトダイオード26Bの受光面(表面)側に配線層27が形成された表面照射型イメージセンサ)に比べて、画素サイズの微細化に有利であるのみならず、光利用効率の高いため、高感度化にも有利である。
 <イメージセンサの更に他の実施形態>
 図20は、本発明に適用されるイメージセンサの更に他の実施形態を示す断面図であり、イメージセンサの要部を拡大した断面図である。尚、図4に示したイメージセンサ24と共通する部分には同一の符号を付し、その詳細な説明は省略する。
 図20に示すイメージセンサ224は、図4に示したイメージセンサ24と比較して、マイクロレンズの構成が異なり、第1の受光素子225A側の平滑化層28Aの入射面側には、マイクロレンズ29Aが設けられているが、第2の受光素子225B側の平滑化層28Bの入射面側には、マイクロレンズが設けられていない。
 本例のイメージセンサ224を構成する複数の受光素子225は、マイクロレンズ29Aを有する第1の受光素子225Aと、マイクロレンズを有しない第2の受光素子225Bとが2次元的に交互に配置されている。
 第1の受光素子225Aに対して設けられたマイクロレンズ29Aは、図4に示したイメージセンサ24の第1のマイクロレンズ29Aと同じマイクロレンズであり、第1の受光素子225Aは、図4に示した第1の受光素子25Aと実質的に同じ構造を有するものである。
 従って、第1の受光素子225Aの受光面上には、マイクロレンズ29Aにより多様レンズ11の瞳像が合焦するように結像される。
 一方、第2の受光素子225Bにはマイクロレンズが設けられていないため、第2の受光素子225Bに入射する広角像Wの光束と望遠像Tの光束とは、結像・集光されることなく、ほぼ平行光のまま第2の受光素子225Bの受光面に到達する。
 即ち、第1の受光素子225Aの第1のフォトダイオード26Aの受光面上には、マイクロレンズ29Aにより合焦した広角像の光及び望遠像の光(多様レンズ11の瞳像)が入射するが、第2の受光素子225Bの第2のフォトダイオード26Bの受光面上には、非合焦の多様レンズ11の瞳像が入射する。従って、第1の受光素子225Aと第2の受光素子225Bとは、受光面上での多様レンズ11の瞳像の合焦度合いが異なり、受光感度特性も異なる。
 本例のイメージセンサ224に含まれる複数の第1の受光素子225Aと、複数の第2の受光素子225Bとからは、上記のように合焦度合いの違いに対応して広角像Wと望遠像Tとの混信比率がそれぞれ異なる第1の混信画像と第2の混信画像とを示すセンサ出力を取得することができる。
 <他の変形例>
 本発明は上述の実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能である。
 例えば、上述の実施形態同士を適宜組み合わされてもよく、第1の実施形態に係る多様レンズ、第2の実施形態に係る多様レンズ、及び第3の実施形態に係る多様レンズのそれぞれの特性を、2以上組み合わせてなる多様レンズに対しても本発明は適用することができる。
 また、上述の実施形態では、2種類の光学系(第1の光学系21及び第2の光学系22)によって多様レンズ11が構成される例について説明したが、3種類以上の光学系によって多様レンズ11が構成されてもよい。
 また、本実施形態のイメージセンサ24は、第1の受光素子25Aと第2の受光素子25Bとが市松状(チェッカーパターン状)に配列されて構成されているが、本発明に係るイメージセンサは、これに限らず、マイクロレンズによる合焦度合いが異なる第1の受光素子と第2の受光素子とが隣接してペアとなり、このペアが2次元配列されたもの、第1の受光素子と第2の受光素子との個数の比率が1:1ではなく、第1の受光素子の個数が第2の受光素子の個数よりも多いもの、逆に第1の受光素子の個数が第2の受光素子の個数よりも少ないもの等を含む。尚、第1の受光素子の個数と第2の受光素子の個数とが異なる場合、図12に示した式(1)の演算を可能にするために、個数の少ない受光素子のセンサ出力を補間して個数の多い受光素子のセンサ出力と同じ画像サイズにすることが好ましい。
 また、本実施形態では、第1の受光素子の第1のマイクロレンズと第2の受光素子のマイクロレンズとの曲率半径を異ならせ、これにより第1の受光素子と第2の受光素子の各受光面に結像する多様レンズの瞳像の合焦度合いを異ならせるようにしたが、これに限らず、同一の曲率半径を有する第1のマイクロレンズと第2のマイクロレンズとを使用し、一方、第1のマイクロレンズの頂点から第1のフォトダイオードまでの距離と、第2のマイクロレンズの頂点から第2のフォトダイオードまでの距離とを異ならせ、これにより第1の受光素子と第2の受光素子における多様レンズの瞳像の合焦度合いを異ならせるようにしてもよい。
 更に、本発明は、イメージセンサの複数の第1の受光素子から第1の混信画像を取得し、複数の第2の受光素子から第2の混信画像を取得するステップと、取得した第1の混信画像と第2の混信画像からそれぞれ混信成分を除去し、多様レンズの第1の特性及び第2の特性をそれぞれ有する第1の画像及び第2の画像を生成するステップとを含む撮像方法にも適用可能である。
 更にまた、上述の各構成及び各機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、多様レンズ11及びイメージセンサ24(図3)を備えた撮像装置から直接又は記録媒体等を介して間接的に第1の混信画像及び第2の混信画像をコンピュータに入力し、上述のステップをコンピュータに実行させる画像処理プログラム、そのような画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのような画像処理プログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
 また、本発明を適用可能な態様は図1に示すデジタルカメラ10及び図2に示す自動追尾撮像装置14には限定されず、撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、或いはその他のコンピュータ機能)を備えるモバイル機器類に対しても本発明を適用することが可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)及び携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
 <スマートフォンの構成>
 図21は、本発明の撮像装置の一実施形態であるスマートフォン101の外観を示す図である。図21に示すスマートフォン101は、平板状の筐体102を有し、筐体102の一方の面に表示部としての表示パネル121と、入力部としての操作パネル122とが一体となって形成される表示入力部120が設けられる。また、その筐体102は、スピーカ131と、マイクロホン132と、操作部140と、カメラ部141とを備える。尚、筐体102の構成はこれに限定されず、例えば、表示部と入力部とが独立して設けられる構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
 図22は、図21に示すスマートフォン101の構成を示すブロック図である。図22に示すように、スマートフォン101の主たる構成要素として、無線通信部110と、表示入力部120と、通話部130と、操作部140と、カメラ部141と、記憶部150と、外部入出力部160と、GPS(Global Positioning System)受信部170と、モーションセンサ部180と、電源部190と、主制御部100とを備える。また、スマートフォン101の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。
 無線通信部110は、主制御部100の指示に従って、移動通信網に接続された基地局装置との間で無線通信を行う。その無線通信が使用されて、音声データ及び画像データ等の各種ファイルデータや電子メールデータなどの送受信、及びWebデータやストリーミングデータなどの受信が行われる。
 表示入力部120は、表示パネル121及び操作パネル122を備えるいわゆるタッチパネルであり、主制御部100の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、また表示した情報に対するユーザ操作を検出する。
 表示パネル121は、LCD(Liquid Crystal Display)又はOELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いる。操作パネル122は、表示パネル121の表示面上に表示される画像が視認可能な状態で設けられ、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。そのデバイスがユーザの指や尖筆によって操作されると、操作パネル122は、操作に起因して発生する検出信号を主制御部100に出力する。次いで、主制御部100は、受信した検出信号に基づいて、表示パネル121上の操作位置(座標)を検出する。
 本発明の撮像装置の一実施形態として図21に例示されるスマートフォン101の表示パネル121と操作パネル122とは一体となって表示入力部120を構成し、操作パネル122が表示パネル121を完全に覆うような配置となっている。その配置を採用した場合、操作パネル122は、表示パネル121外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル122は、表示パネル121に重なる重畳部分についての検出領域(以下、「表示領域」と称する)と、それ以外の表示パネル121に重ならない外縁部分についての検出領域(以下、「非表示領域」と称する)とを備えていてもよい。
 尚、表示領域の大きさと表示パネル121の大きさとを完全に一致させてもよいが、両者を必ずしも一致させる必要はない。また、操作パネル122が、外縁部分及びそれ以外の内側部分の2つの感応領域を備えていてもよい。さらに、その外縁部分の幅は、筐体102の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル122で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、及び静電容量方式などが挙げられ、いずれの方式が採用されてもよい。
 通話部130は、スピーカ131及びマイクロホン132を備え、マイクロホン132を通じて入力されたユーザの音声を主制御部100にて処理可能な音声データに変換して主制御部100に出力したり、無線通信部110或いは外部入出力部160により受信された音声データを復号してスピーカ131から出力したりする。また、図21に示すように、例えば、スピーカ131及びマイクロホン132を表示入力部120が設けられた面と同じ面に搭載することができる。
 操作部140は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付ける。例えば、図21に示すように、操作部140は、スマートフォン101の筐体102の側面に搭載され、指などで押下されるとスイッチオン状態となり、指を離すとバネなどの復元力によってスイッチオフ状態となる押しボタン式のスイッチである。
 記憶部150は、主制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、及びダウンロードしたコンテンツデータ等を記憶し、またストリーミングデータなどを一時的に記憶する。また、記憶部150は、スマートフォン内蔵の内部記憶部151と着脱自在な外部メモリスロットを有する外部記憶部152とにより構成される。尚、記憶部150を構成する内部記憶部151及び外部記憶部152のそれぞれは、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、或いはROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部160は、スマートフォン101に連結される全ての外部機器とのインターフェースの役割を果たし、通信等(例えば、USB(Universal Serial Bus)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により他の外部機器に直接的又は間接的に接続する。
 スマートフォン101に連結される外部機器としては、例えば、有線/無線ヘッドセット、有線/無線外部充電器、有線/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有線/無線接続されるスマートフォン、有線/無線接続されるパーソナルコンピュータ、有線/無線接続されるPDA、及びイヤホンなどがある。外部入出力部160は、このような外部機器から伝送を受けたデータをスマートフォン101の内部の各構成要素に伝達したり、スマートフォン101の内部のデータが外部機器に伝送されたりするように構成されてもよい。
 GPS受信部170は、主制御部100の指示に従って、GPS衛星ST1、ST2~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン101の緯度、経度及び高度によって特定される位置を検出する。GPS受信部170は、無線通信部110及び/又は外部入出力部160(例えば、無線LAN)から位置情報を取得できる場合には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部180は、例えば、3軸の加速度センサなどを備え、主制御部100の指示に従って、スマートフォン101の物理的な動きを検出する。スマートフォン101の物理的な動きを検出することにより、スマートフォン101の動く方向や加速度が検出される。その検出の結果は、主制御部100に出力される。
 電源部190は、主制御部100の指示に従って、スマートフォン101の各部に、バッテリ(図示しない)に蓄えられる電力を供給する。
 主制御部100は、マイクロプロセッサを備え、記憶部150が記憶する制御プログラムや制御データに従って動作し、スマートフォン101の各部を統括して制御する。また、主制御部100は、無線通信部110を通じて音声通信及びデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能とを備える。
 アプリケーション処理機能は、記憶部150が記憶するアプリケーションソフトウェアに従って主制御部100が動作することにより実現される。アプリケーション処理機能としては、例えば、外部入出力部160を制御することで対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、及びWebページを閲覧するWebブラウジング機能などがある。
 また、主制御部100は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部120に表示する等の画像処理機能を備える。画像処理機能とは、主制御部100が、上記画像データを復号し、その復号結果に画像処理を施して、その画像処理を経て得られる画像を表示入力部120に表示する機能のことをいう。
 更に、主制御部100は、表示パネル121に対する表示制御と、操作部140や操作パネル122を通じたユーザ操作を検出する操作検出制御とを実行する。
 表示制御の実行により、主制御部100は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。尚、スクロールバーとは、表示パネル121の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部100は、操作部140を通じたユーザ操作を検出したり、操作パネル122を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部100は、操作パネル122に対する操作位置が、表示パネル121に重なる重畳部分(表示領域)に該当するか、或いはそれ以外の表示パネル121に重ならない外縁部分(非表示領域)に該当するかを判定し、操作パネル122の感応領域やソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部100は、操作パネル122に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部141は、前述した撮像装置30を適用することができる。また、カメラ部141は、主制御部100の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic Experts Group)などの圧縮した画像データに変換し、その画像データを記憶部150に記録したり、外部入出力部160や無線通信部110を通じて出力したりすることができる。図21に示すようにスマートフォン101において、カメラ部141は表示入力部120と同じ面に搭載されているが、カメラ部141の搭載位置はこれに限らず、表示入力部120が設けられる筐体102の表面ではなく筐体102の背面にカメラ部141が搭載されてもよいし、或いは複数のカメラ部141が筐体102に搭載されてもよい。尚、複数のカメラ部141が搭載されている場合には、撮像に供するカメラ部141を切り替えて単独のカメラ部141によって撮像が行われてもよいし、或いは、複数のカメラ部141を同時に使用して撮像が行われてもよい。
 また、カメラ部141はスマートフォン101の各種機能に利用することができる。例えば、カメラ部141で取得した画像が表示パネル121に表示さてもよいし、操作パネル122の操作入力手法の一つとして、カメラ部141で撮像取得される画像が利用されてもよい。また、GPS受信部170が位置を検出する際に、カメラ部141からの画像が参照されて位置が検出されてもよい。さらには、カメラ部141からの画像が参照されて、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン101のカメラ部141の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部141からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、GPS受信部170により取得された位置情報、マイクロホン132により取得された音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、及びモーションセンサ部180により取得された姿勢情報等などを静止画又は動画の画像データに付加して得られるデータを、記憶部150に記録したり、外部入出力部160や無線通信部110を通じて出力したりすることもできる。
 尚、上述の画像取得部32、混信除去処理部34等、デジタル信号処理部36(図16参照)は、例えば主制御部100によって実現可能である。
 10…デジタルカメラ、11…多様レンズ、14…自動追尾撮像装置、21…第1の光学系、22…第2の光学系、24、124、224…イメージセンサ、25、225…受光素子、25A、125A、225A…第1の受光素子、25B、125B、225B…第2の受光素子、26A…第1のフォトダイオード、26B…第2のフォトダイオード、27、127…配線層、29A,129A…第1のマイクロレンズ、29B,129B…第2のマイクロレンズ、30…撮像装置、32…画像取得部、34…混信除去処理部、36…デジタル信号処理部、38…記録部、40…表示部、100…主制御部、101…スマートフォン、141…カメラ部

Claims (16)

  1.  第1の特性を有する第1の領域と前記第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、
     第1のマイクロレンズを有する第1の受光素子と前記第1のマイクロレンズとは合焦度合いが異なる第2のマイクロレンズを有する第2の受光素子とが2次元配列されたイメージセンサであって、前記多様レンズの前記第1の領域を通過する光束と前記第2の領域を通過する光束とが前記第1のマイクロレンズを介して混信して入射する前記第1の受光素子と、前記多様レンズの前記第1の領域を通過する光束と前記第2の領域を通過する光束とが前記第2のマイクロレンズを介して混信して入射し、かつ前記第1の受光素子とは混信比率が異なる前記第2の受光素子とを有するイメージセンサと、
     前記イメージセンサの前記第1の受光素子から得られる第1の混信画像及び前記第2の受光素子から得られる第2の混信画像からそれぞれ混信成分を除去し、前記多様レンズの前記第1の特性及び前記第2の特性をそれぞれ有する第1の画像及び第2の画像を生成する混信除去処理部と、
     を備えた撮像装置。
  2.  第1の特性を有する第1の領域と前記第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、
     マイクロレンズを有する第1の受光素子とマイクロレンズを有しない第2の受光素子とが2次元配列されたイメージセンサであって、前記多様レンズの前記第1の領域を通過する光束と前記第2の領域を通過する光束とが前記マイクロレンズを介して混信して入射する前記第1の受光素子と、前記多様レンズの前記第1の領域を通過する光束と前記第2の領域を通過する光束とが混信して入射し、かつ前記第1の受光素子とは混信比率が異なる前記第2の受光素子とを有するイメージセンサと、
     前記イメージセンサの前記第1の受光素子から得られる第1の混信画像及び前記第2の受光素子から得られる第2の混信画像からそれぞれ混信成分を除去し、前記多様レンズの前記第1の特性及び前記第2の特性をそれぞれ有する第1の画像及び第2の画像を生成する混信除去処理部と、
     を備えた撮像装置。
  3.  前記混信除去処理部は、前記第1の混信画像及び前記第2の混信画像のそれぞれの検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列と、前記第1の混信画像及び前記第2の混信画像とに基づいて前記第1の画像及び前記第2の画像を算出する請求項1又は2に記載の撮像装置。
  4.  前記第1のマイクロレンズ及び前記第2のマイクロレンズは、それぞれ前記第1の受光素子毎及び前記第2の撮像素子毎に1つずつ設けられ、
     前記第1のマイクロレンズは、前記多様レンズの瞳像を前記第1の受光素子の受光面上に第1の合焦度合いで結像させ、前記第2のマイクロレンズは、前記多様レンズの瞳像を前記第2の受光素子の受光面上に前記第1の合焦度合いとは異なる第2の合焦度合いで結像させる請求項1に記載の撮像装置。
  5.  前記第1のマイクロレンズと前記第2のマイクロレンズとは、それぞれ曲率半径及び前記第1の受光素子の受光面及び前記第2の受光素子の受光面からの距離のうちの少なくとも一方が異なる請求項1又は4に記載の撮像装置。
  6.  前記イメージセンサは、裏面照射型イメージセンサである請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記多様レンズは、前記第1の特性を有する前記第1の領域に対応する第1の光学系と、前記第2の特性を有する前記第2の領域に対応する第2の光学系とを含む請求項1から6のいずれか1項に記載の撮像装置。
  8.  前記第1の光学系と前記第2の光学系とは、光軸が共通する請求項7に記載の撮像装置。
  9.  前記第1の光学系は円形の中央光学系であり、前記第2の光学系は前記中央光学系に対して同心円状に配設された環状光学系である請求項8に記載の撮像装置。
  10.  前記第1の光学系と前記第2の光学系とは、それぞれ焦点距離、合焦距離及び変調伝達関数特性のうちの少なくとも1つが異なる請求項7から9のいずれか1項に記載の撮像装置。
  11.  第1の特性を有する第1の領域と前記第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、第1のマイクロレンズを有する第1の受光素子と前記第1のマイクロレンズとは合焦度合いが異なる第2のマイクロレンズを有する第2の受光素子とが2次元配列されたイメージセンサであって、前記多様レンズの前記第1の領域を通過する光束と前記第2の領域を通過する光束とが前記第1のマイクロレンズを介して混信して入射する前記第1の受光素子と、前記多様レンズの前記第1の領域を通過する光束と前記第2の領域を通過する光束とが前記第2のマイクロレンズを介して混信して入射し、かつ前記第1の受光素子とは混信比率が異なる前記第2の受光素子とを有するイメージセンサと、を備えた撮像装置における撮像方法であって、
     前記撮像装置により同時に撮像された第1の混信画像及び第2の混信画像であって、前記イメージセンサの前記第1の受光素子により光電変換された前記第1の混信画像と、前記第2の受光素子により光電変換された前記第2の混信画像とを取得するステップと、
     前記取得した前記第1の混信画像及び前記第2の混信画像からそれぞれ混信成分を除去し、前記多様レンズの前記第1の特性及び前記第2の特性をそれぞれ有する第1の画像及び第2の画像を生成するステップと、
     を含む撮像方法。
  12.  第1の特性を有する第1の領域と前記第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、マイクロレンズを有する第1の受光素子とマイクロレンズを有しない第2の受光素子とが2次元配列されたイメージセンサであって、前記多様レンズの前記第1の領域を通過する光束と前記第2の領域を通過する光束とが前記マイクロレンズを介して混信して入射する前記第1の受光素子と、前記多様レンズの前記第1の領域を通過する光束と前記第2の領域を通過する光束とが混信して入射し、かつ前記第1の受光素子とは混信比率が異なる前記第2の受光素子とを有するイメージセンサと、を備えた撮像装置における撮像方法であって、
     前記撮像装置により同時に撮像された第1の混信画像及び第2の混信画像であって、前記イメージセンサの前記第1の受光素子により光電変換された前記第1の混信画像と、前記第2の受光素子により光電変換された前記第2の混信画像とを取得するステップと、
     前記取得した前記第1の混信画像及び前記第2の混信画像からそれぞれ混信成分を除去し、前記多様レンズの前記第1の特性及び前記第2の特性をそれぞれ有する第1の画像及び第2の画像を生成するステップと、
     を含む撮像方法。
  13.  前記第1の画像及び前記第2の画像を生成するステップは、前記第1の混信画像及び前記第2の混信画像のそれぞれの検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列と、前記第1の混信画像及び前記第2の混信画像とに基づいて前記第1の画像及び前記第2の画像を算出する請求項11又は12に記載の撮像方法。
  14.  第1の特性を有する第1の領域と前記第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、第1のマイクロレンズを有する第1の受光素子と前記第1のマイクロレンズとは合焦度合いが異なる第2のマイクロレンズを有する第2の受光素子とが2次元配列されたイメージセンサであって、前記多様レンズの前記第1の領域を通過する光束と前記第2の領域を通過する光束とが前記第1のマイクロレンズを介して混信して入射する前記第1の受光素子と、前記多様レンズの前記第1の領域を通過する光束と前記第2の領域を通過する光束とが前記第2のマイクロレンズを介して混信して入射し、かつ前記第1の受光素子とは混信比率が異なる前記第2の受光素子とを有するイメージセンサと、を備えた撮像装置の画像処理プログラムであって、
     前記撮像装置により同時に撮像された第1の混信画像及び第2の混信画像であって、前記イメージセンサの前記第1の受光素子により光電変換された前記第1の混信画像と、前記第2の受光素子により光電変換された前記第2の混信画像とを取得するステップと、
     前記取得した前記第1の混信画像及び前記第2の混信画像からそれぞれ混信成分を除去し、前記多様レンズの前記第1の特性及び前記第2の特性をそれぞれ有する第1の画像及び第2の画像を生成するステップと、
     をコンピュータに実現させる画像処理プログラム。
  15.  第1の特性を有する第1の領域と前記第1の特性とは異なる第2の特性を有する第2の領域とを含む多様レンズと、マイクロレンズを有する第1の受光素子とマイクロレンズを有しない第2の受光素子とが2次元配列されたイメージセンサであって、前記多様レンズの前記第1の領域を通過する光束と前記第2の領域を通過する光束とが前記マイクロレンズを介して混信して入射する前記第1の受光素子と、前記多様レンズの前記第1の領域を通過する光束と前記第2の領域を通過する光束とが混信して入射し、かつ前記第1の受光素子とは混信比率が異なる前記第2の受光素子とを有するイメージセンサと、を備えた撮像装置の画像処理プログラムであって、
     前記撮像装置により同時に撮像された第1の混信画像及び第2の混信画像であって、前記イメージセンサの前記第1の受光素子により光電変換された前記第1の混信画像と、前記第2の受光素子により光電変換された前記第2の混信画像とを取得するステップと、
     前記取得した前記第1の混信画像及び前記第2の混信画像からそれぞれ混信成分を除去し、前記多様レンズの前記第1の特性及び前記第2の特性をそれぞれ有する第1の画像及び第2の画像を生成するステップと、
     をコンピュータに実現させる画像処理プログラム。
  16.  前記第1の画像及び前記第2の画像を生成するステップは、前記第1の混信画像及び前記第2の混信画像のそれぞれの検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列と、前記第1の混信画像及び前記第2の混信画像とに基づいて前記第1の画像及び前記第2の画像を算出する請求項14又は15に記載の画像処理プログラム。
PCT/JP2015/080049 2014-11-20 2015-10-26 撮像装置、撮像方法及び画像処理プログラム WO2016080150A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP15861459.4A EP3223509A4 (en) 2014-11-20 2015-10-26 Imaging device, imaging method, and image processing program
JP2016560127A JP6397048B2 (ja) 2014-11-20 2015-10-26 撮像装置、撮像方法及び画像処理プログラム
CN201580063159.0A CN107005652B (zh) 2014-11-20 2015-10-26 摄像装置、摄像方法及记录介质
US15/499,911 US10142569B2 (en) 2014-11-20 2017-04-28 Imaging device, imaging method, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-235912 2014-11-20
JP2014235912 2014-11-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/499,911 Continuation US10142569B2 (en) 2014-11-20 2017-04-28 Imaging device, imaging method, and image processing program

Publications (1)

Publication Number Publication Date
WO2016080150A1 true WO2016080150A1 (ja) 2016-05-26

Family

ID=56013707

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/080049 WO2016080150A1 (ja) 2014-11-20 2015-10-26 撮像装置、撮像方法及び画像処理プログラム

Country Status (5)

Country Link
US (1) US10142569B2 (ja)
EP (1) EP3223509A4 (ja)
JP (1) JP6397048B2 (ja)
CN (1) CN107005652B (ja)
WO (1) WO2016080150A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6814762B2 (ja) * 2018-03-16 2021-01-20 株式会社日立製作所 撮像装置
CN110943778B (zh) * 2018-09-25 2021-12-07 北京外号信息技术有限公司 光通信装置以及用于传输和接收信息的方法
CN111327793B (zh) * 2018-12-13 2021-06-29 杭州海康威视数字技术股份有限公司 摄像机

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002071908A (ja) * 2000-09-01 2002-03-12 Comoc:Kk マイクロレンズアレイおよびマイクロレンズアレイを用いた表示装置
JP2002125156A (ja) * 2000-08-11 2002-04-26 Nikon Corp 固体撮像素子及び電子カメラ
WO2013146506A1 (ja) * 2012-03-27 2013-10-03 富士フイルム株式会社 撮像装置及び撮像方法
WO2014024745A1 (ja) * 2012-08-06 2014-02-13 富士フイルム株式会社 撮像装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4500434B2 (ja) * 2000-11-28 2010-07-14 キヤノン株式会社 撮像装置及び撮像システム、並びに撮像方法
JP4500574B2 (ja) 2004-03-30 2010-07-14 富士フイルム株式会社 広ダイナミックレンジカラー固体撮像装置及びこの固体撮像装置を搭載したデジタルカメラ
CN103141082B (zh) 2010-10-01 2017-03-08 富士胶片株式会社 成像装置
JP5634946B2 (ja) 2011-06-06 2014-12-03 富士フイルム株式会社 撮像装置
JP5525109B2 (ja) 2011-08-23 2014-06-18 富士フイルム株式会社 撮像装置
EP3267677B1 (en) * 2011-08-24 2019-08-28 Fujifilm Corporation Imaging device
JP5898501B2 (ja) * 2012-01-13 2016-04-06 キヤノン株式会社 画像処理装置、撮像装置、制御方法、プログラム及び記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002125156A (ja) * 2000-08-11 2002-04-26 Nikon Corp 固体撮像素子及び電子カメラ
JP2002071908A (ja) * 2000-09-01 2002-03-12 Comoc:Kk マイクロレンズアレイおよびマイクロレンズアレイを用いた表示装置
WO2013146506A1 (ja) * 2012-03-27 2013-10-03 富士フイルム株式会社 撮像装置及び撮像方法
WO2014024745A1 (ja) * 2012-08-06 2014-02-13 富士フイルム株式会社 撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3223509A4 *

Also Published As

Publication number Publication date
CN107005652B (zh) 2019-12-13
JPWO2016080150A1 (ja) 2017-09-14
EP3223509A4 (en) 2017-10-11
US10142569B2 (en) 2018-11-27
JP6397048B2 (ja) 2018-10-03
CN107005652A (zh) 2017-08-01
EP3223509A1 (en) 2017-09-27
US20170257581A1 (en) 2017-09-07

Similar Documents

Publication Publication Date Title
JP6214481B2 (ja) 撮像装置
JP5959714B2 (ja) 撮像装置
JP6165680B2 (ja) 撮像装置
JP6031587B2 (ja) 撮像装置、信号処理方法、信号処理プログラム
JP6367360B2 (ja) 撮像装置、撮像方法及び画像処理プログラム
JP6077967B2 (ja) 撮像装置
JPWO2013183382A1 (ja) 撮像素子及び撮像装置
JP6171106B2 (ja) 撮像装置及び合焦制御方法
JP5542248B2 (ja) 撮像素子及び撮像装置
JP6397048B2 (ja) 撮像装置、撮像方法及び画像処理プログラム
WO2017175579A1 (ja) 合焦制御装置、レンズ装置、撮像装置、合焦制御方法、合焦制御プログラム
JP6326149B2 (ja) 撮像装置、撮像方法及び画像処理プログラム
WO2019202983A1 (ja) 撮像装置並びに距離計測方法、距離計測プログラム及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15861459

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016560127

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015861459

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE