WO2017126242A1 - 撮像装置、及び、画像データ生成方法 - Google Patents

撮像装置、及び、画像データ生成方法 Download PDF

Info

Publication number
WO2017126242A1
WO2017126242A1 PCT/JP2016/086289 JP2016086289W WO2017126242A1 WO 2017126242 A1 WO2017126242 A1 WO 2017126242A1 JP 2016086289 W JP2016086289 W JP 2016086289W WO 2017126242 A1 WO2017126242 A1 WO 2017126242A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
light receiving
pixel
primary
optical system
Prior art date
Application number
PCT/JP2016/086289
Other languages
English (en)
French (fr)
Inventor
小野 修司
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP16886481.7A priority Critical patent/EP3407592B1/en
Priority to CN201680076743.4A priority patent/CN108432233B/zh
Priority to JP2017562464A priority patent/JP6545829B2/ja
Publication of WO2017126242A1 publication Critical patent/WO2017126242A1/ja
Priority to US16/013,942 priority patent/US10691002B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof

Definitions

  • the present invention relates to an imaging apparatus and an image data generation method, and in particular, by using an imaging lens having a plurality of optical systems and an image sensor in which each light receiving sensor has directivity with respect to an incident angle of light.
  • the present invention relates to an imaging device capable of capturing a plurality of images at once and an image data generation method.
  • Patent Document 1 An imaging device having a plurality of optical systems and an imaging device capable of capturing a plurality of images at a time by using an image sensor in which each light receiving sensor has directivity with respect to an incident angle of light is known (for example, Patent Document 1).
  • this image pickup apparatus light passing through each optical system of the photographing lens is selectively received by each light receiving sensor of the image sensor, thereby picking up an image corresponding to each optical system.
  • crosstalk occurs.
  • Interference is a phenomenon in which light from other optical systems is mixed and received. When interference occurs, an image in which images of other optical systems are superimposed is captured (see FIGS. 13 and 14).
  • Patent Documents 2 and 3 propose a method of mutually using the images of the respective optical systems obtained by photographing and removing the influence of interference from each image by signal processing.
  • Noise is generated in an image obtained by photographing due to various factors.
  • Noise is a fine fluctuation component generated randomly, and appears as roughness in the image.
  • Patent Documents 2 and 3 there is a problem that if the image to be processed contains noise, the influence of the noise also appears in the processing result.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide an imaging apparatus and an image data generation method capable of reducing noise appearing in an image after interference removal.
  • the means for solving the problem are as follows.
  • n is an integer satisfying n> 1
  • a photographing lens having n optical systems having different imaging characteristics and m having different interference ratios when m is an integer satisfying m> n An image sensor having each light receiving sensor in each pixel, a primary image data generating unit that obtains an image signal from each light receiving sensor in each pixel of the image sensor, and generates m primary image data; and m primary images
  • An imaging apparatus comprising: a secondary image data generation unit that performs interference removal processing on image data in units of pixels and generates n secondary image data corresponding to each optical system.
  • the number (n) of optical systems provided in the photographing lens is 2
  • the number (m) of light receiving sensors provided in each pixel of the image sensor is also 2.
  • the inventor of the present application has found that the noise of the image obtained after the interference removal process can be reduced by increasing the number (m) of light receiving sensors provided in each pixel to the number (n) of the optical system. Therefore, in this aspect, the number (m) of light receiving sensors provided in each pixel of the image sensor is made larger than the number (n) of optical systems. Thereby, the noise which appears in the image after interference removal can be reduced.
  • interference ratio means the ratio of light received from each optical system.
  • the photographing lens is provided with three optical systems.
  • the three optical systems are a first optical system, a second optical system, and a third optical system.
  • the light receiving sensor receives light at a ratio of 0.8 from the first optical system, 0.1 from the second optical system, and 0.1 from the third optical system, assuming that the total amount of received light is 1. . That is, 80% of the light received by the light receiving sensor is light from the first optical system, 10% is light from the second optical system, and 10% is light from the third optical system.
  • the crosstalk ratio is different means that the ratio of light received from each optical system is different. Accordingly, the light receiving sensors having different interference ratios are light receiving sensors having different ratios of light received from the respective optical systems.
  • interference removal processing is processing for removing the influence of interference from an image.
  • interference occurs, an image in which images of other optical systems are superimposed is captured. The image of the other optical system is separated and removed by the interference removal process.
  • imaging characteristics refers to properties related to imaging
  • optical systems having different imaging characteristics refer to optical systems having different properties related to imaging. For example, there are optical systems with different focal lengths, optical systems with different focal lengths, and optical systems with different transmission wavelength characteristics.
  • the pixel values of the primary image data are A1, A2,..., Am
  • the pixel values of the secondary image data are B1, B2,..., Bn
  • C2 C21 : C22: ...: C2n
  • Cm Cm1: Cm2: ...: Cmn
  • A2 C21 * B1 + C22 * B2 + ... + C2n * Bn
  • Am Cm1 * B1 + Cm2 * B2 + ... + Cmn * Bn to generate secondary image data, (1 ) Imaging device.
  • the general inverse matrix can be calculated by a known method such as the Moore-Penrose inverse matrix.
  • An inverse matrix information storage unit that stores information of the inverse matrix C ⁇ 1 is further provided, and the secondary image data generation unit uses the information of the inverse matrix C ⁇ 1 stored in the inverse matrix information storage unit.
  • the imaging apparatus according to (3) which solves a matrix equation.
  • the inverse matrix C ⁇ 1 necessary for the calculation is calculated in advance. Therefore, the processing speed of interference removal can be improved.
  • the inverse matrix C ⁇ 1 is calculated for each pixel. Therefore, interference can be removed with high accuracy.
  • a shooting scene information acquisition unit that acquires shooting scene information is further provided, and the secondary image data generation unit changes the number of primary image data used to generate secondary image data according to the shooting scene. , (1) to (5).
  • the number of primary image data used for generating secondary image data is changed according to the shooting scene. For example, in a shooting scene where noise is a concern, the number of primary image data used to generate secondary image data is increased. On the other hand, in a shooting scene where noise is not a concern, the number of primary image data used for generating secondary image data is reduced. Thereby, the image data can be appropriately processed according to the shooting scene. In shooting scenes where noise is a concern, noise can be further suppressed by increasing the number of primary image data used to generate secondary image data. On the other hand, in a shooting scene where noise is not a concern, the processing speed can be improved by reducing the number of primary image data used for generating secondary image data.
  • the shooting scene is specified by analyzing the primary image data.
  • a photographing scene can be automatically specified.
  • the light receiving sensor includes a photoelectric conversion element, a microlens that forms an image of an exit pupil of the photographing lens on the photoelectric conversion element, and a light shielding mask disposed between the microlens and the light receiving sensor.
  • the imaging device according to any one of (1) to (7), wherein the crosstalk ratio varies depending on the shape of the light shielding mask and / or the imaging characteristics of the microlens.
  • the light receiving sensor provided in each pixel includes a photoelectric conversion element, a microlens, and a light shielding mask.
  • Each light receiving sensor can change the interference ratio by changing the shape of the light shielding mask and / or the imaging characteristics of the microlens.
  • imaging characteristics refer to properties related to imaging
  • different imaging characteristics of microlenses mean that properties related to imaging of microlenses are different from each other. For example, it means that the lens power, magnification, imaging position, etc. of the microlens are different.
  • the light receiving sensor includes a photoelectric conversion element and a microlens that forms an image of an exit pupil of the photographing lens on the photoelectric conversion element, and the crosstalk ratio varies depending on the imaging characteristics of the microlens.
  • the imaging apparatus according to any one of (1) to (7).
  • the light receiving sensor provided in each pixel includes a photoelectric conversion element and a microlens.
  • Each light receiving sensor can change the interference ratio by changing the imaging characteristics of the microlens.
  • each optical system provided in the photographing lens is composed of optical systems having different focal lengths.
  • images having different focal lengths can be captured, such as a telephoto image and a wide-angle image.
  • each optical system provided in the photographic lens is composed of optical systems having different in-focus distances.
  • images with different in-focus distances can be captured, such as an image focused on a short-distance subject and an image focused on a long-distance subject.
  • each optical system provided in the photographing lens is composed of optical systems having different transmission wavelength characteristics.
  • “Transmission wavelength characteristics” refers to the property of transmitting light in a specific wavelength range
  • “Optical systems having different transmission wavelength characteristics” are optical systems having different properties of transmitting light of a specific wavelength range. I mean.
  • one optical system is configured by an optical system that transmits light in the infrared light region, and the other optical system transmits light in the visible light region. This is a case where the system is configured.
  • n is an integer satisfying n> 1
  • a photographing lens having n optical systems having different imaging characteristics and m having different interference ratios when m is an integer satisfying m> n An image data generation method using an imaging device including an image sensor including a single light receiving sensor in each pixel, the step of exposing the image sensor, and an image signal from each light receiving sensor of each pixel of the image sensor Acquiring and generating m primary image data; and performing interference removal processing on the m primary image data in units of pixels to generate n secondary image data corresponding to each optical system;
  • An image data generation method for an imaging apparatus comprising:
  • the number (m) of light receiving sensors provided in each pixel of the image sensor is set to be larger than the number (n) of optical systems provided in the photographing lens.
  • the pixel values of the primary image data are A1, A2,... Am
  • the pixel values of the secondary image data are B1, B2,..., Bn
  • C2 C21 : C22: ...: C2n
  • A2 C21 * B1 + C22 * B2 + ... + C2n * Bn
  • ... Am Cm1 * B1 + Cm2 * B2 + ... + Cmn * Bn is generated to generate secondary image data.
  • the photographing lens is configured by concentrically arranging a plurality of optical systems.
  • FIG. 1st optical system Sectional drawing which shows schematic structure of 2nd optical system Front view of the light receiving surface of the image sensor Front view in which one pixel of the image sensor is enlarged
  • Sectional drawing which shows schematic structure of a light receiving sensor Diagram showing an example of a light receiving sensor Diagram showing an example of a light receiving sensor Conceptual diagram for generating nine primary image data from the output of the image sensor Conceptual diagram for generating individual primary image data from the output of the image sensor
  • the figure which shows an example of the image which 1st primary image data FI1 represents
  • the figure which shows an example of the image which 2nd primary image data FI2 represents
  • the figure which shows the image which 1st secondary image data SI1 represents
  • the figure which shows the image which 2nd secondary image data SI2 represents Conceptual diagram of the configuration of the first primary image data
  • Conceptual diagram of configuration of second primary image data Conceptual diagram representing the relationship between primary image data and secondary image data as a matrix Matr
  • FIG. 1 is a block diagram illustrating a system configuration of the imaging apparatus.
  • the imaging apparatus 1 mainly includes a photographic lens 10, an image sensor 100, a lens drive control unit 210, an image sensor drive control unit 212, an analog signal processing unit 214, a digital signal processing unit 216, and a display unit 218.
  • FIG. 2 is a front view showing a schematic configuration of the photographing lens.
  • 3 is a cross-sectional view taken along the line 3-3 in FIG.
  • the photographic lens 10 includes two optical systems 20 and 30.
  • the two optical systems 20 and 30 are arranged concentrically. Therefore, each optical system 20 and 30 has the same optical axis L.
  • the central optical system 20 is referred to as a first optical system
  • the outer optical system 30 is referred to as a second optical system, and the optical systems are distinguished as necessary.
  • the first optical system 20 and the second optical system 30 are composed of optical systems having different focal lengths.
  • the first optical system 20 is composed of a wide-angle optical system
  • the second optical system 30 is composed of a telephoto optical system.
  • the wide-angle optical system refers to an optical system having a shorter focal length than a standard optical system (an optical system having an angle of view of about 50 °).
  • the telephoto optical system refers to an optical system having a longer focal length than a standard optical system.
  • FIG. 4 is a cross-sectional view showing a schematic configuration of the first optical system.
  • the broken line indicates the ray trajectory of the light passing through the first optical system 20.
  • the first optical system 20 is composed of eight lenses in three groups.
  • the first optical system 20 has a diaphragm 22 between the second lens group and the third lens group.
  • the diaphragm 22 has an annular light shielding portion. The diaphragm 22 adjusts the amount of light passing through the first optical system 20 by expanding and contracting the inner diameter of the annular light shielding portion.
  • FIG. 5 is a cross-sectional view showing a schematic configuration of the second optical system.
  • the broken line indicates the ray trajectory of the light passing through the second optical system 30.
  • the second optical system 30 is a so-called reflection optical system.
  • the second optical system 30 includes a first lens 30a, a second lens 30b, a third lens 30c, a primary mirror 30d, and a secondary mirror 30e. Since the second optical system 30 is disposed on the outer periphery of the first optical system 20, each component is formed in an annular shape.
  • the first lens 30a, the second lens 30b, and the third lens 30c are disposed along the optical axis L in the order of the first lens 30a, the second lens 30b, and the third lens 30c from the object side.
  • the primary mirror 30d is provided on the image side surface of the third lens 30c.
  • the primary mirror 30d is provided integrally with the third lens 30c by forming a reflective film on the image side surface of the third lens 30c.
  • the primary mirror 30d is provided on the entire surface of the third lens 30c on the image plane side.
  • the secondary mirror 30e is provided on the image side surface of the second lens 30b.
  • the sub mirror 30e is provided integrally with the second lens 30b by forming a reflective film on the image side surface of the second lens 30b.
  • the secondary mirror 30e is provided in the inner peripheral portion of the image side surface of the second lens 30b.
  • the light incident on the second optical system 30 passes through the first lens 30a, the second lens 30b, and the third lens 30c and enters the main mirror 30d.
  • the light incident on the primary mirror 30d is reflected by the primary mirror 30d, and again enters the secondary mirror 30e through the third lens 30c.
  • the light incident on the secondary mirror 30e is reflected by the secondary mirror 30e and emitted.
  • the second optical system 30 has a stop 32 at the rear stage of the secondary mirror 30e.
  • the diaphragm 32 has an annular light shielding part. The diaphragm 32 adjusts the amount of light passing through the second optical system 30 by expanding or reducing the outer diameter of the annular light shielding portion.
  • the taking lens 10 has a common lens 40 shared by the first optical system 20 and the second optical system 30.
  • the light that has passed through the first optical system 20 and the second optical system 30 enters the image sensor 100 via the common lens 40.
  • the common lens 40 has an effect of adjusting the incident angle of light incident on the image sensor 100 via the first optical system 20 and the second optical system 30.
  • the first optical system 20 and the second optical system 30 are independently focused.
  • the first optical system 20 is focused by moving the entire optical system back and forth along the optical axis L.
  • the focus of the second optical system 30 is adjusted by moving the entire optical system back and forth along the optical axis L.
  • the photographing lens 10 has a mechanism (focus adjustment mechanism) for moving the first optical system 20 back and forth along the optical axis L and a second optical system 30 back and forth along the optical axis L. And a mechanism for moving (focus adjustment mechanism).
  • FIG. 6 is a front view of the light receiving surface of the image sensor.
  • the image sensor 100 includes a plurality of pixels 110 on the light receiving surface.
  • the plurality of pixels 110 are arranged in a two-dimensional matrix on the light receiving surface.
  • FIG. 7 is an enlarged front view of one pixel of the image sensor.
  • the hatched lines indicate the mask area by the light shielding mask. The light shielding mask will be described later.
  • the image sensor 100 includes a plurality of light receiving sensors in one pixel 110.
  • the plurality of light receiving sensors are arranged in a two-dimensional matrix.
  • the image sensor 100 according to the present embodiment includes nine light receiving sensors 120a to 120i in one pixel 110.
  • the nine light receiving sensors 120a to 120i are arranged in a two-dimensional matrix with an array of 3 rows and 3 columns (3 ⁇ 3).
  • the light receiving sensor 120a is the first light receiving sensor
  • the light receiving sensor 120b is the second light receiving sensor
  • the light receiving sensor 120c is the third light receiving sensor
  • the light receiving sensor 120d is the fourth light receiving sensor
  • the light receiving sensor 120e is received.
  • the sensor is the fifth light receiving sensor, the light receiving sensor 120f is the sixth light receiving sensor, the light receiving sensor 120g is the seventh light receiving sensor, the light receiving sensor 120h is the eighth light receiving sensor, and the light receiving sensor 120i is the ninth light receiving sensor. And each light receiving sensor is distinguished as necessary.
  • the nine light receiving sensors 120a to 120i have different interference ratios. “Having different interference ratios” means receiving light at different ratios from each optical system. That is, each of the light receiving sensors 120a to 120i receives light from the first optical system 20 and the second optical system 30 at different ratios.
  • FIG. 8 is a cross-sectional view showing a schematic configuration of the light receiving sensor.
  • a region L1 indicated by a wavy line conceptually indicates light incident from the first optical system 20
  • a region L2 indicated by an oblique lattice conceptually indicates light incident from the second optical system 30. It shows.
  • each of the light receiving sensors 120a to 120i includes a photoelectric conversion element 130, a microlens 132, and a light shielding mask 134.
  • the photoelectric conversion element 130 receives light and accumulates charges proportional to the intensity of the received light.
  • the photoelectric conversion element 130 is composed of a photodiode, for example.
  • the micro lens 132 forms an image of the exit pupil of the first optical system 20 and the second optical system 30 on the photoelectric conversion element 130.
  • the light shielding mask 134 is disposed between the microlens 132 and the photoelectric conversion element 130.
  • the light shielding mask 134 shields part of the light that has passed through the microlens 132.
  • the interference ratio is adjusted by adjusting the shape of the light shielding mask 134.
  • FIG. 9 is a diagram illustrating an example of a light receiving sensor.
  • FIG. 4A is a cross-sectional view of the light receiving sensor (cross-sectional view taken along line AA in FIG. 2B), and
  • FIG. 4B is a front view of the light receiving sensor.
  • the shaded area indicates the light shielding area of the light shielding mask 134.
  • FIG. 9 shows an example where light from the first optical system 20 is mainly received.
  • the light shielding mask 134 has a shape having a circular opening 134A at the center.
  • the light from the second optical system 30 is shielded by the light shielding mask 134, so that the light from the first optical system 20 is mainly photoelectrically.
  • Light is received by the conversion element 130.
  • FIG. 10 is a diagram illustrating an example of a light receiving sensor.
  • FIG. 4A is a cross-sectional view of the light receiving sensor (cross-sectional view taken along line AA in FIG. 2B), and
  • FIG. 4B is a front view of the light receiving sensor.
  • the shaded area indicates the light shielding area of the light shielding mask 134.
  • FIG. 10 shows an example in which light from the second optical system 30 is mainly received.
  • the light shielding mask 134 has a shape including an annular opening 134A as shown in FIG.
  • the light receiving sensors 120a to 120i of this example as shown in FIG. 10A, the light from the first optical system 20 is shielded by the light shielding mask 134, so that the light from the second optical system 30 is mainly photoelectrically.
  • Light is received by the conversion element 130.
  • the light receiving sensors 120a to 120i can adjust the interference ratio by adjusting the shape of the light shielding mask 134.
  • the image sensor 100 reads the charge amount accumulated in the photoelectric conversion elements 130 of the light receiving sensors 120a to 120i of each pixel 110, and outputs a signal corresponding to the charge amount as an image signal. By processing this image signal, image data corresponding to each optical system can be acquired. This process will be described in detail later.
  • the lens drive control unit 210 controls driving of the photographing lens 10 based on a command from the system control unit 226. That is, in order to adjust the focus of the first optical system 20, the drive of the focus adjustment mechanism of the first optical system 20 is controlled, and the second optical system 30 is adjusted to adjust the focus of the second optical system 30. Controls the driving of the focus adjustment mechanism. Further, in order to adjust the light amount of the first optical system 20, the driving of the diaphragm 22 of the first optical system 20 is controlled, and in order to adjust the light amount of the second optical system 30, The drive of the diaphragm 32 is controlled.
  • the image sensor drive control unit 212 controls the drive of the image sensor 100 based on a command from the system control unit 226. That is, it controls reading of an image signal from the image sensor 100.
  • the analog signal processing unit 214 takes in an analog image signal output from the image sensor 100 and performs predetermined analog signal processing.
  • the analog signal processing unit 214 converts an image signal subjected to predetermined analog signal processing into a digital signal and outputs the digital signal.
  • the digital signal processing unit 216 takes in an image signal converted into a digital signal, performs predetermined signal processing, and generates image data corresponding to each optical system. This process will be described in detail later.
  • the display unit 218 is composed of, for example, a liquid crystal monitor, and displays a captured image or a captured image (a so-called live view image). Further, the display unit 218 functions as a GUI (GUI: Graphical User Interface) as necessary.
  • GUI Graphical User Interface
  • the work memory 220 is constituted by a RAM (Random Access Memory), for example, and functions as a work memory.
  • the storage unit 222 is configured by a nonvolatile memory such as an EEPROM (EEPROM: Electrically Erasable Programmable Read-Only Memory).
  • EEPROM Electrically Erasable Programmable Read-Only Memory
  • the storage unit 222 stores data necessary for control, data necessary for signal processing, and the like.
  • the media interface 224 reads / writes data from / to the external memory 230 such as a memory card based on a command from the system control unit 226.
  • the system control unit 226 performs overall control of the operation of the entire imaging apparatus.
  • the system control unit 226 is constituted by, for example, a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM, and executes a predetermined control program to control the entire imaging apparatus 1. Programs and various data necessary for control are stored in the ROM.
  • the operation unit 228 includes various operation buttons such as a power button and a shutter button, and a drive circuit thereof. Operation information of the operation unit 228 is input to the system control unit 226. The system control unit 226 controls each unit based on operation information from the operation unit 228.
  • the imaging device 1 is configured as described above.
  • the image sensor 100 includes the nine light receiving sensors 120a to 120i in each pixel 110. Therefore, by acquiring the image signal of the light receiving sensor corresponding to each pixel, nine pieces of image data can be generated by one shooting. However, interference occurs in these nine image data. Therefore, in the imaging apparatus 1 according to the present embodiment, the interference removal process is performed on the nine pieces of image data obtained by photographing to generate image data corresponding to each optical system.
  • each process will be described.
  • nine image data generated by acquiring the image signal of the corresponding light receiving sensor from each pixel of the image sensor 100 is subjected to interference removal processing on the primary image data and the nine primary image data.
  • the image data generated in this way is called secondary image data, and the two are distinguished as necessary.
  • FIG. 11 is a conceptual diagram for generating nine primary image data from the output of the image sensor.
  • the primary image data is generated by acquiring the image signals of the corresponding light receiving sensors 120a to 120i from each pixel 110 of the image sensor 100.
  • the primary image data generated by the image signal acquired from the first light receiving sensor 120a of each pixel 110 is generated by the first primary image data FI1 and the image signal acquired from the second light receiving sensor 120b of each pixel 110.
  • Primary image data is second primary image data FI2
  • primary image data generated from an image signal acquired from the third light receiving sensor 120c of each pixel 110 is third primary image data FI3, and fourth light reception of each pixel 110 is received.
  • the primary image data generated from the image signal acquired from the sensor 120d is the fourth primary image data FI4
  • the primary image data generated from the image signal acquired from the fifth light receiving sensor 120e of each pixel 110 is the fifth primary image.
  • the primary image data generated by the image signal acquired from the data FI5 and the sixth light receiving sensor 120f of each pixel 110 is the sixth primary image.
  • the primary image data generated from the data FI6 and the image signal acquired from the seventh light receiving sensor 120g of each pixel 110 is generated from the seventh primary image data FI7 and the image signal acquired from the eighth light receiving sensor 120h of each pixel 110.
  • the primary image data is the eighth primary image data FI8, and the primary image data generated by the image signal acquired from the ninth light receiving sensor 120i of each pixel 110 is the ninth primary image data FI9.
  • FIG. 12 is a conceptual diagram for generating individual primary image data from the output of the image sensor.
  • this figure shows a case where the first primary image data FI1 is generated from the output of the image sensor.
  • the first primary image data FI1 is generated by acquiring the image signal of the first light receiving sensor 120a from each pixel 110 of the image sensor 100.
  • the value (pixel value) at the pixel position (0, 0) of the first primary image data FI1 is obtained by acquiring an image signal from the first light receiving sensor 120a at the pixel position (0, 0) of the image sensor 100.
  • the value (pixel value) at the pixel position (0, 1) of the first primary image data FI1 obtains an image signal from the first light receiving sensor 120a at the pixel position (0, 1) of the image sensor 100.
  • the value (pixel value) of each pixel of the first primary image data FI1 is generated by acquiring the image signal from the first light receiving sensor 120a in the corresponding pixel 110 of the image sensor 100.
  • the pixel position (x, y) represents the pixel position in xy coordinates.
  • the xy coordinates are set as follows. That is, in the image sensor 100, as shown in FIG. 6, the upper left corner of the screen is the coordinate origin, the horizontal direction is the x coordinate, and the vertical direction is the y coordinate. In this case, the position of the specific pixel is expressed as (x, y). The same applies to image data, where the upper left corner of the screen is the coordinate origin, the horizontal direction is the x coordinate, and the vertical direction is the y coordinate.
  • other primary image data is generated by acquiring the image signal of the corresponding light receiving sensor from each pixel 110 of the image sensor 100.
  • the secondary image data is generated by performing interference removal processing on the primary image data in units of pixels.
  • the interference removal process will be described.
  • one optical system is a first optical system and the other optical system is a telephoto second optical system.
  • the first optical system is composed of a wide-angle optical system
  • the second optical system is composed of a telephoto optical system.
  • one light receiving sensor is a first light receiving sensor and the other light receiving sensor is a second light receiving sensor. It is assumed that the first light receiving sensors provided in each pixel have the same interference ratio. Similarly, it is assumed that the second light receiving sensors provided in each pixel have the same interference ratio.
  • the crosstalk ratio C1 is C11: C12.
  • the crosstalk ratio C2 is C21: C22.
  • the primary image data based on the first light receiving sensor is referred to as first primary image data FI1
  • the primary image data based on the second light receiving sensor is referred to as second primary image data FI2.
  • FIG. 13 is a diagram illustrating an example of an image represented by the first primary image data FI1.
  • FIG. 14 is a diagram illustrating an example of an image represented by the second primary image data FI2.
  • the interference ratio C1 of the first light receiving sensor is C11> C12
  • the interference ratio C2 of the second light receiving sensor is C21 ⁇ C22. That is, the first light receiving sensor is configured to receive more light from the first optical system, and the second light receiving sensor is configured to receive more light from the second optical system.
  • An example is shown.
  • the image obtained from the first light receiving sensor (the image represented by the first primary image data FI1) is added to the original first optical system image (wide-angle image).
  • the image of the second optical system becomes a slightly superposed image.
  • the image obtained from the second light receiving sensor (the image represented by the second primary image data FI2) is the first image in addition to the original second optical system image (telephoto image).
  • the image of the optical system (wide-angle image) is a slightly superposed image.
  • the secondary image data corresponding to the first optical system is referred to as first secondary image data SI1
  • the secondary image data corresponding to the second optical system is referred to as second secondary image data SI2.
  • FIG. 15 is a view showing an image represented by the first secondary image data SI1
  • FIG. 16 is a view showing an image represented by the second secondary image data SI2.
  • the images represented by the first secondary image data SI1 and the second secondary image data SI2 are images from which the influence of interference has been removed.
  • A1 be the pixel value of the first primary image data FI1 and A2 be the pixel value of the second primary image data FI2 at a specific pixel position (x, y). Further, the pixel value of the first secondary image data SI1 in the corresponding pixel is B1, and the pixel value of the second secondary image data SI2 is B2.
  • FIG. 17 is a conceptual diagram of the configuration of the first primary image data.
  • the first primary image data FI1 includes the component of the first secondary image data SI1 at a ratio of C11, and the component of the second secondary image data SI2 at a ratio of C12. Including.
  • FIG. 18 is a conceptual diagram of the configuration of the second primary image data.
  • the second primary image data FI2 includes the component of the first secondary image data SI1 at a ratio of C21, and the component of the second secondary image data SI2 at a ratio of C22. Including.
  • A2 C21 * B1 + C22 * B2 holds for a specific pixel position (x, y).
  • the pixel values B1 and B2 of the first secondary image data SI1 and the second secondary image data SI2 can be calculated, and the first secondary image data SI1 and Second secondary image data SI2 can be generated. Then, by solving this simultaneous equation, it is possible to generate image data (first secondary image data SI1 and second secondary image data SI2) from which the influence of interference has been removed.
  • FIG. 19 is a conceptual diagram expressing the relationship between primary image data and secondary image data as a matrix.
  • FIG. 20 is a matrix equation showing the relationship between primary image data and secondary image data.
  • a matrix of 2 rows and 1 column having pixel values A1 and A2 of the first primary image data FI1 and the second primary image data FI2 as elements, and the first secondary image A matrix of 2 rows and 1 column having the pixel values B1 and B2 of the data SI1 and the second secondary image data SI2 as elements, and the interference ratio C1 C11: C12 of the first light receiving sensor and the interference ratio of the second light receiving sensor.
  • FIG. 21 is a conceptual diagram expressing the relationship between primary image data and secondary image data using an inverse matrix.
  • FIG. 22 is a matrix equation representing the relationship between primary image data and secondary image data using an inverse matrix.
  • the pixel values B1 and B2 of the first secondary image data SI1 and the second secondary image data SI2 are obtained by multiplying the matrix A by the inverse matrix C ⁇ 1 of the matrix C. It can be calculated.
  • the inverse matrix C ⁇ 1 can be acquired in advance. Therefore, if the pixel values A1 and A2 of each primary image data can be acquired, the pixel values B1 and B2 of each secondary image data can be calculated using the inverse matrix C- 1 .
  • FIG. 23 is a conceptual diagram showing the relationship between primary image data and secondary image data.
  • the first primary image data FI1 includes a component of the first secondary image data SI1 (synonymous with the component of the first optical system 20) and a component of the second secondary image data SI2 (second optical system 30).
  • the second primary image data FI2 is data including the component of the first secondary image data SI1 and the component of the second secondary image data SI2 in a ratio of C21: C22.
  • pixel values at specific pixel positions (x, y) of each primary image data are A1, A2,..., A9
  • pixel values at specific pixel positions (x, y) of each secondary image data are B1
  • B2 the following relationship is established between each primary image data and secondary image data.
  • FIG. 24 is a conceptual diagram expressing the relationship between primary image data and secondary image data as a matrix.
  • FIG. 25 is a matrix equation showing the relationship between primary image data and secondary image data.
  • a matrix of 9 rows and 1 column having elements of pixel values A1 to A9 at specific pixel positions (x, y) of the primary image data FI1 to FI9 is A, and each secondary image.
  • FIG. 26 is a conceptual diagram expressing the relationship between primary image data and secondary image data using an inverse matrix.
  • FIG. 27 is a matrix equation representing the relationship between primary image data and secondary image data using an inverse matrix.
  • the pixel values B1 and B2 of the first secondary image data SI1 and the second secondary image data SI2 are obtained by multiplying the matrix A by the inverse matrix C ⁇ 1 of the matrix C. It can be calculated.
  • the inverse matrix C ⁇ 1 can be acquired in advance.
  • a general inverse matrix of the matrix C is calculated to obtain the inverse matrix C ⁇ 1 .
  • the general inverse matrix can be calculated by a known method such as the Moore-Penrose inverse matrix.
  • each pixel of the image sensor may be provided with the same number of light receiving sensors as the number of optical systems provided in the photographing lens.
  • the inventor of the present application increases m> n, that is, the number of light receiving sensors provided in each pixel of the image sensor (m) is larger than the number of optical systems provided in the photographing lens (n). It was found that noise appearing in an image can be reduced. This point will be considered below.
  • FIG. 28 is a graph showing the relationship between primary image data and secondary image data when there is no interference.
  • the vertical axis represents the pixel value B1 of the first secondary image data
  • the horizontal axis represents the pixel value B2 of the second secondary image data.
  • the primary image data and the secondary image data correspond one-to-one. In this case, noise that appears in the primary image data appears only in the corresponding secondary image data.
  • the range where the straight lines of each equation can be swung is the range of possible errors. If the positions of the straight lines ⁇ 1a, ⁇ 1b and ⁇ 2a, ⁇ 2b shown by the broken lines are the maximum positions of the possible shakes, the region S ⁇ shown by the oblique lines is a range of possible errors.
  • FIG. 29 is a graph showing the relationship between primary image data and secondary image data when there is interference.
  • the vertical axis represents the pixel value of the first secondary image data
  • the horizontal axis represents the pixel value of the second secondary image data.
  • each straight line is inclined. This inclination increases as the interference component increases. As the inclination increases, the angle formed by the two straight lines increases.
  • the range where the straight lines of each equation can be swung is the range of possible errors. If the positions of the straight lines ⁇ 1a, ⁇ 1b, and ⁇ 2a, ⁇ 2b indicated by the broken lines are the maximum positions of the possible shakes, the region S ⁇ indicated by the diagonal lines is a range of possible errors. As shown in FIG. 29, this range becomes larger as the angle formed by the two straight lines becomes wider. As described above, the angle formed by the two straight lines increases as the interference component of each light receiving sensor increases. Therefore, it can be said that the influence of noise increases as the interference component increases. That is, noise is easily amplified.
  • the number (n) of optical systems provided in the photographing lens is two, and the number (m) of light receiving sensors provided in each pixel of the image sensor is three.
  • One optical system is a first optical system
  • the other optical system is a second optical system
  • the three light receiving sensors are a first light receiving sensor, a second light receiving sensor, and a third light receiving sensor, respectively.
  • FIG. 30 is a graph showing the relationship between primary image data and secondary image data when m> n.
  • the vertical axis represents the pixel value of the first secondary image data
  • the horizontal axis represents the pixel value of the second secondary image data.
  • the number of equations for calculating the secondary image data it is possible to reduce the influence of noise appearing in the secondary image data. Since the convergence of the solution can be further increased by increasing the number of equations for calculating the secondary image data, it is preferable that the number of light receiving sensors provided per pixel is large.
  • the interference ratio of each light receiving sensor has a variation.
  • the series of signal processing described above is performed by the digital signal processing unit 216.
  • the digital signal processing unit 216 obtains an image signal from each light receiving sensor of each pixel of the image sensor 100 to generate primary image data, and subjects the primary image data to a crosstalk removal process in units of pixels. Secondary image data corresponding to the system is generated.
  • FIG. 31 is a block diagram of functions provided in the digital signal processing unit.
  • a primary image data generation unit 216A that generates primary image data and a secondary image data generation unit 216B that generates secondary image data are provided.
  • Information of the inverse matrix C ⁇ 1 used for the calculation is stored in the storage unit 222.
  • the storage unit 222 includes an inverse matrix information storage unit 222A that stores information of the inverse matrix C ⁇ 1 in a part of the storage area. Note that the information of the inverse matrix C ⁇ 1 is stored in units of pixels.
  • the secondary image data generation unit 216B reads the information of the inverse matrix C ⁇ 1 for each pixel to be processed, and performs interference removal processing.
  • Imaging apparatus (1) exposure based on an imaging instruction (exposure process), (2) generation of primary image data based on exposure (primary image data generation process), and (3) two based on primary image data.
  • Image data for recording is generated in the order of generation of secondary image data (secondary image data generation step).
  • the recording (exposure) for recording is performed based on an instruction from the operation unit 228.
  • shooting for recording is instructed by fully pressing the shutter button.
  • the photographer adjusts the focus of each optical system, and then presses the shutter button fully to instruct recording for recording.
  • an EV value (EV: Exposure value) is calculated to determine the exposure.
  • the image sensor 100 When the exposure is determined, the image sensor 100 is exposed with the determined exposure (exposure process). Charges are accumulated in the photoelectric conversion elements 130 of the light receiving sensors 120a to 120i by exposure. The image sensor 100 reads the charge amount accumulated in the photoelectric conversion elements 130 of the light receiving sensors 120a to 120i and outputs an image signal corresponding to the charge amount.
  • the image signal output from the image sensor 100 is taken into the work memory 220 via the analog signal processing unit 214.
  • the digital signal processing unit 216 performs predetermined signal processing on the image signal captured in the work memory 220, so that image data corresponding to each optical system (first secondary image data and second Secondary image data) is generated. That is, the image signal of each light receiving sensor is acquired for each pixel, nine primary image data are generated (primary image data generation step), and each of the nine primary image data is subjected to interference removal processing, Image data (first secondary image data and second secondary image data) corresponding to the optical system is generated (secondary image data generation step).
  • the generated image data (first secondary image data and second secondary image data) is converted into a data format of a predetermined format as necessary and recorded in the external memory 230.
  • images corresponding to the respective optical systems can be simultaneously captured by a single operation.
  • noise is generated by generating based on nine primary image data. Can be reduced.
  • FIG. 32 is a block diagram illustrating a system configuration of the second embodiment of the imaging apparatus.
  • the imaging apparatus 1 of the present embodiment is different from the imaging apparatus of the first embodiment described above in that it further includes a shooting scene information acquisition unit 232.
  • the shooting scene information acquisition unit 232 acquires shooting scene information.
  • the shooting scene information is information about what kind of scene is to be shot. For example, information such as portraits, group photos, landscapes, night views, sports, macros, and the like.
  • the imaging apparatus 1 switches the processing content in the digital signal processing unit 216 based on the shooting scene information acquired by the shooting scene information acquisition unit 232. Specifically, the number of primary image data used for generating secondary image data is switched.
  • noise generated in the secondary image data can be reduced by increasing the number of primary image data.
  • the allowable noise level differs for each shooting scene. For example, the portrait is required to have a high level and low noise as compared to a landscape.
  • the number of primary image data used for generating secondary image data is switched according to the shooting scene. For example, in a shooting scene where noise is a concern, the number of primary image data used to generate secondary image data is increased. Thereby, generation
  • information on the shooting scene is input by the user via the operation unit 228.
  • the shooting scene information acquisition unit 232 acquires information input via the operation unit 228 to acquire shooting scene information.
  • the input is performed by the user selecting a shooting scene prepared in advance. For example, scenes such as portraits, group photos, landscapes, night views, sports, and macros are prepared as shooting scenes.
  • the system control unit 226 switches the number of primary image data used for generating the secondary image data based on the shooting scene information acquired by the shooting scene information acquisition unit 232.
  • the relationship between the shooting scene and the number of primary image data used for generating secondary image data is determined in advance and managed in a table.
  • Information on primary image data to be used is also recorded in the table. That is, information on which position of the primary image data based on the light receiving sensor is used is also recorded.
  • This table is stored in the storage unit 222.
  • the system control unit 226 refers to the table stored in the storage unit 222 to determine primary image data used for generating secondary image data.
  • the digital signal processing unit 216 generates secondary image data in response to an instruction from the system control unit 226. That is, the primary image data instructed by the system control unit 226 is used to perform interference removal processing to generate secondary image data.
  • the number of primary image data used for generating secondary image data is changed according to the shooting scene. Thereby, secondary image data can be appropriately generated.
  • the shooting scene information acquisition unit functions as an image analysis unit, analyzes at least one primary image data, and specifies a shooting scene.
  • the number (m) of light receiving sensors provided in each pixel of the image sensor may be larger than the number (n) of optical systems provided in the photographing lens. That is, m> n may be satisfied.
  • the light reception sensor provided in each pixel has an interference ratio dispersed. That is, it is preferable to provide a plurality of light receiving sensors with different interference ratios rather than a plurality of light receiving sensors with close interference ratios.
  • one pixel of the image sensor is constituted by nine light receiving sensors arranged in three rows and three columns (3 ⁇ 3).
  • the arrangement of the light receiving sensors constituting one pixel is as follows. It is not limited to this.
  • one pixel of the image sensor can be composed of three light receiving sensors arranged in one row and three columns (1 ⁇ 3).
  • the light receiving sensor which comprises 1 pixel may be discretely arrange
  • a color image is not mentioned, but when a color image is generated, a color filter is arranged in each pixel with a predetermined filter arrangement.
  • the interference ratio of each light receiving sensor is adjusted according to the shape of the light shielding mask, but the method of adjusting the interference ratio of the light receiving sensor is not limited to this.
  • the interference ratio can be adjusted by changing the imaging characteristics of the microlens.
  • the interference ratio can be changed by changing the lens power, magnification, imaging position, etc. of the microlens. In this case, a light shielding mask is not necessary.
  • the interference ratio can be adjusted by using a light shielding mask and a microlens together. That is, the crosstalk ratio can be adjusted by changing both the shape of the light shielding mask and the imaging characteristics of the microlens.
  • the photographing lens is provided with two optical systems, but the number (n) of optical systems provided in the photographing lens is not limited to this.
  • the photographing lens only needs to be provided with two or more optical systems having different imaging characteristics.
  • the photographing lens is provided with optical systems having different focal lengths, but the type of the optical system provided in the photographing lens is not limited to this.
  • optical systems having different in-focus distances may be provided.
  • optical systems having different transmission wavelength characteristics may be provided.
  • an infrared light image and a visible light image can be captured simultaneously by providing an optical system that transmits light in the infrared light region and an optical system that transmits light in the visible light region.
  • a plurality of optical systems are concentrically arranged.
  • the arrangement of the plurality of optical systems is not limited to this.
  • the interference removal process is performed for each pixel.
  • the information on the inverse matrix C ⁇ 1 is read for each pixel and the interference removal process is performed. Therefore, the information of the inverse matrix C ⁇ 1 is stored in the inverse matrix information storage unit 222A for each pixel.
  • a representative inverse matrix may be determined and the interference removal processing may be performed. That is, the interference removal process may be performed using an inverse matrix common to each pixel. Thereby, calculation load can be reduced.
  • the screen may be divided into a plurality of areas, and a common inverse matrix may be defined for each area.
  • the pixel values of the primary image data are A1, A2,..., Am
  • the pixel values of the secondary image data are B1, B2,..., Bn
  • A2 C21 * B1 + C22 * B2 + ... + C2n * Bn
  • Am Cm1 * B1 + Cm2 * B2 + ... + Cmn * Bn are solved to generate secondary image data.
  • the primary image data was generated in a pseudo manner by combining the two image data W and T.
  • the mixing ratio at the time of combining corresponds to the interference ratio of each light receiving sensor.
  • the interference ratio of the generated primary image data is 0.8: 0.2.
  • T 0.7: 0.3
  • FIG. 35 is an image represented by the first secondary image data generated when m> n.
  • FIG. 36 shows an image represented by the second secondary image data generated when m> n.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

混信除去後の画像に現れるノイズを低減できる撮像装置、及び、画像データ生成方法を提供する。撮像特性の異なる複数の光学系を備えた撮影レンズ(10)と、混信比率の異なる複数の受光センサを各画素に備えたイメージセンサ(100)とを使用して、各光学系に対応した画像を一度に撮像する撮像装置(1)において、撮影レンズ(10)に備える光学系の数(n)よりもイメージセンサ(100)の各画素に備える受光センサの数(m)を多くする(m>n)。これにより、混信除去後の画像に現れるノイズを低減できる。

Description

撮像装置、及び、画像データ生成方法
 本発明は、撮像装置、及び、画像データ生成方法に係り、特に、複数の光学系を備えた撮影レンズ、及び、各受光センサが光の入射角に関して指向性を有するイメージセンサを使用することにより、一度に複数の画像を撮像可能な撮像装置、及び、画像データ生成方法に関する。
 複数の光学系を備えた撮影レンズ、及び、各受光センサが光の入射角に関して指向性を有するイメージセンサを使用することにより、一度に複数の画像を撮像可能な撮像装置が知られている(たとえば、特許文献1)。この撮像装置では、撮影レンズの各光学系を通過する光をイメージセンサの各受光センサで選択的に受光することにより、各光学系に対応した画像を撮像する。しかし、各光学系からの光を各受光センサで完全に分離して受光することは難しい。この結果、混信(クロストーク)が生じる。混信とは、他の光学系からの光が混入して受光される現象である。混信が生じると、他の光学系の画像が重畳した画像が撮像される(図13及び図14参照)。特許文献2及び3には、撮影により得られた各光学系の画像を相互に利用し、信号処理によって各画像から混信の影響を除去する方法が提案されている。
国際公開第2013/018471号 国際公開第2013/146506号 特開2014-178190号公報
 ところで、撮影により得られる画像には、種々の要因でノイズが発生する。ノイズは、ランダムに発生する細かな変動成分であり、画像にザラツキとなって現れる。特許文献2及び3のように、信号処理によって混信の影響を除去する場合において、処理対象の画像にノイズが含まれていると、処理結果にもノイズの影響が現れるという問題がある。
 本発明は、このような事情に鑑みてなされたもので、混信除去後の画像に現れるノイズを低減できる撮像装置、及び、画像データ生成方法を提供することを目的とする。
 課題を解決するための手段は、次のとおりである。
 (1)nがn>1を満たす整数とした場合に、撮像特性の異なるn個の光学系を備えた撮影レンズと、mがm>nを満たす整数とした場合に、混信比率の異なるm個の受光センサを各画素に備えたイメージセンサと、イメージセンサの各画素の各受光センサから画像信号を取得し、m個の一次画像データを生成する一次画像データ生成部と、m個の一次画像データに画素単位で混信除去処理を施して、各光学系に対応したn個の二次画像データを生成する二次画像データ生成部と、を備えた撮像装置。
 従来、この種の撮像装置では、撮影レンズに備えられる光学系の数(n)と同じ数の受光センサが、イメージセンサの各画素に備えられていた(n=m)。たとえば、撮影レンズに備えられる光学系の数(n)が2の場合、イメージセンサの各画素に備えられる受光センサの数(m)も2であった。本出願の発明者は、各画素に備える受光センサの数(m)を光学系の数(n)よりも多くすることにより、混信除去処理後に得られる画像のノイズを低減できることを見出した。そこで、本態様では、イメージセンサの各画素に備える受光センサの数(m)を光学系の数(n)よりも多くしている。これにより、混信除去後の画像に現れるノイズを低減できる。
 なお、「混信比率」とは、各光学系から受光する光の割合のことをいう。たとえば、撮影レンズに3つの光学系が備えられているとする。3つの光学系を第1光学系、第2光学系、第3光学系とする。受光センサにおける混信比率が、第1光学系:第2光学系:第3光学系=0.8:0.1:0.1であるとする。この場合、受光センサには、全受光量を1とすると、第1光学系から0.8、第2光学系から0.1、第3光学系から0.1の割合で光が受光される。すなわち、受光センサで受光される光のうち8割が第1光学系からの光、1割が第2光学系からの光、1割が第3光学系からの光となる。
 「混信比率が異なる」とは、各光学系から受光する光の割合が異なる、ということである。したがって、混信比率が異なる受光センサとは、各光学系から受光される光の割合が異なる受光センサのことである。
 また、「混信除去処理」とは、画像から混信の影響を除去する処理のことである。混信が生じると、他の光学系の画像が重畳した画像が撮像される。混信除去処理により、他の光学系の画像を分離し、除去する。
 さらに、「撮像特性」とは、撮像に関わる性質のことをいい、「撮像特性の異なる光学系」とは、撮像に関わる性質が互いに異なる光学系のこという。たとえば、焦点距離の異なる光学系、合焦距離の異なる光学系、透過波長特性の異なる光学系などである。
 (2)一次画像データの画素値をA1、A2、…、Am、二次画像データの画素値をB1、B2、…、Bn、混信比率をC1=C11:C12:…:C1n、C2=C21:C22:…:C2n、…、Cm=Cm1:Cm2:…:Cmnとした場合に、二次画像データ生成部は、混信除去処理として、次の連立方程式A1=C11*B1+C12*B2+…+C1n*Bn、A2=C21*B1+C22*B2+…+C2n*Bn、…、Am=Cm1*B1+Cm2*B2+…+Cmn*Bnを解いて、二次画像データを生成する、(1)の撮像装置。
 本態様によれば、二次画像データ生成部は、混信除去処理として、次の連立方程式A1=C11*B1+C12*B2+…+C1n*Bn、A2=C21*B1+C22*B2+…+C2n*Bn、…、Am=Cm1*B1+Cm2*B2+…+Cmn*Bnを解いて、二次画像データを生成する。これにより、混信除去後の画像に現れるノイズを低減できる。
 (3)一次画像データの画素値A1、A2、…、Amを要素とするm行1列の行列をA、二次画像データの画素値B1、B2、…、Bnを要素とするn行1列の行列をB、混信比率C1=C11:C12:…:C1n、C2=C21:C22:…:C2n、…、Cm=Cm1:Cm2:…:Cmn を要素とするm行n列の行列をCとし、Cの逆行列をC-1とした場合に、二次画像データ生成部は、混信除去処理として、次の行列方程式B=C-1*Aを解いて、二次画像データを生成する、(1)に記載の撮像装置。
  本態様によれば、二次画像データ生成部は、混信除去処理として、次の行列方程式B=C-1*Aを解いて、二次画像データを生成する。これにより、混信除去後の画像に現れるノイズを低減できる。なお、行列Cが正則ではない場合、行列Cの一般逆行列を算出して、逆行列C-1を取得する。一般逆行列は、たとえば、ムーア・ペンローズ逆行列等の公知の手法で算出できる。
 (4)逆行列C-1の情報を記憶した逆行列情報記憶部を更に備え、二次画像データ生成部は、逆行列情報記憶部に記憶された逆行列C-1の情報を利用して、行列方程式を解く、(3)の撮像装置。
 本態様によれば、演算に必要な逆行列C-1があらかじめ算出されている。これにより、混信除去の処理速度を向上できる。
 (5)逆行列情報記憶部は、画素ごとの逆行列C-1の情報を記憶する、(4)の撮像装置。
 本態様によれば、画素ごとに逆行列C-1が算出される。これにより、高精度に混信を除去できる。
 (6)撮影シーンの情報を取得する撮影シーン情報取得部を更に備え、二次画像データ生成部は、撮影シーンに応じて、二次画像データの生成に使用する一次画像データの数を変更する、(1)から(5)のいずれかの撮像装置。
 本態様によれば、撮影シーンに応じて、二次画像データの生成に使用する一次画像データの数が変更される。たとえば、ノイズが気になる撮影シーンでは、二次画像データの生成に使用する一次画像データの数が増やされる。一方、ノイズが気にならない撮影シーンでは、二次画像データの生成に使用する一次画像データの数を減らされる。これにより、撮影シーンに応じて適切に画像データを処理できる。ノイズが気になる撮影シーンにおいて、二次画像データの生成に使用する一次画像データの数を増やすことにより、よりノイズを抑制できる。一方、ノイズが気にならない撮影シーンにおいて、二次画像データの生成に使用する一次画像データの数を減らすことにより、処理速度を向上できる。
 (7)撮影シーン情報取得部は、一次画像データを解析して、撮影シーンを特定する、(6)の撮像装置。
 本態様によれば、撮影シーンは、一次画像データを解析して特定される。これにより、自動で撮影シーンを特定できる。
 (8)受光センサは、光電変換素子と、撮影レンズの射出瞳の像を光電変換素子に結像させるマイクロレンズと、マイクロレンズと受光センサとの間に配置される遮光マスクと、を備え、遮光マスクの形状、及び/又は、マイクロレンズの結像特性が異なることにより、混信比率が異なる、(1)から(7)のいずれかの撮像装置。
 本態様によれば、各画素に備えられる受光センサは、光電変換素子と、マイクロレンズと、遮光マスクと、を備えて構成される。そして、各受光センサは、それぞれ遮光マスクの形状、及び/又は、マイクロレンズの結像特性を変えることにより、混信比率が変えられる。ここで、「結像特性」とは、結像に関わる性質のことをいい、「マイクロレンズの結像特性が異なる」とは、マイクロレンズの結像に関わる性質が互いに異なることをいう。たとえば、マイクロレンズのレンズパワー、倍率、結像位置などが異なることをいう。
 (9)受光センサは、光電変換素子と、撮影レンズの射出瞳の像を光電変換素子に結像させるマイクロレンズと、を備え、マイクロレンズの結像特性が異なることにより、混信比率が異なる、(1)から(7)のいずれかの撮像装置。
 本態様によれば、各画素に備えられる受光センサは、光電変換素子と、マイクロレンズと、を備えて構成される。そして、各受光センサは、それぞれマイクロレンズの結像特性を変えることにより、混信比率が変えられる。
 (10)撮影レンズに備えられるn個の光学系は、焦点距離が異なる、(1)から(9)のいずれかの撮像装置。
 本態様によれば、撮影レンズに備えられる各光学系が、互いに焦点距離の異なる光学系で構成される。これにより、たとえば、望遠画像と広角画像のように、互いに焦点距離の異なる画像を撮像できる。
 (11)撮影レンズに備えられるn個の光学系は、合焦距離が異なる、(1)から(9)のいずれかの撮像装置。
 本態様によれば、撮影レンズに備えられる各光学系が、互いに合焦距離の異なる光学系で構成される。これにより、近距離の被写体に合焦した画像と遠距離の被写体に合焦した画像のように、互いに合焦距離の異なる画像を撮像できる。
 (12)撮影レンズに備えられるn個の光学系は、透過波長特性の異なる、(1)から(9)のいずれかの撮像装置。
 本態様によれば、撮影レンズに備えられる各光学系が、互いに透過波長特性の異なる光学系で構成される。「透過波長特性」とは、特定の波長域の光を透過させる性質のことをいい、「透過波長特性の異なる光学系」とは、特定の波長域の光を透過させる性質が互いに異なる光学系のことをいう。たとえば、撮影レンズが2つの光学系で構成される場合において、一方の光学系が赤外光領域の光を透過させる光学系で構成され、他方の光学系が可視光領域の光を透過させる光学系で構成される場合である。
 (13)撮影レンズに備えられるn個の光学系は、同心状に配置される、(10)から(12)のいずれかの撮像装置。
 (14)nがn>1を満たす整数とした場合に、撮像特性の異なるn個の光学系を備えた撮影レンズと、mがm>nを満たす整数とした場合に、混信比率の異なるm個の受光センサを各画素に備えたイメージセンサと、を備えた撮像装置を用いる画像データ生成方法であって、イメージセンサを露光する工程と、イメージセンサの各画素の各受光センサから画像信号を取得し、m個の一次画像データを生成する工程と、m個の一次画像データに画素単位で混信除去処理を施して、各光学系に対応したn個の二次画像データを生成する工程と、を備えた撮像装置の画像データ生成方法。
 本態様では、イメージセンサの各画素に備える受光センサの数(m)を、撮影レンズに備えられる光学系の数(n)よりも多くする。これにより、混信除去後の画像に現れるノイズを低減できる。
 (15)一次画像データの画素値をA1、A2、…、Am、二次画像データの画素値をB1、B2、…、Bn、混信比率をC1=C11:C12:…:C1n、C2=C21:C22:…:C2n、…、Cm=Cm1:Cm2:…:Cmnとした場合に、混信除去処理として、次の連立方程式A1=C11*B1+C12*B2+…+C1n*Bn、A2=C21*B1+C22*B2+…+C2n*Bn、…、Am=Cm1*B1+Cm2*B2+…+Cmn*Bnを解いて、二次画像データを生成する、(14)の撮像装置の画像データ生成方法。
 本態様では、混信除去処理として、次の連立方程式A1=C11*B1+C12*B2+…+C1n*Bn、A2=C21*B1+C22*B2+…+C2n*Bn、…、Am=Cm1*B1+Cm2*B2+…+Cmn*Bnを解く処理を行って、二次画像データが生成される。これにより、混信除去後の画像に現れるノイズを低減できる。
 (16)一次画像データの画素値A1、A2、…、Amを要素とするm行1列の行列をA、二次画像データの画素値B1、B2、…、Bnを要素とするn行1列の行列をB、混信比率C1=C11:C12:…:C1n、C2=C21:C22:…:C2n、…、Cm=Cm1:Cm2:…:Cmn を要素とするm行n列の行列をCとし、Cの逆行列をC-1とした場合に、混信除去処理として、次の行列方程式B=C-1*Aを解いて、二次画像データを生成する、(14)の撮像装置の画像データ生成方法。
 本態様では、混信除去処理として、次の行列方程式B=C-1*Aを解く処理を行って、二次画像データが生成される。これにより、混信除去後の画像に現れるノイズを低減できる。なお、行列Cが正則ではない場合、行列Cの一般逆行列を算出して、逆行列C-1を取得する。
 本態様によれば、撮影レンズは、複数の光学系を同心状に配置して構成される。
 本発明によれば、混信除去後の画像に現れるノイズを低減できる。
撮像装置のシステム構成を示すブロック図 撮影レンズの概略構成を示す正面図 図2の3-3断面図 第1光学系の概略構成を示す断面図 第2光学系の概略構成を示す断面図 イメージセンサの受光面の正面図 イメージセンサの1つの画素を拡大した正面図 受光センサの概略構成を示す断面図 受光センサの一例を示す図 受光センサの一例を示す図 イメージセンサの出力から9個の一次画像データを生成する概念図 イメージセンサの出力から個々の一次画像データを生成する概念図 第1の一次画像データFI1が表わす画像の一例を示す図 第2の一次画像データFI2が表わす画像の一例を示す図 第1の二次画像データSI1が表わす画像を示す図 第2の二次画像データSI2が表わす画像を示す図 第1の一次画像データの構成の概念図 第2の一次画像データの構成の概念図 一次画像データと二次画像データとの関係を行列で表現した概念図 一次画像データと二次画像データとの関係を示す行列方程式 逆行列を用いて一次画像データと二次画像データとの関係を表現した概念図 逆行列を用いて一次画像データと二次画像データとの関係を表わした行列方程式 一次画像データと二次画像データとの関係を示す概念図 一次画像データと二次画像データとの関係を行列で表現した概念図 一次画像データと二次画像データとの関係を示す行列方程式 逆行列を用いて一次画像データと二次画像データとの関係を表現した概念図 逆行列を用いて一次画像データと二次画像データとの関係を表わした行列方程式 混信がないとした場合における一次画像データと二次画像データとの関係を示すグラフ 混信がある場合における一次画像データと二次画像データとの関係を示すグラフ m>nの場合における一次画像データと二次画像データとの関係を示すグラフ デジタル信号処理部が備える機能のブロック図 撮像装置の第2の実施の形態のシステム構成を示すブロック図 m=nの場合に生成された第1の二次画像データが表わす画像 m=nの場合に生成された第1の二次画像データが表わす画像 m>nの場合に生成された第1の二次画像データが表わす画像 m>nの場合に生成された第2の二次画像データが表わす画像
 以下、添付図面に従って本発明の好ましい実施の形態について詳説する。
 [第1の実施の形態]
 《撮像装置の装置構成》
 図1は、撮像装置のシステム構成を示すブロック図である。
 撮像装置1は、主として、撮影レンズ10と、イメージセンサ100と、レンズ駆動制御部210と、イメージセンサ駆動制御部212と、アナログ信号処理部214と、デジタル信号処理部216と、表示部218と、ワークメモリ220と、記憶部222と、メディアインターフェース224と、システム制御部226と、操作部228と、を備えて構成される。
 〈撮影レンズ〉
 図2は、撮影レンズの概略構成を示す正面図である。図3は、図2の3-3断面図である。
 撮影レンズ10は、2つの光学系20及び30を備える。2つの光学系20及び30は、同心状に配置される。したがって、各光学系20及び30は、同じ光軸Lを有する。以下、中央の光学系20を第1光学系、外周の光学系30を第2光学系と称して、各光学系を必要に応じて区別する。
 第1光学系20及び第2光学系30は、互いに焦点距離の異なる光学系で構成される。第1光学系20は、広角の光学系で構成され、第2光学系30は、望遠の光学系で構成される。ここで、広角の光学系とは、標準の光学系(画角が50°前後の光学系)よりも焦点距離の短い光学系をいう。また、望遠の光学系とは、標準の光学系よりも焦点距離の長い光学系をいう。
 〔第1光学系〕
 図4は、第1光学系の概略構成を示す断面図である。なお、同図において、破線は、第1光学系20を通る光の光線軌跡を示している。
 図4に示すように、第1光学系20は、3群8枚のレンズで構成される。第1光学系20は、第2レンズ群と第3レンズ群との間に絞り22を有する。絞り22は、環状の遮光部を有する。絞り22は、環状の遮光部の内径を拡縮させて、第1光学系20を通る光の光量を調節する。
 〔第2光学系〕
 図5は、第2光学系の概略構成を示す断面図である。なお、同図において、破線は、第2光学系30を通る光の光線軌跡を示している。
 図5に示すように、第2光学系30は、いわゆる反射光学系で構成される。第2光学系30は、第1レンズ30a、第2レンズ30b、第3レンズ30c、主鏡30d、及び、副鏡30eを備える。第2光学系30は、第1光学系20の外周に配置されるため、各構成要素は環状に形成される。
 第1レンズ30a、第2レンズ30b及び第3レンズ30cは、物体側から第1レンズ30a、第2レンズ30b、第3レンズ30cの順で光軸Lに沿って配置される。
 主鏡30dは、第3レンズ30cの像面側の面に備えられる。主鏡30dは、第3レンズ30cの像面側の面に反射膜を形成することにより、第3レンズ30cに一体的に備えられる。主鏡30dは、第3レンズ30cの像面側の面の全面に備えられる。
 副鏡30eは、第2レンズ30bの像面側の面に備えられる。副鏡30eは、第2レンズ30bの像面側の面に反射膜を形成することにより、第2レンズ30bに一体的に備えられる。副鏡30eは、第2レンズ30bの像面側の面の内周部分に備えられる。
 第2光学系30に入射した光は、第1レンズ30a、第2レンズ30b、第3レンズ30cを通過して、主鏡30dに入射する。主鏡30dに入射した光は、主鏡30dで反射し、再び第3レンズ30cを通って副鏡30eに入射する。副鏡30eに入射した光は、副鏡30eで反射して出射する。
 第2光学系30は、副鏡30eの後段に絞り32を有する。絞り32は、環状の遮光部を有する。絞り32は、環状の遮光部の外径を拡縮させて、第2光学系30を通る光の光量を調整する。
 〔共通レンズ〕
 撮影レンズ10は、第1光学系20及び第2光学系30で共用される共通レンズ40を有する。第1光学系20及び第2光学系30を通過した光は、それぞれ共通レンズ40を介してイメージセンサ100に入射する。共通レンズ40は、第1光学系20及び第2光学系30を介してイメージセンサ100に入射する光の入射角度を調整する作用を有する。
 〔焦点調節機構〕
 第1光学系20及び第2光学系30は、各々独立して焦点調節される。第1光学系20は、光学系の全体を光軸Lに沿って前後移動させることにより、焦点調節される。同様に、第2光学系30は、光学系の全体を光軸Lに沿って前後移動させることにより、焦点調節される。図示されていないが、撮影レンズ10には、第1光学系20を光軸Lに沿って前後移動させるための機構(焦点調節機構)と、第2光学系30を光軸Lに沿って前後移動させるための機構(焦点調節機構)と、が備えられる。
 〈イメージセンサ〉
 図6は、イメージセンサの受光面の正面図である。
 イメージセンサ100は、受光面に複数の画素110を備える。複数の画素110は、受光面に二次元マトリクス状に配列される。
 図7は、イメージセンサの1つの画素を拡大した正面図である。なお、同図において、斜線は遮光マスクによるマスク領域を示している。遮光マスクについては後述する。
 イメージセンサ100は、1つの画素110に複数個の受光センサを備える。複数個の受光センサは、二次元マトリクス状に配列される。本実施の形態のイメージセンサ100は、図7に示すように、1つの画素110に9個の受光センサ120a~120iを備える。9個の受光センサ120a~120iは、3行3列(3×3)の配列で二次元マトリクス状に配置される。以下、符号120aの受光センサを第1受光センサ、符号120bの受光センサを第2受光センサ、符号120cの受光センサを第3受光センサ、符号120dの受光センサを第4受光センサ、符号120eの受光センサを第5受光センサ、符号120fの受光センサを第6受光センサ、符号120gの受光センサを第7受光センサ、符号120hの受光センサを第8受光センサ、符号120iの受光センサを第9受光センサと称して、各受光センサを必要に応じて区別する。
 9個の受光センサ120a~120iは、互いに異なる混信比率を有する。「異なる混信比率を有する」とは、各光学系から異なる割合で光を受光する、ということである。すなわち、各受光センサ120a~120iは、第1光学系20及び第2光学系30から異なる割合で光を受光する。
 図8は、受光センサの概略構成を示す断面図である。なお、同図において、波線で示す領域L1は、第1光学系20から入射する光を概念的に示しており、斜格子で示す領域L2は、第2光学系30から入射する光を概念的に示している。
 各受光センサ120a~120iの基本構成は同じである。各受光センサ120a~120iは、光電変換素子130と、マイクロレンズ132と、遮光マスク134と、を備えて構成される。
 光電変換素子130は、光を受け、受けた光の強さに比例した電荷を蓄積する。光電変換素子130は、たとえば、フォトダイオードで構成される。
 マイクロレンズ132は、第1光学系20及び第2光学系30の射出瞳の像を光電変換素子130に結像させる。
 遮光マスク134は、マイクロレンズ132と光電変換素子130との間に配置される。遮光マスク134は、マイクロレンズ132を通過した光の一部を遮光する。
 受光センサ120a~120iは、遮光マスク134の形状を調整することにより、混信比率が調整される。
 図9は、受光センサの一例を示す図である。同図(A)は、受光センサの断面図(同図(B)のA-A断面図)、同図(B)は、受光センサの正面図である。なお、同図(B)において、斜線で示す領域は、遮光マスク134の遮光領域を示している。
 図9は、主に第1光学系20からの光を受光する場合の一例を示している。この場合、遮光マスク134は、図9(B)に示すように、中央に円形の開口部134Aを備えた形状とされる。本例の受光センサ120a~120iでは、図9(A)に示すように、第2光学系30からの光が遮光マスク134で遮光されるので、主に第1光学系20からの光が光電変換素子130で受光される。
 図10は、受光センサの一例を示す図である。同図(A)は、受光センサの断面図(同図(B)のA-A断面図)、同図(B)は、受光センサの正面図である。なお、同図(B)において、斜線で示す領域は、遮光マスク134の遮光領域を示している。
 図10は、主に第2光学系30からの光を受光する場合の一例を示している。この場合、遮光マスク134は、図10(B)に示すように、環状の開口部134Aを備えた形状とされる。本例の受光センサ120a~120iでは、図10(A)に示すように、第1光学系20からの光が遮光マスク134で遮光されるので、主に第2光学系30からの光が光電変換素子130で受光される。
 このように、受光センサ120a~120iは、遮光マスク134の形状を調整することにより、混信比率を調整できる。
 イメージセンサ100は、各画素110の各受光センサ120a~120iの光電変換素子130に蓄積された電荷量を読み出し、電荷量に応じた信号を画像信号として出力する。この画像信号を処理することにより、各光学系に対応した画像データを取得できる。この処理については、後に詳述する。
 〈レンズ駆動制御部〉
 レンズ駆動制御部210は、システム制御部226からの指令に基づき、撮影レンズ10の駆動を制御する。すなわち、第1光学系20の焦点を調節するために、第1光学系20の焦点調節機構の駆動を制御し、かつ、第2光学系30の焦点を調節するために、第2光学系30の焦点調節機構の駆動を制御する。また、第1光学系20の光量を調節するために、第1光学系20の絞り22の駆動を制御し、かつ、第2光学系30の光量を調節するために、第2光学系30の絞り32の駆動を制御する。
 〈イメージセンサ駆動制御部〉
 イメージセンサ駆動制御部212は、システム制御部226からの指令に基づき、イメージセンサ100の駆動を制御する。すなわち、イメージセンサ100からの画像信号の読み出しを制御する。
 〈アナログ信号処理部〉
 アナログ信号処理部214は、イメージセンサ100から出力されるアナログの画像信号を取り込み、所定のアナログの信号処理を施す。また、アナログ信号処理部214は、所定のアナログの信号処理を施した画像信号をデジタル信号に変換して出力する。
 〈デジタル信号処理部〉
 デジタル信号処理部216は、デジタル信号に変換された画像信号を取り込み、所定の信号処理を施して、各光学系に対応した画像データを生成する。この処理については、後に詳述する。
 〈表示部〉
 表示部218は、たとえば、液晶モニタで構成され、撮像済みの画像や撮像中の画像(いわゆるライブビュー画像)を表示する。また、表示部218は、必要に応じてGUI(GUI: Graphical User Interface)として機能する。
 〈ワークメモリ〉
 ワークメモリ220は、たとえば、RAM(RAM:Random Access Memory)で構成され、ワークメモリとして機能する。
 〈記憶部〉
 記憶部222は、たとえば、EEPROM(EEPROM:Electrically Erasable Programmable Read-Only Memory)などの不揮発性メモリで構成される。記憶部222には、制御に必要なデータ、信号処理に必要なデータ等が格納される。
 〈メディアインターフェース〉
 メディアインターフェース224は、システム制御部226から指令に基づいて、メモリーカード等の外部メモリ230に対して、データの読み書きを行う。
 〈システム制御部〉
 システム制御部226は、撮像装置全体の動作を統括制御する。システム制御部226は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAMを備えたマイクロコンピュータで構成され、所定の制御プログラムを実行して、撮像装置1の全体を制御する。制御に必要なプログラム及び各種データはROMに格納される。
 〈操作部〉
 操作部228は、電源ボタンやシャッターボタン等の各種操作ボタン、及び、その駆動回路を備えて構成される。操作部228の操作情報は、システム制御部226に入力される。システム制御部226は、操作部228からの操作情報に基づいて、各部を制御する。
 撮像装置1は、以上のように構成される。
 《各光学系に対応した画像データの生成処理》
 〈処理の概要〉
 上記のように、イメージセンサ100には、各画素110に9個の受光センサ120a~120iが備えられている。したがって、画素ごとに対応する受光センサの画像信号を取得することにより、1回の撮影で9個の画像データを生成できる。しかし、この9個の画像データには、混信が生じている。そこで、本実施の形態の撮像装置1では、撮影により得られた9個の画像データに混信除去処理を施して、各光学系に対応した画像データを生成する。以下、各処理について説明する。
 なお、以下においては、イメージセンサ100の各画素から対応する受光センサの画像信号を取得して生成される9個の画像データを一次画像データ、その9個の一次画像データに混信除去処理を施して生成される画像データを二次画像データと称して、両者を必要に応じて区別する。
 〈一次画像データの生成〉
 図11は、イメージセンサの出力から9個の一次画像データを生成する概念図である。
 一次画像データは、イメージセンサ100の各画素110から対応する受光センサ120a~120iの画像信号を取得することにより生成される。
 たとえば、イメージセンサ100の各画素110から第1受光センサ120aの画像信号を取得することにより、第1受光センサ120aに対応した一次画像データが生成される。同様に、イメージセンサ100の各画素110から第2受光センサ120bの画像信号を取得することにより、第2受光センサ120bに対応した一次画像データが生成される。
 ここで、各画素110の第1受光センサ120aから取得した画像信号で生成される一次画像データを第1の一次画像データFI1、各画素110の第2受光センサ120bから取得した画像信号で生成される一次画像データを第2の一次画像データFI2、各画素110の第3受光センサ120cから取得した画像信号で生成される一次画像データを第3の一次画像データFI3、各画素110の第4受光センサ120dから取得した画像信号で生成される一次画像データを第4の一次画像データFI4、各画素110の第5受光センサ120eから取得した画像信号で生成される一次画像データを第5の一次画像データFI5、各画素110の第6受光センサ120fから取得した画像信号で生成される一次画像データを第6の一次画像データFI6、各画素110の第7受光センサ120gから取得した画像信号で生成される一次画像データを第7の一次画像データFI7、各画素110の第8受光センサ120hから取得した画像信号で生成される一次画像データを第8の一次画像データFI8、各画素110の第9受光センサ120iから取得した画像信号で生成される一次画像データを第9の一次画像データFI9とする。
 図12は、イメージセンサの出力から個々の一次画像データを生成する概念図である。特に、同図は、イメージセンサの出力から第1の一次画像データFI1を生成する場合を示している。
 図12に示すように、第1の一次画像データFI1は、イメージセンサ100の各画素110から第1受光センサ120aの画像信号を取得して生成される。たとえば、第1の一次画像データFI1の画素位置(0,0)における値(画素値)は、イメージセンサ100の画素位置(0,0)にある第1受光センサ120aから画像信号を取得して生成される。同様に、第1の一次画像データFI1の画素位置(0,1)における値(画素値)は、イメージセンサ100の画素位置(0,1)にある第1受光センサ120aから画像信号を取得して生成される。このように、第1の一次画像データFI1の各画素の値(画素値)は、イメージセンサ100の対応する画素110にある第1受光センサ120aから画像信号を取得して生成される。
 なお、画素位置(x,y)は、画素の位置をxy座標で表わしたものである。xy座標は、次のように設定される。すなわち、イメージセンサ100においては、図6に示すように、画面左上隅を座標原点とし、水平方向をx座標、垂直方向をy座標としている。この場合、特定の画素の位置は(x,y)と表現される。画像データについても同様であり、画面左上隅を座標原点とし、水平方向をx座標、垂直方向をy座標としている。
 他の一次画像データも同様にして、イメージセンサ100の各画素110から対応する受光センサの画像信号を取得して生成される。
 〈二次画像データの生成〉
 二次画像データは、一次画像データに対して画素単位で混信除去処理を行うことにより生成される。以下、混信除去処理について説明する。
 〔混信除去処理の基本概念〕
 まず、混信除去処理の基本概念について説明する。ここでは、発明の理解を容易にするため、撮影レンズに備えられる光学系の数(n)が2個、イメージセンサの各画素に備えられる受光センサの数(m)が2個の場合を例に説明する。
 撮影レンズに備えられる2つの光学系について、一方の光学系を第1光学系、他方の光学系を望遠の第2光学系とする。第1光学系は広角の光学系で構成され、第2光学系は望遠の光学系で構成されるものとする。
 また、各画素に備えられる2つの受光センサについて、一方の受光センサを第1受光センサ、他方の受光センサを第2受光センサとする。各画素に備えられる第1受光センサは、すべて同じ混信比率であると仮定する。同様に、各画素に備えられる第2受光センサは、すべて同じ混信比率であると仮定する。
 第1受光センサの混信比率をC1=C11:C12とし、第2受光センサの混信比率をC2=C21:C22とする。ここで、第1受光センサについて、混信比率C1がC11:C12とは、第1光学系及び第2光学系から受光する光の割合が、第1光学系:第2光学系=C11:C12、という意味である。すなわち、第1光学系からC11、第2光学系からC12の割合で光を受光する、という意味である。同様に、第2の光学系について、混信比率C2がC21:C22とは、第1光学系及び第2光学系から受光する光の割合が、第1光学系:第2光学系=C21:C22、という意味である。
 イメージセンサは、1画素に2個の受光センサ(第1受光センサ及び第2受光センサ)を備えているので(m=2)、1回の撮影で2個の一次画像データが生成される。第1受光センサに基づく一次画像データを第1の一次画像データFI1とし、第2受光センサに基づく一次画像データを第2の一次画像データFI2とする。第1の一次画像データFI1は、混信比率C1=C11:C12の割合で混信が生じており、第2の一次画像データFI2は、混信比率C2=C21:C22の割合で混信が生じている。
 図13は、第1の一次画像データFI1が表わす画像の一例を示す図である。また、図14は、第2の一次画像データFI2が表わす画像の一例を示す図である。なお、図13及び図14に示す例では、第1受光センサの混信比率C1がC11>C12、第2受光センサの混信比率C2がC21<C22の場合の例を示している。すなわち、第1受光センサが、第1光学系からの光をより多く受光するように構成され、第2受光センサが、第2光学系からの光をより多く受光するように構成された場合の例を示している。この場合、図13に示すように、第1受光センサから得られる画像(第1の一次画像データFI1が表わす画像)は、本来の第1光学系の画像(広角の画像)に加えて、第2の光学系の画像(望遠の画像)が、かすかに重畳した画像となる。一方、第2受光センサから得られる画像(第2の一次画像データFI2が表わす画像)は、図14に示すように、本来の第2光学系の画像(望遠の画像)に加えて、第1の光学系の画像(広角の画像)が、かすかに重畳した画像となる。
 二次画像データについては、撮影レンズに備えられる光学系の数が2であるので(m=2)、2個の二次画像データが生成される。第1光学系に対応する二次画像データを第1の二次画像データSI1とし、第2光学系に対応する二次画像データを第2の二次画像データSI2とする。
 図15は、第1の二次画像データSI1が表わす画像を示す図であり、図16は、第2の二次画像データSI2が表わす画像を示す図である。図15及び図16に示すように、第1の二次画像データSI1及び第2の二次画像データSI2が表わす画像は、混信の影響が除去された画像となる。
 いま、ある特定の画素位置(x,y)における第1の一次画像データFI1の画素値をA1、第2の一次画像データFI2の画素値をA2とする。また、対応する画素における第1の二次画像データSI1の画素値をB1、第2の二次画像データSI2の画素値をB2とする。
 第1の二次画像データSI1及び第2の二次画像データSI2の各画素値B1及びB2は、次の連立方程式
  A1 = C11*B1 + C12*B2
  A2 = C21*B1 + C22*B2
 を解いて算出できる。
 すなわち、第1の一次画像データFI1は、第1の二次画像データSI1の成分(第1光学系の成分と同義)と第2の二次画像データSI2の成分(第2光学系の成分と同義)とをC11:C12の割合で含むデータである。したがって、この関係を式で表わすと、A1=C11*B1+C12*B2となる。同様に、第2の一次画像データFI2は、第1の二次画像データSI1の成分(第1光学系の成分)と第2の二次画像データSI2の成分(第2光学系の成分)をC21:C22の割合で含むデータであるので、この関係を式で表わすと、A2=C21*B1+C22*B2となる。この関係を図で示すと、図17及び図18のようになる。
 図17は、第1の一次画像データの構成の概念図である。
 同図に示すように、第1の一次画像データFI1は、第1の二次画像データSI1の成分をC11の割合で含み、かつ、第2の二次画像データSI2の成分をC12の割合で含む。この関係を式で表わすと、特定の画素位置(x,y)について、A1=C11*B1+C12*B2の関係が成り立つ。
 図18は、第2の一次画像データの構成の概念図である。
 同図に示すように、第2の一次画像データFI2は、第1の二次画像データSI1の成分をC21の割合で含み、かつ、第2の二次画像データSI2の成分をC22の割合で含む。この関係を式で表わすと、特定の画素位置(x,y)について、A2=C21*B1+C22*B2の関係が成り立つ。
 よって、画素単位で上記連立方程式を解くことにより、第1の二次画像データSI1及び第2の二次画像データSI2の各画素値B1、B2を算出でき、第1の二次画像データSI1及び第2の二次画像データSI2を生成できる。そして、この連立方程式を解くことにより、混信の影響を除去した画像データ(第1の二次画像データSI1及び第2の二次画像データSI2)を生成できる。
 ここで、連立方程式については、行列を使って解くことができる。
 図19は、一次画像データと二次画像データとの関係を行列で表現した概念図である。また、図20は、一次画像データと二次画像データとの関係を示す行列方程式である。
 図19及び図20に示すように、第1の一次画像データFI1及び第2の一次画像データFI2の画素値A1及びA2を要素とする2行1列の行列をA、第1の二次画像データSI1及び第2の二次画像データSI2の画素値B1及びB2を要素とする2行1列の行列をB、第1受光センサの混信比率C1=C11:C12及び第2受光センサの混信比率C2=C21:C22を要素とする2行2列の行列をCとすると、上記連立方程式は、A=C*Bと表現できる。
 そして、第1の二次画像データSI1及び第2の二次画像データSI2の画素値B1及びB2については、上記行列方程式A=C*Bの両辺にCの逆行列C-1を掛けることにより算出できる。すなわち、B=C-1*Aを解くことにより算出できる。
 図21は、逆行列を用いて一次画像データと二次画像データとの関係を表現した概念図である。また、図22は、逆行列を用いて一次画像データと二次画像データとの関係を表わした行列方程式である。
 図21及び図22に示すように、第1の二次画像データSI1及び第2の二次画像データSI2の画素値B1及びB2は、行列Aに行列Cの逆行列C-1を掛けることで算出できる。
 各画素に備えられる受光センサの混信比率は既知なので、逆行列C-1については、あらかじめ取得できる。したがって、各一次画像データの画素値A1及びA2を取得できれば、逆行列C-1を用いて、各二次画像データの画素値B1及びB2を算出できる。
 以上のように、一次画像データに対して所定の演算処理(混信除去処理)を施すことにより、混信の影響を除去した二次画像データを生成できる。
 〔m>nとなる場合の混信除去処理〕
 m>nとなる場合とは、撮影レンズに備えられる光学系の数(n:nはn>1を満たす整数)よりもイメージセンサの各画素に備えられる受光センサの数(m:mは整数)の方が多い場合のことである。本実施の形態の撮像装置1は、撮影レンズ10に備えられる光学系の数(n)が2、イメージセンサ100の各画素110に備えられる受光センサの数(m)が9であるので、m>nの場合に該当する。この場合も混信除去処理の基本的な考え方は同じである。
 図23は、一次画像データと二次画像データとの関係を示す概念図である。
 イメージセンサ100の特定の画素位置(x,y)に備えられる第1受光センサ120aの混信比率C1がC1=C11:C12、第2受光センサ120bの混信比率C2がC2=C21:C22、第3受光センサ120cの混信比率C3がC3=C31:C32、第4受光センサ120dの混信比率C4がC4=C41:C42、第5受光センサ120eの混信比率C5がC5=C51:C52、第6受光センサ120fの混信比率C6がC6=C61:C62、第7受光センサ120gの混信比率C7がC7=C71:C72、第8受光センサ120hの混信比率C8がC8=C81:C82、第9受光センサ120iの混信比率C9がC9=C91:C92、であるとする。
 この場合、第1の一次画像データFI1は、第1の二次画像データSI1の成分(第1光学系20の成分と同義)と第2の二次画像データSI2の成分(第2光学系30の成分と同義)とをC11:C12の割合で含むデータとなる。この関係を式で表わすと、第1の一次画像データFI1は、特定の画素位置(x,y)について、A1=C11*B1+C12*B2の関係が成り立つ。
 第2の一次画像データFI2は、第1の二次画像データSI1の成分と第2の二次画像データSI2の成分をC21:C22の割合で含むデータとなる。この関係を式で表わすと、第2の一次画像データFI2は、特定の画素位置(x,y)について、A2=C21*B1+C22*B2の関係が成り立つ。
 すなわち、各一次画像データの特定の画素位置(x,y)における画素値をA1、A2、…、A9とし、各二次画像データの特定の画素位置(x,y)の画素値をB1、B2とした場合、各一次画像データと二次画像データとの間には、次の関係が成り立つ。
  A1 = C11*B1 + C12*B2
  A2 = C21*B1 + C22*B2
  A3 = C31*B1 + C32*B2
  A4 = C41*B1 + C42*B2
  A5 = C51*B1 + C52*B2
  A6 = C61*B1 + C62*B2
  A7 = C71*B1 + C72*B2
  A8 = C81*B1 + C82*B2
  A9 = C91*B1 + C92*B2
 この連立方程式を解くことにより、第1の二次画像データSI1及び第2の二次画像データSI2の各画素値B1及びB2を算出でき、第1の二次画像データSI1及び第2の二次画像データSI2を生成できる。そして、この連立方程式を解くことにより、混信の影響を除去した画像データ(第1の二次画像データSI1及び第2の二次画像データSI2)を生成できる。
 〔逆行列を用いた解法〕
 上記のように、連立方程式については、行列を用いて解くことができる。
 図24は、一次画像データと二次画像データとの関係を行列で表現した概念図である。また、図25は、一次画像データと二次画像データとの関係を示す行列方程式である。
 図24及び図25に示すように、各一次画像データFI1~FI9の特定の画素位置(x,y)の画素値A1~A9を要素とする9行1列の行列をA、各二次画像データSI1、SI2の特定の画素位置(x,y)の画素値B1及びB2を要素とする2行1列の行列をB、各受光センサ120a~120iの混信比率C1=C11:C12、C2=C21:C22、…、C9=C91:C92を要素とする9行2列の行列をCとすると、上記連立方程式は、A=C*Bと表現できる。
 そして、第1の二次画像データSI1及び第2の二次画像データSI2の画素値B1及びB2については、上記行列方程式A=C*Bの両辺にCの逆行列C-1を掛けることにより算出できる。すなわち、B=C-1*Aを解くことにより算出できる。
 図26は、逆行列を用いて一次画像データと二次画像データとの関係を表現した概念図である。また、図27は、逆行列を用いて一次画像データと二次画像データとの関係を表わした行列方程式である。
 図26及び図27に示すように、第1の二次画像データSI1及び第2の二次画像データSI2の画素値B1及びB2は、行列Aに行列Cの逆行列C-1を掛けることで算出できる。
 各画素に備えられる受光センサの混信比率は既知なので、逆行列C-1については、あらかじめ取得できる。
 なお、行列Cが正則ではない場合、その逆行列C-1については、行列Cの一般逆行列を算出して、逆行列C-1を取得する。一般逆行列は、たとえば、ムーア・ペンローズ逆行列等の公知の手法で算出できる。
 このように、二次画像データについては、行列方程式B=C-1*Aを解くことにより算出できる。そして、この行列方程式B=C-1*Aを解くことにより、混信の影響を除去した二次画像データを生成できる。
 〈m>nとすることの効果〉
 上記のように、混信の影響を除去するだけであれば、m=nであればよい。すなわち、イメージセンサの各画素には、撮影レンズに備えられる光学系の数と同じ数の受光センサが備えられていればよい。
 しかし、m=nの場合、一次画像データにノイズが含まれていると、そのノイズの影響が二次画像データにも現れてしまうという問題がある。
 本出願の発明者は、m>n、すなわち、撮影レンズに備える光学系の数(n)よりもイメージセンサの各画素に備える受光センサの数(m)を多くすることにより、混信除去後の画像に現れるノイズを低減できることを見出した。以下、この点について考察する。
 〔ノイズ低減のメカニズム〕
 (1)m=nの場合
 まず、m=nの場合について考える。便宜上、撮影レンズに備えられる光学系の数(n)を2個とする。したがって、イメージセンサの各画素に備えられる受光センサの数(m)も2個である。一方の光学系を第1光学系、他方の光学系を第2光学系とする。また、一方の受光センサを第1受光センサ、他方の受光センサを第2受光センサとし、第1受光センサの混信比率をC1=C11:C12、第2受光センサの混信比率をC2=C21:C22とする。この場合、特定の画素位置(x,y)における一次画像データ及び二次画像データの関係は、A1 = C11*B1 + C12*B2、A2 = C21*B1 + C22*B2となる。
 (A)混信のない場合
 混信のない場合とは、各受光センサが、対応する光学系からの光のみ受光する場合である。すなわち、第1受光センサは第1光学系からの光のみを受光し、第2受光センサは第2光学系からの光のみを受光する場合である。この場合、第1受光センサの混信比率C1=C11:C12は、C11=1、C12=0となり、第2受光センサの混信比率C2は、C21=0、C22=1となる。したがって、一次画像データと二次画像データとの関係は、A1 = C11*B1、A2 = C22*B2となる。
 図28は、混信がないとした場合における一次画像データと二次画像データとの関係を示すグラフである。同図において、縦軸は、第1の二次画像データの画素値B1であり、横軸は、第2の二次画像データの画素値B2である。
 図28において、実線で示す直線α1は、ノイズがないとした場合における式A1 = C11*B1を示す直線である。また、実線で示す直線α2は、ノイズがないとした場合における式A2 = C22*B2を示す直線である。
 混信のない場合、一次画像データと二次画像データは一対一で対応する。この場合、一次画像データに現れたノイズは、対応する二次画像データにのみ現れる。
 一次画像データに生じたノイズは、2つの式の解の誤差として現れる。図28において、破線で示す直線α1a及び直線α1bは、一次画像データにノイズが表れた場合の式A1= C11*B1を示す直線である。また、直線α2a及び直線α2bは、一次画像データにノイズが表れた場合の式A2 = C22*B2を示す直線である。一次画像データにノイズが現れると、各式の直線は振れる。すなわち、各式の直線は、実線で示す位置から平行移動する。
 各式の直線が振れる範囲が、起こり得る誤差の範囲である。破線で示す直線α1a、α1b及びα2a、α2bの位置が、起こり得る振れの最大の位置とすると、斜線で示す領域Sαが、起こり得る誤差の範囲となる。
 混信のない場合、一次画像データに現れたノイズは、対応する二次画像データにのみ現れるので、その影響は限定的となる。
 (B)混信のある場合
 混信がある場合、特定の画素位置(x,y)における一次画像データと二次画像データの関係は、A1 = C11*B1 + C12*B2、A2 = C21*B1 + C22*B2となる。
 図29は、混信がある場合における一次画像データと二次画像データとの関係を示すグラフである。同図において、縦軸は、第1の二次画像データの画素値であり、横軸は、第2の二次画像データの画素値である。
 図29において、実線で示す直線β1は、ノイズがないとした場合における式A1 = C11*B1 + C12*B2を示す直線である。また、実線で示す直線β2は、ノイズがないとした場合における式A2 = C21*B1 + C22*B2を示す直線である。
 図29に示すように、混信がある場合、各直線は傾く。この傾きは、混信成分が増えるほど大きくなる。そして、この傾きが大きくなるほど、2つ直線の成す角度が広がる。
 上記のように、一次画像データに生じたノイズは、2つの式の解の誤差として現れる。図29において、破線で示す直線β1a及び直線β1bは、一次画像データにノイズが表れた場合の式A1 = C11*B1 + C12*B2を示す直線である。また、直線β2a及び直線β2bは、一次画像データにノイズが表れた場合の式A2 = C21*B1 + C22*B2を示す直線である。一次画像データにノイズが現れると、各式の直線は振れる。
 各式の直線が振れる範囲が、起こり得る誤差の範囲である。破線で示す直線β1a、β1b、及び、β2a、β2bの位置が、起こり得る振れの最大の位置とすると、斜線で示す領域Sβが、起こり得る誤差の範囲となる。図29に示すように、この範囲は、2つの直線の成す角度が広くなるほど大きくなる。上記のように、2つの直線の成す角度は、各受光センサの混信成分が増えるほど大きくなる。したがって、混信成分が増えるほど、ノイズが及ぼす影響が大きくなるといえる。すなわち、ノイズが増幅されやすくなる。
 (2)m>nの場合
 次に、m>nの場合について考える。便宜上、撮影レンズに備えられる光学系の数(n)を2個とし、イメージセンサの各画素に備えられる受光センサの数(m)を3個とする。一方の光学系を第1光学系、他方の光学系を第2光学系とし、3つの受光センサをそれぞれ第1受光センサ、第2受光センサ、第3受光センサとする。また、第1受光センサの混信比率をC1=C11:C12、第2受光センサの混信比率をC2=C21:C22、第3受光センサの混信比率をC3=C31:C32とする。この場合、特定の画素位置(x,y)における一次画像データ及び二次画像データの関係は、A1 = C11*B1 + C12*B2、A2 = C21*B1 + C22*B2、A3 = C31*B1 + C32*B2となる。
 図30は、m>nの場合における一次画像データと二次画像データとの関係を示すグラフである。同図において、縦軸は、第1の二次画像データの画素値であり、横軸は、第2の二次画像データの画素値である。
 図30において、実線で示す直線γ1は、ノイズがないとした場合における式A1 = C11*B1 + C12*B2を示す直線である。また、実線で示す直線γ2は、ノイズがないとした場合における式A2 = C21*B1 + C22*B2を示す直線である。また、実線で示す直線γ3は、ノイズがないとした場合における式A3 = C31*B1 + C32*B2を示す直線である。
 また、図30において、破線で示す直線γ1a、γ1bは、一次画像データにノイズが現れた場合における式A1 = C11*B1 + C12*B2を示す直線である。また、破線で示す直線γ2a、γ2bは、一次画像データにノイズが現れた場合における式A2 = C21*B1 + C22*B2を示す直線である。また、破線で示す直線γ3a及びγ3bは、一次画像データにノイズが現れた場合における式A3 = C31*B1 + C32*B2を示す直線である。
 1画素に備えられる受光センサの数(m)を増やすことにより、二次画像データを算出するための式の数(直線の数(=m))が増える。そして、この式の数が増えることにより、その解の分布が収束されるようになる。この結果、一次画像データに生じたノイズが、二次画像データに及ぼす影響を低減できる。
 このように、二次画像データを算出するための式の数を増やすことにより、二次画像データに現れるノイズの影響を低減できる。解の収束性は、二次画像データを算出するための式の数を増やすことにより、より高められるので、1画素当たりに備えられる受光センサの数は多い方が好ましい。
 また、より収束性を高めるためには、混信比率の近い受光センサを備えるよりも、さまざまな混信比率を有する受光センサを備えた方が好ましい。すなわち、各受光センサの混信比率は、バラツキを持たせた方が好ましい。
 《デジタル信号処理部の構成》
 上述した一連の信号処理は、デジタル信号処理部216で行われる。デジタル信号処理部216は、イメージセンサ100の各画素の各受光センサから画像信号を取得して一次画像データを生成し、かつ、その一次画像データに画素単位で混信除去処理を施して、各光学系に対応した二次画像データを生成する。
 図31は、デジタル信号処理部が備える機能のブロック図である。
 一次画像データを生成する一次画像データ生成部216Aと、二次画像データを生成する二次画像データ生成部216Bと、を備える。
 一次画像データ生成部216Aは、イメージセンサの各画素から対応する受光センサの画像信号を取得して、m個の一次画像データを生成する。本実施の形態の撮像装置1は、イメージセンサ100の各画素110に9個(m=9)の受光センサ120a~120iを備えているので、9個の一次画像データを生成する。
 二次画像データ生成部216Bは、一次画像データ生成部216Aで生成された9個の一次画像データに対して、画素ごとに混信除去処理を施して、各光学系に対応したn個の二次画像データを生成する。本実施の形態の撮像装置1は、撮影レンズ10に2つ(n=2)の光学系を備えているので、2つの二次画像データを生成する。具体的には、第1光学系20に対応した第1の二次画像データと、第2光学系30に対応した第2の二次画像データとを生成する。
 混信除去処理は、連立方程式A1=C11*B1+C12*B2+…+C1n*Bn、A2=C21*B1+C22*B2+…+C2n*Bn、…、Am=Cm1*B1+Cm2*B2+…+Cmn*Bnを解く処理を行う。本実施の形態の撮像装置1は、m=9、n=2なので、連立方程式A1=C11*B1+C12*B2、A2=C21*B1+C22*B2、A3=C31*B1+C32*B2を解いて、各光学系に対応した二次画像データを生成する。
 二次画像データ生成部216Bは、行列を利用して、連立方程式を解く処理を実施する。すなわち、行列方程式B=C-1*Aを解いて、二次画像データを生成する。演算に使用する逆行列C-1の情報は、記憶部222に記憶される。記憶部222は、その記憶領域の一部に逆行列C-1の情報を記憶する逆行列情報記憶部222Aを備える。なお、逆行列C-1の情報は、画素単位で記憶される。
 二次画像データ生成部216Bは、処理する画素ごとに逆行列C-1の情報を読み出して、混信除去処理を実施する。
 《撮像装置における処理の流れ(画像データ生成方法)》
 本実施の形態の撮像装置では、(1)撮影指示に基づく露光(露光工程)、(2)露光に基づく一次画像データの生成(一次画像データ生成工程)、(3)一次画像データに基づく二次画像データの生成(二次画像データ生成工程)の順で記録用の画像データが生成される。
 記録用の撮影(露光)は、操作部228からの指示に基づいて実施される。ここでは、シャッターボタンの全押しで記録用の撮影が指示されるものとする。撮影者は、各光学系の焦点調節を行った後、シャッターボタンを全押しして、記録用の撮影を指示する。
 シャッターボタンが全押しされると、まず、測光処理が実施される。システム制御部226、イメージセンサ100から得られる画像信号に基づいて、EV値(EV:Exposure Value)を算出し、露出を決定する。
 露出が決定すると、決定した露出でイメージセンサ100が露光される(露光工程)。露光により各受光センサ120a~120iの光電変換素子130に電荷が蓄積される。イメージセンサ100は、各受光センサ120a~120iの光電変換素子130に蓄積された電荷量を読み出して、電荷量に応じた画像信号を出力する。
 イメージセンサ100から出力された画像信号は、アナログ信号処理部214を経てワークメモリ220に取り込まれる。このワークメモリ220に取り込まれた画像信号に対して、デジタル信号処理部216が所定の信号処理を施すことにより、各光学系に対応した画像データ(第1の二次画像データ、及び、第2の二次画像データ)が生成される。すなわち、画素ごとに各受光センサの画像信号を取得して、9個の一次画像データを生成し(一次画像データ生成工程)、その9個の一次画像データに混信除去処理を施すことにより、各光学系に対応した画像データ(第1の二次画像データ、及び、第2の二次画像データ)が生成される(二次画像データ生成工程)。生成された画像データ(第1の二次画像データ、及び、第2の二次画像データ)は、必要に応じて所定フォーマットのデータ形式に変換されて、外部メモリ230に記録される。
 このように、本実施の形態の撮像装置1によれば、1回の操作で各光学系に対応した画像を同時に撮像できる。
 また、各光学系に対応した画像データ(第1の二次画像データ、及び、第2の二次画像データ)を生成する際、9個の一次画像データに基づいて生成することにより、ノイズを低減できる。
 [第2の実施の形態]
 図32は、撮像装置の第2の実施の形態のシステム構成を示すブロック図である。
 本実施の形態の撮像装置1は、撮影シーン情報取得部232を更に備えている点で上述した第1の実施の形態の撮像装置と相違する。
 撮影シーン情報取得部232は、撮影シーンの情報を取得する。撮影シーンの情報とは、どのようなシーンを撮影するかの情報である。たとえば、ポートレート、集合写真、風景、夜景、スポーツ、マクロなどの情報が、これに当たる。
 本実施の形態の撮像装置1は、撮影シーン情報取得部232で取得した撮影シーンの情報に基づいて、デジタル信号処理部216での処理内容を切り替える。具体的には、二次画像データの生成に使用する一次画像データの数を切り替える。
 上記のように、二次画像データに生じるノイズは、一次画像データの数を増やすことにより低減できる。一方、許容されるノイズのレベルは、撮影シーンごとに異なる。たとえば、風景に比してポートレートは、高いレベルで低ノイズであることが要求される。
 そこで、本実施の形態の撮像装置1では、撮影シーンに応じて二次画像データの生成に使用する一次画像データの数を切り替える。たとえば、ノイズが気になる撮影シーンでは、二次画像データの生成に使用する一次画像データの数を増やす。これにより、ノイズの発生を抑制できる。一方、ノイズが気にならない撮影シーンでは、二次画像データの生成に使用する一次画像データの数を減らす。これにより、混信除去処理に伴う演算負荷を低減でき、処理速度を向上できる。
 本実施の形態の撮像装置1において、撮影シーンの情報は、操作部228を介してユーザが入力する。撮影シーン情報取得部232は、操作部228を介して入力された情報を取得して、撮影シーンの情報を取得する。入力は、あらかじめ用意された撮影シーンをユーザが選択することにより行われる。たとえば、撮影シーンとして、ポートレート、集合写真、風景、夜景、スポーツ、マクロなどのシーンを用意しておく。
 システム制御部226は、撮影シーン情報取得部232で取得された撮影シーンの情報に基づいて、二次画像データの生成に使用する一次画像データの数を切り替える。撮影シーンと、二次画像データの生成に使用する一次画像データの数との関係は、あらかじめ定められ、テーブルで管理される。テーブルには、使用する一次画像データの情報も記録される。すなわち、どの位置の受光センサに基づく一次画像データを使用するかの情報も記録される。このテーブルは、記憶部222に記憶される。システム制御部226は、記憶部222に記憶されたテーブルを参照して、二次画像データの生成に使用する一次画像データを決定する。
 デジタル信号処理部216は、システム制御部226による指示に応じて、二次画像データの生成を行う。すなわち、システム制御部226で指示された一次画像データを使用して、混信除去処理を行い、二次画像データを生成する。
 このように、本実施の形態の撮像装置1では、撮影シーンに応じて、二次画像データの生成に使用する一次画像データの数が変更される。これにより、適切に二次画像データを生成できる。
 なお、上記実施の形態では、撮影シーンの情報をユーザが入力する構成としているが、撮影により得られた画像を解析し、自動で撮影シーンを特定する構成とすることもできる。この場合、撮影シーン情報取得部は、画像解析部として機能し、少なくとも1つの一次画像データを解析して、撮影シーンを特定する。
 [その他の実施の形態]
 《イメージセンサの変形例》
 イメージセンサの各画素に備える受光センサの数(m)は、撮影レンズに備えられる光学系の数(n)よりも多ければよい。すなわち、m>nを満たせばよい。
 なお、各画素に備えられる受光センサは、混信比率が分散していることが好ましい。すなわち、混信比率の近い受光センサを複数備えるよりも、混信比率がバラバラの受光センサを複数備えることが好ましい。
 なお、上記実施の形態では、3行3列(3×3)で配列された9個の受光センサによってイメージセンサの1画素を構成しているが、1画素を構成する受光センサの配列は、これに限定されるものではない。たとえば、1画素が3個の受光センサで構成される場合、1行3列(1×3)で配列された3個の受光センサでイメージセンサの1画素を構成することができる。また、1画素を構成する受光センサは、受光面上に離散的に配置されていてもよい。
 また、上記実施の形態では、説明の便宜上、カラー画像については言及していないが、カラー画像を生成する場合は、所定のフィルター配列で各画素にカラーフィールターを配置する。
 《混信比率を調整する方法》
 上記実施の形態では、遮光マスクの形状によって各受光センサの混信比率を調整しているが、受光センサの混信比率を調整する方法は、これに限定されるものではない。この他、たとえば、マイクロレンズの結像特性を変えることにより、混信比率を調整することもできる。たとえば、マイクロレンズのレンズパワー、倍率、結像位置などを変えることにより、混信比率を変えることができる。この場合、遮光マスクは不要となる。
 なお、遮光マスクとマイクロレンズを併用して、混信比率を調整することもできる。すなわち、遮光マスクの形状と、マイクロレンズの結像特性の双方を変えることによって、混信比率を調整することもできる。
 《撮影レンズの変形例》
 上記実施の形態では、撮影レンズに2個の光学系を備えているが、撮影レンズに備える光学系の数(n)は、これに限定されるものではない。撮影レンズには、互いに撮像特性の異なる2以上の光学系が備えられていればよい。
 また、上記実施の形態では、焦点距離の異なる光学系が撮影レンズに備えられているが、撮影レンズに備える光学系の種類は、これに限定されるものではない。この他、たとえば、互いに合焦距離の異なる光学系を備えてもよい。これにより、近距離の被写体に合焦した画像と遠距離の被写体に合焦した画像のように、互いに合焦距離の異なる画像を同時に撮像できる。また、たとえば、互いに透過波長特性の異なる光学系を備えてもよい。これにより、たとえば、赤外光領域の光を透過させる光学系、及び、可視光領域の光を透過させる光学系を備えることにより、赤外光画像と可視光画像とを同時に撮像できる。
 また、上記実施の形態では、複数の光学系が同心状に配置される構成としているが、複数の光学系の配置は、これに限定されるものではない。たとえば、光軸を中心として、周方向に領域を分割し、各領域に光学系を配置する構成とすることもできる。
 《混信除去処理の変形例》
 上記のように、混信除去処理は、画素ごとに行われ、行列を利用する場合は、画素ごとに逆行列C-1の情報を読み出して、混信除去処理を実施する。したがって、逆行列C-1の情報は、画素ごとに逆行列情報記憶部222Aに記憶される。一方、各画素に備えられる受光センサの混信比率が、画素間で近似している場合は、代表となる逆行列を定めて、混信除去処理を実施してもよい。すなわち、各画素において共通の逆行列を使用して、混信除去処理を実施してもよい。これにより、演算負荷を低減できる。また、画面を複数の領域に分割し、領域ごとに共通の逆行列を定めてもよい。
 《混信除去処理の一般化》
 撮影レンズに備えられる光学系の数をnとし、イメージセンサの各画素に備えられる受光センサの数をm(m>n)とすると、一次画像データはm個生成され、二次画像データはn個生成される。この場合、各一次画像データの画素値をA1、A2、…、Am、二次画像データの画素値をB1、B2、…、Bn、混信比率をC1=C11:C12:…:C1n、C2=C21:C22:…:C2n、…、Cm=Cm1:Cm2:…:Cmnとすると、デジタル信号処理部216は、混信除去処理として、次の連立方程式A1=C11*B1+C12*B2+…+C1n*Bn、A2=C21*B1+C22*B2+…+C2n*Bn、…、Am=Cm1*B1+Cm2*B2+…+Cmn*Bnを解いて、二次画像データを生成する。
 各受光センサの混信比率C1=C11:C12:…:C1n、C2=C21:C22:…:C2n、…、Cm=Cm1:Cm2:…:Cmn を要素とするm行n列の行列Cが正則ではない場合は、行列Cの一般逆行列を算出して、行列方程式を解く。
 本発明の効果を確認するため、次の実験を行った。
 擬似的に一次画像データを生成し、m=nとした場合と、m>nとした場合とで、二次画像データに現れるノイズを比較する実験を行った。
 〈一次画像データの生成〉
 一次画像データは、2つの画像データW及びTを合成して擬似的に生成した。合成する画像の数が、撮影レンズに備えられる光学系の数(n)に相当する。2つの画像データW及びTを合成しているので、n=2となる。
 また、生成する一次画像データの数が、イメージセンサの各画素に備えられる受光センサの数(m)に相当する。したがって、生成する一次画像データの数を2とすると、m=nとなる。
 また、合成時の混合比率(2つの画像データW及びTを合成する比率)が、各受光センサの混信比率に相当する。たとえば、2つの画像データW及びTをW:T=0.8:0.2の混合比率で合成すると、生成される一次画像データの混信比率は0.8:0.2となる。
 〈m=nの場合〉
 m=2として、2つの一次画像データ(第1の一次画像データ及び第2の一次画像データ)を生成し、生成した2つの一次画像データに混信除去処理を施して、2つの二次画像データ(第1の二次画像データ及び第2の二次画像データ)を生成した。
 第1の一次画像データの混信比率は、W:T=0.8:0.2とし、第2の一次画像データの混信比率は、W:T=0.2:0.8とした。
 図33は、m=nの場合に生成された第1の二次画像データが表わす画像である。また、図34は、m=nの場合に生成された第2の二次画像データが表わす画像である。
 〈m>nの場合〉
 m=9として、9つの一次画像データ(第1の一次画像データ、第2の一次画像データ、第3の一次画像データ、第4の一次画像データ、第5の一次画像データ、第6の一次画像データ、第7の一次画像データ、第8の一次画像データ、及び、第9の一次画像データ)を生成し、生成した9つの一次画像データに混信除去処理を施して、2つの二次画像データ(第1の二次画像データ及び第2の二次画像データ)を生成した。
 第1の一次画像データの混信比率はW:T=0.9:0.1、第2の一次画像データの混信比率はW:T=0.1:0.9、第3の一次画像データの混信比率はW:T=0.8:0.2、第4の一次画像データの混信比率はW:T=0.2:0.8、第5の一次画像データの混信比率はW:T=0.7:0.3、第6の一次画像データの混信比率はW:T=0.3:0.7、第7の一次画像データの混信比率はW:T=0.6:0.4、第8の一次画像データの混信比率はW:T=0.4:0.6、第9の一次画像データの混信比率はW:T=0.5:0.5とした。
 図35は、m>nの場合に生成された第1の二次画像データが表わす画像である。また、図36は、m>nの場合に生成された第2の二次画像データが表わす画像である。
 〈比較〉
 図33~図36に示すように、m>nとすることにより、ノイズを低減できることが確認できた。
1 撮像装置
10 撮影レンズ
20 第1光学系
22 絞り
30 第2光学系
30a 第1レンズ
30b 第2レンズ
30c 第3レンズ
30d 主鏡
30e 副鏡
32 絞り
40 共通レンズ
100 イメージセンサ
110 画素
120a 第1受光センサ
120b 第2受光センサ
120c 第3受光センサ
120d 第4受光センサ
120e 第5受光センサ
120f 第6受光センサ
120g 第7受光センサ
120h 第8受光センサ
120i 第9受光センサ
130 光電変換素子
132 マイクロレンズ
134 遮光マスク
134A 開口部
210 レンズ駆動制御部
212 イメージセンサ駆動制御部
214 アナログ信号処理部
216 デジタル信号処理部
216A 一次画像データ生成部
216B 二次画像データ生成部
218 表示部
220 ワークメモリ
222 記憶部
222A 逆行列情報記憶部
224 メディアインターフェース
226 システム制御部
228 操作部
230 外部メモリ
232 撮影シーン情報取得部
FI1 第1の一次画像データ
FI2 第2の一次画像データ
FI3 第3の一次画像データ
FI4 第4の一次画像データ
FI5 第5の一次画像データ
FI6 第6の一次画像データ
FI7 第7の一次画像データ
FI8 第8の一次画像データ
FI9 第9の一次画像データ
SI1 第1の二次画像データ
SI2 第2の二次画像データ
L 光軸
L1 領域
L2 領域
SΒ 領域
Sα 領域

Claims (16)

  1.  nがn>1を満たす整数とした場合に、撮像特性の異なるn個の光学系を備えた撮影レンズと、
     mがm>nを満たす整数とした場合に、混信比率の異なるm個の受光センサを各画素に備えたイメージセンサと、
     前記イメージセンサの各画素の前記各受光センサから画像信号を取得し、m個の一次画像データを生成する一次画像データ生成部と、
     m個の前記一次画像データに画素単位で混信除去処理を施して、前記各光学系に対応したn個の二次画像データを生成する二次画像データ生成部と、
     を備えた撮像装置。
  2.  前記一次画像データの画素値をA1、A2、…、Am、前記二次画像データの画素値をB1、B2、…、Bn、前記混信比率をC1=C11:C12:…:C1n、C2=C21:C22:…:C2n、…、Cm=Cm1:Cm2:…:Cmnとした場合に、前記二次画像データ生成部は、前記混信除去処理として、次の連立方程式A1=C11*B1+C12*B2+…+C1n*Bn、A2=C21*B1+C22*B2+…+C2n*Bn、…、Am=Cm1*B1+Cm2*B2+…+Cmn*Bnを解いて、前記二次画像データを生成する、
     請求項1に記載の撮像装置。
  3.  前記一次画像データの画素値A1、A2、…、Amを要素とするm行1列の行列をA、前記二次画像データの画素値B1、B2、…、Bnを要素とするn行1列の行列をB、前記混信比率C1=C11:C12:…:C1n、C2=C21:C22:…:C2n、…、Cm=Cm1:Cm2:…:Cmn を要素とするm行n列の行列をCとし、Cの逆行列をC-1とした場合に、前記二次画像データ生成部は、前記混信除去処理として、次の行列方程式B=C-1*Aを解いて、前記二次画像データを生成する、
     請求項1に記載の撮像装置。
  4.  前記逆行列C-1の情報を記憶した逆行列情報記憶部を更に備え、
     前記二次画像データ生成部は、前記逆行列情報記憶部に記憶された前記逆行列C-1の情報を利用して、前記行列方程式を解く、
     請求項3に記載の撮像装置。
  5.  前記逆行列情報記憶部は、前記画素ごとの前記逆行列C-1の情報を記憶する、
     請求項4に記載の撮像装置。
  6.  撮影シーンの情報を取得する撮影シーン情報取得部を更に備え、
     前記二次画像データ生成部は、前記撮影シーンに応じて、前記二次画像データの生成に使用する前記一次画像データの数を変更する、
     請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記撮影シーン情報取得部は、前記一次画像データを解析して、前記撮影シーンを特定する、
     請求項6に記載の撮像装置。
  8.  前記受光センサは、
     光電変換素子と、
     前記撮影レンズの射出瞳の像を前記光電変換素子に結像させるマイクロレンズと、
     前記マイクロレンズと前記受光センサとの間に配置される遮光マスクと、
     を備え、前記遮光マスクの形状、及び/又は、前記マイクロレンズの結像特性が異なることにより、混信比率が異なる、
     請求項1から7のいずれか1項に記載の撮像装置。
  9.  前記受光センサは、
     光電変換素子と、
     前記撮影レンズの射出瞳の像を前記光電変換素子に結像させるマイクロレンズと、
     を備え、前記マイクロレンズの結像特性が異なることにより、混信比率が異なる、
     請求項1から7のいずれか1項に記載の撮像装置。
  10.  前記撮影レンズに備えられるn個の前記光学系は、焦点距離が異なる、
     請求項1から9のいずれか1項に記載の撮像装置。
  11.  前記撮影レンズに備えられるn個の前記光学系は、合焦距離が異なる、
     請求項1から9のいずれか1項に記載の撮像装置。
  12.  前記撮影レンズに備えられるn個の前記光学系は、透過波長特性の異なる、
     請求項1から9のいずれか1項に記載の撮像装置。
  13.  前記撮影レンズに備えられるn個の前記光学系は、同心状に配置される、
     請求項10から12のいずれか1項に記載の撮像装置。
  14.  nがn>1を満たす整数とした場合に、撮像特性の異なるn個の光学系を備えた撮影レンズと、mがm>nを満たす整数とした場合に、混信比率の異なるm個の受光センサを各画素に備えたイメージセンサと、を備えた撮像装置を用いる画像データ生成方法であって、
     前記イメージセンサを露光する工程と、
     前記イメージセンサの各画素の前記各受光センサから画像信号を取得し、m個の一次画像データを生成する工程と、
     m個の前記一次画像データに画素単位で混信除去処理を施して、前記各光学系に対応したn個の二次画像データを生成する工程と、
     を備えた画像データ生成方法。
  15.  前記一次画像データの画素値をA1、A2、…、Am、前記二次画像データの画素値をB1、B2、…、Bn、前記混信比率をC1=C11:C12:…:C1n、C2=C21:C22:…:C2n、…、Cm=Cm1:Cm2:…:Cmnとした場合に、前記混信除去処理として、次の連立方程式A1=C11*B1+C12*B2+…+C1n*Bn、A2=C21*B1+C22*B2+…+C2n*Bn、…、Am=Cm1*B1+Cm2*B2+…+Cmn*Bnを解いて、前記二次画像データを生成する、
     請求項14に記載の画像データ生成方法。
  16.  前記一次画像データの画素値A1、A2、…、Amを要素とするm行1列の行列をA、前記二次画像データの画素値B1、B2、…、Bnを要素とするn行1列の行列をB、前記混信比率C1=C11:C12:…:C1n、C2=C21:C22:…:C2n、…、Cm=Cm1:Cm2:…:Cmn を要素とするm行n列の行列をCとし、Cの逆行列をC-1とした場合に、前記混信除去処理として、次の行列方程式B=C-1*Aを解いて、前記二次画像データを生成する、
     請求項14に記載の画像データ生成方法。
     
PCT/JP2016/086289 2016-01-18 2016-12-07 撮像装置、及び、画像データ生成方法 WO2017126242A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP16886481.7A EP3407592B1 (en) 2016-01-18 2016-12-07 Image capture device and image data generation method
CN201680076743.4A CN108432233B (zh) 2016-01-18 2016-12-07 摄像装置及图像数据生成方法
JP2017562464A JP6545829B2 (ja) 2016-01-18 2016-12-07 撮像装置、及び、画像データ生成方法
US16/013,942 US10691002B2 (en) 2016-01-18 2018-06-21 Imaging device and image data generation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-007049 2016-01-18
JP2016007049 2016-01-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/013,942 Continuation US10691002B2 (en) 2016-01-18 2018-06-21 Imaging device and image data generation method

Publications (1)

Publication Number Publication Date
WO2017126242A1 true WO2017126242A1 (ja) 2017-07-27

Family

ID=59362631

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/086289 WO2017126242A1 (ja) 2016-01-18 2016-12-07 撮像装置、及び、画像データ生成方法

Country Status (5)

Country Link
US (1) US10691002B2 (ja)
EP (1) EP3407592B1 (ja)
JP (1) JP6545829B2 (ja)
CN (1) CN108432233B (ja)
WO (1) WO2017126242A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112805992B (zh) * 2018-10-03 2024-04-23 富士胶片株式会社 摄像装置
CN113038043B (zh) * 2021-03-25 2021-12-03 无锡物联网创新中心有限公司 一种传感器阵列电串扰消除方法
CN114650373A (zh) * 2022-03-21 2022-06-21 维沃移动通信有限公司 成像方法及装置、图像传感器、成像设备和电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013018471A1 (ja) 2011-07-29 2013-02-07 富士フイルム株式会社 撮像装置
WO2013027488A1 (ja) * 2011-08-24 2013-02-28 富士フイルム株式会社 撮像装置
WO2013146506A1 (ja) 2012-03-27 2013-10-03 富士フイルム株式会社 撮像装置及び撮像方法
JP2014178190A (ja) 2013-03-14 2014-09-25 Ricoh Co Ltd ステレオカメラ
JP2015046691A (ja) * 2013-08-27 2015-03-12 富士フイルム株式会社 撮像装置
WO2015093332A1 (ja) * 2013-12-20 2015-06-25 富士フイルム株式会社 撮像モジュール及び撮像装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4688766B2 (ja) * 2006-09-21 2011-05-25 パナソニック株式会社 固体撮像装置、その駆動方法およびカメラ
JP5269425B2 (ja) * 2008-01-29 2013-08-21 株式会社東芝 固体撮像素子および固体撮像装置
JP4706882B2 (ja) * 2009-02-05 2011-06-22 ソニー株式会社 撮像装置
EP2624540B1 (en) * 2010-10-01 2016-11-09 FUJIFILM Corporation Imaging device
JP5525107B2 (ja) * 2011-08-16 2014-06-18 富士フイルム株式会社 撮像装置
JP5623356B2 (ja) * 2011-08-29 2014-11-12 キヤノン株式会社 撮像装置
JP2013081087A (ja) * 2011-10-04 2013-05-02 Sony Corp 撮像装置
US20150130986A1 (en) * 2012-04-25 2015-05-14 Nikon Corporation Focus detection device, focus adjustment device and camera
CN102636473A (zh) * 2012-04-27 2012-08-15 四川大学 激发光偏离共线型光学系统检测装置及其检测方法
WO2014024745A1 (ja) * 2012-08-06 2014-02-13 富士フイルム株式会社 撮像装置
JP5886793B2 (ja) * 2013-06-11 2016-03-16 浜松ホトニクス株式会社 固体撮像装置
JP6286678B2 (ja) * 2013-07-12 2018-03-07 パナソニックIpマネジメント株式会社 撮像装置
WO2015182488A1 (ja) * 2014-05-26 2015-12-03 コニカミノルタ株式会社 複眼撮像光学系及び複眼撮像装置
US9438778B2 (en) * 2014-08-08 2016-09-06 Industrial Technology Research Institute Image pickup device and light field image pickup lens
KR102219784B1 (ko) * 2014-12-15 2021-02-24 에스케이하이닉스 주식회사 컬러 필터 어레이 및 이를 구비한 이미지 센서
JP2016127389A (ja) * 2014-12-26 2016-07-11 キヤノン株式会社 画像処理装置およびその制御方法
TWI552603B (zh) * 2015-05-19 2016-10-01 晶相光電股份有限公司 影像校正系統以及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013018471A1 (ja) 2011-07-29 2013-02-07 富士フイルム株式会社 撮像装置
WO2013027488A1 (ja) * 2011-08-24 2013-02-28 富士フイルム株式会社 撮像装置
WO2013146506A1 (ja) 2012-03-27 2013-10-03 富士フイルム株式会社 撮像装置及び撮像方法
JP2014178190A (ja) 2013-03-14 2014-09-25 Ricoh Co Ltd ステレオカメラ
JP2015046691A (ja) * 2013-08-27 2015-03-12 富士フイルム株式会社 撮像装置
WO2015093332A1 (ja) * 2013-12-20 2015-06-25 富士フイルム株式会社 撮像モジュール及び撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3407592A4

Also Published As

Publication number Publication date
EP3407592A1 (en) 2018-11-28
US20180299754A1 (en) 2018-10-18
JPWO2017126242A1 (ja) 2018-10-25
EP3407592B1 (en) 2020-01-29
CN108432233A (zh) 2018-08-21
CN108432233B (zh) 2020-08-18
US10691002B2 (en) 2020-06-23
EP3407592A4 (en) 2018-12-12
JP6545829B2 (ja) 2019-07-17

Similar Documents

Publication Publication Date Title
US9681057B2 (en) Exposure timing manipulation in a multi-lens camera
JP5572765B2 (ja) 固体撮像素子、撮像装置、及び合焦制御方法
CN204697179U (zh) 具有像素阵列的图像传感器
CN102369721B (zh) 具有合成全色图像的彩色滤光器阵列(cfa)图像
JP5619294B2 (ja) 撮像装置及び合焦用パラメータ値算出方法
CN105306786A (zh) 用于具有相位检测像素的图像传感器的图像处理方法
CN107431755B (zh) 图像处理设备、摄像设备、图像处理方法和存储介质
US20050275904A1 (en) Image capturing apparatus and program
US10691002B2 (en) Imaging device and image data generation method
CN106412533B (zh) 数字成像装置、数字成像设备和数字成像方法
US10341580B2 (en) Image processing device configured to correct an image so as to decrease output data
US10594964B2 (en) Imaging device and image data generation method
US20090102939A1 (en) Apparatus and method for simultaneously acquiring multiple images with a given camera
JP6929511B2 (ja) 撮像素子、及び、撮像装置
WO2018181612A1 (ja) 電子機器
JP7150785B2 (ja) 画像処理装置、撮像装置、画像処理方法、および、記憶媒体
WO2018181615A1 (ja) 電子機器
WO2023050040A1 (zh) 一种摄像头模组及电子设备
WO2018181611A1 (ja) 電子機器
WO2018181614A1 (ja) 電子機器
WO2018181613A1 (ja) 電子機器
WO2018181610A1 (ja) 電子機器
JP2016046773A (ja) 撮像装置
CN117528239A (zh) 摄像模组、对焦方法、装置、电子设备及介质
JP2015128226A (ja) 撮像装置、その制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16886481

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2017562464

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE