WO2013168505A1 - 撮像装置及び信号補正方法 - Google Patents
撮像装置及び信号補正方法 Download PDFInfo
- Publication number
- WO2013168505A1 WO2013168505A1 PCT/JP2013/060736 JP2013060736W WO2013168505A1 WO 2013168505 A1 WO2013168505 A1 WO 2013168505A1 JP 2013060736 W JP2013060736 W JP 2013060736W WO 2013168505 A1 WO2013168505 A1 WO 2013168505A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- imaging
- pixel cell
- captured image
- flare
- ghost
- Prior art date
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 167
- 238000012937 correction Methods 0.000 title claims description 150
- 238000000034 method Methods 0.000 title claims description 86
- 238000012545 processing Methods 0.000 claims abstract description 151
- 238000001514 detection method Methods 0.000 claims abstract description 123
- 230000008569 process Effects 0.000 claims description 51
- 238000003860 storage Methods 0.000 claims description 17
- 210000001747 pupil Anatomy 0.000 claims description 8
- 230000006870 function Effects 0.000 description 18
- 238000004891 communication Methods 0.000 description 16
- 230000000875 corresponding effect Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 230000035945 sensitivity Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/34—Systems for automatic generation of focusing signals using different areas in a pupil plane
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/76—Circuitry for compensating brightness variation in the scene by influencing the image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/843—Demosaicing, e.g. interpolating colour pixel values
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/282—Autofocusing of zoom lenses
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
Definitions
- the present invention relates to an imaging apparatus and a signal correction method.
- an imaging device In recent years, with the increase in the resolution of solid-state imaging devices such as CCD (Charge Coupled Device) image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors, digital still cameras, digital video cameras, mobile phones, PDA (Personal DigitalAssessment).
- CCD Charge Coupled Device
- CMOS Complementary Metal Oxide Semiconductor
- a contrast AF (Auto Focus) method and a phase difference AF method as a focus control method for detecting a distance to a main subject and focusing on the subject. Since the phase difference AF method can detect the in-focus position at a higher speed and with higher accuracy than the contrast AF method, it is widely used in various imaging apparatuses.
- a pair of pixel cells for focus detection whose light shielding film openings are decentered in opposite directions are discretely distributed over the entire imaging area. 1 is used (see Patent Document 1).
- This pixel cell for focus detection has an area of the light shielding film opening smaller than that of other normal pixel cells, so that the output signal is insufficient for use as a captured image signal. Therefore, it becomes necessary to correct the output signal of the pixel cell for focus detection.
- Patent Document 1 discloses an interpolation correction process for generating an output signal of a pixel cell for focus detection using an output signal of a normal pixel cell around the output signal, and gain-amplifying the output signal of the pixel cell for focus detection. And a method of performing gain correction processing to be corrected in accordance with variations in output signals of normal pixel cells around focus detection pixel cells.
- Patent Documents 2 and 3 are known as techniques for preventing deterioration of phase difference AF accuracy due to light that generates such ghosts and flares.
- Patent Document 2 determines whether or not ghost or flare has occurred. When it is determined that ghost or flare has occurred, the output signal of the focus detection pixel cell is corrected to improve phase difference AF accuracy. Discloses a method of making them.
- Patent Document 3 detects the position and light amount of a photographic light source from the output of a solid-state imaging device, and ghosts and flares according to the position and light amount information of the photographic light source and the position of the photographic light source stored in the storage unit in advance.
- a method for improving the phase difference AF accuracy by calculating a correction value from information on light that generates light and correcting the light amount distribution related to the subject image output from the solid-state imaging device using the correction value is disclosed. .
- the above-described gain correction processing multiplies the output signal of the focus detection pixel cell by the gain for reducing the difference between the sensitivity of the focus detection pixel cell and the sensitivity of the surrounding normal pixel cells.
- the correction is performed by
- the difference between the sensitivity of the focus detection pixel cell and the sensitivity of the normal pixel cell is larger in the area where the ghost or flare occurs than in the area where no ghost or flare occurs. Become. For this reason, for example, if the gain correction processing is performed on all focus detection pixel cells, a region with a large correction error and a region with a small correction error are mixed in the entire image, and the image quality may be deteriorated.
- Patent Document 1 a correction method is determined according to variations in output signals of normal pixel cells around a focus detection pixel cell, and an improvement in image quality deterioration when a ghost or flare occurs is considered. Not.
- Patent Documents 2 and 3 correct the output signal of the focus detection pixel cell in accordance with the presence or absence of ghost or flare, but only correct the output signal for phase difference AF. However, it does not disclose how to use the output signal of the pixel cell for focus detection as a captured image signal.
- the present invention has been made in view of the above circumstances, and ghosts and flares have occurred in the quality of a captured image obtained by imaging with an imaging element including a pixel cell for focus detection and a pixel cell for imaging.
- An object of the present invention is to provide an imaging apparatus and a signal correction method that do not decrease even in the case.
- the imaging device of the present invention includes a plurality of first pixel cells for imaging and a plurality of pairs of a plurality of types of second pixel cells for focus detection that receive light that has passed through different pupil regions of the photographing lens.
- the output signal of the second pixel cell included in the captured image signal, the output signal of the second pixel cell is a plurality of the first pixels around the second pixel cell included in the captured image signal.
- a processing unit and an image data generation unit that processes the captured image signal after the correction processing by the correction processing unit to generate captured image data.
- the correction processing unit is based on a determination result by the determination unit. Then, it is determined whether to execute the interpolation correction process or the gain correction process on the output signal of the second pixel cell.
- the signal correction method of the present invention includes a plurality of first pixel cells for imaging and a plurality of types of second pixel cells for focus detection that receive light that has passed through different pupil regions of the imaging lens, which are two-dimensionally arranged.
- the quality of a captured image obtained by imaging with an imaging device including a focus detection pixel cell and an imaging pixel cell does not deteriorate even when a ghost or flare occurs.
- a signal correction method can be provided.
- FIG. 5 is a diagram in which 5 ⁇ 5 pixel cells centered on the focus detection pixel cell 31L are extracted from the solid-state imaging device 5 shown in FIG. 1 is a schematic plan view of a solid-state imaging device 5 in the digital camera shown in FIG.
- the figure for demonstrating the difference in the sensitivity by the position of the pixel for phase difference detection The figure which shows an example of the gain table produced
- the figure for demonstrating the modification of the processing content of the digital signal processing part 17 shown in FIG. The figure for demonstrating the modification of the processing content of the digital signal processing part 17 shown in FIG.
- FIG. 1 is a diagram showing a schematic configuration of a digital camera as an example of an imaging apparatus for explaining an embodiment of the present invention.
- the imaging system of the digital camera shown in FIG. 1 includes a photographic optical system having a photographic lens 1 and a diaphragm 2 including lenses such as a focus lens and a zoom lens, a solid-state imaging device 5 such as a CCD image sensor and a CMOS image sensor, An infrared cut filter (IRCUT) 3 and an optical low-pass filter (OLPF) 4 provided between the two are provided.
- a photographic optical system having a photographic lens 1 and a diaphragm 2 including lenses such as a focus lens and a zoom lens, a solid-state imaging device 5 such as a CCD image sensor and a CMOS image sensor, An infrared cut filter (IRCUT) 3 and an optical low-pass filter (OLPF) 4 provided between the two are provided.
- IRCUT infrared cut filter
- OLPF optical low-pass filter
- the solid-state imaging device 5 has a configuration in which a plurality of imaging pixel cells and two types of focus detection pixel cells that respectively receive a pair of light beams that have passed through different pupil regions of the imaging optical system are two-dimensionally arranged. The image formed by the photographing lens 1 is received and a picked-up image signal is output, and a pair of focus detection signals corresponding to the pair of light beams are output.
- the system control unit 11 that controls the entire electric control system of the digital camera controls the flash light emitting unit 12 and the light receiving unit 13. Further, the system control unit 11 controls the lens driving unit 8 to adjust the position of the focus lens included in the photographing lens 1 or adjust the position of the zoom lens included in the photographing lens 1. Further, the system control unit 11 adjusts the exposure amount by controlling the aperture amount of the aperture 2 via the aperture drive unit 9.
- system control unit 11 drives the solid-state imaging device 5 via the imaging device driving unit 10 and outputs a subject image captured through the photographing lens 1 as a captured image signal.
- An instruction signal from the user is input to the system control unit 11 through the operation unit 14.
- the electrical control system of the digital camera further includes an analog signal processing unit 6 that performs analog signal processing such as correlated double sampling processing connected to the output of the solid-state imaging device 5, and RGB output from the analog signal processing unit 6. And an A / D conversion circuit 7 for converting the color signal into a digital signal.
- the analog signal processing unit 6 and the A / D conversion circuit 7 are controlled by the system control unit 11.
- the electric control system of the digital camera performs various image processing on the main memory 16, the memory control unit 15 connected to the main memory 16, and the captured image signal obtained by imaging with the solid-state image sensor 5.
- a digital signal processing unit 17 for generating captured image data a compression / decompression processing unit 18 for compressing the captured image data generated by the digital signal processing unit 17 into a JPEG format or expanding compressed image data, and solid-state imaging
- a focus detection unit 19 that calculates the defocus amount of the photographing lens 1 based on the phase difference between a pair of focus detection signals output from the focus detection pixel cell of the element 5 and an external to which a detachable recording medium 21 is connected.
- a memory control unit 20 and a display control unit 22 to which a display unit 23 mounted on the back of the camera or the like is connected are provided.
- the memory control unit 15, digital signal processing unit 17, compression / decompression processing unit 18, focus detection unit 19, external memory control unit 20, and display control unit 22 are mutually connected by a control bus 24 and a data bus 25, and system control is performed. It is controlled by a command from the unit 11.
- FIG. 2 is a schematic plan view showing a schematic configuration of the solid-state imaging device 5 mounted on the digital camera shown in FIG.
- FIG. 2 is a diagram when the solid-state imaging device 5 is viewed from the subject side.
- the solid-state imaging device 5 is provided with focus detection pixel cells scattered all over or part of an imaging region where the pixel cells are two-dimensionally arranged.
- FIG. 2 shows an enlarged view of a portion of the imaging area where the focus detection pixel cell is provided.
- the solid-state imaging device 5 includes a large number of pixel cells (each square in the drawing) arranged in a two-dimensional manner (in the example of FIG. 2, a square lattice shape) in the row direction X and the column direction Y orthogonal thereto. .
- a large number of pixel cells are arranged such that pixel cell rows composed of a plurality of pixel cells arranged at a constant pitch in the row direction X are arranged at a constant pitch in the column direction Y.
- the many pixel cells include an imaging pixel cell 30, a focus detection pixel cell 31L, and a focus detection pixel cell 31R.
- Each pixel cell includes a photoelectric conversion unit that receives light and converts it into charges.
- the imaging pixel cell 30 receives both of a pair of lights that have passed through different pupil regions of the photographing lens 1 shown in FIG. 1 (for example, light that has passed through the left side and light that has passed through the right side with respect to the main axis of the photographing lens 1). This is a pixel cell.
- the focus detection pixel cell 31L is a pixel cell that receives one of the pair of lights. Compared with the imaging pixel cell 30, the opening (region not hatched) of the photoelectric conversion unit is eccentric to the left side. It has a configuration.
- the focus detection pixel cell 31 ⁇ / b> R is a pixel cell that receives the other of the pair of lights. Compared with the imaging pixel cell 30, the opening of the photoelectric conversion unit (a region not hatched) is decentered to the right side. It has a configuration.
- the configuration of the focus detection pixel cell is not limited to that described above, and a well-known configuration can be employed.
- the pair of image signals having a phase difference in the row direction X are detected by the focus detection pixel cell 31R and the focus detection pixel cell 31L.
- the eccentric direction of the light shielding film opening is defined as the column direction Y.
- a pair of image signals having a phase difference in the column direction Y may be detected.
- a color filter is mounted above the photoelectric conversion unit included in each pixel cell, and the array of the color filter is a Bayer array in the whole of many pixel cells constituting the solid-state imaging device 5.
- R is written in the pixel cell on which the color filter that transmits red (R) light is mounted.
- G is marked on the pixel cell on which the color filter that transmits green (G) light is mounted.
- B is marked on the pixel cell on which the color filter that transmits blue (B) light is mounted.
- the solid-state imaging device 5 is equipped with a color filter, but may be one without a color filter.
- a microlens for condensing light on the photoelectric conversion unit is provided above the photoelectric conversion unit included in each pixel cell (above when a color filter is provided).
- the arrangement position is scaled in order to align the sensitivity of the imaging pixel cells or the focus detection pixel cells in the entire solid-state imaging device 5.
- the scaling of the arrangement position is a pixel cell in which the center position of the microlens included in each pixel cell is moved from the center of the solid-state imaging device 5 to the end in order to efficiently collect light incident from an oblique direction.
- the center position of the solid-state image sensor 5 is shifted from the center position of the solid-state image sensor 5, and the amount of shift increases from the center of the solid-state image sensor 5 toward the end.
- the focus detection pixel cells 31L are arranged at intervals of three pixel cells in the third and ninth pixel cell rows from the top of FIG. 2 at the positions of the pixel cells on which color filters that transmit green (G) light are mounted. ing.
- the focus difference detection pixel cells 31R are arranged at intervals of three pixel cells in the fourth and tenth pixel cell rows from the top of FIG. 2 at the positions of the pixel cells on which color filters that transmit green (G) light are mounted. Has been.
- the focus detection unit 19 shown in FIG. 1 uses a group of signals read from the focus detection pixel cell 31L and the focus detection pixel cell 31R and uses the signal group read out from the focus detection pixel cell 31R. And its direction, that is, the defocus amount is calculated.
- the system control unit 11 illustrated in FIG. 1 performs focus adjustment by controlling the position of the focus lens included in the imaging lens 1 based on the defocus amount calculated by the focus detection unit 19.
- the system control unit 11 causes the solid-state imaging device 5 to perform imaging, and a captured image signal (from each pixel cell) output from the solid-state imaging device 5 by this imaging.
- a set of output signals to be output) is taken into the digital signal processing unit 17.
- the digital signal processing unit 17 corrects the output signal of the focus detection pixel cell included in the captured image signal, processes the corrected captured image signal, and generates captured image data.
- the digital signal processing unit 17 corrects the output signal of the focus detection pixel cell by performing signal interpolation using the output signals of the imaging pixel cells around the focus detection pixel cell with respect to the focus detection pixel cell. Either the interpolation correction process to be performed or the gain correction process to correct the output signal of the focus detection pixel cell by multiplying the output signal of the focus detection pixel cell by a gain and amplifying the result.
- FIG. 3 is a diagram in which 5 ⁇ 5 pixel cells centered on the focus detection pixel cell 31L are extracted from the solid-state imaging device 5 shown in FIG.
- the digital signal processing unit 17 corrects the focus detection pixel cell 31L illustrated in FIG. 3 by the interpolation correction process, for example, the digital signal processing unit 17 outputs the same color light as the focus detection pixel cell 31L around the focus detection pixel cell 31L.
- the output signal obtained by averaging the output signals of the imaging pixel cells 30 surrounded by the circles to be detected is replaced with the output signal of the focus detection pixel cell 31L.
- the digital signal processing unit 17 corrects the focus detection pixel cell 31L shown in FIG. 3 by the gain correction process, for example, the digital signal processing unit 17 has the same color as the focus detection pixel cell 31L around the focus detection pixel cell 31L.
- a gain for bringing the output signal of the focus detection pixel cell 31L closer to the average value of the output signal of the imaging pixel cell 30 surrounded by circles for detecting light is obtained, and the output signal of the focus detection pixel cell 31L is obtained. Multiply by the gain.
- the digital signal processing unit 17 uses the captured image signal to determine whether or not the captured image signal includes a region that is affected by light that is unnecessary (noise) for an image such as a ghost or flare. . Then, the digital signal processing unit 17 determines, based on the determination result, correction processing to be performed on the focus detection pixel cell as either interpolation correction processing or gain correction processing.
- FIG. 4 is a schematic plan view showing the overall configuration of the solid-state imaging device 5 shown in FIG.
- the focus detection pixel cells shown in FIG. 2 are discretely provided in a region A in the center of the solid-state imaging device 5. In the area other than the area A, only the imaging pixel cell 30 is arranged.
- the area A is divided into 6 ⁇ 6 blocks.
- the region A is composed of 6 columns (3L, 2L, 1L, 1R, 2R, 3R in order from the left) and 6 rows (3U, 2U, 1U, 1B, 2B, 3B in order from the top). There is one block at the position where each row and each column intersect.
- the digital signal processing unit 17 uses the captured image signal to calculate a gain value to be used when correcting the output signal of the focus detection pixel cell included therein by the gain correction processing.
- the digital signal processing unit 17 calculates the average value AvS of the output signal of the imaging pixel cell 30 in the arbitrary block of FIG. 4 and the average value AvL of the output signal of the focus detection pixel cell 31L in the block. Then, AvS / AvL is calculated as a gain value corresponding to the focus detection pixel cell 31L in the block.
- the digital signal processing unit 17 calculates the average value AvS of the output signal of the imaging pixel cell 30 in the arbitrary block of FIG. 4 and the average value AvR of the output signal of the focus detection pixel cell 31R in the block. Then, AvS / AvR is calculated as a gain value corresponding to the focus detection pixel cell 31R in the block.
- 5 and 6 are diagrams showing examples of gain values corresponding to the focus detection pixel cells 31R in the 36 blocks shown in FIG.
- FIG. 5 is an example of the gain table when the captured image signal is not affected by at least one of ghost and flare.
- FIG. 6 is an example of a gain table when the captured image signal is affected by a ghost.
- FIG. 6 shows a gain table obtained from the picked-up image signal when the cause light of the ghost is incident in columns 3L, 2L, and 3R in FIG.
- the line connecting the gain values corresponding to the six blocks in the same row has a substantially straight shape that rises to the right. Also, the gain value width (difference between the minimum value and the maximum value) corresponding to the six blocks in the same column is small. The reason why the line connecting the gain values has an upwardly rising shape is as follows.
- the opening of the phase difference detection pixel 31R is eccentric to the right side in FIG. For this reason, as shown in FIG. 7, half of the light passing through the left side of the photographing lens 1 enters the opening of the phase difference detection pixel 31 ⁇ / b> R at the left end of the solid-state imaging device 5, and the right side of the photographing lens 1. The light that passes through does not enter. On the other hand, half of the light that has passed through the right side of the photographing lens 1 enters the opening of the phase difference detection pixel 31R at the right end of the solid-state imaging device 5, and all the light that has passed through the left side of the photographing lens 1 enters. .
- the light that has passed through the left side of the photographic lens 1 enters the opening of the phase difference detection pixel 31 ⁇ / b> R at the center of the solid-state imaging device 5, and the light that has passed through the right side of the photographic lens 1 does not enter.
- the sensitivity of the phase difference detection pixel 31R increases from the left end to the right end of the solid-state imaging device 5. For this reason, the gain value also increases as it goes from the column 3L to the column 3R.
- the generated gain table changes depending on the presence or absence of at least one of ghost and flare.
- the digital signal processing unit 17 determines the presence or absence of at least one of ghost and flare using the generated gain table.
- FIG. 8 is a diagram showing an adjacent gain value difference table generated from the gain table shown in FIG.
- FIG. 9 is a diagram showing an adjacent gain value difference table generated from the gain table shown in FIG.
- the gain value corresponding to an arbitrary block and the direction in which the pair of image signals detected by the focus detection pixel cells 31R and 31L are shifted with respect to that block is obtained by calculating a difference from a gain value corresponding to a block adjacent in the direction X (rightward direction).
- the notation “**-##” indicates the difference between the gain values of the blocks in the same row of the column ** and the column ## adjacent to the column ** in the right direction. The value obtained by subtracting the gain value of the block in the column ** from the gain value of the block).
- Each numerical value in the adjacent gain value difference table shown in FIGS. 8 and 9 indicates the degree of fluctuation of the gain value in the region A.
- the degree of this fluctuation is small as shown in FIG. 5, and when ghost has occurred, the degree of this fluctuation is as shown in FIG. growing.
- the digital signal processing unit 17 first calculates the difference between the maximum value and the minimum value among the numerical values in the adjacent gain value difference table.
- the maximum value is 245 and the minimum value is ⁇ 67, so the difference between them is 312.
- the threshold value of the difference between the maximum value and the minimum value among the numerical values in the adjacent gain value difference table is set to 20
- the captured image signal that is the generation source of the gain table shown in FIG. 5 is at least ghost or flare. It is determined that there is no area affected by one of the influences, and it is determined that the captured image signal that is the generation source of the gain table shown in FIG. 6 has an area affected by at least one of ghost and flare.
- the threshold value should be determined to an appropriate value for each digital camera based on the result of this experiment. Can do.
- the digital signal processing unit 17 may determine the presence / absence of at least one of ghost and flare as follows.
- the digital signal processing unit 17 outputs the captured image signal that is the generation source of the gain table. Determines that there is no area affected by at least one of ghost and flare.
- the amount of calculation can be reduced, so that it is possible to reduce power consumption and speed up correction processing.
- the determination method of the presence or absence of at least one of ghost and flare based on the difference between the maximum value and the minimum value, and the difference between the maximum value and the minimum value of the same column in the gain table And determining whether or not there is at least one of ghost and flare, and determining that there is a region affected by at least one of ghost and flare in both of the two determinations, and in the captured image signal ghost or flare It may be finally determined that there is a region affected by at least one of the above.
- by combining the two determination methods it is possible to improve the determination accuracy of the presence or absence of at least one of ghost and flare.
- FIG. 10 is a flowchart for explaining the operation when correcting the output signals of all focus detection pixel cells included in the captured image signal output from the solid-state image sensor 5 in the digital camera shown in FIG.
- the digital signal processing unit 17 calculates the gain table described above using the captured image signal, and the gain table is calculated. Using it, it is determined whether or not there is a region affected by at least one of ghost and flare in the captured image signal (step S1).
- step S1 When it is determined that there is a region affected by at least one of ghost or flare in the captured image signal (step S1: YES), the digital signal processing unit 17 is included in the captured image signal output from the solid-state image sensor 5.
- the output signals of all the focus detection pixel cells to be corrected are corrected by the interpolation correction process (step S7), and the correction process is terminated.
- step S1 When it is determined that there is no region affected by at least one of ghost and flare in the captured image signal (step S1: NO), the digital signal processing unit 17 performs the number n of focus detection pixel cells to be corrected. (The initial value is 0) is updated to n + 1 (step S2).
- the digital signal processing unit 17 has a higher correction accuracy when the interpolation correction process is performed or a correction accuracy when the gain correction process is performed on the output signal of the focus detection pixel cell to be corrected. Is determined (step S3).
- the digital signal processing unit 17 uses the output signal of the imaging pixel cell around the focus detection pixel cell to be corrected, and there is a subject edge or a high-frequency pattern around the focus detection pixel cell. It is determined whether or not.
- the digital signal processing unit 17 determines that there is an edge or a high-frequency pattern, the digital signal processing unit 17 determines that the correction accuracy is higher in the gain correction process, and when it determines that there is no edge or high-frequency pattern, interpolation is performed. It is determined that the correction process has higher correction accuracy.
- the digital signal processing unit 17 when the gain value on the gain table corresponding to the focus detection pixel cell to be corrected is larger than a predetermined value, the digital signal processing unit 17 generates a large amount of noise when the gain correction process is performed. Therefore, it is determined that the interpolation correction process has higher correction accuracy. Note that a well-known method can be used to determine the correction accuracy.
- step S3 NO
- step S4 the digital signal processing unit 17 performs correction based on the gain table generated at the time of the determination in step S1.
- the output signal of the focus detection pixel cell is corrected by gain correction processing (step S4).
- step S3 when the digital signal processing unit 17 determines that the correction accuracy when the interpolation correction process is performed is higher (step S3: YES), the digital signal processing unit 17 performs the interpolation correction on the output signal of the focus detection pixel cell to be corrected. Correction is performed by processing (step S5).
- step S4 and step S5 the digital signal processing unit 17 has the number n of focus detection pixel cells to be corrected reaches the total number k of output signals of focus detection pixel cells included in the captured image signal. If so (step S6: YES), the process ends. If not reached (step S6: NO), the process returns to step S2.
- the digital camera shown in FIG. 1 determines the presence / absence of an area affected by at least one of ghost and flare in the captured image signal, and the area affected by at least one of ghost and flare is determined. If it is determined that there is an area that is affected by at least one of ghost or flare, the output signals of all focus detection pixel cells are corrected by interpolation correction processing. The output signal of the detection pixel cell is corrected by a correction process with relatively high correction accuracy.
- the output signal of each focus detection pixel cell is corrected by the interpolation correction process. Therefore, in the captured image signal after correction, at least one of ghost or flare Therefore, it is possible to prevent the image quality from greatly changing between the area affected by the image quality and the area not affected by at least one of ghost and flare, and the image quality can be improved.
- step S2 the processing from step S2 to step S6 is omitted, and when step S1: NO, the digital signal processing unit 17 performs interpolation correction processing or gain correction for all focus detection pixel cells. Processing may be performed.
- the digital signal processing unit 17 when the digital signal processing unit 17 exceeds the predetermined number in the gain table, the number of gain values exceeding a threshold, which is a value that causes noise after correction to increase and image quality to deteriorate when the value exceeds this value. Interpolation correction processing is performed for all focus detection pixel cells.
- the digital signal processing unit 17 performs gain correction processing on all focus detection pixel cells. That is, the digital signal processing unit 17 selects and executes a correction process that reduces the correction error due to the correction of the entire captured image signal.
- the method for determining the presence / absence of an area affected by at least one of ghost and flare is not limited to the above.
- the methods described in Patent Documents 2 and 3 may be adopted.
- a reference block gain that is a gain value for each of the blocks calculated using a reference captured image signal obtained by capturing a reference image with the solid-state imaging device 5 under a condition in which at least one of ghost or flare does not occur.
- the value is stored in the main memory 16 in advance.
- the digital signal processing unit 17 calculates the difference between the reference block gain value and the imaging block gain value that is the gain value for each block calculated using the captured image signal obtained by imaging the subject with the solid-state imaging device 5. A reference-imaging gain value difference is calculated.
- the digital signal processing unit 17 calculates a difference between the reference-imaging gain value differences calculated for two adjacent blocks in the shift direction of the image signal detected by the focus detection pixel cell pair, and the maximum of the difference is calculated. When the difference between the value and the minimum value exceeds a predetermined value, it is determined that there is a region affected by at least one of ghost and flare in the captured image signal.
- FIG. 11 is a diagram illustrating a result of calculating gain values for six blocks in an arbitrary row of the area A illustrated in FIG.
- a reference image for example, a single color solid image such as a single color image, a white color image, a single color image that is the same color as the detection color of the phase difference pixel
- a gain value (a gain of the reference image) calculated using the reference captured image signal and a gain value (a gain of the captured image) calculated using the captured image signal obtained by imaging the subject with the solid-state imaging device 5 are shown. ing.
- FIG. 12 is a table showing the gain of the captured image shown in FIG. 11, and FIG. 12B of FIG. 12 is a table showing the gain of the reference image shown in FIG. 12 is a diagram showing a value (reference-imaging gain value difference) obtained by subtracting the gain value of each block shown in FIG. 12B from the gain value of each block shown in FIG. 12A.
- the table shown in FIG. 12B is stored in the main memory 16 in advance.
- the digital signal processing unit 17 calculates FIG12C data from FIG12A data and FIG12B data. Then, the digital signal processing unit 17 compares the reference-imaging gain value difference corresponding to an arbitrary block and the shift direction (solid-state imaging) of the pair of image signals detected by the focus detection pixel cells 31R and 31L with respect to that block. In the case of the element 5, the difference between the reference and the imaging gain value difference of the block adjacent in the right direction in the row direction X is calculated, and the table shown in FIG. 12D is generated.
- the notation “**-##” indicates the difference between the reference-imaging gain value difference of the blocks in the same row of the column ** and the column ## adjacent to the column ** in the right direction ( The value obtained by subtracting the reference-imaging gain value difference of the block ** from the reference-imaging gain value difference of the column ## block) is shown.
- the digital signal processing unit 17 generates the data shown in FIG. 12D for each row shown in FIG. 4, and calculates the difference between the maximum value and the minimum value in the generated data. Then, when the difference exceeds a predetermined threshold, the digital signal processing unit 17 determines that there is a region affected by at least one of ghost and flare, and the difference is equal to or less than a predetermined value. In this case, it is determined that there is no region affected by at least one of ghost and flare.
- the ghost or flare is determined.
- the threshold value used for determining the region affected by at least one of the above can be set to a uniform value for all the solid-state imaging devices 5, and the manufacturing cost of the digital camera can be reduced.
- interpolation correction processing is performed only for the area affected by at least one of ghost and flare.
- the image quality can be further improved by performing correction processing with high correction accuracy for other areas.
- the position of the area affected by at least one of ghost and flare is determined as follows.
- the digital signal processing unit 17 is detected by a gain value of an arbitrary block and a pair of focus detection pixel cells in a gain table generated using a captured image signal obtained by capturing an image of a subject with the solid-state image sensor 5. An average value of a difference from a gain value of a block adjacent to the arbitrary block in a direction (column direction Y in FIG. 4) orthogonal to the shift direction of the two image signals is calculated. Then, the output signal of the focus detection pixel cell in the block in which the average value exceeds a predetermined value is determined as a region affected by at least one of ghost and flare.
- the digital signal processing unit 17 calculates the difference between the gain value of each block and the gain value of the block adjacent to the top and bottom of the block (up or down for the block in the end row). The average value of is calculated.
- the digital signal processing unit 17 sets the value 350 obtained by the calculation of ⁇ (800 ⁇ 450) + (800 ⁇ 450) ⁇ / 2 as the value in the block.
- FIG. 13B in FIG. 13 shows the result of performing such calculation for each block.
- the digital signal processing unit 17 sets a threshold value for the data shown in FIG. 13B, determines that a block equal to or higher than this threshold value is affected by at least one of ghost and flare, and is less than this threshold value. It can be determined that the block is not affected by at least one of ghost and flare.
- the hatched block is determined to be a block affected by at least one of ghost and flare.
- a gain table is generated using a reference captured image signal obtained by capturing a reference image under a condition in which at least one of ghost and flare does not occur, and is stored in the main memory 16.
- the digital signal processing unit 17 calculates the gain value of each block of the gain table shown in FIG. 14B generated using the reference captured image signal from the gain value of each block of the gain table shown in FIG. 14A generated using the captured image signal.
- the table shown in FIG. 14C is generated by subtraction.
- the digital signal processing unit 17 determines that a block having a gain value greater than or equal to a predetermined threshold is affected by at least one of ghost and flare, and is less than the threshold. Is determined not to be affected by at least one of ghost and flare.
- a hatched block is determined to be a block affected by at least one of ghost and flare.
- the first determination example and the second determination example it is possible to determine the presence / absence of a region affected by at least one of ghost and flare and the position of the region in the captured image signal.
- the digital signal processing unit 17 determines the presence / absence of a region affected by at least one of ghost and flare in the captured image signal according to the first determination example or the second determination example, and based on at least one of the ghost or flare If it is determined that there is an affected area, the output signal of the focus detection pixel cell included in the area is corrected by interpolation correction processing, and the output of the focus detection pixel cell included in the other area is corrected. The signal is corrected by performing correction processing with higher correction accuracy. Also, when the digital signal processing unit 17 determines that there is no region affected by at least one of ghost and flare, the digital signal processing unit 17 performs the processing after step S2 in FIG.
- FIG. 15 shows an appearance of a smartphone 200 which is an embodiment of the photographing apparatus of the present invention.
- a smartphone 200 shown in FIG. 15 has a flat housing 201, and a display input in which a display panel 202 as a display unit and an operation panel 203 as an input unit are integrated on one surface of the housing 201. Part 204 is provided.
- Such a housing 201 includes a speaker 205, a microphone 206, an operation unit 207, and a camera unit 208.
- the configuration of the housing 201 is not limited thereto, and for example, a configuration in which the display unit and the input unit are independent can be employed, or a configuration having a folding structure and a slide mechanism can be employed.
- FIG. 16 is a block diagram showing a configuration of the smartphone 200 shown in FIG.
- the main components of the smartphone include a wireless communication unit 210, a display input unit 204, a call unit 211, an operation unit 207, a camera unit 208, a storage unit 212, and an external input / output unit. 213, a GPS (Global Positioning System) receiving unit 214, a motion sensor unit 215, a power supply unit 216, and a main control unit 220.
- a wireless communication function for performing mobile wireless communication via a base station device BS (not shown) and a mobile communication network NW (not shown) is provided.
- the wireless communication unit 210 performs wireless communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 220. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.
- the display input unit 204 displays images (still images and moving images), character information, and the like, visually transmits information to the user under the control of the main control unit 220, and detects user operations on the displayed information.
- a so-called touch panel which includes a display panel 202 and an operation panel 203.
- the display panel 202 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
- LCD Liquid Crystal Display
- OELD Organic Electro-Luminescence Display
- the operation panel 203 is a device that is placed so that an image displayed on the display surface of the display panel 202 is visible and detects one or more coordinates operated by a user's finger or stylus.
- a detection signal generated due to the operation is output to the main control unit 220.
- the main control unit 220 detects an operation position (coordinates) on the display panel 202 based on the received detection signal.
- the display panel 202 and the operation panel 203 of the smartphone 200 exemplified as an embodiment of the photographing apparatus of the present invention integrally constitute a display input unit 204.
- the arrangement 203 covers the display panel 202 completely.
- the operation panel 203 may have a function of detecting a user operation even in an area outside the display panel 202.
- the operation panel 203 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 202 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 202. May be included).
- the operation panel 203 may include two sensitive areas of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 201 and the like.
- the position detection method employed in the operation panel 203 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, and the like. You can also
- the call unit 211 includes a speaker 205 and a microphone 206, converts user's voice input through the microphone 206 into voice data that can be processed by the main control unit 220, and outputs the voice data to the main control unit 220. 210 or the audio data received by the external input / output unit 213 is decoded and output from the speaker 205. Further, as shown in FIG. 15, for example, the speaker 205 can be mounted on the same surface as the display input unit 204 and the microphone 206 can be mounted on the side surface of the housing 201.
- the operation unit 207 is a hardware key using a key switch or the like, and receives an instruction from the user.
- the operation unit 207 is mounted on the side surface of the housing 201 of the smartphone 200 and is turned on when pressed with a finger or the like, and is turned off by a restoring force such as a spring when the finger is released. It is a push button type switch.
- the storage unit 212 includes a control program and control data of the main control unit 220, application software, address data that associates the name and telephone number of a communication partner, transmitted / received e-mail data, Web data downloaded by Web browsing, The downloaded content data is stored, and streaming data and the like are temporarily stored.
- the storage unit 212 includes an internal storage unit 217 built in the smartphone and an external storage unit 218 having a removable external memory slot.
- Each of the internal storage unit 217 and the external storage unit 218 constituting the storage unit 212 includes a flash memory type (hard memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), This is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
- a flash memory type hard memory type
- hard disk type hard disk type
- multimedia card micro type multimedia card micro type
- a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
- the external input / output unit 213 serves as an interface with all external devices connected to the smartphone 200, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or a network.
- external devices for example, universal serial bus (USB), IEEE 1394, etc.
- a network for example, Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark) ZigBee) (registered trademark, etc.) for direct or indirect connection.
- an external device connected to the smartphone 200 for example, a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, a memory card (Memory card) connected via a card socket, or a SIM (Subscriber).
- Identity Module Card / UIM (User Identity Module Card) card external audio / video equipment connected via audio / video I / O (Input / Output) terminal, external audio / video equipment connected wirelessly, yes / no
- the external input / output unit 213 transmits data received from such an external device to each component inside the smartphone 200, or allows the data inside the smartphone 200 to be transmitted to the external device. Can do.
- the GPS receiving unit 214 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 220, executes positioning calculation processing based on the received GPS signals, and calculates the latitude of the smartphone 200 Detect the position consisting of longitude and altitude.
- the GPS reception unit 214 can acquire position information from the wireless communication unit 210 or the external input / output unit 213 (for example, a wireless LAN), the GPS reception unit 214 can also detect the position using the position information.
- the motion sensor unit 215 includes, for example, a three-axis acceleration sensor, and detects the physical movement of the smartphone 200 in accordance with an instruction from the main control unit 220. By detecting the physical movement of the smartphone 200, the moving direction and acceleration of the smartphone 200 are detected. The detection result is output to the main control unit 220.
- the power supply unit 216 supplies power stored in a battery (not shown) to each unit of the smartphone 200 in accordance with an instruction from the main control unit 220.
- the main control unit 220 includes a microprocessor, operates according to a control program and control data stored in the storage unit 212, and controls each unit of the smartphone 200 in an integrated manner.
- the main control unit 220 includes a mobile communication control function that controls each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 210.
- the application processing function is realized by the main control unit 220 operating according to the application software stored in the storage unit 212.
- Examples of the application processing function include an infrared communication function for controlling the external input / output unit 213 to perform data communication with the opposite device, an e-mail function for transmitting / receiving e-mails, and a web browsing function for browsing web pages. .
- the main control unit 220 has an image processing function such as displaying video on the display input unit 204 based on image data (still image or moving image data) such as received data or downloaded streaming data.
- the image processing function is a function in which the main control unit 220 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 204.
- the main control unit 220 executes display control for the display panel 202 and operation detection control for detecting a user operation through the operation unit 207 and the operation panel 203.
- the main control unit 220 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
- a software key such as a scroll bar, or a window for creating an e-mail.
- the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 202.
- the main control unit 220 detects a user operation through the operation unit 207 or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 203. Or a display image scroll request through a scroll bar.
- the main control unit 220 causes the operation position with respect to the operation panel 203 to overlap with the display panel 202 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 202.
- a touch panel control function for controlling the sensitive area of the operation panel 203 and the display position of the software key.
- the main control unit 220 can also detect a gesture operation on the operation panel 203 and execute a preset function in accordance with the detected gesture operation.
- Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
- the camera unit 208 includes configurations other than the external memory control unit 20, the recording medium 21, the display control unit 22, the display unit 23, and the operation unit 14 in the digital camera shown in FIG.
- the captured image data generated by the camera unit 208 can be recorded in the storage unit 212 or output through the input / output unit 213 or the wireless communication unit 210.
- the camera unit 208 is mounted on the same surface as the display input unit 204, but the mounting position of the camera unit 208 is not limited to this and may be mounted on the back surface of the display input unit 204. Good.
- the camera unit 208 can be used for various functions of the smartphone 200.
- an image acquired by the camera unit 208 can be displayed on the display panel 202, or the image of the camera unit 208 can be used as one of operation inputs of the operation panel 203.
- the GPS receiving unit 214 detects a position
- the position can be detected with reference to an image from the camera unit 208.
- the optical axis direction of the camera unit 208 of the smartphone 200 can be determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
- the image from the camera unit 208 can also be used in the application software.
- the position information acquired by the GPS receiving unit 214 to the image data of the still image or the moving image, the voice information acquired by the microphone 206 (the text information may be converted into voice information by the main control unit or the like), Posture information and the like acquired by the motion sensor unit 215 can be added and recorded in the recording unit 212, or can be output through the input / output unit 213 and the wireless communication unit 210.
- the digital signal processing unit 17 performs the above-described signal correction processing, thereby enabling high-quality shooting.
- the disclosed imaging device includes a plurality of first pixel cells for imaging and a plurality of pairs of a plurality of types of second pixel cells for focus detection that receive light that has passed through different pupil regions of the photographing lens.
- a determination unit for determining whether or not the captured image signal is affected by at least one of flare or ghost using an imaged image signal obtained by imaging with the image sensor, the imaging device having an image sensor
- the output signal of the second pixel cell included in the captured image signal, the output signal of the second pixel cell is a plurality of the first pixels around the second pixel cell included in the captured image signal.
- Either interpolation correction processing for correcting by signal interpolation using the output signal of the pixel cell or gain correction processing for correcting the output signal of the second pixel cell by multiplying the output signal by the gain value is performed.
- a correction processing unit, and an image data generation unit that processes the captured image signal after the correction processing by the correction processing unit to generate captured image data.
- the correction processing unit is based on a determination result by the determination unit. Thus, it is determined whether to execute the interpolation correction process or the gain correction process on the output signal of the second pixel cell.
- the interpolation correction process is performed on the output signal of the second pixel cell.
- One of the gain correction processes is performed, and if it is determined that at least one of the flare and the ghost is affected, the interpolation correction process is performed on the output signal of the second pixel cell. Is.
- the determination unit determines an area affected by at least one of the flare or ghost in the captured image signal using the captured image signal, and the correction processing unit
- the output signal of the second pixel cell included in a region affected by at least one of flare and ghost in the captured image signal is subjected to the interpolation correction process, and the influence of at least one of flare and ghost in the captured image signal.
- the interpolation correction process or the gain correction process is performed.
- the determination unit divides a region where the second pixel cell is arranged into a plurality of blocks, and the gain correction process is performed on an output signal of the second pixel cell in the block in each block.
- the imaging block gain value which is a gain value necessary for correction by the calculation, is calculated using the captured image signal, and is affected by at least one of the flare or the ghost using the imaging block gain value It is to determine whether.
- the determination unit is an adjacent block that is a difference between the imaging block gain values calculated for the two blocks adjacent to each other in the direction in which the two image signals detected by the second pixel cell are shifted.
- the difference between the maximum value and the minimum value of the gain value difference exceeds a predetermined value, it is determined that at least one of flare and ghost is affected.
- the disclosed imaging device includes a reference block that is a gain value for each of the blocks calculated using a reference captured image signal obtained by capturing a reference image with the image sensor under a condition in which at least one of flare and ghost does not occur
- a storage unit that stores gain values in advance is provided, and the determination unit calculates a reference block gain value difference that is a difference between the reference block gain value and the imaging block gain value, and is detected by the second pixel cell.
- the determination unit divides a region where the second pixel cell is arranged into a plurality of blocks, and the gain correction process is performed on an output signal of the second pixel cell in the block in each block.
- the imaging block gain value which is a gain value necessary for correction by the calculation, is calculated using the captured image signal, and the area affected by at least one of flare and ghost is determined using the imaging block gain value.
- the determination unit determines, for each block, a difference in the imaging block gain value from a block adjacent in a direction orthogonal to a shift direction of two image signals detected by the second pixel cell. An average value is calculated, and a signal corresponding to a block whose average value exceeds a predetermined value is determined as a region affected by at least one of flare and ghost.
- the disclosed imaging device includes a reference block that is a gain value for each of the blocks calculated using a reference captured image signal obtained by capturing a reference image with the image sensor under a condition in which at least one of flare and ghost does not occur
- a storage unit for storing gain values in advance, and the determination unit outputs a signal corresponding to a block in which a difference between the reference block gain value and the imaging block gain value exceeds a predetermined value. It is determined that the area is affected by at least one of them.
- the disclosed signal correction method includes a plurality of first pixel cells for imaging and a plurality of types of second pixel cells for focus detection that receive light that has passed through different pupil regions of the imaging lens, arranged in a two-dimensional manner.
- a signal correction method for correcting a picked-up image signal output from an image pickup device including a plurality of pairs, wherein the picked-up image signal is flare or ghost using a picked-up image signal obtained by picking up an image with the image pickup device A determination step for determining whether or not it is affected by at least one of the above, and for the output signal of the second pixel cell included in the captured image signal, the output signal is included in the captured image signal, Interpolation correction processing is performed by signal interpolation using the output signals of the plurality of first pixel cells around the second pixel cell, and the output signal is multiplied by a gain value to be amplified.
- the quality of a captured image obtained by imaging with an imaging device including a focus detection pixel cell and an imaging pixel cell does not deteriorate even when a ghost or flare occurs.
- a signal correction method can be provided.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
撮像用画素セル30と、焦点検出用画素セル31R,31Lのペアとを含む撮像素子5を有するデジタルカメラのデジタル信号処理部17は、撮像素子5によって撮像して得られる撮像画像信号においてフレア又はゴーストの少なくとも一方の影響を受けている領域の有無を判定し、当該領域があると判定したときには、撮像画像信号に含まれる全ての焦点検出用画素セルの出力信号に対し、当該出力信号を撮像画像信号に含まれる焦点検出用画素セルの周囲にある撮像用前画素セルの出力信号を用いた信号補間により補正する処理を行う。
Description
本発明は、撮像装置及び信号補正方法に関する。
近年、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子の高解像度化に伴い、デジタルスチルカメラ、デジタルビデオカメラ、携帯電話機、PDA(Personal Digital Assistant,携帯情報端末)等の撮影機能を有する情報機器の需要が急増している。なお、以上のような撮像機能を有する情報機器を撮像装置と称する。
ところで、主要な被写体までの距離を検出してその被写体に焦点を合わせる合焦制御方法には、コントラストAF(Auto Focus、自動合焦)方式や位相差AF方式がある。位相差AF方式は、コントラストAF方式に比べて合焦位置の検出を高速,高精度に行うことができるため、様々な撮像装置で多く採用されている。
位相差AF方式により合焦制御を行う撮像装置に搭載される固体撮像素子には、例えば、遮光膜開口が互いに逆方向に偏心した焦点検出用の画素セルのペアを撮像領域の全面に離散的に設けたものが使用される(特許文献1参照)。
この焦点検出用の画素セルは、遮光膜開口の面積がその他の通常の画素セルよりも小さくなっているため、その出力信号を撮像画像信号として使用するには不十分なものとなる。そこで、焦点検出用の画素セルの出力信号を補正する必要が生じる。
特許文献1は、焦点検出用の画素セルの出力信号を、その周りの通常の画素セルの出力信号を用いて補間生成する補間補正処理と、焦点検出用の画素セルの出力信号をゲイン増幅して補正するゲイン補正処理とを、焦点検出用の画素セルの周りの通常の画素セルの出力信号のバラツキに応じて選択して実行する方法を開示している。
特許文献1に記載されている撮像装置では、撮像範囲内やその近傍に強い光源がある場合、光学系を構成するレンズの表面や固体撮像素子のチップ表面等での反射によって、ゴーストやフレアが発生してしまう。そして、ゴーストやフレアを発生させる光が焦点検出用の画素セルに入射されると、高精度なデフォーカス量の算出、つまりはフォーカス制御を行うことができなくなる。
このようなゴーストやフレアを発生させる光による位相差AF精度の低下を防ぐ技術として、特許文献2,3に記載されたものが知られている。
特許文献2は、ゴーストやフレアの発生の有無を判定し、ゴーストやフレアが発生していると判定されたときには、焦点検出用の画素セルの出力信号を補正して、位相差AF精度を向上させる方法を開示している。
特許文献3は、固体撮像素子の出力から、撮影光源の位置及び光量を検出し、該撮影光源の位置及び光量の情報と記憶部にあらかじめ記憶している撮影光源の位置に応じたゴーストやフレアを発生させる光の情報から補正値を算出し、固体撮像素子から出力される被写体像に関する光量分布をこの補正値を用いて補正することで、位相差AF精度を向上させる方法を開示している。
上述したゲイン補正処理は、焦点検出用の画素セルの感度と、その周囲にある通常の画素セルの感度との差を縮小するためのゲインを、焦点検出用の画素セルの出力信号に乗じることで補正を行うものである。
そのため、焦点検出用の画素セルの感度と、その周囲にある通常の画素セルの感度との差が大きいと、その分、大きなゲインを焦点検出用の画素セルの出力信号に乗じる必要がある。大きなゲインを焦点検出用の画素セルの出力信号に乗じると、その出力信号に含まれるノイズも増加するため、補正誤差が大きくなる。
ゴーストやフレアが発生した場合、ゴーストやフレアが発生した領域においては、ゴーストやフレアが発生していない領域と比べて、焦点検出用の画素セルの感度と通常の画素セルの感度の差が大きくなる。このため、例えば全ての焦点検出用の画素セルに対してゲイン補正処理を行うと、画像全体において補正誤差の大きい領域と少ない領域が混在することになり、画質が低下する可能性がある。
つまり、ゴーストやフレアが発生した場合には、ゴーストやフレアが発生した領域における補正誤差と、ゴーストやフレアが発生していない領域における補正誤差との差をいかに小さくするかが、画質向上の点で重要となる。
特許文献1は、焦点検出用の画素セルの周りの通常の画素セルの出力信号のバラツキに応じて補正方法を決めるものであり、ゴーストやフレアが生じた場合の画質低下の改善については考慮されていない。
特許文献2,3は、焦点検出用の画素セルの出力信号そのものをゴーストやフレアの有無に応じて補正するものであるが、位相差AFのために出力信号の補正を行っているだけであり、焦点検出用の画素セルの出力信号を撮像画像信号として使用する場合にどうするかを開示しているものではない。
本発明は、上記事情に鑑みてなされたものであり、焦点検出用の画素セルと撮像用の画素セルを含む撮像素子により撮像して得られる撮像画像の品質を、ゴーストやフレアが生じている場合でも低下させることのない撮像装置及び信号補正方法を提供することを目的とする。
本発明の撮像装置は、撮像用の複数の第一画素セルと、撮影レンズの異なる瞳領域を通過した光を受光する複数種類の焦点検出用の第二画素セルからなる複数のペアとを含む撮像素子を有する撮像装置であって、上記撮像素子によって撮像して得られる撮像画像信号を用いて、上記撮像画像信号がフレア又はゴーストの少なくとも一方の影響を受けているか否かを判定する判定部と、上記撮像画像信号に含まれる上記第二画素セルの出力信号に対し、その第二画素セルの出力信号を上記撮像画像信号に含まれる上記第二画素セルの周囲にある複数の上記第一画素セルの出力信号を用いた信号補間により補正する補間補正処理と、その第二画素セルの出力信号をその出力信号にゲイン値を乗じて補正するゲイン補正処理とのいずれかを行う補正処理部と、上記補正処理部による補正処理後の撮像画像信号を処理して撮像画像データを生成する画像データ生成部と、を備え、上記補正処理部は、上記判定部による判定結果に基づいて、上記第二画素セルの出力信号に対して、上記補間補正処理と上記ゲイン補正処理のどちらを実行するかを決定するものである。
本発明の信号補正方法は、二次元状に配置された、撮像用の複数の第一画素セル及び撮像レンズの異なる瞳領域を通過した光を受光する複数種類の焦点検出用の第二画素セルからなる複数のペアを含む撮像素子から出力される撮像画像信号を補正する信号補正方法であって、上記撮像素子によって撮像して得られる撮像画像信号を用いて、上記撮像画像信号がフレア又はゴーストの少なくとも一方の影響を受けているか否かを判定する判定ステップと、上記撮像画像信号に含まれる上記第二画素セルの出力信号に対し、その出力信号を、上記撮像画像信号に含まれる、上記第二画素セルの周囲にある複数の上記第一画素セルの出力信号を用いた信号補間により補正する補間補正処理と、その出力信号にゲイン値を乗じて増幅することで補正するゲイン補正処理とのいずれかを行う補正処理ステップと、上記補正処理ステップによる補正処理後の上記撮像画像信号を処理して撮像画像データを生成する画像データ生成ステップと、を備え、上記補正処理ステップでは、上記判定ステップの判定結果に基づいて、上記第二画素セルの出力信号に対して、上記補間補正処理と上記ゲイン補正処理のどちらを実行するかを決定するものである。
本発明によれば、焦点検出用の画素セルと撮像用の画素セルを含む撮像素子により撮像して得られる撮像画像の品質を、ゴーストやフレアが生じている場合でも低下させることのない撮像装置及び信号補正方法を提供することができる。
以下、本発明の実施形態について図面を参照して説明する。
図1は、本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図である。
図1に示すデジタルカメラの撮像系は、フォーカスレンズ、ズームレンズ等のレンズを含む撮影レンズ1及び絞り2を有する撮影光学系と、CCDイメージセンサやCMOSイメージセンサ等の固体撮像素子5と、この両者の間に設けられた赤外線カットフィルタ(IRCUT)3と、光学ローパスフィルタ(OLPF)4とを備えている。
固体撮像素子5は、複数の撮像用画素セルと、撮影光学系の異なる瞳領域を通過した一対の光束をそれぞれ受光する2種類の焦点検出用画素セルとを二次元状に配置した構成になっており、撮影レンズ1により結像される像を受光して撮像画像信号を出力すると共に、上記一対の光束に対応する一対の焦点検出信号を出力する。
デジタルカメラの電気制御系全体を統括制御するシステム制御部11は、フラッシュ発光部12及び受光部13を制御する。また、システム制御部11は、レンズ駆動部8を制御して撮影レンズ1に含まれるフォーカスレンズの位置を調整したり、撮影レンズ1に含まれるズームレンズの位置の調整を行ったりする。更に、システム制御部11は、絞り駆動部9を介して絞り2の開口量を制御することにより、露光量の調整を行う。
また、システム制御部11は、撮像素子駆動部10を介して固体撮像素子5を駆動し、撮影レンズ1を通して撮像した被写体像を撮像画像信号として出力させる。システム制御部11には、操作部14を通してユーザからの指示信号が入力される。
デジタルカメラの電気制御系は、更に、固体撮像素子5の出力に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6と、このアナログ信号処理部6から出力されるRGBの色信号をデジタル信号に変換するA/D変換回路7とを備える。アナログ信号処理部6及びA/D変換回路7は、システム制御部11によって制御される。
更に、このデジタルカメラの電気制御系は、メインメモリ16と、メインメモリ16に接続されたメモリ制御部15と、固体撮像素子5によって撮像して得られる撮像画像信号に対し、各種画像処理を行って撮影画像データを生成するデジタル信号処理部17と、デジタル信号処理部17で生成された撮影画像データをJPEG形式に圧縮したり圧縮画像データを伸張したりする圧縮伸張処理部18と、固体撮像素子5の焦点検出用画素セルから出力される対の焦点検出信号の位相差に基づいて撮影レンズ1のデフォーカス量を算出する焦点検出部19と、着脱自在の記録媒体21が接続される外部メモリ制御部20と、カメラ背面等に搭載された表示部23が接続される表示制御部22とを備えている。メモリ制御部15、デジタル信号処理部17、圧縮伸張処理部18、焦点検出部19、外部メモリ制御部20、及び表示制御部22は、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。
図2は、図1に示すデジタルカメラに搭載される固体撮像素子5の概略構成を示す平面模式図である。図2は、被写体側から固体撮像素子5を見たときの図である。固体撮像素子5は、画素セルが二次元状に配置される撮像領域の全面又は一部に、焦点検出用画素セルが散在して設けられている。図2では、撮像領域のうちの、焦点検出用画素セルが設けられている部分を拡大した図を示している。
固体撮像素子5は、行方向X及びこれに直交する列方向Yに二次元状(図2の例では正方格子状)に配列された多数の画素セル(図中の各正方形)を備えている。多数の画素セルは、行方向Xに一定ピッチで並ぶ複数の画素セルからなる画素セル行を、列方向Yに一定のピッチで並べた配置となっている。多数の画素セルは、撮像用画素セル30と焦点検出用画素セル31Lと焦点検出用画素セル31Rとを含んでいる。各画素セルは光を受光して電荷に変換する光電変換部を含む。
撮像用画素セル30は、図1に示す撮影レンズ1の異なる瞳領域を通過した一対の光(例えば撮影レンズ1の主軸に対して左側を通過した光と右側を通過した光)の双方を受光する画素セルである。
焦点検出用画素セル31Lは、上記一対の光の一方を受光する画素セルであり、撮像用画素セル30と比較すると、光電変換部の開口(ハッチングを付していない領域)が左側に偏心した構成となっている。
焦点検出用画素セル31Rは、上記一対の光の他方を受光する画素セルであり、撮像用画素セル30と比較すると、光電変換部の開口(ハッチングを付していない領域)が右側に偏心した構成となっている。
なお、焦点検出用画素セルの構成は上述したものに限らず、よく知られている構成を採用することができる。また、ここでは、焦点検出用画素セル31R及び焦点検出用画素セル31Lによって、行方向Xに位相差を持つ一対の像信号を検出するものとしたが、遮光膜開口の偏心方向を列方向Yにして、列方向Yに位相差を持つ一対の像信号を検出するようにしてもよい。
各画素セルに含まれる光電変換部の上方にはカラーフィルタが搭載されており、このカラーフィルタの配列が固体撮像素子5を構成する多数の画素セル全体でベイヤー配列となっている。
図2では、赤色(R)光を透過するカラーフィルタが搭載される画素セルに“R”を記している。また、緑色(G)光を透過するカラーフィルタが搭載される画素セルにG”を記している。更に、青色(B)光を透過するカラーフィルタが搭載される画素セルに“B”を記している。図2の例では、固体撮像素子5がカラーフィルタを搭載しているが、カラーフィルタを搭載していないものであってもよい。
各画素セルに含まれる光電変換部の上方(カラーフィルタを設ける場合はそれよりも上方)には、この光電変換部に光を集光するためのマイクロレンズが設けられる。
このマイクロレンズは、固体撮像素子5全体において撮像用画素セル同士又は焦点検出用画素セル同士の感度を揃えるために、配置位置のスケーリングが行われている。
配置位置のスケーリングとは、斜め方向から入射する光を効率よく集光するために、各画素セルに含まれるマイクロレンズの中心位置が、固体撮像素子5の中心から端部にむかうほど、画素セルの中心位置に対して固体撮像素子5の中心側にずれており、そのずれ量が固体撮像素子5の中心から端部に向かうほど大きくなっていることを言う。
焦点検出用画素セル31Lは、図2の上から3番目と9番目の画素セル行において、緑色(G)光を透過するカラーフィルタが搭載された画素セルの位置に3画素セルおきに配置されている。
焦点差検出用画素セル31Rは、図2の上から4番目と10番目の画素セル行において、緑色(G)光を透過するカラーフィルタが搭載された画素セルの位置に3画素セルおきに配置されている。
斜め方向に隣接する焦点検出用画素セル31Lと焦点検出用画素セル31Rはペアを構成しており、固体撮像素子5には、このペアが複数設けられた構成となっている。
図1に示す焦点検出部19は、焦点検出用画素セル31L及び焦点検出用画素セル31Rから読み出される信号群を用いて、撮影レンズ1の焦点調節状態、ここでは合焦状態から離れている量とその方向、すなわちデフォーカス量を算出する。
図1に示すシステム制御部11は、焦点検出部19によって算出されたデフォーカス量に基づいて、撮像レンズ1に含まれるフォーカスレンズの位置を制御して焦点調節を行う。
焦点調節が行われた状態で撮影指示がなされると、システム制御部11は、固体撮像素子5により撮像を行わせ、この撮像によって固体撮像素子5から出力される撮像画像信号(各画素セルから出力される出力信号の集合)がデジタル信号処理部17に取り込まれる。そして、デジタル信号処理部17は、この撮像画像信号に含まれる焦点検出用画素セルの出力信号を補正し、補正後の撮像画像信号を処理して、撮像画像データを生成する。
デジタル信号処理部17は、焦点検出用画素セルに対し、この焦点検出用画素セルの周囲にある撮像用画素セルの出力信号を用いた信号補間により、この焦点検出用画素セルの出力信号を補正する補間補正処理と、焦点検出用画素セルの出力信号にゲインを乗じてこれを増幅することで、この焦点検出用画素セルの出力信号を補正するゲイン補正処理とのいずれかを行う。
図3は、図2に示す固体撮像素子5において焦点検出用画素セル31Lを中心とする5×5個の画素セルを抽出した図である。
デジタル信号処理部17は、図3に示す焦点検出用画素セル31Lを補間補正処理によって補正する場合は、例えば、この焦点検出用画素セル31Lの周囲にある焦点検出用画素セル31Lと同色光を検出する○で囲った撮像用画素セル30の出力信号を平均して得られる出力信号を、この焦点検出用画素セル31Lの出力信号と置換する。
また、デジタル信号処理部17は、図3に示す焦点検出用画素セル31Lをゲイン補正処理によって補正する場合は、例えば、この焦点検出用画素セル31Lの周囲にある焦点検出用画素セル31Lと同色光を検出する○で囲った撮像用画素セル30の出力信号の平均値に、この焦点検出用画素セル31Lの出力信号を近づけるためのゲインを求め、この焦点検出用画素セル31Lの出力信号に当該ゲインを乗じる。
デジタル信号処理部17は、撮像画像信号において、ゴーストやフレア等の画像にとっては不要(ノイズ)となる光の影響を受けている領域があるか否かを、その撮像画像信号を用いて判定する。そして、デジタル信号処理部17は、この判定結果に基づいて、焦点検出用画素セルに対して行う補正処理を、補間補正処理とゲイン補正処理のいずれかに決定する。
図4は、図1に示す固体撮像素子5の全体構成を示す平面模式図である。図2に示した焦点検出用画素セルは、固体撮像素子5の中央にある領域Aに離散的に設けられている。領域A以外の領域には、撮像用画素セル30のみが配置されている。
図4の例では、領域Aを6×6のブロックに分割している。図4においては、領域Aを、6つの列(左から順に3L、2L、1L、1R、2R、3R)と、6つの行(上から順に3U、2U、1U、1B、2B、3B)とに分けており、各行と各列が交差する位置に1つのブロックが存在している。
デジタル信号処理部17は、撮像画像信号を用いて、それに含まれる焦点検出用画素セルの出力信号をゲイン補正処理によって補正する際に用いるゲイン値を算出する。
例えば、デジタル信号処理部17は、図4の任意のブロックにある撮像用画素セル30の出力信号の平均値AvSと、当該ブロックにある焦点検出用画素セル31Lの出力信号の平均値AvLを算出し、AvS/AvLを、当該ブロックにある焦点検出用画素セル31Lに対応するゲイン値として算出する。
同様に、デジタル信号処理部17は、図4の任意のブロックにある撮像用画素セル30の出力信号の平均値AvSと、当該ブロックにある焦点検出用画素セル31Rの出力信号の平均値AvRを算出し、AvS/AvRを、当該ブロックにある焦点検出用画素セル31Rに対応するゲイン値として算出する。
この演算により、ゲイン値(AvS/AvL)及びゲイン値(AvS/AvR)が各ブロックに対応付けられたゲインテーブルが生成される。
図5及び図6は、図4に示す36個のブロックにある焦点検出用画素セル31Rに対応するゲイン値の一例を示す図である。
図5は、撮像画像信号がゴースト又はフレアの少なくとも一方の影響を受けていないときのゲインテーブルの例である。図6は、撮像画像信号がゴーストの影響を受けているときのゲインテーブルの例である。図6では、図4の列3Lと列2Lと列3Rにおいてゴーストの原因光が入射している場合の撮像画像信号から求めたゲインテーブルを示している。
図5に示すように、撮像時にゴースト又はフレアの少なくとも一方が発生していない場合は、同一行にある6つのブロックに対応するゲイン値を結ぶ線は、右肩上がりの略直線形状となる。また、同一列にある6つのブロックに対応するゲイン値の幅(最小値と最大値の差)は小さくなっている。なお、このように、ゲイン値を結ぶ線が右肩上がりの形状となるのは、次のような理由からである。
位相差検出用画素31Rは、開口が図2において右側に偏心している。このため、図7に示すように、固体撮像素子5の左側端部にある位相差検出用画素31Rの開口には、撮影レンズ1の左側を通ってきた光は半分入り、撮影レンズ1の右側を通ってきた光は入らない。一方、固体撮像素子5の右側端部にある位相差検出用画素31Rの開口には、撮影レンズ1の右側を通ってきた光は半分入り、撮影レンズ1の左側を通ってきた光は全て入る。また、固体撮像素子5の中心部にある位相差検出用画素31Rの開口には、撮影レンズ1の左側を通ってきた光だけが入り、撮影レンズ1の右側を通ってきた光は入らない。
このように、位相差検出用画素31Rの感度は、固体撮像素子5の左端部から右端部に向かうほど高くなっている。このため、ゲイン値についても、列3Lから列3Rに向かうにしたがって大きくなる。
図6に示すように、撮像時にゴーストが発生している場合は、同一行にある6つのブロックに対応するゲイン値を結ぶ線は、略下凸形状の曲線となり、領域Aにおける端部の列(3L、3R)では、同一列にある6つのブロックに対応するゲイン値の幅が大きくなっている。
このように、ゴースト又はフレアの少なくとも一方の有無によって、生成されるゲインテーブルは変化する。このことを利用して、デジタル信号処理部17は、生成したゲインテーブルを用いてゴースト又はフレアの少なくとも一方の有無を判定している。
以下では、ゲインテーブルを用いたゴースト又はフレアの少なくとも一方の有無の判定方法の具体例について説明する。
図8は、図5に示すゲインテーブルから生成される隣接ゲイン値差テーブルを示す図である。図9は、図6に示すゲインテーブルから生成される隣接ゲイン値差テーブルを示す図である。
隣接ゲイン値差テーブルは、任意のブロックに対応するゲイン値と、そのブロックに対して焦点検出用画素セル31R,31Lにより検出される一対の像信号のずれる方向(固体撮像素子5の場合は行方向Xにおいて右方向)に隣接するブロックに対応するゲイン値との差分を算出して得られるものである。
図8,9において、“**-##”の表記は、列**とそれに対して右方向に隣接する列##のそれぞれの同一行にあるブロックのゲイン値の差(列##のブロックのゲイン値から列**のブロックのゲイン値を減算した値)を示している。
図8,9に示した隣接ゲイン値差テーブルにおける各数値は、領域Aにおけるゲイン値の変動の度合いを示すものとなる。ゴースト又はフレアの少なくとも一方が発生していない場合は、図5に示すように、この変動の度合いは小さくなり、ゴーストが発生している場合は、図6に示すように、この変動の度合いは大きくなる。このことを利用して、デジタル信号処理部17は、まず、隣接ゲイン値差テーブルにおける各数値のうちの最大値と最小値の差を算出する。
図8に示す隣接ゲイン値差テーブルにおける各数値のうちの最大値は22であり、最小値は7であるため、双方の差は15となる。
図9に示す隣接ゲイン値差テーブルにおける各数値のうちの最大値は245であり、最小値は-67であるため、双方の差は312となる。
隣接ゲイン値差テーブルにおける各数値のうちの最大値と最小値の差の閾値を例えば20に設定しておけば、図5に示すゲインテーブルの生成元となる撮像画像信号はゴースト又はフレアの少なくとも一方の影響を受けている領域がないと判定され、図6に示すゲインテーブルの生成元となる撮像画像信号はゴースト又はフレアの少なくとも一方の影響を受けている領域があると判定される。
ゴースト又はフレアの少なくとも一方が発生していないときの、隣接ゲイン値差テーブルにおける各数値のうちの最大値と最小値の差と、ゴースト又はフレアの少なくとも一方が発生しているときの、隣接ゲイン値差テーブルにおける各数値のうちの最大値と最小値の差は、予め実験的に求めておくことができるため、この実験結果により、上記閾値をデジタルカメラ毎に適当な値に決めておくことができる。
なお、ゴースト又はフレアの少なくとも一方が発生していると、同一列における6つのブロックのゲイン値の最大値と最小値の差がゴースト又はフレアの少なくとも一方が発生していないときと比べて大きくなる特性を利用し、デジタル信号処理部17は次のようにゴースト又はフレアの少なくとも一方の発生有無を判定してもよい。
つまり、デジタル信号処理部17は、図5又は図6に示すゲインテーブルにおいて、同一列における数値のうちの最大値と最小値の差が、予め決められた値を超える列がある場合は、そのゲインテーブルの生成元となる撮像画像信号にはゴースト又はフレアの少なくとも一方の影響を受けている領域があると判定する。また、デジタル信号処理部17は、同一列における数値のうちの最大値と最小値の差が、予め決められた値を超える列がない場合は、そのゲインテーブルの生成元となる撮像画像信号にはゴースト又はフレアの少なくとも一方の影響を受けている領域がないと判定する。
この判定方法によれば、演算量を減らすことができるため、低消費電力化、補正処理の高速化が可能になる。
また、隣接ゲイン値差テーブルにおける各数値のうちの最大値と最小値の差に基づくゴースト又はフレアの少なくとも一方の有無の判定方法と、ゲインテーブルにおける同一列の最大値と最小値の差に基づくゴースト又はフレアの少なくとも一方の有無の判定方法とをそれぞれ行い、2つの判定の両方においてゴースト又はフレアの少なくとも一方の影響を受けている領域があると判定したことをもって、撮像画像信号においてゴースト又はフレアの少なくとも一方による影響を受けている領域があると最終的に判定してもよい。このように、2つの判定方法を組み合わせることで、ゴースト又はフレアの少なくとも一方の有無の判定精度を向上させることができる。
図10は、図1に示すデジタルカメラにおける固体撮像素子5から出力された撮像画像信号に含まれる全ての焦点検出用画素セルの出力信号を補正するときの動作を説明するためのフローチャートである。
固体撮像素子5により撮像が行われて、撮像画像信号がメインメモリ16に記憶されると、デジタル信号処理部17は、この撮像画像信号を用いて上述したゲインテーブルを算出し、このゲインテーブルを用いて、撮像画像信号においてゴースト又はフレアの少なくとも一方の影響を受けている領域の有無を判定する(ステップS1)。
撮像画像信号においてゴースト又はフレアの少なくとも一方の影響を受けている領域があると判定した場合(ステップS1:YES)、デジタル信号処理部17は、固体撮像素子5から出力された撮像画像信号に含まれる全ての焦点検出用画素セルの出力信号を、補間補正処理によって補正し(ステップS7)、補正処理を終了する。
撮像画像信号においてゴースト又はフレアの少なくとも一方の影響を受けている領域がないと判定した場合(ステップS1:NO)、デジタル信号処理部17は、補正を行う対象の焦点検出用画素セルの番号n(初期値は0)をn+1に更新する(ステップS2)。
次に、デジタル信号処理部17は、補正を行う対象の焦点検出用画素セルの出力信号について、補間補正処理を行ったときの補正精度とゲイン補正処理を行ったときの補正精度のどちらが高いかを判定する(ステップS3)。
例えば、デジタル信号処理部17は、補正を行う対象の焦点検出用画素セルの周辺にある撮像用画素セルの出力信号を用いて、焦点検出用画素セルの周囲に被写体のエッジや高周波模様があるか否か判定する。
そして、デジタル信号処理部17は、エッジや高周波模様があると判定した場合には、ゲイン補正処理の方が補正精度が高いと判定し、エッジや高周波模様がないと判定した場合には、補間補正処理の方が補正精度が高いと判定する。
又は、デジタル信号処理部17は、補正を行う対象の焦点検出用画素セルに対応するゲインテーブル上のゲイン値が予め決められた値よりも大きい場合には、ゲイン補正処理を行うとノイズが大きくなるため、補間補正処理の方が補正精度が高いと判定する。なお、補正精度の判定は、良く知られている方法を用いることができる。
デジタル信号処理部17は、ゲイン補正処理を行ったときの補正精度の方が高いと判定した場合(ステップS3:NO)、ステップS1の判定の際に生成したゲインテーブルに基づき、補正を行う対象の焦点検出用画素セルの出力信号をゲイン補正処理によって補正する(ステップS4)。
一方、デジタル信号処理部17は、補間補正処理を行ったときの補正精度の方が高いと判定した場合(ステップS3:YES)、補正を行う対象の焦点検出用画素セルの出力信号を補間補正処理によって補正する(ステップS5)。
ステップS4、ステップS5の後、デジタル信号処理部17は、補正を行う対象の焦点検出用画素セルの番号nが、撮像画像信号に含まれる焦点検出用画素セルの出力信号の総数kに達していれば(ステップS6:YES)処理を終了し、達していなければ(ステップS6:NO)、ステップS2に処理を戻す。
以上のように、図1に示すデジタルカメラは、撮像画像信号においてゴースト又はフレアの少なくとも一方の影響を受けている領域の有無を判定し、ゴースト又はフレアの少なくとも一方の影響を受けている領域が有ると判定した場合には、全ての焦点検出用画素セルの出力信号を補間補正処理によって補正し、ゴースト又はフレアの少なくとも一方の影響を受けている領域が無いと判定した場合には、各焦点検出用画素セルの出力信号を補正精度が相対的に高い補正処理によって補正する。
このように、ゴースト又はフレアの少なくとも一方が発生しているときには、各焦点検出用画素セルの出力信号が補間補正処理によって補正されるため、補正後の撮像画像信号において、ゴースト又はフレアの少なくとも一方の影響を受けている領域とゴースト又はフレアの少なくとも一方の影響を受けていない領域とで画質が大きく変化するのを防ぐことができ、撮像画質を向上させることができる。
なお、図10のフローチャートにおいて、ステップS2~ステップS6の処理は省略し、ステップS1:NOのときに、デジタル信号処理部17が、全ての焦点検出用画素セルに対して補間補正処理又はゲイン補正処理を行うようにしてもよい。
例えば、デジタル信号処理部17は、ゲインテーブルにおいて、これ以上になると補正後のノイズが多くなり画質が劣化してしまう値である閾値を超えるゲイン値の数が予め決められた数を超える場合は、全ての焦点検出用画素セルに対して補間補正処理を行う。閾値を超えるゲイン値の数が予め決められた数以下の場合、デジタル信号処理部17は、全ての焦点検出用画素セルに対してゲイン補正処理を行う。つまり、デジタル信号処理部17は、撮像画像信号全体として補正による補正誤差が少なくなる補正処理を選択して実行する。
このように、ゴースト又はフレアの少なくとも一方が発生していないときには、補間補正処理とゲイン補正処理のうちの画質向上に最適な補正処理を選択して実行することができるため、ゴースト又はフレアの少なくとも一方が発生していないときの画質向上も図ることができる。
なお、ゴースト又はフレアの少なくとも一方の影響を受けている領域の有無の判定方法は上述したものに限らない。例えば特許文献2、3に記載された方法を採用してもよい。また、以下に記載する方法により判定してもよい。
(ゴースト又はフレアの少なくとも一方の影響を受けている領域の有無の判定方法の変形例)
この変形例では、ゴースト又はフレアの少なくとも一方の発生しない条件において基準画像を固体撮像素子5により撮像して得られる基準撮像画像信号を用いて算出された上記各ブロックに対するゲイン値である基準ブロックゲイン値がメインメモリ16に予め記憶される。
この変形例では、ゴースト又はフレアの少なくとも一方の発生しない条件において基準画像を固体撮像素子5により撮像して得られる基準撮像画像信号を用いて算出された上記各ブロックに対するゲイン値である基準ブロックゲイン値がメインメモリ16に予め記憶される。
そして、デジタル信号処理部17は、基準ブロックゲイン値と、被写体を固体撮像素子5により撮像して得られる撮像画像信号を用いて算出した上記各ブロックに対するゲイン値である撮像ブロックゲイン値との差分である基準-撮像ゲイン値差を算出する。
更に、デジタル信号処理部17は、焦点検出用画素セルのペアにより検出される像信号のずれ方向において隣接する2つのブロックについて算出した基準-撮像ゲイン値差の差分を算出し、この差分の最大値と最小値の差が予め決められた値を超える場合に、撮像画像信号においてゴースト又はフレアの少なくとも一方の影響を受けている領域があると判定する。
図11は、図4に示した領域Aの任意の行にある6つのブロックに対してゲイン値を算出した結果を示す図である。図11には、基準画像(例えば、灰色一色の画像、白一色の画像、位相差画素の検出色と同じ色一色の画像等の単色のベタ画像)を固体撮像素子5により撮像して得られる基準撮像画像信号を用いて算出したゲイン値(基準画像のゲイン)と、被写体を固体撮像素子5により撮像して得られる撮像画像信号を用いて算出したゲイン値(撮像画像のゲイン)とを示している。
図12のFIG12Aは、図11に示した撮像画像のゲインを示すテーブルであり、図12のFIG12Bは、図11に示した基準画像のゲインを示すテーブルである。また、図12のFIG12Cは、FIG12Aに示す各ブロックのゲイン値からFIG12Bに示す当該各ブロックのゲイン値を減算した値(基準-撮像ゲイン値差)を示す図である。
図12において、FIG12Bに示したテーブルはメインメモリ16に予め記憶されている。
デジタル信号処理部17は、FIG12AのデータとFIG12Bのデータから、FIG12Cのデータを算出する。そして、デジタル信号処理部17は、任意のブロックに対応する基準-撮像ゲイン値差と、そのブロックに対して焦点検出用画素セル31R,31Lにより検出される一対の像信号のずれ方向(固体撮像素子5の場合は行方向Xにおいて右方向)に隣接するブロックの基準-撮像ゲイン値差との差分を算出して、FIG12Dに示すテーブルを生成する。
図12のFIG12Dにおいて、“**-##”の表記は、列**とそれに対して右方向に隣接する列##のそれぞれの同一行にあるブロックの基準-撮像ゲイン値差の差(列##のブロックの基準-撮像ゲイン値差から列**のブロックの基準-撮像ゲイン値差を減算した値)を示している。
デジタル信号処理部17は、FIG12Dに示すデータを、図4に示した各行について生成し、生成したデータにおける最大値と最小値の差を算出する。そして、デジタル信号処理部17は、この差が予め決められた閾値を超える場合に、ゴースト又はフレアの少なくとも一方による影響を受けている領域があると判定し、この差が予め決められた値以下の場合に、ゴースト又はフレアの少なくとも一方による影響を受けている領域がないと判定する。
このように、基準画像に対するゲインテーブルと、撮像画像に対するゲインテーブルの各ゲイン値の差の変動によって、ゴースト又はフレアの少なくとも一方による影響を受けている領域の有無を判定することで、ゴースト又はフレアの少なくとも一方による影響を受けている領域の判定に用いる閾値を、全ての固体撮像素子5で一律の値に設定することができ、デジタルカメラの製造コストを削減することができる。
ここまでは、撮像画像信号においてゴースト又はフレアの少なくとも一方による影響を受けている領域があるかないかを判定し、ゴースト又はフレアの少なくとも一方による影響を受けている領域が有ると判定した場合には、全ての焦点検出用画素セルに対して補間補正処理を実行するものとした。
しかし、撮像画像信号において、ゴースト又はフレアの少なくとも一方による影響を受けている領域の位置を判定できる場合には、ゴースト又はフレアの少なくとも一方による影響を受けている領域に対してのみ補間補正処理を行い、それ以外の領域に対しては、補正精度の高い補正処理を行うことで、撮像画質をより向上させることができる。
撮像画像信号において、ゴースト又はフレアの少なくとも一方による影響を受けている領域の位置は、次のようにして判定する。
(第一の判定例)
デジタル信号処理部17は、固体撮像素子5により被写体を撮像してえられる撮像画像信号を用いて生成したゲインテーブルにおいて、任意のブロックのゲイン値と、焦点検出用画素セルのペアによって検出される2つの像信号のずれ方向に直交する方向(図4の列方向Y)においてその任意のブロックに隣接するブロックのゲイン値との差の平均値を算出する。そして、この平均値が予め決められた値を超えるブロックにある焦点検出用画素セルの出力信号を、ゴースト又はフレアの少なくとも一方の影響がある領域として判定する。
デジタル信号処理部17は、固体撮像素子5により被写体を撮像してえられる撮像画像信号を用いて生成したゲインテーブルにおいて、任意のブロックのゲイン値と、焦点検出用画素セルのペアによって検出される2つの像信号のずれ方向に直交する方向(図4の列方向Y)においてその任意のブロックに隣接するブロックのゲイン値との差の平均値を算出する。そして、この平均値が予め決められた値を超えるブロックにある焦点検出用画素セルの出力信号を、ゴースト又はフレアの少なくとも一方の影響がある領域として判定する。
例えば、固体撮像素子5により被写体を撮像してえられる撮像画像信号を用いて生成したゲインテーブルが図13のFIG13Aに示すものである場合を考える。この場合、デジタル信号処理部17は、各ブロックのゲイン値と、そのブロックの上下(端の行にあるブロックについては上又は下)に隣接するブロックのゲイン値との差を算出し、その差の平均値を算出する。
具体的には、行1Uと列2Lの交点にあるブロックのゲイン値は800であり、その上下にあるブロックのゲイン値はそれぞれ450である。このため、デジタル信号処理部17は、{(800-450)+(800-450)}/2の演算により求まる値350を、当該ブロックにおける値とする。このような演算を各ブロックについて行った結果を図13のFIG13Bに示している。
図5と図6を比較して分かるように、ゴースト又はフレアの少なくとも一方が発生していると、列方向Yにおいて隣接するブロック間のゲイン値の差が大きくなる。このため、デジタル信号処理部17は、FIG13Bに示すデータに対して閾値を設定し、この閾値以上のブロックについては、ゴースト又はフレアの少なくとも一方の影響を受けていると判定し、この閾値未満のブロックについては、ゴースト又はフレアの少なくとも一方の影響を受けていないと判定することができる。
例えば、FIG13Bにおいて閾値を100に設定すると、ハッチングを付したブロックが、ゴースト又はフレアの少なくとも一方の影響を受けているブロックと判定される。
(第二の判定例)
ゴースト又はフレアの少なくとも一方が発生しない条件で基準画像を撮像して得られる基準撮像画像信号を用いてゲインテーブルを生成し、これをメインメモリ16に記憶しておく。デジタル信号処理部17は、撮像画像信号を用いて生成したFIG14Aに示すゲインテーブルの各ブロックのゲイン値から、基準撮像画像信号を用いて生成したFIG14Bに示すゲインテーブルの当該各ブロックのゲイン値を減算して、FIG14Cに示すテーブルを生成する。
ゴースト又はフレアの少なくとも一方が発生しない条件で基準画像を撮像して得られる基準撮像画像信号を用いてゲインテーブルを生成し、これをメインメモリ16に記憶しておく。デジタル信号処理部17は、撮像画像信号を用いて生成したFIG14Aに示すゲインテーブルの各ブロックのゲイン値から、基準撮像画像信号を用いて生成したFIG14Bに示すゲインテーブルの当該各ブロックのゲイン値を減算して、FIG14Cに示すテーブルを生成する。
ゴースト又はフレアの少なくとも一方の影響を受けているブロックについては、基準撮像画像信号を用いて生成したゲイン値と撮像画像信号を用いて生成したゲイン値との差が大きくなる。このため、デジタル信号処理部17は、FIG14Cに示すテーブルにおいて、予め決められた閾値以上のゲイン値となるブロックについてはゴースト又はフレアの少なくとも一方の影響を受けていると判定し、当該閾値未満となるブロックについては、ゴースト又はフレアの少なくとも一方の影響を受けていないと判定する。
例えば、FIG14Cにおいて閾値を100に設定すると、ハッチングを付したブロックが、ゴースト又はフレアの少なくとも一方の影響を受けているブロックと判定される。
この第一の判定例と第二の判定例により、撮像画像信号においてゴースト又はフレアの少なくとも一方による影響を受けている領域の有無と、その領域の位置を判定することができる。
デジタル信号処理部17は、第一の判定例又は第二の判定例により、撮像画像信号においてゴースト又はフレアの少なくとも一方による影響を受けている領域の有無を判定し、ゴースト又はフレアの少なくとも一方による影響を受けている領域が有ると判定した場合は、その領域に含まれる焦点検出用画素セルの出力信号を、補間補正処理によって補正し、それ以外の領域に含まれる焦点検出用画素セルの出力信号は、補正精度の高い方の補正処理を行って補正する。また、デジタル信号処理部17は、ゴースト又はフレアの少なくとも一方による影響を受けている領域が無いと判定した場合は、図10のステップS2以降の処理を行う。
このようにすることで、補正後の撮像画像信号において、ゴースト又はフレアの少なくとも一方の影響を受けている領域と、その他の領域とで画質が大きく変わってしまうのを防ぐことができ、撮像画質を向上させることができる。
次に、撮像装置としてスマートフォンの構成について説明する。
図15は、本発明の撮影装置の一実施形態であるスマートフォン200の外観を示すものである。図15に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。また、この様な筐体201は、スピーカ205と、マイクロホン206と、操作部207と、カメラ部208とを備えている。なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用したりすることもできる。
図16は、図15に示すスマートフォン200の構成を示すブロック図である。図15に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
表示入力部204は、主制御部220の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。
表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。
操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。
図15に示すように、本発明の撮影装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。
係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体201の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
通話部211は、スピーカ205やマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力させたりするものである。また、図15に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。
操作部207は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図15に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
記憶部212は、主制御部220の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達することや、スマートフォン200の内部のデータが外部機器に伝送されるようにすることができる。
GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該スマートフォン200の緯度、経度、高度からなる位置を検出する。GPS受信部214は、無線通信部210や外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
モーションセンサ部215は、例えば、3軸の加速度センサなどを備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向や加速度が検出される。係る検出結果は、主制御部220に出力されるものである。
電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
また、主制御部220は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。
更に、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
更に、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
カメラ部208は、図1に示したデジタルカメラにおける外部メモリ制御部20、記録媒体21、表示制御部22、表示部23、及び操作部14以外の構成を含む。カメラ部208によって生成された撮像画像データは、記憶部212に記録したり、入出力部213や無線通信部210を通じて出力したりすることができる。図15に示すにスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよい。
また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示することや、操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用することができる。また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。更には、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。
その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等などを付加して記録部212に記録したり、入出力部213や無線通信部210を通じて出力したりすることもできる。
以上のような構成のスマートフォン200においても、デジタル信号処理部17が上述した信号補正処理を行うことで、高品質の撮影が可能になる。
以上説明してきたように、本明細書には以下の事項が開示されている。
開示された撮像装置は、撮像用の複数の第一画素セルと、撮影レンズの異なる瞳領域を通過した光を受光する複数種類の焦点検出用の第二画素セルからなる複数のペアとを含む撮像素子を有する撮像装置であって、上記撮像素子によって撮像して得られる撮像画像信号を用いて、上記撮像画像信号がフレア又はゴーストの少なくとも一方の影響を受けているか否かを判定する判定部と、上記撮像画像信号に含まれる上記第二画素セルの出力信号に対し、その第二画素セルの出力信号を上記撮像画像信号に含まれる上記第二画素セルの周囲にある複数の上記第一画素セルの出力信号を用いた信号補間により補正する補間補正処理と、その第二画素セルの出力信号をその出力信号にゲイン値を乗じて補正するゲイン補正処理とのいずれかを行う補正処理部と、上記補正処理部による補正処理後の撮像画像信号を処理して撮像画像データを生成する画像データ生成部と、を備え、上記補正処理部は、上記判定部による判定結果に基づいて、上記第二画素セルの出力信号に対して、上記補間補正処理と上記ゲイン補正処理のどちらを実行するかを決定するものである。
開示された撮像装置は、上記補正処理部は、上記フレア又はゴーストの少なくとも一方の影響を受けていないと判定された場合には、上記第二画素セルの出力信号に対して上記補間補正処理と上記ゲイン補正処理のうちのいずれかを行い、上記フレア又はゴーストの少なくとも一方の影響を受けていると判定された場合には、上記第二画素セルの出力信号に対して上記補間補正処理を行うものである。
開示された撮像装置は、上記判定部は、上記撮像画像信号における上記フレア又はゴーストの少なくとも一方の影響を受けている領域を、上記撮像画像信号を用いて判定し、上記補正処理部は、上記撮像画像信号においてフレア又はゴーストの少なくとも一方の影響を受けている領域に含まれる上記第二画素セルの出力信号については上記補間補正処理を行い、上記撮像画像信号においてフレア又はゴーストの少なくとも一方の影響を受けていない領域に含まれる上記第二画素セルの出力信号については、上記補間補正処理と上記ゲイン補正処理のいずれかを行うものである。
開示された撮像装置は、上記判定部は、上記第二画素セルが配置される領域を複数ブロックに分割し、各ブロックにおいてそのブロック内にある上記第二画素セルの出力信号を上記ゲイン補正処理により補正するために必要なゲイン値である撮像ブロックゲイン値を、上記撮像画像信号を用いて算出し、上記撮像ブロックゲイン値を用いて、上記フレア又はゴーストの少なくとも一方の影響を受けているか否かを判定するものである。
開示された撮像装置は、上記判定部は、上記第二画素セルによって検出される2つの像信号のずれる方向において隣接する2つの上記ブロックについて算出された上記撮像ブロックゲイン値の差分である隣接ブロックゲイン値差の最大値と最小値の差が予め決められた値を超える場合に、フレア又はゴーストの少なくとも一方の影響を受けていると判定するものである。
開示された撮像装置は、フレア又はゴーストの少なくとも一方が発生しない条件で基準画像を上記撮像素子により撮像して得られる基準撮像画像信号を用いて算出された上記各ブロックに対するゲイン値である基準ブロックゲイン値が予め記憶される記憶部を備え、上記判定部は、上記基準ブロックゲイン値と上記撮像ブロックゲイン値との差分である基準ブロックゲイン値差を算出し、上記第二画素セルによって検出される2つの像信号のずれ方向において隣接する2つの上記ブロックについて算出された上記基準ブロックゲイン値差の差分の最大値と最小値の差が予め決められた値を超える場合に、フレア又はゴーストの少なくとも一方の影響を受けていると判定するものである。
開示された撮像装置は、上記判定部は、上記第二画素セルが配置される領域を複数ブロックに分割し、各ブロックにおいてそのブロック内にある上記第二画素セルの出力信号を上記ゲイン補正処理により補正するために必要なゲイン値である撮像ブロックゲイン値を、上記撮像画像信号を用いて算出し、その撮像ブロックゲイン値を用いてフレア又はゴーストの少なくとも一方の影響を受けている領域を判定するものである。
開示された撮像装置は、上記判定部は、各ブロックについて、上記第二画素セルによって検出される2つの像信号のずれ方向に直交する方向に隣接するブロックとの上記撮像ブロックゲイン値の差の平均値を算出し、その平均値が予め決められた値を超えるブロックに対応する信号を、フレア又はゴーストの少なくとも一方の影響を受けている領域として判定するものである。
開示された撮像装置は、フレア又はゴーストの少なくとも一方が発生しない条件で基準画像を上記撮像素子により撮像して得られる基準撮像画像信号を用いて算出された上記各ブロックに対するゲイン値である基準ブロックゲイン値が予め記憶される記憶部を備え、上記判定部は、上記基準ブロックゲイン値と上記撮像ブロックゲイン値との差が予め決められた値を超えるブロックに対応する信号を、フレア又はゴーストの少なくとも一方の影響を受けている領域として判定するものである。
開示された信号補正方法は、二次元状に配置された、撮像用の複数の第一画素セル及び撮像レンズの異なる瞳領域を通過した光を受光する複数種類の焦点検出用の第二画素セルからなる複数のペアを含む撮像素子から出力される撮像画像信号を補正する信号補正方法であって、上記撮像素子によって撮像して得られる撮像画像信号を用いて、上記撮像画像信号がフレア又はゴーストの少なくとも一方の影響を受けているか否かを判定する判定ステップと、上記撮像画像信号に含まれる上記第二画素セルの出力信号に対し、その出力信号を、上記撮像画像信号に含まれる、上記第二画素セルの周囲にある複数の上記第一画素セルの出力信号を用いた信号補間により補正する補間補正処理と、その出力信号にゲイン値を乗じて増幅することで補正するゲイン補正処理とのいずれかを行う補正処理ステップと、上記補正処理ステップによる補正処理後の上記撮像画像信号を処理して撮像画像データを生成する画像データ生成ステップと、を備え、上記補正処理ステップでは、上記判定ステップの判定結果に基づいて、上記第二画素セルの出力信号に対して、上記補間補正処理と上記ゲイン補正処理のどちらを実行するかを決定するものである。
本発明によれば、焦点検出用の画素セルと撮像用の画素セルを含む撮像素子により撮像して得られる撮像画像の品質を、ゴーストやフレアが生じている場合でも低下させることのない撮像装置及び信号補正方法を提供することができる。
本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
本出願は、2012年5月10日出願の日本特許出願(特願2012-108559)と、2012年11月15日出願の日本特許出願(特願2012-251565)とに基づくものであり、その内容はここに参照として取り込まれる。
本出願は、2012年5月10日出願の日本特許出願(特願2012-108559)と、2012年11月15日出願の日本特許出願(特願2012-251565)とに基づくものであり、その内容はここに参照として取り込まれる。
5 固体撮像素子
30 撮像用画素セル
31R,31L 焦点検出用画素セル
17 デジタル信号処理部
30 撮像用画素セル
31R,31L 焦点検出用画素セル
17 デジタル信号処理部
Claims (10)
- 撮像用の複数の第一画素セルと、撮影レンズの異なる瞳領域を通過した光を受光する複数種類の焦点検出用の第二画素セルからなる複数のペアとを含む撮像素子を有する撮像装置であって、
前記撮像素子によって撮像して得られる撮像画像信号を用いて、前記撮像画像信号がフレア又はゴーストの少なくとも一方の影響を受けているか否かを判定する判定部と、
前記撮像画像信号に含まれる前記第二画素セルの出力信号に対し、当該第二画素セルの出力信号を前記撮像画像信号に含まれる前記第二画素セルの周囲にある複数の前記第一画素セルの出力信号を用いた信号補間により補正する補間補正処理と、当該第二画素セルの出力信号を当該出力信号にゲイン値を乗じて補正するゲイン補正処理とのいずれかを行う補正処理部と、
前記補正処理部による補正処理後の撮像画像信号を処理して撮像画像データを生成する画像データ生成部と、を備え、
前記補正処理部は、前記判定部による判定結果に基づいて、前記第二画素セルの出力信号に対して、前記補間補正処理と前記ゲイン補正処理のどちらを実行するかを決定する撮像装置。 - 請求項1記載の撮像装置であって、
前記補正処理部は、前記フレア又はゴーストの少なくとも一方の影響を受けていないと判定された場合には、前記第二画素セルの出力信号に対して前記補間補正処理と前記ゲイン補正処理のうちのいずれかを行い、前記フレア又はゴーストの少なくとも一方の影響を受けていると判定された場合には、前記第二画素セルの出力信号に対して前記補間補正処理を行う撮像装置。 - 請求項1記載の撮像装置であって、
前記判定部は、前記撮像画像信号における前記フレア又はゴーストの少なくとも一方の影響を受けている領域を、前記撮像画像信号を用いて判定し、
前記補正処理部は、前記撮像画像信号においてフレア又はゴーストの少なくとも一方の影響を受けている領域に含まれる前記第二画素セルの出力信号については前記補間補正処理を行い、前記撮像画像信号においてフレア又はゴーストの少なくとも一方の影響を受けていない領域に含まれる前記第二画素セルの出力信号については、前記補間補正処理と前記ゲイン補正処理のいずれかを行う撮像装置。 - 請求項1又は2記載の撮像装置であって、
前記判定部は、前記第二画素セルが配置される領域を複数ブロックに分割し、各ブロックにおいて当該ブロック内にある前記第二画素セルの出力信号を前記ゲイン補正処理により補正するために必要なゲイン値である撮像ブロックゲイン値を、前記撮像画像信号を用いて算出し、前記撮像ブロックゲイン値を用いて、前記フレア又はゴーストの少なくとも一方の影響を受けているか否かを判定する撮像装置。 - 請求項4記載の撮像装置であって、
前記判定部は、前記第二画素セルによって検出される2つの像信号のずれる方向において隣接する2つの前記ブロックについて算出された前記撮像ブロックゲイン値の差分である隣接ブロックゲイン値差の最大値と最小値の差が予め決められた値を超える場合に、フレア又はゴーストの少なくとも一方の影響を受けていると判定する撮像装置。 - 請求項4記載の撮像装置であって、
フレア又はゴーストの少なくとも一方が発生しない条件で基準画像を前記撮像素子により撮像して得られる基準撮像画像信号を用いて算出された前記各ブロックに対するゲイン値である基準ブロックゲイン値が予め記憶される記憶部を備え、
前記判定部は、前記基準ブロックゲイン値と前記撮像ブロックゲイン値との差分である基準ブロックゲイン値差を算出し、前記第二画素セルによって検出される2つの像信号のずれ方向において隣接する2つの前記ブロックについて算出された前記基準ブロックゲイン値差の差分の最大値と最小値の差が予め決められた値を超える場合に、フレア又はゴーストの少なくとも一方の影響を受けていると判定する撮像装置。 - 請求項3記載の撮像装置であって、
前記判定部は、前記第二画素セルが配置される領域を複数ブロックに分割し、各ブロックにおいて当該ブロック内にある前記第二画素セルの出力信号を前記ゲイン補正処理により補正するために必要なゲイン値である撮像ブロックゲイン値を、前記撮像画像信号を用いて算出し、当該撮像ブロックゲイン値を用いてフレア又はゴーストの少なくとも一方の影響を受けている領域を判定する撮像装置。 - 請求項7記載の撮像装置であって、
前記判定部は、各ブロックについて、前記第二画素セルによって検出される2つの像信号のずれ方向に直交する方向に隣接するブロックとの前記撮像ブロックゲイン値の差の平均値を算出し、当該平均値が予め決められた値を超えるブロックに対応する信号を、フレア又はゴーストの少なくとも一方の影響を受けている領域として判定する撮像装置。 - 請求項7記載の撮像装置であって、
フレア又はゴーストの少なくとも一方が発生しない条件で基準画像を前記撮像素子により撮像して得られる基準撮像画像信号を用いて算出された前記各ブロックに対するゲイン値である基準ブロックゲイン値が予め記憶される記憶部を備え、
前記判定部は、前記基準ブロックゲイン値と前記撮像ブロックゲイン値との差が予め決められた値を超えるブロックに対応する信号を、フレア又はゴーストの少なくとも一方の影響を受けている領域として判定する撮像装置。 - 二次元状に配置された、撮像用の複数の第一画素セル及び撮像レンズの異なる瞳領域を通過した光を受光する複数種類の焦点検出用の第二画素セルからなる複数のペアを含む撮像素子から出力される撮像画像信号を補正する信号補正方法であって、
前記撮像素子によって撮像して得られる撮像画像信号を用いて、前記撮像画像信号がフレア又はゴーストの少なくとも一方の影響を受けているか否かを判定する判定ステップと、
前記撮像画像信号に含まれる前記第二画素セルの出力信号に対し、当該出力信号を、前記撮像画像信号に含まれる、前記第二画素セルの周囲にある複数の前記第一画素セルの出力信号を用いた信号補間により補正する補間補正処理と、当該出力信号にゲイン値を乗じて増幅することで補正するゲイン補正処理とのいずれかを行う補正処理ステップと、
前記補正処理ステップによる補正処理後の前記撮像画像信号を処理して撮像画像データを生成する画像データ生成ステップと、を備え、
前記補正処理ステップでは、前記判定ステップの判定結果に基づいて、前記第二画素セルの出力信号に対して、前記補間補正処理と前記ゲイン補正処理のどちらを実行するかを決定する信号補正方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014514410A JP5657182B2 (ja) | 2012-05-10 | 2013-04-09 | 撮像装置及び信号補正方法 |
CN201380024517.8A CN104285435B (zh) | 2012-05-10 | 2013-04-09 | 摄像装置及信号校正方法 |
US14/535,908 US9264636B2 (en) | 2012-05-10 | 2014-11-07 | Imaging device and signal correcting method |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-108559 | 2012-05-10 | ||
JP2012108559 | 2012-05-10 | ||
JP2012-251565 | 2012-11-15 | ||
JP2012251565 | 2012-11-15 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US14/535,908 Continuation US9264636B2 (en) | 2012-05-10 | 2014-11-07 | Imaging device and signal correcting method |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013168505A1 true WO2013168505A1 (ja) | 2013-11-14 |
Family
ID=49550558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2013/060736 WO2013168505A1 (ja) | 2012-05-10 | 2013-04-09 | 撮像装置及び信号補正方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9264636B2 (ja) |
JP (1) | JP5657182B2 (ja) |
CN (1) | CN104285435B (ja) |
WO (1) | WO2013168505A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105744242A (zh) * | 2014-12-26 | 2016-07-06 | 佳能株式会社 | 图像处理设备、摄像设备和图像处理方法 |
JP2018006881A (ja) * | 2016-06-29 | 2018-01-11 | 株式会社シグマ | 画像処理装置及び画像処理方法 |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10298834B2 (en) | 2006-12-01 | 2019-05-21 | Google Llc | Video refocusing |
US9858649B2 (en) | 2015-09-30 | 2018-01-02 | Lytro, Inc. | Depth-based image blurring |
WO2014087807A1 (ja) * | 2012-12-05 | 2014-06-12 | 富士フイルム株式会社 | 撮像装置、異常斜め入射光検出方法及びプログラム、並びに記録媒体 |
WO2014087804A1 (ja) * | 2012-12-07 | 2014-06-12 | 富士フイルム株式会社 | 撮像装置、画像処理方法及びプログラム |
CN104995912B (zh) * | 2013-03-05 | 2017-03-08 | 富士胶片株式会社 | 摄像装置、图像处理装置及图像处理方法 |
DE112013006817B4 (de) * | 2013-03-13 | 2022-07-14 | Fujifilm Corporation | Bildaufnahmevorrichtung, Signalverarbeitungsverfahren und Signalverarbeitungsprogramm |
US10334151B2 (en) | 2013-04-22 | 2019-06-25 | Google Llc | Phase detection autofocus using subaperture images |
US10565734B2 (en) | 2015-04-15 | 2020-02-18 | Google Llc | Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline |
US10546424B2 (en) | 2015-04-15 | 2020-01-28 | Google Llc | Layered content delivery for virtual and augmented reality experiences |
US10341632B2 (en) | 2015-04-15 | 2019-07-02 | Google Llc. | Spatial random access enabled video system with a three-dimensional viewing volume |
US10275898B1 (en) | 2015-04-15 | 2019-04-30 | Google Llc | Wedge-based light-field video capture |
US10444931B2 (en) | 2017-05-09 | 2019-10-15 | Google Llc | Vantage generation and interactive playback |
US10440407B2 (en) | 2017-05-09 | 2019-10-08 | Google Llc | Adaptive control for immersive experience delivery |
US10412373B2 (en) | 2015-04-15 | 2019-09-10 | Google Llc | Image capture for virtual reality displays |
US10419737B2 (en) | 2015-04-15 | 2019-09-17 | Google Llc | Data structures and delivery methods for expediting virtual reality playback |
US11328446B2 (en) | 2015-04-15 | 2022-05-10 | Google Llc | Combining light-field data with active depth data for depth map generation |
US10567464B2 (en) | 2015-04-15 | 2020-02-18 | Google Llc | Video compression with adaptive view-dependent lighting removal |
US10469873B2 (en) | 2015-04-15 | 2019-11-05 | Google Llc | Encoding and decoding virtual reality video |
US10540818B2 (en) | 2015-04-15 | 2020-01-21 | Google Llc | Stereo image generation and interactive playback |
US9979909B2 (en) * | 2015-07-24 | 2018-05-22 | Lytro, Inc. | Automatic lens flare detection and correction for light-field images |
KR101714315B1 (ko) * | 2016-05-04 | 2017-03-08 | 현대자동차주식회사 | 보간법을 이용한 터치 입력 인식 장치 및 방법 |
US10275892B2 (en) | 2016-06-09 | 2019-04-30 | Google Llc | Multi-view scene segmentation and propagation |
JP2018093257A (ja) * | 2016-11-30 | 2018-06-14 | オリンパス株式会社 | 撮像装置 |
US10679361B2 (en) | 2016-12-05 | 2020-06-09 | Google Llc | Multi-view rotoscope contour propagation |
US10594945B2 (en) | 2017-04-03 | 2020-03-17 | Google Llc | Generating dolly zoom effect using light field image data |
US10474227B2 (en) | 2017-05-09 | 2019-11-12 | Google Llc | Generation of virtual reality with 6 degrees of freedom from limited viewer data |
US10354399B2 (en) | 2017-05-25 | 2019-07-16 | Google Llc | Multi-view back-projection to a light-field |
US10545215B2 (en) | 2017-09-13 | 2020-01-28 | Google Llc | 4D camera tracking and optical stabilization |
US10965862B2 (en) | 2018-01-18 | 2021-03-30 | Google Llc | Multi-camera navigation interface |
US10645358B2 (en) | 2018-02-20 | 2020-05-05 | Gopro, Inc. | Saturation management for luminance gains in image processing |
JP7038257B2 (ja) * | 2019-05-15 | 2022-03-17 | 富士フイルム株式会社 | 漏れ光検出装置、撮像装置、漏れ光検出方法、及び漏れ光検出プログラム |
WO2021138870A1 (en) * | 2020-01-09 | 2021-07-15 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Multi-frame noise reduction method, terminal, and system |
TW202143213A (zh) * | 2020-02-03 | 2021-11-16 | 日商索尼半導體解決方案公司 | 電子機器 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006184321A (ja) * | 2004-12-24 | 2006-07-13 | Canon Inc | 焦点検出装置および焦点検出装置を備えた光学機器 |
JP2008242333A (ja) * | 2007-03-29 | 2008-10-09 | Canon Inc | 撮像装置及びその制御方法 |
JP2010062640A (ja) * | 2008-09-01 | 2010-03-18 | Canon Inc | 撮像装置、撮像装置の制御方法及びプログラム |
JP2013125046A (ja) * | 2011-12-13 | 2013-06-24 | Nikon Corp | 撮像装置及びカメラシステム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1528797B1 (en) * | 2003-10-31 | 2015-07-08 | Canon Kabushiki Kaisha | Image processing apparatus, image-taking system and image processing method |
KR100617781B1 (ko) * | 2004-06-29 | 2006-08-28 | 삼성전자주식회사 | 이미지 센서의 화질 개선장치 및 방법 |
JP4218723B2 (ja) * | 2006-10-19 | 2009-02-04 | ソニー株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
EP2179581B1 (en) * | 2007-08-10 | 2015-11-11 | Canon Kabushiki Kaisha | Image-pickup apparatus and control method therof |
US8638342B2 (en) * | 2009-10-20 | 2014-01-28 | Apple Inc. | System and method for demosaicing image data using weighted gradients |
JP5888940B2 (ja) * | 2011-11-11 | 2016-03-22 | オリンパス株式会社 | 撮像装置、撮像装置の制御方法、およびプログラム |
US9253373B2 (en) * | 2012-06-06 | 2016-02-02 | Apple Inc. | Flare detection and mitigation in panoramic images |
-
2013
- 2013-04-09 CN CN201380024517.8A patent/CN104285435B/zh active Active
- 2013-04-09 JP JP2014514410A patent/JP5657182B2/ja active Active
- 2013-04-09 WO PCT/JP2013/060736 patent/WO2013168505A1/ja active Application Filing
-
2014
- 2014-11-07 US US14/535,908 patent/US9264636B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006184321A (ja) * | 2004-12-24 | 2006-07-13 | Canon Inc | 焦点検出装置および焦点検出装置を備えた光学機器 |
JP2008242333A (ja) * | 2007-03-29 | 2008-10-09 | Canon Inc | 撮像装置及びその制御方法 |
JP2010062640A (ja) * | 2008-09-01 | 2010-03-18 | Canon Inc | 撮像装置、撮像装置の制御方法及びプログラム |
JP2013125046A (ja) * | 2011-12-13 | 2013-06-24 | Nikon Corp | 撮像装置及びカメラシステム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105744242A (zh) * | 2014-12-26 | 2016-07-06 | 佳能株式会社 | 图像处理设备、摄像设备和图像处理方法 |
US9936105B2 (en) | 2014-12-26 | 2018-04-03 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2018006881A (ja) * | 2016-06-29 | 2018-01-11 | 株式会社シグマ | 画像処理装置及び画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20150062386A1 (en) | 2015-03-05 |
JPWO2013168505A1 (ja) | 2016-01-07 |
US9264636B2 (en) | 2016-02-16 |
CN104285435B (zh) | 2016-09-28 |
JP5657182B2 (ja) | 2015-01-21 |
CN104285435A (zh) | 2015-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5657182B2 (ja) | 撮像装置及び信号補正方法 | |
JP5542249B2 (ja) | 撮像素子及びこれを用いた撮像装置及び撮像方法 | |
JP5690974B2 (ja) | 撮像装置及び合焦制御方法 | |
JP5697801B2 (ja) | 撮像装置及び自動焦点調節方法 | |
JP5775977B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及び画像処理プログラム | |
JP5799178B2 (ja) | 撮像装置及び合焦制御方法 | |
JP6031587B2 (ja) | 撮像装置、信号処理方法、信号処理プログラム | |
JP5982601B2 (ja) | 撮像装置及び合焦制御方法 | |
JP5779726B2 (ja) | 撮像装置及び露出決定方法 | |
JPWO2014080674A1 (ja) | 撮像装置、デフォーカス量演算方法、及び撮像光学系 | |
JP5677625B2 (ja) | 信号処理装置、撮像装置、信号補正方法 | |
JP5872122B2 (ja) | 撮像装置及び合焦制御方法 | |
US11184523B2 (en) | Imaging apparatus with phase difference detecting element | |
JP5978411B2 (ja) | 撮像装置及び合焦制御方法 | |
WO2015118723A1 (ja) | 撮像装置及び合焦制御方法 | |
JP5542248B2 (ja) | 撮像素子及び撮像装置 | |
WO2017208702A1 (ja) | 撮像素子及び撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13788183 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2014514410 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 13788183 Country of ref document: EP Kind code of ref document: A1 |