WO2014041845A1 - 撮像装置及び信号処理方法 - Google Patents

撮像装置及び信号処理方法 Download PDF

Info

Publication number
WO2014041845A1
WO2014041845A1 PCT/JP2013/062948 JP2013062948W WO2014041845A1 WO 2014041845 A1 WO2014041845 A1 WO 2014041845A1 JP 2013062948 W JP2013062948 W JP 2013062948W WO 2014041845 A1 WO2014041845 A1 WO 2014041845A1
Authority
WO
WIPO (PCT)
Prior art keywords
phase difference
imaging
pixel cell
difference detection
detection pixel
Prior art date
Application number
PCT/JP2013/062948
Other languages
English (en)
French (fr)
Inventor
和紀 井上
岩崎 洋一
貴嗣 青木
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2014535394A priority Critical patent/JP5657184B2/ja
Priority to CN201380047550.2A priority patent/CN104641276B/zh
Publication of WO2014041845A1 publication Critical patent/WO2014041845A1/ja
Priority to US14/644,899 priority patent/US9762838B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/745Circuitry for generating timing or clock signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets

Definitions

  • the present invention relates to an imaging apparatus and a signal processing method.
  • an imaging device In recent years, with the increase in the resolution of solid-state imaging devices such as CCD (Charge Coupled Device) image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors, mobile phones such as digital still cameras, digital video cameras, and smartphones, PDA (Personal Digital). Demand for information equipment having a photographing function such as an assistant (mobile information terminal) is rapidly increasing. Note that an information device having the above imaging function is referred to as an imaging device.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • imaging apparatuses employ a contrast AF (Auto Focus) method or a phase difference AF method as a focusing control method for focusing on a main subject. Since the phase difference AF method can detect the in-focus position at a higher speed and with higher accuracy than the contrast AF method, it is widely used in various imaging apparatuses.
  • a contrast AF Auto Focus
  • a phase difference AF method can detect the in-focus position at a higher speed and with higher accuracy than the contrast AF method, it is widely used in various imaging apparatuses.
  • Patent Document 1 discloses an imaging apparatus that performs phase difference AF using a signal read from a pixel cell for phase difference detection, with a part of the pixel cell of the imaging element being a pixel cell for phase difference detection. ing.
  • the imaging apparatus of Patent Literature 1 includes a subject image A image obtained by imaging one of a pair of phase difference detection pixel cells and a pair of positions from lens information, ranging point information, and latest defocus information.
  • the accuracy of phase difference AF is improved by predicting the shading of the subject image B image obtained by imaging with the other pixel cell for phase difference detection and performing the shading correction for adjusting the light quantity ratio of the A image B image. Yes.
  • Patent Document 2 discloses a lens-interchangeable imaging apparatus that calculates a shading correction coefficient using a live view image as a technique related to shading correction.
  • Patent Document 1 the method of performing shading correction of a pair of images having a phase difference using lens information cannot cope with a lens that does not incorporate lens information.
  • Patent Document 2 since a shading correction coefficient is calculated using a live view image, shading correction can be accurately performed on any lens.
  • the technique described in Patent Document 2 is based on the premise that an image sensor having no pixel cell for phase difference detection is used. For this reason, it cannot be applied to a technique for performing shading correction of a pair of images having a phase difference.
  • the present invention has been made in view of the above circumstances, and an object thereof is to provide an imaging apparatus and a signal processing method capable of accurately performing shading correction of a pair of images having a phase difference.
  • An imaging apparatus is an imaging apparatus in which an imaging optical system is detachable, and includes a plurality of imaging pixel cells that capture an image formed by a light beam that has passed through a pupil region of the imaging optical system, and the imaging optical system A plurality of first phase difference detection pixel cells for capturing one of a pair of images formed by a pair of light beams that have passed through different parts of the pupil region, and a plurality of second for capturing the other of the pair of images.
  • An imaging device including the phase difference detection pixel cell, an output signal of the imaging pixel cell included in a captured image signal obtained by imaging a subject with the imaging device, and the first phase difference detection pixel cell.
  • An output signal and an output signal of the second phase difference detection pixel cell are used to correct a sensitivity difference between the first phase difference detection pixel cell and the second phase difference detection pixel cell.
  • Correction data generation to generate correction data
  • a signal correction unit that corrects at least one of the output signal of the first phase difference detection pixel cell and the output signal of the second phase difference detection pixel cell according to the correction data.
  • the data generation unit includes a ratio between the output signal of the first phase difference detection pixel cell and the output signal of the imaging pixel cell adjacent to the first phase difference detection pixel cell, and the first Calculate the ratio between the output signal of the second phase difference detection pixel cell adjacent to the phase difference detection pixel cell and the output signal of the imaging pixel cell adjacent to the second phase difference detection pixel cell.
  • the correction data is generated based on the two ratios.
  • the signal processing method of the present invention is a signal processing method in an imaging apparatus in which an imaging optical system is detachable, and a plurality of imaging pixel cells that capture an image formed by a light beam that has passed through a pupil region of the imaging optical system.
  • a plurality of first phase difference detection pixel cells that capture one of a pair of images formed by a pair of light beams that have passed through different portions of the pupil region of the imaging optical system, and the other of the pair of images
  • An image of a subject is picked up by an image pickup device including a plurality of second phase difference detection pixel cells, and an output signal of the image pickup pixel cell included in a picked-up image signal obtained by the image pickup, the first phase difference detection Using the output signal of the pixel cell and the output signal of the second phase difference detection pixel cell, the sensitivity difference between the first phase difference detection pixel cell and the second phase difference detection pixel cell is corrected.
  • Correction data A correction data generation step for generating, a signal correction step for correcting at least one of the output signal of the first phase difference detection pixel cell and the output signal of the second phase difference detection pixel cell according to the correction data; In the correction data generation step, a ratio between an output signal of the first phase difference detection pixel cell and an output signal of the imaging pixel cell adjacent to the first phase difference detection pixel cell; and An output signal of the second phase difference detection pixel cell proximate to the first phase difference detection pixel cell and an output signal of the imaging pixel cell proximate to the second phase difference detection pixel cell; The correction data is generated based on the two ratios.
  • an imaging apparatus and a signal processing method capable of accurately performing shading correction of a pair of images having a phase difference.
  • FIG. 1 is a schematic plan view showing a configuration of a solid-state imaging device 5 mounted on the digital camera shown in FIG.
  • movement of the digital camera shown in FIG. Flowchart showing a modification of the processing from steps S4 to S6 in FIG.
  • the figure for demonstrating step S44 of FIG. The figure which shows the modification of the flowchart shown in FIG.
  • the figure which shows the state when the to-be-photographed object's edge has applied to the solid-state image sensor The figure which shows the solid-state image sensor 5a which is a modification of the solid-state image sensor 5 shown in FIG.
  • FIG. 1 is a diagram showing a schematic configuration of a digital camera as an example of an imaging apparatus for explaining an embodiment of the present invention.
  • the imaging system of the digital camera shown in FIG. 1 includes a lens device (including a photographing lens 1 and a diaphragm 2) as an imaging optical system, and a CMOS solid-state imaging device 5.
  • the solid-state imaging device 5 is a CMOS type, but a CCD type may be used.
  • the lens device including the taking lens 1 and the diaphragm 2 is detachable from the camera body and can be replaced with another one.
  • the system control unit 11 that controls the entire electric control system of the digital camera controls the flash light emitting unit 12 and the light receiving unit 13. Further, the system control unit 11 controls the lens driving unit 8 to adjust the position of the focus lens included in the photographing lens 1 or adjust the position of the zoom lens included in the photographing lens 1. Further, the system control unit 11 adjusts the exposure amount by controlling the aperture amount of the aperture 2 via the aperture drive unit 9.
  • system control unit 11 drives the solid-state imaging device 5 via the imaging device driving unit 10 and outputs a subject image captured through the photographing lens 1 as a captured image signal.
  • An instruction signal from the user is input to the system control unit 11 through the operation unit 14.
  • the electric control system of the digital camera further includes an analog signal processing unit 6 that performs analog signal processing such as correlated double sampling processing connected to the output of the solid-state imaging device 5, and an analog output from the analog signal processing unit 6. And an A / D conversion circuit 7 for converting the signal into a digital signal.
  • the analog signal processing unit 6 and the A / D conversion circuit 7 are controlled by the system control unit 11.
  • the analog signal processing unit 6 and the A / D conversion circuit 7 may be built in the solid-state imaging device 5.
  • the electric control system of the digital camera includes an interpolation calculation and a gamma correction for the main memory 16, the memory control unit 15 connected to the main memory 16, and the captured image signal output from the A / D conversion circuit 7.
  • a digital signal processing unit 17 that performs calculation, RGB / YC conversion processing, and the like to generate captured image data, and the captured image data generated by the digital signal processing unit 17 is compressed into a JPEG format or the compressed image data is expanded.
  • a compression / decompression processing unit 18, a defocus amount calculation unit 19 that calculates a defocus amount, an external memory control unit 20 to which a detachable recording medium 21 is connected, and a display unit 23 mounted on the back of the camera or the like. Is connected to the display control unit 22.
  • the memory control unit 15, digital signal processing unit 17, compression / decompression processing unit 18, defocus amount calculation unit 19, external memory control unit 20, and display control unit 22 are connected to each other by a control bus 24 and a data bus 25. It is controlled by a command from the system control unit 11.
  • FIG. 2 is a schematic plan view showing the configuration of the solid-state imaging device 5 mounted on the digital camera shown in FIG.
  • the solid-state imaging device 5 includes a large number of pixel cells 51 (each square block in the drawing) arranged two-dimensionally in a row direction X and a column direction Y orthogonal thereto. Although all the pixel cells 51 are not shown in FIG. 2, in reality, about several million to several tens of thousands of pixel cells 51 are two-dimensionally arranged.
  • an output signal is obtained from each of the large number of pixel cells 51. This set of output signals is referred to as a captured image signal in this specification.
  • Each pixel cell 51 includes a photoelectric conversion unit such as a photodiode, a color filter formed above the photoelectric conversion unit, and a signal output circuit that outputs a signal corresponding to the signal charge accumulated in the photoelectric conversion unit. .
  • the signal output circuit is a well-known MOS circuit, for example, a charge storage unit to which charges accumulated in the photoelectric conversion unit are transferred, and a transfer transistor for transferring the charges of the photoelectric conversion unit to the charge storage unit
  • a reset transistor for resetting the potential of the charge storage unit
  • an output transistor for outputting a signal corresponding to the potential of the charge storage unit
  • a row selection transistor for selectively outputting a signal from the output transistor to the output signal line
  • a pixel cell 51 including a color filter that transmits red light is given a letter “R”
  • a pixel cell 51 that contains a color filter that transmits green light is given a letter “G”.
  • the pixel cell 51 including a color filter that transmits blue light is marked with a letter “B”.
  • the large number of pixel cells 51 has an array in which a plurality of pixel cell rows including a plurality of pixel cells 51 arranged in the row direction X are arranged in the column direction Y.
  • the odd-numbered pixel cell rows and the even-numbered pixel cell rows are shifted in the row direction X by about 1 ⁇ 2 of the arrangement pitch of the pixel cells 51 of each pixel cell row.
  • the array of color filters included in each pixel cell 51 in the odd-numbered pixel cell row is a Bayer array as a whole.
  • the arrangement of the color filters included in each pixel cell 51 in the even pixel cell row is also a Bayer arrangement as a whole.
  • a pixel cell 51 in an odd-numbered row and a pixel cell 51 that detects the same color light as the pixel cell 51 adjacent to the pixel cell 51 in the lower right form a pair pixel.
  • the output of the two pixel cells 51 constituting the pair pixel is added to increase the sensitivity of the camera, or the two pixels constituting the pair pixel.
  • the camera can have a wide dynamic range by changing the exposure time of the cell 51 and adding the output signals of the two pixel cells 51.
  • some of the large number of pixel cells 51 are phase difference detection pixel cells.
  • the phase difference detection pixel cell includes a plurality of phase difference detection pixel cells 51R and a plurality of phase difference detection pixel cells 51L.
  • the plurality of phase difference detection pixel cells 51R receive one of a pair of light beams that have passed through different parts of the pupil region of the photographing lens 1 (for example, a light beam that has passed through the right half of the pupil region) and receive a signal corresponding to the amount of light received. Output. That is, the plurality of phase difference detection pixel cells 51 ⁇ / b> R provided in the solid-state imaging device 5 capture an image formed by one of a pair of light beams that have passed through different portions of the pupil region of the photographing lens 1.
  • the plurality of phase difference detection pixel cells 51L receive the other of the pair of light beams (for example, a light beam that has passed through the left half of the pupil region) and output a signal corresponding to the amount of light received. That is, the plurality of phase difference detection pixel cells 51 ⁇ / b> L provided in the solid-state imaging device 5 capture an image formed by the other of the pair of light beams that have passed through different portions of the pupil region of the photographing lens 1.
  • a plurality of pixel cells 51 (hereinafter referred to as imaging pixel cells) other than the phase difference detection pixel cells 51R and 51L are images formed by light beams that have passed through almost all of the pupil region of the photographing lens 1. The image is to be taken.
  • a light shielding film is provided above the photoelectric conversion unit of the pixel cell 51, and an opening that defines a light receiving area of the photoelectric conversion unit is formed in the light shielding film.
  • the center of the opening (indicated by symbol a in FIG. 2) of the imaging pixel cell 51 coincides with the center of the photoelectric conversion unit of the imaging pixel cell 51 (the center of the square block).
  • FIG. 2 in order to simplify the drawing, only a part of the imaging pixel cell 51 is illustrated with an opening a.
  • the center of the opening (indicated by symbol c in FIG. 2) of the phase difference detection pixel cell 51R is eccentric to the right with respect to the center of the photoelectric conversion unit of the phase difference detection pixel cell 51R.
  • the center of the opening (indicated by symbol b in FIG. 2) of the phase difference detection pixel cell 51L is eccentric to the left with respect to the center of the photoelectric conversion unit of the phase difference detection pixel cell 51L.
  • a part of the pixel cell 51 on which the green color filter is mounted is the phase difference detection pixel cell 51R or the phase difference detection pixel cell 51L.
  • a pixel cell in which a color filter of another color is mounted may be used as a phase difference detection pixel cell.
  • phase difference detection pixel cell 51R and the phase difference detection pixel cell 51L are discretely and periodically disposed in the region where the pixel cell 51 is disposed.
  • the phase difference detection pixel cells 51R are arranged in the row direction X in a part of even-numbered pixel cell rows (four pixel cell rows arranged every three pixel cell rows in the example of FIG. 2). It is arranged every three pixel cells.
  • the phase difference detection pixel cell 51L has a row direction X in a part of the odd number of pixel cell rows (the pixel cell row adjacent to the pixel cell row including the phase difference detection pixel cell 51R). Are arranged in the same cycle as the phase difference detection pixel cells 51R.
  • the light received by the pixel cell 51L through the opening b of the light-shielding film is light from the left side when viewed from the subject of the photographing lens 1 provided above the paper surface of FIG.
  • the light mainly coming from the direction seen in FIG. 5 is received by the pixel cell 51R through the opening c of the light shielding film, and the light from the right side when viewed from the subject of the photographing lens 1, that is, the subject is viewed by the left eye.
  • the light coming from the other direction is the main.
  • a captured image signal in which the subject is viewed with the left eye can be obtained by all the phase difference detection pixel cells 51R, and a captured image signal in which the subject is viewed with the right eye is obtained by all of the phase difference detection pixel cells 51L. Can be obtained. For this reason, it is possible to generate stereoscopic image data of a subject by combining the both, or to generate phase difference information by performing a correlation calculation between the two.
  • phase difference detection pixel cell 51R and the phase difference detection pixel cell 51L can receive light beams that have passed through different portions of the pupil region of the photographing lens 1 by decentering the opening of the light shielding film in the opposite direction.
  • phase difference information can be obtained.
  • the structure for obtaining the phase difference information is not limited to this, and a well-known structure can be adopted.
  • the solid-state imaging device 5 further includes a vertical scanning circuit 52 and a horizontal scanning circuit 53.
  • the vertical scanning circuit 52 performs on / off control of the transfer transistor, the reset transistor, and the row selection transistor of the signal output circuit included in each pixel cell 51.
  • the horizontal scanning circuit 53 is connected to an output signal line provided for each pixel cell column including the pixel cells 51 arranged in the column direction Y, and outputs an output signal output from each pixel cell 51 in the pixel cell row to the output signal line. Sequentially output to the outside of the solid-state imaging device 5.
  • the vertical scanning circuit 52 and the horizontal scanning circuit 53 operate according to instructions from the image sensor driving unit 10 shown in FIG.
  • the image sensor driving unit 10 drives the solid-state image sensor 5 by a so-called rolling shutter system in which the exposure period is shifted by a certain time for each pixel cell row.
  • the defocus amount calculation unit 19 shown in FIG. 1 uses the output signal group read from the phase difference detection pixel cell 51L and the phase difference detection pixel cell 51R to relative the two images formed by the pair of light beams.
  • a phase difference amount which is a typical positional deviation amount, and based on this phase difference amount, a focus adjustment state of the photographing lens 1, here, an amount away from the in-focus state and its direction, that is, a defocus amount is calculated. To do.
  • the system control unit 11 illustrated in FIG. 1 moves the focus lens included in the imaging lens 1 to the in-focus position based on the defocus amount calculated by the defocus amount calculation unit 19 to focus the imaging lens 1. Control the state.
  • the system control unit 11 functions as a focusing control unit.
  • the opening of the phase difference detection pixel cell 51R and the phase difference detection pixel cell 51L is eccentric in the opposite direction. Therefore, even if the positions of the openings in the eccentric direction (row direction X in FIG. 2) are substantially the same, a difference in sensitivity occurs between the phase difference detection pixel cell 51R and the phase difference detection pixel cell 51L.
  • FIG. 3 is a diagram showing the sensitivity ratio of the phase difference detection pixel cells 51R and 51L at the position in the row direction X in the solid-state imaging device 5.
  • the straight line indicated by reference numeral 51R indicates the sensitivity ratio of the phase difference detection pixel cell 51R
  • the straight line indicated by reference numeral 51L indicates the sensitivity ratio of the phase difference detection pixel cell 51L.
  • the sensitivity ratio means a ratio of output signals of adjacent phase difference detection pixel cells and imaging pixel cells (however, the same color light is detected as the phase difference detection pixel cells).
  • two adjacent pixel cells refer to two pixel cells that are close enough to be regarded as receiving light from substantially the same subject portion.
  • the sensitivity ratio is a numerical value indicated by A / B or B / A, where A is the output signal level of the phase difference detection pixel cell and B is the output signal level of the imaging pixel cell.
  • phase difference detection pixel cells 51R and 51L are also periodically arranged in the column direction Y. Therefore, the data shown in FIG. 3 is an average of the sensitivity ratio data for the phase difference detection pixel cells 51R (51L) having the same position in the row direction X.
  • the output signals of the plurality of phase difference detection pixel cells 51R and the output signals of the plurality of phase difference detection pixel cells 51L each independently have different levels for each position in the row direction X depending on the subject, shading is performed. I don't know what the shape looks like. However, as shown in FIG. 3, if the sensitivity ratio, which is the ratio between the phase difference detection pixel cell and the output signal of the imaging pixel cell adjacent thereto, is obtained, the sensitivity distribution (shading shape) of the phase difference detection pixel cell is obtained. )
  • the positions of the phase difference detection pixel cell 51R and the phase difference detection pixel cell 51L in the row direction X are not exactly the same. However, in FIG. 51R and the phase difference detection pixel cell 51L are treated as having the same position in the row direction X.
  • the opening b of the phase difference detection pixel cell 51L is eccentric to the left in FIG. For this reason, in FIG. 2, it becomes easier for light to enter the opening b of the phase difference detection pixel cell 51 ⁇ / b> L at the left end of the solid-state imaging device 5 as compared with the central portion of the solid-state imaging device 5. On the other hand, light is less likely to enter the opening b of the phase difference detection pixel cell 51 ⁇ / b> L at the right end of the solid-state image sensor 5 compared to the center of the solid-state image sensor 5.
  • phase difference detection pixel cell 51R is decentered in the opposite direction in the row direction X with respect to the opening c of the phase difference detection pixel cell 51L. Therefore, the sensitivity ratio characteristics are opposite to those of the phase difference detection pixel cell 51L. Become.
  • the sensitivity ratio of the pixel cell 51L for phase difference detection becomes lower from the left end portion of the solid-state imaging device 5 toward the right end portion. Further, the sensitivity ratio of the phase difference detection pixel cell 51 ⁇ / b> R increases as it goes from the left end to the right end of the solid-state imaging device 5.
  • the sensitivity ratio of the phase difference detection pixel cell 51L and the sensitivity ratio of the phase difference detection pixel cell 51R are substantially the same in the central portion of the solid-state imaging device 5.
  • the defocus amount calculation unit 19 outputs the output signal of the phase difference detection pixel cell 51R so as to eliminate the sensitivity difference between the phase difference detection pixel cell 51R and the phase difference detection pixel cell 51L. And function as a signal correction unit that corrects the output signal of the pixel cell 51L for phase difference detection according to the correction data, and functions as a phase difference calculation unit that calculates the phase difference amount using the corrected output signal. Fulfill.
  • the defocus amount calculation unit 19 outputs the output signal of each phase difference detection pixel cell 51R (51L) and the phase difference detection pixel cell 51R (51L) among the captured image signals obtained by imaging with the solid-state imaging device 5. It functions as a correction data generation unit that generates the correction data, and a recording control unit that records the generated correction data on a recording medium, using the output signal of the imaging pixel cell 51 that is close to the pixel.
  • the defocus amount calculation unit 19 calculates the sensitivity ratio of the phase difference detection pixel cell 51R and the sensitivity ratio of the phase difference detection pixel cell 51L for each position in the row direction X using the captured image signal. 3 is generated. Then, as shown in FIG. 4, the defocus amount calculation unit 19 sets the sensitivity ratio of the phase difference detection pixel cell 51R and the sensitivity ratio of the phase difference detection pixel cell 51L to the same value at any position. A coefficient to be multiplied by the output signals of the phase difference detection pixel cells 51R and 51L is generated as the correction data.
  • the defocus amount calculation unit 19 requires the phase difference necessary to match the sensitivity ratio graph of the phase difference detection pixel cell 51L with the sensitivity ratio graph of the phase difference detection pixel cell 51R shown in FIG. A coefficient to be multiplied by the output signal of the detection pixel cell 51L is generated as the correction data.
  • the defocus amount calculation unit 19 requires the phase difference necessary for matching the sensitivity ratio graph of the phase difference detection pixel cell 51L shown in FIG. 3 with the sensitivity ratio graph of the phase difference detection pixel cell 51R.
  • a coefficient to be multiplied by the output signal of the detection pixel cell 51R is generated as the correction data.
  • FIG. 5 is a flowchart for explaining the operation of the digital camera shown in FIG.
  • the system control unit 11 starts imaging (moving image imaging) for displaying the live view image on the display unit 23 by the solid-state imaging device 5.
  • imaging moving image imaging
  • the captured image signal output from the solid-state image sensor 5 is processed by the digital signal processing unit 17, and an image based on the processed captured image data is displayed on the display unit 23.
  • the subject being imaged can be confirmed in real time by the image displayed on the display unit 23.
  • the system control unit 11 acquires a lens ID, which is identification information for identifying the lens device mounted on the camera body (step S1). ).
  • the defocus amount calculation unit 19 acquires information on the optical conditions of the lens apparatus from the system control unit 11 (step S2).
  • This optical condition is information relating to a parameter that determines the angle of the light ray incident on the solid-state imaging device 5 and includes information such as an aperture F value and a focal length at the time of imaging.
  • step S3: YES if the correction data corresponding to the combination of the lens ID acquired in step S1 and the optical condition acquired in step S2 is stored in the main memory 16 (step S3: YES), the defocus amount calculation unit 19 The process proceeds to step S7, and if the correction data is not stored in the main memory 16 (step S3: NO), the process proceeds to step S4.
  • step S ⁇ b> 4 the defocus amount calculation unit 19 acquires the captured image signal output from the solid-state image sensor 5. Then, the defocus amount calculation unit 19 generates the data shown in FIG. 3 using the acquired captured image signal, and generates correction data from this data (step S5).
  • the defocus amount calculation unit 19 stores the generated correction data, the lens ID acquired in step S1 and the optical condition information acquired in step S2 in association with each other in the main memory 16 (step S6).
  • step S6 the defocus amount calculation unit 19 returns the process to step S2 when the optical condition of the lens apparatus is changed (step S7: YES), and when the optical condition of the lens apparatus is not changed (step). (S7: NO) shifts the processing to step S8.
  • step S8 the defocus amount calculation unit 19 determines whether or not an instruction to perform phase difference AF has been given to the system control unit 11, and if an AF instruction has been issued (step S8: YES), the process proceeds to step S9. If the process is shifted and no AF instruction is given (step S8: NO), the process returns to step S7.
  • step S ⁇ b> 9 the defocus amount calculation unit 19 captures an image signal obtained by imaging with the solid-state imaging device 5 in response to the AF instruction, information on optical conditions at the time of imaging, and the currently mounted lens device. Are acquired from the system control unit 11.
  • the defocus amount calculation unit 19 reads out correction data corresponding to the combination of the lens ID and the optical condition acquired in step S9 from the main memory 16, and uses the correction data in the captured image signal acquired in step S9.
  • the output signal of the phase difference detection pixel cell to be corrected is corrected (step S10).
  • the defocus amount calculation unit 19 performs correlation calculation using the output signal of the phase difference detection pixel cell after correction, the image captured by the phase difference detection pixel cell 51R, and the phase difference detection pixel. A phase difference amount between the image picked up by the cell 51L is calculated, and a defocus amount is calculated based on the phase difference amount (step S11).
  • step S11 the system control unit 11 performs focus control for moving the focus lens to the focus position based on the defocus amount (step S12), and thereafter enters an imaging standby state.
  • the processing after step S1 is performed at that time. Further, if there is a change in the optical conditions in the imaging standby state, the processing after step S2 is performed at that time.
  • Correction data for correcting the error can be generated. For this reason, it is not necessary to generate correction data in advance and store it in the camera body in correspondence with any lens apparatus that can be attached to the digital camera, and the number of adjustment steps of the camera can be reduced.
  • correction data can be generated and stored simply by mounting the lens device and setting the photographing mode. For this reason, phase difference AF can be performed with high accuracy regardless of which lens device is mounted.
  • the generated correction data is stored in association with the lens ID and the optical condition, and thereafter, the sensitivity ratio of the pixel cell for phase difference detection is corrected using the stored correction data.
  • the sensitivity ratio of the pixel cell for phase difference detection is corrected using the stored correction data.
  • it is not limited to this.
  • the defocus amount calculation unit 19 For example, every time an AF instruction is given, the defocus amount calculation unit 19 generates correction data from the captured image signal, corrects the output signal of the phase difference detection pixel cell using this correction data, The phase difference amount may be calculated using a signal. By doing so, the memory capacity can be reduced.
  • correction data corresponding to a certain lens ID and optical condition is stored in the main memory 16, it is preferable to periodically generate correction data corresponding to this lens ID and optical condition. In this way, even when there is a slight difference in the performance of the lens device and the performance of the solid-state imaging device 5 due to long-term use of the lens device, correct correction data suitable for the situation can be generated.
  • the solid-state imaging device 5 having three types of pixel cells, that is, the imaging pixel cell 51, the phase difference detection pixel cell 51R, and the phase difference detection pixel cell 51L is used. Therefore, data corresponding to shading as shown in FIG. 3 can be generated by one imaging. Therefore, the time required to generate the correction data can be shortened, and as described above, the embodiment in which the correction data is generated every time an AF instruction is issued is particularly advantageous.
  • the correction data generated by the defocus amount calculation unit 19 is recorded in the main memory 16 of the digital camera in association with the identification information of the lens device.
  • the correction data generated by the defocus amount calculation unit 19 may be recorded on a recording medium in the lens device in association with the identification information of the digital camera.
  • FIG. 6 is a flowchart for explaining the operation of the digital camera when the correction data generated by the defocus amount calculation unit 19 is recorded on a recording medium in the lens apparatus.
  • FIG. 6 the same processes as those shown in FIG.
  • the defocus amount calculation unit 19 When the defocus amount calculation unit 19 is set to the photographing mode, the information on the optical conditions of the lens apparatus is acquired from the system control unit 11 in step S2.
  • the defocus amount calculation unit 19 stores correction data corresponding to the combination of the camera ID of the digital camera stored in the main memory 16 and the optical condition acquired in step S2 in the memory in the lens apparatus. If so (step S3A: YES), the process proceeds to step S7. If the correction data is not stored in the memory in the lens apparatus (step S3A: NO), the process proceeds to step S4.
  • the defocus amount calculation unit 19 associates the correction data generated in step S5, the camera ID, and the optical condition information acquired in step S2, and these are associated with the system control unit 11. Is stored in the memory in the lens device via (step S6A).
  • Step S8 When YES, the defocus amount calculation unit 19 uses the captured image signal obtained by imaging with the solid-state imaging device 5 in response to the AF instruction, and information on the optical conditions at the time of imaging, as the system control unit 11 Correction data corresponding to the optical condition information is acquired from the memory in the lens device via the system control unit 11 (step S9A).
  • the defocus amount calculation unit 19 performs correction according to the acquired correction data (step S10), and the processing of steps S11 and S12 is performed.
  • step S2 when the lens apparatus is replaced at an arbitrary timing during the photographing mode, the processing after step S2 is performed at that time.
  • the defocus amount calculation unit 19 does not generate correction data using a captured image signal obtained by one imaging, but uses a plurality of captured image signals obtained by a plurality of imaging operations. To generate correction data.
  • FIG. 7 is a flowchart showing a modification of the processing from steps S4 to S5 in FIG. This modification can also be applied in FIG.
  • continuous imaging moving image capturing
  • the solid-state imaging device 5 for live view image display a captured image signal obtained by each imaging is stored in the main memory 16.
  • step S41 the defocus amount calculation unit 19 obtains a live view image obtained at an arbitrary time T (n) after step S2 in FIGS.
  • the captured image signal G (n) for display is acquired from the main memory 16 and stored in the internal memory.
  • step S42 when the number of captured image signals stored in the internal memory is two or more (step S42: YES), the defocus amount calculation unit 19 performs the process of step S43 and stores the captured image signals stored in the internal memory. If the number of image signals is less than two (step S42: NO), “n” of T (n) is changed to “n + 1”, and the process of step S41 is performed. The time T (n) indicates that the time is newer as the number “n” is larger.
  • the defocus amount calculation unit 19 compares the captured image signal G (n) and the captured image signal G (n + 1) in step S43 and based on both. It is determined whether there is a large difference between subject images.
  • the defocus amount calculation unit 19 calculates a difference between signals at the same coordinates of the captured image signal G (n) and the captured image signal G (n + 1), and the difference is determined in advance. If it exceeds the threshold value, it is determined that the captured image signal G (n + 1) has a large change in the subject with respect to the captured image signal G (n).
  • the defocus amount calculation unit 19 determines that there is no significant change in the subject between the captured image signal G (n) and the captured image signal G (n + 1) if the difference is equal to or less than a predetermined threshold. .
  • step S43 When the determination in step S43 is YES, the defocus amount calculation unit 19 deletes the captured image signal G (n + 1) stored in the internal memory (step S44), and then performs the process of step S45.
  • the defocus amount calculating unit 19 When there are captured image signals G (1) to G (4) and the sun light H is reflected only in the captured image signal (3), the defocus amount calculating unit 19 The captured image signal G (3) is deleted from the internal memory.
  • step S43 When the determination in step S43 is NO, the defocus amount calculation unit 19 performs the process in step S45 without performing the process in step S44.
  • step S45 the defocus amount calculation unit 19 determines whether or not the number of captured image signals stored in the internal memory has reached a predetermined number (this number is M).
  • the defocus amount calculation unit 19 performs the process of step S47 when the determination of step S45 is YES, changes “n” to “n + 1” when the determination of step S45 is NO, and performs the process of step S41. Do.
  • step S47 the defocus amount calculation unit 19 performs processing for calculating the average value of the output signals at the same coordinates of the M captured image signals stored in the internal memory for all coordinates (step S47). That is, M captured image signals are averaged to generate one captured image signal.
  • the defocus amount calculation unit 19 generates correction data in the same manner as described above using one averaged captured image signal obtained as a result of step S47 (step S48).
  • the defocus amount calculation unit 19 generates correction data using captured image signals obtained by averaging a plurality of captured image signals. Random noise included in each output signal can be reduced by averaging a plurality of captured image signals. For this reason, the S / N ratio of the picked-up image signal after averaging can be improved, and the reliability of the generated correction data can be increased.
  • the noise reduction effect by averaging a plurality of captured image signals is expressed by the following equation when converted to an Ev value.
  • the number M of the captured image signals necessary for averaging is the noise performance required for accurately obtaining the sensitivity ratio data shown in FIG. 3 and the acquired image signal before averaging. It can be determined by the ISO sensitivity at the time of imaging.
  • the noise performance required to obtain highly reliable correction data varies depending on the noise performance of the solid-state imaging device 5. For this reason, the required noise performance should just determine the value according to the performance of the solid-state image sensor 5 mounted in a digital camera.
  • FIG. 7 is a flowchart on the premise that the captured image signal is averaged.
  • averaging may not be necessary depending on shooting conditions (subject brightness) and noise performance. Therefore, after step S3: NO in FIG. 5 (or step S3A: NO in FIG. 6), the defocus amount calculation unit 19 determines whether averaging is necessary and determines that averaging is necessary ( For example, if the required noise performance is equivalent to ISO 100 and the ISO sensitivity at the time of imaging is greater than ISO 200), the process after step S41 in FIG.
  • the determination for example, when the required noise performance is equivalent to ISO 100 and the ISO sensitivity at the time of imaging is ISO 100
  • M captured image signals are necessary for generating correction data.
  • the frame rate (the number of captured image signals (frames) output per unit time) in moving image capturing for live view image display is fixed.
  • the frame rate is 30 frames per second and M is 60, at least 2 seconds are required to generate correction data.
  • the frame rate is increased, the time until the correction data is generated can be shortened.
  • the defocus amount calculation unit 19 instructs the system control unit 11 to increase the frame rate, and the system control unit 11 performs control to increase the frame rate. It is preferable to carry out the treatment.
  • FIG. 9 is a diagram showing a modification of the flowchart shown in FIG. In FIG. 9, the same processes as those in FIG.
  • the defocus amount calculation unit 19 acquires information on exposure time (shutter speed) in each imaging for live view image display from the system control unit 11, and determines whether or not the shutter speed is smaller than the threshold value TH. (Step S50).
  • step S50 When the shutter speed is smaller than the threshold value TH (step S50: YES), the defocus amount calculation unit 19 increases the frame rate (for example, to twice the default value of the frame rate during moving image capturing for live view image display). To the system control unit 11 (step S51), and thereafter, the processing after step S41 is performed.
  • the frame rate for example, to twice the default value of the frame rate during moving image capturing for live view image display.
  • step S50 when the shutter speed is equal to or higher than the threshold value TH (step S50: NO), the defocus amount calculation unit 19 performs the processing after step S41 without performing the processing of step S51.
  • the system control unit 11 that has received an instruction to increase the frame rate in step S51 sets the frame rate to twice the default value. By doing in this way, the time until the number of captured image signals reaches M can be halved compared to the case where the frame rate is fixed at the default value.
  • the system control unit 11 performs control to increase the frame rate during imaging for obtaining M captured image signals to be higher than the default frame rate during moving image capturing. It functions as a frame rate control unit that performs according to the exposure time of each frame set at the time of imaging.
  • increasing the frame rate means shortening the time required to acquire one captured image signal (hereinafter referred to as frame acquisition time). For example, when the frame rate is 30 frames / second, the frame acquisition time is 1/30 seconds.
  • step S50 it is determined whether or not to perform the process in step S51 according to the shutter speed.
  • the frame acquisition time when the frame rate is increased in step S51 is set as the threshold value TH.
  • the threshold value TH is 1/60 seconds.
  • step S51 when the shutter speed in each imaging for live view image display is, for example, 1/40 seconds, the process of step S51 is not performed. On the other hand, when the shutter speed in each imaging for live view image display is 1/100 second, the process of step S51 is performed.
  • step S45: YES When the processing after step S41 is started and the number of captured image signals reaches M in step S45 (step S45: YES), the defocus amount calculation unit 19 determines that the frame rate is larger than the default value. (Step S52: YES), the system control unit 11 is instructed to return the frame rate to the default value, and thereafter, the processing after Step S47 is performed. In accordance with this instruction, the system control unit 11 performs control to return the frame rate to the default value.
  • step S52 NO
  • the defocus amount calculation unit 19 performs the processing after step S47 without performing the processing of step S53.
  • the defocus amount calculation unit 19 generates sensitivity ratio data shown in FIG. 3 using the captured image signal in step S5 of FIG. 5, step S48 of FIG. 7, and step S48 of FIG.
  • the correction data is generated based on this data.
  • This sensitivity ratio data is accurate when an image of a high-luminance subject is imaged and the output signals of the phase difference detection pixel cell and the imaging pixel cell adjacent thereto are saturated. I can't.
  • the defocus amount calculation unit 19 excludes the pixel cell whose output signal has reached the saturation level from the sensitivity ratio calculation target. Further, the defocus amount calculation unit 19 detects the edge portion of the subject from the captured image signal using the captured image signal, and if there is an edge portion, the pixel portion on which the edge portion is imaged is detected. Are excluded from the calculation target of the sensitivity ratio.
  • the defocus amount calculation unit 19 functions as an edge detection unit that detects an edge portion.
  • the edge portion is detected by comparing adjacent output signals of the same color component in the captured image signal. For example, since the difference between the output signals of each of the two imaging pixel cells 51 surrounded by a thick line in FIG. 10 increases, it is detected that the edge portion overlaps one of the two imaging pixel cells 51. can do. In each of the row direction X, the column direction Y, the oblique 45 ° direction from the lower left to the upper right in FIG. 10, and the oblique 45 ° direction from the upper left to the lower right in FIG. By comparing, it is possible to detect which output signal in the captured image signal corresponds to the edge portion.
  • the reliability of the correction data can be improved by excluding the pixel cell in which the output signal reaches the saturation level and the pixel cell having the edge portion from the sensitivity ratio calculation target. .
  • step S5 in FIG. 5, step S48 in FIG. 7, and step S48 in FIG. 9 the sensitivity ratio obtained from each of a plurality of captured image signals obtained continuously as the sensitivity ratio used for generating correction data. You may make it use the average value of.
  • the luminance shading shape can be detected more accurately, and the reliability of the correction data can be improved.
  • the pixel cells 51 are arranged in a so-called honeycomb pattern, but the present invention can also be applied to a solid-state imaging device in which the pixel cells 51 are arranged in a square lattice pattern.
  • FIG. 11 is a diagram showing a solid-state imaging device 5a which is a modification of the solid-state imaging device 5 shown in FIG.
  • the solid-state imaging device 5a includes a large number of pixel cells 51A arranged in a square lattice pattern in the row direction X and the column direction Y, a vertical scanning circuit 52, and a horizontal scanning circuit 53.
  • the configuration of the pixel cell 51A is the same as that of the pixel cell 51, and the color filter array is a Bayer array.
  • the large number of pixel cells 51A include a normal pixel cell 51A in which the opening a of the light shielding film is not decentered and a phase difference detection pixel cell having decentered openings d and e.
  • the pixel cell 51A having the opening d corresponds to the phase difference detection pixel cell 51L
  • the pixel cell 51A having the opening e corresponds to the phase difference detection pixel cell 51R.
  • the position in the row direction X is shifted by one pixel cell between the adjacent phase difference detection pixel cell 51R and the phase difference detection pixel cell 51L.
  • the solid-state imaging device shown in FIG. As in 5b, the adjacent phase difference detection pixel cell 51R and the phase difference detection pixel cell 51L may have the same position in the row direction X.
  • a digital camera is taken as an example of the imaging apparatus, but the present invention can be applied to any imaging apparatus that can be equipped with a lens device.
  • the technique of this embodiment can be applied even when the lens device is attached to a smartphone with a camera.
  • an example of an imaging device in which the lens device can be replaced is taken as an example.
  • the lens device is a lens-integrated imaging device fixed to the camera body, correction data is generated by the method described above.
  • the sensitivity ratio data shown in FIG. 3 may change depending on the environment during imaging.
  • the lens when a resin is used as a lens included in the imaging optical system, in imaging at high temperatures, the lens may be deformed, and the incident ray angle to the solid-state imaging device may deviate from the design. Even in such a case, as described above, by generating correction data using a captured image signal obtained by imaging with a solid-state imaging device, correction data suitable for the imaging environment can be obtained, and phase difference AF Accuracy can be improved.
  • phase difference detection pixel cells 51R and 51L are provided in such a number as to be able to capture an image with a sufficient resolution, respectively, and an image captured by the phase difference detection pixel cell 51R;
  • a stereoscopic imaging function for generating a stereoscopic image from an image captured by the phase difference detection pixel cell 51L can also be provided.
  • the correction data is generated by the above-described method, and the output signal of the phase difference detection pixel cell 51R and the output signal of the phase difference detection pixel cell 51L are corrected according to the correction data, and then a stereoscopic image is generated. I do. In this way, a stereoscopic image can be generated from two images with uniform shading characteristics, and the quality of the stereoscopic image can be improved.
  • the solid-state imaging devices 5, 5 a, 5 b are mounted with a plurality of color filters to perform color imaging, but the solid-state imaging devices 5, 5 a, 5 b have a color filter that is a single green color. Alternatively, it may be omitted and an imaging element for monochrome imaging may be used.
  • the sensitivity ratio data shown in FIG. 3 is obtained by taking the average of the sensitivity ratios of a plurality of phase difference detection pixel cells having different positions in the column direction Y, but the phase difference detection pixel cell 51R. , 51L may be generated for each row of pixel cells, and correction data may be generated for each row to correct the sensitivity ratio.
  • the disclosed imaging apparatus is an imaging apparatus in which an imaging optical system is detachable, and a plurality of imaging pixel cells that capture an image formed by a light beam that has passed through a pupil region of the imaging optical system, and the imaging optical system A plurality of first phase difference detection pixel cells for capturing one of a pair of images formed by a pair of light beams that have passed through different parts of the pupil region, and a plurality of second for capturing the other of the pair of images.
  • An imaging device including the phase difference detection pixel cell, an output signal of the imaging pixel cell included in a captured image signal obtained by imaging a subject with the imaging device, and the first phase difference detection pixel cell.
  • An output signal and an output signal of the second phase difference detection pixel cell are used to correct a sensitivity difference between the first phase difference detection pixel cell and the second phase difference detection pixel cell.
  • Correction data for generating correction data And a signal correction unit that corrects at least one of the output signal of the first phase difference detection pixel cell and the output signal of the second phase difference detection pixel cell according to the correction data,
  • the correction data generation unit includes a ratio between the output signal of the first phase difference detection pixel cell and the output signal of the imaging pixel cell adjacent to the first phase difference detection pixel cell, and the first The ratio of the output signal of the second phase difference detection pixel cell adjacent to the second phase difference detection pixel cell and the output signal of the imaging pixel cell adjacent to the second phase difference detection pixel cell is calculated. Then, the correction data is generated based on the two ratios.
  • the coefficient to be multiplied by the output signal is calculated as the correction data.
  • the correction data generation unit uses the output signal of the imaging pixel cell used for generation of the correction data, the output signal of the first phase difference detection pixel cell, and the second level. As each of the output signals of the phase difference detection pixel cell, an average value of output signals obtained by imaging the subject a plurality of times by the imaging device is used.
  • the correction data generation unit generates the correction data during moving image imaging in which imaging is continuously performed by the imaging element, and the first time when the imaging is performed a plurality of times.
  • a frame rate control unit that performs control to increase the frame rate from the second frame rate during moving image capturing according to the exposure time of each frame set during the moving image capturing is provided.
  • the frame rate control unit performs control to increase the first frame rate above the second frame rate when the exposure time is smaller than the threshold, and the exposure time is equal to or greater than the threshold.
  • the first frame rate is controlled to be the same as the second frame rate.
  • the correction data generation unit determines the number of output signals to be subjected to the calculation of the average value based on the ISO sensitivity set at the time of imaging when obtaining the output signal.
  • the correction data generation unit outputs an output signal whose difference from another output signal exceeds a threshold among output signals of the same pixel cell obtained by imaging the subject a plurality of times by the imaging element.
  • the average value is calculated by excluding the captured image signal including.
  • the correction data generation unit calculates, as the ratio used for generating the correction data, an average value of ratios obtained from each of output signals obtained by imaging the subject a plurality of times by the imaging element. It is what is used.
  • the disclosed imaging apparatus includes an edge detection unit that detects an edge portion of a subject in the captured image signal based on the captured image signal, and the correction data generation unit outputs an output signal used to generate the correction data as The output signal of the pixel cell concerning the said edge part is excluded.
  • the correction data generation unit excludes an output signal used to generate the correction data that has reached a saturation level.
  • the correction data generation unit generates the correction data when the optical condition of the imaging optical system or the imaging optical system is changed.
  • the disclosed imaging apparatus includes a recording control unit that records the correction data generated by the correction data generation unit on a recording medium in association with the identification information of the imaging optical system that is mounted when the correction data is obtained. And when the imaging optical system in which the correction data is recorded is mounted on the recording medium, the signal correction unit is configured to detect the first phase difference according to the correction data recorded on the recording medium. The output signal of the pixel cell and the output signal of at least one of the second phase difference detection pixel cell are corrected.
  • the correction data generated by the correction data generation unit is recorded on the recording medium provided in the imaging optical system that was mounted when the correction data was obtained, and the identification information of the imaging device.
  • the signal correction unit is connected to the recording medium. The output signal of the first phase difference detection pixel cell and the output signal of at least one of the second phase difference detection pixel cell are corrected in accordance with the correction data recorded in the above.
  • the disclosed imaging device includes a phase difference amount calculation unit that calculates a phase difference amount that is a relative positional shift amount of the pair of images using an output signal corrected by the signal correction unit, and the phase difference amount. And an in-focus control unit that controls the in-focus state of the imaging optical system.
  • the disclosed signal processing method is a signal processing method in an imaging device in which an imaging optical system is detachable, and a plurality of imaging pixel cells that capture an image formed by a light beam that has passed through a pupil region of the imaging optical system.
  • a plurality of first phase difference detection pixel cells that capture one of a pair of images formed by a pair of light beams that have passed through different portions of the pupil region of the imaging optical system, and the other of the pair of images
  • An image of a subject is picked up by an image pickup device including a plurality of second phase difference detection pixel cells, and an output signal of the image pickup pixel cell included in a picked-up image signal obtained by the image pickup, the first phase difference detection Using the output signal of the pixel cell and the output signal of the second phase difference detection pixel cell, the sensitivity difference between the first phase difference detection pixel cell and the second phase difference detection pixel cell is corrected.
  • the ratio between the output signal of the first phase difference detection pixel cell and the output signal of the imaging pixel cell adjacent to the first phase difference detection pixel cell, And an output signal of the second phase difference detection pixel cell proximate to the first phase difference detection pixel cell and an output signal of the imaging pixel cell proximate to the second phase difference detection pixel cell The correction data is generated based on the two ratios.
  • an imaging apparatus and a signal processing method capable of accurately performing shading correction of a pair of images having a phase difference.
  • Solid-state image sensor 19 Defocus amount calculation unit 51 Pixel cell 51R, 51L Phase difference detection pixel cell

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

 撮像素子5は、撮像用画素セル51と位相差検出用画素セル51R,51Lとを備える。デフォーカス量算出部19は、撮像素子5からの撮像画像信号に含まれる撮像用画素セル51の出力信号、位相差検出用画素セル51Rの出力信号、及び位相差検出用画素セル51Lの出力信号を用いて、近接する位相差検出用画素セル51R,51Lの感度差を補正するための補正データを生成し、AF指示があると、位相差検出用画素セル51R,51Lの出力信号を上記補正データを用いて補正し、補正後の出力信号にしたがってデフォーカス量を算出する。

Description

撮像装置及び信号処理方法
 本発明は、撮像装置及び信号処理方法に関する。
 近年、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子の高解像度化に伴い、デジタルスチルカメラ、デジタルビデオカメラ、スマートフォン等の携帯電話機、PDA(Personal Digital Assistant,携帯情報端末)等の撮影機能を有する情報機器の需要が急増している。なお、以上のような撮像機能を有する情報機器を撮像装置と称する。
 これら撮像装置では、主要な被写体に焦点を合わせる合焦制御方法として、コントラストAF(Auto Focus、自動合焦)方式や位相差AF方式が採用されている。位相差AF方式は、コントラストAF方式に比べて合焦位置の 検出を高速,高精度に行うことができるため、様々な撮像装置で多く採用されている。
 例えば、特許文献1には、撮像素子の画素セルの一部を位相差検出用の画素セルとし、位相差検出用の画素セルから読み出した信号を用いて位相差AFを行う撮像装置が開示されている。
 特許文献1の撮像装置は、レンズ情報、測距点情報、及び最新のデフォーカス情報から、一対の位相差検出用の画素セルの一方で撮像して得られる被写体像A像と、一対の位相差検出用の画素セルの他方で撮像して得られる被写体像B像のシェーディングを予測し、A像B像の光量比を調節するシェーディング補正を行うことで、位相差AFの精度を向上させている。
 また、位相差AFに関する技術ではないが、シェーディング補正に関する技術として、特許文献2には、ライブビュー画像を用いてシェーディング補正係数を算出するレンズ交換式の撮像装置が開示されている。
日本国特開2010-286826号公報 日本国特開2009-159093号公報
 特許文献1のように、レンズ情報を用いて位相差のある一対の画像のシェーディング補正を行う方法では、レンズ情報を内蔵していないレンズには対応することができない。
 特許文献2によれば、ライブビュー画像を用いてシェーディング補正係数を算出するため、どのようなレンズに対しても、シェーディング補正を正確に行うことができる。しかし、特許文献2に記載の技術は、位相差検出用の画素セルを持たない撮像素子を用いることが前提である。このため、位相差のある一対の画像のシェーディング補正を行う技術には適用できない。
 本発明は、上記事情に鑑みてなされたものであり、位相差のある一対の画像のシェーディング補正を精度良く行うことのできる撮像装置及び信号処理方法を提供することを目的とする。
 本発明の撮像装置は、撮像光学系を着脱可能な撮像装置であって、上記撮像光学系の瞳領域を通過した光束により形成された像を撮像する複数の撮像用画素セル、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束により形成された一対の像の一方を撮像する複数の第一の位相差検出用画素セル、及び上記一対の像の他方を撮像する複数の第二の位相差検出用画素セルを含む撮像素子と、上記撮像素子により被写体を撮像して得られる撮像画像信号に含まれる上記撮像用画素セルの出力信号、上記第一の位相差検出用画素セルの出力信号、及び上記第二の位相差検出用画素セルの出力信号を用いて、上記第一の位相差検出用画素セルと上記第二の位相差検出用画素セルの感度差を補正するための補正データを生成する補正データ生成部と、上記第一の位相差検出用画素セルの出力信号と上記第二の位相差検出用画素セルの出力信号の少なくとも一方を上記補正データにしたがって補正する信号補正部とを備え、上記補正データ生成部は、上記第一の位相差検出用画素セルの出力信号とその第一の位相差検出用画素セルに近接する上記撮像用画素セルの出力信号との比、及び、その第一の位相差検出用画素セルに近接する上記第二の位相差検出用画素セルの出力信号とその第二の位相差検出用画素セルに近接する上記撮像用画素セルの出力信号との比を算出し、上記2つの比に基づいて上記補正データを生成するものである。
 本発明の信号処理方法は、撮像光学系を着脱可能な撮像装置における信号処理方法であって、上記撮像光学系の瞳領域を通過した光束により形成された像を撮像する複数の撮像用画素セル、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束により形成された一対の像の一方を撮像する複数の第一の位相差検出用画素セル、及び上記一対の像の他方を撮像する複数の第二の位相差検出用画素セルを含む撮像素子により被写体を撮像し、その撮像により得られる撮像画像信号に含まれる上記撮像用画素セルの出力信号、上記第一の位相差検出用画素セルの出力信号、及び上記第二の位相差検出用画素セルの出力信号を用いて、上記第一の位相差検出用画素セルと上記第二の位相差検出用画素セルの感度差を補正するための補正データを生成する補正データ生成ステップと、上記第一の位相差検出用画素セルの出力信号と上記第二の位相差検出用画素セルの出力信号の少なくとも一方を上記補正データにしたがって補正する信号補正ステップとを備え、上記補正データ生成ステップでは、上記第一の位相差検出用画素セルの出力信号とその第一の位相差検出用画素セルに近接する上記撮像用画素セルの出力信号との比、及び、その第一の位相差検出用画素セルに近接する上記第二の位相差検出用画素セルの出力信号とその第二の位相差検出用画素セルに近接する上記撮像用画素セルの出力信号との比を算出し、上記2つの比に基づいて上記補正データを生成するものである。
 本発明によれば、位相差のある一対の画像のシェーディング補正を精度良く行うことのできる撮像装置及び信号処理方法を提供することができる。
本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図 図1に示すデジタルカメラに搭載される固体撮像素子5の構成を示す平面模式図 固体撮像素子5における行方向Xの位置での位相差検出用画素セル51R,51Lの感度比を示す図 図3に示す位相差検出用画素セル51R,51Lの感度比を揃えた状態を示す図 図1に示すデジタルカメラの動作を説明するためのフローチャート 図1に示すデジタルカメラの動作の変形例を説明するためのフローチャート 図5のステップS4~S6までの処理の変形例を示すフローチャート 図7のステップS44を説明するための図 図7に示すフローチャートの変形例を示す図 被写体のエッジが固体撮像素子にかかっているときの状態を示す図 図2に示す固体撮像素子5の変形例である固体撮像素子5aを示す図 図2に示す固体撮像素子5の変形例である固体撮像素子5bを示す図
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図である。
 図1に示すデジタルカメラの撮像系は、撮像光学系としてのレンズ装置(撮影レンズ1と絞り2とを含む)と、CMOS型の固体撮像素子5とを備えている。図1の例では固体撮像素子5をCMOS型としているがCCD型のものを用いてもよい。
 撮影レンズ1及び絞り2を含むレンズ装置は、カメラ本体に着脱可能となっており、別のものに交換することができる。
 デジタルカメラの電気制御系全体を統括制御するシステム制御部11は、フラッシュ発光部12及び受光部13を制御する。また、システム制御部11は、レンズ駆動部8を制御して撮影レンズ1に含まれるフォーカスレンズの位置を調整したり、撮影レンズ1に含まれるズームレンズの位置の調整を行ったりする。更に、システム制御部11は、絞り駆動部9を介して絞り2の開口量を制御することにより、露光量の調整を行う。
 また、システム制御部11は、撮像素子駆動部10を介して固体撮像素子5を駆動し、撮影レンズ1を通して撮像した被写体像を撮像画像信号として出力させる。システム制御部11には、操作部14を通してユーザからの指示信号が入力される。
 デジタルカメラの電気制御系は、更に、固体撮像素子5の出力に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6と、このアナログ信号処理部6から出力されるアナログ信号をデジタル信号に変換するA/D変換回路7とを備える。アナログ信号処理部6及びA/D変換回路7は、システム制御部11によって制御される。アナログ信号処理部6及びA/D変換回路7は固体撮像素子5に内蔵されることもある。
 更に、このデジタルカメラの電気制御系は、メインメモリ16と、メインメモリ16に接続されたメモリ制御部15と、A/D変換回路7から出力される撮像画像信号に対し、補間演算、ガンマ補正演算、及びRGB/YC変換処理等を行って撮影画像データを生成するデジタル信号処理部17と、デジタル信号処理部17で生成された撮影画像データをJPEG形式に圧縮したり圧縮画像データを伸張したりする圧縮伸張処理部18と、デフォーカス量を算出するデフォーカス量算出部19と、着脱自在の記録媒体21が接続される外部メモリ制御部20と、カメラ背面等に搭載された表示部23が接続される表示制御部22とを備えている。メモリ制御部15、デジタル信号処理部17、圧縮伸張処理部18、デフォーカス量算出部19、外部メモリ制御部20、及び表示制御部22は、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。
 図2は、図1に示すデジタルカメラに搭載される固体撮像素子5の構成を示す平面模式図である。
 固体撮像素子5は、行方向X及びこれに直交する列方向Yに二次元状に配列された多数の画素セル51(図中の各正方形のブロック)を備えている。図2では全ての画素セル51は図示していないが、実際には、数百万~1千数万個程度の画素セル51が二次元状に配列される。固体撮像素子5により撮像を行うと、この多数の画素セル51の各々から出力信号が得られる。この多数の出力信号の集合を本明細書では撮像画像信号という。
 各画素セル51は、フォトダイオード等の光電変換部と、この光電変換部上方に形成されたカラーフィルタと、光電変換部に蓄積された信号電荷に応じた信号を出力する信号出力回路とを含む。
 信号出力回路は、良く知られているMOS回路であり、例えば、光電変換部に蓄積された電荷が転送される電荷蓄積部と、光電変換部の電荷を電荷蓄積部に転送するための転送トランジスタと、電荷蓄積部の電位をリセットするリセットトランジスタと、電荷蓄積部の電位に応じた信号を出力する出力トランジスタと、出力トランジスタから出力信号線に信号を選択的に出力させるための行選択トランジスタとを含んで構成される。
 図2では、赤色光を透過するカラーフィルタを含む画素セル51には“R”の文字を付し、緑色光を透過するカラーフィルタを含む画素セル51には“G”の文字を付し、青色光を透過するカラーフィルタを含む画素セル51には“B”の文字を付している。
 多数の画素セル51は、行方向Xに並ぶ複数の画素セル51からなる画素セル行を、列方向Yに複数個並べた配列となっている。そして、奇数行の画素セル行と偶数行の画素セル行は、各画素セル行の画素セル51の配列ピッチの略1/2、行方向Xにずれている。
 奇数行の画素セル行の各画素セル51に含まれるカラーフィルタの配列は全体としてベイヤ配列となっている。また、偶数行の画素セル行の各画素セル51に含まれるカラーフィルタの配列も全体としてベイヤ配列となっている。奇数行にある画素セル51と、この画素セル51に対して右下に隣接する、この画素セル51と同色光を検出する画素セル51とがペア画素を構成する。
 このような画素セル配列の固体撮像素子5によれば、ペア画素を構成する2つの画素セル51の出力信号を加算することでカメラの高感度化を図ったり、ペア画素を構成する2つの画素セル51の露光時間を変え、かつ、この2つの画素セル51の出力信号を加算することでカメラの広ダイナミックレンジ化を図ったりすることができる。
 固体撮像素子5では、多数の画素セル51のうちの一部が位相差検出用画素セルとなっている。
 位相差検出用画素セルは、複数の位相差検出用画素セル51Rと複数の位相差検出用画素セル51Lとを含む。
 複数の位相差検出用画素セル51Rは、撮影レンズ1の瞳領域の異なる部分を通過した一対の光束の一方(例えば瞳領域の右半分を通過した光束)を受光し受光量に応じた信号を出力する。つまり、固体撮像素子5に設けられた複数の位相差検出用画素セル51Rは、撮影レンズ1の瞳領域の異なる部分を通過した一対の光束の一方によって形成される像を撮像するものとなる。
 複数の位相差検出用画素セル51Lは、上記一対の光束の他方(例えば瞳領域の左半分を通過した光束)を受光し受光量に応じた信号を出力する。つまり、固体撮像素子5に設けられた複数の位相差検出用画素セル51Lは、撮影レンズ1の瞳領域の異なる部分を通過した一対の光束の他方によって形成される像を撮像するものとなる。
 なお、位相差検出用画素セル51R,51L以外の複数の画素セル51(以下、撮像用画素セルという)は、撮影レンズ1の瞳領域のほぼ全ての部分を通過した光束によって形成される像を撮像するものとなる。
 画素セル51の光電変換部上方には、遮光膜が設けられ、この遮光膜には、光電変換部の受光面積を規定する開口が形成されている。
 撮像用画素セル51の開口(図2において符号aで示す)の中心は、撮像用画素セル51の光電変換部の中心(正方形のブロックの中心)と一致している。なお、図2では、図を簡略化するために、撮像用画素セル51については一部のみに開口aを図示している。
 これに対し、位相差検出用画素セル51Rの開口(図2において符号cで示す)の中心は、位相差検出用画素セル51Rの光電変換部の中心に対し右側に偏心している。
 位相差検出用画素セル51Lの開口(図2において符号bで示す)の中心は、位相差検出用画素セル51Lの光電変換部の中心に対して左側に偏心している。
 固体撮像素子5では、緑色のカラーフィルタが搭載される画素セル51の一部が位相差検出用画素セル51R又は位相差検出用画素セル51Lとなっている。勿論、他の色のカラーフィルタが搭載される画素セルを位相差検出用画素セルとしてもよい。
 位相差検出用画素セル51Rと位相差検出用画素セル51Lは、それぞれ、画素セル51が配置される領域において離散的及び周期的に配置されている。
 位相差検出用画素セル51Rは、図2の例では、偶数行の画素セル行の一部(図2の例では、3画素セル行おきに並ぶ4つの画素セル行)において、行方向Xに3つの画素セルおきに配置されている。
 位相差検出用画素セル51Lは、図2の例では、奇数行の画素セル行の一部(位相差検出用画素セル51Rを含む画素セル行の隣にある画素セル行)において、行方向Xに、位相差検出用画素セル51Rと同じ周期で配置されている。
 このような構成により、遮光膜の開口bを通って画素セル51Lに受光される光は、図2の紙面上方に設けられる撮影レンズ1の被写体から見て左側からの光、すなわち被写体を右眼で見た方向から来た光が主となり、遮光膜の開口cを通って画素セル51Rに受光される光は、撮影レンズ1の被写体から見て右側からの光、すなわち被写体を左眼で見た方向から来た光が主となる。
 即ち、全ての位相差検出用画素セル51Rによって、被写体を左眼で見た撮像画像信号を得ることができ、全ての位相差検出用画素セル51Lによって、被写体を右眼で見た撮像画像信号を得ることができる。このため、両者を組み合わせることで、被写体の立体画像データを生成したり、両者を相関演算することで位相差情報を生成したりすることが可能になる。
 なお、位相差検出用画素セル51Rと位相差検出用画素セル51Lは、遮光膜の開口を逆方向に偏心させることで、撮影レンズ1の瞳領域の異なる部分を通過した光束をそれぞれ受光できるようにして位相差情報を得られるようにしている。しかし、位相差情報を得るための構造はこれに限らず、よく知られているものを採用することができる。
 固体撮像素子5は、更に、垂直走査回路52と水平走査回路53を備える。
 垂直走査回路52は、各画素セル51に含まれる信号出力回路の転送トランジスタ、リセットトランジスタ、及び行選択トランジスタのオンオフ制御を行う。
 水平走査回路53は、列方向Yに並ぶ画素セル51からなる画素セル列毎に設けられる出力信号線に接続され、画素セル行にある各画素セル51から出力信号線に出力された出力信号を順次、固体撮像素子5外部に出力する。
 垂直走査回路52及び水平走査回路53は、図1に示した撮像素子駆動部10の指示にしたがって動作する。撮像素子駆動部10は、画素セル行毎に露光期間を一定時間ずらす、所謂ローリングシャッタ方式で固体撮像素子5を駆動する。
 図1に示すデフォーカス量算出部19は、位相差検出用画素セル51L及び位相差検出用画素セル51Rから読み出される出力信号群を用いて、上記一対の光束によって形成される2つの像の相対的な位置ずれ量である位相差量を算出し、この位相差量に基づいて、撮影レンズ1の焦点調節状態、ここでは合焦状態から離れている量とその方向、すなわちデフォーカス量を算出する。
 図1に示すシステム制御部11は、デフォーカス量算出部19によって算出されたデフォーカス量に基づいて、撮像レンズ1に含まれるフォーカスレンズを合焦位置に移動させて、撮像レンズ1の合焦状態を制御する。このように、システム制御部11は、合焦制御部としての機能を果たす。
 位相差検出用画素セル51Rと位相差検出用画素セル51Lは、開口が逆方向に偏心しているものである。このため、この開口の偏心方向(図2の行方向X)における位置がほぼ同じであっても、位相差検出用画素セル51Rと位相差検出用画素セル51Lには感度差が発生する。
 図3は、固体撮像素子5における行方向Xの位置での位相差検出用画素セル51R,51Lの感度比を示す図である。符号51Rで示した直線が位相差検出用画素セル51Rの感度比を示し、符号51Lで示した直線が位相差検出用画素セル51Lの感度比を示している。
 感度比とは、近接する位相差検出用画素セルと撮像用画素セル(ただし位相差検出用画素セルと同色光を検出するもの)の各々の出力信号の比を意味する。本明細書において、近接する2つの画素セルとは、実質的に同じ被写体部分からの光を受光していると見なすことのできる程度に近接している2つの画素セルのことを言う。
 また、感度比は、位相差検出用画素セルの出力信号レベルをAとし、撮像用画素セルの出力信号レベルをBとしたとき、A/B、又は、B/Aで示される数値である。
 位相差検出用画素セル51R,51Lは列方向Yにも周期的に配置されている。このため、図3に示すデータは、行方向Xにおける位置が同じ位相差検出用画素セル51R(51L)についての感度比のデータの平均をとったものとしている。
 複数の位相差検出用画素セル51Rの出力信号と、複数の位相差検出用画素セル51Lの出力信号は、それぞれ、それ単独では、被写体によって行方向Xでの位置毎にレベルが異なるため、シェーディング形状がどのようになっているかは分からない。しかし、図3に示すように、位相差検出用画素セルとこれに近接する撮像用画素セルの出力信号との比である感度比を求めれば、位相差検出用画素セルの感度分布(シェーディング形状)を知ることができる。
 なお、固体撮像素子5では、位相差検出用画素セル51Rと位相差検出用画素セル51Lの行方向Xにおける位置が厳密には同じではないが、図3では、近接する位相差検出用画素セル51Rと位相差検出用画素セル51Lは、行方向Xにおける位置が同じものとして扱っている。
 位相差検出用画素セル51Lは、開口bが図2において左側に偏心している。このため、図2において、固体撮像素子5の左側端部にある位相差検出用画素セル51Lの開口bには、固体撮像素子5の中心部と比較して光が入りやすくなる。一方、固体撮像素子5の右側端部にある位相差検出用画素セル51Lの開口bには、固体撮像素子5の中心部と比較して光が入り難くなる。
 また、位相差検出用画素セル51Rは、開口cが位相差検出用画素セル51Lと行方向Xにおいて逆方向に偏心しているため、その感度比の特性は位相差検出用画素セル51Lと逆になる。
 したがって、図3に示したように、位相差検出用画素セル51Lの感度比は、固体撮像素子5の左端部から右端部に向かうほど低くなる。また、位相差検出用画素セル51Rの感度比は、固体撮像素子5の左端部から右端部に向かうほど高くなる。
 なお、位相差検出用画素セル51Lの感度比と位相差検出用画素セル51Rの感度比は、固体撮像素子5の中央部分ではほぼ同じになる。
 このように、位相差検出用画素セル51Rと位相差検出用画素セル51Lに感度差があると、複数の位相差検出用画素セル51Rから得られる出力信号群と、複数の位相差検出用画素セル51Lから得られる出力信号群との相関演算の結果が誤差を含むことになる。このため、位相差検出用画素セル51Rによって撮像される像と、位相差検出用画素セル51Lによって撮像される像との間の位相差量の算出を正確に行うことができない。
 そこで、本実施形態のデジタルカメラでは、デフォーカス量算出部19が、位相差検出用画素セル51Rと位相差検出用画素セル51Lの感度差をなくすべく、位相差検出用画素セル51Rの出力信号と位相差検出用画素セル51Lの出力信号を補正データにしたがって補正する信号補正部としての機能を果たし、補正後の出力信号を用いて位相差量を算出する位相差量算出部としての機能を果たす。
 デフォーカス量算出部19は、固体撮像素子5によって撮像して得られる撮像画像信号のうち、各位相差検出用画素セル51R(51L)の出力信号と、この各位相差検出用画素セル51R(51L)に近接する撮像用画素セル51の出力信号とを用いて、上記補正データを生成する補正データ生成部、生成した補正データを記録媒体に記録する記録制御部としての機能を果たす。
 例えば、デフォーカス量算出部19は、撮像画像信号を用いて、位相差検出用画素セル51Rの感度比と位相差検出用画素セル51Lの感度比を行方向Xの位置毎に算出して図3に示すデータを生成する。そして、デフォーカス量算出部19は、図4に示すように、位相差検出用画素セル51Rの感度比と位相差検出用画素セル51Lの感度比が、それぞれ、どの位置でも同じ値になるような、位相差検出用画素セル51R,51Lの出力信号に乗じる係数を、上記補正データとして生成する。
 あるいは、デフォーカス量算出部19は、図3に示す位相差検出用画素セル51Rの感度比のグラフに、位相差検出用画素セル51Lの感度比のグラフを一致させるために必要な、位相差検出用画素セル51Lの出力信号に乗じるべき係数を、上記補正データとして生成する。
 又は、デフォーカス量算出部19は、図3に示す位相差検出用画素セル51Lの感度比のグラフに、位相差検出用画素セル51Rの感度比のグラフを一致させるために必要な、位相差検出用画素セル51Rの出力信号に乗じるべき係数を、上記補正データとして生成する。
 このように構成されたデジタルカメラの動作について説明する。
 図5は、図1に示すデジタルカメラの動作を説明するためのフローチャートである。
 撮影モードに設定されると、システム制御部11は、ライブビュー画像を表示部23に表示するための撮像(動画撮像)を固体撮像素子5により開始する。この撮像が開始されると、固体撮像素子5から出力された撮像画像信号がデジタル信号処理部17により処理され、処理後の撮像画像データに基づく画像が表示部23に表示される。これにより、表示部23に表示される画像によって、撮像中の被写体をリアルタイムに確認することができる。
 一方、デフォーカス量算出部19は、撮影モードに設定されると、システム制御部11から、カメラ本体に装着されているレンズ装置を識別するための識別情報であるレンズIDを取得する(ステップS1)。
 続いて、デフォーカス量算出部19は、レンズ装置の光学条件の情報をシステム制御部11から取得する(ステップS2)。この光学条件は、固体撮像素子5に入射する光線の角度を決めるパラメータに関する情報であり、撮像時の絞りF値及び焦点距離等の情報を含む。
 次に、デフォーカス量算出部19は、ステップS1において取得したレンズID及びステップS2において取得した光学条件の組み合わせに対応する補正データがメインメモリ16に記憶されていれば(ステップS3:YES)、ステップS7に処理を移行し、補正データがメインメモリ16に記憶されていなければ(ステップS3:NO)、ステップS4に処理を移行する。
 ステップS4において、デフォーカス量算出部19は、固体撮像素子5から出力された撮像画像信号を取得する。そして、デフォーカス量算出部19は、取得した撮像画像信号を用いて、図3に示したデータを生成し、このデータから補正データを生成する(ステップS5)。
 次に、デフォーカス量算出部19は、生成した補正データと、ステップS1で取得したレンズIDと、ステップS2で取得した光学条件の情報とを関連付けてメインメモリ16に記憶する(ステップS6)。
 ステップS6の後、デフォーカス量算出部19は、レンズ装置の光学条件に変更があった場合(ステップS7:YES)はステップS2に処理を戻し、レンズ装置の光学条件に変更がない場合(ステップS7:NO)は、ステップS8に処理を移行する。
 デフォーカス量算出部19は、ステップS8において、位相差AFを行う指示がシステム制御部11に対してなされたか否かを判定し、AF指示がなされた場合(ステップS8:YES)にステップS9に処理を移行し、AF指示がなされていない場合(ステップS8:NO)にはステップS7に処理を戻す。
 ステップS9において、デフォーカス量算出部19は、AF指示に応じて固体撮像素子5により撮像して得られた撮像画像信号と、当該撮像時の光学条件の情報と、現在装着されているレンズ装置のレンズIDとをシステム制御部11から取得する。
 続いて、デフォーカス量算出部19は、ステップS9において取得したレンズIDと光学条件の組み合わせに対応する補正データをメインメモリ16から読み出し、これを用いて、ステップS9において取得した撮像画像信号に含まれる位相差検出用画素セルの出力信号を補正する(ステップS10)。
 次に、デフォーカス量算出部19は、補正後の位相差検出用画素セルの出力信号を用いて相関演算を行い、位相差検出用画素セル51Rによって撮像される像と、位相差検出用画素セル51Lによって撮像される像との間の位相差量を算出し、この位相差量に基づいてデフォーカス量を算出する(ステップS11)。
 ステップS11の後は、システム制御部11が、デフォーカス量に基づいてフォーカスレンズを合焦位置に移動させる合焦制御を行い(ステップS12)、その後は、撮像待機状態となる。
 なお、撮影モード中の任意のタイミングでレンズ装置が交換された場合は、その時点で、ステップS1以降の処理が行われる。また、撮像待機状態において、光学条件の変更があった場合には、その時点でステップS2以降の処理が行われる。
 以上のように、図1に示すデジタルカメラによれば、固体撮像素子5により撮像して得られる撮像画像信号を用いて、位相差検出用画素セル51Rと位相差検出用画素セル51Lの感度差を補正するための補正データを生成することができる。このため、デジタルカメラに装着可能なあらゆるレンズ装置に対応して補正データを予め生成してカメラ本体に記憶しておく必要がなくなり、カメラの調整工数の削減が可能となる。
 また、レンズID以外の詳細な情報を取得できないようなレンズ装置であっても、そのレンズ装置を装着して撮影モードに設定するだけで、補正データを生成して記憶しておくことができる。このため、どのようなレンズ装置が装着された場合でも、位相差AFを精度良く行なうことが可能となる。
 なお、図5の説明では、生成した補正データをレンズIDと光学条件に関連付けて記憶しておき、以降は、この記憶した補正データを用いて位相差検出用画素セルの感度比を補正するものとしたが、これに限らない。
 例えば、AF指示が行われる度に、デフォーカス量算出部19が、撮像画像信号から補正データを生成し、この補正データを用いて位相差検出用画素セルの出力信号を補正し、補正後の信号を用いて位相差量を算出してもよい。このようにすることで、メモリ容量を削減することができる。
 また、あるレンズID及び光学条件に対応する補正データをメインメモリ16に記憶した後でも、このレンズID及び光学条件に対応する補正データを定期的に生成しなおすことが好ましい。こうすることで、レンズ装置の長期間の使用により、レンズ装置の性能や固体撮像素子5の性能に若干の差が生じた場合でも、その状況に合った正しい補正データを生成することができる。
 また、図1に示すデジタルカメラによれば、撮像用画素セル51と、位相差検出用画素セル51Rと、位相差検出用画素セル51Lとの3種類の画素セルを有する固体撮像素子5を用いているため、図3に示すようなシェーディングに対応するデータを1回の撮像によって生成することができる。したがって、補正データを生成するのに要する時間を短縮することができ、上述したように、AF指示が行われる度に補正データを生成する形態では特に有利となる。
 また、以上の説明では、デフォーカス量算出部19が生成した補正データを、レンズ装置の識別情報と対応付けて、デジタルカメラのメインメモリ16に記録する構成とした。しかし、デフォーカス量算出部19が生成した補正データを、デジタルカメラの識別情報と対応付けて、レンズ装置内の記録媒体に記録する構成としてもよい。
 図6は、デフォーカス量算出部19が生成した補正データをレンズ装置内の記録媒体に記録する場合のデジタルカメラの動作を説明するためのフローチャートである。図6において図5に示した処理と同じものには同一符号を付して説明を省略する。
 デフォーカス量算出部19は、撮影モードに設定されると、ステップS2においてレンズ装置の光学条件の情報をシステム制御部11から取得する。
 次に、デフォーカス量算出部19は、メインメモリ16に記憶されているデジタルカメラのカメラID及びステップS2において取得した光学条件の組み合わせに対応する補正データがレンズ装置内のメモリに記憶されていれば(ステップS3A:YES)、ステップS7に処理を移行し、補正データがレンズ装置内のメモリに記憶されていなければ(ステップS3A:NO)、ステップS4に処理を移行する。
 ステップS4及びステップS5の後、デフォーカス量算出部19は、ステップS5で生成した補正データと、カメラIDと、ステップS2で取得した光学条件の情報とを関連付けて、これらを、システム制御部11を経由してレンズ装置内のメモリに記憶する(ステップS6A)。
 ステップS8:YESのとき、デフォーカス量算出部19は、AF指示に応じて固体撮像素子5により撮像して得られた撮像画像信号と、当該撮像時の光学条件の情報とをシステム制御部11から取得し、当該光学条件の情報に対応する補正データを、レンズ装置内のメモリからシステム制御部11を経由して取得する(ステップS9A)。
 その後は、デフォーカス量算出部19が、取得した補正データにしたがって補正をし(ステップS10)、ステップS11,12の処理が行われる。
 この場合も、撮影モード中の任意のタイミングでレンズ装置が交換された場合は、その時点で、ステップS2以降の処理が行われる。
 次に、図1に示すデジタルカメラにおける補正データの生成方法の変形例を説明する。この変形例では、デフォーカス量算出部19が、1回の撮像で得られた撮像画像信号を用いて補正データを生成するのではなく、複数回の撮像で得られた複数の撮像画像信号を用いて補正データを生成する。
 図7は、図5のステップS4~S5までの処理の変形例を示すフローチャートである。この変形例は図6においても適用可能である。
 撮影モードに設定されると、ライブビュー画像表示のために固体撮像素子5により連続した撮像(動画撮像)が開始され、各撮像によって得られる撮像画像信号がメインメモリ16に記憶されていく。
 図5のステップS3又は図6のステップS3Aの後、ステップS41において、デフォーカス量算出部19は、図5,6のステップS2の以降の任意の時刻T(n)で得られたライブビュー画像表示用の撮像画像信号G(n)をメインメモリ16から取得し、内部メモリに記憶する。
 次に、デフォーカス量算出部19は、内部メモリに記憶した撮像画像信号の数が2つ以上になっていれば(ステップS42:YES)、ステップS43の処理を行い、内部メモリに記憶した撮像画像信号の数が2つ未満であれば(ステップS42:NO)、上記T(n)の“n”を“n+1”に変更して、ステップS41の処理を行う。なお、時刻T(n)は、“n”の数字が大きいほど、時刻が新しいことを示す。
 デフォーカス量算出部19は、内部メモリに2つ以上の撮像画像信号が記憶されると、ステップS43において、撮像画像信号G(n)と撮像画像信号G(n+1)を比較し、双方に基づく被写体像同士に大きな差があるかどうかを判定する。
 具体的には、デフォーカス量算出部19は、撮像画像信号G(n)と撮像画像信号G(n+1)のそれぞれの同一座標にある信号同士の差分を算出し、その差分が予め決められた閾値を超えていれば、撮像画像信号G(n+1)は、撮像画像信号G(n)に対して被写体に大きな変化があると判定する。
 一方、デフォーカス量算出部19は、上記差分が予め決められた閾値以下であれば、撮像画像信号G(n)と撮像画像信号G(n+1)の間で被写体に大きな変化がないと判定する。
 ステップS43の判定がYESのとき、デフォーカス量算出部19は内部メモリに記憶した撮像画像信号G(n+1)を消去し(ステップS44)、その後、ステップS45の処理を行う。
 例えば、図8に示すように、撮像画像信号G(1)~G(4)があり、撮像画像信号(3)にだけ太陽の光Hが写りこんでいた場合、デフォーカス量算出部19は、撮像画像信号G(3)については内部メモリから消去する。
 ステップS43の判定がNOのとき、デフォーカス量算出部19はステップS44の処理を行わずにステップS45の処理を行う。
 ステップS45において、デフォーカス量算出部19は、内部メモリに記憶した撮像画像信号の数が予め決められた数(この数をMとする)に達しているかどうかを判定する。デフォーカス量算出部19は、ステップS45の判定がYESの場合にステップS47の処理を行い、ステップS45の判定がNOの場合に“n”を“n+1”に変更して、ステップS41の処理を行う。
 ステップS47において、デフォーカス量算出部19は、内部メモリに記憶しているM個の撮像画像信号の同一座標にある出力信号の平均値を算出する処理を全ての座標について行う(ステップS47)。つまり、M個の撮像画像信号を平均化して1つの撮像画像信号を生成する。
 その後、デフォーカス量算出部19は、ステップS47の結果得られた平均化後の1つの撮像画像信号を用いて、前述したのと同様に、補正データを生成する(ステップS48)。
 以上のように、この変形例では、デフォーカス量算出部19が、複数の撮像画像信号を平均化して得た撮像画像信号を用いて補正データを生成する。複数の撮像画像信号を平均化することにより、各出力信号に含まれるランダムノイズを減らすことができる。このため、平均化後の撮像画像信号のS/N比を向上させることができ、生成される補正データの信頼性を高いものにすることができる。
 なお、複数の撮像画像信号を平均することによるノイズ低減効果は、Ev値に換算すると以下の式で表される。
 Ev=(1/2)*log
 Mは平均化する撮像画像信号の数
 例えば、M=2であれば、平均化前の各撮像画像信号の撮像時のEv値を0.5上げたときと同等のノイズ性能が得られることを意味する。
 上述した平均化に必要な撮像画像信号の数Mは、図3に示した感度比のデータを正確に求めるために必要とされるノイズ性能と、平均化前の撮像画像信号を取得する際の撮像時のISO感度とによって決めることができる。
 例えば、必要とされるノイズ性能をISO100相当とし、撮像時のISO感度がISO800である場合を考える。この場合、ISO800とISO100とではEv値換算で“3”の差がある。Ev=3を上記式に代入するとM=64となる。このため、ステップS45で判定する撮像画像信号の必要数が64に達した時点で、撮像画像信号の取得を終了すれば、信頼性の高い補正データを得ることができる。
 なお、信頼性の高い補正データを得るために必要とされるノイズ性能は、固体撮像素子5のノイズ性能によって変わる。このため、必要とされるノイズ性能はデジタルカメラに搭載される固体撮像素子5の性能に応じた値を決めておけばよい。
 なお、図7は、撮像画像信号の平均化を行うのを前提としたフローチャートである。しかし、撮影条件(被写体明るさ)やノイズ性能によっては、平均化が不要となる場合もある。このため、図5のステップS3:NO(又は図6のステップS3A:NO)の後に、デフォーカス量算出部19が、平均化が必要かどうかを判定し、平均化が必要と判定したとき(例えば、必要とされるノイズ性能をISO100相当とし、撮像時のISO感度がISO200より大きい場合)には、上記Mを設定した上で図7のステップS41以降の処理を行い、平均化が不要と判定したとき(例えば、必要とされるノイズ性能をISO100相当とし、撮像時のISO感度がISO100である場合)には、図5のステップS4以降の処理を行うようにすることが好ましい。
 上述してきたように、図7に示す変形例では、補正データの生成のために、M個の撮像画像信号が必要である。一般的に、ライブビュー画像表示のための動画撮像におけるフレームレート(単位時間当たりに出力される撮像画像信号(フレーム)の数)は固定である。
 例えば、フレームレートが1秒間に30フレームである場合、上記Mが60であれば、補正データを生成するまでに少なくとも2秒必要になる。これに対し、フレームレートを上げれば、補正データを生成するまでの時間を短縮することができる。
 そこで、図7の変形例においては、デフォーカス量算出部19がフレームレートを上げることをシステム制御部11に指示し、システム制御部11によってフレームレートを上げる制御がなされてから、ステップS41以降の処理を行うことが好ましい。
 図9は、図7に示すフローチャートの変形例を示す図である。図9において図7と同じ処理には同一符号を付して説明を省略する。
 まず、デフォーカス量算出部19は、ライブビュー画像表示用の各撮像における露光時間(シャッタスピード)の情報をシステム制御部11から取得し、シャッタスピードが閾値THよりも小さいか否かを判定する(ステップS50)。
 シャッタスピードが閾値THよりも小さい場合(ステップS50:YES)、デフォーカス量算出部19はフレームレートを上げる(例えば、ライブビュー画像表示のための動画撮像中のフレームレートのデフォルト値の2倍にする)ことをシステム制御部11に指示し(ステップS51)、その後、ステップS41以降の処理を行う。
 一方、シャッタスピードが閾値TH以上の場合(ステップS50:NO)、デフォーカス量算出部19は、ステップS51の処理を行わずに、ステップS41以降の処理を行なう。
 ステップS51においてフレームレートを上げる指示を受けたシステム制御部11は、フレームレートをデフォルト値の2倍にする。このようにすることで、撮像画像信号の数がMに達するまでの時間を、フレームレートがデフォルト値のまま固定の場合と比較して半分にすることができる。
 このように、この変形例においては、システム制御部11が、M個の撮像画像信号を得るための撮像が行われる間のフレームレートを、動画撮像中のデフォルトのフレームレートより上げる制御を、動画撮像時に設定されている各フレームの露光時間に応じて行うフレームレート制御部として機能する。
 なお、フレームレートを上げるということは、1つの撮像画像信号の取得に必要な時間(以下、フレーム取得時間という)が短くなることを意味する。フレーム取得時間は、例えば、フレームレートが30フレーム/秒であれば、1/30秒となる。
 一方で、シャッタスピードは、フレーム取得時間よりも大きくすることはできない。このため、本変形例では、ステップS50において、シャッタスピードに応じて、ステップS51の処理を行うか否かを決定している。
 具体的には、ステップS51でフレームレートを上げた場合におけるフレーム取得時間を閾値THとして設定している。
 例えば、デフォルトのフレームレートが30フレーム/秒であり、ステップS51において設定されるフレームレートが60フレーム/秒であると仮定する。この場合、閾値THは1/60秒となる。
 つまり、ライブビュー画像表示用の各撮像におけるシャッタスピードが例えば1/40秒の場合には、ステップS51の処理は行われない。一方、ライブビュー画像表示用の各撮像におけるシャッタスピードが1/100秒の場合には、ステップS51の処理が行われることになる。
 ステップS41以降の処理が開始され、ステップS45において、撮像画像信号の数がMに達すると(ステップS45:YES)、デフォーカス量算出部19は、フレームレートがデフォルト値よりも大きくなっている場合は(ステップS52:YES)、フレームレートをデフォルト値に戻す指示をシステム制御部11に行い、その後、ステップS47以降の処理を行う。この指示にしたがって、システム制御部11はフレームレートをデフォルト値に戻す制御を行う。
 一方、フレームレートがデフォルト値のままの場合(ステップS52:NO)、デフォーカス量算出部19は、ステップS53の処理を行わずに、ステップS47以降の処理を行う。
 以上のように、図8の変形例によれば、複数の撮像画像信号を用いて補正データを生成する場合における補正データ生成までの時間を短縮することができる。
 ここまでの説明で、デフォーカス量算出部19は、図5のステップS5、図7のステップS48、及び図9のステップS48において、撮像画像信号を用いて図3に示す感度比のデータを生成し、このデータをもとに補正データを生成している。
 この感度比のデータは、高輝度被写体を撮像していて、位相差検出用画素セルとこれに近接する撮像用画素セルの各々の出力信号が飽和していた場合には正確な値を得ることができない。
 また、図10に示すように、固体撮像素子5において破線で囲った部分に被写体のエッジ部(周辺よりも輝度が閾値以上高い又は低い被写体部分)が結像されていた場合、位相差検出用画素セル51Lとこれに近接する(例えば左上にある)撮像用画素セル51の各々の出力信号の比や、位相差検出用画素セル51Rとこれに近接する(例えば右下にある)撮像用画素セル51の各々の出力信号の比は正確な値とはならない。
 そこで、デフォーカス量算出部19は、図3に示す感度比のデータを生成するにあたり、出力信号が飽和レベルに達している画素セルについては、感度比の演算対象からは除外する。また、デフォーカス量算出部19は、撮像画像信号を用いてその撮像画像信号から被写体のエッジ部を検出し、エッジ部があった場合には、このエッジ部が結像されている画素セルについては、感度比の演算対象からは除外する。デフォーカス量算出部19は、エッジ部を検出するエッジ検出部としての機能を果たす。
 エッジ部の検出は、撮像画像信号において、近接する同色成分の出力信号同士を比較することで行う。例えば、図10において太線で囲った2つの撮像用画素セル51の各々の出力信号同士の差分は大きくなるため、この2つの撮像用画素セル51のどちらかにエッジ部が重なっていることを検出することができる。行方向X,列方向Y,図10の左下から右上に向かう斜め45°方向,図10の左上から右下に向かう斜め45°方向のそれぞれにおいて、近接する同色の2つの画素セルの出力信号を比較することで、撮像画像信号においてどの出力信号がエッジ部に対応するものなのかを検出することができる。
 このように、出力信号が飽和レベルに達している画素セル、エッジ部がかかっている画素セルについては、感度比の演算対象からは除外することで、補正データの信頼性を向上させることができる。
 また、図5のステップS5、図7のステップS48、及び図9のステップS48において、補正データの生成に用いる感度比として、連続して得られた複数の撮像画像信号のそれぞれから求めた感度比の平均値を用いるようにしてもよい。
 このように、感度比のデータについても、複数回の撮像分の平均値として算出することで、輝度シェーディング形状をより正確に検出できるようになり、補正データの信頼性を向上させることができる。
 ここまでは、画素セル51がいわゆるハニカム配列されたものを例にしたが、画素セル51が正方格子状に配列された固体撮像素子にも本発明は適用可能である。
 図11は、図2に示す固体撮像素子5の変形例である固体撮像素子5aを示す図である。
 固体撮像素子5aは、行方向Xと列方向Yに正方格子状に配列された多数の画素セル51Aと、垂直走査回路52と、水平走査回路53とを備える。画素セル51Aの構成は画素セル51と同じであり、カラーフィルタの配列はベイヤ配列となっている。
 多数の画素セル51Aは、遮光膜の開口aが偏心していない通常の画素セル51Aと、偏心した開口d,eを有する位相差検出用画素セルとを含む。開口dを有する画素セル51Aが位相差検出用画素セル51Lに対応し、開口eを有する画素セル51Aが位相差検出用画素セル51Rに対応している。
 このような構成の固体撮像素子5aでも、上述してきた方法で補正データを生成することで、正確なデフォーカス量を算出することができる。
 また、図2及び図11では、近接する位相差検出用画素セル51Rと位相差検出用画素セル51Lとで行方向Xの位置が1画素セル分ずれているが、図12に示す固体撮像素子5bのように、近接する位相差検出用画素セル51Rと位相差検出用画素セル51Lの行方向Xの位置を同じにした構成としてもよい。
 本明細書では撮像装置としてデジタルカメラを例にしたが、レンズ装置を装着できる撮像装置であれば本発明を適用可能である。例えば、カメラ付のスマートフォンにレンズ装置を装着する場合でも本実施形態の技術を適用することができる。
 また、本明細書では、レンズ装置を交換可能な撮像装置を例にしたが、レンズ装置がカメラ本体に固定されたレンズ一体型の撮像装置であっても、上述した方法で補正データを生成して、位相差AFの精度を向上させることは可能である。
 レンズ装置が固定の場合でも、撮像時の環境によっては、図3に示す感度比のデータが変化する場合が有り得る。
 例えば、撮像光学系に含まれるレンズとして樹脂を用いた場合、高い気温下における撮像では、レンズが変形して、固体撮像素子への入射光線角度が設計からずれる可能性がある。このような場合でも、上述したように、固体撮像素子により撮像して得られる撮像画像信号を用いて補正データを生成することで、撮像環境に合った補正データを得ることができ、位相差AFの精度を向上させることができる。
 図1のデジタルカメラには、位相差検出用画素セル51R,51Lを、それぞれ単体で十分な解像度の画像を撮像できる程度の数設けておき、位相差検出用画素セル51Rで撮像した画像と、位相差検出用画素セル51Lで撮像した画像とで立体画像を生成する立体撮像機能を持たせることもできる。
 この場合も、上述した方法で補正データを生成し、位相差検出用画素セル51Rの出力信号と位相差検出用画素セル51Lの出力信号を補正データにしたがって補正してから立体画像を生成する処理を行う。このようにすることで、シェーディング特性を揃えた2つの画像により立体画像を生成することができ、立体画像の品質を向上させることが可能である。
 ここまでは、固体撮像素子5,5a,5bが複数色のカラーフィルタを搭載してカラー撮像を行うものとしたが、固体撮像素子5,5a,5bは、カラーフィルタを緑色の単色にするか又は省略して、モノクロ撮像用の撮像素子としてもよい。
 また、図3に示した感度比のデータは、列方向Yにおける位置の異なる複数の位相差検出用画素セルの各々の感度比の平均をとったものとしたが、位相差検出用画素セル51R,51Lを含む画素セルの行毎に感度比のデータを生成し、この行毎に補正データを生成し、感度比を補正するようにしてもよい。
 以上説明してきたように、本明細書には以下の事項が開示されている。
 開示された撮像装置は、撮像光学系を着脱可能な撮像装置であって、上記撮像光学系の瞳領域を通過した光束により形成された像を撮像する複数の撮像用画素セル、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束により形成された一対の像の一方を撮像する複数の第一の位相差検出用画素セル、及び上記一対の像の他方を撮像する複数の第二の位相差検出用画素セルを含む撮像素子と、上記撮像素子により被写体を撮像して得られる撮像画像信号に含まれる上記撮像用画素セルの出力信号、上記第一の位相差検出用画素セルの出力信号、及び上記第二の位相差検出用画素セルの出力信号を用いて、上記第一の位相差検出用画素セルと上記第二の位相差検出用画素セルの感度差を補正するための補正データを生成する補正データ生成部と、上記第一の位相差検出用画素セルの出力信号と上記第二の位相差検出用画素セルの出力信号の少なくとも一方を上記補正データにしたがって補正する信号補正部とを備え、上記補正データ生成部は、上記第一の位相差検出用画素セルの出力信号とその第一の位相差検出用画素セルに近接する上記撮像用画素セルの出力信号との比、及び、その第一の位相差検出用画素セルに近接する上記第二の位相差検出用画素セルの出力信号とその第二の位相差検出用画素セルに近接する上記撮像用画素セルの出力信号との比を算出し、上記2つの比に基づいて上記補正データを生成するものである。
 開示された撮像装置は、上記補正データ生成部が、上記2つの比を同じにするために必要な上記第一の位相差検出用画素セル及び上記第二の位相差検出用画素セルの少なくとも一方の出力信号に乗じる係数を上記補正データとして算出するものである。
 開示された撮像装置は、上記補正データ生成部が、上記補正データの生成に用いる上記撮像用画素セルの出力信号、上記第一の位相差検出用画素セルの出力信号、及び上記第二の位相差検出用画素セルの出力信号の各々として、上記撮像素子により被写体を複数回撮像して得られる出力信号の平均値を用いるものである。
 開示された撮像装置は、上記補正データ生成部が、上記撮像素子により連続して撮像が行われる動画撮像中に上記補正データの生成を行い、上記複数回の撮像が行われるときの第一のフレームレートを、上記動画撮像中の第二のフレームレートより上げる制御を、上記動画撮像時に設定されている各フレームの露光時間に応じて行うフレームレート制御部を備えるものである。
 開示された撮像装置は、上記フレームレート制御部が、上記露光時間が閾値よりも小さい場合に上記第一のフレームレートを上記第二のフレームレートよりも上げる制御を行い、上記露光時間が閾値以上の場合に上記第一のフレームレートを上記第二のフレームレートと同じにする制御を行うものである。
 開示された撮像装置は、上記補正データ生成部が、上記平均値の演算対象とする出力信号の数を、その出力信号を得る際の撮像時に設定されたISO感度に基づいて決めるものである。
 開示された撮像装置は、上記補正データ生成部が、上記撮像素子により被写体を複数回撮像して得られる同一の画素セルの出力信号のうち、他の出力信号との差分が閾値を超える出力信号を含む上記撮像画像信号を除外して、上記平均値を算出するものである。
 開示された撮像措置は、上記補正データ生成部が、上記補正データの生成に用いる上記比として、上記撮像素子により被写体を複数回撮像して得られる出力信号の各々から求めた比の平均値を用いるものである。
 開示された撮像装置は、上記撮像画像信号に基づいて上記撮像画像信号における被写体のエッジ部を検出するエッジ検出部を備え、上記補正データ生成部は、上記補正データの生成に用いる出力信号として、上記エッジ部にかかる画素セルの出力信号を除外するものである。
 開示された撮像装置は、上記補正データ生成部が、上記補正データの生成に用いる出力信号として、飽和レベルに達しているものを除外するものである。
 開示された撮像装置は、上記補正データ生成部が、上記撮像光学系の光学条件又は上記撮像光学系が変更された場合に上記補正データを生成するものである。
 開示された撮像装置は、上記補正データ生成部によって生成された補正データを、その補正データを求める際に装着されていた上記撮像光学系の識別情報と関連付けて記録媒体に記録する記録制御部を備え、上記記録媒体に上記補正データが記録されている撮像光学系が装着された場合に、上記信号補正部は、上記記録媒体に記録されている補正データにしたがって上記第一の位相差検出用画素セルの出力信号と上記第二の位相差検出用画素セルの少なくとも一方の出力信号を補正するものである。
 開示された撮像措置は、上記補正データ生成部によって生成された補正データを、その補正データを求める際に装着されていた上記撮像光学系に設けられた記録媒体に、上記撮像装置の識別情報と対応付けて記録する記録制御部を備え、上記撮像装置の識別情報に対応する上記補正データが記録媒体に記録されている撮像光学系が装着された場合に、上記信号補正部は、上記記録媒体に記録されている補正データにしたがって上記第一の位相差検出用画素セルの出力信号と上記第二の位相差検出用画素セルの少なくとも一方の出力信号を補正するものである。
 開示された撮像装置は、上記信号補正部による補正後の出力信号を用いて上記一対の像の相対的な位置ずれ量である位相差量を算出する位相差量算出部と、上記位相差量に基づいて上記撮像光学系の合焦状態を制御する合焦制御部と、を備えるものである。
 開示された信号処理方法は、撮像光学系を着脱可能な撮像装置における信号処理方法であって、上記撮像光学系の瞳領域を通過した光束により形成された像を撮像する複数の撮像用画素セル、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束により形成された一対の像の一方を撮像する複数の第一の位相差検出用画素セル、及び上記一対の像の他方を撮像する複数の第二の位相差検出用画素セルを含む撮像素子により被写体を撮像し、その撮像により得られる撮像画像信号に含まれる上記撮像用画素セルの出力信号、上記第一の位相差検出用画素セルの出力信号、及び上記第二の位相差検出用画素セルの出力信号を用いて、上記第一の位相差検出用画素セルと上記第二の位相差検出用画素セルの感度差を補正するための補正データを生成する補正データ生成ステップと、上記第一の位相差検出用画素セルの出力信号と上記第二の位相差検出用画素セルの出力信号の少なくとも一方を上記補正データにしたがって補正する信号補正ステップとを備え、上記補正データ生成ステップでは、上記第一の位相差検出用画素セルの出力信号とその第一の位相差検出用画素セルに近接する上記撮像用画素セルの出力信号との比、及び、その第一の位相差検出用画素セルに近接する上記第二の位相差検出用画素セルの出力信号とその第二の位相差検出用画素セルに近接する上記撮像用画素セルの出力信号との比を算出し、上記2つの比に基づいて上記補正データを生成するものである。
 本発明によれば、位相差のある一対の画像のシェーディング補正を精度良く行うことのできる撮像装置及び信号処理方法を提供することができる。
 以上、本発明を特定の実施形態によって説明したが、本発明はこの実施形態に限定されるものではなく、開示された発明の技術思想を逸脱しない範囲で種々の変更が可能である。
 本出願は、2012年9月12日出願の日本特許出願(特願2012-200475)、2013年4月30日出願の日本特許出願(特願2013-095388)に基づくものであり、その内容はここに取り込まれる。
5 固体撮像素子
19 デフォーカス量算出部
51 画素セル
51R,51L 位相差検出用画素セル

Claims (15)

  1.  撮像光学系を着脱可能な撮像装置であって、
     前記撮像光学系の瞳領域を通過した光束により形成された像を撮像する複数の撮像用画素セル、前記撮像光学系の瞳領域の異なる部分を通過した一対の光束により形成された一対の像の一方を撮像する複数の第一の位相差検出用画素セル、及び前記一対の像の他方を撮像する複数の第二の位相差検出用画素セルを含む撮像素子と、
     前記撮像素子により被写体を撮像して得られる撮像画像信号に含まれる前記撮像用画素セルの出力信号、前記第一の位相差検出用画素セルの出力信号、及び前記第二の位相差検出用画素セルの出力信号を用いて、前記第一の位相差検出用画素セルと前記第二の位相差検出用画素セルの感度差を補正するための補正データを生成する補正データ生成部と、
     前記第一の位相差検出用画素セルの出力信号と前記第二の位相差検出用画素セルの出力信号の少なくとも一方を前記補正データにしたがって補正する信号補正部とを備え、
     前記補正データ生成部は、前記第一の位相差検出用画素セルの出力信号と当該第一の位相差検出用画素セルに近接する前記撮像用画素セルの出力信号との比、及び、当該第一の位相差検出用画素セルに近接する前記第二の位相差検出用画素セルの出力信号と当該第二の位相差検出用画素セルに近接する前記撮像用画素セルの出力信号との比を算出し、前記2つの比に基づいて前記補正データを生成する撮像装置。
  2.  請求項1記載の撮像装置であって、
     前記補正データ生成部は、前記2つの比を同じにするために必要な前記第一の位相差検出用画素セル及び前記第二の位相差検出用画素セルの少なくとも一方の出力信号に乗じる係数を前記補正データとして算出する撮像装置。
  3.  請求項1又は2記載の撮像装置であって、
     前記補正データ生成部は、前記補正データの生成に用いる前記撮像用画素セルの出力信号、前記第一の位相差検出用画素セルの出力信号、及び前記第二の位相差検出用画素セルの出力信号の各々として、前記撮像素子により被写体を複数回撮像して得られる出力信号の平均値を用いる撮像装置。
  4.  請求項3記載の撮像装置であって、
     前記補正データ生成部は、前記撮像素子により連続して撮像が行われる動画撮像中に前記補正データの生成を行い、
     前記複数回の撮像が行われるときの第一のフレームレートを、前記動画撮像中の第二のフレームレートより上げる制御を、前記動画撮像時に設定されている各フレームの露光時間に応じて行うフレームレート制御部を備える撮像装置。
  5.  請求項4記載の撮像装置であって、
     前記フレームレート制御部は、前記露光時間が閾値よりも小さい場合に前記第一のフレームレートを前記第二のフレームレートよりも上げる制御を行い、前記露光時間が閾値以上の場合に前記第一のフレームレートを前記第二のフレームレートのままにする制御を行う撮像装置。
  6.  請求項3~5のいずれか1項記載の撮像装置であって、
     前記補正データ生成部は、前記平均値の演算対象とする出力信号の数を、当該出力信号を得る際の撮像時に設定されたISO感度に基づいて決める撮像装置。
  7.  請求項3~6のいずれか1項記載の撮像装置であって、
     前記補正データ生成部は、前記撮像素子により被写体を複数回撮像して得られる同一の画素セルの出力信号のうち、他の出力信号との差分が閾値を超える出力信号を含む前記撮像画像信号を除外して、前記平均値を算出する撮像装置。
  8.  請求項1~7のいずれか1項記載の撮像装置であって、
     前記補正データ生成部は、前記補正データの生成に用いる前記比として、前記撮像素子により被写体を複数回撮像して得られる出力信号の各々から求めた比の平均値を用いる撮像装置。
  9.  請求項1~8のいずれか1項記載の撮像装置であって、
     前記撮像画像信号に基づいて前記撮像画像信号における被写体のエッジ部を検出するエッジ検出部を備え、
     前記補正データ生成部は、前記補正データの生成に用いる出力信号として、前記エッジ部にかかる画素セルの出力信号を除外する撮像装置。
  10.  請求項1~9のいずれか1項記載の撮像装置であって、
     前記補正データ生成部は、前記補正データの生成に用いる出力信号として、飽和レベルに達しているものを除外する撮像装置。
  11.  請求項1~10のいずれか1項記載の撮像装置であって、
     前記補正データ生成部は、前記撮像光学系の光学条件又は前記撮像光学系が変更された場合に前記補正データを生成する撮像装置。
  12.  請求項1~11のいずれか1項記載の撮像装置であって、
     前記補正データ生成部によって生成された補正データを、当該補正データを求める際に装着されていた前記撮像光学系の識別情報と関連付けて記録媒体に記録する記録制御部を備え、
     前記記録媒体に前記補正データが記録されている撮像光学系が装着された場合に、前記信号補正部は、前記記録媒体に記録されている補正データにしたがって前記第一の位相差検出用画素セルの出力信号と前記第二の位相差検出用画素セルの少なくとも一方の出力信号を補正する撮像装置。
  13.  請求項1~11のいずれか1項記載の撮像装置であって、
     前記補正データ生成部によって生成された補正データを、当該補正データを求める際に装着されていた前記撮像光学系に設けられた記録媒体に、前記撮像装置の識別情報と対応付けて記録する記録制御部を備え、
     前記撮像装置の識別情報に対応する前記補正データが記録媒体に記録されている撮像光学系が装着された場合に、前記信号補正部は、前記記録媒体に記録されている補正データにしたがって前記第一の位相差検出用画素セルの出力信号と前記第二の位相差検出用画素セルの少なくとも一方の出力信号を補正する撮像装置。
  14.  請求項1~13のいずれか1項記載の撮像装置であって、
     前記信号補正部による補正後の出力信号を用いて前記一対の像の相対的な位置ずれ量である位相差量を算出する位相差量算出部と、
     前記位相差量に基づいて前記撮像光学系の合焦状態を制御する合焦制御部と、を備える撮像装置。
  15.  撮像光学系を着脱可能な撮像装置における信号処理方法であって、
     前記撮像光学系の瞳領域を通過した光束により形成された像を撮像する複数の撮像用画素セル、前記撮像光学系の瞳領域の異なる部分を通過した一対の光束により形成された一対の像の一方を撮像する複数の第一の位相差検出用画素セル、及び前記一対の像の他方を撮像する複数の第二の位相差検出用画素セルを含む撮像素子により被写体を撮像し、その撮像により得られる撮像画像信号に含まれる前記撮像用画素セルの出力信号、前記第一の位相差検出用画素セルの出力信号、及び前記第二の位相差検出用画素セルの出力信号を用いて、前記第一の位相差検出用画素セルと前記第二の位相差検出用画素セルの感度差を補正するための補正データを生成する補正データ生成ステップと、
     前記第一の位相差検出用画素セルの出力信号と前記第二の位相差検出用画素セルの出力信号の少なくとも一方を前記補正データにしたがって補正する信号補正ステップとを備え、
     前記補正データ生成ステップでは、前記第一の位相差検出用画素セルの出力信号と当該第一の位相差検出用画素セルに近接する前記撮像用画素セルの出力信号との比、及び、当該第一の位相差検出用画素セルに近接する前記第二の位相差検出用画素セルの出力信号と当該第二の位相差検出用画素セルに近接する前記撮像用画素セルの出力信号との比を算出し、前記2つの比に基づいて前記補正データを生成する信号処理方法。
PCT/JP2013/062948 2012-09-12 2013-05-08 撮像装置及び信号処理方法 WO2014041845A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014535394A JP5657184B2 (ja) 2012-09-12 2013-05-08 撮像装置及び信号処理方法
CN201380047550.2A CN104641276B (zh) 2012-09-12 2013-05-08 摄像装置及信号处理方法
US14/644,899 US9762838B2 (en) 2012-09-12 2015-03-11 Imaging device and signal processing method to correct shading of images having a phase difference

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-200475 2012-09-12
JP2012200475 2012-09-12
JP2013095388 2013-04-30
JP2013-095388 2013-04-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/644,899 Continuation US9762838B2 (en) 2012-09-12 2015-03-11 Imaging device and signal processing method to correct shading of images having a phase difference

Publications (1)

Publication Number Publication Date
WO2014041845A1 true WO2014041845A1 (ja) 2014-03-20

Family

ID=50277982

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/062948 WO2014041845A1 (ja) 2012-09-12 2013-05-08 撮像装置及び信号処理方法

Country Status (4)

Country Link
US (1) US9762838B2 (ja)
JP (1) JP5657184B2 (ja)
CN (1) CN104641276B (ja)
WO (1) WO2014041845A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018006881A (ja) * 2016-06-29 2018-01-11 株式会社シグマ 画像処理装置及び画像処理方法
WO2021090663A1 (ja) * 2019-11-05 2021-05-14 ソニーセミコンダクタソリューションズ株式会社 撮像デバイス及び撮像デバイスにおける画素信号の補正処理方法
WO2022149355A1 (ja) * 2021-01-11 2022-07-14 ソニーセミコンダクタソリューションズ株式会社 撮像装置、撮像装置の画素信号処理方法、及び、撮像システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102390836B1 (ko) 2015-10-05 2022-04-26 삼성전자주식회사 이미지 데이터를 생성하는 전자 장치 및 방법
JP6808340B2 (ja) * 2016-03-31 2021-01-06 キヤノン株式会社 レンズ制御装置、制御方法
CN115336251B (zh) * 2020-03-25 2024-05-03 富士胶片株式会社 摄像装置、摄像方法及记录介质
US20230020061A1 (en) * 2021-07-15 2023-01-19 Robert Bosch Gmbh Vehicle mounted virtual visor system having predictive pre-shading of visor segments

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026178A (ja) * 2008-07-17 2010-02-04 Canon Inc 位相差検出装置、撮像装置、位相差検出装置の信号レベル補正方法、信号レベル補正プログラム
JP2011114553A (ja) * 2009-11-26 2011-06-09 Nikon Corp 撮像装置
JP2012141585A (ja) * 2010-12-13 2012-07-26 Canon Inc 撮像装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005181356A (ja) * 2003-12-15 2005-07-07 Canon Inc カメラシステム、カメラ、アクセサリ及び撮影レンズ
JP2006115470A (ja) * 2004-09-16 2006-04-27 Ntt Docomo Inc 映像評価装置、フレームレート決定装置、映像処理装置、映像評価方法、および映像評価プログラム
US7349033B2 (en) * 2005-05-23 2008-03-25 Texas Instruments Incorporated Systems and methods for correcting color phase error in video systems
JP4908382B2 (ja) * 2007-11-14 2012-04-04 株式会社リコー 画像処理装置及び画像処理方法
JP5374862B2 (ja) * 2007-11-16 2013-12-25 株式会社ニコン 焦点検出装置および撮像装置
JP5163068B2 (ja) * 2007-11-16 2013-03-13 株式会社ニコン 撮像装置
JP5020800B2 (ja) 2007-12-25 2012-09-05 キヤノン株式会社 撮像装置及びその制御方法
JP5371331B2 (ja) * 2008-09-01 2013-12-18 キヤノン株式会社 撮像装置、撮像装置の制御方法及びプログラム
JP5675157B2 (ja) 2009-05-12 2015-02-25 キヤノン株式会社 焦点検出装置
JP2011257565A (ja) * 2010-06-08 2011-12-22 Canon Inc 撮像装置
JP2012150289A (ja) * 2011-01-19 2012-08-09 Olympus Corp 画像処理装置、撮像装置、および画像処理方法
JP6061532B2 (ja) * 2011-08-22 2017-01-18 キヤノン株式会社 制御装置、撮影装置および制御方法
US9148637B2 (en) * 2011-11-04 2015-09-29 Microsoft Technology Licensing, Llc Face detection and tracking

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026178A (ja) * 2008-07-17 2010-02-04 Canon Inc 位相差検出装置、撮像装置、位相差検出装置の信号レベル補正方法、信号レベル補正プログラム
JP2011114553A (ja) * 2009-11-26 2011-06-09 Nikon Corp 撮像装置
JP2012141585A (ja) * 2010-12-13 2012-07-26 Canon Inc 撮像装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018006881A (ja) * 2016-06-29 2018-01-11 株式会社シグマ 画像処理装置及び画像処理方法
WO2021090663A1 (ja) * 2019-11-05 2021-05-14 ソニーセミコンダクタソリューションズ株式会社 撮像デバイス及び撮像デバイスにおける画素信号の補正処理方法
WO2022149355A1 (ja) * 2021-01-11 2022-07-14 ソニーセミコンダクタソリューションズ株式会社 撮像装置、撮像装置の画素信号処理方法、及び、撮像システム

Also Published As

Publication number Publication date
JP5657184B2 (ja) 2015-01-21
US20150195473A1 (en) 2015-07-09
CN104641276B (zh) 2016-08-24
US9762838B2 (en) 2017-09-12
CN104641276A (zh) 2015-05-20
JPWO2014041845A1 (ja) 2016-08-18

Similar Documents

Publication Publication Date Title
JP5241355B2 (ja) 撮像装置とその制御方法
US8063978B2 (en) Image pickup device, focus detection device, image pickup apparatus, method for manufacturing image pickup device, method for manufacturing focus detection device, and method for manufacturing image pickup apparatus
JP5319347B2 (ja) 撮像装置及びその制御方法
JP5657184B2 (ja) 撮像装置及び信号処理方法
US9071781B2 (en) Image capturing apparatus and defective pixel detection method
JP5468177B2 (ja) 撮像装置及びその合焦制御方法
US10136079B2 (en) Method and apparatus for imaging an object
JP5946421B2 (ja) 撮像装置及びその制御方法
JP5911445B2 (ja) 撮像装置及びその制御方法
US11290648B2 (en) Image capture apparatus and control method thereof
JP5484617B2 (ja) 撮像装置
JP5279638B2 (ja) 撮像装置
JP2008177794A (ja) 撮像装置の色シェーディング補正装置、撮像装置および撮像装置の色シェーディング補正方法
JP6238578B2 (ja) 撮像装置およびその制御方法
JP5990008B2 (ja) 撮像装置およびその制御方法
JP6799656B2 (ja) 合焦位置検出装置及び合焦位置検出方法
US20130194393A1 (en) Imaging apparatus and method for controlling same
JP5452269B2 (ja) 撮像装置
JP6594048B2 (ja) 撮像装置及びその制御方法
JP5127510B2 (ja) 撮像装置、及び撮像装置の制御方法
US11463613B2 (en) Detection device and detection method
JP5311927B2 (ja) 撮像装置、撮像方法
WO2015182021A1 (ja) 撮像制御装置、撮像装置および撮像制御方法
US20200007782A1 (en) Image capturing apparatus and control method therefor
JP2015148819A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13836989

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014535394

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13836989

Country of ref document: EP

Kind code of ref document: A1