WO2015046246A1 - カメラシステム及び焦点検出画素の補正方法 - Google Patents

カメラシステム及び焦点検出画素の補正方法 Download PDF

Info

Publication number
WO2015046246A1
WO2015046246A1 PCT/JP2014/075278 JP2014075278W WO2015046246A1 WO 2015046246 A1 WO2015046246 A1 WO 2015046246A1 JP 2014075278 W JP2014075278 W JP 2014075278W WO 2015046246 A1 WO2015046246 A1 WO 2015046246A1
Authority
WO
WIPO (PCT)
Prior art keywords
focus detection
correction
detection pixel
data
lens
Prior art date
Application number
PCT/JP2014/075278
Other languages
English (en)
French (fr)
Inventor
哲央 菊地
伊藤 一弥
功刀 和正
幸恵 山崎
芳信 小俣
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to EP14847957.9A priority Critical patent/EP3054336B1/en
Priority to CN201480053915.7A priority patent/CN105593739B/zh
Publication of WO2015046246A1 publication Critical patent/WO2015046246A1/ja
Priority to US15/082,139 priority patent/US9509899B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2206/00Systems for exchange of information between different pieces of apparatus, e.g. for exchanging trimming information, for photo finishing

Definitions

  • the present invention relates to a camera system including an imaging device having a focus detection pixel and a correction method for the focus detection pixel.
  • An imaging apparatus that detects a focus state by using a part of pixels of the image sensor as a focus detection element is known.
  • a part of pixels of the imaging element is set as a focus detection pixel, and a subject light flux that has passed through different pupil regions symmetric with respect to the optical axis center of the photographing lens is formed on a plurality of focus detection pixels.
  • the focus state of the photographing lens is detected by detecting the phase difference between the subject light fluxes.
  • illuminance correction for example, a method of multiplying the pixel output by a correction coefficient corresponding to the distance from the optical axis is known.
  • the imaging device disclosed in Japanese Patent Application Laid-Open No. 2009-244858 has a correction coefficient for focus detection pixels in a ROM provided in the camera body in addition to the correction coefficient for imaging pixels. These correction coefficients are used properly according to the pixel to be corrected.
  • the camera body has a correction coefficient for illuminance correction for the focus detection pixel.
  • a correction coefficient for illuminance correction for the focus detection pixel.
  • the interchangeable lens has a correction coefficient for illuminance correction
  • the optical characteristics of the image sensor incorporated in the camera body to be mounted changes, the correction coefficient according to the optical characteristics Need to be added.
  • the present invention has been made in view of the above circumstances, and can correct the pixel output of the focus detection pixel without adding data even if the specifications of the optical characteristics of the interchangeable lens and the camera body are changed. It is an object of the present invention to provide a system and a method for correcting focus detection pixels.
  • a camera system is a camera system having an interchangeable lens having a photographing optical system including a focus lens, and a camera body to which the interchangeable lens is attached and detached.
  • the interchangeable lens includes a lens-side storage unit that stores data relating to a pupil corresponding to an image height, and the camera body includes a plurality of imaging pixels for imaging and a plurality of focus detection pixels for focus detection.
  • a main body side storage unit that stores correction data for correcting non-uniformity of illuminance distribution due to light incident on the focus detection pixel, and an output of the focus detection pixel; and a lens side storage unit
  • a correction unit that receives data related to the pupil and corrects non-uniformity in the illuminance distribution of the output of the focus detection pixel based on the correction data and the data related to the pupil; That.
  • a focus detection pixel correction method includes an imaging optical system including a focus lens, and an interchangeable lens having data on a pupil corresponding to an image height, A camera body to which the interchangeable lens can be attached and detached, wherein the focus detection pixel has a plurality of imaging pixels for imaging and a camera body having an imaging element including a plurality of focus detection pixels for focus detection.
  • FIG. 1 is a block diagram showing a configuration of an example of a camera system according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an arrangement of focus detection pixels of an example image sensor.
  • FIG. 3 is a flowchart showing an AF operation in the camera system.
  • FIG. 4 is a diagram illustrating an example of a change in received light amount in the focus detection pixel.
  • FIG. 5 is a diagram showing the relationship between the effective aperture CF corresponding to the focus detection pixel at the image height x and the imaging light beam incident angle ⁇ c which is the center direction of the imaging light beam.
  • FIG. 6 is a flowchart showing the process of illuminance correction 1.
  • FIG. 1 is a block diagram showing a configuration of an example of a camera system according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an arrangement of focus detection pixels of an example image sensor.
  • FIG. 3 is a flowchart showing an AF operation in the camera system.
  • FIG. 7 is an example of the corrected exit pupil position CEXPI and the corrected F value CFno obtained with the interchangeable lens.
  • FIG. 8 is a diagram illustrating an example of illuminance correction data.
  • FIG. 9A is a first diagram for explaining the illuminance correction 2.
  • FIG. 9B is a second diagram for explaining the illuminance correction 2.
  • FIG. 10 is a flowchart showing the illuminance correction 2 process.
  • FIG. 11A is a first diagram illustrating an example of reliability determination.
  • FIG. 11B is a second diagram illustrating an example of reliability determination.
  • FIG. 1 is a block diagram showing a configuration of an example of a camera system according to an embodiment of the present invention.
  • a solid line with an arrow indicates a data flow
  • a broken line with an arrow indicates a control signal flow.
  • the camera system 1 shown in FIG. 1 has an interchangeable lens 100 and a camera body 200.
  • the interchangeable lens 100 is configured to be attached to and detached from the camera body 200.
  • the interchangeable lens 100 and the camera body 200 are connected so as to be able to communicate.
  • the interchangeable lens 100 includes a photographing lens 102, a drive unit 104, a lens CPU 106, and a lens side storage unit 108.
  • the photographing lens 102 is a photographing optical system for forming an image of the subject light beam on the image sensor 208 of the camera body 200.
  • the photographing lens 102 has a focus lens 1021 and a diaphragm 1022.
  • the focus lens 1021 is configured to adjust the focal position of the photographing lens 102 by moving in the optical axis direction.
  • the diaphragm 1022 is disposed on the optical axis of the focus lens 1021 and has a variable aperture.
  • the aperture 1022 limits the amount of subject light flux that has passed through the focus lens 1021.
  • the drive unit 104 drives the focus lens 1021 and the diaphragm 1022 based on a control signal from the lens CPU 106.
  • the photographing lens 102 may be configured as a zoom lens. In this case, the driving unit 104 also performs zoom driving.
  • the lens CPU 106 is configured to be able to communicate with the CPU 216 of the camera body 200 via an interface (I / F) 110.
  • the lens CPU 106 controls the drive unit 104 according to the control of the CPU 216.
  • the lens CPU 106 also transmits information such as the aperture value (F value) of the aperture 1022 and lens data stored in the lens-side storage unit 108 to the CPU 216 via the I / F 110.
  • the lens side storage unit 108 stores lens data regarding the interchangeable lens 100.
  • the lens data includes, for example, information on the focal length of the photographing lens 102 and information on aberration.
  • the lens data in the present embodiment includes pupil data.
  • the pupil data is association data between the F value corresponding to the image height and the exit pupil position. Details of the pupil data will be described later.
  • the camera body 200 includes a mechanical shutter 202, a drive unit 204, an operation unit 206, an imaging device 208, an imaging control circuit 210, an analog processing unit 212, an analog / digital conversion unit (ADC) 214, a CPU 216, and an image.
  • a processing unit 218, an image compression / decompression unit 220, a focus detection circuit 222, a display unit 224, a bus 226, a DRAM 228, a main body side storage unit 230, and a recording medium 232 are included.
  • the mechanical shutter 202 is configured to be openable and closable, and adjusts the incident time of the subject luminous flux from the subject to the image sensor 208 (exposure time of the image sensor 208).
  • the mechanical shutter 202 a known focal plane shutter, lens shutter, or the like can be employed.
  • the drive unit 204 drives the mechanical shutter 202 based on a control signal from the CPU 216.
  • the operation unit 206 includes various operation buttons such as a power button, a release button, a moving image button, a reproduction button, and a menu button, and various operation members such as a touch panel.
  • the operation unit 206 detects operation states of various operation members and outputs a signal indicating the detection result to the CPU 216.
  • the image sensor 208 is disposed on the optical axis of the photographic lens 102, behind the mechanical shutter 202, and at a position where the subject luminous flux is imaged by the photographic lens 102.
  • the image sensor 208 is configured by two-dimensionally arranging photodiodes that constitute pixels.
  • a Bayer array color filter is disposed on the front surface of the photodiode constituting the pixel.
  • the Bayer array has a line in which R pixels and G (Gr) pixels are alternately arranged in the horizontal direction, and a line in which G (Gb) pixels and B pixels are alternately arranged.
  • the photodiodes that form the image sensor 208 generate charges according to the amount of received light. The electric charge generated in the photodiode is accumulated in a capacitor connected to each photodiode.
  • the electric charge accumulated in the capacitor is read out as an image signal in accordance with a control signal from the imaging control circuit 210.
  • the image sensor 208 in the present embodiment includes an image pickup pixel for acquiring an image for recording and display and a focus detection pixel for focus detection.
  • the imaging control circuit 210 sets the drive mode of the image sensor 208 according to the control signal from the CPU 216, and controls the reading of the image signal from the image sensor 208 according to the readout method corresponding to the set drive mode.
  • the analog processing unit 212 performs analog processing such as amplification processing on the image signal read from the image sensor 208 according to the control of the imaging control circuit 210.
  • the ADC 214 converts the image signal output from the analog processing unit 212 into a digital image signal (pixel data).
  • pixel data a collection of a plurality of pixel data is referred to as imaging data in this specification.
  • the CPU 216 performs overall control of the camera system 1 in accordance with a program stored in the main body storage unit 230.
  • the image processing unit 218 performs various types of image processing on the captured data to generate image data. For example, when recording a still image, the image processing unit 218 performs still image recording image processing to generate still image data. Similarly, when recording a moving image, the image processing unit 218 performs moving image recording image processing to generate moving image data. Further, the image processing unit 218 performs display image processing during live view display to generate display image data.
  • the image compression / decompression unit 220 compresses the image data (still image data or moving image data) generated by the image processing unit 218 when the image data is recorded. When reproducing the image data, the image data recorded in the compressed state on the recording medium 232 is expanded.
  • the focus detection circuit 222 acquires pixel data from the focus detection pixels, and calculates a defocus direction and a defocus amount with respect to the focus position of the focus lens 1021 using a known phase difference method based on the acquired pixel data.
  • the focus detection circuit 222 in the present embodiment includes a correction unit 2222 that corrects non-uniformity of the illuminance distribution in the imaging data prior to focus detection.
  • the display unit 224 is a display unit such as a liquid crystal display or an organic EL display, and is disposed on the back surface of the camera body 200, for example.
  • the display unit 224 displays an image according to the control of the CPU 216.
  • the display unit 224 is used for live view display, display of recorded images, and the like.
  • the bus 226 is connected to the ADC 214, the CPU 216, the image processing unit 218, the image compression / decompression unit 220, the focus detection circuit 222, the DRAM 228, the main body side storage unit 230, and the recording medium 232, and transfers various data generated in these blocks. It functions as a transfer path for
  • the DRAM 228 is an electrically rewritable memory, and temporarily stores various data such as the above-described imaging data (pixel data), recording image data, display image data, and processing data in the CPU 216.
  • An SDRAM may be used for temporary storage.
  • the main body side storage unit 230 stores various data such as a program used by the CPU 216 and adjustment values of the camera main body 200.
  • the main body storage unit 230 stores correction data for illuminance correction in the correction unit 2222. Details of the correction data will be described later.
  • the recording medium 232 is configured to be built in or loaded into the camera body 200, and records image data for recording as an image file of a predetermined format.
  • FIG. 2 is a diagram showing an arrangement of focus detection pixels of the image sensor 208 as an example.
  • the image sensor 208 of an example has 37 AF areas.
  • the 37-point AF area includes a line a including a 3-point AF area, a line b including a 5-point AF area, a line c including a 7-point AF area, and a line d including a 7-point AF area.
  • each AF area a pixel row of focus detection pixels in the reference portion and a pixel row of focus detection pixels in the reference portion are arranged.
  • the same number of focus detection pixels are arranged in the pixel row of the focus detection pixels in the reference portion and the pixel row of the focus detection pixels in the reference portion.
  • different regions are opened between the pixel column of the focus detection pixels in the reference portion and the pixel row of the focus detection pixels in the reference portion so that a phase difference can be detected. For example, when it is configured to be able to detect a phase difference in the horizontal direction, an area of the left half surface (or right half surface) of the focus detection pixel of the reference portion is opened, and the right half surface ( (Or the left half surface) is opened.
  • FIG. 3 is a flowchart showing the AF operation in the camera system 1.
  • the processing of the flowchart shown in FIG. 3 is executed by the CPU 216 based on a program stored in the main body side storage unit 230.
  • the processing of the flowchart in FIG. 3 is started when the captured image data is captured.
  • the CPU 216 causes the focus detection circuit 222 to execute AF processing.
  • the focus detection circuit 222 performs sampling of the pixel output (pixel data) of the focus detection pixel in the imaging data (step 101).
  • the pixel output of the pixel column of the focus detection pixel of the standard part for each AF area before illuminance correction obtained as a result of sampling is b_dat0 [area] [el], and the focus detection pixel of the reference part
  • the pixel output of this pixel column is set to r_dat0 [area] [el].
  • area indicates the position of the AF area.
  • area has a value from 0 to 36 (for example, the left end of the line a is 0 and the right end of the line g is 36).
  • el indicates the position of the focus detection pixel in each AF area. For example, if 100 focus detection pixels are arranged in each AF area, el is a value from 0 to 99 (for example, the leftmost focus detection pixel is 0 and the rightmost focus detection pixel is 99). have.
  • the focus detection circuit 222 After sampling the pixel output, the focus detection circuit 222 performs illuminance correction 1 (step S102).
  • illuminance correction 1 is a process for correcting non-uniformity of the illuminance distribution in the imaging data.
  • FIG. 4 shows a change in the amount of received light on line d in FIG. 2 when uniform light is irradiated.
  • the horizontal axis x in FIG. 4 represents the horizontal distance (image height) from the optical axis center
  • the vertical axis in FIG. 4 represents the amount of received light (pixel data value).
  • the image heights at the centers of the seven AF areas constituting the line d are, for example, -0.15, -0.1, -0.05, 0, 0.05, 0.1, and 0.15.
  • the characteristics of the interchangeable lens 100 causing the change in the amount of received light as shown in FIG. 4 are the exit pupil position EXPI and the F value Fno.
  • some focus detection pixels are not on the optical axis of the photographing lens 102.
  • the corrected F value CFno corrected according to the image height There is.
  • the corrected exit pupil position CEXPI corrected according to the image height for the exit pupil position.
  • a method of calculating the corrected F value CFno and the corrected exit pupil position CEXPI will be described with reference to FIG. FIG.
  • FIG. 5 is a diagram showing the relationship between the effective aperture CF corresponding to the focus detection pixel at the image height x and the imaging light beam incident angle ⁇ c which is the center direction of the imaging light beam.
  • the imaging light beam that forms an image at the position of the image height x exists in the range of the incident angles ⁇ L to ⁇ U.
  • the incident angle ⁇ L is the maximum incident angle on the side close to the optical axis
  • the incident angle ⁇ U is the maximum incident angle on the side far from the optical axis.
  • the incident angle of the light beam on the light receiving surface of the image sensor 208 has a one-to-one correspondence with the position of the intersection of the light beam passing through the center of the imaging light beam (broken line in FIG. 5) and the optical axis.
  • This position that is, the position where the straight line passing through the center of the imaging light beam intersects the optical axis is the corrected exit pupil position CEXPI (in the figure, it is represented by the length with reference to the light receiving surface).
  • the corrected exit pupil position CEXPI is expressed by the following relationship (Equation 1).
  • the corrected exit pupil position CEXPI may be different from the original exit pupil position EXPI of the photographing lens 102.
  • CEXPI x / tan ⁇ c (Formula 1)
  • the effective aperture CF expressed as an F value is the corrected F value CFno. Therefore, the corrected F value CFno is expressed by the following relationship (Formula 2).
  • both the corrected exit pupil position CEXPI and the corrected F value CFno have different values depending on the image height x (that is, the incident angle ⁇ L and the incident angle ⁇ U). Therefore, if the corrected exit pupil position CEXPI corresponding to the image height x and the corrected F value CFno are known, the amount of change in the received light amount at the image height x can be estimated from these values. Then, by performing correction according to the change in the amount of received light, it is possible to correct the non-uniformity of the illuminance distribution in the imaging data.
  • the corrected exit pupil position CEXPI and the corrected F value CFno corresponding to the representative image height (for example, the center of each AF area) x are stored in the lens-side storage unit 108 as pupil data.
  • illuminance correction data corresponding to the corrected exit pupil position CEXPI and the corrected F value CFno is stored in the main body side storage unit 230.
  • the focus detection circuit 222 acquires the corrected exit pupil position CEXPI and the correction F value CFno corresponding to the image height x stored in the lens-side storage unit 108, and the acquired corrected exit pupil position CEXPI and correction F
  • the illuminance correction data corresponding to the value CFno is acquired, and the non-uniformity of the illuminance distribution as shown in FIG. 5 is corrected according to the acquired illuminance correction data.
  • Such a series of processes is the illumination correction 1 process.
  • the processing of illuminance correction 1 will be described in detail with reference to FIG.
  • an example of correcting the non-uniformity of the illuminance distribution of the line d will be described, but the same correction is possible for other lines.
  • the interchangeable lens 100 currently mounted on the camera body 200 is a lens having an open F value Fno of 2.0 and an exit pupil position EXPI of 60 mm.
  • the corrected exit pupil position CEXPI and corrected F value CFno for each image height of the currently mounted interchangeable lens 100 calculated from the pupil data stored in the lens-side storage unit 108 are as shown in FIG.
  • the focus detection circuit 222 calculates illuminance correction data at the representative value (step S201).
  • the data value is shown in FIG.
  • the positions of the black circles and white circles in FIG. 8 are the illuminance correction data at the representative image height.
  • the illuminance correction data shown in FIG. 8 is data adjusted so that the light amount (pixel output) shown in FIG.
  • the focus detection circuit 222 calculates the illuminance correction data corresponding to the image height x other than the representative value, that is, the position of each focus detection pixel constituting the AF area by linear interpolation (Ste S202).
  • the illuminance correction data for each focus detection pixel in the AF area calculated by the process of step S202 will be referred to as illuminance correction data hosei_val_b [area] [el] and illuminance correction data hosei_val_r [area] [el].
  • the focus detection circuit 222 After calculating the illuminance correction data for each focus detection pixel in the AF area, the focus detection circuit 222 corrects the pixel output of the focus detection pixel (step S203). Then, the focus detection circuit 222 ends the illuminance correction 1 process.
  • the pixel output of the focus detection pixel of the reference part after the illumination correction 1 is b_dat1 [area] [el] and the pixel output of the focus detection pixel of the reference part is r_dat1 [area] [el]
  • these are It is represented by the following (Formula 3).
  • Illuminance correction 2 is a process for absorbing the influence of the remaining correction due to individual variations such as focus detection pixels that may occur in the design.
  • a correction residue as shown in FIG. 9A may occur due to individual variations such as focus detection pixels.
  • Such a remaining correction is corrected by detecting a shift amount between the pixel output of the focus detection pixel of the reference portion and the pixel output of the focus detection pixel of the reference portion.
  • the focus detection circuit 222 calculates a deviation amount (for example, a ratio) between the pixel output of the reference unit and the pixel output of the reference unit (step S301).
  • a deviation amount for example, a ratio
  • the focus detection circuit 222 calculates the average value Ave_b [area] of the pixel output of the focus detection pixel of the reference portion and the average value Ave_r [area of the pixel output of the focus detection pixel of the reference portion in each AF area. ] Is calculated.
  • the focus detection circuit 222 calculates a deviation amount Balance [area] as shown in the following (Equation 4).
  • the focus detection circuit 222 clips the shift amount within a predetermined range (step S302).
  • the reason for clipping is to prevent the occurrence of false focusing due to the increase in noise caused by the pixel output shift between the standard part and the reference part caused by individual variations and the contrast of the subject image itself.
  • the upper limit CLIP_arufa_Max and the lower limit CLIP_arufa_Min of the clip value are determined by the maximum value of noise caused by individual variations that may occur in the design.
  • the upper limit CLIP_arufa_SAF_Max for single AF is 1.2 and the lower limit CLIP_arufa_SAF_Min is 0.8
  • the upper limit CLIP_arufa_CAF_Max for continuous AF is 1.3
  • the lower limit CLIP_arufa_CAF_Min is 0.7.
  • the focus detection circuit 222 corrects the pixel output of one of the focus detection pixels in the reference portion and the reference portion using the shift amount Balance [area] (step S303). For example, when the pixel output of the focus detection pixel of the reference unit is corrected, the pixel output r_dat2 [area] [el] of the reference unit after the illuminance correction 2 is obtained according to the following (formula 6). In addition, the pixel output of the focus detection pixel of the reference
  • r_dat2 [area] [el] Balance [area] ⁇ r_dat1 [area] [el] (Formula 6)
  • the focus detection circuit 222 performs a correlation calculation for calculating the defocus amount (step S ⁇ b> 104).
  • the correlation calculation is a correlation calculation between the pixel output b_dat1 [area] [el] of the reference unit and the pixel output r_dat2 [area] [el] of the reference unit.
  • the focus detection circuit 222 determines whether or not the defocus amount reliability is OK (step S105). Whether or not the reliability of the defocus amount is OK is determined by, for example, the correlation value F.
  • the minimum correlation value Fmin which is the correlation value corresponding to the defocus amount, is sufficiently small and the slope near the minimum correlation value is sufficiently large, it is determined that the reliability is OK.
  • Whether or not the minimum correlation value Fmin is sufficiently small is determined by determining whether or not the minimum correlation value Fmin ⁇ FINT, as shown in FIG. 11A.
  • FINT is a threshold value.
  • FIG. 11A is an example when the reliability is NG.
  • Whether or not the slope near the minimum correlation value is sufficiently large is determined by determining whether or not FS ⁇ FSmin, as shown in FIG. 11B.
  • FS is the larger of FM-Fmin and FP-Fmin.
  • FM is a correlation value at a pixel position where el is 1 smaller than min
  • FP is a correlation value at a pixel position where el is 1 larger than min.
  • step S105 When it is determined in step S105 that the reliability of the defocus amount is NG, the focus detection circuit 222 determines that focusing cannot be performed, and ends the processing in FIG. At this time, the focus detection circuit 222 displays, for example, on the display unit 224 that the current state is out of focus. If it is determined in step S105 that the defocus amount reliability is OK, the focus detection circuit 222 determines whether or not the photographing lens 102 is currently in focus (step S106). For example, it is assumed that the in-focus state is obtained when the defocus amount is smaller than a threshold value. If it is determined in step S106 that the photographic lens 102 is in focus, the focus detection circuit 222 determines that focus has been achieved and ends the processing in FIG.
  • the focus detection circuit 222 causes the display unit 224 to display that the current state is in focus, for example. If it is determined in step S106 that the photographic lens 102 is not in focus, the focus detection circuit 222 transmits the defocus amount to the CPU 216. Based on this defocus amount, the CPU 216 controls the lens CPU 106 to drive the focus lens 1021 of the photographing lens 102 to the in-focus position (step S107). Thereafter, the CPU 216 returns the process to step S101.
  • the interchangeable lens 100 has pupil data corresponding to the image height, and the camera body 200 has illuminance correction data corresponding to the pupil data.
  • Illuminance correction according to the lens 100 can be performed. That is, even if the specification of the interchangeable lens 100 is changed, the illuminance correction can be performed without changing the content of the illuminance correction data table of the camera body.
  • the illuminance correction 2 by correcting the pixel output of the reference portion by the illuminance correction 2, it is possible to perform the illuminance correction in a state in which the influence of individual variation and subject image is eliminated. Further, by clipping the illuminance correction data during the illuminance correction 2, the possibility of false focusing due to overcorrection can be reduced.
  • AF is started with the aperture fully open, but the aperture 1022 is not necessarily in the open state.
  • the image height of the representative value is not limited to the center position of the AF area. There may be two or more representative values in one AF area.
  • Each process according to the above-described embodiment can be stored as a program that can be executed by the CPU 216.
  • memory cards ROM cards, RAM cards, etc.
  • magnetic disks floppy disks, hard disks, etc.
  • optical disks CD-ROM, DVD, etc.
  • storage media of external storage devices such as semiconductor memories, etc. are distributed. be able to.
  • the CPU 216 reads the program stored in the storage medium of the external storage device, and the operation described above can be executed by the operation being controlled by the read program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Abstract

 カメラシステム(1)は、交換レンズ(100)と、カメラ本体(200)とを有している。交換レンズ(100)は、像高に応じた瞳データを記憶するレンズ側記憶部(108)を有する。カメラ本体(200)は、撮像用の複数の撮像画素と焦点検出用の複数の焦点検出画素とを有する撮像素子(208)と、焦点検出画素への入射光による照度分布の不均一性を補正する補正データを記憶する本体側記憶部(230)と、レンズ側記憶部(108)から瞳データを受信し、補正データと瞳データとに基づいて焦点検出画素の出力の照度分布の不均一性を補正する補正部(2222)とを有する。

Description

カメラシステム及び焦点検出画素の補正方法
 本発明は、焦点検出画素を有する撮像素子を備えたカメラシステム及び焦点検出画素の補正方法に関する。
 撮像素子の一部の画素を焦点検出素子として利用して焦点状態を検出する撮像装置が知られている。このような撮像装置は、撮像素子の一部の画素を焦点検出画素に設定し、撮影レンズの光軸中心に対して対称な異なる瞳領域を通過した被写体光束を複数の焦点検出画素に結像させ、この被写体光束の間の位相差を検出することによって撮影レンズの焦点状態を検出している。
 ところで、撮像装置においては、撮影レンズの光学特性により、撮影レンズを通して入射される光束の量が、撮影レンズの光軸から距離が離れるにつれて少なくなることが知られている。このため、撮像素子に結像された被写体像における照度の不均一が生じる。このような照度の不均一性を補正するための処理は、照度補正やシェーディング補正等と呼ばれている。照度補正としては、例えば光軸からの距離に応じた補正係数を画素出力に乗じる手法が知られている。ここで、焦点検出画素については、その開口の仕方等の種々の条件によって受光量が異なるので、単純に光軸からの距離に応じた補正係数を乗じただけでは正しく画素出力を補正することができない。これに対し、日本国特開2009-244858号公報における撮像装置は、撮像画素用の補正係数とは別に焦点検出画素用の補正係数をカメラ本体に設けられたROM内に有しており、これらの補正係数を補正の対象となる画素に応じて使い分けるようにしている。
 日本国特開2009-244858号公報の手法は、焦点検出画素についての照度補正のための補正係数をカメラ本体に持たせておくようにしている。このような構成の場合、カメラ本体と交換レンズからなるカメラシステムの場合には、装着され得る交換レンズに応じた補正係数を持たせる必要が生じる。また、照度補正のための補正係数を交換レンズに持たせるようにした場合には、装着されるカメラ本体に内蔵された撮像素子の光学特性が変化した場合に、その光学特性に応じた補正係数を追加する必要が生じる。
 本発明は、前記の事情に鑑みてなされたもので、交換レンズやカメラ本体の光学特性の仕様変更が行われても、データの追加をすることなく焦点検出画素の画素出力を補正可能なカメラシステム及び焦点検出画素の補正方法を提供することを目的とする。
 前記の目的を達成するために、本発明の第1の態様のカメラシステムは、フォーカスレンズを含む撮影光学系を有する交換レンズと、前記交換レンズが着脱されるカメラ本体とを有するカメラシステムであって、前記交換レンズは、像高に応じた瞳に関するデータを記憶するレンズ側記憶部を具備し、前記カメラ本体は、撮像用の複数の撮像画素と焦点検出用の複数の焦点検出画素とを有する撮像素子と、前記焦点検出画素の出力について、前記焦点検出画素への入射光による照度分布の不均一性を補正するための補正データを記憶する本体側記憶部と、前記レンズ側記憶部から前記瞳に関するデータを受信し、前記補正データと前記瞳に関するデータとに基づいて前記焦点検出画素の出力の照度分布の不均一性を補正する補正部とを具備する。
 前記の目的を達成するために、本発明の第2の態様の焦点検出画素の補正方法は、フォーカスレンズを含む撮影光学系を有し、像高に応じた瞳に関するデータを有する交換レンズと、前記交換レンズを着脱可能なカメラ本体であって、撮像用の複数の撮像画素と焦点検出用の複数の焦点検出画素を含む撮像素子を有するカメラ本体とを有するカメラシステムにて前記焦点検出画素の出力を補正する焦点検出画素の補正方法において、前記カメラ本体に記憶される、前記焦点検出画素の出力について前記焦点検出画素への入射光による照度分布の不均一性を補正するための補正データを読み出すことと、前記交換レンズから前記瞳に関するデータを受信することと、前記補正データと前記瞳に関するデータとに基づいて前記焦点検出画素の出力の照度分布の不均一性を補正することとを具備する。
図1は、本発明の一実施形態に係るカメラシステムの一例の構成を示すブロック図である。 図2は、一例の撮像素子の焦点検出画素の配置を示した図である。 図3は、カメラシステムにおけるAF動作を示すフローチャートである。 図4は、焦点検出画素における受光量変化の例を示す図である。 図5は、像高xの焦点検出画素に対応した有効口径CFと結像光束の中心方向である結像光束入射角θcとの関係を示す図である。 図6は、照度補正1の処理を示すフローチャートである。 図7は、交換レンズで得られる補正射出瞳位置CEXPI及び補正F値CFnoの例である。 図8は、照度補正データの例を示す図である。 図9Aは、照度補正2について説明するための第1の図である。 図9Bは、照度補正2について説明するための第2の図である。 図10は、照度補正2の処理を示すフローチャートである。 図11Aは、信頼性の判断の例を示す第1の図である。 図11Bは、信頼性の判断の例を示す第2の図である。
 以下、図面を参照して本発明の実施形態を説明する。 
 図1は、本発明の一実施形態に係るカメラシステムの一例の構成を示すブロック図である。ここで、図1において、矢印付き実線はデータの流れを示し、矢印付き破線は制御信号の流れを示す。
 図1に示すカメラシステム1は、交換レンズ100と、カメラ本体200とを有している。交換レンズ100は、カメラ本体200に着脱されるように構成されている。交換レンズ100がカメラ本体200に装着されたときに、交換レンズ100とカメラ本体200とが通信自在に接続される。
 交換レンズ100は、撮影レンズ102と、駆動部104と、レンズCPU106と、レンズ側記憶部108とを有している。
 撮影レンズ102は、被写体光束をカメラ本体200の撮像素子208に結像させるための撮影光学系である。この撮影レンズ102は、フォーカスレンズ1021と、絞り1022とを有している。フォーカスレンズ1021は、光軸方向に移動することによって、撮影レンズ102の焦点位置を調節するように構成されている。絞り1022は、フォーカスレンズ1021の光軸上に配置され、その口径が可変に構成されている。絞り1022は、フォーカスレンズ1021を通過した被写体光束の量を制限する。駆動部104は、レンズCPU106からの制御信号に基づいて、フォーカスレンズ1021、絞り1022を駆動させる。ここで、撮影レンズ102は、ズームレンズとして構成されていてもよく、この場合、駆動部104はズーム駆動も行う。
 レンズCPU106は、インターフェイス(I/F)110を介してカメラ本体200のCPU216と通信自在に構成されている。このレンズCPU106は、CPU216の制御に従って駆動部104の制御を行う。また、レンズCPU106は、I/F110を介して絞り1022の絞り値(F値)やレンズ側記憶部108に記憶されているレンズデータといった情報をCPU216に送信することも行う。
 レンズ側記憶部108は、交換レンズ100に関するレンズデータを記憶している。レンズデータは、例えば撮影レンズ102の焦点距離の情報や収差の情報を含む。さらに、本実施形態におけるレンズデータは、瞳データを含む。瞳データは、像高に応じたF値と射出瞳位置との対応付けデータである。瞳データの詳細については後で説明する。
 カメラ本体200は、メカシャッタ202と、駆動部204と、操作部206と、撮像素子208と、撮像制御回路210と、アナログ処理部212と、アナログデジタル変換部(ADC)214と、CPU216と、画像処理部218と、画像圧縮展開部220と、焦点検出回路222と、表示部224と、バス226と、DRAM228と、本体側記憶部230と、記録媒体232とを有する。
 メカシャッタ202は、開閉自在に構成され、撮像素子208への被写体からの被写体光束の入射時間(撮像素子208の露光時間)を調節する。メカシャッタ202としては、公知のフォーカルプレーンシャッタ、レンズシャッタ等が採用され得る。駆動部204は、CPU216からの制御信号に基づいてメカシャッタ202を駆動させる。
 操作部206は、電源釦、レリーズ釦、動画釦、再生釦、メニュー釦といった各種の操作釦及びタッチパネル等の各種の操作部材を含む。この操作部206は、各種の操作部材の操作状態を検知し、検知結果を示す信号をCPU216に出力する。
 撮像素子208は、撮影レンズ102の光軸上であって、メカシャッタ202の後方で、かつ、撮影レンズ102によって被写体光束が結像される位置に配置されている。撮像素子208は、画素を構成するフォトダイオードが二次元的に配置されて構成されている。また、画素を構成するフォトダイオードの前面には、例えばベイヤ配列のカラーフィルタが配置されている。ベイヤ配列は、水平方向にR画素とG(Gr)画素が交互に配置されたラインと、G(Gb)画素とB画素が交互に配置されたラインを有している。撮像素子208を構成するフォトダイオードは、受光量に応じた電荷を生成する。フォトダイオードで発生した電荷は、各フォトダイオードに接続されているキャパシタに蓄積される。
このキャパシタに蓄積された電荷は、撮像制御回路210からの制御信号に従って画像信号として読み出される。ここで、本実施形態における撮像素子208は、記録や表示のための画像を取得するための撮像画素と焦点検出をするための焦点検出画素とを有している。
 撮像制御回路210は、CPU216からの制御信号に従って撮像素子208の駆動モードを設定し、設定した駆動モードに応じた読み出し方式に従って撮像素子208からの画像信号の読み出しを制御する。
 アナログ処理部212は、撮像制御回路210の制御に従って撮像素子208から読み出された画像信号に対して増幅処理等のアナログ処理を行う。ADC214は、アナログ処理部212から出力された画像信号を、デジタル形式の画像信号(画素データ)に変換する。以下、本明細書においては、複数の画素データの集まりを撮像データと記す。
 CPU216は、本体側記憶部230に記憶されているプログラムに従ってカメラシステム1の全体制御を行う。画像処理部218は、撮像データに対して各種の画像処理を施して画像データを生成する。例えば画像処理部218は、静止画像の記録の際には、静止画記録用の画像処理を施して静止画像データを生成する。同様に、画像処理部218は、動画像の記録の際には、動画記録用の画像処理を施して動画像データを生成する。さらに、画像処理部218は、ライブビュー表示時には、表示用の画像処理を施して表示用画像データを生成する。
 画像圧縮展開部220は、画像データの記録時には、画像処理部218で生成された画像データ(静止画像データ又は動画像データ)を圧縮する。また、画像データの再生時には、記録媒体232に圧縮状態で記録された画像データを伸張する。
 焦点検出回路222は、焦点検出画素からの画素データを取得し、取得した画素データに基づき、公知の位相差方式を用いてフォーカスレンズ1021の合焦位置に対するデフォーカス方向及びデフォーカス量を算出する。ここで、本実施形態における焦点検出回路222は、焦点検出に先立って、撮像データにおける照度分布の不均一性を補正する補正部2222を有している。
 表示部224は、例えば液晶ディスプレイや有機ELディスプレイといった表示部であって、例えばカメラ本体200の背面に配置される。この表示部224は、CPU216の制御に従って画像を表示する。表示部224は、ライブビュー表示や記録済み画像の表示等に使用される。
 バス226は、ADC214、CPU216、画像処理部218、画像圧縮展開部220、焦点検出回路222、DRAM228、本体側記憶部230、記録媒体232に接続され、これらのブロックで発生した各種のデータを転送するための転送路として機能する。
 DRAM228は、電気的に書き換え可能なメモリであり、前述した撮像データ(画素データ)、記録用画像データ、表示用画像データ、CPU216における処理データといった各種データを一時的に記憶する。なお、一時記憶用としてSDRAMが用いられてもよい。
 本体側記憶部230は、CPU216で使用されるプログラム、カメラ本体200の調整値等の各種データを記憶している。ここで、本実施形態においては、本体側記憶部230は、補正部2222における照度補正のための補正データを記憶している。補正データの詳細については後で説明する。
 記録媒体232は、カメラ本体200に内蔵されるか又は装填されるように構成されており、記録用画像データを所定の形式の画像ファイルとして記録する。
 図2は、一例の撮像素子208の焦点検出画素の配置を示した図である。一例の撮像素子208は、図2に示すように、37点のAFエリアを有している。この37点のAFエリアは、3点のAFエリアを含むラインaと、5点のAFエリアを含むラインbと、7点のAFエリアを含むラインcと、7点のAFエリアを含むラインdと、7点のAFエリアを含むラインeと、5点のAFエリアを含むラインfと、3点のAFエリアを含むラインgの合計7つの画素ラインを有している。それぞれのAFエリアには、基準部の焦点検出画素の画素列と参照部の焦点検出画素の画素列とが配列されている。基準部の焦点検出画素の画素列と参照部の焦点検出画素の画素列とには、同数の焦点検出画素が配置されている。また、基準部の焦点検出画素の画素列と参照部の焦点検出画素の画素列とは、位相差を検出できるよう、異なる領域が開口されている。例えば、水平方向の位相差を検出できるように構成されている場合、基準部の焦点検出画素の左半面(又は右半面)の領域が開口されており、参照部の焦点検出画素の右半面(又は左半面)の領域が開口されている。
 以下、本実施形態のカメラシステム1におけるAF動作を説明する。図3は、カメラシステム1におけるAF動作を示すフローチャートである。図3に示すフローチャートの処理は、本体側記憶部230に記憶されているプログラムに基づいてCPU216によって実行される。
 図3のフローチャートの処理は、撮像データの取り込みが行われると開始される。撮像データの取り込み後、CPU216は、焦点検出回路222にAF処理を実行させる。これを受けて、焦点検出回路222は、撮像データにおける焦点検出画素の画素出力(画素データ)のサンプリングを実行する(ステップ101)。後の説明のために、サンプリングの結果として得られる、照度補正前のAFエリア毎の基準部の焦点検出画素の画素列の画素出力をb_dat0[area][el]とし、参照部の焦点検出画素の画素列の画素出力をr_dat0[area][el]としておく。ここで、areaは、AFエリアの位置を示している。図2の例の撮像素子208の場合、areaは0から36(例えばラインaの左端を0とし、ラインgの右端を36とする)の値を持つ。また、elは、それぞれのAFエリア内における焦点検出画素の位置を示している。例えば、それぞれのAFエリア内に100画素の焦点検出画素が配列されているとすると、elは0から99(例えば左端の焦点検出画素を0とし、右端の焦点検出画素を99とする)の値を持つ。
 画素出力のサンプリング後、焦点検出回路222は、照度補正1の処理を行う(ステップS102)。以下、照度補正1の処理を説明する。照度補正1は、撮像データにおける照度分布の不均一性を補正するための処理である。
 均一光が照射された場合であっても、交換レンズ100(撮影レンズ102)の特性により、撮像素子208に入射する被写体光束の光量は、光軸中心からの距離に応じて低下する。例えば、均一光が照射されたときの図2のラインdの受光量変化を図4に示す。図4の横軸xは光軸中心からの水平方向距離(像高)であり、図4の縦軸は受光量(画素データの値)を示している。なお、ラインdを構成する7つのAFエリアの中心の像高は、例えば-0.15、-0.1、-0.05、0、0.05、0.1、0.15である。
 図4に示すような受光量の変化を起こす交換レンズ100の特性は、射出瞳位置EXPIとF値Fnoである。ただし、焦点検出画素は、撮影レンズ102の光軸上にないものもあり、撮影レンズ102の光軸外に位置する焦点検出画素については、像高に応じて補正した補正F値CFnoを用いる必要がある。同様に、射出瞳位置も像高に応じて補正した補正射出瞳位置CEXPIを用いる必要がある。補正F値CFno及び補正射出瞳位置CEXPIの算出手法について図5を参照して説明する。図5は、像高xの焦点検出画素に対応した有効口径CFと結像光束の中心方向である結像光束入射角θcとの関係を示す図である。図5に示すように、像高xの位置に結像する結像光束は、入射角θLからθUの範囲に存在している。ここで、入射角θLは光軸に近い側の最大の入射角であり、入射角θUは光軸に遠い側の最大の入射角である。そして、結像光束入射角θcは、入射角θLとθUの間の中心角である。したがって、入射角θL、入射角θU及び結像光束θcの間には、tanθc=(tanθL+tanθU)/2の関係が成立する。
 撮像素子208の受光面への光線に入射角は、結像光束の中心を通る光線(図5の破線)と光軸との交点の位置と1対1に対応する。この位置、すなわち結像光束の中心を通る直線が光軸と交わる位置が、補正射出瞳位置CEXPI(図では受光面を基準とした長さで表されている)である。この補正射出瞳位置CEXPIは、以下の(式1)の関係で表される。
なお、補正射出瞳位置CEXPIは、撮影レンズ102の本来の射出瞳位置EXPIとは異なることがある。
   CEXPI=x/tanθc                    (式1)
 また、像高xの位置の画素に入射する光束の範囲が有効口径CFであり、この有効口径CFは、CF=1/(tanθL-tanθU)と表される。有効口径CFをF値で表したものが補正F値CFnoである。したがって、補正F値CFnoは、以下の(式2)の関係で表される。
   CFno=CEXPI/CF                       (式2)
 (式1)及び(式2)からも分かるように、補正射出瞳位置CEXPI及び補正F値CFnoは、何れも像高x(すなわち入射角θL及び入射角θU)によって異なる値を持つ。したがって、像高xに応じた補正射出瞳位置CEXPI及び補正F値CFnoが既知であれば、これらの値から像高xにおける受光量の変化量が推定できる。そして、この受光量の変化に応じて補正を行うことにより、撮像データにおける照度分布の不均一性を補正することができる。したがって、本実施形態においては、代表値の像高(例えばそれぞれのAFエリアの中心)xに応じた補正射出瞳位置CEXPI及び補正F値CFnoを瞳データとしてレンズ側記憶部108に記憶させておくとともに、補正射出瞳位置CEXPI及び補正F値CFnoに応じた照度補正データを本体側記憶部230に記憶させておく。そして、AF時には、焦点検出回路222は、レンズ側記憶部108に記憶された像高xに応じた補正射出瞳位置CEXPI及び補正F値CFnoを取得し、取得した補正射出瞳位置CEXPI及び補正F値CFnoに応じた照度補正データを取得し、取得した照度補正データに応じて図5で示したような照度分布の不均一性を補正する。このような一連の処理が照度補正1の処理である。
 以下、図6を参照して照度補正1の処理を具体的に説明する。ここでは、ラインdの照度分布の不均一性を補正する例を説明するが他のラインも同様の補正が可能である。また、カメラ本体200に現在装着されている交換レンズ100は、開放F値Fnoが2.0で射出瞳位置EXPIが60mmのレンズであるとする。そして、レンズ側記憶部108に記憶されている瞳データから算出される、現在装着されている交換レンズ100の像高毎の補正射出瞳位置CEXPI及び補正F値CFnoは図7に示すものであるとする。また、本体側記憶部230に記憶されている照度補正データhosei_b[area][CFno_index][CEXPI_index]及び照度補正データhosei_r[area][CFno_index][CEXPI_index]は、例えば4段階のF値CFno=2、4、6、8(CFno_index=0,1,2,3)及び3段階の射出瞳位置CEXPI=40mm、60mm、80mm(CEXPI_index=0,1,2)に対応した12段階の照度補正データであるとする。
 照度補正1の処理として、焦点検出回路222は、代表値における照度補正データを算出する(ステップS201)。ここで、現在の交換レンズ100の代表値の像高xに応じた補正射出瞳位置CEXPI及び補正F値CFnoが図7で示されるものであるとき、像高x=±0.15のときのCEXPIは40mmであり、この値はCEXPI_index=0に対応している。一方、像高x=±0.15のときのCFnoは3であり、この値はCFno_index=0(CFno=2)とCFno_index=1(CFno=4)とを1:1に分ける値に対応している。したがって、焦点検出回路222は、図7の例の交換レンズ100が装着されたときの像高x=±0.15のときの照度補正データを、CEXPI_index=0でCFno_index=0のときの照度補正データとCEXPI_index=0でCFno_index=1のときの照度補正データの平均値とする。同様に、像高x=±0.1のときのCEXPIは40mmであり、この値はCEXPI_index=0に対応している。一方、像高x=±0.1のときのCFnoは2.5であり、この値はCFno_index=0とCFno_index=1とを1:3に分ける値に対応している。したがって、焦点検出回路222は、図7の例の交換レンズ100が装着されたときの像高x=±0.1のときの照度補正データを、CEXPI_index=0でCFno_index=0のときの照度補正データの3/4倍の値とCEXPI_index=0でCFno_index=1のときの照度補正データの1/4倍の値とを加算した値とする。さらに同様に、像高x=±0.05、0のときのCEXPIは40mmであり、この値はCEXPI_index=0に対応している。一方、像高x=±0.05、0のときのCFnoは2であり、この値はCFno_index=0に対応している。したがって、焦点検出回路222は、図7の例の交換レンズ100が装着されたときの像高x=±0.05、0のときの照度補正データを、CEXPI_index=0でCFno_index=0のときの照度補正データの値とする。このような照度補正データを図8に示す。図8の黒丸及び白丸の位置が代表値の像高における照度補正データである。図8に示す照度補正データは、例えば図5で示した光量(画素出力)を一定値とするように調整されたデータである。
 代表値における照度補正データの算出後、焦点検出回路222は、代表値以外の像高x、すなわちAFエリアを構成するそれぞれの焦点検出画素の位置に対応した照度補正データを直線補間によって算出する(ステップS202)。以下、ステップS202の処理によって算出されたAFエリアの焦点検出画素毎の照度補正データを、照度補正データhosei_val_b[area][el]及び照度補正データhosei_val_r[area][el]と記す。
 AFエリアの焦点検出画素毎の照度補正データの算出後、焦点検出回路222は、焦点検出画素の画素出力を補正する(ステップS203)。そして、焦点検出回路222は、照度補正1の処理を終了させる。ここで、照度補正1の後の基準部の焦点検出画素の画素出力をb_dat1[area][el]とし、参照部の焦点検出画素の画素出力をr_dat1[area][el]とすると、これらは以下の(式3)で表される。
   b_dat1[area][el]=hosei_val_b[area][el]×b_dat0[area][el]
   r_dat1[area][el]=hosei_val_r[area][el]×r_dat0[area][el]   (式3)
 ここで、図2の説明に戻る。照度補正1の処理の後、焦点検出回路222は、照度補正2の処理を行う(ステップS103)。以下、照度補正2の処理を説明する。照度補正2は、設計上起こり得る焦点検出画素等の個体ばらつきによる補正残りの影響を吸収するための処理である。照度補正1の処理により、図5で示した画素出力は、一定値に近づくように補正される。しかしながら、実際には焦点検出画素等の個体ばらつきにより、図9Aで示すような補正残りが発生することがある。このような補正残りを基準部の焦点検出画素の画素出力と参照部の焦点検出画素の画素出力とのずれ量を検出することによって補正する。
 以下、図10を参照して照度補正2の処理を具体的に説明する。照度補正2の処理として、焦点検出回路222は、基準部の画素出力と参照部の画素出力とのずれ量(例えば比率)を算出する(ステップS301)。ずれ量を算出するに際し、焦点検出回路222は、それぞれのAFエリアにおける基準部の焦点検出画素の画素出力の平均値Ave_b[area]と参照部の焦点検出画素の画素出力の平均値Ave_r[area]とを算出する。その後、焦点検出回路222は、ずれ量Balance[area]を以下の(式4)のようにして算出する。 
   Balance[area]=Ave_b[area]/Ave_r[area]          (式4)
 ずれ量の算出後、焦点検出回路222は、ずれ量を所定範囲内にクリップする(ステップS302)。クリップを施すのは、個体ばらつきや被写体像自体の明暗によって生じる基準部と参照部との画素出力のずれに起因するノイズが補正によって拡大されて偽合焦が生じるのを防止するためである。なお、クリップ値の上限CLIP_arufa_Max及び下限CLIP_arufa_Minは、設計上起こり得る個体ばらつきに起因するノイズの最大値によって決定される。また、シングルAF時とコンティニュアスAF時とではコンティニュアスAFのほうのクリップ値の範囲を広げるようにすることが望ましい。例えば、シングルAF時の上限CLIP_arufa_SAF_Maxを1.2とし、下限CLIP_arufa_SAF_Minを0.8としたとき、コンティニュアスAF時の上限CLIP_arufa_CAF_Maxを1.3とし、下限CLIP_arufa_CAF_Minを0.7とする。このように、シングルAF時のときにはクリップ値の範囲を狭くすることで偽合焦が生じる可能性を低減させてAF精度を向上させることができる。一方、コンティニュアスAF時のときにはクリップ値の範囲を広くすることで偽合焦が生じる可能性が高まるがAF速度を速くすることができる。
 ずれ量をクリップした後、焦点検出回路222は、ずれ量Balance[area]を用いて基準部と参照部の何れかの焦点検出画素の画素出力を補正する(ステップS303)。例えば、参照部の焦点検出画素の画素出力を補正すると、照度補正2の後の参照部の画素出力r_dat2[area][el]は、以下の(式6)に従って得られる。なお、照度補正2の後の基準部及び参照部の焦点検出画素の画素出力を図9Bに示す。照度補正2によって補正残りが少なくなって同一像高における基準部及び焦点検出部の画素出力が略一致する。 
   r_dat2[area][el]=Balance[area]×r_dat1[area][el]     (式6)
 ここで、図2の説明に戻る、照度補正2の処理の後、焦点検出回路222は、デフォーカス量を算出するための相関演算を行う(ステップS104)。相関演算は、基準部の画素出力b_dat1[area][el]と参照部の画素出力r_dat2[area][el]との間の相関演算である。
基準部の画素出力b_dat1[area][el]と参照部の画素出力r_dat2[area][el]の相関演算の結果、最小の相関値Fが得られる画素ずらし量がデフォーカス量となる。相関演算の後、焦点検出回路222は、デフォーカス量の信頼性がOKであるか否かを判定する(ステップS105)。デフォーカス量の信頼性がOKであるか否かは例えば相関値Fによって判定される。デフォーカス量に対応した相関値である最小の相関値Fminが十分に小さく、かつ、最小の相関値付近の傾きが十分に大きい場合には信頼性がOKであると判定される。最小の相関値Fminが十分に小さいか否かは、図11Aに示すように、最小の相関値Fmin≦FINTであるか否かを判定することによって行われる。ここで、FINTは、閾値である。図11Aは、信頼性がNGの場合の例である。また、最小の相関値付近の傾きが十分に大きいか否かは、図11Bに示すように、FS≧FSminであるか否かを判定することによって行われる。ここで、FSは、FM-FminとFP-Fminのうちの何れか大きいほうである。また、FMは、elがminよりも1だけ小さい画素位置の相関値であり、さらに、FPは、elがminよりも1だけ大きい画素位置の相関値である。
 ステップS105においてデフォーカス量の信頼性がNGであると判定した場合に、焦点検出回路222は、合焦できないと判定して図2の処理を終了させる。このとき、焦点検出回路222は、例えば表示部224に現在が非合焦状態である旨を表示させる。ステップS105においてデフォーカス量の信頼性がOKであると判定した場合に、焦点検出回路222は、現在、撮影レンズ102が合焦状態であるか否かを判定する(ステップS106)。例えば、デフォーカス量が閾値よりも小さい場合に合焦状態であるとする。ステップS106において撮影レンズ102が合焦状態であると判定した場合に、焦点検出回路222は、合焦できたと判定して図2の処理を終了させる。このとき、焦点検出回路222は、例えば表示部224に現在が合焦状態である旨を表示させる。ステップS106において撮影レンズ102が合焦状態でないと判定した場合に、焦点検出回路222は、デフォーカス量をCPU216に送信する。このデフォーカス量に基づいて、CPU216は、レンズCPU106を制御して撮影レンズ102のフォーカスレンズ1021を合焦位置まで駆動させる(ステップS107)。その後、CPU216は、処理をステップS101に戻す。
 以上説明したように本実施形態によれば、交換レンズ100に像高に応じた瞳データを持たせておき、カメラ本体200に瞳データに応じた照度補正データを持たせておくことにより、交換レンズ100に応じた照度補正を行うことが可能である。すなわち、交換レンズ100の仕様が変更されたとしても、カメラ本体の照度補正データテーブルの内容を変えることなく照度補正を行うことができる。
 また、照度補正2によって参照部の画素出力を補正することにより、個体ばらつきや被写体像の影響を排した状態で照度補正を行うことができる。また、照度補正2の際には照度補正データをクリップすることにより、過補正によって偽合焦が生じる可能性を低減できる。
 ここで、前述した例では、画素数やF値、射出瞳位置を単純化して記載しているが、実運用ではこの限りではない。また、一例では絞り開放でAFを開始しているが、絞り1022は必ずしも開放状態でなくてよい。また、代表値の像高もAFエリアの中心位置に限らない。また、1つのAFエリアに2つ以上の代表値があってもよい。
 上述した実施形態による各処理は、CPU216に実行させることができるプログラムとして記憶させておくこともできる。この他、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、CPU216は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。

Claims (14)

  1.  フォーカスレンズを含む撮影光学系を有する交換レンズと、前記交換レンズが着脱されるカメラ本体とを有するカメラシステムであって、
     前記交換レンズは、像高に応じた瞳に関するデータを記憶するレンズ側記憶部を具備し、
     前記カメラ本体は、
     撮像用の複数の撮像画素と焦点検出用の複数の焦点検出画素とを有する撮像素子と、
     前記焦点検出画素の出力について、前記焦点検出画素への入射光による照度分布の不均一性を補正するための補正データを記憶する本体側記憶部と、
     前記レンズ側記憶部から前記瞳に関するデータを受信し、前記補正データと前記瞳に関するデータとに基づいて前記焦点検出画素の出力の照度分布の不均一性を補正する補正部と、
     を具備するカメラシステム。
  2.  前記複数の焦点検出画素は、位相差を検出するための基準部と参照部のいずれか一方に対応し、
     前記補正部は、前記焦点検出画素の前記基準部の出力と前記参照部の出力とのずれ量を検出して、前記ずれ量に基づいて前記焦点検出画素の出力の不均一性を補正する補正係数を算出する請求項1に記載のカメラシステム。
  3.  前記補正部は、前記補正係数が所定値を越える場合は、前記補正係数を前記所定値に制限する請求項2に記載のカメラシステム。
  4.  前記瞳に関するデータは、前記交換レンズのF値に関するデータと射出瞳位置に関するデータである請求項1に記載のカメラシステム。
  5.  前記交換レンズのF値に関するデータは、所定の像高に位置する前記焦点検出画素に入射する光束の範囲である請求項4に記載のカメラシステム。
  6.  前記交換レンズの射出瞳位置に関するデータは、所定の像高に位置する前記焦点検出画素に入射する光束の中心光束と前記撮影光学系の光軸の交わる位置に関する情報である請求項4に記載のカメラシステム。
  7.  前記本体側記憶部は、複数の前記瞳に関するデータにそれぞれ対応する複数の補正データを有し、
     前記補正部は、前記瞳に関するデータに基づいて前記複数の補正データから代表的な補正データを算出して照度分布の不均一性を補正する請求項1に記載のカメラシステム。
  8.  フォーカスレンズを含む撮影光学系を有し、像高に応じた瞳に関するデータを有する交換レンズと、前記交換レンズを着脱可能なカメラ本体であって、撮像用の複数の撮像画素と焦点検出用の複数の焦点検出画素を含む撮像素子を有するカメラ本体とを有するカメラシステムにて前記焦点検出画素の出力を補正する焦点検出画素の補正方法において、
     前記カメラ本体に記憶される、前記焦点検出画素の出力について前記焦点検出画素への入射光による照度分布の不均一性を補正するための補正データを読み出すことと、
     前記交換レンズから前記瞳に関するデータを受信することと、
     前記補正データと前記瞳に関するデータとに基づいて前記焦点検出画素の出力の照度分布の不均一性を補正することと、
     を具備する焦点検出画素の補正方法。
  9.  前記複数の焦点検出画素は、位相差を検出するための基準部と参照部のいずれか一方に対応し、
     前記前記焦点検出画素の出力の照度分布の不均一性を補正することは、
     前記焦点検出画素の前記基準部の出力と前記参照部の出力とのずれ量を検出することと、
     前記ずれ量に基づいて前記焦点検出画素の出力の不均一性を補正する補正係数を算出することと、
     前記補正係数によって補正することと、
     を含む請求項8に記載の焦点検出画素の補正方法。
  10.  前記補正係数を算出することは、前記補正係数が所定値を越える場合は、前記補正係数を前記所定値に制限することを含む請求項9に記載の焦点検出画素の補正方法。
  11.  前記瞳に関するデータは、前記交換レンズのF値に関するデータと射出瞳位置に関するデータである請求項8に記載の焦点検出画素の補正方法。
  12.  前記交換レンズのF値に関するデータは、所定の像高に位置する前記焦点検出画素に入射する光束の範囲である請求項11に記載の焦点検出画素の補正方法。
  13.  前記交換レンズの射出瞳位置に関するデータは、所定の像高に位置する前記焦点検出画素に入射する光束の中心光束と光軸の交わる位置に関する情報である請求項11に記載の焦点検出画素の補正方法。
  14.  前記補正データを読み出すことは、複数の前記瞳に関するデータにそれぞれ対応する複数の補正データを読み出すことを含み、
     前記補正することは、前記瞳に関するデータに基づいて前記複数の補正データから代表的な補正データを算出して照度分布の不均一性を補正することを含む請求項8に記載の焦点検出画素の補正方法。
PCT/JP2014/075278 2013-09-30 2014-09-24 カメラシステム及び焦点検出画素の補正方法 WO2015046246A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14847957.9A EP3054336B1 (en) 2013-09-30 2014-09-24 Camera system and focal point detection pixel correction method
CN201480053915.7A CN105593739B (zh) 2013-09-30 2014-09-24 照相机系统和焦点检测像素的校正方法
US15/082,139 US9509899B2 (en) 2013-09-30 2016-03-28 Camera system and method for correcting focus detection pixel

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-205951 2013-09-30
JP2013205951A JP5769773B2 (ja) 2013-09-30 2013-09-30 カメラシステム及び焦点検出画素の補正方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/082,139 Continuation US9509899B2 (en) 2013-09-30 2016-03-28 Camera system and method for correcting focus detection pixel

Publications (1)

Publication Number Publication Date
WO2015046246A1 true WO2015046246A1 (ja) 2015-04-02

Family

ID=52743381

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/075278 WO2015046246A1 (ja) 2013-09-30 2014-09-24 カメラシステム及び焦点検出画素の補正方法

Country Status (4)

Country Link
US (1) US9509899B2 (ja)
EP (1) EP3054336B1 (ja)
JP (1) JP5769773B2 (ja)
WO (1) WO2015046246A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015072357A (ja) * 2013-10-02 2015-04-16 オリンパス株式会社 焦点調節装置
CN109581786A (zh) * 2017-09-06 2019-04-05 株式会社三丰 在成像系统中稳定高速可变焦距可调声学梯度透镜的操作

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5978415B2 (ja) * 2014-03-25 2016-08-24 富士フイルム株式会社 撮像装置及び合焦制御方法
JP6504969B2 (ja) * 2015-08-19 2019-04-24 キヤノン株式会社 撮像システム、撮像装置、レンズ装置、撮像システムの制御方法
JP7246961B2 (ja) * 2019-02-15 2023-03-28 キヤノン株式会社 撮像装置、撮像装置の制御方法、およびプログラム
JP2022089251A (ja) * 2020-12-04 2022-06-16 キヤノン株式会社 撮像装置、光電変換システム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157457A (ja) * 2004-11-29 2006-06-15 Canon Inc 撮像装置及び撮像方法、並びに撮像プログラム
JP2007121896A (ja) * 2005-10-31 2007-05-17 Nikon Corp 焦点検出装置および光学システム
JP2007189312A (ja) * 2006-01-11 2007-07-26 Nikon Corp 撮像装置、撮像方法およびカメラ
JP2009244858A (ja) 2008-03-11 2009-10-22 Canon Inc 撮像装置及び画像処理方法
JP2010049209A (ja) * 2008-08-25 2010-03-04 Canon Inc 撮像装置、撮像システム、及び焦点検出方法
JP2010107770A (ja) * 2008-10-30 2010-05-13 Canon Inc 撮像装置
JP2011123133A (ja) * 2009-12-08 2011-06-23 Canon Inc 撮像装置
JP2013037295A (ja) * 2011-08-10 2013-02-21 Olympus Imaging Corp 撮像装置及び撮像素子

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8654228B2 (en) * 2010-03-17 2014-02-18 Panasonic Corporation Imaging apparatus, camera body and interchangeable lens
JP5293716B2 (ja) * 2010-09-30 2013-09-18 株式会社ニコン 交換レンズ、カメラボディおよびカメラシステム
US8810713B2 (en) * 2011-07-13 2014-08-19 Olympus Imaging Corp. Image pickup apparatus and image pickup device for performing auto-focusing

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157457A (ja) * 2004-11-29 2006-06-15 Canon Inc 撮像装置及び撮像方法、並びに撮像プログラム
JP2007121896A (ja) * 2005-10-31 2007-05-17 Nikon Corp 焦点検出装置および光学システム
JP2007189312A (ja) * 2006-01-11 2007-07-26 Nikon Corp 撮像装置、撮像方法およびカメラ
JP2009244858A (ja) 2008-03-11 2009-10-22 Canon Inc 撮像装置及び画像処理方法
JP2010049209A (ja) * 2008-08-25 2010-03-04 Canon Inc 撮像装置、撮像システム、及び焦点検出方法
JP2010107770A (ja) * 2008-10-30 2010-05-13 Canon Inc 撮像装置
JP2011123133A (ja) * 2009-12-08 2011-06-23 Canon Inc 撮像装置
JP2013037295A (ja) * 2011-08-10 2013-02-21 Olympus Imaging Corp 撮像装置及び撮像素子

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3054336A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015072357A (ja) * 2013-10-02 2015-04-16 オリンパス株式会社 焦点調節装置
CN109581786A (zh) * 2017-09-06 2019-04-05 株式会社三丰 在成像系统中稳定高速可变焦距可调声学梯度透镜的操作

Also Published As

Publication number Publication date
US20160212325A1 (en) 2016-07-21
EP3054336A4 (en) 2017-05-24
US9509899B2 (en) 2016-11-29
EP3054336B1 (en) 2019-11-06
EP3054336A1 (en) 2016-08-10
JP2015069180A (ja) 2015-04-13
JP5769773B2 (ja) 2015-08-26
CN105593739A (zh) 2016-05-18

Similar Documents

Publication Publication Date Title
US9137436B2 (en) Imaging apparatus and method with focus detection and adjustment
JP5396566B2 (ja) 撮像装置及びそのオートフォーカス制御方法
WO2015046246A1 (ja) カメラシステム及び焦点検出画素の補正方法
US20130314564A1 (en) Image capturing apparatus and image processing method
KR101847392B1 (ko) 화상처리장치 및 그 제어 방법
WO2018096816A1 (ja) 焦点調節装置、焦点調節装置の制御方法及び焦点調節プログラムを記憶した記録媒体
JP5572700B2 (ja) 撮像装置及び撮像方法
US9088710B2 (en) Image processing apparatus, and method, and recording medium recording image processing program for processing output pixels utilized as phase difference detecting elements
JP5826901B2 (ja) 撮像装置及び光軸位置算出方法
JP2018004691A5 (ja)
US10630882B2 (en) Image pickup apparatus having function of correcting defocusing and method for controlling the same
JP6838894B2 (ja) 焦点調節装置、その制御方法及びプログラム
JP5701942B2 (ja) 撮像装置、カメラシステム及び画像処理方法
US20170034425A1 (en) Image pickup apparatus and control method therefor
WO2016103745A1 (ja) 撮像素子、焦点検出装置及び焦点検出方法
JP5775918B2 (ja) 撮像装置、画像処理方法及び画像処理プログラム
US20200092489A1 (en) Optical apparatus, control method, and non-transitory computer-readable storage medium
JP2018101110A (ja) 焦点検出装置
JP2018010245A (ja) 信号処理装置、その制御方法
JP2017227792A (ja) 焦点検出装置および焦点検出方法
JP2014165785A (ja) 撮像装置およびその制御方法、カメラシステム、プログラム、記憶媒体
JP5159295B2 (ja) 自動焦点調節装置および撮像装置
JP2015176114A (ja) 撮像装置および撮像装置の制御方法
JP2019148668A (ja) 焦点調節装置及び焦点調節装置の制御方法
JP6168827B2 (ja) 像振れ補正装置および光学機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14847957

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2014847957

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014847957

Country of ref document: EP