WO2015033646A1 - 撮像装置及び合焦制御方法 - Google Patents

撮像装置及び合焦制御方法 Download PDF

Info

Publication number
WO2015033646A1
WO2015033646A1 PCT/JP2014/066385 JP2014066385W WO2015033646A1 WO 2015033646 A1 WO2015033646 A1 WO 2015033646A1 JP 2014066385 W JP2014066385 W JP 2014066385W WO 2015033646 A1 WO2015033646 A1 WO 2015033646A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal detection
detection unit
signal
phase difference
pair
Prior art date
Application number
PCT/JP2014/066385
Other languages
English (en)
French (fr)
Inventor
仁史 桜武
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201480043393.2A priority Critical patent/CN105452926B/zh
Priority to JP2015535352A priority patent/JP5934843B2/ja
Priority to DE112014004092.4T priority patent/DE112014004092B4/de
Publication of WO2015033646A1 publication Critical patent/WO2015033646A1/ja
Priority to US15/011,993 priority patent/US9602717B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • G02B7/346Systems for automatic generation of focusing signals using different areas in a pupil plane using horizontal and vertical areas in the pupil plane, i.e. wide area autofocusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/365Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals by analysis of the spatial frequency components of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/285Systems for automatic generation of focusing signals including two or more different focus detection devices, e.g. both an active and a passive focus detecting device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Definitions

  • the present invention relates to an imaging apparatus and a focus control method.
  • an imaging device In recent years, with the increase in the resolution of solid-state imaging devices such as CCD (Charge Coupled Device) image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors, mobile phones such as digital still cameras, digital video cameras, and smartphones, PDA (Personal Digital). Demand for information equipment having a photographing function such as an assistant (mobile information terminal) is rapidly increasing. Note that an information device having the above imaging function is referred to as an imaging device.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • Imaging apparatuses employ a contrast AF (Auto Focus) method or a phase difference AF method as a focusing control method for focusing on a main subject. Since the contrast AF method and the phase difference AF method each have advantages, an image pickup apparatus using both of them has also been proposed (see, for example, Patent Document 1).
  • a contrast AF Auto Focus
  • a phase difference AF method as a focusing control method for focusing on a main subject. Since the contrast AF method and the phase difference AF method each have advantages, an image pickup apparatus using both of them has also been proposed (see, for example, Patent Document 1).
  • Patent Document 1 discloses an imaging apparatus that performs focus control using the contrast AF method when the defocus amount cannot be calculated by the phase difference AF method, or when the defocus amount reliability is low even when the defocus amount can be calculated. Disclosure.
  • Patent Document 1 after calculating the defocus amount by the phase difference AF method and then shifting to the focus control by the contrast AF method according to the reliability of the defocus amount, the contrast AF method is used from the beginning. Compared with the case where the focus control is performed, the time until the focus control is completed becomes longer.
  • An object of the present invention is to provide an imaging apparatus and a focus control method that can perform high-speed AF.
  • the imaging device of the present invention is an imaging device having an imaging device that images a subject through an imaging optical system including a focus lens, and the imaging device has a pair of light beams that have passed through different parts of the pupil region of the imaging optical system.
  • a first signal detection unit that detects a signal corresponding to one of the light beams
  • a second signal detection unit that detects a signal corresponding to the other light beam of the pair of light beams.
  • a first focus control for moving the focus lens to a focus position determined based on detection signals of the first signal detection unit and the second signal detection unit; and a predetermined movement range of the focus lens. To move the focus lens to an in-focus position determined based on the contrast of the captured image captured by the image sensor at each moving position.
  • focusing control unit for performing any one of the focusing control, and whether to perform the first focusing control or the second focusing control, the first signal detection unit and the second focusing control.
  • the movement range is determined according to the information.
  • a control unit that variably controls at least the arbitrary distance among the arbitrary distances in the movement range.
  • the focus control method of the present invention is a focus control method by an image pickup apparatus having an image pickup device that picks up an image of a subject through an image pickup optical system including a focus lens, and the image pickup device has different pupil regions of the image pickup optical system.
  • a first signal detector that detects a signal corresponding to one of the pair of light beams that has passed through the portion; and a second signal detection that detects a signal corresponding to the other light beam of the pair of light beams.
  • a first focus control for moving the focus lens to a focus position determined based on detection signals of the first signal detection unit and the second signal detection unit, and the focus lens Are moved by an arbitrary distance along the optical axis direction within a predetermined movement range, and the focus is determined at the focal position determined based on the contrast of the captured image captured by the image sensor at each movement position.
  • the focus control by the phase difference AF method and the focus control by the contrast AF method are used in combination, it is possible to perform high-speed AF by reducing the time until the focus control is completed.
  • An imaging device and a focus control method can be provided.
  • FIG. 1 is a diagram illustrating a schematic configuration of a digital camera as an example of an imaging apparatus for describing an embodiment of the present invention.
  • FIG. 2 is a schematic plan view showing an overall configuration of a solid-state image sensor 5 mounted on the digital camera shown in FIG. 1.
  • FIG. 3 is a partially enlarged view of one AF area 53 shown in FIG. 2.
  • FIG. 4 is a diagram showing only a phase difference detection pixel 52 shown in FIG. 3.
  • 2 is a flowchart for explaining an AF operation of the digital camera shown in FIG. 1. It is a flowchart for demonstrating the process of step S6 in the flowchart of FIG. It is a flowchart for demonstrating the modification of the process of step S6 in the flowchart of FIG.
  • FIG. 6 is a flowchart for explaining a modification of the AF operation of the digital camera shown in FIG. 1. It is a flowchart for demonstrating the process of step S18 in the flowchart of FIG. 12 is a flowchart for explaining processing between step S181 and step S186 in the flowchart of FIG. 3 is a flowchart for explaining a continuous AF operation of the digital camera shown in FIG. 1. It is a figure which shows the modification of the arrangement
  • FIG. 1 is a diagram showing a schematic configuration of a digital camera as an example of an imaging apparatus for explaining an embodiment of the present invention.
  • the digital camera shown in FIG. 1 includes a lens device having a photographing lens 1 including a focus lens, a zoom lens, and the like for focus adjustment, and an aperture 2.
  • the lens device constitutes an imaging optical system.
  • the lens device may be either detachable from the camera body or fixed.
  • the photographing lens 1 only needs to include at least a focus lens. Alternatively, a single focus lens that performs focus adjustment by moving the entire lens system may be used.
  • the camera body includes a CCD type or CMOS type solid-state imaging device 5 that images a subject through a lens device, and an analog signal processing unit that performs analog signal processing such as correlated double sampling connected to the output of the solid-state imaging device 5 6 and an A / D conversion circuit 7 for converting an analog signal output from the analog signal processing unit 6 into a digital signal.
  • the analog signal processing unit 6 and the A / D conversion circuit 7 are controlled by the system control unit 11.
  • the analog signal processing unit 6 and the A / D conversion circuit 7 may be built in the solid-state imaging device 5.
  • a system control unit 11 that performs overall control of the entire electric control system of the digital camera controls the lens driving unit 8 to adjust the position of the focus lens included in the photographing lens 1 or the position of the zoom lens included in the photographing lens 1. Make adjustments. Further, the system control unit 11 adjusts the exposure amount by controlling the aperture amount of the aperture 2 via the aperture drive unit 9.
  • system control unit 11 drives the solid-state imaging device 5 via the imaging device driving unit 10 and outputs a subject image captured through the photographing lens 1 as a captured image signal.
  • An instruction signal from the user is input to the system control unit 11 through the operation unit 14.
  • the system control unit 11 selects one of the contrast AF processing unit 18 and the phase difference AF processing unit 19 and moves the focus lens to the in-focus position determined by the selected processing unit.
  • the electric control system of the digital camera includes an interpolation calculation and a gamma correction for the main memory 16, the memory control unit 15 connected to the main memory 16, and the captured image signal output from the A / D conversion circuit 7.
  • a digital signal processing unit 17 that performs calculation, RGB / YC conversion processing, and the like to generate captured image data
  • a contrast AF processing unit 18 that determines a focus position by a contrast AF method, and a focus position by a phase difference AF method
  • a phase difference AF processing unit 19 for determining the image, an external memory control unit 20 to which a removable recording medium 21 is connected, and a display control unit 22 to which a display unit 23 mounted on the back of the camera or the like is connected. .
  • the memory control unit 15, the digital signal processing unit 17, the contrast AF processing unit 18, the phase difference AF processing unit 19, the external memory control unit 20, and the display control unit 22 are connected to each other by a control bus 24 and a data bus 25. It is controlled by a command from the system control unit 11.
  • FIG. 2 is a schematic plan view showing the overall configuration of the solid-state imaging device 5 mounted on the digital camera shown in FIG.
  • the solid-state imaging device 5 has a light receiving surface 50 on which a large number of pixels arranged two-dimensionally in a row direction X and a column direction Y orthogonal thereto.
  • nine AF areas 53 which are areas to be focused, are provided in the example of FIG.
  • the AF area 53 is an area including imaging pixels and phase difference detection pixels as pixels.
  • the imaging pixels are arranged on the light receiving surface 50 excluding the AF area 53.
  • the AF area 53 may be provided on the light receiving surface 50 without a gap.
  • FIG. 3 is a partially enlarged view of one AF area 53 shown in FIG.
  • each pixel 51 includes a photoelectric conversion unit such as a photodiode and a color filter formed above the photoelectric conversion unit.
  • a pixel 51 (R pixel 51) including a color filter (R filter) that transmits red light is denoted by “R”, and a pixel 51 including a color filter (G filter) that transmits green light.
  • the letter “G” is assigned to (G pixel 51), and the letter “B” is assigned to pixel 51 (B pixel 51) including a color filter (B filter) that transmits blue light.
  • the color filter array is a Bayer array over the entire light receiving surface 50.
  • each G pixel 51 in an arbitrary pixel row among the pixel rows including the R pixel 51 and the G pixel 51, and the G pixel 51 of the same color closest to the G pixel 51 in the column direction Y. are the phase difference detection pixels 52.
  • one direction of the two-dimensional array is defined as an X direction or a row direction, and the other direction is defined as a Y direction or a column direction.
  • FIG. 4 is a diagram showing only the phase difference detection pixel 52 shown in FIG.
  • the phase difference detection pixel 52 includes two types of pixels, a phase difference detection pixel 52A and a phase difference detection pixel 52B.
  • the phase difference detection pixel 52A receives one of the pair of light beams that have passed through different parts of the pupil region of the photographing lens 1 and detects a signal corresponding to the amount of received light (first signal detection). Part).
  • the phase difference detection pixel 52B is a signal detection unit (second signal detection unit) that receives the other of the pair of light beams and detects a signal corresponding to the amount of received light.
  • the plurality of pixels 51 other than the phase difference detection pixels 52A and 52B are imaging pixels, and the imaging pixels receive the pair of light beams that have passed through the photographing lens 1 and correspond to the amount of received light. Detects the detected signal.
  • a light shielding film is provided above the photoelectric conversion unit of each pixel 51, and an opening that defines a light receiving area of the photoelectric conversion unit is formed in the light shielding film.
  • the center of the opening of the imaging pixel 51 coincides with the center of the photoelectric conversion unit of the imaging pixel 51.
  • the center of the opening (outlined portion in FIG. 4) of the phase difference detection pixel 52A is eccentric to the right side with respect to the center of the photoelectric conversion unit of the phase difference detection pixel 52A.
  • the center of the opening (outlined portion in FIG. 4) of the phase difference detection pixel 52B is eccentric to the left with respect to the center of the photoelectric conversion unit of the phase difference detection pixel 52B.
  • the right direction here is one direction of the X direction shown in FIG. 3, and the left direction is the other direction of the X direction.
  • the pixel group including the phase difference detection pixels 52A in an arbitrary row, and the phase difference detection pixels 52B arranged at the same distance in the same direction with respect to the phase difference detection pixels 52A of the pixel group.
  • the phase difference in the row direction X in the image captured by each of these two pixel groups can be detected.
  • the AF area 53 has a phase difference detection pixel 52A and a predetermined distance in a direction orthogonal to the phase difference detection direction (row direction X) with respect to the phase difference detection pixel 52A.
  • a pixel pair P1 composed of phase difference detection pixels 52B arranged at an interval and a pixel pair P2 in which the positional relationship between the phase difference detection pixels 52A and the phase difference detection pixels 52B in the pixel pair P1 is reversed are in the row direction.
  • At least one pair line arranged alternately in X is provided.
  • This pair line includes a first signal detection unit group (phase difference detection pixels 52A of all pixel pairs P1) composed of a plurality of phase difference detection pixels 52A arranged along the phase difference detection direction, and the first Phase difference detection pixels arranged at the same distance (distance of one pixel) in one direction in the Y direction (downward on the paper surface in FIG. 4 as an example) with respect to each phase difference detection pixel 52A of the signal detection unit group.
  • the first direction of the signal detection unit group (phase difference detection pixels 52B of all pixel pairs P1) including the pixels 52B and the same direction with respect to each phase difference detection pixel 52A of the first signal detection unit group (FIG. 4).
  • the second signal detection unit group (phase difference detection pixels 52A of all pixel pairs P2) is composed of a plurality of phase difference detection pixels 52A arranged at the same distance in the diagonally lower right direction and aligned along the detection direction. ) And each phase difference detection image of the second signal detection unit group.
  • the phase difference AF processing unit 19 shown in FIG. 1 reads out from the phase difference detection pixel 52A and the phase difference detection pixel 52B in one AF area 53 selected from among the nine AF areas 53 by a user operation or the like. Using the detection signal group, a phase difference that is a relative positional shift amount between the two images formed by the pair of light beams is calculated.
  • the phase difference AF processing unit 19 determines the focus adjustment state of the photographing lens 1, here the amount away from the in-focus state and the direction away from the in-focus state, that is, the defocus amount. Ask. The phase difference AF processing unit 19 determines the focus position of the focus lens from the defocus amount.
  • the system control unit 11 moves the focus lens to the in-focus position determined by the phase difference AF processing unit 19 based on detection signals from the phase difference detection pixel 52A and the phase difference detection pixel 52B. It functions as an in-focus control unit.
  • the contrast AF processing unit 18 shown in FIG. 1 analyzes an image picked up by one AF area 53 selected by a user operation or the like from the nine AF areas 53, and uses the well-known contrast AF method. Determine the in-focus position.
  • the contrast AF processing unit 18 calculates the contrast (brightness / darkness difference) of the image obtained for each moved position (a plurality of positions) while moving the focus lens position of the photographing lens 1 under the control of the system control unit 11. Then, the focus lens position where the contrast is maximized is determined as the focus position.
  • the contrast is obtained by taking the sum of the differences between the signals of adjacent pixels.
  • the system control unit 11 moves the focus lens by an arbitrary distance along the optical axis direction from the end of the maximum movable range (range from INF to MOD), and images by the solid-state imaging device 5 at each moving position. It functions as an in-focus control unit that performs the second in-focus control to move the focus lens to the in-focus position determined by the contrast AF processing unit 18 based on the contrast of the captured image.
  • the system control unit 11 when there is an instruction to perform AF, performs the first focusing control by the phase difference AF method or the second focusing control by the contrast AF method.
  • the system control unit 11 determines whether to perform the first focusing control or the second focusing control using information generated by using the detection signal of the phase difference detection pixel 52A and the phase difference detection pixel 52B (described later). Functions as a focus control determination unit that is determined by the reliability determination values J1, J2).
  • the system control unit 11 functions as a control unit that variably controls the arbitrary distance according to the information when it is determined to perform the second focusing control.
  • the arbitrary distance is set to an initial value when the power is turned on.
  • the focus lens is finely moved in the range from INF to MOD, and the contrast value is obtained at many positions. For this reason, compared with the case where the arbitrary distance is the initial value, the accuracy of determining the in-focus position increases, but the speed until the in-focus position is determined decreases.
  • the focus lens is largely moved in the range from INF to MOD, and the contrast value is obtained at a small number of positions. For this reason, the accuracy of determining the in-focus position is lower than when the arbitrary distance is the initial value, but the speed until the in-focus position is determined is improved.
  • FIG. 5 is a flowchart for explaining the AF operation of the digital camera shown in FIG.
  • the phase difference AF processing unit 19 acquires detection signals of the phase difference detection pixels 52A and the phase difference detection pixels 52B in the selected AF area 52 (step S1).
  • the phase difference AF processing unit 19 calculates the correlation between the detection signal groups of the phase difference detection pixel 52A and the phase difference detection pixel 52B of the pixel pair P1 constituting one pair line among the acquired detection signals. (Step S2).
  • the data of one detection signal group is A [1] ... A [k]
  • the data of the other detection signal group is B [1] ... B [k]
  • these two pieces of data are shifted by the shift amount.
  • An area C [d] surrounded by two data waveforms obtained by the following equation when “d” is shifted is obtained.
  • the correlation calculation result C1 [d] is a value indicating the degree of coincidence of images captured by the phase difference detection pixel 52A and the phase difference detection pixel 52B of the pixel pair P1.
  • phase difference AF processing unit 19 correlates the detection signal groups of the phase difference detection pixel 52A and the phase difference detection pixel 52B of the pixel pair P2 constituting the one pair line among the acquired detection signals. Calculation is performed (step S3).
  • the correlation calculation result C2 [d] is a value indicating the degree of coincidence of images captured by the phase difference detection pixel 52A and the phase difference detection pixel 52B of the pixel pair P2.
  • phase difference AF processing unit 19 uses the correlation calculation result C1 [d] and the correlation calculation result C2 [d] to trust each of the correlation calculation result C1 [d] and the correlation calculation result C2 [d].
  • a reliability determination value J1 for determining the degree is generated (step S4).
  • the phase difference AF processing unit 19 functions as an information generation unit.
  • the correlation calculation result may be incorrect if the correlation calculation result is different between the two pixel pairs P1 and P2 in the area even though the same subject is imaged. Therefore, it can be determined that the reliability of the in-focus position determined using the detection signal of the phase difference detection pixel of the pair line is low.
  • phase difference AF processing unit 19 functioning as a reliability determination value generation unit compares the shape of the graph based on C1 [d] with the shape of the graph based on C2 [d], thereby determining the reliability determination value J1. Is generated.
  • the numerator of formula (2) has a small value when the shape of the graph based on C1 [d] is close to the shape of the graph based on C2 [d], and has a large value when the two shapes are different.
  • step S4 the system control unit 11 compares the reliability determination value J1 with a preset threshold TH, and when J1 is equal to or greater than the threshold TH (step S5: YES), it is determined that the reliability of focus control by the phase difference AF method is low, the contrast AF processing unit 18 is selected, and the focus position is determined by the contrast AF processing unit 18. Then, in accordance with the determined focus position, focus control of the photographic lens 1 is performed (step S6).
  • step S5 when the reliability determination value J1 is less than the threshold TH (step S5: NO), the system control unit 11 determines that the focus control reliability by the phase difference AF method is high, and the phase difference AF processing unit. 19 is selected, and the phase difference AF processing unit 19 determines the in-focus position. Then, in accordance with the determined focus position, focus control of the photographic lens 1 is performed (step S7).
  • phase difference AF processing unit 19 When there are a plurality of pair lines in the selected AF area 53, the phase difference AF processing unit 19 performs the processing of steps S2 to S4 for each pair line to generate the reliability determination value J1.
  • the system control unit 11 uses the phase difference AF method for the selected AF area 53. It is determined that the reliability of focusing control by is high.
  • the in-focus position is determined using the detection signal read from the pair line whose reliability determination value J1 is less than the threshold value TH.
  • the system control unit 11 performs focus control by the phase difference AF method using the detection signals of the phase difference detection pixels on the pair lines excluding the pair line whose reliability is determined to be lower than the threshold value.
  • the phase difference AF processing unit 19 determines the in-focus position based on the average of the defocus amounts calculated for each pair line, for example.
  • the system control unit 11 performs focusing control by the phase difference AF method for the selected AF area 53. It is determined that the reliability of is low.
  • FIG. 6 is a flowchart for explaining details of the process in step S6 in the flowchart shown in FIG.
  • step S60 the system control unit 11 compares the reliability determination value J1 with the threshold value TH1.
  • the threshold value TH1 is a value larger than the threshold value TH.
  • the reliability determination value J1 is a large value.
  • the reliability judgment value J1 is large, The value is smaller than when the frequency is high. For this reason, the factor which selected the focus control by contrast AF method can be determined by the magnitude of the reliability determination value J1.
  • step S60 YES
  • the system control unit 11 cannot obtain the accuracy of the phase difference AF because the frequency of the subject image formed in the AF area 53 is high. Determination is made and the process of step S61 is performed.
  • step S61 the system control unit 11 sets an arbitrary distance for moving the focus lens to be smaller than the initial value in order to obtain a contrast value (AF evaluation value) of contrast AF.
  • the reason why the arbitrary distance is made smaller than the initial value is that the frequency of the subject image formed in the AF area 53 is high, and acquiring the contrast value at finer intervals contributes to improving the AF accuracy.
  • step S60 If J1 ⁇ HT1 (step S60: NO), the system control unit 11 does not have a high frequency of the subject image formed in the AF area 53, but the accuracy of the phase difference AF cannot be obtained due to other factors.
  • step S62 the reliability determination value J1 is compared with the threshold value TH2.
  • the threshold value TH2 is a value smaller than the threshold value TH1 and larger than the threshold value TH.
  • the reliability determination value J1 is greater than or equal to the threshold value TH2, it can be said that the reliability of the correlation calculation result in steps S2 and S3 is low. On the other hand, if the reliability determination value J1 is less than the threshold value TH2, it can be said that the reliability of the correlation calculation result in steps S2 and S3 is high.
  • step S63 the system control unit 11 performs the process of step S63 if J1 ⁇ TH2 (step S62: YES), and performs the process of step S64 if J1 ⁇ TH2 (step S62: NO).
  • step S63 the system control unit 11 sets the arbitrary distance to an initial value.
  • the reason why the arbitrary distance is set to the initial value is that the frequency of the subject image formed in the AF area 53 is low, and a certain degree of focusing accuracy can be expected without reducing the arbitrary distance.
  • the threshold value TH3 is a value determined independently of the threshold values TH, TH1, and TH2.
  • step S64 YES
  • the system control unit 11 sets the arbitrary distance larger than the initial value in step S65.
  • Step S62 When NO, the reliability of the correlation calculation results in steps S2 and S3 is not high enough to implement phase difference AF, but is not too low. In this situation, the phase difference obtained from the correlation calculation result in steps S2 and S3 is a value that can be trusted to some extent.
  • step S64 NO
  • the system control unit 11 sets the arbitrary distance as an initial value in step S63.
  • the time to detect the focus lens position at which the contrast reaches a peak is shortened even if the arbitrary distance is not made larger than the initial value.
  • the in-focus position can be determined with high accuracy without slowing down the focusing speed.
  • step S66 the system control unit 11 performs initial driving for moving the focus lens from the current position to INF or MOD, and then sequentially moves the focus lens in the range from INF to MOD according to the set arbitrary distance.
  • the contrast AF processing unit 18 acquires an AF evaluation value at each moving position of the focus lens, and determines a focus position based on the AF evaluation value. Finally, the system control unit 11 moves the focus lens to the determined in-focus position.
  • step S62, step S64, and step S65 may be omitted, and the process of step S63 may be performed when step S60 is NO.
  • the digital camera of FIG. 1 uses the contrast AF method in a situation where the reliability determination value J1 is equal to or greater than the threshold value TH and the focusing accuracy by the phase difference AF method cannot ensure sufficient focusing accuracy. Shift to focus control. At this time, since the arbitrary distance is variably controlled according to the magnitude of the reliability determination value J1, contrast AF in which both the focusing speed and the focusing accuracy can be performed can be performed.
  • the arbitrary distance is variably controlled in consideration of the magnitude of the phase difference d, so that the focusing speed can be further increased.
  • step S66 in FIG. 6 the system controller 11 performs initial driving.
  • the reliability of the correlation calculation result in steps S2 and S3 is high, the focus lens in-focus position with respect to the current position of the focus lens.
  • the direction (which is obtained from the correlation calculation result) is reliable to some extent.
  • step S66 when the processing is performed in the order of step S64, step S63, and step S66, and in the order of step S64, step S65, and step S66, the initial drive is omitted in step S66. it can.
  • an operation example when the initial drive is omitted will be described.
  • FIG. 7 is a flowchart showing a modification of the process of step S6 in the flowchart shown in FIG. In FIG. 7, the same processes as those in FIG.
  • Step S60 When YES, the system control unit 11 sets the initial drive (step S67), and proceeds to step S61.
  • Step S62 When NO, the system control unit 11 performs initial drive setting (Step S68), and proceeds to Step S63.
  • Step S64 When NO, the system control unit 11 sets no initial drive (step S69), and proceeds to step S63.
  • Step S64 When YES, the system control unit 11 sets the initial drive (step S70), and proceeds to step S65.
  • step S66 when the system control unit 11 performs the initial drive setting, the system control unit 11 performs the initial drive and then moves the focus lens by an arbitrary distance.
  • the system control unit 11 does not perform the initial driving when the setting for the initial driving is not performed, and focuses on the direction of the phase difference obtained from the correlation calculation result in step S2 or step S3, starting from the current focus lens position. Move the lens by an arbitrary distance.
  • the focusing speed of contrast AF can be further increased.
  • step S67 of FIG. 7 instead of performing the setting with initial driving, the lens moving range may be set to be narrower than the maximum range.
  • a range defined by a predetermined distance in the optical axis direction around the current position of the focus lens may be set as the lens movement range.
  • the lens movement range can be narrowed compared to when initial driving is performed, and the focusing speed can be increased.
  • a method for determining the in-focus position in step S7 in FIG. 5 a method of determining a defocus amount based on the correlation calculation result C1 [d] and determining a focus position according to the defocus amount, and a correlation calculation result C2
  • a method of determining a defocus amount based on [d] and determining a focus position according to the defocus amount, a method of determining a focus position according to, for example, an average value of these two defocus amounts, or the like may be employed.
  • the pair line in the AF area 53 has been described as a line composed of the pixel pair P1 and the pixel pair P2.
  • this pair line is a line composed of the pixel pair P3 and the pixel pair P4. It is also possible to say.
  • the phase difference AF processing unit 19 detects the detection signal groups of the phase difference detection pixels 52A and 52B of the pixel pair P3 in step S2 of FIG.
  • the correlation calculation is performed between the detection signal groups of the phase difference detection pixels 52A and 52B of the pixel pair P4.
  • a reliability determination value J1 is generated based on the results of these two correlation calculations.
  • the phase difference AF processing unit 19 outputs the integrated value of the detection signals of the phase difference detection pixels 52A and the detection signals of the phase difference detection pixels 52B output from all the pixel pairs P1 constituting the pair line.
  • the ratio of the integrated values is generated as the degree of coincidence between the two images captured by all the pixel pairs P1.
  • phase difference AF processing unit 19 integrates the detection value of the phase difference detection pixel 52A and the integration value of the detection signal of the phase difference detection pixel 52B output from all the pixel pairs P2 constituting the pair line. Is generated as the degree of coincidence between the two images captured by all the pixel pairs P2.
  • the integrated value is substantially the same value except for the difference caused by the phase difference between the image captured by the phase difference detection pixel 52A and the image captured by the phase difference detection pixel 52B.
  • the integrated value of the detection signals of the phase difference detection pixels 52A of all the pixel pairs P2 and the integrated value of the detection signals of the phase difference detection pixels 52B of all the pixel pairs P2 are the differences caused by the phase difference. Except for this, it takes almost the same value.
  • the integrated value of the detection signals of the phase difference detection pixels 52A of all the pixel pairs P1 and all the pixel pairs is a value that is greatly different even if the difference due to the phase difference is excluded.
  • the integrated value of the detection signals of the phase difference detection pixels 52A of all the pixel pairs P2 and the integrated value of the detection signals of the phase difference detection pixels 52B of all the pixel pairs P2 are the differences caused by the phase difference. Even if you remove it, it will be a very different value
  • phase difference detection pixel 52A in the pixel pair P2 is calculated from the ratio between the integrated value of the detection signal of the phase difference detection pixel 52A in the pixel pair P1 and the integrated value of the detection signal of the phase difference detection pixel 52B.
  • the ratio between the integrated value of the detected signal and the integrated value of the detected signal of the phase difference detection pixel 52B it is possible to cancel the integrated value difference caused by the phase difference. If the difference between the integrated values caused by the phase difference can be canceled, it is possible to determine the presence or absence of the straight line L as shown in FIG.
  • the phase difference AF processing unit 19 uses the following arithmetic expression (3) to focus by the phase difference AF method using the detection signals of the phase difference detection pixel 52A and the phase difference detection pixel 52B included in the pair line.
  • a reliability determination value J2 for determining the reliability of control is generated.
  • the phase difference AF processing unit functions as an information generation unit
  • ⁇ P1A represents an integrated value of detection signals of the phase difference detection pixels 52A belonging to all the pixel pairs P1 in the pair line.
  • ⁇ P1B indicates an integrated value of detection signals of the phase difference detection pixels 52B belonging to all the pixel pairs P1 in the pair line.
  • ⁇ P2A indicates an integrated value of detection signals of the phase difference detection pixels 52A belonging to all the pixel pairs P2 in the pair line.
  • ⁇ P2B indicates an integrated value of detection signals of the phase difference detection pixels 52B belonging to all the pixel pairs P2 in the pair line.
  • the system control unit 11 compares the value of J2 with a preset threshold th, and when J2 ⁇ th, the reliability of the phase difference AF is low, and the focusing control by the phase difference AF has sufficient focusing accuracy. If J2 ⁇ th, it is determined that sufficient focusing accuracy can be obtained by focusing control using phase difference AF.
  • the threshold th is set in accordance with an allowable value of focusing accuracy by phase difference AF.
  • FIG. 10 is a flowchart for explaining a modification of the AF operation at the time of still image shooting of the digital camera shown in FIG.
  • the phase difference AF processing unit 19 acquires detection signals of the phase difference detection pixels 52A and the phase difference detection pixels 52B in the selected AF area 53 (step S11).
  • phase difference AF processing unit 19 integrates the output signals of the phase difference detection pixels 52A of the pixel pair P1 constituting one pair line among the acquired detection signals to obtain an integrated value ⁇ P1A (step S12). ).
  • phase difference AF processing unit 19 integrates the output signals of the phase difference detection pixels 52B of the pixel pair P1 constituting one pair line among the acquired detection signals to obtain an integrated value ⁇ P1B (step S13). ).
  • phase difference AF processing unit 19 integrates the output signals of the phase difference detection pixels 52A of the pixel pair P2 constituting one pair line among the acquired detection signals to obtain an integrated value ⁇ P2A (step S14). ).
  • phase difference AF processing unit 19 integrates the output signals of the phase difference detection pixels 52B of the pixel pair P2 constituting one pair line among the acquired detection signals to obtain an integrated value ⁇ P2B (step S15). ).
  • phase difference AF processing unit 19 functioning as a reliability determination value generation unit generates the reliability determination value J2 by the calculation of Expression (3) based on ⁇ P1A, ⁇ P1B, ⁇ P2A, and ⁇ P2B (step S16). .
  • the system control unit 11 compares the reliability determination value J2 with the threshold th, and if J2 ⁇ th (step S17: YES), the phase difference AF method It is determined that the reliability of the focusing control by is low, the focus position is determined by the contrast AF processing unit 18, and the focusing control of the photographing lens 1 is performed according to the determined focusing position (step S18).
  • step S17 If J2 ⁇ th (step S17: NO), the system control unit 11 determines that the focus control reliability by the phase difference AF method is high, and causes the phase difference AF processing unit 19 to determine the focus position. In accordance with the determined focus position, focus control of the taking lens 1 is performed (step S19).
  • phase difference AF processing unit 19 When there are a plurality of pair lines in the selected AF area 53, the phase difference AF processing unit 19 performs the processing of steps S12 to S16 for each pair line to generate the reliability determination value J2.
  • the system control unit 11 When there is a pair line in which the reliability determination value J2 is less than the threshold th among the plurality of pair lines, the system control unit 11 performs focusing control by the phase difference AF method for the selected AF area 53. It is determined that the reliability is high. In step S19, the in-focus position is determined using the detection signal read from the pair line that is less than the threshold th.
  • the phase difference AF processing unit 19 determines the in-focus position based on the average of the defocus amounts calculated for each pair line, for example.
  • the system control unit 11 When there is no pair line in which the reliability determination value J2 is less than the threshold value th among the plurality of pair lines, the system control unit 11 performs the focus control reliability by the phase difference AF method for the selected AF area 53. It is determined that the degree is low, and the process of step S18 is performed.
  • FIG. 11 is a flowchart for explaining details of the processing in step S18 in the flowchart shown in FIG.
  • step S180 the system control unit 11 compares the reliability determination value J2 with the threshold th1.
  • the threshold th1 is a value greater than the threshold th.
  • the reliability determination value J2 is a large value.
  • the reliability determination value J2 is large, The value is smaller than when the frequency is high. For this reason, the factor which selected the focus control by contrast AF method can be determined by the magnitude of the reliability determination value J2.
  • step S180 the system control unit 11 compares J2 with the threshold value th1, and if J2 ⁇ th1, the frequency of the subject image formed in the AF area 53 is high, and therefore the phase difference AF. It is determined that the accuracy cannot be obtained, and the process of step S181 is performed.
  • Step S181 is the same process as step S61 of FIG.
  • Step S183 is the same process as step S63 of FIG.
  • Step S186 is the same process as step S66 of FIG.
  • step S180 a setting may be made between step S180 and step S181 in FIG. 11 such that the lens movement range in the process of step S186 is narrower than the initial driving range.
  • a range defined by a predetermined distance in the optical axis direction around the current position of the focus lens may be set as the lens movement range.
  • the lens movement range can be narrowed compared to when initial driving is performed, and the focusing speed can be increased.
  • the reliability determination value J2 corresponding to the reliability determination value J1 can be generated without performing the correlation calculation.
  • the focusing speed can be increased.
  • the pixel pair to be set to the pair line is P1.
  • the reliability determination values can be generated as P3 and P4 instead of P2 and P2.
  • a horizontal focusing algorithm for focusing on a subject whose horizontal component is the main, and a subject whose vertical component is the main.
  • a vertical focusing algorithm for focusing is sequentially performed. For this reason, the calculation load is high, and depending on the execution order of the algorithm, there is a possibility of focusing in a direction where accuracy is not achieved.
  • a reliability determination value J2 is obtained, and this reliability determination value J2 is effective information for determining the presence or absence of a subject having a horizontal component as shown in FIG. Therefore, the system control unit 11 determines the execution priority of the horizontal focusing algorithm and the vertical focusing algorithm using the reliability determination value J2, thereby enabling highly accurate AF.
  • the operation will be described along the flowchart.
  • FIG. 12 is a flowchart for explaining processing to be added between step S181 and step S183 in the flowchart of FIG. 11 and step S186.
  • step S21 the system control unit 11 compares the reliability determination value J2 and the threshold value H1 (> th). If J2 ⁇ H1, the process of step S22 is performed. If J2 ⁇ H1, the process of step S25 is performed. Do.
  • step S22 the system control unit 11 compares the reliability determination value J2 and the threshold value H2 (> H1). If J2 ⁇ H2, the process of step S23 is performed. If J2 ⁇ H2, the process of step S24 is performed. Do.
  • step S23 the system control unit 11 sets to use only the horizontal focusing algorithm as the algorithm executed to determine the focusing position in step S186 in FIG.
  • step S24 the system control unit 11 sets that the horizontal focusing algorithm is preferentially used as the algorithm executed in order to determine the focusing position in step S186 in FIG. That is, it is set to perform the vertical focusing algorithm after performing the horizontal focusing algorithm.
  • step S25 the system control unit 11 compares the reliability determination value J2 and the threshold value V1 (> th). If J2 ⁇ V1, the process of step S26 is performed. If J2 ⁇ V1, the process of step S27 is performed. Do.
  • step S26 the system control unit 11 sets to use only the vertical focusing algorithm as the algorithm executed to determine the focusing position in step S186 in FIG.
  • step S27 the system control unit 11 sets that the vertical focusing algorithm is preferentially used as the algorithm executed to determine the focusing position in step S186 of FIG. That is, it is set to perform the horizontal focusing algorithm after performing the vertical focusing algorithm.
  • the present invention can also be applied to the so-called continuous AF mode in which the main subject is kept focused as in the case of moving image capturing.
  • FIG. 13 is a flowchart for explaining the AF operation of the digital camera in the continuous AF mode.
  • the same processes as those shown in FIGS. 5 and 10 are denoted by the same reference numerals.
  • the phase difference AF processing unit 19 performs the processing of steps S11 to S16 to generate the reliability determination value J2.
  • the system control unit 11 compares the reliability determination value J2 with the threshold value th in step S17, and if J2 ⁇ th, the system control unit 11 proceeds to step S18 and should perform contrast AF or phase difference AF.
  • the contrast AF is performed without performing the determination.
  • step S17 if J2 ⁇ th in step S17, the process returns to step S1. If J1 ⁇ TH in step S5, the process in step S7 is performed, and the process returns to step S1 after step S7.
  • step S1 it is normally considered to return to step S1 after step S6.
  • the control shifts to focusing control by the phase difference AF method.
  • the main subject continues to be a high-frequency subject, the focusing by contrast AF is performed again. The process shifts to focus control, and switching between phase difference AF and contrast AF frequently occurs.
  • the reliability determination value J2 is generated without immediately shifting to step S1, and the reliability determination value J2 remains large ( That is, if the main subject is a high-frequency subject), focus control by contrast AF is performed in step S18.
  • two adjacent pixel lines including the phase difference detection pixels 52A and 52B in the AF area 53 are defined as one block, and the detection signals of the phase difference detection pixels 52A and 52B in the block are used.
  • the reliability determination values J1 and J2 are generated.
  • phase difference detection pixels 52A and 52B are defined as one block, and the detection signals of the phase difference detection pixels 52A and 52B in this block are used.
  • the reliability determination values J1 and J2 may be generated.
  • FIG. 14 is a diagram showing a modification of the arrangement of the phase difference detection pixels 52A and 52B in the AF area 53 of the solid-state imaging device 5 shown in FIG.
  • the AF area 53 includes a phase difference pixel line including a plurality of phase difference detection pixels 52A arranged in the row direction X and a plurality of phase difference detection pixels 52B arranged in the row direction X.
  • Two phase difference pixel lines are provided, and reliability determination is performed with these four phase difference pixel lines as one block.
  • the upward direction and the downward direction represent the vertical direction on the paper surface in the drawing.
  • each phase difference detection pixel included in the odd-numbered phase difference pixel line is a phase difference detection pixel 52A
  • each phase difference detection pixel included in the even-numbered phase difference pixel line is This is the phase difference detection pixel 52B.
  • the phase difference detection pixel 52B is defined as a pixel pair P1.
  • FIG. 15 is a diagram showing a modification of the arrangement of the phase difference detection pixels 52A and 52B in the AF area 53 of the solid-state imaging device 5 shown in FIG.
  • the AF area 53 includes a phase difference pixel line including a plurality of phase difference detection pixels 52A arranged in the row direction X and a plurality of phase difference detection pixels 52B arranged in the row direction X. Two phase difference pixel lines are provided, and reliability determination is performed with these four phase difference pixel lines as one block.
  • phase difference detection pixels included in the first and fourth phase difference pixel lines are the phase difference detection pixels 52A, and the second and third phase difference pixel lines are included in the phase difference pixel lines.
  • Each of the included phase difference detection pixels is a phase difference detection pixel 52B.
  • each phase difference detection pixel 52A of the phase difference pixel line in the first row in the block, and three pixels in the downward direction with respect to each phase difference detection pixel 52A are arranged.
  • the phase difference detection pixel 52B is defined as a pixel pair P1.
  • each phase difference detection pixel 52A of the phase difference pixel line of the fourth row in the block and a phase difference detection pixel 52B that is arranged three pixels upward from each phase difference detection pixel 52A, Is a pixel pair P2.
  • the distance between two phase difference detection pixels constituting the pixel pair is the same in each of the pixel pairs P1 and P2 and the pixel pairs P3 and P4. Compared with the 14 examples, the reliability determination can be performed with high accuracy.
  • the reliability determination can be performed with higher accuracy than the example of FIG.
  • FIG. 16 is a diagram showing a modification of the arrangement of the phase difference detection pixels 52A and 52B in the AF area 53 of the solid-state imaging device 5 shown in FIG.
  • phase difference pixel lines including a plurality of phase difference detection pixels 52B arranged in the row direction X are provided in the AF area 53, and a plurality of phase difference detection pixels 52A arranged in the row direction X are provided.
  • One phase difference pixel line is provided, and reliability determination is performed with these three phase difference pixel lines as one block.
  • each phase difference detection pixel 52A in the odd-numbered column, and each phase difference detection pixel 52A A phase difference detection pixel 52B arranged by one pixel in the downward direction is defined as a pixel pair P1.
  • each phase difference detection pixel 52A in the even-numbered column and one pixel upward with respect to each phase difference detection pixel 52A The phase difference detection pixels 52B that are spaced apart are referred to as a pixel pair P2.
  • each phase difference detection pixel 52A in the odd-numbered column and one pixel upward with respect to each phase difference detection pixel 52A The phase difference detection pixels 52B that are spaced apart are referred to as a pixel pair P3.
  • each phase difference detection pixel 52A in the even-numbered column and one pixel downward with respect to each phase difference detection pixel 52A The phase difference detection pixels 52B that are spaced apart are referred to as a pixel pair P4.
  • the reliability determination is performed with three phase difference pixel lines as one block, the number of phase difference pixel lines used for the reliability determination can be reduced as compared with the arrangement examples of FIGS. it can.
  • the reliability determination can be performed with higher accuracy than in the examples of FIGS.
  • FIG. 17 is a diagram showing a modification of the configuration of the AF area 53 of the solid-state imaging device 5 shown in FIG.
  • the photoelectric conversion units of some G pixels 51 in the AF area 53 are divided into two, and the left side (pixels with “G1”) of the two divided photoelectric conversion units is the phase difference.
  • the right side of the two divided pixels is the phase difference detection pixel 52B.
  • Each pixel 51 is provided with one microlens 51.
  • One microlens 51 is also provided in the phase difference detection pixel 52A and the phase difference detection pixel 52B obtained by dividing the photoelectric conversion unit of one pixel 51 into two.
  • a lens 51 is provided across these.
  • the phase difference detection pixel 52A receives the light beam that has passed through half of the pupil region of the imaging lens 1
  • the phase difference detection pixel 52B receives the light beam that has passed through the remaining half of the pupil region of the imaging lens 1. It is the composition to do.
  • phase difference pixel lines in which the pixel 51 including the phase difference detection pixel 52A and the phase difference detection pixel 52B are arranged in the row direction X are provided in the column direction Y in the AF area 53. Reliability determination is performed with two phase difference pixel lines as one block. Note that the microlenses ML having the same position in the row direction X in the block are all at a distance close to receiving light from the same subject region.
  • each phase difference detection pixel 52A (shaded pixel in the figure) of the phase difference pixel line of the first row in the block, and diagonally downward to the right with respect to each phase difference detection pixel 52A.
  • the phase difference detection pixel 52B (shaded pixel in the figure) of the phase difference pixel line in the second row arranged in the direction is defined as a pixel pair P1.
  • each phase difference detection pixel 52A (pixels not shaded in the drawing) of the phase difference pixel line of the second row in the block and the phase difference detection pixels 52A are arranged in an obliquely upper right direction.
  • the phase difference detection pixel 52B (pixels not shaded in the figure) in the first row of the phase difference pixel lines is defined as a pixel pair P2.
  • each phase difference detection pixel 52A of the phase difference pixel line in the first row in the block and the phase difference detection pixel 52B adjacent to the right of each phase difference detection pixel 52A are defined as a pixel pair P3.
  • each phase difference detection pixel 52A of the phase difference pixel line in the second row in the block and the phase difference detection pixel 52B adjacent to the right side of each phase difference detection pixel 52A are defined as a pixel pair P4.
  • the detection signal of the phase difference detection pixel 52A and the phase difference detection pixel A signal obtained by adding the detection signal of the pixel 52 ⁇ / b> B may be handled as a signal output from the pixel 51.
  • not only some G pixels 51 but also all pixels 51 may be divided into two.
  • the pixel pair used for reliability determination can be changed depending on the subject color, and high-precision phase difference AF is possible.
  • phase difference AF the phase difference detection pixels of the color with high reliability.
  • the possibility that phase difference AF is performed can be increased, and the accuracy of phase difference AF can be improved.
  • phase difference detection pixel 52A and the phase difference detection pixel 52B are provided under one microlens ML, the phase difference detection pixel 52A and the phase difference detection pixel 52B are provided. As compared with the configuration in which the microlenses ML are separately provided, the number of imaging pixels can be increased.
  • signals for one pixel can be obtained by adding signals at the phase difference detection pixel 52A and the phase difference detection pixel 52B at substantially the same position, pixel interpolation processing becomes unnecessary, and the imaging image quality is improved. Can be improved.
  • a digital camera is taken as an example of the imaging device, but an embodiment of a smartphone with a camera as the imaging device will be described below.
  • FIG. 18 shows an appearance of a smartphone 200 that is an embodiment of the imaging apparatus of the present invention.
  • a smartphone 200 illustrated in FIG. 18 includes a flat housing 201, and a display input in which a display panel 202 as a display unit and an operation panel 203 as an input unit are integrated on one surface of the housing 201. Part 204 is provided.
  • Such a housing 201 includes a speaker 205, a microphone 206, an operation unit 207, and a camera unit 208.
  • the configuration of the housing 201 is not limited thereto, and for example, a configuration in which the display unit and the input unit are independent can be employed, or a configuration having a folding structure and a slide mechanism can be employed.
  • FIG. 19 is a block diagram showing a configuration of the smartphone 200 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 210, a display input unit 204, a call unit 211, an operation unit 207, a camera unit 208, a storage unit 212, and an external input / output unit. 213, a GPS (Global Positioning System) receiving unit 214, a motion sensor unit 215, a power supply unit 216, and a main control unit 220.
  • a wireless communication function for performing mobile wireless communication via a base station device BS (not shown) and a mobile communication network NW (not shown) is provided.
  • the wireless communication unit 210 performs wireless communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 220. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.
  • the display input unit 204 controls the main control unit 220 to display images (still images and moving images), character information, and the like to visually transmit information to the user and to detect user operations on the displayed information.
  • a so-called touch panel which includes a display panel 202 and an operation panel 203.
  • the display panel 202 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • the operation panel 203 is a device that is placed so that an image displayed on the display surface of the display panel 202 is visible and detects one or more coordinates operated by a user's finger or stylus.
  • a detection signal generated due to the operation is output to the main control unit 220.
  • the main control unit 220 detects an operation position (coordinates) on the display panel 202 based on the received detection signal.
  • the display panel 202 and the operation panel 203 of the smartphone 200 exemplified as an embodiment of the imaging apparatus of the present invention integrally constitute a display input unit 204.
  • the arrangement 203 covers the display panel 202 completely.
  • the operation panel 203 may have a function of detecting a user operation even in an area outside the display panel 202.
  • the operation panel 203 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 202 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 202. May be included).
  • the operation panel 203 may include two sensitive areas of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 201 and the like.
  • the position detection method employed in the operation panel 203 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, and the like. You can also
  • the call unit 211 includes a speaker 205 and a microphone 206, converts user's voice input through the microphone 206 into voice data that can be processed by the main control unit 220, and outputs the voice data to the main control unit 220. 210 or the audio data received by the external input / output unit 213 is decoded and output from the speaker 205.
  • the speaker 205 can be mounted on the same surface as the display input unit 204 and the microphone 206 can be mounted on the side surface of the housing 201.
  • the operation unit 207 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 207 is mounted on the side surface of the housing 201 of the smartphone 200 and is turned on when pressed with a finger or the like, and turned off when the finger is released with a restoring force such as a spring. It is a push button type switch.
  • the storage unit 212 includes a control program and control data of the main control unit 220, application software, address data that associates the name and telephone number of a communication partner, transmitted / received e-mail data, Web data downloaded by Web browsing, The downloaded content data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 212 includes an internal storage unit 217 built in the smartphone and an external storage unit 218 having a removable external memory slot.
  • Each of the internal storage unit 217 and the external storage unit 218 constituting the storage unit 212 includes a flash memory type (hard memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), This is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • a flash memory type hard memory type
  • hard disk type hard disk type
  • multimedia card micro type multimedia card micro type
  • a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • the external input / output unit 213 serves as an interface with all external devices connected to the smartphone 200, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE 1394, etc.
  • a network for example, Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark) ZigBee) (registered trademark, etc.) for direct or indirect connection.
  • an external device connected to the smartphone 200 for example, a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, a memory card (Memory card) connected via a card socket, or a SIM (Subscriber).
  • Identity Module Card / UIM (User Identity Module Card) card external audio / video equipment connected via audio / video I / O (Input / Output) terminal, external audio / video equipment connected wirelessly, yes / no
  • the external input / output unit 213 transmits data received from such an external device to each component inside the smartphone 200, or allows the data inside the smartphone 200 to be transmitted to the external device. Can do.
  • the GPS receiving unit 214 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 220, executes positioning calculation processing based on the received GPS signals, and calculates the latitude of the smartphone 200 , A position consisting of longitude and altitude is detected.
  • the GPS reception unit 214 can acquire position information from the wireless communication unit 210 or the external input / output unit 213 (for example, a wireless LAN), the GPS reception unit 214 can also detect the position using the position information.
  • the motion sensor unit 215 includes, for example, a three-axis acceleration sensor, and detects the physical movement of the smartphone 200 in accordance with an instruction from the main control unit 220. By detecting the physical movement of the smartphone 200, the moving direction and acceleration of the smartphone 200 are detected. The detection result is output to the main control unit 220.
  • the power supply unit 216 supplies power stored in a battery (not shown) to each unit of the smartphone 200 in accordance with an instruction from the main control unit 220.
  • the main control unit 220 includes a microprocessor, operates according to a control program and control data stored in the storage unit 212, and controls each unit of the smartphone 200 in an integrated manner.
  • the main control unit 220 includes a mobile communication control function that controls each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 210.
  • the application processing function is realized by the main control unit 220 operating according to the application software stored in the storage unit 212.
  • Examples of the application processing function include an infrared communication function for controlling the external input / output unit 213 to perform data communication with the opposite device, an e-mail function for transmitting / receiving e-mails, and a web browsing function for browsing web pages. .
  • the main control unit 220 has an image processing function such as displaying video on the display input unit 204 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 220 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 204.
  • the main control unit 220 executes display control for the display panel 202 and operation detection control for detecting a user operation through the operation unit 207 and the operation panel 203.
  • the main control unit 220 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 202.
  • the main control unit 220 detects a user operation through the operation unit 207 or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 203. Or a display image scroll request through a scroll bar.
  • the main control unit 220 causes the operation position with respect to the operation panel 203 to overlap with the display panel 202 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 202.
  • a touch panel control function for controlling the sensitive area of the operation panel 203 and the display position of the software key.
  • the main control unit 220 can also detect a gesture operation on the operation panel 203 and execute a preset function in accordance with the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 208 includes configurations other than the external memory control unit 20, the recording medium 21, the display control unit 22, the display unit 23, and the operation unit 14 in the digital camera shown in FIG.
  • the captured image data generated by the camera unit 208 can be recorded in the storage unit 212 or output through the input / output unit 213 or the wireless communication unit 210.
  • the camera unit 208 is mounted on the same surface as the display input unit 204, but the mounting position of the camera unit 208 is not limited thereto, and may be mounted on the back surface of the display input unit 204. .
  • the camera unit 208 can be used for various functions of the smartphone 200.
  • an image acquired by the camera unit 208 can be displayed on the display panel 202, or the image of the camera unit 208 can be used as one of operation inputs of the operation panel 203.
  • the position can also be detected with reference to an image from the camera unit 208.
  • the optical axis direction of the camera unit 208 of the smartphone 200 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 208 can also be used in the application software.
  • the position information acquired by the GPS receiver 214 to the image data of the still image or the moving image, the voice information acquired by the microphone 206 (the text information may be converted into voice information by the main control unit or the like), Posture information and the like acquired by the motion sensor unit 215 can be added and recorded in the recording unit 212, or output through the input / output unit 213 and the wireless communication unit 210.
  • the solid-state imaging device 5 is used as the imaging device of the camera unit 208, and the main control unit 220 performs the processing illustrated in FIGS. Contrast AF that achieves both is possible.
  • the disclosed imaging apparatus is an imaging apparatus having an imaging element that images a subject through an imaging optical system including a focus lens, and the imaging element is a pair of light beams that have passed through different parts of the pupil region of the imaging optical system.
  • a first signal detection unit that detects a signal corresponding to one of the first and second signal detection units that detect a signal corresponding to the other of the pair of light beams.
  • a first focus control for moving the focus lens to a focus position determined based on detection signals of the signal detection unit and the second signal detection unit; and a light within a predetermined range of movement of the focus lens. Second moving the focus lens to an in-focus position determined on the basis of the contrast of a captured image captured by the image sensor at each moving position by an arbitrary distance along the axial direction.
  • the focus control unit performs any one of the focus control, and the first focus control or the second focus control, the first signal detection unit and the second focus control are performed.
  • the focus control determination unit determined by the information generated using the detection signal of the signal detection unit and the second focus control, the movement range and the above are determined according to the information A control unit that variably controls at least the arbitrary distance among the arbitrary distances in the movement range.
  • the contrast is increased by increasing the arbitrary distance.
  • the focusing speed by the AF method can be increased.
  • the contrast AF method is used by reducing the arbitrary distance. Focusing accuracy can be increased.
  • the focusing accuracy and the focusing speed by the contrast AF method can be made compatible.
  • the disclosed imaging apparatus includes: a first signal detection unit group including a plurality of the first signal detection units arranged in a phase difference detection direction by the first signal detection unit and the second signal detection unit; and The first signal output from the first pair of signal detection units consisting of the second signal detection units arranged at the same distance in the same direction with respect to the signal detection units of the first signal detection unit group.
  • the correlation calculation result of the detection signal of the first signal detection unit group and the detection signal of the second signal detection unit group and the signal detection units of the first signal detection unit group are arranged at the same distance in the same direction.
  • the second signal detection unit group composed of a plurality of the first signal detection units arranged in the detection direction and the signal detection units of the second signal detection unit group are different from the same direction.
  • Signal detection unit group comprising the second signal detection units arranged at the same distance in the direction
  • the reliability of the correlation calculation result is determined based on the detection signal of the first signal detection unit group output from the second pair and the correlation calculation result of the detection signal of the second signal detection unit group.
  • An information generation unit that generates a reliability determination value for the information as the information, and the focus control determination unit determines the first focus control and the second focus according to the magnitude of the reliability determination value.
  • the control unit determines whether to perform control, and when the control unit determines to perform the second focus control, the control unit performs the second focus control according to the magnitude of the reliability determination value.
  • the factor determined to be performed is determined, and when the factor is caused by the frequency of the subject image, the arbitrary distance is reduced as compared with the case where the factor is not caused by the frequency of the subject image.
  • the arbitrary distance becomes small, so that the in-focus position can be determined with high accuracy. Further, when the above factor is not due to the frequency of the subject image, the arbitrary distance becomes large, so that the subject can be focused at high speed.
  • the control unit has a factor other than the frequency of the subject image, the reliability of the correlation calculation result based on the reliability determination value is equal to or higher than a first threshold, and
  • the factor is other than the subject image frequency, and the reliability of the correlation calculation result based on the reliability determination value is first.
  • the factor is other than the frequency of the subject image, the reliability of the correlation calculation result based on the reliability determination value is greater than or equal to the first threshold, and the phase difference Is less than the second threshold value, the above-mentioned arbitrary distance is increased as compared with.
  • control unit is configured such that the factor is other than the frequency of the subject image, and the reliability of the correlation calculation result based on the reliability determination value is equal to or higher than a first threshold.
  • the moving range is narrower than the maximum movable range of the focus lens.
  • control unit narrows the moving range to a maximum movable range of the focus lens when the factor is due to the frequency of the subject image.
  • the disclosed imaging apparatus includes a first signal detection unit group including a plurality of the first signal detection units arranged in a phase difference detection direction by the first signal detection unit and the second signal detection unit. , And a first pair of signal detection units composed of the second signal detection units arranged at the same distance in the same direction with respect to the signal detection units of the first signal detection unit group.
  • the ratio of the integrated value of the detection signal of the first signal detection unit and the integrated value of the detection signal of the second signal detection unit and the signal detection unit of the first signal detection unit group in the same direction For a second signal detection unit group composed of a plurality of the first signal detection units arranged at the same distance and arranged along the detection direction, and each signal detection unit of the second signal detection unit group From the second signal detector arranged at the same distance in a direction different from the same direction Based on the ratio of the integrated value of the detection signal of the first signal detection unit and the integrated value of the detection signal of the second signal detection unit output from the second pair of the signal detection unit group.
  • a generation unit is provided.
  • the focusing control determination unit determines whether to perform the first focusing control or the second focusing control according to the magnitude of the reliability determination value. When it is determined that the second focus control is performed, the control unit determines the factor determined to perform the second focus control according to the magnitude of the reliability determination value. When the factor is caused by the frequency of the subject image, the arbitrary distance is made smaller than when the factor is not caused by the frequency of the subject image.
  • the arbitrary distance becomes small, so the evaluation value of contrast AF can be acquired in fine steps.
  • the accuracy of focusing control by the contrast AF method can be increased.
  • the reliability based on the reliability determination value is increased, the arbitrary distance is increased, and therefore the speed of the focusing control can be increased.
  • the focus control unit when it is determined that the second focus control is to be performed, the focus control unit is configured to focus on a subject whose main component is the detection direction of the phase difference.
  • the execution priority of the first algorithm for determining the focus position and the second algorithm for determining the focus position for focusing on the subject whose main component is the direction orthogonal to the detection direction of the phase difference is the reliability determination value. It is determined according to the size of.
  • the main subject is a subject whose main component is the phase difference detection direction
  • only the first algorithm is performed, or the first algorithm is prioritized and then the second algorithm is performed.
  • the in-focus accuracy can be increased.
  • the disclosed imaging apparatus includes a first signal detection unit group including a plurality of the first signal detection units arranged in a phase difference detection direction by the first signal detection unit and the second signal detection unit. , And a first pair of signal detection units composed of the second signal detection units arranged at the same distance in the same direction with respect to the signal detection units of the first signal detection unit group.
  • the ratio of the integrated value of the detection signal of the first signal detection unit and the integrated value of the detection signal of the second signal detection unit and the signal detection unit of the first signal detection unit group in the same direction For a second signal detection unit group composed of a plurality of the first signal detection units arranged at the same distance and arranged along the detection direction, and each signal detection unit of the second signal detection unit group From the second signal detector arranged at the same distance in a direction different from the same direction Based on the ratio of the integrated value of the detection signal of the first signal detection unit and the integrated value of the detection signal of the second signal detection unit output from the second pair of the signal detection unit group.
  • a reliability determination value for generating a reliability determination value for determining the reliability of the first focus control performed using the detection signal of each signal detection unit of each of the one pair and the second pair In the moving image capturing mode that includes the generation unit and keeps focusing on the main subject, the focus control determination unit sends the reliability determination value to the reliability determination value generation unit after the second focus control ends.
  • the reliability of the first focus control based on the reliability determination value is less than a threshold value, it is determined that the second focus control is performed again.
  • the imaging element includes the first signal detection unit and the second signal detection unit arranged in a direction intersecting the detection direction with respect to the first signal detection unit.
  • a plurality of signal detection unit pairs wherein the plurality of signal detection unit pairs include a first signal detection unit pair and a second signal detection unit pair in which the positional relationship between the first signal detection unit and the second signal detection unit is opposite to each other;
  • the information generation unit includes a plurality of pair lines in which the first signal detection unit pair and the second signal detection unit pair are alternately arranged in the detection direction.
  • the first signal detection unit pair included in any pair line is the first pair
  • the second signal detection unit pair included in the arbitrary pair line is the second pair.
  • the signal detection unit included in the arbitrary pair line is detected as described above.
  • the reliability determination with one group in the state divided into two groups of signal detectors having the same position in the direction orthogonal to the direction as the first pair and the other group as the second pair Find the value.
  • the reliability determination value can be obtained using the detection signals of the signal detection units included in the two closest lines among the lines including the signal detection unit.
  • the number of lines from which signals are read out can be minimized, and the time until focusing is completed can be shortened.
  • the disclosed focus control method is a focus control method by an image pickup apparatus having an image pickup device that picks up an image of a subject through an image pickup optical system including a focus lens, and the image pickup device has different pupil regions of the image pickup optical system.
  • a first signal detector that detects a signal corresponding to one of the pair of light beams that has passed through the portion; and a second signal detection that detects a signal corresponding to the other light beam of the pair of light beams.
  • the contrast is increased by increasing the arbitrary distance.
  • the focusing speed by the AF method can be increased.
  • the contrast AF method is used by reducing the arbitrary distance. Focusing accuracy can be increased.
  • the focusing accuracy and the focusing speed by the contrast AF method can be made compatible.
  • the disclosed focus control method includes: a first signal detection unit including a plurality of first signal detection units arranged in a phase difference detection direction by the first signal detection unit and the second signal detection unit; Output from the first pair of signal detection units consisting of the second signal detection units arranged at the same distance in the same direction with respect to the signal detection units of the unit group and the first signal detection unit group The correlation calculation result of the detection signal of the first signal detection unit group and the detection signal of the second signal detection unit group and the respective signal detection units of the first signal detection unit group in the same direction For a second signal detection unit group composed of a plurality of the first signal detection units arranged at the same distance and arranged along the detection direction, and each signal detection unit of the second signal detection unit group From the second signal detector arranged at the same distance in a direction different from the same direction The correlation calculation result based on the detection signal of the first signal detection unit group output from the second pair of the signal detection unit group and the correlation calculation result of the detection signal of the second signal detection unit group.
  • An information generation step for generating a reliability determination value for determining the reliability of the first focus control and the first focus control according to the magnitude of the reliability determination value In the control step, when it is determined that the second focus control is to be performed, the control step determines the second focus control depending on the magnitude of the reliability determination value. 2 is determined, and when the factor is due to the frequency of the subject image, the arbitrary distance is compared with the case where the factor is not due to the frequency of the subject image. It is to make it smaller.
  • the disclosed focus control method includes a first signal detection unit group including a plurality of the first signal detection units arranged in a phase difference detection direction by the first signal detection unit and the second signal detection unit. , And a first pair of signal detection units composed of the second signal detection units arranged at the same distance in the same direction with respect to the signal detection units of the first signal detection unit group.
  • the ratio of the integrated value of the detection signal of the first signal detection unit and the integrated value of the detection signal of the second signal detection unit and the signal detection unit of the first signal detection unit group in the same direction For a second signal detection unit group composed of a plurality of the first signal detection units arranged at the same distance and arranged along the detection direction, and each signal detection unit of the second signal detection unit group From the second signal detection unit arranged at the same distance in a direction different from the same direction. Based on the ratio of the integrated value of the detection signal of the first signal detection unit and the integrated value of the detection signal of the second signal detection unit output from the second pair of the signal detection unit group, the first signal detection unit group.
  • Information generation that generates, as the information, a reliability determination value for determining the reliability of the first focus control performed using the detection signal of each signal detection unit of each of the pair and the second pair Steps are provided.
  • the present invention is highly convenient and effective when applied to a digital camera or the like.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

位相差AF方式による合焦制御とコントラストAF方式による合焦制御とを併用する場合でも、合焦制御が完了するまでの時間を短縮して高速なAFを行うことができる撮像装置及び合焦制御方法を提供する。デジタルカメラは、画素ペアP1によって撮像される2像の相関演算を行い、画素ペアP2によって撮像される2像の相関演算を行い、これら2つの相関演算の結果から生成した情報に基づいて、相関演算結果の信頼度を判定する。デジタルカメラは、信頼度が低い場合はコントラストAFを行う。デジタルカメラは、このとき、信頼度の高さに応じて、コントラスト値算出のために所定範囲でフォーカスレンズを移動させるときの移動ステップ(任意距離)を可変制御する。

Description

撮像装置及び合焦制御方法
 本発明は、撮像装置及び合焦制御方法に関する。
 近年、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子の高解像度化に伴い、デジタルスチルカメラ、デジタルビデオカメラ、スマートフォン等の携帯電話機、PDA(Personal Digital Assistant,携帯情報端末)等の撮影機能を有する情報機器の需要が急増している。なお、以上のような撮像機能を有する情報機器を撮像装置と称する。
 これら撮像装置では、主要な被写体に焦点を合わせる合焦制御方法として、コントラストAF(Auto Focus、自動合焦)方式や位相差AF方式が採用されている。コントラストAF方式と位相差AF方式にはそれぞれに利点があるため、これらを併用する撮像装置も提案されている(例えば特許文献1参照)。
 特許文献1は、位相差AF方式によってデフォーカス量を算出できない場合や、デフォーカス量を算出できてもデフォーカス量の信頼度が低い場合に、コントラストAF方式で合焦制御を行う撮像装置を開示している。
特開2013-61579号公報
 しかし、特許文献1のように、位相差AF方式によってデフォーカス量を算出した後、このデフォーカス量の信頼度に応じてコントラストAF方式による合焦制御に移行するケースでは、最初からコントラストAFによる合焦制御を行うケースと比較して、合焦制御が完了するまでの時間が長くなってしまう。
 本発明は、上記事情に鑑みてなされたものであり、位相差AF方式による合焦制御とコントラストAF方式による合焦制御とを併用する場合でも、合焦制御が完了するまでの時間を短縮して高速なAFを行うことができる撮像装置及び合焦制御方法を提供することを目的とする。
 本発明の撮像装置は、フォーカスレンズを含む撮像光学系を通して被写体を撮像する撮像素子を有する撮像装置であって、上記撮像素子は、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束のうちの一方の光束に応じた信号を検出する第1の信号検出部と、上記一対の光束のうちの他方の光束に応じた信号を検出する第2の信号検出部とを含み、上記第1の信号検出部及び上記第2の信号検出部の検出信号に基づいて決められた合焦位置に上記フォーカスレンズを移動させる第1の合焦制御と、上記フォーカスレンズを予め決められた移動範囲で光軸方向に沿って任意距離ずつ移動させ、各移動位置で上記撮像素子によって撮像される撮像画像のコントラストに基づいて決められた合焦位置に上記フォーカスレンズを移動させる第2の合焦制御と、のいずれかを行う合焦制御部と、上記第1の合焦制御と上記第2の合焦制御のどちらを行うかを、上記第1の信号検出部及び上記第2の信号検出部の検出信号を用いて生成した情報によって決定する合焦制御決定部と、上記第2の合焦制御を行うことが決定された場合に、上記情報に応じて、上記移動範囲と上記移動範囲における上記任意距離のうち少なくとも上記任意距離を可変制御する制御部と、を備えるものである。
 本発明の合焦制御方法は、フォーカスレンズを含む撮像光学系を通して被写体を撮像する撮像素子を有する撮像装置による合焦制御方法であって、上記撮像素子は、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束のうちの一方の光束に応じた信号を検出する第1の信号検出部と、上記一対の光束のうちの他方の光束に応じた信号を検出する第2の信号検出部とを含み、上記第1の信号検出部及び上記第2の信号検出部の検出信号に基づいて決められた合焦位置に上記フォーカスレンズを移動させる第1の合焦制御と、上記フォーカスレンズを予め決められた移動範囲で光軸方向に沿って任意距離ずつ移動させ、各移動位置で上記撮像素子によって撮像される撮像画像のコントラストに基づいて決められた合焦位置に上記フォーカスレンズを移動させる第2の合焦制御と、のいずれかを行う合焦制御ステップと、上記第1の合焦制御と上記第2の合焦制御のどちらを行うかを、上記第1の信号検出部及び上記第2の信号検出部の検出信号を用いて生成した情報によって決定する合焦制御決定ステップと、上記第2の合焦制御を行うことが決定された場合に、上記情報に応じて、上記移動範囲と上記移動範囲における上記任意距離のうち少なくとも上記任意距離を可変制御する制御ステップと、を備えるものである。
 本発明によれば、位相差AF方式による合焦制御とコントラストAF方式による合焦制御とを併用する場合でも、合焦制御が完了するまでの時間を短縮して高速なAFを行うことができる撮像装置及び合焦制御方法を提供することが可能となる。
本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図である。 図1に示すデジタルカメラに搭載される固体撮像素子5の全体構成を示す平面模式図である。 図2に示す1つのAFエリア53の部分拡大図である。 図3に示す位相差検出用画素52のみを示した図である。 図1に示すデジタルカメラのAF動作を説明するためのフローチャートである。 図5のフローチャートにおけるステップS6の処理を説明するためのフローチャートである。 図5のフローチャートにおけるステップS6の処理の変形例を説明するためのフローチャートである。 ペアラインに設定する画素ペアの変形例を示す図である。 位相差検出方向に伸びる直線Lの例を示す図である。 図1に示すデジタルカメラのAF動作の変形例を説明するためのフローチャートである。 図10のフローチャートにおけるステップS18の処理を説明するためのフローチャートである。 図11のフローチャートにおけるステップS181とステップS186の間の処理を説明するためのフローチャートである。 図1に示すデジタルカメラのコンティニュアスAF動作を説明するためのフローチャートである。 図1に示す固体撮像素子5のAFエリア53にある位相差検出用画素52A,52Bの配列の変形例を示す図である。 図1に示す固体撮像素子5のAFエリア53にある位相差検出用画素52A,52Bの配列の変形例を示す図である。 図1に示す固体撮像素子5のAFエリア53にある位相差検出用画素52A,52Bの配列の変形例を示す図である。 図1に示す固体撮像素子5のAFエリア53にある位相差検出用画素52A,52Bの配列の変形例を示す図である。 撮像装置としてスマートフォンを説明する図である。 図18のスマートフォンの内部ブロック図である。
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図である。
 図1に示すデジタルカメラは、焦点調節のためのフォーカスレンズ、ズームレンズ等を含む撮影レンズ1と、絞り2とを有するレンズ装置を備える。レンズ装置は撮像光学系を構成する。レンズ装置はカメラ本体に着脱可能でも固定でもどちらでもよい。撮影レンズ1は少なくともフォーカスレンズを含んでいればよい。また、レンズ系全体を移動させることで焦点調節を行う単焦点レンズでもよい。
 カメラ本体は、レンズ装置を通して被写体を撮像するCCD型又はCMOS型等の固体撮像素子5と、固体撮像素子5の出力に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6及びアナログ信号処理部6から出力されるアナログ信号をデジタル信号に変換するA/D変換回路7とを備える。アナログ信号処理部6及びA/D変換回路7は、システム制御部11によって制御される。アナログ信号処理部6及びA/D変換回路7は固体撮像素子5に内蔵されることもある。
 デジタルカメラの電気制御系全体を統括制御するシステム制御部11は、レンズ駆動部8を制御して撮影レンズ1に含まれるフォーカスレンズの位置を調整したり、撮影レンズ1に含まれるズームレンズの位置の調整を行ったりする。更に、システム制御部11は、絞り駆動部9を介して絞り2の開口量を制御することにより、露光量の調整を行う。
 また、システム制御部11は、撮像素子駆動部10を介して固体撮像素子5を駆動し、撮影レンズ1を通して撮像した被写体像を撮像画像信号として出力させる。システム制御部11には、操作部14を通してユーザからの指示信号が入力される。
 システム制御部11は、後述する様に、コントラストAF処理部18と位相差AF処理部19のいずれか一方を選択し、選択した処理部によって決定された合焦位置にフォーカスレンズを移動させる。
 更に、このデジタルカメラの電気制御系は、メインメモリ16と、メインメモリ16に接続されたメモリ制御部15と、A/D変換回路7から出力される撮像画像信号に対し、補間演算、ガンマ補正演算、及びRGB/YC変換処理等を行って撮影画像データを生成するデジタル信号処理部17と、コントラストAF方式により合焦位置を決定するコントラストAF処理部18と、位相差AF方式により合焦位置を決定する位相差AF処理部19と、着脱自在の記録媒体21が接続される外部メモリ制御部20と、カメラ背面等に搭載された表示部23が接続される表示制御部22と、を備える。
 メモリ制御部15、デジタル信号処理部17、コントラストAF処理部18、位相差AF処理部19、外部メモリ制御部20、及び表示制御部22は、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。
 図2は、図1に示すデジタルカメラに搭載される固体撮像素子5の全体構成を示す平面模式図である。
 固体撮像素子5は、行方向X及びこれに直交する列方向Yに二次元状に配列された多数の画素が配置される受光面50を有する。この受光面50には、フォーカスを合わせる対象となるエリアであるAFエリア53が図2の例では9つ設けられている。
 AFエリア53は、画素として撮像用画素と位相差検出用画素とを含むエリアである。
 受光面50のうちAFエリア53を除く部分には、撮像用画素だけが配置される。なお、AFエリア53は、受光面50に隙間無く設けてあってもよい。
 図3は、図2に示す1つのAFエリア53の部分拡大図である。
 AFエリア53には、画素51が二次元状に配列されている。各画素51は、フォトダイオード等の光電変換部と、この光電変換部上方に形成されたカラーフィルタとを含む。
 図3では、赤色光を透過するカラーフィルタ(Rフィルタ)を含む画素51(R画素51)には“R”の文字を付し、緑色光を透過するカラーフィルタ(Gフィルタ)を含む画素51(G画素51)には“G”の文字を付し、青色光を透過するカラーフィルタ(Bフィルタ)を含む画素51(B画素51)には“B”の文字を付している。カラーフィルタの配列は受光面50全体でベイヤ配列となっている。
 AFエリア53では、G画素51の一部(図3中の網掛けを付した画素51)が位相差検出用画素52となっている。図3の例では、R画素51とG画素51を含む画素行のうちの任意の画素行における各G画素51と、この各G画素51に対して列方向Yに最も近い同色のG画素51とが、位相差検出用画素52となっている。ここでは図3に図示するように、2次元状配列の一方の方向をX方向または行方向、他の方向をY方向または列方向と規定する 。
 図4は、図3に示す位相差検出用画素52のみを示した図である。
 図4に示すように、位相差検出用画素52は、位相差検出用画素52Aと位相差検出用画素52Bの2種類の画素を含む。
 位相差検出用画素52Aは、撮影レンズ1の瞳領域の異なる部分を通過した一対の光束のうちの一方の光束を受光し受光量に応じた信号を検出する信号検出部(第1の信号検出部)である。
 位相差検出用画素52Bは、上記一対の光束のうちの他方の光束を受光し受光量に応じた信号を検出する信号検出部(第2の信号検出部)である。
 なお、AFエリア53において、位相差検出用画素52A及び52B以外の複数の画素51は撮像用画素であり、撮像用画素は、撮影レンズ1を通過した上記一対の光束を受光し受光量に応じた信号を検出する。
 各画素51の光電変換部上方には遮光膜が設けられ、この遮光膜には、光電変換部の受光面積を規定する開口が形成されている。
 撮像用画素51の開口の中心は、撮像用画素51の光電変換部の中心と一致している。これに対し、位相差検出用画素52Aの開口(図4の白抜き部分)の中心は、位相差検出用画素52Aの光電変換部の中心に対し右側に偏心している。また、位相差検出用画素52Bの開口(図4の白抜き部分)の中心は、位相差検出用画素52Bの光電変換部の中心に対して左側に偏心している。ここでいう右方向は、図3で示すX方向の一方の方向であり、左方向はX方向のもう一方の方向である。
 この構成により、任意の行にある位相差検出用画素52Aからなる画素群と、この画素群の各位相差検出用画素52Aに対して同一方向に同一距離で配置された位相差検出用画素52Bからなる画素群とによって、これら2つの画素群の各々によって撮像される像における行方向Xの位相差を検出することができる。
 図4に示すように、AFエリア53には、位相差検出用画素52Aと、この位相差検出用画素52Aに対して、位相差の検出方向(行方向X)に直交する方向に所定距離を空けて配置された位相差検出用画素52Bとからなる画素ペアP1と、画素ペアP1において位相差検出用画素52Aと位相差検出用画素52Bの位置関係を逆にした画素ペアP2とが行方向Xに交互に配置されたペアラインが少なくとも1つ設けられている。
 このペアラインは、位相差の検出方向に沿って並ぶ複数の位相差検出用画素52Aからなる第1の信号検出部群(全画素ペアP1の位相差検出用画素52A)、及び、第1の信号検出部群の各位相差検出用画素52Aに対してY方向の一方の方向(図4を例にすると紙面の下方向)に同一距離(1画素分の距離)で配置された位相差検出用画素52Bからなる信号検出部群(全画素ペアP1の位相差検出用画素52B)の第1のペアと、第1の信号検出部群の各位相差検出用画素52Aに対して同一方向(図4の例では斜め右下方向)に同一距離で配置されかつ検出方向に沿って並ぶ複数の位相差検出用画素52Aからなる第2の信号検出部群(全画素ペアP2の位相差検出用画素52A)、及び、第2の信号検出部群の各位相差検出用画素52Aに対して上記Y方向の一方の方向とは反対の方向(図4の例では紙面の上方向)に同一距離(1画素分の距離)で配置された位相差検出用画素52Bからなる信号検出部群(全画素ペアP2の位相差検出用画素52B)の第2のペアとから構成されたものということもできる。
 図1に示す位相差AF処理部19は、9つのAFエリア53の中からユーザ操作等により選択された1つのAFエリア53にある位相差検出用画素52A及び位相差検出用画素52Bから読み出される検出信号群を用いて上記一対の光束によって形成される2つの像の相対的な位置ずれ量である位相差を演算する。
 そして、位相差AF処理部19は、この位相差に基づいて、撮影レンズ1の焦点調節状態、ここでは合焦状態から離れている量と合焦状態から離れている方向、すなわちデフォーカス量を求める。位相差AF処理部19は、このデフォーカス量からフォーカスレンズの合焦位置を決定する。
 システム制御部11は、位相差検出用画素52A及び位相差検出用画素52Bの検出信号に基づいて位相差AF処理部19により決められた合焦位置にフォーカスレンズを移動させる第1の合焦制御を行う合焦制御部として機能する。
 図1に示すコントラストAF処理部18は、9つのAFエリア53の中からユーザ操作等により選択された1つのAFエリア53によって撮像される画像を解析し、周知のコントラストAF方式によって撮影レンズ1の合焦位置を決定する。
 即ち、コントラストAF処理部18は、システム制御部11の制御によって撮影レンズ1のフォーカスレンズ位置を動かしながら、動かした位置(複数の位置)毎に得られる画像のコントラスト(明暗差)を求める。そして、コントラストが最大となるフォーカスレンズ位置を合焦位置として決定する。なお、コントラストは隣接画素の信号の差分の合計をとることによって得られる。
 システム制御部11は、フォーカスレンズを移動可能な最大範囲(INFからMODまでの範囲)でその範囲の端から光軸方向に沿って任意距離ずつ移動させ、各移動位置で固体撮像素子5によって撮像される撮像画像のコントラストに基づいてコントラストAF処理部18によって決められた合焦位置にフォーカスレンズを移動させる第2の合焦制御を行う合焦制御部として機能する。
 なお、AFエリア53は1つだけでなく、連続して並ぶ複数個を選択できるようにしてもよい。
 本実施形態のデジタルカメラは、AFを行う指示があると、位相差AF方式による第1の合焦制御又はコントラストAF方式による第2の合焦制御をシステム制御部11が行う。
 システム制御部11は、第1の合焦制御と第2の合焦制御のどちらを行うかを、位相差検出用画素52A及び位相差検出用画素52Bの検出信号を用いて生成した情報(後述する信頼度判定値J1,J2)によって決定する合焦制御決定部として機能する。
 また、システム制御部11は、第2の合焦制御を行うことを決定した場合に、上記情報に応じて上記任意距離を可変制御する制御部として機能する。なお、上記任意距離は、電源投入時には初期値に設定される。
 上記任意距離が初期値よりも小さいと、INFからMODまでの範囲でフォーカスレンズを細かく移動させて多くの位置でコントラスト値を求めることになる。このため、任意距離が初期値のときと比べて、合焦位置の決定精度は上がるが、合焦位置を決定するまでの速度は低下する。
 上記任意距離が初期値よりも大きいと、INFからMODまでの範囲でフォーカスレンズを大きく移動させて少ない位置でコントラスト値を求めることになる。このため、任意距離が初期値のときと比べて、合焦位置の決定精度は下がるが、合焦位置を決定するまでの速度は向上する。
 以下、静止画撮影時においてAF指示がなされてからのデジタルカメラの動作について説明する。
 図5は、図1に示すデジタルカメラのAF動作を説明するためのフローチャートである。
 AF指示があると、まず、位相差AF処理部19が、選択されたAFエリア52にある位相差検出用画素52A及び位相差検出用画素52Bの検出信号を取得する(ステップS1)。
 次に、位相差AF処理部19は、取得した検出信号のうち、1つのペアラインを構成する画素ペアP1の位相差検出用画素52Aと位相差検出用画素52Bの検出信号群同士の相関演算を行う(ステップS2)。
 具体的には、一方の検出信号群のデータをA[1]…A[k]とし、他方の検出信号群のデータをB[1]…B[k]とし、これら2つのデータをシフト量“d”ずらしたときの以下の式によって求まる2つのデータ波形によって囲まれる面積C[d]を求める。
Figure JPOXMLDOC01-appb-M000001
 以下では、ステップS2の相関演算の結果をC1[d]とする。相関演算結果C1[d]は、画素ペアP1の位相差検出用画素52Aと位相差検出用画素52Bのそれぞれによって撮像される像の一致度を示す値となる。
 続いて、位相差AF処理部19は、取得した検出信号のうち、上記1つのペアラインを構成する画素ペアP2の位相差検出用画素52Aと位相差検出用画素52Bの検出信号群同士の相関演算を行う(ステップS3)。
 この相関演算結果をC2[d]とする。相関演算結果C2[d]は、画素ペアP2の位相差検出用画素52Aと位相差検出用画素52Bのそれぞれによって撮像される像の一致度を示す値となる。
 次に、位相差AF処理部19は、相関演算結果C1[d]と相関演算結果C2[d]とを用いて、相関演算結果C1[d]と相関演算結果C2[d]のそれぞれの信頼度を判定するための信頼度判定値J1を生成する(ステップS4)。位相差AF処理部19は、情報生成部として機能する。
 ペアラインに結像する被写体像の周波数が低い場合、横軸にシフト量dをとり、縦軸にC[d]をとったときのグラフの形状は、C1[d]とC2[d]でほぼ同じになる。しかし、ペアラインに結像する被写体像の周波数が高い場合、C1[d]とC2[d]とで、上記グラフの形状は大きく異なる。
 このように、同じ被写体が結像される領域であるにも関わらず、その領域にある2つの画素ペアP1及びP2とで相関演算の結果が異なるのでは、相関演算の結果が誤りである可能性が高く、このペアラインの位相差検出用画素の検出信号を用いて決めた合焦位置の信頼度は低いと判断できる。
 そこで、信頼度判定値生成部として機能する位相差AF処理部19は、C1[d]に基づくグラフの形状とC2[d]に基づくグラフの形状とを比較することで、信頼度判定値J1を生成する。
 具体的には、次の式(2)の演算を行って信頼度判定値J1を生成する。
Figure JPOXMLDOC01-appb-M000002
 式(2)の分子は、C1[d]に基づくグラフの形状とC2[d]に基づくグラフの形状とが近い場合は小さな値となり、この2つの形状が異なる場合は大きな値になる。
 したがって、システム制御部11は、ステップS4で信頼度判定値J1が生成された後、信頼度判定値J1と予め設定された閾値THとを比較し、J1が閾値TH以上の場合(ステップS5:YES)には、位相差AF方式による合焦制御の信頼度が低いと判定し、コントラストAF処理部18を選択して、コントラストAF処理部18により合焦位置を決定させる。そして、決定された合焦位置にしたがって、撮影レンズ1の合焦制御を行う(ステップS6)。
 また、システム制御部11は、信頼度判定値J1が閾値TH未満の場合(ステップS5:NO)には、位相差AF方式による合焦制御の信頼度が高いと判定し、位相差AF処理部19を選択して、位相差AF処理部19により合焦位置を決定させる。そして、決定された合焦位置にしたがって、撮影レンズ1の合焦制御を行う(ステップS7)。
 なお、選択されたAFエリア53に複数のペアラインがある場合、位相差AF処理部19は、ペアライン毎にステップS2~S4の処理を行って信頼度判定値J1を生成する。
 そして、システム制御部11は、複数のペアラインの中に、信頼度判定値J1が閾値TH未満となるペアラインが1つでもある場合は、選択されたAFエリア53については、位相差AF方式による合焦制御の信頼度が高いと判定する。そして、ステップS7において、信頼度判定値J1が閾値TH未満となるペアラインから読み出した検出信号を利用して合焦位置を決定する。
 つまり、システム制御部11は、信頼度が閾値よりも低いと判定されたペアラインを除くペアラインにある位相差検出用画素の検出信号を用いて位相差AF方式による合焦制御を行う。
 ここで、閾値TH未満となるペアラインが複数あった場合、位相差AF処理部19は、例えば、ペアライン毎に算出したデフォーカス量の平均に基づいて合焦位置を決定する。
 また、システム制御部11は、複数のペアラインの中に、信頼度判定値J1が閾値TH未満となるペアラインがない場合、選択されたAFエリア53については、位相差AF方式による合焦制御の信頼度が低いと判定する。
 図6は、図5に示すフローチャートにおけるステップS6の処理の詳細を説明するためのフローチャートである。
 まず、ステップS60において、システム制御部11は、信頼度判定値J1と閾値TH1を比較する。閾値TH1は閾値THより大きい値である。
 上述したように、AFエリア53に結像する被写体像の周波数が高い場合には、信頼度判定値J1は大きな値になる。一方で、AFエリア53に結像する被写体像の周波数が高くない場合でも、局所的にゴーストやフレアが発生している場合等には、信頼度判定値J1は大きな値になるものの、被写体の周波数が高い場合よりは小さな値となる。このため、信頼度判定値J1の大きさによって、コントラストAF方式による合焦制御を選択した要因を判定することができる。
 具体的には、システム制御部11は、J1≧TH1であれば(ステップS60:YES)、AFエリア53に結像する被写体像の周波数が高いために位相差AFの精度が得られない状況と判定して、ステップS61の処理を行う。
 ステップS61において、システム制御部11は、コントラストAFのコントラスト値(AF評価値)を得るためにフォーカスレンズを移動させるときの任意距離を初期値よりも小さく設定する。
 ここで任意距離を初期値よりも小さくするのは、AFエリア53に結像する被写体像の周波数が高く、より細かい間隔でコントラスト値を取得するのがAF精度向上に寄与するためである。
 システム制御部11は、J1<HT1であれば(ステップS60:NO)、AFエリア53に結像する被写体像の周波数が高くないが、他の要因によって位相差AFの精度が得られない状況と判定し、ステップS62において、信頼度判定値J1と閾値TH2を比較する。閾値TH2は、閾値TH1よりは小さく閾値THよりは大きい値である。
 信頼度判定値J1が閾値TH2以上であれば、ステップS2,S3における相関演算結果の信頼度は低いといえる。一方、信頼度判定値J1が閾値TH2未満であれば、ステップS2,S3における相関演算結果の信頼度は高いといえる。
 そこで、システム制御部11は、J1≧TH2であれば(ステップS62:YES)、ステップS63の処理を行い、J1<TH2であれば(ステップS62:NO)、ステップS64の処理を行う。
 ステップS63において、システム制御部11は、上記任意距離を初期値に設定する。ここで任意距離を初期値に設定するのは、AFエリア53に結像する被写体像の周波数が低く、任意距離を小さくしなくともある程度の合焦精度が期待できるためである。
 ステップS64において、システム制御部11は、図5のステップS2で得たC1[d]が最小となるときのdの値(=画素ペアP1によって撮像される2像の位相差)、又は、図5のステップS3で得たC2[d]が最小となるときのdの値(=画素ペアP2によって撮像される2像の位相差)を閾値TH3と比較する。閾値TH3は閾値TH,TH1,TH2とは無関係に決められる値である。
 システム制御部11は、位相差dが閾値TH3以上であれば(ステップS64:YES)、ステップS65において上記任意距離を初期値よりも大きく設定する。
 ステップS62:NOのときは、ステップS2及びS3における相関演算結果の信頼度が位相差AFを実施できるほど高くないが、低すぎるわけでもない状況である。この状況においては、ステップS2,S3における相関演算結果から得られる位相差についてはある程度信頼できる値となっている。
 このため、d≧TH3のときは、デフォーカス量が大きく、フォーカスレンズを現在位置から合焦位置まで移動させるのに長い距離が必要であると予測できる。したがって、このようなときは、上記任意距離を初期値よりも大きくすることで、コントラストがピークとなるフォーカスレンズ位置を検出できるまでの時間を短縮することができ、合焦速度を上げることができる。
 システム制御部11は、位相差dが閾値TH3未満であれば(ステップS64:NO)、ステップS63において上記任意距離を初期値に設定する。
 d<TH3のときは、上記任意距離を初期値より大きくしなくても、コントラストがピークとなるフォーカスレンズ位置を検出するまでの時間は短くなるため、任意距離を初期値にすることで、合焦速度を遅くすることなく、高い精度で合焦位置を決めることができる。
 ステップS61,ステップS63,及びステップS65の後は、ステップS66の処理が行われる。ステップS66では、システム制御部11が、フォーカスレンズを現在位置からINF又はMODまで移動させる初期駆動を行った後、設定された任意距離にしたがってフォーカスレンズをINFからMODの範囲で順次移動させる。
 そして、コントラストAF処理部18は、フォーカスレンズの各移動位置でAF評価値を取得し、このAF評価値に基づいて合焦位置を決定する。最後にシステム制御部11が、決定された合焦位置にフォーカスレンズを移動させる。
 なお、図6において、ステップS62,ステップS64,及びステップS65を省略し、ステップS60:NOのときにステップS63の処理を行うようにしてもよい。
 以上のように、図1のデジタルカメラは、信頼度判定値J1が閾値TH以上となって、位相差AF方式による合焦制御では合焦精度が十分に確保できないような状況ではコントラストAF方式による合焦制御に移行する。このとき、信頼度判定値J1の大きさに応じて上記任意距離が可変制御されるため、合焦速度と合焦精度とを両立させたコントラストAFを行うことができる。
 また、信頼度判定値J1に加えて、位相差dの大きさも考慮して上記任意距離が可変制御されるため、合焦速度を更に速くすることができる。
 図6のステップS66では、システム制御部11が初期駆動を行うものとしたが、ステップS2,S3における相関演算結果の信頼度が高い場合には、フォーカスレンズの現在位置に対するフォーカスレンズの合焦位置の方向(この方向は相関演算結果から得られる)についてはある程度信頼できる。
 このため、図6において、ステップS64,ステップS63,及びステップS66の順、ステップS64,ステップS65,及びステップS66の順、で処理が行われる場合には、ステップS66において初期駆動は省略することができる。以下、初期駆動を省略する場合の動作例について説明する。
 図7は、図5に示すフローチャートにおけるステップS6の処理の変形例を示すフローチャートである。図7において図6と同じ処理は同一符号を付して説明を省略する。
 ステップS60:YESのとき、システム制御部11は初期駆動ありの設定をし(ステップS67)、ステップS61に移行する。
 ステップS62:NOのとき、システム制御部11は初期駆動ありの設定をし(ステップS68)、ステップS63に移行する。
 ステップS64:NOのとき、システム制御部11は初期駆動なしの設定をし(ステップS69)、ステップS63に移行する。
 ステップS64:YESのとき、システム制御部11は初期駆動ありの設定をし(ステップS70)、ステップS65に移行する。
 ステップS66では、システム制御部11が、初期駆動ありの設定をした場合は初期駆動を行ってから、フォーカスレンズを任意距離ずつ移動させる。また、システム制御部11は、初期駆動なしの設定をした場合は初期駆動を行わず、現在のフォーカスレンズ位置を起点として、ステップS2又はステップS3の相関演算結果から得られる位相差の方向にフォーカスレンズを任意距離ずつ移動させる。
 このように、初期駆動の有無を信頼度判定値J1の大きさに応じて決めることで、コントラストAFの合焦速度を更に早くすることができる。
 なお、シミュレーションや実験等により、高周波被写体が要因で信頼度判定値J1が大きくなるのは、フォーカスレンズの現在位置が合焦位置からあまり離れていない場合にのみ起こることが分かっている。
 このため、図7のステップS67では、初期駆動ありの設定を行う代わりに、レンズ移動範囲を最大範囲よりも狭くする設定を行ってもよい。
 例えば、フォーカスレンズの現在位置を中心とした光軸方向の前後所定距離で規定される範囲(フォーカスレンズの移動可能な最大範囲よりも狭い範囲)をレンズ移動範囲として設定すればよい。これにより、初期駆動を行うときと比べてレンズ移動範囲を狭くすることができ、合焦速度を上げることができる。
 なお、図5のステップS7における合焦位置の決定方法としては、相関演算結果C1[d]に基づいてデフォーカス量を決めてこのデフォーカス量にしたがって合焦位置を決める方法、相関演算結果C2[d]に基づいてデフォーカス量を決めてこのデフォーカス量にしたがって合焦位置を決める方法、これら2つのデフォーカス量の例えば平均値にしたがって合焦位置を決める方法等を採用すればよい。
 ここまでは、AFエリア53にあるペアラインを画素ペアP1と画素ペアP2からなるラインとして説明したが、図8に示すように、このペアラインは、画素ペアP3と画素ペアP4からなるラインと言うことも可能である。
 すなわち、ペアラインを、位相差検出用画素52Aと、この位相差検出用画素52Aに対して、位相差の検出方向(行方向X)に所定距離を空けて配置された位相差検出用画素52Bとからなる画素ペアP3を行方向Xに配列したラインと、画素ペアP3において位相差検出用画素52Aと位相差検出用画素52Bの位置関係を逆にした画素ペアP4を行方向Xに配列したラインとからなるものとして扱ってもよい。
 図8のようにペアラインにおいて画素ペアP3及びP4を設定した場合、位相差AF処理部19は、図5のステップS2において、画素ペアP3の位相差検出用画素52A及び52Bの検出信号群同士で相関演算を行い、図5のステップS3において、画素ペアP4の位相差検出用画素52A及び52Bの検出信号群同士で相関演算を行う。そして、ステップS4では、これら2つの相関演算の結果に基づいて、信頼度判定値J1を生成する。
 これにより、位相差検出用画素の検出信号のみを用いた位相差AF方式による合焦制御の信頼度判定を行うことができる。
 ここまでは、ペアラインを構成する2つの画素ペアの各々によって撮像される2像の相関演算結果を利用して、信頼度判定値を生成する例を説明したが、相関演算を行わずに信頼度判定値に相当する情報を生成することもできる。
 具体的には、位相差AF処理部19は、ペアラインを構成する全ての画素ペアP1から出力される位相差検出用画素52Aの検出信号の積算値及び位相差検出用画素52Bの検出信号の積算値の比を、全ての画素ペアP1によって撮像される2つの像の一致度として生成する。
 同様に、位相差AF処理部19は、ペアラインを構成する全ての画素ペアP2から出力される位相差検出用画素52Aの検出信号の積算値及び位相差検出用画素52Bの検出信号の積算値の比を、全ての画素ペアP2によって撮像される2つの像の一致度として生成する。
 ペアラインに結像する被写体像の周波数が低い場合、全ての画素ペアP1の位相差検出用画素52Aの検出信号の積算値と、全ての画素ペアP1の位相差検出用画素52Bの検出信号の積算値とは、位相差検出用画素52Aによって撮像される像と位相差検出用画素52Bによって撮像される像との位相差に起因する差を除くと、ほぼ同じ値をとる。
 また、全ての画素ペアP2の位相差検出用画素52Aの検出信号の積算値と、全ての画素ペアP2の位相差検出用画素52Bの検出信号の積算値とは、位相差に起因する差を除くと、ほぼ同じ値をとる。
 一方、図9に示すように、ペアラインに直線Lを含む被写体部分が結像していた場合、全ての画素ペアP1の位相差検出用画素52Aの検出信号の積算値と、全ての画素ペアP1の位相差検出用画素52Bの検出信号の積算値とは、位相差に起因する差を除いても、大きく異なる値になる。
 また、全ての画素ペアP2の位相差検出用画素52Aの検出信号の積算値と、全ての画素ペアP2の位相差検出用画素52Bの検出信号の積算値とは、位相差に起因する差を除いても、大きく異なる値になる
 このように、同じ画素ペアに属する位相差検出用画素52Aの積算値と位相差検出用画素52Bの積算値との比較だけでは、積算値の差が位相差によって生じているものなのか、高周波数の被写体によって生じているものなのかを判別しにくい。
 画素ペアP1と画素ペアP2では、いずれも撮像される像に同じように位相差が発生する。このことを利用し、画素ペアP1における位相差検出用画素52Aの検出信号の積算値と位相差検出用画素52Bの検出信号の積算値との比から、画素ペアP2における位相差検出用画素52Aの検出信号の積算値と位相差検出用画素52Bの検出信号の積算値との比を減算することで、位相差に起因する積算値の差を相殺することが可能である。位相差に起因する積算値の差を相殺できれば、図9に示すような直線Lの有無を判別することが可能となる。
 そこで、位相差AF処理部19は、以下の演算式(3)により、ペアラインに含まれる位相差検出用画素52A及び位相差検出用画素52Bの検出信号を用いた位相差AF方式による合焦制御の信頼度を判定するための信頼度判定値J2を生成する。位相差AF処理部は情報生成部として機能する
Figure JPOXMLDOC01-appb-M000003
 式(3)において、ΣP1Aは、ペアラインにある全ての画素ペアP1に属する位相差検出用画素52Aの検出信号の積算値を示す。
 ΣP1Bは、ペアラインにある全ての画素ペアP1に属する位相差検出用画素52Bの検出信号の積算値を示す。
 ΣP2Aは、ペアラインにある全ての画素ペアP2に属する位相差検出用画素52Aの検出信号の積算値を示す。
 ΣP2Bは、ペアラインにある全ての画素ペアP2に属する位相差検出用画素52Bの検出信号の積算値を示す。
 上記J2の値が大きい場合は、図9に示すように直線Lが存在すると判定することができる。直線Lが存在する場合は、位相差検出用画素52Aの検出信号と位相差検出用画素52Bの検出信号との相関演算によってデフォーカス量を精度良く算出することは難しい。
 そこで、システム制御部11は、上記J2の値を予め設定した閾値thと比較し、J2≧thのときは位相差AFの信頼度が低く、位相差AFによる合焦制御では合焦精度が十分に得られないと判定し、J2<thのときは位相差AFによる合焦制御で合焦精度が十分に得られると判定する。閾値thは、位相差AFによる合焦精度の許容値に応じて設定される。
 図10は、図1に示すデジタルカメラの静止画撮影時のAF動作の変形例を説明するためのフローチャートである。
 AF指示があると、まず、位相差AF処理部19が、選択されたAFエリア53にある位相差検出用画素52A及び位相差検出用画素52Bの検出信号を取得する(ステップS11)。
 次に、位相差AF処理部19は、取得した検出信号のうち、1つのペアラインを構成する画素ペアP1の位相差検出用画素52Aの出力信号を積算して積算値ΣP1Aを得る(ステップS12)。
 次に、位相差AF処理部19は、取得した検出信号のうち、1つのペアラインを構成する画素ペアP1の位相差検出用画素52Bの出力信号を積算して積算値ΣP1Bを得る(ステップS13)。
 次に、位相差AF処理部19は、取得した検出信号のうち、1つのペアラインを構成する画素ペアP2の位相差検出用画素52Aの出力信号を積算して積算値ΣP2Aを得る(ステップS14)。
 次に、位相差AF処理部19は、取得した検出信号のうち、1つのペアラインを構成する画素ペアP2の位相差検出用画素52Bの出力信号を積算して積算値ΣP2Bを得る(ステップS15)。
 次に、信頼度判定値生成部として機能する位相差AF処理部19は、ΣP1A、ΣP1B、ΣP2A、及びΣP2Bに基づき、式(3)の演算により信頼度判定値J2を生成する(ステップS16)。
 システム制御部11は、ステップS16で信頼度判定値J2が生成された後、信頼度判定値J2と閾値thとを比較し、J2≧thであれば(ステップS17:YES)、位相差AF方式による合焦制御の信頼度が低いと判定し、コントラストAF処理部18により合焦位置を決定させ、決定された合焦位置にしたがって撮影レンズ1の合焦制御を行う(ステップS18)。
 システム制御部11は、J2<thであれば(ステップS17:NO)、位相差AF方式による合焦制御の信頼度が高いと判定し、位相差AF処理部19により合焦位置を決定させ、決定された合焦位置にしたがって撮影レンズ1の合焦制御を行う(ステップS19)。
 なお、選択されたAFエリア53に複数のペアラインがある場合、位相差AF処理部19は、ペアライン毎にステップS12~S16の処理を行って信頼度判定値J2を生成する。
 システム制御部11は、複数のペアラインの中に、信頼度判定値J2が閾値th未満となるペアラインがある場合は、選択されたAFエリア53については、位相差AF方式による合焦制御の信頼度が高いと判定する。そして、ステップS19において、閾値th未満となるペアラインから読み出した検出信号を利用して合焦位置を決定させる。
 ここで、閾値th未満となるペアラインが複数あった場合、位相差AF処理部19は、例えば、ペアライン毎に算出したデフォーカス量の平均に基づいて合焦位置を決定する。
 システム制御部11は、複数のペアラインの中に、信頼度判定値J2が閾値th未満となるペアラインがない場合、選択されたAFエリア53については、位相差AF方式による合焦制御の信頼度が低いと判定して、ステップS18の処理を行う。
 図11は、図10に示すフローチャートにおけるステップS18の処理の詳細を説明するためのフローチャートである。
 まず、ステップS180において、システム制御部11は、信頼度判定値J2と閾値th1を比較する。閾値th1は閾値thより大きい値である。
 AFエリア53に結像する被写体像の周波数が高い場合には、信頼度判定値J2は大きな値になる。一方で、AFエリア53に結像する被写体像の周波数が高くない場合でも、局所的にゴーストやフレアが発生している場合等には、信頼度判定値J2は大きな値になるものの、被写体の周波数が高い場合よりは小さな値となる。このため、信頼度判定値J2の大きさによって、コントラストAF方式による合焦制御を選択した要因を判定することができる。
 具体的には、システム制御部11は、ステップS180において、J2と閾値th1とを比較し、J2≧th1であれば、AFエリア53に結像する被写体像の周波数が高いために位相差AFの精度が得られない状況と判定して、ステップS181の処理を行う。ステップS181は図6のステップS61と同じ処理である。
 システム制御部11は、J2<th1であれば(ステップS180:NO)、ステップS183の処理を行う。ステップS183は図6のステップS63と同じ処理である。
 ステップS181,ステップS183の後は、ステップS186の処理が行われる。ステップS186は図6のステップS66と同じ処理である。
 なお、シミュレーションや実験等により、高周波被写体が要因で信頼度判定値J2が大きくなるのは、フォーカスレンズの現在位置が、合焦位置からあまり離れていない状況にのみ起こることが分かっている。
 このため、図11のステップS180とステップS181の間で、ステップS186の処理におけるレンズ移動範囲を初期駆動時の範囲よりも狭くする設定を行ってもよい。
 例えば、フォーカスレンズの現在位置を中心とした光軸方向の前後所定距離で規定される範囲をレンズ移動範囲として設定すればよい。これにより、初期駆動を行うときと比べてレンズ移動範囲を狭くすることができ、合焦速度を上げることができる。
 以上のように、図10に示す動作例によれば、相関演算を行わずとも、信頼度判定値J1に相当する信頼度判定値J2を生成することができるため、コントラストAFに移行する場合の合焦速度を上げることができる。また、コントラストAFに移行した場合の演算量を減らして消費電力を削減することができる。
 位相差検出用画素52Aの検出信号の積算値と位相差検出用画素52Bの検出信号の積算値との比に基づいて信頼度判定値を求める形態においても、ペアラインに設定する画素ペアをP1及びP2ではなくP3及びP4として、信頼度判定値を生成することができる。
 一般に、コントラストAF方式によって合焦位置を決める際は、水平方向成分が主となる被写体に合焦させるための水平方向合焦アルゴリズム(第1アルゴリズム)と、垂直方向成分が主となる被写体に合焦させるための垂直方向合焦アルゴリズム(第2アルゴリズム)とを順次行う。このため、演算負荷が高く、また、アルゴリズムの実行順序によっては、精度が出ない方向で合焦させてしまう可能性がある。
 図10の動作例では、信頼度判定値J2を求めており、この信頼度判定値J2は、図9に示したような水平方向成分の被写体の有無を判定するのに有効な情報である。そこで、システム制御部11が、信頼度判定値J2を利用して、水平方向合焦アルゴリズムと垂直方向合焦アルゴリズムの実行優先度を決めることで、精度の高いAFが可能となる。以下、フローチャートに沿って動作を説明する。
 図12は、図11のフローチャートにおけるステップS181及びステップS183と、ステップS186との間に追加する処理を説明するためのフローチャートである。
 ステップS21において、システム制御部11は、信頼度判定値J2と閾値H1(>th)を比較し、J2≧H1であればステップS22の処理を行い、J2<H1であればステップS25の処理を行う。
 ステップS22において、システム制御部11は、信頼度判定値J2と閾値H2(>H1)を比較し、J2≧H2であればステップS23の処理を行い、J2<H2であればステップS24の処理を行う。
 ステップS23において、システム制御部11は、図11のステップS186で合焦位置を決めるために実行するアルゴリズムとして、水平方向合焦アルゴリズムのみを使用することを設定する。
 ステップS24において、システム制御部11は、図11のステップS186で合焦位置を決めるために実行するアルゴリズムとして、水平方向合焦アルゴリズムを優先的に使用することを設定する。つまり、水平方向合焦アルゴリズムを行った後に、垂直方向合焦アルゴリズムを行うよう設定する。
 ステップS25において、システム制御部11は、信頼度判定値J2と閾値V1(>th)を比較し、J2≧V1であればステップS26の処理を行い、J2<V1であればステップS27の処理を行う。
 ステップS26において、システム制御部11は、図11のステップS186で合焦位置を決めるために実行するアルゴリズムとして、垂直方向合焦アルゴリズムのみを使用することを設定する。
 ステップS27において、システム制御部11は、図11のステップS186で合焦位置を決めるために実行するアルゴリズムとして、垂直方向合焦アルゴリズムを優先的に使用することを設定する。つまり、垂直方向合焦アルゴリズムを行った後に、水平方向合焦アルゴリズムを行うよう設定する。
 以上のように、信頼度判定値J2の大きさに応じて、コントラストAF方式による合焦アルゴリズムの優先度を設定することで、精度の高いコントラストAFが可能になる。
 ここまでは静止画撮像時におけるAF動作について説明してきたが、動画撮像時のように、主要被写体に対して合焦し続ける、所謂コンティニュアスAFモードにおいても本発明は適用可能である。
 図13は、コンティニュアスAFモード時のデジタルカメラのAF動作を説明するためのフローチャートである。図13において図5及び図10に示した処理と同じ処理には同一符号を付してある。
 コンティニュアスAFモード時には、ステップS6でコントラストAF方式による合焦制御が行われた後、位相差AF処理部19がステップS11~ステップS16の処理を行って、信頼度判定値J2を生成する。
 そして、システム制御部11は、ステップS17で信頼度判定値J2と閾値thとを比較し、J2≧thとなっていればステップS18に移行して、コントラストAFと位相差AFのどちらをすべきかの判定を行うことなく、コントラストAFを行う。
 一方、ステップS17においてJ2<thとなっていればステップS1に処理が戻る。また、ステップS5においてJ1<THとなっていた場合は、ステップS7の処理が行われ、ステップS7の後はステップS1に処理が戻る。
 図13において、ステップS6の後にステップS1に戻すのが普通に考えられる。しかし、主要被写体に合焦してからすぐは相関演算の信頼度が高いため、位相差AF方式による合焦制御に移行するが、主要被写体が高周波被写体であり続ける場合は、再びコントラストAFによる合焦制御に移行することになり、位相差AFとコントラストAFの切り替えが頻繁に発生してしまう。
 図13の動作例によれば、ステップS6の処理で主要被写体に合焦した後、すぐにステップS1に移行せずに、信頼度判定値J2を生成し、信頼度判定値J2が大きいまま(つまり主要被写体が高周波被写体のまま)である場合は、ステップS18にてコントラストAFによる合焦制御を行うようにしている。
 このため、位相差AFとコントラストAFの切り替えが頻繁に発生するようなことがなく、安定した合焦制御が可能となる。また、コントラストAFを継続的に行う場合には、ステップS1~ステップS4の処理は行われないため、演算量を減らすことができ、消費電力を低減することができる。
 ここまでは、AFエリア53にある位相差検出用画素52A及び52Bをそれぞれ含む2つの隣接画素ラインを1ブロックとし、このブロックにある各位相差検出用画素52A及び52Bの検出信号を利用して、信頼度判定値J1及びJ2を生成するものとした。
 このブロックの変形例として、AFエリア53にある位相差検出用画素を含む3つ以上の画素ラインを1ブロックとし、このブロックにある各位相差検出用画素52A及び52Bの検出信号を利用して、信頼度判定値J1及びJ2を生成してもよい。以下、ブロック内の位相差検出用画素の配列の変形例について説明する。
 (第一の配列変形例)
 図14は、図1に示す固体撮像素子5のAFエリア53にある位相差検出用画素52A及び52Bの配列の変形例を示す図である。
 図14に示す配列例では、AFエリア53に、行方向Xに並ぶ複数の位相差検出用画素52Aを含む位相差画素ラインと、行方向Xに並ぶ複数の位相差検出用画素52Bを含む位相差画素ラインとが2つずつ設けられており、この4つの位相差画素ラインを1ブロックとして信頼度判定を行う。以下の図14の説明では便宜上、上方向、下方向とは図中での紙面上での上下方向をあらわすものとする。
 図14に示す1ブロックにおいて奇数行目の位相差画素ラインに含まれる各位相差検出用画素は位相差検出用画素52Aであり、偶数行目の位相差画素ラインに含まれる各位相差検出用画素は位相差検出用画素52Bである。
 図14に示す配列例では、ブロック内の1行目の位相差画素ラインの各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して下方向に1画素分空けて配置された位相差検出用画素52Bとを画素ペアP1とする。
 また、ブロック内の3行目の位相差画素ラインの各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して上方向に1画素分空けて配置された位相差検出用画素52Bとを画素ペアP2とする。
 また、ブロック内の1行目の位相差画素ラインの各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して下方向に5画素分空けて配置された位相差検出用画素52Bとを画素ペアP3とする。
 また、ブロック内の3行目の位相差画素ラインの各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して上方向に1画素分空けて配置される位相差検出用画素52Bとを画素ペアP4とする。
 図14の配列例によれば、一般的に用いられている位相差検出用画素の配列であるため、既存の固体撮像素子に容易に適用することができ、汎用性が高い。
 (第二の配列変形例)
 図15は、図1に示す固体撮像素子5のAFエリア53にある位相差検出用画素52A及び52Bの配列の変形例を示す図である。
 図15に示す配列例では、AFエリア53に、行方向Xに並ぶ複数の位相差検出用画素52Aを含む位相差画素ラインと、行方向Xに並ぶ複数の位相差検出用画素52Bを含む位相差画素ラインとを2つずつ設けられており、この4つの位相差画素ラインを1ブロックとして信頼度判定を行う。
 図15に示す1ブロックにおいて1行目と4行目の位相差画素ラインに含まれる各位相差検出用画素は位相差検出用画素52Aであり、2行目と3行目の位相差画素ラインに含まれる各位相差検出用画素は位相差検出用画素52Bである。
 図15に示す配列例では、ブロック内の1行目の位相差画素ラインの各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して下方向に3画素分空けて配置された位相差検出用画素52Bとを画素ペアP1とする。
 また、ブロック内の4行目の位相差画素ラインの各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して上方向に3画素分空けて配置された位相差検出用画素52Bとを画素ペアP2とする。
 また、ブロック内の1行目の位相差画素ラインの各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して下方向に1画素分空けて配置された位相差検出用画素52Bとを画素ペアP3とする。
 また、ブロック内の4行目の位相差画素ラインの各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して上方向に1画素分空けて配置される位相差検出用画素52Bとを画素ペアP4とする。
 図15の配列例によれば、画素ペアP1及びP2、並びにと画素ペアP3及びP4のそれぞれで、画素ペアを構成する2つの位相差検出用画素間の距離が同じになっているため、図14の例と比較して信頼度判定を高精度に行うことができる。
 また、画素ペアを構成する2つの位相差検出用画素間の距離が最大でも3画素分となるため、図14の例と比較して信頼度判定を高精度に行うことができる。
 (第三の配列変形例)
 図16は、図1に示す固体撮像素子5のAFエリア53にある位相差検出用画素52A及び52Bの配列の変形例を示す図である。
 図16に示す配列例では、AFエリア53に、行方向Xに並ぶ複数の位相差検出用画素52Bを含む位相差画素ラインが2つ、行方向Xに並ぶ複数の位相差検出用画素52Aを含む位相差画素ラインが1つ設けられており、この3つの位相差画素ラインを1ブロックとして信頼度判定を行う。
 図16に示す配列例では、ブロック内の2行目の位相差画素ラインの位相差検出用画素52Aのうち、奇数列にある各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して下方向に1画素分空けて配置された位相差検出用画素52Bとを画素ペアP1とする。
 また、ブロック内の2行目の位相差画素ラインの位相差検出用画素52Aのうち、偶数列にある各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して上方向に1画素分空けて配置された位相差検出用画素52Bとを画素ペアP2とする。
 また、ブロック内の2行目の位相差画素ラインの位相差検出用画素52Aのうち、奇数列にある各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して上方向に1画素分空けて配置された位相差検出用画素52Bとを画素ペアP3とする。
 また、ブロック内の2行目の位相差画素ラインの位相差検出用画素52Aのうち、偶数列にある各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して下方向に1画素分空けて配置された位相差検出用画素52Bとを画素ペアP4とする。
 図16の配列例によれば、3つの位相差画素ラインを1ブロックとして信頼度判定を行うため、信頼度判定に用いる位相差画素ライン数を図14及び図15の配列例よりも減らすことができる。
 また、画素ペアP1及びP2、並びにと画素ペアP3及びP4のそれぞれで、画素ペアを構成する2つの位相差検出用画素間の距離が同じになっているため、図14の例と比較して信頼度判定を高精度に行うことができる。
 また、画素ペアを構成する2つの位相差検出用画素間の距離が最大でも1画素分となるため、図14,図15の例と比較して信頼度判定を高精度に行うことができる。
 (第四の配列変形例)
 図17は、図1に示す固体撮像素子5のAFエリア53の構成の変形例を示す図である。
 図17に示す配列例では、AFエリア53にある一部のG画素51の光電変換部を2分割し、2分割した光電変換部のうちの左側(“G1”を付した画素)が位相差検出用画素52Aとなっており、2分割した画素のうちの右側(“G2”を付した画素)が位相差検出用画素52Bとなっている。
 各画素51には1つのマイクロレンズ51が設けられており、1つの画素51の光電変換部を2分割して得られる位相差検出用画素52Aと位相差検出用画素52Bにも、1つのマイクロレンズ51がこれらに跨って設けられている。
 これにより、位相差検出用画素52Aは、撮像レンズ1の瞳領域の半分を通過した光束を受光し、位相差検出用画素52Bは、撮像レンズ1の瞳領域の残り半分を通過した光束を受光する構成となっている。
 この配列例では、AFエリア53に、位相差検出用画素52Aと位相差検出用画素52Bを含む画素51が行方向Xに並ぶ位相差画素ラインが列方向Yに2つ設けられており、この2つの位相差画素ラインを1ブロックとして信頼度判定を行う。なお、ブロック内において行方向Xでの位置が同じマイクロレンズMLは全て同一被写体部位からの光を受光する程度に近い距離にある。
 図17に示す配列例では、ブロック内の1行目の位相差画素ラインの各位相差検出用画素52A(図中網掛けをした画素)と、この各位相差検出用画素52Aに対して右斜め下方向に配置された2行目の位相差画素ラインの位相差検出用画素52B(図中網掛けをした画素)とを画素ペアP1とする。
 また、ブロック内の2行目の位相差画素ラインの各位相差検出用画素52A(図中網掛けをしていない画素)と、この各位相差検出用画素52Aに対して右斜め上方向に配置された1行目の位相差画素ラインの位相差検出用画素52B(図中網掛けをしていない画素)とを画素ペアP2とする。
 また、ブロック内の1行目の位相差画素ラインの各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して右に隣接する位相差検出用画素52Bとを画素ペアP3とする。
 また、ブロック内の2行目の位相差画素ラインの各位相差検出用画素52Aと、この各位相差検出用画素52Aに対して右に隣接する位相差検出用画素52Bとを画素ペアP4とする。
 なお、図17の配列では、位相差検出用画素52Aと位相差検出用画素52Bに分割された画素51を撮像用画素として利用する場合、位相差検出用画素52Aの検出信号と位相差検出用画素52Bの検出信号とを加算した信号を、この画素51から出力された信号として扱えばよい。
 また、図17の配列では、一部のG画素51だけでなく、全ての画素51を2分割した構成としてもよい。この場合、被写体色によって、信頼度判定のために使用する画素ペアを変更することができ、高精度の位相差AFが可能となる。
 また、全ての画素51を2分割する構成では、色毎に信頼度判定を行い、高い信頼度が得られた色の位相差検出用画素を使って位相差AFを行うことも可能であり、位相差AFが行われる可能性を高めたり、位相差AFの精度を向上させたりすることができる。
 図17の配列例によれば、位相差検出用画素52Aと位相差検出用画素52Bを1つのマイクロレンズMLの下に設ける構成であるため、位相差検出用画素52Aと位相差検出用画素52Bとで別々にマイクロレンズMLを設ける構成と比較して、撮像用画素の数を増やすことができる。
 また、撮像時には、ほぼ同じ位置にある位相差検出用画素52Aと位相差検出用画素52Bとで信号を加算して1画素分の信号を得られるため、画素補間処理が不要となり、撮像画質を向上させることができる。
 本明細書では撮像装置としてデジタルカメラを例にしたが、以下では、撮像装置としてカメラ付のスマートフォンの実施形態について説明する。
 図18は、本発明の撮像装置の一実施形態であるスマートフォン200の外観を示すものである。図18に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。また、この様な筐体201は、スピーカ205と、マイクロホン206と、操作部207と、カメラ部208とを備えている。なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用したりすることもできる。
 図19は、図18に示すスマートフォン200の構成を示すブロック図である。図18に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部204は、主制御部220の制御により、画像(静止画像および動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。
 表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。
 操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。
 図18に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。
 係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体201の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部211は、スピーカ205やマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力させたりするものである。また、図18に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。
 操作部207は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図18に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部212は、主制御部220の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達することや、スマートフォン200の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該スマートフォン200の緯度、経度、及び高度からなる位置を検出する。GPS受信部214は、無線通信部210や外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部215は、例えば、3軸の加速度センサなどを備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向や加速度が検出される。係る検出結果は、主制御部220に出力されるものである。
 電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部220は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。
 更に、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部208は、図1に示したデジタルカメラにおける外部メモリ制御部20、記録媒体21、表示制御部22、表示部23、及び操作部14以外の構成を含む。
 カメラ部208によって生成された撮像画像データは、記憶部212に記録したり、入出力部213や無線通信部210を通じて出力したりすることができる。
 図18に示すスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよい。
 また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示することや、操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用することができる。
 また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。更には、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等などを付加して記録部212に記録したり、入出力部213や無線通信部210を通じて出力したりすることもできる。
 以上のような構成のスマートフォン200においても、カメラ部208の撮像素子として固体撮像素子5を用い、主制御部220において図5,10に例示した処理を行うことで、合焦速度と合焦精度とを両立させたコントラストAFが可能になる。
 以上説明してきたように、本明細書には以下の事項が開示されている。
 開示された撮像装置は、フォーカスレンズを含む撮像光学系を通して被写体を撮像する撮像素子を有する撮像装置であって、上記撮像素子は、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束のうちの一方に応じた信号を検出する第1の信号検出部と、上記一対の光束のうちの他方の光束に応じた信号を検出する第2の信号検出部とを含み、上記第1の信号検出部及び上記第2の信号検出部の検出信号に基づいて決められた合焦位置に上記フォーカスレンズを移動させる第1の合焦制御と、上記フォーカスレンズを予め決められた移動範囲で光軸方向に沿って任意距離ずつ移動させ、各移動位置で上記撮像素子によって撮像される撮像画像のコントラストに基づいて決められた合焦位置に上記フォーカスレンズを移動させる第2の合焦制御と、のいずれかを行う合焦制御部と、上記第1の合焦制御と上記第2の合焦制御のどちらを行うかを、上記第1の信号検出部及び上記第2の信号検出部の検出信号を用いて生成した情報によって決定する合焦制御決定部と、上記第2の合焦制御を行うことが決定された場合に、上記情報に応じて、上記移動範囲と上記移動範囲における上記任意距離のうち少なくとも上記任意距離を可変制御する制御部と、を備えるものである。
 この構成により、例えば、第1の信号検出部及び第2の信号検出部の検出信号を用いて生成した情報から主要被写体が高周波被写体でないと判定できる場合には、任意距離を大きくすることでコントラストAF方式による合焦速度を上げることができる。また、第1の信号検出部及び第2の信号検出部の検出信号を用いて生成した情報から主要被写体が高周波被写体であると判定できる場合には、任意距離を小さくすることでコントラストAF方式による合焦精度を上げることができる。このように、任意距離が常に一定の場合と比較すると、コントラストAF方式による合焦精度と合焦速度を両立させることができる。
 開示された撮像装置は、上記第1の信号検出部及び上記第2の信号検出部による位相差の検出方向に並ぶ複数の上記第1の信号検出部からなる第1の信号検出部群、及び、上記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置された上記第2の信号検出部からなる信号検出部群の第1のペアから出力される上記第1の信号検出部群の検出信号と上記第2の信号検出部群の検出信号の相関演算結果と、上記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置されかつ上記検出方向に並ぶ複数の上記第1の信号検出部からなる第2の信号検出部群、及び、上記第2の信号検出部群の各信号検出部に対して上記同一方向とは異なる方向に同一距離で配置された上記第2の信号検出部からなる信号検出部群の第2のペアから出力される上記第1の信号検出部群の検出信号と上記第2の信号検出部群の検出信号の相関演算結果とに基づいて、上記相関演算結果の信頼度を判定するための信頼度判定値を上記情報として生成する情報生成部を備え、上記合焦制御決定部は、上記信頼度判定値の大きさによって、上記第1の合焦制御と上記第2の合焦制御のどちらを行うかを決定し、上記制御部は、上記第2の合焦制御を行うことが決定された場合に、上記信頼度判定値の大きさにより、上記第2の合焦制御を行うことが決定された要因を判定し、上記要因が被写体像の周波数によるものである場合に、上記要因が被写体像の周波数によるものでない場合と比較して上記任意距離を小さくするものである。
 この構成により、上記要因が被写体像の周波数によるものであった場合には、任意距離が小さくなるため、合焦位置を精度良く決めることができる。また、上記要因が被写体像の周波数によるものでない場合には、任意距離が大きくなるため、高速に被写体に合焦させることができる。
 開示された撮像装置は、上記制御部は、上記要因が被写体像の周波数によるもの以外であり、上記信頼度判定値に基づく上記相関演算結果の信頼度が第一の閾値以上であり、かつ、上記相関演算結果としての位相差が第二の閾値以上の場合に、上記要因が被写体像の周波数によるもの以外であり、かつ、上記信頼度判定値に基づく上記相関演算結果の信頼度が第一の閾値未満である場合、又は、上記要因が被写体像の周波数によるもの以外であり、上記信頼度判定値に基づく上記相関演算結果の信頼度が第一の閾値以上であり、かつ、上記位相差が第二の閾値未満の場合、と比較して上記任意距離を大きくするものである。
 この構成により、相関演算結果の信頼度が高い場合は、相関演算結果としての位相差が第二の閾値以上の場合に任意距離が大きくなるため、合焦位置を高速に決めることができ、高速に被写体に合焦させることができる。
 開示された撮像装置は、上記制御部は、上記要因が被写体像の周波数によるもの以外であり、かつ、上記信頼度判定値に基づく上記相関演算結果の信頼度が第一の閾値以上である場合に、上記移動範囲を上記フォーカスレンズの移動可能な最大範囲よりも狭くするものである。
 この構成により、相関演算結果の信頼度が高い場合には、フォーカスレンズを動かす範囲が狭くなるため、この範囲をフォーカスレンズの移動可能な最大範囲に常にしておく場合と比較して、フォーカスレンズを移動させる距離を減らすことができ、高速なAFが可能になる。
 開示された撮像装置は、上記制御部は、上記要因が被写体像の周波数によるものである場合に、上記移動範囲を上記フォーカスレンズの移動可能な最大範囲よりも狭くするものである。
 この構成により、高周波被写体が要因で相関演算結果の信頼度が低くなっている場合には、フォーカスレンズを動かす範囲が狭くなるため、フォーカスレンズを移動させる距離を減らすことができ、高速なAFが可能になる。
 開示された撮像装置は、上記第1の信号検出部及び上記第2の信号検出部による位相差の検出方向に沿って並ぶ複数の上記第1の信号検出部からなる第1の信号検出部群、及び、上記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置された上記第2の信号検出部からなる信号検出部群の第1のペアから出力される上記第1の信号検出部の検出信号の積算値及び上記第2の信号検出部の検出信号の積算値の比と、上記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置されかつ上記検出方向に沿って並ぶ複数の上記第1の信号検出部からなる第2の信号検出部群、及び、上記第2の信号検出部群の各信号検出部に対して上記同一方向とは異なる方向に同一距離で配置された上記第2の信号検出部からなる信号検出部群の第2のペアから出力される上記第1の信号検出部の検出信号の積算値及び上記第2の信号検出部の検出信号の積算値の比とに基づいて、上記第1のペア及び上記第2のペアのそれぞれの各信号検出部の検出信号を用いて行われる上記第1の合焦制御の信頼度を判定するための信頼度判定値を上記情報として生成する情報生成部を備えるものである。
 この構成によれば、相関演算を行うことなく第1の合焦制御と第2の合焦制御のどちらを行うかを決めたり、任に距離を可変制御したりすることができる。このため、演算量を減らして消費電力を低減したり、第1の合焦制御と第2の合焦制御のどちらを行うかの判定にかかる時間を短縮して高速なAFを実現したりすることができる。
 開示された撮像装置は、上記合焦制御決定部は、上記信頼度判定値の大きさによって、上記第1の合焦制御と上記第2の合焦制御のどちらを行うかを決定し、上記制御部は、上記第2の合焦制御を行うことが決定された場合に、上記信頼度判定値の大きさにより、上記第2の合焦制御を行うことが決定された要因を判定し、上記要因が被写体像の周波数によるものである場合に、上記要因が被写体像の周波数によるものでない場合と比較して上記任意距離を小さくするものである。
 この構成により、例えば主要被写体が高周波被写体であり、信頼度判定値に基づく信頼度が低くなる場合には、任意距離が小さくなるため、細かいステップでコントラストAFの評価値を取得することができ、コントラストAF方式による合焦制御の精度を上げることができる。また、信頼度判定値に基づく信頼度が高くなる場合には、任意距離が大きくなるため、合焦制御の速度を上げることができる。
 開示された撮像装置は、上記第2の合焦制御を行うことが決定された場合に、上記合焦制御部は、上記位相差の検出方向を主成分とする被写体に合焦させるための合焦位置決定の第1アルゴリズムと、上記位相差の検出方向に直交する方向を主成分とする被写体に合焦させるための合焦位置決定の第2アルゴリズムの実行優先度を、上記信頼度判定値の大きさに応じて決定するものである。
 この構成により、例えば、主要被写体が位相差の検出方向を主成分とする被写体である場合には、第1アルゴリズムのみを行ったり、第1アルゴリズムを優先して行いその後に第2アルゴリズムを行ったりして合焦位置を決定することで、合焦精度を高めることができる。
 開示された撮像装置は、上記第1の信号検出部及び上記第2の信号検出部による位相差の検出方向に沿って並ぶ複数の上記第1の信号検出部からなる第1の信号検出部群、及び、上記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置された上記第2の信号検出部からなる信号検出部群の第1のペアから出力される上記第1の信号検出部の検出信号の積算値及び上記第2の信号検出部の検出信号の積算値の比と、上記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置されかつ上記検出方向に沿って並ぶ複数の上記第1の信号検出部からなる第2の信号検出部群、及び、上記第2の信号検出部群の各信号検出部に対して上記同一方向とは異なる方向に同一距離で配置された上記第2の信号検出部からなる信号検出部群の第2のペアから出力される上記第1の信号検出部の検出信号の積算値及び上記第2の信号検出部の検出信号の積算値の比とに基づいて、上記第1のペア及び上記第2のペアのそれぞれの各信号検出部の検出信号を用いて行われる上記第1の合焦制御の信頼度を判定するための信頼度判定値を生成する信頼度判定値生成部を備え、主要被写体に合焦し続ける動画撮像モードにおいて、上記合焦制御決定部は、上記第2の合焦制御が終了した後に、上記信頼度判定値生成部に上記信頼度判定値を生成させ、上記信頼度判定値に基づく上記第1の合焦制御の信頼度が閾値未満であれば、再び上記第2の合焦制御を行うことを決定するものである。
 開示された撮像装置は、上記撮像素子は、上記第1の信号検出部とその第1の信号検出部に対して上記検出方向に交差する方向に配置された上記第2の信号検出部との信号検出部ペアを複数含み、上記複数の信号検出部ペアは、上記第1の信号検出部と上記第2の信号検出部との位置関係が互いに逆になる第1の信号検出部ペアと第2の信号検出部ペアを含み、上記撮像素子は、上記第1の信号検出部ペアと上記第2の信号検出部ペアが上記検出方向に交互に並ぶペアラインを複数有し、上記情報生成部は、任意の上記ペアラインに含まれる上記第1の信号検出部ペアを上記第1のペアとし、上記任意のペアラインに含まれる上記第2の信号検出部ペアを上記第2のペアとする、又は、上記任意のペアラインに含まれる信号検出部を上記検出方向に直交する方向での位置が同じ信号検出部からなる2つのグループに分けた状態での一方のグループを上記第1のペアとし、他方のグループを上記第2のペアとして、上記信頼度判定値を求めるものである。
 この構成により、信号検出部を含むラインのうち、最近接する2つのラインに含まれる信号検出部の検出信号を用いて信頼度判定値を求めることができるため、信頼度判定値生成のために検出信号を読み出す対象となるラインを最少にすることができ、合焦完了までの時間を短縮することができる。
 開示された合焦制御方法は、フォーカスレンズを含む撮像光学系を通して被写体を撮像する撮像素子を有する撮像装置による合焦制御方法であって、上記撮像素子は、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束のうちの一方の光束に応じた信号を検出する第1の信号検出部と、上記一対の光束のうちの他方の光束に応じた信号を検出する第2の信号検出部とを含み、上記第1の信号検出部及び上記第2の信号検出部の検出信号に基づいて決められた合焦位置に上記フォーカスレンズを移動させる第1の合焦制御と、上記フォーカスレンズを予め決められた移動範囲で光軸方向に沿って任意距離ずつ移動させ、各移動位置で上記撮像素子によって撮像される撮像画像のコントラストに基づいて決められた合焦位置に上記フォーカスレンズを移動させる第2の合焦制御と、のいずれかを行う合焦制御ステップと、上記第1の合焦制御と上記第2の合焦制御のどちらを行うかを、上記第1の信号検出部及び上記第2の信号検出部の検出信号を用いて生成した情報によって決定する合焦制御決定ステップと、上記第2の合焦制御を行うことが決定された場合に、上記情報に応じて、上記移動範囲と上記移動範囲における上記任意距離のうち少なくとも上記任意距離を可変制御する制御ステップと、を備えるものである。
 この方法により、例えば、第1の信号検出部及び第2の信号検出部の検出信号を用いて生成した情報から主要被写体が高周波被写体でないと判定できる場合には、任意距離を大きくすることでコントラストAF方式による合焦速度を上げることができる。また、第1の信号検出部及び第2の信号検出部の検出信号を用いて生成した情報から主要被写体が高周波被写体であると判定できる場合には、任意距離を小さくすることでコントラストAF方式による合焦精度を上げることができる。このように、任意距離が常に一定の場合と比較すると、コントラストAF方式による合焦精度と合焦速度を両立させることができる。
 開示された合焦制御方法は、上記第1の信号検出部及び上記第2の信号検出部による位相差の検出方向に沿って並ぶ複数の上記第1の信号検出部からなる第1の信号検出部群、及び、上記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置された上記第2の信号検出部からなる信号検出部群の第1のペアから出力される上記第1の信号検出部群の検出信号と上記第2の信号検出部群の検出信号の相関演算結果と、上記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置されかつ上記検出方向に沿って並ぶ複数の上記第1の信号検出部からなる第2の信号検出部群、及び、上記第2の信号検出部群の各信号検出部に対して上記同一方向とは異なる方向に同一距離で配置された上記第2の信号検出部からなる信号検出部群の第2のペアから出力される上記第1の信号検出部群の検出信号と上記第2の信号検出部群の検出信号の相関演算結果とに基づいて、上記相関演算結果の信頼度を判定するための信頼度判定値を上記情報として生成する情報生成ステップを備え、上記合焦制御決定ステップでは、上記信頼度判定値の大きさによって、上記第1の合焦制御と上記第2の合焦制御のどちらを行うかを決定し、上記制御ステップでは、上記第2の合焦制御を行うことが決定された場合に、上記信頼度判定値の大きさにより、上記第2の合焦制御を行うことが決定された要因を判定し、上記要因が被写体像の周波数によるものである場合に、上記要因が被写体像の周波数によるものでない場合と比較して上記任意距離を小さくするものである。
 開示された合焦制御方法は、上記第1の信号検出部及び上記第2の信号検出部による位相差の検出方向に並ぶ複数の上記第1の信号検出部からなる第1の信号検出部群、及び、上記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置された上記第2の信号検出部からなる信号検出部群の第1のペアから出力される上記第1の信号検出部の検出信号の積算値及び上記第2の信号検出部の検出信号の積算値の比と、上記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置されかつ上記検出方向に沿って並ぶ複数の上記第1の信号検出部からなる第2の信号検出部群、及び、上記第2の信号検出部群の各信号検出部に対して上記同一方向とは異なる方向に同一距離で配置された上記第2の信号検出部からなる信号検出部群の第2のペアから出力される上記第1の信号検出部の検出信号の積算値及び上記第2の信号検出部の検出信号の積算値の比とに基づいて、上記第1のペア及び上記第2のペアのそれぞれの各信号検出部の検出信号を用いて行われる上記第1の合焦制御の信頼度を判定するための信頼度判定値を上記情報として生成する情報生成ステップを備えるものである。
 本発明は、デジタルカメラ等に適用して利便性が高く、有効である。
1 撮像レンズ
2 絞り
5 固体撮像素子
11 システム制御部(合焦制御部、合焦制御決定部、制御部)
18 コントラストAF処理部
19 位相差AF処理部(情報生成部、信頼度判定値生成部)
50 受光面
51 画素
52,52A,52B 位相差検出用画素
53 AFエリア
P1,P2,P3,P4 画素ペア

Claims (13)

  1.  フォーカスレンズを含む撮像光学系を通して被写体を撮像する撮像素子を有する撮像装置であって、
     前記撮像素子は、前記撮像光学系の瞳領域の異なる部分を通過した一対の光束のうちの一方の光束に応じた信号を検出する第1の信号検出部と、前記一対の光束のうちの他方の光束に応じた信号を検出する第2の信号検出部とを含み、
     前記第1の信号検出部及び前記第2の信号検出部の検出信号に基づいて決められた合焦位置に前記フォーカスレンズを移動させる第1の合焦制御と、前記フォーカスレンズを予め決められた移動範囲で光軸方向に沿って任意距離ずつ移動させ、各移動位置で前記撮像素子によって撮像される撮像画像のコントラストに基づいて決められた合焦位置に前記フォーカスレンズを移動させる第2の合焦制御と、のいずれかを行う合焦制御部と、
     前記第1の合焦制御と前記第2の合焦制御のどちらを行うかを、前記第1の信号検出部及び前記第2の信号検出部の検出信号を用いて生成した情報によって決定する合焦制御決定部と、
     前記第2の合焦制御を行うことが決定された場合に、前記情報に応じて、前記移動範囲と前記移動範囲における前記任意距離のうち少なくとも前記任意距離を可変制御する制御部と、を備える撮像装置。
  2.  請求項1記載の撮像装置であって、
     前記第1の信号検出部及び前記第2の信号検出部による位相差の検出方向に沿って並ぶ複数の前記第1の信号検出部からなる第1の信号検出部群、及び、前記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置された前記第2の信号検出部からなる信号検出部群の第1のペアから出力される前記第1の信号検出部群の検出信号と前記第2の信号検出部群の検出信号の相関演算結果と、前記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置されかつ前記検出方向に沿って並ぶ複数の前記第1の信号検出部からなる第2の信号検出部群、及び、前記第2の信号検出部群の各信号検出部に対して前記同一方向とは異なる方向に同一距離で配置された前記第2の信号検出部からなる信号検出部群の第2のペアから出力される前記第1の信号検出部群の検出信号と前記第2の信号検出部群の検出信号の相関演算結果とに基づいて、前記相関演算結果の信頼度を判定するための信頼度判定値を前記情報として生成する情報生成部を備え、
     前記合焦制御決定部は、前記信頼度判定値の大きさによって、前記第1の合焦制御と前記第2の合焦制御のどちらを行うかを決定し、
     前記制御部は、前記第2の合焦制御を行うことが決定された場合に、前記信頼度判定値の大きさにより、前記第2の合焦制御を行うことが決定された要因を判定し、前記要因が被写体像の周波数によるものである場合に、前記要因が被写体像の周波数によるものでない場合と比較して前記任意距離を小さくする撮像装置。
  3.  請求項2記載の撮像装置であって、
     前記制御部は、前記要因が被写体像の周波数によるもの以外であり、前記信頼度判定値に基づく前記相関演算結果の信頼度が第一の閾値以上であり、かつ、前記相関演算結果としての位相差が第二の閾値以上の場合に、
     前記要因が被写体像の周波数によるもの以外であり、かつ、前記信頼度判定値に基づく前記相関演算結果の信頼度が第一の閾値未満である場合、又は、前記要因が被写体像の周波数によるもの以外であり、前記信頼度判定値に基づく前記相関演算結果の信頼度が第一の閾値以上であり、かつ、前記位相差が第二の閾値未満の場合、と比較して前記任意距離を大きくする撮像装置。
  4.  請求項2又は3記載の撮像装置であって、
     前記制御部は、前記要因が被写体像の周波数によるもの以外であり、かつ、前記信頼度判定値に基づく前記相関演算結果の信頼度が第一の閾値以上である場合に、前記移動範囲を前記フォーカスレンズの移動可能な最大範囲よりも狭くする撮像装置。
  5.  請求項2~4のいずれか1項記載の撮像装置であって、
     前記制御部は、前記要因が被写体像の周波数によるものである場合に、前記移動範囲を前記フォーカスレンズの移動可能な最大範囲よりも狭くする撮像装置。
  6.  請求項1記載の撮像装置であって、
     前記第1の信号検出部及び前記第2の信号検出部による位相差の検出方向に沿って並ぶ複数の前記第1の信号検出部からなる第1の信号検出部群、及び、前記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置された前記第2の信号検出部からなる信号検出部群の第1のペアから出力される前記第1の信号検出部の検出信号の積算値及び前記第2の信号検出部の検出信号の積算値の比と、前記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置されかつ前記検出方向に沿って並ぶ複数の前記第1の信号検出部からなる第2の信号検出部群、及び、前記第2の信号検出部群の各信号検出部に対して前記同一方向とは異なる方向に同一距離で配置された前記第2の信号検出部からなる信号検出部群の第2のペアから出力される前記第1の信号検出部の検出信号の積算値及び前記第2の信号検出部の検出信号の積算値の比とに基づいて、前記第1のペア及び前記第2のペアのそれぞれの各信号検出部の検出信号を用いて行われる前記第1の合焦制御の信頼度を判定するための信頼度判定値を前記情報として生成する情報生成部を備える撮像装置。
  7.  請求項6記載の撮像装置であって、
     前記合焦制御決定部は、前記信頼度判定値の大きさによって、前記第1の合焦制御と前記第2の合焦制御のどちらを行うかを決定し、
     前記制御部は、前記第2の合焦制御を行うことが決定された場合に、前記信頼度判定値の大きさにより、前記第2の合焦制御を行うことが決定された要因を判定し、前記要因が被写体像の周波数によるものである場合に、前記要因が被写体像の周波数によるものでない場合と比較して前記任意距離を小さくする撮像装置。
  8.  請求項6又は7記載の撮像装置であって、
     前記第2の合焦制御を行うことが決定された場合に、前記合焦制御部は、前記位相差の検出方向を主成分とする被写体に合焦させるための合焦位置決定の第1アルゴリズムと、前記位相差の検出方向に直交する方向を主成分とする被写体に合焦させるための合焦位置決定の第2アルゴリズムの実行優先度を、前記信頼度判定値の大きさに応じて決定する撮像装置。
  9.  請求項2~5のいずれか1項記載の撮像装置であって、
     前記第1の信号検出部及び前記第2の信号検出部による位相差の検出方向に沿って並ぶ複数の前記第1の信号検出部からなる第1の信号検出部群、及び、前記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置された前記第2の信号検出部からなる信号検出部群の第1のペアから出力される前記第1の信号検出部の検出信号の積算値及び前記第2の信号検出部の検出信号の積算値の比と、前記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置されかつ前記検出方向に沿って並ぶ複数の前記第1の信号検出部からなる第2の信号検出部群、及び、前記第2の信号検出部群の各信号検出部に対して前記同一方向とは異なる方向に同一距離で配置された前記第2の信号検出部からなる信号検出部群の第2のペアから出力される前記第1の信号検出部の検出信号の積算値及び前記第2の信号検出部の検出信号の積算値の比とに基づいて、前記第1のペア及び前記第2のペアのそれぞれの各信号検出部の検出信号を用いて行われる前記第1の合焦制御の信頼度を判定するための信頼度判定値を生成する信頼度判定値生成部を備え
     主要被写体に合焦し続ける動画撮像モードにおいて、前記合焦制御決定部は、前記第2の合焦制御が終了した後に、前記信頼度判定値生成部に前記信頼度判定値を生成させ、前記信頼度判定値に基づく前記第1の合焦制御の信頼度が閾値未満であれば、再び前記第2の合焦制御を行うことを決定する撮像装置。
  10.  請求項2~9のいずれか1項記載の撮像装置であって、
     前記撮像素子は、前記第1の信号検出部とその第1の信号検出部に対して前記検出方向に沿って交差する方向に配置された前記第2の信号検出部との信号検出部ペアを複数含み、
     前記複数の信号検出部ペアは、前記第1の信号検出部と前記第2の信号検出部との位置関係が互いに逆になる第1の信号検出部ペアと第2の信号検出部ペアを含み、
     前記撮像素子は、前記第1の信号検出部ペアと前記第2の信号検出部ペアが前記検出方向に交互に並ぶペアラインを複数有し、
     前記情報生成部は、任意の前記ペアラインに含まれる前記第1の信号検出部ペアを前記第1のペアとし、前記任意のペアラインに含まれる前記第2の信号検出部ペアを前記第2のペアとする、又は、前記任意のペアラインに含まれる信号検出部を前記検出方向に直交する方向での位置が同じ信号検出部からなる2つのグループに分けた状態での一方のグループを前記第1のペアとし、他方のグループを前記第2のペアとして、前記信頼度判定値を求める撮像装置。
  11.  フォーカスレンズを含む撮像光学系を通して被写体を撮像する撮像素子を有する撮像装置による合焦制御方法であって、
     前記撮像素子は、前記撮像光学系の瞳領域の異なる部分を通過した一対の光束のうちの一方の光束に応じた信号を検出する第1の信号検出部と、前記一対の光束のうちの他方の光束に応じた信号を検出する第2の信号検出部とを含み、
     前記第1の信号検出部及び前記第2の信号検出部の検出信号に基づいて決められた合焦位置に前記フォーカスレンズを移動させる第1の合焦制御と、前記フォーカスレンズを予め決められた移動範囲で光軸方向に沿って任意距離ずつ移動させ、各移動位置で前記撮像素子によって撮像される撮像画像のコントラストに基づいて決められた合焦位置に前記フォーカスレンズを移動させる第2の合焦制御と、のいずれかを行う合焦制御ステップと、
     前記第1の合焦制御と前記第2の合焦制御のどちらを行うかを、前記第1の信号検出部及び前記第2の信号検出部の検出信号を用いて生成した情報によって決定する合焦制御決定ステップと、
     前記第2の合焦制御を行うことが決定された場合に、前記情報に応じて、前記移動範囲と前記移動範囲における前記任意距離のうち少なくとも前記任意距離を可変制御する制御ステップと、を備える合焦制御方法。
  12.  請求項11記載の合焦制御方法であって、
     前記第1の信号検出部及び前記第2の信号検出部による位相差の検出方向に沿って並ぶ複数の前記第1の信号検出部からなる第1の信号検出部群、及び、前記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置された前記第2の信号検出部からなる信号検出部群の第1のペアから出力される前記第1の信号検出部群の検出信号と前記第2の信号検出部群の検出信号の相関演算結果と、前記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置されかつ前記検出方向に沿って並ぶ複数の前記第1の信号検出部からなる第2の信号検出部群、及び、前記第2の信号検出部群の各信号検出部に対して前記同一方向とは異なる方向に同一距離で配置された前記第2の信号検出部からなる信号検出部群の第2のペアから出力される前記第1の信号検出部群の検出信号と前記第2の信号検出部群の検出信号の相関演算結果とに基づいて、前記相関演算結果の信頼度を判定するための信頼度判定値を前記情報として生成する情報生成ステップを備え、
     前記合焦制御決定ステップでは、前記信頼度判定値の大きさによって、前記第1の合焦制御と前記第2の合焦制御のどちらを行うかを決定し、
     前記制御ステップでは、前記第2の合焦制御を行うことが決定された場合に、前記信頼度判定値の大きさにより、前記第2の合焦制御を行うことが決定された要因を判定し、前記要因が被写体像の周波数によるものである場合に、前記要因が被写体像の周波数によるものでない場合と比較して前記任意距離を小さくする合焦制御方法。
  13.  請求項11記載の合焦制御方法であって、
     前記第1の信号検出部及び前記第2の信号検出部による位相差の検出方向に沿って並ぶ複数の前記第1の信号検出部からなる第1の信号検出部群、及び、前記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置された前記第2の信号検出部からなる信号検出部群の第1のペアから出力される前記第1の信号検出部の検出信号の積算値及び前記第2の信号検出部の検出信号の積算値の比と、前記第1の信号検出部群の各信号検出部に対して同一方向に同一距離で配置されかつ前記検出方向に沿って並ぶ複数の前記第1の信号検出部からなる第2の信号検出部群、及び、前記第2の信号検出部群の各信号検出部に対して前記同一方向とは異なる方向に同一距離で配置された前記第2の信号検出部からなる信号検出部群の第2のペアから出力される前記第1の信号検出部の検出信号の積算値及び前記第2の信号検出部の検出信号の積算値の比とに基づいて、前記第1のペア及び前記第2のペアのそれぞれの各信号検出部の検出信号を用いて行われる前記第1の合焦制御の信頼度を判定するための信頼度判定値を前記情報として生成する情報生成ステップを備える合焦制御方法。
PCT/JP2014/066385 2013-09-05 2014-06-20 撮像装置及び合焦制御方法 WO2015033646A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201480043393.2A CN105452926B (zh) 2013-09-05 2014-06-20 摄像装置及对焦控制方法
JP2015535352A JP5934843B2 (ja) 2013-09-05 2014-06-20 撮像装置及び合焦制御方法
DE112014004092.4T DE112014004092B4 (de) 2013-09-05 2014-06-20 Bildaufnahmevorrichtung und Fokussiersteuerverfahren
US15/011,993 US9602717B2 (en) 2013-09-05 2016-02-01 Image capture device and focus control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013184167 2013-09-05
JP2013-184167 2013-09-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/011,993 Continuation US9602717B2 (en) 2013-09-05 2016-02-01 Image capture device and focus control method

Publications (1)

Publication Number Publication Date
WO2015033646A1 true WO2015033646A1 (ja) 2015-03-12

Family

ID=52628135

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/066385 WO2015033646A1 (ja) 2013-09-05 2014-06-20 撮像装置及び合焦制御方法

Country Status (5)

Country Link
US (1) US9602717B2 (ja)
JP (1) JP5934843B2 (ja)
CN (1) CN105452926B (ja)
DE (1) DE112014004092B4 (ja)
WO (1) WO2015033646A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6381434B2 (ja) * 2014-12-16 2018-08-29 キヤノン株式会社 フォーカス制御装置、光学機器およびフォーカス制御方法
WO2016203282A1 (en) * 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
US9930243B2 (en) * 2016-05-02 2018-03-27 Mitutoyo Corporation Variable focal length imaging system
CN108337424B (zh) * 2017-01-17 2021-04-16 中兴通讯股份有限公司 一种相位对焦方法及其装置
JP6836656B2 (ja) * 2017-09-20 2021-03-03 富士フイルム株式会社 撮像装置及び撮像装置の合焦制御方法
CN111133378B (zh) * 2017-09-28 2021-04-23 富士胶片株式会社 摄像装置、信息获取方法及记录介质
JP6696094B2 (ja) * 2018-09-27 2020-05-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体、制御方法、及びプログラム
JP2020201378A (ja) * 2019-06-10 2020-12-17 キヤノン株式会社 制御装置、撮像装置、制御方法、および、プログラム
CN111338051B (zh) * 2020-04-08 2021-09-28 中导光电设备股份有限公司 一种基于tft液晶面板自动对焦方法和系统
DE102022125838A1 (de) 2022-10-06 2024-04-11 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Bildsensor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09258090A (ja) * 1996-03-26 1997-10-03 Olympus Optical Co Ltd カメラの自動焦点調節装置
JP2000147369A (ja) * 1998-11-16 2000-05-26 Olympus Optical Co Ltd 焦点調節装置
JP2013037101A (ja) * 2011-08-05 2013-02-21 Nikon Corp 焦点検出装置および撮像装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4042710B2 (ja) * 2004-02-25 2008-02-06 カシオ計算機株式会社 オートフォーカス装置及びそのプログラム
JP2006084545A (ja) * 2004-09-14 2006-03-30 Canon Inc カメラ及び撮影レンズ及びカメラシステム
US8121470B2 (en) * 2006-07-25 2012-02-21 Canon Kabushiki Kaisha Focusing device, image pick-up apparatus, and control method
JP4349407B2 (ja) * 2006-11-17 2009-10-21 ソニー株式会社 撮像装置
JP5146295B2 (ja) * 2008-12-15 2013-02-20 ソニー株式会社 撮像装置および合焦制御方法
JP5709532B2 (ja) * 2011-01-05 2015-04-30 キヤノン株式会社 自動合焦装置及びそれを有するレンズ装置及び撮像システム
JP5776210B2 (ja) * 2011-02-17 2015-09-09 株式会社ニコン 焦点調節装置および撮像装置
JP2013061579A (ja) 2011-09-15 2013-04-04 Nikon Corp 焦点調節装置および撮像装置
JP5917207B2 (ja) * 2012-03-14 2016-05-11 キヤノン株式会社 焦点調節装置
JP2014016569A (ja) * 2012-07-11 2014-01-30 Canon Inc 撮像装置及びその制御方法
US9197809B2 (en) * 2013-05-01 2015-11-24 Canon Kabushiki Kaisha Image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09258090A (ja) * 1996-03-26 1997-10-03 Olympus Optical Co Ltd カメラの自動焦点調節装置
JP2000147369A (ja) * 1998-11-16 2000-05-26 Olympus Optical Co Ltd 焦点調節装置
JP2013037101A (ja) * 2011-08-05 2013-02-21 Nikon Corp 焦点検出装置および撮像装置

Also Published As

Publication number Publication date
CN105452926A (zh) 2016-03-30
DE112014004092B4 (de) 2022-08-11
DE112014004092T5 (de) 2016-05-19
US20160150153A1 (en) 2016-05-26
JPWO2015033646A1 (ja) 2017-03-02
US9602717B2 (en) 2017-03-21
CN105452926B (zh) 2018-06-22
JP5934843B2 (ja) 2016-06-15

Similar Documents

Publication Publication Date Title
JP6053652B2 (ja) 撮像装置及び合焦制御方法
JP5934843B2 (ja) 撮像装置及び合焦制御方法
JP5542249B2 (ja) 撮像素子及びこれを用いた撮像装置及び撮像方法
JP5775976B2 (ja) 撮像装置、デフォーカス量演算方法、及び撮像光学系
JP5872122B2 (ja) 撮像装置及び合焦制御方法
JP5948492B2 (ja) 撮像装置及び合焦制御方法
JP5861011B2 (ja) 撮像装置及び合焦制御方法
JP5799178B2 (ja) 撮像装置及び合焦制御方法
JP5982601B2 (ja) 撮像装置及び合焦制御方法
JP5779726B2 (ja) 撮像装置及び露出決定方法
JP5978411B2 (ja) 撮像装置及び合焦制御方法
JP6307526B2 (ja) 撮像装置及び合焦制御方法
JP6028112B2 (ja) 撮像装置及び合焦制御方法
WO2015141081A1 (ja) 撮像装置及び合焦制御方法
JP5990665B2 (ja) 撮像装置及び合焦制御方法
JP6186498B2 (ja) 撮像装置及び合焦制御方法
JP6171105B2 (ja) 撮像装置及び合焦制御方法
JP5978415B2 (ja) 撮像装置及び合焦制御方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480043393.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14842508

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015535352

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112014004092

Country of ref document: DE

Ref document number: 1120140040924

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14842508

Country of ref document: EP

Kind code of ref document: A1