WO2014073441A1 - 撮像装置およびその動作制御方法 - Google Patents

撮像装置およびその動作制御方法 Download PDF

Info

Publication number
WO2014073441A1
WO2014073441A1 PCT/JP2013/079496 JP2013079496W WO2014073441A1 WO 2014073441 A1 WO2014073441 A1 WO 2014073441A1 JP 2013079496 W JP2013079496 W JP 2013079496W WO 2014073441 A1 WO2014073441 A1 WO 2014073441A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation value
frequency component
focus
value data
low
Prior art date
Application number
PCT/JP2013/079496
Other languages
English (en)
French (fr)
Inventor
寿明 本木
田中 康一
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2014073441A1 publication Critical patent/WO2014073441A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/365Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals by analysis of the spatial frequency components of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Definitions

  • the present invention relates to an imaging apparatus and its operation control method.
  • the position of the peak value of the high frequency component of the image data obtained by imaging the subject for each movement position while moving the focus lens may be determined as the focus position.
  • various methods are used to prevent erroneous detection.
  • a device that enables focusing even when the subject is moving Patent Document 1
  • a device that performs auto-focusing at a high speed Patent Document 2
  • a subject that is dark Patent Document 3
  • those that reduce the in-focus Patent Document 3
  • those that determine the in-focus state even when the main subject is located at the closest end Patent Document 4
  • JP-A-6-141223 Japanese Unexamined Patent Publication No. 9-61705 JP2008-15494 JP 2004-246266 A JP 2010-193074
  • FIG. 19 shows the imaging range 72.
  • An AF area 71 is defined in the imaging range 72.
  • Data representing a high frequency component is obtained as an AF evaluation value from the image data representing the image portion of the subject image 73 included in the AF area 71.
  • an AF characteristic graph G shown in FIG. 20 is obtained.
  • An object of the present invention is to determine a focus position relatively accurately even when noise is present.
  • the image pickup apparatus outputs an image of a subject for each moving position of the focus lens while moving the focus lens in the optical axis direction and outputs image data representing the subject image.
  • image data representing the subject image.
  • the high-frequency component focus evaluation value data representing the focus evaluation value of the high-frequency component obtained based on the image data
  • the first high value obtained from the subject image portion in the first region of the imaging range.
  • the frequency component focusing evaluation value data and the second high frequency component focusing evaluation value data obtained from the subject image portion in the second area that includes the first area and is wider than the first area are extracted.
  • High-frequency component focus evaluation value data extraction means low-frequency component focus evaluation value data obtained based on image data output from the imaging device, and high-frequency component focus evaluation value data First low frequency component focusing evaluation value data obtained from a subject image portion in the first region, out of low frequency component focusing evaluation value data representing a focusing evaluation value of a relatively low frequency component, And low frequency component evaluation value data extraction means for extracting second low frequency component focus evaluation value data obtained from the subject image portion in the second region, and high frequency component focus evaluation value data extraction means.
  • the first high-frequency component focusing evaluation value data, the second high-frequency component focusing evaluation value data, and the first low-frequency component focusing evaluation value data extracted by the low-frequency component focusing evaluation value data extracting means It is included in the effective range of the focus lens determined based on the peak value of any one of the focus evaluation value data of the data and the second low frequency component focus evaluation value data Peak value of first high frequency component focusing evaluation value data, peak value of second high frequency component focusing evaluation value data, peak value of first low frequency component focusing evaluation value data, and second low frequency
  • a focus position determining unit is provided for determining the focus position of the focus lens based on the position of the peak value of the component focus evaluation value data.
  • the present invention also provides an operation control method suitable for the imaging apparatus. That is, in this method, the imaging device captures a subject at each focus lens movement position while moving the focus lens in the optical axis direction, outputs image data representing the subject image, and focuses on the high frequency component.
  • the imaging device captures a subject at each focus lens movement position while moving the focus lens in the optical axis direction, outputs image data representing the subject image, and focuses on the high frequency component.
  • the high-frequency component focusing evaluation value data representing the high-frequency component focusing evaluation value obtained by the evaluation value data extracting means based on the image data output from the imaging device the first of the imaging ranges The first high-frequency component focusing evaluation value data obtained from the subject image portion in the region, and the first image obtained from the subject image portion in the second region wider than the first region, including the first region.
  • the low-frequency component focusing evaluation value data extraction unit obtains low-frequency component focusing evaluation value data obtained based on the image data output from the imaging device.
  • the low-frequency component focus evaluation value data representing the focus evaluation value of the low-frequency component relatively than the high-frequency component focus evaluation value data is obtained from the subject image portion in the first region.
  • the first low-frequency component focusing evaluation value data and the second low-frequency component focusing evaluation value data obtained from the subject image portion in the second area are extracted, and the focusing position determining means The first high frequency component focus evaluation value data and the second high frequency component focus evaluation value data extracted by the focus evaluation value data extraction means, and the low frequency component focus evaluation value data extraction means.
  • the effective range of the focus lens determined based on the peak value of any one of the first low-frequency component focusing evaluation value data and the second low-frequency component focusing evaluation value data Included, the peak value of the first high-frequency component focusing evaluation value data, the peak value of the second high-frequency component focusing evaluation value data, and the peak value of the first low-frequency component focusing evaluation value data
  • the focus position of the focus lens is determined based on the position of the peak value of the second low-frequency component focus evaluation value data.
  • a subject is imaged for each moving position of the focus lens while the focus lens is moved in the optical axis direction, and image data representing the subject image is obtained.
  • the first region includes first high-frequency component focusing evaluation value data obtained from the subject image portion in the first region of the imaging range, and the first region.
  • the second high frequency component focusing evaluation value data obtained from the subject image portion in the wider second region is obtained.
  • the first low-frequency component focus evaluation obtained from the subject image portion in the first region.
  • Value data and second low-frequency component focusing evaluation value data obtained from the subject image portion in the second area are obtained.
  • the first high-frequency component focusing evaluation value data, the second high-frequency component focusing evaluation value data, the first low-frequency component focusing evaluation value data, and the second low-frequency component thus obtained.
  • the focus position of the focus lens is determined.
  • the focus position of the focus lens is determined using the low frequency component focus evaluation value data.
  • the low-frequency component focus evaluation value data is less susceptible to noise than the high-frequency component focus evaluation value data.
  • the second high frequency component focusing evaluation value data and the second low frequency component focusing evaluation value data obtained based on the second region wider than the first region are used.
  • the focus lens focus position is determined. Since these focus evaluation value data are obtained based on the second region wider than the first region, the first high-frequency component focus evaluation value data obtained based on the first region. And it is less susceptible to noise than the first low frequency component focusing evaluation value data. The determined in-focus position is relatively accurate.
  • the focus position determining means may focus the focus lens position of the peak value of the first high frequency component focus evaluation value data and the peak value of the first low frequency component focus evaluation value data within the effective range.
  • a first determination unit that determines whether or not the lens position matches is provided.
  • the focus position of the focus lens is changed to the focus lens position at the peak value of the first high-frequency component focus evaluation value data.
  • the focus is determined when it is determined by the first determination means that the in-focus position of the focus lens is determined to be coincident with each other. It is preferable to approach the focus lens position at the peak value of the second high-frequency component focus evaluation value data rather than the focus position of the lens.
  • the in-focus position determining means is a first point between the focus lens position of the peak value of the first high-frequency component focus evaluation value data and the focus lens position of the peak value of the second high-frequency component focus evaluation value data.
  • the focus lens position pair is included in the effective range, or the focus lens position of the peak value of the first low frequency component focus evaluation value data and the second low frequency component focus evaluation value data.
  • the in-focus position determining means determines the focus lens position of the peak value of the first low-frequency component focus evaluation value data and the peak value of the second low-frequency component focus evaluation value data when the subject has low luminance.
  • the focus position of the focus lens is determined so as to approach the focus lens position and the subject is not low-luminance, the focus lens position and the second focus position of the peak value of the first high-frequency component focus evaluation value data are determined.
  • the focus position of the focus lens may be determined so as to approach the focus lens position of the peak value of the high frequency component focus evaluation value data.
  • Amplifying means for amplifying the level of the image data output from the imaging device in accordance with the amplification factor may be further provided.
  • the focus position determination unit may determine the focus lens position of the peak value of the first low frequency component focus evaluation value data and the second When the focus lens focus position is determined so as to approach the focus lens position of the peak value of the low-frequency component focus evaluation value data, and the amplification factor of the amplification means is less than a predetermined amplification factor, the first high The focus lens focus position is determined so as to approach the focus lens position of the peak value of the frequency component focus evaluation value data and the peak value of the second high frequency component focus evaluation value data. Is.
  • the second area may be n areas having different sizes.
  • the high-frequency component focusing evaluation value data extraction unit is, for example, the first high-frequency obtained from the subject image portion in the first region of the imaging range in the high-frequency component focusing evaluation value data.
  • Focus evaluation value data is generated, and the low frequency component focus evaluation value data extracting means includes a first low frequency component focus evaluation value data obtained from a subject image portion in the first region of the low frequency component focus evaluation value data.
  • the frequency component focusing evaluation value data and n second low frequency component focusing evaluation value data obtained from the respective subject image portions in the n second regions are extracted, and the focus position is determined.
  • the means may be, for example, a first high frequency component. Focus evaluation value data, first low frequency component focus evaluation value data, n second high frequency component focus evaluation value data, and n second low frequency component focus evaluation value data, respectively.
  • a coincidence determining means is provided for determining whether or not the focus / lens position of the peak value coincides. Then, in response to the determination by the coincidence determining means, the focus lens is adjusted so as to be close to the focus lens position of the peak value of the focus evaluation value data obtained from the small area size. The focus position will be determined.
  • the focus position determination means includes a focus lens position of the peak value of the first high-frequency component focus evaluation value data and a focus lens of the peak value of the n second high-frequency component focus evaluation value data. There is a position where one of the focus lens positions does not match, or the focus lens position of the peak value of the first low frequency component focus evaluation value data and n low frequency component focus There may be provided a non-coincidence determining means for determining whether any one of the focus lens positions of the evaluation value data does not match the focus lens position of the peak value. In this case, the focus lens position will be determined so as to approach the matched focus lens position when it is determined by the mismatch determination means that the focus lens position does not match.
  • Color distribution detecting means for detecting the color distribution of the subject image portion existing in the first area, and a peripheral area for determining the second area so as to have a color distribution close to the color distribution detected by the color distribution detecting means
  • a determination means may be further provided.
  • the relationship between the imaging range and the AF area is shown.
  • the relationship between an imaging range, an AF area, and a subject image is shown.
  • the relationship between the AF evaluation value and the focus / lens position is shown.
  • the relationship between the AF evaluation value and the focus / lens position is shown.
  • the relationship between the AF evaluation value and the focus / lens position is shown.
  • the focus position of the focus lens is determined.
  • FIG. 1 shows the imaging range 3.
  • a relatively small first AF area 1 is defined approximately at the center of the imaging range 3 (effective pixel area of the imaging device).
  • a second AF area 2 including the first AF area 1 and wider than the first AF area 1 is also defined.
  • the second AF area 2 has a size of the imaging range 3 or less.
  • FIG. 2 shows the positional relationship between the first AF area 1 and the second AF area 2 defined in the imaging range 3 and the subject image OB.
  • both the first AF area 1 and the second AF area 2 are defined at the center of the imaging range 3. Needless to say, the first AF area 1 and the second AF area 2 do not necessarily have to be defined in the center of the imaging range 3.
  • the focus lens is moved by a predetermined distance in the optical axis direction, and a subject is imaged at each movement position, and image data representing the subject image is obtained.
  • image data representing the image portion of the subject image OB in the first AF area 1 From the image data representing the image portion of the subject image OB in the first AF area 1, the first high frequency component AF (focusing) evaluation value data representing the focus evaluation value of the high frequency component and the first high frequency First low frequency component AF evaluation value data representing a focus evaluation value of a low frequency component relatively to the component AF evaluation value data is obtained.
  • second high frequency component AF evaluation value data and second low frequency component AF evaluation value data are obtained from the image data representing the image portion of the subject image OB in the second AF area 2.
  • 3 and 4 show the relationship between the AF evaluation value and the focus lens position.
  • FIG. 3 shows a graph GH1 of the first high frequency component AF evaluation value data and a graph GH2 of the second high frequency component AF evaluation value data.
  • the AF evaluation value data is obtained for each movement position while the focus lens is moved in the optical axis direction. Since the first high frequency component AF evaluation value data is obtained based on the subject image portion in the first AF area 1 which is a relatively small area, it is easily affected by noise. For this reason, the change in the AF evaluation value represented by the graph GH1 is relatively severe. On the other hand, since the second high frequency component AF evaluation value data is obtained based on the subject image portion in the second AF area 2 wider than the first AF area 1, the influence of noise. It is hard to receive. For this reason, the change in the AF evaluation value represented by the graph GH2 is relatively gradual.
  • the focus lens position that gives the peak value of the graph GH1 of the first high-frequency component AF evaluation value data is the position PH1
  • the peak value of the graph GH2 of the second high-frequency component AF evaluation value data is The focus lens position to be given is a position PH2.
  • FIG. 4 shows a graph GL1 of the first low frequency component AF evaluation value data and a graph GL2 of the second low frequency component AF evaluation value data.
  • both the first low-frequency component AF evaluation value data and the second low-frequency component AF evaluation value data are low-frequency components, they are not easily affected by noise. For this reason, the graphs GL1 and GL2 are smooth.
  • the first low-frequency component AF evaluation value data is obtained based on the subject image portion in the first AF area 1 having a relatively small size
  • the second low-frequency component AF evaluation value data is obtained. Since the evaluation value data is obtained based on the subject image portion in the second AF area 2 having a relatively small size, the second low-frequency component than the first low-frequency component AF evaluation value data.
  • the AF evaluation value data is less susceptible to noise.
  • the focus lens position that gives the peak value of the graph GL1 of the first low-frequency component AF evaluation value data is the position PL1
  • the focus lens position that gives the peak value of the graph GL2 of the second high-frequency component AF evaluation value data Is the position PL2.
  • the peak of the graph GH1 of the first high-frequency component AF evaluation value data or the graph GL1 of the first low-frequency component AF evaluation value data obtained based on the subject image portion in the first AF area 1 is obtained.
  • the effective range is determined based on the focus lens position. Depending on whether the focus lens position giving the peak value of the graph GH2 of the second high frequency component AF evaluation value data or the graph GL2 of the second low frequency component AF evaluation value data is included in the effective range. Thus, the focus position of the focus lens is determined.
  • FIG. 5 shows a graph G1 of AF evaluation value data obtained based on the subject image portion in the first AF area 1 (first high frequency component AF evaluation value data graph GH1 or first low frequency component AF evaluation).
  • Value data graph GL1) and AF evaluation value data graph obtained based on the subject image portion in the second AF area 2 (second high frequency component AF evaluation value data graph GH2 or second low frequency component) 2 shows a graph GL2) of AF evaluation value data.
  • the horizontal axis represents the focus lens position, and the vertical axis represents the AF evaluation value.
  • the focus lens is moved to positions P11, P12, P13, P14, P15, P16, and the like, and AF evaluation values are obtained at the respective positions. G2 is obtained.
  • AF evaluation value data graph G1 obtained based on the subject image portion in the first AF area 1 (or AF evaluation value data graph G2 obtained based on the subject image portion in the second AF area 2)
  • the focus lens position P14 giving the peak value is found.
  • the focus lens positions before and after the position P14 are defined as the effective range.
  • a graph G2 of AF evaluation value data obtained based on the subject image portion in the second AF area 2 (or an AF evaluation value obtained based on the subject image portion in the first AF area 1). It is confirmed whether or not there is a portion (peak value) where the data graph G1) changes from ascending to descending.
  • the peak value of the AF evaluation value data graph G1 may be a pseudo peak value due to noise. If there is such a portion, the focus lens position of the peak value of the AF evaluation value data graph G1 and the focus value of the peak value in the portion where the graph G2 of the AF evaluation value data changes from the rising to the falling state. It is also determined whether the lens position matches. Considering such a judgment comprehensively, the focus position of the focus lens is determined.
  • the position P14 of the focus lens 12 corresponding to the peak value of the AF evaluation value data graph G1 and the position of the focus lens 12 corresponding to the peak value of the AF evaluation value data graph G2 are completely identical.
  • the position of the focus lens 12 that gives the peak value of the AF evaluation value data graph G2 is included within the depth of focus of the focus lens 12 that includes the position P14 corresponding to the peak value of the AF evaluation value data graph G1. If so, the positions of the focus lenses 12 are considered to coincide.
  • FIG. 6 is a block diagram showing the electrical configuration of the digital camera.
  • the overall operation of the digital camera is controlled by the CPU 15.
  • the digital camera is provided with an operation device 21 including a mode setting switch such as an imaging mode and a reproduction mode, a power button, a shutter release button, and the like.
  • An operation signal output from the operation device 21 is input to the CPU 15.
  • the digital camera is provided with a light emitting device 16 and a light receiving device 17 such as a strobe.
  • the light receiving device 17 receives reflected light generated when the light emitted from the light emitting device 16 is reflected by the subject.
  • a zoom lens 10, an aperture 11, a focus lens 12, and an optical low pass filter 13 having an optical axis common to the optical axis of the image sensor 14 are provided in front of the image sensor 14 such as a CCD or C-MOS. It has been.
  • the lens positions of the zoom lens 10 and the focus lens 12 are controlled by a lens driving device 18.
  • a diaphragm amount of the diaphragm 11 is controlled by a diaphragm driving device 19.
  • the image sensor 14 is controlled by the image sensor driving device 20.
  • the through image mode is set, and the subject is continuously imaged by the imaging element 14 at a constant period.
  • the image sensor 14 outputs a frame video signal representing a subject image at a constant period.
  • the video signal output from the image sensor 14 is input to the analog signal processing circuit 22, and predetermined analog signal processing such as white balance adjustment is performed in the analog signal processing circuit 22.
  • the video signal output from the analog signal processing circuit 22 is converted into digital image data by the analog / digital conversion circuit 23.
  • the digital image data is given to the main memory 24 under the control of the memory control circuit 25 and temporarily stored.
  • Digital image data is read from the main memory 24 and input to the digital signal processing circuit 26.
  • the digital signal processing circuit 26 includes an AF evaluation value generation circuit 26A and an image processing circuit 26B.
  • the digital image data input to the digital signal processing circuit 26 is input to the AF evaluation value generation circuit 26A.
  • the AF evaluation value generation circuit 26A incorporates a digital filter, a gate circuit, and the like.
  • image data representing subject image portions in the first AF area 1 and the second AF area 2 is stored. Among them, high frequency components and low frequency components are extracted. Thereby, as described above, the first high-frequency component AF evaluation value data, the second high-frequency component AF evaluation value data, the first low-frequency component AF evaluation value data, and the second low-frequency component AF evaluation value Data is obtained from the AF evaluation value generation circuit 26A.
  • the subject is repeatedly imaged while the focus lens 12 is moved by a predetermined distance by the lens driving device 18, whereby first high-frequency component AF evaluation value data for each moving position of the focus lens 12, second High-frequency component AF evaluation value data, first low-frequency component AF evaluation value data, and second low-frequency component AF evaluation value data are obtained.
  • first high-frequency component AF evaluation value data for each moving position of the focus lens 12 second High-frequency component AF evaluation value data, first low-frequency component AF evaluation value data, and second low-frequency component AF evaluation value data are obtained.
  • the graphs GH1 and GH2 of the high frequency component AF evaluation value data shown in FIG. 3 and the graphs GL1 and GL2 of the low frequency component AF evaluation value data shown in FIG. 4 are obtained.
  • the focus lens 12 is positioned at the in-focus position. Details of the positioning process of the focus lens 12 will be described later.
  • the digital image data read from the main memory 24 is also input to the integrating circuit 28.
  • luminance data of the digital image data is generated, and the luminance data is integrated.
  • Data representing the integrated value is input to the CPU 15, and the aperture amount of the aperture 11 is controlled by the aperture drive circuit 19.
  • the digital image data read from the main memory 24 is also input to the image processing circuit 26B included in the digital signal processing circuit 26.
  • image processing circuit 26B predetermined digital processing such as gamma correction is performed.
  • the digital image data output from the digital signal processing circuit 26 is given to the display device 31 under the control of the display control device 32.
  • the captured subject image is displayed as a moving image on the display screen of the display device 31.
  • the digital image data output from the digital signal processing circuit 26 is input to the compression / expansion processing circuit 27 as described above.
  • the compression / decompression processing circuit 27 the digital image data is compressed.
  • the compressed digital image data is recorded on a recording medium 29 such as a memory card under the control of the external memory control device 30.
  • the digital image data recorded on the recording medium 29 is read out and input to the compression / expansion processing circuit 27.
  • the compressed digital image data is expanded.
  • the expanded digital image data is given to the display device 31 under the control of the display control device 32.
  • the subject image represented by the digital image data recorded on the recording medium 29 is displayed on the display screen of the display device 31.
  • FIG. 7 to 9 are flowcharts showing the processing procedure of the digital camera. This flowchart shows a processing procedure for determining the focus position of the focus lens 12.
  • the live view mode is set (step 41), and the focus lens 12 is moved to the home position (step 42).
  • the focus lens 12 is moved a predetermined distance (step 43), and the subject is imaged to obtain frame image data (digital image data).
  • the first AF area 1 and the second AF area are set in the gate circuit included in the AF evaluation value generation circuit 26A (step 45).
  • First high-frequency component AF evaluation value data and first low-frequency component AF evaluation value data are extracted from the image data representing the subject image in the first AF area 1 passing through the gate circuit by a digital filter
  • the gate Second high frequency component AF evaluation value data and second low frequency component AF evaluation value data are extracted from the image data representing the subject image in the second AF area 2 passing through the circuit (step 46).
  • Step 43 If no peak value equal to or greater than a predetermined threshold value is detected in the obtained AF evaluation value data (NO in step 47), the focus lens 12 is moved by a predetermined distance (step 43), and again. Steps 43 to 46 are repeated. Thereby, as described above, the graph GH1 of the first high frequency component AF evaluation value data and the graph GH2 of the second high frequency component AF evaluation value data as shown in FIG. 3 and the first high frequency component AF evaluation value data as shown in FIG. Thus, a low-frequency component AF evaluation value data graph GL1 and a second low-frequency component AF evaluation value data graph GL2 are obtained.
  • step 47 when the peak value of the first high-frequency component AF evaluation value data (or other predetermined AF evaluation value data) is equal to or greater than a threshold value (step 47). YES), the position PH1 of the focus lens 12 (see FIG. 3) at the peak value of the first high-frequency component AF evaluation value data obtained based on the subject image portion in the first AF area 1 and the first It is confirmed whether or not the position PL1 (see FIG. 4) of the focus lens 12 at the peak value of the low frequency component AF evaluation value data coincides (step 48) (first determination process). As described with reference to FIG.
  • the position PH1 of the focus lens 12 at the peak value of the first high frequency component AF evaluation value data and the focus lens at the peak value of the first low frequency component AF evaluation value data The position PH1 of the focus lens 12 at the peak value of the first high-frequency component AF evaluation value data and the peak value of the first low-frequency component AF evaluation value data as well as the case where the position PL1 of 12 completely coincides. Also, when the position PL1 of the focus lens 12 is within the focal depth of the focus lens 12, these positions are considered to coincide with each other.
  • step 48 If they match (YES in step 48), the flag FA is set (step 49). If they do not match (NO in step 48), the flag FB is set (step 50). The focus lens 12 is positioned using these flags FA or FB.
  • the peak of the second high frequency component AF evaluation value data is within the effective range of n positions before and after the position of the focus lens 12 of the peak value of the first high frequency component AF evaluation value data.
  • a focus lens position detection process is performed to determine whether there is a position of the focus lens 12 that provides a value or a position of the focus lens 12 that provides a peak value of the AF evaluation value data of the second low-frequency component (step 51). ). As described with reference to FIG. 5, if the graph G of FIG. 5 is the graph GH1 of the first high frequency component AF evaluation value data, the peak value of the first high frequency component AF evaluation value data is given.
  • the peak value of the second high-frequency component AF evaluation value data or the second low-frequency is within n effective ranges (for example, two in the front and rear in FIG. 5) starting from the position P14 of the focus lens 12.
  • Focus lens position detection processing is performed to determine whether or not there is a position of the focus lens 12 that gives a peak value of the AF evaluation value data of the component (a point at which the AF evaluation value data changes from ascending to descending).
  • the position of the focus lens 12 at the peak value of the first low-frequency component AF evaluation value data is used as the starting point, not the position of the focus lens 12 at the peak value of the first high-frequency component AF evaluation value data.
  • n positions before and after there is a position of the focus lens 12 that gives the peak value of the second high frequency component AF evaluation value data or the peak value of the AF evaluation value data of the second low frequency component. Whether or not the position of the focus lens 12 is detected may be performed.
  • the shape near the peak value of the first low frequency component AF evaluation value data (or first high frequency component AF evaluation value data) graph obtained based on the first AF area 1 and the second AF area 2 It is determined whether or not there is a correlation with the shape in the vicinity of the peak value of the graph of the second low-frequency component AF evaluation value data (or second high-frequency component AF evaluation value data) obtained based on the step (step). 52) (Second determination process). As described with reference to FIG. 5, based on the second AF area 2 within the effective range determined from the peak value of the AF evaluation value data graph obtained based on the first AF area 1. If there is a position of the focus lens 12 that gives the peak value of the graph of the AF evaluation value data obtained, it is determined that there is a correlation.
  • step 52 If there is a correlation (YES in step 52), the flag FC is set. If there is no correlation (NO in step 52), the flag FD is set (step 54).
  • the set flag is referred to, the weighting coefficient is determined based on the coefficient correspondence table (see FIG. 10), and the in-focus position P is determined by the weighted average (step 55). The determination of the in-focus position will be described later.
  • the focus lens 12 is moved to that position (step 56).
  • the focus position P is determined based on Equation 1.
  • P ⁇ ⁇ PH1 + ⁇ PH2 + ⁇ PL1 + ⁇ PL2 Equation 1
  • PH1 is the position of the focus lens 12 that gives the peak value of the first high-frequency component AF evaluation value data
  • PH2 is the position of the focus lens 12 that gives the peak value of the second high-frequency component AF evaluation value data
  • PL1 is The position of the focus lens 12 that provides the peak value of the first low-frequency component AF evaluation value data
  • PL2 is the position of the focus lens 12 that provides the peak value of the second low-frequency component AF evaluation value data.
  • the distances from the home position to PH1, PH2, PL1, and PL2 are multiplied by coefficients ⁇ , ⁇ , ⁇ , and ⁇ corresponding to the distances.
  • the position of the in-focus position P is obtained by adding the above.
  • the focus position P is determined so as to be close to a position where each coefficient is large among the positions of PH1, PH2, PL1 or PL2.
  • Fig. 10 shows an example of the coefficient correspondence table.
  • the coefficient correspondence table stores coefficients ⁇ , ⁇ , ⁇ , and ⁇ corresponding to the flags.
  • the coefficient ⁇ is 0.7, and the coefficients ⁇ , ⁇ , and ⁇ are all 0.1.
  • the position of the peak value of the first high-frequency component AF evaluation value data matches the position of the peak value of the first low-frequency component AF evaluation value data.
  • 1 high frequency component AF evaluation value data is considered to be not affected by noise (the first high frequency component AF evaluation value data is susceptible to noise, but the first low frequency component AF evaluation value data Is less susceptible to noise, the peak value position of the first high-frequency component AF evaluation value data matches the peak value position of the first low-frequency component AF evaluation value data. It is considered that the high frequency component AF evaluation value data of 1 is not affected by noise.
  • the peak value of the first high-frequency component AF evaluation value data can be determined with a relatively high accuracy because it tends to be a sharp shape.
  • the value of the coefficient ⁇ is larger than the other coefficients so as to approach the position PH1.
  • the coefficient ⁇ is 0.6, the coefficient ⁇ is 0, the coefficient ⁇ is 0.4, and the coefficient ⁇ is 0. Even if the flag FA is set, if the flag FD is set, the position of the peak value of the first low frequency component AF evaluation value and the peak of the second low frequency component AF evaluation value are within the effective range. There may be noise because the position of the value will be included.
  • the value of the coefficient ⁇ approaches the value of the coefficient ⁇ so as to approach the position PL1 of the peak value of the first low-frequency component AF evaluation value data that is not easily affected by noise.
  • the coefficient ⁇ is 0.5, the coefficient ⁇ is 0.4, the coefficient ⁇ and the coefficient ⁇ are 0.
  • the position of the peak value of the first high frequency component AF evaluation value data and the position of the peak value of the first low frequency component AF evaluation value data are inconsistent.
  • the frequency component AF evaluation value data is considered to be affected by noise. Since the reliability of the position PH2 of the peak value of the second high frequency component AF evaluation value data that is not easily affected by noise increases, the coefficient is determined so as to approach the position PH2.
  • the second low-frequency component obtained based on the graph shape near the peak value of the first low-frequency component AF evaluation value data obtained based on the first AF area 1 and the second AF area 2 is obtained.
  • the peak value of the first high frequency component AF evaluation value data is not used without using the peak value of the AF evaluation value data.
  • the focus position is determined using the position PH1 and the position PH2 of the peak value of the second high frequency component AF evaluation value data. For example, the first position of the focus lens 12 at the peak value of the first high frequency component focus evaluation value data and the position of the focus lens 12 at the peak value of the second high frequency component focus evaluation value data.
  • the set of the position of the focus lens 12 is included in the effective range, or the focus lens 12 position and the second low frequency component focusing evaluation of the peak value of the first low frequency component focusing evaluation value data
  • the focus lens 12 determined not to be included
  • the focus position of the focus lens 12 is determined using the focus evaluation value data excluding the focus evaluation value data having the peak value of the position of the focus lens 12 constituting the set of positions.
  • the focus lens 12 is positioned at the previously determined focus position without determining the focus position from the position of the focus lens 12 having the obtained peak value. This is because the reliability of the position of the focus lens 12 of the obtained peak value is low.
  • FIG. 11 is a flowchart showing a part of the processing for detecting the focus position of the focus lens 12 described above.
  • the processing procedure in FIG. 11 corresponds to the processing procedure in FIG. In the process shown in FIG. 11, the same processes as those shown in FIG.
  • the AF evaluation value data (first high-frequency component AF evaluation value data or first low-frequency component AF evaluation value data) obtained based on the first AF area 1 is near the peak value.
  • the graph shape and the graph shape in the vicinity of the peak value of the AF evaluation value data (second high frequency component AF evaluation value data or second low frequency component AF evaluation value data) obtained based on the second AF area 2 A flag FC or FD is set in accordance with the presence or absence of correlation between them, and the focus position of the focus lens 12 is determined based on these flags.
  • the process from step 43 in FIG. 7 is repeated without performing the focus position detection process. .
  • a coefficient is obtained based on the already set flag and subject brightness, and the in-focus position is determined (step 55).
  • Fig. 12 shows an example of the coefficient correspondence table.
  • the coefficient ⁇ is 0.7 and the coefficients ⁇ , ⁇ , and ⁇ are 0.1 regardless of the subject brightness.
  • the focus position of the focus lens 12 is in the vicinity of the position PH1 of the focus lens 12 of the peak value of the first high frequency component AF evaluation value data.
  • the reliability of setting the position of the peak value of the first high-frequency component AF evaluation value data as the in-focus position of the focus lens 12 is not so high, but the subject brightness is high.
  • the coefficient ⁇ is 0.5
  • the coefficient ⁇ is 0.3
  • the coefficients ⁇ and ⁇ are 0.1.
  • the focus position of the focus lens 12 is in the vicinity of the peak value position PH1 of the first high frequency component AF evaluation value data and the peak value position PH2 of the second high frequency component AF evaluation value data.
  • the AF evaluation value data of the high frequency component is easily affected by noise, so the position PL1 of the peak value of the first low frequency component AF evaluation value data
  • the coefficients ⁇ and ⁇ are 0.1, the coefficient ⁇ is 0.5, and the coefficient ⁇ is 0.3 so that they are close to the position PL2 of the peak value of the second low frequency component AF evaluation value data.
  • the focus position is determined so as to approach the peak value position of the AF evaluation value data of the high frequency component, and when the subject brightness is low brightness, the focus position is low.
  • the in-focus position is determined so as to approach the position of the peak value of the frequency component AF evaluation value data.
  • the subject brightness is calculated from image data obtained by imaging before the process of determining the in-focus position.
  • FIG. 13 shows another embodiment and is a flowchart showing a part of the focus position determination processing procedure.
  • FIG. 13 corresponds to the processing procedure shown in FIG. 8, and the same reference numerals are assigned to the same processing.
  • Step 48 When the flag FA or FB is set according to the result (Steps 49 and 50), it is determined whether or not the subject has low luminance (Step 60).
  • focus / lens position detection processing is performed to determine whether or not the position of the focus lens 12 giving the peak value is included in the effective range. (Step 51), the flag FC or FD is set according to the result. If the subject has medium or high luminance (NO in step 60), it is considered that the influence of noise is small, so the focus / lens position detection processing in step 51 is not performed in order to streamline the focus position detection processing. The in-focus position is determined (step 55).
  • the focus position is determined using the coefficient correspondence table shown in FIG. 10, and when the subject has medium luminance or high luminance, the coefficient correspondence shown in FIG. A focusing position is determined using the table.
  • FIG. 14 shows still another embodiment, and is a flowchart showing a part of the focus position detection processing procedure.
  • the processing procedure shown in FIG. 14 corresponds to the processing procedure shown in FIG.
  • step 61 it is determined whether or not the subject brightness is low. When the brightness is low, focus / lens position detection processing is performed. When the brightness is medium or high, the focus / lens position detection processing is skipped. Has been. On the other hand, in the process shown in FIG. 14, it is determined whether or not the gain of the gain circuit in the digital signal processing circuit 26 is equal to or greater than a predetermined value (step 61).
  • the subject brightness is determined to be low, focus / lens position detection processing is performed, and if the gain is less than the predetermined value (NO in step 61), the subject The brightness is determined to be medium brightness or high brightness, and the focus / lens position detection process is skipped in the same manner as the process shown in FIG.
  • FIG. 15 shows another embodiment, and shows an imaging range 3.
  • the first AF area 1 and the second AF area 2 are set in the imaging range 3 as shown in FIG.
  • a third AF area 4 is set in addition to the first AF area 1 and the second AF area 2, in addition to the first AF area 1 and the second AF area 2, a third AF area 4 is set.
  • the third AF area 4 includes the first AF area 1 and the second AF area 2 and is larger than the second AF area 2.
  • the image data representing the subject image portion in each of the areas 1, 2 and 4 is the same as described above.
  • high frequency component AF evaluation value data and low frequency component AF evaluation value data are obtained.
  • FIG. 16 is a flowchart showing a part of the processing for detecting the focus position of the focus lens 12 described above.
  • the processing procedure of FIG. 16 corresponds to the processing procedure of FIG. 9 or FIG.
  • step 71 If the determinations in step 71 match (YES in step 71), the peak of the first low-frequency component AF evaluation value data (or first high-frequency component AF evaluation value data) obtained based on the first AF area 1 The focus of the peak value of the third low-frequency component AF evaluation value data (or the third high-frequency component AF evaluation value data) obtained based on the position of the focus lens 12 and the third AF area 4 It is determined whether the position of the lens 12 matches (step 72). If the determinations in step 72 match (YES in step 72), flag FE is set (step 74). If the determination in step 72 is inconsistent (NO in step 72), the flag FF is set (step 75).
  • step 71 Even when the determination in step 71 does not match (NO in step 71), the first low-frequency component AF evaluation value data (or the first high-frequency component AF evaluation value data) obtained based on the first AF area 1
  • the peak value of the focus value of the focus lens 12 and the third low frequency component AF evaluation value data (or third high frequency component AF evaluation value data) obtained based on the third AF area 4 It is determined whether or not the position of the focus lens 12 matches (step 73). If the determinations in step 73 match (YES in step 73), flag FG is set (step 76). If the determination in step 73 is inconsistent (NO in step 73), flag FH is set (step 77).
  • FIG. 17 is an example of a coefficient correspondence table for determining the coefficients ⁇ , ⁇ , ⁇ , ⁇ , ⁇ , and ⁇ used in Equation 2.
  • the first high-frequency component AF evaluation value data, the first low-frequency component AF evaluation value data, and the second low-frequency component AF evaluation value data (Or second high-frequency component AF evaluation value data) and third low-frequency component AF evaluation value data (or third high-frequency component AF evaluation value data). It shows that all the positions match.
  • the positions of the focus lens 12 that give the peak values of the first high frequency component AF evaluation value data and the first low frequency component AF evaluation value data match. Therefore, the reliability is high when the position of the focus lens 12 that gives the peak value of the first high-frequency component AF evaluation value data is the in-focus position.
  • the first low-frequency component AF evaluation value data (or the first high-frequency component AF evaluation value data) and the second low-frequency component AF evaluation value data (or the second low-frequency component AF evaluation value data) Since the positions of the focus lens 12 giving the respective peak values match the first high-frequency component AF evaluation value data and the second high-frequency component AF evaluation value data) The position of the focus lens 12 that gives the respective peak values to the AF evaluation value data matches, and the position is highly reliable as the in-focus position.
  • the coefficient ⁇ of the position PH1 of the focus lens 12 of the peak value of the first high frequency component AF evaluation value data and the position PH2 of the focus lens 12 of the peak value of the second high frequency component AF evaluation value data are obtained.
  • the in-focus position P is determined based on the coefficient ⁇ .
  • the coefficients ⁇ and ⁇ are determined according to the area ratio between the first AF area 1 and the second AF area 2. As the area of the second AF area 2 is larger than the area of the first AF area 1, the coefficient ⁇ is made larger than the coefficient ⁇ .
  • the positions of the focus lens 12 that give the peak values of the first low frequency component AF evaluation value data and the second low frequency component AF evaluation value data match.
  • the position of the focus lens 12 that gives the peak values of the first low-frequency component AF evaluation value data and the third low-frequency component AF evaluation value data coincides with each other, It is thought that there is a possibility that has occurred.
  • the coefficients ⁇ and ⁇ are determined in accordance with the area ratio between the first AF area 1 and the third AF area 4. As the area of the third AF area 4 is larger than the area of the first AF area 1, the coefficient ⁇ is made larger than the coefficient ⁇ .
  • the position of the focus lens 12 that gives the peak values of the first high-frequency component AF evaluation value data and the first low-frequency component AF evaluation value data does not match.
  • the reliability of the position of the focus lens 12 that gives the peak value of the first high-frequency component AF evaluation value data being the in-focus position is low. For this reason, when the flag FB is set, the coefficient ⁇ is larger even when the flag FE is set than when the flag FA is set.
  • the area ratio between the first AF area 1 and the second AF area 2 is set.
  • the coefficients ⁇ and ⁇ are determined.
  • a coefficient corresponding to the area ratio between the first AF area 1 and the third AF area 4 is set as in the case where the flag FA and the flag FG are set. ⁇ and ⁇ are determined.
  • the in-focus position is determined based on the obtained position. Even if it is decided, the reliability is low. For this reason, the focus position determined last time is used without determining the focus position.
  • FIG. 18 shows another embodiment and shows a subject image OB included in the imaging range 3.
  • a relatively small first AF area 1 is defined substantially at the center of the imaging range 3, includes the first AF area 1, and is larger than the first AF area 1.
  • a second AF area 2A is defined.
  • the second AF area 2A is defined so as to have color information close to the color information contained in the first AF area 1 in large quantities.
  • both the first AF area 1 and the second AF area 2A are defined to be parallel to the imaging range 3, but many colors are included in the first AF area 1.
  • the second AF area 2 ⁇ / b> A may be inclined with respect to the imaging range 3 as long as it has color information close to the information.
  • the first AF area 1 may also be inclined with respect to the imaging range 3.
  • the digital camera has been described as the embodiment of the photographing apparatus according to the embodiment of the present invention.
  • an imaging device for example, a built-in or external PC camera, or a portable terminal device having an imaging function as described below can be used.
  • Examples of the portable terminal device that is an embodiment of the photographing apparatus according to the present invention include a mobile phone, a smartphone, a PDA (Personal Digital Assistant), and a portable game machine.
  • a smartphone will be described as an example, and will be described in detail with reference to the drawings.
  • FIG. 21 shows an appearance of a smartphone 81 which is an embodiment of the photographing apparatus of the present invention.
  • a smartphone 81 shown in FIG. 21 has a flat housing 82, and a display input in which a display panel 91 as a display unit and an operation panel 92 as an input unit are integrated on one surface of the housing 82. Part 90 is provided.
  • the casing 82 includes a microphone 102, a speaker 101, an operation unit 120, and a camera unit 121.
  • the configuration of the housing 82 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent may be employed, or a configuration having a folding structure or a slide mechanism may be employed.
  • FIG. 22 is a block diagram showing an electrical configuration of the smartphone 81 shown in FIG.
  • the main components of the smart phone 81 include a wireless communication unit 205, a display input unit 90, a call unit 100, an operation unit 120, a camera unit 121, a storage unit 130, and an external input / output.
  • Unit 140 GPS (Global Positioning System) receiving unit 150, motion sensor unit 160, power supply unit 170, and main control unit 180.
  • a wireless communication function for performing mobile wireless communication via the base station apparatus BS and the mobile communication network NW is provided as a main function of the smartphone 81.
  • the radio communication unit 105 performs radio communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 180. Using such wireless communication, transmission / reception of various file data such as voice data and image data, e-mail data, and reception of Web data, streaming data, and the like are performed.
  • the display input unit 90 displays images (still images and moving images), character information, etc., visually transmits information to the user, and detects user operations on the displayed information.
  • a so-called touch panel which includes a display panel 91 and an operation panel 92.
  • the display panel 91 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • the operation panel 92 is a device that is placed so that an image displayed on the display surface of the display panel 91 is visible and detects one or more coordinates operated by a user's finger or stylus.
  • a detection signal generated due to the operation is output to the main control unit 180.
  • the main control unit 180 detects the operation position (coordinates) on the display panel 91 based on the received detection signal.
  • the display panel 91 and the operation panel 92 of the smartphone 81 exemplified as an embodiment of the photographing apparatus of the present invention integrally constitute a display input unit 90.
  • the arrangement 92 covers the display panel 91 completely.
  • the operation panel 92 may have a function of detecting a user operation even in an area outside the display panel 91.
  • the operation panel 92 has a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 91 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 91. May be included).
  • the operation panel 92 may include two sensitive areas of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 82 and the like. Furthermore, as the position detection method adopted in the operation panel 92, there are a matrix switch method, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, etc., and any method is adopted. You can also
  • the call unit 100 includes a speaker 101 and a microphone 102, converts user's voice input through the microphone 102 into voice data that can be processed by the main control unit 180, and outputs the voice data to the main control unit 180, or a wireless communication unit. 105 or the audio data received by the external input / output unit 140 is decoded and output from the speaker 101.
  • the speaker 101 can be mounted on the same surface as the surface on which the display input unit 90 is provided, and the microphone 102 can be mounted on the side surface of the housing 82.
  • the operation unit 120 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 120 is mounted on the side surface of the housing 82 of the smartphone 81 and turns on when pressed with a finger or the like, and turns off when the finger is released with a restoring force such as a spring. It is a push button type switch.
  • the storage unit 130 includes control programs and control data of the main control unit 180, application software, address data that associates names and telephone numbers of communication partners, transmitted and received e-mail data, and Web data downloaded through Web browsing In addition, the downloaded content data is stored, and streaming data is temporarily stored.
  • the storage unit 130 includes an internal storage unit 131 built in the smartphone and an external storage unit 132 having a removable external memory slot.
  • Each of the internal storage unit 131 and the external storage unit 132 constituting the storage unit 130 includes a flash memory type (flash memory type), a hard disk type (hard disk type), a multimedia card micro type ( It is realized by using a storage medium such as a multimedia card (micro type), a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory) or the like.
  • a multimedia card micro type
  • a card type memory for example, MicroSD (registered trademark) memory
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the external input / output unit 140 serves as an interface with all external devices connected to the smartphone 81, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.). Or a network (for example, the Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark), ZigBee (registered trademark, etc.) for connecting directly or indirectly.
  • USB universal serial bus
  • IEEE 1394 etc.
  • a network for example, the Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark), ZigBee (registered trademark, etc.) for connecting directly or indirectly.
  • Examples of external devices connected to the smartphone 81 include a memory card connected via a wired / wireless headset, wired / wireless external charger, wired / wireless data port, and card socket. And SIM (Subscriber Identity Module Card) / UIM (User Identity Module Card) cards, external audio / video devices connected via audio / video I / O (Input / Output) terminals, external audio / video connected wirelessly
  • SIM Subscriber Identity Module Card
  • UIM User Identity Module Card
  • external audio / video devices connected via audio / video I / O (Input / Output) terminals
  • smartphones connected via wired / wireless personal computers connected via wired / wireless, PDAs connected via wired / wireless, personal computers connected via wired / wireless, earphones, and the like.
  • the external input / output unit may transmit data received from such an external device to each component inside the smartphone 81, or allow the data inside the smartphone 81 to be transmitted to the external device. it can.
  • the GPS receiving unit 150 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 180, executes positioning calculation processing based on the received GPS signals, and calculates the latitude of the smartphone 1 Detects position consisting of, longitude and altitude.
  • the GPS receiving unit 150 can acquire position information from the wireless communication unit 105 or the external input / output unit 140 (for example, a wireless LAN), it can also detect the position using the position information.
  • the motion sensor unit 160 includes, for example, a three-axis acceleration sensor and detects the physical movement of the smartphone 81 in accordance with an instruction from the main control unit 180. By detecting the physical movement of the smartphone 81, the moving direction and acceleration of the smartphone 81 are detected. Such a detection result is output to the main control unit 180.
  • the power supply unit 170 supplies power stored in a battery (not shown) to each unit of the smartphone 81 in accordance with an instruction from the main control unit 180.
  • the main control unit 180 includes a micro processor, operates according to a control program and control data stored in the storage unit 130, and controls each unit of the smartphone 81 in an integrated manner. Further, the main control unit 180 includes a mobile communication control function for controlling each part of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 105.
  • the application processing function is realized by the main control unit 180 operating according to the application software stored in the storage unit 130.
  • Application processing functions include, for example, an infrared communication function for controlling external input / output unit 140 to perform data communication with the opposite device, an e-mail function for sending and receiving e-mails, and a web browsing function for browsing web pages. .
  • the main control unit 180 also has an image processing function such as displaying video on the display input unit 90 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 180 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 90.
  • the main control unit 180 executes display control for the display panel 91 and operation detection control for detecting a user operation through the operation unit 120 and the operation panel 92.
  • the main control unit 180 displays an icon for starting application software, a software key such as a scroll bar, or displays a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 91.
  • the main control unit 180 detects a user operation through the operation unit 120, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 92. Or a display image scroll request through a scroll bar is accepted.
  • the main control unit 180 causes the operation position with respect to the operation panel 92 to overlap with the display panel 91 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 91.
  • a touch panel control function for controlling the sensitive area of the operation panel 92 and the display position of the software key.
  • the main control unit 180 can also detect a gesture operation on the operation panel 92 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 121 is a digital camera that performs electronic photographing using an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device).
  • the camera unit 121 converts the image data obtained by imaging into compressed image data such as JPEG (Joint Photographic coding Experts Group) under the control of the main control unit 180, and records it in the storage unit 130, or inputs it.
  • the data can be output through the output unit 140 or the wireless communication unit 105.
  • the camera unit 121 is mounted on the same surface as the display input unit 90, but the mounting position of the camera unit 121 is not limited to this, and may be mounted on the back surface of the display input unit 90. Alternatively, a plurality of camera units 121 may be mounted. When a plurality of camera units 121 are installed, the camera unit 121 used for shooting can be switched for shooting alone, or a plurality of camera units 121 can be used for shooting simultaneously. it can.
  • the camera unit 121 can be used for various functions of the smartphone 81.
  • an image acquired by the camera unit 121 can be displayed on the display panel 91, or the image of the camera unit 121 can be used as one of operation inputs of the operation panel 92.
  • the GPS receiving unit 150 detects the position
  • the position can also be detected by referring to an image from the camera unit 121.
  • the optical axis direction of the camera unit 121 of the smartphone 81 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 121 can also be used in the application software.
  • the position information acquired by the GPS receiver 150 on the image data of the still image or the moving image, the voice information acquired by the microphone 102 (the text information may be converted into voice information by the main control unit or the like), Posture information and the like acquired by the motion sensor unit 160 may be added and stored in the storage unit 130, or output through the input / output unit 140 or the wireless communication unit 105.
  • the camera unit 121 includes the focus lens 12 and the image sensor 14 described above. As described above, the first high-frequency component AF evaluation value data and the second high-frequency component AF evaluation value data are used. , First low frequency component AF evaluation value data and second low frequency component AF evaluation value data are obtained. Based on the obtained data, the above-described processing is performed in the smartphone 81.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

 フォーカス・レンズの合焦位置を決定する。撮像範囲内に第1のAFエリアとその第1のAFエリアを含む第2のAFエリアとが規定される。フォーカス・レンズが移動させられながら,被写体を撮像することにより,フォーカス・レンズの移動位置ごとに,第1のAFエリア内の被写体像部分から第1の高周波数成分AF評価値データのグラフ(G1)および第1の低周波数成分AF評価値データのグラフが得られ,第2のAFエリア内の被写体像部分から第2の高周波数成分AF評価値データのグラフ(G2)および第2の低周波数成分AF評価値データのグラフが得られる。第1の高周波数成分AF評価値データのピーク値を与えるフォーカス・レンズ位置(P14)の周辺の範囲を有効範囲として,その有効範囲内にあるAF評価値データのピーク値にもとづいてフォーカス・レンズの合焦位置が決定される。

Description

撮像装置およびその動作制御方法
 この発明は,撮像装置およびその動作制御方法に関する。
 カメラにおけるオート・フォーカスでは,フォーカス・レンズを移動しながら,移動位置ごとに被写体を撮像して得られる画像データの高周波数成分のピーク値の位置を合焦位置として決定することがある。このようなオート・フォーカスでは,誤検出を防ぐために様々な手法が利用されている。たとえば,点光源の高輝度被写体の場合,被写体が動いている場合等でも合焦を可能とするもの(特許文献1),オート・フォーカスを高速に行うもの(特許文献2),被写体が暗い場合でも誤合焦を少なくするもの(特許文献3),主要被写体が至近端に位置する場合でも合焦状態を判定するもの(特許文献4),低照度状態における主被写体の検出性能の低下を抑えるもの(特許文献5)などがある。
特開平6-141223号公報 特開平9-61705号公報 特開2008-15494号公報 特開2004-246266号公報 特開2010-193074号公報
 図19は,撮像範囲72を示している。この撮像範囲72の中にAFエリア71が規定されている。AFエリア71内に含まれている被写体像73の画像部分を表わす画像データから高周波数成分を表わすデータがAF評価値として得られる。フォーカス・レンズを移動させながら,フォーカス・レンズの移動位置ごとに被写体が撮像され,AF評価値が得られると,図20に示すAF特性グラフGが得られる。
 フォーカス・レンズがP1の位置にあったときに,図19に示すようにAFエリア71内にノイズ74が発生すると,AF評価値のレベルが高くなることがある(AF評価値L1)。すると,AF評価値L2を与えるフォーカス・レンズ位置P2が合焦位置として位置決めすべきフォーカス・レンズ位置であるにもかかわらず,P1の位置が合焦位置とされてしまうことがある。このように,特に低輝度時では,ノイズなどにより発生する擬似信号の影響を受けやすいために,擬似信号によって生成されたピーク値の位置を合焦位置と誤判定してしまうことがある。このために,オート・フォーカス精度が悪化してしまう。特許文献1では,ノイズに対して考慮されておらず,特許文献2では,合焦位置を決定するものではないので合焦精度を上げることはできないことがある。特許文献3から5においてもノイズに対して考慮されていない。
 この発明は,ノイズが存在しても比較的正確に合焦位置を決定することを目的とする。
 この発明による撮像装置は,光軸方向にフォーカス・レンズを移動させながら,フォーカス・レンズの移動位置ごとに被写体を撮像し,被写体像を表わす画像データを出力する撮像装置,撮像装置から出力された画像データにもとづいて得られる,高周波数成分の合焦評価値を表わす高周波数成分合焦評価値データのうち,撮像範囲のうちの第1の領域内の被写体像部分から得られる第1の高周波数成分合焦評価値データ,および第1の領域を含み,かつ第1の領域よりも広い第2の領域内の被写体像部分から得られる第2の高周波数成分合焦評価値データを抽出する高周波数成分合焦評価値データ抽出手段,撮像装置から出力された画像データにもとづいて得られる低周波数成分合焦評価値データであって,高周波数成分合焦評価値データよりも相対的に低周波数成分の合焦評価値を表わす低周波数成分合焦評価値データのうち,第1の領域内の被写体像部分から得られる第1の低周波数成分合焦評価値データ,および第2の領域内の被写体像部分から得られる第2の低周波数成分合焦評価値データを抽出する低周波数成分評価値データ抽出手段,ならびに高周波数成分合焦評価値データ抽出手段によって抽出された第1の高周波数成分合焦評価値データおよび第2の高周波数成分合焦評価値データ,ならびに低周波数成分合焦評価値データ抽出手段によって抽出された第1の低周波数成分合焦評価値データおよび第2の低周波数成分合焦評価値データのうちのいずれか一つの合焦評価値データのピーク値を基準として定められるフォーカス・レンズの有効範囲に含まれている,第1の高周波数成分合焦評価値データのピーク値,第2の高周波数成分合焦評価値データのピーク値,第1の低周波数成分合焦評価値データのピーク値および第2の低周波数成分合焦評価値データのピーク値の位置にもとづいてフォーカス・レンズの合焦位置を決定する合焦位置決定手段を備えていることを特徴とする。
 この発明は,撮像装置に適した動作制御方法も提供している。すなわち,この方法は,撮像装置が,光軸方向にフォーカス・レンズを移動させながら,フォーカス・レンズの移動位置ごとに被写体を撮像し,被写体像を表わす画像データを出力し,高周波数成分合焦評価値データ抽出手段が,撮像装置から出力された画像データにもとづいて得られる,高周波数成分の合焦評価値を表わす高周波数成分合焦評価値データのうち,撮像範囲のうちの第1の領域内の被写体像部分から得られる第1の高周波数成分合焦評価値データ,および第1の領域を含み,かつ第1の領域よりも広い第2の領域内の被写体像部分から得られる第2の高周波数成分合焦評価値データを抽出し,低周波数成分合焦評価値データ抽出手段が,撮像装置から出力された画像データにもとづいて得られる低周波数成分合焦評価値データであって,高周波数成分合焦評価値データよりも相対的に低周波数成分の合焦評価値を表わす低周波数成分合焦評価値データのうち,第1の領域内の被写体像部分から得られる第1の低周波数成分合焦評価値データ,および第2の領域内の被写体像部分から得られる第2の低周波数成分合焦評価値データを抽出し,合焦位置決定手段が,高周波数成分合焦評価値データ抽出手段によって抽出された第1の高周波数成分合焦評価値データおよび第2の高周波数成分合焦評価値データ,ならびに低周波数成分合焦評価値データ抽出手段によって抽出された第1の低周波数成分合焦評価値データおよび第2の低周波数成分合焦評価値データのうちのいずれか一つの合焦評価値データのピーク値を基準として定められるフォーカス・レンズの有効範囲に含まれている,第1の高周波数成分合焦評価値データのピーク値,第2の高周波数成分合焦評価値データのピーク値,第1の低周波数成分合焦評価値データのピーク値および第2の低周波数成分合焦評価値データのピーク値の位置にもとづいてフォーカス・レンズの合焦位置を決定するものである。
 この発明によると,光軸方向にフォーカス・レンズが移動させながら,フォーカス・レンズの移動位置ごとに被写体が撮像され,被写体像を表わす画像データが得られる。得られた画像データにもとづいて,撮像範囲のうちの第1の領域内の被写体像部分から得られる第1の高周波数成分合焦評価値データ,および第1の領域を含み,第1の領域よりも広い第2の領域内の被写体像部分から得られる第2の高周波数成分合焦評価値データが得られる。また,得られた画像データにもとづいて,第1の領域内の被写体像部分から得られる第1の低周波数成分(高周波数成分合焦評価値データよりも相対的に低周波数成分)合焦評価値データ,および第2の領域内の被写体像部分から得られる第2の低周波数成分合焦評価値データが得られる。このようにして得られた第1の高周波数成分合焦評価値データ,第2の高周波数成分合焦評価値データ,ならびに第1の低周波数成分合焦評価値データおよび第2の低周波数成分合焦評価値データのうちのいずれか一つの合焦評価値データのピーク値を基準として定められるフォーカス・レンズの有効範囲に含まれている,それぞれの合焦評価値データのピーク値にもとづいてフォーカス・レンズの合焦位置が決定される。この発明によると,低周波数成分合焦評価値データを利用してフォーカス・レンズの合焦位置が決定される。低周波数成分合焦評価値データは,高周波数成分合焦評価値データに比べてノイズの影響を受けにくい。また,この発明によると,第1の領域よりも広い第2の領域にもとづいて得られる,第2の高周波数成分合焦評価値データおよび第2の低周波数成分合焦評価値データを利用してフォーカス・レンズの合焦位置が決定される。これらの合焦評価値データは,第1の領域よりも広い第2の領域にもとづいて得られるものであるから,第1の領域にもとづいて得られる第1の高周波数成分合焦評価値データおよび第1の低周波数成分合焦評価値データよりもノイズの影響を受けにくい。決定される合焦位置は比較的正確なものとなる。
 合焦位置決定手段は,たとえば,有効範囲内において,第1の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置と第1の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置とが一致しているかどうかを判定する第1の判定手段を備える。この場合,第1の判定手段によって一致していると判定されたことに応じて,フォーカス・レンズの合焦位置を,第1の高周波数成分合焦評価値データのピーク値におけるフォーカス・レンズ位置に近づくようにし,第1の判定手段によって不一致と判定されたことに応じて,フォーカス・レンズの合焦位置を,第1の判定手段によって一致していると判定された場合に決定されるフォーカス・レンズの合焦位置よりも第2の高周波数成分合焦評価値データのピーク値におけるフォーカス・レンズ位置に近づくようにするとよい。
 合焦位置決定手段は,第1の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置と第2の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置との第1のフォーカス・レンズ位置の組が有効範囲に含まれている,あるいは,第1の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置と第2の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置との第2のフォーカス・レンズ位置の組が有効範囲内に含まれているかどうかを判定する第2の判定手段をさらに備えてもよい。この場合,第2の判定手段によって,第1のフォーカス・レンズ位置の組または第2のフォーカス・レンズ位置の組の少なくとも一方のフォーカス・レンズ位置の組が有効範囲に含まれていないと判定されたことに応じて,含まれていないと判定されたフォーカス・レンズ位置の組を構成するフォーカス・レンズ位置のピーク値をもつ合焦評価値データを除く合焦評価値データを用いてフォーカス・レンズの合焦位置を決定することができる。
 合焦位置決定手段は,被写体が低輝度の場合に,第1の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置および第2の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置に近づくようにフォーカス・レンズの合焦位置が決定され,被写体が低輝度でない場合に,第1の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置および第2の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置に近づくようにフォーカス・レンズの合焦位置が決定されるものでもよい。
 撮像装置から出力された画像データのレベルを増幅率に応じて増幅する増幅手段(ハードウエアによって増幅する増幅回路でもよいし,ソフトウエアを利用して増幅するものでもよい)をさらに備えてもよい。この場合,合焦位置決定手段は,たとえば,増幅手段の増幅率が所定の増幅率以上の場合に,第1の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置および第2の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置に近づくようにフォーカス・レンズの合焦位置が決定され,増幅手段の増幅率が所定の増幅率未満の場合に,第1の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置および第2の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置に近づくようにフォーカス・レンズの合焦位置が決定されるものである。
 第2の領域は,大きさが異なるn個の領域でもよい。この場合,高周波数成分合焦評価値データ抽出手段は,たとえば,高周波数成分合焦評価値データのうち,撮像範囲のうちの第1の領域内の被写体像部分から得られる第1の高周波数成分合焦評価値データおよび第1の領域を含みかつ第1の領域よりも広いn個の異なる大きさの第2の領域内の被写体像部分から得られるn個の第2の高周波数成分合焦評価値データを生成するものであり,低周波数成分合焦評価値データ抽出手段は,低周波数成分合焦評価値データのうち,第1の領域内の被写体像部分から得られる第1の低周波数成分合焦評価値データおよびn個の第2の領域内のそれぞれの被写体像部分から得られるn個の第2の低周波数成分合焦評価値データを抽出するものであり,合焦位置決定手段は,たとえば,第1の高周波数成分合焦評価値データ,第1の低周波数成分合焦評価値データ,n個の第2の高周波数成分合焦評価値データおよびn個の第2の低周波数成分合焦評価値データのそれぞれのピーク値のフォーカス・レンズ位置が一致するかどうかを判定する一致判定手段を備える。そして,一致判定手段によって一致していると判定されたことに応じて,領域の大きさが小さいものから得られる合焦評価値データのピーク値のフォーカス・レンズ位置に近づくようにフォーカス・レンズの合焦位置を決定するものとなろう。
 合焦位置判定手段は,たとえば,第1の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置とn個の第2の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置とのうち,いずれかのフォーカス・レンズ位置が一致しないものがあるか,あるいは,第1の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置とn個の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置とのうち,いずれかのフォーカス・レンズ位置が一致しないものがあるかどうかを判定する不一致判定手段を備えてもよい。この場合,不一致判定手段によってフォーカス・レンズ位置が一致していないものがあると判定されたことに応じて,一致したフォーカス・レンズ位置に近づくようにフォーカス・レンズ位置を決定するものとなろう。
 第1の領域内に存在する被写体像部分の色分布を検出する色分布検出手段,および色分布検出手段によって検出された色分布に近い色分布を有するように第2の領域を決定する周辺エリア決定手段さらに備えてもよい。
撮像範囲とAFエリアとの関係を示している。 撮像範囲とAFエリアと被写体像との関係を示している。 AF評価値とフォーカス・レンズ位置との関係を示している。 AF評価値とフォーカス・レンズ位置との関係を示している。 AF評価値とフォーカス・レンズ位置との関係を示している。 ディジタル・カメラの電気的構成を示すブロック図である。 合焦位置決定処理手順の一部を示すフローチャートである。 合焦位置決定処理手順の一部を示すフローチャートである。 合焦位置決定処理手順の一部を示すフローチャートである。 係数対応テーブルの一例である。 合焦位置決定処理手順の一部を示すフローチャートである。 係数対応テーブルの一例である。 合焦位置決定処理手順の一部を示すフローチャートである。 合焦位置決定処理手順の一部を示すフローチャートである。 撮像範囲とAFエリアとの関係を示している。 合焦位置決定処理手順の一部を示すフローチャートである。 係数対応テーブルの一例である。 撮像範囲とAfエリアと被写体像との関係を示している。 撮像範囲とAFエリアと被写体像との関係を示している。 AF評価値とフォーカス・レンズ位置との関係を示している。 スマートフォンの外観図である。 スマートフォンの電気的構成を示すブロック図である。
 まず,この発明による実施例の原理を説明する。この実施例は,フォーカス・レンズの合焦位置を決定するものである。
 図1は,撮像範囲3を示している。
 この実施例では,撮像範囲3(撮像素子の有効画素領域)のほぼ中央に比較的小さな第1のAFエリア1が規定される。また,この第1のAFエリア1を含み,かつ第1のAFエリア1よりも広い第2のAFエリア2も規定される。この第2のAFエリア2は,撮像範囲3以下の大きさである。
 図2は,撮像範囲3に規定された第1のAFエリア1および第2のAFエリア2と被写体像OBとの位置関係を示している。
 被写体像OBは,撮像範囲3のほぼ中央に位置決めされることが多いことから,第1のAFエリア1および第2のAFエリア2のいずれも撮像範囲3の中央に規定される。もっとも,これらの第1のAFエリア1および第2のAFエリア2は必ずしも撮像範囲3の中央に規定されなくともよいのはいうまでもない。
 この実施例では,フォーカス・レンズがその光軸方向に所定距離ごとに移動させられ,その移動位置ごとに被写体が撮像され,被写体像を表わす画像データが得られる。第1のAFエリア1内の被写体像OBの画像部分を表わす画像データから,高周波数成分の合焦評価値を表わす第1の高周波数成分AF(合焦)評価値データおよび第1の高周波数成分AF評価値データよりも相対的に低周波数成分の合焦評価値を表わす第1の低周波数成分AF評価値データが得られる。また,第2のAFエリア2内の被写体像OBの画像部分を表わす画像データから,第2の高周波数成分AF評価値データおよび第2の低周波数成分AF評価値データが得られる。
 図3および図4は,AF評価値とフォーカス・レンズ位置との関係を示している。
 図3は,第1の高周波数成分AF評価値データのグラフGH1と第2の高周波数成分AF評価値データのグラフGH2とを示している。
 上述したように,フォーカス・レンズが光軸方向に移動させられながら,その移動位置ごとにAF評価値データが得られる。第1の高周波数成分AF評価値データは,比較的小さな領域である第1のAFエリア1内の被写体像部分にもとづいて得られたものであるからノイズの影響を受けやすい。このために,そのグラフGH1によって表わされるAF評価値の変化は比較的激しい。これに対して,第2の高周波数成分AF評価値データは,第1のAFエリア1よりも広い第2のAFエリア2内の被写体像部分にもとづいて得られたものであるからノイズの影響を受けにくい。このために,そのグラフGH2によって表わされるAF評価値の変化は比較的緩やかである。
 図3においては,第1の高周波数成分AF評価値データのグラフGH1のピーク値を与えるフォーカス・レンズ位置は位置PH1であり,第2の高周波数成分AF評価値データのグラフGH2のピーク値を与えるフォーカス・レンズ位置は位置PH2である。
 図4は,第1の低周波数成分AF評価値データのグラフGL1と第2の低周波数成分AF評価値データのグラフGL2とを示している。
 第1の低周波数成分AF評価値データおよび第2の低周波数成分AF評価値データのいずれも低周波数成分のものであるから,ノイズの影響を受けにくい。このために,それらのグラフGL1およびGL2は滑らかとなっている。但し,第1の低周波数成分AF評価値データは比較的小さな大きさの第1のAFエリア1内の被写体像部分にもとづいて得られたものであるのに対し,第2の低周波数成分AF評価値データは比較的小さな大きさの第2のAFエリア2内の被写体像部分にもとづいて得られたものであるから,第1の低周波数成分AF評価値データよりも第2の低周波数成分AF評価値データの方がノイズの影響をより受けにくい。第1の低周波数成分AF評価値データのグラフGL1のピーク値を与えるフォーカス・レンズ位置は位置PL1であり,第2の高周波数成分AF評価値データのグラフGL2のピーク値を与えるフォーカス・レンズ位置は位置PL2である。
 図3および図4は,別々の図として示されているが,フォーカス・レンズの移動に応じて,これらのグラフGH1,GH2,GL1およびGL2が同時に得られるようにしてもよい。
 この実施例では,第1のAFエリア1内の被写体像部分にもとづいて得られる第1の高周波数成分AF評価値データのグラフGH1または第1の低周波数成分AF評価値データのグラフGL1のピーク値のフォーカス・レンズの位置を基準として有効範囲が決められる。その有効範囲内に,第2の高周波数成分AF評価値データのグラフGH2または第2の低周波数成分AF評価値データのグラフGL2のピーク値を与えるフォーカス・レンズ位置が含まれているかどうかに応じて,フォーカス・レンズの合焦位置が決定される。
 図5は,第1のAFエリア1内の被写体像部分にもとづいて得られるAF評価値データのグラフG1(第1の高周波数成分AF評価値データのグラフGH1または第1の低周波数成分AF評価値データのグラフGL1)と第2のAFエリア2内の被写体像部分にもとづいて得られるAF評価値データのグラフ(第2の高周波数成分AF評価値データのグラフGH2または第2の低周波数成分AF評価値データのグラフGL2)とを示している。
横軸はフォーカス・レンズ位置,縦軸はAF評価値である。
 上述のように,フォーカス・レンズが位置P11,P12,P13,P14,P15,P16などの位置に移動させられ,それぞれの位置においてAF評価値が得られることにより,AF評価値データのグラフG1およびG2が得られる。
 第1のAFエリア1内の被写体像部分にもとづいて得られるAF評価値データのグラフG1(または第2のAFエリア2内の被写体像部分にもとづいて得られるAF評価値データのグラフG2)のピーク値を与えるフォーカス・レンズの位置P14が見つけられる。見つけられたその位置P14を基準として,その前後のフォーカス・レンズ位置が有効範囲として規定される。その有効範囲内に,第2のAFエリア2内の被写体像部分にもとづいて得られるAF評価値データのグラフG2(または第1のAFエリア1内の被写体像部分にもとづいて得られるAF評価値データのグラフG1)が上昇から下降状態に変化する部分(ピーク値)が有るか無いかが確認される。そのような部分が無い場合には,AF評価値データのグラフG1のピーク値はノイズによる擬似ピーク値の可能性があると判断される。また,そのような部分が有る場合にはAF評価値データのグラフG1のピーク値のフォーカス・レンズ位置と,AF評価値データのグラフG2が上昇から下降状態に変化する部分におけるピーク値のフォーカス・レンズ位置と,が一致しているかどうかも判断される。このような判断を総合的に鑑みて,フォーカス・レンズの合焦位置が決定される。
 AF評価値データのグラフG1のピーク値に対応するフォーカス・レンズ12の位置P14とAF評価値データのグラフG2のピーク値に対応するフォーカス・レンズ12の位置とが完全に一致しているだけでなく,AF評価値データのグラフG1のピーク値に対応する位置P14を含むフォーカス・レンズ12の焦点深度内に,AF評価値データのグラフG2のピーク値を与えるフォーカス・レンズ12の位置が含まれていれば,それらのフォーカス・レンズ12の位置は一致していると見なされる。
 図6は,ディジタル・カメラの電気的構成を示すブロック図である。
 ディジタル・カメラの全体の動作は,CPU15によって統括される。
 ディジタル・カメラには,撮像モード,再生モードなどのモード設定スイッチ,電源ボタン,シャッタ・レリーズ・ボタンなどを含む操作装置21が設けられている。操作装置21から出力される操作信号は,CPU15に入力する。
 ディジタル・カメラには,ストロボなどの発光装置16および受光装置17が設けられている。受光装置17は,発光装置16から射出した光が被写体によって反射することにより生じる反射光を受光するものである。
 CCD,C-MOSなどの撮像素子14の前方には,撮像素子14の光軸と共通の光軸をもつズーム・レンズ10,絞り11,フォーカス・レンズ12および光学ロウ・パス・フィルタ13が設けられている。ズーム・レンズ10およびフォーカス・レンズ12のレンズ位置は,レンズ駆動装置18によって制御される。絞り11の絞り量は絞り駆動装置19によって制御される。撮像素子14は,撮像素子駆動装置20によって制御される。
 操作装置21によって撮像モードが設定されると,スルー画モードとなり,撮像素子14によって,一定周期で連続して被写体が撮像される。撮像素子14からは,一定周期で被写体像を表わすフレーム映像信号が出力される。撮像素子14から出力された映像信号は,アナログ信号処理回路22に入力し,アナログ信号処理回路22において白バランス調整などの所定のアナログ信号処理が行われる。アナログ信号処理回路22から出力した映像信号は,アナログ/ディジタル変換回路23においてディジタル画像データに変換される。ディジタル画像データは,メモリ制御回路25の制御のもとにメイン・メモリ24に与えられ,一時的に記憶される。
 ディジタル画像データはメイン・メモリ24から読み出され,ディジタル信号処理回路26に入力する。
 ディジタル信号処理回路26には,AF評価値生成回路26Aおよび画像処理回路26Bが含まれている。ディジタル信号処理回路26に入力したディジタル画像データは,AF評価値生成回路26Aに入力する。AF評価値生成回路26Aには,ディジタル・フィルタ,ゲート回路などが内蔵されており,上述したように,第1のAFエリア1および第2のAFエリア2内の被写体像部分を表わす画像データのうち,高周波数成分と低周波数成分とが抽出される。これにより,上述したように,第1の高周波数成分AF評価値データ,第2の高周波数成分AF評価値データ,第1の低周波数成分AF評価値データおよび第2の低周波数成分AF評価値データがAF評価値生成回路26Aから得られる。レンズ駆動装置18によってフォーカス・レンズ12が所定距離ずつ移動させられながら,被写体が繰り返して撮像されることにより,フォーカス・レンズ12の移動位置ごとの第1の高周波数成分AF評価値データ,第2の高周波数成分AF評価値データ,第1の低周波数成分AF評価値データおよび第2の低周波数成分AF評価値データが得られる。これにより,図3に示す高周波数成分AF評価値データのグラフGH1およびGH2ならびに図4に示す低周波数成分AF評価値データのグラフGL1およびGL2が得られることとなる。これらのグラフGH1,GH2,GL1およびGL2を利用してフォーカス・レンズ12が合焦位置に位置決めされる。フォーカス・レンズ12の位置決め処理について詳しくは後述する。
 メイン・メモリ24から読み出されたディジタル画像データは積算回路28にも入力する。積算回路28において,ディジタル画像データの輝度データが生成され,その輝度データが積算される。積算値を表わすデータがCPU15に入力し,絞り駆動回路19によって絞り11の絞り量が制御される。
 また,メイン・メモリ24から読み出されたディジタル画像データは,ディジタル信号処理回路26に含まれる画像処理回路26Bにも入力する。画像処理回路26Bにおいて,ガンマ補正などの所定のディジタル処理が行われる。ディジタル信号処理回路26から出力されたディジタル画像データは表示制御装置32の制御のもとに表示装置31に与えられる。表示装置31の表示画面には,撮像された被写体像が動画として表示されることとなる。
 撮像モードが設定されているときにシャッタ・レリーズ・ボタンが押されると,上述のようにディジタル信号処理回路26から出力されたディジタル画像データは圧縮伸張処理回路27に入力する。圧縮伸張処理回路27において,ディジタル画像データが圧縮される。圧縮されたディジタル画像データは,外部メモリ制御装置30の制御のもとにメモリ・カードなどの記録媒体29に記録される。
 再生モードが設定されると,記録媒体29に記録されているディジタル画像データが読み出され,圧縮伸張処理回路27に入力する。圧縮伸張処理回路27において,圧縮されているディジタル画像データが伸張される。伸張されたディジタル画像データが表示制御装置32の制御のもとに表示装置31に与えられる。記録媒体29に記録されているディジタル画像データによって表わされる被写体像が表示装置31の表示画面に表示されることとなる。
 図7から図9は,ディジタル・カメラの処理手順を示すフローチャートである。このフローチャートは,フォーカス・レンズ12の合焦位置を決定する処理手順を示している。
 上述のように,撮像モードが設定されるとスルー画モードとなり(ステップ41),フォーカス・レンズ12がホーム・ポジションに移動させられる(ステップ42)。
 フォーカス・レンズ12が所定距離移動させられ(ステップ43),被写体が撮像されることによりフレーム画像データ(ディジタル画像データ)が得られる。AF評価値生成回路26Aに含まれるゲート回路に第1のAFエリア1と第2のAFエリアとが設定される(ステップ45)。ゲート回路を通過する第1のAFエリア1内の被写体像を表わす画像データからディジタル・フィルタによって第1の高周波数成分AF評価値データおよび第1の低周波数成分AF評価値データが抽出され,ゲート回路を通過する第2のAFエリア2内の被写体像を表わす画像データから第2の高周波数成分AF評価値データおよび第2の低周波数成分AF評価値データが抽出される(ステップ46)。得られたAF評価値データのうち,あらかじめ定められているしきい値以上のピーク値が検出されなければ(ステップ47でNO),フォーカス・レンズ12が所定距離移動させられ(ステップ43),再びステップ43から46の処理が繰り返される。これにより,上述したように,図3に示すような第1の高周波数成分AF評価値データのグラフGH1および第2の高周波数成分AF評価値データのグラフGH2ならびに図4に示すような第1の低周波数成分AF評価値データのグラフGL1および第2の低周波数成分AF評価値データのグラフGL2が得られることとなる。
 得られたAF評価値データのうち,第1の高周波数成分AF評価値データ(または,その他のあらかじめ定められているAF評価値データでもよい)のピーク値がしきい値以上となると(ステップ47でYES),第1のAFエリア1内の被写体像部分にもとづいて得られた第1の高周波数成分AF評価値データのピーク値におけるフォーカス・レンズ12の位置PH1(図3参照)と第1の低周波数成分AF評価値データのピーク値におけるフォーカス・レンズ12の位置PL1(図4参照)とが一致するかどうかが確認される(ステップ48)(第1の判定処理)。図5を参照して説明したように,第1の高周波数成分AF評価値データのピーク値におけるフォーカス・レンズ12の位置PH1と第1の低周波数成分AF評価値データのピーク値におけるフォーカス・レンズ12の位置PL1とが完全に一致する場合だけでなく,第1の高周波数成分AF評価値データのピーク値におけるフォーカス・レンズ12の位置PH1と第1の低周波数成分AF評価値データのピーク値におけるフォーカス・レンズ12の位置PL1とがフォーカス・レンズ12の焦点深度に収まる場合も,それらの位置が一致すると見なされる。
 一致する場合には(ステップ48でYES),フラグFAがセットされ(ステップ49),一致しない場合には(ステップ48でNO),フラグFBがセットされる(ステップ50)。これらのフラグFAまたはFBを利用して,フォーカス・レンズ12が位置決めされる。
 つづいて,第1の高周波数成分AF評価値データのピーク値のフォーカス・レンズ12の位置を起点とした前後n個の位置の有効範囲内において,第2の高周波数成分AF評価値データのピーク値を与えるフォーカス・レンズ12の位置または第2の低周波数成分のAF評価値データのピーク値を与えるフォーカス・レンズ12の位置が存在するかどうかのフォーカス・レンズ位置検出処理が行われる(ステップ51)。図5を参照して説明したように,図5のグラフGが第1の高周波数成分AF評価値データのグラフGH1であるとすると,第1の高周波数成分AF評価値データのピーク値を与えるフォーカス・レンズ12の位置P14を起点とした前後n個(図5では,たとえば,前後2個)の有効範囲内において,第2の高周波数成分AF評価値データのピーク値または第2の低周波数成分のAF評価値データのピーク値(AF評価値データが上昇から下降に変化する点)を与えるフォーカス・レンズ12の位置が存在するかどうかのフォーカス・レンズ位置検出処理が行われることとなる。第1の高周波数成分AF評価値データのピーク値のフォーカス・レンズ12の位置を起点とせずに,第1の低周波数成分AF評価値データのピーク値のフォーカス・レンズ12の位置を起点とした前後n個の位置の有効範囲内において,第2の高周波数成分AF評価値データのピーク値または第2の低周波数成分のAF評価値データのピーク値を与えるフォーカス・レンズ12の位置が存在するかどうかのフォーカス・レンズ12の位置検出処理が行われるようにしてもよい。
 すると,第1のAFエリア1にもとづいて得られる第1の低周波数成分AF評価値データ(または第1の高周波数成分AF評価値データ)グラフのピーク値近傍の形状と第2のAFエリア2にもとづいて得られる第2の低周波数成分AF評価値データ(または第2の高周波数成分AF評価値データ)のグラフのピーク値近傍の形状とに相関性があるかどうかが判断される(ステップ52)(第2の判定処理)。図5を参照して説明したように,第1のAFエリア1にもとづいて得られるAF評価値データのグラフのピーク値を起点として定められる有効範囲内に,第2のAFエリア2にもとづいて得られるAF評価値データのグラフのピーク値を与えるフォーカス・レンズ12の位置が存在すれば相関性があると判断される。
 相関性がある場合には(ステップ52でYES),フラグFCがセットされ,相関性が無い場合には(ステップ52でNO),フラグFDがセットされる(ステップ54)。
 つづいて,セットされたフラグが参照されて,係数対応テーブル(図10参照)をもとに重み付け係数が決定され,加重平均により合焦位置Pが決定される(ステップ55)。合焦位置の決定については後述する。合焦位置が決定されると,その位置にフォーカス・レンズ12が移動させられる(ステップ56)。
 合焦位置Pは,式1にもとづいて決定される。
 P=α×PH1+βPH2+γPL1+φPL2・・・式1
 但し,α,β,γおよびφは,係数テーブルにもとついて決定される係数であり,α+β+γ+φ=1である。PH1は第1の高周波数成分AF評価値データのピーク値を与えるフォーカス・レンズ12の位置,PH2は第2の高周波数成分AF評価値データのピーク値を与えるフォーカス・レンズ12の位置,PL1は第1の低周波数成分AF評価値データのピーク値を与えるフォーカス・レンズ12の位置,PL2は第2の低周波数成分AF評価値データのピーク値を与えるフォーカス・レンズ12の位置である。たとえば,フォーカス・レンズ12のホーム・ポジションの位置を原点とし,ホーム・ポジションからPH1,PH2,PL1およびPL2までのそれぞれの距離に,それぞれの距離に対応する係数α,β,γおよびφを乗じたものを加算すると,合焦位置Pの位置が得られる。PH1,PH2,PL1またはPL2の位置のうち,それぞれの係数が大きい位置に近くなるように合焦位置Pが決定する。
 図10は,係数対応テーブルの一例である。
 係数対応テーブルには,フラグに対応して,係数α,β,γおよびφの各係数が格納されている。
 フラグFAおよびFCがセットされた場合には,係数αが0.7,係数β,γおよびφはいずれも0.1である。フラグFAがセットされた場合には,第1の高周波数成分AF評価値データのピーク値の位置と第1の低周波数成分AF評価値データのピーク値の位置とが一致しているから,第1の高周波数成分AF評価値データはノイズの影響を受けていないと考えられる(第1の高周波数成分AF評価値データはノイズの影響を受けやすいが,第1の低周波数成分AF評価値データはノイズの影響を受けにくいので,第1の高周波数成分AF評価値データのピーク値の位置と第1の低周波数成分AF評価値データのピーク値の位置とが一致いている場合には,第1の高周波数成分AF評価値データはノイズの影響を受けていないと考えられる。)。第1の高周波数成分評価値データがノイズの影響を受けていない場合には,シャープな形状となりやすく比較的精度よく合焦位置を決定できる第1の高周波数成分AF評価値データのピーク値の位置PH1に近づくように係数αの値が他の係数よりも大きくなっている。
 フラグFAおよびFDがセットされた場合には,係数αが0.6,係数βが0,係数γが0.4,係数φが0である。フラグFAがセットされている場合であってもフラグFDがセットされると,有効範囲内に第1の低周波数成分AF評価値のピーク値の位置と第2の低周波数成分AF評価値のピーク値の位置が含まれていることとなるからノイズがある可能性がある。ノイズの影響を受けにくい第1の低周波数成分AF評価値データのピーク値の位置PL1に近づくように,係数γの値が係数αの値に近づいている。
 フラグFBおよびFCがセットされた場合には,係数αが0.5,係数βが0.4,係数γおよび係数φが0となる。フラグFBがセットされた場合,第1の高周波数成分AF評価値データのピーク値の位置と第1の低周波数成分AF評価値データのピーク値の位置とが不一致であるから,第1の高周波数成分AF評価値データはノイズの影響を受けていると考えられる。ノイズの影響を受けにくい第2の高周波数成分AF評価値データのピーク値の位置PH2の信頼性が高くなるので,その位置PH2に近づくように係数が決定されている。
 このように,第1のAFエリア1にもとづいて得られる第1の低周波数成分AF評価値データのピーク値近傍のグラフ形状と第2のAFエリア2にもとづいて得られる第2の低周波数成分AF評価値データのピーク値近傍のグラフ形状とに相関性が無い場合には,それらのAF評価値データのピーク値を利用せずに,第1の高周波数成分AF評価値データのピーク値の位置PH1と第2の高周波数成分AF評価値データのピーク値の位置PH2とを利用して,合焦位置が決定される。たとえば,第1の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ12の位置と第2の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ12の位置との第1のフォーカス・レンズ12の位置の組が有効範囲に含まれている,あるいは,第1の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ12の位置と第2の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ12の位置との第2のフォーカス・レンズ12の位置の組が有効範囲内に含まれていない場合には,含まれていないと判定されたフォーカス・レンズ12の位置の組を構成するフォーカス・レンズ12の位置のピーク値をもつ合焦評価値データを除く合焦評価値データを用いてフォーカス・レンズ12の合焦位置が決定される。
 フラグFBおよびFDがセットされた場合には,強制的にすべての係数α,β,γおよびφが0となる。その場合,得られたピーク値のフォーカス・レンズ12の位置からは合焦位置を決定せずに前回に決定された合焦位置にフォーカス・レンズ12が位置決めされる。得られたピーク値のフォーカス・レンズ12の位置の信頼性が低いからである。
 図11および図12は,他の実施例を示している。
 図11は,上述したフォーカス・レンズ12の合焦位置を検出する処理の一部を示すフローチャートである。図11の処理手順は,図9の処理手順に対応している。図11に示す処理において,図9に示す処理と同一の処理については同一符号が付されている。
 図9に示す処理では,第1のAFエリア1にもとづいて得られるAF評価値データ(第1の高周波数成分AF評価値データまたは第1の低周波数成分AF評価値データ)のピーク値近傍のグラフ形状と第2のAFエリア2にもとづいて得られるAF評価値データ(第2の高周波数成分AF評価値データまたは第2の低周波数成分AF評価値データ)のピーク値近傍のグラフ形状との間の相関性の有無に応じてフラグFCまたはFDがセットされ,それらのフラグにもとづいてフォーカス・レンズ12の合焦位置が決定されている。これに対して,図11に示す処理では,そのような相関性が無い場合には(ステップ52でNO),合焦位置の検出処理が行われずに,図7ステップ43からの処理が繰り返される。相関性がある場合には(ステップ52でYES),すでにセットされたフラグおよび被写体輝度にもとづいて係数が得られ,合焦位置が決定されることとなる(ステップ55)。
 図12は,係数対応テーブルの一例である。
 フラグFAがセットされている場合には,第1の高周波数成分AF評価値データのピーク値の位置をフォーカス・レンズ12の合焦位置とすることの信頼性が高い。このために,被写体輝度にかかわらず,係数αが0.7,係数β,γおよびφが0.1となる。フォーカス・レンズ12の合焦位置は,第1の高周波数成分AF評価値データのピーク値のフォーカス・レンズ12の位置PH1近傍となる。
 フラグFBがセットされている場合には,第1の高周波数成分AF評価値データのピーク値の位置をフォーカス・レンズ12の合焦位置とすることの信頼性はあまり高くないが,被写体輝度が中輝度または高輝度の場合には,ノイズの影響をあまり受けないので,係数αが0.5,係数βが0.3,係数γおよびφがそれぞれ0.1となる。フォーカス・レンズ12の合焦位置は第1の高周波数成分AF評価値データのピーク値の位置PH1と第2の高周波数成分AF評価値データのピーク値の位置PH2との近傍となる。
 フラグFBがセットされていても,低輝度の場合には,高周波数成分のAF評価値データはノイズの影響を受けやすいので,第1の低周波数成分AF評価値データのピーク値の位置PL1と第2の低周波数成分AF評価値データのピーク値の位置PL2との近傍となるように,係数αおよびβがそれぞれ0.1,係数γが0.5,係数φが0.3となる。
 このように,被写体輝度が中輝度または高輝度の場合には高周波数成分のAF評価値データのピーク値の位置に近づくように合焦位置が決定され,被写体輝度が低輝度の場合には低周波数成分のAF評価値データのピーク値の位置に近づくように合焦位置が決定される。
 上述の実施例において,被写体輝度については,合焦位置を決定する処理の前に撮像により得られた画像データから算出されているのはいうまでもない。
 図13は,他の実施例を示すもので,合焦位置決定処理手順の一部を示すフローチャートである。図13は,図8に示す処理手順に対応するもので,同一処理については同一符号が付されている。
 図13に示す処理では,第1の高周波数成分AF評価値データのピーク値の位置と第1の低周波数成分AF評価値データのピーク値の位置とが一致するかどうかの判定処理が終了し(ステップ48),その結果に応じてフラグFAまたはFBがセットされると(ステップ49,50),被写体が低輝度かどうかが判定される(ステップ60)。
 被写体が低輝度の場合には(ステップ60でYES),上述したように,有効範囲内にピーク値を与えるフォーカス・レンズ12の位置が含まれているかどうかのフォーカス・レンズ位置検出処理が行われ(ステップ51),その結果に応じてフラグFCまたはFDがセットされる。被写体が中輝度または高輝度の場合には(ステップ60でNO),ノイズの影響が少ないと考えられるので,合焦位置検出処理を合理化するためにステップ51のフォーカス・レンズ位置検出処理が行われずに合焦位置が決定される(ステップ55)。
 図13に示す処理では,被写体が低輝度の場合には図10に示す係数対応テーブルを利用して合焦位置が決定され,被写体が中輝度または高輝度の場合には図12に示す係数対応テーブルを利用して合焦位置が決定される。
 図14は,さらに他の実施例を示すもので,合焦位置検出処理手順の一部を示すフローチャートである。図14に示す処理手順は,図13に示す処理手順に対応する。
 図13に示す処理では,被写体輝度が低輝度かどうかを判断し,低輝度の場合にフォーカス・レンズ位置検出処理が行われ,中輝度または高輝度の場合にはフォーカス・レンズ位置検出処理はスキップされている。これに対して,図14に示す処理では,ディジタル信号処理回路26におけるゲイン回路のゲインが所定値以上かどうかが判断される(ステップ61)。ゲインが所定値以上であれば(ステップ61でYES),被写体輝度が低輝度と判断され,フォーカス・レンズ位置検出処理が行われ,ゲインが所定値未満であれば(ステップ61でNO),被写体輝度が中輝度または高輝度と判断され,図13に示す処理と同様にフォーカス・レンズ位置検出処理がスキップされる。
 図15は,他の実施例を示すもので,撮像範囲3を示している。
 上述した実施例では,図1に示したように,撮像範囲3に第1のAFエリア1および第2のAFエリア2が設定される。これに対して,図15に示す撮像範囲3には,第1のAFエリア1および第2のAFエリア2のほかに第3のAFエリア4が設定されている。第3のAFエリア4は,第1のAFエリア1および第2のAFエリア2を含み,かつ第2のAFエリア2よりも大きい。
 第1のAFエリア1,第2のAFエリア2および第3のAFエリア4が設定されると,上述したのと同様に,それぞれのエリア1,2および4内の被写体像部分を表わす画像データから高周波数成分AF評価値データおよび低周波数成分AF評価値データが得られる。
 図16は,上述したフォーカス・レンズ12の合焦位置を検出する処理の一部を示すフローチャートである。図16の処理手順は,図9または図11の処理手順に対応している。
 第1のAFエリア1にもとづいて得られる第1の低周波数成分AF評価値データ(または第1の高周波数成分AF評価値データ)のピーク値のフォーカス・レンズ12の位置と,第2のAFエリア2にもとづいて得られる第2の低周波数成分AF評価値データ(または第2の高周波数成分AF評価値データ)のピーク値のフォーカス・レンズ12の位置と,が一致するかどうかが判定される(ステップ71)。ステップ71における判定が一致すると(ステップ71でYES),第1のAFエリア1にもとづいて得られる第1の低周波数成分AF評価値データ(または第1の高周波数成分AF評価値データ)のピーク値のフォーカス・レンズ12の位置と,第3のAFエリア4にもとづいて得られる第3の低周波数成分AF評価値データ(または第3の高周波数成分AF評価値データ)のピーク値のフォーカス・レンズ12の位置と,が一致するかどうかが判定される(ステップ72)。ステップ72における判定が一致すると(ステップ72でYES),フラグFEがセットされる(ステップ74)。ステップ72における判定が不一致であると(ステップ72でNO),フラグFFがセットされる(ステップ75)。
 ステップ71における判定が不一致の場合も(ステップ71でNO),第1のAFエリア1にもとづいて得られる第1の低周波数成分AF評価値データ(または第1の高周波数成分AF評価値データ)のピーク値のフォーカス・レンズ12の位置と,第3のAFエリア4にもとづいて得られる第3の低周波数成分AF評価値データ(または第3の高周波数成分AF評価値データ)のピーク値のフォーカス・レンズ12の位置と,が一致するかどうかが判定される(ステップ73)。ステップ73における判定が一致すると(ステップ73でYES),フラグFGがセットされる(ステップ76)。ステップ73における判定が不一致であると(ステップ73でNO),フラグFHがセットされる(ステップ77)。
 その後は,セットされたフラグに応じて,式2の係数α,β,γ,φ,ωおよびεが決定される。但し,α+β+γ+φ+ω+ε=1である。式2にしたがって,フォーカス・レンズ12の合焦位置が決定される。
 P=αPH1+βPH2+γPH4+φPL1+ωPL2+εPL4・・・式2
 式2において,PH4は第3のAFエリア4の高周波数成分のピーク値を与えるフォーカス・レンズ12の位置であり,PL4は第3のAFエリア4の低周波数成分のピーク値を与えるフォーカス・レンズ12の位置である。
 図17は,式2に用いられる係数α,β,γ,φ,ωおよびεを決定する係数対応テーブルの一例である。
 フラグFAおよびフラグFEがセットされている場合は,上述のように,第1の高周波数成分AF評価値データ,第1の低周波数成分AF評価値データ,第2の低周波数成分AF評価値データ(または第2の高周波数成分AF評価値データ),および第3の低周波数成分AF評価値データ(または第3の高周波数成分AF評価値データ)のそれぞれのピーク値を与えるフォーカス・レンズ12の位置が総て一致していることを示している。そのような場合には,合焦させるべき被写体像以外の不要な画像部分が含まれないように最も大きさの小さい第1のAFエリア1にもとづいて得られるAF評価値データであって,かつ急峻なAF評価値データが得られる第1の高周波数成分AF評価値データのピーク値を与えるフォーカス・レンズ12の位置PH1に近づくように,係数αが大きくされる。
 フラグFAがセットされている場合は,第1の高周波数成分AF評価値データと第1の低周波数成分AF評価値データとのそれぞれのピーク値を与えるフォーカス・レンズ12の位置が一致しているから,第1の高周波数成分AF評価値データのピーク値を与えるフォーカス・レンズ12の位置を合焦位置としたときの信頼性が高い。また,フラグFFがセットされている場合は,第1の低周波数成分AF評価値データ(または第1の高周波数成分AF評価値データ)と第2の低周波数成分AF評価値データ(または第2の高周波数成分AF評価値データ)とのそれぞれのピーク値を与えるフォーカス・レンズ12の位置が一致しているから,結果的に第1の高周波数成分AF評価値データと第2の高周波数成分AF評価値データとのそれぞれのピーク値を与えるフォーカス・レンズ12の位置が一致しており,その位置が合焦位置としての信頼性が高い。このために,第1の高周波数成分AF評価値データのピーク値のフォーカス・レンズ12の位置PH1の係数αおよび第2の高周波数成分AF評価値データのピーク値のフォーカス・レンズ12の位置PH2の係数βにもとづいて合焦位置Pが決定される。但し,第1の低周波数成分AF評価値データと第3の低周波数成分AF評価値データのそれぞれのピーク値を与えるフォーカス・レンズ12の位置は一致していないのでノイズが発生している可能性もあると考えられる。このために,係数αおよびβは,第1のAFエリア1と第2のAFエリア2との面積比に応じて決定される。第2のAFエリア2の面積が第1のAFエリア1の面積に比べて大きいほど,係数αが係数βよりも大きくされる。
 フラグFAおよびフラグFGがセットされている場合,第1の低周波数成分AF評価値データと第2の低周波数成分AF評価値データとのそれぞれのピーク値を与えるフォーカス・レンズ12の位置が一致していないにもかかわらず,第1の低周波数成分AF評価値データと第3の低周波数成分AF評価値データとのそれぞれのピーク値を与えるフォーカス・レンズ12の位置が一致しているので,ノイズが発生している可能性があると考えられる。上述したのと同様に係数αおよびγは,第1のAFエリア1と第3のAFエリア4との面積比に応じて決定される。第3のAFエリア4の面積が第1のAFエリア1の面積に比べて大きいほど,係数αが係数γよりも大きくされる。
 フラグFBがセットされている場合,第1の高周波数成分AF評価値データと第1の低周波数成分AF評価値データとのそれぞれのピーク値を与えるフォーカス・レンズ12の位置が一致していないので,第1の高周波数成分AF評価値データのピーク値を与えるフォーカス・レンズ12の位置が合焦位置である信頼性は低い。このために,フラグFBがセットされている場合,フラグFEがセットされていてもフラグFAがセットされている場合と比べて係数βが大きくなる。
 フラグFBおよびフラグFFがセットされている場合は,上述したようにフラグFAおよびフラグFFがセットされている場合と同様に,第1のAFエリア1と第2のAFエリア2の面積比に応じて係数αおよびβが決定される。また,フラグFBおよびフラグFGがセットされている場合は,フラグFAおよびフラグFGがセットされている場合と同様に,第1のAFエリア1と第3のAFエリア4の面積比に応じて係数αおよびγが決定される。
 フラグFBおよびフラグFHがセットされている場合には,上述のようにして得られるピーク値を与えるフォーカス・レンズ12の位置が一致するものが無いので,得られた位置にもとづいて合焦位置を決定しても信頼性が低い。このために,合焦位置を決定することなく,前回に決定した合焦位置が利用される。
 図18は,他の実施例を示すもので,撮像範囲3に含まれている被写体像OBを表わしている。
 上述したのと同様に,撮像範囲3のほぼ中央に比較的小さな第1のAFエリア1が規定されており,その第1のAFエリア1を含み,かつその第1のAFエリア1よりも大きな第2のAFエリア2Aが規定される。第1のAFエリア1内に多く含まれている色情報に近い色情報をもつように,第2のAFエリア2Aが規定されている。
 図18においては,第1のAFエリア1および第2のAFエリア2Aはいずれも撮像範囲3と平行となるように規定されているが,第1のAFエリア1内に多く含まれている色情報に近い色情報をもつのであれば第2のAFエリア2Aは撮像範囲3に対して傾いていてもよい。もっとも,第1のAFエリア1も撮像範囲3に対して傾いていてもよい。
 以上,この発明の実施例による撮影装置の実施形態として,ディジタル・カメラについて説明してきたが,撮影装置の構成はこれに限定されない。その他の撮影装置としては,例えば,内蔵型又は外付け型のPC用カメラ,或いは,以下に説明するような,撮影機能を有する携帯端末装置とすることができる。
 この発明による撮影装置の一実施形態である携帯端末装置としては,例えば,携帯電話機やスマートフォン,PDA(Personal Digital Assistants),携帯型ゲーム機が挙げられる。以下,スマートフォンを例に挙げ,図面を参照しつつ,詳細に説明する。
 図21は,本発明の撮影装置の一実施形態であるスマートフォン81の外観を示すものである。図21に示すスマートフォン81は,平板状の筐体82を有し,筐体82の一方の面に表示部としての表示パネル91と,入力部としての操作パネル92とが一体となった表示入力部90を備えている。また,係る筐体82は,マイクロフォン102と,スピーカ101,操作部120と,カメラ部121とを備えている。なお,筐体82の構成はこれに限定されず,例えば,表示部と入力部とが独立した構成を採用したり,折り畳み構造やスライド機構を有する構成を採用したりすることもできる。
 図22は,図21に示すスマートフォン81の電気的構成を示すブロック図である。図22に示すように,スマートフォン81の主たる構成要素として,無線通信部205と,表示入力部90と,通話部100と,操作部120と,カメラ部121と,記憶部130と,外部入出力部140と,GPS(Global Positioning System)受信部150と,モーション・センサ部160と,電源部170と,主制御部180とを備える。また,スマートフォン81の主たる機能として,基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部105は,主制御部180の指示にしたがって,移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。係る無線通信を使用して,音声データ,画像データ等の各種ファイルデータ,電子メールデータなどの送受信や,Webデータやストリーミング・データなどの受信を行う。
 表示入力部90は,主制御部180の制御により,画像(静止画像および動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに,表示した情報に対するユーザ操作を検出する,いわゆるタッチ・パネルであって,表示パネル91と,操作パネル92とを備える。
 表示パネル91は,LCD(Liquid Crystal Display),OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル92は,表示パネル91の表示面上に表示される画像を視認可能に載置され,ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。係るデバイスをユーザの指や尖筆によって操作すると,操作に起因して発生する検出信号を主制御部180に出力する。次いで,主制御部180は,受信した検出信号に基づいて,表示パネル91上の操作位置(座標)を検出する。
 図21に示すように,本発明の撮影装置の一実施形態として例示しているスマートフォン81の表示パネル91と操作パネル92とは一体となって表示入力部90を構成しているが,操作パネル92が表示パネル91を完全に覆うような配置となっている。係る配置を採用した場合,操作パネル92は,表示パネル91外の領域についても,ユーザ操作を検出する機能を備えてもよい。換言すると,操作パネル92は,表示パネル91に重なる重畳部分についての検出領域(以下,表示領域と称する)と,それ以外の表示パネル91に重ならない外縁部分についての検出領域(以下,非表示領域と称する)とを備えていてもよい。
 なお,表示領域の大きさと表示パネル91の大きさとを完全に一致させても良いが,両者を必ずしも一致させる必要は無い。また,操作パネル92が,外縁部分と,それ以外の内側部分の2つの感応領域を備えていてもよい。更に,外縁部分の幅は,筐体82の大きさなどに応じて適宜設計されるものである。更にまた,操作パネル92で採用される位置検出方式としては,マトリクススイッチ方式,抵抗膜方式,表面弾性波方式,赤外線方式,電磁誘導方式,静電容量方式などが挙げられ,いずれの方式を採用することもできる。
 通話部100は,スピーカ101やマイクロフォン102を備え,マイクロフォン102を通じて入力されたユーザの音声を主制御部180にて処理可能な音声データに変換して主制御部180に出力したり,無線通信部105あるいは外部入出力部140により受信された音声データを復号してスピーカ101から出力したりするものである。また,図21に示すように,例えば,スピーカ101を表示入力部90が設けられた面と同じ面に搭載し,マイクロフォン102を筐体82の側面に搭載することができる。
 操作部120は,キースイッチなどを用いたハードウェアキーであって,ユーザからの指示を受け付けるものである。例えば,図21に示すように,操作部120は,スマートフォン81の筐体82の側面に搭載され,指などで押下されるとオンとなり,指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部130は,主制御部180の制御プログラムや制御データ,アプリケーション・ソフトウェア,通信相手の名称や電話番号などを対応づけたアドレス・データ,送受信した電子メールのデータ,WebブラウジングによりダウンロードしたWebデータや,ダウンロードしたコンテンツ・データを記憶し,またストリーミング・データなどを一時的に記憶するものである。また,記憶部130は,スマートフォン内蔵の内部記憶部131と着脱自在な外部メモリ・スロットを有する外部記憶部132により構成される。なお,記憶部130を構成するそれぞれの内部記憶部131と外部記憶部132は,フラッシュ・メモリ・タイプ(flash memory type),ハードディスク・タイプ(hard disk type),マルチメディア・カード・マイクロ・タイプ(multimedia card micro type),カード・タイプのメモリ(例えば,MicroSD(登録商標)メモリ等),RAM(Random Access Memory),ROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部140は,スマートフォン81に連結される全ての外部機器とのインターフェイスの役割を果たすものであり,他の外部機器に通信等(例えば,ユニバーサル・シリアル・バス(USB),IEEE1394など)又はネットワーク(例えば,インターネット,無線LAN,ブルートゥース(Bluetooth)(登録商標),RFID(Radio Frequency Identification),赤外線通信(Infrared Data Association:IrDA)(登録商標),UWB(Ultra Wideband)(登録商標),ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン81に連結される外部機器としては,例えば,有/無線ヘッド・セット,有/無線外部充電器,有/無線データ・ポート,カード・ソケットを介して接続されるメモリ・カード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード,オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器,無線接続される外部オーディオ・ビデオ機器,有/無線接続されるスマートフォン,有/無線接続されるパーソナル・コンピュータ,有/無線接続されるPDA,有/無線接続されるパーソナル・コンピュータ,イヤフォンなどがある。外部入出力部は,このような外部機器から伝送を受けたデータをスマートフォン81の内部の各構成要素に伝達することや,スマートフォン81の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部150は,主制御部180の指示にしたがって,GPS衛星ST1~STnから送信されるGPS信号を受信し,受信した複数のGPS信号に基づく測位演算処理を実行し,当該スマートフォン1の緯度,経度,高度からなる位置を検出する。GPS受信部150は,無線通信部105や外部入出力部140(例えば,無線LAN)から位置情報を取得できる時には,その位置情報を用いて位置を検出することもできる。
 モーション・センサ部160は,例えば,3軸の加速度センサなどを備え,主制御部180の指示にしたがって,スマートフォン81の物理的な動きを検出する。スマートフォン81の物理的な動きを検出することにより,スマートフォン81の動く方向や加速度が検出される。係る検出結果は,主制御部180に出力されるものである。
 電源部170は,主制御部180の指示にしたがって,スマートフォン81の各部に,バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部180は,マイクロ・プロセッサを備え,記憶部130が記憶する制御プログラムや制御データにしたがって動作し,スマートフォン81の各部を統括して制御するものである。また,主制御部180は,無線通信部105を通じて,音声通信やデータ通信を行うために,通信系の各部を制御する移動通信制御機能と,アプリケーション処理機能を備える。
 アプリケーション処理機能は,記憶部130が記憶するアプリケーション・ソフトウェアにしたがって主制御部180が動作することにより実現するものである。アプリケーション処理機能としては,例えば,外部入出力部140を制御して対向機器とデータ通信を行う赤外線通信機能や,電子メールの送受信を行う電子メール機能,Webページを閲覧するWebブラウジング機能などがある。
 また,主制御部180は,受信データやダウンロードしたストリーミング・データなどの画像データ(静止画像や動画像のデータ)に基づいて,映像を表示入力部90に表示する等の画像処理機能を備える。画像処理機能とは,主制御部180が,上記画像データを復号し,係る復号結果に画像処理を施して,画像を表示入力部90に表示する機能のことをいう。
 更に,主制御部180は,表示パネル91に対する表示制御と,操作部120,操作パネル92を通じたユーザ操作を検出する操作検出制御を実行する。表示制御の実行により,主制御部180は,アプリケーション・ソフトウェアを起動するためのアイコンや,スクロール・バーなどのソフトウェア・キーを表示したり,あるいは電子メールを作成するためのウィンドウを表示したりする。なお,スクロール・バーとは,表示パネル91の表示領域に収まりきれない大きな画像などについて,画像の表示部分を移動する指示を受け付けるためのソフトウェア・キーのことをいう。
 また,操作検出制御の実行により,主制御部180は,操作部120を通じたユーザ操作を検出したり,操作パネル92を通じて,上記アイコンに対する操作や,上記ウィンドウの入力欄に対する文字列の入力を受け付けたり,あるいは,スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に,操作検出制御の実行により主制御部180は,操作パネル92に対する操作位置が,表示パネル91に重なる重畳部分(表示領域)か,それ以外の表示パネル91に重ならない外縁部分(非表示領域)かを判定し,操作パネル92の感応領域や,ソフトウェア・キーの表示位置を制御するタッチ・パネル制御機能を備える。
 また,主制御部180は,操作パネル92に対するジェスチャ操作を検出し,検出したジェスチャ操作に応じて,予め設定された機能を実行することもできる。ジェスチャ操作とは,従来の単純なタッチ操作ではなく,指などによって軌跡を描いたり,複数の位置を同時に指定したり,あるいはこれらを組み合わせて,複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部121は,CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するディジタル・カメラである。また,カメラ部121は,主制御部180の制御により,撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し,記憶部130に記録したり,入出力部140や無線通信部105を通じて出力したりすることができる。図21に示すスマートフォン81において,カメラ部121は表示入力部90と同じ面に搭載されているが,カメラ部121の搭載位置はこれに限らず,表示入力部90の背面に搭載されてもよいし,あるいは,複数のカメラ部121が搭載されてもよい。なお,複数のカメラ部121が搭載されている場合には,撮影に供するカメラ部121を切り替えて単独にて撮影したり,あるいは,複数のカメラ部121を同時に使用して撮影したりすることもできる。
 また,カメラ部121はスマートフォン81の各種機能に利用することができる。例えば,表示パネル91にカメラ部121で取得した画像を表示することや,操作パネル92の操作入力のひとつとして,カメラ部121の画像を利用することができる。また,GPS受信部150が位置を検出する際に,カメラ部121からの画像を参照して位置を検出することもできる。更には,カメラ部121からの画像を参照して,3軸の加速度センサを用いずに,或いは,3軸の加速度センサと併用して,スマートフォン81のカメラ部121の光軸方向を判断することや,現在の使用環境を判断することもできる。勿論,カメラ部121からの画像をアプリケーション・ソフトウェア内で利用することもできる。
 その他,静止画又は動画の画像データにGPS受信部150により取得した位置情報,マイクロフォン102により取得した音声情報(主制御部等により,音声テキスト変換を行ってテキスト情報となっていてもよい),モーション・センサ部160により取得した姿勢情報等などを付加して記憶部130に記憶したり,入出力部140や無線通信部105を通じて出力したりすることもできる。
 上述したスマートフォン81に,この実施例による処理を適用する場合,上述した制御は,主制御装置180によって行われることとなろう。また,カメラ部121には,上述したフォーカス・レンズ12,撮像素子14などが含まれており,上述したように第1の高周波数成分AF評価値データ,第2の高周波数成分AF評価値データ,第1の低周波数成分AF評価値データおよび第2の低周波数成分AF評価値データが得られる。得られたデータにもとづいて,スマートフォン81において上述した処理が行われる。
1 第1のAFエリア
2,2A 第2のAFエリア
3 撮像範囲
12 フォーカス・レンズ
14 撮像素子
15 CPU
18 レンズ駆動回路
26 ディジタル信号処理回路
26A AF評価値生成回路

Claims (9)

  1.  光軸方向にフォーカス・レンズを移動させながら,フォーカス・レンズの移動位置ごとに被写体を撮像し,被写体像を表わす画像データを出力する撮像装置,
     上記撮像装置から出力された画像データにもとづいて得られる,高周波数成分の合焦評価値を表わす高周波数成分合焦評価値データのうち,撮像範囲のうちの第1の領域内の被写体像部分から得られる第1の高周波数成分合焦評価値データ,および上記第1の領域を含み,かつ上記第1の領域よりも広い第2の領域内の被写体像部分から得られる第2の高周波数成分合焦評価値データを抽出する高周波数成分合焦評価値データ抽出手段,
     上記撮像装置から出力された画像データにもとづいて得られる低周波数成分合焦評価値データであって,上記高周波数成分合焦評価値データよりも相対的に低周波数成分の合焦評価値を表わす低周波数成分合焦評価値データのうち,上記第1の領域内の被写体像部分から得られる第1の低周波数成分合焦評価値データ,および上記第2の領域内の被写体像部分から得られる第2の低周波数成分合焦評価値データを抽出する低周波数成分評価値データ抽出手段,ならびに
     上記高周波数成分合焦評価値データ抽出手段によって抽出された第1の高周波数成分合焦評価値データおよび第2の高周波数成分合焦評価値データ,ならびに上記低周波数成分合焦評価値データ抽出手段によって抽出された第1の低周波数成分合焦評価値データおよび第2の低周波数成分合焦評価値データのうちのいずれか一つの合焦評価値データのピーク値を基準として定められるフォーカス・レンズの有効範囲に含まれている,第1の高周波数成分合焦評価値データのピーク値,第2の高周波数成分合焦評価値データのピーク値,第1の低周波数成分合焦評価値データのピーク値および第2の低周波数成分合焦評価値データのピーク値の位置にもとづいてフォーカス・レンズの合焦位置を決定する合焦位置決定手段,
     を備えた撮像装置。
  2.  上記合焦位置決定手段は,
     上記有効範囲内において,第1の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置と第1の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置とが一致しているかどうかを判定する第1の判定手段を備え,
     上記第1の判定手段によって一致していると判定されたことに応じて,フォーカス・レンズの合焦位置を,第1の高周波数成分合焦評価値データのピーク値におけるフォーカス・レンズ位置に近づくようにし,上記第1の判定手段によって不一致と判定されたことに応じて,フォーカス・レンズの合焦位置を,上記第1の判定手段によって一致していると判定された場合に決定されるフォーカス・レンズの合焦位置よりも第2の高周波数成分合焦評価値データのピーク値におけるフォーカス・レンズ位置に近づくようにするものである,
     請求項1に記載の撮像装置。
  3.  上記合焦位置決定手段は,
     第1の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置と第2の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置との第1のフォーカス・レンズ位置の組が上記有効範囲に含まれている,あるいは,第1の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置と第2の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置との第2のフォーカス・レンズ位置の組が上記有効範囲内に含まれているかどうかを判定する第2の判定手段をさらに備え,
     上記第2の判定手段によって,第1のフォーカス・レンズ位置の組または第2のフォーカス・レンズ位置の組の少なくとも一方のフォーカス・レンズ位置の組が上記有効範囲に含まれていないと判定されたことに応じて,含まれていないと判定されたフォーカス・レンズ位置の組を構成するフォーカス・レンズ位置のピーク値をもつ合焦評価値データを除く合焦評価値データを用いてフォーカス・レンズの合焦位置を決定するものである,
     請求項1または2に記載の撮像装置。
  4.  上記合焦位置決定手段は,
     被写体が低輝度の場合に,第1の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置および第2の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置に近づくようにフォーカス・レンズの合焦位置が決定され,被写体が低輝度でない場合に,第1の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置および第2の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置に近づくようにフォーカス・レンズの合焦位置が決定されるものである,
     請求項1から3のうち,いずれか一項に記載の撮像装置。
  5.  上記撮像装置から出力された画像データのレベルを増幅率に応じて増幅する増幅手段をさらに備え,
     上記合焦位置決定手段は,
     上記増幅手段の増幅率が所定の増幅率以上の場合に,第1の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置および第2の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置に近づくようにフォーカス・レンズの合焦位置が決定され,上記増幅手段の増幅率が所定の増幅率未満の場合に,第1の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置および第2の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置に近づくようにフォーカス・レンズの合焦位置が決定されるものである,
     請求項1から4のうち,いずれか一項に記載の撮像装置。
  6.  上記第2の領域は,大きさが異なるn個の領域であり,
     上記高周波数成分合焦評価値データ抽出手段は,
     上記高周波数成分合焦評価値データのうち,撮像範囲のうちの第1の領域内の被写体像部分から得られる第1の高周波数成分合焦評価値データおよび上記第1の領域を含みかつ上記第1の領域よりも広いn個の異なる大きさの第2の領域内の被写体像部分から得られるn個の第2の高周波数成分合焦評価値データを生成するものであり,
     上記低周波数成分合焦評価値データ抽出手段は,
     上記低周波数成分合焦評価値データのうち,上記第1の領域内の被写体像部分から得られる第1の低周波数成分合焦評価値データおよび上記n個の第2の領域内のそれぞれの被写体像部分から得られるn個の第2の低周波数成分合焦評価値データを抽出するものであり,
     上記合焦位置決定手段は,
     第1の高周波数成分合焦評価値データ,第1の低周波数成分合焦評価値データ,n個の第2の高周波数成分合焦評価値データおよびn個の第2の低周波数成分合焦評価値データのそれぞれのピーク値のフォーカス・レンズ位置が一致するかどうかを判定する一致判定手段を備え,
     上記一致判定手段によって一致していると判定されたことに応じて,領域の大きさが小さいものから得られる合焦評価値データのピーク値のフォーカス・レンズ位置に近づくようにフォーカス・レンズの合焦位置を決定するものである,
     請求項1から4のうち,いずれか一項に記載の撮像装置。
  7.  上記合焦位置判定手段は,
     上記第1の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置とn個の第2の高周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置のうち,いずれかのフォーカス・レンズ位置が一致しないものがあるか,あるいは,上記第1の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置とn個の低周波数成分合焦評価値データのピーク値のフォーカス・レンズ位置のうち,いずれかのフォーカス・レンズ位置が一致しないものがあるかどうかを判定する不一致判定手段を備え,
     上記不一致判定手段によってフォーカス・レンズ位置が一致していないものがあると判定されたことに応じて,一致したフォーカス・レンズ位置に近づくようにフォーカス・レンズ位置を決定するものである,
     請求項6に記載の撮像装置。
  8.  第1の領域内に存在する被写体像部分の色分布を検出する色分布検出手段,および
     上記色分布検出手段によって検出された色分布に近い色分布を有するように第2のエリアを決定する周辺エリア決定手段,
     をさらに備えた請求項1から7のうち,いずれか一項に記載の撮像装置。
  9.  撮像装置が,光軸方向にフォーカス・レンズを移動させながら,フォーカス・レンズの移動位置ごとに被写体を撮像し,被写体像を表わす画像データを出力し,
     高周波数成分合焦評価値データ抽出手段が,上記撮像装置から出力された画像データにもとづいて得られる,高周波数成分の合焦評価値を表わす高周波数成分合焦評価値データのうち,撮像範囲のうちの第1の領域内の被写体像部分から得られる第1の高周波数成分合焦評価値データ,および上記第1の領域を含み,かつ上記第1の領域よりも広い第2の領域内の被写体像部分から得られる第2の高周波数成分合焦評価値データを抽出し,
     低周波数成分合焦評価値データ抽出手段が,上記撮像装置から出力された画像データにもとづいて得られる低周波数成分合焦評価値データであって,上記高周波数成分合焦評価値データよりも相対的に低周波数成分の合焦評価値を表わす低周波数成分合焦評価値データのうち,上記第1の領域内の被写体像部分から得られる第1の低周波数成分合焦評価値データ,および上記第2の領域内の被写体像部分から得られる第2の低周波数成分合焦評価値データを抽出し,
     合焦位置決定手段が,上記高周波数成分合焦評価値データ抽出手段によって抽出された第1の高周波数成分合焦評価値データおよび第2の高周波数成分合焦評価値データ,ならびに上記低周波数成分合焦評価値データ抽出手段によって抽出された第1の低周波数成分合焦評価値データおよび第2の低周波数成分合焦評価値データのうちのいずれか一つの合焦評価値データのピーク値を基準として定められるフォーカス・レンズの有効範囲に含まれている,第1の高周波数成分合焦評価値データのピーク値,第2の高周波数成分合焦評価値データのピーク値,第1の低周波数成分合焦評価値データのピーク値および第2の低周波数成分合焦評価値データのピーク値の位置にもとづいてフォーカス・レンズの合焦位置を決定する,
     撮像装置の動作制御方法。
PCT/JP2013/079496 2012-11-06 2013-10-31 撮像装置およびその動作制御方法 WO2014073441A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-244031 2012-11-06
JP2012244031 2012-11-06

Publications (1)

Publication Number Publication Date
WO2014073441A1 true WO2014073441A1 (ja) 2014-05-15

Family

ID=50684549

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/079496 WO2014073441A1 (ja) 2012-11-06 2013-10-31 撮像装置およびその動作制御方法

Country Status (1)

Country Link
WO (1) WO2014073441A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019242617A1 (zh) * 2018-06-19 2019-12-26 深圳市大疆创新科技有限公司 确定装置、摄像装置、确定方法以及程序

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0961705A (ja) * 1995-06-14 1997-03-07 Sony Corp オートフォーカス装置
JP2001242371A (ja) * 2000-02-28 2001-09-07 Ricoh Co Ltd 自動焦点制御装置
JP2004198699A (ja) * 2002-12-18 2004-07-15 Matsushita Electric Ind Co Ltd デジタルカメラ
JP2006017960A (ja) * 2004-06-30 2006-01-19 Kodak Digital Product Center Japan Ltd 撮像方法及び撮像装置
JP2010183174A (ja) * 2009-02-03 2010-08-19 Nikon Corp 画像処理装置、撮像装置およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0961705A (ja) * 1995-06-14 1997-03-07 Sony Corp オートフォーカス装置
JP2001242371A (ja) * 2000-02-28 2001-09-07 Ricoh Co Ltd 自動焦点制御装置
JP2004198699A (ja) * 2002-12-18 2004-07-15 Matsushita Electric Ind Co Ltd デジタルカメラ
JP2006017960A (ja) * 2004-06-30 2006-01-19 Kodak Digital Product Center Japan Ltd 撮像方法及び撮像装置
JP2010183174A (ja) * 2009-02-03 2010-08-19 Nikon Corp 画像処理装置、撮像装置およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019242617A1 (zh) * 2018-06-19 2019-12-26 深圳市大疆创新科技有限公司 确定装置、摄像装置、确定方法以及程序
CN111344631A (zh) * 2018-06-19 2020-06-26 深圳市大疆创新科技有限公司 确定装置、摄像装置、确定方法以及程序

Similar Documents

Publication Publication Date Title
US10095004B2 (en) Imaging apparatus and focusing control method
US20150010247A1 (en) Image processing device, imaging device, computer-readable storage medium, and image processing method
JP6186521B2 (ja) 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム
JP5736512B2 (ja) 撮像装置およびその動作制御方法
JP5719480B2 (ja) 画像変形装置およびその動作制御方法
JP6028112B2 (ja) 撮像装置及び合焦制御方法
US20160344922A1 (en) Imaging device and focusing control method
US11438521B2 (en) Image capturing device, image capturing method, and program
JPWO2016080538A1 (ja) 撮像装置及び撮像方法
WO2019181515A1 (ja) 撮像制御装置、撮像装置、撮像制御方法、及び撮像制御プログラム
JPWO2015118727A1 (ja) 撮像装置及び合焦制御方法
JPWO2013168493A1 (ja) 信号処理装置、撮像装置、信号補正方法
JP6364560B2 (ja) 合焦制御装置、撮像装置、合焦制御方法、及び、合焦制御プログラム
JP5768193B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム
JP6171105B2 (ja) 撮像装置及び合焦制御方法
JP6446599B2 (ja) 合焦制御装置、レンズ装置、撮像装置、合焦制御方法、合焦制御プログラム
WO2014073441A1 (ja) 撮像装置およびその動作制御方法
JP5832673B2 (ja) 撮像装置およびその動作制御方法
JP7085651B2 (ja) 撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラム
WO2019181299A1 (ja) 撮像制御装置、撮像装置、撮像制御方法、及び撮像制御プログラム
WO2013145887A1 (ja) 撮像装置及び撮像方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13853338

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13853338

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP