WO2014041859A1 - 撮像制御装置、撮像装置、および、撮像制御装置の制御方法 - Google Patents

撮像制御装置、撮像装置、および、撮像制御装置の制御方法 Download PDF

Info

Publication number
WO2014041859A1
WO2014041859A1 PCT/JP2013/066074 JP2013066074W WO2014041859A1 WO 2014041859 A1 WO2014041859 A1 WO 2014041859A1 JP 2013066074 W JP2013066074 W JP 2013066074W WO 2014041859 A1 WO2014041859 A1 WO 2014041859A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
focus
focus detection
unit
display
Prior art date
Application number
PCT/JP2013/066074
Other languages
English (en)
French (fr)
Inventor
赤松 範彦
暁史 水上
小森 賢二
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2014535401A priority Critical patent/JP6094588B2/ja
Priority to US14/419,733 priority patent/US9219856B2/en
Priority to EP13837414.5A priority patent/EP2896980B1/en
Priority to CN201380046026.3A priority patent/CN104641275B/zh
Publication of WO2014041859A1 publication Critical patent/WO2014041859A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals

Definitions

  • the present technology relates to an imaging control device, an imaging device, and a control method for the imaging control device.
  • the present invention relates to an imaging control apparatus, an imaging apparatus, and a control method for the imaging control apparatus having a function of automatically focusing on a subject.
  • AF Auto Focus
  • This AF function is realized using a contrast detection method, a phase difference detection method, or the like.
  • This contrast detection method is a method of focusing by controlling the lens position to a position where the contrast of the image is highest.
  • the phase difference detection method is a method of focusing by detecting a shift amount between two pupil-divided images as a phase difference and controlling the position of the lens in accordance with the phase difference.
  • a dedicated AF module that receives the pupil-divided light outside the imaging device, a phase difference pixel that receives the pupil-divided light on the imaging device, or the like is used.
  • the former dedicated AF module generally has higher focus detection accuracy than the latter phase difference pixel.
  • an area where the focus is detected in the phase difference pixel (hereinafter referred to as “image plane AF area”) is usually referred to as an area where the focus is detected by the dedicated AF module (hereinafter referred to as “dedicated AF area”). ) More are arranged.
  • An imaging apparatus that includes both the dedicated AF module and the phase difference pixel and focuses on each of the dedicated AF area and the image plane AF area has been proposed (see, for example, Patent Document 1).
  • This imaging apparatus focuses on each of the dedicated AF area and the image plane AF area, and displays the focused AF area in the viewfinder.
  • the dedicated AF area should be prioritized because it has higher accuracy and sensitivity than the image plane AF area, but if the user does not recognize it, which AF area should be prioritized? It becomes difficult for the user to judge.
  • This technology was created in view of such a situation, and aims to allow the user to easily recognize a subject to be prioritized.
  • a first aspect of the present technology is a combination of a plurality of first focus detection regions in which a focus is detected by the first focus detection unit.
  • a focus target selection unit that selects a focus region as a focus target region based on the focus detection result in the first focus detection region, and a plurality of second focus points detected by the second focus detection unit.
  • a display area selection unit that selects an area to be displayed from among the focus detection areas as a display area together with the focus target area based on the focus detection results in the plurality of second focus detection areas; and
  • An imaging control apparatus including a display control unit to be displayed on a display unit, and a control method thereof. Accordingly, the second focus detection area selected as the display area together with the first focus target area based on the focus detection result in the second focus detection area is displayed together with the first focus target area. Bring about an effect.
  • the focus target area selection unit may be configured such that the focus in the second focus detection unit is detected when no focus is detected in any of the plurality of first focus detection areas. Based on the detection result, a region to be focused is selected as the focus target region from the plurality of second focus detection regions, and the display control unit is configured to select the second focus target region as the focus target. When the target area is selected, the focus target area may be selected as the display area. Thereby, when the second focus detection area is selected as the second focus target area, the second focus target area is selected as the display area.
  • the display control unit may further display a region that does not correspond to the focus target region among the plurality of first focus detection regions as a non-focus target region. This brings about the effect
  • the display control unit may further display at least a part of a frame surrounding all of the plurality of second focus detection areas. This brings about the effect that at least a part of the frame surrounding all of the plurality of second focus detection areas is further displayed.
  • the first aspect further includes a defocus amount acquisition unit that acquires, as a defocus amount, a focus shift amount detected by the second focus detection unit in the selected second focus detection region.
  • the display area selection unit may select the second focus detection area having the defocus amount less than a predetermined threshold as the display area together with the focus target area. This brings about the effect that the second focus detection area whose defocus amount is less than the predetermined threshold is selected as the display area.
  • the first focus detection unit may detect a focus with higher accuracy than the second focus detection unit. Accordingly, the first focus detection unit has an effect that the focus is detected with higher accuracy than the second focus detection unit.
  • a focusing unit that performs a focusing operation in the first focusing target area may be further provided. This brings about the effect
  • a first focus detection unit that detects a focus in a plurality of first focus detection areas, and a second focus detection that detects a focus in the plurality of second focus detection areas.
  • a focus target selection unit that selects a focus area from the plurality of first focus detection areas as a focus target area based on the focus detection result in the first focus detection area;
  • a display area selection unit for selecting an area to be displayed from among the plurality of second focus detection areas as a display area together with the focus target area based on the focus detection results in the plurality of second focus detection areas;
  • the image pickup apparatus includes a display control unit that causes the display unit to display the display region together with the focus target region, and an imaging unit that captures an image including the display region. This brings about the effect that the second focus detection area within a certain distance from the first focus detection area selected as the focus area is displayed as the focus target area together with the first focus detection area.
  • FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus according to a first embodiment. It is a block diagram which shows the example of 1 structure of the imaging control apparatus in 1st Embodiment. It is a figure which shows an example of arrangement
  • 3 is a flowchart illustrating an example of an operation of the imaging apparatus according to the first embodiment.
  • First embodiment an example in which a focused dedicated AF area and an image plane AF area in the vicinity thereof are displayed
  • Second Embodiment Example of Displaying a Focused Dedicated AF Area and an AF Area that is not Focused with an Image Area AF Area Nearby
  • FIG. 1 is a diagram illustrating an example of a cross-sectional view of an imaging apparatus 100 according to an embodiment.
  • the imaging apparatus 100 is an apparatus for capturing an image, and includes an imaging lens 110, a fixed half mirror 120, a dedicated AF module 130, an imaging element 140, an operation unit 160, and a display unit 170.
  • the imaging lens 110 is a lens that can adjust the focus.
  • a zoom lens including a focusing lens is used as the imaging lens 110.
  • the focus is adjusted by controlling the position of the focusing lens.
  • the fixed half mirror 120 is a semi-transmissive mirror that transmits part of the light from the imaging lens 110 and enters the image sensor 140 and reflects the remaining part and enters the dedicated AF module 130.
  • the dedicated AF module 130 detects a phase difference between two images that are pupil-divided by a separator lens or the like.
  • the dedicated AF module 130 calculates the degree of correlation between the two images when one of the two pupil-divided images is shifted with respect to the other by various image shift amounts.
  • the dedicated AF module 130 detects, as a phase difference, an image shift amount that maximizes the degree of correlation between them.
  • the dedicated AF module 130 is an example of a first focus detection unit described in the claims.
  • the imaging device 140 converts the amount of light received through the imaging lens 110 and the fixed half mirror 120 into a potential and outputs the potential.
  • the image sensor 140 includes a plurality of normal pixels and a plurality of phase difference pixels. These phase difference pixels are pixels for detecting the phase difference in the same manner as the dedicated AF module.
  • the normal pixel is a pixel used for generating an image, and outputs a potential corresponding to the amount of light as a pixel value.
  • the phase difference pixel is an example of a second focus detection unit described in the claims.
  • the dedicated AF module 130 has a wider defocus amount detection range and higher sensitivity and focus detection accuracy than a phase difference pixel. For this reason, the dedicated AF module 130 is preferentially used in focusing.
  • the operation unit 160 includes a shutter button and a touch panel, and generates an operation signal according to a user operation on the shutter button and the touch panel.
  • the display unit 170 displays an image generated by the image sensor 140.
  • the display unit 170 includes, for example, an electronic viewfinder (EVF: Electric View Finder), and displays a plurality of dedicated AF areas and a plurality of image plane AF areas on the EVF in addition to images.
  • EVF Electric View Finder
  • the dedicated AF area is an area where the focus is detected by the dedicated AF module 130.
  • the image plane AF area is an area where the focus is detected in the phase difference pixel. Identification information for identifying individual AF areas is assigned to each of these dedicated AF areas. Similarly, identification information is assigned to each of the image plane AF areas.
  • FIG. 2 is a block diagram illustrating a configuration example of the imaging apparatus 100 according to the first embodiment.
  • the imaging apparatus 100 includes an image processing unit 150, an image recording unit, in addition to the imaging lens 110, the fixed half mirror 120, the dedicated AF module 130, the imaging element 140, the operation unit 160, and the display unit 170 described in FIG. 180 and the imaging control apparatus 200.
  • the image sensor 140 includes a phase difference pixel 141 and a normal pixel 142.
  • the image processing unit 150 performs image processing such as demosaic processing and white balance processing on the image data generated based on the pixel value of the normal pixel 142.
  • the image processing unit 150 receives a pixel value from the normal pixel 142 via the signal line 149 and holds image data including the pixel value.
  • the image processing unit 150 interpolates pixels corresponding to the phase difference pixels 141 in the held image. Then, the image processing unit 150 performs image processing such as demosaic processing and white balance processing on the interpolated image data as necessary, and sends a signal line 159 to the display unit 170, the image recording unit 180, and the imaging control apparatus 200. Output via.
  • the imaging control device 200 controls the entire imaging device 100.
  • the imaging apparatus 100 executes a focusing process for focusing according to the operation signal received from the operation unit 160 via the signal line 169.
  • the imaging control apparatus 200 controls the dedicated AF module 130 and the phase difference pixel 141 via the signal lines 139 and 208 to start detection of the phase difference.
  • the imaging control apparatus 200 calculates a defocus amount that is a focus shift amount by multiplying the detected phase difference by a predetermined conversion coefficient.
  • the imaging control apparatus 200 receives image data from the image processing unit 150 and recognizes a subject in the image data. For example, the imaging control apparatus 200 recognizes a person or an object as a subject by using a template matching method in which a template image to be searched is moved and compared in image data. Alternatively, the imaging control apparatus 200 recognizes the moving body as a subject using an inter-frame difference method that detects a moving body by taking a difference between two consecutive images. Note that the imaging control apparatus 200 can also recognize the subject by other methods. For example, the imaging control apparatus 200 may recognize the skin-colored area as the area of the person who is the subject.
  • the imaging control apparatus 200 determines any subject that at least partially overlaps the dedicated AF area as a subject to be tracked to be focused. Even when the tracking target moves within the screen, the imaging control apparatus 200 continues to track the tracking target subject. Details of the tracking target determination method and the tracking method will be described later.
  • the imaging control apparatus 200 selects the dedicated AF area as the AF target area. This AF target area is an area to be focused.
  • the imaging control apparatus 200 selects an image plane AF area that overlaps at least a part of the subject as the AF target area.
  • the imaging control apparatus 200 controls the position of the focusing lens of the imaging lens 110 via the signal line 207. Specifically, the imaging control device 200 controls the position of the focusing lens of the imaging lens 110 to a position where the defocus amount of the AF target area becomes less than a predetermined threshold. Thereby, the AF target area is focused. After focusing on the AF target area, the imaging control apparatus 200 controls the display unit 170 via the signal line 209 to display the focused dedicated AF area and the image plane AF area.
  • the imaging control apparatus 200 executes an imaging process for causing the image recording unit 180 to record image data in accordance with an operation signal from the operation unit 160.
  • FIG. 3 is a block diagram illustrating a configuration example of the imaging control apparatus 200 according to the first embodiment.
  • the imaging control apparatus 200 includes an image plane AF area defocus amount generation unit 210, a dedicated AF area defocus amount generation unit 220, an image recognition unit 230, an AF target area selection unit 240, and a focusing unit 250.
  • the imaging control apparatus 200 includes a display area selection unit 260 and a display control unit 270.
  • the image plane AF area defocus amount generation unit 210 generates a defocus amount from the image shift amount detected by the phase difference pixel 141, that is, the phase difference.
  • the image plane AF area defocus amount generation unit 210 starts detection of a phase difference in each of the image plane AF areas in accordance with an operation signal from the operation unit 160.
  • the image plane AF area defocus amount generation unit 210 generates a defocus amount in each of the image plane AF areas by multiplying the phase difference by a predetermined conversion coefficient. .
  • the image plane AF area defocus amount generation unit 210 supplies the generated defocus amount to the AF target area selection unit 240 and the display area selection unit 260.
  • the dedicated AF area defocus amount generation unit 220 generates a defocus amount from the phase difference detected by the dedicated AF module 130.
  • the dedicated AF area defocus amount generation unit 220 detects a phase difference in each of the dedicated AF areas in accordance with an operation signal from the operation unit 160 generated in response to an operation for starting focusing. Let's start.
  • the operation for starting focusing is, for example, a half-press or full-press operation of the shutter button.
  • the dedicated AF area defocus amount generation unit 220 When each of the phase differences is detected, the dedicated AF area defocus amount generation unit 220 generates a defocus amount in each of the dedicated AF areas by multiplying the phase difference by a predetermined conversion coefficient. Then, the dedicated AF area defocus amount generation unit 220 supplies the generated defocus amount to the AF target area selection unit 240.
  • the image recognition unit 230 receives image data from the image processing unit 150 and recognizes a subject in the image data. For example, the image recognition unit 230 recognizes a person or an object as a subject by using a template matching method in which a template image to be searched is moved and compared in image data. Alternatively, the imaging control apparatus 200 recognizes the moving body as a subject using an inter-frame difference method that detects a moving body by taking a difference between two consecutive images.
  • the AF target area selection unit 240 selects an AF target area from the dedicated AF area and the image plane AF area.
  • the AF target area selection unit 240 receives the defocus amount from the image plane AF area defocus amount generation unit 210 and the dedicated AF area defocus amount generation unit 220. Then, the AF target area selection unit 240 determines whether or not focusing is possible in any AF area based on the defocus amount. For example, when the driving range of the focusing lens is limited in order to shorten the release time lag, the focus position corresponding to the detected defocus amount may correspond to a position where the focusing lens cannot be driven. At this time, the AF target area selection unit 240 determines that focusing is impossible.
  • the AF target area selecting unit 240 When the in-focus state cannot be achieved, the AF target area selecting unit 240 outputs an in-focus incapable signal for causing the user to recognize that the in-focus state is not possible.
  • the out-of-focus signal is a signal for controlling the display unit 170 so as not to display the AF area, for example.
  • the AF target area selection unit 240 receives the recognition result of the subject from the image recognition unit 230. Then, the AF target area selection unit 240 sets a subject to be tracked from among subjects recognized based on the recognition result, among subjects that at least partially overlap the dedicated AF area. For example, based on the defocus amount of the dedicated AF area, the closest subject is set as the tracking target.
  • the distance to the subject can be obtained from the defocus amount. This is because in the depth direction, the absolute value of the defocus amount increases as the position of the subject is closer or farther from the in-focus position. Whether the subject is closer or farther than the in-focus position is determined from the sign of the defocus amount. Whether the sign of the defocus amount is positive or negative when the subject is close is determined by which of the two images is used as a reference in detecting the image shift amount.
  • the AF target area selection unit 240 changes the AF target area according to the movement even if the tracking target moves, and the tracking target Continue to focus on. For example, the AF target area selection unit 240 acquires the defocus amounts of the dedicated AF area and the image plane AF area. Then, the AF target area selection unit 240 detects the moving object and the amount of movement using the background difference method, the inter-frame difference method, or the like. The AF target area selection unit 240 determines that the subject with the smallest defocus amount among the detected moving objects is the subject to be tracked. The high degree of similarity is obtained by, for example, the sum of absolute values of differences in luminance values of pixels at the same position in the stored image and the comparison target image.
  • the AF target area selection unit 240 determines whether there is a dedicated AF area that overlaps at least a part of the subject. When there is a dedicated AF area that overlaps at least a part of the subject, the AF target area selection unit 240 selects the dedicated AF area as the AF target area.
  • the AF target area selection unit 240 selects an image plane AF area that overlaps at least a part of the subject as the AF target. Select as area.
  • the AF target area selection unit 240 acquires the identification information of the selected AF target area, and supplies it to the focusing unit 250 together with the defocus amount of the AF target area.
  • the AF target area selection unit is an example of a focusing target region selection unit described in the claims.
  • the focusing unit 250 focuses on the selected AF target area.
  • the focusing unit 250 determines whether the defocus amount from the AF target area selection unit 240 is less than a threshold value. If it is not less than the threshold value, the focusing unit 250 outputs a lens position control signal for controlling the focusing lens to a position where the defocus amount is less than the threshold value, to the imaging lens 110.
  • the defocus amount is less than the threshold value, that is, when the AF target area is in focus
  • identification information for identifying the AF target area is supplied to the display area selection unit 260 and the display control unit 270.
  • the display area selection unit 260 selects an area to be displayed from the image plane AF area as a display area based on the defocus amount of the image plane AF area.
  • the image plane AF area display control unit 260 receives the defocus amount from the image plane AF area defocus amount generation unit 210. This is because, if the defocus amount of the image plane AF area is acquired, it is possible to determine which image plane AF area is focused when the dedicated AF area is focused.
  • the image plane AF area display control unit 260 selects an image plane AF area that is within a certain distance from the dedicated AF area corresponding to the AF target area and has a defocus amount less than the threshold as a display area together with the AF target area. To do.
  • the display area selection unit 260 selects the image plane AF area as the display area.
  • the display area selection unit 260 supplies the identification information of the AF area selected as the display area to the display control unit 270.
  • the display control unit 270 causes the display unit 170 to display the display area selected by the display control unit 270.
  • the imaging control apparatus 200 displays the AF target area after focusing, but the AF target area may be displayed before focusing and focus may be performed thereafter.
  • FIG. 4 is a diagram showing an example of the arrangement of the dedicated AF area and the image plane AF area in the first embodiment.
  • the mark “ ⁇ ” in FIG. 4 represents the dedicated AF area 601.
  • the mark “+” represents the image plane AF area 701.
  • the phase difference pixel 141 can be arranged more freely than the dedicated AF module 130, more image plane AF areas 701 than the dedicated AF area 601 are arranged on the screen 501 in the EVF.
  • FIG. 5 is a diagram showing an example of a screen displaying the dedicated AF area and the image plane AF area in the first embodiment.
  • FIG. 5A is an example of a screen 502 that displays a dedicated AF area before the AF target area is selected.
  • the dedicated AF area 602 is displayed with, for example, a “ ⁇ ” mark in which the line type is a dotted line.
  • the image plane AF area is not displayed, and a part of the frame 702 surrounding the image plane AF area is displayed. Note that the imaging apparatus 100 may display the entire frame instead of a part of the frame.
  • subjects 801 and 803 that at least partially overlap the dedicated AF area and subjects 802 that do not overlap the dedicated AF area are recognized.
  • the imaging apparatus 100 selects the closest subject 801 of the subjects 801 and 803 as the tracking target and selects the AF area where at least a part of the subject 801 overlaps as the AF target area To do.
  • FIG. 5 is an example of a screen 503 displaying the dedicated AF area and the image plane AF area after the AF target area is selected.
  • the dedicated AF area 603 corresponding to the AF target area is displayed separately from the dedicated AF area 602 other than the AF target area.
  • the dedicated AF area 603 corresponding to the AF target area is displayed with a “ ⁇ ” mark in which the line type is a thick line.
  • a focused image plane AF area 703 within a certain distance from the dedicated AF area 603 is also displayed.
  • C in FIG. 5 is an example of a screen 504 displaying the AF target area when the tracking target moves outside the dedicated AF area.
  • the imaging apparatus 100 selects and displays the image plane AF area 704 that at least partially overlaps the subject 801.
  • the subject 803 is in the dedicated AF area, but is not focused because it is not a tracking target in FIG.
  • the imaging apparatus 100 may display the AF area with marks other than “ ⁇ ” and “+”.
  • the imaging apparatus 100 displays whether it corresponds to the AF target area by distinguishing the type of line, but may distinguish and display by another display method. For example, the imaging apparatus 100 may blink and display only the area corresponding to the AF target area.
  • the dedicated AF area that overlaps with the subject is preferentially displayed as the AF target area. If the AF areas overlapping with the respective subjects are displayed separately, it becomes difficult for the user to recognize which subject should be preferentially imaged.
  • the user can easily recognize the subject to be prioritized. Further, by displaying the image plane AF area in the vicinity of the dedicated AF area, the user can recognize the area of the subject to be tracked.
  • FIG. 6 is a diagram showing an example of a screen 504 displaying the dedicated AF area in the first embodiment.
  • the screen 504 in FIG. 6 is assumed to have a lower overall brightness than the screens illustrated in FIG.
  • the phase difference pixel 141 has a lower sensitivity than that of the dedicated AF module 130. Therefore, the phase difference may not be detected if the luminance is low. In this case, no defocus amount is generated in the image plane AF area, and only the dedicated AF area 603 where at least a part of the subject 801 overlaps is displayed as the AF target area.
  • FIG. 7 is a flowchart illustrating an example of the operation of the imaging apparatus 100 according to the first embodiment. This operation starts, for example, when the imaging apparatus 100 is turned on.
  • the imaging apparatus 100 displays a dedicated AF area that does not correspond to the AF target area (step S901).
  • the imaging apparatus 100 determines whether or not the start of focusing is instructed by an operation such as half-pressing the shutter button (step S902). If the shutter button is not half-pressed (step S902: No), the imaging apparatus 100 returns to step S901.
  • step S902 If the shutter button is half-pressed (step S902: Yes), the imaging apparatus 100 acquires the defocus amount in each of the dedicated AF area and the image plane AF area (step S903). The imaging apparatus 100 determines whether or not focusing is possible in any AF area based on the defocus amount (step S904). When focusing is impossible in any AF area (step S904: No), the imaging apparatus 100 outputs a focusing impossible signal. In addition, the imaging apparatus 100 does not accept an operation for performing imaging such as full pressing of the shutter button (step S908).
  • the imaging apparatus 100 determines a subject to be tracked, and selects a dedicated AF area from among the AF areas that overlap at least a part of the subject. The AF target area is selected with priority (step S905). The imaging apparatus 100 determines whether or not the defocus amount of the AF target area is less than the threshold value, that is, whether or not the AF target area is in focus (step S906).
  • step S906 If the AF target area is in focus (step S906: Yes), the imaging apparatus 100 executes display control processing for displaying the focused AF area (step S910), and performs imaging. An imaging process is executed (step S920).
  • step S906 when the AF target area is not focused (step S906: No), the imaging apparatus 100 controls the position of the imaging lens 110 according to the defocus amount. Further, the imaging apparatus 100 does not accept an operation for performing imaging (step S907). After step S920, S907, or S908, the imaging apparatus 100 returns to step S901.
  • FIG. 8 is a flowchart showing an example of the display control process in the first embodiment.
  • the imaging apparatus 100 determines whether or not any of the dedicated AF areas has been focused (step S911). If one of the dedicated AF areas is in focus (step S911: Yes), the imaging apparatus 100 displays the focused dedicated AF area in the dedicated AF area separately from the other dedicated AF areas (Ste S912). Then, the imaging apparatus 100 determines whether or not one of the image plane AF areas is in focus (step S913).
  • the imaging apparatus 100 displays the focused image plane AF area near the dedicated AF area (step S914).
  • step S911 If none of the dedicated AF areas is in focus (step S911: No), the imaging apparatus 100 displays the focused image plane AF area (step S915). When no focus is achieved in any of the image plane AF areas (step S913: No), the imaging apparatus 100 ends the display control process after step S914 or step S915.
  • FIG. 9 is a flowchart illustrating an example of imaging processing according to the first embodiment.
  • the imaging apparatus 100 accepts an operation for instructing imaging such as full pressing of the shutter button (step S921).
  • the imaging apparatus 100 determines whether imaging is instructed by pressing the shutter button fully (step S922). When the shutter button is fully pressed (step S922: Yes), the imaging apparatus 100 performs imaging by recording image data in the image recording unit 180 (step S923). If the shutter button has not been fully pressed (step S922: No), or after step S923, the imaging apparatus 100 ends the imaging process.
  • the first embodiment it is possible to focus on the dedicated AF area and display the image plane AF area together with the dedicated AF area based on the focus detection result of the image plane AF area.
  • the AF area with the higher focus detection accuracy among the dedicated AF area and the image plane AF area, that is, the dedicated AF area is displayed. Therefore, the user can easily recognize the AF area with higher focus detection accuracy. Further, by further displaying the image plane AF area, the user can recognize the area of the subject to be tracked.
  • the arrangement of the dedicated AF area and the image plane AF area is not limited to the configuration illustrated in FIG.
  • the image plane AF area and the dedicated AF area may be arranged so as to overlap each other.
  • the imaging apparatus 100 displays a part of the frame surrounding the image plane AF area as illustrated in FIG. 5, the entire frame may be hidden as illustrated in FIG.
  • FIG. 12 is a diagram illustrating an example of a screen displaying the dedicated AF area and the image plane AF area in the second embodiment.
  • the imaging apparatus 100 did not display the image plane AF area whose defocus amount is not less than the threshold.
  • the imaging apparatus 100 further displays the image plane AF area whose defocus amount is not less than the threshold.
  • You can also The imaging apparatus 100 according to the second embodiment is different from the first embodiment in that an image plane AF area whose defocus amount is not less than a threshold is further displayed.
  • FIG. 12a is an example of display of the dedicated AF area before the AF target area is selected.
  • an image plane AF area 706 whose defocus amount is not less than the threshold is further displayed.
  • the image plane AF area 706 in which the defocus amount is not less than the threshold value is displayed by, for example, a “+” mark having a thin line width.
  • the image plane AF area 703 whose defocus amount is not less than the threshold is displayed separately from the image plane AF area 706 whose defocus amount is less than the threshold. For example, an image plane AF area 703 having a defocus amount less than a threshold value is displayed with a “+” mark having a large line width.
  • an image plane AF area whose defocus amount is not less than the threshold value is further displayed.
  • the range of the area where the focus is detected can be recognized by the user, and the user can easily focus.
  • a focus target area is selected from a plurality of first focus detection areas in which a focus is detected by the first focus detection unit based on the focus detection result in the first focus detection area.
  • An in-focus object selection unit to select as an area;
  • An area to be displayed based on a detection result of the focus in the plurality of second focus detection areas is displayed from among the plurality of second focus detection areas where the focus is detected by the second focus detection unit.
  • a display area selection part to be selected as a display area
  • An imaging control apparatus comprising: a display control unit that displays the display area on a display unit.
  • the focus target area selection unit is based on the focus detection result in the second focus detection unit. Selecting an in-focus area from the plurality of second focus detection areas as the in-focus area;
  • the display control unit according to (1) wherein the display control unit selects the focus target area as the display area when the second focus target area is selected as the focus target area.
  • (3) The imaging according to (1) or (2), wherein the display control unit further displays a region not corresponding to the focus target region among the plurality of first focus detection regions as a non-focus target region. Control device.
  • the display control unit further displays at least a part of a frame surrounding all of the plurality of second focus detection areas.
  • a defocus amount acquisition unit that acquires, as a defocus amount, a shift amount of the focus detected by the second focus detection unit in the selected second focus detection region;
  • the display area selection unit selects the second focus detection area having the defocus amount less than a predetermined threshold as the display area together with the focusing target area, according to any one of (1) to (4).
  • Imaging control device (6) The imaging control device according to any one of (1) to (5), wherein the first focus detection unit detects a focus with higher accuracy than the second focus detection unit.
  • a first focus detection unit that detects a focus in a plurality of first focus detection regions; A second focus detector for detecting a focus in a plurality of second focus detection areas; An in-focus object selecting unit that selects an in-focus area from the plurality of first focus detection areas as an in-focus object area based on the focus detection result in the first focus detection area; A display area selection unit for selecting an area to be displayed from among the plurality of second focus detection areas as a display area together with the focus target area based on the focus detection results in the plurality of second focus detection areas; , An imaging apparatus comprising: a display control unit that causes the display unit to display the display region together with the focus target region; and an imaging unit that captures an image including the display region.
  • the focus detection in the first focus detection region is a region in which the focus target selection unit focuses from the plurality of first focus detection regions in which the focus is detected by the first focus detection unit.
  • the display area selection unit displays an area to be displayed from among the plurality of second focus detection areas in which the focus is detected by the second focus detection unit, based on the focus detection result in the plurality of second focus detection areas.
  • a control method for an imaging control apparatus comprising: a display control procedure for causing a display control unit to display the display area on a display unit.
  • DESCRIPTION OF SYMBOLS 100 Image pick-up device 110 Image pick-up lens 120 Fixed half mirror 130 Dedicated AF module 140 Image pick-up element 141 Phase difference pixel 142 Normal pixel 150 Image processing part 160 Operation part 170 Display part 180 Image recording part 200 Imaging control apparatus 210 Image surface AF area defocus amount Generation unit 220 Dedicated AF area defocus amount generation unit 230 Image recognition unit 240 AF target area selection unit 250 Focusing unit 260 Display region selection unit 270 Display control unit

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

 優先すべき被写体を容易にユーザに認識させる。 合焦対象選択部は、第1の焦点検出部により焦点が検出された複数の第1の焦点検出領域の中から合焦する領域を第1の焦点検出領域における焦点の検出結果に基づいて合焦対象領域として選択する。表示領域選択部は、前記合焦対象領域の合焦時に、前記合焦対象領域とともに、第2の焦点検出部により焦点が検出された複数の第2の焦点検出領域の中から複数の第2の焦点検出領域における焦点の検出結果に基づいて表示領域として選択する。表示制御部は、表示領域を表示部に表示させる。

Description

撮像制御装置、撮像装置、および、撮像制御装置の制御方法
 本技術は、撮像制御装置、撮像装置、および、撮像制御装置の制御方法に関する。詳しくは、被写体に対して自動的に焦点を合わせる機能を有する撮像制御装置、撮像装置、および、撮像制御装置の制御方法に関する。
 従来の撮像装置には、被写体に対して自動的に焦点を合わせる機能、いわゆるAF(Auto Focus)機能が搭載されることが多い。このAF機能は、コントラスト検出方式や位相差検出方式などを使用して実現される。このコントラスト検出方式は、画像のコントラストが最も高くなる位置にレンズの位置を制御することにより合焦する方式である。一方、位相差検出方式は、瞳分割した2つの像の間のズレ量を位相差として検出し、その位相差に応じてレンズの位置を制御することにより合焦する方式である。
 この位相差検出方式においては、瞳分割された光を撮像素子の外部で受光する専用AFモジュールや、瞳分割された光を撮像素子上で受光する位相差画素などが使用される。前者の専用AFモジュールは、一般に、後者の位相差画素と比較して焦点検出の精度が高い。また、位相差画素において焦点が検出されるエリア(以下、「像面AFエリア」と称する。)は、通常、専用AFモジュールにより焦点が検出されるエリア(以下、「専用AFエリア」と称する。)より多く配置される。これらの専用AFモジュールおよび位相差画素の両方を備え、専用AFエリアと像面AFエリアとのそれぞれに焦点を合わせる撮像装置が提案されている(例えば、特許文献1参照。)。この撮像装置は、専用AFエリアと像面AFエリアとのそれぞれにおいて焦点を合わせ、焦点の合ったAFエリアをファインダー内に表示する。
特開2007-233035号公報
 しかしながら、上述の撮像装置では、優先すべき被写体をユーザが認識し難くなるおそれがある。例えば、距離が離れた専用AFエリアと像面AFエリアとの両方で撮像装置が合焦して、それらのAFエリアが別々に表示された場合、どちらのエリアの方を優先して撮像すべきかをユーザが認識し難くなるおそれがある。通常は、専用AFエリアの方が像面AFエリアより精度や感度が高いために優先すべきであるが、それをユーザが認識していない場合には、いずれのAFエリアの被写体を優先すべきかをユーザが判断することが困難となる。
 本技術はこのような状況に鑑みて生み出されたものであり、優先すべき被写体を容易にユーザに認識させることを目的とする。
 本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、第1の焦点検出部により焦点が検出された複数の第1の焦点検出領域の中から合焦する領域を前記第1の焦点検出領域における前記焦点の検出結果に基づいて合焦対象領域として選択する合焦対象選択部と、第2の焦点検出部により焦点が検出された複数の第2の焦点検出領域の中から表示する領域を前記複数の第2の焦点検出領域における前記焦点の検出結果に基づいて前記合焦対象領域とともに表示領域として選択する表示領域選択部と、前記表示領域を表示部に表示させる表示制御部とを具備する撮像制御装置、および、その制御方法である。これにより、第2の焦点検出領域における焦点の検出結果に基づいて第1の合焦対象領域とともに表示領域として選択された第2の焦点検出領域が第1の合焦対象領域とともに表示されるという作用をもたらす。
 また、この第1の側面において、前記合焦対象領域選択部は、前記複数の第1の焦点検出領域のいずれにおいても焦点が検出されなかった場合には前記第2の焦点検出部における前記焦点の検出結果に基づいて前記複数の第2の焦点検出領域の中から合焦する領域を前記合焦対象領域として選択し、前記表示制御部は、前記第2の合焦対象領域が前記合焦対象領域として選択された場合には当該合焦対象領域を前記表示領域として選択してもよい。これにより、第2の焦点検出領域が第2の合焦対象領域として選択された場合にはその第2の合焦対象領域が表示領域として選択されるという作用をもたらす。
 また、この第1の側面において、前記表示制御部は、前記複数の第1の焦点検出領域のうち前記合焦対象領域に該当しない領域を非合焦対象領域としてさらに表示させてもよい。これにより、複数の第1の焦点検出領域のうち第1の合焦対象領域に該当しない領域が非合焦対象領域として表示されるという作用をもたらす。
 また、この第1の側面において、上記表示制御部は、上記複数の第2の焦点検出領域の全てを囲む枠の少なくとも一部をさらに表示させてもよい。これにより、複数の第2の焦点検出領域の全てを囲む枠の少なくとも一部がさらに表示されるという作用をもたらす。
 また、この第1の側面において、前記選択した第2の焦点検出領域において前記第2の焦点検出部により検出された焦点のズレ量をデフォーカス量として取得するデフォーカス量取得部をさらに具備し、前記表示領域選択部は、前記デフォーカス量が所定の閾値未満の前記第2の焦点検出領域を前記表示領域として前記合焦対象領域とともに選択してもよい。これにより、デフォーカス量が所定の閾値未満の第2の焦点検出領域が表示領域として選択されるという作用をもたらす。
 また、この第1の側面において、上記第1の焦点検出部は、上記第2の焦点検出部より高い精度で焦点を検出してもよい。これにより、第1の焦点検出部により、第2の焦点検出部より高い精度で焦点が検出されるという作用をもたらす。
 また、この第1の側面において、上記第1の合焦対象領域において合焦動作を行う合焦部をさらに具備してもよい。これにより第1の合焦対象領域において合焦動作が行われるという作用をもたらす。
 また、本技術の第2の側面は、複数の第1の焦点検出領域において焦点を検出する第1の焦点検出部と、複数の第2の焦点検出領域において焦点を検出する第2の焦点検出部と、前記複数の第1の焦点検出領域の中から合焦する領域を前記第1の焦点検出領域における前記焦点の検出結果に基づいて合焦対象領域として選択する合焦対象選択部と、前記複数の第2の焦点検出領域の中から表示する領域を前記複数の第2の焦点検出領域における前記焦点の検出結果に基づいて前記合焦対象領域とともに表示領域として選択する表示領域選択部と、前記表示領域を前記合焦対象領域とともに表示部に表示させる表示制御部と前記表示領域を含む画像を撮像する撮像部とを具備する撮像装置である。これにより、合焦する領域として選択された第1の焦点検出領域から一定距離内の第2の焦点検出領域が、第1の焦点検出領域とともに合焦対象領域として表示されるという作用をもたらす。
 本技術によれば、優先すべき被写体を容易にユーザに認識させることができるという優れた効果を奏し得る。
第1の実施の形態における撮像装置の断面図の一例である。 第1の実施の形態における撮像装置の一構成例を示すブロック図である。 第1の実施の形態における撮像制御装置の一構成例を示すブロック図である。 第1の実施の形態における専用AFエリアおよび像面AFエリアの配置の一例を示す図である。 第1の実施の形態における専用AFエリアおよび像面AFエリアを表示した画面の一例を示す図である。 第1の実施の形態における専用AFエリアを表示した画面の一例を示す図である。 第1の実施の形態における撮像装置の動作の一例を示すフローチャートである。 第1の実施の形態における表示制御処理の一例を示すフローチャートである。 第1の実施の形態における撮像処理の一例を示すフローチャートである。 変形例における専用AFエリアおよび像面AFエリアの配置の一例を示す図である。 変形例における専用AFエリアおよび像面AFエリアを表示した画面の一例を示す図である。 第2の実施の形態における専用AFエリアおよび像面AFエリアを表示した画面の一例を示す図である。
 以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
 1.第1の実施の形態(合焦した専用AFエリアと、その近傍の像面AFエリアとを表示させる例)
 2.第2の実施の形態(合焦した専用AFエリアと、その近傍の像面AFエリアと合焦していないAFエリアとを表示させる例)
 <1.第1の実施の形態>
 [撮像装置の構成例]
 図1は、実施の形態における撮像装置100の断面図の一例を示す図である。この撮像装置100は、画像を撮像するための装置であり、撮像レンズ110、固定ハーフミラー120、専用AFモジュール130、撮像素子140、操作部160、および、表示部170を備える。
 撮像レンズ110は、焦点を調整することができるレンズである。例えば、フォーカシングレンズを備えるズームレンズが撮像レンズ110として用いられる。このフォーカシングレンズの位置の制御により、焦点が調整される。
 固定ハーフミラー120は、撮像レンズ110からの光の一部を透過して撮像素子140に入射するとともに、残りの一部を反射して専用AFモジュール130に入射する半透過型のミラーである。
 専用AFモジュール130は、セパレータレンズなどにより瞳分割された2つの像の位相差を検出するものである。この専用AFモジュール130は、瞳分割された2つの像の一方を他方に対して、様々な像ズレ量の分、ずらした場合における2つの像の相関度を演算する。専用AFモジュール130は、それらの相関度が最も高くなる像ズレ量を位相差として検出する。なお、専用AFモジュール130は、特許請求の範囲に記載の第1の焦点検出部の一例である。
 撮像素子140は、撮像レンズ110および固定ハーフミラー120を介して受光した光量を電位に変換して出力するものである。この撮像素子140は、複数の通常画素と複数の位相差画素とを備える。これらの位相差画素は、専用AFモジュールと同様の方式で位相差を検出するための画素である。また、通常画素は、画像を生成するために用いられる画素であり、光量に応じた電位を画素値として出力する。なお、位相差画素は、特許請求の範囲に記載の第2の焦点検出部の一例である。
 一般に、専用AFモジュール130は、位相差画素と比較してデフォーカス量の検出範囲が広く、感度および焦点検出精度が高い。このため、専用AFモジュール130は、合焦において優先的に用いられる。
 操作部160は、シャッターボタンやタッチパネルを備え、それらに対するユーザの操作に応じて操作信号を生成するものである。
 表示部170は、撮像素子140により生成された画像を表示するものである。この表示部170は、例えば、電子ビューファインダー(EVF:Electric View Finder)を備え、画像のほか、複数の専用AFエリアと複数の像面AFエリアをEVFに表示する。ここで、専用AFエリアは、専用AFモジュール130により焦点が検出される領域である。また、像面AFエリアは、位相差画素において焦点が検出される領域である。これらの専用AFエリアのそれぞれには、個々のAFエリアを識別するための識別情報が割り当てられている。同様に、像面AFエリアのそれぞれにも識別情報が割り当てられている。
 図2は、第1の実施の形態における撮像装置100の一構成例を示すブロック図である。この撮像装置100は、図1において説明した撮像レンズ110、固定ハーフミラー120、専用AFモジュール130、撮像素子140、操作部160、および、表示部170に加えて、画像処理部150、画像記録部180および撮像制御装置200を備える。撮像素子140は、位相差画素141および通常画素142を備える。
 画像処理部150は、通常画素142の画素値により生成される画像データに対して、デモザイク処理やホワイトバランス処理などの画像処理を実行するものである。この画像処理部150は、信号線149を介して通常画素142から画素値を受け取り、その画素値からなる画像データを保持する。画像処理部150は、保持した画像において位相差画素141に対応する画素を補間する。そして、画像処理部150は、補間後の画像データにデモザイク処理やホワイトバランス処理などの画像処理を必要に応じて実行して、表示部170、画像記録部180および撮像制御装置200に信号線159を介して出力する。
 撮像制御装置200は、撮像装置100全体を制御するものである。この撮像装置100は、操作部160から信号線169を介して受け取った操作信号に従って、焦点を合わせるための合焦処理を実行する。合焦処理において、撮像制御装置200は、信号線139および208を介して専用AFモジュール130および位相差画素141を制御して位相差の検出を開始させる。撮像制御装置200は、検出された位相差に所定の変換係数を乗算することにより、焦点のズレ量であるデフォーカス量を算出する。
 また、撮像制御装置200は、画像処理部150から画像データを受け取り、その画像データにおいて被写体を認識する。撮像制御装置200は、例えば、探索する対象のテンプレート画像を、画像データ内で移動させて比較するテンプレートマッチング法を使用して、人物や物体などを被写体として認識する。あるいは、撮像制御装置200は、連続する2枚の画像の差分をとることで移動体を検出するフレーム間差分法などを使用して、その移動体を被写体として認識する。なお、撮像制御装置200は、他の方法で被写体を認識することもできる。例えば、撮像制御装置200は、肌色の領域を被写体である人物の領域と認識してもよい。
 被写体を認識した後、撮像制御装置200は、少なくとも一部が専用AFエリアと重なる被写体のいずれかを、焦点を合わせ続けるべき追尾対象の被写体に決定する。追尾対象が画面内で移動しても、撮像制御装置200は、その追尾対象の被写体を追尾し続ける。追尾対象の決定方法や、追尾の方法の詳細については後述する。追尾対象の被写体が専用AFエリア外に移動しておらず、被写体の少なくとも一部が専用AFエリアと重なる場合には、撮像制御装置200は、その専用AFエリアをAF対象エリアとして選択する。このAF対象エリアは、焦点を合わせる対象となるエリアである。一方、追尾対象の被写体が移動して、専用AFエリアと重ならない場合には、撮像制御装置200は、その被写体の少なくとも一部と重なる像面AFエリアをAF対象エリアとして選択する。
 AF対象エリアを選択した後、撮像制御装置200は、信号線207を介して撮像レンズ110のフォーカシングレンズの位置を制御する。具体的には、撮像制御装置200は、AF対象エリアのデフォーカス量が所定の閾値未満になる位置に、撮像レンズ110のフォーカシングレンズの位置を制御する。これにより、AF対象エリアが合焦される。AF対象エリアの合焦後、撮像制御装置200は、信号線209を介して表示部170を制御して、焦点を合わせた専用AFエリアや像面AFエリアを表示させる。
 AF対象エリアの合焦後、操作部160からの操作信号に従って、撮像制御装置200は、画像データを画像記録部180に記録させるための撮像処理を実行する。
 [撮像制御装置の構成例]
 図3は、第1の実施の形態における撮像制御装置200の一構成例を示すブロック図である。この撮像制御装置200は、像面AFエリアデフォーカス量生成部210、専用AFエリアデフォーカス量生成部220、画像認識部230、AF対象エリア選択部240、および、合焦部250を備える。また、撮像制御装置200は、表示領域選択部260および表示制御部270を備える。
 像面AFエリアデフォーカス量生成部210は、位相差画素141において検出された像ズレ量、すなわち位相差からデフォーカス量を生成するものである。この像面AFエリアデフォーカス量生成部210は、操作部160からの操作信号に従って、像面AFエリアのそれぞれにおける位相差の検出を開始する。位相差の各々が検出されると、像面AFエリアデフォーカス量生成部210は、それらの位相差に所定の変換係数を乗算することにより、像面AFエリアのそれぞれにおけるデフォーカス量を生成する。像面AFエリアデフォーカス量生成部210は、生成したデフォーカス量を、AF対象エリア選択部240および表示領域選択部260に供給する。
 専用AFエリアデフォーカス量生成部220は、専用AFモジュール130により検出された位相差からデフォーカス量を生成するものである。この専用AFエリアデフォーカス量生成部220は、合焦を開始させるための操作に応じて生成された操作部160からの操作信号に従って、専用AFエリアのそれぞれにおける位相差の検出を専用AFモジュール130に開始させる。合焦を開始させるための操作は、例えば、シャッターボタンの半押しや全押しの操作である。位相差の各々が検出されると、専用AFエリアデフォーカス量生成部220は、それらの位相差に所定の変換係数を乗算することにより、専用AFエリアのそれぞれにおけるデフォーカス量を生成する。そして、専用AFエリアデフォーカス量生成部220は、生成したデフォーカス量をAF対象エリア選択部240に供給する。
 画像認識部230は、画像処理部150から画像データを受け取り、その画像データにおいて被写体を認識するものである。画像認識部230は、例えば、探索する対象のテンプレート画像を、画像データ内で移動させて比較するテンプレートマッチング法を使用して、人物や物体などを被写体として認識する。あるいは、撮像制御装置200は、連続する2枚の画像の差分をとることで移動体を検出するフレーム間差分法などを使用して、その移動体を被写体として認識する。
 AF対象エリア選択部240は、専用AFエリアと像面AFエリアとの中からAF対象エリアを選択するものである。このAF対象エリア選択部240は、像面AFエリアデフォーカス量生成部210および専用AFエリアデフォーカス量生成部220からデフォーカス量を受け取る。そして、AF対象エリア選択部240は、それらのデフォーカス量に基づいて、いずれかのAFエリアにおいて合焦可能か否かを判断する。例えば、レリーズタイムラグの短縮のためにフォーカシングレンズの駆動範囲が制限されている場合、検出されたデフォーカス量に応じた合焦位置が、フォーカシングレンズを駆動不可能な位置に該当することがある。このときには、AF対象エリア選択部240は、合焦不能であると判断する。合焦不能である場合には、AF対象エリア選択部240は、合焦不能であることをユーザに認識させるための合焦不能信号を表示部170に出力する。合焦不能信号は、例えば、AFエリアを表示させないように表示部170を制御するための信号である。
 合焦可能である場合には、AF対象エリア選択部240は、画像認識部230から被写体の認識結果を受け取る。そして、AF対象エリア選択部240は、その認識結果に基づいて認識された被写体のうち、専用AFエリアと少なくとも一部が重なる被写体の中のいずれかを追尾対象とする。例えば、専用AFエリアのデフォーカス量に基づいて、最も至近側の被写体が追尾対象とされる。
 ここで、被写体までの距離は、デフォーカス量から得られる。奥行き方向において、被写体の位置が焦点の合う位置より近いほど、または、遠いほど、デフォーカス量の絶対値大きくなるためである。焦点の合う位置より被写体が近いか遠いかは、デフォーカス量の符号から判断される。被写体が近い場合にデフォーカス量の符号が正、負のいずれになるかは、像ズレ量の検出において2つの像のいずれを基準とするかにより決定される。
 追尾対象とした被写体のデフォーカス量が閾値未満になった後において、AF対象エリア選択部240は、追尾対象が移動しても、その移動に応じてAF対象エリアを変更して、その追尾対象に焦点を合わせ続ける。例えば、AF対象エリア選択部240は、専用AFエリアおよび像面AFエリアのデフォーカス量を取得する。そして、AF対象エリア選択部240は、背景差分法やフレーム間差分法などを使用して、移動体と、その移動量とを検出する。AF対象エリア選択部240は、検出した移動体のうち、デフォーカス量が最小の被写体を追尾対象の被写体であると判断する。類似性の高さは、例えば、保存された画像と、比較対象の画像とにおいて、同じ位置の画素の輝度値の差の絶対値の合計などにより求められる。
 AF対象エリア選択部240は、追尾対象の被写体を捉えると、その被写体の少なくとも一部と重なる専用AFエリアがあるか否かを判断する。被写体の少なくとも一部と重なる専用AFエリアがある場合には、AF対象エリア選択部240は、その専用AFエリアをAF対象エリアとして選択する。
 追尾対象の被写体が専用AFエリアと重ならない場合、すなわち追尾対象が専用AFエリア外に移動した場合には、AF対象エリア選択部240は、被写体の少なくとも一部と重なる像面AFエリアをAF対象エリアとして選択する。AF対象エリア選択部240は、その選択したAF対象エリアの識別情報を取得し、そのAF対象エリアのデフォーカス量とともに合焦部250に供給する。なお、AF対象エリア選択部は、特許請求の範囲に記載の合焦対象領域選択部の一例である。
 合焦部250は、選択されたAF対象エリアにおいて合焦するものである。この合焦部250は、AF対象エリア選択部240からのデフォーカス量が閾値未満であるか否かを判断する。閾値未満でない場合、合焦部250は、そのデフォーカス量が閾値未満になる位置にフォーカシングレンズを制御するためのレンズ位置制御信号を撮像レンズ110に出力する。一方、デフォーカス量が閾値未満である場合、すなわちAF対象エリアが合焦されている場合には、そのAF対象エリアを識別する識別情報を表示領域選択部260および表示制御部270に供給する。
 表示領域選択部260は、像面AFエリアのデフォーカス量に基づいて、像面AFエリアの中から表示させる領域を表示領域として選択するものである。この表示領域選択部260は、専用AFエリアにおいて合焦された場合には、像面AFエリア表示制御部260は、像面AFエリアデフォーカス量生成部210からデフォーカス量を受け取る。像面AFエリアのデフォーカス量を取得しておけば、専用AFエリアで合焦された場合に、どの像面AFエリアが合焦されているかを判断することができるためである。そして、像面AFエリア表示制御部260は、AF対象エリアに該当する専用AFエリアから一定距離内にあり、かつ、デフォーカス量が閾値未満の像面AFエリアをAF対象領域とともに表示領域として選択する。一方、像面AFエリアにおいて合焦された場合には、表示領域選択部260は、その像面AFエリアを表示領域として選択する。表示領域選択部260は、表示領域として選択したAFエリアの識別情報を表示制御部270に供給する。
 表示制御部270は、表示制御部270により選択された表示領域を表示部170に表示させるものである。
 なお、撮像制御装置200は、合焦の後にAF対象エリアを表示させているが、合焦前にAF対象エリアを表示させ、その後に合焦を行ってもよい。
 図4は、第1の実施の形態における専用AFエリアおよび像面AFエリアの配置の一例を示す図である。図4における「□」のマークは、専用AFエリア601を表わす。また、「+」のマークは、像面AFエリア701を表わす。一般に、位相差画素141は、専用AFモジュール130より自由に配置することができるため、EVF内の画面501において、専用AFエリア601より多くの像面AFエリア701が配置される。
 [撮像装置の動作例]
 図5は、第1の実施の形態における専用AFエリアおよび像面AFエリアを表示した画面の一例を示す図である。図5におけるaは、AF対象エリアが選択される前の専用AFエリアを表示した画面502の一例である。AF対象エリアが選択される前においては、専用AFエリア602は、例えば、線の種類を点線にした「□」のマークで表示される。一方、像面AFエリアは表示されず、像面AFエリアを囲む枠の一部702が表示される。なお、撮像装置100は、枠の一部でなく、枠全部を表示してもよい。
 図5におけるaでは、少なくとも一部が専用AFエリアと重なる被写体801および803と、専用AFエリアと重ならない被写体802とが認識される。撮像装置100は、専用AFエリアのデフォーカス量に基づいて、被写体801および803のうち最も至近側の被写体801を追尾対象とし、その被写体801の少なくとも一部が重なるAFエリアをAF対象エリアとして選択する。
 図5におけるbは、AF対象エリアが選択された後の専用AFエリアおよび像面AFエリアを表示した画面503の一例である。AF対象エリアに該当する専用AFエリア603は、AF対象エリア以外の専用AFエリア602と区別して表示される。例えば、AF対象エリアに該当する専用AFエリア603は、線の種類を太線にした「□」のマークで表示される。また、専用AFエリア603から一定距離内の合焦した像面AFエリア703も表示される。
 図5におけるcは、追尾対象が専用AFエリア外に移動した場合のAF対象エリアを表示した画面504の一例である。図5におけるcでは、追尾対象の被写体801が専用AFエリア外に移動したため、撮像装置100は、被写体801と少なくとも一部が重なる像面AFエリア704を選択して表示する。一方、被写体803は、専用AFエリア内にいるが、図5におけるbにおいて追尾対象とされなかったため、フォーカシングされない。なお、図5において、撮像装置100は、AFエリアを「□」や「+」以外のマークにより表示してもよい。また、撮像装置100は、AF対象エリアに該当するか否かを、線の種類で区別して表示しているが、他の表示方式で区別して表示してもよい。例えば、撮像装置100は、AF対象エリアに該当するエリアのみを点滅させて表示してもよい。
 このように、専用AFエリアと重なる被写体と、像面AFとのみ重なる被写体とがある場合、被写体に重なる専用AFエリアがAF対象エリアとして優先して表示される。仮に、それぞれの被写体と重なるAFエリアが別々に表示されると、ユーザは、いずれの被写体を優先して撮像すべきかを認識しにくくなる。被写体と重なる専用AFエリアを優先して表示することにより、ユーザは、優先すべき被写体を容易に認識することができる。また、専用AFエリアの近傍の像面AFエリアの表示により、追尾対象の被写体の領域をユーザに認識させることができる。
 図6は、第1の実施の形態における専用AFエリアを表示した画面504の一例を示す図である。図6の画面504においては、図5に例示した各画面と比較して全体の輝度が低いものとする。前述したように位相差画素141は、専用AFモジュール130と比較して感度が低いため、輝度が低いと位相差を検出することができない場合がある。この場合には、像面AFエリアにおいてデフォーカス量が生成されず、被写体801の少なくとも一部が重なる専用AFエリア603のみがAF対象エリアとして表示される。
 図7は、第1の実施の形態における撮像装置100の動作の一例を示すフローチャートである。この動作は、例えば、撮像装置100に電源が投入されたときに開始する。
 撮像装置100は、AF対象エリアに該当しない専用AFエリアを表示する(ステップS901)。撮像装置100は、シャッターボタンの半押し等の操作により、合焦の開始が指示されているか否かを判断する(ステップS902)。シャッターボタンが半押しされていない場合には(ステップS902:No)、撮像装置100はステップS901に戻る。
 シャッターボタンが半押しされている場合には(ステップS902:Yes)、撮像装置100は、専用AFエリアおよび像面AFエリアのそれぞれにおけるデフォーカス量を取得する(ステップS903)。そして、撮像装置100は、デフォーカス量に基づいて、いずれかのAFエリアで合焦可能か否かを判断する(ステップS904)。いずれのAFエリアでも合焦不能である場合(ステップS904:No)、撮像装置100は、合焦不能信号を出力する。また、撮像装置100は、シャッターボタンの全押しなど、撮像を行うための操作を受け付けない(ステップS908)。
 いずれかのAFエリアで合焦可能である場合(ステップS904:Yes)、撮像装置100は、追尾対象の被写体を決定し、その被写体の少なくとも一部と重なるAFエリアの中から、専用AFエリアを優先してAF対象エリアを選択する(ステップS905)。撮像装置100は、AF対象エリアのデフォーカス量が閾値未満であるか否か、すなわちAF対象エリアに合焦されているか否かを判断する(ステップS906)。
 AF対象エリアに合焦されている場合には(ステップS906:Yes)、撮像装置100は、合焦したAFエリアを表示するための表示制御処理を実行し(ステップS910)、撮像を行うための撮像処理を実行する(ステップS920)。
 一方、AF対象エリアに合焦されていない場合には(ステップS906:No)、撮像装置100は、デフォーカス量に応じて、撮像レンズ110の位置を制御する。また、撮像装置100は、撮像を行うための操作を受け付けない(ステップS907)。ステップS920、S907、または、S908の後、撮像装置100は、ステップS901に戻る。
 図8は、第1の実施の形態における表示制御処理の一例を示すフローチャートである。撮像装置100は、専用AFエリアのいずれかに合焦したか否かを判断する(ステップS911)。専用AFエリアのいずれかに合焦したのであれば(ステップS911:Yes)、撮像装置100は、専用AFエリアのうち合焦した専用AFエリアを、それ以外の専用AFエリアと区別して表示する(ステップS912)。そして、撮像装置100は、像面AFエリアのいずれかに合焦したか否かを判断する(ステップS913)。
 像面AFエリアのいずれかに合焦した場合には(ステップS913:Yes)、撮像装置100は、専用AFエリアの近傍の合焦した像面AFエリアを表示する(ステップS914)。
 専用AFエリアのいずれにおいても合焦していない場合(ステップS911:No)、撮像装置100は、合焦した像面AFエリアを表示する(ステップS915)。像面AFエリアのいずれにおいても合焦されていない場合(ステップS913:No)、ステップS914、または、ステップS915の後、撮像装置100は、表示制御処理を終了する。
 図9は、第1の実施の形態における撮像処理の一例を示すフローチャートである。撮像装置100は、シャッターボタンの全押しなど、撮像を指示するための操作を受け付ける(ステップS921)。撮像装置100は、シャッターボタンの全押しなどにより撮像が指示されたか否かを判断する(ステップS922)。シャッターボタンが全押しされた場合には(ステップS922:Yes)、撮像装置100は、画像データを画像記録部180に記録させることにより撮像を行う(ステップS923)。シャッターボタンが全押しされなかった場合(ステップS922:No)、または、ステップS923の後、撮像装置100は、撮像処理を終了する。
 このように、第1の実施の形態によれば、専用AFエリアに合焦し、像面AFエリアの焦点検出結果に基づいて像面AFエリアを専用AFエリアとともに表示することができる。これにより、専用AFエリアおよび像面AFエリアのうち焦点検出精度が高い方のAFエリア、すなわち専用AFエリアが表示される。したがって、ユーザは、焦点検出精度が高い方のAFエリアを容易に認識することができる。また、像面AFエリアをさらに表示することにより、追尾対象の被写体の領域をユーザに認識させることができる。
 なお、専用AFエリアおよび像面AFエリアの配置は、図4に例示した構成に限定されない。例えば、図10に例示するように、像面AFエリアと専用AFエリアとが重なるように配置してもよい。
 また、撮像装置100は、図5に例示したように像面AFエリアを囲む枠の一部を表示しているが、図11に例示するように、枠の全部を非表示にしてもよい。
 <2.第2の実施の形態>
 [撮像装置の動作例]
 図12は、第2の実施の形態における専用AFエリアおよび像面AFエリアを表示した画面の一例を示す図である。第1の実施の形態において撮像装置100は、デフォーカス量が閾値未満でない像面AFエリアを表示していなかったが、撮像装置100は、デフォーカス量が閾値未満でない像面AFエリアをさらに表示することもできる。第2の実施の形態における撮像装置100は、デフォーカス量が閾値未満でない像面AFエリアをさらに表示する点において第1の実施の形態と異なる。
 図12におけるaは、AF対象エリアが選択される前の専用AFエリアの表示の一例である。AF対象エリアが選択される前においては、デフォーカス量が閾値未満でない像面AFエリア706がさらに表示される。デフォーカス量が閾値未満でない像面AFエリア706は、例えば、線幅の細い「+」のマークで表示される。
 図12におけるbは、AF対象エリアが選択された後の専用AFエリアおよび像面AFエリアの表示の一例である。デフォーカス量が閾値未満でない像面AFエリア703は、デフォーカス量が閾値未満の像面AFエリア706と区別して表示される。例えば、デフォーカス量が閾値未満の像面AFエリア703は、線幅の太い「+」のマークで表示される。
 このように第2の実施の形態によれば、デフォーカス量が閾値未満でない像面AFエリアをさらに表示する。これにより、焦点が検出されるエリアの範囲をユーザに認識させることができ、ユーザは容易に合焦を行うことができる。
 なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
 なお、本技術は以下のような構成もとることができる。
(1)第1の焦点検出部により焦点が検出された複数の第1の焦点検出領域の中から合焦する領域を前記第1の焦点検出領域における前記焦点の検出結果に基づいて合焦対象領域として選択する合焦対象選択部と、
 第2の焦点検出部により焦点が検出された複数の第2の焦点検出領域の中から表示する領域を前記複数の第2の焦点検出領域における前記焦点の検出結果に基づいて前記合焦対象領域とともに表示領域として選択する表示領域選択部と、
 前記表示領域を表示部に表示させる表示制御部と
を具備する撮像制御装置。
(2)前記合焦対象領域選択部は、前記複数の第1の焦点検出領域のいずれにおいても焦点が検出されなかった場合には前記第2の焦点検出部における前記焦点の検出結果に基づいて前記複数の第2の焦点検出領域の中から合焦する領域を前記合焦対象領域として選択し、
 前記表示制御部は、前記第2の合焦対象領域が前記合焦対象領域として選択された場合には当該合焦対象領域を前記表示領域として選択する
前記(1)記載の撮像制御装置。
(3)前記表示制御部は、前記複数の第1の焦点検出領域のうち前記合焦対象領域に該当しない領域を非合焦対象領域としてさらに表示させる
前記(1)または(2)記載の撮像制御装置。
(4)前記表示制御部は、前記複数の第2の焦点検出領域の全てを囲む枠の少なくとも一部をさらに表示させる
前記(3)記載の撮像制御装置。
(5)前記選択した第2の焦点検出領域において前記第2の焦点検出部により検出された焦点のズレ量をデフォーカス量として取得するデフォーカス量取得部をさらに具備し、
 前記表示領域選択部は、前記デフォーカス量が所定の閾値未満の前記第2の焦点検出領域を前記表示領域として前記合焦対象領域とともに選択する
前記(1)乃至(4)のいずれかに記載の撮像制御装置。
(6)前記第1の焦点検出部は、前記第2の焦点検出部より高い精度で焦点を検出する
前記(1)乃至(5)のいずれかに記載の撮像制御装置。
(7)前記第1の合焦対象領域において合焦動作を行う合焦部をさらに具備する
前記(1)乃至(6)のいずれかに記載の撮像制御装置。
(8)複数の第1の焦点検出領域において焦点を検出する第1の焦点検出部と、
 複数の第2の焦点検出領域において焦点を検出する第2の焦点検出部と、
 前記複数の第1の焦点検出領域の中から合焦する領域を前記第1の焦点検出領域における前記焦点の検出結果に基づいて合焦対象領域として選択する合焦対象選択部と、
 前記複数の第2の焦点検出領域の中から表示する領域を前記複数の第2の焦点検出領域における前記焦点の検出結果に基づいて前記合焦対象領域とともに表示領域として選択する表示領域選択部と、
 前記表示領域を前記合焦対象領域とともに表示部に表示させる表示制御部と
 前記表示領域を含む画像を撮像する撮像部と
を具備する撮像装置。
(9)合焦対象選択部が、第1の焦点検出部により焦点が検出された複数の第1の焦点検出領域の中から合焦する領域を前記第1の焦点検出領域における前記焦点の検出結果に基づいて合焦対象領域として選択する合焦対象選択手順と、
 表示領域選択部が、第2の焦点検出部により焦点が検出された複数の第2の焦点検出領域の中から表示する領域を前記複数の第2の焦点検出領域における前記焦点の検出結果に基づいて前記合焦対象領域とともに表示領域として選択する表示領域選択手順と、
 表示制御部が前記表示領域を表示部に表示させる表示制御手順と
を具備する撮像制御装置の制御方法。
 100 撮像装置
 110 撮像レンズ
 120 固定ハーフミラー
 130 専用AFモジュール
 140 撮像素子
 141 位相差画素
 142 通常画素
 150 画像処理部
 160 操作部
 170 表示部
 180 画像記録部
 200 撮像制御装置
 210 像面AFエリアデフォーカス量生成部
 220 専用AFエリアデフォーカス量生成部
 230 画像認識部
 240 AF対象エリア選択部
 250 合焦部
 260 表示領域選択部
 270 表示制御部

Claims (9)

  1.  第1の焦点検出部により焦点が検出された複数の第1の焦点検出領域の中から合焦する領域を前記第1の焦点検出領域における前記焦点の検出結果に基づいて合焦対象領域として選択する合焦対象選択部と、
     第2の焦点検出部により焦点が検出された複数の第2の焦点検出領域の中から表示する領域を前記複数の第2の焦点検出領域における前記焦点の検出結果に基づいて前記合焦対象領域とともに表示領域として選択する表示領域選択部と、
     前記表示領域を表示部に表示させる表示制御部と
    を具備する撮像制御装置。
  2.  前記合焦対象領域選択部は、前記複数の第1の焦点検出領域のいずれにおいても焦点が検出されなかった場合には前記第2の焦点検出部における前記焦点の検出結果に基づいて前記複数の第2の焦点検出領域の中から合焦する領域を前記合焦対象領域として選択し、
     前記表示制御部は、前記第2の合焦対象領域が前記合焦対象領域として選択された場合には当該合焦対象領域を前記表示領域として選択する
    請求項1記載の撮像制御装置。
  3.  前記表示制御部は、前記複数の第1の焦点検出領域のうち前記合焦対象領域に該当しない領域を非合焦対象領域としてさらに表示させる
    請求項1記載の撮像制御装置。
  4.  前記表示制御部は、前記複数の第2の焦点検出領域の全てを囲む枠の少なくとも一部をさらに表示させる
    請求項1記載の撮像制御装置。
  5.  前記選択した第2の焦点検出領域において前記第2の焦点検出部により検出された焦点のズレ量をデフォーカス量として取得するデフォーカス量取得部をさらに具備し、
     前記表示領域選択部は、前記デフォーカス量が所定の閾値未満の前記第2の焦点検出領域を前記表示領域として前記合焦対象領域とともに選択する
    請求項1記載の撮像制御装置。
  6.  前記第1の焦点検出部は、前記第2の焦点検出部より高い精度で焦点を検出する
    請求項1記載の撮像制御装置。
  7.  前記第1の合焦対象領域において合焦動作を行う合焦部をさらに具備する
    請求項1記載の撮像制御装置。
  8.  複数の第1の焦点検出領域において焦点を検出する第1の焦点検出部と、
     複数の第2の焦点検出領域において焦点を検出する第2の焦点検出部と、
     前記複数の第1の焦点検出領域の中から合焦する領域を前記第1の焦点検出領域における前記焦点の検出結果に基づいて合焦対象領域として選択する合焦対象選択部と、
     前記複数の第2の焦点検出領域の中から表示する領域を前記複数の第2の焦点検出領域における前記焦点の検出結果に基づいて前記合焦対象領域とともに表示領域として選択する表示領域選択部と、
     前記表示領域を前記合焦対象領域とともに表示部に表示させる表示制御部と
     前記表示領域を含む画像を撮像する撮像部と
    を具備する撮像装置。
  9.  合焦対象選択部が、第1の焦点検出部により焦点が検出された複数の第1の焦点検出領域の中から合焦する領域を前記第1の焦点検出領域における前記焦点の検出結果に基づいて合焦対象領域として選択する合焦対象選択手順と、
     表示領域選択部が、第2の焦点検出部により焦点が検出された複数の第2の焦点検出領域の中から表示する領域を前記複数の第2の焦点検出領域における前記焦点の検出結果に基づいて前記合焦対象領域とともに表示領域として選択する表示領域選択手順と、
     表示制御部が前記表示領域を表示部に表示させる表示制御手順と
    を具備する撮像制御装置の制御方法。
PCT/JP2013/066074 2012-09-11 2013-06-11 撮像制御装置、撮像装置、および、撮像制御装置の制御方法 WO2014041859A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014535401A JP6094588B2 (ja) 2012-09-11 2013-06-11 撮像制御装置、撮像装置、および、撮像制御装置の制御方法
US14/419,733 US9219856B2 (en) 2012-09-11 2013-06-11 Imaging control device, imaging apparatus, and control method performed by imaging control device
EP13837414.5A EP2896980B1 (en) 2012-09-11 2013-06-11 Imaging apparatus and method for controlling an imaging apparatus
CN201380046026.3A CN104641275B (zh) 2012-09-11 2013-06-11 成像控制装置、成像设备和成像控制装置执行的控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012199048 2012-09-11
JP2012-199048 2012-09-11

Publications (1)

Publication Number Publication Date
WO2014041859A1 true WO2014041859A1 (ja) 2014-03-20

Family

ID=50277993

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/066074 WO2014041859A1 (ja) 2012-09-11 2013-06-11 撮像制御装置、撮像装置、および、撮像制御装置の制御方法

Country Status (5)

Country Link
US (1) US9219856B2 (ja)
EP (1) EP2896980B1 (ja)
JP (1) JP6094588B2 (ja)
CN (1) CN104641275B (ja)
WO (1) WO2014041859A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224207A (ja) * 2015-05-29 2016-12-28 キヤノン株式会社 撮像装置及び焦点調節方法
JP2017016103A (ja) * 2015-05-29 2017-01-19 フェーズ・ワン・アクティーゼルスカブPhase One A/S 適応性オートフォーカスシステム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9554029B2 (en) * 2012-09-11 2017-01-24 Sony Corporation Imaging apparatus and focus control method
JP6249825B2 (ja) * 2014-03-05 2017-12-20 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
CN106231189A (zh) * 2016-08-02 2016-12-14 乐视控股(北京)有限公司 拍照处理方法和装置
US10863079B2 (en) * 2017-07-13 2020-12-08 Canon Kabushiki Kaisha Control apparatus, image capturing apparatus, and non-transitory computer-readable storage medium
AT521845B1 (de) * 2018-09-26 2021-05-15 Waits Martin Verfahren zur Fokuseinstellung einer Filmkamera
JPWO2021010070A1 (ja) * 2019-07-12 2021-01-21

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007024941A (ja) * 2005-07-12 2007-02-01 Nikon Corp 焦点検出装置、焦点調節装置および撮像装置
JP2007179029A (ja) * 2005-11-30 2007-07-12 Nikon Corp 焦点調節装置、焦点調節方法、およびカメラ
JP2007233035A (ja) 2006-03-01 2007-09-13 Nikon Corp 焦点調節装置および撮像装置
JP2010139563A (ja) * 2008-12-09 2010-06-24 Nikon Corp 焦点検出装置、焦点調節装置、撮像装置
JP2011164543A (ja) * 2010-02-15 2011-08-25 Hoya Corp 測距点選択システム、オートフォーカスシステム、およびカメラ
JP2012137600A (ja) * 2010-12-27 2012-07-19 Sony Corp 撮像システム、撮像装置、およびプログラム

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4040139B2 (ja) * 1997-05-12 2008-01-30 キヤノン株式会社 カメラ
US6088539A (en) * 1997-12-24 2000-07-11 Canon Kabushiki Kaisha Optical apparatus with focus adjusting function and focus adjustment control circuit
JP2000081647A (ja) * 1998-09-03 2000-03-21 Canon Inc カメラ
US7046290B2 (en) * 2000-01-26 2006-05-16 Nikon Corporation Multi-point auto-focus digital camera including electronic zoom
JP4215230B2 (ja) * 2001-04-19 2009-01-28 株式会社リコー 電子カメラ
CN1220111C (zh) * 2001-04-12 2005-09-21 株式会社理光 摄影装置
JP4565784B2 (ja) * 2001-09-20 2010-10-20 Hoya株式会社 デジタルカメラ
JP2005033508A (ja) * 2003-07-14 2005-02-03 Minolta Co Ltd 撮像装置
JP2005159856A (ja) * 2003-11-27 2005-06-16 Nikon Corp デジタルカメラ
JP2005181356A (ja) * 2003-12-15 2005-07-07 Canon Inc カメラシステム、カメラ、アクセサリ及び撮影レンズ
JP2005215750A (ja) * 2004-01-27 2005-08-11 Canon Inc 顔検知装置および顔検知方法
CN100359357C (zh) * 2004-06-15 2008-01-02 佳能株式会社 摄影装置
JP2006139256A (ja) * 2004-10-15 2006-06-01 Olympus Corp 焦点検出装置を有するカメラ
EP1684503B1 (en) * 2005-01-25 2016-01-13 Canon Kabushiki Kaisha Camera and autofocus control method therefor
JP4759329B2 (ja) * 2005-06-23 2011-08-31 Hoya株式会社 オートフォーカス機能を有する撮影装置
US7728903B2 (en) 2005-11-30 2010-06-01 Nikon Corporation Focus adjustment device, focus adjustment method and camera
JP2007178576A (ja) * 2005-12-27 2007-07-12 Casio Comput Co Ltd 撮像装置及びそのプログラム
US7751700B2 (en) 2006-03-01 2010-07-06 Nikon Corporation Focus adjustment device, imaging device and focus adjustment method
US7792420B2 (en) * 2006-03-01 2010-09-07 Nikon Corporation Focus adjustment device, imaging device and focus adjustment method
JP5070728B2 (ja) * 2006-04-04 2012-11-14 株式会社ニコン カメラ
JP4910462B2 (ja) * 2006-04-14 2012-04-04 株式会社ニコン カメラ
JP4182117B2 (ja) * 2006-05-10 2008-11-19 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP2007310009A (ja) * 2006-05-16 2007-11-29 Olympus Imaging Corp デジタルカメラ及びカメラシステム
JP5052127B2 (ja) * 2006-12-28 2012-10-17 三星電子株式会社 撮像装置及び撮像方法
JP2008170645A (ja) * 2007-01-10 2008-07-24 Olympus Corp フォーカス制御装置及び撮像装置
JP5157256B2 (ja) * 2007-05-28 2013-03-06 株式会社ニコン 画像追尾装置および撮像装置
JP2009049810A (ja) * 2007-08-21 2009-03-05 Canon Inc 撮像装置及びその制御方法及びプログラム
JP4967992B2 (ja) * 2007-10-30 2012-07-04 株式会社ニコン 画像認識装置及び焦点検出装置並びに撮像装置
JP2009128438A (ja) * 2007-11-20 2009-06-11 Olympus Imaging Corp カメラの焦点検出装置
JP2009141475A (ja) * 2007-12-04 2009-06-25 Nikon Corp カメラ
JP2009139807A (ja) * 2007-12-10 2009-06-25 Sony Corp 撮像装置
JP5217600B2 (ja) * 2008-04-22 2013-06-19 ソニー株式会社 撮像装置
US7844174B2 (en) * 2008-07-31 2010-11-30 Fuji Xerox Co., Ltd. System and method for manual selection of multiple evaluation points for camera control
JP2010103615A (ja) * 2008-10-21 2010-05-06 Sony Corp 撮像装置およびその制御方法
JP5489641B2 (ja) * 2008-11-11 2014-05-14 キヤノン株式会社 焦点検出装置及びその制御方法
KR20100077878A (ko) * 2008-12-29 2010-07-08 삼성전자주식회사 초점검출장치 및 이를 구비하는 촬상장치
JP5233720B2 (ja) * 2009-02-12 2013-07-10 ソニー株式会社 撮像装置、撮像装置の制御方法およびプログラム
US8605942B2 (en) * 2009-02-26 2013-12-10 Nikon Corporation Subject tracking apparatus, imaging apparatus and subject tracking method
JP5464934B2 (ja) * 2009-07-23 2014-04-09 キヤノン株式会社 撮像装置及び撮像装置の制御方法
JP5432664B2 (ja) * 2009-10-22 2014-03-05 キヤノン株式会社 撮像装置
JP5493789B2 (ja) * 2009-12-07 2014-05-14 株式会社リコー 撮像装置および撮像方法
JP2011166378A (ja) * 2010-02-08 2011-08-25 Canon Inc 撮像装置及びその制御方法
JP2011217363A (ja) * 2010-03-16 2011-10-27 Panasonic Corp 撮像装置
JP5932210B2 (ja) * 2010-04-30 2016-06-08 キヤノン株式会社 撮像装置及び焦点調節方法
JP5609270B2 (ja) * 2010-05-28 2014-10-22 ソニー株式会社 撮像装置、撮像システム、撮像装置の制御方法およびプログラム
US8525923B2 (en) * 2010-08-30 2013-09-03 Samsung Electronics Co., Ltd. Focusing method and apparatus, and recording medium for recording the method
JP5901246B2 (ja) * 2010-12-13 2016-04-06 キヤノン株式会社 撮像装置
JP2012173531A (ja) * 2011-02-22 2012-09-10 Sony Corp 撮像装置、およびフォーカス制御方法、並びにプログラム
JP5825851B2 (ja) * 2011-05-27 2015-12-02 キヤノン株式会社 撮像装置及びその制御方法
JP5725988B2 (ja) * 2011-06-13 2015-05-27 キヤノン株式会社 撮像装置およびその制御方法
JP5979967B2 (ja) * 2011-06-30 2016-08-31 キヤノン株式会社 被写体検出機能を備えた撮像装置、撮像装置の制御方法、及び、プログラム
JP5423836B2 (ja) * 2011-08-15 2014-02-19 株式会社ニコン ファインダユニット、撮像装置および表示制御プログラム
JP5936404B2 (ja) * 2012-03-23 2016-06-22 キヤノン株式会社 撮像装置、その制御方法およびプログラム
JP5950664B2 (ja) * 2012-04-10 2016-07-13 キヤノン株式会社 撮像装置およびその制御方法
JP5873378B2 (ja) * 2012-04-10 2016-03-01 キヤノン株式会社 撮像装置およびその制御方法
JP6045214B2 (ja) * 2012-06-19 2016-12-14 キヤノン株式会社 焦点調節装置及びその制御方法
JP2014056032A (ja) * 2012-09-11 2014-03-27 Sony Corp 撮像装置
US9554029B2 (en) * 2012-09-11 2017-01-24 Sony Corporation Imaging apparatus and focus control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007024941A (ja) * 2005-07-12 2007-02-01 Nikon Corp 焦点検出装置、焦点調節装置および撮像装置
JP2007179029A (ja) * 2005-11-30 2007-07-12 Nikon Corp 焦点調節装置、焦点調節方法、およびカメラ
JP2007233035A (ja) 2006-03-01 2007-09-13 Nikon Corp 焦点調節装置および撮像装置
JP2010139563A (ja) * 2008-12-09 2010-06-24 Nikon Corp 焦点検出装置、焦点調節装置、撮像装置
JP2011164543A (ja) * 2010-02-15 2011-08-25 Hoya Corp 測距点選択システム、オートフォーカスシステム、およびカメラ
JP2012137600A (ja) * 2010-12-27 2012-07-19 Sony Corp 撮像システム、撮像装置、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2896980A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224207A (ja) * 2015-05-29 2016-12-28 キヤノン株式会社 撮像装置及び焦点調節方法
JP2017016103A (ja) * 2015-05-29 2017-01-19 フェーズ・ワン・アクティーゼルスカブPhase One A/S 適応性オートフォーカスシステム

Also Published As

Publication number Publication date
EP2896980A1 (en) 2015-07-22
CN104641275A (zh) 2015-05-20
JP6094588B2 (ja) 2017-03-15
US9219856B2 (en) 2015-12-22
CN104641275B (zh) 2017-12-12
US20150222806A1 (en) 2015-08-06
EP2896980B1 (en) 2020-03-11
JPWO2014041859A1 (ja) 2016-08-18
EP2896980A4 (en) 2016-04-27

Similar Documents

Publication Publication Date Title
JP6094588B2 (ja) 撮像制御装置、撮像装置、および、撮像制御装置の制御方法
US10516821B2 (en) Focus detection apparatus and control method therefor
JP5251215B2 (ja) デジタルカメラ
JP5048468B2 (ja) 撮像装置およびその撮像方法
JP4861057B2 (ja) 撮像装置およびその制御方法
JP2010015024A (ja) 撮像装置、その制御方法、プログラム及び記憶媒体
JP2009031760A (ja) 撮像装置及びオートフォーカス制御方法
KR20070118036A (ko) 촬상 장치와 촬상 장치 제어 방법, 및 컴퓨터 프로그램
JP4552997B2 (ja) 撮像装置及びプログラム
JP6548436B2 (ja) 焦点検出装置およびその制御方法
JP2008135812A (ja) 撮像装置、撮像方法、およびプログラム
JP6302215B2 (ja) 撮像装置
JP6007687B2 (ja) 撮像制御装置、撮像装置、および、撮像制御方法
JP5420034B2 (ja) 撮像装置、その制御方法、プログラム及び記憶媒体
KR20120068696A (ko) 촬상 장치 및 촬상 방법
JP2016142895A (ja) 合焦制御装置、その制御方法、および制御プログラム、並びに撮像装置
EP2091233A2 (en) Imaging apparatus
JP2003185911A (ja) 光学系制御装置
JP2012027367A (ja) 焦点検出装置
JP5375943B2 (ja) 撮像装置及びそのプログラム
JP5928024B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018042092A (ja) 画像処理装置、撮像装置、制御方法およびプログラム
JP2023011552A (ja) 撮像装置
JP5761984B2 (ja) 撮像装置およびその制御方法
JP2012093775A (ja) 焦点検出装置および撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13837414

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014535401

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14419733

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE