WO2012124669A1 - 撮像装置及びその制御方法 - Google Patents

撮像装置及びその制御方法 Download PDF

Info

Publication number
WO2012124669A1
WO2012124669A1 PCT/JP2012/056348 JP2012056348W WO2012124669A1 WO 2012124669 A1 WO2012124669 A1 WO 2012124669A1 JP 2012056348 W JP2012056348 W JP 2012056348W WO 2012124669 A1 WO2012124669 A1 WO 2012124669A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
main
imaging
image
region
Prior art date
Application number
PCT/JP2012/056348
Other languages
English (en)
French (fr)
Inventor
将平 船本
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to JP2013504728A priority Critical patent/JP5925186B2/ja
Priority to RU2013146332/08A priority patent/RU2549143C1/ru
Priority to US13/568,479 priority patent/US8743209B2/en
Publication of WO2012124669A1 publication Critical patent/WO2012124669A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • G02B7/343Systems for automatic generation of focusing signals using different areas in a pupil plane using light beam separating prisms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Definitions

  • the present invention relates to an imaging apparatus having a continuous shooting function for continuously capturing a plurality of still images and a subject tracking function, and a control method therefor.
  • Subject brightness and subject position will change over time. Therefore, when performing continuous shooting of still images using an imaging device having a continuous shooting function, the exposure and focus must be adjusted each time a still image is captured. Therefore, information obtained from an imaging device that obtains an exposure adjustment value for the next still image from a still image captured immediately before, an AE (auto exposure) sensor and an AF (auto focus) sensor provided separately from the image sensor There is an image pickup apparatus having a function of performing continuous shooting while automatically adjusting the exposure and focus using. There are also cameras equipped with functions such as tracking a subject using image data obtained during continuous shooting and detecting face information of a person.
  • Patent Document 1 in the continuous shooting mode, a subject is detected from a still image obtained immediately before, and a still image of the next frame is captured in a state in which the focus follows the subject.
  • a single lens reflex camera is described.
  • the present invention has been made in view of such problems, and an object of the present invention is to provide a mechanism for realizing an improvement in a subject tracking function during continuous shooting of an imaging apparatus.
  • the invention according to claim 1 of the present invention is an imaging device that captures a plurality of main images in the continuous shooting mode, and captures a plurality of auxiliary images between the capture of the main image and the next main image.
  • An area where the same subject as the main subject exists from the imaging means for performing the operation, the main subject determining means for determining the main subject, and the first area which is a part of the first auxiliary image among the plurality of auxiliary images A region where the same subject as the main subject exists is detected from the first subject tracking processing means for detecting the second subject and the second region wider than the first region of the second auxiliary image among the plurality of auxiliary images.
  • Second subject tracking processing means and the detection result of the first subject tracking processing means is used for focus adjustment performed before the next main image is picked up, and detected by the second subject tracking processing means.
  • the result is the same as the main subject that is taken after the next main image is taken.
  • subject is characterized by using the detection of the existing area.
  • the accuracy of the subject tracking function during continuous shooting of the imaging apparatus can be improved.
  • FIG. 1 is a schematic diagram illustrating an example of an electrical configuration of an imaging apparatus according to a first embodiment.
  • 6 is a flowchart illustrating an example of a processing procedure in a continuous shooting mode of the imaging apparatus according to the first embodiment. It is a figure for demonstrating the tracking range which concerns on 1st Embodiment. It is a figure for demonstrating the timing when each process which concerns on 1st Embodiment is performed. It is a schematic diagram which shows an example of the mechanical structure of the imaging device which concerns on 2nd Embodiment.
  • FIG. 10 is a flowchart illustrating an example of a processing procedure in a continuous shooting mode of the imaging apparatus according to the second embodiment. It is a figure for demonstrating the tracking range which concerns on 2nd Embodiment.
  • FIG. 1 is a schematic diagram illustrating an example of a mechanical configuration of a digital single-lens reflex camera, which is an imaging apparatus according to the first embodiment.
  • a photographing lens unit 202 is mounted on the front surface of the camera body 201.
  • the camera body 201 can replace the photographic lens unit 202 to be mounted with another photographic lens unit.
  • the camera body 201 and the photographic lens unit 202 communicate via a mount contact group (not shown).
  • Inside the taking lens unit 202 are a lens group 213 and a diaphragm 214.
  • the camera body 201 can adjust the amount of light to be taken into the camera by adjusting the aperture diameter of the diaphragm 214 by communication control via the mount contact group, and adjust the position of the lens group 213 to adjust the focus position. it can.
  • the main mirror 203 is a half mirror.
  • the main mirror 203 is obliquely provided on the photographing optical path except during the main photographing for photographing a still image. In this state, a part of the light flux from the photographic lens unit 202 is reflected by the main mirror 203 and guided to the finder optical system, while the remaining light flux that has passed through the main mirror 203 is reflected by the sub mirror 204 to be the AF unit. It is led to 205.
  • the AF unit 205 includes a phase difference detection type AF sensor.
  • the AF unit 205 forms the secondary image plane of the taking lens unit 202 on the focus detection line sensor.
  • the camera body 201 detects the focus adjustment state of the taking lens unit 202 from the output of the focus detection line sensor, and outputs a control signal for driving the lens group 213 based on the detection result to perform automatic focus adjustment. Since focus detection by the phase difference detection method is a known technique, specific control is omitted here.
  • FIG. 2 is a schematic diagram showing the arrangement of distance measuring points of the imaging apparatus according to the first embodiment.
  • the AF unit 205 has, for example, a distance measuring point layout shown in FIG.
  • the pentaprism 207 is a pentaprism for changing the finder optical path.
  • the photographer can visually recognize the imaging target by observing the focus plate 206 through the eyepiece 209.
  • the AE unit (AE sensor) 208 observes the brightness of the subject, an output related to the subject brightness can be obtained from the outputs of a large number of pixels arranged two-dimensionally.
  • the AE sensor observes the outer frame area (imaging range) shown in FIG. 2, and pixels corresponding to the respective color filters of R (red), G (green), and B (blue). Are arranged in stripes for each color filter.
  • the brightness of the subject is observed by the AE sensor 208, and at the same time, subject tracking processing is performed using image data obtained by the AE sensor 208.
  • a focal plane shutter 210 and an image sensor 211 are provided inside the camera body 201.
  • the main mirror 203 and the sub mirror 204 are retracted so as to be adjacent to the focus plate 206 so as not to block the light beam, and the focal plane shutter 210 is opened, so that the image sensor 211 is exposed.
  • main imaging imaging with the image sensor 211 for the purpose of storing image data
  • auxiliary imaging imaging with the AE sensor 208
  • image data generated by the main imaging is referred to as “main image data”
  • image data generated by the auxiliary imaging is referred to as “auxiliary image data”. That is, the image sensor 211 that generates the main image data functions as a first image sensor, and the AE sensor 208 that generates auxiliary image data functions as a second image sensor.
  • the display unit 212 displays shooting information and a shot image so that the user can check the contents.
  • FIG. 3 is a schematic diagram illustrating an example of an electrical configuration of the imaging apparatus 200 according to the first embodiment.
  • symbol is attached
  • the operation detection unit 308 outputs the SW1 signal to the system control unit 303 at the moment when the release button is pressed halfway, and outputs the SW2 signal to the system control unit 303 at the moment when the release button is pressed.
  • SW1 holding state a state in which the user maintains the release button half-pressed
  • SW2 holding state a state in which the release button is pressed down
  • the operation detection unit 308 outputs a SW1 release signal to the system control unit 303 at the moment when the user releases the release button in the SW1 holding state, and performs system control on the SW2 release signal at the moment when the release button is released in the SW2 holding state.
  • the data is output to the unit 303.
  • the mirror control unit 309 controls the operations of the main mirror 203 and the sub mirror 204 based on the control signal sent from the system control unit 303.
  • the system control unit 303 reads accumulated data from the line sensor corresponding to each ranging point of the AF unit 205 when receiving the SW1 signal from the operation detection unit 308 and in the mirror-down state in the continuous shooting mode, Selects the AF point to be adjusted and performs the focus adjustment calculation. Then, the system control unit 303 sends a lens driving signal based on the calculation result to the lens driving unit 314.
  • the lens driving unit 314 moves the lens group 213 based on the lens driving signal sent from the system control unit 303 to perform a focusing operation.
  • the image sensor 211 converts the light incident through the lens group 213 into an electrical signal, generates image data, and outputs the image data to the system control unit 303.
  • the system control unit 303 outputs the image data output from the image sensor 211 to the display control unit 312 and writes (stores) it in the image storage device 311.
  • the display control unit 312 displays an image based on the image data on the display based on the output of the image data from the system control unit 303.
  • the main memory 307 is a storage device for storing data necessary for calculations performed by the system control unit 303 and the AE image processing unit 304.
  • the AE image processing unit 304 performs an exposure adjustment calculation based on the image data read from the AE sensor 208 and outputs the calculation result to the system control unit 303.
  • the system control unit 303 sends an aperture control signal to the aperture control unit 313 based on the result of the exposure adjustment calculation output from the AE image processing unit 304.
  • the system control unit 303 sends a shutter control signal to the shutter control unit 310 at the time of release.
  • the aperture control unit 313 drives the aperture 214 based on the aperture control signal received from the system control unit 303.
  • the shutter control unit 310 drives the focal plane shutter 210 based on the shutter control signal sent from the system control unit 303.
  • the AE image processing unit 304 performs subject tracking processing in the continuous shooting mode, and detects the main subject position in the auxiliary image data read from the AE sensor 208.
  • the subject tracking process described above has two types of algorithms, a first subject tracking process and a second subject tracking process. Among these, the result of the first subject tracking process is output to the system control unit 303, and the result of the second subject tracking process is recorded in the main memory 307. Two types of subject tracking processing algorithms will be described later.
  • the system control unit 303 selects one ranging point from the ranging point group in FIG. 2 based on the result of the first subject tracking process output from the AE image processing unit 304. Then, a lens driving signal is sent to the lens driving unit 314 based on the result of the focus adjustment calculation of the selected distance measuring point.
  • FIG. 4 is a flowchart showing an example of a processing procedure in the continuous shooting mode of the imaging apparatus according to the first embodiment.
  • the imaging apparatus according to the present embodiment captures a plurality of frames of still images in the continuous shooting mode.
  • Steps S401 to S405 are processes performed in the SW1 holding state, and correspond to a continuous shooting preparation operation.
  • Steps S406 to S416 are processes performed when the release button is pressed and the SW2 is held after completion of the above-described continuous shooting preparation operation.
  • step S401 the system control unit 303 selects a distance measuring point and performs a focus adjustment calculation based on the output of the AF unit 205. For example, the system control unit 303 selects a distance measuring point that is superimposed on a subject that is considered to be present at a position close to the imaging apparatus 200.
  • the AE image processing unit 304 reads auxiliary image data from the AE sensor 208, and extracts a certain region centered on the distance measuring point selected in step S401. Then, the AE image processing unit 304 (or the system control unit 303) records the image data of the extracted area and the center coordinates of the extracted area in the auxiliary image data in the main memory 307. These are used for a tracking process to be described later.
  • the image data of the extracted area recorded in the main memory 307 will be referred to as “template image data”, and the center coordinates of the extracted area will be referred to as “previous subject position”. To do.
  • the template image data relates to the main subject, and the AE image processing unit 304 that extracts the template image data determines the main subject before the start of continuous shooting.
  • a subject determination unit is configured.
  • step S403 the AE image processing unit 304 performs exposure calculation using the auxiliary image data read from the AE sensor 208 in step S402, and outputs the result to the system control unit 303.
  • step S404 the system control unit 303 sends a control signal to the aperture control unit 313 and the lens driving unit 314 based on the focus adjustment calculation result in step S401 and the exposure calculation result in step S403. Accordingly, the aperture control unit 313 adjusts the aperture (exposure) based on the control signal, and the lens driving unit 314 adjusts the focus based on the control signal.
  • the next step S405 is a step of waiting for the user's next operation. Specifically, in step S405, the system control unit 303 stands by until the user releases the release button (SW1 release) or pushes the release button (SW2 input). If the SW1 release signal or the SW2 signal is input from the operation detection unit 308, the system control unit 303 proceeds to step S406.
  • step S406 the system control unit 303 determines whether or not the input signal is the SW2 signal when the signal for canceling the standby state in step S405 is input. As a result of the determination, if the input signal is not the SW2 signal (is the SW1 release signal), the continuous shooting process in the flowchart of FIG. 4 is terminated, while if the input signal is the SW2 signal. In step S407, continuous shooting is started.
  • steps S407 to S409 and steps S415 to S416 are performed in parallel. Therefore, in this embodiment, the system control unit 303 performs steps S407 to S409, and the AE image processing unit 304 performs parallel processing by processing steps S415 to S416.
  • Steps S407 to S409 are processes in which the system control unit 303 performs main imaging.
  • step S407 the system control unit 303 sends a control signal to the mirror control unit 309 to raise the main mirror 203 and retract it from the optical path at the time of actual photographing.
  • step S408 the system control unit 303 sends a control signal to the shutter control unit 310 to perform release, and exposes the image sensor 211 to perform the main imaging. Then, the system control unit 303 reads the image data generated by the image sensor 211 and records (stores) it in the image storage device 311.
  • step S409 the system control unit 303 sends a control signal to the mirror control unit 309, lowers the main mirror 203 and the sub mirror 204, and enters the optical path at the time of actual photographing.
  • or step S416 is mentioned later.
  • step S410 the system control unit 303 determines whether or not the SW2 holding state is released. As a result of the determination, if the SW2 release signal has already been received and the SW2 holding state is released, the continuous shooting process in the flowchart of FIG. 4 is terminated, while the SW2 release signal is not received and the SW2 holding state is If not canceled, the process proceeds to step S411.
  • step S411 the AE image processing unit 304 detects the main subject position by the first subject tracking process.
  • the first subject tracking process is performed by a template matching method.
  • step S411 first, the AE sensor 208 accumulates charges only for a period (first accumulation period) shorter than the accumulation period required for performing an appropriate exposure adjustment calculation.
  • the AE image processing unit 304 reads the first auxiliary image data from the AE sensor 208 and the template image data from the main memory 307.
  • the AE image processing unit 304 detects the position of the main subject in the first auxiliary image data by obtaining a correlation between the two pieces of image data. Then, the detection result is output to the system control unit 303.
  • the process of detecting the position of the main subject is started by making the first accumulation period for obtaining the first auxiliary image data shorter than the accumulation period required for performing the appropriate exposure adjustment calculation. It is possible to advance the timing.
  • the AE sensor 208 constitutes auxiliary image imaging means for imaging a plurality of auxiliary image data during the main imaging in the continuous shooting mode. Further, for example, the result of detection of the main subject position by the first subject tracking process is used for the focus adjustment calculation for the next main imaging.
  • FIG. 5 is a diagram for explaining the tracking range according to the first embodiment.
  • the area to be matched is set to one vertical distance measuring point and two right and left distance measuring points based on the immediately preceding subject position read from the main memory 307. It is limited to the range of minutes (the tracking range of the first subject tracking process). That is, in the first subject tracking process, the position of the main subject is detected for a partial range of the auxiliary image data. Further, matching is performed in a state where the resolution of the auxiliary image data and the template image data is converted to 1 ⁇ 2. Thereby, matching can be processed at high speed, and time for subsequent lens driving or the like can be secured.
  • auxiliary image data 1 the first auxiliary image data read from the AE sensor 208 in step S411
  • auxiliary image data 1 the range in which matching is performed
  • tilt range the range in which matching is performed
  • the AE sensor 208 accumulates charges only for the second accumulation period obtained by subtracting the first accumulation period from the accumulation period required for performing proper exposure adjustment calculation. I do.
  • the AE image processing unit 304 reads the second auxiliary image data from the AE sensor 208, and generates new composite auxiliary image data added with the auxiliary image data 1 read from the AE sensor 208 in step S411.
  • the AE image processing unit 304 performs an exposure adjustment calculation using the generated composite auxiliary image data, and outputs the exposure adjustment calculation result to the system control unit 303.
  • auxiliary image data 2 the auxiliary image data read from the AE sensor 208 in step S412
  • auxiliary image data 12 the combined auxiliary image data of the auxiliary image data 1 and the auxiliary image data 2
  • the AE image processing unit 304 can perform an accurate exposure adjustment calculation by using the auxiliary image data 12. Furthermore, by combining the auxiliary image data, stable exposure calculation due to a reduction in noise and an increase in the amount of light can be expected as compared with the case of using image data that is not combined.
  • step S413 the system control unit 303 performs a focus adjustment calculation on the distance measuring point of the subject position detected in step S411.
  • step S414 the system control unit 303 sends a control signal to the aperture control unit 313 and the lens driving unit 314 based on the calculation results of step S412 and step S413, and performs exposure adjustment and focus adjustment.
  • step S414 When step S414 is completed, the release operation is started.
  • the system control unit 303 performs steps S407 to S409, and the AE image processing unit 304 performs steps S415 to S416.
  • step S415 the AE image processing unit 304 determines whether or not the imaging is the first frame. If the result of this determination is that imaging is not in the first frame (imaging is in the second and subsequent frames), processing proceeds to step S416.
  • the AE image processing unit 304 detects the main subject position by the second subject tracking process, and verifies and corrects the result of the first subject tracking process performed immediately before (in the immediately preceding frame). I do.
  • This second subject tracking process is performed by the template matching method in the same manner as the first subject tracking process.
  • the AE image processing unit 304 detects the main subject position by correlating the auxiliary image data 2 read in step S412 with the template image data recorded in the main memory 307.
  • the area to be matched is the entire auxiliary image data 2 as shown in FIG. The resolution is also kept as it is. Thereby, it is possible to obtain a tracking result having a wider range and higher accuracy than the first subject tracking process.
  • step S411 the first subject tracking result performed in step S411 immediately before is verified and corrected.
  • the following three points will be verified.
  • the entire auxiliary image data 2 is searched by the second subject tracking process to check whether there is a main subject outside the range of the first subject tracking process.
  • the first subject tracking process when there is a subject similar to the main subject in the tracking range, the resolution of the image data is reduced, so that they cannot be determined, and the tracking target may be mistaken. There is sex. Therefore, by performing the second subject tracking process using the auxiliary image data 2 whose resolution is not further lowered, the main subject and the similar subject are discriminated, and whether or not the result of the first subject tracking process is correct is determined. Validate.
  • the second subject tracking process with higher resolution is performed to detect the position of the subject with higher accuracy.
  • the immediately preceding subject position information recorded in the main memory 307 is used as the second subject tracking information. Correct the processing result.
  • the subject detected by the first subject tracking process and the second subject tracking process is the same, and there is a deviation greater than a predetermined threshold at those positions, the subject It is also possible to predict the movement of the subject based on the change in the position of the subject.
  • step S415 If it is determined in step S415 that the image is captured in the first frame, or if step S416 is completed, the process proceeds to step S410 along with the end of steps S407 to S409, and the subsequent processing is performed.
  • FIG. 6 is a diagram for explaining the timing at which each process is performed in the present embodiment.
  • the AE image processing unit 304 causes the AE sensor 208 to accumulate charges for the first accumulation period and reads the auxiliary image data 1. Since the auxiliary image data 1 is set to have a short accumulation period, the luminance is insufficient to perform the exposure adjustment calculation.
  • the AE image processing unit 304 performs development processing on the read auxiliary image data 1 and performs first subject tracking processing using the auxiliary image data 1 subjected to the development processing.
  • the result of the first subject tracking process is output to the system control unit 303, and a new distance measuring point is selected based on this result.
  • the system control unit 303 calculates the focus adjustment state of the photographing lens unit 202 at the newly selected distance measuring point from the output of the focus detection line sensor transmitted from the AF unit 205, and drives the lens group 213.
  • the AE image processing unit 304 causes the AE sensor 208 to accumulate charges only for the first accumulation period, and immediately thereafter causes the AE sensor 208 to accumulate charges only for the second accumulation period, so that the auxiliary image data 2 is stored. read out. Since the auxiliary image data 2 is also set to have a short accumulation period, the luminance is insufficient to perform the exposure adjustment calculation.
  • the AE image processing unit 304 performs a development process on the read auxiliary image data 2 and combines the auxiliary image data 1 and the auxiliary image data 2 subjected to the development process. By synthesizing the auxiliary image data 1 and the auxiliary image data 2, it is possible to obtain auxiliary image data 12 having a brightness necessary for performing an appropriate exposure adjustment calculation.
  • the AE image processing unit 304 performs an exposure adjustment calculation using the auxiliary image data 12 and outputs the calculation result to the system control unit 303.
  • the system control unit 303 sends a control signal to the aperture control unit 313 and the lens driving unit 314 based on the results of the focus adjustment calculation and the exposure adjustment calculation, and performs exposure adjustment and focus adjustment. Then, after completing the exposure adjustment and the focus adjustment, the system control unit 303 raises the main mirror 203 and the sub mirror 204 and performs the main imaging.
  • the AE image processing unit 304 uses the auxiliary image data 2 to perform a second subject tracking process with higher accuracy than the first subject tracking process. Since the second subject tracking process requires more time than the first subject tracking process and the timing at which the process is started is slower than the first subject tracking process, the second subject tracking process is performed immediately after the main imaging. The result of the tracking process cannot be reflected. Further, the next main imaging is started while the second subject tracking process by the AE image processing unit 304 is continued.
  • the “tracking range” for the first subject tracking process performed thereafter can be set correctly, so that the first subject tracking process performed thereafter is performed. Can contribute to improving the accuracy of
  • the processing time of the subject tracking process can be secured. Then, the auxiliary image data 1 and the auxiliary image data 2 obtained thereafter are combined, and the combined auxiliary image data 12 is used for an exposure adjustment calculation with a relatively short processing time. Thereby, it is possible to perform exposure adjustment calculation using image data in which an appropriate accumulation period is ensured while ensuring the subject tracking processing time.
  • the subject position can be corrected and the tracking range of the next subject tracking processing can be set correctly. It becomes possible.
  • the accuracy of subject tracking can be improved as compared with the case where the subject tracking processing is performed only once in one frame.
  • the second subject tracking process is started before the mirror-up operation, but the second subject tracking process may be started after the mirror-up operation. As long as the second subject tracking process is completed before the subsequent first subject tracking process is performed, the timing at which the second subject tracking process is started is arbitrarily set. Can do.
  • this invention is not limited to this embodiment, A various deformation
  • a method for detecting the position of the subject not only subject tracking by template matching but also tracking using color information or a result by face detection may be used.
  • a moving object analysis using an optical flow or a scene detection technique based on edge detection may be used.
  • the template used for template matching is only the first image data stored first.
  • a new template is created by cutting out the main subject area from image data newly captured during continuous shooting. It is also good.
  • the process of tracking the same subject by analyzing the auxiliary image the first subject tracking process operates at high speed with relatively low accuracy, and the second subject tracking process is slow. As long as the algorithm is configured to track with high accuracy.
  • the auxiliary image data 2 generated in step S412 is used as the image data to be correlated with the template image data.
  • any auxiliary image data out of a plurality of captured auxiliary image data can be applied to the present invention.
  • template image data and single or plural image data after the second image are used. You may make it take the correlation.
  • the second subject tracking process may be performed using auxiliary image data 12 obtained by combining auxiliary image data 1 and auxiliary image data 2 instead of auxiliary image data 2.
  • the ranging point superimposed on the subject considered to be present at a position close to the imaging apparatus 200 is selected, but any ranging is performed according to the user's instruction.
  • a point may be selected. If the AE image processing unit 304 has a face detection function for detecting a human face from the image data read from the AE sensor 208, the face is selected as a subject, and an image of an area surrounding the detected face is selected.
  • the data may be template image data.
  • FIG. 7 is a schematic diagram illustrating an example of a mechanical configuration of a mirrorless digital single-lens camera that is an imaging apparatus according to the second embodiment.
  • a photographing lens unit 702 is mounted on the front surface of the camera body 701.
  • the camera body 701 can replace the photographic lens unit 702 to be mounted with another photographic lens unit.
  • the camera body 701 and the taking lens unit 702 communicate with each other via a mount contact group (not shown).
  • Inside the taking lens unit 702 is a lens group 706 and a diaphragm 707.
  • the camera body 701 can adjust the amount of light taken into the camera by adjusting the aperture diameter of the diaphragm 707 by communication control via the mount contact group, and adjust the position of the lens group 706 to adjust the focus position. it can.
  • a focal plane shutter 703 and an image sensor 704 are provided in the camera body 701.
  • the image sensor 704 is exposed by opening the focal plane shutter 703.
  • the image sensor 704 has pixels for image generation and pixels for phase difference detection.
  • the pixel for image generation is a pixel for generating image data at the time of exposure
  • the pixel for phase difference detection is a pixel for detecting the phase difference and performing focus adjustment.
  • FIG. 8A shows a front view of a pixel of the image sensor 704, and FIG. 8B shows a cross-sectional view of the pixel.
  • 801 is a microlens
  • 802 and 803 are photodiodes.
  • pupil division is performed on the left and right in the figure.
  • a photographic lens using a phase difference detection method. The focus adjustment state of the unit 702 can be detected.
  • FIG. 9 is a schematic diagram showing a distance measuring point arrangement of the imaging apparatus (in the imaging element 704) according to the second embodiment. Focus adjustment is performed using the outputs of the phase difference detection pixels corresponding to the areas of the distance measuring points divided in a grid pattern.
  • the display unit 705 in FIG. 7 displays shooting information and a shot image, and allows the user to check the contents.
  • FIG. 10 is a schematic diagram illustrating an example of an electrical configuration of the imaging apparatus according to the second embodiment.
  • symbol is attached
  • the operation detection unit 1005 detects an operation performed by the user via a button, switch, dial, or the like attached to the camera body 701, and sends a signal according to the operation content to the system control unit 1003.
  • the operation detection unit 1005 outputs the SW1 signal to the system control unit 1003 at the moment when the release button is pressed halfway, and outputs the SW2 signal to the system control unit 1003 at the moment when the release button is pressed.
  • the operation detection unit 1005 outputs a SW1 release signal to the system control unit 1003 at the moment when the user releases the release button in the SW1 holding state, and performs system control on the SW2 release signal at the moment when the user releases the release button in the SW2 holding state. Output to the unit 1003.
  • the system control unit 1003 reads out the moving image generated by the image sensor 704 and outputs it to the display control unit 1008. This is so-called live view display, and the display control unit 1008 displays an image based on the received moving image on the display unit 705.
  • the system control unit 1003 When the system control unit 1003 receives the SW1 signal from the operation detection unit 1005, the system control unit 1003 reads the phase difference information from the phase difference detection pixels of the image sensor 704 and performs focus adjustment calculation. After completing the focus adjustment calculation, the system control unit 1003 sends a lens drive signal based on the focus adjustment calculation result to the lens drive unit 1010.
  • the lens driving unit 1010 moves the lens group 706 based on the lens driving signal received from the system control unit 1003 and performs a focusing operation.
  • the image sensor 704 converts the light incident through the photographing lens unit 702 into an electrical signal, generates image data, and outputs the image data to the system control unit 1003.
  • the system control unit 1003 outputs the image data output from the image generation pixels of the image sensor 704 to the display control unit 1008 and writes (stores) the image data in the image storage device 1007 during the main imaging.
  • the display control unit 1008 displays an image based on the image data on the display unit 705 based on the output of the image data from the system control unit 1003.
  • “main image capture” is used to obtain image data to be recorded in the image storage device 1007 for the purpose of storage in accordance with the SW 2 signal.
  • An image for live view display that is not recorded is referred to as an “auxiliary image”.
  • the main memory 1004 is a storage device for storing data necessary for calculations performed by the system control unit 1003.
  • the aperture control unit 1009 drives the aperture 707 based on the aperture control signal received from the system control unit 1003.
  • the shutter control unit 1006 drives the focal plane shutter 703 based on the shutter control signal sent from the system control unit 1003.
  • the system control unit 1003 performs subject tracking processing in the continuous shooting mode, and detects the main subject position from the image data read from the image sensor 704.
  • the subject tracking process described above has two types of algorithms: a first subject tracking process and a second subject tracking process. These two types of subject tracking processing are performed using the same algorithm as in the first embodiment.
  • the system control unit 1003 selects one distance measurement point from the distance measurement point group shown in FIG. 9 based on the result of the first subject tracking process. Then, a lens driving signal is sent to the lens driving unit 1010 based on the focus adjustment calculation result of the selected distance measuring point.
  • FIG. 11 is a flowchart illustrating an example of a processing procedure in the continuous shooting mode of the imaging apparatus according to the second embodiment.
  • the imaging apparatus according to the present embodiment captures a plurality of frames of still images in the continuous shooting mode.
  • Steps S1101 to S1105 are processes performed in the SW1 holding state, and correspond to a continuous shooting preparation operation.
  • Steps S1106 to S1115 are processes that are performed when the release button is pressed and the SW2 is held after completion of the above-described continuous shooting preparation operation.
  • step S1101 the system control unit 1003 performs a focus adjustment calculation based on the output of the phase difference detection pixel of the image sensor 704. For example, the system control unit 1003 selects a distance measuring point that is superimposed on a subject that is considered to be present at a position close to the imaging apparatus 700.
  • step S1102 the system control unit 1003 reads the image data from the image generation pixels of the image sensor 704, and extracts a certain region centered on the distance measuring point selected in step S1101. Then, the system control unit 1003 records the image data of the extracted area and the center coordinates of the extracted area in the image data in the main memory 1004. These are used for a tracking process to be described later.
  • the image data of the extracted area recorded in the main memory 1004 will be referred to as “template image data”, and the center coordinates of the extracted area will be referred to as “previous subject position”.
  • the template image data relates to the main subject, and the system control unit 1003 for extracting the template image determines the main subject before starting the continuous shooting. Configure the means.
  • step S1103 the system control unit 1003 performs exposure calculation using the image data read in step S1102.
  • step S1104 the system control unit 1003 sends a control signal to the aperture control unit 1009 and the lens driving unit 1010 based on the focus adjustment calculation result in step S1101 and the exposure calculation result in step S1103. Accordingly, the aperture control unit 1009 adjusts the aperture (exposure) based on the control signal, and the lens driving unit 1010 adjusts the focus based on the control signal.
  • step S1105 the system control unit 1003 waits until the user releases the release button (SW1 release) or presses the release button (SW2 input). The system control unit 1003 proceeds to step S1106 when the SW1 release signal or the SW2 signal is input from the operation detection unit 1005 (when the SW1 holding state is released).
  • step S1106 the system control unit 1003 determines whether or not the input signal is the SW2 signal when the signal for canceling the standby state in step S1105 is input. As a result of the determination, if the input signal is not the SW2 signal (is the SW1 release signal), the continuous shooting process in the flowchart of FIG. 11 is terminated, while if the input signal is the SW2 signal. In step S1107, the live view display is stopped and continuous shooting is started.
  • step S1107 the system control unit 1003 stops live view display, and then sends a control signal to the shutter control unit 1006 to perform release and exposes the image sensor 704 to perform main imaging.
  • the system control unit 1003 reads the image data generated by the image sensor 704 and records (stores) it in the image storage device 1007.
  • step S1108 the system control unit 1003 determines whether or not the SW2 holding state has been released. As a result of this determination, if the SW2 release signal has already been received and the SW2 holding state has been released, the continuous shooting process in the flowchart of FIG. 11 is terminated, while the SW2 release signal has not been received and the SW2 holding state has been If not canceled, the process proceeds to step S1109.
  • step S1109 first, the image sensor 704 accumulates charges only for a period (first accumulation period) shorter than the accumulation period required for performing proper exposure adjustment calculation.
  • the system control unit 1003 reads the first auxiliary image data (auxiliary image data 1) from the image generation pixels of the image sensor 704, and also receives the template image data from the main memory 1004. read out.
  • the system control unit 1003 detects the position of the main subject in the auxiliary image data 1 by obtaining a correlation between the two image data.
  • the tracking algorithm is the same as that of the first embodiment.
  • the image sensor 704 constitutes an auxiliary image imaging unit for imaging a plurality of auxiliary image data during the main imaging in the continuous shooting mode.
  • FIG. 12 is a diagram for explaining the tracking range in the second embodiment.
  • the matching range is a range of three distance measuring points on the left and right of the distance measuring point based on the immediately preceding subject position, and a range corresponding to one distance measuring point on the upper and lower sides. (Tracking range of the first subject tracking process).
  • step S1110 the image sensor 704 accumulates charges only for the second accumulation period obtained by subtracting the first accumulation period from the accumulation period required for performing proper exposure adjustment calculation. I do.
  • the system control unit 1003 reads the second auxiliary image data (auxiliary image data 2) from the image sensor 704, and adds a new composite auxiliary image obtained by adding the auxiliary image data 1 read from the image sensor 704 in step S1109. Generate data.
  • the system control unit 1003 performs an exposure adjustment calculation using the composite auxiliary image data.
  • step S1111 the system control unit 1003 performs focus adjustment calculation using the output from the phase difference detection pixel corresponding to the subject position detected in step S1109.
  • step S1112 the system control unit 1003 sends a control signal to the aperture control unit 1009 and the lens driving unit 1010 based on the calculation results of step S1110 and step S1111 to perform exposure adjustment and focus adjustment.
  • the system control unit 1003 performs live view display and also performs a second subject tracking process in steps S1113 to S1115.
  • step S1113 the system control unit 1003 resumes live view display.
  • the image sensor 704 continues the live view display using the composite auxiliary image data only for the first frame and the image data obtained by one accumulation as usual for the second and subsequent frames. This live view is continued until the main imaging is performed again.
  • step S1114 the system control unit 1003 sets the entire composite auxiliary image data obtained in step S1110 as a tracking range, and starts detection of the main subject position by the second subject tracking process. Specifically, the system control unit 1003 detects the main subject position by correlating the composite auxiliary image data generated in step S1110 with the template image data recorded in the main memory 1004. This second subject tracking process uses the same algorithm as in the first embodiment.
  • step S1115 the system control unit 1003 determines whether the exposure adjustment and focus adjustment in step S1112 are completed. If the result of this determination is that exposure adjustment and focus adjustment in step S1112 have not been completed, the process waits. If exposure adjustment and focus adjustment have been completed, the live view display is stopped and control returns to step S1107. If it is determined in step S1115 that the exposure adjustment and the focus adjustment have been completed, the process returns to step S1107 even if the second subject tracking process is not completed. This second subject tracking process only needs to be completed before the subsequent first subject tracking process is started.
  • the first subject tracking process in step S1109 is a process performed between the main imaging during continuous shooting and the main imaging, the faster the processing, the higher the continuous shooting speed.
  • the second subject tracking process in step S1114 is a process performed independently of the main imaging, it is possible to perform a highly accurate tracking process over time. If the second subject tracking process is completed during the main imaging process, the result is used to verify and correct the first subject tracking process result, which is recorded in the main memory 1004. The subject position information immediately before being updated is updated.
  • the processing time of the subject tracking process can be secured. Then, the first auxiliary image data and the auxiliary image data obtained thereafter are synthesized, and the synthesized auxiliary image data is used for an exposure adjustment calculation with a relatively short processing time. Thereby, it is possible to perform exposure adjustment calculation using image data in which an appropriate accumulation period is ensured while ensuring the subject tracking processing time.
  • the present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
  • This program and a computer-readable non-volatile recording medium storing the program are included in the present invention.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

 撮像装置の連写中における被写体追尾機能の精度の向上を実現する撮像装置を提供する。この撮像装置は、本画像の撮像と次の本画像の撮像を行う合間に、複数の補助画像を撮像する撮像手段と、主被写体を決定する主被写体決定手段と、複数の補助画像のうちの第1の補助画像のその一部である第1の領域から、主被写体と同一の被写体が存在する領域を検出する第1の被写体追尾処理手段と、複数の補助画像のうちの第2の補助画像の第1の領域よりも広い第2の領域から、主被写体と同一の被写体が存在する領域を検出する第2の被写体追尾処理手段とを有し、第1の被写体追尾処理手段による検出の結果を次の本画像の撮像より前に行う焦点調節に用い、第2の被写体追尾処理手段による検出の結果を次の本画像の撮像の後に行う主被写体と同一の被写体が存在する領域の検出に用いる。

Description

撮像装置及びその制御方法
 本発明は、複数の静止画を連続撮像する連写機能と被写体追尾機能を有する撮像装置及びその制御方法に関する。
 被写体の明るさや被写体の位置は、時間の経過とともに変化する。そのため、連写機能を有する撮像装置を用いて静止画の連写を行う場合には、静止画を撮像する毎に、露出や焦点を調節しなければならなかった。そこで、直前に撮像した静止画から次の静止画のための露出調節値を求める撮像装置や、撮像素子とは別に設けたAE(auto exposure)センサーおよびAF(auto focus)センサーなどから得られる情報を用いて、露出と焦点を自動的に調節しながら連写を行う機能を備えた撮像装置が存在する。さらに、連写中に得られる画像データを用いて被写体を追尾したり、人物の顔情報を検出したりといった機能を備えたカメラも存在する。
 例えば、下記の特許文献1には、連写モードのときに、直前に得られた静止画から被写体を検出し、この被写体に焦点を追従させた状態で、次のフレームの静止画を撮像する一眼レフカメラが記載されている。
特開2010-72283号公報
 しかしながら、上述の特許文献1に記載の技術では、被写体検出処理に用いる画像を撮像してから、その被写体の位置を基準に焦点検出処理を行うまでの間に、1回のミラーダウン動作を挟んでいる。そのため、被写体を検出してから、その被写体の位置における焦点情報を得るまでの間に、多少の時間差があるため、被写体検出処理のときの被写体の位置と、焦点検出処理のときの被写体の位置に許容できないズレが生じてしまうことがある。ゆえに、撮像装置の被写体追尾機能について、まだ改善の余地があると考えられる。
 また、このようなミラーを有していないミラーレスの一眼カメラにおいても、被写体の検出を開始してから、その被写体に対して焦点調節を行うまでの時間が短いほうが、上記のようなズレを抑制することができる。
 本発明は、このような問題点に鑑みてなされたものであり、撮像装置の連写中における被写体追尾機能の向上を実現する仕組みを提供することを目的とする。
 本発明の請求項1に係る発明は、連写モード時に複数の本画像を撮像する撮像装置であって、本画像の撮像と次の本画像の撮像を行う合間に、複数の補助画像を撮像する撮像手段と、主被写体を決定する主被写体決定手段と、複数の補助画像のうちの第1の補助画像のその一部である第1の領域から、主被写体と同一の被写体が存在する領域を検出する第1の被写体追尾処理手段と、複数の補助画像のうちの第2の補助画像の第1の領域よりも広い第2の領域から、主被写体と同一の被写体が存在する領域を検出する第2の被写体追尾処理手段とを有し、第1の被写体追尾処理手段による検出の結果を次の本画像の撮像より前に行う焦点調節に用い、第2の被写体追尾処理手段による検出の結果を次の本画像の撮像の後に行う主被写体と同一の被写体が存在する領域の検出に用いることを特徴とするものである。
 本発明によれば、撮像装置の連写中における被写体追尾機能の精度を向上させることができる。
第1の実施形態に係る撮像装置の機械的構成の一例を示す模式図である。 第1の実施形態に係る撮像装置の測距点配置を示す模式図である。 第1の実施形態に係る撮像装置の電気的構成の一例を示す模式図である。 第1の実施形態に係る撮像装置の連写モード時の処理手順の一例を示すフローチャートである。 第1の実施形態に係る追尾範囲を説明するための図である。 第1の実施形態に係る各処理が行われるタイミングを説明するための図である。 第2の実施形態に係る撮像装置の機械的構成の一例を示す模式図である。 第2の実施形態に係る撮像素子の位相差検出用の画素の構成を示す図である。 第2の実施形態に係る撮像装置の測距点配置を示す模式図である。 第2の実施形態に係る撮像装置の電気的構成の一例を示す模式図である。 第2の実施形態に係る撮像装置の連写モード時の処理手順の一例を示すフローチャートである。 第2の実施形態に係る追尾範囲を説明するための図である。
 以下に、図面を参照しながら、本発明を実施するための好適な形態について説明する。
[規則91に基づく訂正 10.07.2012] 
 (第1の実施形態)
 まず、図1乃至図6を参照して、本発明の第1の実施形態に係る撮像装置について説明する。
 図1は、第1の実施形態に係る撮像装置である、デジタル一眼レフカメラの機械的構成の一例を示す模式図である。
 図1の撮像装置200において、カメラ本体201の前面には、撮影レンズユニット202が装着されている。カメラ本体201は、装着する撮影レンズユニット202を、別の撮影レンズユニットと交換することが可能である。このカメラ本体201と撮影レンズユニット202は、不図示のマウント接点群を介して通信を行う。撮影レンズユニット202の内部にはレンズ群213と絞り214がある。カメラ本体201は、前記マウント接点群を介した通信制御により、絞り214の開口径を調節してカメラ内に取り込む光量を調整し、レンズ群213の位置を調節してピント位置を調節することができる。
 メインミラー203は、ハーフミラーで構成されている。このメインミラー203は、静止画を撮影するための本撮影時以外は、撮影光路上に斜設されている。この状態では、撮影レンズユニット202からの光束の一部が、メインミラー203で反射されてファインダー光学系へ導かれる一方、メインミラー203を透過した残りの光束は、サブミラー204で反射されてAFユニット205へ導かれる。
 AFユニット205は、位相差検出方式のAFセンサーで構成されている。AFユニット205は、撮影レンズユニット202の2次結像面を、焦点検出ラインセンサー上に形成している。カメラ本体201は焦点検出ラインセンサーの出力から撮影レンズユニット202の焦点調節状態を検出し、その検出結果をもとにレンズ群213を駆動するための制御信号を出力して自動焦点調節を行う。位相差検出方式による焦点検出は公知の技術であるため、具体的な制御に関してはここでは省略する。
 図2は、第1の実施形態に係る撮像装置の測距点配置を示す模式図である。
 AFユニット205は、例えば、図2に示す測距点レイアウトを持つ。
 図1のピント板206は、ファインダー光学系を構成する撮影レンズユニット202の予定結像面に配置されたものであり、ペンタプリズム207は、ファインダー光路変更用のペンタプリズムである。
 撮影者はアイピース209を介してピント板206を観察することによって、撮像対象を視認することができる。
 AEユニット(AEセンサー)208は、被写体の明るさを観測するため、二次元に配置された多数の画素の出力より、被写体輝度に関する出力を得ることができる。本実施形態においてAEセンサーは、図2で示される外枠の領域(撮像範囲)を観測しており、R(赤)、G(緑)及びB(青)のそれぞれの色フィルタに対応した画素が、色フィルタ別にストライプ状に配列されたものである。本実施形態においては、AEセンサー208において被写体の明るさを観測すると同時に、AEセンサー208で得られる画像データを用いて、被写体の追尾処理を行う。
 また、カメラ本体201の内部には、フォーカルプレーンシャッター210、撮像素子211が備えられている。露光を行う際は、メインミラー203及びサブミラー204は、光束を遮らないようにピント板206に隣接するように退避し、フォーカルプレーンシャッター210が開くことにより、撮像素子211が露光される。ここで、以降は混同を避けるために、画像データの保存を目的とした撮像素子211による撮像を「本撮像」、AEセンサー208による撮像を「補助撮像」と呼ぶこととする。また、本撮像よって生成される画像データを「本画像データ」、補助撮像によって生成される画像データを「補助画像データ」と呼ぶこととする。つまり、本画像データを生成する撮像素子211が第1の撮像素子として機能し、補助画像データを生成するAEセンサー208が第2の撮像素子として機能する。
 また、ディスプレイユニット212は、撮影情報や撮影画像を表示し、ユーザーがその内容を確認できるようにするものである。
 次に、本実施形態に係る撮像装置の電気的構成について説明する。
 図3は、第1の実施形態に係る撮像装置200の電気的構成の一例を示す模式図である。なお、図1と同じ部材については、同一の符号を付している。
 図3の操作検出部308は、ユーザーが、カメラ本体201に取り付けられたボタン、スイッチ、またはダイヤル等を介して行った操作を検知し、操作内容に応じた信号をシステム制御部303へ送る。特に、操作検出部308は、レリーズボタンが半押しされた瞬間にSW1信号をシステム制御部303に出力し、レリーズボタンが押し込まれた瞬間にSW2信号をシステム制御部303に出力する。ここで、ユーザーがレリーズボタンの半押しを維持した状態を「SW1保持状態」と呼び、レリーズボタンの押し込みを維持した状態を「SW2保持状態」と呼ぶことにする。また、操作検出部308は、ユーザーがSW1保持状態においてレリーズボタンを離した瞬間にSW1解除信号をシステム制御部303に出力し、SW2保持状態においてレリーズボタンを離した瞬間にSW2解除信号をシステム制御部303に出力する。
 ミラー制御部309は、システム制御部303から送られてくる制御信号に基づいてメインミラー203及びサブミラー204の動作を制御する。
 システム制御部303は、操作検出部308からSW1信号を受け取ったとき、及び連写モードのミラーダウン状態のときに、AFユニット205の各測距点に対応するラインセンサーから蓄積データを読み出し、焦点調節を行う測距点の選択と焦点調節演算を行う。そして、システム制御部303は、演算結果に基づくレンズ駆動信号をレンズ駆動部314へ送る。
 レンズ駆動部314は、システム制御部303から送られてきたレンズ駆動信号に基づいてレンズ群213を動かし、合焦動作を行う。
 撮像素子211は、レンズ群213を通して入射してきた光を電気信号に変換して画像データを生成し、システム制御部303へ当該画像データを出力する。システム制御部303は、撮像素子211から出力された画像データをディスプレイ制御部312へ出力するとともに、画像記憶装置311へ書き込む(記憶する)。
 ディスプレイ制御部312は、システム制御部303からの画像データの出力に基づいて、当該画像データに基づく画像をディスプレイに表示する。
 メインメモリ307は、システム制御部303及びAE画像処理部304が行う演算に必要なデータを格納するための記憶装置である。
 AE画像処理部304は、AEセンサー208から読み出した画像データに基づいて露出調節演算を行い、演算結果をシステム制御部303に出力する。システム制御部303は、AE画像処理部304から出力された露出調節演算の結果に基づいて、絞り制御信号を絞り制御部313に送る。また、システム制御部303は、レリーズ時にシャッター制御信号をシャッター制御部310に送る。
 絞り制御部313は、システム制御部303から受け取った絞り制御信号に基づいて絞り214を駆動する。
 シャッター制御部310は、システム制御部303から送られてくるシャッター制御信号に基づいてフォーカルプレーンシャッター210を駆動する。
 また、AE画像処理部304は、連写モードのときに被写体追尾処理を行い、AEセンサー208から読み出した補助画像データ中の主被写体位置を検出する。ここで、上述した被写体追尾処理は、第1の被写体追尾処理と第2の被写体追尾処理との2種類のアルゴリズムを有する。このうち、第1の被写体追尾処理の結果はシステム制御部303に出力され、第2の被写体追尾処理の結果はメインメモリ307に記録される。2種類の被写体追尾処理のアルゴリズムについては後述する。
 システム制御部303は、AE画像処理部304から出力された第1の被写体追尾処理の結果に基づいて、図2の測距点群の中から1つの測距点を選択する。そして、選択した測距点の焦点調節演算の結果に基づいてレンズ駆動部314へレンズ駆動信号を送る。
 次に、本実施形態に係る撮像装置の、連写モードが設定されているときの動作について説明する。
 図4は、第1の実施形態に係る撮像装置の連写モード時の処理手順の一例を示すフローチャートである。本実施形態の撮像装置は、連写モード時に複数のフレームの静止画を撮像する。
 ステップS401乃至ステップS405は、SW1保持状態で行われる処理であり、連写の準備動作に該当する。ステップS406乃至ステップS416は、上述した連写の準備動作の完了後に、レリーズボタンが押し込まれてSW2保持状態になると行われる処理である。
 ユーザーがレリーズボタンを半押しし、操作検出部308からSW1信号がシステム制御部303に出力されると、図4のフローチャートの処理が開始される。以下に、個々のステップについての説明を行う。
 まず、ステップS401において、システム制御部303は、AFユニット205の出力に基づいて、測距点の選択と焦点調節演算を行う。例えば、システム制御部303は、撮像装置200に対して至近となる位置に存在するとみなされる被写体に重畳している測距点を選択する。
 続いて、ステップS402において、AE画像処理部304は、AEセンサー208から補助画像データを読み出し、ステップS401で選択された測距点を中心とする一定の領域を抽出する。そして、AE画像処理部304(或いはシステム制御部303)は、抽出された領域の画像データ、及び、補助画像データ中における抽出された領域の中心座標をメインメモリ307に記録する。これらは、後述する追尾処理に用いられる。ここで、以降は、メインメモリ307に記録されている前記抽出された領域の画像データを「テンプレート画像データ」と呼び、前記抽出された領域の中心座標を「直前の被写体位置」と呼ぶことにする。ここで、後述する図5に示すように、テンプレート画像データは主被写体に係るものであり、このテンプレート画像データを抽出するAE画像処理部304は、連写の開始前に主被写体を決定する主被写体決定手段を構成する。
 続いて、ステップS403において、AE画像処理部304は、ステップS402でAEセンサー208から読み出した補助画像データを用いて露出演算を行い、その結果をシステム制御部303に出力する。
 続いて、ステップS404において、システム制御部303は、ステップS401の焦点調節演算結果、及び、ステップS403の露出演算結果に基づいて、絞り制御部313及びレンズ駆動部314へ制御信号を送る。これにより、絞り制御部313は、制御信号に基づいて絞り(露出)を調節し、レンズ駆動部314は、制御信号に基づいて焦点を調節する。
 次のステップS405は、ユーザーの次の操作を待つステップである。具体的に、ステップS405において、システム制御部303は、ユーザーがレリーズボタンを離すか(SW1解除)、或いは、レリーズボタンを押し込むか(SW2入力)の動作を行うまで待機する。そして、システム制御部303は、操作検出部308から、SW1解除信号或いはSW2信号が入力された場合に、ステップS406へ進む。
 ステップS406に進むと、システム制御部303は、ステップS405の待機状態を解除する信号が入力された際に、入力された信号がSW2信号であるか否かを判断する。この判断の結果、入力された信号がSW2信号でない(SW1解除信号である)場合には、図4のフローチャートにおける連写処理を終了し、一方、入力された信号がSW2信号である場合には、ステップS407へ進んで連写を開始する。
 なお、連写開始後の処理において、ステップS407乃至ステップS409と、ステップS415乃至ステップS416とは並行して行われる。そのため、本実施形態では、システム制御部303がステップS407乃至ステップS409を処理し、AE画像処理部304がステップS415乃至ステップS416を処理することによる並列処理を行う。
 ステップS407乃至ステップS409は、システム制御部303が、本撮像を行う処理である。
 まず、ステップS407において、システム制御部303は、ミラー制御部309へ制御信号を送り、メインミラー203をアップさせて、本撮影時の光路から退避させる。
 続いて、ステップS408において、システム制御部303は、シャッター制御部310へ制御信号を送ってレリーズを行い、撮像素子211に露光して本撮像を行う。そして、システム制御部303は、撮像素子211で生成された画像データを読み込み、これを画像記憶装置311へ記録(記憶)する。
 続いて、ステップS409において、システム制御部303は、ミラー制御部309へ制御信号を送り、メインミラー203及びサブミラー204をダウンさせ、本撮影時の光路に侵入させる。
 なお、ステップS415乃至ステップS416の処理については後述する。
 続いて、ステップS410において、システム制御部303は、SW2保持状態が解除されたか否かを判断する。この判断の結果、既にSW2解除信号を受け取っていてSW2保持状態が解除された場合には、図4のフローチャートにおける連写処理を終了し、一方、SW2解除信号を受け取っておらずSW2保持状態が解除されていない場合には、ステップS411へ進む。
 ステップS411に進むと、AE画像処理部304は、第1の被写体追尾処理による主被写体位置の検出を行う。この際、第1の被写体追尾処理は、テンプレートマッチング法により行う。
 ステップS411では、まず、AEセンサー208が、適正な露出調節演算を行うために必要とされる蓄積期間よりも短い期間(第1の蓄積期間)だけ電荷の蓄積を行う。AEセンサー208が電荷の蓄積を終えると、AE画像処理部304は、AEセンサー208から第1の補助画像データを読み出すとともに、メインメモリ307からテンプレート画像データを読み出す。そして、AE画像処理部304は、この2枚の画像データ間の相関を取ることにより、第1の補助画像データにおける主被写体の位置を検出する。そして、その検出結果をシステム制御部303に出力する。第1の補助画像データを得るための第1の蓄積期間を、適正な露出調節演算を行うために必要とされる蓄積期間よりも短くすることで、主被写体の位置を検出する処理を開始するタイミングを早めることが可能となる。
 ここで、本実施形態においては、AEセンサー208は、連写モード時の本撮像が行われる合間に複数の補助画像データを撮像するための補助画像撮像手段を構成する。また、例えば、第1の被写体追尾処理による主被写体位置の検出の結果は、次の本撮像のための焦点調節演算に利用される。
 図5は、第1の実施形態に係る追尾範囲を説明するための図である。
 ここで、第1の被写体追尾処理では、図5のように、マッチングを行う領域を、メインメモリ307から読み出した直前の被写体位置を基準として上下測距点1つ分、左右測距点2つ分の範囲(第1の被写体追尾処理の追尾範囲)に限定する。即ち、第1の被写体追尾処理では、補助画像データの一部の範囲について、主被写体の位置を検出する。さらに、補助画像データ及びテンプレート画像データの解像度を1/2に変換した状態でマッチングを行う。これにより、マッチングを高速に処理することができ、この後のレンズ駆動等の時間を確保できる。
 ここで、以降は、ステップS411でAEセンサー208から読み出した第1の補助画像データを「補助画像データ1」と呼ぶことにする。また、マッチングを行う範囲を「追尾範囲」と呼ぶことにする。
 続いて、ステップS412において、AEセンサー208が、適正な露出調節演算を行うために必要とされる蓄積期間から、第1の蓄積期間を減算して求められる第2の蓄積期間だけ、電荷の蓄積を行う。AE画像処理部304は、AEセンサー208から第2の補助画像データを読み出し、ステップS411でAEセンサー208から読み出した補助画像データ1との足し合わせを行った新たな合成補助画像データを生成する。AE画像処理部304は、生成した合成補助画像データを用いて露出調節演算を行い、その露出調節演算結果をシステム制御部303に出力する。
 ここで、以降は、ステップS412でAEセンサー208から読み出した補助画像データを、「補助画像データ2」と呼び、補助画像データ1と補助画像データ2との合成補助画像データを「補助画像データ12」と呼ぶことにする。
 補助画像データ1と補助画像データ2のそれぞれを得るときのAEセンサー208の蓄積期間を足すと、適正な露出調節演算を行うために必要とされる蓄積期間となる。そのため、AE画像処理部304は、この補助画像データ12を用いることで、正確な露出調節演算を行うことができる。さらに、補助画像データを合成することにより、合成しない画像データを用いる場合よりも、ノイズの低下や光量の増加による安定した露出演算が期待できる。
 続いて、ステップS413において、システム制御部303は、ステップS411で検出した被写体位置の測距点に対して、焦点調節演算を行う。
 続いて、ステップS414において、システム制御部303は、ステップS412及びステップS413の演算結果に基づいて、絞り制御部313、レンズ駆動部314へ制御信号を送り、露出調節と焦点調節を行う。
 ステップS414が終了すると、レリーズ動作に入る。システム制御部303は、ステップS407乃至ステップS409、AE画像処理部304は、ステップS415乃至ステップS416の処理を行う。
 ステップS415において、AE画像処理部304は、撮像が1フレーム目であるか否かを判断する。この判断の結果、撮像が1フレーム目でない(撮像が2フレーム目以降である)場合には、ステップS416へ進む。
 ステップS416に進むと、AE画像処理部304は、第2の被写体追尾処理による主被写体位置の検出を行い、直前に(直前のフレームで)行った第1の被写体追尾処理の結果の検証及び修正を行う。この第2の被写体追尾処理は、第1の被写体追尾処理と同様に、テンプレートマッチング法により行う。AE画像処理部304は、ステップS412で読み出した補助画像データ2と、メインメモリ307に記録されているテンプレート画像データとの相関を取ることにより、主被写体位置を検出する。ただし、第2の被写体追尾処理では、第1の被写体追尾処理とは異なり、図5に示すように、マッチングを行う領域(第2の被写体追尾処理の追尾範囲)を補助画像データ2の全体とし、解像度もそのままで行う。これにより、第1の被写体追尾処理よりも範囲が広く、精度の高い追尾結果を得ることができる。
 この追尾結果を利用して、直前にステップS411で行った第1の被写体追尾結果の検証と修正を行う。ここでは、以下に3点について検証する。
 第1に、第1の被写体追尾処理では、追尾範囲を限定しているため、主被写体の移動が速く追尾範囲を越えてしまった場合には、正しい結果を得られない。そこで、第2の被写体追尾処理により補助画像データ2の全体を探索し、第1の被写体追尾処理の範囲外に主被写体がいないかどうかを調べる。
 第2に、第1の被写体追尾処理では、追尾範囲中に主被写体と類似する被写体が存在する場合、画像データの解像度を落としているためにそれらを判別できず、追尾対象を間違えてしまう可能性がある。そこで、より解像度を落としていない補助画像データ2を用いて第2の被写体追尾処理を行うことで、主被写体と類似被写体とを判別し、第1の被写体追尾処理の結果が正しいものかどうかを検証する。
 第3に、第1の被写体追尾処理に用いた画像データは解像度を1/2に変換しているため、検出した被写体の位置が粗く、正しい被写体の位置との間にズレが生じる可能性がある。そこで、より解像度の高い第2の被写体追尾処理を行うことで、被写体の位置をより高い精度で検出する。
 以上の3点の検証において、もし第1の被写体追尾処理と第2の被写体追尾処理で異なる結果が得られた場合、メインメモリ307に記録されている直前の被写体位置情報を第2の被写体追尾処理の結果に修正する。
 また、第1の被写体追尾処理と第2の被写体追尾処理で検出された被写体が同一でものである可能性が高く、かつ、それらの位置に予め定めた閾値以上のズレがあるならば、その被写体の位置の変化に基づいて、被写体の動きを予測することも可能である。
 なお、ステップS415で撮像が1フレーム目であると判断された場合、或いは、ステップS416が終了した場合には、ステップS407乃至ステップS409の終了とともに、ステップS410に進み、以降の処理が行われる。
 図6は、本実施形態において、各処理が行われるタイミングを説明するための図である。
 本撮像が行われてメインミラー203及びサブミラー204をダウンさせると、AE画像処理部304は、AEセンサー208に第1の蓄積期間だけ電荷の蓄積を行わせ、補助画像データ1を読み出す。この補助画像データ1は蓄積期間が短く設定されているため、露出調節演算を行うためには輝度が不足している。
 続いて、AE画像処理部304は、読み出した補助画像データ1に現像処理を施し、現像処理を施した補助画像データ1を用いて第1の被写体追尾処理を行う。そして、第1の被写体追尾処理の結果はシステム制御部303に出力され、この結果に基づいて新たな測距点を選択する。そして、システム制御部303は、AFユニット205から送信されてきた焦点検出ラインセンサーの出力から、新たに選択した測距点における撮影レンズユニット202の焦点調節状態を演算し、レンズ群213を駆動するための制御信号を生成する。
 AE画像処理部304は、AEセンサー208に第1の蓄積期間だけ電荷の蓄積を行わせた後、すぐにAEセンサー208に第2の蓄積期間だけ電荷の蓄積を行わせ、補助画像データ2を読み出す。この補助画像データ2も蓄積期間が短く設定されているため、露出調節演算を行うためには輝度が不足している。
 続いて、AE画像処理部304は、読み出した補助画像データ2に現像処理を施し、現像処理を施した補助画像データ1と補助画像データ2を合成する。補助画像データ1と補助画像データ2を合成することで、適切な露出調節演算を行うために必要な明るさである補助画像データ12を得ることができる。AE画像処理部304は、この補助画像データ12を用いて露出調整演算を行い、演算結果をシステム制御部303に出力する。
 システム制御部303は、焦点調節演算と露出調節演算の結果に基づいて、絞り制御部313、レンズ駆動部314へ制御信号を送り、露出調節と焦点調節を行う。そして、システム制御部303はこの露出調節と焦点調節を終えると、メインミラー203及びサブミラー204をアップさせ、本撮像を行う。
 また、AE画像処理部304は、補助画像データ2を用いて第1の被写体追尾処理よりも精度の高い第2の被写体追尾処理を行う。この第2の被写体追尾処理は第1の被写体追尾処理よりも時間を要し、かつ、処理を開始するタイミングが第1の被写体追尾処理に比べて遅いため、直後の本撮像に第2の被写体追尾処理の結果を反映させることができない。さらに、AE画像処理部304による第2の被写体追尾処理が継続されている間に、次の本撮像が開始される。
 その代わり、精度の高い被写体追尾処理を行うことで、その後に行われる第1の被写体追尾処理のための「追尾範囲」を正しく設定することができるため、その後に行われる第1の被写体追尾処理の精度を高めることに貢献することができる。
 このように本実施形態では、複数の補助画像データのうちの最初の1枚は比較的早い段階で読み出すことになるため、被写体追尾処理の処理時間を確保することができる。そして、この補助画像データ1とその後に得られた補助画像データ2を合成し、この合成した補助画像データ12を比較的処理時間の短い露出調節演算に用いる。これにより、被写体追尾処理の時間を確保しつつ、適切な蓄積期間を確保した画像データを用いて露出調節演算を行うことできる。
 さらに、本撮像の処理と並行して、補助画像データ2を用いて詳細な被写体追尾処理を行うことで、被写体の位置の修正を行い、次の被写体追尾処理の追尾範囲を正しく設定することが可能となる。以上の手法において、第1の被写体追尾処理結果の検証と修正を行うことにより、1フレーム中に1度しか被写体追尾処理を行わない場合よりも、被写体追尾の精度を高めることができる。なお、図6では、ミラーアップの動作よりも前に第2の被写体追尾処理が開始されているが、ミラーアップの動作よりも後に第2の被写体追尾処理が開始されても構わない。その後に行われる第1の被写体追尾処理が行われるよりも前に、第2の被写体追尾処理が完了するようにさえすれば、第2の被写体追尾処理が開始されるタイミングは任意に設定することができる。
 以上、本発明の好ましい実施形態について説明したが、本発明は本実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、被写体の位置を検出する手法に関しては、テンプレートマッチングによる被写体追尾だけでなく、色情報を用いた追尾や、顔検出による結果を用いても良い。他にも、オプティカルフローを利用した動体解析や、エッジ検出によるシーン検出技術を用いても良い。また、本実施形態では、テンプレートマッチングに用いるテンプレートを、最初に保存した1枚の画像データのみとしたが、連写中に新たに撮影された画像データから主被写体の領域を切り出して新たなテンプレートとしても良い。ここで、補助画像を解析することで同一の被写体を追尾する処理であって、かつ、第1の被写体追尾処理は比較的低精度ながら高速に動作し、第2の被写体追尾処理が低速であるが高精度に追尾するようなアルゴリズム構成となっていれば良い。
 また、図4のステップS416の第2の被写体追尾処理では、テンプレート画像データとの相関を取る画像データとしてステップS412で生成した補助画像データ2を用いているが、本発明においては、必ずしもこの形態に限られない。例えば、撮像された複数の補助画像データのうちのいずれかの補助画像データであれば本発明に適用可能であり、例えば、2枚目以降の単数又は複数の画像データを用いてテンプレート画像データとの相関を取るようにしてもよい。あるいは、補助画像データ2の代わりに、補助画像データ1と補助画像データ2を合成して得られる補助画像データ12を用いて、第2の被写体追尾処理を行うようにしてもよい。
 また、図4のステップS401の処理では、撮像装置200に対して至近となる位置に存在するとみなされる被写体に重畳している測距点を選択したが、ユーザーの指示に応じて任意の測距点を選択するようにしてもよい。また、AE画像処理部304が、AEセンサー208から読み出した画像データから人物の顔を検出する顔検出機能を備えているならば、この顔を被写体として選択し、検出した顔を囲う領域の画像データをテンプレート画像データとしてもよい。
 (第2の実施形態)
 次に、図7乃至図12を参照して、第2の実施形態に係る撮像装置について説明する。
 図7は、第2の実施形態に係る撮像装置である、ミラーレスデジタル一眼カメラの機械的構成の一例を示す模式図である。
 図7の撮像装置700において、カメラ本体701の前面には、撮影レンズユニット702が装着されている。カメラ本体701は、装着する撮影レンズユニット702を、別の撮影レンズユニットと交換することが可能である。このカメラ本体701と撮影レンズユニット702は、不図示のマウント接点群を介して通信を行う。撮影レンズユニット702の内部にはレンズ群706と絞り707がある。カメラ本体701は、前記マウント接点群を介した通信制御により、絞り707の開口径を調節してカメラ内に取り込む光量を調整し、レンズ群706の位置を調節してピント位置を調節することができる。
 カメラ本体701の内部には、フォーカルプレーンシャッター703、撮像素子704が設けられている。露光を行う際は、フォーカルプレーンシャッター703が開くことにより、撮像素子704が露光される。撮像素子704は、画像生成用の画素と位相差検出用の画素を持つ。ここで、画像生成用の画素は、露光時に画像データを生成するための画素であり、位相差検出用の画素は位相差を検出して焦点調節を行うための画素である。
 この撮像素子704の焦点調節を行うための画素の構造について説明する。
[規則91に基づく訂正 10.07.2012] 
 図8(a)は、撮像素子704の画素の正面図を示し、図8(b)は画素の断面図を示す。図8において、801はマイクロレンズであり、802及び803はそれぞれフォトダイオードである。1つのマイクロレンズに対して2つのフォトダイオードを用いて画像データを読み出すことにより、図中の左右に瞳分割を行っている。この左の画素の出力を集めて形成される像と、右の画素の出力を集めて形成さえる像を比較することで、AFユニットの焦点検出ラインセンサーと同様に、位相差検出方式によって撮影レンズユニット702の焦点調節状態を検出することができる。
 図9は、第2の実施形態に係る撮像装置(撮像素子704内)の測距点配置を示す模式図である。格子状に分けられた各測距点の領域に対応する位相差検出用画素の出力を用いて焦点調節を行う。
 図7のディスプレイユニット705は、撮影情報や撮影画像を表示し、ユーザーがその内容を確認できるようにするものである。
 次に、本実施形態に係る撮像装置の電気的構成について説明する。
 図10は、第2の実施形態に係る撮像装置の電気的構成の一例を示す模式図である。なお、図7と同じ部材については、同一の符号を付している。
 図10の操作検出部1005は、ユーザーがカメラ本体701に取り付けられたボタン、スイッチ、またはダイヤル等を介して行った操作を検知し、操作内容に応じた信号をシステム制御部1003へ送る。特に、操作検出部1005は、レリーズボタンを半押しされた瞬間にSW1信号をシステム制御部1003に出力し、レリーズボタンが押し込まれた瞬間にSW2信号をシステム制御部1003に出力する。また、操作検出部1005は、ユーザーがSW1保持状態においてレリーズボタンを離した瞬間にSW1解除信号をシステム制御部1003に出力し、SW2保持状態においてレリーズボタンを離した瞬間にSW2解除信号をシステム制御部1003に出力する。
 システム制御部1003は、撮像素子704で生成された動画を読み出し、ディスプレイ制御部1008への出力を行う。これは、いわゆるライブビュー表示を行うものであり、ディスプレイ制御部1008は、受け取った動画に基づく画像をディスプレイユニット705へ表示する。
 システム制御部1003は、操作検出部1005からSW1信号を受け取ると、撮像素子704の位相差検出用画素から位相差情報を読み出して焦点調節演算を行う。この焦点調節演算を完了したシステム制御部1003は、焦点調節演算結果に基づくレンズ駆動信号をレンズ駆動部1010へ送る。
 レンズ駆動部1010は、システム制御部1003から受け取ったレンズ駆動信号に基づいてレンズ群706を動かし、合焦動作を行う。
 撮像素子704は、撮影レンズユニット702を通して入射してきた光を電気信号に変換して画像データを生成し、システム制御部1003へ当該画像データを出力する。システム制御部1003は、撮像素子704の画像生成用画素から出力された画像データをディスプレイ制御部1008へ出力するとともに、本撮像時には、当該画像データを画像記憶装置1007へ書き込む(記憶する)。
 ディスプレイ制御部1008は、システム制御部1003からの画像データの出力に基づいて、当該画像データに基づく画像をディスプレイユニット705に表示する。ここで、撮像素子704から出力される画像データのうち、SW2信号に応じて保存を目的として、画像記憶装置1007へ記録する画像データを得るための撮像を「本撮像」、画像記憶装置1007に記録されないライブビュー表示用の画像を「補助画像」と呼ぶことにする。
 メインメモリ1004は、システム制御部1003が行う演算等に必要なデータを格納するための記憶装置である。
 絞り制御部1009は、システム制御部1003から受け取った絞り制御信号に基づいて絞り707を駆動する。
 シャッター制御部1006は、システム制御部1003から送られてくるシャッター制御信号に基づいてフォーカルプレーンシャッター703を駆動する。
 また、システム制御部1003は、連写モードのときに被写体追尾処理を行い、撮像素子704から読み出した画像データから主被写体位置を検出する。ここで、上述した被写体追尾処理は、第1の被写体追尾処理と第2の被写体追尾処理の2種類のアルゴリズムを有する。この2種類の被写体追尾処理は、第1の実施形態と同様のアルゴリズムを用いて行う。
 システム制御部1003は、第1の被写体追尾処理の結果に基づいて、図9に示す測距点群の中から1つの測距点を選択する。そして、選択した測距点の焦点調節演算の結果に基づいてレンズ駆動部1010へレンズ駆動信号を送る。
 次に、本実施形態に係る撮像装置の連写モードの動作について説明する。
 図11は、第2の実施形態に係る撮像装置の連写モード時の処理手順の一例を示すフローチャートである。本実施形態の撮像装置は、連写モード時に複数のフレームの静止画を撮像する。
[規則91に基づく訂正 10.07.2012] 
 ステップS1101乃至ステップS1105は、SW1保持状態で行われる処理であり、連写の準備動作に該当する。ステップS1106乃至ステップS1115は、上述した連写の準備動作の完了後に、レリーズボタンが押し込まれてSW2保持状態になると行われる処理である。
 ユーザーがレリーズボタンを半押しし、操作検出部1005からSW1信号がシステム制御部1003に出力されると、図11のフローチャートの処理が開始される。以下に、個々のステップについての説明を行う。この図11のフローチャートが始まるよりも前に、ライブビュー表示は開始されているものとする。
 まず、ステップS1101において、システム制御部1003は、撮像素子704の位相差検出用画素の出力に基づいて、焦点調節演算を行う。例えば、システム制御部1003は、撮像装置700に対して至近となる位置に存在するとみなされる被写体に重畳している測距点を選択する。
 続いて、ステップS1102において、システム制御部1003は、撮像素子704の画像生成用画素から画像データを読み出し、ステップS1101で選択された測距点を中心とする一定の領域を抽出する。そして、システム制御部1003は、抽出された領域の画像データ、及び、画像データ中における抽出された領域の中心座標をメインメモリ1004に記録する。これらは、後述する追尾処理に用いられる。ここで、以降は、メインメモリ1004に記録されている前記抽出された領域の画像データを「テンプレート画像データ」と呼び、前記抽出された領域の中心座標を「直前の被写体位置」と呼ぶことにする。ここで、後述する図12に示すように、テンプレート画像データは主被写体に係るものであり、このテンプレート画像を抽出するシステム制御部1003は、連写の開始前に主被写体を決定する主被写体決定手段を構成する。
[規則91に基づく訂正 10.07.2012] 
 続いて、ステップS1103において、システム制御部1003は、ステップS1102で読み出した画像データを用いて露出演算を行う。
 続いて、ステップS1104において、システム制御部1003は、ステップS1101の焦点調節演算結果、及び、ステップS1103の露出演算結果に基づいて、絞り制御部1009及びレンズ駆動部1010へ制御信号を送る。これにより、絞り制御部1009は、制御信号に基づいて絞り(露出)を調節し、レンズ駆動部1010は、制御信号に基づいて焦点を調節する。
 ステップS1105において、システム制御部1003は、ユーザーがレリーズボタンを離すか(SW1解除)、或いは、レリーズボタンを押し込むか(SW2入力)の動作を行うまで待機する。そして、システム制御部1003は、操作検出部1005から、SW1解除信号或いはSW2信号が入力された場合(SW1保持状態が解除された場合)に、ステップS1106へ進む。
 ステップS1106に進むと、システム制御部1003は、ステップS1105の待機状態を解除する信号が入力された際に、入力された信号がSW2信号であるか否かを判断する。この判断の結果、入力された信号がSW2信号でない(SW1解除信号である)場合には、図11のフローチャートにおける連写処理を終了し、一方、入力された信号がSW2信号である場合には、ステップS1107へ進んで、ライブビュー表示を停止するとともに、連写を開始する。
[規則91に基づく訂正 10.07.2012] 
 ステップS1107に進むと、システム制御部1003は、ライブビュー表示を停止してから、シャッター制御部1006へ制御信号を送ってレリーズを行い、撮像素子704に露光して本撮像を行う。そして、システム制御部1003は、撮像素子704で生成された画像データを読み込み、これを画像記憶装置1007へ記録(記憶)する。
 続いて、ステップS1108において、システム制御部1003は、SW2保持状態が解除されたか否かを判断する。この判断の結果、既にSW2解除信号を受け取っていてSW2保持状態が解除された場合には、図11のフローチャートにおける連写処理を終了し、一方、SW2解除信号を受け取っておらずSW2保持状態が解除されていない場合には、ステップS1109へ進む。
 ステップS1109では、まず、撮像素子704が、適正な露出調節演算を行うために必要とされる蓄積期間よりも短い期間(第1の蓄積期間)だけ電荷の蓄積を行う。撮像素子704が電荷の蓄積を終えると、システム制御部1003は、撮像素子704の画像生成用画素から第1の補助画像データ(補助画像データ1)を読み出すとともに、メインメモリ1004からテンプレート画像データを読み出す。そして、システム制御部1003は、この2枚の画像データ間の相関を取ることにより、補助画像データ1における主被写体の位置を検出する。上述のように、追尾のアルゴリズムに関しては第1の実施形態と同様のアルゴリズムを用いる。ここで、本実施形態においては、撮像素子704は、連写モード時の本撮像が行われる合間に複数の補助画像データを撮像するための補助画像撮像手段を構成する。
 図12は、第2の実施形態における追尾範囲を説明するための図である。
 本実施形態における第1の被写体追尾処理では、図12のように、マッチングを行う範囲を、直前の被写体位置を基準とする測距点左右3測距点分、上下1測距点分の範囲(第1の被写体追尾処理の追尾範囲)とする。
 続いて、ステップS1110において、撮像素子704が、適正な露出調節演算を行うために必要とされる蓄積期間から、第1の蓄積期間を減算して求められる第2の蓄積期間だけ、電荷の蓄積を行う。システム制御部1003は、撮像素子704から第2の補助画像データ(補助画像データ2)を読み出し、ステップS1109で撮像素子704から読み出した補助画像データ1との足し合わせを行った新たな合成補助画像データを生成する。システム制御部1003は、この合成補助画像データを用いて露出調節演算を行う。
 続いて、ステップS1111において、システム制御部1003は、ステップS1109で検出した被写体位置に対応する位相差検出用画素からの出力を用いて焦点調節演算を行う。
 続いて、ステップS1112において、システム制御部1003は、ステップS1110及びステップS1111の演算結果に基づいて、絞り制御部1009、レンズ駆動部1010へ制御信号を送り、露出調節と焦点調節を行う。
 また、ステップS1112においてレンズ駆動部1010がレンズ群706を動かしている間、ステップS1113乃至ステップS1115において、システム制御部1003は、ライブビュー表示を行い、第2の被写体追尾処理も行う。
 まず、ステップS1113において、システム制御部1003はライブビュー表示を再開する。撮像素子704は、1フレーム目のみ合成補助画像データを用いて、2フレーム目以降は通常通り1回の蓄積で得られた画像データを用いてライブビュー表示を継続する。このライブビューは再び本撮像が行われるまで継続される。
 続いて、ステップS1114において、システム制御部1003は、ステップS1110で得られた合成補助画像データの全体を追尾範囲に設定し、第2の被写体追尾処理による主被写体位置の検出を開始する。具体的に、システム制御部1003は、ステップS1110で生成した合成補助画像データと、メインメモリ1004に記録されているテンプレート画像データとの相関を取ることにより、主被写体位置を検出する。この第2の被写体追尾処理は、第1の実施形態と同様のアルゴリズムを用いる。
 ステップS1114にて第2の被写体追尾処理が開始されると、すぐにステップS1115において、システム制御部1003がステップS1112の露出調節と焦点調節が完了したか否かを判断する。この判断の結果、ステップS1112の露出調節と焦点調節が完了していない場合は待機し、露出調節と焦点調節が完了した場合には、ライブビュー表示を停止してステップS1107に戻る。ここで、ステップS1115にて露出調節と焦点調節が完了したと判断された場合は、第2の被写体追尾処理が完了していなくとも、ステップS1107に戻る。この第2の被写体追尾処理は、その後の第1の被写体追尾処理が開始されるよりも前に、その処理が完了していればよい。
 ここで、ステップS1109の第1の被写体追尾処理は、連写中の本撮像と本撮像の合間に行う処理であるため、処理が速ければ速いほど連写速度が向上することになる。これに対し、ステップS1114の第2の被写体追尾処理は、本撮像とは独立して行われている処理であるため、時間をかけて精度の高い追尾処理を行うことができる。そして、本撮像の処理を行っている間に第2の被写体追尾処理が完了すれば、その結果を用いて、第1の被写体追尾処理結果の検証と修正を行い、メインメモリ1004に記録されている直前の被写体位置情報を更新する。
 このように本実施形態においても、複数の補助画像データのうちの最初の1枚は比較的早い段階で読み出すことになるため、被写体追尾処理の処理時間を確保することができる。そして、この1枚目の補助画像データとその後に得られた補助画像データを合成し、この合成した補助画像データを比較的処理時間の短い露出調節演算に用いる。これにより、被写体追尾処理の時間を確保しつつ、適切な蓄積期間を確保した画像データを用いて露出調節演算を行うことできる。
 さらに、本撮像の処理と並行して、この合成画像データを用いて詳細な被写体追尾処理を行うことで、被写体の位置の修正を行い、次の被写体追尾処理の追尾範囲を正しく設定することが可能となる。
 以上、本発明の好ましい実施形態について説明したが、本発明は本実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、本実施形態では、撮影レンズユニットを着脱可能なミラーレスデジタル一眼カメラを例にあげて説明を行ったが、撮影レンズユニットとカメラ本体が一体化されたカメラにおいても、同様の構成を適用することが可能である。
 (その他の実施形態)
 また、本発明は、以下の処理を実行することによっても実現される。
 即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な不揮発性の記録媒体は、本発明に含まれる。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2011年3月17日提出の日本国特許出願特願2011‐059425を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。
 201 カメラ本体
 202 撮影レンズユニット
 303 システム制御部
 304 AE画像処理部
 307 メインメモリ
 308 操作検出部
 309 ミラー制御部
 310 シャッター制御部
 311 画像記憶装置
 312 ディスプレイ制御部
 313 絞り制御部
 314 レンズ駆動部

Claims (12)

  1.  連写モード時に複数の本画像を撮像する撮像装置であって、
     本画像の撮像と次の本画像の撮像を行う合間に、複数の補助画像を撮像する撮像手段と、
     主被写体を決定する主被写体決定手段と、
     前記複数の補助画像のうちの第1の補助画像の、その一部である第1の領域から、前記主被写体と同一の被写体が存在する領域を検出する第1の被写体追尾処理手段と、
     前記複数の補助画像のうちの第2の補助画像の、前記第1の領域よりも広い第2の領域から、前記主被写体と同一の被写体が存在する領域を検出する第2の被写体追尾処理手段と
    を有し、
     前記第1の被写体追尾処理手段による検出の結果を、前記次の本画像の撮像より前に行う焦点調節に用い、前記第2の被写体追尾処理手段による検出の結果を、前記次の本画像の撮像の後に行う前記主被写体と同一の被写体が存在する領域の検出に用いることを特徴とする撮像装置。
  2.  前記次の本画像の撮像の後に行う前記主被写体と同一の被写体が存在する領域の検出は、前記第1の被写体追尾処理手段によって行われることを特徴とする請求項1に記載の撮像装置。
  3.  前記第1の被写体追尾処理手段は、前記第2の被写体追尾処理手段による検出結果を基準に、前記第1の領域を設定することを特徴とする請求項2に記載の撮像装置。
  4. [規則91に基づく訂正 10.07.2012] 
     前記複数の補助画像を合成する合成手段と、前記合成手段にて合成された補助画像を用いて前記撮像装置の露出調節演算を行う露出調節手段をさらに有することを特徴とする請求項1乃至3のいずれかに記載の撮像装置。
  5. [規則91に基づく訂正 10.07.2012] 
     前記第1の被写体追尾処理手段にて検出された前記主被写体と相関の高い領域に対して、焦点調節を行う焦点調節手段をさらに有することを特徴とする請求項1乃至4のいずれかに記載の撮像装置。
  6.  前記第2の被写体追尾処理手段で用いる補助画像は、前記第1の被写体追尾処理手段で用いる補助画像よりも解像度が高いことを特徴とする請求項1乃至5のいずれかに記載の撮像装置。
  7.  複数の補助画像を撮像する撮像手段は、前記本画像を生成するための第1の撮像素子とは別に、前記複数の補助画像を生成するための第2の撮像素子を有することを特徴とする請求項1乃至6のいずれかに記載の撮像装置。
  8. [規則91に基づく訂正 10.07.2012] 
     レンズ群を通ってきた光束を前記第2の撮像素子に導くためのミラーをさらに有し、
     前記第1の被写体追尾処理手段は、前記本画像の撮像の後に前記ミラーが前記本画像の撮影時の光路から退避し、前記次の本画像の撮像の前に前記ミラーが前記本画像の撮影時の光路に侵入するまでの間に、前記主被写体の位置を検出することを特徴とする請求項1乃至7のいずれかに記載の撮像装置。
  9. [規則91に基づく訂正 10.07.2012] 
     前記第2の被写体追尾処理手段が前記主被写体と相関の高い領域の検出を継続している間に、前記次の本画像の撮像が行われることを特徴とする請求項1乃至8のいずれかに記載の撮像装置。
  10.  連写モード時に複数の本画像を撮像する撮像装置の制御方法であって、
     本画像の撮像と次の本画像の撮像を行う合間に、複数の補助画像を撮像する撮像工程と、
     主被写体を決定する主被写体決定工程と、
     前記複数の補助画像のうちの第1の補助画像の、その一部である第1の領域から、前記主被写体と同一の被写体が存在する領域を検出する第1の被写体追尾処理工程と、
     前記複数の補助画像のうちの第2の補助画像の、前記第1の領域よりも広い第2の領域から、前記主被写体と同一の被写体が存在する領域を検出する第2の被写体追尾処理工程と
    を有し、
     前記第1の被写体追尾処理工程における検出結果を、前記次の本画像の撮像より前に行う焦点調節に用い、前記第2の被写体追尾処理工程における検出の結果を、前記次の本画像の撮像の後に行う前記主被写体と同一の被写体が存在する領域の検出に用いることを特徴とする撮像装置の制御方法。
  11.  連写モード時に複数の本画像を撮像する撮像装置の制御方法をコンピュータに実行させるためのプログラムであって、
     本画像の撮像と次の本画像の撮像を行う合間に、複数の補助画像を撮像する撮像ステップと、
     主被写体を決定する主被写体決定ステップと、
     前記複数の補助画像のうちの第1の補助画像の、その一部である第1の領域から、前記主被写体と同一の被写体が存在する領域を検出する第1の被写体追尾処理ステップと、
     前記複数の補助画像のうちの第2の補助画像の、前記第1の領域よりも広い第2の領域から、前記主被写体と同一の被写体が存在する領域を検出する第2の被写体追尾処理ステップと
    をコンピュータに実行させ、
     前記第1の被写体追尾処理ステップにおける検出結果を、前記次の本画像の撮像より前に行う焦点調節に用い、前記第2の被写体追尾処理ステップにおける検出の結果を、前記次の本画像の撮像の後に行う前記主被写体と同一の被写体が存在する領域の検出に用いることを特徴とするプログラム。
  12.  連写モード時に複数の本画像を撮像する撮像装置の制御方法をコンピュータに実行させるためのプログラムを記憶した不揮発性の記憶媒体であって、
     前記プログラムは、
     本画像の撮像と次の本画像の撮像を行う合間に、複数の補助画像を撮像する撮像ステップと、
     主被写体を決定する主被写体決定ステップと、
     前記複数の補助画像のうちの第1の補助画像の、その一部である第1の領域から、前記主被写体と同一の被写体が存在する領域を検出する第1の被写体追尾処理ステップと、
     前記複数の補助画像のうちの第2の補助画像の、前記第1の領域よりも広い第2の領域から、前記主被写体と同一の被写体が存在する領域を検出する第2の被写体追尾処理ステップと
    をコンピュータに実行させ、
     前記第1の被写体追尾処理ステップにおける検出結果を、前記次の本画像の撮像より前に行う焦点調節に用い、前記第2の被写体追尾処理ステップにおける検出の結果を、前記次の本画像の撮像の後に行う前記主被写体と同一の被写体が存在する領域の検出に用いることを特徴とするプログラムを記憶した不揮発性の記憶媒体。
PCT/JP2012/056348 2011-03-17 2012-03-13 撮像装置及びその制御方法 WO2012124669A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013504728A JP5925186B2 (ja) 2011-03-17 2012-03-13 撮像装置及びその制御方法
RU2013146332/08A RU2549143C1 (ru) 2011-03-17 2012-03-13 Устройство регистрации изображения и способ управления им
US13/568,479 US8743209B2 (en) 2011-03-17 2012-08-07 Image pickup apparatus and method for controlling the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-059425 2011-03-17
JP2011059425 2011-03-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/568,479 Continuation US8743209B2 (en) 2011-03-17 2012-08-07 Image pickup apparatus and method for controlling the same

Publications (1)

Publication Number Publication Date
WO2012124669A1 true WO2012124669A1 (ja) 2012-09-20

Family

ID=46830737

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/056348 WO2012124669A1 (ja) 2011-03-17 2012-03-13 撮像装置及びその制御方法

Country Status (4)

Country Link
US (1) US8743209B2 (ja)
JP (1) JP5925186B2 (ja)
RU (1) RU2549143C1 (ja)
WO (1) WO2012124669A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197150A (ja) * 2015-04-02 2016-11-24 キヤノン株式会社 撮像装置およびその制御方法、プログラム、ならびに記憶媒体

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6172934B2 (ja) * 2012-12-27 2017-08-02 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
JP5882925B2 (ja) 2013-02-18 2016-03-09 キヤノン株式会社 撮像装置及びその制御方法
JP6028928B2 (ja) * 2013-04-16 2016-11-24 オリンパス株式会社 撮像装置及び撮像方法
JP6378500B2 (ja) * 2014-03-03 2018-08-22 キヤノン株式会社 撮像装置及びその制御方法
EP3674973A1 (en) * 2018-12-28 2020-07-01 Samsung Electronics Co., Ltd. Method and apparatus with liveness detection and object recognition
JP2021179527A (ja) * 2020-05-13 2021-11-18 キヤノン株式会社 撮影制御装置、撮像装置、撮影制御方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009139795A (ja) * 2007-12-10 2009-06-25 Sony Corp 撮像装置
JP2009175821A (ja) * 2008-01-22 2009-08-06 Fujifilm Corp 特定画像の検出方法及び撮影装置
JP2010072283A (ja) * 2008-09-18 2010-04-02 Nikon Corp 撮像装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4047943B2 (ja) * 1995-01-31 2008-02-13 富士フイルム株式会社 ディジタル画像データ記録装置および方法ならびにディジタル画像データ再生装置および方法ならびに固体電子撮像装置およびその信号電荷読出し方法
US7088865B2 (en) * 1998-11-20 2006-08-08 Nikon Corporation Image processing apparatus having image selection function, and recording medium having image selection function program
CA2451495C (en) * 2001-06-15 2010-07-27 Mitsubishi Heavy Industries, Ltd. Thermal barrier coating material, method of production thereof, and gas turbine member and gas turbine applying said thermal barrier coating material
RU2370817C2 (ru) * 2004-07-29 2009-10-20 Самсунг Электроникс Ко., Лтд. Система и способ отслеживания объекта
RU2006118146A (ru) * 2006-05-26 2007-12-20 Самсунг Электроникс Ко., Лтд. (KR) Активная система и способ контроля качества изображения объектов
JP2009296029A (ja) * 2008-06-02 2009-12-17 Panasonic Corp 撮像装置
US9374533B2 (en) * 2011-02-15 2016-06-21 Canon Kabushiki Kaisha Imaging apparatus and control method for tracking a subject based on an image signal
JP5825851B2 (ja) * 2011-05-27 2015-12-02 キヤノン株式会社 撮像装置及びその制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009139795A (ja) * 2007-12-10 2009-06-25 Sony Corp 撮像装置
JP2009175821A (ja) * 2008-01-22 2009-08-06 Fujifilm Corp 特定画像の検出方法及び撮影装置
JP2010072283A (ja) * 2008-09-18 2010-04-02 Nikon Corp 撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197150A (ja) * 2015-04-02 2016-11-24 キヤノン株式会社 撮像装置およびその制御方法、プログラム、ならびに記憶媒体

Also Published As

Publication number Publication date
RU2013146332A (ru) 2015-04-27
JPWO2012124669A1 (ja) 2014-07-24
JP5925186B2 (ja) 2016-05-25
US8743209B2 (en) 2014-06-03
RU2549143C1 (ru) 2015-04-20
US20120300083A1 (en) 2012-11-29

Similar Documents

Publication Publication Date Title
JP5388544B2 (ja) 撮像装置およびそのフォーカス制御方法
JP5322783B2 (ja) 撮像装置及び該撮像装置の制御方法
JP5925186B2 (ja) 撮像装置及びその制御方法
JP6405243B2 (ja) 焦点検出装置及びその制御方法
JP6457776B2 (ja) 撮像装置および撮像装置の制御方法
US8542941B2 (en) Imaging device, image detecting method and focus adjusting method
JP5753371B2 (ja) 撮像装置およびその制御方法
US8571402B2 (en) Image tracking device, imaging device, image tracking method, and imaging method
JP5843486B2 (ja) 撮像装置およびその制御方法
JP5932210B2 (ja) 撮像装置及び焦点調節方法
JP2018031877A (ja) 撮像装置および焦点調節方法
JP5056168B2 (ja) 焦点調節装置および撮像装置
JP2005215373A (ja) 撮像装置
JP2014202875A (ja) 被写体追跡装置
JP2013254166A (ja) 撮像装置及びその制御方法
JP2009081636A (ja) 画像記録装置及び撮影方法
JP2013113857A (ja) 撮像装置及びその制御方法
JP6561437B2 (ja) 焦点調節装置および撮像装置
JP2009010672A (ja) 焦点検出装置および撮像装置
JP2011242652A (ja) 焦点検出装置およびその制御方法
JP2012128343A (ja) カメラ
JP2010072559A (ja) 撮像装置および対象物領域抽出方法
JP5447579B2 (ja) 追尾装置、焦点調節装置および撮影装置
JP7066458B2 (ja) 撮像装置及びその制御方法、プログラム
JP2021015162A (ja) 画像処理装置及びその制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12757361

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013504728

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2013146332

Country of ref document: RU

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 12757361

Country of ref document: EP

Kind code of ref document: A1