WO2014109124A1 - 画像処理装置、画像処理方法、プログラム - Google Patents

画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
WO2014109124A1
WO2014109124A1 PCT/JP2013/080605 JP2013080605W WO2014109124A1 WO 2014109124 A1 WO2014109124 A1 WO 2014109124A1 JP 2013080605 W JP2013080605 W JP 2013080605W WO 2014109124 A1 WO2014109124 A1 WO 2014109124A1
Authority
WO
WIPO (PCT)
Prior art keywords
determination
main subject
zoom
pan
execution flag
Prior art date
Application number
PCT/JP2013/080605
Other languages
English (en)
French (fr)
Inventor
雅也 木下
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US14/655,626 priority Critical patent/US9942460B2/en
Priority to CN201380069160.5A priority patent/CN104956659B/zh
Priority to EP13870437.4A priority patent/EP2945365B1/en
Priority to JP2014556330A priority patent/JP6337779B2/ja
Publication of WO2014109124A1 publication Critical patent/WO2014109124A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors

Definitions

  • the present disclosure relates to an image processing apparatus, an image processing method, and a program for performing processing for determining a main subject in an image.
  • Recent digital still cameras and digital video cameras have a face detection function as standard, and are equipped with functions that optimally adjust various camera parameters (focus, brightness, etc.) according to the face position and area. Yes.
  • Patent Document 1 describes a method in which a user designates a “main subject” as a subject tracking target in a captured image by designating the user.
  • a user designates a “main subject” as a subject tracking target in a captured image by designating the user.
  • subject tracking surrounding a whole body frame of an arbitrary subject can be realized.
  • autofocus / automatic exposure has a function of detecting and tracking a desired area in a captured image and controlling an optical system or the like so that the area is most suitable.
  • there are known techniques such as tracking an image designated as a main subject by the user, for example, an image area such as a face in the captured image, and focusing on the face area.
  • the desired region for tracking and focusing in the captured image is currently selected by the photographer himself from “a plurality of candidate regions” obtained from various detectors. This is determined by selecting one candidate. For example, an arbitrary face is selected by a touch panel from a plurality of faces that are displayed on a through image displayed on the screen (a monitoring image of a subject that is displayed at a time other than the shutter operation time) while holding the camera.
  • the main subject is selected by the action.
  • a subject existing in a predetermined area at a user-specified timing half-press of the shutter or the like is set as a main subject.
  • the act of “selection of a main subject by a photographer” is often difficult. For example, it is difficult for the user to hold the camera and select with his / her finger while aiming at the subject while he wants to use this function to keep focusing on the moving subject.
  • the designation may be difficult due to the response speed of the user to the change (movement) of the subject. For example, it is a case where a moving subject cannot be specified well on a through image screen. In the first place, it is difficult for the user to select the main subject with his / her finger on the screen in the situation where the user holds the camera and selects the subject toward the subject.
  • the user may perform an act of recording the image shake caused by the selection of the main subject as it is, or re-selecting when the tracking disappears (failure) due to frame-out or temporary occlusion.
  • an act of recording the image shake caused by the selection of the main subject as it is or re-selecting when the tracking disappears (failure) due to frame-out or temporary occlusion.
  • an object of the present disclosure is to realize a technique for determining a target subject desired by a user as a main subject without a user such as a photographer intentionally selecting a subject.
  • the image processing apparatus determines a camera work at the time of imaging, and sets a determination start timing of a main subject with respect to image data based on the determination, and image data from the determination start timing, A main subject determination unit for determining a main subject among subjects included in the image data.
  • the image processing method of the present disclosure determines camera work at the time of imaging, sets a main subject determination start timing for image data based on the determination, and includes the image data from the image data from the determination start timing. The main subject is determined among the subjects to be photographed.
  • the program of the present disclosure is a program that causes an arithmetic processing device to execute processing for realizing the image processing device or the image processing method.
  • main subject determination processing for automatically determining a main subject for image data is performed.
  • the normal user can capture a subject that is considered a main subject, that is, a subject that is desired to be captured as a still image or a subject that is desired to be continuously captured as a moving image in the captured image.
  • Camerawork refers to operations / operations for the user who is the photographer to capture the subject in the captured image, and operations / operations to search for the intended composition and focus state, specifically panning, There are tilting, zooming and manual focus.
  • Panning means that the imager moves the handheld image pickup device in a substantially horizontal direction, or moves the image pickup direction of the image pickup device installed on a tripod, a pan head, or the like in the horizontal direction.
  • Tilting means that an imager moves a hand-held image pickup device in a substantially vertical direction, or moves an image pickup direction of an image pickup device installed on a tripod, a pan head, or the like in a vertical direction.
  • Zooming is an operation in which the imager changes the angle of view by operating the zoom lever (wide key / telekey) of the image pickup apparatus or manually moving the zoom lens.
  • Manual focus is an operation in which the photographer moves the focus lens to change the focus position.
  • the fact that the user is performing these camera works can be considered as adjusting the imaging direction, the angle of view, the focal position, etc. aiming at a certain subject, that is, a captured image (for example, a through image). It can be presumed that there is a subject that is considered to be the main. Therefore, the image processing apparatus performs camera work determination, and sets the determination start timing of the main subject for the image data based on the determination. Then, from the image data of one or a plurality of frames from the determination start timing, the main subject is determined among the subjects included in the image data. This makes it possible to determine with high accuracy as automatic main subject determination.
  • the main subject is automatically determined in the captured image, it is not necessary for the user such as the photographer to select the main subject. Therefore, user operability and convenience can be improved. For example, product additions such as improved operability when holding an imaging device equipped with the image processing device of the present disclosure in hand, reduction of user stress, and realization of various functions according to automatic main subject determination Increase value. In addition, main subject determination is automatically performed at an appropriate timing, and determination accuracy can be improved.
  • FIG. 6 is a block diagram of an example of composition of an image processing device of an embodiment of this indication.
  • 6 is a flowchart of main subject determination processing of the image processing apparatus according to the embodiment. It is a block diagram of the composition of the imaging device of an embodiment. It is explanatory drawing of the outline
  • FIG. 1 shows a configuration example of an image processing apparatus according to an embodiment.
  • the image processing apparatus 1 includes a main subject determination unit 2 and a camera work determination unit 3.
  • the camera work determination unit 3 determines the camera work at the time of imaging, and sets the determination start timing of the main subject for the image data based on the determination.
  • the camera work determination unit 3 receives detection information Id related to the camera work at the time of imaging, and determines the camera work based on the detection information Id. Then, according to the determination result, the main subject determination unit 2 is notified of the timing for starting the main subject determination.
  • the camera work is an operation / operation for a user as a photographer to capture a subject in a captured image, and an operation / operation for searching for an intended composition or in-focus state. Specifically, panning (panning), tilting (tilting), zooming (zooming), manual focusing, and the like are performed.
  • the detection information Id is, for example, detection information of an operation such as zooming or manual focus of the photographer, or detection information of a sensor that detects the movement of the imaging device itself such as an angular velocity sensor (gyro sensor) or an acceleration sensor. is there.
  • “camera work at the time of imaging” refers to the current camera work or camera work when image data has been captured in the past.
  • the image processing apparatus 1 is an apparatus built in the imaging apparatus 10 as will be described later, or an apparatus that is connected to the imaging apparatus and supplies captured image data in real time, the photographer is currently It becomes camera work to be done.
  • main subject determination is performed on image data captured in the past, the camera work at the time of past imaging is indicated.
  • the main subject determination unit 2 executes main subject determination processing on the input image data Dg based on the determination start timing set by the camera work determination unit 3. For example, the main subject determination unit 2 observes the subject position state in the image data of a plurality of frames from the determination start timing of the main subject, and determines the main subject among subjects that meet a specific position condition. In addition, for example, the main subject determination unit 2 observes the in-focus state of the subject in the image data of at least one frame from the determination start timing, and determines the main subject among subjects that meet a specific focusing condition. The main subject determination unit 2 sets one or a plurality of subjects as main subjects in these processes. The main subject determination unit 2 outputs main subject information Dm as a determination result.
  • the image processing apparatus 1 having the main subject determination unit 2 and the camera work determination unit 3 can be realized by a CPU (Central Processing Unit) or a DSP (Digital Signal Processor) as an arithmetic processing unit. It is also conceivable that the function as the main subject determination unit 2 is realized by a CPU or the like, and the function of the camera work determination unit 3 is realized as an image processing DSP or the like connected to the CPU, or its cooperation processing.
  • a CPU Central Processing Unit
  • DSP Digital Signal Processor
  • step F1 the camera work determination unit 3 determines camera work by the photographer. When a predetermined camera work situation is detected in step F2, the camera work determination unit 3 performs determination start timing setting in step F3. For example, the determination execution flag is set to ON.
  • the main subject determination unit 2 executes main subject determination processing in step F4, and determines a subject that meets a predetermined condition as a main subject.
  • step F5 the main subject determination unit 2 outputs main subject information Dm, which is a main subject determination result, and passes it to an application program or the like. In the application program or the like, processing is performed in response to the identification of the main subject image. For example, focus control, tracking processing, image effect processing, and the like.
  • the processing of the camera work determination unit 3 in steps F1 to F3 can be considered in various ways, and a specific example will be described in the processing example of the imaging device 10 to be described later, but the following situation is determined and determination start timing is set. It will be. 1. Pan operation determination: It is determined that the pan operation has started, and the determination start timing is set so that the main subject determination process is performed during the pan operation. 2. Post-panning determination: It is determined that the panning operation has been executed and ended, and the determination start timing is set so that the main subject determination process is performed after the panning operation is completed. 3. Zoom operation determination: It is determined that the zoom operation has started, and the determination start timing is set so that the main subject determination process is performed during the zoom operation. 4).
  • Determination after zoom It is determined that the zoom operation has been executed and ended, and the determination start timing is set so that the main subject determination process is performed after the zoom operation is ended. 5.
  • Post-pan zoom operation determination After the pan operation is executed and completed, it is further determined that the zoom operation has started, and the determination start timing is set so that main subject determination processing is performed during the zoom. 6).
  • Post-zoom post-zoom determination after the pan operation is executed and completed, the zoom operation is further executed, it is determined that the zoom operation has been completed, and the main subject determination process is performed after the zoom. Set. 7).
  • Post-zoom pan operation determination After the zoom operation is executed and finished, it is further determined that the pan operation has started, and the determination start timing is set so that main subject determination processing is performed during the pan.
  • Post-zoom and post-pan determination After the zoom operation is executed and finished, the pan operation is further executed, it is determined that the pan operation is finished, and the determination start timing is such that the main subject determination process is performed after the pan. Set. 9. Determination after manual focus: It is determined that the manual focus operation has been executed and ended, and the determination start timing is set so that the main subject determination process is performed after the manual focus operation ends. Details of the above processes will be described later as first to ninth processing examples of the imaging apparatus 10.
  • the camerawork determination and main subject determination are performed as in the example of FIG. 2 above, so that the subject that the photographer intends to be a target is estimated by camerawork, and automatically The main subject can be determined. Therefore, the main subject can be determined without depending on the user's manual operation, and the user's operability is markedly improved by mounting the image processing apparatus 1 of FIG. To improve.
  • the imaging device 10 is a so-called digital still camera or digital video camera, and is a device that captures / records still images and moving images, and incorporates an image processing device as defined in the claims.
  • the imaging apparatus 10 includes an optical system 11, an imager 12, an optical system driving unit 13, a sensor unit 14, a recording unit 15, a communication unit 16, a digital signal processing unit 20, a control unit 30, a user interface controller ( Hereinafter, “UI controller”) 32 and user interface 33 are included.
  • UI controller user interface controller
  • the optical system 11 includes a lens such as a cover lens, a zoom lens, and a focus lens, and a diaphragm mechanism.
  • the optical system 11 collects light from the subject on the imager 12.
  • the imager 12 includes, for example, an image sensor such as a charge coupled device (CCD) type or a complementary metal oxide semiconductor (CMOS) type.
  • the imager 12 performs, for example, CDS (Correlated Double Sampling) processing, AGC (Automatic Gain Control) processing, etc., on the electrical signal obtained by photoelectric conversion in the image sensor, and further performs A / D (Analog / Digital) conversion processing. I do.
  • the imaging signal as digital data is output to the digital signal processing unit 20 at the subsequent stage.
  • the optical system drive unit 13 drives the focus lens in the optical system 11 based on the control of the control unit 30 and executes a focus operation. Thereby, for example, an autofocus operation is executed. Regarding the focus lens, it is also possible to move the lens as a manual focus by a user operation. The user can arbitrarily set the in-focus position by operating a focus lens transfer mechanism formed on the lens barrel. Further, the optical system driving unit 13 drives an aperture mechanism in the optical system 11 based on the control of the control unit 30, and performs exposure adjustment. Furthermore, the optical system drive unit 13 drives the zoom lens in the optical system 11 based on the control of the control unit 30 and executes a zoom operation. The user can instruct a zoom operation by operating a zoom lever of the operation unit 35 described later. Thereby, the user can obtain an arbitrary angle of view state.
  • the digital signal processor 20 is configured as an image processor by a DSP or the like, for example.
  • the digital signal processing unit 20 performs various signal processes on the digital signal (captured image signal) from the imager 12.
  • the digital signal processing unit 20 includes a preprocessing unit 21, a synchronization unit 22, a YC generation unit 23, a resolution conversion unit 24, a codec unit 25, and a candidate detection unit 27.
  • the pre-processing unit 21 performs clamp processing for clamping the R, G, and B black levels to a predetermined level on the captured image signal from the imager 12, correction processing between the R, G, and B color channels, and the like. Apply.
  • the synchronization unit 22 performs demosaic processing so that the image data for each pixel has all the R, G, and B color components.
  • the YC generation unit 23 generates (separates) a luminance (Y) signal and a color (C) signal from R, G, and B image data.
  • the resolution conversion unit 24 performs resolution conversion processing on image data that has been subjected to various types of signal processing.
  • the codec unit 25 performs, for example, a recording or communication encoding process on the resolution-converted image data.
  • the candidate detection unit 27 performs image analysis processing in units of each frame (or every intermittent frame), for example, on the captured image signal (luminance signal / color signal) obtained by the YC generation unit 23, and selects candidate images. Extract. That is, face image detection, human body image detection, and the like are performed on image data continuously input on the time axis, and images that are candidates for the main subject are extracted. In addition, face detection, human body detection, etc. can be performed by pattern matching method in image analysis for captured image data, but other detectors can be realized in principle by replacing the dictionary used for pattern matching. Is possible. For example, a candidate image of a main subject may be extracted as a (specific type) dog detection / cat detection.
  • a moving object detection method based on a frame difference may be used to detect a moving object, and the moving object may be used as a candidate image.
  • a gaze area extraction method called “Saliency” may be used. There are various methods for extracting and selecting candidate images.
  • the candidate detection unit 27 detects a face image, and extracts a region where the face image exists as a candidate image frame.
  • the position information of the candidate image frame (information on x, y coordinate values, subject distance, etc. on the screen) and size information (for example, the width, height, number of pixels, etc. of the candidate image frame) Is transferred to the control unit 30 as candidate image information.
  • the candidate image information is also referred to as “candidate image frame information”.
  • the candidate detection unit 27 may generate candidate image frame information by performing a process such as a smoothing process and an outlier removal process on the image.
  • the candidate detection unit 27 is shown as a functional configuration executed by the digital signal processing unit 20 in the example of FIG. 3, but this is an example, and the processing of the candidate detection unit 27 is executed by the control unit 30. Also good.
  • the control unit 30 is configured by a microcomputer (arithmetic processing unit) including a CPU, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like.
  • a microcomputer arithmetic processing unit
  • the CPU executes a program stored in a ROM, a flash memory, or the like, the entire imaging apparatus 10 is comprehensively controlled.
  • the RAM is used as a work area for various data processing of the CPU for temporary storage of data and programs.
  • ROM and flash memory non-volatile memory
  • OS Operating System
  • a program for executing processing for main subject determination described later in this example, and an application program for using the main subject determination result are stored.
  • Such a control unit 30 includes various signal processing instructions in the digital signal processing unit 20, an imaging operation and a recording operation according to a user operation, a reproduction operation of a recorded image file, a camera operation such as zoom, focus, and exposure adjustment. Controls the operation of each necessary unit for user interface operations and the like.
  • the control unit 30 has functions as a main subject determination unit 30a and a camera work determination unit 30b, and executes camera work determination processing and main subject determination processing described later.
  • the camera work determination unit 30b performs the above-described pan operation determination, post-pan determination, zoom operation determination, post-zoom determination, post-pan zoom operation determination, post-pan zoom determination, and post-zoom pan operation determination.
  • One of the post-zoom and post-pan determinations is performed.
  • the start timing of the main subject determination process is set. Specifically, a determination execution flag (a determination execution flag FDon described later) is turned on.
  • the main subject determination unit 30a performs a process of determining the main subject in the candidate images according to the setting of the start timing based on the determination result of the camera work determination unit 30b.
  • the user interface 33 executes display output and audio output for the user, and accepts user operation input. For this reason, a display device, an operation device, a speaker device, a microphone device, and the like are included. Here, a display unit 34 and an operation unit 35 are shown.
  • the display unit 34 is a display unit that performs various displays for a user (imager or the like). For example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display formed on the housing of the imaging device 10.
  • the display device is formed. It may be formed using an LCD, an organic EL display, or the like in the form of a so-called viewfinder.
  • the display unit 34 includes the display device described above and a display driver that causes the display device to perform display. The display driver executes various displays on the display device based on instructions from the control unit 30.
  • the display driver reproduces and displays still images and moving images that have been captured and recorded on a recording medium, or a through image (subject monitoring image) as a moving image based on captured image data of each frame that is captured during a release (shutter operation) standby.
  • a through image subject monitoring image
  • Various operation menus, icons, messages, etc. that is, display as a GUI (Graphical User Interface) is executed on the screen.
  • a display that allows the user to know the determination result of the main subject determination is also executed on a through image or a reproduction image.
  • the operation unit 35 has an input function for inputting a user operation, and sends a signal corresponding to the input operation to the control unit 30.
  • the operation unit 35 is realized as, for example, various operators provided on the housing of the imaging device 10 or a touch panel formed on the display unit 34.
  • a playback menu activation button, a determination button, a cross key, a cancel button, a zoom lever, a slide key, a shutter button (release button), and the like are provided.
  • Various operations may be performed by a touch panel operation using icons, menus, and the like displayed on the touch panel and the display unit 34.
  • Operations of the display unit 34 and the like of the user interface 33 are controlled by the UI controller 32 in accordance with instructions from the control unit 30. Further, operation information from the operation unit 35 is transmitted to the control unit 30 by the UI controller 32. In the case of the present embodiment, for example, operation of a zoom lever (wide key, telekey) is used for camera work determination.
  • the control unit 30 detects the operation of the zoom lever via the UI controller 32, and controls the optical system driving unit 13 according to the operation information to execute zoom lens driving.
  • the recording unit 15 includes, for example, a non-volatile memory, and functions as a storage area for storing image files (content files) such as still image data and moving image data, image file attribute information, thumbnail images, and the like.
  • image files content files
  • JPEG Joint Photographic Experts Group
  • TIFF Tagged Image File Format
  • GIF Graphics Interchange
  • the recording unit 15 may be a flash memory built in the imaging apparatus 10, or a memory card (for example, a portable flash memory) that can be attached to and detached from the imaging apparatus 10 and a card recording / reproducing that performs recording / reproducing access to the memory card.
  • the form by a part may be sufficient.
  • the imaging device 10 may be realized as an HDD (Hard Disk Drive) or the like.
  • a program for executing a camera work determination process and a main subject determination process described later in this example may be stored in the recording unit 15.
  • the communication unit 16 performs data communication and network communication with an external device in a wired or wireless manner. For example, captured image data (still image file or moving image file) is communicated between an external display device, a recording device, a playback device, and the like.
  • a network communication unit for example, communication via various networks such as the Internet, home network, and LAN (Local Area Network) may be performed, and various types of data may be transmitted and received between servers and terminals on the network. .
  • the sensor unit 14 comprehensively shows various sensors. Various sensors of the sensor unit 14 transmit detected information to the control unit 30.
  • the control unit 30 can perform various controls using information detected by the sensor unit 14.
  • a gyro sensor angular velocity sensor
  • an acceleration sensor or the like for detecting the overall movement of the imaging device 10 such as camera shake or the posture or movement (pan movement, tilt movement, etc.) of the imaging device 10 is provided. It is done.
  • the control unit 30 can detect that the imaging device 10 is panned or tilted based on the detection signal of the gyro sensor.
  • the sensor unit 14 includes a zoom lens position sensor that detects the position of the zoom lens in the optical system 11 and a focus lens position sensor that detects the position of the focus lens.
  • a sensor that detects manual operation of the focus lens operation of the lens barrel ring
  • the control unit 30 can detect the manual focus operation of the user based on the detection information of the focus lens position sensor and the information of the sensor that detects the manual operation of the focus lens.
  • a sensor that detects the opening amount of a mechanical iris may be provided.
  • the sensor unit 14 may be provided with an illuminance sensor that detects external illuminance for exposure adjustment and the like, and a distance measuring sensor that measures the subject distance.
  • the components of the image processing apparatus 1 as described in FIG. 1 are as follows.
  • the configuration corresponding to the main subject determination unit 2 in the image processing apparatus 1 of FIG. 1 is implemented by software in the control unit 30 of the imaging device 10 as the main subject determination unit 30a.
  • the configuration corresponding to the camera work determination unit 3 is a camera work determination unit 30b in the control unit 30.
  • the control unit 30 executes and controls the operation as the image processing method in the claims by executing the processing based on the program in the claims.
  • the main subject determination is executed, for example, when the user (photographer) is aiming for the shutter timing (release timing).
  • the control unit 30 automatically determines the main subject and then performs the following processing. be able to.
  • the main subject set in each captured frame is tracked.
  • the main subject is clearly shown to the user on the through image display, and is used for the user's angle of view adjustment (for example, subject determination in a state where the camera is held in the hand).
  • the frame of the main subject is highlighted on the through image display on the display unit 34. The highlighting or the like may be performed for a certain period immediately after the determination, or may be executed as long as the main subject exists in the through image.
  • Focus adjustment Auto focus control is performed on the main subject. In addition to the tracking process, even when the main subject moves around, the focus is adjusted by tracking the main subject.
  • -Exposure adjustment Automatic exposure adjustment is performed based on the brightness (luminance) of the main subject.
  • Directivity adjustment When sound is collected by a microphone together with imaging (for example, moving image imaging), directivity adjustment is performed according to the direction of the main subject in the angle of view space.
  • Zoom control Performs automatic zoom control corresponding to the main subject. For example, automatic zoom lens driving is performed so that the main subject is always reflected in the captured image with a size larger than a predetermined size. Together with the tracking process, the angle of view may be adjusted by zooming according to the change in the distance from the main subject.
  • Recording start control Triggers the start of video capture. For example, in response to the determination of the main subject, moving image recording is started.
  • Image effect processing image processing such as image quality adjustment, noise reduction, and skin color adjustment is applied only to the area of the main subject in each captured frame.
  • image effects such as mosaic processing, blurring processing, and painting processing in addition to the main subject area.
  • Edit processing such as framing and cropping is applied to the captured image or recorded image. For example, it is possible to perform processing such as cutting out or enlarging a partial area in a frame including the main subject. Further, in the captured image data, composition adjustment can be performed by cutting the periphery of the image so that the main subject is arranged at the center of the image.
  • camera work determination and main subject determination processing are executed. For example, when the imaging apparatus 10 is turned on and imaging is performed (a period during which a through image is displayed on the display unit 34), camera work determination and main subject determination processing at timing based on the camera work determination are always performed. May go. Further, when the tracking process is performed after the main subject is determined, the camera work determination and the main subject determination process may be performed again when tracking is removed. Further, camera work determination and main subject determination processing may be started by a user operation. Further, the camera work determination and main subject determination processing may always be executed when the user selects the determination execution mode, or may be executed when tracking is lost. It is also conceivable that camerawork determination and main subject determination processing are automatically activated regardless of user operations.
  • the effects of performing the main subject determination process are as follows. As described above, when the photographer is holding the imaging device 10 and is aiming at a subject, an operation for designating a main subject is difficult in the first place. It is difficult for the user to specify the main subject, especially when the imaging direction is continuously changed in a certain direction, such as panning or tilting, or when the imaging direction is changed even if it is not constant. It is. Also, it is troublesome to designate the main subject many times. By automatically executing the main subject determination, such a situation is solved and an effect of reducing user stress can be obtained.
  • the display unit 34 is also small, and the user performs an operation of designating a main subject on the screen. Even so, it is difficult to do accurately. Automatic determination as in this embodiment eliminates erroneous designation.
  • the imaging device 10 automatically determines the main subject, the main subject is in a situation where the user holds the imaging device 10 aiming at the subject or changes the imaging direction following the subject. The determination is executed, and the effect of improving the intelligent feeling that the user feels in the apparatus and the added value can be obtained. Further, since the imaging device 10 can be used as if it is a natural role, it can be used as if a main role is taken, so that it is possible to increase the imaging opportunities and the corresponding use cases, and to provide a user with an easy-to-use camera.
  • the imaging apparatus 10 of the present embodiment that automatically performs main subject determination is particularly suitable as a handheld camera.
  • the main subject determination unit 30a performs the main subject determination process.
  • the main subject determination process an example in which a candidate image is extracted from image data and a candidate image that is stably close to a predetermined determination reference point is determined as a main subject is given.
  • FIG. 4 schematically illustrates the candidate image frame extraction operation performed by the candidate detection unit 27 illustrated in FIG. 3 and the operation of the control unit 30. 4 shows the frames FR1, FR2, FR3... Of the captured image signal input to the digital signal processing unit 20 by the operations of the optical system 11 and the imager 12 of the imaging apparatus 10.
  • the candidate detection unit 27 detects candidate images for each of such consecutive frames that are sequentially input (or for each intermittent frame). For example, as shown in the figure, when there are three people in the frame FR1, each face image portion is extracted as a candidate image, and candidate image frame information for the candidate image frames E1, E2, and E3 is output. To do.
  • the candidate image frame information of the candidate image frame E1 includes, for example, position information (x, y position information, subject distance information) in the image of the candidate image frame E1, size information (frame width, height, number of pixels). , Attribute information and the like.
  • the candidate detection unit 27 also generates such candidate image frame information for the candidate image frames E2 and E3, and delivers them to the control unit 30 (main subject determination unit 30a).
  • the candidate detection unit 27 extracts candidate images, generates candidate image frame information for each candidate image frame, and generates a control unit 30 (main subject determination unit 30a).
  • the control unit 30 camera work determination unit 30b
  • the determination execution flag Fdon is set to “1”.
  • the control unit 30 main subject determination unit 30a
  • the control unit 30 calculates the distance from the determination reference point as the position state of each candidate image frame.
  • FIG. 5A shows an example of the determination reference point SP. This is an example in which the center of the image is set as the determination reference point SP.
  • the xy coordinate value of the determination reference point SP be (Cx, Cy).
  • the control unit 30 determines the determination criterion from the center of gravity G of each of the candidate image frames E1, E2, and E3 illustrated. The distances Diff1, Diff2, and Diff3 of the point SP are calculated.
  • the determination reference point SP is an example of the center of the screen.
  • the determination reference point SP may be set at a position slightly upper left from the center.
  • the distance between each candidate image frame (for example, E4, E5) and the determination reference point SP is calculated.
  • the determination reference point SP may be fixedly set at a position as shown in FIGS. 5A and 5B, for example, or may be arbitrarily designated by the user by a touch operation on the display screen. Further, some candidate points for determination reference points may be presented to the user on the screen of the display unit 34 so that the user can select them. Furthermore, it is also conceivable that the control unit 30 determines the optimum position in consideration of the composition and the like according to the image content, the image analysis result, etc., and automatically sets it. That is, for the determination reference point SP, A predetermined fixed position is set as the center position of the image or the position shifted from the center. ⁇ Specified arbitrarily by the user. -Some candidate points are presented to the user and set by the user selecting. The control unit 30 determines the optimum position according to the image content and automatically variably sets it. And so on.
  • the distance Diff (n) as the position state for the candidate image frame E (n) is obtained at the time of each frame.
  • the control unit 30 main subject determination unit 30a monitors the distance Diff (n) as the position state for each candidate image frame E (n) during the pan operation, and averages, cumulatively or continuously.
  • a candidate image frame close to the determination reference point SP is determined and set as a main subject.
  • the main subject determination unit 30a performs this process in response to detection of a pan operation by the camera work determination unit 30b. This operation is shown in FIG.
  • FIG. 6A shows processing of the pan operation detection and determination execution flag Fdon by the camera work determination unit 30b.
  • the camera work determination unit 30b executes the camera work determination from the normal state (period tnor).
  • the normal state here means a state in which the user normally holds or holds the camera. That is, the normal state is a period in which none of pan, tilt, zoom, and manual focus is executed, and this will be referred to as a normal period tnor for explanation. Assume that at a certain point in time, the user performs a panning operation to move the imaging device 10 in a substantially horizontal direction (panning period tpan).
  • the camera work determination unit 30b detects the pan operation during the pan determination period Tpon after the start of panning, and sets the pan execution flag Fpon to “1”.
  • the determination execution flag Fdon is set to “1” in accordance with the pan execution flag Fpon.
  • main subject determination processing in the main subject determination unit 30a is started.
  • the main subject determination process started at this timing refers to a substantial process for determination.
  • the cumulative addition value of the determination result “1” below the distance threshold Thr-diff is a cumulative time that indicates a state that is stably close to the determination reference point SP up to that point.
  • the main subject determination ends.
  • FIG. 7B shows an operation for detecting that the pan operation is being performed.
  • the output (detection signal Sg) of the gyro sensor in the sensor unit 14 is in the vicinity of the reference level Sc (for example, zero level) unless there is a particularly large movement.
  • the detection signal Sg continuously shows a substantially constant value at a certain level of positive or negative. Therefore, the threshold range Sth is set in a range of positive and negative values around the reference level Sc.
  • the pan determination period Tpon is a period provided to prevent erroneous determination of a state in which the detection signal Sg is instantaneously high as a pan operation. In other words, this is a period for determining the panning with the continuity of the state where the detection signal Sg is a high value.
  • the determination execution flag Fdon is processed as shown in FIG. 7A.
  • the control unit 30 (camera work determination unit 30b) detects the panning operation by repeating the processing of FIG. 7A.
  • the control unit 30 acquires the angular velocity information detected by the gyro sensor of the sensor unit 14 in step F200 as the detection signal Sg.
  • the control unit 30 determines whether Sg> Sc + Sth / 2 or Sg ⁇ Sc-Sth / 2 is satisfied. That is, it is a process for determining whether or not the detection signal Sg is a positive or negative value exceeding the threshold range Sth using the reference level Sc and the threshold range Sth shown in FIG. 7B.
  • step F206 the count value PanOnCnt is set to zero, and the pan execution flag Fpon is set to zero.
  • the count value PanOnCnt is a count value for determining whether or not the pan determination period Tpon has been exceeded.
  • FIG. 8 shows main subject determination processing by the control unit 30 (main subject determination unit 30a).
  • the count value Cnt (n) is a value of a counter that adds the value of the comparison determination result with the distance threshold Thr-diff of the distance Diff described in FIG.
  • n represents a natural number 1, 2, 3,...
  • the count value Cnt (n) is applied to each detected candidate image frame E (n) like the candidate image frames E1, E2, E3.
  • the corresponding count value is used.
  • Cnt1, Cnt2, and Cnt3 are used as count values.
  • the process for the count value Cnt (n) indicates a process for each of Cnt1, Cnt2, and Cnt3, for example.
  • the distance Diff (n) collectively represents the distances Diff1, Diff2, and Diff3 from the determination reference point SP of the three candidate image frames E1, E2, and E3. This processing is used to mean processing for each of the distances Diff1, Diff2, and Diff3.
  • the candidate image frame E (n) represents the candidate image frames E1, E2, E3,...
  • the candidate detection unit 27 extracts a face
  • the face image portion of the person A is the candidate image frame E1
  • the person in common in each frame The face image portion of B
  • the face image portion of the person C is set as a candidate image frame E3.
  • the candidate detection unit 27 may not only detect the “face” but also perform individual (individual) discrimination.
  • the control unit 30 takes in candidate image frame information for a certain frame from the candidate detection unit 27.
  • the position information includes the x value and y value as the two-dimensional (xy) coordinate values of the image data, and the width w and height h of the candidate image frame as size information.
  • the candidate image frame information includes subject distance (relative distance of the subject to the camera position: z value represented by a value in the z-axis direction orthogonal to the two-dimensional (xy) coordinate plane) and the number of pixels. Etc. may also be included.
  • the control unit 30 calculates the coordinates of the center of gravity G for each candidate image frame E (n). For example, depending on the candidate image frame information, the coordinate value of the upper left vertex of the rectangular candidate image frame is given as the x and y coordinate values of the candidate image frame.
  • the x and y coordinate values are (E (n) _x, E (n) _y). Further, as shown in FIG. 5A, the x, y coordinates are set to the origin O (x, y coordinate value is (0, 0)) at the upper left of the screen plane.
  • the width w of the candidate image frame E (n) is E (n) _w
  • the height h is E (n) _h.
  • step F103 the control unit 30 calculates a distance Diff (n) from the center of gravity G of each candidate image frame E (n) to the determination reference point SP.
  • Diff (n) ⁇ ⁇ (E (n) _cx ⁇ Cx) 2+ (E (n) _cy ⁇ Cy) 2 ⁇ Is required.
  • step F111 the control unit 30 performs processing of the count value CNT (n) of the counter for determining whether or not the state close to the determination reference point SP is stably observed.
  • CNT (n) CNT (n) + OFS (n)
  • the count value Cnt (n) is a value representing the frequency of the state in which the candidate image frame E (m) is “close” to the determination reference point SP.
  • the user touches the main subject on the screen of the display unit 34 or the subject is placed on the screen at a predetermined position and the shutter is moved.
  • step F116 Since the main subject is determined with a certain length of time, if the process for the candidate image frame information in a certain amount of time (number of frames) is not performed, the process returns from step F116 to step F101 as described above. Repeated.
  • a certain candidate image frame E ⁇ b> 3 may be discontinuous, but exists at a position close to the determination reference point SP on the captured image with a high frequency among a plurality of frames.
  • the opportunity of incrementing the count value Cnt3 of the candidate image frame E3 in step F111 occurs, and the count value Cnt3 advances faster than the count values Cnt1 and Cnt2.
  • the count value Cnt3 first reaches the count threshold value Tht.
  • the control unit 30 advances the process from step F112 to F114.
  • step F114 the control unit 30 determines that the candidate image frame E (n) whose count value Cnt (n) has reached the count threshold Tht is a main subject, and performs main subject setting.
  • the variable TSF 1 is set. That is, during the pan operation, the subject of the candidate image that is stably close to the determination reference point SP (for example, the center of the image) is set as the main subject.
  • step F115 main subject information is output and transferred to, for example, an application program or control program that uses the main subject information.
  • the camera work determination process of FIG. 7A is continuously performed.
  • the candidate image frame E (n) in which the count value Cnt (n) has reached the count threshold Tht it means that the main subject cannot be determined.
  • the count value Cnt (n) is maintained as it is and the count value is taken over in the next pan period.
  • the subject close to the determination reference point SP is determined as the main subject during the pan operation.
  • the user pans the imaging apparatus 10 while capturing a subject to be captured in the captured image.
  • a subject close to the determination reference point SP during panning has a high probability of being a target subject for the user, and the probability that an appropriate determination is made as a main subject determination can be increased.
  • main subject determination appropriate for the photographer is automatically performed, and the operability during imaging is greatly improved. Even if the user is unfamiliar with the imaging operation, if the main subject is automatically subjected to focus control or exposure control by such main subject determination, a high-quality still image / It is possible to capture moving images.
  • the count value CNT (n) corresponds to the cumulative value of the number of times that a state close to the determination reference point SP is cumulatively detected.
  • the count value CNT (n) can be regarded as a value in which a state close to the determination reference point SP on average is detected. That is, in such a case, the determination in step F112 is a determination in a state that is cumulatively or averagely close to the determination reference point SP.
  • weighting may be performed for the calculation of the state close to the determination reference point SP. For example, as the time after the execution period of the main subject determination process, the value of being closer to the determination reference point SP is increased.
  • the subject when a photographer performs camera work aiming at a subject, the subject who wants to play a leading role is not initially captured at a desired position such as the center of the image, and the photographer gradually adjusts the direction of the camera. For example, the subject is captured in the center of the image during the panning process. Considering this, at first, the subject that the photographer has in mind as the “main subject” is gradually captured at the center of the image as time advances.
  • the positional state of the candidate image frame is the positional relationship with the set determination reference point SP, but may be the positional relationship with the determination reference region.
  • an area such as a square or a circle such as the center of the image is set and used as a determination reference area.
  • the positional relationship between each candidate image frame E (n) and the determination reference region is, for example, -Whether the center of gravity is in the criterion area-Whether the entire area is in the criterion area-Whether at least a part is in the criterion area-The distance from the outer edge of the criterion area is within a predetermined range Whether or not.
  • a candidate image frame E (n) in which such a positional relationship condition is satisfied on an average, cumulative, or continuously basis may be determined as the main subject.
  • Second Processing Example (Post-Bread Determination)> As a second processing example, an example in which main subject determination is executed after a panning operation will be described. In the following second to eighth processing examples, the main subject determination process is the same as that in FIG. 8, and the description thereof will be omitted. The camera work determination process will mainly be described. In the second processing example, the control unit 30 (camera work determination unit 30b) determines that the user has ended the pan operation for moving the imaging device 10 in a substantially horizontal direction. After the pan operation is completed, the main subject determination unit 30a performs the main subject determination process.
  • FIG. 9 shows the post-pan determination operation.
  • the determination during the pan operation that is, the pan execution flag Fpon is set by comparing the detection signal Sg from the gyro sensor with the threshold range Sth as in the first processing example.
  • the pan execution flag Fpon the current value and the previous value are compared (subtracted), and the pan transition flag Fp_trans is set. Since the pan execution flag Fpon is “1” or “0”, subtracting the current value from the value immediately before the pan execution flag Fpon results in either “0”, “+1”, or “ ⁇ 1”. Become.
  • the pan transition flag Fp_trans is differential information of the pan execution flag Fpon, specifically, information that detects the start and end of panning.
  • the pan transition flag Fp_trans + 1 is information indicating the end point of panning.
  • the determination start waiting period TdonStart and the upper limit period TdonEnd are, for example, fixed values.
  • Such post-pan determination processing is performed as shown in FIG.
  • the control unit 30 (camera work determination unit 30b) repeats the processing of FIG. 10 to set the determination execution flag Fdon.
  • steps F200 to F206 are the same as steps F200 to F206 of FIG. 7A. That is, the pan execution flag Fpon is set according to the detection signal Sg of the gyro sensor.
  • the count flag Fcntup is a flag for processing branch control that is set to “1” in step F212 and set to “0” in step F220.
  • the count flag Fcntup is “1” only during the period from when the pan transition flag Fp_trans becomes “1” until the upper limit period TdonEnd is reached. Accordingly, the count flag Fcntup is “0” before the pan transition flag Fp_trans becomes “1”.
  • the control unit 30 proceeds from step F211 to F212, and increments the count value Fdoncnt.
  • the count flag Fcntup 1.
  • step F220 the count flag Fcntup is set to “0”.
  • the main subject is set in the period after panning.
  • the period after panning is estimated to be the period immediately after the photographer captures the target subject by panning. it can. Then, there is a high possibility that the target subject exists in the image data. Therefore, by determining the subject that is stable in the state close to the determination reference point SP in the period shown in FIG. 8 as the main subject, the main subject setting with high accuracy is realized. In addition, the user's operability is improved by automatic main subject determination.
  • an upper limit period TdonEnd is provided to limit the period during which main subject determination is performed.
  • allocating a very long period to the main subject determination process leaves the operation status immediately after tracking the target subject by panning, and the main subject may not exist in the image due to the user's will. Get higher. Therefore, by limiting the period after panning to some extent, the probability of determining the subject tracked by panning as the main subject is increased.
  • FIG. 11B shows an operation for detecting that the zoom operation is being performed.
  • the zoom operation can be detected by the user operating the zoom lever of the operation unit 35.
  • the control unit 30 controls the optical system driving unit 13 to execute zoom lens movement. Therefore, the control unit 30 determines that the period during which the zoom lever is continuously operated is during the zoom operation.
  • the operation of the imaging apparatus 10 shifts from the normal period tnor in FIG. 11B to the zoom period tzm. That is, the zoom lens movement is started.
  • the zoom determination period Tzon is a period provided to determine that a continuous zoom operation is being performed. That is, it is a period for excluding the case where the user operates the zoom lever for a short time.
  • the control unit 30 (camera work determination unit 30b) repeatedly executes the process of FIG. 11A.
  • step F300 the control unit 30 acquires the operation state of the zoom lever and sets a variable Szoom.
  • step F301 the variable Szoom is referenced to determine whether or not the zoom lever is currently being pressed, that is, whether or not the zoom operation is being performed.
  • step F306 sets the count value ZoomOnCnt to zero, and sets the zoom execution flag Fzon to zero.
  • the count value ZoomOnCnt is a count value for determining whether or not the zoom determination period Tzon has been exceeded.
  • the subject close to the determination reference point SP is determined as the main subject during the zoom operation.
  • a user performs a zoom operation while capturing a subject to be captured in a captured image. That is, the subject close to the determination reference point SP during zooming is often the target subject for the user, and the probability of obtaining the main subject determination result desired by the user can be increased.
  • the user's operability is improved by automatic main subject determination.
  • FIG. 12 shows the post-zoom determination operation.
  • the determination during the zoom operation that is, the zoom execution flag Fzon is set by detecting the user's continuous operation of the zoom lever, as in the third processing example.
  • the zoom transition flag Fz_trans becomes differential information of the zoom execution flag Fzon, and specifically, information that detects the start and end of continuous zoom operation.
  • the determination start waiting period TdonStart and the upper limit period TdonEnd are, for example, fixed values.
  • Such post-zoom determination processing is performed as shown in FIG.
  • the control unit 30 (camera work determination unit 30b) repeats the processing of FIG. 13 to set the determination execution flag Fdon.
  • the previous zoom execution flag Fzon_1 is the value of the zoom execution flag Fzon at the time of the previous step F310. Accordingly, the zoom transition flag Fz_trans is one of “0”, “+1”, and “ ⁇ 1” described in FIG.
  • the value of the current zoom execution flag Fzon is substituted into the previous zoom execution flag Fzon_1.
  • the count flag Fcntup is a flag for processing branch control which is set to “1” in step F312 and set to “0” in step F320.
  • the count flag Fcntup is “1” only during the period from when the zoom transition flag Fz_trans becomes “1” until the upper limit period TdonEnd is reached. Accordingly, before the zoom transition flag Fz_trans becomes “1”, the count flag Fcntup is “0”.
  • the zoom transition flag Fz_trans returns to “0”, but the count flag Fcntup is “1”.
  • step F316 the count value Fdoncnt exceeds the upper limit period TdonEnd.
  • step F320 the count flag Fcntup is set to “0”.
  • the main subject is set in the period after zooming.
  • the period after zooming is the zooming of the target subject by the photographer to change the angle of view.
  • the period immediately after the setting can be estimated, and there is a high possibility that the target subject exists in the image data. Therefore, by determining the subject that is stable in the state close to the determination reference point SP in the period shown in FIG. 8 as the main subject, the main subject setting with high accuracy is realized. In addition, the user's operability is improved by automatic main subject determination.
  • the determination start waiting period TdonStart in the case of the fourth processing example is preferably set shorter than the determination start waiting period TdonStart in the second processing example.
  • the upper limit period TdonEnd is provided to limit the period during which the main subject determination is performed. After zooming, dedicating a very long period to the main subject determination process leaves the operation state of zoom angle of view adjustment to the target subject by zooming, and there is a certainty that the main subject exists at a position close to the determination reference point SP. Lower. Therefore, the accuracy of main subject determination is increased by limiting the period after zooming to some extent.
  • FIG. 14 shows an operation for determining the zoom operation after panning.
  • the pan execution flag Fpon is set based on the comparison result between the detection signal Sg from the gyro sensor and the threshold range Sth, as in the first processing example. Then, for the pan execution flag Fpon, the current value and the previous value are compared (subtracted), and the pan transition flag Fp_trans is set.
  • the pan transition flag Fp_trans + 1 is information indicating the pan end time.
  • the zoom operation is detected within the transition limit period Tpan_zoom, which is a fixed value, for example, from the end of panning. If the zoom operation is not detected within the transition limit period Tpan_zoom, it is determined that the continuous operation from pan to zoom has not been performed, and the determination execution flag Fdon is not set to “1”. That is, main subject determination is not performed.
  • the control unit 30 (camera work determination unit 30b) repeatedly executes the processes of FIGS. Steps F350 to F357 in FIG. 15 are the same as steps F200 to F206 and F210 in FIG. 10 and thus will not be described redundantly. It is processing to do.
  • the count flag Fpe_cntup is a flag for processing branch control that is set to “1” in step F359. Specifically, it is a flag that is set to “1” at the end of panning and causes steps F359 and F362 to be executed thereafter.
  • the control unit 30 proceeds from step F358 to F360 and sets the count value PanEndCnt to zero.
  • the count flag Fpe_cntup is set to “0”.
  • the count value PanEndCnt is a value of a counter that counts the transition limit period Tpan_zoom shown in FIG.
  • the pan transition flag Fp_trans 1 when the pan operation is finished.
  • the control unit 30 proceeds from step F358 to F359, and increments the count value PanEndCnt. That is, counting of the transition limit period Tpan_zoom is started.
  • the count flag Fpe_cntup 1.
  • the control unit 30 performs zoom determination processing.
  • the zooming determination process is shown in FIG. In the process of FIG. 15 at the next time point, the pan transition flag Fp_trans returns to “0”, but the count flag Fpe_cntup is “1”. Proceed to The count flag Fpe_cntup is set to “0” when the zoom operation is not detected within the transition limit period Tpan_zoom, or when the zoom operation is completed. (In-zoom determination process) is repeatedly performed.
  • the zoom determination process (F362) in FIG. 16 basically uses the concept of the third processing example.
  • step F371 it is determined whether or not the zoom lever is currently pressed with reference to the variable Szoom.
  • the control unit 30 proceeds from step F371 to F376, and checks whether the count value PanEndCnt has reached the transition limit period Tpan_zoom.
  • step F377 the count value ZoomOnCnt is set to zero
  • the zoom execution flag is set.
  • Set Fzon the count value ZoomOnCnt is a count value for determining whether or not the zoom determination period Tzon has been exceeded from the detection of the user's zoom operation (for continuous zoom operation determination).
  • step F376 the process proceeds from step F376 to step F360 in FIG. In this case, the zoom operation after panning is not detected.
  • the determination execution flag Fdon remains “0”.
  • step F371 the process proceeds from step F371 to F376.
  • the subject close to the determination reference point SP is determined as the main subject during the post-pan zoom operation.
  • the user searches for a target subject by panning, and performs zooming when adjusting the angle of view when the target subject is captured. Therefore, the subject close to the determination reference point SP during zooming after panning is often the subject intended by the user, and the probability of obtaining the main subject determination result desired by the user can be increased. In addition, the user's operability is improved by automatic main subject determination. Further, in the above processing example, since the determination is made by providing the transition limit period Tpan_zoom from pan to zoom, it is possible to accurately determine the continuous operation of pan ⁇ zoom.
  • FIG. 17 shows the post-pan / zoom determination operation.
  • the concept described in the fourth processing example is used. That is, for the zoom execution flag Fzon, the current value and the previous value are compared (subtracted), and the zoom transition flag Fz_trans is set.
  • the zoom transition flag Fz_trans + 1 is information indicating the zoom end point.
  • the post-zoom determination processing (F365) in FIG. 19 basically uses the concept of the fourth processing example.
  • the determination execution flag Fdon remains “0”.
  • Steps F380 to F388 are the same as steps F310 to F318 in FIG. Accordingly, the following processing is performed.
  • the process of FIG. 19 proceeds from step F371 to F376, and the count value PanEndCnt often exceeds the transition limit period Tpan_zoom.
  • the process proceeds in the order of steps F379 ⁇ F378 ⁇ F380 ⁇ F381 ⁇ F382.
  • step F105 to F115 substantial determination processing
  • the subject close to the determination reference point SP after zooming after panning is determined as the main subject.
  • the user searches for a target subject by panning, and performs zooming when adjusting the angle of view when the target subject is captured. Therefore, after zooming after panning, the subject close to the determination reference point SP is often the subject intended by the user, and the probability of obtaining the main subject determination result desired by the user can be increased. In addition, the user's operability is improved by automatic main subject determination.
  • FIG. 20 shows an operation for determining a pan operation after zooming.
  • the zoom execution flag Fzon is set by determining the continuity of the user's zoom lever operation.
  • the zoom transition flag Fz_trans is set.
  • the zoom transition flag Fz_trans + 1 is information indicating the end point of panning.
  • a pan operation is detected within a transition limit period Tzoom_pan, which is a fixed value, for example, from the end of zooming. If a pan operation is not detected within the transition limit period Tzoom_pan, it is determined that a continuous operation from zoom to pan has not been performed, and the determination execution flag Fdon is not set to “1”. That is, main subject determination is not performed.
  • the concept described in the first processing example is used to detect the pan operation. That is, the pan execution flag Fpon is set based on the comparison result between the detection signal Sg from the gyro sensor and the threshold range Sth.
  • the pan execution flag Fpon is set to “1”.
  • Steps F400 to F407 in FIG. 21 are the same as steps F300 to F306 and F310 in FIG. 13 and therefore will not be described redundantly. It is processing to do.
  • the count flag Fze_cntup is a flag for processing branch control that is set to “1” in step F409. Specifically, it is a flag that is set to “1” at the end of zooming and causes steps F409 and F412 to be executed thereafter.
  • the control unit 30 proceeds from step F408 to F409, and increments the count value ZoomEndCnt. That is, counting of the transition limit period Tzoom_pan is started.
  • the count flag Fze_cntup 1.
  • the control unit 30 performs a panning determination process. The during-pan determination process is shown in FIG. In the process of FIG. 21 at the next time point, the zoom transition flag Fz_trans returns to “0”, but the count flag Fze_cntup is “1”. Proceed to The count flag Fze_cntup is set to “0” when the pan operation is not detected within the transition limit period Tzoom_pan or when the pan operation is completed. (During panning determination process) is repeatedly performed.
  • the zoom determination process (F412) in FIG. 22 basically uses the concept of the first processing example.
  • the control unit 30 acquires the angular velocity information detected by the gyro sensor of the sensor unit 14 in step F420 of FIG. 22 as the detection signal Sg.
  • the control unit 30 determines whether or not Sg> Sc + Sth / 2 or Sg ⁇ Sc ⁇ Sth / 2 is satisfied. That is, using the values of the reference level Sc and the threshold range Sth shown in FIG. 7B, it is determined whether or not the detection signal Sg is a positive or negative value that exceeds the threshold range Sth.
  • step F421 the control unit 30 proceeds from step F421 to F426, and the count value ZoomEndCnt is set to the transition limit period.
  • step F426 the process proceeds from step F426 to F427.
  • step F428 the count value PanOnCnt is set to zero, and the pan execution flag is set.
  • the count value PanOnCnt is a count value for determining whether or not the pan determination period Tpon has been exceeded from the detection of the pan operation.
  • step F426 If the count value ZoomEndCnt that starts counting after zooming reaches the transition limit period Tzoom_pan, that is, if no pan operation is detected within the transition limit period Tzoom_pan, the process proceeds from step F426 to step F410 in FIG. In this case, the panning operation after zooming is not detected.
  • the determination execution flag Fdon remains “0”.
  • step F421 the process proceeds from step F421 to step F426.
  • the pan execution flag Fpon 1
  • the subject close to the determination reference point SP is determined as the main subject during the post-zoom pan operation.
  • the user may take an operation of searching for a target subject by panning after adjusting the angle of view by zooming. Therefore, the subject close to the determination reference point SP during the post-zoom pan operation is often the target subject for the user, and the probability of obtaining the main subject determination result desired by the user can be increased.
  • the user's operability is improved by automatic main subject determination.
  • the determination is made by providing the zoom-to-pan transition limit period Tzoom_pan, so that the continuous operation of zoom ⁇ pan can be accurately determined.
  • FIG. 23 shows an operation for post-zoom and post-pan determination.
  • Seventh processing for determination of the end of the zoom operation processing of the zoom execution flag Fzon and zoom transition flag Fz_trans
  • determination of the pan operation within the transition limit period Tzoom_pan from the end of zoom processing of the pan execution flag Fpon
  • the concept described in the second processing example is used. That is, for the pan execution flag Fpon, the current value and the previous value are compared (subtracted), and the pan transition flag Fp_trans is set.
  • the pan transition flag Fp_trans + 1 is information indicating the pan end time.
  • the post-pan determination process (F415) in FIG. 25 basically uses the concept of the second process example.
  • the determination execution flag Fdon remains “0”.
  • Steps F430 to F438 are the same as steps F210 to F218 in FIG. Accordingly, the following processing is performed.
  • the process of FIG. 25 proceeds from step F421 to F426, and the count value ZoomEndCnt often exceeds the transition limit period Tzoom_pan, but is after the increment of the count value Fdoncnt is started.
  • the process proceeds in the order of steps F429 ⁇ F428 ⁇ F430 ⁇ F431 ⁇ F432.
  • the subject close to the determination reference point SP after panning after zooming is determined as the main subject.
  • the user may take an operation of searching for a target subject by panning after adjusting the angle of view by zooming. Therefore, the subject close to the determination reference point SP after zooming and panning is often the subject intended by the user, and the probability of obtaining the main subject determination result desired by the user can be increased.
  • the user's operability is improved by automatic main subject determination.
  • the control unit 30 (camera work determination unit 30b) sets the determination start timing in response to detecting the end of the manual focus operation of the imaging device 10.
  • the control unit 30 (main subject determination unit 30a) observes the in-focus state of the subject in the image data of at least one frame from the determination start timing, and determines the main subject among subjects that meet a specific focusing condition.
  • a subject that matches a specific focusing condition is a subject that is located in a divided region in which the degree-of-focus data measured for each divided region of image data is a predetermined value or more.
  • a main subject may be determined among subjects that meet a specific position condition.
  • the configuration of the imaging device 10 is as shown in FIG. In FIG. 26, the same parts as those in FIG.
  • the imaging apparatus 10 of FIG. 26 includes a focus degree determination unit 28 in addition to the configuration of FIG.
  • the focus degree determination unit 28 determines the focus degree for each divided region (block) obtained by dividing the captured image.
  • a technique for determining the degree of focus for example, a known autofocus detection technique can be used. For example, by detecting an edge component of a luminance signal and performing integration processing or the like on the detected edge component, a value that becomes higher as the focus is achieved, that is, a value corresponding to the degree of focus can be obtained.
  • the candidate detection unit 27 is provided as in FIG. 3, and a candidate image frame is extracted. Note that the functions as the candidate detection unit 27 and the focus degree determination unit 28 may be implemented by software in the control unit 30.
  • FIG. 27 shows the frames FR1, FR2, FR3,... Of the captured image signal input to the digital signal processing unit 20 by the operations of the optical system 11 and the imager 12 of the imaging apparatus 10.
  • the candidate detection unit 27 selects a candidate image (for example, candidate image frame E1, E1) from each of consecutive frames (or intermittent frames) that are sequentially input. E2, E3) are detected.
  • the candidate image frame information is transferred to the control unit 30 (main subject determination unit 30a).
  • the control unit 30 calculates distances Diff1, Diff2, and Diff3 from the center of gravity G of each candidate image frame E1, E2, and E3 to the determination reference point SP.
  • the focus degree determination unit 28 calculates the degree of focus for each block for each of consecutive frames that are sequentially input (or for each intermittent frame). To do.
  • a block as a divided area is shown.
  • One image data is divided into a large number of blocks as indicated by broken lines.
  • each block is referred to as a block BK (BK1, BK2,... BK (M)).
  • the focus degree determination unit 28 obtains the focus degree for each of the blocks BK1, BK2,... BK (M) as numerical information, for example.
  • the focus degree “10” is obtained for the block BK1
  • the focus degree “22” is obtained for the block BK2.
  • the degree of focus is “100” as the maximum value. For example, if the degree of focus is “80” or more, it is determined that the in-focus state.
  • the focus degree determination unit 28 obtains the focus degree for each block BK in this way for each frame, for example, and passes it to the control unit 30.
  • FIG. 28 shows the variation in the degree of focus for each block BK for each frame.
  • persons H1, H2, and H3 as subjects are located at distances D1, D2, and D3 as distances from the imaging device 10, respectively.
  • the photographer performs a manual focus operation and changes the focus position between the near side and the far side.
  • the near side as shown in the upper diagram of FIG. 28B, the person H1 is focused, while the persons H2 and H3 are out of focus (shown by dotted lines in the figure).
  • the frame of the captured image at this time as shown in the lower diagram of FIG.
  • the value of the focus degree is high in the block BK (hatched block) where the person H1 is located.
  • the person H2 is focused and the persons H1 and H3 are out of focus as shown in the upper diagram of FIG. 28C.
  • the value of the focus level is high in the block BK (hatched block) where the person H2 is located.
  • the far side is further focused, the person H3 is focused and the persons H1 and H2 are out of focus as shown in the upper diagram of FIG. 28D.
  • the value of the degree of focus is high in the block BK (hatched block) where the person H3 is located.
  • the camera work determination unit 30b first detects a manual focus operation, and notifies the main subject determination unit 30a of the timing after the manual focus ends.
  • the main subject determination unit 30a determines a candidate image located in the block BK having a high degree of focus as a main subject among the candidate images in the frame image data at the timing.
  • FIG. 29 shows a case where manual focus is performed from the near side to the far side in the example of FIG. It is assumed that the persons H1, H2, and H3 are the candidate image frames E1, E2, and E3, respectively, and the focus degrees of the portions of the candidate image frames are illustrated. As the focus lens is moved from the near side to the far side during the manual focus period tmf, a subject with a high degree of focus transitions in the order of candidate image frames E1 ⁇ E2 ⁇ E3.
  • FIG. 30 shows an example of post-manual focus determination processing performed by the control unit 30 (camera work determination unit 30b).
  • the count value MfOnCnt is a count value for determining whether or not the manual focus determination period Tmfon has been exceeded.
  • step F507 the focus end flag Fmfend is set, and in step F508, it is substituted for the determination execution flag Fdon.
  • FIG. 31 shows main subject determination processing by the control unit 30 (main subject determination unit 30a).
  • the control unit 30 continues to take in candidate image frame information from the candidate detection unit 27 for main subject determination.
  • the control unit 30 selects a focus degree determination block to be noted for each candidate image frame E (n) in step F605.
  • the focus degree determination unit 28 calculates the value of the focus degree for each block BK.
  • the area as each block BK for which the in-focus level is obtained does not coincide with the area of the candidate image frame E (n). Therefore, it is selected which block BK each candidate image frame E (n) corresponds to, and further, which block BK is used to determine the degree of focus of each candidate image frame E (n). It will be. This will be described with reference to FIG. FIG. 32A shows the relationship between each candidate image frame E1, E2, E3 and the block BK.
  • the candidate image frame E1 is assumed to exist across blocks BK8, BK9, BK15, and BK16 as shown in FIG. 32B.
  • the candidate image frame E2 exists in the blocks BK11, BK12, BK18, and BK19 as shown in FIG. 32C
  • the candidate image frame E3 exists in the blocks BK6, BK7, BK13, and BK14 as shown in FIG. 32D.
  • 32B, 32C, and 32D show the value of the degree of focus of the block BK as a numerical value in each block BK.
  • the selection of the focus degree determination block in step F605 is processing for selecting the blocks BK8, BK12, and BK7 that are hatched in FIGS. 32B, 32C, and 32D for the candidate image frames E1, E2, and E3, respectively.
  • the candidate image frame E1 in FIG. 32B will be described.
  • the blocks BK8, BK9, BK15, and BK16 including the candidate image frame E1 are selected.
  • the block BK (block BK8 in this example) having the highest area occupancy ratio of the candidate image frame E1 is used as the focus degree determination block. Since each block BK is a fixedly divided image, the range of each block BK is known to the control unit 30.
  • candidate image frame information includes information on the x value, y value, candidate image frame width w, and height h as two-dimensional (xy) coordinate values. Supplied from the unit 27. Therefore, the control unit 30 can determine the block BK having the highest area occupancy rate for each candidate image frame E (n).
  • step F606 the control unit 30 refers to the focus degree value of the focus degree determination block selected for each candidate image frame E (n) and determines whether or not it is in focus. For example, when the value of the focus degree is “80” or more, it is determined that the focus is achieved.
  • step F607 the control unit 30 calculates the distance Diff (n) from the centroid G of each candidate image frame E (n) to the determination reference point SP calculated in step F603 for each candidate image frame E (n). Determine whether distance is less than DiffMIN. That is, it is determined whether or not each candidate image frame E (n) is close to the determination reference point SP set as, for example, the screen center point.
  • Candidate image frame E (n) is determined as the main subject.
  • the candidate image frame E1 of FIG. 32B is determined to be in focus because the focus degree of the focus degree determination block BK8 is “90”, but the distance Diff (n) is longer than the determination reference distance DiffMIN.
  • the candidate image frame E2 in FIG. 32C is determined to be in focus because the in-focus level of the in-focus level determination block BK12 is “95”, and the distance Diff (n) is shorter than the determination reference distance DiffMIN.
  • the subject is determined.
  • the candidate image frame E3 in FIG. 32D is not determined as a main subject by determining that the in-focus level of the in-focus level determination block BK7 is “30” and not in focus.
  • the above-described camera work determination processing and main subject determination processing can increase the accuracy with which the user can determine the target subject as the main subject. If such main subject determination automatically performs focus control or exposure control on the main subject, high-quality still image / moving image capturing is possible. Of course, in this case as well, main subject determination appropriate for the photographer is automatically performed, and the operability during imaging is greatly improved.
  • one focus degree determination block is selected by the occupation ratio for the candidate image frame E (n), but there are other selection methods.
  • a block in which the center of gravity or center of the candidate image frame E (n) is located may be used as the focus degree determination block.
  • the block where the specific part in the candidate image is located may be used as the focus degree determination block.
  • the block with the highest focus degree value or the block with the lowest focus degree
  • a focus degree determination block such as a block closest to the determination reference point SP (or a farthest block) may be selected based on position conditions.
  • a plurality of blocks in which the candidate image frame E (n) is located may be all in-focus level determination blocks.
  • the focus determination in step F606 may use the average value of the focus degrees of the plurality of focus degree determination blocks, or use the maximum value and the minimum value. In this case, it is not necessary to calculate the occupation ratio for making one block a focus degree determination block, and the calculation load can be reduced.
  • the main subject determination is an example of the AND condition of the focusing condition and the position condition
  • the determination may be made only with the focusing condition without the position condition. That is, all candidate image frames E (n) determined to be in focus in step F606 may be determined as main subjects. Alternatively, when there are a plurality of candidate image frames E (n) determined to be in focus in step F606, one candidate image frame E (n) having the highest degree of focus is determined as the main subject. May be.
  • the determination of the focusing condition may be performed using the value of the focusing degree in a plurality of frames. For example, for an in-focus level determination block, an average value, maximum value, or minimum value of in-focus values in a plurality of consecutive frames is calculated. For example.
  • the candidate image frame E (n) including, for example, the center area of the screen as the determination reference area and including all of the candidate image frame E (n) is not the condition that the position is close to the determination reference point SP
  • the candidate image frame E (n) including the center of gravity, the candidate image frame E (n) including more than half of the area may be used as the position condition.
  • the position condition may be set as a candidate image frame E (n) that is not an edge on the image, a candidate image frame E (n) in a specific block range, or the like.
  • the candidate image frame E (n) is extracted in parallel, but the candidate image frame E (n) may be extracted after determining the in-focus block.
  • this is an example in which candidate detection is performed within the in-focus block BK or a block in the vicinity thereof, and the extracted candidate image is determined as the main subject.
  • the block BK near the center of the image data is used to calculate the degree of focus for some blocks BK.
  • the subject considered by the photographer who wants to be the main subject is a block near the center when the focus determination unit 28 considers that the photographer adjusts the imaging direction so that it is as close to the center of the image as possible. Even when the focus degree determination is performed only for BK, it is possible to set the main subject with high accuracy, and also to reduce the processing load of the focus degree determination unit 28 and the control unit 30.
  • the blocks BK1 to BK (M) have been described.
  • the number of divisions may be variously divided into four divisions, six divisions, eight divisions, nine divisions,.
  • the larger the number of blocks the greater the processing load for calculating the degree of focus and selecting the degree-of-focus determination block.
  • the main subject can be determined with high accuracy even when the candidate image is small due to the zoom state or the small subject.
  • the smaller the number of blocks the lighter the processing load.
  • the blocks BK to be divided need not all have the same area or the same region shape. For example, it is conceivable that one block BK has a wide range at the end of the image and the center of the screen is divided into fine blocks BK. Considering the high probability of the vicinity of the center of the screen as the position where the main subject exists, it is appropriate to divide the area finely at the center of the screen.
  • the program according to the embodiment is a program that causes an arithmetic processing device such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor) to execute the processing described in the above-described embodiment. That is, this program determines the camera work at the time of imaging and sets the determination start timing of the main subject for the image data based on the determination, and the subject included in the image data from the image data from the determination start timing.
  • this program determines the camera work at the time of imaging and sets the determination start timing of the main subject for the image data based on the determination, and the subject included in the image data from the image data from the determination start timing.
  • the program according to the embodiment may be a program that causes the arithmetic processing unit to execute the processes described in FIG. 2 and the first to ninth processing examples. With such a program, an apparatus for executing the main subject determination described above can be realized using an arithmetic processing unit.
  • Such a program can be recorded in advance in an HDD as a recording medium built in a device such as a computer device, a ROM in a microcomputer having a CPU, or the like.
  • a flexible disk CD-ROM (Compact Disc Read Only Memory), MO (Magnet optical) disk, DVD (Digital Versatile Disc), Blu-ray Disc (Blu-ray Disc (registered trademark)), magnetic disk, semiconductor memory, It can be stored (recorded) temporarily or permanently in a removable recording medium such as a memory card.
  • a removable recording medium can be provided as so-called package software.
  • such a program can be downloaded from a removable recording medium to a personal computer or the like, or downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • Such a program is suitable for providing a wide range of image processing apparatuses according to the embodiments.
  • a program for example, by downloading a program to a personal computer, a portable information processing device, a mobile phone, a game device, a video device, a PDA (Personal Digital Assistant) or the like, the portable information processing device or the like is changed to the image processing device of the present disclosure. can do.
  • a computer device as shown in FIG. 33 processing similar to the main subject determination processing in the image processing device 1 or the imaging device 10 in FIG. 1 can be executed.
  • the CPU 71 of the computer device 70 executes various processes according to a program stored in the ROM 72 or a program loaded from the storage unit 78 to the RAM 73.
  • the RAM 73 also appropriately stores data necessary for the CPU 71 to execute various processes.
  • the CPU 71, ROM 72, and RAM 73 are connected to each other via a bus 74.
  • An input / output interface 75 is also connected to the bus 74.
  • the input / output interface 75 includes an input unit 76 such as a keyboard and a mouse, a display such as a CRT (Cathode Ray Tube) or LCD or an organic EL panel, an output unit 77 such as a speaker, and a hard disk.
  • a communication unit 79 including a storage unit 78 and a modem is connected. The communication unit 79 performs communication processing via a network including the Internet.
  • a drive 80 is connected to the input / output interface 75 as necessary, and a removable medium 81 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is Installed in the storage unit 78 as necessary.
  • a removable medium 81 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is Installed in the storage unit 78 as necessary.
  • a program constituting the software is installed from a network or a recording medium.
  • the recording medium is distributed to distribute the program to the user separately from the apparatus main body, and includes a magnetic disk (including a flexible disk) on which the program is recorded, an optical disk (Blu-ray). Disk, CD-ROM, DVD), magneto-optical disk (MD (Mini Disc), or a removable medium 81 made of a semiconductor memory or the like.
  • it is configured by a ROM 72 in which a program is recorded and a hard disk included in the storage unit 78 that is distributed to the user in a state of being pre-installed in the apparatus main body.
  • the CPU 71 when the moving image data is input by the reception operation by the communication unit 79 or the reproduction operation by the drive 80 (removable medium 81) or the recording unit 78, the CPU 71 is based on the program.
  • the functions of the camera work determination unit 3 and the main subject determination unit 2 described above are provided, and the input image data is automatically performed by executing the processing shown in FIG. 2 or the first to ninth processing examples.
  • the main subject can be determined. In this case, it is necessary to determine the camera work at the time of imaging performed in the past.
  • the CPU 71 can detect pan, zoom, and focus (change in focus position) by analyzing the frame image data.
  • the CPU 71 can determine the camerawork with reference to the metadata.
  • the period during which the operation continues is the main subject determination period. If the main subject determination is not completed, the main subject determination may be continued even after the pan operation or zoom operation is finished.
  • the position condition and the focusing condition determined by the distance Diff (n) are illustrated as the conditions for determining the main subject in FIGS. 8 and 31, they can be considered more variously.
  • the main subject determination is performed using a size condition in which the size of the candidate image is a predetermined pixel or more, a distance condition in which the subject distance (relative distance between the imaging device 10 and the subject) is within a predetermined range, or the like. Also good.
  • the determination may be made based on temporal changes in the image size or subject distance.
  • the attribute of the candidate image may be used as the main subject determination condition. For example, attributes such as children, adults, men, women, people, dogs, and cats are determined for the subject image. For example, being a child is a condition of the main subject.
  • the position condition, the focusing condition, the size condition, the distance condition, and the attribute condition may be priority conditions instead of absolute conditions for main subject determination. For example, when a plurality of candidate images fall under a certain condition, the main subject is determined according to the priority condition among them.
  • the main subject information can also be used for image effect processing and image editing processing.
  • Such a main subject determination process for a reproduced image is naturally assumed in the image processing apparatus in FIG. 1, the information processing apparatus in FIG.
  • the result of the main subject determination process may be added as metadata to still image data or moving image data that has been captured and recorded thereafter. That is, information indicating the main subject is added to a still image file or the like. Further, the main subject designation operation by the operation of the photographer may be enabled while the through image is displayed and the main subject determination process is simultaneously performed.
  • the process of determining the main subject mainly assuming still image capturing has been described.
  • the image is captured even during standby for moving image capturing or during execution of moving image capturing and recording.
  • the processing of the above-described embodiment can be applied as processing for performing main subject determination from a plurality of frames.
  • this technique can also take the following structures.
  • a camera work determination unit that determines camera work at the time of imaging and sets a determination start timing of a main subject for image data based on the determination;
  • An image processing apparatus comprising: a main subject determination unit that determines a main subject among the subjects included in the image data from image data from the determination start timing.
  • the main subject determination unit observes the subject position state in the image data of a plurality of frames from the determination start timing, and determines the main subject among subjects that meet a specific position condition.
  • An image processing apparatus according to 1.
  • the image processing according to (2), wherein the specific position condition is that a condition that satisfies a predetermined position state on the image is obtained averagely, cumulatively, or continuously in a plurality of frames.
  • the main subject determination unit observes the in-focus state of the subject in the image data from the determination start timing, and determines the main subject among the subjects that meet a specific focusing condition.
  • the subject that matches the specific focusing condition is a subject that is located in a divided region where the degree-of-focus data measured for each divided region of the image data is a predetermined value or more.
  • the main subject determination unit determines the main subject among the subjects that match the specific focusing condition and further matches the specific position condition (4) or (5) ).
  • the image processing apparatus according to any one of (1) to (3), wherein the camera work determination unit sets a determination start timing in response to detecting a pan or tilt operation of the imaging apparatus.
  • the image processing apparatus according to any one of (1) to (3), wherein the camera work determination unit sets a determination start timing in response to detecting the end of a panning or tilting operation of the imaging apparatus.
  • the camera work determination unit sets a determination start timing in response to detecting a zoom operation of the imaging device.
  • the camera work determination unit sets a determination start timing in response to detecting the end of a zoom operation of the imaging device.
  • the camera work determination unit sets a determination start timing in response to detecting a transition from a pan operation to a zoom operation of the imaging apparatus or in response to detecting the end of the zoom operation ( The image processing apparatus according to any one of 1) to (3).
  • the camera work determination unit sets the determination start timing in response to detecting a transition from the zoom operation to the pan operation of the imaging apparatus or in response to detecting the end of the pan operation ( The image processing apparatus according to any one of 1) to (3).
  • Image processing device The camera work determination unit according to (1), (4), (5), or (6), wherein the determination start timing is set in response to detecting the end of the manual focus operation of the imaging apparatus.
  • SYMBOLS 1 ... Image processing apparatus, 2 ... Main subject determination part, 3 ... Local motion detection part, 4 ... Global motion detection part, 10 ... Imaging device, 11 ... Optical system, 12 ... Imager, 13 ... Optical system drive part, 14 ... Sensor unit 15 ... Recording unit 16 ... Communication unit 17 ... Distance sensor 20 ... Digital signal processing unit 21 ... Pre-processing unit 22 ... Synchronizing unit 23 ... YC generating unit 24 ... Resolution converting unit 25 ... codec section, 27 ... candidate detection section, 28 ... focus degree determination section, 30 ... control section, 30a ... main subject determination section, 30b ... camera work determination section, 32 ... UI controller, 33 ... user interface, 34 ... display Part, 35 ... operation part, 70 ... computer apparatus, 71 ... CPU

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】撮像画像の中で主要被写体を自動的に判定する。 【解決手段】撮像時における撮像装置に対するパン、チルト、ズーム、フォーカス等のカメラワークを判定する。そしてカメラワークの判定に基づいて、主要被写体の判定開始タイミングを設定する。判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する。

Description

画像処理装置、画像処理方法、プログラム
 本開示は、画像内の主要被写体を判定する処理を行う画像処理装置、画像処理方法、及びプログラムに関する。
 近年のデジタルスチルカメラ、デジタルビデオカメラには顔検出機能が標準的に備わっており、顔位置・領域に合わせてカメラの各種パラメータ(フォーカス・明るさ等)を最適に合わせるといった機能が搭載されている。
 一方、撮像画像内で、被写体追尾のターゲットとする「主要被写体」を、ユーザが指定することによって選択する手法が、特許文献1に記載されている。
 また例えば上記特許文献2,3,4に開示された技術を用いれば、任意の被写体の全身枠を取り囲んだ被写体追尾が実現できる。
 また、オートフォーカス・自動露光などは、撮像画像内の所望の領域を検出・追跡し、その領域がもっとも好適になるように光学系等を制御するような機能も存在する。
 これらのように、撮像画像内で、ユーザが主要被写体として指定した画像、例えば顔等の画像領域を追尾したり、顔領域にフォーカスを合わせたりする等の技術が知られている。
特開2011-166305号公報 特開2011-146826号公報 特開2011-146827号公報 特開2011-160379号公報
 ところで、撮像画像内での、追尾やフォーカス合わせの目的となる所望の領域、つまり「主要被写体」は、現状は各種検出器から得られる「複数の候補領域」の中から撮像者自身が何らかの方法で一つの候補を選択することで決定される。
 例えばカメラを所持した状態で、画面表示されたスルー画(シャッタ操作時点以外に表示される被写体のモニタリング画像)に写されている複数の顔の中からタッチパネルによって任意の顔を選択するというような行為で主要被写体が選定される。あるいはユーザ指定のタイミング(シャッタ半押し等)で所定の領域内に存在する被写体を主要被写体とするなどである。
 しかしながら実際のユースケースにおいてはこのユーザインターフェースを考えてみると、「撮像者による主要被写体の選択」という行為自体が難しいことが多々ある。
 たとえば動き回る被写体に焦点を合わせ続けたいためにこの機能を使いたいのに、ユーザがカメラを構えて被写体を狙いながら指で選択すること自体が難しい。
 例を挙げれば、被写体の変化(移動)に対するユーザの反応速度により、指定が困難なこともある。例えば動き回る被写体を、スルー画の画面上でうまく指定できないような場合である。
 また、そもそもカメラを手に持って、被写体に向けて被写体を選定しているような状況で、ユーザが画面上で主要被写体を指で選択する行為自体が難しい。特に被写体を追っているような状況、例えばカメラがパンニングやチルティングとしての動きをするようにユーザが撮像方向を変化させている状況では、主要被写体を選択することはほぼ無理に近い。
 またタッチパネルを配した表示画面の解像度によって、ユーザにとって被写体が選択しにくいことがある。
 また、タッチパネルを配した表示画面上の被写体サイズとユーザの指の大きさ(太さ)によっては、所望の被写体を適切に指定できないこともある。
 また、カメラシステム上のタイムラグ、例えば実際の光景と撮像画像のスルー画のタイムラグによって、ユーザが適切に被写体を指定しにくいこともある。
 さらには動画撮像・記録中にこの操作を行う場合には、主要被写体の選択行為による画揺れがそのまま記録されたり、フレームアウトあるいは一時遮蔽等による追跡消失(失敗)時に再選択するという行為をユーザに強いたりといった状況がある。
 これらのように、ハンドヘルドタイプのカメラにおいて、主要被写体を選択する行為自体が、それを必要とする多くのユースケースで難しく、撮像者にストレスを与えてしまう。
 そこで本開示では、撮像者等のユーザが意図的に被写体を選択する行為を行わなくとも、ユーザの求める対象被写体を主要被写体と判定する技術を実現することを目的とする。
 本開示の画像処理装置は、撮像時のカメラワークを判定し、該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定するカメラワーク判定部と、上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する主要被写体判定部とを備える。
 本開示の画像処理方法は、撮像時のカメラワークを判定して該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定し、上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する。
 本開示のプログラムは、上記画像処理装置又は画像処理方法を実現する処理を演算処理装置に実行させるプログラムである。
 これらの本開示の技術によれば、画像データについて自動的に主要被写体を判定する主要被写体判定処理を行う。
 例えばユーザが撮像装置を構えて撮像を行う場合において、通常ユーザは、主要と考える被写体、つまり静止画として撮像目的としたい被写体や、動画として撮像し続けたい被写体が撮像画像内に捉えられるようにカメラワークを行う。なおカメラワークとは、撮像者たるユーザが被写体を撮像画像内に捉えるための動作・操作や、意図する構図や合焦状態を探すための動作・操作のことをいい、具体的にはパンニング、チルティング、ズーミング、マニュアルフォーカス等がある。パンニング(パン)とは、撮像者が手持ちの撮像装置を略水平方向に動かしたり、三脚、雲台等に設置した撮像装置の撮像方向を水平方向に動かすことである。チルティング(チルト)とは、撮像者が手持ちの撮像装置を略上下方向に動かしたり、三脚、雲台等に設置した撮像装置の撮像方向を上下方向に動かすことである。ズーミング(ズーム)とは、撮像者が撮像装置のズームレバー(ワイドキー・テレキー)を操作したりマニュアル操作でズームレンズを移動させて画角を変化させる動作である。マニュアルフォーカスとは、撮像者がフォーカスレンズを移動させて合焦位置を変化させる動作である。
 ユーザがこれらのカメラワークを行っているということは、或る目的の被写体を狙って撮像方向、画角、焦点位置等を調整していると考えることができ、つまり撮像画像(例えばスルー画)内に主要と考える被写体が存在すると推定できる。
 そこで画像処理装置では、カメラワーク判定を行い、該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定する。そして判定開始タイミングからの1又
は複数のフレームの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定するようにする。これにより自動的な主要被写体判定として確度の高い判定が可能となる。
 本開示によれば、撮像画像内で自動的に主要被写体が判定されるため、撮像者等のユーザが、主要被写体を選択する行為を行う必要は無い。従ってユーザの操作性、利便性を向上できる。例えば本開示の画像処理装置を搭載した撮像装置を手に持って撮像を行う場合の操作性の向上、ユーザストレスの低減、さらには自動的な主要被写体判定に応じた各種機能の実現という製品付加価値向上を実現できる。その上で、適切なタイミングで自動的に主要被写体判定が行われることになり、判定確度を向上させることができる。
本開示の実施の形態の画像処理装置の構成例のブロック図である。 実施の形態の画像処理装置の主要被写体判定処理のフローチャートである。 実施の形態の撮像装置の構成のブロック図である。 実施の形態の候補画像抽出及び主要被写体判定の概要の説明図である。 実施の形態の候補画像枠と判定基準点の距離の説明図である。 第1の処理例のカメラワーク判定及び主要被写体判定処理のフローチャートである。 第1の処理例のカメラワーク判定処理のフローチャート及び説明図である。 実施の形態の各処理例に適用できる主要被写体判定処理のフローチャートである。 第2の処理例のカメラワーク判定処理の説明図である。 第2の処理例のカメラワーク判定処理のフローチャートである。 第3の処理例のカメラワーク判定処理のフローチャート及び説明図である。 第4の処理例のカメラワーク判定処理の説明図である。 第4の処理例のカメラワーク判定処理のフローチャートである。 第5の処理例のカメラワーク判定処理の説明図である。 第5の処理例のカメラワーク判定処理のフローチャートである。 第5の処理例のズーム中判定処理のフローチャートである。 第6の処理例のカメラワーク判定処理の説明図である。 第6の処理例のカメラワーク判定処理のフローチャートである。 第6の処理例のズーム後判定処理のフローチャートである。 第7の処理例のカメラワーク判定処理の説明図である。 第7の処理例のカメラワーク判定処理のフローチャートである。 第7の処理例のパン中判定処理のフローチャートである。 第8の処理例のカメラワーク判定処理の説明図である。 第8の処理例のカメラワーク判定処理のフローチャートである。 第8の処理例のパン後判定処理のフローチャートである。 実施の形態の他の撮像装置の構成のブロック図である。 第9の処理例の候補画像抽出及び合焦度判定の概要の説明図である。 第9の処理例の合焦度判定の説明図である。 第9の処理例のカメラワーク判定処理の説明図である。 第9の処理例のカメラワーク判定処理のフローチャートである。 実施の形態の第9の処理例に適用できる主要被写体判定処理のフローチャートである。 第9の処理例での主要被写体判定の説明図である。 実施の形態のコンピュータ装置での適用の場合のブロック図である。
 以下、実施の形態を次の順序で説明する。
<1.実施の形態の画像処理装置の構成>
<2.実施の形態の撮像装置の構成>
<3.主要被写体判定機会/目的等>
<4.第1の処理例(パン動作判定)>
<5.第2の処理例(パン後判定)>
<6.第3の処理例(ズーム動作判定)>
<7.第4の処理例(ズーム後判定)>
<8.第5の処理例(パン後ズーム動作判定)>
<9.第6の処理例(パン後ズーム後判定)>
<10.第7の処理例(ズーム後パン動作判定)>
<11.第8の処理例(ズーム後パン後判定)>
<12.第9の処理例(合焦判定)>
<13.プログラム及びコンピュータ装置への適用>
<14.変形例>
<1.実施の形態の画像処理装置の構成>
 図1に、実施の形態の画像処理装置の構成例を示す。
 画像処理装置1は、主要被写体判定部2と、カメラワーク判定部3を有する。
 カメラワーク判定部3は、撮像時のカメラワークを判定し、該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定する。カメラワーク判定部3は、撮像時のカメラワークに関する検出情報Idを入力し、その検出情報Idに基づいてカメラワークを判定する。そしてその判定結果に応じて、主要被写体判定開始のタイミングを主要被写体判定部2に通知する。
 カメラワークとは、撮像者たるユーザが被写体を撮像画像内に捉えるための動作・操作や、意図する構図や合焦状態を探すための動作・操作のことである。具体的にはパンニング(パン)、チルティング(チルト)、ズーミング(ズーム)、マニュアルフォーカス等となる。従って検出情報Idとは、例えば撮像者のズーム、マニュアルフォーカス等の操作の検出情報であったり、角速度センサ(ジャイロセンサ)や加速度センサ等の撮像装置自体の動きを検出するセンサの検出情報などである。
 なお「撮像時のカメラワーク」とは、現時点のカメラワーク又は画像データが過去に撮像された際のカメラワークをいう。例えば当該画像処理装置1が後述するように撮像装置10に内蔵される装置であったり、或いは撮像装置に接続されてリアルタイムで撮像画像データが供給される機器である場合は、撮像者が現時点で行うカメラワークとなる。また過去に撮像された画像データについての主要被写体判定を行う場合は、その過去の撮像時のカメラワークを指す。
 主要被写体判定部2は、入力される画像データDgに対し、カメラワーク判定部3で設定された判定開始タイミングに基づいて主要被写体判定処理を実行する。例えば主要被写体判定部2は、主要被写体の判定開始タイミングからの複数のフレームの画像データにおける被写体位置状態を観測し、特定の位置条件に合致した被写体のうちで主要被写体を判定する。また例えば主要被写体判定部2は、判定開始タイミングからの少なくとも1フレームの画像データにおける被写体の合焦状態を観測し、特定の合焦条件に合致した被写体のうちで主要被写体を判定する。主要被写体判定部2はこれらの処理で1又は複数の被写
体を主要被写体と設定する。
 そして主要被写体判定部2は判定結果として、主要被写体情報Dmを出力する。
 なお、以上の主要被写体判定部2、カメラワーク判定部3を有する画像処理装置1は、演算処理装置としてのCPU(Central Processing Unit)やDSP(Digital Signal Processor)で実現できる。
 またCPU等で主要被写体判定部2としての機能を実現し、CPUと接続された画像処理用DSP等、もしくはその連携処理としてカメラワーク判定部3の機能を実現することも考えられる。
 この画像処理装置1による主要被写体判定のための処理の流れは図2のようになる。
 ステップF1としてカメラワーク判定部3が、撮像者によるカメラワークを判定する。そしてステップF2として所定のカメラワーク状況を検出したら、カメラワーク判定部3はステップF3で判定開始タイミング設定を行う。例えば判定実行フラグをオンに設定する。
 これに応じて主要被写体判定部2はステップF4で主要被写体判定処理を実行し、所定の条件に合致した被写体を主要被写体と判定する。
 そしてステップF5で主要被写体判定部2は、主要被写体判定結果である主要被写体情報Dmを出力しアプリケーションプログラム等に受け渡す。
 アプリケーションプログラム等では、主要被写体画像が特定されたことに応じた処理を行う。例えば、フォーカス制御、追尾処理、画像効果処理などである。
 ステップF1~F3のカメラワーク判定部3の処理は多様に考えられ、具体的な例は後述する撮像装置10の処理例で述べるが、次のような状況を判定し、判定開始タイミング設定を行うこととなる。
 1.パン動作判定:パン動作が開始されたことを判定し、パン動作中に主要被写体判定処理が行われるように判定開始タイミングを設定する。
 2.パン後判定:パン動作が実行され終了されたことを判定し、パン動作終了後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
 3.ズーム動作判定:ズーム動作が開始されたことを判定し、ズーム動作中に主要被写体判定処理が行われるように判定開始タイミングを設定する。
 4.ズーム後判定:ズーム動作が実行され終了されたことを判定し、ズーム動作終了後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
 5.パン後ズーム動作判定:パン動作が実行され終了された後、さらにズーム動作が開始されたことを判定し、そのズーム中に主要被写体判定処理が行われるように判定開始タイミングを設定する。
 6.パン後ズーム後判定:パン動作が実行され終了された後、さらにズーム動作が実行され、該ズーム動作が終了されたことを判定し、そのズーム後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
 7.ズーム後パン動作判定:ズーム動作が実行され終了された後、さらにパン動作が開始されたことを判定し、そのパン中に主要被写体判定処理が行われるように判定開始タイミングを設定する。
 8.ズーム後パン後判定:ズーム動作が実行され終了された後、さらにパン動作が実行され、該パン動作が終了されたことを判定し、そのパン後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
 9.マニュアルフォーカス後判定:マニュアルフォーカス動作が実行され終了されたことを判定し、マニュアルフォーカス動作終了後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
 以上の各処理の詳細は撮像装置10の第1~第9の処理例として後述する。 
 図1の画像処理装置1では、以上の図2の例のようにカメラワーク判定及び主要被写体判定が行われることで、カメラワークによって撮像者がターゲットと意図している被写体を推定し、自動的に主要被写体判定を行うことができる。よってユーザの手動操作に頼らない主要被写体判定を行うことができ、主要被写体設定に応じた動作を行う各種電子機器に図1の画像処理装置1が搭載されることで、ユーザの操作性は格段に向上する。
<2.撮像装置の構成>
 以下では、上記のような画像処理装置を内蔵した撮像装置10を例に挙げ、主要被写体判定動作について詳しく説明する。
 実施の形態の撮像装置10の構成例を図3に示す。なお、この構成例は後述する第1の処理例~第8の処理例に適したものである。第9の処理例の場合の撮像装置10の構成例については後述する。
 この撮像装置10はいわゆるデジタルスチルカメラ或いはデジタルビデオカメラとされ、静止画や動画の撮像/記録を行う機器であり、請求項でいう画像処理装置を内蔵するものである。
 図3に示すように撮像装置10は、光学系11、イメージャ12、光学系駆動部13、センサ部14、記録部15、通信部16、デジタル信号処理部20、制御部30、ユーザインターフェースコントローラ(以下、「UIコントローラ」)32、ユーザインターフェース33を有する。
 光学系11は、カバーレンズ、ズームレンズ、フォーカスレンズ等のレンズや絞り機構を備える。この光学系11により、被写体からの光がイメージャ12に集光される。
 イメージャ12は、例えば、CCD(Charge Coupled Device)型、CMOS(Complementary Metal OxideSemiconductor)型などの撮像素子を有する。
 このイメージャ12では、撮像素子での光電変換で得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号を、後段のデジタル信号処理部20に出力する。
 光学系駆動部13は、制御部30の制御に基づいて、光学系11におけるフォーカスレンズを駆動し、フォーカス動作を実行する。これにより例えばオートフォーカス動作が実行される。
 なお、フォーカスレンズに関しては、ユーザの操作によるマニュアルフォーカスとしてのレンズ移動も可能とされている。ユーザはレンズ鏡筒に形成されたフォーカスレンズ移送機構を操作することで合焦位置を任意に設定できる。
 また光学系駆動部13は、制御部30の制御に基づいて、光学系11における絞り機構を駆動し、露光調整を実行する。
 さらに光学系駆動部13は、制御部30の制御に基づいて、光学系11におけるズームレンズを駆動し、ズーム動作を実行する。ユーザは後述する操作部35のズームレバーの操作により、ズーム動作を指示できる。これによりユーザは任意の画角状態を得ることができる。
 デジタル信号処理部20は、例えばDSP等により画像処理プロセッサとして構成される。このデジタル信号処理部20は、イメージャ12からのデジタル信号(撮像画像信号)に対して、各種の信号処理を施す。
 例えばデジタル信号処理部20は、前処理部21、同時化部22、YC生成部23、解像度変換部24、コーデック部25、候補検出部27を備えている。
 前処理部21は、イメージャ12からの撮像画像信号に対して、R,G,Bの黒レベルを所定のレベルにクランプするクランプ処理や、R,G,Bの色チャンネル間の補正処理等を施す。
 同時化部22は、各画素についての画像データが、R,G,B全ての色成分を有するようにするデモザイク処理を施す。
 YC生成部23は、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。
 解像度変換部24は、各種の信号処理が施された画像データに対して、解像度変換処理を実行する。
 コーデック部25は、解像度変換された画像データについて、例えば記録用や通信用の符号化処理を行う。
 候補検出部27は、例えばYC生成部23で得られる撮像画像信号(輝度信号/色信号)を対象として、各フレーム単位(又は間欠的なフレーム毎)での画像解析処理を行い、候補画像を抽出する。即ち、時間軸上で連続的に入力される画像データについて顔画像検出、人体画像検出などを行って、主要被写体の候補となる画像を抽出する。
 なお、顔検出、人体検出等は、撮像画像データに対しての画像解析におけるパターンマッチングの手法などで可能であるが、パターンマッチングに用いる辞書さえ差し替えれば他の検出器も原理的には実現可能である。例えば(特定種の)犬検出・猫検出などとして主要被写体の候補画像を抽出してもよい。
 また例えばフレーム差分による動体検出の手法で、動体を検出し、当該動体を候補画像とすることも考えられるし、セイレンシ(Saliency)と呼ばれる注視領域抽出の手法を用いてもよい。候補画像の抽出、選定の手法は多様に考えられる。
 候補検出部27は例えば一例としては、顔画像の検出を行い、その顔画像が存在する領域を候補画像枠として抽出する。
 抽出した候補画像については、その候補画像枠の位置情報(画面上でのx,y座標値、被写体距離の情報等)や、サイズ情報(例えば候補画像枠の幅、高さ、ピクセル数等)を、候補画像情報として制御部30に受け渡す。なお、ここでは、候補画像となる画像領域の枠を示す情報であることから、候補画像情報のことを「候補画像枠情報」ともいうこととする。
 また、候補検出部27は、画像に平滑化処理、アウトライヤ(outlier)除去等の処理を行って、候補画像枠情報を生成してもよい。
 なお候補検出部27は、この図3の例ではデジタル信号処理部20で実行される機能構成として示しているが、これは一例であり、制御部30によって候補検出部27の処理が実行されてもよい。
 制御部30は、CPU、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなどを備えたマイクロコンピュータ(演算処理装置)により構成される。
 CPUがROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置10全体を統括的に制御する。
 RAMは、CPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
 ROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア等の記憶に用いられる。例えば本例において後述する主要被写体判定のための処理を実行するためのプログラムや、さらに主要被写体判定結果を利用するアプリケーションプログラム等が記憶される。
 このような制御部30は、デジタル信号処理部20における各種信号処理の指示、ユーザの操作に応じた撮像動作や記録動作、記録した画像ファイルの再生動作、ズーム、フォーカス、露光調整等のカメラ動作、ユーザインターフェース動作等について、必要各部の動作を制御する。
 また本実施の形態の場合、制御部30は、主要被写体判定部30a、カメラワーク判定部30bとしての機能を備え、後述するカメラワーク判定処理や及び主要被写体判定処理を実行する。
 この図3の構成の場合、カメラワーク判定部30bは、上述のパン動作判定、パン後判定、ズーム動作判定、ズーム後判定、パン後ズーム動作判定、パン後ズーム後判定、ズーム後パン動作判定、ズーム後パン後判定のいずれかを行う。そして主要被写体判定処理の開始タイミングを設定する。具体的には判定実行フラグ(後述する判定実行フラグFDon)をオンとする。
 主要被写体判定部30aは、カメラワーク判定部30bの判定結果に基づく開始タイミングの設定に応じて候補画像の中で主要被写体を判定する処理を行う。
 ユーザインターフェース33は、ユーザに対する表示出力や音声出力を実行し、またユーザの操作入力を受け付ける。このため、表示デバイス、操作デバイス、スピーカデバイス、マイクロホンデバイスなどを有する。ここでは、表示部34,操作部35を示している。
 表示部34はユーザ(撮像者等)に対して各種表示を行う表示部であり、例えば撮像装置10の筐体上に形成されるLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等のディスプレイデバイスを有して形成される。なお、いわゆるビューファインダーの形態で、LCDや有機ELディスプレイ等を用いて形成されてもよい。
 この表示部34は、上記のディスプレイデバイスと、該ディスプレイデバイスに表示を実行させる表示ドライバとから成る。表示ドライバは、制御部30の指示に基づいて、ディスプレイデバイス上に各種表示を実行させる。例えば表示ドライバは、撮像して記録媒体に記録した静止画や動画を再生表示させたり、レリーズ(シャッタ操作)待機中に撮像される各フレームの撮像画像データによる動画としてのスルー画(被写体モニタリング画像)をディスプレイデバイスの画面上に表示させる。また各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。本実施の形態の場合、例えばスルー画や再生画上で、主要被写体判定による判定結果がユーザにわかるような表示も実行される。
 操作部35は、ユーザの操作を入力する入力機能を有し、入力された操作に応じた信号を制御部30へ送る。
 この操作部35としては、例えば撮像装置10の筐体上に設けられた各種操作子や、表示部34に形成されたタッチパネルなどとして実現される。
 筐体上の操作子としては、再生メニュー起動ボタン、決定ボタン、十字キー、キャンセルボタン、ズームレバー、スライドキー、シャッターボタン(レリーズボタン)等が設けられる。
 またタッチパネルと表示部34に表示させるアイコンやメニュー等を用いたタッチパネル操作により、各種の操作が可能とされてもよい。
 ユーザインターフェース33の表示部34等の動作は、制御部30の指示に従ってUIコントローラ32により制御される。また操作部35による操作情報は、UIコントローラ32によって制御部30に伝達される。

 本実施の形態の場合、例えばズームレバー(ワイドキー、テレキー)の操作はカメラワーク判定に用いられる。制御部30はズームレバーの操作をUIコントローラ32を介して検知し、またその操作情報に応じて光学系駆動部13を制御してズームレンズ駆動を実行させる。
 記録部15は、例えば不揮発性メモリからなり、静止画データや動画データ等の画像ファイル(コンテンツファイル)や、画像ファイルの属性情報、サムネイル画像等を記憶する記憶領域として機能する。
 画像ファイルは、例えばJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、GIF(Graphics Interchange
Format)等の形式で記憶される。
 記録部15の実際の形態は多様に考えられる。例えば記録部15は、撮像装置10に内蔵されるフラッシュメモリでもよいし、撮像装置10に着脱できるメモリカード(例えば可搬型のフラッシュメモリ)と該メモリカードに対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置10に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
 また、本例において後述するカメラワーク判定処理及び主要被写体判定処理を実行するためのプログラムは、記録部15に記憶されてもよい。
 通信部16は、外部機器との間のデータ通信やネットワーク通信を有線又は無線で行う。
 例えば外部の表示装置、記録装置、再生装置等の間で撮像画像データ(静止画ファイルや動画ファイル)の通信を行う。
 また、ネットワーク通信部として、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。
 センサ部14は各種センサを包括的に示している。センサ部14の各種センサは、それぞれ検出した情報を制御部30に伝達する。制御部30は、センサ部14で検出された情報を用いて各種制御を行うことができる。
 センサ部14としては例えば手ぶれ、或いは撮像装置10の姿勢や移動(パン移動、チルト移動等)等、撮像装置10の全体の動きを検出するためのジャイロセンサ(角速度センサ)、加速度センサ等が設けられる。例えば制御部30は、ジャイロセンサの検出信号により、撮像装置10がパン又はチルトされていることを検知できる。
 またセンサ部14として、光学系11におけるズームレンズの位置を検出するズームレンズ位置センサ、フォーカスレンズの位置を検出するフォーカスレンズ位置センサが設けられる。或いはフォーカスレンズのマニュアル操作(鏡筒リングの操作)を検出するセンサが設けられる場合もある。制御部30は、フォーカスレンズ位置センサの検出情報や、フォーカスレンズのマニュアル操作を検出するセンサの情報により、ユーザのマニュアルフォーカス操作を検知できる。
 またセンサ部14として、メカアイリス(絞り機構)の開口量を検出するセンサが設けられる場合もある。
 またセンサ部14として、露光調整等のための外部照度を検出する照度センサ、さらには被写体距離を測定する測距センサが設けられてもよい。
 このような撮像装置10において、図1で説明したような画像処理装置1の構成部分は次のようになる。
 図1の画像処理装置1における主要被写体判定部2に相当する構成は、撮像装置10の制御部30において主要被写体判定部30aとしてソフトウエアにより実装される。またカメラワーク判定部3に相当する構成は、制御部30におけるカメラワーク判定部30b
としてソフトウエアにより実装される。
 制御部30は、請求項でいうプログラムに基づく処理を実行することで、請求項でいう画像処理方法としての動作を実行制御することになる。
<3.主要被写体判定機会/目的等>
 本実施の形態では、後述の第1~第9の処理例として説明するように主要被写体判定が行われるが、撮像装置10において主要被写体判定を行う機会や目的等について説明しておく。
 まず主要被写体判定結果の利用例を述べる。
 主要被写体判定は、例えばユーザ(撮像者)がシャッタタイミング(レリーズタイミング)を狙っている際に実行されるが、制御部30は主要被写体を自動的に判定した後、次のような処理を行うことができる。
・追尾処理
 撮像される各フレームにおいて設定された主要被写体を追尾する。例えばスルー画表示上でユーザに主要被写体を明示して、ユーザの画角調整(例えばカメラを手に持っている状態における被写体決め)の用に供する。
 なお、主要被写体の提示としては、表示部34でのスルー画表示上で主要被写体の枠を強調表示することが考えられる。また、強調表示等は、判定直後の一定期間でもよいし、スルー画内に主要被写体が存在する限り実行させてもよい。
・フォーカス合わせ
 主要被写体にオートフォーカス制御する。また、追尾処理と合わせて、主要被写体が動き回っていても、フォーカスが、その主要被写体に追尾して調整されるようにする。
・露光調整
 主要被写体の明るさ(輝度)に基づいて自動露光調整を行う。
・指向性調整
 撮像(例えば動画撮像)とともにマイクロホンにより音声収音を行う場合、画角空間内での主要被写体の方向に応じて、指向性調整を行う。
・ズーム制御
 主要被写体に対応したオートズーム制御する。例えば主要被写体が常に所定以上のサイズで撮像画像で映り込むように自動的なズームレンズ駆動を行う。追尾処理と合わせて、主要被写体との距離が変化に応じたズームによる画角調整を行うようにしてもよい。
・録画スタート制御
 動画撮像の開始のトリガーとする。例えば主要被写体が決定されたことに応じて、動画撮像記録を開始する。
 また、撮像画像信号に対する各種信号処理にも用いることができる。
・画像効果処理
 撮像される各フレームにおいて主要被写体の領域にのみ、画質調整、ノイズリダクション、肌色調整などの画像処理を加える。
 或いは、主要被写体の領域以外に、画像効果、例えばモザイク処理、ぼかし処理、塗りつぶし処理等を加えることも考えられる。
・画像編集処理
 撮像画像、もしくは記録された画像について、フレーミング、クロッピング等の編集処理を加える。

 例えば主要被写体を含むフレーム内の一部領域の切り出しや、拡大等の処理を行うことができる。
 また、撮像画像データのうちで、主要被写体が画像の中心に配置されるように画像周辺部のカット等を行い、構図調整を行うことができる。
 これらは一例に過ぎないが、これら以外にも、アプリケーションプログラムや撮像装置内の自動調整機能が、設定した主要被写体を利用する処理は各種考えられる。
 次にカメラワーク判定及び主要被写体判定処理をどのような時点で実行するかも各種考えられる。
 例えば撮像装置10が電源オンとされて、撮像を行っているとき(表示部34にスルー画を表示している期間)は、常時カメラワーク判定と、それに基づいたタイミングでの主要被写体判定処理を行っていてもよい。
 また、主要被写体を判定したら、追尾処理を行う場合、追尾が外れた時点で、再度カメラワーク判定及び主要被写体判定処理を行うようにしてもよい。
 また、ユーザ操作によりカメラワーク判定及び主要被写体判定処理が開始されるようにしてもよい。またユーザが、判定実行モードを選択しているときに常時カメラワーク判定及び主要被写体判定処理が実行されたり、追尾が外れたときに実行されるなどとしてもよい。またユーザ操作にかかわらず、自動的にカメラワーク判定及び主要被写体判定処理が起動されることも考えられる。
 主要被写体判定処理を行うことによる効果としては次のとおりである。
 先に述べたように、撮像者が撮像装置10を構えて被写体を狙っているときには、そもそも主要被写体を指定するような操作は難しい。
 特にパンニングやチルティングのように撮像方向を継続的に一定方向に変化させている場合、或いは一定方向ではなくとも、撮像方向を変化させている場合は、主要被写体を指定する操作はユーザにとって困難である。
 また何度も主要被写体を指定する行為は面倒である。
 主要被写体判定を自動的に実行することによれば、このようなことが解消され、ユーザストレスの低減効果が得られる。
 またユーザが通常使用するデジタルスチルカメラ、携帯電話機内蔵カメラなど、ユーザが携帯して使用する撮像装置10としては、表示部34も小型であり、ユーザが主要被写体を画面上で指定する操作を行ったとしても、正確に行いにくい。本実施の形態のように自動判定することで、誤指定ということもなくなる。
 また撮像装置10が自動的に主要被写体判定を行うことによれば、ユーザにとっては、被写体を狙って撮像装置10を構えていたり、被写体を追って撮像方向を変化させていたりする状況で、主要被写体判定が実行されることとなり、ユーザが装置に感じるインテリジェント感の向上や、付加価値の向上という効果が得られる。
 また撮像装置10を自然に用いていれば主役を撮れる、という感覚で使用できるため、撮像機会の増加、対応ユースケースの増加ということができ、使いやすいカメラをユーザに提供できることにもなる。
 以上のことから、ハンドヘルドタイプのカメラとして、主要被写体判定を自動的に行う本実施の形態の撮像装置10は特に好適となる。
<4.第1の処理例(パン動作判定)>
 実施の形態の撮像装置10の第1の処理例としてカメラワーク判定及び主要被写体判定
の動作を説明する。これはパン動作中に主要被写体判定を実行する例である。即ちカメラワーク判定部30bは、ユーザが撮像装置10を略水平方向に移動させるパン動作を判定する。そしてそのパン動作中に、主要被写体判定部30aで主要被写体判定処理が行われるようにする。
 主要被写体判定処理としては、画像データ内で候補画像を抽出し、安定的に所定の判定基準点に近い状態にある候補画像を主要被写体と判定する例を挙げる。
 図4は、図3に示した候補検出部27で行われる候補画像枠の抽出動作と、制御部30の動作を模式的に示したものである。
 この図4には、撮像装置10の光学系11,イメージャ12の動作によりデジタル信号処理部20に入力される撮像画像信号の各フレームFR1,FR2,FR3・・・を示している。候補検出部27は、このような順次入力される連続した各フレームのそれぞれ(或いは間欠的な各フレームについて)について候補画像の検出を行う。例えば図示のように、フレームFR1について、3人の人が存在していた場合、それぞれの顔画像部分を候補画像として抽出し、その候補画像枠E1,E2,E3についての候補画像枠情報を出力する。例えば候補画像枠E1の候補画像枠情報は、例えばこの候補画像枠E1の画像内での位置情報(x,y位置情報、被写体距離情報)、サイズ情報(枠の幅、高さ、ピクセル数)、属性情報等である。
 候補検出部27は、このような候補画像枠情報を、候補画像枠E2,E3についても生成し、制御部30(主要被写体判定部30a)に受け渡す。
 後続のフレームFR2、FR3・・・についても同様に、候補検出部27は候補画像の抽出を行い、それぞれの候補画像枠について、候補画像枠情報を生成して制御部30(主要被写体判定部30a)に受け渡していく。
 一方で制御部30(カメラワーク判定部30b)は、検出情報Icに基づいてカメラワーク(例えばパン、ズーム)を検出し、それに応じて判定開始タイミングを設定する。具体的には判定実行フラグFdonを「1」とする。これに応じて、制御部30(主要被写体判定部30a)は、候補画像枠情報を用いた主要被写体判定処理を実行する。
 制御部30(主要被写体判定部30a)は、各フレームの候補画像枠情報を取り込む度に、各候補画像枠の位置状態として、判定基準点との距離を算出する。
 図5Aに判定基準点SPの例を示している。これは画像中央を判定基準点SPとした例である。判定基準点SPのxy座標値を(Cx,Cy)とする。
 例えばフレームFR1の時点で、候補画像枠E1,E2,E3のそれぞれの候補画像枠情報が取り込まれた場合、制御部30は、図示する各候補画像枠E1,E2,E3の重心Gから判定基準点SPの距離Diff1、Diff2、Diff3を算出する。
 なお、判定基準点SPが画面中央とされるのは一例である。
 例えば図5Bのように、中央よりやや左上方の位置に判定基準点SPを設定してもよい。例えば静止画の構図を考えた場合、このような中央でない位置に主たる被写体を配置するとよい場合が多々考えられるからである。
 この図5Bの場合も、各候補画像枠(例えばE4,E5)と判定基準点SPの距離(例えばDiff4、Diff5)を算出するようにする。
 判定基準点SPは、例えば図5A、図5Bのような位置に固定的に設定していてもよいし、ユーザが表示画面上でのタッチ操作などにより任意に指定できるようにしてもよい。また表示部34の画面上でユーザにいくつかの判定基準点の候補点を提示し、ユーザが選択できるようにしてもよい。さらには、画像内容、画像解析結果などに応じて制御部30が構図などを考慮して最適な位置を判定し、自動設定することも考えられる。
 即ち判定基準点SPについては、 
・画像中央位置、或いは中央よりずれた位置などとして、予め決められた固定的な位置に設定される。
・ユーザが任意に指定する。
・いくつかの候補点をユーザに提示し、ユーザが選択することで設定される。
・制御部30が画像内容に応じて最適位置を判定し、自動的に可変設定する。
などが考えられる。
 候補画像枠E(n)についての位置状態としての距離Diff(n)は、各フレームの時点で求めていく。
 制御部30(主要被写体判定部30a)は、パン動作中に、各候補画像枠E(n)についての位置状態としての距離Diff(n)を監視し、平均的、累積的、又は継続的に判定基準点SPに近い候補画像枠を判定し、それを主要被写体とする。主要被写体判定部30aは、この処理をカメラワーク判定部30bによるパン動作の検知に応じて行う。この動作を図6に示す。
 まず図6Aは、カメラワーク判定部30bによるパン動作の検出及び判定実行フラグFdonの処理を示している。カメラワーク判定部30bは、通常状態(期間tnor)からカメラワーク判定を実行している。ここでいう通常状態とは、ユーザがカメラを通常に持ったり構えたりしている状態をいう。つまり通常状態とはパン、チルト、ズーム、マニュアルフォーカスのいずれも実行していない期間とし、これを説明上、通常期間tnorと呼ぶことする。
 或る時点でユーザが撮像装置10を略水平方向に移動させるパン動作が行われたとする(パン期間tpan)。カメラワーク判定部30bは、パンが開始されてからのパン判定期間Tponにパン動作を検知し、パン実行フラグFponを「1」とする。第1の処理例ではパン実行フラグFponに応じて判定実行フラグFdonを「1」にセットする。
 判定実行フラグFdon=1となることに応じて、主要被写体判定部30aでの主要被写体判定処理が開始される。なお、このタイミングで開始される主要被写体判定処理とは、判定のための実質的な処理を指す。主要被写体判定処理としてのルーチンの起動はそれ以前であっても良い。例えば後述の図8の処理例では、候補画像枠情報の取り込みのみは、判定実行フラグFdon=1となる前から行われている例としている。もちろん候補画像枠情報の取り込みも含めて、判定実行フラグFdon=1となることに応じて開始されるものとしてもよい。
 図6Bは、パン動作中に、仮に候補画像枠E1,E2,E3が、ある期間継続してフレーム(FR1,FR2・・・)内に存在し続けたとして、算出される距離Diff1、Diff2、Diff3の変動の様子を示している。例えば撮像者が撮像装置10で、ある期間、3人の被写体をとらえていた場合を想定している。3人の各人が、それぞれ動いていたり、或いは撮像者が撮像装置10の被写体方向を動かしていたり、手ぶれがあるなどにより、時間軸上では、算出される各距離Diff1、Diff2、Diff3は変動している。
 後述の図8の処理例では、判定基準点SPに近い状態の累積時間で主要被写体判定を行う。このため、「近い/近くない」の判定に、距離閾値Thr-diffを用いる。
 図6Cには、距離Diff1、Diff2、Diff3の各時点での、距離閾値Thr-diff以内か否かの判定結果を示している。距離Diff(n)が距離閾値Thr-diff以下であれば、近い=「1」とされることとする。この判定結果「1」を各時点で累積加算していった値が時間閾値を越えたものが主要被写体と判定される。
 判定開始から判定終了までの期間は具体的な処理例によって異なる。後述の図8の処理例では、距離閾値Thr-diff以下の判定結果「1」の累積加算値は、その時点までの安定的に判定基準点SPに近接した状態を示す累積時間となるが、その累積時間が所定値(後述
のカウント閾値Tht)に達した候補画像が発見された場合が主要被写体判定の終了のタイミングとなる。
 例えば図6Cの例では、候補画像枠E3は、継続して「1(=判定基準点SPに近い)」と判定されるが、この累積加算値が或る所定値に達した時点で、判定が終了され、候補画像枠E3が主要被写体と判定されることとなる。
 具体的な処理例を説明する。まず図7で制御部30(カメラワーク判定部30b)によるカメラワーク判定処理を説明する。これはパン動作中を検出して判定実行フラグFdonをオンする処理となる。
 図7Bはパン動作中であることの検出動作を示している。センサ部14におけるジャイロセンサの出力(検出信号Sg)は、特に大きな動きがなければ基準レベルSc(例えばゼロレベル)近辺となっているが、パン動作中(例えばユーザが撮像装置10を略水平方向に動かしている場合)は、検出信号Sgはある正又は負の或る程度のレベルで略一定の値を継続的に示すことになる。そこで基準レベルScを中心として、正負の値の範囲で閾値範囲Sthを設定する。
 通常期間tnorは、検出信号Sgは基準レベルScの近辺となるが、パン期間tpanでは閾値範囲Sthを越えるレベルが継続して観測されることとなる。
 そこで、検出信号Sgが閾値範囲Sthを越えた状態が、パン判定期間Tponとして設定したある程度の時間以上継続したら、パンが実行されていると判断し、パン実行フラグFponを「1」とする。これに応じて主要被写体判定開始を制御する判定実行フラグFdonを「1」とする。判定実行フラグFdon=1の際に主要被写体判定処理が行われる。
 なお、パン判定期間Tponは、瞬間的に検出信号Sgが高くなった状態をパン動作と誤判定しないために設けられる期間である。つまり検出信号Sgが高い値の状態の継続性をもってパンと判定するための期間である。
 この判定実行フラグFdonの処理が図7Aのように行われる。制御部30(カメラワーク判定部30b)はこの図7Aの処理を繰り返すことでパン動作を検出する。
 制御部30は、ステップF200でセンサ部14のジャイロセンサで検出される角速度情報を検出信号Sgとして取得する。
 ステップF201で制御部30は、Sg>Sc+Sth/2、又はSg<Sc-Sth/2のいずれかが成り立つか否かを判定する。即ち図7Bに示した基準レベルSc、閾値範囲Sthの値を用いて、検出信号Sgが正又は負の値として閾値範囲Sthを越えた値になっているか否かを判定する処理である。
 検出信号Sgが閾値範囲Sthを越えていなければステップF206に進み、カウント値PanOnCntをゼロとし、またパン実行フラグFponをゼロとする。なお、カウント値PanOnCntは、パン判定期間Tponを越えたか否かを判定するためのカウント値である。
 そしてステップF207でパン実行フラグFponの値を判定実行フラグFdonに代入する。つまりこの場合は、判定実行フラグFdon=0となる。
 検出信号Sgが閾値範囲Sthを越えている場合は制御部30はステップF201からF202に進み、カウント値PanOnCntをインクリメントする。
 そしてステップF203で制御部30は、カウント値PanOnCntとパン判定期間Tponを比較する。カウント値PanOnCntが、パン判定期間Tponに達していなければ、ステップF205でパン実行フラグFponをゼロとする。そしてステップF207でパン実行フラグFponの値を判定実行フラグFdonに代入する。つまりこの場合も、判定実行フラグFdon=0である。
 ステップF203でカウント値PanOnCntがパン判定期間Tponに達したと判定された場合、制御部30はステップF204でパン実行フラグFpon=1とする。つまりパン判定期間 Tponの間、継続して検出信号Sgが閾値範囲Sthを越えた状態が確認されたことになり、これをもってパンが実行されていると判定する。
 そしてステップF207でパン実行フラグFponの値を判定実行フラグFdonに代入する。この場合、判定実行フラグFdon=1となる。つまりパン動作中であることで、主要被写体判定処理が開始される状態となる。
 なお、パンが継続されている間は、このステップF203→F204→F207と進む処理が繰り返されることになり、判定実行フラグFdon=1の状態が維持される。
 その後、パン動作が終了すると、ステップF201→F206→F207と進む処理となるため、判定実行フラグFdon=0となる。
 図8に制御部30(主要被写体判定部30a)による主要被写体判定処理を示す。
 この例では、主要被写体判定に関し、制御部30は候補画像枠情報の取り込みについては継続して行っていき、上述の判定実行フラグFdon=1となることに応じて、実質的な判定処理(ステップF105~F115)を開始する処理例としている。
 制御部30は例えば1フレームタイミング毎にステップF101~F104及びF116(判定実行フラグFdon=1の期間はステップF101~F116)の処理を行う。
 制御部30は主要被写体判定処理を開始すると、まず初期設定としてステップF100で変数TSF=0とし、またカウント値Cnt(n)=0とする。
 変数TSFとは、主要被写体設定済みか否かを示すフラグである。TSF=「0」は、主要被写体が未判定の状態を示すこととなる。
 またカウント値Cnt(n)は、図6で説明した距離Diffの距離閾値Thr-diffとの比較判定結果の値を加算するカウンタの値である。
 なお「n」は、自然数1,2,3・・・を表し、カウント値Cnt(n)は、候補画像枠E1,E2,E3のように、検出された候補画像枠E(n)にそれぞれ対応するカウント値としている。例えば3つの候補画像枠E1,E2,E3が検出される場合、カウント値として、Cnt1、Cnt2、Cnt3が用いられる。フローチャートの説明上、カウント値Cnt(n)についての処理とは、例えばCnt1、Cnt2、Cnt3のそれぞれを対象とする処理を示しているものと理解されたい。
 また、同様に距離Diff(n)とは、3つの候補画像枠E1,E2,E3の判定基準点SPからの距離Diff1、Diff2、Diff3を総称して表すものとしており、距離Diff(n)についての処理とは、例えば距離Diff1、Diff2、Diff3のそれぞれについての処理という意味で用いている。
 近接フラグFlg(n)、オフセット値OFS(n)も同様とする。
 また、候補画像枠E(n)は候補画像枠E1,E2,E3・・・を表すが、これは複数フレームにわたって、被写体別に区別されることが望ましい。例えば候補検出部27が顔を抽出する例でいうと、人物A、人物B、人物Cが被写体となっている場合、各フレームにおいて共通に、人物Aの顔画像部分が候補画像枠E1、人物Bの顔画像部分が候補画像枠E2、人物Cの顔画像部分が候補画像枠E3というようにされる。もし途中の或るフレームで、人物Dのみが被写体に入っている状態になったとしても、人物Dの顔画像部分は候補画像枠E4とされる。従って候補検出部27は、単に「顔」を検出するのみでなく、個体(個人)判別も行うこととするとよい。
 ステップF101で制御部30は、候補検出部27から或るフレームについての候補画像枠情報を取り込む。例えば各候補画像枠E(n)について、位置情報として、画像データの二次元(x-y)座標値としてのx値、y値や、サイズ情報として候補画像枠の幅w、高さhの情報を取得する。

 なお、候補画像枠情報には被写体距離(上記二次元(x-y)座標平面に直交するz軸方向の値で表される、カメラ位置に対する被写体の相対的な距離:z値)やピクセル数等も含まれていてもよい。
 ステップF102で制御部30は、各候補画像枠E(n)について、重心Gの座標を算出する。
 例えば候補画像枠情報によっては、候補画像枠のx,y座標値として、方形の候補画像枠の左上頂点の座標値が与えられるとする。このx,y座標値を(E(n)_x,E(n)_y)とする。また図5Aに示したように、x,y座標は画面平面の左上を原点O(x,y座標値が(0,0))とする。
 また候補画像枠E(n)の幅wをE(n)_w、高さhをE(n)_hとする。
 そして候補画像枠E(n)の重心Gの座標値を(E(n)_cx,E(n)_cy)とすると、重心Gの座標値は、
 E(n)_cx=E(n)_cx+E(n)_w/2
 E(n)_cy
=E(n)_cy+E(n)_h/2
 として求められる。
 ステップF103で制御部30は、各候補画像枠E(n)の重心Gから、判定基準点SPまでの距離Diff(n)を算出する。判定基準点SPの座標値(Cx,Cy)として、
 Diff(n)=√{(E(n)_cx-Cx)2+(E(n)_cy-Cy)2}
で求められる。
 ステップF104で制御部30は、判定実行フラグFdon及び変数TSFを確認する。変数TSF=0であって、かつ判定実行フラグFdon=1であればステップF105に進む。これ以外の場合は実質的な判定処理(F105~F115)を行わずにステップF116に進む。
 例えば主要被写体判定が行われた後であったり、動作モード設定等で主要被写体判定処理が不要な期間などは、変数TSF=1とされていることで、主要被写体判定処理が行われない。
 またユーザ操作や自動的な起動判断で、必要時に図6の主要被写体判定処理を実行するようにする場合などではステップF104の処理は不要としてもよい。
 さらに本例の場合、パン動作中に主要被写体判定を行うものとするため、判定実行フラグFdon=0であるときは、主要被写体判定処理を行わない。
 変数TSF=0であってかつ判定実行フラグFdon=1である場合、制御部30はステップF105、F106、F107で、各候補画像枠E(n)が距離Diff(n)に関して所定の条件を満たしているか否かを確認する。
 即ち判定基準点SPまでの距離Diff(n)が、判定基準点SPに近いか近くないかを、距離閾値Thr-diffを用いて判定する。
 このため制御部30はステップF105で、各候補画像枠E(n)の判定基準点SPまでの距離Diff(n)と距離閾値Thr-diffを比較し、Diff(n)<Thr-diffであればステップF106で近接フラグFlg(n)=1(近い)とする。またDiff(m)<Thr-diffでなければステップF107で近接フラグFlg(n)=0(近くない)とする。
 近接フラグFlg(n)は図6Cで説明した「1」「0」の判定結果に相当する。
 続いてステップF108、F109、F110で制御部30は、近接フラグFlg(n)が「1」であるか「0」であるかによりカウント処理用のオフセット値OFS(n)を設定する。
 例えば制御部30は、近接フラグFlg(n)=1であればステップF109でオフセット値OFS(n)=αとする。αはカウンタをインクリメントする所定値である。例えばα
=1とする。
 また制御部30は、近接フラグFlg(n)=0であればステップF110でオフセット値OFS(n)=βとする。βはカウント値をキープ、又はカウント値をデクリメントするための所定値である。カウント値をキープする場合は、β=0とする。カウンタをデクリメントする場合は、例えばβ=-1とする。
 そしてステップF111で制御部30は、判定基準点SPへ近接した状態が安定的に観測されているか否かの判定のためのカウンタのカウント値CNT(n)の処理を行う。具体的には、
 CNT(n)=CNT(n)+OFS(n)
とする。
 上記のステップF109でα=1とされて、オフセット値OFS(n)が設定される場合、カウント値CNT(n)はインクリメントされる。
 ステップF110でβ=0(又はβ=-1)とされて、オフセット値OFS(n)が設定される場合、カウント値CNT(n)はキープ(又はデクリメント)される。
 このようなカウント値CNT(n)は、近接状態が検出された際にインクリメントされるため、候補画像枠E(n)の被写体が、判定基準点SPに近い状態が検出された期間の長さに相当する値となる。つまりカウント値Cnt(n)は、候補画像枠E(m)が判定基準点SPに「近い」状態の頻度を表す値となる。
 次にステップF112で制御部30は、各候補画像枠E(n)のカウント値Cnt(n)が、カウント閾値Thtに達しているか否かを確認する。
 Cnt(n)≧Thtでなければ、つまり各候補画像枠E(n)のカウント値Cnt(n)のいずれもが、カウント閾値Thtに達していなければ、ステップF113で変数TSF=0のままとし、ステップF116で判定終了とは判断せず、ステップF101に戻る。この場合、次のフレームについて入力される候補画像枠情報に基づいて、ステップF101以降の処理を上記同様に実行していく。
 なお、ステップF116は、変数TSF=0であれば、まだ主要被写体の判定は完了していないとして判定処理継続とし、変数TSF=1であれば、主要被写体判定は完了したとする。先に述べたステップF104で変数TSF=1が検出された場合、そのまま判定終了となる。
 詳しい説明は省略するが、本例の自動的な主要被写体判定とは並行して、例えばユーザが主要被写体を表示部34の画面上のタッチ操作、或いは被写体を画面上に所定位置に合わせてシャッタボタンを半押しするなどの操作として、主要被写体選択ができるようにしてもよい。図8の処理の実行中に、ユーザがこのような指定操作を行った場合、ユーザの操作を優先することが好ましい。そこで、そのようなマニュアル操作として主要被写体設定が行われた場合、変数TSF=1とする。この場合、図8の処理はステップF104,F116の判断により、処理を終了(中断終了)することとすればよい。
 主要被写体判定は、或る時間長をもって判定されるため、ある程度の時間(フレーム数)での候補画像枠情報についての処理を経なければ、上記のようにステップF116からステップF101に戻って処理が繰り返される。
 ここで、例えば図6Bで示したように或る候補画像枠E3が、非連続的でもよいが、複数のフレームのうちで高い頻度で、撮像画像上で判定基準点SPに近い位置に存在する状況があったとする。すると時間が進むにつれ、候補画像枠E3のカウント値Cnt3のステップF111でのインクリメントの機会が多く発生し、カウント値Cnt3が、カウント値Cnt1、Cnt2よりも早く進む。
 すると或る時点で、カウント値Cnt3がカウント閾値Thtに最初に到達することとな
る。
 このような場合、制御部30は処理をステップF112からF114に進める。
 ステップF114で制御部30は、カウント値Cnt(n)がカウント閾値Thtに達した候補画像枠E(n)を主要被写体と判定し、主要被写体設定を行う。そして変数TSF=1とする。つまり、パン動作中に、安定的に判定基準点SP(例えば画像の中央)に近い状態にある候補画像の被写体が主要被写体に設定されることとなる。
 そしてステップF115で主要被写体情報が出力され、例えば主要被写体情報を用いるアプリケーションプログラムや制御プログラムに受け渡される。
 この場合ステップF116で判定終了とされる。即ち例えば候補画像枠E1が主要被写体と設定されるなどして、図8の主要被写体判定処理が完了することとなる。
 なお、この処理例では変数TSF=1となるまで続けられることになるが、パン動作が終了されると実質的な判定処理(ステップF105~F115)は終了となる。
 図7Aのカメラワーク判定処理は継続して行われており、パン動作が終了されるとステップF206でパン実行フラグFpon=0となり、ステップF207で判定実行フラグFdon=0とされる。つまり図7Bのようにパン後に通常期間tnorに至ると判定実行フラグFdon=0となる。その場合、図8の処理はステップF104からF116に進むこととなるためである。
 このためパン動作が終了されるまでの間にカウント値Cnt(n)がカウント閾値Thtに達した候補画像枠E(n)が観測されない場合は、主要被写体判定はできなかったということとなる。
 なお、図8には示していないが、このようにパン動作が終了されて判定実行フラグFdon=0となったことで判定が行われなかった場合は、カウント値Cnt(n)はゼロにリセットするとよい。次のパン期間にカウント値を引き継がないようにするためである。一方で、候補画像枠E(n)の個人対応が継続できるのであれば、カウント値Cnt(n)はそのまま維持しておき、次のパン期間にカウント値を引き継がせることも考えられる。
 以上の第1の処理例によれば、パン動作中に判定基準点SPに近い被写体が主要被写体と判定される。ユーザは撮像したい被写体を撮像画像内に捉えながら撮像装置10をパンニングさせることが多い。例えば動いている被写体を追っているような場合である。そのためパン中に判定基準点SPに近い被写体は、ユーザが目的とする被写体である確率が高く、主要被写体判定として適切な判定が行われる確率を高めることができる。またこのような処理により、撮像者にとって適切な主要被写体判定が自動的に行われることになり、撮像時の操作性は格段に向上する。撮像操作に不慣れなユーザであっても、そのような主要被写体判定により、自動的にその主要被写体に対してフォーカス制御が行われたり、露光制御が行われるなどすれば、高品位な静止画/動画撮像が可能となる。
 なお、主要被写体判定処理としての具体的処理例は他に多様に考えられる。
 例えば図8のステップF110でβ=0とすると、カウント値CNT(n)は、累積的に判定基準点SPに近い状態が検出された回数の累積値に相当するものとなる。
 また図8のステップF110でβ=-1とすると、カウント値CNT(n)は、平均的に判定基準点SPに近い状態が検出された値とみることができる。
 つまりこのような場合、ステップF112の判定は、累積的或いは平均的に判定基準点SPに近い状態の判定となる。
 これに対して、所定期間以上、継続的に判定基準点SPに近い状態にあることを条件としてもよい。そのためには、ステップF108で近接フラグFlg(n)=1とされた場合にはカウント値CNT(n)をインクリメントし、ステップF108で近接フラグFlg(n)=0とされた場合にはカウント値CNT(n)をゼロにリセットする。すると、近接フラグFlg(n)=1の状態が継続的に所定時間に達した場合、ステップF112でカウント値Cn t(n)がカウント閾値Thtに達して、候補画像枠E(n)が主要被写体と判定されることになる。
 継続的に判定基準点SPに近い被写体を主要被写体とすることによれば、例えば一時的に中央に位置した被写体を主要被写体と判定することを避けることができる。従って主要被写体判定を慎重に行うには適している。逆に言えば、主要被写体の判定を短時間で行いたい場合や、なるべく主要被写体が設定されやすくしたい場合は、平均的或いは累積的に判定基準点SPに近い被写体を主要被写体と判定することが好適である。
 なお、以上の累積判断、平均判断、継続判断の場合では、それぞれカウント閾値Thtに相当する具体的な判断値は異なることが適切である。
 また判定基準点SPに近い状態の算出に、重み付けを行ってもよい。例えば主要被写体判定処理の実行期間の後の時点ほど、判定基準点SPに近いことの価値を重くするなどである。
 一般に撮像者が被写体を狙ってカメラワークを行う場合、最初は主役としたい被写体を画像中央などの所望の位置にとらえられず、撮像者が徐々にカメラの向きを調整していく。例えばパンニング過程で被写体を画像中央に捉えていく。このことを考慮すると、最初は、撮像者が「主要被写体」と念頭においている被写体は、時間が進むにつれ徐々に画像中央にとらえられるようになる。
 従って、主要被写体判定処理の実行中に、時間が進むほど、判定基準点SPに近いということの価値を重くすることは、撮像者の考えに合致した主要被写体判定ができる可能性を高めることになる。具体的にはステップF109でオフセット値OFS(n)に代入する値αを段階的に大きくする。このようにすることで、撮像者の考えに合致した主要被写体判定ができる可能性を高めることになる。
 また、上述の処理例では、候補画像枠の位置状態としては、設定した判定基準点SPとの位置関係としたが、判定基準領域との位置関係としてもよい。
 例えば画像中央などの正方形や円形等の領域を設定し、それを判定基準領域とする。各候補画像枠E(n)の判定基準領域との位置関係とは、例えば、
・重心が判定基準領域に入っているか否か
・全体が判定基準領域に入っているか否か
・少なくとも一部が判定基準領域に入っているか否か
・判定基準領域の外縁との距離が所定以内か否かなどとする。
 このような位置関係の条件が、平均的、累積的、又は継続的に満たされる候補画像枠E(n)を主要被写体と判定してもよい。
<5.第2の処理例(パン後判定)>
 第2の処理例として、パン動作後に主要被写体判定を実行する例を説明する。なお、以降第2~第8の処理例について、主要被写体判定処理は上記図8と同様として説明を省略し、主にカメラワーク判定処理について述べることとする。
 第2の処理例では、制御部30(カメラワーク判定部30b)が、ユーザが撮像装置10を略水平方向に移動させるパン動作を終了させたことを判定する。そしてそのパン動作終了後に、主要被写体判定部30aで主要被写体判定処理が行われるようにする。
 図9はパン後判定動作を示している。
 パン動作中の判定、即ちパン実行フラグFponについては、上記第1の処理例と同様に、ジャイロセンサからの検出信号Sgを閾値範囲Sthと比較することで設定する。

 ここで、パン実行フラグFponについて、現在の値と1つ前の値を比較(減算)して、パン遷移フラグFp_transを設定する。パン実行フラグFponは「1」又は「0」であるため、このパン実行フラグFponの1つ前の時点の値から現在値とを減算すると、「0」「+1」「-1」のいずれかとなる。つまりパン実行フラグFponが立ち上がる時点では0-1でパン遷移フラグFp_trans=-1となり、パン実行フラグFponが立ち下がる時点では1-0でパン遷移フラグFp_trans=+1となる。それ以外は0-0、又は1-1でパン遷移フラグFp_trans=0となる。
 つまりパン遷移フラグFp_transは、パン実行フラグFponの微分情報となり、具体的にはパンの開始、終了を検出した情報となる。そしてこの場合、パン遷移フラグFp_trans=+1がパン終了時点を示す情報となる。
 判定実行フラグFdonは、パン遷移フラグFp_trans=+1となった時点から判定開始待機期間TdonStartを経た時点で「1」とされる。このように判定実行フラグFdon=1となったことで、実質的な主要被写体判定処理が開始される。
 また、上限期間TdonEndが設定され、判定実行フラグFdonは、パン遷移フラグFp_trans=+1となった時点から上限期間TdonEndを経た時点で「0」とされる。このように判定実行フラグFdon=0とされることで、実質的な主要被写体判定処理を行う期間が制限される。
 判定開始待機期間TdonStart、及び上限期間TdonEndは例えば固定値とされる。
 このようなパン後判定処理が図10のように行われる。制御部30(カメラワーク判定部30b)はこの図10の処理を繰り返して判定実行フラグFdonを設定していく。
 図10においてステップF200~F206は、図7AのステップF200~F206と同様である。即ちジャイロセンサの検出信号Sgに応じてパン実行フラグFponを設定する。
 ステップF210では、パン遷移フラグFp_transの設定を行う。即ち、
 パン遷移フラグFp_trans=(前回パン実行フラグFpon_1)-(パン実行フラグFpon)
 とする。前回パン実行フラグFpon_1は、前回のステップF210の時点でのパン実行フラグFponの値である。従ってパン遷移フラグFp_transは、図9で説明した「0」「+1」「-1」のいずれかとなる。
 また次回のステップF210において前回パン実行フラグFpon_1として用いるため、今回のパン実行フラグFponの値を前回パン実行フラグFpon_1に代入する。
 ステップF211で制御部30は、パン遷移フラグFp_trans=1、又はカウントフラグFcntup=1のいずれかが満たされるか否かを判定する。カウントフラグFcntupは、ステップF212で「1」とされ、ステップF220で「0」とされる、処理分岐制御のためのフラグである。
 このカウントフラグFcntupは、パン遷移フラグFp_transが「1」となってから上限期間TdonEndに達するまでの期間のみ「1」である。従ってパン遷移フラグFp_transが「1」となる以前はカウントフラグFcntupは「0」である。
 カウントフラグFcntup=0であってパン遷移フラグFp_transが「0」又は「-1」の場合は、制御部30はステップF214に進み、カウント値Fdoncntをゼロにリセットし、またカウントフラグFcntupを「0」とする。カウント値Fdoncntは、判定実行フラグFdonを「1」とする期間を制御するためのカウンタの値である。
 そして制御部30はステップF217で判定実行フラグFdon=0と設定する。
 図9に示したように、パン遷移フラグFp_trans=1となるのは、パン実行フラグFponが立ち下がったとき、つまりパン動作が終了された時点である。

 この場合、パン遷移フラグFp_trans=1であることで制御部30はステップF211からF212に進み、カウント値Fdoncntをインクリメントする。またカウントフラグFcntup=1とする。
 ステップF213では、カウント値Fdoncntについて、図9に示した判定開始待機期間TdonStartと比較する。
 パン遷移フラグFp_trans=1となった当初は、カウント値Fdoncntは判定開始待機期間TdonStartを越えていないため、ステップF215に進み、判定実行フラグFdon=0とされる。
 次の時点の図10の処理では、パン遷移フラグFp_transは「0」に戻るが、カウントフラグFcntupは「1」となっているため、制御部30は前回と同様にステップF211からF212に進み、カウント値Fdoncntをインクリメントし、またカウントフラグFcntup=1を継続することとなる。
 つまりパン遷移フラグFp_trans=1となった以降は、カウントフラグFcntup=1であることで、連続してステップF212へ処理が進む状態とされる。
 或る時点のステップF213で、カウント値Fdoncntが判定開始待機期間TdonStartを越えると、制御部30はステップF216へ進み、カウント値Fdoncntと上限期間TdonEndを比較する。当初は、カウント値Fdoncntは上限期間TdonEndに達していないため、制御部30はステップF218に進んで、判定実行フラグFdon=1とする。
 これにより、図8に示した主要被写体判定処理では、実質的な判定処理(ステップF105~F115)が開始されることとなる。
 その後、図10の処理は、カウントフラグFcntup=1が継続されるため、ステップF212でカウント値Fdoncntがインクリメントされながら、ステップF213→F216へ進む状態が繰り返される。カウント値Fdoncntが上限期間TdonEndに達するまでは、ステップF218で判定実行フラグFdon=1が維持される。
 その後、或る時点のステップF216で、カウント値Fdoncntが上限期間TdonEndを越える。この場合、制御部30はステップF219に進んで、判定実行フラグFdon=0とする。従って、もし図8の処理で主要被写体判定処理が完了していなかったとしても、この時点で実質的な判定処理(ステップF105~F115)は終了されることとなる。
 またステップF220でカウントフラグFcntupを「0」とする。
 このような処理で図9に示した判定実行フラグFdonが生成され、その判定実行フラグFdonに基づいて主要被写体判定処理が実行されることとなる。
 なお、ステップF219で判定実行フラグFdon=0とされた後は、次にパン遷移フラグFp_trans=1となるまでは、ステップF214,F217の処理が行われることとなり、判定実行フラグFdon=0の状態が継続する。
 この第2の処理例の場合、パン後の期間に主要被写体設定が行われることになるが、パン後の期間というのは、撮像者がパンニングによって目的とする被写体を捉えた直後の期間と推定できる。すると、目的の被写体が、画像データに存在する可能性が高い。そこで当該期間に、図8の処理で判定基準点SPに近い状態で安定している被写体を主要被写体と判定することで、確度の高い主要被写体設定が実現される。また、自動的な主要被写体判定により、ユーザの操作性向上も実現される。
 また、図10のカメラワーク判定処理によれば、判定実行フラグFdonはパン遷移フラグFp_trans=1となってから判定開始待機期間TdonStartを経た後に「1」とされる。これは、パンニング直後は、撮像画像が大きく揺らぐことから、その期間に主要被写体判定を行うことを控えることになる。このような判定開始待機期間TdonStartを適切に設定する ことで、主要被写体判定の確度をより高めることができる。
 なお、場合によっては、判定開始待機期間TdonStart=0とすることも考えられる。このようにすれば、パン遷移フラグFp_trans=1となった時点、つまりパン終了が検出された時点から、主要被写体判定処理が実行されることとなる。例えば三脚や雲台に乗せた撮像装置10でパンニングした場合などで、パン直後に画像の揺れが少ないと考えられる場合などは、このようにパン後に即座に主要被写体判定を実行してもよい。
 また図10のカメラワーク判定処理によれば、上限期間TdonEndを設けて、主要被写体判定が行われる期間を制限している。パン後において、あまり長い期間を主要被写体判定処理に充てることは、パンによる目的被写体への追尾直後という動作状況から離れることとなり、またユーザの意志によって主要被写体が画像内に存在しなくなる可能性も高くなる。そこで、パン後としての期間をある程度限定することで、パンによって追尾された被写体を、主要被写体と判定する確率が高まるようにしている。
 なおもちろん、上限を設けず、主要被写体判定がなされるまで判定実行フラグFdon=1の状態を維持させておく処理例も考えられる。
<6.第3の処理例(ズーム動作判定)>
 第3の処理例を説明する。これはズーム動作中に主要被写体判定を実行する例である。即ちカメラワーク判定部30bは、ユーザが撮像装置10のズーム動作を実行させている状況を判定する。そしてそのズーム動作中に、主要被写体判定部30aで主要被写体判定処理が行われるようにする。
 図11Bはズーム動作中であることの検出動作を示している。ズーム動作は、ユーザが操作部35のズームレバーを操作することで検出できる。ユーザがズームレバーを操作すると、制御部30は光学系駆動部13を制御してズームレンズ移動を実行させる。そこで制御部30は、ズームレバーが継続して操作されている期間を、ズーム動作中と判定する。
 ユーザがズームレバーを操作すると、撮像装置10の動作としては図11Bの通常期間tnorからズーム期間tzmに移行する。即ちズームレンズ移動が開始される。制御部30(カメラワーク判定部30b)は、ズームレバー操作が検出される状態が、ズーム判定期間Tzonとして設定したある程度の時間以上継続したら、ズームが実行されていると判断し、ズーム実行フラグFzonを「1」とする。これに応じて主要被写体判定開始を制御する判定実行フラグFdonを「1」とする。判定実行フラグFdon=1の際に主要被写体判定処理が行われる。
 なお、ズーム判定期間Tzonは、継続的なズーム動作が行われていることを判定するために設けられる期間である。つまりユーザがわずかな時間だけズームレバーを操作したような場合を除外するための期間である。
 ズーム動作に応じて判定実行フラグFdonを設定するため、制御部30(カメラワーク判定部30b)は図11Aの処理を繰り返し実行する。
 制御部30は、ステップF300でズームレバーの操作状態を取得し、変数Szoomを設定する。例えばズームレバーが操作されていれば変数Szoom=1とし、操作されていなければ変数Szoom=0とする。
 ステップF301では、変数Szoomを参照して、現在ズームレバーが押されている状態であるか否か、つまりズーム動作が実行されているか否かを判定する。
 変数Szoom=0で現在ズームレバーが押されていなければ制御部30はステップF306に進み、カウント値ZoomOnCntをゼロとし、またズーム実行フラグFzonをゼロとする。なお、カウント値ZoomOnCntは、ズーム判定期間Tzonを越えたか否かを判定するためのカ
ウント値である。
 そしてステップF307でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。つまりこの場合は、判定実行フラグFdon=0となる。
 変数Szoom=1で現在ズームレバーが押されているのであれば制御部30はステップF301からF302に進み、カウント値ZoomOnCntをインクリメントする。
 そしてステップF303で制御部30は、カウント値ZoomOnCntとズーム判定期間Tzonを比較する。カウント値ZoomOnCntがズーム判定期間Tzonに達していなければ、ステップF305でズーム実行フラグFzonをゼロとする。そしてステップF307でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。この場合も、判定実行フラグFdon=0である。
 ステップF303でカウント値ZoomOnCntがズーム判定期間Tzonに達したと判定された場合、制御部30はステップF304でズーム実行フラグFzon=1とする。つまりズーム判定期間Tzonの間、継続してズーム中であることが確認されたことになり、これをもって継続的にズームが実行されていると判定する。
 そしてステップF307でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。この場合、判定実行フラグFdon=1となる。
 このような処理で判定実行フラグFdonが設定され、その判定実行フラグFdonに基づいて主要被写体判定処理が実行されることとなる。
 なお、その後もズームが継続されている間は、このステップF303→F304→F307と進む処理が繰り返されることになり、判定実行フラグFdon=1の状態が維持される。その後、ズーム動作が終了すると、ステップF301→F306→F307と進む処理となるため、判定実行フラグFdon=0となる。
 図8の主要被写体判定処理では、判定実行フラグFdon=1の期間に実質的な主要被写体判定が行われるため(図8のステップF104参照)、主要被写体判定はズームが継続される期間を限度として実行されることとなる。
 以上の第3の処理例によれば、ズーム動作中に判定基準点SPに近い被写体が主要被写体と判定される。ユーザは撮像したい被写体を撮像画像内に捉えながら、ズーム操作を行うことが多い。つまりズーム中に判定基準点SPに近い被写体は、ユーザが目的とする被写体であることが多く、ユーザが望む主要被写体判定結果を得られる確率を高めることができる。また、自動的な主要被写体判定により、ユーザの操作性向上も実現される。
<7.第4の処理例(ズーム後判定)>
 第4の処理例として、ズーム動作後に主要被写体判定を実行する例を説明する。この場合、制御部30(カメラワーク判定部30b)が、ユーザが撮像装置10のズーム動作を終了させたことを判定する。そしてそのズーム動作終了後に、主要被写体判定部30aで主要被写体判定処理が行われるようにする。
 図12はズーム後判定動作を示している。
 ズーム動作中の判定、即ちズーム実行フラグFzonについては、上記第3の処理例と同様に、ユーザのズームレバーの継続的な操作の検出によって設定する。
 ここで、ズーム実行フラグFzonについて、現在の値と1つ前の値を比較(減算)して、ズーム遷移フラグFz_transを設定する。ズーム実行フラグFzonは「1」又は「0」であるため、このズーム実行フラグFzonの1つ前の時点の値から現在値とを減算すると、「0」「+1」「-1」のいずれかとなる。つまりズーム実行フラグFzonが立ち上がる時点では 0-1でズーム遷移フラグFz_trans=-1となり、ズーム実行フラグFzonが立ち下がる時点では1-0でズーム遷移フラグFz_trans=+1となる。それ以外は0-0、又は1-1でズーム遷移フラグFz_trans=0となる。
 つまりズーム遷移フラグFz_transは、ズーム実行フラグFzonの微分情報となり、具体的には継続的なズーム動作の開始、終了を検出した情報となる。そしてこの場合、ズーム遷移フラグFz_trans=+1がズーム終了時点を示す情報となる。
 判定実行フラグFdonは、ズーム遷移フラグFz_trans=+1となった時点から判定開始待機期間TdonStartを経た時点で「1」とされる。このように判定実行フラグFdon=1となったことで、実質的な主要被写体判定処理が開始される。
 また、上限期間TdonEndが設定され、判定実行フラグFdonは、ズーム遷移フラグFz_trans=+1となった時点から上限期間TdonEndを経た時点で「0」とされる。このように判定実行フラグFdon=0とされることで、実質的な主要被写体判定処理を行う期間が制限される。判定開始待機期間TdonStart、及び上限期間TdonEndは例えば固定値とされる。
 このようなズーム後判定処理が図13のように行われる。制御部30(カメラワーク判定部30b)はこの図13の処理を繰り返して判定実行フラグFdonを設定していく。
 図13においてステップF300~F306は、図11AのステップF300~F306と同様である。即ちズームレバーのズーム判定期間Tzonを越える継続的な操作を検出した場合にズーム実行フラグFzon=1とし、該検出前、及びズームレーバー非操作時にズーム実行フラグFzon=0とする処理である。
 ステップF310では、ズーム遷移フラグFz_transの設定を行う。即ち、
 ズーム遷移フラグFz_trans=(前回ズーム実行フラグFzon_1)-(ズーム実行フラグFzon)
 とする。前回ズーム実行フラグFzon_1は、前回のステップF310の時点でのズーム実行フラグFzonの値である。従ってズーム遷移フラグFz_transは、図12で説明した「0」「+1」「-1」のいずれかとなる。
 また次回のステップF310において前回ズーム実行フラグFzon_1として用いるため、今回のズーム実行フラグFzonの値を前回ズーム実行フラグFzon_1に代入する。
 ステップF311で制御部30は、ズーム遷移フラグFz_trans=1、又はカウントフラグFcntup=1のいずれかが満たされるか否かを判定する。カウントフラグFcntupは、ステップF312で「1」とされ、ステップF320で「0」とされる、処理分岐制御のためのフラグである。
 このカウントフラグFcntupは、ズーム遷移フラグFz_transが「1」となってから上限期間TdonEndに達するまでの期間のみ「1」である。従ってズーム遷移フラグFz_transが「1」となる以前はカウントフラグFcntupは「0」である。
 カウントフラグFcntup=0であってズーム遷移フラグFz_transが「0」又は「-1」の場合は、制御部30はステップF314に進み、カウント値Fdoncntをゼロにリセットし、またカウントフラグFcntupを「0」とする。カウント値Fdoncntは、判定実行フラグFdonを「1」とする期間を制御するためのカウンタの値である。
 そして制御部30はステップF317で判定実行フラグFdon=0と設定する。
 図12に示したように、ズーム動作が終了されズーム実行フラグFzonが立ち下がるとズーム遷移フラグFz_trans=1となる。
 この場合、ズーム遷移フラグFz_trans=1であることで制御部30はステップF311からF312に進み、カウント値Fdoncntをインクリメントする。またカウントフラグFcntup=1とする。 
 ステップF313では、カウント値Fdoncntについて、図12に示した判定開始待機期間TdonStartと比較する。
 ズーム遷移フラグFz_trans=1となった当初は、カウント値Fdoncntは判定開始待機期間TdonStartを越えていないため、ステップF315に進み、判定実行フラグFdon=0とされる。
 次の時点の図13の処理では、ズーム遷移フラグFz_transは「0」に戻るが、カウントフラグFcntupは「1」となっているため、制御部30は前回と同様にステップF311からF312に進み、カウント値Fdoncntをインクリメントし、またカウントフラグFcntup=1を継続することとなる。
 つまりズーム遷移フラグFz_trans=1となった以降は、カウントフラグFcntup=1であることで、連続してステップF312へ処理が進む状態とされる。
 或る時点のステップF313で、カウント値Fdoncntが判定開始待機期間TdonStartを越えると、制御部30はステップF316へ進み、カウント値Fdoncntと上限期間TdonEndを比較する。当初は、カウント値Fdoncntは上限期間TdonEndに達していないため、制御部30はステップF318に進んで、判定実行フラグFdon=1とする。
 これにより、図8に示した主要被写体判定処理では、実質的な判定処理(ステップF105~F115)が開始されることとなる。
 その後、図13の処理は、カウントフラグFcntup=1が継続されるため、ステップF312でカウント値Fdoncntがインクリメントされながら、ステップF313→F316へ進む状態が繰り返される。カウント値Fdoncntが上限期間TdonEndに達するまでは、ステップF318で判定実行フラグFdon=1が維持される。
 その後、或る時点のステップF316で、カウント値Fdoncntが上限期間TdonEndを越える。この場合、制御部30はステップF319に進んで、判定実行フラグFdon=0とする。従って、もし図8の処理で主要被写体判定処理が完了していなかったとしても、この時点で実質的な判定処理(ステップF105~F115)は終了されることとなる。
 またステップF320でカウントフラグFcntupを「0」とする。
 このような処理で図12に示した判定実行フラグFdonが生成され、その判定実行フラグFdonに基づいて主要被写体判定処理が実行されることとなる。
 なお、ステップF319で判定実行フラグFdon=0とされた後は、次にズーム遷移フラグFz_trans=1となるまでは、ステップF314,F317の処理が行われることとなり、判定実行フラグFdon=0の状態が継続する。
 この第3の処理例の場合、ズーム後の期間に主要被写体設定が行われることになるが、ズーム後の期間というのは、撮像者が目的とする被写体に対してズーミングを行って画角を設定した直後の期間と推定でき、目的の被写体が、画像データに存在する可能性が高い。そこで当該期間に、図8の処理で判定基準点SPに近い状態で安定している被写体を主要被写体と判定することで、確度の高い主要被写体設定が実現される。また、自動的な主要被写体判定により、ユーザの操作性向上も実現される。
 なお図13のカメラワーク判定処理によれば、判定実行フラグFdonはズーム遷移フラグFz_trans=1となってから判定開始待機期間TdonStartを経た後に「1」とされる。これは、ユーザのズーム操作直後は、撮像画像の多少の揺らぎ(操作による手ぶれ)があることを考慮して、その期間に主要被写体判定を行うことを控える意味がある。
 このような判定開始待機期間TdonStartを適切に設定することで、主要被写体判定の確度をより高めることができる。なお、上記第2の処理例でパン遷移フラグFp_trans=1の後にも判定開始待機期間TdonStartを用いたが、パン後の撮像画像の揺らぎより、ズーム
後の撮像画像の揺らぎの方が小さいと考えられる。そこで、この第4の処理例の場合の判定開始待機期間TdonStartは、第2の処理例の判定開始待機期間TdonStartよりも短く設定することが好ましい。
 なお、場合によっては、判定開始待機期間TdonStart=0とすることも考えられる。このようにすれば、ズーム遷移フラグFz_trans=1となった時点、つまりズーム終了が検出された時点から、主要被写体判定処理が実行されることとなる。主要被写体判定を早く実行させたい場合に好適である。
 また図13のカメラワーク判定処理によれば、上限期間TdonEndを設けて、主要被写体判定が行われる期間を制限している。ズーム後において、あまり長い期間を主要被写体判定処理に充てることは、ズーミングによって目的被写体へのズーム画角調整という動作状況から離れることとなり、主要被写体が判定基準点SPに近い位置に存在する確度が低くなる。そこで、ズーム後としての期間をある程度限定することで主要被写体判定の確度が高まるようにしている。
 なおもちろん、上限を設けず、主要被写体判定がなされるまで判定実行フラグFdon=1の状態を維持させておく処理例も考えられる。
<8.第5の処理例(パン後ズーム動作判定)>
 第5の処理例として、パン動作後に引き続きズーム動作が行われた場合に、そのズーム動作中に主要被写体判定を実行する例を説明する。
 図14にパン後ズーム動作判定の動作を示している。
 まずパン動作の終了の判定は第2の処理例で説明した考え方を用いる。即ちパン実行フラグFponについては、第1の処理例と同様に、ジャイロセンサからの検出信号Sgと閾値範囲Sthとの比較結果に基づいて設定する。そしてパン実行フラグFponについて、現在の値と1つ前の値を比較(減算)して、パン遷移フラグFp_transを設定する。パン遷移フラグFp_trans=+1がパン終了時点を示す情報となる。
 次に、このパン終了時点から、例えば固定値とされる移行限度期間Tpan_zoom内にズーム動作が検知されるか否かを判定する。移行限度期間Tpan_zoom内にズーム動作が検知されない場合は、パンからズームへの連続的な動作が行われなかったと判定し、判定実行フラグFdonは「1」としない。即ち主要被写体判定は行わない。
 ズーム動作の検知は、第3の処理例で説明した考え方を用いる。即ちズームレバー操作が検出される状態が、ズーム判定期間Tzonとして設定したある程度の時間以上継続したら、ズームが実行されていると判断し、ズーム実行フラグFzonを「1」とする。これに応じて主要被写体判定開始を制御する判定実行フラグFdonを「1」とする。判定実行フラグFdon=1の際に主要被写体判定処理が行われる。
 このようにパン後ズーム動作判定によって判定実行フラグFdonを設定するため、制御部30(カメラワーク判定部30b)は図15,図16の処理を繰り返し実行する。
 図15のステップF350~F357は、図10のステップF200~F206、F210と同様であるため重複説明を避けるが、パン遷移フラグFp_transを設定し、パン遷移フラグFp_trans=+1となるパン終了時点を検出する処理である。
 ステップF358で制御部30は、パン遷移フラグFp_trans=1、又はカウントフラグFpe_cntup=1のいずれかが満たされるか否かを判定する。カウントフラグFpe_cntupは、ステップF359で「1」とされる、処理分岐制御のためのフラグである。具体的にはパン終了時点で「1」とされ、以降ステップF359,F362が実行されるようにするフラグである。

 カウントフラグFpe_cntup=0であってパン遷移フラグFp_transが「0」又は「-1」の場合、つまりパン終了が検出されるまでは、制御部30はステップF358からF360に進み、カウント値PanEndCntをゼロにリセットし、またカウントフラグFpe_cntupを「0」とする。カウント値PanEndCntは、図14に示した移行限度期間Tpan_zoomを計数するカウンタの値である。
 そして制御部30はステップF361で判定実行フラグFdon=0と設定する。
 図14に示したように、パン動作が終了された時点でパン遷移フラグFp_trans=1となる。この場合、制御部30はステップF358からF359に進み、カウント値PanEndCntをインクリメントする。つまり移行限度期間Tpan_zoomの計数を開始する。またカウントフラグFpe_cntup=1とする。
 そしてステップF362で制御部30は、ズーム中判定処理を行う。ズーム中判定処理は図16に示している。
 なお次の時点の図15の処理では、パン遷移フラグFp_transは「0」に戻るが、カウントフラグFpe_cntupは「1」となっているため、制御部30は前回と同様にステップF358からF359,F362に進む。カウントフラグFpe_cntupは移行限度期間Tpan_zoom内にズーム動作が検出されなかった場合、或いはズーム動作が終了した場合に「0」とされるが、それまでは、ステップF359(カウント値PanEndCntのインクリメント),F362(ズーム中判定処理)が繰り返し行われることとなる。
 図16のズーム中判定処理(F362)は、基本的には第3の処理例の考え方を用いる。
 制御部30は、図16のステップF370でズームレバーの操作状態を取得し、変数Szoomを設定する。例えばズームレバーが操作されていれば変数Szoom=1とし、操作されていなければ変数Szoom=0とする。そしてステップF371では、変数Szoomを参照して、現在ズームレバーが押されている状態であるか否かを判定する。
 パン終了直後で、まだズームが行われていない期間は、制御部30はステップF371からF376に進み、カウント値PanEndCntが移行限度期間Tpan_zoomに達していないか否かを確認する。
 パン直後で移行限度期間Tpan_zoomに達していなければ、ステップF376からF377に進むが、その時点ではズーム実行フラグFzon=0であるので、ステップF378へ進み、カウント値ZoomOnCntをゼロとし、またズーム実行フラグFzonをゼロとする。カウント値ZoomOnCntは、ユーザのズーム操作の検知からズーム判定期間Tzonを越えたか否かを判定するため(継続的なズーム操作判定のため)のカウント値である。
 そしてステップF379でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。つまりこの場合は、判定実行フラグFdon=0となる。
 もしパン後にカウント開始されるカウント値PanEndCntが移行限度期間Tpan_zoomに達した場合、つまり移行限度期間Tpan_zoom内にユーザのズーム操作が検知されなかった場合は、ステップF376から図15のステップF360に進む。この場合、パン後ズーム動作が検出されなかったこととなる。判定実行フラグFdonは「0」のままとなる。
 変数Szoom=1で現在ズームレバーが押されているのであれば制御部30はステップF371からF372に進み、カウント値ZoomOnCntをインクリメントする。そしてステップF373で制御部30は、カウント値ZoomOnCntとズーム判定期間Tzonを比較する。カウント値ZoomOnCntがズーム判定期間Tzonに達していなければ、ステップF375でズーム実行フラグFzonをゼロとする。そしてステップF379でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。従って判定実行フラグFdon=0である。
 なお、移行限度期間Tpan_zoom内に一瞬ズーム操作が検知されても、ズーム操作がズーム判定期間Tzonに至らずに終了された場合、その一瞬の操作の終了後において処理はステ
ップF371→F376と進む。従って、そのままズーム操作がなされずに移行限度期間Tpan_zoomに達した場合は、図15のステップF360に進み、パン後ズーム動作が検出されなかったこととなる(判定実行フラグFdon=0)。
 ステップF373でカウント値ZoomOnCntがズーム判定期間Tzonに達したと判定された場合、制御部30はステップF374でズーム実行フラグFzon=1とする。つまりズーム判定期間Tzonの間、継続してズーム中であることが確認されたことになり、これをもって継続的にズームが実行されていると判定する。そしてステップF379でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。この場合、判定実行フラグFdon=1となる。従って判定実行フラグFdonに基づいて図8の処理で主要被写体判定が実行される。
 なお、その後もズームが継続されている間は、このステップF373→F374→F379と進む処理が繰り返されることになり、判定実行フラグFdon=1の状態が維持される。
 その後、ズーム動作が終了すると、ステップF371→F376と進む処理となる。この場合は、カウント値PanEndCntが移行限度期間Tpan_zoom以上となっているか、もしくは移行限度期間Tpan_zoomに達していなくともズーム実行フラグFzon=1となっているため、ステップF376又はF377から図15のステップF360、F361に進む。従ってカウント値PanEndCntがゼロリセットされ、カウントフラグFpe_cntup=0とされ、さらに判定実行フラグFdon=0とされる。つまり主要被写体判定はズームが継続される期間を限度として実行されることとなる。
 以上の第5の処理例によれば、パン後ズーム動作中に判定基準点SPに近い被写体が主要被写体と判定される。ユーザはパンニングによって目的被写体を探し、目的被写体を捉えた際にズーミングを行って画角調整を行うということが多い。従ってパン後ズーム中に判定基準点SPに近い被写体は、ユーザが目的とする被写体であることが多く、ユーザが望む主要被写体判定結果を得られる確率を高めることができる。また、自動的な主要被写体判定により、ユーザの操作性向上も実現される。
 また上記処理例では、パンからズームへの移行限度期間Tpan_zoomを設けて判断しているため、パン→ズームという連続的な動作を的確に判断できる。
<9.第6の処理例(パン後ズーム後判定)>
 第6の処理例として、パン動作後に引き続きズーム動作が行われた場合に、そのズーム動作終了後に主要被写体判定を実行する例を説明する。
 図17にパン後ズーム後判定の動作を示している。
 まずパン動作の終了の判定(パン実行フラグFpon、パン遷移フラグFp_transの処理)、及びパン終了から移行限度期間Tpan_zoom内でのズーム動作の判定(ズーム実行フラグFzonの処理)については、第5の処理例と同様である。
 パン後のズーム動作の終了を検出するため、第4の処理例で説明した考え方を用いる。即ちズーム実行フラグFzonについて、現在の値と1つ前の値を比較(減算)して、ズーム遷移フラグFz_transを設定する。ズーム遷移フラグFz_trans=+1がズーム終了時点を示す情報となる。
 判定実行フラグFdonは、ズーム遷移フラグFz_trans=+1となった時点から判定開始待機期間TdonStartを経た時点で「1」とされる。このように判定実行フラグFdon=1となったことで、実質的な主要被写体判定処理が開始される。また、上限期間TdonEndが設定され、判定実行フラグFdonは、ズーム遷移フラグFz_trans=+1となった時点から上限期間TdonEndを経た時点で「0」とされる。このように判定実行フラグFdon=0とされることで、実質的な主要被写体判定処理を行う期間が制限される。
 このようなパン後ズーム後判定処理が図18、図19のように行われる。制御部30(カメラワーク判定部30b)はこの図18、図19の処理を繰り返して判定実行フラグFdonを設定していく。
 図18のステップF350~F361は、図15と同様であり、同一のステップ番号としている。即ち制御部30は、ステップF350~F357として、パン遷移フラグFp_transを設定し、パン終了時点を検出する。パン終了が検出されるまでは、ステップF358→F360→F361と進み、判定実行フラグFdon=0とする。
 この図18では、パン終了が検出された以降において、制御部30はステップF358→F359→F365と進むことになり、ステップF365として図19のズーム後判定処理を行う。
 図19のズーム後判定処理(F365)は、基本的には第4の処理例の考え方を用いる。なおステップF370~F376、F378は、図16の同一ステップ番号の処理と同一である。即ち、このステップF370~F376、F378は、パン後の移行限度期間Tpan_zoom内に継続的なズーム動作が行われることの検出処理である。なおズーム終了後の処理をステップF380以降で行うことになるため、図16のステップF377に相当する処理はない。
 パン後において移行限度期間Tpan_zoom内にズームが行われなければ、ステップF376からF379に進む。この時点ではカウント値FdonCnt=0である。カウント値FdonCntはズーム終了時点からステップF382でカウントアップされるためである。そのためこの時点ではステップF379から図18のステップF360に進む。この場合、パン後ズーム動作が検出されなかったこととなる。判定実行フラグFdonは「0」のままとなる。
 ステップF380~F388は、図13のステップF310~F318と同様の処理となる。従って次のような処理となる。
 ズーム開始前、及び動作中は、制御部30はステップF381→F384→F387と進み、カウント値Fdoncnt=0、カウントフラグFcntup=0、判定実行フラグFdon=0とする。
 ズーム終了時点では、ズーム遷移フラグFz_trans=1となることで、制御部30はステップF381からF382に進み、カウント値Fdoncntをインクリメントし、またカウントフラグFcntup=1とする。以降もカウントフラグFcntup=1であることで制御部30はステップF381からF382に進み、カウント値Fdoncntのインクリメントが継続される。但し判定開始待機期間TdonStartを越えるまではステップF383からF385に進み、判定実行フラグFdon=0とされる。
 なお、ズーム終了時点以降は、図19の処理はステップF371→F376と進み、カウント値PanEndCntが移行限度期間Tpan_zoomを越えている場合が多いが、カウント値Fdoncntのインクリメントが開始された以降であるため、ステップF379→F378→F380→F381→F382のように処理が進められる。
 或る時点のステップF383で、カウント値Fdoncntが判定開始待機期間TdonStartを越えると、制御部30はステップF386へ進み、カウント値Fdoncntと上限期間TdonEndを比較する。そして上限期間TdonEndに達するまでは、制御部30はステップF388に進んで、判定実行フラグFdon=1とする。これによりパン後ズーム後において、図8に示した主要被写体判定処理で実質的な判定処理(ステップF105~F115)が行われる。
 その後、カウント値Fdoncntが上限期間TdonEndを越えると、制御部30はステップF389でカウントフラグFcntup=0とし、さらに図18のステップF360、F361に進んで、カウント値PanEndCnt=0、カウントフラグFpe_cntup=0とされ、さらに判定実行フラグFdon=0とされる。つまり主要被写体判定はパン後ズーム後に上限期間TdonEndを限度として実行される。 
 以上の第6の処理例によれば、パン後のズーム後に判定基準点SPに近い被写体が主要被写体と判定される。ユーザはパンニングによって目的被写体を探し、目的被写体を捉えた際にズーミングを行って画角調整を行うということが多い。従ってパン後にズームを行った後であれば、判定基準点SPに近い被写体は、ユーザが目的とする被写体であることが多く、ユーザが望む主要被写体判定結果を得られる確率を高めることができる。また、自動的な主要被写体判定により、ユーザの操作性向上も実現される。
 また上記処理例では、パンからズームへの移行限度期間Tpan_zoomを設けて判断しているため、パン→ズームという連続的な動作を的確に判断できる。
 なお判定開始待機期間TdonStart=0とすることも考えられる。この場合、パン後のズーム終了が検出された時点から即座に主要被写体判定処理が実行されることとなる。
 また上限期間TdonEndを設けず、主要被写体判定がなされるまで判定実行フラグFdon=1の状態を維持させておくようにしてもよい。
<10.第7の処理例(ズーム後パン動作判定)>
 第7の処理例として、ズーム動作後に引き続きパン動作が行われた場合に、そのパン動作中に主要被写体判定を実行する例を説明する。
 図20にズーム後パン動作判定の動作を示している。
 まずズーム動作の終了の判定は第4の処理例で説明した考え方を用いる。即ちズーム実行フラグFzonについて、ユーザのズームレバー操作の継続性の判定により設定する。そしてズーム実行フラグFzonについて、現在の値と1つ前の値を比較(減算)して、ズーム遷移フラグFz_transを設定する。ズーム遷移フラグFz_trans=+1がパン終了時点を示す情報となる。
 次に、このズーム終了時点から、例えば固定値とされる移行限度期間Tzoom_pan内にパン動作が検知されるか否かを判定する。移行限度期間Tzoom_pan内にパン動作が検知されない場合は、ズームからパンへの連続的な動作が行われなかったと判定し、判定実行フラグFdonは「1」としない。即ち主要被写体判定は行わない。
 パン動作の検知は、第1の処理例で説明した考え方を用いる。即ちパン実行フラグFponを、ジャイロセンサからの検出信号Sgと閾値範囲Sthとの比較結果に基づいて設定する。検出信号Sgが、パン判定期間Tponとして設定したある程度の時間以上継続して閾値範囲Sthを越えていたら、パンが実行されていると判断し、パン実行フラグFponを「1」とする。これに応じて主要被写体判定開始を制御する判定実行フラグFdonを「1」とする。判定実行フラグFdon=1の際に主要被写体判定処理が行われる。
 このようにズーム後パン動作判定によって判定実行フラグFdonを設定するため、制御部30(カメラワーク判定部30b)は図21,図22の処理を繰り返し実行する。
 図21のステップF400~F407は、図13のステップF300~F306、F310と同様であるため重複説明を避けるが、ズーム遷移フラグFz_transを設定し、ズーム遷移フラグFz_trans=+1となるズーム終了時点を検出する処理である。
 ステップF408で制御部30は、ズーム遷移フラグFz_trans=1、又はカウントフラグFze_cntup=1のいずれかが満たされるか否かを判定する。カウントフラグFze_cntupは、ステップF409で「1」とされる、処理分岐制御のためのフラグである。具体的にはズーム終了時点で「1」とされ、以降ステップF409,F412が実行されるようにするフラグである。
 カウントフラグFze_cntup=0であってズーム遷移フラグFz_transが「0」又は「-1」の場合、つまりズーム終了が検出されるまでは、制御部30はステップF408からF
410に進み、カウント値ZoomEndCntをゼロにリセットし、またカウントフラグFze_cntupを「0」とする。カウント値ZoomEndCntは、図20に示した移行限度期間Tzoom_panを計数するカウンタの値である。
 そして制御部30はステップF411で判定実行フラグFdon=0と設定する。
 図20に示したように、ズーム動作が終了された時点でズーム遷移フラグFz_trans=1となる。この場合、制御部30はステップF408からF409に進み、カウント値ZoomEndCntをインクリメントする。つまり移行限度期間Tzoom_panの計数を開始する。またカウントフラグFze_cntup=1とする。
 そしてステップF412で制御部30は、パン中判定処理を行う。パン中判定処理は図22に示している。
 なお次の時点の図21の処理では、ズーム遷移フラグFz_transは「0」に戻るが、カウントフラグFze_cntupは「1」となっているため、制御部30は前回と同様にステップF408からF409,F412に進む。カウントフラグFze_cntupは移行限度期間Tzoom_pan内にパン動作が検出されなかった場合、或いはパン動作が終了した場合に「0」とされるが、それまでは、ステップF409(カウント値ZoomEndCntのインクリメント),F412(パン中判定処理)が繰り返し行われることとなる。
 図22のズーム中判定処理(F412)は、基本的には第1の処理例の考え方を用いる。
 制御部30は、図22のステップF420でセンサ部14のジャイロセンサで検出される角速度情報を検出信号Sgとして取得する。ステップF421で制御部30は、Sg>Sc+Sth/2、又はSg<Sc-Sth/2のいずれかが成り立つか否かを判定する。即ち図7Bに示した基準レベルSc、閾値範囲Sthの値を用いて、検出信号Sgが正又は負の値として閾値範囲Sthを越えた値になっているか否かを判定する。
 ズーム終了直後で、まだパンが行われていない期間は、検出信号Sgが閾値範囲Sthを越えた値となっていないため、制御部30はステップF421からF426に進み、カウント値ZoomEndCntが移行限度期間Tzoom_panに達していないか否かを確認する。
 パン直後で移行限度期間Tzoom_panに達していなければ、ステップF426からF427に進むが、その時点ではパン実行フラグFpon=0であるので、ステップF428へ進み、カウント値PanOnCntをゼロとし、またパン実行フラグFponをゼロとする。カウント値PanOnCntは、パン動作の検知からパン判定期間Tponを越えたか否かを判定するためのカウント値である。
 そしてステップF429でパン実行フラグFponの値を判定実行フラグFdonに代入する。つまりこの場合は、判定実行フラグFdon=0となる。
 もしズーム後にカウント開始されるカウント値ZoomEndCntが移行限度期間Tzoom_panに達した場合、つまり移行限度期間Tzoom_pan内にパン動作が検知されなかった場合は、ステップF426から図21のステップF410に進む。この場合、ズーム後パン動作が検出されなかったこととなる。判定実行フラグFdonは「0」のままとなる。
 ズーム終了後に検出信号Sgが閾値範囲Sthを越えた値となったら、制御部30はステップF421からF422に進み、カウント値PanOnCntをインクリメントする。そしてステップF423で制御部30は、カウント値PanOnCntとパン判定期間Tponを比較する。カウント値PanOnCntがパン判定期間Tponに達していなければ、ステップF425でパン実行フラグFponをゼロとする。そしてステップF429でパン実行フラグFponの値を判定実行フラグFdonに代入する。従って判定実行フラグFdon=0である。
 なお、移行限度期間Tzoom_pan内に一瞬検出信号Sgが閾値範囲Sthを越えても、パンとしての動きがパン判定期間Tponに至らずに終了された場合、その一瞬のパン動作の終
了後において処理はステップF421→F426と進む。従って、そのままパン動作がなされずに移行限度期間Tzoom_panに達した場合は、図21のステップF410に進み、ズーム後パン動作が検出されなかったこととなる(判定実行フラグFdon=0)。
 ステップF423でカウント値PanOnCntがパン判定期間Tponに達したと判定された場合、制御部30はステップF424でパン実行フラグFpon=1とする。つまりパン判定期間Tponの間、継続してパン動作が確認されたことになり、これをもってパン動作が実行されていると判定する。そしてステップF429でパン実行フラグFponの値を判定実行フラグFdonに代入する。この場合、判定実行フラグFdon=1となる。従って判定実行フラグFdonに基づいて図8の処理で主要被写体判定が実行される。
 なお、その後もパンが継続されている間は、このステップF423→F424→F429と進む処理が繰り返されることになり、判定実行フラグFdon=1の状態が維持される。
 その後、パン動作が終了すると、ステップF421→F426と進む処理となる。この場合は、カウント値ZoomEndCntが移行限度期間Tzoom_pan以上となっているか、もしくは移行限度期間Tzoom_panに達していなくともパン実行フラグFpon=1となっているため、ステップF426又はF427から図21のステップF410、F411に進む。従ってカウント値ZoomEndCntがゼロリセットされ、カウントフラグFze_cntup=0とされ、さらに判定実行フラグFdon=0とされる。つまり主要被写体判定はパンが継続される期間を限度として実行されることとなる。
 以上の第7の処理例によれば、ズーム後パン動作中に判定基準点SPに近い被写体が主要被写体と判定される。ユーザはズーミングで画角調整をした後にパンニングによって目的被写体を探すという動作をとることがある。従ってズーム後パン動作中に判定基準点SPに近い被写体は、ユーザが目的とする被写体であることが多く、ユーザが望む主要被写体判定結果を得られる確率を高めることができる。また、自動的な主要被写体判定により、ユーザの操作性向上も実現される。
 また上記処理例では、ズームからパンへの移行限度期間Tzoom_panを設けて判断しているため、ズーム→パンという連続的な動作を的確に判断できる。
<11.第8の処理例(ズーム後パン後判定)>
 第8の処理例として、ズーム動作後に引き続きパン動作が行われた場合に、そのパン動作終了後に主要被写体判定を実行する例を説明する。
 図23にズーム後パン後判定の動作を示している。
 ズーム動作の終了の判定(ズーム実行フラグFzon、ズーム遷移フラグFz_transの処理)、及びズーム終了から移行限度期間Tzoom_pan内でのパン動作の判定(パン実行フラグFponの処理)については、第7の処理例と同様である。
 ズーム後のパン動作の終了を検出するため、第2の処理例で説明した考え方を用いる。即ちパン実行フラグFponについて、現在の値と1つ前の値を比較(減算)して、パン遷移フラグFp_transを設定する。パン遷移フラグFp_trans=+1がパン終了時点を示す情報となる。
 判定実行フラグFdonは、パン遷移フラグFp_trans=+1となった時点から判定開始待機期間TdonStartを経た時点で「1」とされる。このように判定実行フラグFdon=1となったことで、実質的な主要被写体判定処理が開始される。また、上限期間TdonEndが設定され、判定実行フラグFdonは、ズーム遷移フラグFz_trans=+1となった時点から上限期間TdonEndを経た時点で「0」とされる。このように判定実行フラグFdon=0とされることで、実質的な主要被写体判定処理を行う期間が制限される。
 このようなズーム後パン後判定処理が図24、図25のように行われる。制御部30(カメラワーク判定部30b)はこの図24、図25の処理を繰り返して判定実行フラグFdonを設定していく。
 図24のステップF400~F411は、図21と同様であり、同一のステップ番号としている。即ち制御部30は、ステップF400~F407として、ズーム遷移フラグFz_transを設定し、ズーム終了時点を検出する。ズーム終了が検出されるまでは、ステップF408→F410→F411と進み、判定実行フラグFdon=0とする。
 この図24では、ズーム終了が検出された以降において、制御部30はステップF408→F409→F415と進むことになり、ステップF415として図25のパン後判定処理を行う。
 図25のパン後判定処理(F415)は、基本的には第2の処理例の考え方を用いる。なおステップF420~F426、F428は、図22の同一ステップ番号の処理と同一である。即ち、このステップF420~F426、F428は、ズーム後の移行限度期間Tzoom_pan内にパン動作が行われることの検出処理である。なおパン終了後の処理をステップF430以降で行うことになるため、図22のステップF427に相当する処理はない。
 ズーム後において移行限度期間Tzoom_pan内にパンが行われなければ、ステップF426からF429に進む。この時点ではカウント値FdonCnt=0である。カウント値FdonCntはパン終了時点からステップF432でカウントアップされるためである。そのためこの時点ではステップF429から図24のステップF410に進む。この場合、ズーム後パン動作が検出されなかったこととなる。判定実行フラグFdonは「0」のままとなる。
 ステップF430~F438は、図10のステップF210~F218と同様の処理となる。従って次のような処理となる。
 パン開始前、及び動作中は、制御部30はステップF431→F434→F437と進み、カウント値Fdoncnt=0、カウントフラグFcntup=0、判定実行フラグFdon=0とする。
 パン終了時点では、パン遷移フラグFp_trans=1となることで、制御部30はステップF431からF432に進み、カウント値Fdoncntをインクリメントし、またカウントフラグFcntup=1とする。以降もカウントフラグFcntup=1であることで制御部30はステップF431からF432に進み、カウント値Fdoncntのインクリメントが継続される。但し判定開始待機期間TdonStartを越えるまではステップF433からF435に進み、判定実行フラグFdon=0とされる。
 なお、パン終了時点以降は、図25の処理はステップF421→F426と進み、カウント値ZoomEndCntが移行限度期間Tzoom_panを越えている場合が多いが、カウント値Fdoncntのインクリメントが開始された以降であるため、ステップF429→F428→F430→F431→F432のように処理が進められる。
 或る時点のステップF433で、カウント値Fdoncntが判定開始待機期間TdonStartを越えると、制御部30はステップF436へ進み、カウント値Fdoncntと上限期間TdonEndを比較する。そして上限期間TdonEndに達するまでは、制御部30はステップF438に進んで、判定実行フラグFdon=1とする。これによりズーム後パン後において、図8に示した主要被写体判定処理で実質的な判定処理(ステップF105~F115)が行われる。
 その後、カウント値Fdoncntが上限期間TdonEndを越えると、制御部30はステップF439でカウントフラグFcntup=0とし、さらに図24のステップF410、F411に進んで、カウント値ZoomEndCnt=0、カウントフラグFze_cntup=0とされ、さらに判定実行フラグFdon=0とされる。つまり主要被写体判定はズーム後パン後に上限期間TdonEndを限度として実行される。
 以上の第8の処理例によれば、ズーム後のパン後に判定基準点SPに近い被写体が主要被写体と判定される。ユーザはズーミングで画角調整をした後にパンニングによって目的被写体を探すという動作をとることがある。従ってズーム後パン後に判定基準点SPに近い被写体は、ユーザが目的とする被写体であることが多く、ユーザが望む主要被写体判定結果を得られる確率を高めることができる。また、自動的な主要被写体判定により、ユーザの操作性向上も実現される。
 また上記処理例では、ズームからパンへの移行限度期間Tzoom_panを設けて判断しているため、ズーム→パンという連続的な動作を的確に判断できる。
 なお判定開始待機期間TdonStart=0とすることも考えられる。この場合、ズーム後のパン終了が検出された時点から即座に主要被写体判定処理が実行されることとなる。
 また上限期間TdonEndを設けず、主要被写体判定がなされるまで判定実行フラグFdon=1の状態を維持させておくようにしてもよい。
<12.第9の処理例(合焦判定)>
 第9の処理例としてのカメラワーク判定及び主要被写体判定を説明する。この例は、制御部30(カメラワーク判定部30b)は、撮像装置10のマニュアルフォーカス動作の終了を検出することに応じて判定開始タイミングを設定する。
 制御部30(主要被写体判定部30a)は、判定開始タイミングからの少なくとも1フレームの画像データにおける被写体の合焦状態を観測し、特定の合焦条件に合致した被写体のうちで主要被写体を判定する。
 例えば特定の合焦条件に合致する被写体とは、画像データの分割領域毎に計測した合焦度データが所定値以上となっている分割領域に位置する被写体である。
 さらにこのような合焦条件に加えて、特定の位置条件に合致した被写体のうちで主要被写体を判定するようにしてもよい。
 この第9の処理例の場合、撮像装置10としての構成は図26のようになる。図26において図3と同一部分は同一符号を付し、説明を省略する。
 図26の撮像装置10は、図3の構成に加えて合焦度判定部28を備える。合焦度判定部28は、撮像画像を分割した分割領域(ブロック)毎の合焦度を判定する。
 合焦度の判定技術としては、例えば公知のオートフォーカス検波の技術を用いることができる。例えば輝度信号のエッジ成分を検出し、これに積分処理等を施すことで、合焦している程高い数値となる値、つまり合焦度合いに応じた値を求めることができる。
 また図26の構成では、図3と同じく候補検出部27を備え、候補画像枠を抽出するようにしている。
 なお、候補検出部27及び合焦度判定部28としての機能は、制御部30においてソフトウエアにより実装してもよい。
 この撮像装置10による第9の処理例としての主要被写体判定処理の概要を図27,図28で説明する。
 図27には撮像装置10の光学系11,イメージャ12の動作によりデジタル信号処理部20に入力される撮像画像信号の各フレームFR1,FR2,FR3・・・を示している。
 第1の処理例で説明したものと同様、候補検出部27は、このような順次入力される連続した各フレームのそれぞれ(或いは間欠的な各フレームについて)から候補画像(例えば候補画像枠E1,E2,E3)の検出を行う。そして候補画像枠情報を制御部30(主要被写体判定部30a)に受け渡す。制御部30は、主要被写体判定処理の際に、各候補画像枠E1,E2,E3の重心Gから判定基準点SPまでの距離Diff1、Diff2、Diff3の算出等を行う。 
 また合焦度判定部28は、候補検出部27の処理とは並行して、順次入力される連続した各フレームのそれぞれ(或いは間欠的な各フレームについて)について、ブロック毎の合焦度を算出する。
 図では分割領域としてのブロックの例を示している。1つの画像データを、破線で示すように多数のブロックに分割する。各ブロックを説明上、ブロックBK(BK1、BK2・・・BK(M))とする。
 合焦度判定部28は、各ブロックBK1、BK2・・・BK(M)のそれぞれについての合焦度を例えば数値情報として求める。図示のように、例えばブロックBK1は合焦度「10」、ブロックBK2は合焦度「22」などと求められる。なおこの例では、合焦度は「100」を最高値としており、例えば「80」以上であれば合焦状態と判定するものとする。
 合焦度判定部28は、例えばフレーム毎にこのように各ブロックBKについて合焦度を求め、制御部30に受け渡す。
 図28は、フレーム毎の各ブロックBKについての合焦度の変動を示している。
 いま、図28Aのように、被写体としての人物H1,H2,H3が、撮像装置10からの距離としてそれぞれ距離D1,D2,D3の位置に居るとする。この場合に撮像者がマニュアルフォーカス操作を行い、合焦位置をニア側とファー側の間で変化させたとする。
 ニア側に合焦させると、図28Bの上図のように、人物H1に焦点が合い、一方人物H2,H3はボケた状態(図では点線で示している)となる。このときの撮像画像のフレームでは、図28Bの下図のように、人物H1が位置するブロックBK(斜線のブロック)において合焦度の値が高くなる。
 マニュアルフォーカス操作で中間的な距離に合焦させると、図28Cの上図のように、人物H2に焦点が合い、人物H1,H3はボケた状態となる。このときの撮像画像のフレームでは、図28Cの下図のように、人物H2が位置するブロックBK(斜線のブロック)において合焦度の値が高くなる。
 さらにファー側に合焦させると、図28Dの上図のように、人物H3に焦点が合い、人物H1,H2はボケた状態となる。このときの撮像画像のフレームでは、図28Dの下図のように、人物H3が位置するブロックBK(斜線のブロック)において合焦度の値が高くなる。
 例えば撮像者が、人物H3の撮像を目的としているとすると、図28Dのようにファー側にマニュアルフォーカス操作を行うこととなる。換言すれば、マニュアルフォーカス操作が行われた後に合焦度の高い被写体は、撮像者が目的としている被写体であると推定できる。
 そこで、第9の処理例では、まずカメラワーク判定部30bが、マニュアルフォーカス操作を検出し、マニュアルフォーカス終了後のタイミングを主要被写体判定部30aに通知する。主要被写体判定部30aは、当該タイミングのフレーム画像データにおいて、候補画像のうちで、合焦度の高いブロックBKに位置している候補画像を、主要被写体と判定するものである。
 具体的な処理例を図29,図30,図31で説明する。
 図29は、図28の例においてニア側からファー側へマニュアルフォーカスが行われた場合を示している。人物H1,H2,H3が、それぞれ候補画像枠E1,E2,E3とされているとし、各候補画像枠の部分の合焦度を例示している。
 マニュアルフォーカス期間tmfとしてニア側からファー側へフォーカスレンズが移動されるに従って、合焦度が高い被写体は候補画像枠E1→E2→E3の順番で遷移する。
 マニュアルフォーカス判定期間Tmfonを越えて継続的なマニュアルフォーカス操作が検
知された時点で、マニュアルフォーカス実行フラグFmfonが「1」とされる。
 その後フォーカス操作が終了され、通常期間tnorに移行したとする。この場合にカメラワーク判定部30bはマニュアルフォーカス後のタイミングをフォーカス終了フラグFmfend=+1として発生させる。これに応じて判定実行フラグFdon=1となる。この判定実行フラグFdon=1に応じて主要被写体判定部30aで主要被写体判定が行われる。
 図30は制御部30(カメラワーク判定部30b)が行うマニュアルフォーカス後判定の処理例である。
 ステップF500で制御部30は、例えばセンサ部14における、フォーカスレンズのマニュアル操作(鏡筒リングの操作)を検出するセンサから情報、もしくはフォーカスレンズ位置センサの情報を取得し、ユーザ操作に基づくマニュアルフォーカス操作状態を取得して、変数Smfを設定する。例えばマニュアルフォーカス操作がされていれば変数Smf=1とし、操作されていなければ変数Smf=0とする。
 ステップF501では制御部30は、変数Smfを参照して、現在マニュアルフォーカス操作が実行されているか否かを判定する。
 変数Smf=0で現在マニュアルフォーカス操作が行われていなければ制御部30はステップF506に進み、カウント値MfOnCntをゼロとし、またマニュアルフォーカス実行フラグFmfonをゼロとする。なお、カウント値MfOnCntは、マニュアルフォーカス判定期間Tmfonを越えたか否かを判定するためのカウント値である。
 続いてステップF507では、フォーカス終了フラグFmfendの設定を行う。即ち、
 フォーカス終了フラグFmfend=(前回マニュアルフォーカス実行フラグFmfon_1)-(マニュアルフォーカス実行フラグFmfon)
 とする。前回マニュアルフォーカス実行フラグFmfon_1は、前回のステップF507の時点でのマニュアルフォーカス実行フラグFmfonの値である。従ってフォーカス終了フラグFmfendは、図29に示した「0」「+1」「-1」のいずれかとなる。
 また次回のステップF507において前回マニュアルフォーカス実行フラグFmfon_1として用いるため、今回のマニュアルフォーカス実行フラグFmfonの値を前回マニュアルフォーカス実行フラグFmfon_1に代入する。
 そしてステップF508でフォーカス終了フラグFmfendの値を判定実行フラグFdonに代入する。従ってマニュアルフォーカス操作が行われる前の時点では、判定実行フラグFdon=0となる。
 変数Smf=1で現在マニュアルフォーカス操作がされているのであれば制御部30はステップF501からF502に進み、カウント値MfOnCntをインクリメントする。
 そしてステップF503で制御部30は、カウント値MfOnCntとマニュアルフォーカス判定期間Tmfonを比較する。カウント値MfOnCntがマニュアルフォーカス判定期間Tmfonに達していなければ、ステップF505でマニュアルフォーカス実行フラグFmfonをゼロとする。そしてステップF507でフォーカス終了フラグFmfendを設定し、ステップF508で判定実行フラグFdonに代入する。判定実行フラグFdon=0となる。
 ステップF503でカウント値MfOnCntがマニュアルフォーカス判定期間Tmfonに達したと判定された場合、制御部30はステップF504でマニュアルフォーカス実行フラグFmfon=1とする。つまりマニュアルフォーカス判定期間Tmfonの間、継続してマニュアルフォーカス操作が行われたことが確認されたことになり、これをもってマニュアルフォーカス操作が実行されていると判定する。
 そしてステップF507でフォーカス終了フラグFmfendを設定し、ステップF508で判定実行フラグFdonに代入する。判定実行フラグFdonはマニュアルフォーカス実行フラグFmfon=1とされた時点では「-1」となり、その後、マニュアルフォーカス実行フラグF mfon=1が継続されているときは「0」となる。
 マニュアルフォーカス操作が終了されると、制御部30はステップF501→F506と進み、カウント値MfOnCnt=0とし、またマニュアルフォーカス実行フラグFmfon=0とする。
 この場合ステップF507でフォーカス終了フラグFmfend=1とされ、ステップF508で判定実行フラグFdon=1となる。
 これにより、後述の図31において実質的な主要被写体判定(ステップF605~F610)が行われることになる。
 なお、その後、マニュアルフォーカス実行フラグFmfon=0が継続するため、次の時点のステップF507でフォーカス終了フラグFmfend=0とされ、ステップF508で判定実行フラグFdon=0となる。
 図31は制御部30(主要被写体判定部30a)による主要被写体判定処理を示している。
 この例は、主要被写体判定に関して制御部30は候補検出部27からの候補画像枠情報の取り込みは継続して行っていることは図8と同様としている。そして上述の判定実行フラグFdon=1となることに応じて、合焦度判定部28による合焦度の情報を用いて実質的な判定処理(ステップF605~F611)を開始する処理例としている。
 制御部30は例えば1フレームタイミング毎にステップF601~F604及びF612(判定実行フラグFdon=1の期間はステップF601~F612)の処理を行う。
 制御部30は主要被写体判定処理を開始すると、まず初期設定としてステップF600で主要被写体設定済みか否かを示すフラグである変数TSF=0とる。
 ステップF601、F602、F603は図8のステップF101、F102、F103と同様、或るフレームについての候補画像枠情報を取り込み、各候補画像枠E(n)について、重心Gの座標を算出し、さらに各候補画像枠E(n)の重心Gから判定基準点SPまでの距離Diff(n)を算出する。
 ステップF604で制御部30は、判定実行フラグFdon及び変数TSFを確認する。変数TSF=0であって、かつ判定実行フラグFdon=1であればステップF605に進む。これ以外の場合は実質的な判定処理(F605~F611)を行わずにステップF612→F601と処理を進める。
 変数TSF=0であって、かつ判定実行フラグFdon=1となると、制御部30はステップF605で、各候補画像枠E(n)について、注目すべき合焦度判定ブロックを選択する。
 上述のように合焦度判定部28では、各ブロックBK毎の合焦度の値を算出している。合焦度が求められた各ブロックBKとしての領域と、候補画像枠E(n)の領域は一致しているわけではない。そこで、各候補画像枠E(n)が、どこのブロックBKに対応しているか、さらには、各候補画像枠E(n)の合焦度は、どのブロックBKを用いて求めるかを選択することとなる。
 図32で説明する。図32Aは、各候補画像枠E1,E2,E3と、ブロックBKの関係を示している。
 今、現在のフレームでは、候補画像枠E1は、図32BのようにブロックBK8,BK9,BK15,BK16にまたがって存在しているとする。同様に図32Cのように候補画像枠E2はブロックBK11,BK12,BK18,BK19に存在し、図32Dのように候補画像枠E3はブロックBK6,BK7,BK13,BK14に存在しているとする。図32B,図32C,図32Dには、各ブロックBK内の数値として、そのブロックBKの合焦度の値を示している。
 ステップF605の合焦度判定ブロックの選択とは、候補画像枠E1,E2,E3について、それぞれ図32B,図32C,図32Dで斜線を付したブロックBK8、BK12、BK7を選択する処理となる。
 図32Bの候補画像枠E1について説明すれば、まず候補画像枠E1が含まれるブロックBK8,BK9,BK15,BK16を選択する。そしてその中で、候補画像枠E1の面積占有率が最も高いブロックBK(この例ではブロックBK8)を合焦度判定ブロックとするものである。なお、各ブロックBKは固定的に画像を分割したものであるため、各ブロックBKの範囲は制御部30にとって既知である。また各候補画像枠E(n)については、候補画像枠情報として、二次元(x-y)座標値としてのx値、y値、候補画像枠の幅w、高さhの情報が候補検出部27から供給される。従って制御部30は、各候補画像枠E(n)について面積占有率が最も高いブロックBKを判定できる。
 ステップF606で制御部30は、各候補画像枠E(n)について選択した合焦度判定ブロックの合焦度の値を参照して、合焦しているか否かを判断する。例えば合焦度の値が「80」以上の場合、合焦していると判定する。
 ステップF607で制御部30は、各候補画像枠E(n)についてステップF603で算出した、各候補画像枠E(n)の重心Gから判定基準点SPまでの距離Diff(n)が、判定基準距離DiffMINより小さいか否かを判定する。つまり、各候補画像枠E(n)が例えば画面中央点などと設定された判定基準点SPに近いものであるか否かを判定する。
 そして制御部30は、ステップF606で判断した合焦条件、及びステップF607で判断した位置条件が共に満たされた候補画像枠E(n)を、ステップF608で主要被写体と判定し、主要被写体情報を生成する。そしてステップF609で変数TSF=1とし、ステップF610で主要被写体情報を出力する。これにより主要被写体情報が、それを使用するアプリケーションプログラムや制御プログラムに受け渡される。
 一方、ステップF606で判断した合焦条件、又はステップF607で判断した位置条件が共のいずれか一方でも満たされなかった候補画像枠E(n)については、ステップF608の処理を行わず、つまり主要被写体とは判定しないこととなる。
 結果としてこの図31の主要被写体判定処理によれば、マニュアルフォーカス操作が終了された時点で、合焦状態にあり、かつ距離Diff(n)が判定基準点SPに対して判定基準距離DiffMINより短い候補画像枠E(n)が、主要被写体と判定される。
 例えば図32Bの候補画像枠E1は、合焦度判定ブロックBK8の合焦度が「90」であって合焦していると判定されるが、距離Diff(n)が判定基準距離DiffMINより長いとして主要被写体と判定されない。
 図32Cの候補画像枠E2は、合焦度判定ブロックBK12の合焦度が「95」であって合焦していると判定され、さらに距離Diff(n)が判定基準距離DiffMINより短いとして主要被写体と判定される。
 図32Dの候補画像枠E3は、合焦度判定ブロックBK7の合焦度が「30」であって合焦していないと判定されることで、主要被写体と判定されない。
 マニュアルフォーカス操作終了時とは、撮像者が目的の被写体にピントを合わせた時点であり、かつ当該被写体を画面中央付近に捉えている状況が多いと推定される。従って、上記のカメラワーク判定処理及び主要被写体判定処理により、ユーザが目的とする被写体を主要被写体と判定する確度を高めることができる。そしてそのような主要被写体判定により、自動的にその主要被写体に対してフォーカス制御が行われたり、露光制御が行われるなどすれば、高品位な静止画/動画撮像が可能となる。もちろんこの場合も撮像者にとって適切な主要被写体判定が自動的に行われることになり、撮像時の操作性は格段に向上する。
 なお第9の処理例について以下のような各種の変形例が考えられる。
 まずステップF605について、候補画像枠E(n)について占有率で1つの合焦度判定ブロックを選択したが、他の選択手法もある。
 例えば候補画像枠E(n)の重心又は中心が位置するブロックを合焦度判定ブロックとしてもよい。
 候補画像枠の抽出条件によるが、候補画像の中の特定部分が位置するブロックを合焦度判定ブロックとしてもよい。例えば候補画像として身体画像を抽出する場合に、顔画像が位置するブロックとするなどである。
 また候補画像枠E(n)を含む複数ブロックBKのうちで、最も合焦度の値の高いブロック(又は最も合焦度の低いブロック)を合焦度判定ブロックとしてもよい。
 また候補画像枠E(n)を含む複数ブロックBKのうちで、最も判定基準点SPに近いブロック(又は最も遠いブロック)など、位置条件で合焦度判定ブロックを選択してもよい。
 また候補画像枠E(n)が位置する複数のブロックをすべて合焦度判定ブロックとしてもよい。その場合、ステップF606での合焦判定は、複数の合焦度判定ブロックの合焦度の値の平均値を用いたり、或いは最高値、最小値を用いるようにすればよい。
 この場合、1つのブロックを合焦度判定ブロックとするための占有率の演算等は不要となり演算負荷が軽くできる。
 主要被写体判定については合焦条件と位置条件のAND条件の例としたが、位置条件をなく合焦条件のみで判定しても良い。
 即ちステップF606で合焦していると判定された候補画像枠E(n)は、すべて主要被写体と判定してもよい。
 或いは、ステップF606で合焦していると判定された候補画像枠E(n)が複数ある場合は、そのうちで最も合焦度の高い1つの候補画像枠E(n)を主要被写体と判定してもよい。
 また合焦条件の判定は、複数フレームでの合焦度の値を用いて行ってもよい。例えば合焦度判定ブロックについて連続する複数フレームでの合焦度の値の平均値、又は最大値、又は最小値を計算し、その値が例えば「80」以上であれば合焦していると判定するなどである。
 また位置条件を加えて判定する場合、判定基準点SPに近いという条件ではなく、例えば画面中央の領域を判定基準領域とし、その中に全部が含まれる候補画像枠E(n)、その中に重心が含まれる候補画像枠E(n)、その中に半分以上の面積が含まれる候補画像枠E(n)などを位置条件としてもよい。
 さらには、画像上の縁部ではない候補画像枠E(n)、特定のブロック範囲の候補画像枠E(n)などとして位置条件を設定しても良い。
 また上記処理例では、並行して候補画像枠E(n)を抽出したが、合焦ブロックを判定した後に候補画像枠E(n)を抽出しても良い。例えば合焦しているブロックBKの範囲内もしくはその近辺ブロック内で候補検出を行い、抽出された候補画像を主要被写体と判定する例である。
 また全ブロックBK1~BK(M)を対象として合焦度の算出・判定を行うのでなく、例えば画像データの中央部近辺のブロックBKのみなど、一部のブロックBKを対象として合焦度の算出・判定を行うものとしてもよい。例えば主要被写体としたいと撮像者が考えている被写体は、撮像者はなるべく画像の中央部近辺に捉えるように撮像方向を調整することを考えれば、合焦度判定部28が中央部近辺のブロックBKのみを対象として合焦度判定を行っても、確度の高い主要被写体設定を行うことができ、さらには合焦度判定部
28や制御部30の処理負荷の軽減にもなる。
 ブロックBKの分割は多様に考えられる。
 上記例ではブロックBK1~BK(M)として説明したが、分割数は4分割、6分割、8分割、9分割・・・30分割、40分割など多様に考えられる。
 ブロック数が多いほど、合焦度算出や合焦度判定ブロックの選択などの処理負担は増えるが、ズーム状態や被写体が小さいことなどによって候補画像が小さい場合でも確度の高い主要被写体判定ができる。逆にブロック数が少ないほど処理負担は軽くなる。
 分割する各ブロックBKは、全てが同一の面積や同一の領域形状でなくてもよい。例えば画像の端部は1つのブロックBKを広い範囲とし、画面の中央部は細かいブロックBKに分割することなども考えられる。主要被写体の存在する位置として画面中央付近の確率が高いことを考えれば、画面中央部で細かく領域分割することは適切となる。
<13.プログラム及びコンピュータ装置への適用>
 以上、画像処理装置1、撮像装置10の実施の形態を説明してきたが、上述した主要被写体判定処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。
 実施の形態のプログラムは、上述の実施の形態で示した処理を、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)等の演算処理装置に実行させるプログラムである。
 即ちこのプログラムは、撮像時のカメラワークを判定して該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定する処理と、判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する処理とを演算処理装置に実行させるプログラムである。
 具体的には、実施の形態のプログラムは、図2や第1~第9の処理例として説明した処理を演算処理装置に実行させるプログラムとすればよい。
 このようなプログラムにより、上述した主要被写体判定を実行する装置を、演算処理装置を用いて実現できる。
 このようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
 あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 またこのようなプログラムによれば、実施の形態の画像処理装置の広範な提供に適している。例えばパーソナルコンピュータ、携帯型情報処理装置、携帯電話機、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、当該携帯型情報処理装置等を、本開示の画像処理装置とすることができる。

 例えば、図33に示されるようなコンピュータ装置において、図1の画像処理装置1や撮像装置10における主要被写体判定処理と同様の処理が実行されるようにすることもできる。
 図33において、コンピュータ装置70のCPU71は、ROM72に記憶されているプログラム、または記憶部78からRAM73にロードされたプログラムに従って各種の処理を実行する。RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなども適宜記憶される。
 CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インターフェース75も接続されている。
 入出力インターフェース75には、キーボード、マウスなどよりなる入力部76、CRT(Cathode Ray Tube)やLCD、或いは有機ELパネルなどよりなるディスプレイ、並びにスピーカなどよりなる出力部77、ハードディスクなどより構成される記憶部78、モデムなどより構成される通信部79が接続されている。通信部79は、インターネットを含むネットワークを介しての通信処理を行う。
 入出力インターフェース75にはまた、必要に応じてドライブ80が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア81が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部78にインストールされる。
 上述した主要被写体判定処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
 この記録媒体は、例えば図33に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(ブルーレイディスク、CD-ROM、DVDを含む)、光磁気ディスク(MD(Mini
Disc)を含む)、若しくは半導体メモリなどよりなるリムーバブルメディア81により構成される。或いは、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM72や、記憶部78に含まれるハードディスクなどでも構成される。
 このようなコンピュータ装置70は、通信部79による受信動作や、或いはドライブ80(リムーバブルメディア81)もしくは記録部78での再生動作等により、動画データを入力した際に、CPU71がプログラムに基づいて、上述のカメラワーク判定部3、主要被写体判定部2の機能を持つようにし、図2、或いは第1から第9の処理例のような処理を実行することで、入力された画像データについて自動的に主要被写体判定を行うことができる。
 なお、この場合、過去になされた撮像時のカメラワークを判定する必要がある。CPU71は、フレーム画像データの解析で、パン、ズーム、フォーカス(合焦位置の変化)を検出することができる。例えばフレーム相互間の画像の動き、サイズ、合焦状態変化から、入力データにおいて撮像時にパン、ズーム、マニュアルフォーカスされていた期間を判定することが可能である。
 或いはまた、撮像時に各フレーム画像データに対応するメタデータとして、カメラワークの情報が付加されていれば、CPU71はそのメタデータを参照してカメラワークを判定できることとなる。
<14.変形例>
 上述の実施の形態は、各種の変形例が考えられる。
 画像処理装置1、撮像装置10、コンピュータ装置70としての各例において、全ての場合に、チルト動作を判定することも当然に考えられる。チルト動作の判定(チルト動作中判定やチルト後判定)については、上述のパン動作判定と全く同様に行うことができる。ジャイロセンサ等による角速度検出を、チルト方向に対応したものとすればよいものである。従ってカメラワーク判定処理として、チルト動作、チルト後、チルト後ズーム動作、チルト後ズーム後、ズーム後チルト動作、ズーム後チルト後、チルト後パン動作、チルト後パン後、パン後チルト動作、パン後チルト後なども判定でき、それらの場合に主要被写体判定が行われるようにすることもできる。
 また第9の処理例におけるマニュアルフォーカス後判定を、パン、チルト、ズームと組み合わせることも考えられる。
 例えばズーム後のマニュアルフォーカスを判定して、そのマニュアルフォーカス後に合焦条件を用いて主要被写体判定を行うなどである。
 またパン動作中、ズーム動作中(第1,第3,第5,第7の処理例)に主要被写体判定を行う例では、当該動作が継続している期間を主要被写体判定期間としたが、主要被写体判定が完了しなかった場合は、パン動作やズーム動作が終了された後も、主要被写体判定を継続するようにしてもよい。
 また主要被写体判定のための条件として距離Diff(n)で判定する位置条件や合焦条件を図8,図31で例示したが、さらに多様に考えられる。
 例えば候補画像のサイズが所定ピクセル以上などとするサイズ条件、被写体距離(撮像装置10と被写体の相対距離)が所定範囲内などの距離条件などを単独もしくは複合的に用いて主要被写体判定を行ってもよい。
 また画像サイズや被写体距離の時間的な変化により判定しても良い。
 また候補画像の属性を主要被写体判定条件として用いても良い。例えば被写体画像について、子供、大人、男性、女性、人、犬、猫などの属性を判定する。例えば子供であることを主要被写体の条件とするなどである。またこのような属性条件をユーザが撮像目的に応じて選択できるようにするとよい。
 また位置条件、合焦条件、サイズ条件、距離条件、属性条件は、主要被写体判定のための絶対条件ではなく優先条件としてもよい。例えば或る条件で複数の候補画像が該当した場合、その中で優先条件により主要被写体を決定するなどである。
 また主要被写体情報は、画像効果処理や画像編集処理にも利用できると述べたが、そのためには再生画像を対象として主要被写体判定処理を行うことも好適である。
 このような再生画像を対象とする主要被写体判定処理は、図1の画像処理装置、図32の情報処理装置などにおいても当然に想定される。
 また、主要被写体判定処理の結果については、その後撮像されて記録された静止画データや動画データに、メタデータとして付加してもよい。つまり主要被写体を示す情報を静止画ファイル等に付加する。
 また、スルー画を表示させ、同時に主要被写体判定処理を行っている間に、撮像者の操作による主要被写体指定操作を可能としてもよい。
 また、実施の形態では、主に静止画撮像を想定して主要被写体を判定する処理を説明したが、動画撮像のためのスタンバイ中や、動画の撮像及び記録の実行中においても、撮像される複数のフレームから主要被写体判定を行う処理として、上記実施の形態の処理を適用できる。
 なお本技術は以下のような構成も採ることができる。
 (1)撮像時のカメラワークを判定し、該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定するカメラワーク判定部と、
 上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する主要被写体判定部と、を備えた画像処理装置。
 (2)上記主要被写体判定部は、上記判定開始タイミングからの複数のフレームの画像データにおける被写体位置状態を観測し、特定の位置条件に合致した被写体のうちで主要被写体を判定する上記(1)に記載の画像処理装置。
 (3)上記特定の位置条件は、画像上での所定の位置状態を満たす状況が、複数フレームにおいて平均的、累積的、もしくは継続的に得られることである上記(2)に記載の画像処理装置。
 (4)上記主要被写体判定部は、上記判定開始タイミングからの画像データにおける被写体の合焦状態を観測し、特定の合焦条件に合致した被写体のうちで主要被写体を判定する上記(1)に記載の画像処理装置。
 (5)上記特定の合焦条件に合致する被写体とは、画像データの分割領域毎に計測した合焦度データが所定値以上となっている分割領域に位置する被写体である上記(4)に記載の画像処理装置。
 (6)上記主要被写体判定部は、上記特定の合焦条件に合致する被写体のうちであって、さらに特定の位置条件に合致した被写体のうちで主要被写体を判定する上記(4)又は(5)に記載の画像処理装置。
 (7)上記カメラワーク判定部は、撮像装置のパン又チルト動作を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
 (8)上記カメラワーク判定部は、撮像装置のパン又チルト動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
 (9)上記カメラワーク判定部は、撮像装置のズーム動作を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
 (10)上記カメラワーク判定部は、撮像装置のズーム動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
 (11)上記カメラワーク判定部は、撮像装置のパン動作からズーム動作への遷移を検出することに応じて、もしくは該ズーム動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
 (12)上記カメラワーク判定部は、撮像装置のズーム動作からパン動作への遷移を検出することに応じて、もしくは該パン動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
 (13)上記カメラワーク判定部は、撮像装置のマニュアルフォーカス動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)又は(4)又は(5)又は(6)に記載の画像処理装置。
 1…画像処理装置、2…主要被写体判定部、3…ローカル動き検出部、4…グローバル動き検出部、10…撮像装置、11…光学系、12…イメージャ、13…光学系駆動部、14…センサ部、15…記録部、16…通信部、17…距離センサ、20…デジタル信号処理部、21…前処理部、22…同時化部、23…YC生成部、24…解像度変換部、25…コーデック部、27…候補検出部、28…合焦度判定部、30…制御部、30a…主要被写体判定部、30b…カメラワーク判定部、32…UIコントローラ、33…ユーザインターフェース、34…表示部、35…操作部、70…コンピュータ装置、71…CPU

Claims (15)

  1.  撮像時のカメラワークを判定し、該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定するカメラワーク判定部と、
     上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する主要被写体判定部と、を備えた
     画像処理装置。
  2.  上記主要被写体判定部は、上記判定開始タイミングからの複数のフレームの画像データにおける被写体位置状態を観測し、特定の位置条件に合致した被写体のうちで主要被写体を判定する
     請求項1に記載の画像処理装置。
  3.  上記特定の位置条件は、画像上での所定の位置状態を満たす状況が、複数フレームにおいて平均的、累積的、もしくは継続的に得られることである
     請求項2に記載の画像処理装置。
  4.  上記主要被写体判定部は、上記判定開始タイミングからの画像データにおける被写体の合焦状態を観測し、特定の合焦条件に合致した被写体のうちで主要被写体を判定する
     請求項1に記載の画像処理装置。
  5.  上記特定の合焦条件に合致する被写体とは、画像データの分割領域毎に計測した合焦度データが所定値以上となっている分割領域に位置する被写体である
     請求項4に記載の画像処理装置。
  6.  上記主要被写体判定部は、上記特定の合焦条件に合致する被写体のうちであって、さらに特定の位置条件に合致した被写体のうちで主要被写体を判定する
     請求項4に記載の画像処理装置。
  7.  上記カメラワーク判定部は、撮像装置のパン又チルト動作を検出することに応じて判定開始タイミングを設定する
     請求項1に記載の画像処理装置。
  8.  上記カメラワーク判定部は、撮像装置のパン又チルト動作の終了を検出することに応じて判定開始タイミングを設定する
     請求項1に記載の画像処理装置。
  9.  上記カメラワーク判定部は、撮像装置のズーム動作を検出することに応じて判定開始タイミングを設定する
     請求項1に記載の画像処理装置。
  10.  上記カメラワーク判定部は、撮像装置のズーム動作の終了を検出することに応じて判定開始タイミングを設定する
     請求項1に記載の画像処理装置。
  11.  上記カメラワーク判定部は、撮像装置のパン動作からズーム動作への遷移を検出することに応じて、もしくは該ズーム動作の終了を検出することに応じて判定開始タイミングを設定する
     請求項1に記載の画像処理装置。
  12.  上記カメラワーク判定部は、撮像装置のズーム動作からパン動作への遷移を検出することに応じて、もしくは該パン動作の終了を検出することに応じて判定開始タイミングを設定する
     請求項1に記載の画像処理装置。
  13.  上記カメラワーク判定部は、撮像装置のマニュアルフォーカス動作の終了を検出することに応じて判定開始タイミングを設定する
     請求項1に記載の画像処理装置。
  14.  撮像時のカメラワークを判定して該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定し、
     上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する
     画像処理方法。
  15.  撮像時のカメラワークを判定して該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定する処理と、
     上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する処理と、
     を演算処理装置に実行させるプログラム。
PCT/JP2013/080605 2013-01-09 2013-11-12 画像処理装置、画像処理方法、プログラム WO2014109124A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US14/655,626 US9942460B2 (en) 2013-01-09 2013-11-12 Image processing device, image processing method, and program
CN201380069160.5A CN104956659B (zh) 2013-01-09 2013-11-12 图像处理装置、图像处理方法和程序
EP13870437.4A EP2945365B1 (en) 2013-01-09 2013-11-12 Image processing device, image processing method and program
JP2014556330A JP6337779B2 (ja) 2013-01-09 2013-11-12 画像処理装置、画像処理方法、プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013001799 2013-01-09
JP2013-001799 2013-01-09

Publications (1)

Publication Number Publication Date
WO2014109124A1 true WO2014109124A1 (ja) 2014-07-17

Family

ID=51166789

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/080605 WO2014109124A1 (ja) 2013-01-09 2013-11-12 画像処理装置、画像処理方法、プログラム

Country Status (5)

Country Link
US (1) US9942460B2 (ja)
EP (1) EP2945365B1 (ja)
JP (1) JP6337779B2 (ja)
CN (1) CN104956659B (ja)
WO (1) WO2014109124A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058328A1 (ja) * 2021-10-04 2023-04-13 ソニーグループ株式会社 撮像装置、制御方法、プログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017116840A (ja) * 2015-12-25 2017-06-29 オリンパス株式会社 撮像装置
US11032523B2 (en) * 2016-11-30 2021-06-08 Ncr Corporation Automated image metadata processing
CN109561249A (zh) * 2017-09-26 2019-04-02 北京小米移动软件有限公司 调整焦距的方法及装置
CN110225235B (zh) * 2018-03-01 2021-03-09 浙江宇视科技有限公司 变倍跟随方法及电动镜头
US20190379819A1 (en) * 2018-06-12 2019-12-12 Sony Corporation Detection of main object for camera auto focus
CN110505401A (zh) * 2019-08-16 2019-11-26 维沃移动通信有限公司 一种摄像头控制方法及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008028758A (ja) * 2006-07-21 2008-02-07 Canon Inc 撮像装置、その制御方法およびコンピュータプログラム
JP2008205650A (ja) * 2007-02-16 2008-09-04 Sony Corp 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
JP2010191073A (ja) * 2009-02-17 2010-09-02 Canon Inc 焦点調節装置及び焦点調節方法
JP2011146827A (ja) 2010-01-13 2011-07-28 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011146826A (ja) 2010-01-13 2011-07-28 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011160379A (ja) 2010-02-04 2011-08-18 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011166305A (ja) 2010-02-05 2011-08-25 Sony Corp 画像処理装置および撮像装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3302104B2 (ja) * 1993-06-30 2002-07-15 キヤノン株式会社 撮像装置
US6081668A (en) * 1997-10-31 2000-06-27 Canon Kabushiki Kaisha Camera
JP4655054B2 (ja) * 2007-02-26 2011-03-23 富士フイルム株式会社 撮像装置
JP5380784B2 (ja) * 2007-04-12 2014-01-08 ソニー株式会社 オートフォーカス装置、撮像装置及びオートフォーカス方法
US20080278589A1 (en) * 2007-05-11 2008-11-13 Karl Ola Thorn Methods for identifying a target subject to automatically focus a digital camera and related systems, and computer program products
JP5157256B2 (ja) * 2007-05-28 2013-03-06 株式会社ニコン 画像追尾装置および撮像装置
JP5088118B2 (ja) * 2007-12-07 2012-12-05 株式会社ニコン 焦点調節装置
JP5517435B2 (ja) 2008-10-22 2014-06-11 キヤノン株式会社 自動合焦装置および自動合焦方法、ならびに、撮像装置
JP5339954B2 (ja) 2009-02-17 2013-11-13 キヤノン株式会社 焦点調節装置及び焦点調節方法
JP5446546B2 (ja) * 2009-07-28 2014-03-19 ソニー株式会社 撮像制御装置、撮像制御方法、プログラム、撮像システム
US8611584B2 (en) * 2009-08-17 2013-12-17 Avago Technologies General Ip (Singapore) Pte. Ltd. System and method for performing optical navigation using portions of captured frames of image data
JP4991899B2 (ja) * 2010-04-06 2012-08-01 キヤノン株式会社 撮像装置及びその制御方法
JP5589527B2 (ja) * 2010-04-23 2014-09-17 株式会社リコー 撮像装置および追尾被写体検出方法
AU2010201740B2 (en) * 2010-04-30 2013-03-07 Canon Kabushiki Kaisha Method, apparatus and system for performing a zoom operation
JP5246275B2 (ja) * 2011-01-25 2013-07-24 株式会社ニコン 撮像装置およびプログラム
JP5932226B2 (ja) * 2011-02-24 2016-06-08 キヤノン株式会社 撮像装置
JP5455961B2 (ja) * 2011-04-04 2014-03-26 キヤノン株式会社 撮像装置およびその制御方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008028758A (ja) * 2006-07-21 2008-02-07 Canon Inc 撮像装置、その制御方法およびコンピュータプログラム
JP2008205650A (ja) * 2007-02-16 2008-09-04 Sony Corp 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
JP2010191073A (ja) * 2009-02-17 2010-09-02 Canon Inc 焦点調節装置及び焦点調節方法
JP2011146827A (ja) 2010-01-13 2011-07-28 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011146826A (ja) 2010-01-13 2011-07-28 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011160379A (ja) 2010-02-04 2011-08-18 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011166305A (ja) 2010-02-05 2011-08-25 Sony Corp 画像処理装置および撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2945365A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058328A1 (ja) * 2021-10-04 2023-04-13 ソニーグループ株式会社 撮像装置、制御方法、プログラム

Also Published As

Publication number Publication date
US9942460B2 (en) 2018-04-10
US20150350524A1 (en) 2015-12-03
EP2945365B1 (en) 2021-06-16
EP2945365A1 (en) 2015-11-18
EP2945365A4 (en) 2016-07-06
JPWO2014109124A1 (ja) 2017-01-19
JP6337779B2 (ja) 2018-06-06
CN104956659A (zh) 2015-09-30
CN104956659B (zh) 2018-12-14

Similar Documents

Publication Publication Date Title
JP6337779B2 (ja) 画像処理装置、画像処理方法、プログラム
WO2013153919A1 (ja) 画像処理装置、画像処理方法、プログラム
US11012614B2 (en) Image processing device, image processing method, and program
KR102008040B1 (ko) 화상 처리 장치, 화상 처리 방법, 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체
JP5987306B2 (ja) 画像処理装置、画像処理方法、プログラム
JP6131948B2 (ja) 表示制御装置、表示制御方法、プログラム
JP6094359B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2007166269A (ja) 画像処理装置、撮像装置および画像処理方法
WO2017037978A1 (ja) 検出装置、検出方法、検出プログラムおよび撮像装置
JP6274272B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2017098635A (ja) 撮影装置、画像評価方法及びプログラム
JP2010263548A (ja) 撮像装置、その制御方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13870437

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2013870437

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014556330

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14655626

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE