WO2014109124A1 - 画像処理装置、画像処理方法、プログラム - Google Patents
画像処理装置、画像処理方法、プログラム Download PDFInfo
- Publication number
- WO2014109124A1 WO2014109124A1 PCT/JP2013/080605 JP2013080605W WO2014109124A1 WO 2014109124 A1 WO2014109124 A1 WO 2014109124A1 JP 2013080605 W JP2013080605 W JP 2013080605W WO 2014109124 A1 WO2014109124 A1 WO 2014109124A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- determination
- main subject
- zoom
- pan
- execution flag
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/71—Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
Definitions
- the present disclosure relates to an image processing apparatus, an image processing method, and a program for performing processing for determining a main subject in an image.
- Recent digital still cameras and digital video cameras have a face detection function as standard, and are equipped with functions that optimally adjust various camera parameters (focus, brightness, etc.) according to the face position and area. Yes.
- Patent Document 1 describes a method in which a user designates a “main subject” as a subject tracking target in a captured image by designating the user.
- a user designates a “main subject” as a subject tracking target in a captured image by designating the user.
- subject tracking surrounding a whole body frame of an arbitrary subject can be realized.
- autofocus / automatic exposure has a function of detecting and tracking a desired area in a captured image and controlling an optical system or the like so that the area is most suitable.
- there are known techniques such as tracking an image designated as a main subject by the user, for example, an image area such as a face in the captured image, and focusing on the face area.
- the desired region for tracking and focusing in the captured image is currently selected by the photographer himself from “a plurality of candidate regions” obtained from various detectors. This is determined by selecting one candidate. For example, an arbitrary face is selected by a touch panel from a plurality of faces that are displayed on a through image displayed on the screen (a monitoring image of a subject that is displayed at a time other than the shutter operation time) while holding the camera.
- the main subject is selected by the action.
- a subject existing in a predetermined area at a user-specified timing half-press of the shutter or the like is set as a main subject.
- the act of “selection of a main subject by a photographer” is often difficult. For example, it is difficult for the user to hold the camera and select with his / her finger while aiming at the subject while he wants to use this function to keep focusing on the moving subject.
- the designation may be difficult due to the response speed of the user to the change (movement) of the subject. For example, it is a case where a moving subject cannot be specified well on a through image screen. In the first place, it is difficult for the user to select the main subject with his / her finger on the screen in the situation where the user holds the camera and selects the subject toward the subject.
- the user may perform an act of recording the image shake caused by the selection of the main subject as it is, or re-selecting when the tracking disappears (failure) due to frame-out or temporary occlusion.
- an act of recording the image shake caused by the selection of the main subject as it is or re-selecting when the tracking disappears (failure) due to frame-out or temporary occlusion.
- an object of the present disclosure is to realize a technique for determining a target subject desired by a user as a main subject without a user such as a photographer intentionally selecting a subject.
- the image processing apparatus determines a camera work at the time of imaging, and sets a determination start timing of a main subject with respect to image data based on the determination, and image data from the determination start timing, A main subject determination unit for determining a main subject among subjects included in the image data.
- the image processing method of the present disclosure determines camera work at the time of imaging, sets a main subject determination start timing for image data based on the determination, and includes the image data from the image data from the determination start timing. The main subject is determined among the subjects to be photographed.
- the program of the present disclosure is a program that causes an arithmetic processing device to execute processing for realizing the image processing device or the image processing method.
- main subject determination processing for automatically determining a main subject for image data is performed.
- the normal user can capture a subject that is considered a main subject, that is, a subject that is desired to be captured as a still image or a subject that is desired to be continuously captured as a moving image in the captured image.
- Camerawork refers to operations / operations for the user who is the photographer to capture the subject in the captured image, and operations / operations to search for the intended composition and focus state, specifically panning, There are tilting, zooming and manual focus.
- Panning means that the imager moves the handheld image pickup device in a substantially horizontal direction, or moves the image pickup direction of the image pickup device installed on a tripod, a pan head, or the like in the horizontal direction.
- Tilting means that an imager moves a hand-held image pickup device in a substantially vertical direction, or moves an image pickup direction of an image pickup device installed on a tripod, a pan head, or the like in a vertical direction.
- Zooming is an operation in which the imager changes the angle of view by operating the zoom lever (wide key / telekey) of the image pickup apparatus or manually moving the zoom lens.
- Manual focus is an operation in which the photographer moves the focus lens to change the focus position.
- the fact that the user is performing these camera works can be considered as adjusting the imaging direction, the angle of view, the focal position, etc. aiming at a certain subject, that is, a captured image (for example, a through image). It can be presumed that there is a subject that is considered to be the main. Therefore, the image processing apparatus performs camera work determination, and sets the determination start timing of the main subject for the image data based on the determination. Then, from the image data of one or a plurality of frames from the determination start timing, the main subject is determined among the subjects included in the image data. This makes it possible to determine with high accuracy as automatic main subject determination.
- the main subject is automatically determined in the captured image, it is not necessary for the user such as the photographer to select the main subject. Therefore, user operability and convenience can be improved. For example, product additions such as improved operability when holding an imaging device equipped with the image processing device of the present disclosure in hand, reduction of user stress, and realization of various functions according to automatic main subject determination Increase value. In addition, main subject determination is automatically performed at an appropriate timing, and determination accuracy can be improved.
- FIG. 6 is a block diagram of an example of composition of an image processing device of an embodiment of this indication.
- 6 is a flowchart of main subject determination processing of the image processing apparatus according to the embodiment. It is a block diagram of the composition of the imaging device of an embodiment. It is explanatory drawing of the outline
- FIG. 1 shows a configuration example of an image processing apparatus according to an embodiment.
- the image processing apparatus 1 includes a main subject determination unit 2 and a camera work determination unit 3.
- the camera work determination unit 3 determines the camera work at the time of imaging, and sets the determination start timing of the main subject for the image data based on the determination.
- the camera work determination unit 3 receives detection information Id related to the camera work at the time of imaging, and determines the camera work based on the detection information Id. Then, according to the determination result, the main subject determination unit 2 is notified of the timing for starting the main subject determination.
- the camera work is an operation / operation for a user as a photographer to capture a subject in a captured image, and an operation / operation for searching for an intended composition or in-focus state. Specifically, panning (panning), tilting (tilting), zooming (zooming), manual focusing, and the like are performed.
- the detection information Id is, for example, detection information of an operation such as zooming or manual focus of the photographer, or detection information of a sensor that detects the movement of the imaging device itself such as an angular velocity sensor (gyro sensor) or an acceleration sensor. is there.
- “camera work at the time of imaging” refers to the current camera work or camera work when image data has been captured in the past.
- the image processing apparatus 1 is an apparatus built in the imaging apparatus 10 as will be described later, or an apparatus that is connected to the imaging apparatus and supplies captured image data in real time, the photographer is currently It becomes camera work to be done.
- main subject determination is performed on image data captured in the past, the camera work at the time of past imaging is indicated.
- the main subject determination unit 2 executes main subject determination processing on the input image data Dg based on the determination start timing set by the camera work determination unit 3. For example, the main subject determination unit 2 observes the subject position state in the image data of a plurality of frames from the determination start timing of the main subject, and determines the main subject among subjects that meet a specific position condition. In addition, for example, the main subject determination unit 2 observes the in-focus state of the subject in the image data of at least one frame from the determination start timing, and determines the main subject among subjects that meet a specific focusing condition. The main subject determination unit 2 sets one or a plurality of subjects as main subjects in these processes. The main subject determination unit 2 outputs main subject information Dm as a determination result.
- the image processing apparatus 1 having the main subject determination unit 2 and the camera work determination unit 3 can be realized by a CPU (Central Processing Unit) or a DSP (Digital Signal Processor) as an arithmetic processing unit. It is also conceivable that the function as the main subject determination unit 2 is realized by a CPU or the like, and the function of the camera work determination unit 3 is realized as an image processing DSP or the like connected to the CPU, or its cooperation processing.
- a CPU Central Processing Unit
- DSP Digital Signal Processor
- step F1 the camera work determination unit 3 determines camera work by the photographer. When a predetermined camera work situation is detected in step F2, the camera work determination unit 3 performs determination start timing setting in step F3. For example, the determination execution flag is set to ON.
- the main subject determination unit 2 executes main subject determination processing in step F4, and determines a subject that meets a predetermined condition as a main subject.
- step F5 the main subject determination unit 2 outputs main subject information Dm, which is a main subject determination result, and passes it to an application program or the like. In the application program or the like, processing is performed in response to the identification of the main subject image. For example, focus control, tracking processing, image effect processing, and the like.
- the processing of the camera work determination unit 3 in steps F1 to F3 can be considered in various ways, and a specific example will be described in the processing example of the imaging device 10 to be described later, but the following situation is determined and determination start timing is set. It will be. 1. Pan operation determination: It is determined that the pan operation has started, and the determination start timing is set so that the main subject determination process is performed during the pan operation. 2. Post-panning determination: It is determined that the panning operation has been executed and ended, and the determination start timing is set so that the main subject determination process is performed after the panning operation is completed. 3. Zoom operation determination: It is determined that the zoom operation has started, and the determination start timing is set so that the main subject determination process is performed during the zoom operation. 4).
- Determination after zoom It is determined that the zoom operation has been executed and ended, and the determination start timing is set so that the main subject determination process is performed after the zoom operation is ended. 5.
- Post-pan zoom operation determination After the pan operation is executed and completed, it is further determined that the zoom operation has started, and the determination start timing is set so that main subject determination processing is performed during the zoom. 6).
- Post-zoom post-zoom determination after the pan operation is executed and completed, the zoom operation is further executed, it is determined that the zoom operation has been completed, and the main subject determination process is performed after the zoom. Set. 7).
- Post-zoom pan operation determination After the zoom operation is executed and finished, it is further determined that the pan operation has started, and the determination start timing is set so that main subject determination processing is performed during the pan.
- Post-zoom and post-pan determination After the zoom operation is executed and finished, the pan operation is further executed, it is determined that the pan operation is finished, and the determination start timing is such that the main subject determination process is performed after the pan. Set. 9. Determination after manual focus: It is determined that the manual focus operation has been executed and ended, and the determination start timing is set so that the main subject determination process is performed after the manual focus operation ends. Details of the above processes will be described later as first to ninth processing examples of the imaging apparatus 10.
- the camerawork determination and main subject determination are performed as in the example of FIG. 2 above, so that the subject that the photographer intends to be a target is estimated by camerawork, and automatically The main subject can be determined. Therefore, the main subject can be determined without depending on the user's manual operation, and the user's operability is markedly improved by mounting the image processing apparatus 1 of FIG. To improve.
- the imaging device 10 is a so-called digital still camera or digital video camera, and is a device that captures / records still images and moving images, and incorporates an image processing device as defined in the claims.
- the imaging apparatus 10 includes an optical system 11, an imager 12, an optical system driving unit 13, a sensor unit 14, a recording unit 15, a communication unit 16, a digital signal processing unit 20, a control unit 30, a user interface controller ( Hereinafter, “UI controller”) 32 and user interface 33 are included.
- UI controller user interface controller
- the optical system 11 includes a lens such as a cover lens, a zoom lens, and a focus lens, and a diaphragm mechanism.
- the optical system 11 collects light from the subject on the imager 12.
- the imager 12 includes, for example, an image sensor such as a charge coupled device (CCD) type or a complementary metal oxide semiconductor (CMOS) type.
- the imager 12 performs, for example, CDS (Correlated Double Sampling) processing, AGC (Automatic Gain Control) processing, etc., on the electrical signal obtained by photoelectric conversion in the image sensor, and further performs A / D (Analog / Digital) conversion processing. I do.
- the imaging signal as digital data is output to the digital signal processing unit 20 at the subsequent stage.
- the optical system drive unit 13 drives the focus lens in the optical system 11 based on the control of the control unit 30 and executes a focus operation. Thereby, for example, an autofocus operation is executed. Regarding the focus lens, it is also possible to move the lens as a manual focus by a user operation. The user can arbitrarily set the in-focus position by operating a focus lens transfer mechanism formed on the lens barrel. Further, the optical system driving unit 13 drives an aperture mechanism in the optical system 11 based on the control of the control unit 30, and performs exposure adjustment. Furthermore, the optical system drive unit 13 drives the zoom lens in the optical system 11 based on the control of the control unit 30 and executes a zoom operation. The user can instruct a zoom operation by operating a zoom lever of the operation unit 35 described later. Thereby, the user can obtain an arbitrary angle of view state.
- the digital signal processor 20 is configured as an image processor by a DSP or the like, for example.
- the digital signal processing unit 20 performs various signal processes on the digital signal (captured image signal) from the imager 12.
- the digital signal processing unit 20 includes a preprocessing unit 21, a synchronization unit 22, a YC generation unit 23, a resolution conversion unit 24, a codec unit 25, and a candidate detection unit 27.
- the pre-processing unit 21 performs clamp processing for clamping the R, G, and B black levels to a predetermined level on the captured image signal from the imager 12, correction processing between the R, G, and B color channels, and the like. Apply.
- the synchronization unit 22 performs demosaic processing so that the image data for each pixel has all the R, G, and B color components.
- the YC generation unit 23 generates (separates) a luminance (Y) signal and a color (C) signal from R, G, and B image data.
- the resolution conversion unit 24 performs resolution conversion processing on image data that has been subjected to various types of signal processing.
- the codec unit 25 performs, for example, a recording or communication encoding process on the resolution-converted image data.
- the candidate detection unit 27 performs image analysis processing in units of each frame (or every intermittent frame), for example, on the captured image signal (luminance signal / color signal) obtained by the YC generation unit 23, and selects candidate images. Extract. That is, face image detection, human body image detection, and the like are performed on image data continuously input on the time axis, and images that are candidates for the main subject are extracted. In addition, face detection, human body detection, etc. can be performed by pattern matching method in image analysis for captured image data, but other detectors can be realized in principle by replacing the dictionary used for pattern matching. Is possible. For example, a candidate image of a main subject may be extracted as a (specific type) dog detection / cat detection.
- a moving object detection method based on a frame difference may be used to detect a moving object, and the moving object may be used as a candidate image.
- a gaze area extraction method called “Saliency” may be used. There are various methods for extracting and selecting candidate images.
- the candidate detection unit 27 detects a face image, and extracts a region where the face image exists as a candidate image frame.
- the position information of the candidate image frame (information on x, y coordinate values, subject distance, etc. on the screen) and size information (for example, the width, height, number of pixels, etc. of the candidate image frame) Is transferred to the control unit 30 as candidate image information.
- the candidate image information is also referred to as “candidate image frame information”.
- the candidate detection unit 27 may generate candidate image frame information by performing a process such as a smoothing process and an outlier removal process on the image.
- the candidate detection unit 27 is shown as a functional configuration executed by the digital signal processing unit 20 in the example of FIG. 3, but this is an example, and the processing of the candidate detection unit 27 is executed by the control unit 30. Also good.
- the control unit 30 is configured by a microcomputer (arithmetic processing unit) including a CPU, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like.
- a microcomputer arithmetic processing unit
- the CPU executes a program stored in a ROM, a flash memory, or the like, the entire imaging apparatus 10 is comprehensively controlled.
- the RAM is used as a work area for various data processing of the CPU for temporary storage of data and programs.
- ROM and flash memory non-volatile memory
- OS Operating System
- a program for executing processing for main subject determination described later in this example, and an application program for using the main subject determination result are stored.
- Such a control unit 30 includes various signal processing instructions in the digital signal processing unit 20, an imaging operation and a recording operation according to a user operation, a reproduction operation of a recorded image file, a camera operation such as zoom, focus, and exposure adjustment. Controls the operation of each necessary unit for user interface operations and the like.
- the control unit 30 has functions as a main subject determination unit 30a and a camera work determination unit 30b, and executes camera work determination processing and main subject determination processing described later.
- the camera work determination unit 30b performs the above-described pan operation determination, post-pan determination, zoom operation determination, post-zoom determination, post-pan zoom operation determination, post-pan zoom determination, and post-zoom pan operation determination.
- One of the post-zoom and post-pan determinations is performed.
- the start timing of the main subject determination process is set. Specifically, a determination execution flag (a determination execution flag FDon described later) is turned on.
- the main subject determination unit 30a performs a process of determining the main subject in the candidate images according to the setting of the start timing based on the determination result of the camera work determination unit 30b.
- the user interface 33 executes display output and audio output for the user, and accepts user operation input. For this reason, a display device, an operation device, a speaker device, a microphone device, and the like are included. Here, a display unit 34 and an operation unit 35 are shown.
- the display unit 34 is a display unit that performs various displays for a user (imager or the like). For example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display formed on the housing of the imaging device 10.
- the display device is formed. It may be formed using an LCD, an organic EL display, or the like in the form of a so-called viewfinder.
- the display unit 34 includes the display device described above and a display driver that causes the display device to perform display. The display driver executes various displays on the display device based on instructions from the control unit 30.
- the display driver reproduces and displays still images and moving images that have been captured and recorded on a recording medium, or a through image (subject monitoring image) as a moving image based on captured image data of each frame that is captured during a release (shutter operation) standby.
- a through image subject monitoring image
- Various operation menus, icons, messages, etc. that is, display as a GUI (Graphical User Interface) is executed on the screen.
- a display that allows the user to know the determination result of the main subject determination is also executed on a through image or a reproduction image.
- the operation unit 35 has an input function for inputting a user operation, and sends a signal corresponding to the input operation to the control unit 30.
- the operation unit 35 is realized as, for example, various operators provided on the housing of the imaging device 10 or a touch panel formed on the display unit 34.
- a playback menu activation button, a determination button, a cross key, a cancel button, a zoom lever, a slide key, a shutter button (release button), and the like are provided.
- Various operations may be performed by a touch panel operation using icons, menus, and the like displayed on the touch panel and the display unit 34.
- Operations of the display unit 34 and the like of the user interface 33 are controlled by the UI controller 32 in accordance with instructions from the control unit 30. Further, operation information from the operation unit 35 is transmitted to the control unit 30 by the UI controller 32. In the case of the present embodiment, for example, operation of a zoom lever (wide key, telekey) is used for camera work determination.
- the control unit 30 detects the operation of the zoom lever via the UI controller 32, and controls the optical system driving unit 13 according to the operation information to execute zoom lens driving.
- the recording unit 15 includes, for example, a non-volatile memory, and functions as a storage area for storing image files (content files) such as still image data and moving image data, image file attribute information, thumbnail images, and the like.
- image files content files
- JPEG Joint Photographic Experts Group
- TIFF Tagged Image File Format
- GIF Graphics Interchange
- the recording unit 15 may be a flash memory built in the imaging apparatus 10, or a memory card (for example, a portable flash memory) that can be attached to and detached from the imaging apparatus 10 and a card recording / reproducing that performs recording / reproducing access to the memory card.
- the form by a part may be sufficient.
- the imaging device 10 may be realized as an HDD (Hard Disk Drive) or the like.
- a program for executing a camera work determination process and a main subject determination process described later in this example may be stored in the recording unit 15.
- the communication unit 16 performs data communication and network communication with an external device in a wired or wireless manner. For example, captured image data (still image file or moving image file) is communicated between an external display device, a recording device, a playback device, and the like.
- a network communication unit for example, communication via various networks such as the Internet, home network, and LAN (Local Area Network) may be performed, and various types of data may be transmitted and received between servers and terminals on the network. .
- the sensor unit 14 comprehensively shows various sensors. Various sensors of the sensor unit 14 transmit detected information to the control unit 30.
- the control unit 30 can perform various controls using information detected by the sensor unit 14.
- a gyro sensor angular velocity sensor
- an acceleration sensor or the like for detecting the overall movement of the imaging device 10 such as camera shake or the posture or movement (pan movement, tilt movement, etc.) of the imaging device 10 is provided. It is done.
- the control unit 30 can detect that the imaging device 10 is panned or tilted based on the detection signal of the gyro sensor.
- the sensor unit 14 includes a zoom lens position sensor that detects the position of the zoom lens in the optical system 11 and a focus lens position sensor that detects the position of the focus lens.
- a sensor that detects manual operation of the focus lens operation of the lens barrel ring
- the control unit 30 can detect the manual focus operation of the user based on the detection information of the focus lens position sensor and the information of the sensor that detects the manual operation of the focus lens.
- a sensor that detects the opening amount of a mechanical iris may be provided.
- the sensor unit 14 may be provided with an illuminance sensor that detects external illuminance for exposure adjustment and the like, and a distance measuring sensor that measures the subject distance.
- the components of the image processing apparatus 1 as described in FIG. 1 are as follows.
- the configuration corresponding to the main subject determination unit 2 in the image processing apparatus 1 of FIG. 1 is implemented by software in the control unit 30 of the imaging device 10 as the main subject determination unit 30a.
- the configuration corresponding to the camera work determination unit 3 is a camera work determination unit 30b in the control unit 30.
- the control unit 30 executes and controls the operation as the image processing method in the claims by executing the processing based on the program in the claims.
- the main subject determination is executed, for example, when the user (photographer) is aiming for the shutter timing (release timing).
- the control unit 30 automatically determines the main subject and then performs the following processing. be able to.
- the main subject set in each captured frame is tracked.
- the main subject is clearly shown to the user on the through image display, and is used for the user's angle of view adjustment (for example, subject determination in a state where the camera is held in the hand).
- the frame of the main subject is highlighted on the through image display on the display unit 34. The highlighting or the like may be performed for a certain period immediately after the determination, or may be executed as long as the main subject exists in the through image.
- Focus adjustment Auto focus control is performed on the main subject. In addition to the tracking process, even when the main subject moves around, the focus is adjusted by tracking the main subject.
- -Exposure adjustment Automatic exposure adjustment is performed based on the brightness (luminance) of the main subject.
- Directivity adjustment When sound is collected by a microphone together with imaging (for example, moving image imaging), directivity adjustment is performed according to the direction of the main subject in the angle of view space.
- Zoom control Performs automatic zoom control corresponding to the main subject. For example, automatic zoom lens driving is performed so that the main subject is always reflected in the captured image with a size larger than a predetermined size. Together with the tracking process, the angle of view may be adjusted by zooming according to the change in the distance from the main subject.
- Recording start control Triggers the start of video capture. For example, in response to the determination of the main subject, moving image recording is started.
- Image effect processing image processing such as image quality adjustment, noise reduction, and skin color adjustment is applied only to the area of the main subject in each captured frame.
- image effects such as mosaic processing, blurring processing, and painting processing in addition to the main subject area.
- Edit processing such as framing and cropping is applied to the captured image or recorded image. For example, it is possible to perform processing such as cutting out or enlarging a partial area in a frame including the main subject. Further, in the captured image data, composition adjustment can be performed by cutting the periphery of the image so that the main subject is arranged at the center of the image.
- camera work determination and main subject determination processing are executed. For example, when the imaging apparatus 10 is turned on and imaging is performed (a period during which a through image is displayed on the display unit 34), camera work determination and main subject determination processing at timing based on the camera work determination are always performed. May go. Further, when the tracking process is performed after the main subject is determined, the camera work determination and the main subject determination process may be performed again when tracking is removed. Further, camera work determination and main subject determination processing may be started by a user operation. Further, the camera work determination and main subject determination processing may always be executed when the user selects the determination execution mode, or may be executed when tracking is lost. It is also conceivable that camerawork determination and main subject determination processing are automatically activated regardless of user operations.
- the effects of performing the main subject determination process are as follows. As described above, when the photographer is holding the imaging device 10 and is aiming at a subject, an operation for designating a main subject is difficult in the first place. It is difficult for the user to specify the main subject, especially when the imaging direction is continuously changed in a certain direction, such as panning or tilting, or when the imaging direction is changed even if it is not constant. It is. Also, it is troublesome to designate the main subject many times. By automatically executing the main subject determination, such a situation is solved and an effect of reducing user stress can be obtained.
- the display unit 34 is also small, and the user performs an operation of designating a main subject on the screen. Even so, it is difficult to do accurately. Automatic determination as in this embodiment eliminates erroneous designation.
- the imaging device 10 automatically determines the main subject, the main subject is in a situation where the user holds the imaging device 10 aiming at the subject or changes the imaging direction following the subject. The determination is executed, and the effect of improving the intelligent feeling that the user feels in the apparatus and the added value can be obtained. Further, since the imaging device 10 can be used as if it is a natural role, it can be used as if a main role is taken, so that it is possible to increase the imaging opportunities and the corresponding use cases, and to provide a user with an easy-to-use camera.
- the imaging apparatus 10 of the present embodiment that automatically performs main subject determination is particularly suitable as a handheld camera.
- the main subject determination unit 30a performs the main subject determination process.
- the main subject determination process an example in which a candidate image is extracted from image data and a candidate image that is stably close to a predetermined determination reference point is determined as a main subject is given.
- FIG. 4 schematically illustrates the candidate image frame extraction operation performed by the candidate detection unit 27 illustrated in FIG. 3 and the operation of the control unit 30. 4 shows the frames FR1, FR2, FR3... Of the captured image signal input to the digital signal processing unit 20 by the operations of the optical system 11 and the imager 12 of the imaging apparatus 10.
- the candidate detection unit 27 detects candidate images for each of such consecutive frames that are sequentially input (or for each intermittent frame). For example, as shown in the figure, when there are three people in the frame FR1, each face image portion is extracted as a candidate image, and candidate image frame information for the candidate image frames E1, E2, and E3 is output. To do.
- the candidate image frame information of the candidate image frame E1 includes, for example, position information (x, y position information, subject distance information) in the image of the candidate image frame E1, size information (frame width, height, number of pixels). , Attribute information and the like.
- the candidate detection unit 27 also generates such candidate image frame information for the candidate image frames E2 and E3, and delivers them to the control unit 30 (main subject determination unit 30a).
- the candidate detection unit 27 extracts candidate images, generates candidate image frame information for each candidate image frame, and generates a control unit 30 (main subject determination unit 30a).
- the control unit 30 camera work determination unit 30b
- the determination execution flag Fdon is set to “1”.
- the control unit 30 main subject determination unit 30a
- the control unit 30 calculates the distance from the determination reference point as the position state of each candidate image frame.
- FIG. 5A shows an example of the determination reference point SP. This is an example in which the center of the image is set as the determination reference point SP.
- the xy coordinate value of the determination reference point SP be (Cx, Cy).
- the control unit 30 determines the determination criterion from the center of gravity G of each of the candidate image frames E1, E2, and E3 illustrated. The distances Diff1, Diff2, and Diff3 of the point SP are calculated.
- the determination reference point SP is an example of the center of the screen.
- the determination reference point SP may be set at a position slightly upper left from the center.
- the distance between each candidate image frame (for example, E4, E5) and the determination reference point SP is calculated.
- the determination reference point SP may be fixedly set at a position as shown in FIGS. 5A and 5B, for example, or may be arbitrarily designated by the user by a touch operation on the display screen. Further, some candidate points for determination reference points may be presented to the user on the screen of the display unit 34 so that the user can select them. Furthermore, it is also conceivable that the control unit 30 determines the optimum position in consideration of the composition and the like according to the image content, the image analysis result, etc., and automatically sets it. That is, for the determination reference point SP, A predetermined fixed position is set as the center position of the image or the position shifted from the center. ⁇ Specified arbitrarily by the user. -Some candidate points are presented to the user and set by the user selecting. The control unit 30 determines the optimum position according to the image content and automatically variably sets it. And so on.
- the distance Diff (n) as the position state for the candidate image frame E (n) is obtained at the time of each frame.
- the control unit 30 main subject determination unit 30a monitors the distance Diff (n) as the position state for each candidate image frame E (n) during the pan operation, and averages, cumulatively or continuously.
- a candidate image frame close to the determination reference point SP is determined and set as a main subject.
- the main subject determination unit 30a performs this process in response to detection of a pan operation by the camera work determination unit 30b. This operation is shown in FIG.
- FIG. 6A shows processing of the pan operation detection and determination execution flag Fdon by the camera work determination unit 30b.
- the camera work determination unit 30b executes the camera work determination from the normal state (period tnor).
- the normal state here means a state in which the user normally holds or holds the camera. That is, the normal state is a period in which none of pan, tilt, zoom, and manual focus is executed, and this will be referred to as a normal period tnor for explanation. Assume that at a certain point in time, the user performs a panning operation to move the imaging device 10 in a substantially horizontal direction (panning period tpan).
- the camera work determination unit 30b detects the pan operation during the pan determination period Tpon after the start of panning, and sets the pan execution flag Fpon to “1”.
- the determination execution flag Fdon is set to “1” in accordance with the pan execution flag Fpon.
- main subject determination processing in the main subject determination unit 30a is started.
- the main subject determination process started at this timing refers to a substantial process for determination.
- the cumulative addition value of the determination result “1” below the distance threshold Thr-diff is a cumulative time that indicates a state that is stably close to the determination reference point SP up to that point.
- the main subject determination ends.
- FIG. 7B shows an operation for detecting that the pan operation is being performed.
- the output (detection signal Sg) of the gyro sensor in the sensor unit 14 is in the vicinity of the reference level Sc (for example, zero level) unless there is a particularly large movement.
- the detection signal Sg continuously shows a substantially constant value at a certain level of positive or negative. Therefore, the threshold range Sth is set in a range of positive and negative values around the reference level Sc.
- the pan determination period Tpon is a period provided to prevent erroneous determination of a state in which the detection signal Sg is instantaneously high as a pan operation. In other words, this is a period for determining the panning with the continuity of the state where the detection signal Sg is a high value.
- the determination execution flag Fdon is processed as shown in FIG. 7A.
- the control unit 30 (camera work determination unit 30b) detects the panning operation by repeating the processing of FIG. 7A.
- the control unit 30 acquires the angular velocity information detected by the gyro sensor of the sensor unit 14 in step F200 as the detection signal Sg.
- the control unit 30 determines whether Sg> Sc + Sth / 2 or Sg ⁇ Sc-Sth / 2 is satisfied. That is, it is a process for determining whether or not the detection signal Sg is a positive or negative value exceeding the threshold range Sth using the reference level Sc and the threshold range Sth shown in FIG. 7B.
- step F206 the count value PanOnCnt is set to zero, and the pan execution flag Fpon is set to zero.
- the count value PanOnCnt is a count value for determining whether or not the pan determination period Tpon has been exceeded.
- FIG. 8 shows main subject determination processing by the control unit 30 (main subject determination unit 30a).
- the count value Cnt (n) is a value of a counter that adds the value of the comparison determination result with the distance threshold Thr-diff of the distance Diff described in FIG.
- n represents a natural number 1, 2, 3,...
- the count value Cnt (n) is applied to each detected candidate image frame E (n) like the candidate image frames E1, E2, E3.
- the corresponding count value is used.
- Cnt1, Cnt2, and Cnt3 are used as count values.
- the process for the count value Cnt (n) indicates a process for each of Cnt1, Cnt2, and Cnt3, for example.
- the distance Diff (n) collectively represents the distances Diff1, Diff2, and Diff3 from the determination reference point SP of the three candidate image frames E1, E2, and E3. This processing is used to mean processing for each of the distances Diff1, Diff2, and Diff3.
- the candidate image frame E (n) represents the candidate image frames E1, E2, E3,...
- the candidate detection unit 27 extracts a face
- the face image portion of the person A is the candidate image frame E1
- the person in common in each frame The face image portion of B
- the face image portion of the person C is set as a candidate image frame E3.
- the candidate detection unit 27 may not only detect the “face” but also perform individual (individual) discrimination.
- the control unit 30 takes in candidate image frame information for a certain frame from the candidate detection unit 27.
- the position information includes the x value and y value as the two-dimensional (xy) coordinate values of the image data, and the width w and height h of the candidate image frame as size information.
- the candidate image frame information includes subject distance (relative distance of the subject to the camera position: z value represented by a value in the z-axis direction orthogonal to the two-dimensional (xy) coordinate plane) and the number of pixels. Etc. may also be included.
- the control unit 30 calculates the coordinates of the center of gravity G for each candidate image frame E (n). For example, depending on the candidate image frame information, the coordinate value of the upper left vertex of the rectangular candidate image frame is given as the x and y coordinate values of the candidate image frame.
- the x and y coordinate values are (E (n) _x, E (n) _y). Further, as shown in FIG. 5A, the x, y coordinates are set to the origin O (x, y coordinate value is (0, 0)) at the upper left of the screen plane.
- the width w of the candidate image frame E (n) is E (n) _w
- the height h is E (n) _h.
- step F103 the control unit 30 calculates a distance Diff (n) from the center of gravity G of each candidate image frame E (n) to the determination reference point SP.
- Diff (n) ⁇ ⁇ (E (n) _cx ⁇ Cx) 2+ (E (n) _cy ⁇ Cy) 2 ⁇ Is required.
- step F111 the control unit 30 performs processing of the count value CNT (n) of the counter for determining whether or not the state close to the determination reference point SP is stably observed.
- CNT (n) CNT (n) + OFS (n)
- the count value Cnt (n) is a value representing the frequency of the state in which the candidate image frame E (m) is “close” to the determination reference point SP.
- the user touches the main subject on the screen of the display unit 34 or the subject is placed on the screen at a predetermined position and the shutter is moved.
- step F116 Since the main subject is determined with a certain length of time, if the process for the candidate image frame information in a certain amount of time (number of frames) is not performed, the process returns from step F116 to step F101 as described above. Repeated.
- a certain candidate image frame E ⁇ b> 3 may be discontinuous, but exists at a position close to the determination reference point SP on the captured image with a high frequency among a plurality of frames.
- the opportunity of incrementing the count value Cnt3 of the candidate image frame E3 in step F111 occurs, and the count value Cnt3 advances faster than the count values Cnt1 and Cnt2.
- the count value Cnt3 first reaches the count threshold value Tht.
- the control unit 30 advances the process from step F112 to F114.
- step F114 the control unit 30 determines that the candidate image frame E (n) whose count value Cnt (n) has reached the count threshold Tht is a main subject, and performs main subject setting.
- the variable TSF 1 is set. That is, during the pan operation, the subject of the candidate image that is stably close to the determination reference point SP (for example, the center of the image) is set as the main subject.
- step F115 main subject information is output and transferred to, for example, an application program or control program that uses the main subject information.
- the camera work determination process of FIG. 7A is continuously performed.
- the candidate image frame E (n) in which the count value Cnt (n) has reached the count threshold Tht it means that the main subject cannot be determined.
- the count value Cnt (n) is maintained as it is and the count value is taken over in the next pan period.
- the subject close to the determination reference point SP is determined as the main subject during the pan operation.
- the user pans the imaging apparatus 10 while capturing a subject to be captured in the captured image.
- a subject close to the determination reference point SP during panning has a high probability of being a target subject for the user, and the probability that an appropriate determination is made as a main subject determination can be increased.
- main subject determination appropriate for the photographer is automatically performed, and the operability during imaging is greatly improved. Even if the user is unfamiliar with the imaging operation, if the main subject is automatically subjected to focus control or exposure control by such main subject determination, a high-quality still image / It is possible to capture moving images.
- the count value CNT (n) corresponds to the cumulative value of the number of times that a state close to the determination reference point SP is cumulatively detected.
- the count value CNT (n) can be regarded as a value in which a state close to the determination reference point SP on average is detected. That is, in such a case, the determination in step F112 is a determination in a state that is cumulatively or averagely close to the determination reference point SP.
- weighting may be performed for the calculation of the state close to the determination reference point SP. For example, as the time after the execution period of the main subject determination process, the value of being closer to the determination reference point SP is increased.
- the subject when a photographer performs camera work aiming at a subject, the subject who wants to play a leading role is not initially captured at a desired position such as the center of the image, and the photographer gradually adjusts the direction of the camera. For example, the subject is captured in the center of the image during the panning process. Considering this, at first, the subject that the photographer has in mind as the “main subject” is gradually captured at the center of the image as time advances.
- the positional state of the candidate image frame is the positional relationship with the set determination reference point SP, but may be the positional relationship with the determination reference region.
- an area such as a square or a circle such as the center of the image is set and used as a determination reference area.
- the positional relationship between each candidate image frame E (n) and the determination reference region is, for example, -Whether the center of gravity is in the criterion area-Whether the entire area is in the criterion area-Whether at least a part is in the criterion area-The distance from the outer edge of the criterion area is within a predetermined range Whether or not.
- a candidate image frame E (n) in which such a positional relationship condition is satisfied on an average, cumulative, or continuously basis may be determined as the main subject.
- Second Processing Example (Post-Bread Determination)> As a second processing example, an example in which main subject determination is executed after a panning operation will be described. In the following second to eighth processing examples, the main subject determination process is the same as that in FIG. 8, and the description thereof will be omitted. The camera work determination process will mainly be described. In the second processing example, the control unit 30 (camera work determination unit 30b) determines that the user has ended the pan operation for moving the imaging device 10 in a substantially horizontal direction. After the pan operation is completed, the main subject determination unit 30a performs the main subject determination process.
- FIG. 9 shows the post-pan determination operation.
- the determination during the pan operation that is, the pan execution flag Fpon is set by comparing the detection signal Sg from the gyro sensor with the threshold range Sth as in the first processing example.
- the pan execution flag Fpon the current value and the previous value are compared (subtracted), and the pan transition flag Fp_trans is set. Since the pan execution flag Fpon is “1” or “0”, subtracting the current value from the value immediately before the pan execution flag Fpon results in either “0”, “+1”, or “ ⁇ 1”. Become.
- the pan transition flag Fp_trans is differential information of the pan execution flag Fpon, specifically, information that detects the start and end of panning.
- the pan transition flag Fp_trans + 1 is information indicating the end point of panning.
- the determination start waiting period TdonStart and the upper limit period TdonEnd are, for example, fixed values.
- Such post-pan determination processing is performed as shown in FIG.
- the control unit 30 (camera work determination unit 30b) repeats the processing of FIG. 10 to set the determination execution flag Fdon.
- steps F200 to F206 are the same as steps F200 to F206 of FIG. 7A. That is, the pan execution flag Fpon is set according to the detection signal Sg of the gyro sensor.
- the count flag Fcntup is a flag for processing branch control that is set to “1” in step F212 and set to “0” in step F220.
- the count flag Fcntup is “1” only during the period from when the pan transition flag Fp_trans becomes “1” until the upper limit period TdonEnd is reached. Accordingly, the count flag Fcntup is “0” before the pan transition flag Fp_trans becomes “1”.
- the control unit 30 proceeds from step F211 to F212, and increments the count value Fdoncnt.
- the count flag Fcntup 1.
- step F220 the count flag Fcntup is set to “0”.
- the main subject is set in the period after panning.
- the period after panning is estimated to be the period immediately after the photographer captures the target subject by panning. it can. Then, there is a high possibility that the target subject exists in the image data. Therefore, by determining the subject that is stable in the state close to the determination reference point SP in the period shown in FIG. 8 as the main subject, the main subject setting with high accuracy is realized. In addition, the user's operability is improved by automatic main subject determination.
- an upper limit period TdonEnd is provided to limit the period during which main subject determination is performed.
- allocating a very long period to the main subject determination process leaves the operation status immediately after tracking the target subject by panning, and the main subject may not exist in the image due to the user's will. Get higher. Therefore, by limiting the period after panning to some extent, the probability of determining the subject tracked by panning as the main subject is increased.
- FIG. 11B shows an operation for detecting that the zoom operation is being performed.
- the zoom operation can be detected by the user operating the zoom lever of the operation unit 35.
- the control unit 30 controls the optical system driving unit 13 to execute zoom lens movement. Therefore, the control unit 30 determines that the period during which the zoom lever is continuously operated is during the zoom operation.
- the operation of the imaging apparatus 10 shifts from the normal period tnor in FIG. 11B to the zoom period tzm. That is, the zoom lens movement is started.
- the zoom determination period Tzon is a period provided to determine that a continuous zoom operation is being performed. That is, it is a period for excluding the case where the user operates the zoom lever for a short time.
- the control unit 30 (camera work determination unit 30b) repeatedly executes the process of FIG. 11A.
- step F300 the control unit 30 acquires the operation state of the zoom lever and sets a variable Szoom.
- step F301 the variable Szoom is referenced to determine whether or not the zoom lever is currently being pressed, that is, whether or not the zoom operation is being performed.
- step F306 sets the count value ZoomOnCnt to zero, and sets the zoom execution flag Fzon to zero.
- the count value ZoomOnCnt is a count value for determining whether or not the zoom determination period Tzon has been exceeded.
- the subject close to the determination reference point SP is determined as the main subject during the zoom operation.
- a user performs a zoom operation while capturing a subject to be captured in a captured image. That is, the subject close to the determination reference point SP during zooming is often the target subject for the user, and the probability of obtaining the main subject determination result desired by the user can be increased.
- the user's operability is improved by automatic main subject determination.
- FIG. 12 shows the post-zoom determination operation.
- the determination during the zoom operation that is, the zoom execution flag Fzon is set by detecting the user's continuous operation of the zoom lever, as in the third processing example.
- the zoom transition flag Fz_trans becomes differential information of the zoom execution flag Fzon, and specifically, information that detects the start and end of continuous zoom operation.
- the determination start waiting period TdonStart and the upper limit period TdonEnd are, for example, fixed values.
- Such post-zoom determination processing is performed as shown in FIG.
- the control unit 30 (camera work determination unit 30b) repeats the processing of FIG. 13 to set the determination execution flag Fdon.
- the previous zoom execution flag Fzon_1 is the value of the zoom execution flag Fzon at the time of the previous step F310. Accordingly, the zoom transition flag Fz_trans is one of “0”, “+1”, and “ ⁇ 1” described in FIG.
- the value of the current zoom execution flag Fzon is substituted into the previous zoom execution flag Fzon_1.
- the count flag Fcntup is a flag for processing branch control which is set to “1” in step F312 and set to “0” in step F320.
- the count flag Fcntup is “1” only during the period from when the zoom transition flag Fz_trans becomes “1” until the upper limit period TdonEnd is reached. Accordingly, before the zoom transition flag Fz_trans becomes “1”, the count flag Fcntup is “0”.
- the zoom transition flag Fz_trans returns to “0”, but the count flag Fcntup is “1”.
- step F316 the count value Fdoncnt exceeds the upper limit period TdonEnd.
- step F320 the count flag Fcntup is set to “0”.
- the main subject is set in the period after zooming.
- the period after zooming is the zooming of the target subject by the photographer to change the angle of view.
- the period immediately after the setting can be estimated, and there is a high possibility that the target subject exists in the image data. Therefore, by determining the subject that is stable in the state close to the determination reference point SP in the period shown in FIG. 8 as the main subject, the main subject setting with high accuracy is realized. In addition, the user's operability is improved by automatic main subject determination.
- the determination start waiting period TdonStart in the case of the fourth processing example is preferably set shorter than the determination start waiting period TdonStart in the second processing example.
- the upper limit period TdonEnd is provided to limit the period during which the main subject determination is performed. After zooming, dedicating a very long period to the main subject determination process leaves the operation state of zoom angle of view adjustment to the target subject by zooming, and there is a certainty that the main subject exists at a position close to the determination reference point SP. Lower. Therefore, the accuracy of main subject determination is increased by limiting the period after zooming to some extent.
- FIG. 14 shows an operation for determining the zoom operation after panning.
- the pan execution flag Fpon is set based on the comparison result between the detection signal Sg from the gyro sensor and the threshold range Sth, as in the first processing example. Then, for the pan execution flag Fpon, the current value and the previous value are compared (subtracted), and the pan transition flag Fp_trans is set.
- the pan transition flag Fp_trans + 1 is information indicating the pan end time.
- the zoom operation is detected within the transition limit period Tpan_zoom, which is a fixed value, for example, from the end of panning. If the zoom operation is not detected within the transition limit period Tpan_zoom, it is determined that the continuous operation from pan to zoom has not been performed, and the determination execution flag Fdon is not set to “1”. That is, main subject determination is not performed.
- the control unit 30 (camera work determination unit 30b) repeatedly executes the processes of FIGS. Steps F350 to F357 in FIG. 15 are the same as steps F200 to F206 and F210 in FIG. 10 and thus will not be described redundantly. It is processing to do.
- the count flag Fpe_cntup is a flag for processing branch control that is set to “1” in step F359. Specifically, it is a flag that is set to “1” at the end of panning and causes steps F359 and F362 to be executed thereafter.
- the control unit 30 proceeds from step F358 to F360 and sets the count value PanEndCnt to zero.
- the count flag Fpe_cntup is set to “0”.
- the count value PanEndCnt is a value of a counter that counts the transition limit period Tpan_zoom shown in FIG.
- the pan transition flag Fp_trans 1 when the pan operation is finished.
- the control unit 30 proceeds from step F358 to F359, and increments the count value PanEndCnt. That is, counting of the transition limit period Tpan_zoom is started.
- the count flag Fpe_cntup 1.
- the control unit 30 performs zoom determination processing.
- the zooming determination process is shown in FIG. In the process of FIG. 15 at the next time point, the pan transition flag Fp_trans returns to “0”, but the count flag Fpe_cntup is “1”. Proceed to The count flag Fpe_cntup is set to “0” when the zoom operation is not detected within the transition limit period Tpan_zoom, or when the zoom operation is completed. (In-zoom determination process) is repeatedly performed.
- the zoom determination process (F362) in FIG. 16 basically uses the concept of the third processing example.
- step F371 it is determined whether or not the zoom lever is currently pressed with reference to the variable Szoom.
- the control unit 30 proceeds from step F371 to F376, and checks whether the count value PanEndCnt has reached the transition limit period Tpan_zoom.
- step F377 the count value ZoomOnCnt is set to zero
- the zoom execution flag is set.
- Set Fzon the count value ZoomOnCnt is a count value for determining whether or not the zoom determination period Tzon has been exceeded from the detection of the user's zoom operation (for continuous zoom operation determination).
- step F376 the process proceeds from step F376 to step F360 in FIG. In this case, the zoom operation after panning is not detected.
- the determination execution flag Fdon remains “0”.
- step F371 the process proceeds from step F371 to F376.
- the subject close to the determination reference point SP is determined as the main subject during the post-pan zoom operation.
- the user searches for a target subject by panning, and performs zooming when adjusting the angle of view when the target subject is captured. Therefore, the subject close to the determination reference point SP during zooming after panning is often the subject intended by the user, and the probability of obtaining the main subject determination result desired by the user can be increased. In addition, the user's operability is improved by automatic main subject determination. Further, in the above processing example, since the determination is made by providing the transition limit period Tpan_zoom from pan to zoom, it is possible to accurately determine the continuous operation of pan ⁇ zoom.
- FIG. 17 shows the post-pan / zoom determination operation.
- the concept described in the fourth processing example is used. That is, for the zoom execution flag Fzon, the current value and the previous value are compared (subtracted), and the zoom transition flag Fz_trans is set.
- the zoom transition flag Fz_trans + 1 is information indicating the zoom end point.
- the post-zoom determination processing (F365) in FIG. 19 basically uses the concept of the fourth processing example.
- the determination execution flag Fdon remains “0”.
- Steps F380 to F388 are the same as steps F310 to F318 in FIG. Accordingly, the following processing is performed.
- the process of FIG. 19 proceeds from step F371 to F376, and the count value PanEndCnt often exceeds the transition limit period Tpan_zoom.
- the process proceeds in the order of steps F379 ⁇ F378 ⁇ F380 ⁇ F381 ⁇ F382.
- step F105 to F115 substantial determination processing
- the subject close to the determination reference point SP after zooming after panning is determined as the main subject.
- the user searches for a target subject by panning, and performs zooming when adjusting the angle of view when the target subject is captured. Therefore, after zooming after panning, the subject close to the determination reference point SP is often the subject intended by the user, and the probability of obtaining the main subject determination result desired by the user can be increased. In addition, the user's operability is improved by automatic main subject determination.
- FIG. 20 shows an operation for determining a pan operation after zooming.
- the zoom execution flag Fzon is set by determining the continuity of the user's zoom lever operation.
- the zoom transition flag Fz_trans is set.
- the zoom transition flag Fz_trans + 1 is information indicating the end point of panning.
- a pan operation is detected within a transition limit period Tzoom_pan, which is a fixed value, for example, from the end of zooming. If a pan operation is not detected within the transition limit period Tzoom_pan, it is determined that a continuous operation from zoom to pan has not been performed, and the determination execution flag Fdon is not set to “1”. That is, main subject determination is not performed.
- the concept described in the first processing example is used to detect the pan operation. That is, the pan execution flag Fpon is set based on the comparison result between the detection signal Sg from the gyro sensor and the threshold range Sth.
- the pan execution flag Fpon is set to “1”.
- Steps F400 to F407 in FIG. 21 are the same as steps F300 to F306 and F310 in FIG. 13 and therefore will not be described redundantly. It is processing to do.
- the count flag Fze_cntup is a flag for processing branch control that is set to “1” in step F409. Specifically, it is a flag that is set to “1” at the end of zooming and causes steps F409 and F412 to be executed thereafter.
- the control unit 30 proceeds from step F408 to F409, and increments the count value ZoomEndCnt. That is, counting of the transition limit period Tzoom_pan is started.
- the count flag Fze_cntup 1.
- the control unit 30 performs a panning determination process. The during-pan determination process is shown in FIG. In the process of FIG. 21 at the next time point, the zoom transition flag Fz_trans returns to “0”, but the count flag Fze_cntup is “1”. Proceed to The count flag Fze_cntup is set to “0” when the pan operation is not detected within the transition limit period Tzoom_pan or when the pan operation is completed. (During panning determination process) is repeatedly performed.
- the zoom determination process (F412) in FIG. 22 basically uses the concept of the first processing example.
- the control unit 30 acquires the angular velocity information detected by the gyro sensor of the sensor unit 14 in step F420 of FIG. 22 as the detection signal Sg.
- the control unit 30 determines whether or not Sg> Sc + Sth / 2 or Sg ⁇ Sc ⁇ Sth / 2 is satisfied. That is, using the values of the reference level Sc and the threshold range Sth shown in FIG. 7B, it is determined whether or not the detection signal Sg is a positive or negative value that exceeds the threshold range Sth.
- step F421 the control unit 30 proceeds from step F421 to F426, and the count value ZoomEndCnt is set to the transition limit period.
- step F426 the process proceeds from step F426 to F427.
- step F428 the count value PanOnCnt is set to zero, and the pan execution flag is set.
- the count value PanOnCnt is a count value for determining whether or not the pan determination period Tpon has been exceeded from the detection of the pan operation.
- step F426 If the count value ZoomEndCnt that starts counting after zooming reaches the transition limit period Tzoom_pan, that is, if no pan operation is detected within the transition limit period Tzoom_pan, the process proceeds from step F426 to step F410 in FIG. In this case, the panning operation after zooming is not detected.
- the determination execution flag Fdon remains “0”.
- step F421 the process proceeds from step F421 to step F426.
- the pan execution flag Fpon 1
- the subject close to the determination reference point SP is determined as the main subject during the post-zoom pan operation.
- the user may take an operation of searching for a target subject by panning after adjusting the angle of view by zooming. Therefore, the subject close to the determination reference point SP during the post-zoom pan operation is often the target subject for the user, and the probability of obtaining the main subject determination result desired by the user can be increased.
- the user's operability is improved by automatic main subject determination.
- the determination is made by providing the zoom-to-pan transition limit period Tzoom_pan, so that the continuous operation of zoom ⁇ pan can be accurately determined.
- FIG. 23 shows an operation for post-zoom and post-pan determination.
- Seventh processing for determination of the end of the zoom operation processing of the zoom execution flag Fzon and zoom transition flag Fz_trans
- determination of the pan operation within the transition limit period Tzoom_pan from the end of zoom processing of the pan execution flag Fpon
- the concept described in the second processing example is used. That is, for the pan execution flag Fpon, the current value and the previous value are compared (subtracted), and the pan transition flag Fp_trans is set.
- the pan transition flag Fp_trans + 1 is information indicating the pan end time.
- the post-pan determination process (F415) in FIG. 25 basically uses the concept of the second process example.
- the determination execution flag Fdon remains “0”.
- Steps F430 to F438 are the same as steps F210 to F218 in FIG. Accordingly, the following processing is performed.
- the process of FIG. 25 proceeds from step F421 to F426, and the count value ZoomEndCnt often exceeds the transition limit period Tzoom_pan, but is after the increment of the count value Fdoncnt is started.
- the process proceeds in the order of steps F429 ⁇ F428 ⁇ F430 ⁇ F431 ⁇ F432.
- the subject close to the determination reference point SP after panning after zooming is determined as the main subject.
- the user may take an operation of searching for a target subject by panning after adjusting the angle of view by zooming. Therefore, the subject close to the determination reference point SP after zooming and panning is often the subject intended by the user, and the probability of obtaining the main subject determination result desired by the user can be increased.
- the user's operability is improved by automatic main subject determination.
- the control unit 30 (camera work determination unit 30b) sets the determination start timing in response to detecting the end of the manual focus operation of the imaging device 10.
- the control unit 30 (main subject determination unit 30a) observes the in-focus state of the subject in the image data of at least one frame from the determination start timing, and determines the main subject among subjects that meet a specific focusing condition.
- a subject that matches a specific focusing condition is a subject that is located in a divided region in which the degree-of-focus data measured for each divided region of image data is a predetermined value or more.
- a main subject may be determined among subjects that meet a specific position condition.
- the configuration of the imaging device 10 is as shown in FIG. In FIG. 26, the same parts as those in FIG.
- the imaging apparatus 10 of FIG. 26 includes a focus degree determination unit 28 in addition to the configuration of FIG.
- the focus degree determination unit 28 determines the focus degree for each divided region (block) obtained by dividing the captured image.
- a technique for determining the degree of focus for example, a known autofocus detection technique can be used. For example, by detecting an edge component of a luminance signal and performing integration processing or the like on the detected edge component, a value that becomes higher as the focus is achieved, that is, a value corresponding to the degree of focus can be obtained.
- the candidate detection unit 27 is provided as in FIG. 3, and a candidate image frame is extracted. Note that the functions as the candidate detection unit 27 and the focus degree determination unit 28 may be implemented by software in the control unit 30.
- FIG. 27 shows the frames FR1, FR2, FR3,... Of the captured image signal input to the digital signal processing unit 20 by the operations of the optical system 11 and the imager 12 of the imaging apparatus 10.
- the candidate detection unit 27 selects a candidate image (for example, candidate image frame E1, E1) from each of consecutive frames (or intermittent frames) that are sequentially input. E2, E3) are detected.
- the candidate image frame information is transferred to the control unit 30 (main subject determination unit 30a).
- the control unit 30 calculates distances Diff1, Diff2, and Diff3 from the center of gravity G of each candidate image frame E1, E2, and E3 to the determination reference point SP.
- the focus degree determination unit 28 calculates the degree of focus for each block for each of consecutive frames that are sequentially input (or for each intermittent frame). To do.
- a block as a divided area is shown.
- One image data is divided into a large number of blocks as indicated by broken lines.
- each block is referred to as a block BK (BK1, BK2,... BK (M)).
- the focus degree determination unit 28 obtains the focus degree for each of the blocks BK1, BK2,... BK (M) as numerical information, for example.
- the focus degree “10” is obtained for the block BK1
- the focus degree “22” is obtained for the block BK2.
- the degree of focus is “100” as the maximum value. For example, if the degree of focus is “80” or more, it is determined that the in-focus state.
- the focus degree determination unit 28 obtains the focus degree for each block BK in this way for each frame, for example, and passes it to the control unit 30.
- FIG. 28 shows the variation in the degree of focus for each block BK for each frame.
- persons H1, H2, and H3 as subjects are located at distances D1, D2, and D3 as distances from the imaging device 10, respectively.
- the photographer performs a manual focus operation and changes the focus position between the near side and the far side.
- the near side as shown in the upper diagram of FIG. 28B, the person H1 is focused, while the persons H2 and H3 are out of focus (shown by dotted lines in the figure).
- the frame of the captured image at this time as shown in the lower diagram of FIG.
- the value of the focus degree is high in the block BK (hatched block) where the person H1 is located.
- the person H2 is focused and the persons H1 and H3 are out of focus as shown in the upper diagram of FIG. 28C.
- the value of the focus level is high in the block BK (hatched block) where the person H2 is located.
- the far side is further focused, the person H3 is focused and the persons H1 and H2 are out of focus as shown in the upper diagram of FIG. 28D.
- the value of the degree of focus is high in the block BK (hatched block) where the person H3 is located.
- the camera work determination unit 30b first detects a manual focus operation, and notifies the main subject determination unit 30a of the timing after the manual focus ends.
- the main subject determination unit 30a determines a candidate image located in the block BK having a high degree of focus as a main subject among the candidate images in the frame image data at the timing.
- FIG. 29 shows a case where manual focus is performed from the near side to the far side in the example of FIG. It is assumed that the persons H1, H2, and H3 are the candidate image frames E1, E2, and E3, respectively, and the focus degrees of the portions of the candidate image frames are illustrated. As the focus lens is moved from the near side to the far side during the manual focus period tmf, a subject with a high degree of focus transitions in the order of candidate image frames E1 ⁇ E2 ⁇ E3.
- FIG. 30 shows an example of post-manual focus determination processing performed by the control unit 30 (camera work determination unit 30b).
- the count value MfOnCnt is a count value for determining whether or not the manual focus determination period Tmfon has been exceeded.
- step F507 the focus end flag Fmfend is set, and in step F508, it is substituted for the determination execution flag Fdon.
- FIG. 31 shows main subject determination processing by the control unit 30 (main subject determination unit 30a).
- the control unit 30 continues to take in candidate image frame information from the candidate detection unit 27 for main subject determination.
- the control unit 30 selects a focus degree determination block to be noted for each candidate image frame E (n) in step F605.
- the focus degree determination unit 28 calculates the value of the focus degree for each block BK.
- the area as each block BK for which the in-focus level is obtained does not coincide with the area of the candidate image frame E (n). Therefore, it is selected which block BK each candidate image frame E (n) corresponds to, and further, which block BK is used to determine the degree of focus of each candidate image frame E (n). It will be. This will be described with reference to FIG. FIG. 32A shows the relationship between each candidate image frame E1, E2, E3 and the block BK.
- the candidate image frame E1 is assumed to exist across blocks BK8, BK9, BK15, and BK16 as shown in FIG. 32B.
- the candidate image frame E2 exists in the blocks BK11, BK12, BK18, and BK19 as shown in FIG. 32C
- the candidate image frame E3 exists in the blocks BK6, BK7, BK13, and BK14 as shown in FIG. 32D.
- 32B, 32C, and 32D show the value of the degree of focus of the block BK as a numerical value in each block BK.
- the selection of the focus degree determination block in step F605 is processing for selecting the blocks BK8, BK12, and BK7 that are hatched in FIGS. 32B, 32C, and 32D for the candidate image frames E1, E2, and E3, respectively.
- the candidate image frame E1 in FIG. 32B will be described.
- the blocks BK8, BK9, BK15, and BK16 including the candidate image frame E1 are selected.
- the block BK (block BK8 in this example) having the highest area occupancy ratio of the candidate image frame E1 is used as the focus degree determination block. Since each block BK is a fixedly divided image, the range of each block BK is known to the control unit 30.
- candidate image frame information includes information on the x value, y value, candidate image frame width w, and height h as two-dimensional (xy) coordinate values. Supplied from the unit 27. Therefore, the control unit 30 can determine the block BK having the highest area occupancy rate for each candidate image frame E (n).
- step F606 the control unit 30 refers to the focus degree value of the focus degree determination block selected for each candidate image frame E (n) and determines whether or not it is in focus. For example, when the value of the focus degree is “80” or more, it is determined that the focus is achieved.
- step F607 the control unit 30 calculates the distance Diff (n) from the centroid G of each candidate image frame E (n) to the determination reference point SP calculated in step F603 for each candidate image frame E (n). Determine whether distance is less than DiffMIN. That is, it is determined whether or not each candidate image frame E (n) is close to the determination reference point SP set as, for example, the screen center point.
- Candidate image frame E (n) is determined as the main subject.
- the candidate image frame E1 of FIG. 32B is determined to be in focus because the focus degree of the focus degree determination block BK8 is “90”, but the distance Diff (n) is longer than the determination reference distance DiffMIN.
- the candidate image frame E2 in FIG. 32C is determined to be in focus because the in-focus level of the in-focus level determination block BK12 is “95”, and the distance Diff (n) is shorter than the determination reference distance DiffMIN.
- the subject is determined.
- the candidate image frame E3 in FIG. 32D is not determined as a main subject by determining that the in-focus level of the in-focus level determination block BK7 is “30” and not in focus.
- the above-described camera work determination processing and main subject determination processing can increase the accuracy with which the user can determine the target subject as the main subject. If such main subject determination automatically performs focus control or exposure control on the main subject, high-quality still image / moving image capturing is possible. Of course, in this case as well, main subject determination appropriate for the photographer is automatically performed, and the operability during imaging is greatly improved.
- one focus degree determination block is selected by the occupation ratio for the candidate image frame E (n), but there are other selection methods.
- a block in which the center of gravity or center of the candidate image frame E (n) is located may be used as the focus degree determination block.
- the block where the specific part in the candidate image is located may be used as the focus degree determination block.
- the block with the highest focus degree value or the block with the lowest focus degree
- a focus degree determination block such as a block closest to the determination reference point SP (or a farthest block) may be selected based on position conditions.
- a plurality of blocks in which the candidate image frame E (n) is located may be all in-focus level determination blocks.
- the focus determination in step F606 may use the average value of the focus degrees of the plurality of focus degree determination blocks, or use the maximum value and the minimum value. In this case, it is not necessary to calculate the occupation ratio for making one block a focus degree determination block, and the calculation load can be reduced.
- the main subject determination is an example of the AND condition of the focusing condition and the position condition
- the determination may be made only with the focusing condition without the position condition. That is, all candidate image frames E (n) determined to be in focus in step F606 may be determined as main subjects. Alternatively, when there are a plurality of candidate image frames E (n) determined to be in focus in step F606, one candidate image frame E (n) having the highest degree of focus is determined as the main subject. May be.
- the determination of the focusing condition may be performed using the value of the focusing degree in a plurality of frames. For example, for an in-focus level determination block, an average value, maximum value, or minimum value of in-focus values in a plurality of consecutive frames is calculated. For example.
- the candidate image frame E (n) including, for example, the center area of the screen as the determination reference area and including all of the candidate image frame E (n) is not the condition that the position is close to the determination reference point SP
- the candidate image frame E (n) including the center of gravity, the candidate image frame E (n) including more than half of the area may be used as the position condition.
- the position condition may be set as a candidate image frame E (n) that is not an edge on the image, a candidate image frame E (n) in a specific block range, or the like.
- the candidate image frame E (n) is extracted in parallel, but the candidate image frame E (n) may be extracted after determining the in-focus block.
- this is an example in which candidate detection is performed within the in-focus block BK or a block in the vicinity thereof, and the extracted candidate image is determined as the main subject.
- the block BK near the center of the image data is used to calculate the degree of focus for some blocks BK.
- the subject considered by the photographer who wants to be the main subject is a block near the center when the focus determination unit 28 considers that the photographer adjusts the imaging direction so that it is as close to the center of the image as possible. Even when the focus degree determination is performed only for BK, it is possible to set the main subject with high accuracy, and also to reduce the processing load of the focus degree determination unit 28 and the control unit 30.
- the blocks BK1 to BK (M) have been described.
- the number of divisions may be variously divided into four divisions, six divisions, eight divisions, nine divisions,.
- the larger the number of blocks the greater the processing load for calculating the degree of focus and selecting the degree-of-focus determination block.
- the main subject can be determined with high accuracy even when the candidate image is small due to the zoom state or the small subject.
- the smaller the number of blocks the lighter the processing load.
- the blocks BK to be divided need not all have the same area or the same region shape. For example, it is conceivable that one block BK has a wide range at the end of the image and the center of the screen is divided into fine blocks BK. Considering the high probability of the vicinity of the center of the screen as the position where the main subject exists, it is appropriate to divide the area finely at the center of the screen.
- the program according to the embodiment is a program that causes an arithmetic processing device such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor) to execute the processing described in the above-described embodiment. That is, this program determines the camera work at the time of imaging and sets the determination start timing of the main subject for the image data based on the determination, and the subject included in the image data from the image data from the determination start timing.
- this program determines the camera work at the time of imaging and sets the determination start timing of the main subject for the image data based on the determination, and the subject included in the image data from the image data from the determination start timing.
- the program according to the embodiment may be a program that causes the arithmetic processing unit to execute the processes described in FIG. 2 and the first to ninth processing examples. With such a program, an apparatus for executing the main subject determination described above can be realized using an arithmetic processing unit.
- Such a program can be recorded in advance in an HDD as a recording medium built in a device such as a computer device, a ROM in a microcomputer having a CPU, or the like.
- a flexible disk CD-ROM (Compact Disc Read Only Memory), MO (Magnet optical) disk, DVD (Digital Versatile Disc), Blu-ray Disc (Blu-ray Disc (registered trademark)), magnetic disk, semiconductor memory, It can be stored (recorded) temporarily or permanently in a removable recording medium such as a memory card.
- a removable recording medium can be provided as so-called package software.
- such a program can be downloaded from a removable recording medium to a personal computer or the like, or downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
- LAN Local Area Network
- Such a program is suitable for providing a wide range of image processing apparatuses according to the embodiments.
- a program for example, by downloading a program to a personal computer, a portable information processing device, a mobile phone, a game device, a video device, a PDA (Personal Digital Assistant) or the like, the portable information processing device or the like is changed to the image processing device of the present disclosure. can do.
- a computer device as shown in FIG. 33 processing similar to the main subject determination processing in the image processing device 1 or the imaging device 10 in FIG. 1 can be executed.
- the CPU 71 of the computer device 70 executes various processes according to a program stored in the ROM 72 or a program loaded from the storage unit 78 to the RAM 73.
- the RAM 73 also appropriately stores data necessary for the CPU 71 to execute various processes.
- the CPU 71, ROM 72, and RAM 73 are connected to each other via a bus 74.
- An input / output interface 75 is also connected to the bus 74.
- the input / output interface 75 includes an input unit 76 such as a keyboard and a mouse, a display such as a CRT (Cathode Ray Tube) or LCD or an organic EL panel, an output unit 77 such as a speaker, and a hard disk.
- a communication unit 79 including a storage unit 78 and a modem is connected. The communication unit 79 performs communication processing via a network including the Internet.
- a drive 80 is connected to the input / output interface 75 as necessary, and a removable medium 81 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is Installed in the storage unit 78 as necessary.
- a removable medium 81 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is Installed in the storage unit 78 as necessary.
- a program constituting the software is installed from a network or a recording medium.
- the recording medium is distributed to distribute the program to the user separately from the apparatus main body, and includes a magnetic disk (including a flexible disk) on which the program is recorded, an optical disk (Blu-ray). Disk, CD-ROM, DVD), magneto-optical disk (MD (Mini Disc), or a removable medium 81 made of a semiconductor memory or the like.
- it is configured by a ROM 72 in which a program is recorded and a hard disk included in the storage unit 78 that is distributed to the user in a state of being pre-installed in the apparatus main body.
- the CPU 71 when the moving image data is input by the reception operation by the communication unit 79 or the reproduction operation by the drive 80 (removable medium 81) or the recording unit 78, the CPU 71 is based on the program.
- the functions of the camera work determination unit 3 and the main subject determination unit 2 described above are provided, and the input image data is automatically performed by executing the processing shown in FIG. 2 or the first to ninth processing examples.
- the main subject can be determined. In this case, it is necessary to determine the camera work at the time of imaging performed in the past.
- the CPU 71 can detect pan, zoom, and focus (change in focus position) by analyzing the frame image data.
- the CPU 71 can determine the camerawork with reference to the metadata.
- the period during which the operation continues is the main subject determination period. If the main subject determination is not completed, the main subject determination may be continued even after the pan operation or zoom operation is finished.
- the position condition and the focusing condition determined by the distance Diff (n) are illustrated as the conditions for determining the main subject in FIGS. 8 and 31, they can be considered more variously.
- the main subject determination is performed using a size condition in which the size of the candidate image is a predetermined pixel or more, a distance condition in which the subject distance (relative distance between the imaging device 10 and the subject) is within a predetermined range, or the like. Also good.
- the determination may be made based on temporal changes in the image size or subject distance.
- the attribute of the candidate image may be used as the main subject determination condition. For example, attributes such as children, adults, men, women, people, dogs, and cats are determined for the subject image. For example, being a child is a condition of the main subject.
- the position condition, the focusing condition, the size condition, the distance condition, and the attribute condition may be priority conditions instead of absolute conditions for main subject determination. For example, when a plurality of candidate images fall under a certain condition, the main subject is determined according to the priority condition among them.
- the main subject information can also be used for image effect processing and image editing processing.
- Such a main subject determination process for a reproduced image is naturally assumed in the image processing apparatus in FIG. 1, the information processing apparatus in FIG.
- the result of the main subject determination process may be added as metadata to still image data or moving image data that has been captured and recorded thereafter. That is, information indicating the main subject is added to a still image file or the like. Further, the main subject designation operation by the operation of the photographer may be enabled while the through image is displayed and the main subject determination process is simultaneously performed.
- the process of determining the main subject mainly assuming still image capturing has been described.
- the image is captured even during standby for moving image capturing or during execution of moving image capturing and recording.
- the processing of the above-described embodiment can be applied as processing for performing main subject determination from a plurality of frames.
- this technique can also take the following structures.
- a camera work determination unit that determines camera work at the time of imaging and sets a determination start timing of a main subject for image data based on the determination;
- An image processing apparatus comprising: a main subject determination unit that determines a main subject among the subjects included in the image data from image data from the determination start timing.
- the main subject determination unit observes the subject position state in the image data of a plurality of frames from the determination start timing, and determines the main subject among subjects that meet a specific position condition.
- An image processing apparatus according to 1.
- the image processing according to (2), wherein the specific position condition is that a condition that satisfies a predetermined position state on the image is obtained averagely, cumulatively, or continuously in a plurality of frames.
- the main subject determination unit observes the in-focus state of the subject in the image data from the determination start timing, and determines the main subject among the subjects that meet a specific focusing condition.
- the subject that matches the specific focusing condition is a subject that is located in a divided region where the degree-of-focus data measured for each divided region of the image data is a predetermined value or more.
- the main subject determination unit determines the main subject among the subjects that match the specific focusing condition and further matches the specific position condition (4) or (5) ).
- the image processing apparatus according to any one of (1) to (3), wherein the camera work determination unit sets a determination start timing in response to detecting a pan or tilt operation of the imaging apparatus.
- the image processing apparatus according to any one of (1) to (3), wherein the camera work determination unit sets a determination start timing in response to detecting the end of a panning or tilting operation of the imaging apparatus.
- the camera work determination unit sets a determination start timing in response to detecting a zoom operation of the imaging device.
- the camera work determination unit sets a determination start timing in response to detecting the end of a zoom operation of the imaging device.
- the camera work determination unit sets a determination start timing in response to detecting a transition from a pan operation to a zoom operation of the imaging apparatus or in response to detecting the end of the zoom operation ( The image processing apparatus according to any one of 1) to (3).
- the camera work determination unit sets the determination start timing in response to detecting a transition from the zoom operation to the pan operation of the imaging apparatus or in response to detecting the end of the pan operation ( The image processing apparatus according to any one of 1) to (3).
- Image processing device The camera work determination unit according to (1), (4), (5), or (6), wherein the determination start timing is set in response to detecting the end of the manual focus operation of the imaging apparatus.
- SYMBOLS 1 ... Image processing apparatus, 2 ... Main subject determination part, 3 ... Local motion detection part, 4 ... Global motion detection part, 10 ... Imaging device, 11 ... Optical system, 12 ... Imager, 13 ... Optical system drive part, 14 ... Sensor unit 15 ... Recording unit 16 ... Communication unit 17 ... Distance sensor 20 ... Digital signal processing unit 21 ... Pre-processing unit 22 ... Synchronizing unit 23 ... YC generating unit 24 ... Resolution converting unit 25 ... codec section, 27 ... candidate detection section, 28 ... focus degree determination section, 30 ... control section, 30a ... main subject determination section, 30b ... camera work determination section, 32 ... UI controller, 33 ... user interface, 34 ... display Part, 35 ... operation part, 70 ... computer apparatus, 71 ... CPU
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
また例えば上記特許文献2,3,4に開示された技術を用いれば、任意の被写体の全身枠を取り囲んだ被写体追尾が実現できる。
また、オートフォーカス・自動露光などは、撮像画像内の所望の領域を検出・追跡し、その領域がもっとも好適になるように光学系等を制御するような機能も存在する。
これらのように、撮像画像内で、ユーザが主要被写体として指定した画像、例えば顔等の画像領域を追尾したり、顔領域にフォーカスを合わせたりする等の技術が知られている。
例えばカメラを所持した状態で、画面表示されたスルー画(シャッタ操作時点以外に表示される被写体のモニタリング画像)に写されている複数の顔の中からタッチパネルによって任意の顔を選択するというような行為で主要被写体が選定される。あるいはユーザ指定のタイミング(シャッタ半押し等)で所定の領域内に存在する被写体を主要被写体とするなどである。
たとえば動き回る被写体に焦点を合わせ続けたいためにこの機能を使いたいのに、ユーザがカメラを構えて被写体を狙いながら指で選択すること自体が難しい。
例を挙げれば、被写体の変化(移動)に対するユーザの反応速度により、指定が困難なこともある。例えば動き回る被写体を、スルー画の画面上でうまく指定できないような場合である。
また、そもそもカメラを手に持って、被写体に向けて被写体を選定しているような状況で、ユーザが画面上で主要被写体を指で選択する行為自体が難しい。特に被写体を追っているような状況、例えばカメラがパンニングやチルティングとしての動きをするようにユーザが撮像方向を変化させている状況では、主要被写体を選択することはほぼ無理に近い。
またタッチパネルを配した表示画面の解像度によって、ユーザにとって被写体が選択しにくいことがある。
また、タッチパネルを配した表示画面上の被写体サイズとユーザの指の大きさ(太さ)によっては、所望の被写体を適切に指定できないこともある。
また、カメラシステム上のタイムラグ、例えば実際の光景と撮像画像のスルー画のタイムラグによって、ユーザが適切に被写体を指定しにくいこともある。
そこで本開示では、撮像者等のユーザが意図的に被写体を選択する行為を行わなくとも、ユーザの求める対象被写体を主要被写体と判定する技術を実現することを目的とする。
本開示の画像処理方法は、撮像時のカメラワークを判定して該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定し、上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する。
本開示のプログラムは、上記画像処理装置又は画像処理方法を実現する処理を演算処理装置に実行させるプログラムである。
例えばユーザが撮像装置を構えて撮像を行う場合において、通常ユーザは、主要と考える被写体、つまり静止画として撮像目的としたい被写体や、動画として撮像し続けたい被写体が撮像画像内に捉えられるようにカメラワークを行う。なおカメラワークとは、撮像者たるユーザが被写体を撮像画像内に捉えるための動作・操作や、意図する構図や合焦状態を探すための動作・操作のことをいい、具体的にはパンニング、チルティング、ズーミング、マニュアルフォーカス等がある。パンニング(パン)とは、撮像者が手持ちの撮像装置を略水平方向に動かしたり、三脚、雲台等に設置した撮像装置の撮像方向を水平方向に動かすことである。チルティング(チルト)とは、撮像者が手持ちの撮像装置を略上下方向に動かしたり、三脚、雲台等に設置した撮像装置の撮像方向を上下方向に動かすことである。ズーミング(ズーム)とは、撮像者が撮像装置のズームレバー(ワイドキー・テレキー)を操作したりマニュアル操作でズームレンズを移動させて画角を変化させる動作である。マニュアルフォーカスとは、撮像者がフォーカスレンズを移動させて合焦位置を変化させる動作である。
ユーザがこれらのカメラワークを行っているということは、或る目的の被写体を狙って撮像方向、画角、焦点位置等を調整していると考えることができ、つまり撮像画像(例えばスルー画)内に主要と考える被写体が存在すると推定できる。
そこで画像処理装置では、カメラワーク判定を行い、該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定する。そして判定開始タイミングからの1又
は複数のフレームの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定するようにする。これにより自動的な主要被写体判定として確度の高い判定が可能となる。
<1.実施の形態の画像処理装置の構成>
<2.実施の形態の撮像装置の構成>
<3.主要被写体判定機会/目的等>
<4.第1の処理例(パン動作判定)>
<5.第2の処理例(パン後判定)>
<6.第3の処理例(ズーム動作判定)>
<7.第4の処理例(ズーム後判定)>
<8.第5の処理例(パン後ズーム動作判定)>
<9.第6の処理例(パン後ズーム後判定)>
<10.第7の処理例(ズーム後パン動作判定)>
<11.第8の処理例(ズーム後パン後判定)>
<12.第9の処理例(合焦判定)>
<13.プログラム及びコンピュータ装置への適用>
<14.変形例>
図1に、実施の形態の画像処理装置の構成例を示す。
画像処理装置1は、主要被写体判定部2と、カメラワーク判定部3を有する。
カメラワークとは、撮像者たるユーザが被写体を撮像画像内に捉えるための動作・操作や、意図する構図や合焦状態を探すための動作・操作のことである。具体的にはパンニング(パン)、チルティング(チルト)、ズーミング(ズーム)、マニュアルフォーカス等となる。従って検出情報Idとは、例えば撮像者のズーム、マニュアルフォーカス等の操作の検出情報であったり、角速度センサ(ジャイロセンサ)や加速度センサ等の撮像装置自体の動きを検出するセンサの検出情報などである。
体を主要被写体と設定する。
そして主要被写体判定部2は判定結果として、主要被写体情報Dmを出力する。
またCPU等で主要被写体判定部2としての機能を実現し、CPUと接続された画像処理用DSP等、もしくはその連携処理としてカメラワーク判定部3の機能を実現することも考えられる。
ステップF1としてカメラワーク判定部3が、撮像者によるカメラワークを判定する。そしてステップF2として所定のカメラワーク状況を検出したら、カメラワーク判定部3はステップF3で判定開始タイミング設定を行う。例えば判定実行フラグをオンに設定する。
これに応じて主要被写体判定部2はステップF4で主要被写体判定処理を実行し、所定の条件に合致した被写体を主要被写体と判定する。
そしてステップF5で主要被写体判定部2は、主要被写体判定結果である主要被写体情報Dmを出力しアプリケーションプログラム等に受け渡す。
アプリケーションプログラム等では、主要被写体画像が特定されたことに応じた処理を行う。例えば、フォーカス制御、追尾処理、画像効果処理などである。
1.パン動作判定:パン動作が開始されたことを判定し、パン動作中に主要被写体判定処理が行われるように判定開始タイミングを設定する。
2.パン後判定:パン動作が実行され終了されたことを判定し、パン動作終了後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
3.ズーム動作判定:ズーム動作が開始されたことを判定し、ズーム動作中に主要被写体判定処理が行われるように判定開始タイミングを設定する。
4.ズーム後判定:ズーム動作が実行され終了されたことを判定し、ズーム動作終了後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
5.パン後ズーム動作判定:パン動作が実行され終了された後、さらにズーム動作が開始されたことを判定し、そのズーム中に主要被写体判定処理が行われるように判定開始タイミングを設定する。
6.パン後ズーム後判定:パン動作が実行され終了された後、さらにズーム動作が実行され、該ズーム動作が終了されたことを判定し、そのズーム後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
7.ズーム後パン動作判定:ズーム動作が実行され終了された後、さらにパン動作が開始されたことを判定し、そのパン中に主要被写体判定処理が行われるように判定開始タイミングを設定する。
8.ズーム後パン後判定:ズーム動作が実行され終了された後、さらにパン動作が実行され、該パン動作が終了されたことを判定し、そのパン後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
9.マニュアルフォーカス後判定:マニュアルフォーカス動作が実行され終了されたことを判定し、マニュアルフォーカス動作終了後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
以上の各処理の詳細は撮像装置10の第1~第9の処理例として後述する。
以下では、上記のような画像処理装置を内蔵した撮像装置10を例に挙げ、主要被写体判定動作について詳しく説明する。
実施の形態の撮像装置10の構成例を図3に示す。なお、この構成例は後述する第1の処理例~第8の処理例に適したものである。第9の処理例の場合の撮像装置10の構成例については後述する。
この撮像装置10はいわゆるデジタルスチルカメラ或いはデジタルビデオカメラとされ、静止画や動画の撮像/記録を行う機器であり、請求項でいう画像処理装置を内蔵するものである。
イメージャ12は、例えば、CCD(Charge Coupled Device)型、CMOS(Complementary Metal OxideSemiconductor)型などの撮像素子を有する。
このイメージャ12では、撮像素子での光電変換で得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号を、後段のデジタル信号処理部20に出力する。
なお、フォーカスレンズに関しては、ユーザの操作によるマニュアルフォーカスとしてのレンズ移動も可能とされている。ユーザはレンズ鏡筒に形成されたフォーカスレンズ移送機構を操作することで合焦位置を任意に設定できる。
また光学系駆動部13は、制御部30の制御に基づいて、光学系11における絞り機構を駆動し、露光調整を実行する。
さらに光学系駆動部13は、制御部30の制御に基づいて、光学系11におけるズームレンズを駆動し、ズーム動作を実行する。ユーザは後述する操作部35のズームレバーの操作により、ズーム動作を指示できる。これによりユーザは任意の画角状態を得ることができる。
例えばデジタル信号処理部20は、前処理部21、同時化部22、YC生成部23、解像度変換部24、コーデック部25、候補検出部27を備えている。
同時化部22は、各画素についての画像データが、R,G,B全ての色成分を有するようにするデモザイク処理を施す。
YC生成部23は、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。
解像度変換部24は、各種の信号処理が施された画像データに対して、解像度変換処理を実行する。
コーデック部25は、解像度変換された画像データについて、例えば記録用や通信用の符号化処理を行う。
なお、顔検出、人体検出等は、撮像画像データに対しての画像解析におけるパターンマッチングの手法などで可能であるが、パターンマッチングに用いる辞書さえ差し替えれば他の検出器も原理的には実現可能である。例えば(特定種の)犬検出・猫検出などとして主要被写体の候補画像を抽出してもよい。
また例えばフレーム差分による動体検出の手法で、動体を検出し、当該動体を候補画像とすることも考えられるし、セイレンシ(Saliency)と呼ばれる注視領域抽出の手法を用いてもよい。候補画像の抽出、選定の手法は多様に考えられる。
抽出した候補画像については、その候補画像枠の位置情報(画面上でのx,y座標値、被写体距離の情報等)や、サイズ情報(例えば候補画像枠の幅、高さ、ピクセル数等)を、候補画像情報として制御部30に受け渡す。なお、ここでは、候補画像となる画像領域の枠を示す情報であることから、候補画像情報のことを「候補画像枠情報」ともいうこととする。
また、候補検出部27は、画像に平滑化処理、アウトライヤ(outlier)除去等の処理を行って、候補画像枠情報を生成してもよい。
なお候補検出部27は、この図3の例ではデジタル信号処理部20で実行される機能構成として示しているが、これは一例であり、制御部30によって候補検出部27の処理が実行されてもよい。
CPUがROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置10全体を統括的に制御する。
RAMは、CPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
ROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア等の記憶に用いられる。例えば本例において後述する主要被写体判定のための処理を実行するためのプログラムや、さらに主要被写体判定結果を利用するアプリケーションプログラム等が記憶される。
この図3の構成の場合、カメラワーク判定部30bは、上述のパン動作判定、パン後判定、ズーム動作判定、ズーム後判定、パン後ズーム動作判定、パン後ズーム後判定、ズーム後パン動作判定、ズーム後パン後判定のいずれかを行う。そして主要被写体判定処理の開始タイミングを設定する。具体的には判定実行フラグ(後述する判定実行フラグFDon)をオンとする。
主要被写体判定部30aは、カメラワーク判定部30bの判定結果に基づく開始タイミングの設定に応じて候補画像の中で主要被写体を判定する処理を行う。
この表示部34は、上記のディスプレイデバイスと、該ディスプレイデバイスに表示を実行させる表示ドライバとから成る。表示ドライバは、制御部30の指示に基づいて、ディスプレイデバイス上に各種表示を実行させる。例えば表示ドライバは、撮像して記録媒体に記録した静止画や動画を再生表示させたり、レリーズ(シャッタ操作)待機中に撮像される各フレームの撮像画像データによる動画としてのスルー画(被写体モニタリング画像)をディスプレイデバイスの画面上に表示させる。また各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。本実施の形態の場合、例えばスルー画や再生画上で、主要被写体判定による判定結果がユーザにわかるような表示も実行される。
この操作部35としては、例えば撮像装置10の筐体上に設けられた各種操作子や、表示部34に形成されたタッチパネルなどとして実現される。
筐体上の操作子としては、再生メニュー起動ボタン、決定ボタン、十字キー、キャンセルボタン、ズームレバー、スライドキー、シャッターボタン(レリーズボタン)等が設けられる。
またタッチパネルと表示部34に表示させるアイコンやメニュー等を用いたタッチパネル操作により、各種の操作が可能とされてもよい。
本実施の形態の場合、例えばズームレバー(ワイドキー、テレキー)の操作はカメラワーク判定に用いられる。制御部30はズームレバーの操作をUIコントローラ32を介して検知し、またその操作情報に応じて光学系駆動部13を制御してズームレンズ駆動を実行させる。
画像ファイルは、例えばJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、GIF(Graphics Interchange
Format)等の形式で記憶される。
記録部15の実際の形態は多様に考えられる。例えば記録部15は、撮像装置10に内蔵されるフラッシュメモリでもよいし、撮像装置10に着脱できるメモリカード(例えば可搬型のフラッシュメモリ)と該メモリカードに対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置10に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
また、本例において後述するカメラワーク判定処理及び主要被写体判定処理を実行するためのプログラムは、記録部15に記憶されてもよい。
例えば外部の表示装置、記録装置、再生装置等の間で撮像画像データ(静止画ファイルや動画ファイル)の通信を行う。
また、ネットワーク通信部として、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。
センサ部14としては例えば手ぶれ、或いは撮像装置10の姿勢や移動(パン移動、チルト移動等)等、撮像装置10の全体の動きを検出するためのジャイロセンサ(角速度センサ)、加速度センサ等が設けられる。例えば制御部30は、ジャイロセンサの検出信号により、撮像装置10がパン又はチルトされていることを検知できる。
またセンサ部14として、光学系11におけるズームレンズの位置を検出するズームレンズ位置センサ、フォーカスレンズの位置を検出するフォーカスレンズ位置センサが設けられる。或いはフォーカスレンズのマニュアル操作(鏡筒リングの操作)を検出するセンサが設けられる場合もある。制御部30は、フォーカスレンズ位置センサの検出情報や、フォーカスレンズのマニュアル操作を検出するセンサの情報により、ユーザのマニュアルフォーカス操作を検知できる。
またセンサ部14として、メカアイリス(絞り機構)の開口量を検出するセンサが設けられる場合もある。
またセンサ部14として、露光調整等のための外部照度を検出する照度センサ、さらには被写体距離を測定する測距センサが設けられてもよい。
図1の画像処理装置1における主要被写体判定部2に相当する構成は、撮像装置10の制御部30において主要被写体判定部30aとしてソフトウエアにより実装される。またカメラワーク判定部3に相当する構成は、制御部30におけるカメラワーク判定部30b
としてソフトウエアにより実装される。
制御部30は、請求項でいうプログラムに基づく処理を実行することで、請求項でいう画像処理方法としての動作を実行制御することになる。
本実施の形態では、後述の第1~第9の処理例として説明するように主要被写体判定が行われるが、撮像装置10において主要被写体判定を行う機会や目的等について説明しておく。
主要被写体判定は、例えばユーザ(撮像者)がシャッタタイミング(レリーズタイミング)を狙っている際に実行されるが、制御部30は主要被写体を自動的に判定した後、次のような処理を行うことができる。
撮像される各フレームにおいて設定された主要被写体を追尾する。例えばスルー画表示上でユーザに主要被写体を明示して、ユーザの画角調整(例えばカメラを手に持っている状態における被写体決め)の用に供する。
なお、主要被写体の提示としては、表示部34でのスルー画表示上で主要被写体の枠を強調表示することが考えられる。また、強調表示等は、判定直後の一定期間でもよいし、スルー画内に主要被写体が存在する限り実行させてもよい。
主要被写体にオートフォーカス制御する。また、追尾処理と合わせて、主要被写体が動き回っていても、フォーカスが、その主要被写体に追尾して調整されるようにする。
・露光調整
主要被写体の明るさ(輝度)に基づいて自動露光調整を行う。
・指向性調整
撮像(例えば動画撮像)とともにマイクロホンにより音声収音を行う場合、画角空間内での主要被写体の方向に応じて、指向性調整を行う。
・ズーム制御
主要被写体に対応したオートズーム制御する。例えば主要被写体が常に所定以上のサイズで撮像画像で映り込むように自動的なズームレンズ駆動を行う。追尾処理と合わせて、主要被写体との距離が変化に応じたズームによる画角調整を行うようにしてもよい。
・録画スタート制御
動画撮像の開始のトリガーとする。例えば主要被写体が決定されたことに応じて、動画撮像記録を開始する。
・画像効果処理
撮像される各フレームにおいて主要被写体の領域にのみ、画質調整、ノイズリダクション、肌色調整などの画像処理を加える。
或いは、主要被写体の領域以外に、画像効果、例えばモザイク処理、ぼかし処理、塗りつぶし処理等を加えることも考えられる。
撮像画像、もしくは記録された画像について、フレーミング、クロッピング等の編集処理を加える。
例えば主要被写体を含むフレーム内の一部領域の切り出しや、拡大等の処理を行うことができる。
また、撮像画像データのうちで、主要被写体が画像の中心に配置されるように画像周辺部のカット等を行い、構図調整を行うことができる。
例えば撮像装置10が電源オンとされて、撮像を行っているとき(表示部34にスルー画を表示している期間)は、常時カメラワーク判定と、それに基づいたタイミングでの主要被写体判定処理を行っていてもよい。
また、主要被写体を判定したら、追尾処理を行う場合、追尾が外れた時点で、再度カメラワーク判定及び主要被写体判定処理を行うようにしてもよい。
また、ユーザ操作によりカメラワーク判定及び主要被写体判定処理が開始されるようにしてもよい。またユーザが、判定実行モードを選択しているときに常時カメラワーク判定及び主要被写体判定処理が実行されたり、追尾が外れたときに実行されるなどとしてもよい。またユーザ操作にかかわらず、自動的にカメラワーク判定及び主要被写体判定処理が起動されることも考えられる。
先に述べたように、撮像者が撮像装置10を構えて被写体を狙っているときには、そもそも主要被写体を指定するような操作は難しい。
特にパンニングやチルティングのように撮像方向を継続的に一定方向に変化させている場合、或いは一定方向ではなくとも、撮像方向を変化させている場合は、主要被写体を指定する操作はユーザにとって困難である。
また何度も主要被写体を指定する行為は面倒である。
主要被写体判定を自動的に実行することによれば、このようなことが解消され、ユーザストレスの低減効果が得られる。
またユーザが通常使用するデジタルスチルカメラ、携帯電話機内蔵カメラなど、ユーザが携帯して使用する撮像装置10としては、表示部34も小型であり、ユーザが主要被写体を画面上で指定する操作を行ったとしても、正確に行いにくい。本実施の形態のように自動判定することで、誤指定ということもなくなる。
また撮像装置10を自然に用いていれば主役を撮れる、という感覚で使用できるため、撮像機会の増加、対応ユースケースの増加ということができ、使いやすいカメラをユーザに提供できることにもなる。
実施の形態の撮像装置10の第1の処理例としてカメラワーク判定及び主要被写体判定
の動作を説明する。これはパン動作中に主要被写体判定を実行する例である。即ちカメラワーク判定部30bは、ユーザが撮像装置10を略水平方向に移動させるパン動作を判定する。そしてそのパン動作中に、主要被写体判定部30aで主要被写体判定処理が行われるようにする。
主要被写体判定処理としては、画像データ内で候補画像を抽出し、安定的に所定の判定基準点に近い状態にある候補画像を主要被写体と判定する例を挙げる。
この図4には、撮像装置10の光学系11,イメージャ12の動作によりデジタル信号処理部20に入力される撮像画像信号の各フレームFR1,FR2,FR3・・・を示している。候補検出部27は、このような順次入力される連続した各フレームのそれぞれ(或いは間欠的な各フレームについて)について候補画像の検出を行う。例えば図示のように、フレームFR1について、3人の人が存在していた場合、それぞれの顔画像部分を候補画像として抽出し、その候補画像枠E1,E2,E3についての候補画像枠情報を出力する。例えば候補画像枠E1の候補画像枠情報は、例えばこの候補画像枠E1の画像内での位置情報(x,y位置情報、被写体距離情報)、サイズ情報(枠の幅、高さ、ピクセル数)、属性情報等である。
候補検出部27は、このような候補画像枠情報を、候補画像枠E2,E3についても生成し、制御部30(主要被写体判定部30a)に受け渡す。
一方で制御部30(カメラワーク判定部30b)は、検出情報Icに基づいてカメラワーク(例えばパン、ズーム)を検出し、それに応じて判定開始タイミングを設定する。具体的には判定実行フラグFdonを「1」とする。これに応じて、制御部30(主要被写体判定部30a)は、候補画像枠情報を用いた主要被写体判定処理を実行する。
図5Aに判定基準点SPの例を示している。これは画像中央を判定基準点SPとした例である。判定基準点SPのxy座標値を(Cx,Cy)とする。
例えばフレームFR1の時点で、候補画像枠E1,E2,E3のそれぞれの候補画像枠情報が取り込まれた場合、制御部30は、図示する各候補画像枠E1,E2,E3の重心Gから判定基準点SPの距離Diff1、Diff2、Diff3を算出する。
例えば図5Bのように、中央よりやや左上方の位置に判定基準点SPを設定してもよい。例えば静止画の構図を考えた場合、このような中央でない位置に主たる被写体を配置するとよい場合が多々考えられるからである。
この図5Bの場合も、各候補画像枠(例えばE4,E5)と判定基準点SPの距離(例えばDiff4、Diff5)を算出するようにする。
即ち判定基準点SPについては、
・画像中央位置、或いは中央よりずれた位置などとして、予め決められた固定的な位置に設定される。
・ユーザが任意に指定する。
・いくつかの候補点をユーザに提示し、ユーザが選択することで設定される。
・制御部30が画像内容に応じて最適位置を判定し、自動的に可変設定する。
などが考えられる。
制御部30(主要被写体判定部30a)は、パン動作中に、各候補画像枠E(n)についての位置状態としての距離Diff(n)を監視し、平均的、累積的、又は継続的に判定基準点SPに近い候補画像枠を判定し、それを主要被写体とする。主要被写体判定部30aは、この処理をカメラワーク判定部30bによるパン動作の検知に応じて行う。この動作を図6に示す。
或る時点でユーザが撮像装置10を略水平方向に移動させるパン動作が行われたとする(パン期間tpan)。カメラワーク判定部30bは、パンが開始されてからのパン判定期間Tponにパン動作を検知し、パン実行フラグFponを「1」とする。第1の処理例ではパン実行フラグFponに応じて判定実行フラグFdonを「1」にセットする。
判定実行フラグFdon=1となることに応じて、主要被写体判定部30aでの主要被写体判定処理が開始される。なお、このタイミングで開始される主要被写体判定処理とは、判定のための実質的な処理を指す。主要被写体判定処理としてのルーチンの起動はそれ以前であっても良い。例えば後述の図8の処理例では、候補画像枠情報の取り込みのみは、判定実行フラグFdon=1となる前から行われている例としている。もちろん候補画像枠情報の取り込みも含めて、判定実行フラグFdon=1となることに応じて開始されるものとしてもよい。
図6Cには、距離Diff1、Diff2、Diff3の各時点での、距離閾値Thr-diff以内か否かの判定結果を示している。距離Diff(n)が距離閾値Thr-diff以下であれば、近い=「1」とされることとする。この判定結果「1」を各時点で累積加算していった値が時間閾値を越えたものが主要被写体と判定される。
のカウント閾値Tht)に達した候補画像が発見された場合が主要被写体判定の終了のタイミングとなる。
例えば図6Cの例では、候補画像枠E3は、継続して「1(=判定基準点SPに近い)」と判定されるが、この累積加算値が或る所定値に達した時点で、判定が終了され、候補画像枠E3が主要被写体と判定されることとなる。
図7Bはパン動作中であることの検出動作を示している。センサ部14におけるジャイロセンサの出力(検出信号Sg)は、特に大きな動きがなければ基準レベルSc(例えばゼロレベル)近辺となっているが、パン動作中(例えばユーザが撮像装置10を略水平方向に動かしている場合)は、検出信号Sgはある正又は負の或る程度のレベルで略一定の値を継続的に示すことになる。そこで基準レベルScを中心として、正負の値の範囲で閾値範囲Sthを設定する。
通常期間tnorは、検出信号Sgは基準レベルScの近辺となるが、パン期間tpanでは閾値範囲Sthを越えるレベルが継続して観測されることとなる。
そこで、検出信号Sgが閾値範囲Sthを越えた状態が、パン判定期間Tponとして設定したある程度の時間以上継続したら、パンが実行されていると判断し、パン実行フラグFponを「1」とする。これに応じて主要被写体判定開始を制御する判定実行フラグFdonを「1」とする。判定実行フラグFdon=1の際に主要被写体判定処理が行われる。
なお、パン判定期間Tponは、瞬間的に検出信号Sgが高くなった状態をパン動作と誤判定しないために設けられる期間である。つまり検出信号Sgが高い値の状態の継続性をもってパンと判定するための期間である。
制御部30は、ステップF200でセンサ部14のジャイロセンサで検出される角速度情報を検出信号Sgとして取得する。
ステップF201で制御部30は、Sg>Sc+Sth/2、又はSg<Sc-Sth/2のいずれかが成り立つか否かを判定する。即ち図7Bに示した基準レベルSc、閾値範囲Sthの値を用いて、検出信号Sgが正又は負の値として閾値範囲Sthを越えた値になっているか否かを判定する処理である。
そしてステップF207でパン実行フラグFponの値を判定実行フラグFdonに代入する。つまりこの場合は、判定実行フラグFdon=0となる。
そしてステップF203で制御部30は、カウント値PanOnCntとパン判定期間Tponを比較する。カウント値PanOnCntが、パン判定期間Tponに達していなければ、ステップF205でパン実行フラグFponをゼロとする。そしてステップF207でパン実行フラグFponの値を判定実行フラグFdonに代入する。つまりこの場合も、判定実行フラグFdon=0である。
そしてステップF207でパン実行フラグFponの値を判定実行フラグFdonに代入する。この場合、判定実行フラグFdon=1となる。つまりパン動作中であることで、主要被写体判定処理が開始される状態となる。
その後、パン動作が終了すると、ステップF201→F206→F207と進む処理となるため、判定実行フラグFdon=0となる。
この例では、主要被写体判定に関し、制御部30は候補画像枠情報の取り込みについては継続して行っていき、上述の判定実行フラグFdon=1となることに応じて、実質的な判定処理(ステップF105~F115)を開始する処理例としている。
制御部30は例えば1フレームタイミング毎にステップF101~F104及びF116(判定実行フラグFdon=1の期間はステップF101~F116)の処理を行う。
変数TSFとは、主要被写体設定済みか否かを示すフラグである。TSF=「0」は、主要被写体が未判定の状態を示すこととなる。
またカウント値Cnt(n)は、図6で説明した距離Diffの距離閾値Thr-diffとの比較判定結果の値を加算するカウンタの値である。
また、同様に距離Diff(n)とは、3つの候補画像枠E1,E2,E3の判定基準点SPからの距離Diff1、Diff2、Diff3を総称して表すものとしており、距離Diff(n)についての処理とは、例えば距離Diff1、Diff2、Diff3のそれぞれについての処理という意味で用いている。
近接フラグFlg(n)、オフセット値OFS(n)も同様とする。
なお、候補画像枠情報には被写体距離(上記二次元(x-y)座標平面に直交するz軸方向の値で表される、カメラ位置に対する被写体の相対的な距離:z値)やピクセル数等も含まれていてもよい。
例えば候補画像枠情報によっては、候補画像枠のx,y座標値として、方形の候補画像枠の左上頂点の座標値が与えられるとする。このx,y座標値を(E(n)_x,E(n)_y)とする。また図5Aに示したように、x,y座標は画面平面の左上を原点O(x,y座標値が(0,0))とする。
また候補画像枠E(n)の幅wをE(n)_w、高さhをE(n)_hとする。
そして候補画像枠E(n)の重心Gの座標値を(E(n)_cx,E(n)_cy)とすると、重心Gの座標値は、
E(n)_cx=E(n)_cx+E(n)_w/2
E(n)_cy
=E(n)_cy+E(n)_h/2
として求められる。
Diff(n)=√{(E(n)_cx-Cx)2+(E(n)_cy-Cy)2}
で求められる。
例えば主要被写体判定が行われた後であったり、動作モード設定等で主要被写体判定処理が不要な期間などは、変数TSF=1とされていることで、主要被写体判定処理が行われない。
またユーザ操作や自動的な起動判断で、必要時に図6の主要被写体判定処理を実行するようにする場合などではステップF104の処理は不要としてもよい。
さらに本例の場合、パン動作中に主要被写体判定を行うものとするため、判定実行フラグFdon=0であるときは、主要被写体判定処理を行わない。
即ち判定基準点SPまでの距離Diff(n)が、判定基準点SPに近いか近くないかを、距離閾値Thr-diffを用いて判定する。
このため制御部30はステップF105で、各候補画像枠E(n)の判定基準点SPまでの距離Diff(n)と距離閾値Thr-diffを比較し、Diff(n)<Thr-diffであればステップF106で近接フラグFlg(n)=1(近い)とする。またDiff(m)<Thr-diffでなければステップF107で近接フラグFlg(n)=0(近くない)とする。
近接フラグFlg(n)は図6Cで説明した「1」「0」の判定結果に相当する。
例えば制御部30は、近接フラグFlg(n)=1であればステップF109でオフセット値OFS(n)=αとする。αはカウンタをインクリメントする所定値である。例えばα
=1とする。
また制御部30は、近接フラグFlg(n)=0であればステップF110でオフセット値OFS(n)=βとする。βはカウント値をキープ、又はカウント値をデクリメントするための所定値である。カウント値をキープする場合は、β=0とする。カウンタをデクリメントする場合は、例えばβ=-1とする。
CNT(n)=CNT(n)+OFS(n)
とする。
上記のステップF109でα=1とされて、オフセット値OFS(n)が設定される場合、カウント値CNT(n)はインクリメントされる。
ステップF110でβ=0(又はβ=-1)とされて、オフセット値OFS(n)が設定される場合、カウント値CNT(n)はキープ(又はデクリメント)される。
このようなカウント値CNT(n)は、近接状態が検出された際にインクリメントされるため、候補画像枠E(n)の被写体が、判定基準点SPに近い状態が検出された期間の長さに相当する値となる。つまりカウント値Cnt(n)は、候補画像枠E(m)が判定基準点SPに「近い」状態の頻度を表す値となる。
Cnt(n)≧Thtでなければ、つまり各候補画像枠E(n)のカウント値Cnt(n)のいずれもが、カウント閾値Thtに達していなければ、ステップF113で変数TSF=0のままとし、ステップF116で判定終了とは判断せず、ステップF101に戻る。この場合、次のフレームについて入力される候補画像枠情報に基づいて、ステップF101以降の処理を上記同様に実行していく。
詳しい説明は省略するが、本例の自動的な主要被写体判定とは並行して、例えばユーザが主要被写体を表示部34の画面上のタッチ操作、或いは被写体を画面上に所定位置に合わせてシャッタボタンを半押しするなどの操作として、主要被写体選択ができるようにしてもよい。図8の処理の実行中に、ユーザがこのような指定操作を行った場合、ユーザの操作を優先することが好ましい。そこで、そのようなマニュアル操作として主要被写体設定が行われた場合、変数TSF=1とする。この場合、図8の処理はステップF104,F116の判断により、処理を終了(中断終了)することとすればよい。
すると或る時点で、カウント値Cnt3がカウント閾値Thtに最初に到達することとな
る。
このような場合、制御部30は処理をステップF112からF114に進める。
そしてステップF115で主要被写体情報が出力され、例えば主要被写体情報を用いるアプリケーションプログラムや制御プログラムに受け渡される。
なお、この処理例では変数TSF=1となるまで続けられることになるが、パン動作が終了されると実質的な判定処理(ステップF105~F115)は終了となる。
図7Aのカメラワーク判定処理は継続して行われており、パン動作が終了されるとステップF206でパン実行フラグFpon=0となり、ステップF207で判定実行フラグFdon=0とされる。つまり図7Bのようにパン後に通常期間tnorに至ると判定実行フラグFdon=0となる。その場合、図8の処理はステップF104からF116に進むこととなるためである。
このためパン動作が終了されるまでの間にカウント値Cnt(n)がカウント閾値Thtに達した候補画像枠E(n)が観測されない場合は、主要被写体判定はできなかったということとなる。
なお、図8には示していないが、このようにパン動作が終了されて判定実行フラグFdon=0となったことで判定が行われなかった場合は、カウント値Cnt(n)はゼロにリセットするとよい。次のパン期間にカウント値を引き継がないようにするためである。一方で、候補画像枠E(n)の個人対応が継続できるのであれば、カウント値Cnt(n)はそのまま維持しておき、次のパン期間にカウント値を引き継がせることも考えられる。
例えば図8のステップF110でβ=0とすると、カウント値CNT(n)は、累積的に判定基準点SPに近い状態が検出された回数の累積値に相当するものとなる。
また図8のステップF110でβ=-1とすると、カウント値CNT(n)は、平均的に判定基準点SPに近い状態が検出された値とみることができる。
つまりこのような場合、ステップF112の判定は、累積的或いは平均的に判定基準点SPに近い状態の判定となる。
これに対して、所定期間以上、継続的に判定基準点SPに近い状態にあることを条件としてもよい。そのためには、ステップF108で近接フラグFlg(n)=1とされた場合にはカウント値CNT(n)をインクリメントし、ステップF108で近接フラグFlg(n)=0とされた場合にはカウント値CNT(n)をゼロにリセットする。すると、近接フラグFlg(n)=1の状態が継続的に所定時間に達した場合、ステップF112でカウント値Cn t(n)がカウント閾値Thtに達して、候補画像枠E(n)が主要被写体と判定されることになる。
なお、以上の累積判断、平均判断、継続判断の場合では、それぞれカウント閾値Thtに相当する具体的な判断値は異なることが適切である。
一般に撮像者が被写体を狙ってカメラワークを行う場合、最初は主役としたい被写体を画像中央などの所望の位置にとらえられず、撮像者が徐々にカメラの向きを調整していく。例えばパンニング過程で被写体を画像中央に捉えていく。このことを考慮すると、最初は、撮像者が「主要被写体」と念頭においている被写体は、時間が進むにつれ徐々に画像中央にとらえられるようになる。
従って、主要被写体判定処理の実行中に、時間が進むほど、判定基準点SPに近いということの価値を重くすることは、撮像者の考えに合致した主要被写体判定ができる可能性を高めることになる。具体的にはステップF109でオフセット値OFS(n)に代入する値αを段階的に大きくする。このようにすることで、撮像者の考えに合致した主要被写体判定ができる可能性を高めることになる。
例えば画像中央などの正方形や円形等の領域を設定し、それを判定基準領域とする。各候補画像枠E(n)の判定基準領域との位置関係とは、例えば、
・重心が判定基準領域に入っているか否か
・全体が判定基準領域に入っているか否か
・少なくとも一部が判定基準領域に入っているか否か
・判定基準領域の外縁との距離が所定以内か否かなどとする。
このような位置関係の条件が、平均的、累積的、又は継続的に満たされる候補画像枠E(n)を主要被写体と判定してもよい。
第2の処理例として、パン動作後に主要被写体判定を実行する例を説明する。なお、以降第2~第8の処理例について、主要被写体判定処理は上記図8と同様として説明を省略し、主にカメラワーク判定処理について述べることとする。
第2の処理例では、制御部30(カメラワーク判定部30b)が、ユーザが撮像装置10を略水平方向に移動させるパン動作を終了させたことを判定する。そしてそのパン動作終了後に、主要被写体判定部30aで主要被写体判定処理が行われるようにする。
パン動作中の判定、即ちパン実行フラグFponについては、上記第1の処理例と同様に、ジャイロセンサからの検出信号Sgを閾値範囲Sthと比較することで設定する。
ここで、パン実行フラグFponについて、現在の値と1つ前の値を比較(減算)して、パン遷移フラグFp_transを設定する。パン実行フラグFponは「1」又は「0」であるため、このパン実行フラグFponの1つ前の時点の値から現在値とを減算すると、「0」「+1」「-1」のいずれかとなる。つまりパン実行フラグFponが立ち上がる時点では0-1でパン遷移フラグFp_trans=-1となり、パン実行フラグFponが立ち下がる時点では1-0でパン遷移フラグFp_trans=+1となる。それ以外は0-0、又は1-1でパン遷移フラグFp_trans=0となる。
つまりパン遷移フラグFp_transは、パン実行フラグFponの微分情報となり、具体的にはパンの開始、終了を検出した情報となる。そしてこの場合、パン遷移フラグFp_trans=+1がパン終了時点を示す情報となる。
また、上限期間TdonEndが設定され、判定実行フラグFdonは、パン遷移フラグFp_trans=+1となった時点から上限期間TdonEndを経た時点で「0」とされる。このように判定実行フラグFdon=0とされることで、実質的な主要被写体判定処理を行う期間が制限される。
判定開始待機期間TdonStart、及び上限期間TdonEndは例えば固定値とされる。
図10においてステップF200~F206は、図7AのステップF200~F206と同様である。即ちジャイロセンサの検出信号Sgに応じてパン実行フラグFponを設定する。
パン遷移フラグFp_trans=(前回パン実行フラグFpon_1)-(パン実行フラグFpon)
とする。前回パン実行フラグFpon_1は、前回のステップF210の時点でのパン実行フラグFponの値である。従ってパン遷移フラグFp_transは、図9で説明した「0」「+1」「-1」のいずれかとなる。
また次回のステップF210において前回パン実行フラグFpon_1として用いるため、今回のパン実行フラグFponの値を前回パン実行フラグFpon_1に代入する。
このカウントフラグFcntupは、パン遷移フラグFp_transが「1」となってから上限期間TdonEndに達するまでの期間のみ「1」である。従ってパン遷移フラグFp_transが「1」となる以前はカウントフラグFcntupは「0」である。
そして制御部30はステップF217で判定実行フラグFdon=0と設定する。
この場合、パン遷移フラグFp_trans=1であることで制御部30はステップF211からF212に進み、カウント値Fdoncntをインクリメントする。またカウントフラグFcntup=1とする。
ステップF213では、カウント値Fdoncntについて、図9に示した判定開始待機期間TdonStartと比較する。
パン遷移フラグFp_trans=1となった当初は、カウント値Fdoncntは判定開始待機期間TdonStartを越えていないため、ステップF215に進み、判定実行フラグFdon=0とされる。
つまりパン遷移フラグFp_trans=1となった以降は、カウントフラグFcntup=1であることで、連続してステップF212へ処理が進む状態とされる。
これにより、図8に示した主要被写体判定処理では、実質的な判定処理(ステップF105~F115)が開始されることとなる。
その後、或る時点のステップF216で、カウント値Fdoncntが上限期間TdonEndを越える。この場合、制御部30はステップF219に進んで、判定実行フラグFdon=0とする。従って、もし図8の処理で主要被写体判定処理が完了していなかったとしても、この時点で実質的な判定処理(ステップF105~F115)は終了されることとなる。
またステップF220でカウントフラグFcntupを「0」とする。
なお、ステップF219で判定実行フラグFdon=0とされた後は、次にパン遷移フラグFp_trans=1となるまでは、ステップF214,F217の処理が行われることとなり、判定実行フラグFdon=0の状態が継続する。
なお、場合によっては、判定開始待機期間TdonStart=0とすることも考えられる。このようにすれば、パン遷移フラグFp_trans=1となった時点、つまりパン終了が検出された時点から、主要被写体判定処理が実行されることとなる。例えば三脚や雲台に乗せた撮像装置10でパンニングした場合などで、パン直後に画像の揺れが少ないと考えられる場合などは、このようにパン後に即座に主要被写体判定を実行してもよい。
なおもちろん、上限を設けず、主要被写体判定がなされるまで判定実行フラグFdon=1の状態を維持させておく処理例も考えられる。
第3の処理例を説明する。これはズーム動作中に主要被写体判定を実行する例である。即ちカメラワーク判定部30bは、ユーザが撮像装置10のズーム動作を実行させている状況を判定する。そしてそのズーム動作中に、主要被写体判定部30aで主要被写体判定処理が行われるようにする。
ユーザがズームレバーを操作すると、撮像装置10の動作としては図11Bの通常期間tnorからズーム期間tzmに移行する。即ちズームレンズ移動が開始される。制御部30(カメラワーク判定部30b)は、ズームレバー操作が検出される状態が、ズーム判定期間Tzonとして設定したある程度の時間以上継続したら、ズームが実行されていると判断し、ズーム実行フラグFzonを「1」とする。これに応じて主要被写体判定開始を制御する判定実行フラグFdonを「1」とする。判定実行フラグFdon=1の際に主要被写体判定処理が行われる。
なお、ズーム判定期間Tzonは、継続的なズーム動作が行われていることを判定するために設けられる期間である。つまりユーザがわずかな時間だけズームレバーを操作したような場合を除外するための期間である。
制御部30は、ステップF300でズームレバーの操作状態を取得し、変数Szoomを設定する。例えばズームレバーが操作されていれば変数Szoom=1とし、操作されていなければ変数Szoom=0とする。
ステップF301では、変数Szoomを参照して、現在ズームレバーが押されている状態であるか否か、つまりズーム動作が実行されているか否かを判定する。
変数Szoom=0で現在ズームレバーが押されていなければ制御部30はステップF306に進み、カウント値ZoomOnCntをゼロとし、またズーム実行フラグFzonをゼロとする。なお、カウント値ZoomOnCntは、ズーム判定期間Tzonを越えたか否かを判定するためのカ
ウント値である。
そしてステップF307でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。つまりこの場合は、判定実行フラグFdon=0となる。
そしてステップF303で制御部30は、カウント値ZoomOnCntとズーム判定期間Tzonを比較する。カウント値ZoomOnCntがズーム判定期間Tzonに達していなければ、ステップF305でズーム実行フラグFzonをゼロとする。そしてステップF307でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。この場合も、判定実行フラグFdon=0である。
そしてステップF307でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。この場合、判定実行フラグFdon=1となる。
なお、その後もズームが継続されている間は、このステップF303→F304→F307と進む処理が繰り返されることになり、判定実行フラグFdon=1の状態が維持される。その後、ズーム動作が終了すると、ステップF301→F306→F307と進む処理となるため、判定実行フラグFdon=0となる。
図8の主要被写体判定処理では、判定実行フラグFdon=1の期間に実質的な主要被写体判定が行われるため(図8のステップF104参照)、主要被写体判定はズームが継続される期間を限度として実行されることとなる。
第4の処理例として、ズーム動作後に主要被写体判定を実行する例を説明する。この場合、制御部30(カメラワーク判定部30b)が、ユーザが撮像装置10のズーム動作を終了させたことを判定する。そしてそのズーム動作終了後に、主要被写体判定部30aで主要被写体判定処理が行われるようにする。
ズーム動作中の判定、即ちズーム実行フラグFzonについては、上記第3の処理例と同様に、ユーザのズームレバーの継続的な操作の検出によって設定する。
ここで、ズーム実行フラグFzonについて、現在の値と1つ前の値を比較(減算)して、ズーム遷移フラグFz_transを設定する。ズーム実行フラグFzonは「1」又は「0」であるため、このズーム実行フラグFzonの1つ前の時点の値から現在値とを減算すると、「0」「+1」「-1」のいずれかとなる。つまりズーム実行フラグFzonが立ち上がる時点では 0-1でズーム遷移フラグFz_trans=-1となり、ズーム実行フラグFzonが立ち下がる時点では1-0でズーム遷移フラグFz_trans=+1となる。それ以外は0-0、又は1-1でズーム遷移フラグFz_trans=0となる。
つまりズーム遷移フラグFz_transは、ズーム実行フラグFzonの微分情報となり、具体的には継続的なズーム動作の開始、終了を検出した情報となる。そしてこの場合、ズーム遷移フラグFz_trans=+1がズーム終了時点を示す情報となる。
また、上限期間TdonEndが設定され、判定実行フラグFdonは、ズーム遷移フラグFz_trans=+1となった時点から上限期間TdonEndを経た時点で「0」とされる。このように判定実行フラグFdon=0とされることで、実質的な主要被写体判定処理を行う期間が制限される。判定開始待機期間TdonStart、及び上限期間TdonEndは例えば固定値とされる。
図13においてステップF300~F306は、図11AのステップF300~F306と同様である。即ちズームレバーのズーム判定期間Tzonを越える継続的な操作を検出した場合にズーム実行フラグFzon=1とし、該検出前、及びズームレーバー非操作時にズーム実行フラグFzon=0とする処理である。
ズーム遷移フラグFz_trans=(前回ズーム実行フラグFzon_1)-(ズーム実行フラグFzon)
とする。前回ズーム実行フラグFzon_1は、前回のステップF310の時点でのズーム実行フラグFzonの値である。従ってズーム遷移フラグFz_transは、図12で説明した「0」「+1」「-1」のいずれかとなる。
また次回のステップF310において前回ズーム実行フラグFzon_1として用いるため、今回のズーム実行フラグFzonの値を前回ズーム実行フラグFzon_1に代入する。
このカウントフラグFcntupは、ズーム遷移フラグFz_transが「1」となってから上限期間TdonEndに達するまでの期間のみ「1」である。従ってズーム遷移フラグFz_transが「1」となる以前はカウントフラグFcntupは「0」である。
そして制御部30はステップF317で判定実行フラグFdon=0と設定する。
この場合、ズーム遷移フラグFz_trans=1であることで制御部30はステップF311からF312に進み、カウント値Fdoncntをインクリメントする。またカウントフラグFcntup=1とする。
ステップF313では、カウント値Fdoncntについて、図12に示した判定開始待機期間TdonStartと比較する。
ズーム遷移フラグFz_trans=1となった当初は、カウント値Fdoncntは判定開始待機期間TdonStartを越えていないため、ステップF315に進み、判定実行フラグFdon=0とされる。
つまりズーム遷移フラグFz_trans=1となった以降は、カウントフラグFcntup=1であることで、連続してステップF312へ処理が進む状態とされる。
これにより、図8に示した主要被写体判定処理では、実質的な判定処理(ステップF105~F115)が開始されることとなる。
その後、或る時点のステップF316で、カウント値Fdoncntが上限期間TdonEndを越える。この場合、制御部30はステップF319に進んで、判定実行フラグFdon=0とする。従って、もし図8の処理で主要被写体判定処理が完了していなかったとしても、この時点で実質的な判定処理(ステップF105~F115)は終了されることとなる。
またステップF320でカウントフラグFcntupを「0」とする。
なお、ステップF319で判定実行フラグFdon=0とされた後は、次にズーム遷移フラグFz_trans=1となるまでは、ステップF314,F317の処理が行われることとなり、判定実行フラグFdon=0の状態が継続する。
このような判定開始待機期間TdonStartを適切に設定することで、主要被写体判定の確度をより高めることができる。なお、上記第2の処理例でパン遷移フラグFp_trans=1の後にも判定開始待機期間TdonStartを用いたが、パン後の撮像画像の揺らぎより、ズーム
後の撮像画像の揺らぎの方が小さいと考えられる。そこで、この第4の処理例の場合の判定開始待機期間TdonStartは、第2の処理例の判定開始待機期間TdonStartよりも短く設定することが好ましい。
なお、場合によっては、判定開始待機期間TdonStart=0とすることも考えられる。このようにすれば、ズーム遷移フラグFz_trans=1となった時点、つまりズーム終了が検出された時点から、主要被写体判定処理が実行されることとなる。主要被写体判定を早く実行させたい場合に好適である。
なおもちろん、上限を設けず、主要被写体判定がなされるまで判定実行フラグFdon=1の状態を維持させておく処理例も考えられる。
第5の処理例として、パン動作後に引き続きズーム動作が行われた場合に、そのズーム動作中に主要被写体判定を実行する例を説明する。
図14にパン後ズーム動作判定の動作を示している。
まずパン動作の終了の判定は第2の処理例で説明した考え方を用いる。即ちパン実行フラグFponについては、第1の処理例と同様に、ジャイロセンサからの検出信号Sgと閾値範囲Sthとの比較結果に基づいて設定する。そしてパン実行フラグFponについて、現在の値と1つ前の値を比較(減算)して、パン遷移フラグFp_transを設定する。パン遷移フラグFp_trans=+1がパン終了時点を示す情報となる。
ズーム動作の検知は、第3の処理例で説明した考え方を用いる。即ちズームレバー操作が検出される状態が、ズーム判定期間Tzonとして設定したある程度の時間以上継続したら、ズームが実行されていると判断し、ズーム実行フラグFzonを「1」とする。これに応じて主要被写体判定開始を制御する判定実行フラグFdonを「1」とする。判定実行フラグFdon=1の際に主要被写体判定処理が行われる。
図15のステップF350~F357は、図10のステップF200~F206、F210と同様であるため重複説明を避けるが、パン遷移フラグFp_transを設定し、パン遷移フラグFp_trans=+1となるパン終了時点を検出する処理である。
カウントフラグFpe_cntup=0であってパン遷移フラグFp_transが「0」又は「-1」の場合、つまりパン終了が検出されるまでは、制御部30はステップF358からF360に進み、カウント値PanEndCntをゼロにリセットし、またカウントフラグFpe_cntupを「0」とする。カウント値PanEndCntは、図14に示した移行限度期間Tpan_zoomを計数するカウンタの値である。
そして制御部30はステップF361で判定実行フラグFdon=0と設定する。
そしてステップF362で制御部30は、ズーム中判定処理を行う。ズーム中判定処理は図16に示している。
なお次の時点の図15の処理では、パン遷移フラグFp_transは「0」に戻るが、カウントフラグFpe_cntupは「1」となっているため、制御部30は前回と同様にステップF358からF359,F362に進む。カウントフラグFpe_cntupは移行限度期間Tpan_zoom内にズーム動作が検出されなかった場合、或いはズーム動作が終了した場合に「0」とされるが、それまでは、ステップF359(カウント値PanEndCntのインクリメント),F362(ズーム中判定処理)が繰り返し行われることとなる。
制御部30は、図16のステップF370でズームレバーの操作状態を取得し、変数Szoomを設定する。例えばズームレバーが操作されていれば変数Szoom=1とし、操作されていなければ変数Szoom=0とする。そしてステップF371では、変数Szoomを参照して、現在ズームレバーが押されている状態であるか否かを判定する。
パン終了直後で、まだズームが行われていない期間は、制御部30はステップF371からF376に進み、カウント値PanEndCntが移行限度期間Tpan_zoomに達していないか否かを確認する。
パン直後で移行限度期間Tpan_zoomに達していなければ、ステップF376からF377に進むが、その時点ではズーム実行フラグFzon=0であるので、ステップF378へ進み、カウント値ZoomOnCntをゼロとし、またズーム実行フラグFzonをゼロとする。カウント値ZoomOnCntは、ユーザのズーム操作の検知からズーム判定期間Tzonを越えたか否かを判定するため(継続的なズーム操作判定のため)のカウント値である。
そしてステップF379でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。つまりこの場合は、判定実行フラグFdon=0となる。
なお、移行限度期間Tpan_zoom内に一瞬ズーム操作が検知されても、ズーム操作がズーム判定期間Tzonに至らずに終了された場合、その一瞬の操作の終了後において処理はステ
ップF371→F376と進む。従って、そのままズーム操作がなされずに移行限度期間Tpan_zoomに達した場合は、図15のステップF360に進み、パン後ズーム動作が検出されなかったこととなる(判定実行フラグFdon=0)。
なお、その後もズームが継続されている間は、このステップF373→F374→F379と進む処理が繰り返されることになり、判定実行フラグFdon=1の状態が維持される。
その後、ズーム動作が終了すると、ステップF371→F376と進む処理となる。この場合は、カウント値PanEndCntが移行限度期間Tpan_zoom以上となっているか、もしくは移行限度期間Tpan_zoomに達していなくともズーム実行フラグFzon=1となっているため、ステップF376又はF377から図15のステップF360、F361に進む。従ってカウント値PanEndCntがゼロリセットされ、カウントフラグFpe_cntup=0とされ、さらに判定実行フラグFdon=0とされる。つまり主要被写体判定はズームが継続される期間を限度として実行されることとなる。
また上記処理例では、パンからズームへの移行限度期間Tpan_zoomを設けて判断しているため、パン→ズームという連続的な動作を的確に判断できる。
第6の処理例として、パン動作後に引き続きズーム動作が行われた場合に、そのズーム動作終了後に主要被写体判定を実行する例を説明する。
図17にパン後ズーム後判定の動作を示している。
まずパン動作の終了の判定(パン実行フラグFpon、パン遷移フラグFp_transの処理)、及びパン終了から移行限度期間Tpan_zoom内でのズーム動作の判定(ズーム実行フラグFzonの処理)については、第5の処理例と同様である。
パン後のズーム動作の終了を検出するため、第4の処理例で説明した考え方を用いる。即ちズーム実行フラグFzonについて、現在の値と1つ前の値を比較(減算)して、ズーム遷移フラグFz_transを設定する。ズーム遷移フラグFz_trans=+1がズーム終了時点を示す情報となる。
図18のステップF350~F361は、図15と同様であり、同一のステップ番号としている。即ち制御部30は、ステップF350~F357として、パン遷移フラグFp_transを設定し、パン終了時点を検出する。パン終了が検出されるまでは、ステップF358→F360→F361と進み、判定実行フラグFdon=0とする。
この図18では、パン終了が検出された以降において、制御部30はステップF358→F359→F365と進むことになり、ステップF365として図19のズーム後判定処理を行う。
パン後において移行限度期間Tpan_zoom内にズームが行われなければ、ステップF376からF379に進む。この時点ではカウント値FdonCnt=0である。カウント値FdonCntはズーム終了時点からステップF382でカウントアップされるためである。そのためこの時点ではステップF379から図18のステップF360に進む。この場合、パン後ズーム動作が検出されなかったこととなる。判定実行フラグFdonは「0」のままとなる。
ズーム開始前、及び動作中は、制御部30はステップF381→F384→F387と進み、カウント値Fdoncnt=0、カウントフラグFcntup=0、判定実行フラグFdon=0とする。
ズーム終了時点では、ズーム遷移フラグFz_trans=1となることで、制御部30はステップF381からF382に進み、カウント値Fdoncntをインクリメントし、またカウントフラグFcntup=1とする。以降もカウントフラグFcntup=1であることで制御部30はステップF381からF382に進み、カウント値Fdoncntのインクリメントが継続される。但し判定開始待機期間TdonStartを越えるまではステップF383からF385に進み、判定実行フラグFdon=0とされる。
なお、ズーム終了時点以降は、図19の処理はステップF371→F376と進み、カウント値PanEndCntが移行限度期間Tpan_zoomを越えている場合が多いが、カウント値Fdoncntのインクリメントが開始された以降であるため、ステップF379→F378→F380→F381→F382のように処理が進められる。
その後、カウント値Fdoncntが上限期間TdonEndを越えると、制御部30はステップF389でカウントフラグFcntup=0とし、さらに図18のステップF360、F361に進んで、カウント値PanEndCnt=0、カウントフラグFpe_cntup=0とされ、さらに判定実行フラグFdon=0とされる。つまり主要被写体判定はパン後ズーム後に上限期間TdonEndを限度として実行される。
また上記処理例では、パンからズームへの移行限度期間Tpan_zoomを設けて判断しているため、パン→ズームという連続的な動作を的確に判断できる。
なお判定開始待機期間TdonStart=0とすることも考えられる。この場合、パン後のズーム終了が検出された時点から即座に主要被写体判定処理が実行されることとなる。
また上限期間TdonEndを設けず、主要被写体判定がなされるまで判定実行フラグFdon=1の状態を維持させておくようにしてもよい。
第7の処理例として、ズーム動作後に引き続きパン動作が行われた場合に、そのパン動作中に主要被写体判定を実行する例を説明する。
図20にズーム後パン動作判定の動作を示している。
まずズーム動作の終了の判定は第4の処理例で説明した考え方を用いる。即ちズーム実行フラグFzonについて、ユーザのズームレバー操作の継続性の判定により設定する。そしてズーム実行フラグFzonについて、現在の値と1つ前の値を比較(減算)して、ズーム遷移フラグFz_transを設定する。ズーム遷移フラグFz_trans=+1がパン終了時点を示す情報となる。
パン動作の検知は、第1の処理例で説明した考え方を用いる。即ちパン実行フラグFponを、ジャイロセンサからの検出信号Sgと閾値範囲Sthとの比較結果に基づいて設定する。検出信号Sgが、パン判定期間Tponとして設定したある程度の時間以上継続して閾値範囲Sthを越えていたら、パンが実行されていると判断し、パン実行フラグFponを「1」とする。これに応じて主要被写体判定開始を制御する判定実行フラグFdonを「1」とする。判定実行フラグFdon=1の際に主要被写体判定処理が行われる。
図21のステップF400~F407は、図13のステップF300~F306、F310と同様であるため重複説明を避けるが、ズーム遷移フラグFz_transを設定し、ズーム遷移フラグFz_trans=+1となるズーム終了時点を検出する処理である。
カウントフラグFze_cntup=0であってズーム遷移フラグFz_transが「0」又は「-1」の場合、つまりズーム終了が検出されるまでは、制御部30はステップF408からF
410に進み、カウント値ZoomEndCntをゼロにリセットし、またカウントフラグFze_cntupを「0」とする。カウント値ZoomEndCntは、図20に示した移行限度期間Tzoom_panを計数するカウンタの値である。
そして制御部30はステップF411で判定実行フラグFdon=0と設定する。
そしてステップF412で制御部30は、パン中判定処理を行う。パン中判定処理は図22に示している。
なお次の時点の図21の処理では、ズーム遷移フラグFz_transは「0」に戻るが、カウントフラグFze_cntupは「1」となっているため、制御部30は前回と同様にステップF408からF409,F412に進む。カウントフラグFze_cntupは移行限度期間Tzoom_pan内にパン動作が検出されなかった場合、或いはパン動作が終了した場合に「0」とされるが、それまでは、ステップF409(カウント値ZoomEndCntのインクリメント),F412(パン中判定処理)が繰り返し行われることとなる。
制御部30は、図22のステップF420でセンサ部14のジャイロセンサで検出される角速度情報を検出信号Sgとして取得する。ステップF421で制御部30は、Sg>Sc+Sth/2、又はSg<Sc-Sth/2のいずれかが成り立つか否かを判定する。即ち図7Bに示した基準レベルSc、閾値範囲Sthの値を用いて、検出信号Sgが正又は負の値として閾値範囲Sthを越えた値になっているか否かを判定する。
パン直後で移行限度期間Tzoom_panに達していなければ、ステップF426からF427に進むが、その時点ではパン実行フラグFpon=0であるので、ステップF428へ進み、カウント値PanOnCntをゼロとし、またパン実行フラグFponをゼロとする。カウント値PanOnCntは、パン動作の検知からパン判定期間Tponを越えたか否かを判定するためのカウント値である。
そしてステップF429でパン実行フラグFponの値を判定実行フラグFdonに代入する。つまりこの場合は、判定実行フラグFdon=0となる。
なお、移行限度期間Tzoom_pan内に一瞬検出信号Sgが閾値範囲Sthを越えても、パンとしての動きがパン判定期間Tponに至らずに終了された場合、その一瞬のパン動作の終
了後において処理はステップF421→F426と進む。従って、そのままパン動作がなされずに移行限度期間Tzoom_panに達した場合は、図21のステップF410に進み、ズーム後パン動作が検出されなかったこととなる(判定実行フラグFdon=0)。
なお、その後もパンが継続されている間は、このステップF423→F424→F429と進む処理が繰り返されることになり、判定実行フラグFdon=1の状態が維持される。
その後、パン動作が終了すると、ステップF421→F426と進む処理となる。この場合は、カウント値ZoomEndCntが移行限度期間Tzoom_pan以上となっているか、もしくは移行限度期間Tzoom_panに達していなくともパン実行フラグFpon=1となっているため、ステップF426又はF427から図21のステップF410、F411に進む。従ってカウント値ZoomEndCntがゼロリセットされ、カウントフラグFze_cntup=0とされ、さらに判定実行フラグFdon=0とされる。つまり主要被写体判定はパンが継続される期間を限度として実行されることとなる。
また上記処理例では、ズームからパンへの移行限度期間Tzoom_panを設けて判断しているため、ズーム→パンという連続的な動作を的確に判断できる。
第8の処理例として、ズーム動作後に引き続きパン動作が行われた場合に、そのパン動作終了後に主要被写体判定を実行する例を説明する。
図23にズーム後パン後判定の動作を示している。
ズーム動作の終了の判定(ズーム実行フラグFzon、ズーム遷移フラグFz_transの処理)、及びズーム終了から移行限度期間Tzoom_pan内でのパン動作の判定(パン実行フラグFponの処理)については、第7の処理例と同様である。
ズーム後のパン動作の終了を検出するため、第2の処理例で説明した考え方を用いる。即ちパン実行フラグFponについて、現在の値と1つ前の値を比較(減算)して、パン遷移フラグFp_transを設定する。パン遷移フラグFp_trans=+1がパン終了時点を示す情報となる。
図24のステップF400~F411は、図21と同様であり、同一のステップ番号としている。即ち制御部30は、ステップF400~F407として、ズーム遷移フラグFz_transを設定し、ズーム終了時点を検出する。ズーム終了が検出されるまでは、ステップF408→F410→F411と進み、判定実行フラグFdon=0とする。
この図24では、ズーム終了が検出された以降において、制御部30はステップF408→F409→F415と進むことになり、ステップF415として図25のパン後判定処理を行う。
ズーム後において移行限度期間Tzoom_pan内にパンが行われなければ、ステップF426からF429に進む。この時点ではカウント値FdonCnt=0である。カウント値FdonCntはパン終了時点からステップF432でカウントアップされるためである。そのためこの時点ではステップF429から図24のステップF410に進む。この場合、ズーム後パン動作が検出されなかったこととなる。判定実行フラグFdonは「0」のままとなる。
パン開始前、及び動作中は、制御部30はステップF431→F434→F437と進み、カウント値Fdoncnt=0、カウントフラグFcntup=0、判定実行フラグFdon=0とする。
パン終了時点では、パン遷移フラグFp_trans=1となることで、制御部30はステップF431からF432に進み、カウント値Fdoncntをインクリメントし、またカウントフラグFcntup=1とする。以降もカウントフラグFcntup=1であることで制御部30はステップF431からF432に進み、カウント値Fdoncntのインクリメントが継続される。但し判定開始待機期間TdonStartを越えるまではステップF433からF435に進み、判定実行フラグFdon=0とされる。
なお、パン終了時点以降は、図25の処理はステップF421→F426と進み、カウント値ZoomEndCntが移行限度期間Tzoom_panを越えている場合が多いが、カウント値Fdoncntのインクリメントが開始された以降であるため、ステップF429→F428→F430→F431→F432のように処理が進められる。
その後、カウント値Fdoncntが上限期間TdonEndを越えると、制御部30はステップF439でカウントフラグFcntup=0とし、さらに図24のステップF410、F411に進んで、カウント値ZoomEndCnt=0、カウントフラグFze_cntup=0とされ、さらに判定実行フラグFdon=0とされる。つまり主要被写体判定はズーム後パン後に上限期間TdonEndを限度として実行される。
また上記処理例では、ズームからパンへの移行限度期間Tzoom_panを設けて判断しているため、ズーム→パンという連続的な動作を的確に判断できる。
なお判定開始待機期間TdonStart=0とすることも考えられる。この場合、ズーム後のパン終了が検出された時点から即座に主要被写体判定処理が実行されることとなる。
また上限期間TdonEndを設けず、主要被写体判定がなされるまで判定実行フラグFdon=1の状態を維持させておくようにしてもよい。
第9の処理例としてのカメラワーク判定及び主要被写体判定を説明する。この例は、制御部30(カメラワーク判定部30b)は、撮像装置10のマニュアルフォーカス動作の終了を検出することに応じて判定開始タイミングを設定する。
制御部30(主要被写体判定部30a)は、判定開始タイミングからの少なくとも1フレームの画像データにおける被写体の合焦状態を観測し、特定の合焦条件に合致した被写体のうちで主要被写体を判定する。
例えば特定の合焦条件に合致する被写体とは、画像データの分割領域毎に計測した合焦度データが所定値以上となっている分割領域に位置する被写体である。
さらにこのような合焦条件に加えて、特定の位置条件に合致した被写体のうちで主要被写体を判定するようにしてもよい。
この第9の処理例の場合、撮像装置10としての構成は図26のようになる。図26において図3と同一部分は同一符号を付し、説明を省略する。
合焦度の判定技術としては、例えば公知のオートフォーカス検波の技術を用いることができる。例えば輝度信号のエッジ成分を検出し、これに積分処理等を施すことで、合焦している程高い数値となる値、つまり合焦度合いに応じた値を求めることができる。
また図26の構成では、図3と同じく候補検出部27を備え、候補画像枠を抽出するようにしている。
なお、候補検出部27及び合焦度判定部28としての機能は、制御部30においてソフトウエアにより実装してもよい。
図27には撮像装置10の光学系11,イメージャ12の動作によりデジタル信号処理部20に入力される撮像画像信号の各フレームFR1,FR2,FR3・・・を示している。
第1の処理例で説明したものと同様、候補検出部27は、このような順次入力される連続した各フレームのそれぞれ(或いは間欠的な各フレームについて)から候補画像(例えば候補画像枠E1,E2,E3)の検出を行う。そして候補画像枠情報を制御部30(主要被写体判定部30a)に受け渡す。制御部30は、主要被写体判定処理の際に、各候補画像枠E1,E2,E3の重心Gから判定基準点SPまでの距離Diff1、Diff2、Diff3の算出等を行う。
図では分割領域としてのブロックの例を示している。1つの画像データを、破線で示すように多数のブロックに分割する。各ブロックを説明上、ブロックBK(BK1、BK2・・・BK(M))とする。
合焦度判定部28は、各ブロックBK1、BK2・・・BK(M)のそれぞれについての合焦度を例えば数値情報として求める。図示のように、例えばブロックBK1は合焦度「10」、ブロックBK2は合焦度「22」などと求められる。なおこの例では、合焦度は「100」を最高値としており、例えば「80」以上であれば合焦状態と判定するものとする。
合焦度判定部28は、例えばフレーム毎にこのように各ブロックBKについて合焦度を求め、制御部30に受け渡す。
いま、図28Aのように、被写体としての人物H1,H2,H3が、撮像装置10からの距離としてそれぞれ距離D1,D2,D3の位置に居るとする。この場合に撮像者がマニュアルフォーカス操作を行い、合焦位置をニア側とファー側の間で変化させたとする。
ニア側に合焦させると、図28Bの上図のように、人物H1に焦点が合い、一方人物H2,H3はボケた状態(図では点線で示している)となる。このときの撮像画像のフレームでは、図28Bの下図のように、人物H1が位置するブロックBK(斜線のブロック)において合焦度の値が高くなる。
マニュアルフォーカス操作で中間的な距離に合焦させると、図28Cの上図のように、人物H2に焦点が合い、人物H1,H3はボケた状態となる。このときの撮像画像のフレームでは、図28Cの下図のように、人物H2が位置するブロックBK(斜線のブロック)において合焦度の値が高くなる。
さらにファー側に合焦させると、図28Dの上図のように、人物H3に焦点が合い、人物H1,H2はボケた状態となる。このときの撮像画像のフレームでは、図28Dの下図のように、人物H3が位置するブロックBK(斜線のブロック)において合焦度の値が高くなる。
そこで、第9の処理例では、まずカメラワーク判定部30bが、マニュアルフォーカス操作を検出し、マニュアルフォーカス終了後のタイミングを主要被写体判定部30aに通知する。主要被写体判定部30aは、当該タイミングのフレーム画像データにおいて、候補画像のうちで、合焦度の高いブロックBKに位置している候補画像を、主要被写体と判定するものである。
図29は、図28の例においてニア側からファー側へマニュアルフォーカスが行われた場合を示している。人物H1,H2,H3が、それぞれ候補画像枠E1,E2,E3とされているとし、各候補画像枠の部分の合焦度を例示している。
マニュアルフォーカス期間tmfとしてニア側からファー側へフォーカスレンズが移動されるに従って、合焦度が高い被写体は候補画像枠E1→E2→E3の順番で遷移する。
知された時点で、マニュアルフォーカス実行フラグFmfonが「1」とされる。
その後フォーカス操作が終了され、通常期間tnorに移行したとする。この場合にカメラワーク判定部30bはマニュアルフォーカス後のタイミングをフォーカス終了フラグFmfend=+1として発生させる。これに応じて判定実行フラグFdon=1となる。この判定実行フラグFdon=1に応じて主要被写体判定部30aで主要被写体判定が行われる。
ステップF500で制御部30は、例えばセンサ部14における、フォーカスレンズのマニュアル操作(鏡筒リングの操作)を検出するセンサから情報、もしくはフォーカスレンズ位置センサの情報を取得し、ユーザ操作に基づくマニュアルフォーカス操作状態を取得して、変数Smfを設定する。例えばマニュアルフォーカス操作がされていれば変数Smf=1とし、操作されていなければ変数Smf=0とする。
変数Smf=0で現在マニュアルフォーカス操作が行われていなければ制御部30はステップF506に進み、カウント値MfOnCntをゼロとし、またマニュアルフォーカス実行フラグFmfonをゼロとする。なお、カウント値MfOnCntは、マニュアルフォーカス判定期間Tmfonを越えたか否かを判定するためのカウント値である。
フォーカス終了フラグFmfend=(前回マニュアルフォーカス実行フラグFmfon_1)-(マニュアルフォーカス実行フラグFmfon)
とする。前回マニュアルフォーカス実行フラグFmfon_1は、前回のステップF507の時点でのマニュアルフォーカス実行フラグFmfonの値である。従ってフォーカス終了フラグFmfendは、図29に示した「0」「+1」「-1」のいずれかとなる。
また次回のステップF507において前回マニュアルフォーカス実行フラグFmfon_1として用いるため、今回のマニュアルフォーカス実行フラグFmfonの値を前回マニュアルフォーカス実行フラグFmfon_1に代入する。
そしてステップF508でフォーカス終了フラグFmfendの値を判定実行フラグFdonに代入する。従ってマニュアルフォーカス操作が行われる前の時点では、判定実行フラグFdon=0となる。
そしてステップF503で制御部30は、カウント値MfOnCntとマニュアルフォーカス判定期間Tmfonを比較する。カウント値MfOnCntがマニュアルフォーカス判定期間Tmfonに達していなければ、ステップF505でマニュアルフォーカス実行フラグFmfonをゼロとする。そしてステップF507でフォーカス終了フラグFmfendを設定し、ステップF508で判定実行フラグFdonに代入する。判定実行フラグFdon=0となる。
そしてステップF507でフォーカス終了フラグFmfendを設定し、ステップF508で判定実行フラグFdonに代入する。判定実行フラグFdonはマニュアルフォーカス実行フラグFmfon=1とされた時点では「-1」となり、その後、マニュアルフォーカス実行フラグF mfon=1が継続されているときは「0」となる。
この場合ステップF507でフォーカス終了フラグFmfend=1とされ、ステップF508で判定実行フラグFdon=1となる。
これにより、後述の図31において実質的な主要被写体判定(ステップF605~F610)が行われることになる。
なお、その後、マニュアルフォーカス実行フラグFmfon=0が継続するため、次の時点のステップF507でフォーカス終了フラグFmfend=0とされ、ステップF508で判定実行フラグFdon=0となる。
この例は、主要被写体判定に関して制御部30は候補検出部27からの候補画像枠情報の取り込みは継続して行っていることは図8と同様としている。そして上述の判定実行フラグFdon=1となることに応じて、合焦度判定部28による合焦度の情報を用いて実質的な判定処理(ステップF605~F611)を開始する処理例としている。
制御部30は例えば1フレームタイミング毎にステップF601~F604及びF612(判定実行フラグFdon=1の期間はステップF601~F612)の処理を行う。
ステップF601、F602、F603は図8のステップF101、F102、F103と同様、或るフレームについての候補画像枠情報を取り込み、各候補画像枠E(n)について、重心Gの座標を算出し、さらに各候補画像枠E(n)の重心Gから判定基準点SPまでの距離Diff(n)を算出する。
ステップF604で制御部30は、判定実行フラグFdon及び変数TSFを確認する。変数TSF=0であって、かつ判定実行フラグFdon=1であればステップF605に進む。これ以外の場合は実質的な判定処理(F605~F611)を行わずにステップF612→F601と処理を進める。
上述のように合焦度判定部28では、各ブロックBK毎の合焦度の値を算出している。合焦度が求められた各ブロックBKとしての領域と、候補画像枠E(n)の領域は一致しているわけではない。そこで、各候補画像枠E(n)が、どこのブロックBKに対応しているか、さらには、各候補画像枠E(n)の合焦度は、どのブロックBKを用いて求めるかを選択することとなる。
図32で説明する。図32Aは、各候補画像枠E1,E2,E3と、ブロックBKの関係を示している。
今、現在のフレームでは、候補画像枠E1は、図32BのようにブロックBK8,BK9,BK15,BK16にまたがって存在しているとする。同様に図32Cのように候補画像枠E2はブロックBK11,BK12,BK18,BK19に存在し、図32Dのように候補画像枠E3はブロックBK6,BK7,BK13,BK14に存在しているとする。図32B,図32C,図32Dには、各ブロックBK内の数値として、そのブロックBKの合焦度の値を示している。
図32Bの候補画像枠E1について説明すれば、まず候補画像枠E1が含まれるブロックBK8,BK9,BK15,BK16を選択する。そしてその中で、候補画像枠E1の面積占有率が最も高いブロックBK(この例ではブロックBK8)を合焦度判定ブロックとするものである。なお、各ブロックBKは固定的に画像を分割したものであるため、各ブロックBKの範囲は制御部30にとって既知である。また各候補画像枠E(n)については、候補画像枠情報として、二次元(x-y)座標値としてのx値、y値、候補画像枠の幅w、高さhの情報が候補検出部27から供給される。従って制御部30は、各候補画像枠E(n)について面積占有率が最も高いブロックBKを判定できる。
ステップF607で制御部30は、各候補画像枠E(n)についてステップF603で算出した、各候補画像枠E(n)の重心Gから判定基準点SPまでの距離Diff(n)が、判定基準距離DiffMINより小さいか否かを判定する。つまり、各候補画像枠E(n)が例えば画面中央点などと設定された判定基準点SPに近いものであるか否かを判定する。
一方、ステップF606で判断した合焦条件、又はステップF607で判断した位置条件が共のいずれか一方でも満たされなかった候補画像枠E(n)については、ステップF608の処理を行わず、つまり主要被写体とは判定しないこととなる。
例えば図32Bの候補画像枠E1は、合焦度判定ブロックBK8の合焦度が「90」であって合焦していると判定されるが、距離Diff(n)が判定基準距離DiffMINより長いとして主要被写体と判定されない。
図32Cの候補画像枠E2は、合焦度判定ブロックBK12の合焦度が「95」であって合焦していると判定され、さらに距離Diff(n)が判定基準距離DiffMINより短いとして主要被写体と判定される。
図32Dの候補画像枠E3は、合焦度判定ブロックBK7の合焦度が「30」であって合焦していないと判定されることで、主要被写体と判定されない。
まずステップF605について、候補画像枠E(n)について占有率で1つの合焦度判定ブロックを選択したが、他の選択手法もある。
例えば候補画像枠E(n)の重心又は中心が位置するブロックを合焦度判定ブロックとしてもよい。
候補画像枠の抽出条件によるが、候補画像の中の特定部分が位置するブロックを合焦度判定ブロックとしてもよい。例えば候補画像として身体画像を抽出する場合に、顔画像が位置するブロックとするなどである。
また候補画像枠E(n)を含む複数ブロックBKのうちで、最も合焦度の値の高いブロック(又は最も合焦度の低いブロック)を合焦度判定ブロックとしてもよい。
また候補画像枠E(n)を含む複数ブロックBKのうちで、最も判定基準点SPに近いブロック(又は最も遠いブロック)など、位置条件で合焦度判定ブロックを選択してもよい。
この場合、1つのブロックを合焦度判定ブロックとするための占有率の演算等は不要となり演算負荷が軽くできる。
即ちステップF606で合焦していると判定された候補画像枠E(n)は、すべて主要被写体と判定してもよい。
或いは、ステップF606で合焦していると判定された候補画像枠E(n)が複数ある場合は、そのうちで最も合焦度の高い1つの候補画像枠E(n)を主要被写体と判定してもよい。
また合焦条件の判定は、複数フレームでの合焦度の値を用いて行ってもよい。例えば合焦度判定ブロックについて連続する複数フレームでの合焦度の値の平均値、又は最大値、又は最小値を計算し、その値が例えば「80」以上であれば合焦していると判定するなどである。
さらには、画像上の縁部ではない候補画像枠E(n)、特定のブロック範囲の候補画像枠E(n)などとして位置条件を設定しても良い。
28や制御部30の処理負荷の軽減にもなる。
上記例ではブロックBK1~BK(M)として説明したが、分割数は4分割、6分割、8分割、9分割・・・30分割、40分割など多様に考えられる。
ブロック数が多いほど、合焦度算出や合焦度判定ブロックの選択などの処理負担は増えるが、ズーム状態や被写体が小さいことなどによって候補画像が小さい場合でも確度の高い主要被写体判定ができる。逆にブロック数が少ないほど処理負担は軽くなる。
以上、画像処理装置1、撮像装置10の実施の形態を説明してきたが、上述した主要被写体判定処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。
即ちこのプログラムは、撮像時のカメラワークを判定して該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定する処理と、判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する処理とを演算処理装置に実行させるプログラムである。
具体的には、実施の形態のプログラムは、図2や第1~第9の処理例として説明した処理を演算処理装置に実行させるプログラムとすればよい。
このようなプログラムにより、上述した主要被写体判定を実行する装置を、演算処理装置を用いて実現できる。
あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
例えば、図33に示されるようなコンピュータ装置において、図1の画像処理装置1や撮像装置10における主要被写体判定処理と同様の処理が実行されるようにすることもできる。
CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インターフェース75も接続されている。
この記録媒体は、例えば図33に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(ブルーレイディスク、CD-ROM、DVDを含む)、光磁気ディスク(MD(Mini
Disc)を含む)、若しくは半導体メモリなどよりなるリムーバブルメディア81により構成される。或いは、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM72や、記憶部78に含まれるハードディスクなどでも構成される。
なお、この場合、過去になされた撮像時のカメラワークを判定する必要がある。CPU71は、フレーム画像データの解析で、パン、ズーム、フォーカス(合焦位置の変化)を検出することができる。例えばフレーム相互間の画像の動き、サイズ、合焦状態変化から、入力データにおいて撮像時にパン、ズーム、マニュアルフォーカスされていた期間を判定することが可能である。
或いはまた、撮像時に各フレーム画像データに対応するメタデータとして、カメラワークの情報が付加されていれば、CPU71はそのメタデータを参照してカメラワークを判定できることとなる。
上述の実施の形態は、各種の変形例が考えられる。
画像処理装置1、撮像装置10、コンピュータ装置70としての各例において、全ての場合に、チルト動作を判定することも当然に考えられる。チルト動作の判定(チルト動作中判定やチルト後判定)については、上述のパン動作判定と全く同様に行うことができる。ジャイロセンサ等による角速度検出を、チルト方向に対応したものとすればよいものである。従ってカメラワーク判定処理として、チルト動作、チルト後、チルト後ズーム動作、チルト後ズーム後、ズーム後チルト動作、ズーム後チルト後、チルト後パン動作、チルト後パン後、パン後チルト動作、パン後チルト後なども判定でき、それらの場合に主要被写体判定が行われるようにすることもできる。
例えばズーム後のマニュアルフォーカスを判定して、そのマニュアルフォーカス後に合焦条件を用いて主要被写体判定を行うなどである。
例えば候補画像のサイズが所定ピクセル以上などとするサイズ条件、被写体距離(撮像装置10と被写体の相対距離)が所定範囲内などの距離条件などを単独もしくは複合的に用いて主要被写体判定を行ってもよい。
また画像サイズや被写体距離の時間的な変化により判定しても良い。
また候補画像の属性を主要被写体判定条件として用いても良い。例えば被写体画像について、子供、大人、男性、女性、人、犬、猫などの属性を判定する。例えば子供であることを主要被写体の条件とするなどである。またこのような属性条件をユーザが撮像目的に応じて選択できるようにするとよい。
このような再生画像を対象とする主要被写体判定処理は、図1の画像処理装置、図32の情報処理装置などにおいても当然に想定される。
また、スルー画を表示させ、同時に主要被写体判定処理を行っている間に、撮像者の操作による主要被写体指定操作を可能としてもよい。
(1)撮像時のカメラワークを判定し、該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定するカメラワーク判定部と、
上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する主要被写体判定部と、を備えた画像処理装置。
(2)上記主要被写体判定部は、上記判定開始タイミングからの複数のフレームの画像データにおける被写体位置状態を観測し、特定の位置条件に合致した被写体のうちで主要被写体を判定する上記(1)に記載の画像処理装置。
(3)上記特定の位置条件は、画像上での所定の位置状態を満たす状況が、複数フレームにおいて平均的、累積的、もしくは継続的に得られることである上記(2)に記載の画像処理装置。
(4)上記主要被写体判定部は、上記判定開始タイミングからの画像データにおける被写体の合焦状態を観測し、特定の合焦条件に合致した被写体のうちで主要被写体を判定する上記(1)に記載の画像処理装置。
(5)上記特定の合焦条件に合致する被写体とは、画像データの分割領域毎に計測した合焦度データが所定値以上となっている分割領域に位置する被写体である上記(4)に記載の画像処理装置。
(6)上記主要被写体判定部は、上記特定の合焦条件に合致する被写体のうちであって、さらに特定の位置条件に合致した被写体のうちで主要被写体を判定する上記(4)又は(5)に記載の画像処理装置。
(7)上記カメラワーク判定部は、撮像装置のパン又チルト動作を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
(8)上記カメラワーク判定部は、撮像装置のパン又チルト動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
(9)上記カメラワーク判定部は、撮像装置のズーム動作を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
(10)上記カメラワーク判定部は、撮像装置のズーム動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
(11)上記カメラワーク判定部は、撮像装置のパン動作からズーム動作への遷移を検出することに応じて、もしくは該ズーム動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
(12)上記カメラワーク判定部は、撮像装置のズーム動作からパン動作への遷移を検出することに応じて、もしくは該パン動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
(13)上記カメラワーク判定部は、撮像装置のマニュアルフォーカス動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)又は(4)又は(5)又は(6)に記載の画像処理装置。
Claims (15)
- 撮像時のカメラワークを判定し、該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定するカメラワーク判定部と、
上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する主要被写体判定部と、を備えた
画像処理装置。 - 上記主要被写体判定部は、上記判定開始タイミングからの複数のフレームの画像データにおける被写体位置状態を観測し、特定の位置条件に合致した被写体のうちで主要被写体を判定する
請求項1に記載の画像処理装置。 - 上記特定の位置条件は、画像上での所定の位置状態を満たす状況が、複数フレームにおいて平均的、累積的、もしくは継続的に得られることである
請求項2に記載の画像処理装置。 - 上記主要被写体判定部は、上記判定開始タイミングからの画像データにおける被写体の合焦状態を観測し、特定の合焦条件に合致した被写体のうちで主要被写体を判定する
請求項1に記載の画像処理装置。 - 上記特定の合焦条件に合致する被写体とは、画像データの分割領域毎に計測した合焦度データが所定値以上となっている分割領域に位置する被写体である
請求項4に記載の画像処理装置。 - 上記主要被写体判定部は、上記特定の合焦条件に合致する被写体のうちであって、さらに特定の位置条件に合致した被写体のうちで主要被写体を判定する
請求項4に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のパン又チルト動作を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のパン又チルト動作の終了を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のズーム動作を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のズーム動作の終了を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のパン動作からズーム動作への遷移を検出することに応じて、もしくは該ズーム動作の終了を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のズーム動作からパン動作への遷移を検出することに応じて、もしくは該パン動作の終了を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のマニュアルフォーカス動作の終了を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 撮像時のカメラワークを判定して該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定し、
上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する
画像処理方法。 - 撮像時のカメラワークを判定して該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定する処理と、
上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する処理と、
を演算処理装置に実行させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/655,626 US9942460B2 (en) | 2013-01-09 | 2013-11-12 | Image processing device, image processing method, and program |
CN201380069160.5A CN104956659B (zh) | 2013-01-09 | 2013-11-12 | 图像处理装置、图像处理方法和程序 |
EP13870437.4A EP2945365B1 (en) | 2013-01-09 | 2013-11-12 | Image processing device, image processing method and program |
JP2014556330A JP6337779B2 (ja) | 2013-01-09 | 2013-11-12 | 画像処理装置、画像処理方法、プログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013001799 | 2013-01-09 | ||
JP2013-001799 | 2013-01-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2014109124A1 true WO2014109124A1 (ja) | 2014-07-17 |
Family
ID=51166789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2013/080605 WO2014109124A1 (ja) | 2013-01-09 | 2013-11-12 | 画像処理装置、画像処理方法、プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9942460B2 (ja) |
EP (1) | EP2945365B1 (ja) |
JP (1) | JP6337779B2 (ja) |
CN (1) | CN104956659B (ja) |
WO (1) | WO2014109124A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023058328A1 (ja) * | 2021-10-04 | 2023-04-13 | ソニーグループ株式会社 | 撮像装置、制御方法、プログラム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017116840A (ja) * | 2015-12-25 | 2017-06-29 | オリンパス株式会社 | 撮像装置 |
US11032523B2 (en) * | 2016-11-30 | 2021-06-08 | Ncr Corporation | Automated image metadata processing |
CN109561249A (zh) * | 2017-09-26 | 2019-04-02 | 北京小米移动软件有限公司 | 调整焦距的方法及装置 |
CN110225235B (zh) * | 2018-03-01 | 2021-03-09 | 浙江宇视科技有限公司 | 变倍跟随方法及电动镜头 |
US20190379819A1 (en) * | 2018-06-12 | 2019-12-12 | Sony Corporation | Detection of main object for camera auto focus |
CN110505401A (zh) * | 2019-08-16 | 2019-11-26 | 维沃移动通信有限公司 | 一种摄像头控制方法及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008028758A (ja) * | 2006-07-21 | 2008-02-07 | Canon Inc | 撮像装置、その制御方法およびコンピュータプログラム |
JP2008205650A (ja) * | 2007-02-16 | 2008-09-04 | Sony Corp | 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム |
JP2010191073A (ja) * | 2009-02-17 | 2010-09-02 | Canon Inc | 焦点調節装置及び焦点調節方法 |
JP2011146827A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011146826A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011160379A (ja) | 2010-02-04 | 2011-08-18 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011166305A (ja) | 2010-02-05 | 2011-08-25 | Sony Corp | 画像処理装置および撮像装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3302104B2 (ja) * | 1993-06-30 | 2002-07-15 | キヤノン株式会社 | 撮像装置 |
US6081668A (en) * | 1997-10-31 | 2000-06-27 | Canon Kabushiki Kaisha | Camera |
JP4655054B2 (ja) * | 2007-02-26 | 2011-03-23 | 富士フイルム株式会社 | 撮像装置 |
JP5380784B2 (ja) * | 2007-04-12 | 2014-01-08 | ソニー株式会社 | オートフォーカス装置、撮像装置及びオートフォーカス方法 |
US20080278589A1 (en) * | 2007-05-11 | 2008-11-13 | Karl Ola Thorn | Methods for identifying a target subject to automatically focus a digital camera and related systems, and computer program products |
JP5157256B2 (ja) * | 2007-05-28 | 2013-03-06 | 株式会社ニコン | 画像追尾装置および撮像装置 |
JP5088118B2 (ja) * | 2007-12-07 | 2012-12-05 | 株式会社ニコン | 焦点調節装置 |
JP5517435B2 (ja) | 2008-10-22 | 2014-06-11 | キヤノン株式会社 | 自動合焦装置および自動合焦方法、ならびに、撮像装置 |
JP5339954B2 (ja) | 2009-02-17 | 2013-11-13 | キヤノン株式会社 | 焦点調節装置及び焦点調節方法 |
JP5446546B2 (ja) * | 2009-07-28 | 2014-03-19 | ソニー株式会社 | 撮像制御装置、撮像制御方法、プログラム、撮像システム |
US8611584B2 (en) * | 2009-08-17 | 2013-12-17 | Avago Technologies General Ip (Singapore) Pte. Ltd. | System and method for performing optical navigation using portions of captured frames of image data |
JP4991899B2 (ja) * | 2010-04-06 | 2012-08-01 | キヤノン株式会社 | 撮像装置及びその制御方法 |
JP5589527B2 (ja) * | 2010-04-23 | 2014-09-17 | 株式会社リコー | 撮像装置および追尾被写体検出方法 |
AU2010201740B2 (en) * | 2010-04-30 | 2013-03-07 | Canon Kabushiki Kaisha | Method, apparatus and system for performing a zoom operation |
JP5246275B2 (ja) * | 2011-01-25 | 2013-07-24 | 株式会社ニコン | 撮像装置およびプログラム |
JP5932226B2 (ja) * | 2011-02-24 | 2016-06-08 | キヤノン株式会社 | 撮像装置 |
JP5455961B2 (ja) * | 2011-04-04 | 2014-03-26 | キヤノン株式会社 | 撮像装置およびその制御方法 |
-
2013
- 2013-11-12 CN CN201380069160.5A patent/CN104956659B/zh active Active
- 2013-11-12 WO PCT/JP2013/080605 patent/WO2014109124A1/ja active Application Filing
- 2013-11-12 US US14/655,626 patent/US9942460B2/en active Active
- 2013-11-12 EP EP13870437.4A patent/EP2945365B1/en active Active
- 2013-11-12 JP JP2014556330A patent/JP6337779B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008028758A (ja) * | 2006-07-21 | 2008-02-07 | Canon Inc | 撮像装置、その制御方法およびコンピュータプログラム |
JP2008205650A (ja) * | 2007-02-16 | 2008-09-04 | Sony Corp | 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム |
JP2010191073A (ja) * | 2009-02-17 | 2010-09-02 | Canon Inc | 焦点調節装置及び焦点調節方法 |
JP2011146827A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011146826A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011160379A (ja) | 2010-02-04 | 2011-08-18 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011166305A (ja) | 2010-02-05 | 2011-08-25 | Sony Corp | 画像処理装置および撮像装置 |
Non-Patent Citations (1)
Title |
---|
See also references of EP2945365A4 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023058328A1 (ja) * | 2021-10-04 | 2023-04-13 | ソニーグループ株式会社 | 撮像装置、制御方法、プログラム |
Also Published As
Publication number | Publication date |
---|---|
US9942460B2 (en) | 2018-04-10 |
US20150350524A1 (en) | 2015-12-03 |
EP2945365B1 (en) | 2021-06-16 |
EP2945365A1 (en) | 2015-11-18 |
EP2945365A4 (en) | 2016-07-06 |
JPWO2014109124A1 (ja) | 2017-01-19 |
JP6337779B2 (ja) | 2018-06-06 |
CN104956659A (zh) | 2015-09-30 |
CN104956659B (zh) | 2018-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6337779B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
WO2013153919A1 (ja) | 画像処理装置、画像処理方法、プログラム | |
US11012614B2 (en) | Image processing device, image processing method, and program | |
KR102008040B1 (ko) | 화상 처리 장치, 화상 처리 방법, 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체 | |
JP5987306B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP6131948B2 (ja) | 表示制御装置、表示制御方法、プログラム | |
JP6094359B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP2007166269A (ja) | 画像処理装置、撮像装置および画像処理方法 | |
WO2017037978A1 (ja) | 検出装置、検出方法、検出プログラムおよび撮像装置 | |
JP6274272B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP2017098635A (ja) | 撮影装置、画像評価方法及びプログラム | |
JP2010263548A (ja) | 撮像装置、その制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13870437 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2013870437 Country of ref document: EP |
|
ENP | Entry into the national phase |
Ref document number: 2014556330 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14655626 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |