WO2013133142A1 - 画像処理装置、画像処理方法、プログラム - Google Patents
画像処理装置、画像処理方法、プログラム Download PDFInfo
- Publication number
- WO2013133142A1 WO2013133142A1 PCT/JP2013/055609 JP2013055609W WO2013133142A1 WO 2013133142 A1 WO2013133142 A1 WO 2013133142A1 JP 2013055609 W JP2013055609 W JP 2013055609W WO 2013133142 A1 WO2013133142 A1 WO 2013133142A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- main subject
- imaging state
- stable
- stable imaging
- state estimation
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6811—Motion detection based on the image signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6812—Motion detection based on additional sensors, e.g. acceleration sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/65—Control of camera operation in relation to power supply
Definitions
- the present disclosure relates to an image processing apparatus, an image processing method, and a program for performing processing related to a main subject in an image.
- Recent digital still cameras and digital video cameras are equipped with a face detection function as standard, and are equipped with functions such as optimally adjusting parameters such as camera focus and brightness according to the face position and area.
- Patent Document 1 describes a method in which a user designates a “main subject” as a subject tracking target in a captured image.
- a user designates a “main subject” as a subject tracking target in a captured image.
- subject tracking surrounding a whole body frame of an arbitrary subject can be realized.
- autofocus / automatic exposure has a function of detecting and tracking a desired area in a captured image and controlling an optical system and the like so that the area is most suitable.
- there are known techniques such as tracking an image designated as a main subject by the user, for example, an image area such as a face in the captured image, and focusing on the face area.
- the desired region for tracking and focusing in the captured image is currently selected by the photographer himself from “a plurality of candidate regions” obtained from various detectors. This is determined by selecting one candidate. For example, an arbitrary face is selected by a touch panel from a plurality of faces that are displayed on a through image displayed on the screen (a monitoring image of a subject that is displayed at a time other than the shutter operation time) while holding the camera.
- the main subject is selected by the action.
- the main subject may be a subject that exists within a predetermined area at a user-specified timing, for example, halfway pressing of the shutter.
- the act of “selection of a main subject by a photographer” is often difficult. For example, it is difficult for the user to select a finger while holding the camera and aiming at the subject while he wants to use this function to keep focusing on the moving subject.
- the designation may be difficult due to the user's response speed to the change or movement of the subject. For example, it is a case where a moving subject cannot be specified well on a live view screen. In the first place, it is difficult for the user to select the main subject with his / her finger on the screen in the situation where the user holds the camera and selects the subject toward the subject.
- a time lag on the camera system for example, a time lag between an actual scene and a through image of a captured image, may make it difficult for the user to appropriately specify a subject.
- an object of the present disclosure is to realize a technique for determining a target subject desired by a user as a main subject at an appropriate time without requiring a user such as a photographer to intentionally select a subject.
- An image processing apparatus of the present disclosure includes a stable imaging state estimation unit that performs a stable imaging state estimation process that estimates whether or not a stable imaging state is present, and a main subject determination unit that performs a main subject determination process, and includes a stable imaging state When it is estimated by the estimation process that the imaging state is stable, the result of the main subject determination process is output.
- An image processing method of the present disclosure includes a stable imaging state estimation step for performing a stable imaging state estimation process for estimating whether or not a stable imaging state is present, a main subject determination step for performing a main subject determination process, and a stable imaging state estimation process. And an output step for outputting the result of the main subject determination process when it is estimated that the camera is in a stable imaging state.
- the program of this indication is a program which makes an arithmetic processing unit perform these each steps.
- main subject determination processing for automatically determining a main subject for image data is performed.
- a stable imaging state estimation process for estimating whether or not a stable imaging state is present is performed.
- the main subject determination process is executed and the determination result is output, or the main subject determination result obtained when the stable imaging state is estimated is obtained.
- the stable imaging state is a state in which the subject image is stable and suitable for executing the main subject determination process.
- the determination result of the main subject in the captured image is output in a stable imaging state. Therefore, a user such as a photographer does not need to perform an action of selecting a main subject, and information on the main subject can be used at an appropriate timing.
- FIG. 1 is a block diagram of a configuration example of an image processing apparatus according to an embodiment of the present disclosure.
- FIG. 2 is a flowchart of main subject determination processing of the image processing apparatus according to the embodiment.
- FIG. 3 is a block diagram of the imaging apparatus according to the embodiment.
- FIG. 4 is a flowchart of detailed main subject determination processing according to the embodiment.
- FIG. 5 is an explanatory diagram of candidate image frames and determination reference points according to the embodiment.
- FIG. 6 is an explanatory diagram of the distance between the candidate image frame and the determination reference point according to the embodiment.
- FIG. 7 is an explanatory diagram of stable presence determination according to the position state of the embodiment.
- FIG. 8 is a flowchart of specific main subject determination processing according to the embodiment.
- FIG. 9 is an explanatory diagram of the execution timing of the stable imaging state estimation process according to the embodiment.
- FIG. 10 is an explanatory diagram of the execution timing of the stable imaging state estimation process according to the embodiment.
- FIG. 11 is a flowchart of processing example 1 according to the embodiment.
- FIG. 12 is a flowchart of processing example 2 according to the embodiment.
- FIG. 13 is an explanatory diagram of an operation according to the processing example 2 of the embodiment.
- FIG. 14 is a flowchart of processing example 3 according to the embodiment.
- FIG. 15 is an explanatory diagram of an operation according to the processing example 3 of the embodiment.
- FIG. 16 is a flowchart of processing example 4 according to the embodiment.
- FIG. 17 is an explanatory diagram of an operation according to the processing example 4 of the embodiment.
- FIG. 11 is a flowchart of processing example 1 according to the embodiment.
- FIG. 12 is a flowchart of processing example 2 according to the embodiment.
- FIG. 13 is an explanatory
- FIG. 18 is a flowchart of processing example 5 according to the embodiment.
- FIG. 19 is an explanatory diagram of a global vector in Processing Example 5 according to the embodiment.
- FIG. 20 is an explanatory diagram of an operation according to the processing example 5 of the embodiment.
- FIG. 21 is an explanatory diagram of the change of the predetermined time according to the embodiment.
- FIG. 22 is a flowchart of the predetermined time change process according to the embodiment.
- FIG. 23 is a flowchart of another main subject determination process of the image processing apparatus according to the embodiment.
- FIG. 24 is a block diagram in the case of application in the computer apparatus of the embodiment.
- the “stable imaging state”, “stable presence”, and “imaging field of view” used in the description are described.
- the “stable presence” is a value that is an index for automatic main subject determination. That is, it is a value indicating the frequency with which a certain subject is in a predetermined state in the field angle space. For example, it is an index value that can determine whether or not the image is in a predetermined state with a high temporal accuracy.
- the candidate image is a value indicating the accumulated time or duration, or the average presence, etc. existing in a predetermined position state as the position state in the angle of view space.
- an image calculated as the “stable existence degree”, for example, an image having a high cumulative time or a long duration, can be estimated as a subject mainly aimed by the photographer.
- the “view angle space” means a space that appears in the captured image. It is mainly used in the meaning of a two-dimensional space as a screen plane in a captured image or a three-dimensional space including a relative distance of a subject with respect to a camera position at the time of imaging.
- the “stable imaging state” refers to a state or situation suitable for executing the main subject determination process or using the main subject determination result.
- the main subject determination process is a significant process when there is little fluctuation in the content of the captured image and the captured image is stable to some extent.
- a “stable imaging state estimation process” is performed as an automatic main subject determination process activation condition.
- the “stable imaging state estimation process” determines whether or not the user is in an operation state in which it can be estimated that the user is holding the camera and looking for a subject. It becomes processing.
- Imaging field of view refers to a subject scene in a range that appears in a captured image.
- the imaging visual field variation refers to various variations of the captured image that appear on the time axis in the captured image data. For example, it refers to various changes appearing in the image data, such as a change in the angle of view of the captured image, a change in the subject direction, a change in the subject range due to shaking or camera posture, a change in image quality such as brightness, color, and contrast, and a change in focus state.
- the imaging visual field variation is within a predetermined range, that is, when it can be determined that the imaging visual field is stable, it can be estimated as the above-mentioned “stable imaging state”.
- FIG. 1 shows a configuration example of an image processing apparatus according to an embodiment.
- the image processing apparatus 1 includes a main subject determination unit 2 and a stable imaging state estimation unit 3.
- the stable imaging state estimation unit 3 performs a stable imaging state estimation process for estimating whether or not a stable imaging state is present.
- the main subject determination unit 2 performs main subject determination processing.
- the main subject determination unit 2 outputs the result of the main subject determination process when the stable imaging state estimation process of the stable imaging state estimation unit 3 estimates that the imaging state is stable. For example, when it is estimated that the main subject determination unit 2 is in a stable imaging state, the main subject determination unit 2 executes main subject determination processing and outputs a determination result. Alternatively, the main subject determination unit 2 may sequentially execute the main subject determination process and output the latest main subject determination result obtained when the stable imaging state is estimated.
- the stable imaging state estimation unit 3 performs a stable imaging state estimation process to determine whether or not the current imaging state is estimated as a stable imaging state, using the input estimation information Inf.
- the estimation information Inf is, for example, elapsed time information, a sensor output for detecting the behavior of the imaging device, a control value or an instruction value for various operations of the imaging device, or a motion of the imaging optical system.
- Various examples are conceivable, such as sensor output and image analysis information.
- the stable imaging state estimation unit 3 performs estimation processing using the estimation information Inf, and when the stable imaging state is estimated, notifies the main subject determination unit 2 that the stable imaging state is estimated. .
- the main subject determination unit 2 performs main subject determination processing as in the following example, for example, in response to a notification of stable imaging state estimation.
- the main subject determination unit 2 is provided with a candidate detection function and a main subject determination processing function as arithmetic processing functions realized by, for example, a software program.
- the main subject determination unit 2 first performs candidate detection using a candidate detection function.
- This candidate detection is processing for detecting candidate images that are candidates for main subjects for a plurality of frames of the input image data Dg. That is, face image detection, human body image detection, and the like are performed for each frame of image data Dg that is continuously input on the time axis, or for each intermittent frame, and an image that is a candidate for the main subject is extracted.
- face detection, human body detection, etc. can be done by pattern matching method in image analysis for captured image data, but other detectors can be realized in principle by replacing the dictionary used for pattern matching. Is possible.
- candidate images of main subjects may be extracted as dog face detection / cat face detection.
- a moving object is detected by a method of detecting a moving object based on a frame difference, and the moving object is used as a candidate image, and a gaze area extraction method called “Saliency” may be used.
- the main subject determination unit 2 performs information for candidate detection, such as information indicating the extracted candidate image, for example, position information (x, y coordinate values) in the two-dimensional direction within the screen of the candidate image, subject distance, image size, etc. Is candidate image information.
- the main subject determination unit 2 performs main subject setting based on the calculation of the stable presence by the main subject determination processing function. That is, the main subject determination unit 2 obtains a stable presence in the image data over a plurality of frames for the candidate image indicated by the candidate image information obtained by the above candidate detection, and uses the obtained stable existence to The main subject is determined in the image. Then, main subject information Dm is output.
- the main subject determination unit 2 first determines the position state in the angle-of-view space for the candidate image indicated by the candidate image information.
- “Position state” is a general term for the status of the absolute or relative position of the candidate image in the image data in the angle of view space.
- position state -Relative distance to a certain reference point in the angle of view space-Relative positional relationship and relative distance to a certain reference region in the angle of view space-Position of the candidate image in the two-dimensional plane of the captured image-Imaging
- the relative distance of the subject with respect to the camera position at the time There is a relative positional relationship between the subject distance and the determination reference point or the determination reference area.
- the degree of stable presence in the image data over a plurality of frames for each candidate image is obtained from the determined position state of the candidate image in each frame. Then, using the stable presence calculated by the stable presence calculation function, a main subject is determined from each candidate image, and a process of setting a certain candidate image as the main subject is performed. Information indicating the image set as the main subject in this way is output as main subject information Dm, and transferred to other application software, a processing circuit unit, or the like.
- the image processing apparatus 1 having the main subject determination unit 2 and the stable imaging state estimation unit 3 can be realized by a CPU (Central Processing Unit) or a DSP (Digital Signal Processor) as an arithmetic processing unit.
- a CPU Central Processing Unit
- DSP Digital Signal Processor
- step F1000 stable imaging state estimation processing by the stable imaging state estimation unit 3 is executed.
- the stable imaging state estimation unit 3 determines whether or not the present is estimated to be a stable imaging state using the input estimation information Inf.
- step F1000 If the stable imaging state is not estimated in the stable imaging state estimation process in step F1000, the process in FIG. 2A of the image processing apparatus 1 ends from step F1001. Thereafter, the process starts again from Step F1000.
- the image processing apparatus 1 determines in step F1001 as the start timing of the main subject determination process. Then, the process proceeds to step F1002, and main subject determination processing by the main subject determination unit 2 is performed.
- step F1002 the above-described candidate image detection is started.
- the image data Dg is input from an imaging device unit (not shown) or a receiving unit that receives image data transmitted from a separate imaging device.
- moving image data captured by an imaging device and stored in a recording medium may be reproduced and input.
- the main subject determination unit 2 performs processing for detecting predetermined candidate images by performing image analysis, frame difference detection, gaze area detection, and the like for each frame of the sequentially input image data Dg. To do.
- the main subject determination unit 2 may extract candidate images for all input frames, or may extract candidate images for intermittent frames such as every other frame or every other frame. . That is, the main subject determination unit 2 may perform candidate image extraction processing on at least a plurality of frames in time series during the main subject determination period.
- the main subject determination unit 2 generates candidate image information indicating the detected candidate image for each frame.
- step F1003 the main subject determination unit 2 performs main subject determination processing.
- Step F1003 will be described in detail with reference to FIG. 2B.
- the main subject determination unit 2 performs a position state determination process. This is a process of determining the position state of each candidate image generated previously. There may be one or more candidate images per frame, and there may be no candidate images in the frame. When there are a plurality of candidate images in the frame, the position state is determined for each candidate image.
- step F2 the main subject determination unit 2 determines the degree of stable presence in the image data over a plurality of frames for each candidate image from the position state of the candidate image in each frame determined in the position state determination process. calculate.
- the stable presence degree is calculated as a value indicating the frequency at which the position state is close to the center of the image.
- the main subject determination unit 2 determines the main subject among the candidate images using the degree of stable presence for each candidate image. For example, the candidate image having the highest stable presence as a value indicating the frequency at which the position state is close to the center of the image or the like, or reaching the predetermined value in the shortest time is determined as the main subject.
- step F1003 in FIG. 2A the main subject determination unit 2 performs steps F1 to F3 in FIG. 2B as described above to set, for example, one candidate image as the main subject.
- step F1004 in FIG. 2A the main subject determination unit 2 passes the main subject information Dm to an application program or the like.
- processing is performed in accordance with the image set as the main subject being specified. For example, focus control, tracking processing, image effect processing, and the like.
- the main subject determination process by the image processing apparatus 1 is performed when the stable imaging state estimation process is performed, and when the stable imaging state is estimated, the main subject determination process is performed. For this reason, the timing suitable for main subject determination is determined in the form of estimation of a stable imaging state, and main subject determination processing can be executed at an appropriate time. For example, an imager with a camera estimates a stable imaging state in which the camera is held with the intention of taking an image. In such a case, it is preferable that the main subject determination process is activated. In other words, it is useless even if the main subject determination process is executed when the user does not hold the camera.
- the stable imaging state estimation process estimates a state in which the photographer has an intention to capture an image, for example, a situation in which the subject is looking for, and an appropriate timing based on the estimation, that is, The main subject determination process is executed at a timing that is desirable for the user and is not a useless process.
- the degree of stable presence in a plurality of frames is obtained from the extracted candidate images.
- an index value for determining whether or not the image is present in the image is obtained with a high frequency in terms of position and stability.
- an object with high probability that an imager holding a camera seems to aim as a target has a high degree of stable presence.
- the subject that the photographer is mainly aiming for is positioned as much as possible in the point or area that the photographer considers the center as the position in the captured image. Come into the captured image. Therefore, a subject that is stable in position and has a high degree of stable presence that is present in the captured image at a high frequency in time can be estimated as a main subject targeted by the photographer.
- the main subject is determined based on the degree of stable presence. As a result, the main subject is automatically determined without any specific operation by a user such as a photographer, and the operability of the user is greatly improved in various electronic devices that perform operations according to the main subject setting.
- FIG. 3 shows the main subject determination unit 30a and the stable imaging state estimation unit 30b.
- the control part 30 performs the operation
- the imaging apparatus 10 includes an optical system 11, an imager 12, an optical system driving unit 13, a sensor unit 14, a recording unit 15, a communication unit 16, a digital signal processing unit 20, a control unit 30, a user interface controller ( Hereinafter, “UI controller”) 32 and user interface 33 are included.
- UI controller user interface controller
- the optical system 11 includes a lens such as a cover lens, a zoom lens, and a focus lens, and a diaphragm mechanism.
- the optical system 11 collects light from the subject on the imager 12.
- the imager 12 includes, for example, an image sensor such as a CCD (Charge Coupled Device) type or a CMOS (Complementary Metal Oxide Semiconductor) type.
- CDS Correlated Double Sampling
- AGC Automatic Gain Control
- a / D Analog / Digital
- the optical system drive unit 13 drives the focus lens in the optical system 11 based on the control of the control unit 30, and executes a focus operation. Further, the optical system driving unit 13 drives an aperture mechanism in the optical system 11 based on the control of the control unit 30, and performs exposure adjustment. Furthermore, the optical system drive unit 13 drives the zoom lens in the optical system 11 based on the control of the control unit 30 and executes a zoom operation.
- the digital signal processing unit 20 is configured as an image processor by a DSP or the like, for example.
- the digital signal processing unit 20 performs various types of signal processing on the captured image signal from the imager 12.
- the digital signal processing unit 20 includes a preprocessing unit 21, a synchronization unit 22, a YC generation unit 23, a resolution conversion unit 24, a codec unit 25, a candidate detection unit 26, and a motion vector detection unit 27.
- the pre-processing unit 21 performs a clamping process for clamping the R, G, and B black levels to a predetermined level and a correction process between the R, G, and B color channels for the captured image signal from the imager 12. Apply.
- the synchronization unit 22 performs demosaic processing so that the image data for each pixel has all the R, G, and B color components.
- the YC generation unit 23 generates a luminance (Y) signal and a color (C) signal from R, G, and B image data.
- the resolution conversion unit 24 performs resolution conversion processing on image data that has been subjected to various types of signal processing.
- the codec unit 25 performs, for example, a recording or communication encoding process on the resolution-converted image data.
- the candidate detection unit 26 corresponds to the candidate detection function of the main subject determination unit 2 described in FIG.
- the candidate detection unit 26 is configured to be executed by the digital signal processing unit 20, but this is an example, and the process of the candidate detection unit 26 is executed by the main subject determination unit 30 a in the control unit 30. It goes without saying that it may be done.
- the candidate detection unit 26 performs image analysis processing in units of frames on the basis of captured image signals such as luminance signals and color signals obtained by the YC generation unit 23, and extracts candidate images. For example, a face image is detected, and an area where the face image exists is extracted as a candidate image frame. For the extracted candidate image, position information such as the xy coordinate value and subject distance on the screen of the candidate image frame, and size information such as the width, height, and number of pixels of the candidate image frame are controlled as candidate image information. To the main subject determination unit 30a of the unit 30.
- the candidate image information is also referred to as “candidate image frame information”.
- the candidate image frame information may include the type of attribute information such as the face, human body, dog, and cat of the candidate image, individual identification information, and further the image data itself.
- the candidate detection unit 26 may extract a specific image to be a candidate by the pattern matching method. For example, the candidate detection unit 26 detects a moving object by a method of moving object detection using a frame difference, and selects the moving object as a candidate. It can also be considered as an image.
- the method of extracting and selecting candidate images is not limited to the above, and various methods are conceivable.
- the candidate detection unit 26 may generate candidate image frame information by performing a process such as a smoothing process and an outlier removal process on the image.
- the motion vector detection unit 27 has a functional configuration provided when processing example 5 described later is adopted. Although details will be described in the description of the processing example 5, the motion vector detection unit 27 performs image analysis processing in units of frames for the captured image signal obtained by the YC generation unit 23, for example, and divides the screen into a plurality of pieces. From the area motion vector (local vector), the entire image vector (global vector) is obtained. The motion vector detection unit 27 passes this global vector to the stable imaging state estimation unit 30b of the control unit 30 for stable imaging state estimation processing. In the example of FIG. 3, the motion vector detection unit 27 is configured to be executed by the digital signal processing unit 20, but this is an example, and the stable imaging state estimation unit 30b in the control unit 30 performs motion vector detection. An example of executing the processing of the unit 27 is also conceivable.
- the control unit 30 includes a microcomputer that includes a CPU, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like.
- the CPU executes the program stored in the ROM, the flash memory, or the like to control the imaging device 10 in an integrated manner.
- the RAM is used as a work area for various data processing of the CPU for temporarily storing data and programs.
- the ROM and the nonvolatile memory are used for storing an OS (Operating System) for the CPU to control each unit, content files such as image files, application programs for various operations, firmware, and the like.
- OS Operating System
- a program for executing main subject determination processing which will be described later in this example, and an application program that uses the main subject determination result are stored.
- control unit 30 instructs various signal processing in the digital signal processing unit 20, an imaging operation and a recording operation according to a user operation, a reproduction operation of a recorded image file, a camera operation such as zoom, focus, and exposure adjustment, For user interface operations, etc., the operation of each necessary unit is controlled.
- control unit 30 has a function as the main subject determination unit 30a and executes main subject determination processing described later.
- the main subject determination unit 30a executes a position state determination process, a stable presence level calculation process, and a main subject setting process based on the stable presence level for the candidate image information delivered from the candidate detection unit 26.
- control unit 30 has a function as the stable imaging state estimation unit 30b, and executes a stable imaging state estimation process described later.
- the stable imaging state estimation unit 30b determines whether or not the stable imaging state is estimated based on elapsed time, various sensor information, control instruction values, and the like.
- the user interface 33 executes display output and audio output for the user, and accepts user operation input. For this reason, a display device, an operation device, a speaker device, a microphone device, and the like are included. Here, a display unit 34 and an operation unit 35 are shown.
- the display unit 34 is a display unit that performs various displays for the user.
- the display unit 34 includes a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display formed on the casing of the imaging device 10. Formed.
- a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display formed on the casing of the imaging device 10. Formed.
- it may be configured using an LCD, an organic EL display, or the like in the form of a so-called viewfinder.
- the display unit 34 includes the display device described above and a display driver that causes the display device to perform display.
- the display driver executes various displays on the display device based on instructions from the control unit 30.
- the display driver reproduces and displays still images and moving images that have been captured and recorded on a recording medium, and displays a through image (subject monitoring image) that is captured while waiting for a shutter operation on the screen of the display device.
- various operation menus, icons, messages, etc. that is, display as a GUI (Graphical User Interface) is executed on the screen.
- a display that allows the user to know the determination result of the main subject determination is also executed on a through image or a reproduction image.
- the operation unit 35 has an input function for receiving a user operation, and sends a signal corresponding to the input operation to the control unit 30.
- the operation unit 35 is realized as, for example, various operators provided on the housing of the imaging device 10 or a touch panel formed on the display unit 34.
- a playback menu activation button, a determination button, a cross key, a cancel button, a zoom key, a slide key, a shutter button, and the like are provided.
- Various operations may be performed by touch panel operations using icons, menus, and the like displayed on the touch panel and the display unit 34.
- the operation of the display unit 34 and the like of the user interface 33 is controlled by the UI controller 32 in accordance with an instruction from the control unit 30. Further, operation information from the operation unit 35 is transmitted to the control unit 30 by the UI controller 32.
- the recording unit 15 includes, for example, a non-volatile memory, and functions as a storage area for storing content files such as still image data and moving image data, image file attribute information, thumbnail images, and the like.
- the image file is stored in a format such as JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), GIF (Graphics Interchange Format), or the like.
- the recording unit 15 may be a flash memory built in the imaging device 10, or a memory card that can be attached to and detached from the imaging device 10, such as a portable flash memory and a card recording / reproducing unit that performs recording / reproducing access to the memory card. It may be a form. Further, as a form built in the imaging apparatus 10, it may be realized as an HDD (Hard Disk Drive) or the like.
- a program for executing stable imaging state estimation processing and main subject determination processing described later in this example may be stored in the recording unit 15.
- the communication unit 16 performs data communication and network communication with an external device in a wired or wireless manner. For example, captured image data (still image file or moving image file) is communicated between an external display device, a recording device, a playback device, and the like.
- a network communication unit for example, communication by various networks such as the Internet, a home network, and a LAN (Local Area Network) may be performed, and various data transmission / reception may be performed with servers, terminals, and the like on the network. .
- the sensor unit 14 comprehensively shows various sensors. For example, a gyro sensor for detecting camera shake, an acceleration sensor for detecting the posture of the imaging device 10, and the like are provided. Further, an angular velocity sensor that detects the attitude and movement of the imaging apparatus 10, an illuminance sensor that detects external illuminance for exposure adjustment, and a distance measurement sensor that measures the subject distance may be provided. Depending on the acceleration sensor and the angular velocity sensor, the pan / tilt operation of the imaging device 10 can be detected. As the sensor unit 14, there may be provided a zoom lens position sensor for detecting the position of the zoom lens in the optical system 11 and a focus lens position sensor for detecting the position of the focus lens.
- a sensor that detects the opening amount of the mechanical iris that is a diaphragm mechanism may be provided as the sensor unit 14.
- Various sensors of the sensor unit 14 transmit detected information to the control unit 30.
- the control unit 30 can perform various controls using information detected by the sensor unit 14.
- Main subject determination process First, main subject determination processing executed by the main subject determination unit 30a in the imaging apparatus 10 will be described. The stable imaging state estimation process for determining the condition for performing the main subject determination process will be described later.
- the main subject determination process is a process of determining a main subject among candidate images by obtaining a degree of stable presence in image data over a plurality of frames.
- FIG. 4 is a flowchart of main subject determination processing.
- steps F10 to F15 the corresponding relationship of processing corresponding to step F1 which is the position state determination in FIG. 2B, step F2 which is the calculation of stable presence, and step F3 which is the main subject setting is also shown. deep.
- step F ⁇ b> 10 the control unit 30 takes in candidate image frame information for a certain frame from the candidate detection unit 26.
- step F11 the control unit 30 determines the position state of each of the one or more candidate image frames indicated by the captured candidate image frame information. In this case, the distance of the candidate image with respect to the determination reference point set in the view angle space is determined as the position state. Alternatively, as the position state, the positional relationship of the candidate image with respect to the determination reference region set in the view angle space is determined.
- step F12 the control unit 30 calculates a stable presence level for each candidate image frame.
- the control unit 30 calculates the accumulated time information that the position state satisfies the predetermined condition as the degree of stable presence.
- the control unit 30 calculates duration information that the position state continues and satisfies a predetermined condition as the degree of stable presence. Note that the position information of the candidate image in the angle-of-view space or the size information of the candidate image may be used for calculating the stable presence level.
- step F13 the control unit 30 determines the main subject using the degree of stable presence.
- the determination performed in step F13 is processing for determining, as a main subject, a candidate image for which the degree of stable presence has reached a predetermined value in the shortest time from the start of main subject determination.
- a process of determining a candidate image having the highest stable presence value as a main subject while determining the main subject may be used in addition to the stable presence value.
- step F14 When a candidate image whose stable presence value has reached a predetermined value at a certain time point is found, or after a predetermined main subject determination period, a candidate image having the highest stable presence value in that period Can be selected, the control unit 30 proceeds from step F14 to step F15. Then, the candidate image determined in step F13 is set as the main subject.
- the main subject determination process in FIG. 4 is a processing mode in which determination is performed while capturing candidate image information during main subject determination.
- the candidate image information is captured during a certain period.
- a processing mode in which main subject determination is performed using the captured candidate image information after the period has elapsed is also conceivable.
- the distance from the determination reference point set as the position state of the candidate image frame is obtained. Further, as the degree of stable presence for each candidate image frame, cumulative time information that satisfies the condition that the distance to the determination reference point is within a predetermined threshold is calculated. In addition, it is assumed that a candidate image whose stable presence level reaches a predetermined value earliest from the start of main subject determination is determined as a main subject. First, the candidate image frame, the distance from the determination reference point, and the stable presence level will be described with reference to FIGS. 5, 6, and 7.
- FIG. 5 schematically shows a candidate image frame extraction operation performed by the candidate detection unit 26.
- FIG. 5 shows the frames FR1, FR2, FR3,... Of the captured image signal input to the digital signal processing unit 20 by the operations of the optical system 11 and the imager 12 of the imaging apparatus 10.
- the candidate detection unit 26 detects candidate images for each of such consecutive frames that are sequentially input or intermittent frames. For example, as shown in the figure, when there are three people in the frame FR1, each face image portion is extracted as a candidate image, and candidate image frame information for the candidate image frames E1, E2, and E3 is output.
- the candidate image frame information is position information, size information, attribute information, and the like.
- the candidate detection unit 26 extracts candidate images, generates candidate image frame information for each candidate image frame, and passes it to the main subject determination unit 30a.
- the control unit 30 calculates the distance from the determination reference point as the position state of each candidate image frame.
- FIG. 6A shows an example of the determination reference point SP. This is an example in which the center of the image is set as the determination reference point SP.
- the xy coordinate value of the determination reference point SP be (Cx, Cy).
- the distances Diff1, Diff2, and Diff3 of the determination reference point SP are calculated from the centroids G of the candidate image frames E1, E2, and E3 shown in the drawing.
- the determination reference point SP need not be set at the center of the image.
- the determination reference point SP may be set at a position slightly upper left from the center.
- the distance between the determination reference point SP and the gravity center G of the candidate image frame is calculated by the same method as in FIG. 6A.
- the determination reference point SP may be fixedly set at a position as shown in FIGS. 6A and 6B, for example, or may be arbitrarily designated by the user by a touch operation on the display screen. Further, some candidate points for determination reference points may be presented to the user on the screen of the display unit 34 so that the user can select them. Furthermore, it is also conceivable that the control unit 30 determines the optimum position in consideration of the composition and the like according to the image content, the image analysis result, etc., and automatically sets it. That is, for the determination reference point SP, A predetermined fixed position is set as the center position of the image or the position shifted from the center. ⁇ Specified arbitrarily by the user. -Some candidate points are presented to the user and set by the user selecting. The control unit 30 determines the optimum position according to the image content and automatically variably sets it. And so on.
- the distance Diff (n) as the position state for the candidate image frame E (n) is obtained at the time of each frame.
- FIG. 7 shows how the calculated distances Diff1, Diff2, and Diff3 vary, assuming that the candidate image frames E1, E2, and E3 continue to exist in the frame (FR1, FR2,%) For a certain period. It is shown. On the time axis, the calculated distances Diff1, Diff2, and Diff3 vary.
- the stable presence level is an accumulated time in a state close to the determination reference point SP.
- the distance threshold value Trs-diff is used for the determination of “near / not close”.
- the result of cumulative addition of this determination result “1” at each time point is the degree of stable presence in Processing Example 1.
- the cumulative addition value of the determination result “1” below the distance threshold value Trs ⁇ diff is the cumulative time indicating the degree of stable presence up to that point, but the cumulative time is a predetermined value.
- the point in time when the reached candidate image is found is the determination end timing.
- the candidate image frame E3 is continuously determined to be “1”. However, when this cumulative addition value reaches a certain predetermined value, the determination is ended, and the candidate image frame E3 is displayed. The main subject is determined.
- continuity does not matter.
- the distance Diff2 of the candidate image frame E2 in FIG. 7 is determined to be “1” or “0” depending on the time point, since it is an accumulated time, there are many situations of “1”, which is earlier than other candidate image frames. If the accumulated time reaches a predetermined value, the candidate image frame E2 may be determined as the main subject.
- continuity is used as a condition for the degree of stable existence can be considered.
- the count value Cnt (n) is a value of a counter that adds the value of the comparison determination result between the distance Diff and the distance threshold Trs-diff.
- N represents a natural number
- the count value Cnt (n) is a count value corresponding to each detected candidate image frame E (n). For example, when three candidate image frames E1, E2, and E3 are detected, Cnt1, Cnt2, and Cnt3 are used as count values.
- the distance Diff (n) generically represents the distances Diff1, Diff2, and Diff3 from the determination reference point SP of the three candidate image frames E1, E2, and E3.
- the candidate image frame E (n) represents the candidate image frames E1, E2, E3,...
- the candidate detection unit 26 extracts a face
- the face image portions of the persons A, B, and C are candidates in common in each frame.
- Image frames E1, E2, and E3 are used. Even if only the person D enters the subject in a certain frame in the middle, the face image portion of the person D is set as a candidate image frame E4. Therefore, the candidate detection unit 26 may not only detect the “face” but also perform individual discrimination.
- step F101 the control unit 30 captures candidate image frame information for a certain frame from the candidate detection unit 26. For example, position information and size information are acquired for each candidate image frame E (n).
- step F102 the control unit 30 calculates the coordinates of the center of gravity G for each candidate image frame E (n). For example, assume that the coordinate value of the upper left vertex of a rectangular candidate image frame is given.
- the xy coordinate values are set to (E (n) _x, E (n) _y). Further, as shown in FIG. 6, the xy coordinates have an origin O at the upper left of the screen plane.
- the width w of the candidate image frame E (n) is E (n) _w, and the height h is E (n) _h.
- step F103 the control unit 30 calculates a distance Diff (n) from the center of gravity G of each candidate image frame E (n) to the determination reference point SP.
- Diff (n) ⁇ ⁇ (E (n) _cx ⁇ Cx) 2 + (E (n) _cy ⁇ Cy) 2 ⁇ Is required.
- the main subject determination process is executed in accordance with the stable imaging state estimation process, so step F104 may be unnecessary.
- FIG. 23 there is a processing example in which the main subject determination process itself is always executed. In this case, the process in step F104 is exited.
- steps F105, F106, and F107 it is determined using the distance threshold value Trs-diff whether the distance Diff (n) to the determination reference point SP is close to or not close to the determination reference point SP.
- the count value Cnt (n) is a stable presence value as an accumulated addition value. That is, the candidate image frame E (n) is a value representing the frequency of the state “close” to the determination reference point SP.
- Step F111 the main subject is determined using the degree of stable presence of each candidate image frame E (n).
- Step F111 it is confirmed whether or not the count value Cnt (n) of each candidate image frame E (n) has reached the count threshold value CTthr.
- the user touches the main subject on the screen of the display unit 34 or the subject is placed on the screen at a predetermined position and the shutter is moved.
- the main subject may be selected as an operation such as half-pressing the button.
- the main subject may be selected as an operation such as half-pressing the button.
- step F101 the process is repeated.
- a certain candidate image frame E3 may be discontinuous, but is present at a position close to the determination reference point SP on the captured image at a high frequency among a plurality of frames.
- the count value Cnt3 of the candidate image frame E3 is frequently incremented in step F109 and proceeds faster than the count values Cnt1 and Cnt2, and therefore reaches the count threshold value CTthr first.
- the control unit 30 advances the process from step F111 to step F112.
- step F112 the control unit 30 determines the candidate image frame E (n) whose count value Cnt (n) has reached the count threshold value CTthr as the main subject, and performs main subject setting.
- the variable TSF 1 is set.
- the subject by holding the imaging device 10 so that the subject that the user mainly wants to capture is as close to the determination reference point SP as possible in the center of the image, the subject is set as the main subject. It will be determined automatically.
- the degree of stable presence is determined by the accumulated time in a state “close” to the determination reference point SP.
- a moving subject or a fast-moving subject such as an animal
- the main subject can be determined relatively quickly by using the accumulated time. Therefore, it is suitable for a fast moving subject or a relatively unaccustomed user.
- the main subject determination process is not necessarily performed for a certain period of time, and is terminated when the main subject is determined. Therefore, depending on the subject and the skill of the photographer, main subject determination can be performed quickly. There are also advantages.
- the main subject determination processing For example, as the degree of stable presence for each candidate image frame, duration information that continuously satisfies the condition that the distance to the determination reference point is within a predetermined threshold may be calculated. Evaluating whether there is a stable presence based on the duration, when targeting a subject with little movement, it is possible to easily capture the subject subject continuously in the center of the image, etc., so the main subject desired by the user can be accurately set It is highly possible.
- the subject that the user wants to take can be continuously maintained at a position close to the determination reference point SP, so there is a high probability that the subject desired by the photographer can be accurately determined as the main subject. That is, it is possible to increase the possibility that the subject desired by the user can be determined as the main subject depending on the advanced imaging skill and the subject.
- a weight may be given to the calculation of the stable presence level. For example, as the time after the execution period of the main subject determination process, the value of being closer to the determination reference point SP is increased.
- the value of being closer to the determination reference point SP is increased.
- the subject that the photographer has in mind as the “main subject” is gradually captured at the center of the image as time advances. Therefore, increasing the value of being closer to the determination reference point SP as time progresses during execution of the main subject determination process increases the possibility that the main subject can be determined in accordance with the photographer's idea. Become.
- the subject distance may be within a predetermined range, the size may be within a predetermined range, or the image type may be a specific image type.
- the positional state of the candidate image frame is the positional relationship with the set determination reference point, but may be the positional relationship with the determination reference region.
- an area such as a square or a circle such as the center of the image is set and used as a determination reference area.
- the positional relationship between each candidate image frame E (n) and the determination reference region is, for example, -Whether the center of gravity is in the judgment reference area-Whether the whole is in the judgment reference area-Whether at least a part is in the judgment reference area-The distance from the outer edge of the judgment reference area is within a predetermined range Whether or not.
- the stable presence level can also be obtained under such positional relationship conditions.
- the average value of the position state for example, the distance to the determination reference point may be calculated.
- the average distance is an index indicating that the position is close to the determination reference point with a high frequency in time.
- “small value of average distance” has the same meaning as “long accumulation time” in the above-described processing example.
- a candidate image frame that has the smallest average distance and satisfies the condition that it is within a predetermined threshold can also be determined as the main subject.
- main subject determination is performed as in the above example, for example, the purpose of performing main subject determination in the imaging apparatus 10 will be described.
- the main subject determination is executed, for example, when the user is aiming for the shutter timing, but the control unit 30 can perform the following processing after automatically determining the main subject.
- the main subject set in each frame to be imaged is tracked.
- the main subject is clearly shown to the user on the through image display, and is used for adjusting the angle of view of the user, for example, for determining the subject in a state where the camera is held in the hand.
- the main subject it is possible to highlight the frame of the main subject on the through image display of the display unit 34. The highlighting or the like may be performed for a certain period immediately after the determination, or may be performed as long as the main subject exists in the through image.
- Focus adjustment Auto focus control is performed on the main subject. In addition to the tracking process, even when the main subject moves around, the focus is adjusted by tracking the main subject.
- Exposure adjustment Automatic exposure adjustment is performed based on the brightness of the main subject.
- -Directionality adjustment When sound pickup is performed with a microphone together with moving image capturing, directivity adjustment is performed according to the direction of the main subject in the view angle space.
- Image effect processing image processing such as image quality adjustment, noise reduction, and skin color adjustment is applied only to the area of the main subject in each captured frame.
- image effects such as mosaic processing, blurring processing, and painting processing in addition to the main subject area.
- Editing processing such as framing and cropping is applied to the captured image or recorded image. For example, it is possible to perform processing such as cutting out or enlarging a partial area in a frame including the main subject. Further, in the captured image data, composition adjustment can be performed by cutting the periphery of the image so that the main subject is arranged at the center of the image.
- the effects of performing the main subject determination process are as follows.
- an operation for designating the main subject is difficult in the first place.
- the main subject determination By automatically executing the main subject determination, such a situation is solved and an effect of reducing user stress can be obtained.
- the imaging device 10 that is carried and used by the user such as a digital still camera or a camera built in a mobile phone, which is normally used by the user, the display unit 34 is also small, and the user performs an operation of designating a main subject on the screen. Even so, it is difficult to do accurately. Automatic determination as in this embodiment eliminates erroneous designation.
- the imaging device 10 can be used with a sense that the main role can be taken if the imaging device 10 is naturally held, it is possible to increase imaging opportunities and increase corresponding use cases, and to provide a user with an easy-to-use camera.
- the imaging apparatus 10 of the present embodiment that automatically performs main subject determination is particularly suitable as a handheld camera.
- Stable imaging state estimation processing For example, during the period when the imaging apparatus 10 is turned on and the through image is displayed on the display unit 34, the main subject determination process may be performed at all times, but the main subject determination process is not necessarily performed. It is not a significant treatment. For example, when there is no intention to perform imaging, for example, when the user simply holds the imaging device 10 with the power on, it is not easy to perform the main subject determination process or use the result of the main subject determination process. has no meaning. Specifically, it is appropriate to perform main subject determination processing when the user holds the imaging device 10 and tries to capture an image.
- the stable imaging state estimation unit 30b estimates that the imaging state is stable, for example, a state where the user holds the camera, and the stable imaging state is estimated, main subject determination is performed.
- the unit 30a executes the main subject determination process described above, and outputs main subject information that is the determination result.
- the main subject determination process can be executed at a meaningful time. That is, by performing the main subject determination process through the stable imaging state estimation process, for example, the photographer having the imaging device 10 tries to find a state in which the camera is held with the intention to take an image, for example, the subject.
- the main subject determination process is executed at a timing such as the situation where the main subject determination result is not wasted.
- the main subject determination process described above has a relatively large amount of processing
- the stable imaging state estimation process described later has a relatively small processing load. Therefore, the processing load of the control unit 30 and the power consumption can be reduced. can get. That is, it is possible to improve the convenience of the user, reduce the processing load on the control unit 30, and improve the timeliness of automatic main subject determination processing.
- the stable imaging state estimation process is a process for determining an execution opportunity of the main subject determination process. First, here, the execution opportunity of the stable imaging state estimation process itself will be described with reference to FIGS.
- FIG. 9 shows a camera mode MD1 and a playback mode MD2 as modes of the imaging apparatus 10.
- the camera mode MD1 is a mode for mainly capturing images and recording still images and moving images.
- the reproduction mode MD2 is a mode in which still image data and moving image data that have already been captured and recorded in the recording unit 15, for example, are reproduced and displayed on the display unit 34.
- the imaging apparatus 10 When the imaging apparatus 10 is turned on, it is activated in either the camera mode MD1 or the playback mode MD2. Further, the user can arbitrarily switch between the camera mode MD1 and the reproduction mode MD2 according to the purpose of use of the imaging device 10 at that time.
- the stable imaging state estimation process ST1 (step F1000 in FIG. 2A) is started in response to the start of the camera mode MD1.
- the main subject determination process is executed ( F1001 to F1004), main subject information of the determination result is used.
- FIG. 9 shows the main subject information use process ST2.
- the processing described in the above-described use example of main subject information is executed. Thereafter, the use of main subject information may be disabled or unnecessary.
- the tracking processing, focus adjustment, exposure adjustment, directivity adjustment, image effect processing, image editing processing, and the like described in the above example of using the main subject information can be performed when the main subject exists in the captured image. However, when the main subject is out of the frame and no longer exists in the captured image, these main subject information use processing is disabled.
- the main subject information use processing using the current main subject information becomes unnecessary. If the main subject information use processing using the current main subject information becomes unnecessary or impossible (ST3), it is conceivable to perform the stable imaging state estimation processing ST1 again.
- these operation transitions are operation transitions in the camera mode MD1 as surrounded by a one-dot chain line.
- the stable imaging state estimation process and the main subject determination process are not performed. That is, the example of FIG. 9 is an example in which the stable imaging state estimation unit 30b performs the stable imaging state estimation process in response to the camera mode MD1 assumed to function effectively as the main subject determination process. Further, the stable imaging state estimation unit 30b is an example of performing the stable imaging state estimation process as long as the camera mode MD1 is set even after the use of the result of the main subject determination process is disabled or unnecessary.
- FIG. 10A is an example in which the user can select a mode for performing main subject determination in the camera mode MD1.
- the main subject determination mode MD11 can be selected by a menu operation or the like.
- FIG. 10B shows a display example in which the user is allowed to select the main subject determination mode on the display unit 34.
- the control unit 30 turns on the main subject determination mode MD11.
- control unit 30 starts the stable imaging state estimation process ST1. After that, as described with reference to FIG. 2A, when it is estimated that the imaging state is stable, main subject determination processing is executed, and main subject information of the determination result is used.
- main subject information use processing ST2 which is processing for using main subject information as a determination result is performed. For example, the processing described in the above example of use of main subject information is executed. After that, the main subject information may be unavailable or unnecessary. As in the above-described example, when the main subject information using process using the current main subject information becomes unnecessary or impossible, the stable imaging state estimation process ST1 is performed again.
- these motion transitions are motion transitions within a period in which the main subject determination mode MD11 is turned on as surrounded by a one-dot chain line.
- the stable imaging state estimation process and the main subject determination process are not performed. That is, in the example of FIG. 10, the stable imaging state estimation unit 30b is in the state of the main subject determination mode MD11 in which the main subject determination process functions effectively, and in particular, it is assumed that the user is also seeking the main subject determination. Accordingly, an example of performing stable imaging state estimation processing is provided. Further, the stable imaging state estimation unit 30b performs the stable imaging state estimation process as long as the main subject determination mode MD11 is turned on even after the use of the result of the main subject determination process is disabled or unnecessary. Become.
- the stable imaging state estimation process ST1 is performed during the camera mode MD1 or during the main subject determination mode MD11 in the camera mode MD1. Then, a main subject determination process is executed according to the estimation result of the stable imaging state estimation process ST1.
- FIG. 11 shows a process executed by the stable imaging state estimation unit 30b as a processing example 1 of the stable imaging state estimation process.
- the process of FIG. 11 is executed when the camera mode MD1 is set in FIG. 9 or when the main subject determination mode MD11 is turned on in FIG. This point will not be repeated, but the same applies to Processing Examples 2 to 5 described later.
- step F203 the control unit 30 increments the time elapsed counter CTt.
- the stable imaging state estimation process of FIG. 11 described above is performed in the predetermined mode state in which the main subject determination process functions effectively, the predetermined time thTM from the time when the camera mode MD1 in FIG. 9 or the main subject determination mode MD11 in FIG.
- a stable imaging state is estimated on the condition that it has passed.
- the user Normally, after performing an operation of turning on the power or setting the camera mode MD1, the user then takes a posture of holding the imaging device 10 for imaging. Even after the main subject determination mode MD11 is turned on, it is considered that the imaging posture is taken thereafter. Therefore, after shifting to these modes, it can be estimated that the user is holding the imaging device 10 for imaging at a point in time when a predetermined time has elapsed. Therefore, in Process Example 1, the simplest imaging state estimation process is a counting process for a predetermined time thTM.
- the stable imaging state estimation process is performed, and the main subject determination process is performed accordingly, so that the user does not need to be aware of the activation of the main subject determination process and does not impose an operation burden.
- the main subject determination process is started at an appropriate timing. Further, the processing load of the control unit 30 for the stable imaging state estimation process is very small.
- Processing example 2 will be described with reference to FIGS.
- Processing example 2 is an example in which the stable imaging state is estimated based on the detection result of the imaging visual field fluctuation.
- an output of a sensor that detects the movement of the imaging apparatus 10 is used as an example of detection of imaging visual field fluctuations.
- the sensor is, for example, a gyro sensor that detects a shake given to the imaging device 10 such as an amount of camera shake when the user holds the imaging device 10, an acceleration sensor that detects a posture, or the like.
- the sensor unit 14 of FIG. 3 is provided with these gyro sensors and acceleration sensors, and the control unit 30 can detect the output of these sensors.
- FIG. 12A shows a process executed by the stable imaging state estimation unit 30b as a processing example 2 of the stable imaging state estimation process.
- the control unit 30 branches the process depending on whether or not the stable imaging state estimation process is already being executed.
- step F1000 that is, the processing of FIG. 12A is repeated as the processing of FIG. 2A.
- step F300 the process of FIG. 12A proceeds from step F300 to F301.
- the control unit 30 acquires sensor input from the sensor unit 14 in step F301. For example, the detection value of a gyro sensor or an acceleration sensor is acquired.
- the control unit 30 determines whether or not the detection value is within a predetermined level range in step F302.
- the predetermined level range is a level range in which, for example, the amount of camera shake is small and the imaging device 10 can be estimated to be stable.
- control unit 30 determines that the detection value of the sensor is within the predetermined level range, the control unit 30 proceeds to step F303 and increments the stable time measurement counter CTst. On the other hand, when it is determined that the detection value of the sensor is not within the predetermined level range, the control unit 30 proceeds to step F304 and decrements the counter CTst for measuring the stable time.
- FIG. 13A shows a case where the control unit 30 uses the detection output of the gyro sensor.
- the vertical axis represents the detection value of the gyro sensor, and the horizontal axis represents time.
- Each point of the waveform indicated by the dotted line is a detection value input by the control unit 30 in step F301 at each time point.
- the predetermined level range determined in step F302 is a range of detection value levels L1 and L2.
- the value of the estimation flag Fst is also shown. Assume that the stable imaging state estimation process is started at time t0.
- the detected value of the gyro sensor becomes higher as the shake given to the imaging device 10 as a user's hand shake or the like becomes larger, for example. Therefore, it can be estimated that the detected value being within the predetermined level range is a situation where there is little camera shake or the like, that is, a situation where the photographer holds the imaging device 10 to some extent. In this example, a situation in which there is a relatively large amount of shaking until time t1 is shown. For example, a situation where the user does not hold the imaging apparatus 10 yet, for example, simply holding it or looking for a subject roughly is assumed.
- the fluctuation of the imaging field of view is detected as the detection of the shake given to the imaging device 10. It can be determined that the fluctuation of the imaging field of view is small and the imaging field of view is stable because the time when the shake applied to the imaging device 10 is reduced to some extent. In this case, it is estimated that a stable imaging state has been achieved.
- FIG. 13B shows a case where the control unit 30 uses the detection output of the acceleration sensor.
- the vertical axis represents the detection value of the angular velocity sensor, and the horizontal axis represents time.
- Each point of the waveform indicated by the dotted line is a detection value input by the control unit 30 in step F301 at each time point.
- the predetermined level range determined in step F302 is a range of detection value levels L1 and L2.
- the value of the estimation flag Fst is also shown. Assume that the stable imaging state estimation process is started at time t0.
- the detection value of the acceleration sensor varies according to the posture change of the imaging device 10.
- the change in the detection value becomes large. Accordingly, it can be estimated that the fact that the detected value is within the predetermined level range to some extent means that the photographer is holding the imaging device 10 firmly with the subject direction narrowed down to some extent. In this example, a situation in which there is relatively much movement up to the time point t1 is shown.
- the posture of the imaging device 10 is stable from the time point t1.
- the stable time measurement counter CTst is incremented if the detection value of the sensor is within the predetermined level range, and decremented if it is outside the predetermined level range. For this reason, for example, when the posture of the imaging apparatus 10 is continuously stabilized after the time t1, the value of the stable time measurement counter CTst exceeds the value of the predetermined time thTM at a certain time. For example, suppose CTst> thTM at time t2.
- the accuracy of estimation of the stable imaging state can be made high by judging from the shaking or posture of the imaging device 10.
- either one or both of the detection values of the gyro sensor and the acceleration sensor may be used.
- the state may be estimated (OR condition).
- the determination within the predetermined level range in Step F302 may be a determination as to whether or not both the detection value of the gyro sensor and the detection value of the acceleration sensor are within the predetermined level range (AND condition).
- the detection values of other sensors such as an orientation sensor and a ground axis sensor may be used individually or in combination. In any case, it is only necessary to estimate a situation where the movement and posture of the imaging apparatus 10 itself are somewhat small as a stable imaging state. When a plurality of sensors are used in combination, it is naturally possible to adopt the above OR condition or the AND condition.
- step F302 when it is determined in step F302 that it is not within the predetermined level range, the stable time measurement counter CTst may be decremented and the process may proceed to step F305 as it is. In other words, this is an example of keeping the count value. In this way, even if there is a certain amount of shaking or movement, it is possible to easily estimate a state where the shaking is generally small or the posture is stable as a stable imaging state. When an unfamiliar user with a lot of camera shake is assumed, it is easier to activate the main subject determination process.
- step F304 may be replaced with step F304A shown in FIG. 12B. That is, in this example, when it is determined in step F302 that it is not within the predetermined level range, the value of the stable time measurement counter CTst is cleared to zero. In this way, a state in which there is no continuous shaking or movement continues for a predetermined time thTM, so that a stable imaging state is estimated for the first time, and the accuracy of estimation can be increased. For a user who is familiar with imaging, the main subject determination process is not activated unnecessarily, and this may be preferable. Conversely, the decrement as in step F304 in FIG. 12A is not possible to clear the stable time measurement counter CTst even if there is an instantaneous shake or posture change, so that it can detect a relatively stable state. It is preferable when considering a very wide user.
- Processing example 3 will be described with reference to FIGS. Processing example 3 is also an example in which the stable imaging state is estimated based on the detection result of the imaging visual field fluctuation.
- the detection result of camera work accompanied by imaging visual field variation is used for estimation of a stable imaging state.
- the camera work accompanied by the imaging field fluctuation here is panning, tilting, zooming, and the like, and further includes these automatic operations and operations based on user operations.
- the camera work is detected as follows.
- Panning which is a horizontal movement of the imaging field of view
- a gyro sensor or a horizontal acceleration sensor can be provided in the sensor unit 14.
- a control signal to the panning mechanism may be used.
- the detected value can also be used.
- the control unit 30 can detect the execution / non-execution of panning or the amount of panning movement by these methods. Further, the execution / non-execution of panning or the amount of panning movement can also be detected by the digital signal processing unit 20, for example, the motion vector detection unit 27 or the control unit 30 performing image data analysis and detecting movement in the pan direction. .
- the tilting that is the vertical movement of the imaging field can be detected by, for example, a gyro sensor or a vertical acceleration sensor. These sensors may be provided in the sensor unit 14.
- a control signal to the tilting mechanism may be used.
- the detected value can also be used.
- the control unit 30 can detect the execution / non-execution of tilting or the amount of tilting movement by these methods.
- the digital signal processing unit 20, for example, the motion vector detection unit 27 or the control unit 30 performs image data analysis, and detects the motion in the tilt direction of the captured image. The amount of movement can be detected.
- the control unit 30 can detect the zoom operation by itself by a zoom control signal that the control unit 30 instructs the optical system drive unit 13. If the zoom lens position sensor is provided as the sensor unit 14, the control unit 30 can detect the movement of the zoom lens, that is, the zoom operation from the detected value. The control unit 30 can detect the execution / non-execution of zooming or the amount of zooming movement using these methods. It is also possible to detect the zoom operation by the digital signal processing unit 20 or the control unit 30 analyzing the image data and detecting a change in the subject area or a change in the angle of view.
- FIG. 14A shows a process executed by the stable imaging state estimation unit 30b as a processing example 3 of the stable imaging state estimation process.
- the control unit 30 branches the process depending on whether or not the stable imaging state estimation process is already being executed.
- the control unit 30 resets the stable time measurement counter CTst to 0 in step F407 because it is not yet executed.
- step F1000 that is, the processing of FIG. 14A is repeated as the processing of FIG. 2A.
- step F401 the control unit 30 acquires a sensor input from the sensor unit 14, for example, a detection value of a gyro sensor, an instruction value of a zoom operation issued to the optical system driving unit 13, and the like. That is, the operation states of pan, tilt, and zoom are detected.
- step F402 the control unit 30 determines whether or not the detected value of the motion due to the pan or tilt operation is within a predetermined level range, and determines whether or not the zoom operation is not performed.
- the predetermined level range of the motion detection value due to the panning or tilting operation is a level range indicating a situation in which panning or tilting is not performed, or even if it is performed, the movement is minute.
- step F403 When it is determined that the sensor detection value for the pan / tilt operation is within the predetermined level range and the zoom operation is not performed, the control unit 30 proceeds to step F403 and increments the stable time measurement counter CTst. .
- the control unit 30 proceeds to step F404.
- the counter CTst for measuring the stable time is decremented.
- FIG. 15 shows a case where the control unit 30 detects the pan / tilt operation with the gyro sensor and detects the zoom operation with the instruction value of the zoom operation.
- the vertical axis indicates the detection value of the gyro sensor and the zoom instruction value output, and the horizontal axis indicates time.
- each point of the waveform indicated by a dotted line is assumed to be a detection value input by the control unit 30 in step F401 at each time point.
- the predetermined level range determined in step F402 is a range of detection value levels L1 and L2.
- T-ON is an operation instruction value output to the telephoto side
- W-ON is an operation instruction value output to the wide angle side. Yes.
- the control unit 30 can confirm the presence / absence of a zoom operation based on its instruction value output.
- the value of the estimation flag Fst is also shown. Assume that the stable imaging state estimation process is started at time t0.
- the detection value of the gyro sensor becomes a high level during the execution of panning or tilting. Therefore, if the detected value is within the predetermined level range, it can be determined that panning or tilting has not been performed, or that only minute panning or tilting has been performed. In this example, it is detected that panning or tilting has been performed or zooming has been performed until time t1. Therefore, until this time t1, a situation is assumed in which the user roughly moves the imaging device 10 to search for a subject or to search for an angle of view.
- the imaging field of view is narrowed to some extent, the imaging apparatus 10 is firmly held, and the shutter timing is awaited. For example, a large pan / tilt / zoom operation has not been executed since time t1.
- the estimation flag Fst 1 at time t2. In this way, it can be determined that the imaging field of view is stable when the period in which the pan / tilt / zoom operation is not performed continues to some extent, that is, the period in which the imaging field of view of the captured image varies little. In this case, it is estimated that a stable imaging state has been achieved.
- main subject determination is started in step F1001 of FIG. 2A, whereby main subject determination processing is executed at an appropriate timing.
- step F403 under the AND condition of the pan or tilt operation and the zoom operation in step F402 and increments the stable time measurement counter CTst. It is conceivable that only one of the operations is a detection target, or both are detection targets and the process proceeds to step F403 under an OR condition.
- step F402 when the condition of step F402 is not satisfied, the count value may be kept as it is without decrementing the stable time measurement counter CTst, and the process may proceed to step F405. Further, the process of step F404 may be replaced with step F404A shown in FIG. 14B. That is, in the case where the condition of step F402 is not satisfied, the value of the stable time measurement counter CTst is cleared to 0. Any example of decrement, clear, and keep may be suitable as described in the explanation of the processing example 2.
- Processing example 4 will be described with reference to FIGS. Processing example 4 is also an example in which the stable imaging state is estimated based on the detection result of the imaging visual field fluctuation.
- the detection result of the exposure operation and the focus operation of the imaging apparatus 10 is an example used for estimating a stable imaging state.
- the exposure operation and focus operation here include auto iris and auto focus controlled by the control unit 30, and exposure adjustment operation and focus operation based on user operations.
- the control unit 30 can detect the exposure operation as follows.
- the exposure adjustment is executed by adjusting a mechanical iris that is a diaphragm mechanism in the optical system 11, a shutter speed of the imager 12, and a gain adjustment of a captured image signal obtained by the imager 12.
- the control unit 30 realizes exposure adjustment by performing some or all of these adjustments automatically in accordance with a user operation or in accordance with a luminance level detected from captured image data. Therefore, the control unit 30 can detect whether or not exposure adjustment is performed by the exposure control instruction value for the optical system driving unit 13, the imager 12, or the digital signal processing unit 20.
- the control amount can also be determined from the instruction value.
- the control unit 30 can detect the exposure adjustment operation by the mechanical iris based on the detection value of the sensor. Further, when the digital signal processing unit 20 or the control unit 30 analyzes the luminance value of the image data to obtain a luminance detection value for which automatic exposure adjustment is performed, or when a large luminance change is detected, exposure adjustment is performed. Can also be detected.
- Focus adjustment is performed as focus lens movement in the optical system 11.
- the control unit 30 performs focus adjustment in response to a user operation or automatically as autofocus control. Therefore, the control unit 30 can detect whether or not the focus adjustment is performed by the control signal to the optical system driving unit 13 and the amount of movement of the focus lens. If a focus lens position sensor is provided as the sensor unit 14, the control unit 30 can detect the state of the focus adjustment operation by detecting the detected value. In addition, the digital signal processing unit 20 and the control unit 30 can detect that the focus lens has been moved by performing focus analysis, contrast analysis, and the like of the image data.
- FIG. 16A shows a process executed by the stable imaging state estimation unit 30b as a processing example 4 of the stable imaging state estimation process.
- the control unit 30 branches the process depending on whether or not the stable imaging state estimation process is already being executed.
- the control unit 30 advances the process from step F500 to F507, and resets the stable time measurement counter CTst to zero.
- step F1000 that is, the processing of FIG. 16A is repeated as the processing of FIG. 2A.
- step F501 the control unit 30 detects the sensor input from the sensor unit 14, for example, the detection value of the focus lens position sensor, the focus lens movement instruction value issued to the optical system driving unit 13 or the like, the instruction value for exposure adjustment, and the like. To get. That is, each operation state of the exposure adjustment operation and the focus adjustment operation is detected.
- the control unit 30 determines whether or not the variation in the exposure adjustment state due to the exposure adjustment is within a predetermined level range, and determines whether or not the focus variation due to the focus adjustment operation is within the predetermined level range. I do.
- the predetermined level range in this case is a level range indicating a situation in which exposure adjustment or focus adjustment is not performed, or even if it is performed, it is within a range of minute fluctuations in the exposure state or focus state. .
- control unit 30 determines that the movement of the exposure adjustment operation and the focus adjustment operation is within a predetermined level range, the exposure adjustment operation and the focus adjustment operation are not performed, or only a minute movement, Proceeding to step F503, the stable time measurement counter CTst is incremented.
- the control unit 30 determines that the exposure adjustment operation is performed or the focus adjustment operation is performed by an amount that the detection value of the sensor exceeds the predetermined level range, the control unit 30 proceeds to step F504 and proceeds to the stabilization time. Is decremented.
- FIG. 17 shows an exposure adjustment operation and a focus adjustment operation that the control unit 30 detects with a sensor or an instruction value.
- the position of the mechanical iris is indicated by a solid line
- the position variation is indicated by a dotted line.
- each point is a position variation value detected by the control unit 30 in step F501 at each time point.
- the focus lens position difference is indicated by a dotted line.
- each point is a value of the lens position fluctuation amount detected by the control unit 30 in step F501 at each time point.
- the predetermined level range determined in step F502 is a range of detection value levels L10 to L11 as an iris position difference and a range of detection value levels L20 to L21 as a focus lens position difference. These indicate ranges in which the opening state of the mechanical iris and the focus lens position are not varied or are in minute amounts.
- the value of the estimation flag Fst is also shown. Assume that the stable imaging state estimation process is started at time t0.
- the position difference of the mechanical iris increases during the period of driving for exposure adjustment, but is zero during the period of not driving.
- the focus lens position difference the period during which the focus lens is driven for focus adjustment becomes large, but the period during which the focus lens is not driven is zero.
- the focus lens is also always driven slightly forward and backward for autofocus control, and in such a case, minute position fluctuations are observed as shown in the figure.
- it is detected that the exposure adjustment operation or the focus adjustment has been performed until time t1. Therefore, until the time t1, the user manually adjusts the exposure and focus, and the exposure and focus are adjusted by automatic control. In such a case, it is assumed that the user does not wait for the shutter timing for the subject.
- the captured image is also stabilized, and it is considered that the user enters actual imaging. For example, no large exposure adjustment or focus adjustment has been performed since time t1.
- the situation in which the exposure adjustment and the focus adjustment are hardly performed in the imaging device 10 can be estimated as a stable imaging state because the photographer is almost ready for imaging. Therefore, the main subject determination process is executed at an appropriate timing by starting main subject determination in step F1001 of FIG. 2A based on such a stable imaging state estimation result.
- step F503 the process proceeds to step F503 under the AND condition for determination of the exposure adjustment operation and the focus adjustment operation in step F502, and the stable time measurement counter CTst is incremented. Only one of the determinations regarding the adjustment operation may be performed, or both may be detected, and the process may proceed to step F403 under an OR condition.
- the detection of the exposure adjustment operation may be performed for all of the mechanical iris operation, the shutter speed changing operation, and the gain adjustment operation for the captured image signal, or only a part thereof.
- step F502 when the condition of step F502 is not satisfied, the count value may be kept as it is without decrementing the stable time measurement counter CTst and the process may proceed to step F505. Further, the process of step F504 may be replaced with step F504A shown in FIG. 16B. That is, in the case where the condition of step F502 is not satisfied, the value of the stable time measurement counter CTst is cleared to zero. Any example of decrement, clear, and keep may be suitable as described in the explanation of the processing example 2.
- Processing example 5 will be described with reference to FIGS.
- the processing example 5 is also an example in which the stable imaging state is estimated based on the detection result of the imaging visual field variation, but here, in particular, the motion vector of the captured image is analyzed and the analysis result is used for the estimation of the stable imaging state. It is an example.
- FIG. 19A shows that the motion vector detection unit 27 detects a motion vector for captured image data of each frame obtained sequentially on the time axis.
- the motion vector detection unit 27 divides the screen of one frame into a large number of regions, and performs processing for detecting motion of the subject image as a vector during each frame transition period in each region. .
- a vector detected in each region is a local vector.
- local vectors include those with high reliability and those with low reliability as vectors used for stable imaging state estimation.
- a local vector in a region with high reliability is indicated by a solid line
- a local vector in a region with low reliability is indicated by a broken line.
- the global movement of the screen is used for stable imaging state estimation. What shows the global movement is not a local vector but a global vector indicated by a hatched arrow. This global vector can be obtained as an average of highly reliable local vectors.
- the motion vector detection unit 27 performs an operation of sequentially calculating global vectors from the sequentially input frame image data and supplying them to the control unit 30 in sequence.
- FIG. 18A shows a process executed by the stable imaging state estimation unit 30b as a processing example 5 of the stable imaging state estimation process.
- the control unit 30 branches the process depending on whether the stable imaging state estimation process is already being executed.
- the control unit 30 proceeds from step F600 to F607 and resets the stable time measurement counter CTst to zero.
- step F1000 that is, the processing of FIG. 18A is repeated as the processing of FIG. 2A.
- step F601 the control unit 30 acquires a global vector value from the motion vector detection unit 27.
- a vector is used here, in this processing example, the amount of vector motion may be acquired.
- step F602 the control unit 30 determines whether or not the amount of movement of the acquired global vector is within a predetermined level range.
- the predetermined level range in this case is a level range indicating a situation in which the amount of global movement of the subject on the screen is small.
- control unit 30 proceeds to step F603 and increments the stable time measurement counter CTst.
- control unit 30 proceeds to step F604 and decrements the counter CTst that measures the stable time.
- FIG. 20 shows the displacement of the scalar value of the global vector with a dotted line.
- each point is the amount of movement of the global vector detected by the control unit 30 in step F601 at each time point.
- the predetermined level range determined in step F602 is a range of motion level L30 to L31. This indicates a range in which the subject on the captured image has no or no global movement but is a minute amount.
- the value of the estimation flag Fst is also shown. Assume that the stable imaging state estimation process is started at time t0.
- a relatively large movement is detected as a global movement. For example, it is assumed that the situation before the user firmly holds the imaging device 10, a situation where the user is roughly looking for a subject, or a situation where the subject is moving around greatly. On the other hand, after the time point t1, the amount of movement is reduced within a predetermined level range. This is assumed to be a situation where the user holds the imaging device 10 firmly, or a subject that occupies most of the screen area is relatively stationary with respect to the imaging device 10. In the process of FIG.
- the stable imaging state estimation unit 30b uses the detection result of the motion of the captured image for estimation of the stable imaging state.
- an analysis process related to captured image data global vector detection is performed, and a stable imaging state in which the imaging field of view is stable is estimated based on the state of the movement.
- step F502 it is determined in step F502 whether or not the amount of movement of the global vector is within a predetermined level range.
- the determination may be made by adding the direction of movement as a vector.
- the local vectors of each region it is possible to estimate the relative movement status of various subjects and the imaging device 10, and therefore it is possible to use local vectors.
- step F602 when the condition of step F602 is not satisfied, the count value may be kept as it is without decrementing the stable time measurement counter CTst and the process may proceed to step F605. Further, the processing in step F604 may be replaced with step F604A shown in FIG. 18B. That is, when the condition of step F602 is not satisfied, the value of the stable time measurement counter CTst is cleared to zero. Any example of decrement, clear, and keep may be suitable as described in the explanation of the processing example 2.
- the predetermined time thTM is used for estimating the stable imaging state.
- the predetermined time thTM may be fixedly set in each processing example, but may be changed as described below. In other words, the condition relating to the time used for estimating the stable imaging state in the stable imaging state estimation process is changed according to the execution timing of the stable imaging state estimation process.
- FIG. 9 An example is shown in FIG. For example, three types of times thTM1, thTM2, and thTM3 are provided as the predetermined time thTM. It is assumed that thTM1>thTM2> thTM3.
- the stable imaging state estimation process is executed at the opportunity described with reference to FIGS. 9 and 10. For example, when the stable imaging state estimation process is executed within a predetermined period after power-on, the predetermined time thTM is relatively long. Time thTM1 is used. Also, when the stable imaging state estimation process is executed within a predetermined period after the transition from the reproduction mode MD2 to the camera mode MD1, the relatively long time thTM1 is used as the predetermined time thTM.
- the predetermined time thTM is set.
- the standard time thTM2 is used. This is because it is considered that the user is ready for the imaging operation to some extent.
- the shortest time thTM3 is used as the predetermined time thTM when the stable subject state estimation process is performed again after the main subject determination is once performed. For example, as described with reference to FIGS. 9 and 10, after the use of main subject information is disabled, a new main subject determination process is required to be performed relatively quickly. Further, in a situation where the main subject determination is not performed for a certain period, the standard time thTM2 is used as the predetermined time thTM.
- control unit 30 performs an estimated predetermined time setting process as shown in FIG. 22 by an interruption process at a certain time interval, thereby responding to the execution opportunity of the stable imaging state estimation process.
- the predetermined time thTM is changed.
- the control unit 30 determines in step F4000 whether or not it is within the Ta period from power-on. If it is within the Ta period, the longest time thTM1 is set as the predetermined time thTM in step F4006. If it is not within the Ta period since the power is turned on, the control unit 30 determines whether or not it is within the Tb period since the camera mode MD1 is entered in step F4001. If within the Tb period, the longest time thTM1 is set as the predetermined time thTM in step F4006.
- control unit 30 branches the process in step F4002 depending on whether the main subject determination process is performed after the power is turned on or after the transition to the camera mode MD1. If it is before execution of the first main subject determination process, a standard time thTM2 is set as the predetermined time thTM in step F4004.
- step F4003 the control unit 30 determines whether or not main subject determination has been performed during the Tc period from the previous main subject determination. If not, the standard time thTM2 is set as the predetermined time thTM in step F4004. On the other hand, if the determination in step F4003 is not satisfied, the shortest time thTM3 is set as the predetermined time thTM in step F4005.
- the predetermined time thTM set in the above process of FIG. 22 is used at the time of execution. Accordingly, as illustrated in FIG. 21, a predetermined time thTM for an appropriate estimation process is used according to the execution opportunity of the stable imaging state estimation process, and an appropriate operation is realized.
- FIG. 2A is an example in which the main subject determination unit 30a executes the main subject determination process and outputs the result when it is estimated that the stable imaging state is estimated by the stable imaging state estimation process.
- the stable imaging state estimation process and the main subject determination process executed in the imaging apparatus 10 in FIG. 3 or the image processing apparatus 1 in FIG. 1 are not limited to the example shown in FIG. Examples are also possible.
- the main subject determination process is repeatedly performed as needed as shown in FIG. 23A. That is, during the period when the camera mode MD1 is set, the main subject determination unit 30a starts candidate image detection in step F2000, and executes main subject determination processing in step F2001.
- the detailed processing in step F2001 is the same as steps F1 to F3 in FIG. 2B.
- the main subject information as a determination result is not transferred to the application or the like at that time, and is stored in the internal memory in step F2002. Then, steps F2000, F2001, and F2002 are performed again.
- the stable imaging state estimation process by the stable imaging state estimation unit 30b is executed as shown in FIG. 23B when the execution opportunity described with reference to FIGS.
- the control unit 30 performs stable imaging state estimation processing in step F3000.
- stable imaging state estimation processing is executed as in processing example 1 to processing example 5 above. If the stable imaging state is estimated at a certain time, the control unit 30 proceeds from step F3001 to F3002, and obtains main subject information. This is to read the latest main subject information stored at that time from the internal memory as the main subject determination process that is executed as needed as shown in FIG. 23A. In step F3003, the control unit 30 transfers the acquired main subject information to an application or the like.
- the main subject determination unit 30a sequentially executes main subject determination processing. Then, the stable imaging state estimation unit 30b performs the stable imaging state estimation process at the execution opportunity described with reference to FIGS.
- the control unit 30 is an example of outputting the latest result of the main subject determination process. Such processing can also output main subject information to an application or the like at an appropriate timing.
- the program according to the embodiment is a program that causes an arithmetic processing unit such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor) to execute the processing described in the above-described embodiment. That is, this program performs stable imaging state estimation step for performing stable imaging state estimation processing for estimating whether or not the imaging state is stable, main subject determination step for performing main subject determination processing, and stable imaging by stable imaging state estimation processing.
- This is a program that causes an arithmetic processing unit to execute an output step of outputting a result of main subject determination processing when it is estimated that the state is in a state.
- the program of the embodiment includes the processing shown in FIG. 2 or FIG. 23, the main subject determination processing described in FIG. 4 and FIG. 8, and the stable imaging state estimation processing in processing examples 1 to 4.
- the processing described as the processing example 5 may be a program that causes an arithmetic processing device to execute the processing. With such a program, an apparatus that executes the above-described stable imaging state estimation process and main subject determination process can be realized using an arithmetic processing unit.
- Such a program can be recorded in advance in an HDD as a recording medium built in a device such as a computer device, a ROM in a microcomputer having a CPU, or the like. Alternatively, it may be temporarily stored on a removable recording medium such as a flexible disk, CD-ROM (Compact Disc Read Only Memory), MO (Magnet Optical) disk, DVD (Digital Versatile Disc), Blu-ray disk, magnetic disk, semiconductor memory, memory card, etc. Can be recorded manually or permanently.
- a removable recording medium can be provided as so-called package software.
- such a program can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
- Such a program is suitable for providing a wide range of image processing apparatuses according to the embodiments. For example, by downloading a program to a personal computer, a portable information processing device, a mobile phone, a game device, a video device, a PDA (Personal Digital Assistant), the portable information processing device, etc. can do.
- a personal computer a portable information processing device
- a mobile phone a game device
- a video device a PDA (Personal Digital Assistant)
- PDA Personal Digital Assistant
- the portable information processing device etc.
- the same processing as the stable imaging state estimation process and the main subject determination process in the image processing apparatus 1 and the imaging apparatus 10 in FIG. 1 may be executed.
- the CPU 71 of the computer device 70 executes various processes according to a program stored in the ROM 72 or a program loaded from the storage unit 78 to the RAM 73.
- the RAM 73 also appropriately stores data necessary for the CPU 71 to execute various processes.
- the CPU 71, ROM 72, and RAM 73 are connected to each other via a bus 74.
- An input / output interface 75 is also connected to the bus 74.
- the input / output interface 75 includes an input unit 76 including a keyboard and a mouse, a display including a CRT (Cathode Ray Tube), an LCD, or an organic EL panel, an output unit 77 including a speaker, and a hard disk.
- a communication unit 79 including a storage unit 78 and a modem is connected. The communication unit 79 performs communication processing via a network including the Internet.
- a drive 80 is connected to the input / output interface 75 as necessary, and a removable medium 81 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is Installed in the storage unit 78 as necessary.
- a removable medium 81 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is Installed in the storage unit 78 as necessary.
- a program constituting the software is installed from a network or a recording medium.
- the recording medium is distributed to distribute the program to the user separately from the apparatus main body, and includes a magnetic disk (including a flexible disk) on which the program is recorded, an optical disk ( It comprises a removable medium 81 made of a Blu-ray disc (including Blu-ray Disc (registered trademark)), CD-ROM, DVD, magneto-optical disc (including MD (Mini Disc)), or semiconductor memory.
- a ROM 72 in which a program is recorded and a hard disk included in the storage unit 78 that is distributed to the user in a state of being pre-installed in the apparatus main body.
- the CPU 71 when the moving image data is input by the receiving operation by the communication unit 79 or the reproducing operation by the drive 80, the removable medium 81, or the recording unit 78, the CPU 71 is based on the program.
- the functions of the stable imaging state estimation unit (3, 30b) and the main subject determination unit (2, 30a) described above are executed. That is, by executing the processes shown in FIGS. 2 and 23, the main subject can be determined at an appropriate timing for the input image data.
- the stable imaging state estimation process a plurality of process examples from the process examples 1 to 5 described above may be combined. For example, some of the processing examples 1 to 5 can be combined, and the stable imaging state can be estimated by the OR condition or the AND condition of the estimation result of the stable imaging state in each processing example. Further, when the processing examples 1 to 5 are combined, the weight for estimating the stable imaging state may be changed in each processing example, or the priority of determination may be set. For example, when processing example 2 and processing example 3 are combined, the increment value of counter CTst in each processing example is set to a different value, or predetermined time thTM is set to a different value.
- the stable imaging state estimation process is executed in the camera mode MD1 or the main subject determination mode MD11, but may be executed in the reproduction mode MD2.
- main subject information can also be used for image effect processing and image editing processing, but for that purpose, main subject determination processing may be performed on the replayed image, so the stable imaging state at the time of imaging in the replayed image
- main subject determination processing may be performed on the replayed image, so the stable imaging state at the time of imaging in the replayed image
- main subject determination processing is performed after estimation. For example, a situation where there is little change in the playback image is estimated as a stable imaging state at the time of imaging, and at that time, main subject determination processing is performed, image editing and image effect processing are performed, playback display, creation of editing data, etc. May be performed.
- Such a stable imaging state estimation process and main subject determination process for a reproduced image are naturally assumed in the image processing apparatus in FIG. 1, the information processing apparatus in FIG. 24, and the like.
- the result of the main subject determination process may be added as metadata to still image data or moving image data that has been captured and recorded thereafter. That is, information indicating the to-be-accepted subject is added to a still image file or the like.
- a main subject specifying operation by an operation of a photographer may be enabled.
- the process of determining the main subject mainly assuming still image capturing has been described.
- the image is captured even during standby for moving image capturing or during execution of moving image capturing and recording.
- the processing of the above-described embodiment can be applied as processing for performing main subject determination from a plurality of frames.
- this technique can also take the following structures.
- a stable imaging state estimation unit that performs a stable imaging state estimation process for estimating whether or not a stable imaging state;
- An image processing apparatus comprising: a main subject determination unit that performs a main subject determination process and outputs a result of the main subject determination process when the stable imaging state estimation process is estimated to be a stable imaging state.
- the stable imaging state estimation unit estimates the stable imaging state based on the detection result of the imaging visual field fluctuation in the stable imaging state estimation process.
- the stable imaging state estimation unit uses an output of a sensor that detects a motion of the imaging device that generates a captured image for detection of imaging visual field fluctuations.
- the stable imaging state estimation unit estimates that the stable imaging state is a stable imaging state on the condition that a predetermined period of time has elapsed since the transition to a predetermined mode state in which the main subject determination process functions effectively in the stable imaging state estimation process.
- the image processing device according to any one of (1) to (7).
- the stable imaging state estimation unit changes a condition related to time used for estimation of the stable imaging state in the stable imaging state estimation process according to the execution timing of the stable imaging state estimation process.
- the image processing apparatus according to any one of 8).
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
また例えば上記特許文献2,3,4に開示された技術を用いれば、任意の被写体の全身枠を取り囲んだ被写体追尾が実現できる。
また、オートフォーカス・自動露光などは、撮像画像内の所望の領域を検出・追跡し、その領域がもっとも好適になるように光学系等を制御するような機能も存在する。
これらのように、撮像画像内で、ユーザが主要被写体として指定した画像、例えば顔等の画像領域を追尾したり、顔領域にフォーカスを合わせる等の技術が知られている。
例えばカメラを所持した状態で、画面表示されたスルー画(シャッタ操作時点以外に表示される被写体のモニタリング画像)に写されている複数の顔の中からタッチパネルによって任意の顔を選択するというような行為で主要被写体が選定される。あるいはユーザ指定のタイミング、例えばシャッタ半押し等で所定の領域内に存在する被写体を主要被写体とするなどである。
たとえば動き回る被写体に焦点を合わせ続けたいためにこの機能を使いたいのに、ユーザがカメラを構えて被写体を狙いながら指で選択すること自体が難しい。
例を挙げれば、被写体の変化や移動に対するユーザの反応速度により、指定が困難なこともある。例えば動き回る被写体を、スルー画の画面上でうまく指定できないような場合である。
また、そもそもカメラを手に持って、被写体に向けて被写体を選定しているような状況で、ユーザが画面上で主要被写体を指で選択する行為自体が難しい。
またタッチパネルを配した表示画面の解像度によって、ユーザにとって被写体が選択しにくいことがある。また、タッチパネルを配した表示画面上の被写体サイズとユーザの指の大きさや太さによっては、所望の被写体を適切に指定できないこともある。
また、カメラシステム上のタイムラグ、例えば実際の光景と撮像画像のスルー画のタイムラグによって、ユーザが適切に被写体を指定しにくいこともある。
そこで本開示では、撮像者等のユーザが意図的に被写体を選択する行為を行わなくとも、適切な時点で、ユーザの求める対象被写体を主要被写体と判定する技術を実現することを目的とする。
本開示のプログラムは、これらの各ステップを演算処理装置に実行させるプログラムである。
図2は、実施の形態の画像処理装置の主要被写体判定処理のフローチャートである。
図3は、実施の形態の撮像装置のブロック図である。
図4は、実施の形態の詳細な主要被写体判定処理のフローチャートである。
図5は、実施の形態の候補画像枠と判定基準点の説明図である。
図6は、実施の形態の候補画像枠と判定基準点の距離の説明図である。
図7は、実施の形態の位置状態による安定存在度判定の説明図である。
図8は、実施の形態の具体的な主要被写体判定処理のフローチャートである。
図9は、実施の形態の安定撮像状態推定処理の実行タイミングの説明図である。
図10は、実施の形態の安定撮像状態推定処理の実行タイミングの説明図である。
図11は、実施の形態の処理例1のフローチャートである。
図12は、実施の形態の処理例2のフローチャートである。
図13は、実施の形態の処理例2による動作の説明図である。
図14は、実施の形態の処理例3のフローチャートである。
図15は、実施の形態の処理例3による動作の説明図である。
図16は、実施の形態の処理例4のフローチャートである。
図17は、実施の形態の処理例4による動作の説明図である。
図18は、実施の形態の処理例5のフローチャートである。
図19は、実施の形態の処理例5のグローバルベクトルの説明図である。
図20は、実施の形態の処理例5による動作の説明図である。
図21は、実施の形態の所定時間の変更の説明図である。
図22は、実施の形態の所定時間変更処理のフローチャートである。
図23は、実施の形態の画像処理装置の他の主要被写体判定処理のフローチャートである。
図24は、実施の形態のコンピュータ装置での適用の場合のブロック図である。
<1.画像処理装置の構成>
<2.撮像装置の構成>
<3.主要被写体判定処理>
<4.安定撮像状態推定処理>
[4−1:安定撮像状態推定処理の実行機会]
[4−2:処理例1]
[4−3:処理例2]
[4−4:処理例3]
[4−5:処理例4]
[4−6:処理例5]
[4−7:推定処理に用いる所定時間の変更処理]
<5.画像処理装置の他の処理例>
<6.プログラム及びコンピュータ装置への適用>
<7.変形例>
「安定存在度」とは、自動的な主要被写体判定の指標となる値である。即ち画角空間内で或る被写体が位置的に所定の状態にある頻度を示す値とする。例えば時間的に高い確度で画像内において所定の状態にあるか否かを判定できる指標値である。後述する実施の形態に即して言えば、候補画像が、画角空間内の位置状態として、ある所定の位置状態に存在する累積時間や継続時間、或いは平均的存在度等を示す値であり、この「安定存在度」として計算される例えば累積時間や継続時間が高い画像は、撮像者が主として狙っている被写体と推定できるものとしている。
なお上記の「画角空間」とは、撮像画像に表れる空間を意味する。主に撮像画像における画面平面としての2次元空間、又は撮像時のカメラ位置に対する被写体の相対的な距離も含む3次元空間としての意味で用いる。
例えばハンドヘルドタイプのカメラを想定すれば、ユーザが、カメラを構えて被写体を探している状況が、安定撮像状態となる。例えば静止画撮像のために被写体を探す状況などとして、撮像装置10を安定に保持した状態である。
実施の形態では、自動的な主要被写体判定処理の発動条件として「安定撮像状態推定処理」を行うが、これは主要被写体安定処理の実行に適した状態か否かを推定する処理である。例えば上記のハンドヘルドタイプのカメラを想定した場合、「安定撮像状態推定処理」とは、ユーザが、カメラを構えて被写体を探している状況であると推定できる動作状態にあるか否かを判定する処理となる。
図1に、実施の形態の画像処理装置の構成例を示す。
画像処理装置1は、主要被写体判定部2と安定撮像状態推定部3を有する。
安定撮像状態推定部3は、安定撮像状態であるか否かを推定する安定撮像状態推定処理を行う。
主要被写体判定部2は、主要被写体判定処理を行う。
この主要被写体判定部2は、安定撮像状態推定部3の安定撮像状態推定処理により、安定撮像状態であると推定される場合に、主要被写体判定処理の結果を出力する。
例えば主要被写体判定部2は、安定撮像状態であると推定される場合に、主要被写体判定処理を実行して判定結果を出力する。
又は主要被写体判定部2は、逐次主要被写体判定処理を実行しており、安定撮像状態であると推定されたときに得られていた最新の主要被写体判定結果を出力するようにしてもよい。
安定撮像状態推定部3は、これらの推定用情報Infを用いて推定処理を行い、安定撮像状態と推定された場合に、主要被写体判定部2に、安定撮像状態と推定されたことを通知する。
主要被写体判定部2には、例えばソフトウエアプログラムにより実現される演算処理機能として、候補検出機能と主要被写体判定処理機能が設けられる。
この候補検出とは、入力された画像データDgの複数のフレームについて、それぞれ主要被写体の候補となる候補画像を検出する処理である。
即ち、時間軸上で連続的に入力される画像データDgのフレーム、又は間欠的なフレーム毎に、顔画像検出、人体画像検出などを行って、主要被写体の候補となる画像を抽出する。
なお、顔検出、人体検出等は、撮像画像データに対しての画像解析におけるパターンマッチングの手法などで可能であるが、パターンマッチングに用いる辞書さえ差し替えれば他の検出器も原理的には実現可能である。例えば犬顔検出・猫顔検出などとして主要被写体の候補画像を抽出してもよい。
また例えばフレーム差分による動体検出の手法で、動体を検出し、当該動体を候補画像とすることも考えられ、セイレンシ(Saliency)と呼ばれる注視領域抽出の手法を用いてもよい。
そして主要被写体判定部2は、候補検出の処理として、抽出した候補画像を示す情報、例えば候補画像の画面内の二次元方向の位置情報(x,y座標値)や、被写体距離、画像サイズなどを候補画像情報とする。
即ち主要被写体判定部2は、上記の候補検出によって得られた候補画像情報で示される候補画像について、複数フレームにわたる画像データ内での安定存在度を求め、求めた安定存在度を用いて、候補画像のうちで主要被写体を判定する。そして主要被写体情報Dmを出力する。
「位置状態」とは、画像データにおける候補画像の、画角空間内の絶対的又は相対的な位置の状況を総称した言葉とする。
「位置状態」の具体例としては、
・画角空間内の或る判定基準点との相対距離
・画角空間内の或る判定基準領域に対する相対的位置関係や相対距離
・撮像画像の二次元平面内での候補画像の位置
・撮像時のカメラ位置に対する被写体の相対的な距離
・被写体距離と判定基準点又は判定基準領域との相対位置関係などがある。
そして安定存在度算出機能で求められた安定存在度を用いて、各候補画像の中から主要被写体を判定し、或る候補画像を主要被写体と設定する処理を行う。
このように主要被写体として設定された画像を示す情報が、主要被写体情報Dmとして出力され、他のアプリケーションソフトウエアや処理回路部等に受け渡される。
ステップF1000において、安定撮像状態推定部3による安定撮像状態推定処理が実行される。上述のように安定撮像状態推定部3は、入力される推定用情報Infを用いて、現在が安定撮像状態と推定されるか否かを判定する。
一方、ステップF1000の安定撮像状態推定処理で、安定撮像状態と推定された場合は、画像処理装置1は、ステップF1001で主要被写体判定処理の開始タイミングと判断する。そしてステップF1002に進み、主要被写体判定部2による主要被写体判定処理を行う。
まずステップF1002で、上述の候補画像検出を開始する。
例えば画像データDgが、図示しない撮像装置部、或いは別体の撮像装置から送信された画像データを受信する受信部等により入力されてくる。或いは撮像装置で撮像され、記録媒体に保存された動画像データが、再生されて入力される場合もある。
主要被写体判定部2は、入力される全てのフレームを対象として候補画像抽出を行ってもよいし、1フレームおき、2フレームおきなど、間欠的なフレームを対象として候補画像抽出を行ってもよい。即ち主要被写体判定部2は、主要被写体判定を行う期間は、少なくとも時系列上での複数のフレームに対して、候補画像の抽出処理を行っていけばよい。どのような画像を候補画像とするかは設定により多様であるが、例えば顔画像、人体画像、犬画像、猫画像などが考えられる。
そして主要被写体判定部2は、各フレームについてそれぞれ、検出した候補画像を示す候補画像情報を生成する。
ステップF1003について図2Bを用いて詳しく説明する。
最初にステップF1において、主要被写体判定部2は位置状態判定処理を行う。これは先に生成した各候補画像の位置状態を判定する処理である。
候補画像は1フレームに付き、1又は複数存在することがあるし、フレーム内に候補画像が存在しないこともある。フレームに複数の候補画像が存在する場合、各候補画像について位置状態を判定することとなる。
そして図2AのステップF1004で、主要被写体判定部2は、主要被写体情報Dmをアプリケーションプログラム等に受け渡す。
アプリケーションプログラム等では、主要被写体と設定された画像が特定されたことに応じた処理を行う。例えば、フォーカス制御、追尾処理、画像効果処理などである。
このため、主要被写体判定に適したタイミングが、安定撮像状態の推定という形で判定されることとなり、適切な時点で主要被写体判定処理を実行できる。
例えばカメラを持った撮像者が、撮像しようとする意思でカメラを構えた状態である安定撮像状態を推定する。このような場合に主要被写体判定処理が発動されることが好適である。逆に言えば、ユーザが、特にカメラを構えていない場合に主要被写体判定処理が実行されても無駄となる。
本例の画像処理装置1では、安定撮像状態推定処理によって、撮像者が撮像の意思を持った状態、例えば被写体を探そうとする状況を推定して、その推定に基づいた適切なタイミング、つまりユーザにとって望ましいタイミングであり、無駄な処理とはならないタイミングで、主要被写体判定処理が実行される。
このような安定存在度により主要被写体判定を行う。これにより、撮像者等のユーザが特に指定操作することなく、主要被写体が自動判定されることになり、主要被写体設定に応じた動作を行う各種電子機器においてユーザの操作性は格段に向上する。
以下では、上記のような画像処理装置を内蔵した撮像装置10を例に挙げ、安定撮像状態推定動作及び主要被写体判定動作について詳しく説明する。
実施の形態の撮像装置10の構成例を図3に示す。この撮像装置10はいわゆるデジタルスチルカメラ或いはデジタルビデオカメラとされ、静止画や動画の撮像/記録を行う機器であり、請求項でいう画像処理装置を内蔵するものである。
また画像処理装置における上述の主要被写体判定部2、安定撮像状態推定部3に相当する構成は、撮像装置10における制御部30においてソフトウエアにより実装される。図3では主要被写体判定部30a、安定撮像状態推定部30bとして示す。制御部30は、請求項でいうプログラムに基づく処理を実行することで、請求項でいう画像処理方法としての動作を行う。
イメージャ12は、例えば、CCD(Charge Coupled Device)型、CMOS(Complementary Metal Oxide Semiconductor)型などの撮像素子を有する。
このイメージャ12では、撮像素子での光電変換で得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号を、後段のデジタル信号処理部20に出力する。
例えばデジタル信号処理部20は、前処理部21、同時化部22、YC生成部23、解像度変換部24、コーデック部25、候補検出部26、動きベクトル検出部27を備えている。
また、候補画像枠情報としては、候補画像の顔、人体、犬、猫などの属性情報の種別や、個体の識別情報、さらには画像データ自体を含むようにしてもよい。
候補検出部26は、上述のようにパターンマッチングの手法で候補の対象とする特定の画像を抽出してもよいし、例えばフレーム差分による動体検出の手法で、動体を検出し、当該動体を候補画像とすることなども考えられる。候補画像の抽出、選定の手法は以上に限定されず、多様に考えられる。また、候補検出部26は、画像に平滑化処理、アウトライヤ(outlier)除去等の処理を行って、候補画像枠情報を生成してもよい。
動きベクトル検出部27は、このグローバルベクトルを、安定撮像状態推定処理のために、制御部30の安定撮像状態推定部30bに受け渡す。
なお、この図3の例では動きベクトル検出部27をデジタル信号処理部20で実行される機能構成としているが、これは一例であり、制御部30における安定撮像状態推定部30bが、動きベクトル検出部27の処理を実行する例も考えられる。
CPUがROMやフラッシュメモリ等に記憶されたプログラムを実行することで、撮像装置10を統括的に制御する。
RAMは、CPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
ROMや不揮発性メモリは、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア等の格納に用いられる。例えば本例において後述する主要被写体判定処理を実行するためのプログラムや、さらに主要被写体判定結果を利用するアプリケーションプログラム等が記憶される。
主要被写体判定部30aは、候補検出部26から受け渡された候補画像情報についての位置状態判定処理、安定存在度算出処理、及び安定存在度に基づく主要被写体設定の処理を実行する。
安定撮像状態推定部30bは、経過時間、各種センサ情報、制御指示値等に基づいて、安定撮像状態と推定されるか否かの判定を実行する。
この操作部35としては、例えば撮像装置10の筐体上に設けられた各種操作子や、表示部34に形成されたタッチパネルなどとして実現される。筐体上の操作子として、再生メニュー起動ボタン、決定ボタン、十字キー、キャンセルボタン、ズームキー、スライドキー、シャッタボタン等が設けられる。またタッチパネルと表示部34に表示させるアイコンやメニュー等を用いたタッチパネル操作により、各種の操作が可能とされてもよい。
画像ファイルは、例えばJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、GIF(Graphics Interchange Format)等の形式で記憶される。
記録部15の実際の形態は多様に考えられる。例えば記録部15は、撮像装置10に内蔵されるフラッシュメモリでもよいし、撮像装置10に着脱できるメモリカード、例えば可搬型のフラッシュメモリと該メモリカードに対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置10に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
また、本例において後述する安定撮像状態推定処理及び主要被写体判定処理を実行するためのプログラムは、記録部15に記憶されてもよい。
また、ネットワーク通信部として、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。
またセンサ部14として、光学系11におけるズームレンズの位置を検出するズームレンズ位置センサ、フォーカスレンズの位置を検出するフォーカスレンズ位置センサが設けられる場合もある。
また、センサ部14として、絞り機構であるメカアイリスの開口量を検出するセンサが設けられる場合もある。センサ部14の各種センサは、それぞれ検出した情報を制御部30に伝達する。制御部30は、センサ部14で検出された情報を用いて各種制御を行うことができる。
まず、撮像装置10において、主要被写体判定部30aが実行する主要被写体判定処理について説明していく。主要被写体判定処理が行われる条件を判定する安定撮像状態推定処理については、後に説明する。
主要被写体判定処理の概略を図4で説明し、図5~図8で具体的な処理例を説明する。
ステップF11で制御部30は、取り込んだ候補画像枠情報で示される1又は複数の候補画像枠について、それぞれ位置状態を判定する。
この場合、位置状態として、画角空間内に設定した判定基準点に対する候補画像の距離を判定する。又は、位置状態として、画角空間内に設定した判定基準領域に対する候補画像の位置関係を判定する。
なお、安定存在度の算出には、画角空間内での候補画像の位置情報、又は候補画像のサイズ情報を用いることもある。
ここでステップF13の行う判定は、主要被写体判定開始から、安定存在度が最も短い時間で所定値に達した候補画像を、主要被写体と判定する処理である。又は、主要被写体の判定を行っている間に、安定存在度の値が最も高い候補画像を、主要被写体と判定する処理である。
また主要被写体の判定には、安定存在度の値に加えて、画角空間内での位置情報、又はサイズ情報を用いることもある。
これ以外の態様として、或る期間に候補画像情報の取り込みを行う。そして当該期間が経過したら、取り込んだ候補画像情報を用いて主要被写体判定を行う処理態様も考えられる。
以下の具体例では、候補画像枠の位置状態として設定した判定基準点との距離を求める。
また、各候補画像枠について安定存在度としては、判定基準点との距離が所定の閾値以内という条件を満たしている累積時間情報を算出する。
また、主要被写体判定開始から、安定存在度が最も早く所定値に達した候補画像を、主要被写体と判定するものとする。
そこで、まず図5、図6、図7で候補画像枠、判定基準点との距離、安定存在度のそれぞれについて説明する。
図5には、撮像装置10の光学系11,イメージャ12の動作によりデジタル信号処理部20に入力される撮像画像信号の各フレームFR1,FR2,FR3・・・を示している。候補検出部26は、このような順次入力される連続した各フレーム或いは間欠的な各フレームのそれぞれについて候補画像の検出を行う。
例えば図示のように、フレームFR1について、3人の人が存在していた場合、それぞれの顔画像部分を候補画像として抽出し、その候補画像枠E1,E2,E3についての候補画像枠情報を出力し主要被写体判定部30aに受け渡す。候補画像枠情報とは、位置情報、サイズ情報、属性情報等である。
図6Aに判定基準点SPの例を示している。これは画像中央を判定基準点SPとした例である。判定基準点SPのxy座標値を(Cx,Cy)とする。
ここでは図示する各候補画像枠E1,E2,E3の重心Gから判定基準点SPの距離Diff1、Diff2、Diff3を算出する。
例えば図6Bのように、中央よりやや左上方の位置に判定基準点SPを設定してもよい。例えば静止画の構図を考えた場合、このような中央でない位置に主たる被写体を配置するとよい場合が多々考えられるからである。
この場合も、図6Aと同様の方法で、判定基準点SPと候補画像枠の重心Gの距離を算出する。
・画像中央位置、或いは中央よりずれた位置などとして、予め決められた固定的な位置に設定される。
・ユーザが任意に指定する。
・いくつかの候補点をユーザに提示し、ユーザが選択することで設定される。
・制御部30が画像内容に応じて最適位置を判定し、自動的に可変設定する。などが考えられる。
図7は、候補画像枠E1,E2,E3が、ある期間継続してフレーム(FR1,FR2・・・)内に存在し続けたとして、算出される距離Diff1、Diff2、Diff3の変動の様子を示したものである。時間軸上では、算出される各距離Diff1、Diff2、Diff3は変動している。
図7下部には、距離Diff1、Diff2、Diff3の各時点での、距離閾値Trs−diff以下か否かの判定結果を示している。距離Diff(n)が距離閾値Trs−diff以下であれば、近い=「1」とされることとする。この判定結果「1」を各時点で累積加算していったものが処理例1での安定存在度となる。
例えば図7の例では、候補画像枠E3は、継続して「1」と判定されるが、この累積加算値が或る所定値に達した時点で、判定が終了され、候補画像枠E3が主要被写体と判定されることとなる。
但し、もちろん継続性を安定存在度の条件に用いる例も考えられる。
まずステップF100で変数TSF=0とし、またカウント値Cnt(n)=0とする。
変数TSFとは、主要被写体設定済みか否かを示すフラグである。TSF=「0」は、主要被写体が未判定の状態を示すこととなる。またカウント値Cnt(n)は、上述の距離Diffの距離閾値Trs−diffとの比較判定結果の値を加算するカウンタの値である。
また、同様に距離Diff(n)とは、3つの候補画像枠E1,E2,E3の判定基準点SPからの距離Diff1、Diff2、Diff3を総称して表すものする。
例えば方形の候補画像枠の左上頂点の座標値が与えられるとする。このxy座標値を(E(n)_x,E(n)_y)とする。また図6に示したように、xy座標は画面平面の左上を原点Oとする。
また候補画像枠E(n)の幅wをE(n)_w、高さhをE(n)_hとする。
そして候補画像枠E(n)の重心Gの座標値を(E(n)_cx,E(n)_cy)とすると、重心Gの座標値は、
E(n)_cx=E(n)_x+(E(n)_w)/2
E(n)_cy=E(n)_y+(E(n)_h)/2
として求められる。
Diff(n)=√{(E(n)_cx−Cx)2+(E(n)_cy−Cy)2}
で求められる。
なお、後述するように本実施の形態では、安定撮像状態推定処理に応じて、主要被写体判定処理が実行されるため、ステップF104は不要としてもよい。
但し、図23で述べるが、主要被写体判定処理自体は、常時実行するという処理例もある。この場合、このステップF104での処理を抜けることとなる。
各候補画像枠E(n)の判定基準点SPまでの距離Diff(n)と距離閾値Trs−diffを比較し、Diff(n)<Trs−diffであればステップF106でフラグFlg(n)=1とする。またDiff(n)<Trs−diffでなければステップF107でフラグFlg(n)=0とする。
このカウント値Cnt(n)は、累積加算値としての安定存在度の値となる。つまり、候補画像枠E(n)が判定基準点SPに「近い」状態の頻度を表す値となる。
ステップF111では、各候補画像枠E(n)のカウント値Cnt(n)が、カウント閾値CTthrに達しているか否かを確認する。
先に述べたステップF104で変数TSF=1が検出された場合、そのまま判定終了となる。
詳しい説明は省略するが、本例の自動的な主要被写体判定とは並行して、例えばユーザが主要被写体を表示部34の画面上のタッチ操作、或いは被写体を画面上に所定位置に合わせてシャッタボタンを半押しするなどの操作として、主要被写体選択ができるようにしてもよい。図8の処理の実行中に、ユーザがこのような指定操作を行った場合、ユーザの操作を優先することが好ましい。そこで、そのようなマニュアル操作として主要被写体設定が行われた場合、変数TSF=1とする。この場合、図8の処理はステップF104,F114の判断により、処理を終了することとすればよい。
このような場合、制御部30は処理をステップF111からF112に進める。
ステップF112で制御部30は、カウント値Cnt(n)がカウント閾値CTthrに達した候補画像枠E(n)を主要被写体と判定し、主要被写体設定を行う。そして変数TSF=1とする。
なお、この処理例では変数TSF=1となるまで続けられることになるが、実際には、所定の制限時間を設けておくことが適切である。即ち図8の処理開始時点から所定時間を経過しても主要被写体が判定できない場合は、主要被写体無しとして、処理を終了するようにする。
特にこの処理例は、判定基準点SPに「近い」状態の累積時間で安定存在度を判定している。動いている状況の被写体、或いは動物等の動きの早い被写体の場合、撮像者はある程度の時間、例えば数秒程度でも、主としたい被写体を継続して画像中央に捕らえることは難しい場合がある。また撮像者の撮像技量によっては、手ぶれが激しいなどにより、なかなかとりたい被写体を画像中央に維持できないといったこともある。このような場合であっても、累積時間を用いることで、比較的迅速に主要被写体判定が可能となる。
従って動きの速い被写体を対象とする場合や、比較的不慣れなユーザにとっても好適となる。また、主要被写体判定処理は、一定時間を必ず行うものではなく、主要被写体が判定された時点で処理は終了されるため、被写体や撮像者の技量によっては、迅速に主要被写体判定が為されるといった利点もある。
一般に撮像者が被写体を狙ってカメラを構える場合、最初は主役としたい被写体を画像中央などの所望の位置にとらえられず、撮像者が徐々にカメラの向きを調整していく。このことを考慮すると、最初は、撮像者が「主要被写体」と念頭においている被写体は、時間が進むにつれ徐々に画像中央にとらえられるようになる。
従って、主要被写体判定処理の実行中に、時間が進むほど、判定基準点SPに近いということの価値を重くすることは、撮像者の考えに合致した主要被写体判定ができる可能性を高めることになる。
例えば被写体距離が所定範囲内であること、サイズが所定範囲内であること、特定の画像種別であること、などを条件に加えても良い。
・重心が判定基準領域に入っているか否か
・全体が判定基準領域に入っているか否か
・少なくとも一部が判定基準領域に入っているか否か
・判定基準領域の外縁との距離が所定以内か否か
などとする。
このような位置関係の条件で、安定存在度を求めることもできる。
主要被写体判定は、例えばユーザがシャッタタイミングを狙っている際に実行されるが、制御部30は主要被写体を自動的に判定した後、次のような処理を行うことができる。
撮像される各フレームにおいて設定された主要被写体を追尾する。例えばスルー画表示上でユーザに主要被写体を明示して、ユーザの画角調整、例えばカメラを手に持っている状態における被写体決めの用に供する。
なお、主要被写体の提示としては、表示部34のスルー画表示上で主要被写体の枠を強調表示することが考えられる。また、強調表示等は、判定直後の一定期間でもよいし、スルー画内に主要被写体が存在する限り実行させてもよい。
主要被写体にオートフォーカス制御する。また、追尾処理と合わせて、主要被写体が動き回っていても、フォーカスが、その主要被写体に追尾して調整されるようにする。
・露光調整
主要被写体の輝度に基づいて自動露光調整を行う。
・指向性調整
動画撮像とともにマイクロホンにより音声収音を行う場合、画角空間内での主要被写体の方向に応じて、指向性調整を行う。
・画像効果処理
撮像される各フレームにおいて主要被写体の領域にのみ、画質調整、ノイズリダクション、肌色調整などの画像処理を加える。
或いは、主要被写体の領域以外に、画像効果、例えばモザイク処理、ぼかし処理、塗りつぶし処理等を加えることも考えられる。
撮像画像、もしくは記録された画像について、フレーミング、クロッピング等の編集処理を加える。
例えば主要被写体を含むフレーム内の一部領域の切り出しや、拡大等の処理を行うことができる。
また、撮像画像データのうちで、主要被写体が画像の中心に配置されるように画像周辺部のカット等を行い、構図調整を行うことができる。
またユーザが通常使用するデジタルスチルカメラ、携帯電話機内蔵カメラなど、ユーザが携帯して使用する撮像装置10としては、表示部34も小型であり、ユーザが主要被写体を画面上で指定する操作を行ったとしても、正確に行いにくい。本実施の形態のように自動判定することで、誤指定ということもなくなる。
ここで、以上のような主要被写体判定処理をどのような時点で実行するかを考える。
例えば撮像装置10が電源オンとされて、表示部34にスルー画を表示している期間は、常時主要被写体判定処理を行っていてもよいが、むやみに主要被写体判定処理を行っても、必ずしも有意な処理とはならない。
例えばユーザが撮像装置10を電源オンとしたまま単に所持しているなど、撮像を行う意思がないときは、主要被写体判定処理を行うことや、主要被写体判定処理の結果を利用することは、あまり意味がない。
具体的に言えば、ユーザが撮像装置10を構えて、これから撮像を行おうとする際に、主要被写体判定処理を行うことが適切である。
即ち安定撮像状態推定処理を介して主要被写体判定処理が実行されることにより、例えば撮像装置10を持った撮像者が、撮像しようとする意思でカメラを構えた状態、例えば被写体を探そうとする状況など、主要被写体判定結果が無駄とはならないタイミングで、主要被写体判定処理が実行される。特に上述の主要被写体判定処理が、比較的処理量が多いところ、後述の安定撮像状態推定処理は、比較的処理負担が小さいため、制御部30の処理負担の低減や消費電力の削減という効果も得られる。
つまりユーザの利便性向上、制御部30の処理負担削減、自動的な主要被写体判定処理の適時性向上を実現できる。
以上のように、安定撮像状態推定処理は、主要被写体判定処理の実行機会を判断するための処理となる。まずここでは、安定撮像状態推定処理自体の実行機会について図9、図10で説明する。
カメラモードMD1とは、主に、撮像を行って静止画や動画を記録するためのモードである。再生モードMD2とは、主に、既に撮像されて例えば記録部15に記録されている静止画データや動画データを表示部34で再生表示させるモードである。
撮像装置10が電源オンとされると、カメラモードMD1或いは再生モードMD2のいずれかのモードで起動される。またユーザは、そのときの撮像装置10の使用目的に応じて、任意にカメラモードMD1と再生モードMD2を切り換えることができる。
安定撮像状態推定処理の具体例は後述するが、図2Aからわかるように、安定撮像状態推定処理の結果として、安定撮像状態であるとの推定が行われたら、主要被写体判定処理が実行され(F1001~F1004)、判定結果の主要被写体情報が利用される。
例えば上述した主要被写体情報の利用例で述べたような処理が実行される。
その後、主要被写体情報の利用が不能又は不要となる場合がある。
例えば、上述した主要被写体情報の利用例で説明した追尾処理、フォーカス合わせ、露光調整、指向性調整、画像効果処理、画像編集処理等は、撮像画像内に主要被写体が存在している場合に可能となるが、主要被写体がフレームアウトして撮像画像内に存在しなくなった場合、これらの主要被写体情報利用処理は不能となる。
またユーザが、主要被写体の変更操作、再判定の操作、或いは主要被写体情報利用処理を終了させたような場合、現在の主要被写体情報を用いた主要被写体情報利用処理は不要となる。
現在の主要被写体情報を用いた主要被写体情報利用処理が不要又は不能な状況となったら(ST3)、再度、安定撮像状態推定処理ST1を行うことが考えられる。
つまりこの図9の例は、安定撮像状態推定部30bが、主要被写体判定処理が有効機能すると想定されるカメラモードMD1の状態となることに応じて、安定撮像状態推定処理を行う例となる。
さらに安定撮像状態推定部30bは、主要被写体判定処理の結果の使用が不能又は不要とされた後においても、カメラモードMD1にある限りは安定撮像状態推定処理を行う例となる。
例えばカメラモードMD1における下位のモードとして、メニュー操作等により主要被写体判定モードMD11を選択できるようにする。図10Bは、表示部34に、主要被写体判定モードをユーザに選択させる表示例を示している。
例えばこのような画面上の選択操作で、ユーザが主要被写体判定モードをオンとする操作を行ったら、制御部30は主要被写体判定モードMD11をオンとする。
その後図2Aで説明したように、安定撮像状態であるとの推定が行われたら、主要被写体判定処理が実行され、判定結果の主要被写体情報が利用される。
カメラモードMD1ではあるが主要被写体判定モードMD11がオフとされた場合や、再生モードMD2に切り換えられた場合、安定撮像状態推定処理及び主要被写体判定処理は行われない。
つまりこの図10の例は、安定撮像状態推定部30bが、主要被写体判定処理が有効機能する、特にユーザも主要被写体判定を求めていると想定される主要被写体判定モードMD11の状態となることに応じて、安定撮像状態推定処理を行う例となる。
さらに安定撮像状態推定部30bは、主要被写体判定処理の結果の使用が不能又は不要とされた後においても、主要被写体判定モードMD11がオンとされている限りは安定撮像状態推定処理を行う例となる。
そしてその安定撮像状態推定処理ST1の推定結果に応じて、主要被写体判定処理が実行される。
以下、安定撮像状態推定処理の各種具体例を説明していく。
図11は、安定撮像状態推定処理の処理例1として、安定撮像状態推定部30bが実行する処理を示している。
図11の処理は、上記図9でカメラモードMD1となった場合、または図10で主要被写体判定モードMD11がオンとされたことに応じて実行される。なお、この点は繰り返し述べないが、後述の処理例2~処理例5も同様である。
安定撮像状態推定処理が開始される時点では、まだ実行中ではないため制御部30はステップF202の処理を行う。
まず時間経過カウンタCTtをリセットし、カウントスタートする。また安定撮像状態と推定されたか否かを示す推定フラグFstを、Fst=0に初期化する。
制御部30はステップF203で時間経過カウンタCTtをインクリメントする。
そして制御部30はステップF204で、時間経過カウンタCTtの値と、推定のための所定時間thTMを比較する。
時間経過カウンタCTtの値が所定時間thTMを越えていなければ、そのまま処理を終える。つまり推定フラグFst=0のままとする。
このように推定フラグFst=1となると、図2AのステップF1001で制御部30は主要被写体判定開始とし、ステップF1002~F1004に進むこととなる。
通常、ユーザは、電源オン又はカメラモードMD1とする操作を行った後は、その後、撮像のために撮像装置10を構える姿勢をとる。主要被写体判定モードMD11をオンとした後も、その後に撮像姿勢をとると考えられる。
よって、これらのモードに移行したら、それから所定時間を経過した時点は、ユーザが撮像のために撮像装置10を構えていると推定できる。 そこで、処理例1では最も簡単に、安定撮像状態推定処理とは、所定時間thTMの計数処理とするものである。
処理例2を図12,図13で説明する。処理例2は、撮像視野変動の検出結果に基づいて安定撮像状態の推定を行う例である。ここでは特に、撮像装置10の動きを検出するセンサの出力を、撮像視野変動の検出に用いる例とする。
例えば図3のセンサ部14には、これらジャイロセンサや加速度センサが設けられており、制御部30は、これらのセンサ出力を検知できる。
制御部30はステップF300で、安定撮像状態推定処理を既に実行中であるか否かにより処理を分岐する。
安定撮像状態推定処理が開始される時点では、まだ実行中ではないため制御部30はステップF307で、安定時間の計測のためのカウンタCTst(以下、安定時間計測カウンタCTstという)をCTst=0にリセットする。また安定撮像状態と推定されたか否かを示す推定フラグFstを、Fst=0に初期化する。
先の処理例1の場合と同様、推定フラグFst=0の期間は、図2Aの処理としてステップF1000、つまり図12Aの処理が繰り返される。
制御部30はステップF301で、センサ部14からのセンサ入力を取得する。例えばジャイロセンサや加速度センサの検出値を取得する。
一方制御部30は、センサの検出値が所定レベル範囲内ではないと判定した場合は、ステップF304に進み、安定時間を計測するカウンタCTstをデクリメントする。
カウンタCTtの値が所定時間thTMを越えていなければ、そのまま処理を終える。つまり推定フラグFst=0のままとする。
このように推定フラグFst=1となると、図2AのステップF1001で制御部30は主要被写体判定開始とし、ステップF1002~F1004に進むこととなる。
図13Aは、制御部30がジャイロセンサの検出出力を用いる場合である。縦軸はジャイロセンサの検出値、横軸は時間を示す。点線で示す波形の各点が、各時点のステップF301で制御部30が入力した検出値であるとしている。
ステップF302で判断する所定レベル範囲とは、検出値のレベルL1~L2の範囲とする。
また推定フラグFstの値も示している。
そして時点t0で安定撮像状態推定処理が開始されたとする。
従って、検出値が所定レベル範囲内にあることは、手ぶれ等が少ない状況、つまり撮像者がある程度撮像装置10をしっかり構えている状況と推定できる。
この例では、時点t1までは、比較的揺れが多い状況を示している。例えばユーザが撮像装置10をまだしっかり構えていないような状況、例えば単に所持していたり、大まかに被写体を探しているなどが想定される。
このため例えば時点t1以降、撮像装置10に加わる揺れが少なくなると、或る時点で安定時間計測カウンタCTstの値が所定時間thTMの値を越える。例えば時点t2でCTst>thTMとなったとする。
これが上記ステップF305で判定されると、ステップF306で推定フラグFst=1とされる。図13Aのように、時点t2で推定フラグFst=1となる。
このように撮像装置10に与えられる揺れの検出として、撮像視野変動を検出する。撮像装置10に与えられる揺れが小さくなった時間がある程度続くことで、撮像視野変動が小さく、撮像視野が安定していると判定できる。この場合に安定撮像状態となったと推定する。
ステップF302で判断する所定レベル範囲とは、検出値のレベルL1~L2の範囲とする。また推定フラグFstの値も示している。そして時点t0で安定撮像状態推定処理が開始されたとする。
従って、検出値が所定レベル範囲内にあることがある程度継続することは、撮像者がある程度被写体方向を絞って、撮像装置10をしっかり構えている状況と推定できる。
この例では、時点t1までは、比較的動きが多い状況を示している。
図12Aの処理では、センサの検出値が所定レベル範囲内であれば安定時間計測カウンタCTstがインクリメントされ、所定レベル範囲外となればデクリメントされる。
このため例えば時点t1以降、撮像装置10の姿勢が継続的に安定すると、或る時点で安定時間計測カウンタCTstの値が所定時間thTMの値を越える。例えば時点t2でCTst>thTMとなったとする。
これが上記ステップF305で判定されると、ステップF306で推定フラグFst=1とされる。図13Bのように、時点t2で推定フラグFst=1となる。
このように撮像装置10の動きの検出として、撮像視野変動を検出する。撮像装置10の姿勢が定まった状態がある程度続くことで、撮像視野変動が殆どなく、撮像視野が安定していると判定できる。この場合に安定撮像状態となったと推定する。
例えばジャイロセンサの検出値を対象としての図12Aの処理と、加速度センサの検出値を対象としての図12Aの処理を並行的に実行し、いずれかにおいて推定フラグFst=1となったら、安定撮像状態が推定されたとしてもよい(OR条件)。
或いは、ステップF302の所定レベル範囲内の判断は、ジャイロセンサの検出値と、加速度センサの検出値の両方が、所定レベル範囲内となったか否かという判断としてもよい(AND条件)。
図12Aにおいて破線で示すように、ステップF302で所定レベル範囲内ではないと判定されたときには、安定時間計測カウンタCTstをデクリメントせずに、そのままステップF305に進んでもよい。つまりカウント値をキープする例である。
このようにすると、ある程度の揺れや動き等があっても、総じて揺れが少なかったり姿勢が安定している状態を、安定撮像状態と推定しやすくできる。手ぶれが多い不慣れなユーザなどを想定した場合、その方が主要被写体判定処理を発動しやすくできる。
即ちステップF302で所定レベル範囲内ではないと判定されたときには、安定時間計測カウンタCTstの値を0にクリアする例である。このようにすると、継続的に揺れや動きが無い状態が所定時間thTM続くことで、始めて安定撮像状態と推定されることになり、推定の確度を高めることができる。撮像になれたユーザにとっては、むやみに主要被写体判定処理が発動されず、この方が好ましいことも考えられる。
逆に図12AのステップF304のようにデクリメントすることは、瞬間的な揺れや姿勢変動があっても安定時間計測カウンタCTstはクリアされないので、比較的安定しているという状態を検出でき、一般的に広いユーザを対象と考えた場合、好適である。
処理例3を図14,図15で説明する。処理例3も、撮像視野変動の検出結果に基づいて安定撮像状態の推定を行う例である。ここでは特に、撮像視野変動を伴うカメラワークの検出結果を、安定撮像状態の推定に用いる例である。
ここでいう撮像視野変動を伴うカメラワークとは、パンニング、チルティング、ズーミングなどであり、さらにこれらの自動的な動作やユーザ操作に基づく動作を含む。
撮像視野の水平方向移動であるパンニングは、例えばジャイロセンサや、水平方向の加速度センサで検出できる。これらのセンサがセンサ部14に設けられていればよい。また撮像装置10を雲台等に乗せて、雲台のパンモータ動作でパンニングを行う場合は、そのパンニング機構への制御信号を用いてもよい。さらに雲台等のパンニング位置検出センサがあれば、その検出値も利用できる。制御部30はこれらの手法で、パンニングの実行/不実行、又はパンニングの移動量を検出できる。
また、デジタル信号処理部20、例えば動きベクトル検出部27や制御部30が画像データ解析を行い、パン方向の動きを検出することでも、パンニングの実行/不実行、又はパンニングの移動量を検出できる。
また、デジタル信号処理部20、例えば動きベクトル検出部27や制御部30が画像データ解析を行い、撮像画像のチルト方向の動きを検出することでも、チルティングの実行/不実行、又はチルティングの移動量を検出できる。
またズームレンズ位置センサをセンサ部14として設ければ、制御部30はその検出値からズームレンズの動き、つまりズーム動作を検知できる。
制御部30はこれらの手法で、ズーミングの実行/不実行、又はズーミング移動量を検出できる。
また、デジタル信号処理部20や制御部30が画像データ解析を行い被写体領域の変化や画角変化を検出することによりズーム動作を検知することも可能である。
制御部30はステップF400で、安定撮像状態推定処理を既に実行中であるか否かにより処理を分岐する。
安定撮像状態推定処理が開始される時点では、まだ実行中ではないため制御部30はステップF407で、安定時間計測カウンタCTstを0にリセットする。また安定撮像状態と推定されたか否かを示す推定フラグFstを、Fst=0に初期化する。
先の処理例1、2の場合と同様、推定フラグFst=0の期間は、図2Aの処理としてステップF1000、つまり図14Aの処理が繰り返される。
制御部30はステップF401で、センサ部14からのセンサ入力、例えばジャイロセンサの検出値や、自身が光学系駆動部13に発するズーム動作の指示値などを取得する。つまりパン・チルト・ズームの各動作状態を検出する。
一方制御部30は、センサの検出値が所定レベル範囲内ではなく、パン又はチルト動作が行われている判定した場合、またはズーム動作が行われていると判定した場合は、ステップF404に進み、安定時間を計測するカウンタCTstをデクリメントする。
カウンタCTtの値が所定時間thTMを越えていなければ、そのまま処理を終える。つまり推定フラグFst=0のままとする。
また制御部30は、ステップF405でCTst>thTMと判定した場合は、ステップF406に進み、安定撮像状態となったことが推定されたとして、推定フラグFst=1とする。
このように推定フラグFst=1となると、図2AのステップF1001で制御部30は主要被写体判定開始とし、ステップF1002~F1004に進むこととなる。
図15は、制御部30がジャイロセンサでパン・チルト動作を検知し、またズーム動作の指示値でズーム動作を検出する場合としている。縦軸はジャイロセンサの検出値、及びズーム指示値出力を示し、横軸は時間を示す。ジャイロセンサ出力については点線で示す波形の各点が、各時点のステップF401で制御部30が入力した検出値であるとしている。ステップF402で判断する所定レベル範囲とは、検出値のレベルL1~L2の範囲とする。
ズーム動作を実行させるために制御部30が光学系駆動部13に出力する指示値としては、T−ONは望遠側への動作指示値出力、W−ONは広角側への動作指示値出力としている。制御部30は、自身の指示値出力により、ズーム動作の有無を確認できる。
また推定フラグFstの値も示している。
そして時点t0で安定撮像状態推定処理が開始されたとする。
従って、検出値が所定レベル範囲内にあることは、パンニング又はチルティングが行われていない、もしくは微小なパンニング、チルティングしか行われていない状況と判断できる。
この例では、時点t1までは、パンニング又はチルティングが行われたか、或いはズーミングが行われたことが検知される。従ってこの時点t1までは、ユーザが撮像装置10を大まかに動かして被写体を探したり、画角を探っている状況が想定される。
例えば時点t1から、大きなパン・チルト・ズーム動作は実行されていない。
図14Aの処理では、このような状況において安定時間計測カウンタCTstがインクリメントされていくため、この状況が継続すると、或る時点で安定時間計測カウンタCTstの値が所定時間thTMの値を越える。例えば時点t2でCTst>thTMとなる。
これが上記ステップF405で判定されると、ステップF406で推定フラグFst=1とされる。図15Aのように、時点t2で推定フラグFst=1となる。
このようにパン・チルト・ズーム動作を実行させない期間がある程度続くこと、つまり撮像画像の撮像視野変動が少ない期間がある程度続くことで、撮像視野が安定していると判定できる。この場合に安定撮像状態となったと推定する。
図14Aにおいて破線で示すように、ステップF402の条件を満たさない場合には、安定時間計測カウンタCTstをデクリメントせずに、そのままカウント値をキープしてステップF405に進んでもよい。
またステップF404の処理を図14Bに示すステップF404Aに代えてもよい。即ちステップF402の条件を満たさない場合には、安定時間計測カウンタCTstの値を0にクリアする例である。
デクリメント、クリア、キープのいずれの例も、処理例2の説明中で述べたように、それぞれ好適な場合がある。
処理例4を図16,図17で説明する。処理例4も撮像視野変動の検出結果に基づいて安定撮像状態の推定を行う例である。ここでは特に、撮像装置10の露光動作、フォーカス動作の検出結果を、安定撮像状態の推定に用いる例である。
なお、ここでいう露光動作、フォーカス動作は、制御部30の制御によるオートアイリスやオートフォーカスの場合や、ユーザ操作に基づく露光調整動作、フォーカス動作を含む。
露光調整は、光学系11における絞り機構であるメカアイリスの調整、イメージャ12のシャッタスピード、イメージャ12で得られた撮像画像信号のゲイン調整で実行される。制御部30は、ユーザの操作に応じて、或いは撮像画像データから検出される輝度レベル等に応じて自動的に、これらの一部又は全部の調整を行うことで露光調整を実現する。従って制御部30は、光学系駆動部13やイメージャ12、もしくはデジタル信号処理部20に対する露光制御指示値により、自身で露光調整が行われているか否かを検知可能である。またその制御量も指示値により判定可能である。
またメカアイリスの開口量を検出するセンサを設ければ、制御部30は当該センサの検出値によってメカアイリスによる露光調整動作を検知することもできる。
さらに
また、デジタル信号処理部20や制御部30が画像データの輝度値の解析を行い、自動露光調整が行われる輝度検出値となった場合、或いは大きな輝度変化が検出された場合に、露光調整が行われたと検知することもできる。
またフォーカスレンズ位置センサをセンサ部14として設ければ、制御部30はその検出値を検知することでフォーカス調整動作の状況を検出することができる。
また、デジタル信号処理部20や制御部30が画像データの焦点解析、コントラスト解析等を行うことで、フォーカスレンズ移動が行われたことを検知することもできる。
制御部30はステップF500で、安定撮像状態推定処理を既に実行中であるか否かにより処理を分岐する。
安定撮像状態推定処理が開始される時点では、制御部30はステップF500→F507と処理を進め、安定時間計測カウンタCTstを0にリセットする。また安定撮像状態と推定されたか否かを示す推定フラグFstを、Fst=0に初期化する。
先の処理例1、2、3の場合と同様、推定フラグFst=0の期間は、図2Aの処理としてステップF1000、つまり図16Aの処理が繰り返される。
制御部30はステップF501で、センサ部14からのセンサ入力、例えばフォーカスレンズ位置センサの検出値や、自身が光学系駆動部13等に発するフォーカスレンズ移動指示値、露光調整のための指示値などを取得する。つまり露光調整動作やフォーカス調整動作の各動作状態を検出する。
一方制御部30は、センサの検出値が所定レベル範囲を越える量で、露光調整動作が行われているか、またはフォーカス調整動作が行われていると判定した場合は、ステップF504に進み、安定時間を計測するカウンタCTstをデクリメントする。
カウンタCTtの値が所定時間thTMを越えていなければ、そのまま処理を終える。つまり推定フラグFst=0のままとする。
また制御部30は、ステップF505でCTst>thTMと判定した場合は、ステップF506に進み、安定撮像状態となったことが推定されたとして、推定フラグFst=1とする。
このように推定フラグFst=1となると、図2AのステップF1001で制御部30は主要被写体判定開始とし、ステップF1002~F1004に進むこととなる。
図17は、制御部30がセンサ又は指示値により検知する、露光調整動作とフォーカス調整動作を示している。露光調整動作に関しては、実線でメカアイリスの位置を示し、点線で位置変動を示している。各点が、各時点のステップF501で制御部30が検知する位置変動の値であるとする。
またフォーカス調整動作に関しては、点線でフォーカスレンズ位置差分を示している。各点が、各時点のステップF501で制御部30が検知するレンズ位置変動量の値であるとする。
ステップF502で判断する所定レベル範囲とは、アイリス位置差分としての検出値のレベルL10~L11の範囲、及びフォーカスレンズ位置差分としての検出値のレベルL20~L21の範囲である。これらは、メカアイリスの開口状態、フォーカスレンズ位置のそれぞれが、変動がないか或いはあっても微小な量である範囲を示すものとなる。
また推定フラグFstの値も示している。
そして時点t0で安定撮像状態推定処理が開始されたとする。
フォーカスレンズ位置差分についても、フォーカス調整のためにフォーカスレンズを駆動している期間は大きくなるが、駆動していない期間はゼロである。但しフォーカスレンズは、オートフォーカス制御のために、常時わずかに前後に駆動することも行われ、そのような場合、図のように微小な位置変動が観測される。この例では、時点t1までは、露光調整動作が行われたり、フォーカス調整が行われたことが検知される。従って時点t1までは、ユーザが手動で露光調整、フォーカス調整を行ったり、自動制御により、露光状態、フォーカス状態が調整されている。このような場合は、ユーザが被写体に対してシャッタタイミングを待機するような状況ではないと想定される。
図16Aの処理では、このような状況において安定時間計測カウンタCTstがインクリメントされていくため、この状況が継続すると、或る時点で安定時間計測カウンタCTstの値が所定時間thTMの値を越える。例えば時点t2でCTst>thTMとなる。
これが上記ステップF505で判定されると、ステップF506で推定フラグFst=1とされる。図17のように、時点t2で推定フラグFst=1となる。
このように大きな露光調整やフォーカス調整が実行されない期間がある程度続くことで、撮像視野変動が殆どなく、撮像視野が安定していると判定できる。この場合に安定撮像状態となったと推定する。
また、露光調整動作の検出は、メカアイリス動作、シャッタスピード変更動作、撮像画像信号に対するゲイン調整動作の全部を対象としてもよいし、一部のみでもよい。
図16Aにおいて破線で示すように、ステップF502の条件を満たさない場合には、安定時間計測カウンタCTstをデクリメントせずに、そのままカウント値をキープしてステップF505に進んでもよい。
またステップF504の処理を図16Bに示すステップF504Aに代えてもよい。即ちステップF502の条件を満たさない場合には、安定時間計測カウンタCTstの値を0にクリアする例である。
デクリメント、クリア、キープのいずれの例も、処理例2の説明中で述べたように、それぞれ好適な場合がある。
処理例5を図18,図19,図20で説明する。処理例5も撮像視野変動の検出結果に基づいて安定撮像状態の推定を行う例であるが、ここでは特に、撮像画像の動きベクトルの解析を行い、その解析結果を安定撮像状態の推定に用いる例である。
図19Aは、動きベクトル検出部27が、時間軸上で順次得られる各フレームの撮像画像データを対象として、動きベクトルを検出することを示している。
動きベクトル検出部27は、図19Bのように、1フレームの画面を多数の領域に分割し、各領域に、フレームが遷移していく期間での被写体画像の動きをベクトルとして検出する処理を行う。
破線又は実線で示すように、各領域において検出されたベクトルをローカルベクトルとする。
但しローカルベクトルとしては安定撮像状態推定のために用いるベクトルとして信頼度の高いものと低いものがある。
例えば人、動物、移動体など、主要被写体判定の対象となる被写体が存在する領域は、比較的コントラストが高いため信頼度が高くなる。
一方、背景などとしての被写体が存在する領域は、比較的コントラストが低いため信頼度が低くなる。
図19Bでは、信頼度の高い領域のローカルベクトルを実線で示し、信頼度の低い領域のローカルベクトルを破線で示している。
動きベクトル検出部27は、順次入力されてくるフレーム画像データから、順次グローバルベクトルを算出し、それを順次制御部30に供給する動作を行うこととなる。
制御部30はステップF600で、安定撮像状態推定処理を既に実行中であるか否かにより処理を分岐する。
安定撮像状態推定処理が開始される時点では、制御部30はステップF600→F607と進み、安定時間計測カウンタCTstを0にリセットする。また安定撮像状態と推定されたか否かを示す推定フラグFstを、Fst=0に初期化する。
先の処理例1、2、3、4の場合と同様、推定フラグFst=0の期間は、図2Aの処理としてステップF1000、つまり図18Aの処理が繰り返される。
制御部30はステップF601で、動きベクトル検出部27からグローバルベクトルの値を取得する。なお、ここではベクトルとしているが、本処理例ではベクトルの動きの量を取得すればよい。
一方制御部30は、グローバルベクトルの動きの量が所定レベル範囲を越える量で、撮像画像に大きな動きがないと判定した場合は、ステップF604に進み、安定時間を計測するカウンタCTstをデクリメントする。
カウンタCTtの値が所定時間thTMを越えていなければ、そのまま処理を終える。つまり推定フラグFst=0のままとする。
また制御部30は、ステップF605でCTst>thTMと判定した場合は、ステップF606に進み、安定撮像状態となったことが推定されたとして、推定フラグFst=1とする。
このように推定フラグFst=1となると、図2AのステップF1001で制御部30は主要被写体判定開始とし、ステップF1002~F1004に進むこととなる。
図20は、グローバルベクトルのスカラー値の変位を点線で示している。各点が、各時点のステップF601で制御部30が検知するグローバルベクトルの動きの量であるとする。
ステップF602で判断する所定レベル範囲とは、動きの量のレベルL30~L31の範囲である。これは撮像画像上の被写体に大局的な動きがないか或いはあっても微小な量である範囲を示すものとなる。
また推定フラグFstの値も示している。
そして時点t0で安定撮像状態推定処理が開始されたとする。
一方、時点t1以降、動きの量が所定レベル範囲内に小さくなっている。これは、ユーザが撮像装置10をしっかり構えたり、画面大半の面積を占める被写体が撮像装置10に対して相対的に静止に近い状況が想定される。
図18Aの処理では、このような時点t1以後の状況において安定時間計測カウンタCTstがインクリメントされ、時点t2で安定時間計測カウンタCTstの値が所定時間thTMの値を越える。これが上記ステップF605で判定されると、ステップF606で推定フラグFst=1とされる。図20のように、時点t2で推定フラグFst=1となる。
このように撮像画像上の大局的な動きが小さい期間がある程度続くことで、撮像視野変動が殆どなく、撮像視野が安定していると判定できる。この場合に安定撮像状態となったと推定する。
また各領域のローカルベクトルをも分析することで、多様な被写体と撮像装置10の相対的な動き状況も推定できるため、ローカルベクトルを用いることも考えられる。
図18Aにおいて破線で示すように、ステップF602の条件を満たさない場合には、安定時間計測カウンタCTstをデクリメントせずに、そのままカウント値をキープしてステップF605に進んでもよい。
またステップF604の処理を図18Bに示すステップF604Aに代えてもよい。即ちステップF602の条件を満たさない場合には、安定時間計測カウンタCTstの値を0にクリアする。
デクリメント、クリア、キープのいずれの例も、処理例2の説明中で述べたように、それぞれ好適な場合がある。
以上の処理例1~処理例5では、安定撮像状態の推定に所定時間thTMを用いた。この所定時間thTMは、各処理例において、それぞれ固定的に設定されてもよいが、以下に述べるように変化させてもよい。即ち安定撮像状態推定処理において安定撮像状態であるとの推定に用いる時間に関する条件を、安定撮像状態推定処理の実行タイミングに応じて変化させる。
安定撮像状態推定処理は、図9、図10で説明した機会に実行されるが、例えば電源オン後の所定期間内に安定撮像状態推定処理が実行される場合は、所定時間thTMとして比較的長い時間thTM1を用いる。 また再生モードMD2からカメラモードMD1に移行してからの所定期間内に安定撮像状態推定処理が実行される場合も、所定時間thTMとして比較的長い時間thTM1を用いる。
これらの場合は、ユーザが電源操作やモード操作を行った直後であり、即座にカメラをしっかり構えて被写体を狙うような状況に成ることは少ない。そこで、安定撮像状態と推定するための所定時間thTMを長めにすることが、推定の確度を上げるという意味で適切である。
ユーザの撮像動作の準備がある程度整っていると考えられるためである。
但し、一旦主要被写体判定が行われた後、再度安定撮像状態推定処理が行われる機会では、所定時間thTMとして最も短い時間thTM3を用いる。例えば図9、図10で説明したように主要被写体情報利用が不能とされた後には、比較的迅速に新たに主要被写体判定処理が行われることが求められるためである。
さらに、ある程度の期間、主要被写体判定がされない期間が続いた状況では、所定時間thTMとして標準的な時間thTM2を用いる。
また電源オンからTa期間内でなければ、制御部30はステップF4001でカメラモードMD1へ移行したからTb期間内であるか否かを判断する。Tb期間内であれば、ステップF4006で所定時間thTMとして最も長い時間thTM1を設定する。
一方ステップF4003の判断に該当しなければ、ステップF4005で所定時間thTMとして最短の時間thTM3を設定する。
これによって図21で例示したように、安定撮像状態推定処理の実行機会に応じて、適切な推定処理用の所定時間thTMが用いられ、適切な動作が実現される。
上述の処理例1~処理例5は、図2Aの処理におけるステップF1000の具体例として説明した。
図2Aの例は即ち、主要被写体判定部30aが、安定撮像状態推定処理によって安定撮像状態であると推定された場合に主要被写体判定処理を実行し、その結果を出力する例である。
ここで、図3の撮像装置10又は図1の画像処理装置1において実行される安定撮像状態推定処理と主要被写体判定処理については、図2Aに示した例だけでなく、図23に示すような例も考えられる。
即ちカメラモードMD1とされた期間、主要被写体判定部30aはステップF2000で候補画像検出を開始し、ステップF2001で主要被写体判定処理を実行する。このステップF2001の詳細な処理は、図2BのステップF1~F3と同様である。
ステップF2001で主要被写体判定が行われると、その時点では、判定結果としての主要被写体情報のアプリケーション等への受け渡しは行わず、ステップF2002で内部メモリに保持する。そしてその後再びステップF2000、F2001、F2002が行われる。
まず制御部30はステップF3000で安定撮像状態推定処理を行う。例えば上記処理例1~処理例5のように安定撮像状態推定処理が実行される。
或る時点で安定撮像状態と推定されたら、制御部30はステップF3001からF3002に進み、主要被写体情報を得る。これは、図23Aのように随時実行されている主要被写体判定処理として、その時点で記憶されている最新の主要被写体情報を内部メモリから読み出すものとなる。
そして制御部30はステップF3003で、当該取得した主要被写体情報をアプリケーション等に受け渡す。
このような処理によっても、適切なタイミングで、アプリケーション等に主要被写体情報を出力することができる。
以上、画像処理装置1、撮像装置10の実施の形態を説明してきたが、上述した主要被写体判定処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。
即ちこのプログラムは、安定撮像状態であるか否かを推定する安定撮像状態推定処理を行う安定撮像状態推定ステップと、主要被写体判定処理を行う主要被写体判定ステップと、安定撮像状態推定処理により安定撮像状態であると推定される場合に、主要被写体判定処理の結果を出力する出力ステップとを演算処理装置に実行させるプログラムである。
このようなプログラムにより、上述した安定撮像状態推定処理及び主要被写体判定処理を実行する装置を、演算処理装置を用いて実現できる。
あるいはまた、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、MO(Magnet Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に記録しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
例えば、図24に示されるようなコンピュータ装置において、図1の画像処理装置1や撮像装置10における安定撮像状態推定処理及び主要被写体判定処理と同様の処理が実行されるようにすることもできる。
CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インターフェース75も接続されている。
上述の実施の形態は、各種の変形例が考えられる。
安定撮像状態推定処理においては、上述の処理例1~処理例5のうちの複数の処理例を組み合わせてもよい。
例えば処理例1~処理例5のうちでいくつかを組み合わせ、その各処理例での安定撮像状態の推定結果のOR条件又はAND条件で、安定撮像状態と推定することができる。
また処理例1~処理例5を組み合わせる場合、各処理例で安定撮像状態の推定のための重みを代えたり、判定の優先順位を設定してもよい。例えば処理例2と処理例3を組み合わせる場合に、各処理例でのカウンタCTstのインクリメントの値を異なる値としたり、所定時間thTMを異なる値とするなどである。
例えば主要被写体情報は、画像効果処理や画像編集処理にも利用できると述べたが、そのためには再生画像を対象として主要被写体判定処理を行うこともあるため、再生画像において撮像時の安定撮像状態推定を行ってから、主要被写体判定処理を実行することも有用となる。
例えば再生画像の変化が少ない状況を、撮像時の安定撮像状態であったと推定し、その際に主要被写体判定処理を行って、画像編集、画像効果処理を行い、再生表示、編集データの作成等を行ってもよい。
またこのような再生画像を対象とする安定撮像状態推定処理及び主要被写体判定処理は、図1の画像処理装置、図24の情報処理装置などにおいても当然に想定される。
(1)安定撮像状態であるか否かを推定する安定撮像状態推定処理を行う安定撮像状態推定部と、
主要被写体判定処理を行うとともに、安定撮像状態推定処理により安定撮像状態であると推定される場合に、主要被写体判定処理の結果を出力する主要被写体判定部と、を備えた画像処理装置。
(2)安定撮像状態推定部は、安定撮像状態推定処理において、撮像視野変動の検出結果に基づいて、安定撮像状態の推定を行う上記(1)に記載の画像処理装置。
(3)安定撮像状態推定部は、撮像画像を生成する撮像装置の動きを検出するセンサの出力を、撮像視野変動の検出に用いる上記(2)に記載の画像処理装置。
(4)安定撮像状態推定部は、撮像画像を生成する撮像装置の撮像光学系の動きを検出するセンサの出力を、撮像視野変動の検出に用いる上記(2)又は(3)に記載の画像処理装置。
(5)安定撮像状態推定部は、撮像画像を生成する撮像装置の動作制御のための指示値を、撮像視野変動の検出に用いる上記(2)乃至(4)のいずれかに記載の画像処理装置。
(6)安定撮像状態推定部は、撮像画像データに関する解析処理結果を、撮像視野変動の検出に用いる上記(2)乃至(5)のいずれかに記載の画像処理装置。
(7)安定撮像状態推定部は、撮像画像データに関する解析処理として、撮像画像の動き検出を行う上記(6)に記載の画像処理装置。
(8)安定撮像状態推定部は、安定撮像状態推定処理において、主要被写体判定処理が有効機能する所定のモード状態に移行した時点から所定時間を経過したことを一条件として、安定撮像状態と推定する上記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)安定撮像状態推定部は、安定撮像状態推定処理において安定撮像状態であるとの推定に用いる時間に関する条件を、安定撮像状態推定処理の実行タイミングに応じて変化させる上記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)安定撮像状態推定部は、主要被写体判定処理が有効機能する所定のモード状態となることに応じて、安定撮像状態推定処理を行う上記(1)乃至(9)のいずれかに記載の画像処理装置。
(11)安定撮像状態推定部は、主要被写体判定処理の結果の使用が不能又は不要とされた後において、安定撮像状態推定処理を行う上記(1)乃至(10)のいずれかに記載の画像処理装置。
(12)主要被写体判定部は、安定撮像状態推定処理によって安定撮像状態であると推定された場合に主要被写体判定処理を実行し、該主要被写体判定処理の結果である主要被写体情報を出力する上記(1)乃至(11)のいずれかに記載の画像処理装置。
(13)主要被写体判定部は、逐次主要被写体判定処理を実行し、
安定撮像状態推定処理によって安定撮像状態であると推定された場合に、最新の主要被写体判定処理の結果である主要被写体情報を出力する上記(1)乃至(11)のいずれかに記載の画像処理装置。
Claims (15)
- 安定撮像状態であるか否かを推定する安定撮像状態推定処理を行う安定撮像状態推定部と、
主要被写体判定処理を行うとともに、上記安定撮像状態推定処理により安定撮像状態であると推定される場合に、上記主要被写体判定処理の結果を出力する主要被写体判定部と、
を備えた画像処理装置。 - 上記安定撮像状態推定部は、上記安定撮像状態推定処理において、撮像視野変動の検出結果に基づいて、安定撮像状態の推定を行う請求項1に記載の画像処理装置。
- 上記安定撮像状態推定部は、撮像画像を生成する撮像装置の動きを検出するセンサの出力を、上記撮像視野変動の検出に用いる請求項2に記載の画像処理装置。
- 上記安定撮像状態推定部は、撮像画像を生成する撮像装置の撮像光学系の動きを検出するセンサの出力を、上記撮像視野変動の検出に用いる請求項2に記載の画像処理装置。
- 上記安定撮像状態推定部は、撮像画像を生成する撮像装置の動作制御のための指示値を、上記撮像視野変動の検出に用いる請求項2に記載の画像処理装置。
- 上記安定撮像状態推定部は、撮像画像データに関する解析処理結果を、上記撮像視野変動の検出に用いる請求項2に記載の画像処理装置。
- 上記安定撮像状態推定部は、撮像画像データに関する解析処理として、撮像画像の動き検出を行う請求項6に記載の画像処理装置。
- 上記安定撮像状態推定部は、上記安定撮像状態推定処理において、上記主要被写体判定処理が有効機能する所定のモード状態に移行した時点から所定時間を経過したことを一条件として、安定撮像状態と推定する請求項1に記載の画像処理装置。
- 上記安定撮像状態推定部は、上記安定撮像状態推定処理において安定撮像状態であるとの推定に用いる時間に関する条件を、上記安定撮像状態推定処理の実行タイミングに応じて変化させる請求項1に記載の画像処理装置。
- 上記安定撮像状態推定部は、上記主要被写体判定処理が有効機能する所定のモード状態となることに応じて、上記安定撮像状態推定処理を行う請求項1に記載の画像処理装置。
- 上記安定撮像状態推定部は、上記主要被写体判定処理の結果の使用が不能又は不要とされた後において、上記安定撮像状態推定処理を行う請求項1に記載の画像処理装置。
- 上記主要被写体判定部は、上記安定撮像状態推定処理によって安定撮像状態であると推定された場合に上記主要被写体判定処理を実行し、該主要被写体判定処理の結果である主要被写体情報を出力する請求項1に記載の画像処理装置。
- 上記主要被写体判定部は、逐次上記主要被写体判定処理を実行し、
上記安定撮像状態推定処理によって安定撮像状態であると推定された場合に、最新の主要被写体判定処理の結果である主要被写体情報を出力する請求項1に記載の画像処理装置。 - 安定撮像状態であるか否かを推定する安定撮像状態推定処理を行う安定撮像状態推定ステップと、
主要被写体判定処理を行う主要被写体判定ステップと、
上記安定撮像状態推定処理により安定撮像状態であると推定される場合に、上記主要被写体判定処理の結果を出力する出力ステップと、を備えた画像処理方法。 - 安定撮像状態であるか否かを推定する安定撮像状態推定処理を行う安定撮像状態推定ステップと、
主要被写体判定処理を行う主要被写体判定ステップと、
上記安定撮像状態推定処理により安定撮像状態であると推定される場合に、上記主要被写体判定処理の結果を出力する出力ステップと、を演算処理装置に実行させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201380012098.6A CN104145475B (zh) | 2012-03-09 | 2013-02-22 | 图像处理设备和图像处理方法 |
EP13758120.3A EP2824909B1 (en) | 2012-03-09 | 2013-02-22 | Image processing device, method and program |
US14/381,272 US10455154B2 (en) | 2012-03-09 | 2013-02-22 | Image processing device, image processing method, and program including stable image estimation and main subject determination |
KR1020147023812A KR102008040B1 (ko) | 2012-03-09 | 2013-02-22 | 화상 처리 장치, 화상 처리 방법, 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-052453 | 2012-03-09 | ||
JP2012052453A JP2015097301A (ja) | 2012-03-09 | 2012-03-09 | 画像処理装置、画像処理方法、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013133142A1 true WO2013133142A1 (ja) | 2013-09-12 |
Family
ID=49116623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2013/055609 WO2013133142A1 (ja) | 2012-03-09 | 2013-02-22 | 画像処理装置、画像処理方法、プログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US10455154B2 (ja) |
EP (1) | EP2824909B1 (ja) |
JP (1) | JP2015097301A (ja) |
KR (1) | KR102008040B1 (ja) |
CN (1) | CN104145475B (ja) |
TW (1) | TW201351980A (ja) |
WO (1) | WO2013133142A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016219899A (ja) * | 2015-05-15 | 2016-12-22 | カシオ計算機株式会社 | 撮像装置、撮像方法、及びプログラム |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9648205B2 (en) * | 2013-03-26 | 2017-05-09 | Panasonic Intellectual Property Management Co., Ltd. | Image generation device, imaging device, image generation method, and program for generating a new image from a captured image based on a cut-out frame |
US9762811B2 (en) * | 2013-03-26 | 2017-09-12 | Panasonic Intellectual Property Management Co., Ltd. | Image generation device, imaging device, image generation method, and program for generating a new image from a captured image |
JP6137921B2 (ja) * | 2013-04-16 | 2017-05-31 | オリンパス株式会社 | 画像処理装置、画像処理方法及びプログラム |
US10192582B2 (en) * | 2015-05-21 | 2019-01-29 | Adobe Inc. | Automatic generation of time-lapse videos |
JP6576177B2 (ja) * | 2015-09-09 | 2019-09-18 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
WO2018101077A1 (ja) * | 2016-12-02 | 2018-06-07 | ソニーセミコンダクタソリューションズ株式会社 | 撮像素子および撮像方法、並びに電子機器 |
US11336831B2 (en) | 2018-07-06 | 2022-05-17 | Canon Kabushiki Kaisha | Image processing device, control method, and program storage medium |
CN113034069A (zh) * | 2019-12-25 | 2021-06-25 | 菜鸟智能物流控股有限公司 | 一种物流对象的处理方法及物流管理设备 |
US20230128043A1 (en) * | 2020-01-24 | 2023-04-27 | Sony Group Corporation | Information processing device, information processing method, and information processing program |
JP2022133723A (ja) * | 2021-03-02 | 2022-09-14 | 株式会社アイシン | 身体情報取得装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002064728A (ja) * | 2000-08-23 | 2002-02-28 | Fuji Photo Film Co Ltd | ディジタル・スチル・カメラおよび露出量表示制御方法 |
JP2008028758A (ja) * | 2006-07-21 | 2008-02-07 | Canon Inc | 撮像装置、その制御方法およびコンピュータプログラム |
JP2010191073A (ja) * | 2009-02-17 | 2010-09-02 | Canon Inc | 焦点調節装置及び焦点調節方法 |
JP2011146827A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011146826A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011160379A (ja) | 2010-02-04 | 2011-08-18 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011166305A (ja) | 2010-02-05 | 2011-08-25 | Sony Corp | 画像処理装置および撮像装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4262023B2 (ja) * | 2003-07-16 | 2009-05-13 | 日本放送協会 | 映像揺れ検出装置、その方法及びそのプログラム、並びに、カメラ映像選択装置 |
JP4444936B2 (ja) | 2006-09-19 | 2010-03-31 | 富士フイルム株式会社 | 撮影装置および方法並びにプログラム |
JP2008109336A (ja) | 2006-10-25 | 2008-05-08 | Matsushita Electric Ind Co Ltd | 画像処理装置および撮像装置 |
JP4898475B2 (ja) | 2007-02-05 | 2012-03-14 | 富士フイルム株式会社 | 撮影制御装置、撮影装置、及び撮影制御方法 |
KR101444103B1 (ko) * | 2008-03-14 | 2014-09-26 | 삼성전자주식회사 | 상태 정보를 이용하여 미디어 신호를 생성하는 방법 및장치 |
JP2009290827A (ja) * | 2008-06-02 | 2009-12-10 | Sony Corp | 画像処理装置および画像処理方法 |
EP2148499B1 (en) | 2008-07-25 | 2018-01-17 | FUJIFILM Corporation | Imaging apparatus and method |
JP5159515B2 (ja) * | 2008-08-26 | 2013-03-06 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP5517435B2 (ja) * | 2008-10-22 | 2014-06-11 | キヤノン株式会社 | 自動合焦装置および自動合焦方法、ならびに、撮像装置 |
JP5339954B2 (ja) * | 2009-02-17 | 2013-11-13 | キヤノン株式会社 | 焦点調節装置及び焦点調節方法 |
-
2012
- 2012-03-09 JP JP2012052453A patent/JP2015097301A/ja active Pending
-
2013
- 2013-02-21 TW TW102106035A patent/TW201351980A/zh unknown
- 2013-02-22 WO PCT/JP2013/055609 patent/WO2013133142A1/ja active Application Filing
- 2013-02-22 US US14/381,272 patent/US10455154B2/en active Active
- 2013-02-22 KR KR1020147023812A patent/KR102008040B1/ko active IP Right Grant
- 2013-02-22 CN CN201380012098.6A patent/CN104145475B/zh active Active
- 2013-02-22 EP EP13758120.3A patent/EP2824909B1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002064728A (ja) * | 2000-08-23 | 2002-02-28 | Fuji Photo Film Co Ltd | ディジタル・スチル・カメラおよび露出量表示制御方法 |
JP2008028758A (ja) * | 2006-07-21 | 2008-02-07 | Canon Inc | 撮像装置、その制御方法およびコンピュータプログラム |
JP2010191073A (ja) * | 2009-02-17 | 2010-09-02 | Canon Inc | 焦点調節装置及び焦点調節方法 |
JP2011146827A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011146826A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011160379A (ja) | 2010-02-04 | 2011-08-18 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011166305A (ja) | 2010-02-05 | 2011-08-25 | Sony Corp | 画像処理装置および撮像装置 |
Non-Patent Citations (1)
Title |
---|
See also references of EP2824909A4 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016219899A (ja) * | 2015-05-15 | 2016-12-22 | カシオ計算機株式会社 | 撮像装置、撮像方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
TW201351980A (zh) | 2013-12-16 |
KR102008040B1 (ko) | 2019-08-06 |
US20150116517A1 (en) | 2015-04-30 |
KR20140138135A (ko) | 2014-12-03 |
JP2015097301A (ja) | 2015-05-21 |
CN104145475B (zh) | 2018-02-02 |
EP2824909B1 (en) | 2018-12-19 |
EP2824909A4 (en) | 2015-07-29 |
US10455154B2 (en) | 2019-10-22 |
CN104145475A (zh) | 2014-11-12 |
EP2824909A1 (en) | 2015-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013133142A1 (ja) | 画像処理装置、画像処理方法、プログラム | |
WO2013153919A1 (ja) | 画像処理装置、画像処理方法、プログラム | |
US11012614B2 (en) | Image processing device, image processing method, and program | |
JP5987306B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP6131948B2 (ja) | 表示制御装置、表示制御方法、プログラム | |
JP6337779B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP5783696B2 (ja) | 撮像装置、オートズーム方法、及び、プログラム | |
JP6274272B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP2008236015A (ja) | 画像処理装置、撮像装置及びそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13758120 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2013758120 Country of ref document: EP |
|
ENP | Entry into the national phase |
Ref document number: 20147023812 Country of ref document: KR Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14381272 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: JP |