WO2015107927A1 - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2015107927A1
WO2015107927A1 PCT/JP2015/050093 JP2015050093W WO2015107927A1 WO 2015107927 A1 WO2015107927 A1 WO 2015107927A1 JP 2015050093 W JP2015050093 W JP 2015050093W WO 2015107927 A1 WO2015107927 A1 WO 2015107927A1
Authority
WO
WIPO (PCT)
Prior art keywords
warning
focus
image
processing unit
captured image
Prior art date
Application number
PCT/JP2015/050093
Other languages
English (en)
French (fr)
Inventor
雅也 木下
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/109,859 priority Critical patent/US10237466B2/en
Priority to CN201580004045.9A priority patent/CN105934940B/zh
Publication of WO2015107927A1 publication Critical patent/WO2015107927A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Definitions

  • the present technology relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program that make it possible to know the focus of an image after shooting more easily.
  • the number of pixels of a display device that is generally mounted is not sufficient.
  • a prediction warning is performed based on the situation at the time of shooting, and a warning is not issued for an actually shot and recorded image. Therefore, even if the user does not display a warning and shoots with peace of mind, there are often cases where the actually captured and recorded images are not sufficiently focused.
  • This technology has been made in view of such a situation, and makes it easier to know the focus of an image after shooting.
  • An image processing apparatus is based on a focus area determination processing unit that calculates a focus score indicating a focus degree of each area of the captured image based on the captured image, and based on the focus score.
  • a warning determination processing unit that determines a focus state in a predetermined area on the photographed image, and a warning unit that issues a warning based on the determination result of the focus state.
  • the warning determination processing unit can determine the focus state by comparing the average of the focus score of each area in the predetermined area with a threshold value.
  • the predetermined area may be a focus area that is a focus target when the captured image is captured.
  • the in-focus area determination processing unit can calculate the in-focus score only for the predetermined area on the captured image.
  • the predetermined area may be an area of the captured image designated by the user.
  • the predetermined area can be a face area detected from the photographed image.
  • the warning unit can be made to emit the warning by displaying a warning superimposed on the captured image.
  • the warning unit can emit the warning by emitting light.
  • the warning unit can change the warning according to the average of the focus scores.
  • An image processing method or program calculates a focus score indicating a degree of focus of each region of the captured image based on the captured image, and calculates the focus score on the captured image based on the focus score. Determining a focus condition in the predetermined area, and issuing a warning based on the determination result of the focus condition.
  • a focus score indicating a degree of focus of each area of the captured image is calculated based on the captured image, and a focus in a predetermined area on the captured image is calculated based on the focus score.
  • the condition is determined, and a warning is issued based on the determination result of the focus condition.
  • FIG. 1 It is a figure which shows the structural example of the external appearance of an imaging device. It is a figure which shows the structural example of the function of an imaging device. It is a figure explaining imaging processing. It is a figure explaining warning processing. It is a figure which shows the other example of a warning display. It is a flowchart explaining an imaging
  • This technology enables a user who is a photographer to easily and intuitively know the focus of an image such as camera shake or optical defocus after shooting a subject even on a small display screen. It is.
  • the user can easily and intuitively know the focus of the image even in a scene where the user is not aware that the focus is insufficient. In this case, it is possible to reduce the loss of photographing opportunities due to not knowing the photographing failure.
  • a focus state warning is issued with respect to a result after shooting, not a prediction of the focus state from a situation before shooting, so that the user can perform re-shooting immediately as necessary. .
  • This technology can be applied to all devices that can take images, such as digital still cameras, digital video cameras, multifunctional mobile phones with camera functions, and wearable cameras.
  • digital still cameras digital still cameras
  • digital video cameras digital video cameras
  • multifunctional mobile phones with camera functions multifunctional mobile phones with camera functions
  • wearable cameras wearable cameras
  • FIG. 1 is a diagram illustrating a configuration example of an external appearance of an imaging apparatus to which the present technology is applied.
  • the image pickup apparatus 11 is a digital still camera.
  • a diagram indicated by an arrow A ⁇ b> 11 is a view of the image pickup apparatus 11 viewed from the front side
  • a view indicated by the arrow A ⁇ b> 12 is a view of the image pickup apparatus 11 viewed from the back side. .
  • An optical system 21 that guides light incident from a subject to an imager (not shown) is provided on the surface of the imaging device 11, and a user takes a picture with the optical system 21 directed to a desired subject.
  • a shutter button 22 and a dial 23 are provided on the upper surface of the imaging device 11, and a playback button 24 and a dial 25 are provided on the back surface of the imaging device 11.
  • the user performs operations such as shooting and reproduction while operating the shutter buttons 22 to 25 and the like.
  • a display unit 26 made of a liquid crystal panel or the like is also provided on the back surface of the imaging device 11, and the user looks at the image displayed on the display unit 26, and the captured image and the focus state of the image. Etc. can be confirmed.
  • the functional configuration of the imaging apparatus 11 illustrated in FIG. 1 is, for example, the configuration illustrated in FIG. In FIG. 2, the same reference numerals are given to the portions corresponding to those in FIG. 1, and the description thereof will be omitted as appropriate.
  • 2 includes an optical system 21, an imager 51, a digital signal processing LSI (Large Scale Integration) 52, a user interface 53, a control unit 54, a lens driver IC (Integrated Circuit) 55, a camera shake sensor 56, and a recording. Part 57, display part 26, vibration part 58, speaker 59, and light emitting element 60.
  • LSI Large Scale Integration
  • the optical system 21 includes a plurality of lenses such as a zoom lens and a focus lens, a diaphragm mechanism, and the like, and condenses light incident from a subject on a light receiving surface of the imager 51.
  • the imager 51 includes an image sensor such as a CCD (Charge Coupled Devices) or a CMOS (Complementary Metal Oxide Semiconductor).
  • the imager 51 receives and photoelectrically converts the light incident from the optical system 21, and supplies the captured image obtained as a result, more specifically image data of the captured image, to the digital signal processing LSI 52.
  • the digital signal processing LSI 52 performs various types of signal processing on the captured image supplied from the imager 51.
  • the digital signal processing LSI 52 includes a pre-processing unit 71, a synchronization unit 72, a YC generation unit 73, a resolution conversion unit 74, a CODEC 75, an AF (Autofocus) detection processing unit 76, a focus area determination processing unit 77, and a face detection processing unit 78.
  • the pre-processing unit 71 performs clamp processing, defective pixel correction processing, and the like on the captured image.
  • the synchronization unit 72 performs a demosaic process on the captured image so that each pixel of the captured image subjected to the defective pixel correction process has R, G, and B color components.
  • the YC generation unit 73 generates a luminance signal and a color signal from the demodulated captured image.
  • the resolution conversion unit 74 performs resolution conversion on the captured image.
  • the CODEC 75 performs encoding processing on the resolution-converted captured image and decodes the encoded captured image.
  • AF detection processing unit 76 calculates an evaluation value indicating the state of autofocus using a captured image or the like as necessary when performing an autofocus operation.
  • the in-focus area determination processing unit 77 performs an in-focus area determination process based on the demosaiced captured image, and calculates an in-focus score indicating the degree of in-focus in each area of the captured image.
  • the face detection processing unit 78 detects a human face from the captured image.
  • the memory 79 temporarily records a captured image (hereinafter also referred to as a developed captured image) that has been appropriately processed by a part or all of the pre-processing unit 71 to the resolution conversion unit 74.
  • the display processing unit 80 converts the captured image into a format that can be displayed on the display unit 26 and supplies the converted image to the display unit 26.
  • the vibration drive processing unit 81 drives the vibration unit 58 to vibrate.
  • the speaker drive processing unit 82 supplies an audio signal to the speaker 59 to reproduce the audio.
  • the light emitting element drive processing unit 83 drives the light emitting element 60 to emit light.
  • the user interface 53 includes, for example, the shutter button 22 to the dial 25 illustrated in FIG. 1, a touch panel superimposed on the display unit 26, and the like, and supplies a signal corresponding to a user operation to the control unit 54.
  • the control unit 54 controls the overall operation of the imaging apparatus 11. For example, the control unit 54 controls shooting of a shot image by the imager 51. Further, the control unit 54 controls the lens driving driver IC 55 based on the output of the camera shake sensor 56, moves the lens of the optical system 21 to perform optical camera shake correction, and controls the lens driving driver IC 55. Then, the aperture mechanism of the optical system 21 is driven.
  • control unit 54 includes a focus lens control processing unit 84 and a warning control processing unit 85.
  • the focus lens control processing unit 84 controls the lens driving driver IC 55 based on the evaluation value supplied from the AF detection processing unit 76, and executes the focus operation.
  • the warning control processing unit 85 instructs each unit of the digital signal processing LSI 52 to execute processing related to a warning about the focus state of a captured image.
  • the lens driving driver IC 55 performs a focusing operation by moving a focus lens or the like constituting the optical system 21 under the control of the control unit 54, or performs driving of an aperture mechanism and optical camera shake correction.
  • the camera shake sensor 56 is composed of, for example, a gyro sensor, detects the movement of the imaging device 11, and supplies it to the controller 54.
  • the recording unit 57 is made of, for example, a removable medium that can be attached to and detached from the imaging device 11, records data such as a photographed image supplied from the digital signal processing LSI 52, and supplies the recorded data to the digital signal processing LSI 52. To do.
  • the vibration unit 58 vibrates the imaging device 11 by vibrating in a predetermined pattern according to the control of the vibration drive processing unit 81.
  • the speaker 59 reproduces sound based on the sound signal supplied from the speaker drive processing unit 82.
  • the light emitting element 60 includes, for example, a light emitting diode (LED) and emits light in a predetermined pattern according to the control of the light emitting element drive processing unit 83.
  • the one closer to the front in the figure is a photographed image photographed at a later time, that is, a time closer to the current time. Therefore, in this example, the first photographed image is the photographed image F11, and the last photographed image is the photographed image F16.
  • the AF detection processing unit 76 calculates an evaluation value indicating an autofocus state based on the captured image of each frame, and supplies it to the control unit 54.
  • the focus lens control processing unit 84 of the control unit 54 controls the lens driving driver IC 55 based on the evaluation value supplied from the AF detection processing unit 76 to execute the focus operation.
  • the focus lens of the optical system 21 is driven by the lens driving driver IC 55, and the subject is brought into focus.
  • the captured images F11 to F16 of each frame are obtained, development processing is sequentially performed on these captured images, and the captured images R11 to R16 obtained as a result are the through images at the time of capturing. Are displayed on the display unit 26 in order.
  • the user confirms the subject while viewing the through image displayed on the display unit 26, and operates the shutter button 22 and the like to take a picture.
  • the user presses the shutter button 22 halfway when capturing the captured image F13 (when capturing). Therefore, the frame FR11 of the autofocus target is displayed in the captured image R13, which is a through image corresponding to the captured image F13, and the captured image R14 and the captured image R15 of the subsequent frames.
  • This frame FR11 is an image of a frame indicating an area to which the focus lens control processing unit 84 is to focus, and the size of the frame FR11 in each frame also changes according to the size of the subject on the captured image.
  • the user determines that the subject in the frame FR11 is in focus (focused)
  • the user fully presses the shutter button 22, that is, presses the shutter button 22 deeper than the half-pressed state, thereby Instruct to shoot.
  • the captured image R16 obtained by developing the captured image F16 is an image obtained by capturing. As captured.
  • the photographed image R16 photographed in this way is held in the memory 79 as shown on the right side in the figure, and then recorded in the recording unit 57 and displayed on the display unit 26 as a preview image after photographing.
  • the preview image is an image that is displayed immediately after shooting to confirm the image shot by the user.
  • the focus operation is performed by the contrast method
  • information indicating the AF target area that is, the area of the autofocus target frame FR11, which is determined by the focus lens control processing unit 84, is used as the AF area information.
  • the information indicating the AF point selected as the position to be focused at the time of shooting of the shot image F16 among the plurality of predetermined AF points is AF. It is considered as area information.
  • EXIF Exchangeable Image File Format
  • the EXIF data is data added as metadata of the captured image R16.
  • AF area information is recorded in a free area of the EXIF data.
  • the captured image R16, the AF area information, and the EXIF data are stored in the memory 79 as described above, the EXIF data is added to the captured image R16 at an appropriate timing, and the captured image to which the EXIF data is added.
  • the image R16 is recorded in the recording unit 57.
  • the captured image R16 is displayed on the display unit 26 as a preview image after capturing.
  • the warning process is performed when instructed by the user, or may be automatically started by a menu setting or the like. In such a case, for example, the warning process may be automatically started after a predetermined time has elapsed after the preview image is displayed.
  • the captured image R16 to be processed is read from the recording unit 57 as necessary and supplied to the memory 79.
  • the shot image R16 is already stored in the memory 79, and therefore it is not necessary to load the shot image R16.
  • the memory 79 also holds AF area information and EXIF data.
  • the warning control processing unit 85 of the control unit 54 instructs the focusing region determination processing unit 77 to execute the focusing region determination processing.
  • the focus area determination processing unit 77 reads the captured image R16 from the memory 79, and performs a focus area determination process on the captured image R16.
  • the captured image R16 is divided into M parts in the horizontal direction and N parts in the vertical direction. That is, the entire captured image R16 is divided into M ⁇ N regions. Then, for each of the M ⁇ N areas, a focus score indicating the degree of focus is calculated, and the focus score of each area is supplied to the warning control processing unit 85 as a result of the focus area determination process.
  • the warning control processing unit 85 determines whether the focus state in the captured image R16 is sufficient based on the AF area information or EXIF data held in the memory 79. The determination target area is determined.
  • the entire area of the auto-focus target frame FR11 indicated by the AF area information is the determination target area.
  • the determination target area may have any size and shape as long as it includes an area indicated by the AF area information.
  • the warning control processing unit 85 calculates an average score indicating the focus degree of the determination target area based on the focus score of each area in the determination target area as indicated by an arrow Q24.
  • the area of the frame FR11 that is the determination target area is configured by M ′ ⁇ N ′ divided areas, and one square represents one divided area.
  • the numerical value in the rectangle represents the focus score.
  • the area with the highest focus score is the area in focus
  • the focus score of the area in focus is 85.
  • the warning control processing unit 85 calculates an average score indicating the degree of focus in a region in the vicinity of the most focused region, that is, a region around the region focused by the focus operation.
  • the warning control processing unit 85 divides the sum of the in-focus scores of each area of the determination target area by the number of areas constituting the determination target area, that is, M ′ ⁇ N ′, thereby obtaining an average score.
  • the average score is an average value of the focus scores of the respective areas in the determination target area.
  • the warning control processing unit 85 assumes that the focus state of the portion to be focused is insufficient in the captured image R16 obtained by capturing, and displays A warning display is instructed to the processing unit 80.
  • the average score is less than the threshold th, it means that the image is not in focus in the vicinity of the portion to be focused, so the captured image R16 is blurred due to camera shake or optically. There is a high possibility that the image is out of focus.
  • the display processing unit 80 In response to an instruction from the warning control processing unit 85, the display processing unit 80 appropriately superimposes information indicating a warning on the focus on the captured image R16 whose resolution has been converted by the resolution conversion unit 74 and displays the information on the display unit 26.
  • a warning icon AC11 is displayed superimposed on the captured image R16, and a text message “Recommended to check focus” is displayed.
  • the warning icon AC11 indicating the warning related to the focus state and the text message
  • the user can easily and intuitively check whether the image is blurred, that is, whether the focus state needs to be checked. Can know.
  • the user who sees this display appropriately confirms the focus state, for example, by enlarging and displaying the captured image R16.
  • the warning icon AC11 and the text message are displayed at predetermined positions on the display screen in order to make the captured image R16 easier to see. That is, the warning icon AC11 is displayed on the upper left in the figure of the display screen, and the character message is displayed on the lower side in the figure of the display screen.
  • the warning icon AC11 is not limited to the upper left position on the display screen and may be displayed at any position. For example, it may be displayed in the vicinity of the determination target area as shown in FIG. In this case, the user can easily and intuitively know which portion of the captured image R16 is out of focus.
  • FIG. 5 parts corresponding to those in FIG. 4 are denoted by the same reference numerals, and the description thereof is omitted.
  • the average score is equal to or greater than the threshold th and the captured image R16 is sufficiently focused, a text message, an icon, or the like indicating that may be displayed on the display unit 26.
  • step S11 the imager 51 captures a captured image.
  • the imager 51 receives light incident from the subject via the optical system 21 and performs photoelectric conversion, and supplies a captured image obtained as a result to the digital signal processing LSI 52.
  • Each unit constituting the digital signal processing LSI 52 such as the pre-processing unit 71 and the synchronization unit 72 performs various processes on the captured image supplied from the imager 51 to develop the captured image.
  • the developed photographed image is supplied to the display unit 26 by the display processing unit 80 and displayed. In other words, the developed photographed image is displayed as a through image. Further, the AF detection processing unit 76 calculates an evaluation value of the autofocus state based on the captured image or information for the focus operation acquired by the imager 51 or the like as necessary, and a focus lens control processing unit. 84.
  • step S12 the focus lens control processing unit 84 controls the lens driving driver IC 55 based on the evaluation value supplied from the AF detection processing unit 76 to execute the focus operation.
  • step S ⁇ b> 13 the control unit 54 determines whether or not the shutter button 22 has been pressed based on a signal supplied from the shutter button 22 serving as the user interface 53. For example, when the shutter button 22 is fully pressed and shooting is instructed, it is determined that the shutter button 22 has been pressed.
  • step S13 If it is determined in step S13 that the shutter button 22 has not been pressed, the process returns to step S11 and the above-described process is repeated.
  • the digital signal processing LSI 52 supplies the developed captured image to the memory 79 as a captured image and holds it.
  • step S15 the focus lens control processing unit 84 generates AF area information based on the information used for the focus operation at the time of shooting, and supplies the AF area information to the digital signal processing LSI 52 to hold it.
  • the digital signal processing LSI 52 supplies the AF area information supplied from the focus lens control processing unit 84 to the memory 79 and stores the AF area information in association with the photographed image. It should be noted that AF area information is stored in EXIF data as necessary, and the EXIF data is held in the memory 79, or EXIF data in which AF area information is stored is added to a captured image. Good.
  • the photographed image is obtained as described above, the obtained photographed image is supplied to the display unit 26 by the display processing unit 80 and displayed as a preview image.
  • the captured image is appropriately encoded by the CODEC 75 and recorded in the recording unit 57 at an appropriate timing.
  • step S42 the warning control processing unit 85 instructs the focusing region determination processing unit 77 to execute the focusing region determination processing.
  • step S43 the in-focus area determination processing unit 77 reads a captured image from the memory 79 in accordance with an instruction from the warning control processing unit 85, and performs an in-focus area determination process.
  • the focus area determination processing unit 77 divides the captured image into M ⁇ N areas, and generates a luminance signal of each pixel in the area for each of the divided areas.
  • the luminance signal may be generated by the YC generation unit 73.
  • the in-focus area determination processing unit 77 extracts a high-frequency component by performing a filtering process using a high-pass filter or the like on the luminance signal of each pixel in the divided area, and obtains the obtained high-frequency component. Make absolute value. Further, the focus area determination processing unit 77 performs high-frequency component noise removal and limiter processing on the absolute value of the high-frequency component obtained for each pixel in the divided area, and then performs each pixel in the area.
  • the focus score of the divided area is calculated by integrating the absolute values of the high-frequency components. That is, the sum of the absolute values of the high frequency components of each pixel in the divided area is used as the focus score for that area.
  • the edge component appears prominently in the focused area, that is, the area where the degree of focus is high, so the focused score, which is the integrated value of the high frequency component, is larger in the focused area. Value.
  • the focus area determination processing unit 77 supplies the focus control score of each area of the captured image obtained in this way to the warning control processing unit 85 as a result of the focus area determination process.
  • the focus area determination process is not limited to the process described above, and may be any process as long as the focus level of each area of the captured image can be obtained.
  • each region of a captured image is obtained by using a discriminator (dictionary) obtained by machine learning using a learning image that is in focus and a learning image that is out of focus and in which blurring or blurring occurs.
  • the in-focus score may be obtained.
  • the in-focus area determination processing unit 77 extracts a feature amount from each region of the captured image, performs a calculation by substituting the feature amount of each region into a discriminator, and uses the obtained value as a result.
  • the focus score of each area is used.
  • step S44 the warning control processing unit 85 acquires the focus score of each region of the captured image as a result of the focus region determination processing from the focus region determination processing unit 77.
  • step S46 the warning control processing unit 85 calculates the average score of the determination target area based on the focus score of each of the M ′ ⁇ N ′ areas constituting the determination target area.
  • an average score of a region having a high focus score in the determination target region may be used, or the highest focus score in the determination target region may be used.
  • step S47 the warning control processing unit 85 compares the obtained average score with the threshold value th to determine whether or not the average score is less than the threshold value th.
  • step S47 When it is determined in step S47 that it is not less than the threshold th, the average score of the determination target area is sufficiently large, and the determination target area is in a sufficiently focused state, so that a good-looking shot image is obtained. That is, it is considered that the re-taking of the photographed image is unnecessary, and the warning process ends. In this case, particularly when warning processing is started in accordance with a user instruction, the user may be notified that re-shooting is unnecessary.
  • step S47 determines whether it is less than the threshold th. If it is determined in step S47 that it is less than the threshold th, the process proceeds to step S48. In this case, since the average score of the determination target area is small and the determination target area is not sufficiently focused, it is better to retake the captured image as necessary.
  • step S49 the display processing unit 80 generates an image or a text message for performing warning display such as a warning icon in accordance with an instruction from the warning control processing unit 85, supplies the generated image or character message to the display unit 26, and displays it. , Warning display.
  • the display unit 26 displays a warning based on the image supplied from the display processing unit 80.
  • the imaging device 11 calculates the average score indicating the focus in the vicinity of the region to be focused on in the captured image obtained by imaging, and displays a warning according to the average score.
  • step S71 is the same as the process of step S41 of FIG. 7, the description is abbreviate
  • step S72 the warning control processing unit 85 supplies information indicating the determination target region determined by the AF region information to the focusing region determination processing unit 77, and executes the focusing region determination processing for only the determination target region. Is instructed to the in-focus area determination processing unit 77.
  • step S73 the focus area determination processing unit 77 reads a portion of the determination target area in the photographed image from the memory 79 in accordance with an instruction from the warning control processing unit 85, and performs a focus area determination process. Thereby, the in-focus score of each of M ′ ⁇ N ′ areas constituting the determination target area is obtained.
  • step S74 the warning control processing unit 85 acquires the focus score of each of the M ′ ⁇ N ′ areas constituting the determination target area as a result of the focus area determination process from the focus area determination process unit 77. .
  • step S75 the warning control processing unit 85 calculates the average score of the determination target area based on the focus score of each of the M ′ ⁇ N ′ areas constituting the determination target area.
  • the imaging device 11 performs the focused area determination process for only the determination target area on the captured image, calculates the average score of the determination target area, and displays a warning display according to the average score. Do.
  • the processing time of the focused area determination process can be further reduced as compared with the example described with reference to FIG. Furthermore, since the band (area) of the captured image read from the memory 79 can be reduced, not only can processing be performed more quickly, but also power consumption can be reduced.
  • the captured image R16 that is the processing target is read from the recording unit 57 as necessary and supplied to the memory 79.
  • the shot image R16 is already stored in the memory 79, and therefore it is not necessary to load the shot image R16.
  • the memory 79 also holds AF area information and EXIF data.
  • the user directly touches the touch panel as the user interface 53 superimposed on the display unit 26, and designates the position on the captured image R16 where the focus state is to be confirmed as the designated area.
  • the designated area may be designated by operating a dial or the like as the user interface 53, or an area having a predetermined size on the captured image R16 may be designated.
  • the warning control processing unit 85 determines the determination target area DR11 based on the designated area, and the focused area determination processing unit 77 determines the determination target area DR11. Is instructed to execute a focused area determination process for only the target.
  • the determination target area DR11 is, for example, an area that includes the entire designated area with the designated area as the center.
  • a warning icon AC11 is displayed superimposed on the captured image R16, and a text message “Recommended to check focus” is displayed.
  • a text message “Recommended to check focus” is displayed.
  • the warning icon AC11 is displayed on the upper left side of the display screen, and the character message is displayed on the lower side of the display screen.
  • the warning icon AC11 is not limited to the upper left position on the display screen and may be displayed at any position. For example, as in the example shown in FIG. 5, the warning icon AC11 may be displayed near the determination target region DR11.
  • step S ⁇ b> 101 the warning control processing unit 85 acquires information indicating the designated area from the user interface 53.
  • the user touches the touch panel as the user interface 53 to designate the designated area, or operates the dial as the user interface 53 to designate the designated area.
  • the warning control processing unit 85 acquires information output from the user interface 53 in response to an operation by the user as information indicating the designated area.
  • step S102 the warning control processing unit 85 supplies information indicating the determination target region determined with respect to the designated region to the focus region determination processing unit 77, and performs the focus region determination processing for only the determination target region.
  • the execution is instructed to the focus area determination processing unit 77.
  • the determination target area is an area having a predetermined size centered on the specified area.
  • step S103 the in-focus area determination processing unit 77 reads a portion of the determination target area in the captured image from the memory 79 in accordance with an instruction from the warning control processing unit 85, and performs an in-focus area determination process. Thereby, the in-focus score of each of M ′ ⁇ N ′ areas constituting the determination target area is obtained.
  • step S104 the warning control processing unit 85 acquires the focus score of each of the M ′ ⁇ N ′ areas constituting the determination target area as a result of the focus area determination process from the focus area determination process unit 77. .
  • step S105 the warning control processing unit 85 calculates the average score of the determination target region based on the focus score of each of the M ′ ⁇ N ′ regions that constitute the determination target region.
  • step S106 to step S108 is performed and the warning processing is terminated. Since these processing are the same as the processing from step S47 to step S49 in FIG. Is omitted.
  • the imaging apparatus 11 performs the focus area determination process only on the determination target area including the area specified by the user, calculates the average score of the determination target area, and according to the average score Display a warning.
  • ⁇ Third Embodiment> ⁇ Summary of processing of imaging device>
  • a face area may be detected from the captured image, and only the face area may be set as a determination target area that is a target of the focus area determination process.
  • the photographing process shown in FIG. 11 and the warning process shown in FIG. 12 are performed.
  • the imager 51 receives light incident through the optical system 21 and performs photoelectric conversion. Thereby, the captured image F31 to the captured image F36 of each frame are obtained.
  • the photographed images F31 to F36 the one on the front side in the figure is a photographed image photographed at a later time, that is, a time closer to the current time.
  • the face detection processing unit 78 detects a human face area from the shot image.
  • the AF detection processing unit 76 calculates an evaluation value indicating the autofocus state based on the captured image of each frame, and supplies the evaluation value to the control unit 54.
  • the focus lens control processing unit 84 of the control unit 54 controls the lens driving driver IC 55 based on the evaluation value supplied from the AF detection processing unit 76 to execute the focus operation.
  • the focus lens of the optical system 21 is driven by the lens driving driver IC 55, and the subject is brought into focus.
  • a focus operation is performed so that the face area is in focus.
  • the captured images F31 to F36 of each frame are obtained, development processing is performed on these captured images, and the captured images R31 to R36 obtained as a result are displayed as through images at the time of capturing. They are displayed in order on the part 26.
  • the user confirms the subject while viewing the through image displayed on the display unit 26, and operates the shutter button 22 and the like to take a picture.
  • the photographed image R31 to the photographed image R33 obtained by developing these photographed images indicate the detected face area.
  • a frame FC11 is displayed.
  • an autofocus target frame FR31 is displayed in the captured images R34 to R36 of the subsequent frames.
  • the user determines that the subject in the frame FR31 is in focus, the user presses the shutter button 22 fully to instruct to take an image.
  • the captured image R36 obtained by developing the captured image F36 is an image obtained by capturing. As captured.
  • the photographed image R36 photographed in this way is held in the memory 79 as shown on the right side in the figure, and then recorded in the recording unit 57 and displayed on the display unit 26 as a photographed preview image. .
  • the captured image R36 is held in the memory 79, and at the same time, information indicating the face area targeted for focusing in autofocus when the captured image F36 is captured is also stored in the memory 79 as face area information. Is done.
  • the memory 79 holds EXIF data in which the face area information is stored in addition to the face area information.
  • This EXIF data is data added as metadata of the captured image R36.
  • face area information is recorded in a free area of the EXIF data. Note that face area information is not recorded when no face is detected from the captured image.
  • the captured image R36, face area information, and EXIF data are held in the memory 79 as described above, the EXIF data is added to the captured image R36 at an appropriate timing, and the captured image with the EXIF data added is added.
  • the image R36 is recorded in the recording unit 57. Also, the captured image R36 is displayed on the display unit 26 as a preview image after capturing.
  • the user performs an operation on the user interface 53 and gives an instruction to confirm the focus state, for example, as indicated by an arrow Q51 in the lower left part of FIG. 12 in a state where the captured image R36 is displayed as a preview image.
  • the imaging device 11 performs a warning process for confirming whether or not the captured image R36 is sufficiently focused and issuing a warning if necessary.
  • the warning process may be automatically started.
  • the captured image R36 is read from the recording unit 57 as necessary and supplied to the memory 79.
  • the shot image R36 is already stored in the memory 79, and therefore it is not necessary to load the shot image R36.
  • the memory 79 also holds face area information and EXIF data.
  • the warning control processing unit 85 executes the focus area determination process for only the frame FR31 that is the face area indicated by the face area information held in the memory 79 in the captured image R36.
  • the determination processing unit 77 is instructed.
  • the focus area determination processing unit 77 reads the face area portion of the captured image R36 from the memory 79, and performs the focus area determination process for the face area.
  • the captured image R36 is divided into M ⁇ N areas as indicated by an arrow Q52. Then, as indicated by an arrow Q53, only the region of the frame FR31 that is determined to be the face region among the M ⁇ N regions is processed, and M ′ ⁇ N constituting the region of the frame FR31. The in-focus score of each region is calculated and supplied to the warning control processing unit 85.
  • the warning control processing unit 85 calculates an average score based on the focus score of each region in the face region supplied from the focus region determination processing unit 77, and if the average score is less than the threshold th, the display process The unit 80 is instructed to display a warning.
  • a warning icon AC31 is displayed superimposed on the captured image R36, and a text message “Recommended to check focus” is displayed.
  • a text message “Recommended to check focus” is displayed.
  • the warning icon AC31 is displayed on the upper right side of the display screen, and the character message is displayed on the lower side of the display screen. Further, a frame FR31 indicating a face area is also displayed on the captured image R36.
  • the warning icon AC31 is not limited to the upper right position on the display screen, and may be displayed at any position. For example, it may be displayed in the vicinity of the face area as shown in FIG. In this case, the user can easily and intuitively know which part of the captured image R36 is out of focus. Further, the face is not hidden by the warning icon AC31.
  • FIG. 13 the same reference numerals are given to portions corresponding to those in FIG. 12, and description thereof is omitted.
  • step S131 is the same as the processing in step S11 in FIG.
  • step S132 the face detection processing unit 78 performs face detection on the photographed image obtained by photographing and detects a human face region. For example, in face detection, a face area is detected based on a feature amount extracted from a captured image.
  • the face detection processing unit 78 supplies the face region detection result to the control unit 54.
  • step S133 the focus lens control processing unit 84 controls the lens driving driver IC 55 based on the evaluation value supplied from the AF detection processing unit 76 to execute the focus operation. At this time, for example, a face area detected from the captured image is set as an area to be focused.
  • step S134 and step S135 are performed and the captured image is captured. These processing is the same as the processing of step S13 and step S14 in FIG. Description is omitted.
  • the digital signal processing LSI 52 supplies the face area information supplied from the focus lens control processing unit 84 to the memory 79 and stores it in association with the photographed image. It should be noted that face area information is stored in EXIF data as necessary, and the EXIF data is held in the memory 79, or EXIF data storing face area information is added to a captured image. Good.
  • the photographed image is obtained as described above, the obtained photographed image is displayed on the display unit 26 as a preview image.
  • the captured image is appropriately encoded by the CODEC 75 and recorded in the recording unit 57 at an appropriate timing.
  • step S161 the warning control processing unit 85 acquires face area information from the memory 79.
  • the face area information may be read from EXIF data added to the captured image held in the memory 79.
  • step S162 the warning control processing unit 85 determines whether or not a face is detected when the captured image is captured. For example, if the face area information is stored in the memory 79 or included in the EXIF data, it is determined that a face has been detected.
  • step S165 the warning control processing unit 85 acquires the focus score of each of the M ′ ⁇ N ′ areas constituting the face area as a result of the focus area determination process from the focus area determination process unit 77.
  • step S166 the warning control processing unit 85 calculates the average score of the face area based on the focus score of each of M ′ ⁇ N ′ areas constituting the face area.
  • the processing time of the focus area determination process can be further shortened and the power consumption can be reduced.
  • warning display is performed as a method for issuing a warning to the user has been described.
  • a warning may be issued to the user by outputting a warning sound.
  • the warning voice may be a voice message or a predetermined pattern.
  • the imaging apparatus 11 issues a warning prompting confirmation of the focus state by a warning voice.
  • a warning prompting confirmation of the focus state by a warning voice.
  • step S221 to step S226 is the same as the processing from step S71 to step S76 in FIG.
  • step S227 the warning control processing unit 85 instructs the speaker drive processing unit 82 to give a warning.
  • the speaker 59 issues a warning by reproducing the warning sound based on the voice signal from the speaker drive processing unit 82, and the warning process ends.
  • step S281 to step S287 is the same as the processing from step S161 to step S167 in FIG.
  • the imaging apparatus 11 issues a warning prompting confirmation of the focus state by a warning voice. Thereby, even when the user is not viewing the display unit 26, the user can easily and intuitively know that confirmation of the focus state is necessary.
  • step S311 to step S317 is the same as the processing from step S41 to step S47 in FIG.
  • the imaging device 11 issues a warning that prompts confirmation of the focus state by light emission. Thereby, even when the user is not viewing the display unit 26, the user can easily and intuitively know that confirmation of the focus state is necessary.
  • step S341 to step S346 is the same as the processing from step S71 to step S76 in FIG.
  • step S371 to step S376 is the same as the processing from step S101 to step S106 in FIG.
  • step S377 the warning control processing unit 85 instructs the light emitting element drive processing unit 83 to issue a warning.
  • the light emitting element 60 is driven by the light emitting element drive processing unit 83, the light emitting element 60 emits a warning by emitting light in a predetermined pattern, and the warning process ends.
  • step S401 to step S407 is the same as the processing from step S161 to step S167 in FIG.
  • the imaging device 11 issues a warning that prompts confirmation of the focus state by light emission. Thereby, even when the user is not viewing the display unit 26, the user can easily and intuitively know that confirmation of the focus state is necessary.
  • FIGS. 24 to 27 are performed as processes corresponding to the respective warning processes described with reference to FIGS. 7, 8, 10, and 15.
  • the warning processing by vibration will be described with reference to the flowcharts of FIGS.
  • step S431 to step S437 is the same as the processing from step S41 to step S47 in FIG.
  • the imaging device 11 issues a warning prompting confirmation of focus by vibration. Thereby, even when the user is not viewing the display unit 26, the user can easily and intuitively know that confirmation of the focus state is necessary.
  • step S461 to step S466 is the same as the processing from step S71 to step S76 in FIG.
  • step S467 the warning control processing unit 85 instructs the vibration drive processing unit 81 to issue a warning.
  • the vibration unit 58 is driven by the vibration drive processing unit 81, the vibration unit 58 generates a warning by vibrating in a predetermined pattern, and the warning process ends.
  • the imaging device 11 issues a warning prompting confirmation of focus by vibration. Thereby, even when the user is not viewing the display unit 26, the user can easily and intuitively know that confirmation of the focus state is necessary.
  • step S491 to step S496 is the same as the processing from step S101 to step S106 in FIG.
  • step S497 the warning control processing unit 85 instructs the vibration drive processing unit 81 to issue a warning.
  • step S4908 the vibration drive processing unit 81 drives the vibration unit 58 in accordance with an instruction from the warning control processing unit 85, and issues a warning due to vibration.
  • the vibration unit 58 is driven by the vibration drive processing unit 81, the vibration unit 58 generates a warning by vibrating in a predetermined pattern, and the warning process ends.
  • the imaging device 11 issues a warning prompting confirmation of focus by vibration. Thereby, even when the user is not viewing the display unit 26, the user can easily and intuitively know that confirmation of the focus state is necessary.
  • step S521 to step S527 is the same as the processing from step S161 to step S167 in FIG.
  • step S528, the warning control processing unit 85 instructs the vibration drive processing unit 81 to issue a warning. Then, in step S529, the vibration drive processing unit 81 drives the vibration unit 58 in accordance with an instruction from the warning control processing unit 85, and issues a warning due to vibration. When the vibration unit 58 is driven by the vibration drive processing unit 81, the vibration unit 58 generates a warning by vibrating in a predetermined pattern, and the warning process ends.
  • the imaging device 11 issues a warning prompting confirmation of focus by vibration. Thereby, even when the user is not viewing the display unit 26, the user can easily and intuitively know that confirmation of the focus state is necessary.
  • warnings by display warnings by sound, warnings by light emission (lighting), and warnings by vibration have been described as examples of warning methods.
  • warning display sound volume, light emission intensity, vibration time, etc.
  • sound volume may be changed stepwise or linearly according to the average score value. That is, a warning may be issued with a color, density, volume, light emission intensity, etc. determined by the average score value. Further, the display blinking pattern, sound, light emission, and vibration pattern may be changed according to the average score.
  • FIG. 28 is a diagram illustrating a configuration example of the appearance of a multi-function mobile phone to which the present technology is applied.
  • the multi-function mobile phone 121 is composed of a mobile phone having a camera function.
  • the diagram shown by the arrow A41 is a diagram of the multi-function mobile phone 121 as viewed from the front side
  • the diagram shown by the arrow A42 is It is the figure which looked at the functional type mobile telephone 121 from the back side.
  • a display unit 131 made of a liquid crystal panel or the like is provided on the surface of the multi-function mobile phone 121, and a touch panel (not shown) is provided on the display unit 131 in an overlapping manner. For example, the user views an image displayed on the display unit 131 or operates an icon displayed on the display unit 131.
  • buttons such as a shutter button 132 that functions as a shutter button at the time of photographing by a camera function and a button 133 for volume adjustment are provided on the side surface of the multi-function mobile phone 121.
  • an optical system 134 that guides light incident from the subject to an imager (not shown) is provided on the back surface of the multi-function mobile phone 121, and the user photographs the optical system 134 toward a desired subject. I do.
  • the functional configuration of the multi-function mobile phone 121 shown in FIG. 28 is, for example, the configuration shown in FIG. 29, the same reference numerals are given to the portions corresponding to those in FIG. 28 or FIG. 2, and the description thereof will be omitted as appropriate.
  • the multi-function mobile phone 121 includes an optical system 134, an imager 161, a digital signal processing LSI 162, a user interface 163, a control unit 164, a camera shake sensor 165, a recording unit 166, a display unit 131, a vibration unit 167, a speaker 168, and a light emitting element 169.
  • the optical system 134, the imager 161 to the recording unit 166, the display unit 131, and the vibration unit 167 to the light emitting element 169 are the optical system 21, the imager 51 to the control unit 54, the camera shake sensor 56, the recording unit 57, and the like. Since it is the same as that of the display part 26 and the vibration part 58 thru
  • control unit 164 is provided with a focus lens control processing unit 84 and a warning control processing unit 85.
  • the user interface 163 includes, for example, a touch panel superimposed on the display unit 131, a shutter button 132, a button 133, and the like.
  • the digital signal processing LSI 162 performs electronic camera shake correction on the captured image based on the output of the camera shake sensor 165. Further, the digital signal processing LSI 162 includes a pre-processing unit 71, a synchronization unit 72, a YC generation unit 73, a resolution conversion unit 74, a CODEC 75, an AF detection processing unit 76, an in-focus area determination processing unit 77, a face detection processing unit 78, A memory 79, a display processing unit 80, a vibration drive processing unit 81, a speaker drive processing unit 82, a light emitting element drive processing unit 83, and a call processing unit 181 are provided.
  • the call processing unit 181 performs processing related to a call with another telephone set by the user. For example, the call processing unit 181 supplies a voice signal obtained by the microphone 170 collecting the user's voice to the wireless communication unit 171 and transmits it to the telephone of the other party via the base station or the like. Further, for example, the call processing unit 181 supplies an audio signal transmitted from the telephone of the other party of the call and received by the wireless communication unit 171 to the speaker 168 via the speaker drive processing unit 82 for reproduction.
  • the wireless communication unit 171 performs wireless communication according to the control of the control unit 164. For example, the wireless communication unit 171 performs transmission / reception of audio signals with a call partner via a base station or the like, or performs transmission / reception of information wirelessly at a relatively short distance such as Wi-Fi (registered trademark). .
  • Wi-Fi registered trademark
  • the multifunctional mobile phone 121 operates when the user instructs to display a warning by operating the user interface 163 in a state where a preview image is displayed after performing the shooting process, or the warning process is automatically performed.
  • a warning process is performed.
  • warning processing by the multi-function mobile phone 121 will be described with reference to the flowchart of FIG.
  • steps S581 to S589 are performed. Since these processes are the same as the steps S41 to S49 of FIG. 7, the description thereof is omitted.
  • the present technology can be applied to a small-sized digital video camera called a wearable camera that can be worn on a user's head or the like.
  • a wearable camera that can be worn on a user's head or the like.
  • a case where the present technology is applied to a wearable camera will be described as an example.
  • FIG. 32 is a diagram illustrating a configuration example of the appearance of a wearable camera to which the present technology is applied.
  • An optical system 221 that guides light incident from a subject to an imager (not shown) is provided in front of the wearable camera 211, and the user takes a picture with the optical system 221 directed to a desired subject.
  • buttons such as a recording button (not shown) are provided on the back of the wearable camera 211, and the user operates these buttons to instruct shooting and playback. Further, the wearable camera 211 can exchange information with other devices such as the multi-function mobile phone 121 shown in FIG. 28 by wireless communication.
  • the functional configuration of the wearable camera 211 shown in FIG. 32 is, for example, the configuration shown in FIG. 33, the same reference numerals are given to the portions corresponding to those in FIG. 32 or FIG. 2, and the description thereof will be omitted as appropriate.
  • the wearable camera 211 includes an optical system 221, an imager 251, a digital signal processing LSI 252, a user interface 253, a control unit 254, a lens driving driver IC 255, a camera shake sensor 256, a recording unit 257, and a wireless communication unit 258.
  • optical system 221 and the imagers 251 to 257 are the same as the optical system 21 and the imagers 51 to 57 shown in FIG.
  • control unit 254 is provided with a focus lens control processing unit 84 and a warning control processing unit 85.
  • the digital signal processing LSI 252 includes a pre-processing unit 71, a synchronization unit 72, a YC generation unit 73, a resolution conversion unit 74, a CODEC 75, an AF detection processing unit 76, a focus area determination processing unit 77, a face detection processing unit 78, A memory 79 and a display processing unit 80 are provided.
  • the wireless communication unit 258 performs wireless communication according to the control of the digital signal processing LSI 252. For example, the wireless communication unit 258 transmits and receives information wirelessly at a relatively short distance such as Wi-Fi (registered trademark).
  • Wi-Fi registered trademark
  • or step S615 is the same as the process of step S11 thru
  • the display processing unit 80 supplies the captured image to the wireless communication unit 258 and instructs the multifunction mobile phone 121 to transmit the captured image.
  • step S616 the wireless communication unit 258 wirelessly transmits the captured image supplied from the display processing unit 80 to the multi-function mobile phone 121, and the imaging process ends.
  • wearable camera 211 performs a shooting process and captures a shot image. Thereafter, wearable camera 211 determines, for example, whether or not a warning is necessary for the focus state, and displays a warning display on multifunctional mobile phone 121 according to the determination result. The warning determination process to be instructed is performed. This warning determination process is automatically started when instructed by the user or according to the setting.
  • or step S647 is the same as the process of step S41 thru
  • step S648 the warning control processing unit 85 instructs the display processing unit 80 to display a warning. Then, the display processing unit 80 generates information indicating that a warning is displayed as a warning instruction and supplies the information to the wireless communication unit 258.
  • step S649 the wireless communication unit 258 transmits the warning instruction supplied from the display processing unit 80 to the multi-function mobile phone 121 wirelessly, and the warning determination process ends.
  • the wearable camera 211 determines whether or not to perform a warning display by performing a focus area determination process on a captured image obtained by shooting, and gives instructions for warning display according to the determination result. It transmits to the functional mobile phone 121.
  • the multi-function mobile phone 121 starts display processing for receiving and displaying the photographed image.
  • display processing by the multi-function mobile phone 121 will be described with reference to the flowchart of FIG.
  • step S671 the wireless communication unit 171 receives a captured image transmitted from the wearable camera 211 through wireless communication, and supplies the captured image to the digital signal processing LSI 162.
  • step S672 the display processing unit 80 supplies the captured image supplied from the wireless communication unit 171 to the display unit 131 for display. Thereby, the captured image is displayed as a preview image.
  • step S673 the warning control processing unit 85 determines whether or not a warning instruction has been transmitted from the wearable camera 211.
  • step S673 If it is determined in step S673 that a warning instruction has not been transmitted, the warning display is not performed, and the display process ends.
  • step S674 the wireless communication unit 171 receives the warning instruction transmitted from the wearable camera 211 and passes through the digital signal processing LSI 162. This is supplied to the control unit 164.
  • step S675 the warning control processing unit 85 displays a warning according to the warning instruction supplied from the digital signal processing LSI 162, and the display process ends.
  • the warning control processing unit 85 instructs the display processing unit 80 to display a warning.
  • the display processing unit 80 generates an image or a character message for displaying a warning icon or the like in accordance with an instruction from the warning control processing unit 85, supplies the displayed image to the display unit 131, and displays the warning display. Do.
  • the multi-function mobile phone 121 displays a warning in response to an instruction from the wearable camera 211. Thereby, the user can know whether it is necessary to confirm the focus of the captured image more easily and intuitively on a larger screen.
  • the wearable camera 211 may also perform the same processing as the shooting processing shown in FIG. 14 and the same processing as the warning processing shown in FIGS. 8, 10, and 15 to 27.
  • information regarding the focus state can be notified to the user when the moving image obtained by shooting is reproduced.
  • an image (icon) indicating the focus state is displayed as the information related to the focus state, for example, processing similar to the warning processing illustrated in FIG. 7 is performed.
  • a captured image obtained by shooting is appropriately read from the recording unit 57, and an average score is calculated by the warning control processing unit 85 for each frame of a moving image as a captured image.
  • the warning control processing unit 85 displays, for example, a color or density image corresponding to the average score value for each frame on the display unit 26, so that the display processing unit 80 is displayed. Is instructed. That is, an image having a color or density determined in advance with respect to the average score value is superimposed and displayed on the moving image being reproduced as an image or the like indicating the degree of focus.
  • the user is gradually in focus by changing the color or density of the image or the like displayed on the display unit 26 according to the time change of the average score with time.
  • the change in focus can be easily grasped. Thereby, the user can easily know the focus state of the photographed image after photographing.
  • the user who has viewed the displayed image or the like intuitively and instantaneously determines whether the focus state is sufficient or insufficient. It is desirable to display an image that can be easily grasped. In addition to the image, a numerical value indicating a focus state, a text message, or the like may be displayed.
  • displaying the state of focus can be said to be displaying a warning regarding the state of focus.
  • ⁇ Tenth embodiment> In the above, an example in which display related to the focus state is continuously performed from the start of playback to the end of playback at the time of playback of a moving image as a photographed image has been described. You may make it perform the display, for example, the warning display regarding a focus state.
  • a captured image obtained by shooting is appropriately read from the recording unit 57 and the warning control processing unit 85 is performed for each frame of a moving image as a captured image.
  • the warning control processing unit 85 performs threshold processing for the average score for each frame.
  • the warning control processing unit 85 selects a section composed of one or a plurality of frames in which the average score is determined to be less than the threshold, which are continuously arranged, as a section for performing warning display.
  • the warning control processing unit 85 instructs the display processing unit 80 to display a warning for each section selected in this way during reproduction of the captured image, and the display processing unit 80 instructs the display unit 26 according to the instruction. A warning is displayed.
  • the warning control processing unit 85 obtains a representative value of the average score for the section to be processed, and performs control so that an image or the like is displayed with a color or density determined in advance for the representative value.
  • the representative value is, for example, the average value of the average score of each frame in the section to be processed.
  • a warning is not displayed while it is determined that the focus is sufficient, and a warning is displayed in a section including frames determined to be insufficient.
  • a warning is displayed, in a section composed of frames in which the focus state is insufficient, that is, the average score is determined to be less than the threshold value, the warning is continuously displayed with the same color and density in that section. It will continue to be displayed.
  • a time bar indicating each playback position from the beginning position to the end position of the captured image may be displayed, and a display indicating the focus state may be displayed on the time bar. For example, if each position of the time bar is displayed with a color or density that is predetermined with respect to the average score in the frame of the captured image corresponding to the position, the user can view the video by viewing the time bar. It is possible to easily grasp which section of the entire image is insufficiently focused.
  • warning display when the average score is less than the threshold even in one frame.
  • a predetermined time such as several seconds, that is, a predetermined number of frames. If the average score continues to be less than the threshold value, warning display may be performed in that section.
  • the present technology can be applied when the captured image is captured.
  • a moving image as a captured image that has been captured is processed, and processing corresponding to the warning processing described with reference to FIG. 7 is performed. That is, for example, a captured image that is a few frames before the captured image that is currently captured, that is, a captured image of a past frame that is temporally prior to the current frame, is processed, and the ninth embodiment described above is performed. Processing similar to the processing described in the embodiment is performed.
  • the warning control processing unit 85 calculates an average score for the images of the past frames to be processed that constitute the moving image as the captured image.
  • the warning control processing unit 85 performs a display process such that, for example, an image having a color or density corresponding to the average score value obtained for the past frame is displayed on the display unit 26.
  • An instruction is given to the unit 80. That is, an image having a color or density determined in advance with respect to the average score value is displayed as an image or the like indicating the degree of focus.
  • the user is gradually in focus by changing the color or density of the image or the like displayed on the display unit 26 according to the time change of the average score with time.
  • the change in focus can be easily grasped. Thereby, the user can easily know the focus state of the photographed image even during photographing.
  • the warning process shown in FIG. 7 is performed during shooting of the shot image.
  • the warning control processing unit 85 calculates an average score for a captured image of a past frame that is several frames before the current frame that is currently captured.
  • the warning control processing unit 85 performs threshold processing on the obtained average score, instructs the display processing unit 80 to display warnings according to the result of the threshold processing, and the display processing unit 80 In accordance with the instruction, the display unit 26 displays a warning.
  • the warning control processing unit 85 performs control so that an image or the like is displayed in a color or density determined in advance with respect to the average score value.
  • the above-described series of processing can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose computer capable of executing various functions by installing a computer incorporated in dedicated hardware and various programs.
  • the input unit 506 includes a keyboard, a mouse, a microphone, an image sensor, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the recording unit 508 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 509 includes a network interface or the like.
  • the drive 510 drives a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program recorded in the recording unit 508 to the RAM 503 via the input / output interface 505 and the bus 504 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 501) can be provided by being recorded in, for example, a removable medium 511 as a package medium or the like.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable medium 511 to the drive 510. Further, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in advance in the ROM 502 or the recording unit 508.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • a focus area determination processing unit that calculates a focus score indicating a focus degree of each area of the captured image based on the captured image;
  • a warning determination processing unit that determines the degree of focus in a predetermined area on the captured image based on the focus score;
  • An image processing apparatus comprising: a warning unit that issues a warning based on the determination result of the focus state.
  • the warning determination processing unit determines the focus state by comparing an average of the in-focus scores of each region in the predetermined region with a threshold value.
  • the predetermined area is a focus area that is a focus target when the captured image is captured.
  • the image processing apparatus calculates the focusing score only for the predetermined area on the captured image.
  • the image processing apparatus is an area of the captured image designated by a user.
  • the image processing apparatus according to (1) or (2), wherein the predetermined area is a face area detected from the captured image.
  • the warning unit issues the warning by displaying a warning superimposed on the captured image.
  • the image processing apparatus according to any one of (1) to (6), wherein the warning unit outputs the warning by outputting a warning sound.
  • the image processing apparatus according to any one of (1) to (6), wherein the warning unit issues the warning by vibrating.
  • the image processing apparatus changes the warning according to an average of the focus scores.
  • a program for causing a computer to execute processing including a step of issuing a warning based on the determination result of the focus state.
  • 11 imaging device 26 display unit, 53 user interface, 58 vibration unit, 59 speaker, 60 light emitting element, 77 focusing area determination processing unit, 78 face detection processing unit, 79 memory, 80 display processing unit, 81 vibration drive processing Unit, 82 speaker drive processing unit, 83 light emitting element drive processing unit, 84 focus lens control processing unit, 85 warning control processing unit, 121 multi-function mobile phone, 211 wearable camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

 本技術は、より簡単に撮影後の画像のピント具合を知ることができるようにする画像処理装置および方法、並びにプログラムに関する。 合焦領域判定処理部は、撮影画像に基づいて、撮影画像の各領域の合焦度合いを示す合焦スコアを算出する。警告制御処理部は、各領域の合焦スコアに基づいて撮影画像上の所定領域のピント具合を判定し、その判定結果に応じて警告を発するように指示する。例えば、警告は、警告表示、警告音声、振動、発光などにより行われる。このように合焦スコアに基づいてピント具合を判定することで、ぼけやぶれの要因によらず、ユーザにピント具合の確認を促すことができる。本技術は、デジタルスチルカメラに適用することができる。

Description

画像処理装置および方法、並びにプログラム
 本技術は画像処理装置および方法、並びにプログラムに関し、特に、より簡単に撮影後の画像のピント具合を知ることができるようにした画像処理装置および方法、並びにプログラムに関する。
 近年のデジタルカメラや、デジタルカメラを搭載したモバイルフォンでは、撮像素子、すなわち記録画素の高画素化が進むと同時に、撮影画像を確認するために搭載されている表示装置もその高サイズ化、多画素化が進んでいる。
 ところが、撮像素子(記録画素)の高画素化と比較すると、一般的に搭載されている表示装置の画素数は十分とはいえない状況にある。
 そのため、撮影直後に再生機能を利用して撮影した画像を確認し、ピントが合っていると判断しても、例えば自宅に戻りテレビジョン受像機やパーソナルコンピュータ等の大画面モニタに表示させたり、あるいはプリンタで大きいサイズに引き延ばして印刷してみたりすると、実際にはピントがボケていてがっかりしてしまうといった事象が良く起きる。
 これに対し、近年ではデジタルカメラ等で、撮影時のぶれや動きの軌跡といった機器の状態を測定し、撮影結果にその影響がでることが予想される場合には、撮影者に予め警告表示を行う技術が提案され、実用化されている(例えば、特許文献1乃至3参照)。
特許第3402774号公報 特許第3144469号公報 特許第5163409号公報
 しかしながら上述した技術では、撮影時の状況に基づいて予測警告を行っており、実際に撮影され、記録された画像に対して警告が行われるわけではない。そのため、ユーザは、警告表示が出なかったので安心して撮影した場合でも、実際に撮影され、記録された画像のピント具合が十分でないといった事例もよく発生する。
 また、特許文献1や特許文献2に記載の技術では、撮影の失敗要因として手ぶれのみが対象とされているため、光学的なピンボケなどによりピント具合が不十分となるときには警告が表示されず、撮影者は撮影の失敗に気付くことができなかった。
 同様に特許文献3に記載の技術では、撮影の失敗要因としてパノラマ撮影時の視差発生のみが対象とされているため、光学的なピンボケや手ぶれなどによりピント具合が不十分となるときには警告が表示されず、撮影者は撮影の失敗に気付くことができなかった。
 本技術は、このような状況に鑑みてなされたものであり、より簡単に撮影後の画像のピント具合を知ることができるようにするものである。
 本技術の一側面の画像処理装置は、撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出する合焦領域判定処理部と、前記合焦スコアに基づいて、前記撮影画像上の所定領域におけるピント具合を判定する警告判定処理部と、前記ピント具合の判定結果に基づいて警告を発する警告部とを備える。
 前記警告判定処理部には、前記所定領域内の各領域の前記合焦スコアの平均と閾値とを比較することで、前記ピント具合を判定させることができる。
 前記所定領域を、前記撮影画像の撮影時にフォーカス対象とされたフォーカス領域とすることができる。
 前記合焦領域判定処理部には、前記撮影画像上の前記所定領域のみを対象として前記合焦スコアの算出を行わせることができる。
 前記所定領域を、ユーザにより指定された前記撮影画像の領域とすることができる。
 前記所定領域を、前記撮影画像から検出された顔領域とすることができる。
 前記警告部には、前記撮影画像に重畳させて警告表示をすることで前記警告を発するようにさせることができる。
 前記警告部には、警告音声を出力することで前記警告を発するようにさせることができる。
 前記警告部には、振動することで前記警告を発するようにさせることができる。
 前記警告部には、発光することで前記警告を発するようにさせることができる。
 前記警告部には、前記合焦スコアの平均に応じて前記警告を変化させるようにさせることができる。
 本技術の一側面の画像処理方法またはプログラムは、撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出し、前記合焦スコアに基づいて、前記撮影画像上の所定領域におけるピント具合を判定し、前記ピント具合の判定結果に基づいて警告を発するステップを含む。
 本技術の一側面においては、撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアが算出され、前記合焦スコアに基づいて、前記撮影画像上の所定領域におけるピント具合が判定され、前記ピント具合の判定結果に基づいて警告が発せられる。
 本技術の一側面によれば、より簡単に撮影後の画像のピント具合を知ることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
撮像装置の外観の構成例を示す図である。 撮像装置の機能の構成例を示す図である。 撮影処理について説明する図である。 警告処理について説明する図である。 警告表示の他の例を示す図である。 撮影処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理について説明する図である。 警告処理を説明するフローチャートである。 撮影処理について説明する図である。 警告処理について説明する図である。 警告表示の他の例を示す図である。 撮影処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 多機能型携帯電話機の外観の構成例を示す図である。 多機能型携帯電話機の機能の構成例を示す図である。 撮影処理を説明するフローチャートである。 警告処理を説明するフローチャートである。 ウェアラブルカメラの外観の構成例を示す図である。 ウェアラブルカメラの機能の構成例を示す図である。 撮影処理を説明するフローチャートである。 警告判定処理を説明するフローチャートである。 表示処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈撮像装置の外観の構成例〉
 まず、本技術の概要について説明する。
 本技術は、小さな表示画面であっても、撮影者であるユーザが被写体の撮影後に、手ぶれや光学的なピンボケといった画像のピント具合を、より簡単かつ直感的に知ることができるようにするものである。
 例えば、従来では小型の表示装置に画像が表示されていたために、ピント具合が不十分であることに気付かなかったシーンにおいても、ユーザがより簡単かつ直感的に画像のピント具合を知ることができるようになれば、撮影の失敗に気付かなかったことによる撮影機会の損失も減少させることができるようになる。特に、本技術では、撮影前の状況からのピント具合の予測ではなく、撮影後の結果に対してピント具合の警告が発せられるので、ユーザは、必要に応じて直ちに再撮影を行うことができる。
 本技術は、デジタルスチルカメラや、デジタルビデオカメラ、カメラ機能を有する多機能型携帯電話機、ウェアラブルカメラなど、画像を撮影可能な機器全般に適用可能である。以下においては、まず本技術をデジタルスチルカメラに適用した例について説明する。
 図1は、本技術を適用した撮像装置の外観の構成例を示す図である。
 撮像装置11はデジタルスチルカメラからなり、図1では矢印A11に示す図は撮像装置11を表面側から見た図であり、矢印A12に示す図は撮像装置11を裏面側から見た図である。
 撮像装置11の表面には、被写体から入射してくる光を図示せぬイメージャへと導く光学系21が設けられており、ユーザは光学系21を所望の被写体に向けて撮影を行う。
 また、撮像装置11の上面には、シャッタボタン22およびダイヤル23が設けられており、撮像装置11の裏面には、再生ボタン24やダイヤル25が設けられている。ユーザは、これらのシャッタボタン22乃至ダイヤル25等を操作しながら撮影や再生などの作業を行う。
 さらに、撮像装置11の裏面には、液晶パネル等からなる表示部26も設けられており、ユーザは表示部26に表示される画像等を見て、撮影された画像や、その画像のピント具合などを確認することができる。
〈撮像装置の機能の構成例〉
 また、図1に示した撮像装置11の機能の構成は、例えば図2に示す構成とされる。なお、図2において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図2の撮像装置11は、光学系21、イメージャ51、デジタル信号処理LSI(Large Scale Integration)52、ユーザインターフェース53、制御部54、レンズ駆動用ドライバIC(Integrated Circuit)55、手ぶれセンサ56、記録部57、表示部26、振動部58、スピーカ59、および発光素子60を有している。
 光学系21は、ズームレンズやフォーカスレンズ等の複数のレンズや絞り機構などからなり、被写体から入射した光をイメージャ51の受光面に集光する。
 イメージャ51は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子からなる。イメージャ51は、光学系21から入射した光を受光して光電変換し、その結果得られた撮影画像、より詳細には撮影画像の画像データをデジタル信号処理LSI52に供給する。
 デジタル信号処理LSI52は、イメージャ51から供給された撮影画像に各種の信号処理を施す。デジタル信号処理LSI52は、プリ処理部71、同時化部72、YC生成部73、解像度変換部74、CODEC75、AF(Autofocus)検波処理部76、合焦領域判定処理部77、顔検出処理部78、メモリ79、表示用処理部80、振動駆動処理部81、スピーカ駆動処理部82、および発光素子駆動処理部83を備えている。
 プリ処理部71は、撮影画像に対してクランプ処理や欠陥画素補正処理などを施す。同時化部72は、欠陥画素補正処理等が施された撮影画像の各画素がR,G,Bの各色成分を有するように撮影画像に対するデモザイク処理を行う。
 YC生成部73は、デモザイク処理された撮影画像から、輝度信号と色信号を生成する。解像度変換部74は、撮影画像に対する解像度変換を行う。CODEC75は、解像度変換された撮影画像に対して符号化処理を行ったり、符号化された撮影画像を復号したりする。
 AF検波処理部76は、オートフォーカス動作を行うときに、必要に応じて撮影画像等を用いて、オートフォーカスの状態を示す評価値を算出する。合焦領域判定処理部77は、デモザイク処理された撮影画像に基づいて合焦領域判定処理を行い、撮影画像の各領域における合焦の度合いを示す合焦スコアを算出する。
 顔検出処理部78は、撮影画像から人の顔を検出する。メモリ79は、プリ処理部71乃至解像度変換部74の一部または全部により適宜処理された撮影画像(以下、現像処理された撮影画像とも称する)などを一時的に記録する。表示用処理部80は、例えば撮影画像を表示部26に表示可能なフォーマットに変換し、表示部26に供給する。
 振動駆動処理部81は、振動部58を駆動して振動させる。スピーカ駆動処理部82は、音声信号をスピーカ59に供給して音声を再生させる。発光素子駆動処理部83は、発光素子60を駆動して発光させる。
 ユーザインターフェース53は、例えば図1に示したシャッタボタン22乃至ダイヤル25や、表示部26に重畳されているタッチパネルなどからなり、ユーザの操作に応じた信号を制御部54に供給する。
 制御部54は、撮像装置11全体の動作を制御する。例えば制御部54は、イメージャ51による撮影画像の撮影を制御する。また、制御部54は、手ぶれセンサ56の出力に基づいて、レンズ駆動用ドライバIC55を制御し、光学系21のレンズを移動させて光学的な手ぶれ補正を行ったり、レンズ駆動用ドライバIC55を制御して光学系21の絞り機構を駆動させたりする。
 さらに制御部54は、フォーカスレンズ制御処理部84および警告制御処理部85を備えている。フォーカスレンズ制御処理部84は、AF検波処理部76から供給された評価値に基づいてレンズ駆動用ドライバIC55を制御し、フォーカス動作を実行させる。警告制御処理部85は、デジタル信号処理LSI52の各部に撮影画像のピント具合の警告に関する処理の実行を指示する。
 レンズ駆動用ドライバIC55は、制御部54の制御に従って光学系21を構成するフォーカスレンズ等を移動させてフォーカス動作を実行したり、絞り機構の駆動や光学手ぶれ補正を行ったりする。手ぶれセンサ56は、例えばジャイロセンサからなり、撮像装置11の動きを検出して制御部54に供給する。
 記録部57は、例えば撮像装置11に着脱可能なリムーバブルメディアからなり、デジタル信号処理LSI52から供給された撮影画像等のデータを記録したり、記録しているデータをデジタル信号処理LSI52に供給したりする。
 振動部58は、振動駆動処理部81の制御に従って、所定パターンで振動することで、撮像装置11を振動させる。スピーカ59は、スピーカ駆動処理部82から供給された音声信号に基づいて、音声を再生する。発光素子60は、例えばLED(Light Emitting Diode)などからなり、発光素子駆動処理部83の制御に従って所定パターンで発光する。
〈撮像装置の処理の概要〉
 続いて、図3および図4を参照して、撮像装置11の処理の概要について説明する。なお、この例では、オートフォーカス撮影が行われる。
 例えば図3に示すように、撮影動作が開始されると、イメージャ51は、光学系21を介して入射する光を受光して光電変換する。これにより各時刻、すなわち各フレームの撮影画像F11乃至撮影画像F16が得られる。
 ここで、撮影画像F11乃至撮影画像F16のうち、図中、手前側にあるものほど後の時刻、つまり現在時刻により近い時刻に撮影された撮影画像となっている。したがって、この例では、最初に撮影されたものが撮影画像F11であり、最後に撮影されたものが撮影画像F16となっている。
 このような各フレームの撮影画像の撮影時には、AF検波処理部76は、各フレームの撮影画像に基づいてオートフォーカスの状態を示す評価値を算出し、制御部54に供給する。制御部54のフォーカスレンズ制御処理部84は、AF検波処理部76から供給された評価値に基づいてレンズ駆動用ドライバIC55を制御し、フォーカス動作を実行させる。
 これにより、レンズ駆動用ドライバIC55によって光学系21のフォーカスレンズ等が駆動され、被写体にピントが合う状態とされる。
 また、各フレームの撮影画像F11乃至撮影画像F16が得られると、順次、これらの撮影画像に対して現像処理が行われ、その結果得られた撮影画像R11乃至撮影画像R16が撮影時のスルー画像として表示部26に順番に表示される。
 ユーザは、表示部26に表示されたスルー画像を見ながら被写体を確認し、シャッタボタン22等を操作して、撮影を行う。
 この例では、ユーザは矢印Q11に示すように、撮影画像F13の取り込み時(撮影時)にシャッタボタン22を半押している。そのため、撮影画像F13に対応するスルー画像である撮影画像R13と、それ以降のフレームの撮影画像R14および撮影画像R15とには、オートフォーカスのターゲットの枠FR11が表示されている。
 この枠FR11は、フォーカスレンズ制御処理部84がフォーカスを合わせようとする領域を示す枠の画像であり、撮影画像上の被写体の大きさに応じて、各フレームにおける枠FR11の大きさも変化する。
 ユーザは、枠FR11内の被写体にフォーカス(ピント)が合った状態となったと判断すると、シャッタボタン22を全押しして、つまり半押しの状態よりもより深くシャッタボタン22を押し込んで、画像の撮影を指示する。
 この例では、矢印Q12に示すように、撮影画像F16の取り込み時にシャッタボタン22が全押しされているので、撮影画像F16を現像処理して得られた撮影画像R16が、撮影により得られた画像としてキャプチャされる。
 このようにして撮影された撮影画像R16は、図中、右側に示すようにメモリ79に保持された後、記録部57に記録されるとともに、撮影後のプレビュー画像として表示部26に表示される。ここで、プレビュー画像とは、撮影の直後に、ユーザが撮影した画像を確認するために表示される画像である。
 また、撮像装置11では、撮影画像R16がメモリ79に保持されると同時に、撮影画像F16の撮影時にオートフォーカスにおける合焦(フォーカス)の対象とされた領域、つまりAFターゲットの領域を示す情報もAF領域情報としてメモリ79に保持される。
 例えば、コントラスト方式によりフォーカス動作が行われる場合には、フォーカスレンズ制御処理部84により定められた、AFターゲットの領域、すなわちオートフォーカスのターゲットの枠FR11の領域を示す情報がAF領域情報とされる。
 また、例えば位相差センサ方式によりフォーカス動作が行われる場合には、予め定められた複数のAFポイントのうち、撮影画像F16の撮影時に、フォーカスを合わせる位置として選択されたAFポイントを示す情報がAF領域情報とされる。
 さらに図3の例では、メモリ79には、AF領域情報に加えて、AF領域情報が格納されたEXIF(Exchangeable Image File Format)データも保持されている。このEXIFデータは、撮影画像R16のメタデータとして付加されるデータであり、例えばAF領域情報は、EXIFデータの自由領域に記録される。
 以上のようにして撮影画像R16、AF領域情報、およびEXIFデータがメモリ79に保持されると、その後、適切なタイミングで、撮影画像R16にEXIFデータが付加されて、EXIFデータが付加された撮影画像R16が記録部57に記録される。また、撮影画像R16が、撮影後のプレビュー画像として表示部26に表示される。
 さらに、撮影画像R16がプレビュー画像として表示された状態で、例えば図4の左下部分の矢印Q21に示すように、ユーザがユーザインターフェース53に対する操作を行い、ピント具合の確認指示をしたとする。
 すると、撮像装置11では、撮影した撮影画像R16のピント具合が十分であるかどうかを確認し、必要に応じて警告を発する警告処理が行われる。
 なお、警告処理はユーザにより指示されたときに行われる他、メニュー設定等により、自動的に開始されるようにしてもよい。そのような場合、例えばプレビュー画像が表示されてから、所定時間が経過した後、自動的に警告処理が開始されるようにすればよい。
 警告処理が開始されると、まず、処理対象となっている撮影画像R16が、必要に応じて記録部57から読み出され、メモリ79に供給される。なお、撮影直後に警告処理が行われる場合には、撮影画像R16はすでにメモリ79に保持されているため、撮影画像R16のロードは不要である。この場合、メモリ79には、AF領域情報とEXIFデータも保持されている。
 次に、制御部54の警告制御処理部85は、合焦領域判定処理部77に合焦領域判定処理の実行を指示する。
 すると、合焦領域判定処理部77は、メモリ79から撮影画像R16を読み出して、撮影画像R16に対する合焦領域判定処理を行う。
 合焦領域判定処理では、例えば矢印Q22に示すように撮影画像R16が、図中、横方向にM分割、縦方向にN分割される。つまり、撮影画像R16全体がM×N個の領域に分割される。そして、M×N個の各領域について、合焦の度合いを示す合焦スコアが算出され、各領域の合焦スコアが合焦領域判定処理の結果として警告制御処理部85に供給される。
 続いて、警告制御処理部85は、矢印Q23に示すように、メモリ79に保持されているAF領域情報またはEXIFデータに基づいて、撮影画像R16における、ピント具合が十分であるかを判定する対象となる判定対象領域を定める。
 この例では、AF領域情報により示される、オートフォーカスのターゲットの枠FR11の領域全体が判定対象領域とされている。この判定対象領域は、AF領域情報により示される領域を含む領域であれば、どのような大きさや形状であってもよい。
 判定対象領域を定めると、警告制御処理部85は、矢印Q24に示すように判定対象領域内の各領域の合焦スコアに基づいて、判定対象領域のピント具合を示す平均スコアを算出する。
 この例では判定対象領域とされた枠FR11の領域は、M’×N’個の分割された領域から構成されており、1つの四角形は1つの分割された領域を表している。また、その四角形内の数値は合焦スコアを表している。
 特に、枠FR11の領域内において、最も合焦スコアの高い領域が最もピントが合っている領域であり、この例では、最もピントが合っている領域の合焦スコアは85となっている。警告制御処理部85は、最もピントが合っている領域近傍の領域、つまりフォーカス動作でフォーカスを合わせた領域周辺の領域におけるピント具合を示す平均スコアを算出する。
 具体的には、警告制御処理部85は、判定対象領域の各領域の合焦スコアの和を、判定対象領域を構成する領域の数、すなわちM’×N’で除算することにより、平均スコアを求める。したがって平均スコアは、判定対象領域内の各領域の合焦スコアの平均値となる。
 警告制御処理部85は、求めた平均スコアが予め定めた閾値th未満である場合、撮影により得られた撮影画像R16における、フォーカスを合わせようとした部分のピント具合が不十分であるとし、表示用処理部80に警告表示を指示する。
 平均スコアが閾値th未満であるということは、フォーカスを合わせようとした部分近傍において、平均的にみるとピントが合っていないということであるので、撮影画像R16は手ぶれによりぼけていたり、光学的なピンボケが生じていたりする可能性が高い。
 表示用処理部80は、警告制御処理部85の指示に応じて、適宜、解像度変換部74により解像度変換された撮影画像R16に、ピント具合に関する警告を示す情報を重畳して表示部26に表示させる。
 これにより、例えば矢印Q25に示すように、撮影画像R16に重畳して警告アイコンAC11が表示されるとともに、警告を示す文字メッセージ「ピントの確認をお勧めします」が表示される。このように、ピント具合に関する警告を示す警告アイコンAC11や文字メッセージを表示させることで、ユーザは、画像がぼけているかどうかの確認、つまりピント具合の確認が必要であるかどうかを簡単かつ直感的に知ることができる。この表示を見たユーザは、適宜、撮影画像R16を拡大表示させるなどして、ピント具合を詳細に確認する。
 図4の例では、警告アイコンAC11および文字メッセージは、撮影画像R16を見やすくするために、表示画面の予め定められた位置に表示されている。すなわち、警告アイコンAC11は表示画面の図中、左上に表示されており、文字メッセージは表示画面の図中、下側に表示されている。
 なお、警告アイコンAC11は、表示画面の左上の位置に限らず、どのような位置に表示されてもよい。例えば、図5に示すように判定対象領域の近傍に表示されるようにしてもよい。この場合、ユーザは、撮影画像R16上のどの部分のピントがぼけているかを簡単かつ直感的に知ることができる。なお、図5において、図4における場合と対応する部分には同一の符号を付してあり、その説明は省略する。
 また、平均スコアが閾値th以上であり、撮影画像R16のピント具合が十分である場合には、その旨の文字メッセージやアイコン等を表示部26に表示させるようにしてもよい。
〈撮影処理の説明〉
 次に、以上において説明した処理が行われる場合における、撮像装置11の具体的な動作について説明する。
 まず、図6のフローチャートを参照して、撮像装置11による撮影処理について説明する。
 ステップS11において、イメージャ51は、撮影画像を撮影する。
 具体的には、イメージャ51は、光学系21を介して被写体から入射した光を受光して光電変換し、その結果得られた撮影画像をデジタル信号処理LSI52に供給する。プリ処理部71や同時化部72等のデジタル信号処理LSI52を構成する各部は、イメージャ51から供給された撮影画像に対して各種の処理を施して撮影画像の現像を行う。
 また、現像処理された撮影画像は、表示用処理部80により表示部26に供給され、表示される。すなわち、現像処理された撮影画像がスルー画像として表示される。さらに、AF検波処理部76は、必要に応じて撮影画像や、イメージャ51等で取得されたフォーカス動作のための情報に基づいて、オートフォーカスの状態の評価値を算出し、フォーカスレンズ制御処理部84に供給する。
 ステップS12において、フォーカスレンズ制御処理部84は、AF検波処理部76から供給された評価値に基づいてレンズ駆動用ドライバIC55を制御し、フォーカス動作を実行させる。
 ステップS13において、制御部54は、ユーザインターフェース53としてのシャッタボタン22から供給される信号に基づいて、シャッタボタン22が押されたか否かを判定する。例えば、シャッタボタン22が全押しされて撮影が指示されると、シャッタボタン22が押されたと判定される。
 ステップS13において、シャッタボタン22が押されていないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。
 これに対して、ステップS13において、シャッタボタン22が押されたと判定された場合、ステップS14において、デジタル信号処理LSI52は、制御部54の制御に従って現像処理された撮影画像をキャプチャする。
 すなわち、デジタル信号処理LSI52は、現像処理された撮影画像を、撮影された撮影画像としてメモリ79に供給し、保持させる。
 ステップS15において、フォーカスレンズ制御処理部84は、撮影時のフォーカス動作に用いた情報に基づいてAF領域情報を生成するとともに、AF領域情報をデジタル信号処理LSI52に供給し、保持させる。
 デジタル信号処理LSI52は、フォーカスレンズ制御処理部84から供給されたAF領域情報をメモリ79に供給し、撮影画像と対応付けて保持させる。なお、必要に応じてEXIFデータにAF領域情報が格納されて、そのEXIFデータがメモリ79に保持されるようにしたり、AF領域情報が格納されたEXIFデータが撮影画像に付加されたりしてもよい。
 このようにしてAF領域情報が保持されると、撮影処理は終了する。
 以上のようにして撮影画像が得られると、得られた撮影画像は表示用処理部80により表示部26に供給され、プレビュー画像として表示される。また、撮影画像は、適切なタイミングで、適宜CODEC75により符号化されて記録部57に記録される。
〈警告処理の説明〉
 また、プレビュー画像が表示されている状態等において、ユーザがユーザインターフェース53を操作して警告表示を指示した場合や、警告処理が自動的に開始される設定となっている状態で、プレビュー画像が所定時間表示された場合、警告処理が開始される。以下、図7のフローチャートを参照して、撮像装置11による警告処理について説明する。
 ステップS41において、警告制御処理部85は、メモリ79からAF領域情報を取得する。なお、AF領域情報は、メモリ79に保持されている撮影画像に付加されているEXIFデータから読み出されてもよい。
 ステップS42において、警告制御処理部85は、合焦領域判定処理部77に合焦領域判定処理の実行を指示する。
 ステップS43において、合焦領域判定処理部77は、警告制御処理部85の指示に応じてメモリ79から撮影画像を読み出して、合焦領域判定処理を行う。
 例えば、合焦領域判定処理部77は、撮影画像をM×N個の領域に分割し、分割された各領域について、領域内の各画素の輝度信号を生成する。例えば輝度信号はYC生成部73が生成するようにしてもよい。
 また、合焦領域判定処理部77は、分割された領域内の各画素の輝度信号に対してハイパスフィルタ等を用いたフィルタ処理を施して高域成分を抽出し、得られた高域成分を絶対値化する。さらに、合焦領域判定処理部77は、分割された領域内の各画素について得られた高域成分の絶対値に対して高域成分ノイズ除去とリミッタ処理を行った後、領域内の各画素の高域成分の絶対値を積分することで、分割された領域の合焦スコアを算出する。すなわち、分割された領域の各画素の高域成分の絶対値の総和が、その領域の合焦スコアとされる。
 撮影画像では、ピントが合っている領域、つまり合焦の度合いの高い領域ではエッジ成分が顕著に表れることから、ピントが合っている領域ほど、高域成分の積算値である合焦スコアが大きい値となる。
 合焦領域判定処理部77は、このようにして得られた撮影画像の各領域の合焦スコアを、合焦領域判定処理の結果として警告制御処理部85に供給する。
 なお、合焦領域判定処理は、以上において説明した処理に限らず、撮影画像の各領域の合焦度合いが得られるものであれば、どのような処理であってもよい。
 例えば、ピントが合っている学習画像と、ピントが合っていない、ぶれやぼけが生じた学習画像とを用いた機械学習により得られた識別器(辞書)が用いられて、撮影画像の各領域の合焦スコアが求められてもよい。そのような場合、合焦領域判定処理部77は、撮影画像の各領域から特徴量を抽出するとともに、各領域の特徴量を識別器に代入して演算を行い、その結果得られた値を各領域の合焦スコアとする。
 ステップS44において、警告制御処理部85は、合焦領域判定処理部77から、合焦領域判定処理の結果として撮影画像の各領域の合焦スコアを取得する。
 ステップS45において、警告制御処理部85は、取得したM×N個の各領域の合焦スコアのなかから、AF領域情報により定まる判定対象領域を構成するM’×N’個の各領域の合焦スコアを抽出する。例えば、AF領域情報により示される領域が、そのまま判定対象領域とされる。
 ステップS46において、警告制御処理部85は、判定対象領域を構成するM’×N’個の各領域の合焦スコアに基づいて、判定対象領域の平均スコアを算出する。
 なお、ここでは、撮影画像の撮影時にフォーカスを合わせようとした部分で十分にピントが合っているかを判定するための情報として、判定対象領域の平均スコアを用いる例について説明するが、他のどのような情報が用いられてもよい。
 例えば、判定対象領域内の合焦スコアの高い領域の平均スコアを用いてもよいし、判定対象領域内の最も高い合焦スコアを用いるようにしてもよい。但し、1つの領域の合焦スコアでピント具合が十分であるかを判定するよりも、複数の領域の合焦スコアの平均値である平均スコアを用いて判定を行う方が、より精度よくピント具合を判定することができる。
 ステップS47において、警告制御処理部85は、求めた平均スコアと閾値thとを比較して、平均スコアが閾値th未満であるか否かを判定する。
 ステップS47において閾値th未満でないと判定された場合、判定対象領域の平均スコアは十分に大きく、判定対象領域は十分ピントが合っている状態となっているので、見栄えのよい撮影画像が得られた、つまり撮影画像の撮り直しは不要であるとされ、警告処理は終了する。なお、この場合、特にユーザの指示により警告処理が開始されるときには、撮り直しが不要であることがユーザに対して通知されるようにしてもよい。
 これに対して、ステップS47において閾値th未満であると判定された場合、処理はステップS48に進む。この場合、判定対象領域の平均スコアは小さく、判定対象領域は十分にピントが合っていない状態となっているので、必要に応じて撮影画像の撮り直しを行った方がよい。
 そこで、ステップS48において、警告制御処理部85は、必要に応じて判定対象領域の位置を示す情報を表示用処理部80に供給し、表示用処理部80に警告表示を指示する。
 ステップS49において、表示用処理部80は、警告制御処理部85の指示に応じて警告アイコン等の警告表示を行うための画像や文字メッセージを生成して表示部26に供給し、表示させることで、警告表示を行う。表示部26は、表示用処理部80から供給された画像等に基づいて警告を表示する。
 これにより、例えば図4や図5に示したように、撮影画像に重畳されて警告アイコンや文字メッセージが表示される。警告表示が行われると、警告処理は終了する。
 以上のようにして、撮像装置11は、撮影により得られた撮影画像における、フォーカスを合わせようとしていた領域近傍のピント具合を示す平均スコアを算出し、その平均スコアに応じて警告表示を行う。
 このように、撮影により得られた撮影画像から、その撮影画像のピント具合が十分であるか否かを判定し、その判定結果に応じて警告表示を行うことで、手ぶれや光学的なピンボケ等の要因によらず、ユーザにピント具合の確認を促すことができる。これにより、ユーザは、より簡単かつ直感的に撮影後の画像のピント具合を知ることができる。
 したがって、撮影画像が表示される画面が小型であったために、これまではユーザがピントのぼけやぶれに気付かなかったシーンでも、撮影直後に、その場で再度の撮影が必要かどうかを判断することができ、撮影機会の損失を減少させることができる。
〈第1の実施の形態の変形例1〉
〈警告処理の説明〉
 なお、第1の実施の形態では、撮影画像全体を対象として合焦領域判定処理を行う場合について説明したが、判定対象領域のみが対象とされて合焦領域判定処理が行われるようにしてもよい。
 そのような場合、図6を参照して説明した撮影処理が行われた後、図8に示す警告処理が行われる。以下、図8のフローチャートを参照して、撮像装置11による警告処理を説明する。
 なお、ステップS71の処理は、図7のステップS41の処理と同様であるので、その説明は省略する。
 ステップS72において、警告制御処理部85は、AF領域情報により定まる判定対象領域を示す情報を合焦領域判定処理部77に供給して、判定対象領域のみを対象とする合焦領域判定処理の実行を合焦領域判定処理部77に指示する。
 ステップS73において、合焦領域判定処理部77は、警告制御処理部85の指示に応じて、メモリ79から撮影画像のうちの判定対象領域の部分を読み出して、合焦領域判定処理を行う。これにより、判定対象領域を構成するM’×N’個の各領域の合焦スコアが得られる。
 ステップS74において、警告制御処理部85は、合焦領域判定処理部77から、合焦領域判定処理の結果として判定対象領域を構成するM’×N’個の各領域の合焦スコアを取得する。
 ステップS75において、警告制御処理部85は、判定対象領域を構成するM’×N’個の各領域の合焦スコアに基づいて、判定対象領域の平均スコアを算出する。
 平均スコアが算出されると、その後、ステップS76乃至ステップS78の処理が行われて警告処理は終了するが、これらの処理は図7のステップS47乃至ステップS49の処理と同様であるので、その説明は省略する。
 以上のようにして、撮像装置11は、撮影画像上の判定対象領域のみを対象として合焦領域判定処理を行って、判定対象領域の平均スコアを算出し、その平均スコアに応じて警告表示を行う。
 このように、判定対象領域の平均スコアに応じて警告表示を行うことで、手ぶれや光学的なピンボケ等の要因によらず、ユーザにピント具合の確認を促すことができる。これにより、ユーザは、より簡単かつ直感的に撮影後の画像のピント具合を知ることができる。
 また、判定対象領域のみを対象として合焦領域判定処理を行うことで、図7を参照して説明した例よりも、さらに合焦領域判定処理の処理時間を短くすることができる。さらに、メモリ79から読み出される撮影画像の帯域(領域)も少なくて済むので、より迅速に処理を行うことができるだけでなく、消費電力も少なくすることができる。
〈第2の実施の形態〉
〈撮像装置の処理の概要〉
 なお、以上においてはAF領域情報から定まる領域が判定対象領域とされる場合について説明したが、ユーザによりピント具合の確認を行おうとする領域(位置)が指定されるようにしてもよい。
 そのような場合、図3を参照して説明した撮影処理が行われた後、例えば図9に示す警告処理が行われる。なお、図9において、図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 警告処理が開始される場合、まず、図中、左上に示すように処理対象となっている撮影画像R16が、必要に応じて記録部57から読み出され、メモリ79に供給される。なお、撮影直後に警告処理が行われる場合には、撮影画像R16はすでにメモリ79に保持されているため、撮影画像R16のロードは不要である。この場合、メモリ79には、AF領域情報とEXIFデータも保持されている。
 続いて、プレビュー画像として撮影画像R16が表示されている状態で、矢印Q31に示すように、ユーザはユーザインターフェース53を操作して、ピント具合を確認しようとする領域(以下、指定領域とも称する)を指示する。
 この例では、ユーザが表示部26に重畳されている、ユーザインターフェース53としてのタッチパネルを直接タッチして、撮影画像R16上のピント具合を確認しようとする位置を指定領域として指定している。なお、指定領域の指定は、ユーザインターフェース53としてのダイヤル等が操作されて指定されてもよいし、撮影画像R16上の所定の大きさの領域が指定されてもよい。
 このようにユーザによって指定領域が指定されると、矢印Q32に示すように、警告制御処理部85は指定領域に基づいて判定対象領域DR11を定め、合焦領域判定処理部77に判定対象領域DR11のみを対象とする合焦領域判定処理の実行を指示する。なお、判定対象領域DR11は、例えば指定領域を中心とし、指定領域全体を含む領域とされる。
 合焦領域判定処理部77は、警告制御処理部85の指示に従って、メモリ79から撮影画像R16の判定対象領域DR11の部分を読み出し、合焦領域判定処理を行う。
 合焦領域判定処理では、例えば矢印Q22に示すように撮影画像R16が、M×N個の領域に分割される。そして、矢印Q33に示すように、それらのM×N個の領域のうちの判定対象領域DR11のみが処理対象とされて、判定対象領域DR11を構成するM’×N’個の各領域の合焦スコアが算出され、警告制御処理部85に供給される。
 警告制御処理部85は、合焦領域判定処理部77から供給された判定対象領域DR11の各領域の合焦スコアに基づいて平均スコアを算出し、平均スコアが閾値th未満である場合、表示用処理部80に警告表示を指示する。
 表示用処理部80は、警告制御処理部85の指示に応じて、適宜、解像度変換部74により解像度変換された撮影画像R16に、ピント具合に関する警告を示す情報を重畳して表示部26に表示させる。
 これにより、例えば矢印Q34に示すように、撮影画像R16に重畳して警告アイコンAC11が表示されるとともに、警告を示す文字メッセージ「ピントの確認をお勧めします」が表示される。このように、警告アイコンAC11や文字メッセージを表示させることで、ユーザは、ピント具合の確認が必要であるかどうかを簡単かつ直感的に知ることができる。
 図9の例では、警告アイコンAC11は表示画面の図中、左上に表示されており、文字メッセージは表示画面の図中、下側に表示されている。
 なお、警告アイコンAC11は、表示画面の左上の位置に限らず、どのような位置に表示されてもよい。例えば、図5に示した例と同様に、判定対象領域DR11の近傍に警告アイコンAC11が表示されるようにしてもよい。
〈警告処理の説明〉
 次に、図9に示した警告処理のより具体的な処理内容について説明する。以下、図10のフローチャートを参照して、撮像装置11による警告処理を説明する。
 ステップS101において、警告制御処理部85は、ユーザインターフェース53から、指定領域を示す情報を取得する。
 例えば、ユーザはユーザインターフェース53としてのタッチパネルをタッチして指定領域を指定したり、ユーザインターフェース53としてのダイヤル等を操作して指定領域を指定したりする。警告制御処理部85は、ユーザによる操作に応じてユーザインターフェース53から出力される情報を、指定領域を示す情報として取得する。
 ステップS102において、警告制御処理部85は、指定領域に対して定まる判定対象領域を示す情報を合焦領域判定処理部77に供給して、判定対象領域のみを対象とする合焦領域判定処理の実行を合焦領域判定処理部77に指示する。例えば判定対象領域は、指定領域を中心とする所定の大きさの領域とされる。
 ステップS103において、合焦領域判定処理部77は、警告制御処理部85の指示に応じて、メモリ79から撮影画像のうちの判定対象領域の部分を読み出して、合焦領域判定処理を行う。これにより、判定対象領域を構成するM’×N’個の各領域の合焦スコアが得られる。
 ステップS104において、警告制御処理部85は、合焦領域判定処理部77から、合焦領域判定処理の結果として判定対象領域を構成するM’×N’個の各領域の合焦スコアを取得する。
 ステップS105において、警告制御処理部85は、判定対象領域を構成するM’×N’個の各領域の合焦スコアに基づいて、判定対象領域の平均スコアを算出する。
 平均スコアが算出されると、その後、ステップS106乃至ステップS108の処理が行われて警告処理は終了するが、これらの処理は図7のステップS47乃至ステップS49の処理と同様であるので、その説明は省略する。
 以上のようにして、撮像装置11は、ユーザにより指定された領域を含む判定対象領域のみを対象として合焦領域判定処理を行って、判定対象領域の平均スコアを算出し、その平均スコアに応じて警告表示を行う。
 このように、判定対象領域の平均スコアに応じて警告表示を行うことで、手ぶれや光学的なピンボケ等の要因によらず、ユーザにピント具合の確認を促すことができる。これにより、ユーザは、より簡単かつ直感的に撮影後の画像のピント具合を知ることができる。
 特に、ユーザにより指定された領域を含む判定対象領域のみを処理の対象とすることで、より迅速に処理を行うことができるだけでなく、消費電力も少なくすることができる。また、ユーザは所望する領域のピント具合を確実に知ることができる。
〈第3の実施の形態〉
〈撮像装置の処理の概要〉
 ところで、人の顔を被写体として撮影画像を撮影するときには、ユーザは人の顔の部分にピントを合わせ、撮影後には、その顔の部分のピント具合を確認したいはずである。そこで、撮影画像から顔領域を検出し、その顔領域のみを合焦領域判定処理の対象である判定対象領域とするようにしてもよい。
 そのような場合、例えば図11に示す撮影処理と図12に示す警告処理が行われる。
 すなわち、図11に示すように、撮影動作が開始されると、イメージャ51は、光学系21を介して入射する光を受光して光電変換する。これにより、各フレームの撮影画像F31乃至撮影画像F36が得られる。なお、撮影画像F31乃至撮影画像F36のうち、図中、手前側にあるものほど後の時刻、つまり現在時刻により近い時刻に撮影された撮影画像となっている。
 このような各フレームの撮影画像の撮影時には、顔検出処理部78は、撮影画像から人の顔の領域を検出する。また、AF検波処理部76は、各フレームの撮影画像に基づいてオートフォーカスの状態を示す評価値を算出し、制御部54に供給する。制御部54のフォーカスレンズ制御処理部84は、AF検波処理部76から供給された評価値に基づいてレンズ駆動用ドライバIC55を制御し、フォーカス動作を実行させる。
 これにより、レンズ駆動用ドライバIC55によって光学系21のフォーカスレンズ等が駆動され、被写体にピントが合う状態とされる。特に、撮影画像から顔領域が検出された場合には、その顔領域にピントがあうようにフォーカス動作が行われる。
 また、各フレームの撮影画像F31乃至撮影画像F36が得られると、これらの撮影画像に対して現像処理が行われ、その結果得られた撮影画像R31乃至撮影画像R36が撮影時のスルー画像として表示部26に順番に表示される。
 ユーザは、表示部26に表示されたスルー画像を見ながら被写体を確認し、シャッタボタン22等を操作して、撮影を行う。
 この例では、撮影画像F31乃至撮影画像F33からは顔領域が検出されているので、それらの撮影画像を現像して得られた撮影画像R31乃至撮影画像R33には、検出された顔領域を示す枠FC11が表示されている。
 さらに、矢印Q41に示すように、ユーザが撮影画像F33の取り込み時にシャッタボタン22を半押しすると、それ以降のフレームの撮影画像R34乃至撮影画像R36には、オートフォーカスのターゲットの枠FR31が表示される。この例では、顔領域を示す枠FC11の領域が、そのままターゲットの枠FR31とされている。
 ユーザは、枠FR31内の被写体にフォーカス(ピント)が合った状態となったと判断すると、シャッタボタン22を全押しして画像の撮影を指示する。
 この例では、矢印Q42に示すように、撮影画像F36の取り込み時にシャッタボタン22が全押しされているので、撮影画像F36を現像処理して得られた撮影画像R36が、撮影により得られた画像としてキャプチャされる。
 このようにして撮影された撮影画像R36は、図中、右側に示すようにメモリ79に保持された後、記録部57に記録されるとともに、撮影後のプレビュー画像として表示部26に表示される。
 また、撮像装置11では、撮影画像R36がメモリ79に保持されると同時に、撮影画像F36の撮影時にオートフォーカスにおける合焦の対象とされた顔領域を示す情報も顔領域情報としてメモリ79に保持される。
 さらに図11の例では、メモリ79には、顔領域情報に加えて、顔領域情報が格納されたEXIFデータも保持されている。このEXIFデータは、撮影画像R36のメタデータとして付加されるデータであり、例えば顔領域情報は、EXIFデータの自由領域に記録される。なお、撮影画像から顔が検出されなかった場合には、顔領域情報の記録は行われない。
 以上のようにして撮影画像R36、顔領域情報、およびEXIFデータがメモリ79に保持されると、その後、適切なタイミングで、撮影画像R36にEXIFデータが付加されて、EXIFデータが付加された撮影画像R36が記録部57に記録される。また、撮影画像R36が、撮影後のプレビュー画像として表示部26に表示される。
 さらに、撮影画像R36がプレビュー画像として表示された状態で、例えば図12の左下部分の矢印Q51に示すように、ユーザがユーザインターフェース53に対する操作を行い、ピント具合の確認指示をしたとする。
 すると、撮像装置11では、撮影した撮影画像R36のピント具合が十分であるかどうかを確認して、必要に応じて警告を発する警告処理が行われる。なお、上述したように警告処理は自動的に開始されるようにしてもよい。
 警告処理が開始されると、まず、撮影画像R36が、必要に応じて記録部57から読み出され、メモリ79に供給される。なお、撮影直後に警告処理が行われる場合には、撮影画像R36はすでにメモリ79に保持されているため、撮影画像R36のロードは不要である。この場合、メモリ79には、顔領域情報とEXIFデータも保持されている。
 次に、警告制御処理部85は、撮影画像R36における、メモリ79に保持されている顔領域情報により示される顔領域である枠FR31のみを対象とする合焦領域判定処理の実行を合焦領域判定処理部77に指示する。
 すると、合焦領域判定処理部77は、メモリ79から、撮影画像R36の顔領域の部分を読み出して、顔領域に対する合焦領域判定処理を行う。
 合焦領域判定処理では、例えば矢印Q52に示すように撮影画像R36が、M×N個の領域に分割される。そして、矢印Q53に示すように、それらのM×N個の領域のうちの顔領域であるとされた枠FR31の領域のみが処理対象とされて、枠FR31の領域を構成するM’×N’個の各領域の合焦スコアが算出され、警告制御処理部85に供給される。
 警告制御処理部85は、合焦領域判定処理部77から供給された顔領域内の各領域の合焦スコアに基づいて平均スコアを算出し、平均スコアが閾値th未満である場合、表示用処理部80に警告表示を指示する。
 表示用処理部80は、警告制御処理部85の指示に応じて、適宜、解像度変換部74により解像度変換された撮影画像R36に、ピント具合に関する警告を示す情報を重畳して表示部26に表示させる。
 これにより、例えば矢印Q54に示すように、撮影画像R36に重畳して警告アイコンAC31が表示されるとともに、警告を示す文字メッセージ「ピントの確認をお勧めします」が表示される。このように、警告アイコンAC31や文字メッセージを表示させることで、ユーザは、ピント具合の確認が必要であるかどうかを簡単かつ直感的に知ることができる。
 図12の例では、警告アイコンAC31は表示画面の図中、右上に表示されており、文字メッセージは表示画面の図中、下側に表示されている。また、撮影画像R36上には、顔領域を示す枠FR31も表示されている。
 なお、警告アイコンAC31は、表示画面の右上の位置に限らず、どのような位置に表示されてもよい。例えば、図13に示すように顔領域の近傍に表示されるようにしてもよい。この場合、ユーザは、撮影画像R36上のどの部分のピントがぼけているかを簡単かつ直感的に知ることができる。また、警告アイコンAC31により顔が隠れてしまうこともない。なお、図13において、図12における場合と対応する部分には同一の符号を付してあり、その説明は省略する。
〈撮影処理の説明〉
 次に、図11および図12において説明した処理が行われる場合における、撮像装置11の具体的な動作について説明する。
 まず、図14のフローチャートを参照して、撮像装置11による撮影処理について説明する。なお、ステップS131の処理は、図6のステップS11の処理と同様であるので、その説明は省略する。
 ステップS132において、顔検出処理部78は、撮影により得られた撮影画像に対して顔検出を行い、人の顔の領域を検出する。例えば顔検出では、撮影画像から抽出された特徴量に基づいて、顔領域が検出される。顔検出処理部78は、顔領域の検出結果を制御部54に供給する。
 ステップS133において、フォーカスレンズ制御処理部84は、AF検波処理部76から供給された評価値に基づいてレンズ駆動用ドライバIC55を制御し、フォーカス動作を実行させる。このとき、例えば撮影画像から検出された顔領域がフォーカスを合わせる対象となる領域とされる。
 フォーカス動作が行われると、その後、ステップS134およびステップS135の処理が行われて撮影画像のキャプチャが行われるが、これらの処理は図6のステップS13およびステップS14の処理と同様であるので、その説明は省略する。
 ステップS136において、フォーカスレンズ制御処理部84は、顔検出処理部78により検出された顔領域を示す顔領域情報をデジタル信号処理LSI52に供給し、保持させる。
 デジタル信号処理LSI52は、フォーカスレンズ制御処理部84から供給された顔領域情報をメモリ79に供給し、撮影画像と対応付けて保持させる。なお、必要に応じてEXIFデータに顔領域情報が格納されて、そのEXIFデータがメモリ79に保持されるようにしたり、顔領域情報が格納されたEXIFデータが撮影画像に付加されたりしてもよい。
 このようにして顔領域情報が保持されると、撮影処理は終了する。なお、撮影画像から顔領域が検出されなかった場合には、顔領域情報は記録されない。
 以上のようにして撮影画像が得られると、得られた撮影画像はプレビュー画像として表示部26に表示される。また、撮影画像は、適切なタイミングで、適宜CODEC75により符号化されて記録部57に記録される。
〈警告処理の説明〉
 プレビュー画像が表示されている状態等において、ユーザがユーザインターフェース53を操作して警告表示を指示した場合や、警告処理が自動的に開始される設定となっている状態で、プレビュー画像が所定時間表示された場合、警告処理が開始される。以下、図15のフローチャートを参照して、撮像装置11による警告処理について説明する。
 ステップS161において、警告制御処理部85は、メモリ79から顔領域情報を取得する。なお、顔領域情報は、メモリ79に保持されている撮影画像に付加されているEXIFデータから読み出されてもよい。
 ステップS162において、警告制御処理部85は、撮影画像の撮影時に顔が検出されたか否かを判定する。例えば、顔領域情報がメモリ79に保持されていたか、またはEXIFデータに含まれていた場合、顔が検出されたと判定される。
 ステップS162において、顔が検出されなかったと判定された場合、顔部分のピント具合を判定することができないので、警告処理は終了する。
 これに対して、ステップS162において、顔が検出されたと判定された場合、ステップS163において、警告制御処理部85は、顔領域情報を合焦領域判定処理部77に供給して、顔領域のみを対象とする合焦領域判定処理の実行を合焦領域判定処理部77に指示する。
 ステップS164において、合焦領域判定処理部77は、警告制御処理部85の指示に応じて、メモリ79から撮影画像のうちの顔領域の部分を読み出して、合焦領域判定処理を行う。これにより、顔領域を構成するM’×N’個の各領域の合焦スコアが得られる。
 ステップS165において、警告制御処理部85は、合焦領域判定処理部77から、合焦領域判定処理の結果として顔領域を構成するM’×N’個の各領域の合焦スコアを取得する。
 ステップS166において、警告制御処理部85は、顔領域を構成するM’×N’個の各領域の合焦スコアに基づいて、顔領域の平均スコアを算出する。
 平均スコアが算出されると、その後、ステップS167乃至ステップS169の処理が行われて警告処理は終了するが、これらの処理は図7のステップS47乃至ステップS49の処理と同様であるので、その説明は省略する。
 以上のようにして、撮像装置11は、撮影画像上の顔領域のみを対象として合焦領域判定処理を行って、顔領域の平均スコアを算出し、その平均スコアに応じて警告表示を行う。
 このように、顔領域の平均スコアに応じて警告表示を行うことで、手ぶれや光学的なピンボケ等の要因によらず、ユーザにピント具合の確認を促すことができる。これにより、ユーザは、より簡単かつ直感的に撮影後の画像のピント具合を知ることができる。
 また、顔領域のみを対象として合焦領域判定処理を行うことで、さらに合焦領域判定処理の処理時間を短くすることができるとともに、消費電力も少なくすることができる。
〈第4の実施の形態〉
〈警告処理の説明〉
 なお、以上においては、ユーザに対する警告を発する方法として、警告表示を行う場合について説明したが、警告音声を出力することにより、ユーザに対して警告を発するようにしてもよい。
 そのような場合、図7、図8、図10、および図15を参照して説明した各警告処理に対応する処理として、例えば図16乃至図19に示す処理が行われる。以下、図16乃至図19のフローチャートを参照して、警告音声による警告処理について説明する。
 まず、図16のフローチャートを参照して、図7に示した警告処理に対応する警告処理について説明する。なお、ステップS191乃至ステップS197の処理は、図7のステップS41乃至ステップS47の処理と同様であるので、その説明は省略する。
 ステップS198において、警告制御処理部85は、スピーカ駆動処理部82に警告を指示する。
 すると、ステップS199において、スピーカ駆動処理部82は、警告制御処理部85の指示に応じて警告音声の音声信号をスピーカ59に供給し、警告音声を出力させる。スピーカ59は、スピーカ駆動処理部82から供給された音声信号に基づいて、警告音声を再生することで警告を発し、警告処理は終了する。
 なお、警告音声は、音声メッセージでもよいし、所定のパターンの音でもよい。
 以上のようにして、撮像装置11は警告音声によりピント具合の確認を促す警告を発する。これにより、ユーザは表示部26を見ていない時でも、ピント具合の確認が必要であることを簡単かつ直感的にに知ることができる。
 次に、図17のフローチャートを参照して、図8に示した警告処理に対応する警告処理について説明する。なお、ステップS221乃至ステップS226の処理は、図8のステップS71乃至ステップS76の処理と同様であるので、その説明は省略する。
 ステップS227において、警告制御処理部85は、スピーカ駆動処理部82に警告を指示する。そして、ステップS228において、スピーカ駆動処理部82は、警告制御処理部85の指示に応じて警告音声の音声信号をスピーカ59に供給し、警告音声を出力させる。スピーカ59は、スピーカ駆動処理部82からの音声信号に基づいて、警告音声を再生することで警告を発し、警告処理は終了する。
 以上のようにして、撮像装置11は警告音声によりピント具合の確認を促す警告を発する。これにより、ユーザは表示部26を見ていない時でも、ピント具合の確認が必要であることを簡単かつ直感的に知ることができる。
 また、図18のフローチャートを参照して、図10に示した警告処理に対応する警告処理について説明する。なお、ステップS251乃至ステップS256の処理は、図10のステップS101乃至ステップS106の処理と同様であるので、その説明は省略する。
 ステップS257において、警告制御処理部85は、スピーカ駆動処理部82に警告を指示する。そして、ステップS258において、スピーカ駆動処理部82は、警告制御処理部85の指示に応じて警告音声の音声信号をスピーカ59に供給し、警告音声を出力させる。スピーカ59は、スピーカ駆動処理部82からの音声信号に基づいて、警告音声を再生することで警告を発し、警告処理は終了する。
 以上のようにして、撮像装置11は警告音声によりピント具合の確認を促す警告を発する。これにより、ユーザは表示部26を見ていない時でも、ピント具合の確認が必要であることを簡単かつ直感的に知ることができる。
 さらに、図19のフローチャートを参照して、図15に示した警告処理に対応する警告処理について説明する。なお、ステップS281乃至ステップS287の処理は、図15のステップS161乃至ステップS167の処理と同様であるので、その説明は省略する。
 ステップS288において、警告制御処理部85は、スピーカ駆動処理部82に警告を指示する。そして、ステップS289において、スピーカ駆動処理部82は、警告制御処理部85の指示に応じて警告音声の音声信号をスピーカ59に供給し、警告音声を出力させる。スピーカ59は、スピーカ駆動処理部82からの音声信号に基づいて、警告音声を再生することで警告を発し、警告処理は終了する。
 以上のようにして、撮像装置11は警告音声によりピント具合の確認を促す警告を発する。これにより、ユーザは表示部26を見ていない時でも、ピント具合の確認が必要であることを簡単かつ直感的に知ることができる。
〈第5の実施の形態〉
〈警告処理の説明〉
 また、以上においては、ユーザに対する警告を発する他の方法として、音声による警告を例として説明したが、ユーザに対して光により警告を発するようにしてもよい。
 そのような場合、図7、図8、図10、および図15を参照して説明した各警告処理に対応する処理として、例えば図20乃至図23に示す処理が行われる。以下、図20乃至図23のフローチャートを参照して、発光による警告処理について説明する。
 まず、図20のフローチャートを参照して、図7に示した警告処理に対応する警告処理について説明する。なお、ステップS311乃至ステップS317の処理は、図7のステップS41乃至ステップS47の処理と同様であるので、その説明は省略する。
 ステップS318において、警告制御処理部85は、発光素子駆動処理部83に警告を指示する。
 すると、ステップS319において、発光素子駆動処理部83は、警告制御処理部85の指示に応じて発光素子60を駆動し、発光による警告を行う。発光素子60は、発光素子駆動処理部83により駆動されると所定パターンで発光(点灯)することで警告を発し、警告処理は終了する。
 以上のようにして、撮像装置11は発光によりピント具合の確認を促す警告を発する。これにより、ユーザは表示部26を見ていない時でも、ピント具合の確認が必要であることを簡単かつ直感的に知ることができる。
 次に、図21のフローチャートを参照して、図8に示した警告処理に対応する警告処理について説明する。なお、ステップS341乃至ステップS346の処理は、図8のステップS71乃至ステップS76の処理と同様であるので、その説明は省略する。
 ステップS347において、警告制御処理部85は、発光素子駆動処理部83に警告を指示する。すると、ステップS348において、発光素子駆動処理部83は、警告制御処理部85の指示に応じて発光素子60を駆動し、発光による警告を行う。発光素子60は、発光素子駆動処理部83により駆動されると所定パターンで発光することで警告を発し、警告処理は終了する。
 以上のようにして、撮像装置11は発光によりピント具合の確認を促す警告を発する。これにより、ユーザは表示部26を見ていない時でも、ピント具合の確認が必要であることを簡単かつ直感的に知ることができる。
 また、図22のフローチャートを参照して、図10に示した警告処理に対応する警告処理について説明する。なお、ステップS371乃至ステップS376の処理は、図10のステップS101乃至ステップS106の処理と同様であるので、その説明は省略する。
 ステップS377において、警告制御処理部85は、発光素子駆動処理部83に警告を指示する。すると、ステップS378において、発光素子駆動処理部83は、警告制御処理部85の指示に応じて発光素子60を駆動し、発光による警告を行う。発光素子60は、発光素子駆動処理部83により駆動されると所定パターンで発光することで警告を発し、警告処理は終了する。
 以上のようにして、撮像装置11は発光によりピント具合の確認を促す警告を発する。これにより、ユーザは表示部26を見ていない時でも、ピント具合の確認が必要であることを簡単かつ直感的に知ることができる。
 さらに、図23のフローチャートを参照して、図15に示した警告処理に対応する警告処理について説明する。なお、ステップS401乃至ステップS407の処理は、図15のステップS161乃至ステップS167の処理と同様であるので、その説明は省略する。
 ステップS408において、警告制御処理部85は、発光素子駆動処理部83に警告を指示する。すると、ステップS409において、発光素子駆動処理部83は、警告制御処理部85の指示に応じて発光素子60を駆動し、発光による警告を行う。発光素子60は、発光素子駆動処理部83により駆動されると所定パターンで発光することで警告を発し、警告処理は終了する。
 以上のようにして、撮像装置11は発光によりピント具合の確認を促す警告を発する。これにより、ユーザは表示部26を見ていない時でも、ピント具合の確認が必要であることを簡単かつ直感的に知ることができる。
〈第6の実施の形態〉
〈警告処理の説明〉
 さらに、ユーザに対する警告を発する他の方法として、振動による警告を行うようにしてもよい。
 そのような場合、図7、図8、図10、および図15を参照して説明した各警告処理に対応する処理として、例えば図24乃至図27に示す処理が行われる。以下、図24乃至図27のフローチャートを参照して、振動による警告処理について説明する。
 まず、図24のフローチャートを参照して、図7に示した警告処理に対応する警告処理について説明する。なお、ステップS431乃至ステップS437の処理は、図7のステップS41乃至ステップS47の処理と同様であるので、その説明は省略する。
 ステップS438において、警告制御処理部85は、振動駆動処理部81に警告を指示する。すると、ステップS439において、振動駆動処理部81は、警告制御処理部85の指示に応じて振動部58を駆動し、振動による警告を行う。振動部58は、振動駆動処理部81により駆動されると所定パターンで振動することで警告を発し、警告処理は終了する。
 以上のようにして、撮像装置11は振動によりピント具合の確認を促す警告を発する。これにより、ユーザは表示部26を見ていない時でも、ピント具合の確認が必要であることを簡単かつ直感的に知ることができる。
 次に、図25のフローチャートを参照して、図8に示した警告処理に対応する警告処理について説明する。なお、ステップS461乃至ステップS466の処理は、図8のステップS71乃至ステップS76の処理と同様であるので、その説明は省略する。
 ステップS467において、警告制御処理部85は、振動駆動処理部81に警告を指示する。すると、ステップS468において、振動駆動処理部81は、警告制御処理部85の指示に応じて振動部58を駆動し、振動による警告を行う。振動部58は、振動駆動処理部81により駆動されると所定パターンで振動することで警告を発し、警告処理は終了する。
 以上のようにして、撮像装置11は振動によりピント具合の確認を促す警告を発する。これにより、ユーザは表示部26を見ていない時でも、ピント具合の確認が必要であることを簡単かつ直感的に知ることができる。
 また、図26のフローチャートを参照して、図10に示した警告処理に対応する警告処理について説明する。なお、ステップS491乃至ステップS496の処理は、図10のステップS101乃至ステップS106の処理と同様であるので、その説明は省略する。
 ステップS497において、警告制御処理部85は、振動駆動処理部81に警告を指示する。すると、ステップS498において、振動駆動処理部81は、警告制御処理部85の指示に応じて振動部58を駆動し、振動による警告を行う。振動部58は、振動駆動処理部81により駆動されると所定パターンで振動することで警告を発し、警告処理は終了する。
 以上のようにして、撮像装置11は振動によりピント具合の確認を促す警告を発する。これにより、ユーザは表示部26を見ていない時でも、ピント具合の確認が必要であることを簡単かつ直感的に知ることができる。
 さらに、図27のフローチャートを参照して、図15に示した警告処理に対応する警告処理について説明する。なお、ステップS521乃至ステップS527の処理は、図15のステップS161乃至ステップS167の処理と同様であるので、その説明は省略する。
 ステップS528において、警告制御処理部85は、振動駆動処理部81に警告を指示する。すると、ステップS529において、振動駆動処理部81は、警告制御処理部85の指示に応じて振動部58を駆動し、振動による警告を行う。振動部58は、振動駆動処理部81により駆動されると所定パターンで振動することで警告を発し、警告処理は終了する。
 以上のようにして、撮像装置11は振動によりピント具合の確認を促す警告を発する。これにより、ユーザは表示部26を見ていない時でも、ピント具合の確認が必要であることを簡単かつ直感的に知ることができる。
 なお、以上においては、警告方法として、表示による警告、音声による警告、発光(点灯)による警告、および振動による警告を例として説明したが、これらの表示、音声、発光、および振動の一部または全部を適宜、組み合わせて警告を行うことも勿論可能である。
 また、平均スコアの値に応じて段階的に、または線形に警告表示の色や濃度、音声の音量、発光強度、振動時間等を変化させてもよい。すなわち、平均スコアの値によって定まる色や濃度、音量、発光強度等で警告が発せられるようにしてもよい。さらに平均スコアに応じて表示の点滅パターン、音声や発光、振動のパターンを変化させてもよい。
〈第7の実施の形態〉
〈多機能型携帯電話機の外観の構成例〉
 さらに、以上においては、本技術をデジタルスチルカメラ等の撮像装置11に適用した場合について説明したが、上述したように本技術は、多機能型携帯電話機等にも適用可能である。以下、本技術を多機能型携帯電話機に適用した場合を例として説明する。
 図28は、本技術を適用した多機能型携帯電話機の外観の構成例を示す図である。
 多機能型携帯電話機121は、カメラ機能を有する携帯型電話機からなり、図28では矢印A41に示す図は多機能型携帯電話機121を表面側から見た図であり、矢印A42に示す図は多機能型携帯電話機121を裏面側から見た図である。
 多機能型携帯電話機121の表面には、液晶パネル等からなる表示部131が設けられており、表示部131には図示せぬタッチパネルが重畳して設けられている。例えばユーザは、表示部131に表示される画像等を見たり、表示部131に表示されるアイコン等を操作したりする。
 また、多機能型携帯電話機121の側面には、カメラ機能による撮影時にシャッタボタンとして機能するシャッタボタン132や、音量調整などのためのボタン133等の各種のボタンが設けられている。
 さらに、多機能型携帯電話機121の裏面には、被写体から入射してくる光を図示せぬイメージャへと導く光学系134が設けられており、ユーザは光学系134を所望の被写体に向けて撮影を行う。
〈多機能型携帯電話機の機能の構成例〉
 また、図28に示した多機能型携帯電話機121の機能の構成は、例えば図29に示す構成とされる。なお、図29において、図28または図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 多機能型携帯電話機121は、光学系134、イメージャ161、デジタル信号処理LSI162、ユーザインターフェース163、制御部164、手ぶれセンサ165、記録部166、表示部131、振動部167、スピーカ168、発光素子169、マイクロホン170、および無線通信部171を有している。
 なお、光学系134、イメージャ161乃至記録部166、表示部131、および振動部167乃至発光素子169は、撮像装置11の光学系21、イメージャ51乃至制御部54、手ぶれセンサ56、記録部57、表示部26、および振動部58乃至発光素子60と同様であるので、その説明は適宜省略する。
 この例では、制御部164には、フォーカスレンズ制御処理部84および警告制御処理部85が設けられている。また、ユーザインターフェース163は、例えば表示部131に重畳されたタッチパネルや、シャッタボタン132、ボタン133などから構成される。
 デジタル信号処理LSI162は、手ぶれセンサ165の出力に基づいて、撮影画像に対して電子的な手ぶれ補正を施す。さらに、デジタル信号処理LSI162は、プリ処理部71、同時化部72、YC生成部73、解像度変換部74、CODEC75、AF検波処理部76、合焦領域判定処理部77、顔検出処理部78、メモリ79、表示用処理部80、振動駆動処理部81、スピーカ駆動処理部82、発光素子駆動処理部83、および通話処理部181を備えている。
 通話処理部181は、ユーザによる他の電話機との通話に関する処理を行う。例えば通話処理部181は、マイクロホン170がユーザの音声を収音することで得られた音声信号を無線通信部171に供給し、基地局等を介して通話相手の電話機に送信させる。また、例えば通話処理部181は、通話相手の電話機から送信され、無線通信部171により受信された音声信号を、スピーカ駆動処理部82を介してスピーカ168に供給し、再生させる。
 無線通信部171は、制御部164の制御に従って無線通信を行う。例えば、無線通信部171は、基地局等を介して通話相手との音声信号の送受信を行ったり、Wi-Fi(登録商標)等の比較的近距離での無線による情報の送受信を行ったりする。
〈撮影処理および警告処理の説明〉
 次に、以上において説明した多機能型携帯電話機121の具体的な動作について説明する。まず、図30のフローチャートを参照して、多機能型携帯電話機121による撮影処理について説明する。なお、撮影処理では、ステップS551乃至ステップS555の処理が行われるが、これらの処理は図6のステップS11乃至ステップS15と同様であるので、その説明は省略する。
 また、多機能型携帯電話機121は、撮影処理を行った後、プレビュー画像が表示されている状態等で、ユーザがユーザインターフェース163を操作して警告表示を指示した場合や、警告処理が自動的に開始される設定となっている状態で、プレビュー画像が所定時間表示された場合、警告処理を行う。
 以下、図31のフローチャートを参照して、多機能型携帯電話機121による警告処理について説明する。図31の警告処理では、ステップS581乃至ステップS589の処理が行われるが、これらの処理は図7のステップS41乃至ステップS49の処理と同様であるので、その説明は省略する。
 また、多機能型携帯電話機121では、図14に示した撮影処理と同様の処理、図8や図10、図15乃至図27に示した警告処理と同様の処理が行われるようにしてもよい。
〈第8の実施の形態〉
〈ウェアラブルカメラの外観の構成例〉
 さらに、本技術はウェアラブルカメラと呼ばれる、小型でユーザの頭部等に装着可能なデジタルビデオカメラなどにも適用可能である。以下、本技術をウェアラブルカメラに適用した場合を例として説明する。
 図32は、本技術を適用したウェアラブルカメラの外観の構成例を示す図である。
 ウェアラブルカメラ211の正面には、被写体から入射してくる光を図示せぬイメージャへと導く光学系221が設けられており、ユーザは光学系221を所望の被写体に向けて撮影を行う。
 また、ウェアラブルカメラ211の背面には、図示せぬ録画ボタン等の各種のボタンが設けられており、ユーザはそれらのボタンを操作して、撮影や再生を指示する。さらに、ウェアラブルカメラ211は、無線通信により他の機器、例えば図28に示した多機能型携帯電話機121と情報の授受を行うことができるようになされている。
〈ウェアラブルカメラの機能の構成例〉
 また、図32に示したウェアラブルカメラ211の機能の構成は、例えば図33に示す構成とされる。なお、図33において、図32または図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 ウェアラブルカメラ211は、光学系221、イメージャ251、デジタル信号処理LSI252、ユーザインターフェース253、制御部254、レンズ駆動用ドライバIC255、手ぶれセンサ256、記録部257、および無線通信部258を有している。
 なお、光学系221、およびイメージャ251乃至記録部257は、図2の光学系21、およびイメージャ51乃至記録部57と同様であるので、その説明は適宜省略する。
 この例では、制御部254には、フォーカスレンズ制御処理部84および警告制御処理部85が設けられている。また、デジタル信号処理LSI252は、プリ処理部71、同時化部72、YC生成部73、解像度変換部74、CODEC75、AF検波処理部76、合焦領域判定処理部77、顔検出処理部78、メモリ79、および表示用処理部80を備えている。
 無線通信部258は、デジタル信号処理LSI252の制御に従って無線通信を行う。例えば、無線通信部258は、Wi-Fi(登録商標)等の比較的近距離での無線による情報の送受信を行う。
〈撮影処理の説明〉
 次に、以上において説明したウェアラブルカメラ211の具体的な動作について説明する。まず、図34のフローチャートを参照して、ウェアラブルカメラ211による撮影処理について説明する。
 なお、ステップS611乃至ステップS615の処理は、図6のステップS11乃至ステップS15の処理と同様であるので、その説明は省略する。
 また、表示用処理部80は、撮影画像を無線通信部258に供給し、多機能型携帯電話機121への撮影画像の送信を指示する。
 ステップS616において、無線通信部258は、表示用処理部80から供給された撮影画像を無線により多機能型携帯電話機121に送信し、撮影処理は終了する。
〈警告判定処理の説明〉
 また、ウェアラブルカメラ211は、撮影処理を行って撮影画像をキャプチャすると、その後、例えばピント具合について警告が必要であるかを判定し、その判定結果に応じて警告表示を多機能型携帯電話機121に指示する警告判定処理を行う。この警告判定処理は、ユーザにより指示があったとき、または設定に応じて自動的に開始される。
 以下、図35のフローチャートを参照して、ウェアラブルカメラ211による警告判定処理について説明する。
 なお、ステップS641乃至ステップS647の処理は、図7のステップS41乃至ステップS47の処理と同様であるので、その説明は省略する。
 ステップS648において、警告制御処理部85は、表示用処理部80に警告表示を指示する。すると、表示用処理部80は、警告表示を行う旨の情報を警告指示として生成し、無線通信部258に供給する。
 ステップS649において、無線通信部258は、表示用処理部80から供給された警告指示を、無線により多機能型携帯電話機121に送信し、警告判定処理は終了する。
 以上のようにして、ウェアラブルカメラ211は、撮影により得られた撮影画像に対して合焦領域判定処理を行って警告表示を行うかを判定し、その判定結果に応じて警告表示の指示を多機能型携帯電話機121に送信する。
 このように、必要に応じて警告表示の指示を送信することで、ユーザは撮影後、多機能型携帯電話機121において、より簡単かつ直感的に撮影画像のピント具合を確認することができる。
〈表示処理の説明〉
 また、多機能型携帯電話機121は、ウェアラブルカメラ211から撮影画像が送信されてくると、撮影画像を受信して表示する表示処理を開始する。以下、図36のフローチャートを参照して、多機能型携帯電話機121による表示処理を説明する。
 ステップS671において、無線通信部171は、ウェアラブルカメラ211から無線通信により送信されてきた撮影画像を受信して、デジタル信号処理LSI162に供給する。
 ステップS672において、表示用処理部80は、無線通信部171から供給された撮影画像を表示部131に供給し、表示させる。これにより、撮影画像がプレビュー画像として表示される。
 ステップS673において、警告制御処理部85は、ウェアラブルカメラ211から警告指示が送信されてきたか否かを判定する。
 ステップS673において、警告指示が送信されてきていないと判定された場合、警告表示は行われず、表示処理は終了する。
 これに対して、ステップS673において警告指示が送信されてきたと判定された場合、ステップS674において、無線通信部171はウェアラブルカメラ211から送信されてきた警告指示を受信し、デジタル信号処理LSI162を介して制御部164に供給する。
 ステップS675において、警告制御処理部85は、デジタル信号処理LSI162から供給された警告指示に応じて警告表示を行い、表示処理は終了する。
 具体的には、警告制御処理部85は、表示用処理部80に警告表示を指示する。表示用処理部80は、警告制御処理部85の指示に応じて警告アイコン等の警告表示を行うための画像や文字メッセージを生成して表示部131に供給して表示させることで、警告表示を行う。
 以上のようにして、多機能型携帯電話機121は、ウェアラブルカメラ211からの指示に応じて、警告表示を行う。これにより、ユーザは、より大きい画面で、より簡単かつ直感的に撮影画像のピント具合の確認が必要であるかを知ることができる。
 なお、ウェアラブルカメラ211においても図14に示した撮影処理と同様の処理、図8や図10、図15乃至図27に示した警告処理と同様の処理が行われるようにしてもよい。
〈第9の実施の形態〉
 ところで、以上において説明した本技術は静止画像に限らず動画像に対しても、勿論、適用可能である。
 例えば、撮影画像としての動画像を撮影した後、撮影により得られた動画像を再生するときにピント具合に関する情報をユーザに対して通知するようにすることができる。
 具体的には、ピント具合に関する情報として、ピント具合を示す画像(アイコン)等の表示が行われる場合、例えば図7に示した警告処理と同様の処理が行われる。この処理では、撮影により得られた撮影画像が、適宜、記録部57から読み出されて、撮影画像としての動画像のフレームごとに警告制御処理部85により平均スコアが算出される。
 そして、ステップS48に対応する処理では、警告制御処理部85によって、例えばフレームごとに平均スコアの値に応じた色や濃度の画像等が表示部26に表示されるように、表示用処理部80に対する指示が行われる。すなわち、平均スコアの値に対して予め定められた色や濃度の画像等が、ピント具合を示す画像等として、再生中の動画像に重畳表示される。
 したがって、この場合、撮影画像としての動画像の再生中、継続してピント具合を示す画像等の表示が行われ、その画像等の色や濃度が各フレームの平均スコアの値によって、時間とともに変化することになる。
 このように、平均スコアの時間変化に応じて、表示部26に表示される、ピント具合を示す画像等の色や濃度を時間とともに変化させることで、ユーザは、次第にピントが合ってきているなど、ピント具合の変化を容易に把握することができる。これにより、ユーザは、撮影後に、撮影画像のピント具合を簡単に知ることができる。
 なお、フレームごとにピント具合を示す画像等を表示させる場合には、表示された画像等を見たユーザが、ピント具合が十分であるか、または不十分であるかを直感的に、かつ瞬時に把握できるような画像等が表示されることが望ましい。また、画像に限らず、ピント具合を示す数値や文字メッセージなども表示されるようにしてもよい。
 以上のように、ピント具合を示す表示を行うことは、ピント具合に関する警告を表示することであるともいうことができる。
 また、ここでは撮影された動画像のピント具合について通知を行う処理を、第1の実施の形態で説明した処理に適用する例について説明したが、この処理を上述した第1の実施の形態の変形例1乃至第8の実施の形態で説明した例に対して適用することも勿論可能である。
〈第10の実施の形態〉
 また、以上においては、撮影画像としての動画像の再生時に、再生開始から再生終了まで継続してピント具合に関する表示を行う例について説明したが、ピント具合が不十分である区間についてのみピント具合の表示、例えばピント具合に関する警告表示を行うようにしてもよい。
 そのような場合、例えば図7に示した警告処理では、撮影により得られた撮影画像が、適宜、記録部57から読み出されて、撮影画像としての動画像のフレームごとに警告制御処理部85により平均スコアが算出される。また、ステップS47では、警告制御処理部85によって、フレームごとに平均スコアに対する閾値処理が行われる。
 そして、警告制御処理部85は、連続して並ぶ、平均スコアが閾値未満であると判定された1または複数のフレームからなる区間を、警告表示を行う区間として選択する。
 警告制御処理部85は、撮影画像の再生時には、このようにして選択された区間ごとに警告表示を表示用処理部80に指示し、表示用処理部80は、その指示に従って、表示部26に警告表示を行わせる。
 具体的には、警告制御処理部85は、処理対象の区間について平均スコアの代表値を求め、その代表値に対して予め定められている色や濃度で画像等が表示されるように制御する。ここで、代表値は、例えば処理対象の区間の各フレームの平均スコアの平均値などとされる。
 したがって、この例では、ピント具合が十分であると判定されている間は警告が表示されず、ピント具合が不十分であると判定されたフレームからなる区間において警告が表示されることになる。また、警告表示が行われる場合には、ピント具合が不十分である、つまり平均スコアが閾値未満であると判定されたフレームからなる区間では、その区間において継続して同じ色や濃度で警告が表示され続けることになる。
 さらに、撮影画像の再生時には、撮影画像の先頭位置から終端位置までの各再生位置を示すタイムバーが表示され、タイムバー上にピント具合を示す表示がされるようにしてもよい。例えばタイムバーの各位置が、それらの位置に対応する撮影画像のフレームにおける平均スコアに対して予め定められた色や濃度で表示されるようにすれば、ユーザはタイムバーを見ることで、動画像全体のどの区間でピント具合が不十分であるかを簡単に把握することができる。
 なお、ここでは、1フレームでも平均スコアが閾値未満となるときには、警告を表示する例について説明したが、ピント具合が不十分である状態が数秒など所定時間だけ続いた場合、つまり所定数のフレームだけ継続して平均スコアが閾値未満となった場合に、その区間において警告表示が行われるようにしてもよい。
 なお、ここでは撮影された動画像のピント具合について警告を発する処理を、第1の実施の形態で説明した処理に適用する例について説明したが、この処理を上述した第1の実施の形態の変形例1乃至第8の実施の形態で説明した例に対して適用することも勿論可能である。
〈第11の実施の形態〉
 さらに、撮影画像が動画像とされる場合、撮影画像の撮影時に本技術を適用することも可能である。
 そのような場合、例えば撮影されている撮影画像としての動画像が処理対象とされて図7を参照して説明した警告処理に対応する処理が行われる。すなわち、例えば現時点で撮影されている撮影画像よりも数フレームだけ前の撮影画像、つまり現フレームよりも時間的に前の過去フレームの撮影画像が処理対象とされて、上述した第9の実施の形態で説明した処理と同様の処理が行われる。
 具体的には、例えばステップS46に対応する処理において、警告制御処理部85は、撮影画像としての動画像を構成する、処理対象とされた過去フレームの画像について平均スコアを算出する。そして、ステップS48に対応する処理では、警告制御処理部85は、例えば過去フレームについて求めた平均スコアの値に応じた色や濃度の画像等が表示部26に表示されるように、表示用処理部80に対する指示が行われる。すなわち、平均スコアの値に対して予め定められた色や濃度の画像等が、ピント具合を示す画像等として表示される。
 したがって、この例では、撮影画像としての動画像の撮影時に、現在撮影しているフレームよりも数フレームだけ前のフレームについて求められた平均スコアに応じた画像等が、ピント具合を示す情報として表示される。
 この例では、過去のフレームに基づいてピント具合を示す画像等の表示が行われることになるが、通常、撮影中、数フレームの間でピント具合が急激に変化することは稀である。したがって、数フレームだけ前のフレームに基づいてピント具合の表示を行っても、現在のピント具合の状態と、ピント具合の表示とに大きなずれが生じることは殆どない。
 以上のようにして、撮影画像としての動画像の撮影中に継続してピント具合を示す画像等を表示すれば、その画像等の色や濃度が各フレームの平均スコアの値によって、時間とともに変化することになる。
 このように、平均スコアの時間変化に応じて、表示部26に表示される、ピント具合を示す画像等の色や濃度を時間とともに変化させることで、ユーザは、次第にピントが合ってきているなど、ピント具合の変化を容易に把握することができる。これにより、ユーザは、撮影中においても撮影画像のピント具合を簡単に知ることができる。
 なお、ここでは、撮影中に継続してピント具合を示す表示が行われると説明したが、ピント具合が不十分である場合にのみ、その旨の警告が表示されるようにしてもよい。
 そのような場合、例えば図7に示した警告処理が撮影画像の撮影中に行われる。この警告処理では、ステップS46において、警告制御処理部85は、現時点で撮影されている現フレームよりも数フレームだけ前の過去フレームの撮影画像について平均スコアを算出する。そして、ステップS47では、警告制御処理部85は、求めた平均スコアに対する閾値処理を行い、その閾値処理の結果に応じて警告表示を表示用処理部80に指示し、表示用処理部80は、その指示に従って表示部26に警告表示を行わせる。このとき、警告制御処理部85は、平均スコアの値に対して予め定められている色や濃度で画像等が表示されるように制御する。
 したがって、この例では、撮影画像としての動画像の撮影時に、現在撮影しているフレームよりも数フレームだけ前のフレームに基づいて警告表示の要否が判定され、その判定結果に応じて警告表示が行われる。
 このようにして警告表示が行われる場合には、ピント具合が十分であると判定されている間は警告が表示されず、ピント具合が不十分であると判定されているときに警告が表示されることになる。また、警告として表示されている画像等の色や濃度は、ピント具合、つまり平均スコアの値に応じて、時間とともに変化する。
 また、ここでは撮影中にピント具合を示す画像等や警告を表示する処理を、第1の実施の形態で説明した処理に適用する例について説明したが、この処理を上述した第1の実施の形態の変形例1乃至第8の実施の形態で説明した例に対して適用することも勿論可能である。
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどが含まれる。
 図37は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Me mory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
 入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、本技術は、以下の構成とすることも可能である。
(1)
 撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出する合焦領域判定処理部と、
 前記合焦スコアに基づいて、前記撮影画像上の所定領域におけるピント具合を判定する警告判定処理部と、
 前記ピント具合の判定結果に基づいて警告を発する警告部と
 を備える画像処理装置。
(2)
 前記警告判定処理部は、前記所定領域内の各領域の前記合焦スコアの平均と閾値とを比較することで、前記ピント具合を判定する
 (1)に記載の画像処理装置。
(3)
 前記所定領域は、前記撮影画像の撮影時にフォーカス対象とされたフォーカス領域である
 (1)または(2)に記載の画像処理装置。
(4)
 前記合焦領域判定処理部は、前記撮影画像上の前記所定領域のみを対象として前記合焦スコアの算出を行う
 (3)に記載の画像処理装置。
(5)
 前記所定領域は、ユーザにより指定された前記撮影画像の領域である
 (1)または(2)に記載の画像処理装置。
(6)
 前記所定領域は、前記撮影画像から検出された顔領域である
 (1)または(2)に記載の画像処理装置。
(7)
 前記警告部は、前記撮影画像に重畳させて警告表示をすることで前記警告を発する
 (1)乃至(6)の何れか一項に記載の画像処理装置。
(8)
 前記警告部は、警告音声を出力することで前記警告を発する
 (1)乃至(6)の何れか一項に記載の画像処理装置。
(9)
 前記警告部は、振動することで前記警告を発する
 (1)乃至(6)の何れか一項に記載の画像処理装置。
(10)
 前記警告部は、発光することで前記警告を発する
 (1)乃至(6)の何れか一項に記載の画像処理装置。
(11)
 前記警告部は、前記合焦スコアの平均に応じて前記警告を変化させる
 (1)乃至(10)の何れか一項に記載の画像処理装置。
(12)
 撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出し、
 前記合焦スコアに基づいて、前記撮影画像上の所定領域におけるピント具合を判定し、
 前記ピント具合の判定結果に基づいて警告を発する
 ステップを含む画像処理方法。
(13)
 撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出し、
 前記合焦スコアに基づいて、前記撮影画像上の所定領域におけるピント具合を判定し、
 前記ピント具合の判定結果に基づいて警告を発する
 ステップを含む処理をコンピュータに実行させるプログラム。
 11 撮像装置, 26 表示部, 53 ユーザインターフェース, 58 振動部, 59 スピーカ, 60 発光素子, 77 合焦領域判定処理部, 78 顔検出処理部, 79 メモリ, 80 表示用処理部, 81 振動駆動処理部, 82 スピーカ駆動処理部, 83 発光素子駆動処理部, 84 フォーカスレンズ制御処理部, 85 警告制御処理部, 121 多機能型携帯電話機, 211 ウェアラブルカメラ

Claims (13)

  1.  撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出する合焦領域判定処理部と、
     前記合焦スコアに基づいて、前記撮影画像上の所定領域におけるピント具合を判定する警告判定処理部と、
     前記ピント具合の判定結果に基づいて警告を発する警告部と
     を備える画像処理装置。
  2.  前記警告判定処理部は、前記所定領域内の各領域の前記合焦スコアの平均と閾値とを比較することで、前記ピント具合を判定する
     請求項1に記載の画像処理装置。
  3.  前記所定領域は、前記撮影画像の撮影時にフォーカス対象とされたフォーカス領域である
     請求項1に記載の画像処理装置。
  4.  前記合焦領域判定処理部は、前記撮影画像上の前記所定領域のみを対象として前記合焦スコアの算出を行う
     請求項3に記載の画像処理装置。
  5.  前記所定領域は、ユーザにより指定された前記撮影画像の領域である
     請求項1に記載の画像処理装置。
  6.  前記所定領域は、前記撮影画像から検出された顔領域である
     請求項1に記載の画像処理装置。
  7.  前記警告部は、前記撮影画像に重畳させて警告表示をすることで前記警告を発する
     請求項1に記載の画像処理装置。
  8.  前記警告部は、警告音声を出力することで前記警告を発する
     請求項1に記載の画像処理装置。
  9.  前記警告部は、振動することで前記警告を発する
     請求項1に記載の画像処理装置。
  10.  前記警告部は、発光することで前記警告を発する
     請求項1に記載の画像処理装置。
  11.  前記警告部は、前記合焦スコアの平均に応じて前記警告を変化させる
     請求項1に記載の画像処理装置。
  12.  撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出し、
     前記合焦スコアに基づいて、前記撮影画像上の所定領域におけるピント具合を判定し、
     前記ピント具合の判定結果に基づいて警告を発する
     ステップを含む画像処理方法。
  13.  撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出し、
     前記合焦スコアに基づいて、前記撮影画像上の所定領域におけるピント具合を判定し、
     前記ピント具合の判定結果に基づいて警告を発する
     ステップを含む処理をコンピュータに実行させるプログラム。
PCT/JP2015/050093 2014-01-17 2015-01-06 画像処理装置および方法、並びにプログラム WO2015107927A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/109,859 US10237466B2 (en) 2014-01-17 2015-01-06 Recognition of degree of focus of an image
CN201580004045.9A CN105934940B (zh) 2014-01-17 2015-01-06 图像处理装置、方法与程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-006724 2014-01-17
JP2014006724 2014-01-17

Publications (1)

Publication Number Publication Date
WO2015107927A1 true WO2015107927A1 (ja) 2015-07-23

Family

ID=53542818

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/050093 WO2015107927A1 (ja) 2014-01-17 2015-01-06 画像処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US10237466B2 (ja)
CN (1) CN105934940B (ja)
WO (1) WO2015107927A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181053A1 (ja) * 2018-03-22 2019-09-26 富士フイルム株式会社 デフォーカス量測定装置、方法およびプログラム、並びに判別器
WO2023002679A1 (ja) * 2021-07-19 2023-01-26 浜松ホトニクス株式会社 焦点位置推定システム、焦点位置推定方法、焦点位置推定プログラム、半導体検査システム及び生体観察システム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015107928A1 (ja) * 2014-01-17 2015-07-23 ソニー株式会社 撮影システム、警告発生装置および方法、撮像装置および方法、並びにプログラム
WO2016203282A1 (en) 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
JP6634298B2 (ja) * 2016-01-23 2020-01-22 オリンパス株式会社 撮像装置および撮像方法
KR102537416B1 (ko) * 2016-06-03 2023-05-26 우트쿠 부육사힌 3d 이미지를 캡처 및 생성하기 위한 시스템 및 방법
CN107295252B (zh) * 2017-06-16 2020-06-05 Oppo广东移动通信有限公司 对焦区域显示方法、装置及终端设备
JP7020822B2 (ja) * 2017-09-01 2022-02-16 キヤノン株式会社 システム、撮像装置、情報処理装置、制御方法、及び、プログラム
JP7309346B2 (ja) * 2018-11-29 2023-07-18 キヤノン株式会社 撮像装置、その制御方法、およびそのプログラム
CN110062166A (zh) * 2019-04-25 2019-07-26 努比亚技术有限公司 提高人脸自动对焦的方法、装置、移动终端及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003262909A (ja) * 2002-03-07 2003-09-19 Sharp Corp 電子カメラ
JP2005062469A (ja) * 2003-08-12 2005-03-10 Fuji Photo Film Co Ltd デジタルカメラ
JP2010286791A (ja) * 2009-06-15 2010-12-24 Fujifilm Corp 撮影装置および撮影制御方法
JP2013210572A (ja) * 2012-03-30 2013-10-10 Nikon Corp 撮像装置および撮像装置の制御プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4352916B2 (ja) * 2004-02-04 2009-10-28 ソニー株式会社 撮像装置及び撮像方法
US20060182433A1 (en) * 2005-02-15 2006-08-17 Nikon Corporation Electronic camera
JP2007256907A (ja) * 2006-02-10 2007-10-04 Fujifilm Corp デジタルカメラ
JP2009258690A (ja) * 2008-03-25 2009-11-05 Kyocera Corp オートフォーカスカメラ機能を備える電子機器
US8570402B2 (en) * 2010-02-05 2013-10-29 Canon Kabushiki Kaisha Imaging apparatus for obtaining a user-intended image when orientation of the imaging apparatus changes in applying a special effect that changes the image quality in a set direction
KR101721226B1 (ko) * 2010-12-23 2017-04-10 삼성전자주식회사 사용자가 원하는 시점의 정지 영상을 획득할 수 있는 디지털 영상 신호 처리 장치 및 이의 제어 방법
CN103310179A (zh) * 2012-03-06 2013-09-18 上海骏聿数码科技有限公司 一种基于人脸识别技术的最优姿态检测方法及系统
JP2014126710A (ja) * 2012-12-26 2014-07-07 Canon Inc 自動焦点検出装置およびその制御方法、撮像装置
CN103220465A (zh) * 2013-03-21 2013-07-24 广东欧珀移动通信有限公司 一种使用手机拍照时进行精确定位人脸图像的方法、装置及移动终端
JP6239855B2 (ja) * 2013-05-08 2017-11-29 キヤノン株式会社 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003262909A (ja) * 2002-03-07 2003-09-19 Sharp Corp 電子カメラ
JP2005062469A (ja) * 2003-08-12 2005-03-10 Fuji Photo Film Co Ltd デジタルカメラ
JP2010286791A (ja) * 2009-06-15 2010-12-24 Fujifilm Corp 撮影装置および撮影制御方法
JP2013210572A (ja) * 2012-03-30 2013-10-10 Nikon Corp 撮像装置および撮像装置の制御プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181053A1 (ja) * 2018-03-22 2019-09-26 富士フイルム株式会社 デフォーカス量測定装置、方法およびプログラム、並びに判別器
WO2023002679A1 (ja) * 2021-07-19 2023-01-26 浜松ホトニクス株式会社 焦点位置推定システム、焦点位置推定方法、焦点位置推定プログラム、半導体検査システム及び生体観察システム
JP7291303B1 (ja) * 2021-07-19 2023-06-14 浜松ホトニクス株式会社 焦点位置推定システム、焦点位置推定方法、焦点位置推定プログラム、半導体検査システム及び生体観察システム

Also Published As

Publication number Publication date
US20160330366A1 (en) 2016-11-10
CN105934940A (zh) 2016-09-07
US10237466B2 (en) 2019-03-19
CN105934940B (zh) 2019-12-24

Similar Documents

Publication Publication Date Title
WO2015107927A1 (ja) 画像処理装置および方法、並びにプログラム
JP5235798B2 (ja) 撮影装置及びその制御方法
JP4787180B2 (ja) 撮影装置及び撮影方法
US20080181460A1 (en) Imaging apparatus and imaging method
TW200808044A (en) Imaging apparatus and computer readable recording medium
JP2006174105A (ja) 電子カメラ及びプログラム
JP5228354B2 (ja) ディジタルカメラ
JP2006303961A (ja) 撮像装置
WO2017086065A1 (ja) 撮影装置及びその制御方法
JP2009246468A (ja) 撮影装置及び撮影装置の制御方法
US9532034B2 (en) Three-dimensional imaging apparatus and three-dimensional image display method
JP2009081635A (ja) デジタルカメラ、及びデジタルカメラの個人情報保護方法
JP2007049631A (ja) 撮像装置
JP4334179B2 (ja) 電子カメラ
KR101630303B1 (ko) 디지털 영상 처리 장치 및 그 제어 방법
JP4269344B2 (ja) 電子カメラ
JP4887461B2 (ja) 3次元画像撮像装置及び3次元画像表示方法
JP2011066828A (ja) 撮像装置、撮像方法及びプログラム
JP2014220618A (ja) 画像処理装置
JP2007235869A (ja) 撮影装置及びプログラム
JP6645612B1 (ja) 撮像装置及び電子機器
JP6645614B2 (ja) 撮像装置及び電子機器
JP2012023468A (ja) 撮像装置
JP5641415B2 (ja) 撮像装置および電子機器
WO2015079945A1 (ja) 画像処理装置および方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15737818

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15109859

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15737818

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP