WO2019026923A1 - 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置 - Google Patents

画像処理装置、画像処理方法、画像処理プログラム及び撮像装置 Download PDF

Info

Publication number
WO2019026923A1
WO2019026923A1 PCT/JP2018/028709 JP2018028709W WO2019026923A1 WO 2019026923 A1 WO2019026923 A1 WO 2019026923A1 JP 2018028709 W JP2018028709 W JP 2018028709W WO 2019026923 A1 WO2019026923 A1 WO 2019026923A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
mode
metadata
focus
Prior art date
Application number
PCT/JP2018/028709
Other languages
English (en)
French (fr)
Inventor
豊田 哲也
和彦 長
和男 神田
佳之 福谷
和彦 志村
伸之 志摩
金田一 剛史
拓也 松永
健人 原
野中 修
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017150607A external-priority patent/JP6909669B2/ja
Priority claimed from JP2017151423A external-priority patent/JP2019033308A/ja
Priority claimed from JP2017157953A external-priority patent/JP2019036885A/ja
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2019026923A1 publication Critical patent/WO2019026923A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, an image processing program, and an imaging apparatus capable of image composition.
  • imaging apparatuses with a photographing function such as digital cameras have become widespread.
  • the image captured by the imaging device may be used not only for viewing but also for various uses other than viewing, such as diagnosis, examination, measurement, counting, analysis, and monitoring (hereinafter referred to as image data use).
  • image data use Generally, an image obtained by imaging is subjected to image processing suitable for each application by an image processing apparatus.
  • the image file used in this type of imaging apparatus includes standardized information such as imaging information, for example, exposure time, aperture value, exposure program, ISO sensitivity, information of imaging date and the like.
  • the Exchangeable Image File Format (Exif) is used as an image file format including metadata for photographs.
  • As the Exif information information such as shutter speed, aperture value (F value), ISO sensitivity, etc. is recorded together with the image data.
  • the user can confirm the shooting conditions and the like of the image by referring to the contents of the metadata in the image file, and can obtain, for example, suggestions such as setting of parameters for future shooting.
  • some image processing apparatuses are capable of synthesizing a plurality of images obtained by photographing to obtain a synthesized image. For example, by taking multiple photos while changing the exposure and combining them, the dynamic range can be expanded, and high dynamic range (HDR) combining processing that suppresses overexposure and underexposure can be performed, and multiple changes while changing the focus position.
  • HDR high dynamic range
  • panoramic composition processing that combines a plurality of captured images obtained by capturing while changing the imaging direction
  • super-resolution composition that combines a plurality of captured images obtained by capturing while shifting the pixel position of the imaging element
  • panoramic image data generated using a plurality of frame image data obtained by an imaging operation while shifting the imaging direction is determined to be a panoramic panoramic image.
  • an apparatus includes an association unit that associates the panoramic image data with information indicating that the panoramic image data is a panoramic panoramic image.
  • a face area is extracted from input image data, and it is determined whether a ratio of the extracted face area to the entire image area is equal to or more than a predetermined threshold value.
  • the color information of the face area is calculated if it is equal to or higher than the threshold value, and scene determination is performed in an area other than the face area (background area) to determine the photographed scene, thereby taking into consideration the gradation of the background area.
  • a technique is disclosed that preferably performs exposure correction on a face area.
  • image processing is performed such that one combined image after combining becomes an image suitable for each application as a whole. That is, a plurality of captured images may not be used as they are for creating a composite image, and an image obtained from an optical image of a subject may not be faithfully reproduced in each part of the image.
  • the present invention provides an image processing apparatus and an image processing method capable of making it possible to identify a composite image useful not only for viewing but also for recording as image data itself by image combining. It is an object of the present invention to provide an image processing program and an imaging device.
  • An image processing apparatus generates an synthesized image using an image acquisition unit that acquires a plurality of captured images captured under different imaging conditions, and the plurality of captured images.
  • the above-mentioned composite image can be obtained by selectively using an appreciability-oriented mode for obtaining the composite image by combining the captured images of the entire screen and each captured image of the plurality of captured images as an image of each region in the composite image And a synthesis control unit having a partial reproducibility emphasis mode.
  • An image processing method includes a procedure for acquiring a plurality of captured images captured under different imaging conditions and a procedure for generating a composite image using the plurality of captured images, the plurality of imagings Partial reproduction to obtain the composite image by selectively using the appreciability-oriented mode to combine the images over the entire screen to obtain the composite image and each captured image of the plurality of captured images as an image of each region in the composite image And a step of selecting the gender-focused mode to generate the composite image.
  • An image processing program is a procedure for acquiring a plurality of captured images captured under different imaging conditions in a computer, and a procedure for generating a composite image using the plurality of captured images,
  • the composite image is selected by selectively using a plurality of captured images in the entire screen to obtain the composite image by using an appreciation-oriented mode for obtaining the composite image and each captured image of the multiple captured images as an image of each region in the composite image.
  • the selected partial reproducibility emphasis mode is selected to execute the procedure of generating the composite image.
  • An imaging apparatus includes the above-described image processing apparatus, and an imaging unit that captures an object under different imaging conditions to obtain the plurality of captured images.
  • FIG. 1 is a block diagram showing an image processing apparatus according to a first embodiment of the present invention.
  • Explanatory drawing for demonstrating the depth compositing process in appreciability emphasis mode and partial reproducibility emphasis mode Explanatory drawing for demonstrating the depth compositing process in appreciability emphasis mode and partial reproducibility emphasis mode. Explanatory drawing for demonstrating the depth compositing process in appreciability emphasis mode and partial reproducibility emphasis mode. Explanatory drawing for demonstrating the depth compositing process in appreciability emphasis mode and partial reproducibility emphasis mode. Explanatory drawing for demonstrating the depth compositing process in appreciability emphasis mode and partial reproducibility emphasis mode. Explanatory drawing for demonstrating the example in the case of changing imaging
  • Explanatory drawing for demonstrating the example in the case of changing imaging
  • the imaging timing chart in HDR synthetic mode. 6 is a flowchart showing camera control when an image combining mode is specified.
  • 10 is a flowchart showing an image combining process adopted in the second embodiment of the present invention.
  • FIG. 10 is a block diagram showing an imaging device having an image processing device according to a third embodiment of the present invention.
  • Explanatory drawing which shows the mode of imaging
  • combination mode Explanatory drawing which shows the captured image and composite image which were image
  • Explanatory drawing which shows the captured image and composite image which were image
  • the graph which shows the relationship of a focus position and distance about a predetermined lens by taking a focus position on a horizontal axis and taking a reciprocal of a distance on a vertical axis.
  • FIG. 14 is a block diagram mainly showing an electrical configuration of a camera according to a sixth embodiment of the present invention.
  • FIG. 21 is a view for explaining depth synthesis processing in a camera according to a sixth embodiment of the present invention.
  • FIG. 21 is a view for explaining depth synthesis processing in a camera according to a sixth embodiment of the present invention.
  • FIG. 21 is a view for explaining depth synthesis processing in a camera according to a sixth embodiment of the present invention.
  • FIG. 21 is a view for explaining depth synthesis processing in a camera according to a sixth embodiment of the present invention.
  • FIG. 18 is a view for explaining super-high resolution combining processing in a camera according to a sixth embodiment of the present invention.
  • FIG. 18 is a view for explaining super-high resolution combining processing in a camera according to a sixth embodiment of the present invention.
  • FIG. 18 is a view for explaining super-high resolution combining processing in a camera according to a sixth embodiment of the present invention.
  • FIG. 18 is a view for explaining super-high resolution combining processing in a camera according to a sixth embodiment of the present invention.
  • FIG. 18 is a view for explaining super-high resolution combining processing in a camera according to a sixth embodiment of the present invention.
  • FIG. 18 is a view for explaining an electronic camera shake prevention process in the camera according to the sixth embodiment of the present invention.
  • the flowchart which shows camera control operation of the camera in the form of 6th execution of this invention.
  • the flowchart which shows camera control operation of the camera in the form of 6th execution of this invention.
  • FIG. 21 is a view showing an example of display of metadata in the camera of the sixth embodiment of the present invention.
  • FIG. 21 is a view showing an example of display of metadata in the camera of the sixth embodiment of the present invention.
  • FIG. 21 is a view showing an example of display of metadata in the camera of the sixth embodiment of the present invention.
  • FIG. 21 is a view showing an example of display of metadata in the camera of the sixth embodiment of the present invention.
  • FIG. 14 is a block diagram mainly showing an electrical configuration of a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining depth synthesis processing in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining depth synthesis processing in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining depth synthesis processing in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining depth synthesis processing in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining super high resolution combining processing in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining depth synthesis processing in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining super high resolution combining processing in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining super high resolution combining processing in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining super high resolution combining processing in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining high dynamic range combining processing (HDR) in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining high dynamic range combining processing (HDR) in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining high dynamic range combining processing (HDR) in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining high dynamic range combining processing (HDR) in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view for explaining high dynamic range combining
  • FIG. 21 is a view for explaining high dynamic range combining processing (HDR) in a camera according to a seventh embodiment of the present invention.
  • FIG. 21 is a view showing an example of display of metadata in the camera of the seventh embodiment of the present invention.
  • FIG. 21 is a view showing an example of display of metadata in the camera of the seventh embodiment of the present invention.
  • FIG. 21 is a view showing an example of display of metadata in the camera of the seventh embodiment of the present invention.
  • the flowchart which shows the operation of the depth synthesis in the form of 7th execution of this invention.
  • the flowchart which shows the operation of the deformation example of depth synthesis in the form of 7th execution of this invention.
  • FIG. 1 is a block diagram showing an image processing apparatus according to the first embodiment of the present invention.
  • the image processing apparatus 10 is described as being incorporated in the imaging apparatus 1 having an imaging unit, but the image processing apparatus 10 is not incorporated in the imaging apparatus, and external imaging is performed.
  • the image processing may be performed given a captured image from a unit.
  • the image processing apparatus incorporated in the imaging device performs imaging control for composition processing such as HDR composition and depth composition on the imaging unit.
  • the image processing apparatus according to the present embodiment can perform image processing for viewing applications and image processing for image data usage when combining a plurality of images obtained by imaging.
  • composite image processing for obtaining an image excellent in appreciability as the whole composite image is performed in the image processing for viewing use, and in the image processing for image data use, in each part of the composite image, Composite image processing is performed to obtain an image capable of faithfully reproducing the subject.
  • the image that can faithfully reproduce the subject may be an image that faithfully reproduces the subject optical image, and for example, an image photographed under a shooting condition where the focus position and exposure are appropriate. Good. Further, the image that can faithfully reproduce the subject includes not only the image itself from the imaging unit but also an image obtained by performing predetermined image signal processing on the image from the imaging unit.
  • Image data applications are mainly used in science and technology fields, so they may be referred to as science and technology applications, and may be used automatically by devices such as measuring instruments, etc. It may be called machine application. Although it is conceivable that the image data application image requires different information depending on the application to be used, an image having a large amount of information of the image information of the subject is preferable. In many cases, it is better to have a properly exposed image.
  • a mode for generating an image for image data use is referred to as a partial reproducibility emphasis mode, and an image obtained in the partial reproducibility emphasis mode is also referred to as a partial reproducibility emphasis image.
  • the image obtained by the imaging unit from the subject optical image corresponds to the imaging condition at the time of imaging.
  • a plurality of images used for composition are acquired by performing multiple imaging with various shooting conditions such as focus position, exposure time, aperture value, ISO sensitivity, etc.
  • the images of are mutually different images according to the acquired imaging conditions.
  • the image in the partial reproducibility emphasis mode, is divided into a plurality of areas (hereinafter referred to as the reproducibility emphasis area), and the images in the respective reproducibility emphasis areas are captured and obtained under the same imaging conditions. Composed of Therefore, the partial reproducibility-oriented image may not have image continuity at the boundary of each reproducibility-oriented region of the image, and the image quality may be low in the entire image of one sheet, but in the partial portion of the image, The image is excellent in the reproducibility of the subject.
  • the imaging device 1 is provided with an imaging unit 20.
  • the imaging unit 20 includes an imaging device (not shown) such as a CCD or CMOS sensor, and a photographing lens (optical system) (not shown) for guiding an optical image of a subject to the imaging surface of the imaging device.
  • the photographing lens may be a fixed lens attached to the imaging unit 20, or may be an interchangeable lens.
  • the photographing lens is provided with a lens or the like (not shown) for zooming and focusing, and these lenses are driven and controlled by the photographing condition changing unit 21.
  • the photographing condition changing unit 21 drives a lens for focusing based on a control signal from the photographing condition setting unit 13a of the signal processing unit 12 described later to change the focus position, and
  • the shutter speed and the like can be controlled.
  • adopted in the imaging part 20 you may have a pixel (henceforth an AF pixel) for focus control for calculating
  • the control unit 11 of the image processing apparatus 10 can be configured by, for example, a processor using a CPU (not shown) that performs camera control according to a program stored in a memory (not shown).
  • the image processing apparatus 10 is provided with an operation determination unit 18.
  • the operation determination unit 18 determines a user operation on an operation unit (not shown) including a shutter button, a function button, various switches such as shooting mode settings, etc. (not shown), and supplies an operation signal to the control unit 11 based on the determination result. It has become.
  • the image processing apparatus 10 is provided with a sensor unit 16 configured by various sensors.
  • the sensor unit 16 includes, for example, various sensors such as an acceleration sensor and a gyro sensor, and gives the control unit 11 detection results of the various sensors.
  • the control unit 11 controls each unit based on the operation signal from the operation determination unit 18 and the detection result of the sensor unit 16.
  • the signal processing unit 12 includes an image acquisition unit 13 and an image processing unit 14.
  • the image acquisition unit 13 is controlled by the control unit 11 to execute a process for acquiring a captured image. That is, the photographing condition setting unit 13a in the image acquiring unit 13 outputs a setting signal to the photographing condition changing unit 21 of the imaging unit 20 to control the shutter speed, the exposure time, the aperture, the ISO sensitivity, and the like. Further, the photographing condition setting unit 13a outputs a setting signal to the photographing condition changing unit 21 to control the focus position and the zoom position, and can perform autofocus control.
  • the imaging condition setting unit 13a may perform autofocus control by a so-called hill-climbing contrast method or autofocus control by an image plane phase difference method.
  • the image acquisition unit 13 reads the captured image from the imaging unit 20 and supplies the image to the image processing unit 14.
  • the image processing unit 14 is controlled by the control unit 11 to perform predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing on the read captured image. .
  • the signal processing unit 12 executes various processes related to display.
  • the signal processing unit 12 can provide the display unit 30 with a captured image after signal processing by the image processing unit 14.
  • the display unit 30 has a display screen such as an LCD (liquid crystal panel), and displays an image given from the signal processing unit 12.
  • the signal processing unit 12 can also display various menu displays and the like on the display screen of the display unit 30.
  • a touch panel (not shown) may be provided on the display screen of the display unit 30.
  • the touch panel can generate an operation signal according to the position on the display screen pointed by the user with a finger.
  • the operation signal is supplied to the control unit 11.
  • the control unit 11 can detect the position on the display screen touched by the user and the slide operation in which the user slides the display screen with the finger, and can execute processing corresponding to the user operation. It has become.
  • the display screen of the display unit 30 is provided along the back surface of the casing (not shown) of the imaging device 1, and the photographer confirms the through image displayed on the display screen of the display unit 30 at the time of shooting. You can also perform shooting operations while checking through images.
  • the image processing apparatus 10 is provided with a communication unit 15.
  • the signal processing unit 12 can control the communication unit 15 to perform communication with an external device.
  • the communication unit 15 is controlled by the signal processing unit 12 and can transmit and receive data in a wired or wireless manner with an external device.
  • wired communication of USB standard, wireless LAN such as Wifi (registered trademark), and wireless communication by Bluetooth (registered trademark) or the like are configured to be possible.
  • the signal processing unit 12 can transmit an image file such as a captured image and a composite image and various other information to an external device through the communication unit 15.
  • the signal processing unit 12 can perform compression processing on the captured image after various signal processing, and can give the image after compression to the recording unit 40 for recording.
  • the recording unit 40 includes a predetermined recording medium, and the signal processing unit 12 records an image file.
  • the signal processing unit 12 as the recording control unit can record an image file of a specific format such as Exif (Exchangeable image file format) as an image file.
  • the recording unit 40 includes an image recording unit 41 which is an area for recording image data portions of still images and moving images in an image file, and an accompanying information recording unit 42 which is an area for recording metadata portions. Further, the recording unit 40 is provided with an object classification database (DB) 43 in which the feature amount of a predetermined object is recorded.
  • DB object classification database
  • the image processing unit 14 includes an adaptive processing unit 14 b that performs image combination processing.
  • the adaptive processing unit 14b as a composition control unit uses a plurality of captured images in a mode (hereinafter referred to as an appreciation-oriented mode) for generating an image composition with excellent audibility such as normal HDR composition and depth composition. Generate one composite image.
  • the adaptive processing unit 14 b performs a known combining process to generate a combined image with excellent audibility over the entire image.
  • the adaptive processing unit 14 b when performing image combination such as HDR combination or depth combination in the partial reproducibility-oriented mode, uses one captured image before combination to generate one combined image. An image portion of a region (reproducibility-oriented region) is generated. That is, since the image portion of one reproducibility-focused area of the composite image is generated using only one captured image before combining, the inside of the area is photographed under the same imaging condition and the same image Composed of an image subjected to processing. Therefore, in the area where the reproducibility is important, the subject optical image is faithfully reproduced.
  • the image processing unit 14 is provided with a region determination unit 14a, and the region determination unit 14a is configured to determine a reproducibility-oriented region of a composite image generated using a single captured image.
  • the area determination unit 14a may determine the reproducibility emphasis area according to the level range of the luminance distribution at the time of HDR combining.
  • the area determination unit 14a may divide the luminance level into a plurality of stages, and set the reproducibility-oriented area for each luminance level range of each stage.
  • the area determination unit 14a may set the reproducibility emphasis area for each object in the image when setting the reproducibility emphasis area.
  • the object classification DB 43 stores feature amounts of the object, and the area determination unit 14a performs image analysis processing on the captured image, and the feature amounts read out from the object classification DB 43 and each image portion of the captured image Each object may be extracted from the image by comparison with the feature quantity of the image, and a region along the shape of the object or a predetermined region surrounding the object may be set as the reproducibility-oriented region. .
  • the area determination unit 14a may determine the reproducibility emphasis area according to the range of the focusing distribution at the time of depth combination. For example, the area determination unit 14a may set an area in which the in-focus state is obtained in each captured image as the reproducibility emphasis area. Also in this case, the area determination unit 14a determines each object in the image when setting the reproducibility-oriented area, and places importance on the area along the shape of the object or a predetermined area surrounding the object. It may be set to an area.
  • the area determination unit 14a may determine the reproducibility emphasis area according to the area specification operation by the user.
  • FIG. 2A, FIG. 2B and FIGS. 3A to 3C are explanatory diagrams for explaining the HDR combining processing in the appreciability-oriented mode and the partial reproducibility-oriented mode.
  • the HDR combining process a plurality of captured images with different exposure values for the same subject at the same angle of view are acquired.
  • An image 51 of FIG. 2A shows an image obtained by photographing under the underexposure.
  • the captured image 51 of FIG. 2A includes an image 51a of a mountain at the center, an image 51b of a relatively dark forest in front of the mountain, and an image 51c of a relatively bright sky behind the mountain.
  • the image 51 is underexposed, and the image 51b of the dark forest in the image 51 shows that the image is crushed black.
  • FIG. 3A to 3C show the luminance distribution on the vertical line Y, where the horizontal axis represents each vertical pixel position YI0 to YI3 on the vertical line Y, and the vertical axis represents the pixel output (luminance level) of each pixel.
  • FIG. 3A shows the luminance level on the vertical line Y of FIG. 2A, and the luminance level when photographed with the proper exposure.
  • the range of the vertical pixel positions YI0 to YI1 is low in luminance level and almost below the noise level.
  • the luminance level is appropriate in the range of the vertical pixel positions YI1 to YI2.
  • the range of the vertical pixel positions YI2 to YI3 is high in luminance level and almost above the saturation level.
  • FIG. 3B shows the luminance level of this composite image.
  • the luminance level of each captured image is adjusted in order to make the image excellent in viewability over the entire image, and as shown in FIG. 3B, the luminance level of the entire image is the noise level and the saturation level.
  • Image processing to be within the appropriate level between In FIG. 3B in addition to simply combining a plurality of captured images with different exposures, the brightness level of each image is compressed, and the brightness adjustment is performed so that the level of the boundary portion of each image is continuous.
  • FIG. 2B shows the HDR composite image 52 thus generated. That is, in the HDR image 52, the sky image 52a in the bright part is expressed in color without overexposure. In addition, the image 52 can express a color also in a dark forest part, and this part expresses a relatively bright forest image 52 b 1 and a relatively dark forest image 52 b 2.
  • FIG. 3C corresponds to FIG. 3B, and shows the luminance level of the HDR composite image in the partial reproducibility emphasis mode.
  • FIG. 3C shows an example in which three captured images are combined to generate one combined image.
  • the imaging conditions and the image processing at the time of imaging differ from each other for each captured image used for the composition, and the same imaging conditions and image processing are applied in the reproducibility-oriented area determined by the area determination unit 14a. For this reason, as shown in FIG.
  • the luminance change of each range of vertical pixel positions YI0 to YI1, YI1 to YI2, YI2 to YI3 is an object optical image of the subject.
  • the change in brightness of the image is faithfully reproduced, and the reproducibility of the optical image of the object is excellent in the region where the reproducibility is important.
  • the luminance level distribution is compressed so that the entire image falls within the appropriate level range, whereas in the HDR combination in the partial reproducibility-oriented mode, the reproducibility-oriented region is at the appropriate level Since the luminance level distribution is set to fall within the range, the change in luminance in the reproducibility-oriented area is relatively large, the dynamic range of the image in each reproducibility-oriented area is large, and an image advantageous to image analysis can be obtained.
  • both the dark part and the bright part of the shooting range have appropriate brightness and sufficient dynamic range, which is advantageous for observation and image analysis. Images are obtained.
  • FIG. 4A, FIG. 4B and FIGS. 5A to 5C are explanatory diagrams for explaining the depth combination processing in the appreciability-oriented mode and the partial reproducibility-oriented mode.
  • the depth synthesis process a plurality of captured images with different focus positions for the same subject at the same angle of view are acquired.
  • the captured image 61 of FIG. 4A indicates that the front spring 62b of the registration mark 62 is in focus by a solid line, and that the head 62a, the rear spring 62c and the belly 62d are not in focus by a broken line. That is, the image 61 is an image obtained by focusing on the front spring 62b.
  • the horizontal axis indicates the vertical pixel positions YI0 to YI3 on the vertical line Y
  • the vertical axis indicates the inverse of the distance to the object, and indicates the in-focus state distribution on the vertical line Y.
  • FIG. 5A shows the in-focus state distribution on the vertical line Y in FIG. 4A, and shows the in-focus state distribution when the image is taken in a state in which the front spring 62b is in focus.
  • the range of vertical pixel positions YI0 to YI1 includes the image portion of the subject between the far end and the near end in the in-focus range and the image portion of the subject other than the far end and the near end in the in-focus range .
  • the range of the vertical pixel positions YI1 to YI2 is an image portion of the subject within the in-focus range.
  • the range of the vertical pixel positions YI2 to YI3 is an image portion of an object farther than the far end in the in-focus range.
  • the focus position is changed from the far end to the near end, imaging is performed a plurality of times, and synthesis is performed.
  • the broken line in FIG. 5B indicates the in-focus state distribution of this composite image.
  • a plurality of captured images in which each part of the image is in focus are acquired, and the focusing state distribution of the main subject is far Perform image processing to be between the end and the near end.
  • a continuous in-focus state (broken line) is obtained at the boundary portion of each image. Image processing is applied.
  • FIG. 4B shows the depth composite image 63 thus generated. That is, the depth composite image 63 indicates that the entire area of the registration mark 62 is in focus as a solid line.
  • FIG. 5C corresponds to FIG. 5B, and shows the focusing state distribution of the depth-synthesized image in the partial reproducibility emphasis mode.
  • FIG. 5C shows an example in which three captured images are combined to generate one combined image.
  • the imaging conditions and the image processing at the time of imaging differ from each other for each captured image used for the composition, and the same imaging conditions and image processing are applied in the reproducibility-oriented area determined by the area determination unit 14a. For this reason, as shown in FIG.
  • the in-focus state distribution of each range of vertical pixel positions YI0 to YI1 and YI1 to YI2 and YI2 to YI3 is an object. It faithfully reproduces the in-focus state distribution of the optical image, and in the area where the reproducibility is important, the reproducibility of the optical image of the subject is excellent.
  • the signal processing unit 12 When the image synthesis is performed, the signal processing unit 12 is an image generated in the normal viewability-oriented mode or an image generated in the partial reproducibility-oriented mode in the image file of each synthesized image. It is designed to add a tag indicating The signal processing unit 12 records the image data portion in the image file in the image recording unit 41 of the recording unit 40 and records the tag data in the attached information recording unit 42.
  • the signal processing unit 12 determines, with regard to which captured image is used for each reproducibility-focused area during image synthesis, the tag of the captured image along with the imaging condition and the content of the image processing.
  • the data is recorded in the incidental information recording unit 42 as data.
  • the imaging conditions and the image processing may be changed for each reproducibility-oriented area. This makes it possible to obtain an image more advantageous for image analysis and the like in each of the reproducibility-oriented areas.
  • FIGS. 6A, 6B and 7 are explanatory diagrams for explaining an example in the case of changing the imaging condition and the image processing for each of the reproducibility emphasis areas.
  • 6A and 6B correspond to FIG. 2A or FIG. 2B, respectively, and it is assumed that the sign of “hot spring” is imaged as a subject (image component) in order to clearly show changes in image processing.
  • An example including the images 72a and 72b of the signboard is shown in 71 and the composite image 72, respectively.
  • FIG. 7 shows the processing content of image processing for each subject (image constituent).
  • the area determination unit 14a determines each object in the image as an image component (object) by image analysis on the captured image. Then, the image processing unit 14b executes appropriate image processing in accordance with the type of the target in the image determined by the area determination unit 14a. In addition, about the content of the image processing for every kind of target object, it shall be recorded on the recording part 40 as a database.
  • the adaptive processing unit 14b performs the color determination and the noise determination process with high accuracy while reducing the contrast of the image and reducing the gradation. Further, for example, when the subject is a "mountain” or a “forest”, the adaptation processing unit 14b makes the contrast high to make a normal gradation. Also, for example, when the subject is a “character”, the adaptive processing unit 14 b raises the contrast and binarizes it. By this binarization, the character part becomes clear.
  • the image 71a of the signboard of FIG. 6A indicates that the contrast between the character part and the background part is relatively small by hatching, and the discrimination of the character is somewhat difficult.
  • the image 72a of the signboard in FIG. 6B is high-contrast and binarized for this image portion, the character portion is clear.
  • FIG. 8 shows an imaging timing chart in the HDR combining mode
  • FIG. 9 is a flowchart showing camera control when the image combining mode is designated.
  • 10A and 10B are explanatory diagrams for explaining the contents recorded in the image file
  • FIG. 10A shows a normal image file
  • FIG. 10B shows an image file of a composite image
  • FIG. 11 is an explanatory view showing a composite image in the partial reproducibility emphasis mode by the depth composition.
  • step S1 of FIG. 9 the control unit 11 determines whether the imaging mode is designated.
  • the control unit 11 acquires a through-image pickup image in step S2. That is, the control unit 11 instructs the signal processing unit 12 to cause the imaging unit 20 to capture an object, and the image processing unit 14 performs predetermined image processing on the captured image from the imaging unit 20 and causes the display unit 30 to give.
  • the display unit 30 displays the through image on the display screen, and sets the focus position and the standard exposure by the auto focus function and the auto exposure function (step S3).
  • the adaptive processing unit 14b can also perform HDR combining processing on the captured image and display the HDR combined image as a through image on the display screen of the display unit 30.
  • FIG. 8 shows an imaging timing of a live view, an acquired captured image, a combining process, and a combined image for use in viewing and image data.
  • the signal processing unit 12 changes the exposure for each imaging in order to display the HDR composite image at the time of through image display.
  • shooting with overexposure and shooting with underexposure are alternately performed for each image.
  • the adaptation processing unit 14b combines two captured images of overexposure and underexposure to generate an HDR combined image (HDRLV) for a through image.
  • HDR combined image HDRLV
  • the area determination unit 14a determines the object in the image using the through image.
  • the area determination unit 14a may set, for example, the area of the object as the area on which the reproducibility is emphasized, or may set the area on which the reproducibility is emphasized such as a rectangle including the object.
  • step S4 the control unit 11 determines whether or not there is an instruction for mode switching. When a mode switching instruction is generated, the control unit 11 performs various settings of the instructed mode in step S5, and then shifts the processing to step S6.
  • control unit 11 determines whether the still image release switch (SW) has been operated in the predetermined mode (step S6). When the still image release SW is operated, in step S7, the control unit 11 determines whether or not the partial reproducibility emphasis mode is designated.
  • step S8 the adaptive processing unit 14b performs image composition with excellent viewability over the entire image.
  • the adaptation processing unit 14 b performs normal HDR combining processing using a captured image obtained by capturing with overexposure (exposure A) and a captured image obtained by capturing with underexposure (exposure B). I do.
  • normal HDR combining as described above, not only combining using two captured images as they are but also image processing in the boundary region of each captured image, etc., so as to obtain a shadow that is not uncomfortable as a whole image, Image processing is performed.
  • the composite image is a composite of images obtained under completely different imaging conditions, even if there are different regions, even if the human eyes understand and process the brain, It is an expression suitable for judging a scene or an object in a field of view as a series of scenes or a single image. Therefore, the boundary area is processed so as to gradually change part by part, where the original data before synthesis is subjected to subtle correction for each place, in particular, the boundary The part which took the process for obtaining continuity can not be said to be an image taken under this condition in a word. However, when there is an area in which the continuity-oriented process is not performed, the area is not limited to that area. That is, there are cases where that part is not different from the image obtained in step S11 described later.
  • area information may be provided to designate the same part as the image in step S11.
  • this device it is not necessary to obtain both the images of step S8 and step S11.
  • the image data at the boundary where the continuity processing has been performed is relatively inferior to the data reproducibility and the reliability described above.
  • step S9 the signal processing unit 12 creates a thumbnail of the generated composite image, and records the image file in the recording unit 40 in step S10. That is, the signal processing unit 12 records the image data in the image recording unit 41 and records the metadata in the accompanying information recording unit 42.
  • FIG. 10A shows a still image file created in the appreciation-oriented mode.
  • the still image file includes the image data recorded in the image recording unit 41. Further, data other than the image data in the image file is recorded in the incidental information recording unit 42.
  • the thumbnail is generated in step S9.
  • the corresponding moving image and audio information are moving image information and audio information recorded when the moving image is captured corresponding to the image data and the audio is acquired.
  • the still image file includes an appreciation-oriented tag indicating that the still image file is obtained in the appreciation-oriented mode.
  • the shooting time information A and B indicate that the still image file is created by combining two captured images, and information at the time of capturing these two captured images (date, sensitivity, shutter speed (SS) and the aperture) are shown.
  • the control unit 11 shifts the process from step S7 to step S11, and performs image combination in the partial reproducibility emphasis mode.
  • the adaptive processing unit 14 b generates an image using one captured image before combination for each of the reproducibility-oriented areas set in step S ⁇ b> 3. Each captured image used for the reproducibility emphasis area is an image excellent in the reproducibility of the subject in the reproducibility emphasis area.
  • this area is this image, and this area is an image that allows specific processing to be clarified, and there is no processing that gradually changes between the area, so the reproducibility is excellent. , It becomes possible to express the feature of processing of each area easily.
  • information on the discontinuous area may be recorded at the same time. Because of the discontinuity, it is easy to confirm the division of the area later, so it is easy to analyze without having area information. For example, in the area where the reproducibility is important, the image is in focus, the exposure is appropriate, and in some cases, the image processing according to the application such as measurement is performed.
  • the image 71a portion of the signboard in FIG. 6A is an image excellent in the character recognition processing due to the high contrast and the binarization.
  • the image is in focus and has an appropriate exposure and is subjected to image processing. Reproducibility-focused areas that are not used may be adopted.
  • step S7 is not necessarily required, and there may be a system in which the images obtained in step S8 and step S11 are not selectively but simultaneously obtained.
  • the images obtained in step S8 and step S11 are not selectively but simultaneously obtained.
  • an advisability-oriented image is shown and confirmed, and then the subject in step S11 It can be assumed that an image with excellent image reproducibility is used for measurement in any device.
  • the adaptive processing unit 14 b selects only one captured image to be used for each reproducibility emphasis area, and does not use information of other captured images. Therefore, the partial reproducibility-oriented image may be discontinuous at the boundary portion of the reproducibility-oriented region, but is excellent in the reproducibility of the subject in the reproducibility-oriented region.
  • FIG. 8 shows an example in which the partial reproducibility emphasis mode is used to generate a composite image for measurement, and shows a composite image for measurement created using the captured image of exposure A and the captured image of exposure B.
  • a and B in the measurement composite image of FIG. 8 respectively indicate a reproducibility-oriented area using a captured image of exposure A and a reproducibility-oriented area using a captured image of exposure B.
  • FIG. 11 shows an example in which an image including a dragonfly and a flower as a subject is subjected to depth synthesis in the partial reproducibility emphasis mode.
  • the composite image 81 includes the reproducibility emphasis area 82 including the image of the dragonfly 82a and the reproducibility emphasis area 83 including the image of the flower 83a.
  • Reproducibility-oriented areas 82 and 83 are generated by the respective captured images acquired and acquired respectively at the focus position suitable for the subject distance of dragonfly 82a or flower 83a, and dragonfly 82a and flower 83a are in focus. .
  • step S12 the signal processing unit 12 creates a thumbnail of the generated composite image.
  • the thumbnails are generated based on the composite image generated by the normal HDR combining processing, with emphasis on visibility. That is, this thumbnail is information similar to the image information of the thumbnail generated in step S9, and is obtained by thumbnailing an image composition which does not sacrifice the continuity between the regions.
  • the image may be reduced and thumbnailed at the expense of continuity.
  • the signal processing unit 12 records the image file in the recording unit 40 in step S13. That is, the signal processing unit 12 records the image data in the image recording unit 41 and records the metadata in the accompanying information recording unit 42.
  • FIG. 10B shows a still image file created in the partial reproducibility emphasis mode.
  • the still image file includes image data to be recorded in the image recording unit 41. Further, data other than the image data in the image file is recorded in the incidental information recording unit 42. Also in the partial reproducibility emphasis mode, as in the appreciability emphasis mode, it has information and audio information of the corresponding moving image.
  • the partial reproducibility emphasis mode includes the reproducibility emphasis tag indicating that the still image file is obtained in the partial reproducibility emphasis mode.
  • the shooting time information A and B are created by combining the two captured images with the still image file, as in the appreciability-oriented mode, and at the time of capturing these two captured images Information (time, sensitivity, shutter speed (SS) and aperture) is shown.
  • area information indicating which reproducibility emphasis area in each composite image is used for each captured image is recorded. In some cases, it is possible to determine the reproducibility-oriented area by image analysis on the recorded image data. In this case, the recording of the information on the reproducibility emphasis area may be omitted.
  • each image file is a composite image obtained in the appreciation-oriented mode or a composite image obtained in the partial reproducibility-oriented mode by the tag, and the partial reproducibility In the emphasis mode, it is also clear that each captured image is used for which reproducibility emphasis area.
  • step S1 of FIG. 9 when the photographing mode is not instructed, the control unit 11 shifts to step S21 and determines whether or not the reproduction mode is designated. When the reproduction mode is not designated, the control unit 11 shifts to another designated mode.
  • step S22 the control unit 11 displays an icon list for selecting an image recorded in the recording unit 40.
  • step S23 the control unit 11 determines whether an image is selected.
  • control unit 11 shifts the process from step S23 to step S25, selects and reproduces an image based on the selection operation, and displays it on the display screen of display unit 30. Display on.
  • step S24 the control unit 11 determines whether or not there is an operation to return in the next step S24. If there is an operation to return, the process returns to step S1. The process returns to step S22.
  • the control unit 11 determines whether or not an operation to instruct display of the detail display has occurred (step S26).
  • the control unit 11 shifts the process to step S27 and displays on the display unit 30 a display (metadata display) based on the metadata read from the incidental information recording unit 42.
  • a display metal display
  • the user can select one of the shooting information for the captured image, the mode in which the composite image was obtained, the shooting information for each captured image used for creating the composite image, and the respective reproduction-oriented areas. It can be recognized as to whether a captured image is used.
  • control unit 11 determines whether or not the external transmission instruction has been generated (step S28).
  • the signal processing unit 12 controls the communication unit 15 to transmit the image file of the selected image to the set transmission destination.
  • control unit 11 determines whether or not there is an operation to return, and when there is an operation to return, the process returns to step S1. If so, the process returns to step S25.
  • the image composition can be performed by specifying the partial reproducibility emphasis mode excellent in the reproducibility of the image.
  • the partial reproducibility emphasis mode an image excellent in the reproducibility of the subject can be obtained in the reproducibility emphasis area, and an extremely useful image can be obtained in scientific applications and measurement applications.
  • the image file of the composite image is a tag data indicating which of the viewability emphasis mode and the partial reproducibility emphasis mode is created, and each reproduction emphasis area uses which captured image. Information that indicates whether or not it is used, and the convenience at the time of using the composite image is high.
  • FIG. 12 is a flowchart showing an image combining process adopted in the second embodiment of the present invention.
  • 13A and 13B are explanatory diagrams showing an image file created in the present embodiment.
  • the hardware configuration of this embodiment is the same as that of FIG.
  • the present embodiment is applied to moving image shooting.
  • step S31 of FIG. 12 the control unit 11 determines whether a shooting mode is designated. When the photographing mode is not designated, the control unit 11 executes the designated mode other than the photographing mode.
  • the control unit 11 acquires a captured image for through image in steps S32 and S33. That is, the control unit 11 instructs the signal processing unit 12 to cause the imaging unit 20 to capture an object using the image acquisition conditions A and B, and the image processing unit 14 receives the captured image from the imaging unit 20 (moving image Perform predetermined image processing. Furthermore, the image processing unit 14 performs combining processing that emphasizes the viewability as the entire image on the two types of captured images (moving images A and B) acquired under the image acquisition conditions A and B in step S34. This composite moving image is given to the display unit 30 and used as a through image.
  • step S35 the control unit 11 determines whether or not the subject change of the image acquired in steps S32 and S33 is small.
  • the control unit 11 emphasizes the continuity of the image, and replaces the composite image acquired in step S34 with the through image obtained by correcting the latest image as necessary. indicate.
  • step S51 the control unit 11 determines whether moving image shooting has been instructed.
  • step S37 the area determination unit 14a adds the acquired two types of images, and performs image determination for each predetermined area (step S38).
  • the area determination unit 14a assigns the acquired moving images A and B to the respective reproducibility emphasis areas according to the image determination result (step S39). For example, when the image acquisition conditions A and B are underexposure and overexposure conditions for HDR composition processing, a moving image acquired under the overexposure condition is assigned to a relatively dark area in the composite image, A moving image acquired by the condition of underexposure is assigned to a relatively bright area.
  • control unit 11 determines whether or not the partial reproducibility emphasis mode (reproducibility emphasis) is designated, and when the partial reproducibility emphasis mode is designated, the reproducibility emphasis flag is set. The setting is made (step S41). If not, the reproducibility emphasis flag is canceled in step S42, and then the process proceeds to step S51.
  • step S51 the control unit 11 determines whether a moving image shooting operation has been performed, and when a moving image shooting operation has not been performed, determines whether a still image shooting operation has been performed in step S61.
  • the control unit 11 determines whether or not the partial reproducibility emphasis mode is specified in step S62.
  • the adaptive processing unit 14b performs the composition process with the image correction in consideration of the continuity between the regions in step S63. As a result, one image in the composite image is excellent in viewability as a whole, and the generated still image becomes a continuous and easy-to-see image as the entire image.
  • the adaptive processing unit 14b obtains one composite image using the image data for each reproducibility emphasis area allocated in step S39 in step S54.
  • the respective images acquired under the image acquisition conditions A and B are used and stored as they are for the respective reproducibility emphasis regions without being subjected to image correction.
  • the control unit 11 converts the still image acquired together with the time, shooting information, and the like into a file, and returns the process to step S31.
  • FIG. 13A shows a still image file recorded in the recording unit 40 in this case.
  • the still image file includes image data of a still image recorded in the image recording unit 41. Further, data other than the image data in the image file is recorded in the incidental information recording unit 42.
  • the appreciation-oriented tag is set to “1”
  • the reproducibility-oriented tag is set to “0”
  • the still image in the partial reproducibility-oriented mode The appreciability emphasis tag is “0”
  • the reproducibility emphasis tag is set to “1”.
  • the other metadata is the same as in FIG. 10A or 10B.
  • step S51 the control unit 11 detects a moving image shooting operation. In this case, the control unit 11 determines whether or not the partial reproducibility emphasis mode is designated in the next step S52.
  • the adaptive processing unit 14b performs the composition process with the image correction in consideration of the continuity between the regions in step S53. As a result, the image of each frame in the composite moving image is excellent in the appreciability as a whole, and the generated moving image becomes a continuous and easy-to-see image as the entire image.
  • the adaptive processing unit 14b saves the image data for each reproducibility emphasis area allocated in step S39 in step S54.
  • each moving image acquired under the image acquisition conditions A and B is used and stored as it is for each reproducibility-focused area without image correction.
  • step S55 the control unit 11 determines whether the end of moving image shooting has been instructed.
  • step S56 the control unit 11 converts the moving image acquired together with time, shooting information, etc. into a file, and returns the process to step S31.
  • step S57 the control unit 11 determines whether or not still image recording is instructed in next step S57.
  • step S62 the control unit 11 shifts the process to step S62 to perform processing for still image recording, and when the still image recording is not instructed, the process proceeds to step S31. Back to.
  • FIG. 13A shows a moving image file recorded in the recording unit 40.
  • the moving image file includes image data of the moving image recorded in the image recording unit 41. Further, data other than the image data in the image file is recorded in the incidental information recording unit 42.
  • the thumbnails recorded in the incidental information recording unit 42 are thumbnails of images synthesized while maintaining the continuity between the regions, with emphasis on visibility.
  • thumbnails may be created from images that do not maintain visibility or where continuity is not maintained if visibility is originally not important.
  • the metadata includes information (date and time, sensitivity, shutter speed (SS), and aperture) at the time of shooting when the captured image is acquired.
  • the metadata of the moving image includes information on each frame used for the moving image, information on the reproducibility-oriented area, and information on processing content for each area.
  • the moving image has metadata in these periods, that is, a setting period of an appreciation-oriented tag and a setting period of a reproducibility-oriented tag. Contains information. Thereby, various information can be acquired by metadata about the image of each reproducibility importance area
  • a composite image useful not only for viewing but also for image data is acquired so as to be identifiably usable (for imaging) , Recording, utilization, etc.). Further, in the present embodiment, acquisition and recording of a moving image in the partial reproducibility emphasis mode are possible, and in each period of the moving image, which mode the moving image was acquired in each mode, and the moving image used for each area It can be recognized which image the image is.
  • FIG. 14 is a block diagram showing an imaging apparatus having an image processing apparatus according to the third embodiment of the present invention.
  • the present embodiment makes it possible to provide metadata easy for the user to the composite image obtained by image combination to the image file of the composite image.
  • the image processing apparatus of the imaging apparatus performs imaging control for depth combination with respect to the imaging unit and, at the time of acquisition of each captured image used for depth combination, shooting information etc. Is attached to the image file of the composite image as metadata and recorded. Thereby, the convenience of the user who refers to the content of the metadata of the composite image is improved.
  • the shooting information includes various shooting parameters such as exposure time, aperture value, exposure program, ISO sensitivity, and shooting date and time information. Further, in the present embodiment, the information on the distance to the subject (hereinafter referred to as subject distance information) is included as the shooting information.
  • subject distance information is the distance from the photographing lens to each part of the subject and means the distance in the in-focus state.
  • the subject distance information is included as metadata, but also the accuracy of the information of the distance to be obtained is improved by calibration by image processing.
  • the imaging device 101 is provided with an imaging unit 110.
  • the imaging unit 110 includes an imaging element 111 such as a CCD or a CMOS sensor, and a photographing lens (optical system) 112 for guiding an optical image of a subject to an imaging surface of the imaging element.
  • the imaging lens 112 may be a fixed lens attached to the imaging unit 110 or may be an interchangeable lens.
  • the photographing lens 112 is provided with a lens or the like (not shown) for zooming and focusing, and these lenses are driven and controlled by the lens driving unit 113.
  • the focus changing unit 113a of the lens drive unit 113 can change the focus position by driving the lens for focusing based on a control signal from the lens control unit 124 of the control unit 120 described later. ing.
  • the imaging device 111 employed in the imaging unit 110 may have a pixel for focus control (hereinafter referred to as an AF pixel) for obtaining a defocus amount in the image plane phase difference method.
  • an AF pixel pixel
  • the optical system characteristic unit 114 acquires information on the characteristics of the optical system and outputs the information to the control unit 120.
  • information on the characteristics of the optical system information necessary for depth combination described later, for example, depth of field information, information on the focusable range, information indicating the relationship between the focusing distance and the focus position, etc. Including.
  • the optical system characteristic unit 114 can acquire information reflecting the focal length and the state of the aperture as the information on the characteristics of the optical system.
  • the control unit 120 can be configured by, for example, a processor using a CPU (not shown) that performs camera control according to a program stored in a memory (not shown).
  • the control unit 120 outputs a drive signal of the imaging element 111 to the imaging unit 110 to control the shutter speed, the exposure time, and the like, and reads the captured image from the imaging unit 110.
  • the image processing unit 121 of the control unit 120 performs predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and various other signal processing on the read captured image.
  • the lens control unit 124 controls the lens drive unit 113.
  • the lens control unit 124 can perform autofocus control.
  • the lens control unit 124 controls the focus changing unit 113a of the lens driving unit 113 to change the focus position, and according to the result of the contrast determination processing of the image processing unit 121, autofocus control by so-called hill climbing contrast method is possible.
  • the lens control unit 124 may perform autofocus control by the image plane phase difference method.
  • the control unit 120 is provided with an operation determination unit 127.
  • the operation determination unit 127 receives a user operation on the operation unit 115 including a shutter button, a function button, various switches such as shooting mode setting, and the like (not shown).
  • the control unit 120 controls each unit based on the determination result of the operation determination unit 127.
  • the recording control unit 125 can perform compression processing on the captured image after the various signal processing, and can provide the recording unit 130 with the compressed image for recording.
  • the recording unit 130 includes a predetermined recording medium, and the recording control unit 125 is configured to record an image file.
  • the recording control unit 125 can record an image file in a specific format such as Exif (Exchangeable image file format) as an image file, and the recording unit 130 records an area for recording an image data portion in the image file.
  • a metadata unit 132 which is an area for recording a metadata portion.
  • the recording unit 130 is provided with an object feature database (DB) 133 in which feature amounts of a predetermined object are recorded.
  • DB object feature database
  • the display control unit 128 of the control unit 120 executes various processes related to display.
  • the display control unit 128 can provide the display unit 141 with the captured image after signal processing.
  • the display unit 141 has a display screen such as an LCD (liquid crystal panel), and displays an image given by the display control unit 128.
  • the display control unit 128 can also display various menu displays and the like on the display screen of the display unit 141.
  • a touch panel (not shown) may be provided on the display screen of the display unit 141.
  • the touch panel can generate an operation signal according to the position on the display screen pointed by the user with a finger.
  • the operation signal is supplied to the control unit 120.
  • the control unit 120 can detect the position on the display screen touched by the user and the slide operation in which the user slides the display screen with a finger, and can execute processing corresponding to the user operation. It has become.
  • the display screen of the display unit 141 is provided along the back of the housing 101a (see FIG. 15) of the imaging apparatus 101, and the photographer can view the through image displayed on the display screen of the display unit 141 at the time of shooting. Can be confirmed and the photographing operation can be performed while confirming the through image.
  • the communication control unit 129 can control the communication unit 145 to perform communication with an external device.
  • the communication unit 145 is controlled by the communication control unit 129, and can transmit and receive data in a wired or wireless manner with an external device.
  • the communication unit 145 is configured to be capable of wired communication of USB standard, wireless LAN such as Wifi (registered trademark), or wireless communication by Bluetooth (registered trademark) or the like.
  • the communication control unit 129 can transmit an image file such as a captured image and a composite image and various other information to an external device via the communication unit 145.
  • imaging information including subject distance information is acquired for each captured image before combining, and the acquired imaging information is used as metadata to an image file of the composite image. It can be granted.
  • the depth synthesis control unit 122 of the control unit 120 controls such depth synthesis processing. That is, in the depth synthesis mode, the depth synthesis control unit 122 which is a synthesis control unit controls the image pickup device 111 and the lens control unit 124 to perform multiple imaging for depth synthesis, and controls the image processing unit 121.
  • the depth composite image is generated from the plurality of captured images acquired as described above.
  • the depth-of-field synthesis control unit 122 controls the metadata creation unit 126 to record subject distance information for each captured image in the recording unit 130 as metadata.
  • FIG. 15 is an explanatory view showing a state of shooting in the depth synthesis mode.
  • FIG. 16 is an explanatory diagram for explaining the operation in the depth synthesis mode.
  • 17A to 17C are explanatory diagrams showing a captured image and a composite image captured in the depth combining mode.
  • FIG. 15 shows a state of photographing an article, so-called photographing.
  • pictures such as goods to sell
  • pictures may be published on a site.
  • the subject distance of each part of the product may be relatively different. Therefore, when the aperture can not be narrowed or the subject distance is too small, the depth of focus of the photographing device becomes shallow, and in the normal photographing mode, an image in which only a part of the product is in focus is photographed. There are times when On the other hand, if the depth synthesis mode is adopted, it is possible to easily shoot an image in which details are in focus in such a use scene.
  • a bottle 155 which is an article (goods) is placed on the table 154.
  • the user 151 holds and holds the case 101 a containing the respective circuits of the imaging device 101 with the right hand 152 so that the bottle 155 falls within the visual field range.
  • a through image is displayed on the display screen 141a of the display unit 141 provided on the back of the housing 101a.
  • the user 151 shoots the bottle 155 while checking the through image.
  • the lens control unit 124 is controlled by the depth combination control unit 122 to perform shooting while performing autofocus control on a predetermined position of the bottle 155 in the shooting range.
  • the depth-of-field composite control unit 122 performs photographing a plurality of times while changing the focus position by autofocus control at a predetermined exposure.
  • the depth-of-field synthesis control unit 122 performs imaging by switching the focus position between the first exposure and the second exposure with the shutter speed being 1/100 second.
  • FIGS. 17A to 17C show the in-focus state (in-focus state) by the solid line and the out-of-focus state by the broken line.
  • a shot image 150a in which the tip of the bottle 155 is in focus is obtained.
  • the captured image 150a is in focus on the front end side 155a of the bottle 155, as shown by the broken line, the focus is not on the lower side 155b of the center of the bottle 155.
  • a captured image 150b in which the center of the bottle 155 is in focus is obtained.
  • the captured image 150b is in focus from the center of the bottle 155 to the lower side 155b, but as shown by the broken line, the tip side 155a is not in focus from the center of the bottle 155.
  • the solid portion of the captured image in FIG. 16 indicates the image portion in focus, and in the first shooting, only the upper side of the image at the image position of the bottle 155 is in focus. In the second shooting, only the lower side of the image at the image position of the bottle 155 is in focus.
  • the image processing unit 121 is controlled by the depth combination control unit 122 to combine two captured images obtained by these two times of shooting in the depth combination mode, and as shown in FIG. A composite image 150c is obtained which is in focus for the entire position. As shown in FIG. 17C, as a result of the depth combination, the combined image 150c is in focus over the entire area from the tip side 155a of the bottle 155 to the lower side 155b.
  • the control unit 120 is provided with an object determination unit 123.
  • the object determination unit 123 can perform object determination for determining the range in which the focus position is changed in the depth synthesis mode, that is, the in-focus range.
  • the target determination unit 123 determines a predetermined target as the focusing target, for example, only the focusing target can be brought into the focusing state in the depth synthesis mode.
  • the object determination unit 123 is also used to determine an object used in a calibration process described later.
  • the object determination unit 123 performs image analysis on the captured image from the imaging unit 110, and determines a focusing target subject for determining a focusing range from the captured image. For example, the object determination unit 123 may detect the focusing target subject using the feature amount for the subject. For example, the information of the feature amount of the subject may be recorded in the object feature database (DB) unit 133 of the recording unit 130. The object determination unit 123 may read the feature amount from the object feature DB unit 133 and detect the focusing target subject using the feature amount. Furthermore, the object determination unit 123 may determine the focusing target subject by the user's designating operation of the subject.
  • DB object feature database
  • the object feature DB section 133 information of feature amounts of an object having a known size (hereinafter referred to as a correction known object) used for calibration at the time of subject distance calculation is also recorded.
  • the object determination unit 123 can also detect the correction known object in the captured image using the information of the object feature DB unit 133.
  • the feature quantities of the known object for correction include a shape, a pattern, a size, and the like.
  • a color, size, shape or pattern that is easy to detect such as a coin of a specific known size, a stamp, a memory or the like, is easily detected as feature information of the image and size as a known target object for correction. If information is stored in association, a portion having this feature is appropriately found from the captured image, and the size of the image portion and the actual size of the other image portion are used to obtain the actual size of the other image portion. Can be used to determine
  • the information on the known correction target to be recorded in the target feature DB unit 133 may be additionally updated by the user, for example, by the operation of the operation unit 115.
  • a known object for correction a spherical object or a circular object is preferable so that correction information for calibration can be easily obtained regardless of which direction the image is taken.
  • the object determination unit 123 may detect an object having the same object or a continuous outline as an object to be focused based on the subject distance in each part of the captured image and the image analysis result for the captured image. Further, the object determination unit 123 may determine the contour line in the captured image and determine the focusing target object based on the change of the subject distance on the contour line. For example, when the change in the subject distance is larger than a predetermined threshold, the object determination unit 123 may determine that the contour is discontinuous.
  • the control unit 120 is provided with a metadata creation unit 126.
  • the metadata creation unit 126 can generate metadata including subject distance information as metadata of an image file of a specific standard for a captured image obtained by capturing during normal shooting.
  • the metadata generation unit 126 sets subject distance information for each of the captured images used for synthesis as metadata of an image file of a specific standard for the synthesized image generated in the depth synthesis mode. It is possible to generate metadata including.
  • the metadata creation unit 126 has a data conversion unit 126 a, and the data conversion unit 126 a uses the information from the optical system characteristic unit 114 and the information on the focus position from the lens control unit 124 to set the focus position to the distance.
  • the subject distance can be obtained by conversion.
  • FIG. 18 is a graph showing the relationship between the focus position and the distance for a given lens, with the focus position taken on the horizontal axis and the reciprocal of the distance taken on the vertical axis.
  • FIG. 18 shows the relationship between the in-focus position and the reciprocal of the distance for each of three zoom positions, for a given lens. For example, when the zoom position is Z1, the reciprocal of the distance when the lens is extended to the focus position LD1 is L1, and the reciprocal of the distance when extended to the focus position LD2 is L2 .
  • the characteristics in FIG. 18 are different for each lens, and the control unit 120 can obtain the relationship in FIG. 18 by reading out information on the optical system from the optical system characteristic unit 114 of the imaging unit 110.
  • each curve of FIG. 18 is given by the following equation (1).
  • the data conversion unit 126 a of the metadata creation unit 126 records the characteristic information of FIG. 18 read from the optical system characteristic unit 114 in a memory or a recording unit 130 (not shown).
  • the data conversion unit 126a is configured to obtain the subject distance for each captured image based on the information on the focus position from the lens control unit 124 and the optical characteristic information.
  • 1 / L ⁇ ⁇ LD + ⁇ (1)
  • LD indicates the lens extension position (focus position)
  • ⁇ and ⁇ are predetermined constants.
  • the reciprocal 1 / L of the distance is approximately proportional to the focus position LD, and ⁇ corresponds to the offset value, that is, the reciprocal of the distance at infinity.
  • the proportional coefficient ⁇ and the offset value ⁇ become different values for each lens and each zoom position.
  • a non-replaceable lens is adopted as the photographing lens 112
  • a relatively accurate value can be obtained as the offset value ⁇ .
  • the accuracy of the offset value ⁇ may be relatively low due to the mechanical accuracy at the time of attaching the interchangeable lens.
  • the accuracy of the proportional coefficient ⁇ may be relatively low when the detection accuracy of the zoom position is low. Therefore, the data conversion unit 126a is configured to improve the accuracy of distance calculation by performing calibration using a known correction target whose size is known.
  • FIGS. 19 to 21 are for explaining the calibration process, and show an example in which a coin is used as a correction known object for calibration.
  • FIG. 19 is a chart showing the relationship between the type of coin and the diameter
  • FIG. 20 is a flow chart showing the flow of calibration processing
  • FIG. 21 is an explanatory view showing the state of photographing at the time of calibration.
  • the coin has a defined diameter depending on its type.
  • the data conversion unit 126a determines, in step S141 of FIG. 20, information on the diameter of the coin that is the known object for correction. Are read from the object feature DB unit 133.
  • the data conversion unit 126a obtains the size of the known object for correction in the captured image, for example, by the number of pixels or the like (step S142).
  • the data conversion unit 126a calculates correction information for performing calibration of the subject distance by comparing the size in the image of the correction known object with the size read from the object feature DB unit 133 (step S143). ).
  • the data conversion unit 126a records the calculated correction information in the recording unit 130 or stores it in a memory (not shown).
  • the data conversion unit 126a corrects the subject distance obtained based on the lens characteristic and the focus position LD according to the above equation (1) using the correction information.
  • FIG. 21 shows an example in which the correction information is calculated by changing the distance to the subject in order to improve the calculation accuracy of the subject distance.
  • the housing 101a is changed to the position of the housing 101a 'so that the image size of the coin 160, which is the known object for correction, becomes a predetermined multiple and the captured image distance Shall be changed.
  • the focus position LD is given by the lens control unit 124, the values of ⁇ and ⁇ can be calculated in the above equation (1), and the subject distance can be accurately obtained.
  • the data conversion unit 126a generates information of the subject distance corrected by the correction information as metadata of the captured image.
  • the metadata creation unit 126 is configured to record metadata including subject distance information in the metadata unit 132.
  • FIG. 22 is a flow chart for explaining the operation of the third embodiment.
  • FIGS. 23 and 24 are explanatory diagrams for explaining the contents recorded in the image file of a specific standard.
  • FIG. 23 shows an image file at the time of normal shooting
  • FIG. 24 shows an image file at the time of depth combination mode.
  • step S101 of FIG. 22 the control unit 120 determines whether the imaging mode is designated.
  • the control unit 120 acquires a captured image for a through image in step S102. That is, the control unit 120 causes the imaging unit 110 to capture an object, and the image processing unit 121 performs predetermined image processing on the captured image from the imaging unit 110 and applies the image processing to the display unit 141.
  • the display unit 141 displays the through image on the display screen and sets the focus position and the standard exposure by the auto focus function and the auto exposure function (step S103).
  • step S104 the control unit 120 determines whether or not there is an instruction to switch the mode. When a mode switching instruction is generated, the control unit 120 performs various settings of the instructed mode in step S105. For example, when the depth synthesis mode is designated, various settings required for the depth synthesis mode are performed.
  • the control unit 120 determines in the next step S106 whether or not calibration has been instructed. When the calibration is instructed, the control unit 120 executes the calibration in step S107. For example, the data conversion unit 126a of the control unit 120 performs calibration according to the flow of FIG. 20 to obtain correction information. The control unit 120 records the correction information obtained in step S107 in the recording unit 130. In order to obtain the effect of calibration, it is better to shoot from the time of calculation of correction information in step S107 without changing the zoom position.
  • control unit 120 determines the presence or absence of the shooting operation by the user (step S108), and returns the process to step S101 when the shooting operation is not performed.
  • the control unit 120 determines in step S109 whether the current mode is a mode accompanied by a change in shooting conditions, for example, a depth combination mode.
  • the control unit 120 shifts the process to step S110, and records the image data of the acquired captured image and the metadata in the recording unit 130.
  • the image data recorded in the image data unit 131 and the metadata recorded in the metadata unit 132 are associated with each other, and an image file including image data and metadata is generated for each captured image. That is, the metadata generation unit 126 acquires imaging information from the optical system characteristic unit 114, the lens control unit 124, and the like.
  • the data conversion unit 126a calculates the subject distance based on the information on the optical system and the information on the focus position. In this case, the data conversion unit 126a reads the correction information from the recording unit 130, and calibrates the subject distance based on the correction information.
  • the data conversion unit 126a gives the metadata including the subject distance information to the recording unit 130 and records the metadata.
  • FIG. 23 illustrates an example of image data and metadata recorded in the recording unit 130 in this case.
  • FIG. 23 shows information of three image files 161 to 163.
  • the first image file 161 includes image data 161a and metadata 161b, and the metadata 161b is a distance indicating that the subject distance is 50 m.
  • the second image file 162 includes image data 162a and metadata 162b, and the metadata 162b includes distance information indicating that the subject distance is 15 m.
  • the third image file 163 includes image data 163a and metadata 163b, and the metadata 163b includes distance information indicating that the subject distance is 15 cm.
  • This metadata is data of a specific standard, and the user can confirm the contents of these metadata when reading out an image file.
  • step S105 various settings of the depth synthesis mode are performed.
  • the control unit 120 shifts the process from step S109 to step S111.
  • steps S111 to S115 the depth synthesis control unit 122 of the control unit 120 performs multiple imaging for depth synthesis.
  • the depth-of-field synthesis control unit 122 records, on the recording unit 130, the current focus position and the captured image at this focus position.
  • the imaging is performed a plurality of times while shifting the focus position.
  • step S113 the depth-of-field synthesis control unit 122 controls the lens control unit 124 so that the focus changing unit 113a shifts the focus position by, for example, a predetermined amount.
  • the depth combination control unit 122 records the shifted captured image obtained as a result and the focus position thereof in the recording unit 130 (step S114).
  • step S115 the depth synthesis control unit 122 determines whether or not a plurality of imagings necessary for the depth synthesis has been completed.
  • the depth-of-field synthesis control unit 122 may perform shooting while shifting the focus position by a predetermined shift amount and the number of times.
  • the depth-of-field synthesis control unit 122 controls the object determination unit 123 to detect an in-focus object which is an object to be photographed in the in-focus state. The in-focus position is shifted until the in-focus state is obtained in the entire area of the subject.
  • step S115 If the depth synthesis control unit 122 determines that the in-focus state is obtained in the entire area of the focusing target subject, the process proceeds from step S115 to step S116, and if not, the process returns to step S113. , Shift focus position, repeat imaging and recording.
  • the depth combination control unit 122 combines a plurality of captured images and generates a depth combined image including the focusing target subject in the in-focus state.
  • the metadata generation unit 126 acquires imaging information for each captured image from the optical system characteristic unit 114, the lens control unit 124, and the like.
  • the data conversion unit 126a calculates the subject distance for each imaging based on the information on the optical system and the information on the focus position (step S117).
  • the data conversion unit 126a reads the correction information from the recording unit 130, and calibrates the subject distance based on the correction information.
  • the depth synthesis control unit 122 controls the recording control unit 125 to give a synthesized image to the image data unit 131 of the recording unit 130 and record the image.
  • the metadata creation unit 126 controls the recording control unit 125 to give metadata including the subject distance information obtained by the data conversion unit 126a to the recording unit 130 for recording.
  • the image data recorded in the image data unit 131 and the metadata recorded in the metadata unit 132 are associated with each other, and an image file consisting of image data and metadata is generated for each composite image. .
  • FIG. 24 illustrates an example of image data and metadata recorded in the recording unit 130 in this case.
  • FIG. 24 shows information of one composite image file 165, and the image file 165 includes image data 165a and metadata 165b and 165c.
  • the metadata 165 b indicates common photographing information at the time of generation of the depth composite image, and in the example of FIG. 24, the shutter speed (SS) is 1/100 second and the aperture is the F number (FNo.) 16. It is shown that.
  • metadata 165c indicates shooting information for each captured image used for combining the depth composite image, and in the example of FIG. 24, two captured images are used for depth combining, and each captured image is acquired It indicates that the subject distance is 10 cm and 13 cm, respectively.
  • the metadata 165 b and 165 c are data of a specific standard, and the user can confirm the contents of these metadata when reading out an image file. That is, in the present embodiment, it is possible for the user to individually recognize shooting information of each captured image used for creation of a composite image acquired in the depth combining mode.
  • step S101 in FIG. 22 when the imaging mode is not instructed, the control unit 120 proceeds to step S121 and determines whether the reproduction mode is designated. When the reproduction mode is not designated, the control unit 120 shifts to another designated mode.
  • step S122 the control unit 120 displays an icon list for selecting an image recorded in the recording unit 130.
  • the control unit 120 selects and reproduces an image based on the selection operation, and displays the image on the display screen of the display unit 141 (step S125).
  • the control unit 120 determines whether or not there is an operation to return in the next step S124. If there is an operation to return, the process returns to step S101. The process returns to step S122.
  • the control unit 120 determines whether or not an operation to instruct display of the detail display has occurred (step S126).
  • the control unit 120 shifts the process to step S127, and causes the display unit 141 to display a display (metadata display) based on the metadata read from the metadata unit 132. .
  • a display metal display
  • the contents of the metadata 161b to 163b, 165b, and 165c in FIGS. 23 and 24 are displayed.
  • the user can grasp the shooting information for each captured image and the shooting information for the captured image and the composite image.
  • control unit 120 determines whether or not the external transmission instruction has been generated (step S128).
  • the communication control unit 129 of the control unit 120 controls the communication unit 145 to transmit the image file of the selected image to the set transmission destination.
  • control unit 120 determines whether or not there is an operation to return, and when there is an operation to return, the process returns to step S101. If so, the process returns to step S125.
  • the present embodiment even when a plurality of captured images are combined to generate a combined image, metadata such as shooting information can be generated for each of the captured images used for combining, and the generated meta Data can be added to the image file as data of a specific standard that can be confirmed by the user, for example.
  • the imaging conditions and the like can be confirmed for each captured image, and the convenience is excellent.
  • the user can perform photography for generating a depth-synthesized image with reference to the imaging condition and the like for each captured image, so that imaging with less failure is possible.
  • information of the subject distance can be generated and recorded as metadata to be added to the image file.
  • the subject distance information is calculated based on the characteristic information of the optical system and the focus position, and is calibrated using the correction information calculated based on the known object for correction, and is obtained with high accuracy.
  • the user can accurately grasp the subject distance.
  • FIG. 25 is an explanatory view showing a modified example.
  • the same components as in FIG. 24 are assigned the same reference numerals and descriptions thereof will be omitted.
  • step S117 In the flow of FIG. 22, an example has been described in which the subject distance to each part of the subject photographed at each focus position is obtained in step S117 or the like, and information of the subject distance for each photographed image is recorded as metadata.
  • the data conversion unit 126a is a difference between the distance to the predetermined part of the subject and the distance to another predetermined part determined by shifting the focus position from this distance.
  • FIG. 25 illustrates an example of image data and metadata recorded in the recording unit 130 in this case.
  • FIG. 25 shows information of one composite image file 165, and the image file 165 includes image data 165a and metadata 165b and 165d.
  • the metadata 165 d indicates shooting information for each captured image used for combining the depth composite image.
  • three captured images are used for depth combining, and the first captured image is acquired.
  • the second subject's captured image is captured at a position with a distance difference of +1.5 cm from the subject's distance at the time of acquisition of the first captured image.
  • the captured image indicates that the captured image is captured at a position having a distance difference of +3 cm from the subject distance at the time of acquisition of the first captured image.
  • FIG. 26 is an explanatory view showing another modified example.
  • this modification not only object distance information but also position coordinates (hereinafter referred to as focus region coordinates) in an image of a portion of the object that is in focus (hereinafter referred to as focus region) and distance information between focus regions are meta It is recorded as data.
  • the data conversion unit 126a may be configured to obtain such information in step S117 of FIG.
  • the depth-of-field synthesis control unit 122 may obtain the focus region coordinates of the focus region focused at the focus position.
  • the in-focus region coordinates may be represented by x, y coordinates in the image.
  • the data conversion unit 126a may calculate the distance between the in-focus portions using the correction information used for the calibration. For example, when a coin is used as the known object for correction, the data conversion unit 126a obtains correction information from the dimension in the image horizontal direction of the coin, and calculates the dimension in the image vertical direction using this correction information. May be Thereby, the distance between each part of the subject may be calculated from the distance of each part in the image.
  • FIG. 26 illustrates an example of image data and metadata recorded in the recording unit 130 in this modification.
  • FIG. 26 shows information of one composite image file 171, and the image file 171 includes image data 171a and metadata 171b consisting of metadata 172a and 172b.
  • the metadata 172a indicates common photographing information at the time of generation of the depth composite image, and in the example of FIG. 26, the shutter speed (SS) is 1/100 second and the aperture is the F number (FNo.) 16. It is shown that.
  • the metadata 172 b indicates shooting information for each captured image used for combining the depth composite image, and in the example of FIG. 26, one captured image captured for depth combining is focused on the focus site P 1
  • the subject distance to the in-focus portion P1 is 10 cm.
  • the metadata 1172 b indicates that the second captured image is captured in a state in which the site 3 cm away from the focus site P ⁇ b> 1 is in focus.
  • the metadata portion 132 can also record the in-focus region coordinates of each in-focus region .
  • the control unit 120 reads out the information of the focus region coordinates and displays the focus region coordinates and the distance between the focus regions on the display of the captured image based on the image data. You may overlap and display.
  • FIG. 26 shows such superimposed display, and displays the display of the focus site coordinate positions P1 and P2 in the image corresponding to the focus sites P1 and P2 and the display 173 of the distance between the focus sites.
  • FIG. 27 is a flowchart showing focus position shift control of depth combination adopted in the fourth embodiment of the present invention. Further, FIG. 28 is an explanatory view showing a change in contrast of a captured image by depth combination.
  • the hardware configuration in the present embodiment is the same as that in the first embodiment.
  • the shift amount of the focus position in step S113 is a predetermined amount prescribed in advance, and the imaging used for combining is performed a predetermined number of times prescribed in advance or until the focus position is adjusted to the entire area of the focus target object. It was conducted.
  • the shift amount of the focus position and the number of shifts are determined by determining the in-focus state of the focusing target subject.
  • step S ⁇ b> 151 of FIG. 27 the metadata creation unit 126 acquires optical characteristic information from the optical system characteristic unit 114.
  • the depth synthesis control unit 122 obtains the subject distance corresponding to the current focus position based on the current focus position and the optical characteristic (step S152).
  • step S153 the object determination unit 123 detects the focusing target subject in the captured image by an outline, a pattern, a color, and the like continuing from the current focus position.
  • step S154 the depth-of-field synthesis control unit 122 determines the in-focus state of the focusing target subject. For example, the depth-of-field synthesis control unit 122 may determine the in-focus state of the focusing target subject based on the contrast of each part of the captured image.
  • the vertical axis in FIG. 28 corresponds to the image position in the vertical direction of the bottle 155
  • the horizontal axis indicates the contrast at each image position
  • the curve on the left shows the contrast of the captured image corresponding to FIG.
  • the curve on the right side shows the contrast of the depth composite image.
  • step S152 it is assumed that the focus position is set such that the tip end position of the bottle 155 is in focus.
  • the depth-of-field synthesis control unit 122 acquires the contrast on the left side of FIG.
  • the recording unit 130 records information on the limit value of contrast that is acceptable as the in-focus state, and the depth synthesis control unit 122 determines whether the entire area of the image part of the focusing target object is higher than this limit value. In other words, it is determined whether or not the entire area of the in-focus subject is acceptable as the in-focus state (step S155).
  • this determination is not performed on only a single captured image, but is performed in consideration of the in-focus state of all captured images captured up to that point. Therefore, when it is determined that the entire area of the in-focus subject is acceptable as the in-focus state, the depth composite image obtained by combining all the captured images captured so far is the in-focus subject An in-focus state can be obtained in the entire area of
  • the depth combination control unit 122 ends the focus position shift control and ends the imaging for the depth combination. If the entire in-focus subject is not acceptable as the in-focus state, the depth-of-focus control unit 122 moves the process to step S156, and the contrast in the in-focus subject becomes equal to or less than this limit value. Detect boundaries.
  • step S157 the depth-of-field synthesis control unit 122 sets a focus position so that the detected boundary portion is in focus, obtains the subject distance at the focus position, and returns the process to step S154. If the boundary portion detected in step S156 is the center position of the bottle 155, the second imaging is performed at the focus position in FIG. 17B in step S157.
  • the depth-of-focus control unit 122 stops the imaging for the depth combination.
  • the captured image of is used to generate a depth composite image.
  • the curve on the right side of FIG. 28 shows the change in the contrast of the in-focus subject portion of the composite image obtained in this case, and it can be seen that the in-focus state is obtained over the entire in-focus subject.
  • the in-focus state is determined for the in-focus subject while shifting the in-focus position, the shift amount of the in-focus position is determined based on the determination result, and combining is performed based on the determination result. It is decided to stop the imaging to be used, and enables the imaging necessary for the depth combination to be performed the minimum necessary number of times. As a result, it is possible to prevent unnecessary imaging required for depth composition and shorten processing time, and to prevent a desired depth composite image from being obtained without necessary imaging being performed. Can.
  • the above-described modifications 1 and 2 may be applied to record the information of the distance difference, the coordinates of the focus region, and the information of the distance between the focus regions.
  • FIG. 29 is a flow chart showing the fifth embodiment of the present invention.
  • FIG. 29 the same steps as those in the flow of FIG.
  • FIG. 30 is an explanatory view showing a state of shooting in the depth synthesis mode according to the fifth embodiment.
  • 31A to 31D are explanatory diagrams showing a captured image and a composite image captured in the depth combination mode.
  • FIG. 32 is an explanatory view for explaining the calibration.
  • the hardware configuration of this embodiment is the same as that of the third embodiment.
  • the present embodiment eliminates the need for imaging for calibration by simultaneously imaging the known correction target at the time of imaging.
  • FIG. 30 shows a state of shooting in object shooting.
  • a bottle 155 which is an article (product) and a coin 160 which is a known object for correction are placed.
  • the user 151 holds and holds the case 101 a containing the respective circuits of the imaging device 101 with the right hand 152 so that the bottle 155 and the coin 160 fall within the field of view.
  • a through image is displayed on the display screen 141a of the display unit 141 provided on the back of the housing 101a.
  • the user 151 shoots the bottle 155 and the coin 160 while checking the through image.
  • FIG. 29 is different from the flow of FIG. 22 in that steps S106 and S107 of the flow of FIG. 22 are omitted and step S161 is added.
  • steps S106 and S107 of the flow of FIG. 22 are omitted and step S161 is added.
  • step S161 is added.
  • a plurality of imagings necessary for the depth synthesis are performed in steps S111 to S115 of FIG.
  • depth combination control unit 122 uses the known object for correction in order to calculate correction amount information used for calibration. It is designed to perform imaging with an object in focus.
  • 31A to 31D show images obtained by these imaging, and for example, the captured images obtained by the first to third imaging are the captured images 157a to 157c shown in FIGS. 31A to 31C, respectively. I assume. 31A to 31D show the in-focus condition (in-focus condition) by the solid line, and the un-focus condition (in-focus condition) by the broken line.
  • a shot image 157a in which the tip of the bottle 155 is in focus is obtained.
  • the captured image 157a is in focus on the front end side 155a of the bottle 155, as shown by the broken line portion, the focus is not on the lower side 155b below the center of the bottle 155.
  • a captured image 157b in which the center of the bottle 155 is in focus is obtained.
  • the captured image 157b is in focus from the center of the bottle 155 to the lower side 155b, but as shown by the broken line, the tip side 155a is not in focus from the center of the bottle 155.
  • the third imaging is performed to calculate the distance and perform calibration.
  • imaging is performed with the coin 160 as the known object for correction in focus.
  • the coin 160 is in focus, and the bottle 155 is not in focus, so that a captured image 157d is obtained.
  • the data conversion unit 126 a calculates correction information based on the distance to the coin 160 and the size of the coin 160 in the image.
  • the data conversion unit 126a records the calculated correction information in the recording unit 130 (step S161).
  • step S117 the data conversion unit 126a performs calibration of the subject distance obtained for each captured image.
  • FIG. 32 shows that the focus positions at the first and second shooting of the depth composite shooting the bottle 155 are LD1 and LD2, respectively, and the focusing position at the third shooting shooting the coin 160 is LD3. ing. Since the focus position is proportional to the reciprocal of the subject distance, the correction information based on the size in the image of the coin 160 at the focus position LD3 and the actual size is applied to the subject distance obtained at the focus positions LD1 and LD2 The accurate subject distance can be calculated for the first and second captured images.
  • the above-described modifications 1 and 2 may be applied to record the information of the distance difference, the coordinates of the focus region, and the information of the distance between the focus regions.
  • FIG. 33 is a block diagram showing a sixth embodiment of the present invention.
  • the exposure conditions of the image data of the shooting frame used in the combining process may be the same or different. However, depending on the way of recording the imaging conditions such as the exposure conditions, it may be considered that the recording becomes inappropriate.
  • appropriate information is created in accordance with image combining processing, and association is made with image data.
  • the camera has an imaging unit, converts the subject image into image data by the imaging unit, and based on the converted image data, displays a through image on a display unit arranged on the back of the main body.
  • the photographer determines the composition and the shutter timing by observing the through image display.
  • image data is recorded on a recording medium.
  • the image data recorded on the recording medium can be reproduced and displayed on the display unit when the reproduction mode is selected.
  • the camera according to the present embodiment can acquire image data of a plurality of frames, and can perform combining processing performed using the image data of the plurality of frames.
  • different exposure conditions shooting conditions
  • different exposure conditions are obtained for a first image combining process performed by obtaining image data under a plurality of different exposure conditions and a second image combining process performed by obtaining a plurality of image data under the same exposure condition.
  • FIG. 33 is a block diagram mainly showing the electrical configuration of the camera according to this embodiment.
  • the camera includes a control unit 201, an imaging unit 202, a recording unit 205, a display unit 206, an operation unit 207, and a communication unit 208.
  • the imaging unit 202 includes an optical system 202a, an imaging element 202b, a focus changing unit 202c, an exposure changing unit 202d, and an imaging position changing unit 202d.
  • the focus changing unit 202c, the exposure changing unit 202d, and the imaging position changing unit 202d may be omitted as appropriate according to the settable modes.
  • the optical system 202a has an optical lens such as a focus lens, and can form an object image.
  • the focus position of the optical system 202a is controlled to move by a focus changing unit 202c described later.
  • the imaging element 202 b includes an image sensor such as a CCD image sensor or a CMOS image sensor.
  • the imaging element 202b is disposed near a position where an object image is formed by the optical system 202a, and converts the object image into image data and outputs the image data according to control from the imaging control unit 203b.
  • the imaging element 202b functions as an image data acquisition unit capable of acquiring a plurality of pieces of photographed image data by switching the photographing condition (first photographing condition) for the same object.
  • the focus changing unit 202c has a drive mechanism and a drive circuit that move the focus lens in the optical system 202a in the optical axis direction.
  • the focus changing unit 202c moves the focusing lens to the in-focus position based on the focusing signal from the imaging control unit 203b. Further, when the depth combination mode is set, the focus changing unit 202c sequentially moves the focus lens to a predetermined different focus position, and image data is acquired at each focus position.
  • the exposure changing unit 202d changes the exposure condition at the time of shooting.
  • the exposure change unit 202d includes at least one of an aperture and aperture control circuit, a shutter and shutter control circuit, an ISO sensitivity change circuit, and the like. That is, the exposure changing unit 202 d changes the exposure condition by changing at least one of the aperture value, the shutter speed value, and the ISO sensitivity.
  • the exposure changing unit 202d sequentially performs shooting under predetermined different exposure conditions, and acquires image data under each of the exposure conditions.
  • the imaging position changing unit 202e includes a moving mechanism and a moving circuit that move the imaging element 202b in a plane orthogonal to the optical axis.
  • the imaging position changing unit 202e sequentially moves the imaging element 202b to a predetermined different imaging position in a plane orthogonal to the optical axis when the super high resolution combining mode is set, and the imaging position of each imaging position is changed. Image data is acquired at.
  • the control unit 201 is configured by an application specific integrated circuit (ASIC) including a central processing unit (CPU), peripheral circuits thereof, a memory, and the like.
  • the CPU executes the entire camera by controlling the respective units in the camera 200 according to the program stored in the memory.
  • the control unit 201 includes a mode control unit 201 b, a display control unit 201 c, a communication control unit 201 d, and an image processing unit 203. Some functions of these units are realized by a CPU and a program, and other functions are realized by a peripheral circuit.
  • the mode control unit 201b executes control by the imaging control unit 203b, the imaging control changing unit 203c, the image combining unit 203d and the like according to the mode and the like set by the user.
  • the display control unit 201 c controls display on the display unit 206.
  • the display there are various displays such as a through image display based on image data acquired by the imaging element 202b, a reproduced image display of an image recorded in the recording unit 205, a menu screen display, and the like.
  • a through image display based on image data acquired by the imaging element 202b a reproduced image display of an image recorded in the recording unit 205
  • a menu screen display and the like.
  • metadata stored in association with the image data may be displayed (see FIGS. 41A to 41C described later).
  • the communication control unit 201 d controls wireless (including infrared) communication with the outside performed via the communication unit 208 or wired communication.
  • the image data and the like recorded in the recording unit 205 can be communicated to the external device (see S245 and S247 in FIG. 40).
  • the image processing unit 203 includes an imaging control unit 203 b, a shooting control changing unit 203 c, an image combining unit 203 d, a recording control unit 203 e, and a metadata creation unit 204.
  • the imaging control unit 203b controls acquisition of image data from the imaging element 202b. That is, the imaging control unit 203 b controls the photoelectric conversion time of the imaging element 202 b and the reading of the image data, and causes the control unit 201 to output the read image data.
  • the photographing control changing unit 203c is configured to adjust the focus changing unit 202b, the exposure changing unit 202c, and the like according to the set mode such as the depth synthesis processing mode, the high dynamic range synthesis processing (HDR) mode, and the super high resolution synthesis processing mode
  • the position change unit 202d is controlled to execute imaging control according to the set mode.
  • the image combining unit 203 d has an image processing circuit and the like, and according to the depth combining processing mode, high dynamic range combining processing (HDR) mode, super high resolution combining processing mode, noise reduction mode, electronic camera shake prevention mode, etc. Image processing is performed on the acquired image data of a plurality of frames. Image processing in the depth synthesis processing mode, the high dynamic range synthesis processing (HDR) mode, and the super high resolution synthesis processing mode will be described later with reference to FIGS. 34A to 36D.
  • the image compositing unit 203d functions as a first image compositing unit that acquires a plurality of photographed image data under different exposure conditions by the image data acquisition unit and performs a first image synthesis using the acquired plurality of photographed image data. Do.
  • the image combining unit 203d acquires a plurality of photographed image data by changing the same exposure condition and conditions other than the exposure by the image data acquisition unit, and uses the acquired plurality of photographed image data to generate a second image. It functions as a second image combining unit that performs combining.
  • the recording control unit 203 e performs recording control when recording the image data subjected to the image processing by the image processing unit 203 in the recording unit 205.
  • the image data is associated with the metadata generated by the metadata generation unit 204 and recorded in the recording unit 205.
  • execution data or reference data is associated (see S213, S219, and S225 in FIG. 39).
  • the metadata generation unit 204 generates information attached to the image data.
  • the metadata creation unit 204 has an operation data creation unit 204a and a reference data creation unit 204b.
  • the execution data generation unit 204a generates metadata based on the actual exposure conditions when acquiring image data of a plurality of frames.
  • the reference data creation unit 204b calculates an exposure condition to be a reference from actual exposure conditions when acquiring image data of a plurality of frames, and generates metadata based on the exposure conditions.
  • the metadata creation unit 204 functions as a metadata creation unit that creates metadata representing composite image data combined by the first image combining unit or the second image combining unit. Further, the metadata creating unit creates single metadata indicating different exposure conditions (shooting conditions) in the case of performing the first image composition and in the case of performing the second image composition (for example, as shown in FIG. 34D, FIG. 35D, FIG. 36D, see S219 and S225 of FIG.
  • the metadata creating unit creates information that distinguishes the first image composition and the second image composition (see, for example, FIG. 41C).
  • the metadata generation unit when the first image composition is performed, the metadata generation unit generates reference metadata based on the exposure condition in the image data acquisition unit (for example, refer to S219 in FIG. 39), and performs the second image synthesis.
  • the actual exposure condition in the image data acquisition unit is the implementation metadata (for example, refer to S225 in FIG. 39).
  • the metadata creating unit creates metadata corresponding to the exposure effect of the combined image created by the first image combining (for example, 36D, see S219 in FIG. 39).
  • the metadata creating unit creates the metadata based on the exposure condition at the time of obtaining one frame of image data by the image data obtaining unit. (For example, see S225 in FIG. 34D, FIG. 35D, and FIG. 39).
  • the recording unit 205 is a recording medium having an electrically rewritable non-volatile memory.
  • the recording unit 205 can record image data 205 b and metadata 205 c associated with the image data 205 b.
  • Image data, metadata, and the like recorded in the recording unit 205 are recorded, for example, in accordance with a standard such as Exif.
  • the display unit 206 has a display display disposed on the back of the camera or the like, and various images such as through image display, reproduction display, and a menu screen are displayed on the display display.
  • the operation unit 207 includes various operation members such as a power button, a release button, a reproduction button, an OK button, and a touch panel.
  • the operation unit 207 has a switch that is turned on in response to the operation of the power supply button, the release button, the reproduction button, the OK button, etc.
  • the communication unit 208 includes a communication circuit for communicating with an external device, the Internet, or the like.
  • the metadata-added image data acquired by the imaging element 202 b and recorded in the recording unit 205 is transmitted to the outside via the communication unit 208.
  • FIG. 34A shows that the user 210 shoots an object 230 using the camera 220 in the depth-of-field synthesis mode. Since the upper portion 230a and the lower portion 230b of the subject 230 are different in distance from the camera 220, it may be difficult to focus on both the upper portion 230a and the lower portion 230b. In such a situation, when the depth composition mode is set, a plurality of frames are photographed while changing the focus position, parts in the photographed image are compared, and the in-focus parts are synthesized to achieve focus adjustment. Create an image.
  • FIG. 34B shows a portion in which the photographing timing is in focus.
  • the first photographing is performed between time t1 and t2.
  • the shutter speed SS is 1/100 second, and in the photographed image, the black portion F1 (corresponding to the upper portion 230a) is in focus.
  • the focus changing unit 202c moves the focus position of the optical system 202a between times t2 and t3.
  • the second shooting is performed between time t4 and t4.
  • the shutter speed SS at this time is also 1/100 second, and the black-painted portion F2 (corresponding to the lower portion 230b) of the captured image is in focus.
  • depth combination processing is performed on the two captured images captured at the first and second times, it is possible to obtain an image in focus at the blackened portions F1 and F2 (upper portion 230a and lower portion 230b).
  • an image 241 indicates a first captured image, and image data obtained by focusing on the upper portion 230a (see F1 of FIG. 34B) of the subject 230 is acquired by this imaging.
  • the image 242 shows a second captured image, and image data obtained by focusing on the lower portion 230b (see F2 in FIG. 34B) of the subject 230 is acquired by this capturing.
  • the image combining unit 203d After obtaining the image data of the image 241 and the image 242, next, the image combining unit 203d performs depth combination of both image data. In this depth synthesis processing, an area with high sharpness (contrast) of the image is extracted for each image, and image data of the area with high sharpness is synthesized. Thereby, image data of the image 243 in which both the upper portion 230a and the lower portion 230b are in focus is generated. Depth compositing processing can generate image data with a deeper depth of field than single exposure.
  • the metadata generation unit 204 also generates metadata.
  • the first shooting for depth composition and the second shooting and exposure are performed twice.
  • the shutter speed SS is 1/100 second
  • the aperture is FNo. Since the 16 is the same, the exposure data is the implementation data. Therefore, as the metadata 44, as shown in FIG. 34D, operation data that is this common exposure condition is recorded, and reference data is not recorded. Other users can obtain an image of the same brightness as the depth composite image by using this implementation data.
  • FIG. 35A shows that the user 210 shoots an object 231 using the camera 220 in the super-resolution composition mode.
  • the subject 231 is at a distance, and the subject 231 is small even if photographed at a normal focal length, and a display with sufficient resolution is not obtained even when magnified display (magnified print).
  • the imaging position changing unit 202e captures a plurality of frames while changing the position of the imaging element 202b. Then, interpolation is performed by using an image obtained by changing the position of the image sensor 202b in the second to fourth shooting, and interpolating the intermediate position of the pixel and the pixel in the image acquired in the first shooting using a high resolution. Synthesize an image.
  • the image 245 is generated by super-resolution composition, as shown in FIG. 35B, the resolution of the magnified image 246 is high, and magnified viewing is possible.
  • FIG. 35C shows the timing chart during super-resolution imaging and the movement of the image sensor 202b.
  • the first photographing is performed between times t11 and t12.
  • the shutter speed SS at this time is 1/100 second, and the image sensor 202b is at the position P1.
  • the imaging position changing unit 202e moves the imaging element 202b to the position P2 until time t13.
  • the second shooting is performed between time t13 and t14.
  • the shutter speed SS at this time is 1/100 second, and the image sensor 202b is at the position P2.
  • the position P1 is indicated by a broken line, and as shown in FIG. 35C, the position P2 of the imaging element 202b is moved to the lower right by a predetermined amount.
  • This predetermined amount is a value smaller than the pixel interval (pixel pitch) (for example, 1/2 of the pixel pitch).
  • the imaging position changing unit 202e moves the imaging element 202b to the position P3 until time t15.
  • the third shooting is performed between time t15 and t16.
  • the shutter speed SS at this time is 1/100 second, and the image sensor 202b is at the position P3.
  • the position P1 is indicated by a broken line, and as shown in FIG. 35C, the position P3 of the imaging element 202b has moved to the upper right by a predetermined amount.
  • the fourth imaging is performed at time t17 to t18, and the fifth imaging is performed at time t19 to t20.
  • the shutter speed SS is 1/100 second, and the image sensor 202b is moved to the positions P4 and P5 by a predetermined amount to the lower left and the upper left than the position P1.
  • the image combining unit 203d When obtaining a plurality of image data, the image combining unit 203d performs super-resolution combining processing. That is, with reference to the position P1 of the imaging element 202b, the pixel value between the pixels is interpolated using the image data when the pixel has moved a predetermined amount. For example, if the movement amount of the imaging element 202b is 1/2 of the pixel pitch, it is possible to interpolate pixel values at positions shifted by 1/2 pitch of the pixel, and high resolution equivalent to four times the number of pixels Image data.
  • the metadata generation unit 204 When the image combining unit 203 d generates image data by super resolution combining processing, the metadata generation unit 204 also generates metadata. Exposure is performed five times to perform super-resolution composition. The shutter speed SS is 1/100 second for all of the first to fifth exposure conditions, and the aperture is FNo. Since the 16 is the same, the exposure data is the implementation data. Therefore, as the metadata 247, as shown in FIG. 35D, operation data that is this common exposure condition is recorded, and reference data is not recorded.
  • the image combining unit 203 d performs super resolution combining processing to generate super resolution generated image data.
  • the metadata creation unit 204 sets the shutter speed SS to 1/100 seconds, which is the exposure condition at the time of one shooting, and the aperture value FNo. Generate 16
  • the metadata (implementation data 204 a) generated here is recorded as metadata 205 c in the recording unit 205 in association with the image data.
  • Other users can obtain an image of the same brightness as the super-resolution composite image by using this implementation data.
  • FIG. 36A shows a state in which the user 210 shoots a person 232 as a subject and a cherry tree 233 using the camera 220. These objects are under fine weather, and the cherry tree 233 is very bright, while the person is very dark due to backlighting. That is, unless the range in which the image sensor 202b can reproduce light and dark is very wide, the light and dark of both objects can not be properly expressed. In such a case, shooting is performed by setting the HDR mode.
  • FIG. 36C is a timing chart of imaging when it is set to the HDR mode.
  • the standard exposure (appropriate exposure) at the time of photographing in the state of FIG. 36A that is, the standard exposure in consideration of both the objects 232 and 233, has a shutter speed of 1/100 sec, an aperture value FNo.
  • FNo aperture value
  • the first photographing is performed between time t21 and t23.
  • the shutter speed SS at this time is an exposure time (SS is 2/100 second) which is twice 1/100 second.
  • the second shooting is performed between time t24 and t25.
  • the shutter speed SS at this time is an exposure time of 1/2 times 1/100 (SS is 1/200 sec).
  • the focus position of the optical system 202a is the same in the first and second photographing.
  • the image combining unit 203d performs HDR combining using the image data of the overexposure obtained in the first shooting and the image data of the underexposure obtained in the second shooting to reproduce the light and dark from the dark area to the light area. Generate superior image data.
  • HDR high definition image data
  • image data with no overexposure or underexposure over the entire screen is combined.
  • FIG. 36B shows an image 248 not subjected to the HDR combining process and an image 249 subjected to the HDR combining process.
  • the cherry tree 233 is overexposed while the person 232 is underexposed.
  • the cherry tree 233 and the person 232 are appropriately represented as light and dark.
  • the execution data (SS: 1/50, 1/200) 204a is not recorded but the reference data Record (SS: 1/100) 204 b (see FIG. 36D).
  • the image combining unit 203d performs HDR combining processing to generate HDR combined image data.
  • the metadata (reference data 204 b) generated here is recorded in the recording unit 205 as metadata 205 c in association with the image data. If photographing is performed using this reference data, an image of the same brightness can be obtained except for color expression and the like.
  • imaging is performed between time t31 to t32, t33 to t34, t35 to t36, t37 to t38, and t39 to t40.
  • the shutter speed SS is 1/100 second in all cases, and the ISO sensitivity is 6400.
  • the number of times of imaging in the NR mode may be appropriately selected.
  • the image combining unit 203d calculates an average value of pixel values of corresponding pixels, and generates NR combined image data.
  • the metadata creation unit 204 generates an ISO sensitivity 6400 as the exposure condition at each shooting, that is, 1/100 second as the shutter speed SS in the example shown in FIG.
  • the metadata (implementation data 204 a) generated here is recorded as metadata 205 c in the recording unit 205 in association with the image data.
  • image data with reduced camera shake is obtained by photographing a plurality of frames under the same exposure condition, shifting the pixel position of each image according to the camera shake amount, and averaging the output values of the corresponding pixels. Can.
  • photographing is performed between time t41 to t42, t43 to t44, t45 to t46, t47 to t48, and t49 to t50.
  • the shutter speed SS is 1/100 second in all cases, and the ISO sensitivity is 6400. If the amount of camera shake is equal to or more than a predetermined amount (see shooting at times t43 to t44 in FIG. 38), since camera shake correction is often difficult, the image is excluded from the target image of the camera shake preventing and combining process. The number of times of shooting in the electronic camera shake prevention mode may be appropriately selected.
  • the image combining unit 203d detects a camera shake amount, shifts the pixel position according to the camera shake amount, and calculates an average value of pixel values of corresponding pixels, Generate electronic shake preventing image data.
  • the amount of camera shake may use a sensor output such as a gyro, or the amount of camera shake may be calculated by correlation calculation of two image data.
  • the metadata creation unit 204 generates an ISO sensitivity 6400 as the exposure condition at each shooting, that is, 1/100 second as the shutter speed SS in the example shown in FIG.
  • the metadata (implementation data 204 a) generated here is recorded as metadata 205 c in the recording unit 205 in association with the image data.
  • the image combining unit 203d performs image combining using image data acquired by this exposure.
  • the metadata generation unit 204 generates either the operation data 204 a or the reference data 204 d according to the type of image composition, and records the metadata 205 c in the recording unit 205.
  • the exposure conditions for each of a plurality of frames are the same, the exposure conditions that are actually controlled are created as execution data 204a.
  • the exposure condition corresponding to the image generated by the combining process is calculated, and this exposure condition is created as the reference data 204b.
  • the metadata creation unit 204 may create information for distinguishing the combination processing, and record information for distinguishing the combination processing in the recording unit 205.
  • the data created by the metadata creation unit 204 may be information that can distinguish whether it is implementation data or reference data.
  • the image combining process is not limited to the above-described depth combining process, super-resolution combining process, HDR combining process, NR combining process, electronic shake preventing combining process, for example, comparative bright combining process, comparative dark combining process, average It is sufficient that the composition processing is performed using image data of a plurality of frames such as addition composition processing and live valve composition processing. In this case, for example, in the case of comparative bright combining processing, the total exposure time may be recorded as metadata as implementation data.
  • the shooting mode is set (S201).
  • the camera mode is set to the shooting mode as a default unless the user sets the playback mode or other modes.
  • the setting state of the mode is detected, and the determination is made based on the detection result.
  • step S203 live view imaging is performed (S203).
  • the image data acquired by the imaging element 202b is acquired. This image data is repeatedly acquired at a predetermined frame rate.
  • the image processing unit 203 performs image processing for through image display on the image data acquired in step S203, and performs through image display on the display unit 206 based on the processed image data.
  • the through image display is updated at a predetermined frame rate.
  • the contrast value of the acquired image data is calculated, and the position of the focus lens of the optical system 202a is adjusted so that the contrast value reaches a peak. Focusing may be performed by another method such as phase difference AF other than the above-described contrast AF.
  • luminance information and the like are calculated from image data, and a standard exposure such as a shutter speed, an aperture value, and an ISO sensitivity is set based on the luminance information.
  • the mode can be switched by the operation member of the operation unit 207.
  • the modes in this case include a mode in which a plurality of frames are exposed such as a depth combination mode, a super resolution combination mode, an HDR combination mode, and the like in addition to the photographing mode and the reproduction mode described above.
  • step S207 If the result of determination in step S207 is that there is mode switching, mode setting is performed (S209).
  • the mode in the mode control unit 201b is set.
  • step S211 it is next determined whether the release switch has been operated.
  • the state of the release switch changes.
  • the determination is made based on the state change of the release switch. If it is determined that the release switch has not been operated as a result of this determination, the process returns to step S201.
  • step S211 determines whether or not it is a mode involving exposure change.
  • the determination is made based on the mode set first or the mode set in step S209.
  • a mode accompanied by exposure change there is, for example, an HDR composite mode.
  • a mode not accompanied by the exposure change there are, for example, a depth combination mode, a super resolution combination mode, a noise reduction (NR) mode, an electronic camera shake prevention mode and the like.
  • a plurality of images are taken by changing from the standard exposure to the long second time and the short second time (S215).
  • the exposure conditions are different for each frame.
  • the shutter speed is set to a long second so that the first frame is overexposed compared to the standard exposure (set in step S205).
  • the shutter speed is set at a short time so that the exposure is underexposed compared to the standard exposure.
  • image composition is performed (S217).
  • image combining processing is performed on the plurality of pieces of image data acquired in step S215 in accordance with the mode in which the image combining unit 203d is set.
  • image data and metadata are recorded (S219).
  • the metadata creation unit 204 creates reference data 204b.
  • the reference data 204 b is data indicating an exposure condition corresponding to the effect of the image generated by the image combination.
  • the generated reference data 204b is recorded as the image data 205b and the metadata 205c of the recording unit 205 in association with the image data synthesized in step S217. Once the data is recorded, the process returns to step S201.
  • step S213 if the mode is not accompanied by the exposure change, a plurality of images are photographed by changing the focus and the position of the image sensor with standard exposure (S221).
  • processing is performed according to the set mode. For example, when the depth synthesis mode is set, the focus position is changed, and shooting is performed respectively at the plurality of changed focus positions.
  • the super-resolution composition mode is set, the position of the imaging element 202b is changed, and photographing is performed at each of the changed positions.
  • the exposure condition at this time is the standard exposure calculated in step S205.
  • image composition is performed (S223).
  • image combining processing is performed on the plurality of pieces of image data acquired in step S221 in accordance with the mode in which the image combining unit 203d is set.
  • image data and metadata are recorded (S225).
  • the metadata creation unit 204 creates the operation data 204a.
  • the execution data 204a is data indicating exposure conditions for which exposure control is actually controlled in each frame when shooting a plurality of frames.
  • the created execution data 204 a is recorded as the image data 205 b and the metadata 205 c of the recording unit 205 in association with the image data synthesized in step S 223. Once the data is recorded, the process returns to step S201.
  • step S201 if it is not the shooting mode, it is determined whether or not it is the playback mode (S231). When the user operates an operation member such as the reproduction button of the operation unit 207, the reproduction mode can be set. If the result of determination in this step is that the reproduction mode is not set, the mode is shifted to another mode.
  • an icon list is displayed (S233).
  • the icon of the recorded image is displayed on the display unit 206.
  • step S235 it is determined whether or not to return (S237).
  • the user When the user desires to end the reproduction mode, the user operates a return button in the operation unit 207 or clicks a return icon (collectively referred to as return operation).
  • return operation a return icon
  • the determination is made based on whether or not the return operation has been performed.
  • the return operation when the return operation is not performed, the process returns to step S233.
  • the return operation is performed, the process returns to step S201.
  • step S235 If the result of determination in step S235 is that an image is selected, enlarged display is performed (S239). Here, the image data of the selected icon is read out and enlarged display is performed on the display unit 206.
  • the enlarged display is performed, it is next determined whether or not the detailed display is to be performed (S241).
  • the user operates the detail button in the operation unit 207 or clicks the detail icon (generally, the detail display operation).
  • the determination is made based on whether or not the detail display operation has been performed.
  • step S241 If it is determined in step S241 that the detail display operation has been performed, the metadata is displayed (S243).
  • the metadata 205 c recorded in association with the image data is read from the recording unit 205 and displayed on the display unit 206. Display examples will be described later with reference to FIGS. 41A to 41C.
  • step S241 If the metadata is displayed in step S243, or if the result of the determination in step S241 indicates that the detail display operation has not been performed, it is determined whether external transmission is performed (S245).
  • the transmission button of the operation unit 207 When the user transmits the image data recorded in the recording unit 205 by wireless or wired communication via the Internet etc., the transmission button of the operation unit 207 is operated or the transmission icon is touched (generally External sending operation). In this step, the determination is made based on whether or not an external transmission operation has been performed.
  • the transmission destination is transmitted to the setting destination (S247).
  • the image data of the image selected in step S235 and the associated metadata are transmitted to the set transmission destination.
  • images and metadata based on the received image data can be displayed. Display examples at this time will be described later with reference to FIGS. 41A to 41C.
  • step S249 it is determined whether or not to return (S249).
  • the user wants to end the playback mode, the user performs a return operation.
  • the determination is made based on whether or not this return operation has been performed.
  • the process returns to step S239.
  • the return operation is performed, the process returns to step S201.
  • the mode involving the exposure change is set when the release operation is performed (S213 Yes)
  • the reference data is created and recorded as the metadata. (S219).
  • operation data is created and recorded as metadata (S225). That is, when the exposure change is not accompanied, the control value for which the exposure control is actually performed is recorded.
  • the exposure change is accompanied, the exposure control value corresponding to the effect of the composite image is recorded.
  • steps S219 and S225 only one of reference data and operation data is created and recorded as metadata. By recording only one of them, the capacity of the metadata 205c can be reduced, and by simplifying it, processing becomes easy.
  • both reference data and operation data may be created and recorded as metadata 205c.
  • the metadata recording area an area that can be recorded by the manufacturer may be used, such as the maker note of the Exif standard.
  • FIG. 41A is a display example when the depth synthesis mode as shown in FIGS. 34A to 34D is set. In this case, a depth-synthesized image 243 and metadata indicating a shutter speed and an aperture value recorded as operation data are displayed.
  • FIG. 41B is a display example when the super-resolution composition mode as shown in FIGS. 35A to 35D is set. In this case, a depth-synthesized image 246 and metadata indicating a shutter speed and an aperture value recorded as operation data are displayed.
  • FIG. 41C is a display example when the HDR combining mode as shown in FIGS. 36A to 36D is set.
  • an HDR combined image 249 and metadata indicating a shutter speed and an aperture value recorded as reference data are displayed.
  • “reference” is displayed to clearly indicate that the data is reference data.
  • information indicating that it is reference data is also recorded in the metadata 205c.
  • reference is displayed only in the case of reference data, but this display may be deleted. Also in the case of implementation data, a display may be added to clearly indicate that it is implementation data. Further, although the metadata is displayed outside the image in FIGS. 41A to 41C, it may be displayed superimposed on the image.
  • a plurality of photographed image data are acquired by switching photographing conditions for the same object (for example, refer to S203 in FIG. 39), and plural acquired under different exposure conditions.
  • the first image composition is performed using the captured image data of (for example, see S217 in FIG. 39), and a plurality of captured image data obtained by changing the same exposure condition and different conditions other than the exposure are used. (E.g., see S223 of FIG. 39), and when creating metadata representing composite image data composited by the first image composition or the second image composition, the first image composition is performed, and When the second image combination is performed, single metadata indicating different exposure conditions is created (see, for example, FIG. 34D, FIG. 35D, FIG. 36D, and S219 and S225 in FIG.
  • the image data acquisition unit can switch the first imaging condition and acquire a plurality of pieces of photographed image data for the same object, and the first image combining unit is operated by the image data acquisition unit.
  • the plurality of photographed image data are acquired by changing the photographing conditions of No.
  • the first image combining and the second image combining are different.
  • Single indicating shooting conditions Metadata can be created.
  • the focus changing unit 202c, the exposure changing unit 202d, the imaging position changing unit 202e, etc. may realize the function by software by the program stored in the CPU and the memory, and the control unit Of course, the function may be realized by the CPU stored in the CPU 201 and the memory.
  • all or part of the functions of the imaging control unit 203b, the imaging control changing unit 203c, etc. is realized by a CPU (Central Processing Unit), peripheral circuits, and programs. It may be realized by a circuit that is executed by program code such as Digital Signal Processor, or may be a hardware configuration such as a gate circuit generated based on a program language described by Verilog, and hardware Of course, it does not matter if it is executed by a wear circuit.
  • a CPU Central Processing Unit
  • peripheral circuits and programs. It may be realized by a circuit that is executed by program code such as Digital Signal Processor, or may be a hardware configuration such as a gate circuit generated based on a program language described by Verilog, and hardware Of course, it does not matter if it is executed by a wear circuit.
  • FIG. 42 is a block diagram showing a seventh embodiment of the present invention.
  • the depth of field of each image is different from the depth of field of the combined image in order to perform image processing using a plurality of images acquired by changing the shooting distance.
  • information in which the effect of the image combining process is easy to understand is created and associated with image data.
  • the camera has an imaging unit, converts the subject image into image data by the imaging unit, and based on the converted image data, displays a through image on a display unit arranged on the back of the main body.
  • the photographer determines the composition and the shutter timing by observing the through image display.
  • image data is recorded on a recording medium.
  • the image data recorded on the recording medium can be reproduced and displayed on the display unit when the reproduction mode is selected.
  • the camera according to the present embodiment can acquire image data of a plurality of frames, and can perform combining processing performed using the image data of the plurality of frames.
  • the focus position of the shooting lens is moved and shooting is performed, and shooting is repeatedly performed at a plurality of focus positions to acquire image data of a plurality of frames, and depth combination processing is performed. Perform (see FIG. 51 etc. described later).
  • a conversion FNo corresponding to the depth of field of the image subjected to the depth combination processing is calculated (see S325, S363 in FIG. 48 described later, equation (6), etc.).
  • the conversion data based on the conversion FNo is recorded together with the image data.
  • FNo is taken as an example, but the same idea can be used also for the shutter speed, the sensitivity of the imaging sensor, and the like. Also, it is possible to use a technique such as super resolution in which pixels are divided little by little and used.
  • FIG. 42 is a block diagram mainly showing the electrical configuration of the camera according to this embodiment.
  • the camera includes a control unit 301, an imaging unit 302, a recording unit 305, a display unit 306, an operation unit 307, and a communication unit 308.
  • the imaging unit 302 includes an optical system 302a, an imaging element 302b, a focus changing unit 302c, an exposure changing unit 302d, and an imaging position changing unit 302d.
  • the focus change unit 302c, the exposure change unit 302d, and the imaging position change unit 302d may be omitted as appropriate according to the settable modes.
  • the optical system 302a has an optical lens such as a focus lens, and can form a subject image.
  • the focus position of the optical system 302a is controlled to move by a focus changing unit 302c described later.
  • the imaging element 302 b includes an image sensor such as a CCD image sensor or a CMOS image sensor.
  • the image sensor 302b is disposed near the position where the object image is formed by the optical system 302a, and converts the object image into image data and outputs the image data according to the control from the imaging control unit 303b.
  • the imaging element 302b functions as an image data acquisition unit capable of acquiring a plurality of pieces of photographed image data by switching photographing conditions for the same object.
  • the image data acquisition unit can acquire a plurality of photographed image data with different exposure conditions (for example, see the HDR mode in FIG. 45A to FIG. 45D, S315 in FIG. 48, etc.).
  • the focus changing unit 302c has a drive mechanism and a drive circuit for moving the focus lens in the optical system 302a in the optical axis direction.
  • the focus changing unit 302c moves the focusing lens to the in-focus position based on the focusing signal from the imaging control unit 303b. Further, when the depth synthesis mode is set, the focus changing unit 302c detects the current focus lens focus and moves the focus lens sequentially to a predetermined different focus position.
  • the imaging element 302b acquires image data at each focus position.
  • the exposure changing unit 302d changes the exposure condition at the time of shooting.
  • the exposure change unit 302d has at least one of an aperture and aperture control circuit, a shutter and shutter control circuit, an ISO sensitivity change circuit, etc., and detects these exposure control values. That is, the exposure changing unit 302 d changes the exposure condition by changing at least one of the aperture value, the shutter speed value, and the ISO sensitivity.
  • the exposure changing unit 302d sequentially performs shooting under predetermined different exposure conditions. Image data is acquired under each exposure condition.
  • the imaging position changing unit 302e includes a moving mechanism and a moving circuit that move the imaging element 302b in a plane orthogonal to the optical axis.
  • the imaging position changing unit 302e sequentially moves the imaging element 302b to a predetermined different imaging position in a plane orthogonal to the optical axis of the optical system 302a when the super high resolution combination mode is set. Image data is acquired at each imaging position.
  • the control unit 301 is configured by an application specific integrated circuit (ASIC) including a central processing unit (CPU), peripheral circuits thereof, a memory, and the like.
  • the CPU executes the entire camera by controlling the respective units in the camera 300 according to the program stored in the memory.
  • the control unit 301 includes a mode control unit 301 b, a display control unit 301 c, a communication control unit 301 d, and an image processing unit 303. Some functions of these units are realized by a CPU and a program, and other functions are realized by a peripheral circuit.
  • the mode control unit 301b executes control by the imaging control unit 303b, the imaging control changing unit 303c, the image combining unit 303d, and the like according to the mode and the like set by the user.
  • the display control unit 301 c controls display on the display unit 306.
  • the display there are various displays such as a through image display based on image data acquired by the imaging element 302b, a reproduced image display of an image recorded in the recording unit 305, and a menu screen display.
  • a through image display based on image data acquired by the imaging element 302b
  • a reproduced image display of an image recorded in the recording unit 305 and a menu screen display.
  • metadata stored in association with the image data may be displayed (see FIGS. 50A to 50C described later).
  • the communication control unit 301 d controls wireless (including infrared) communication with the outside performed via the communication unit 308 or wired communication.
  • the image data and the like recorded in the recording unit 305 can be communicated to the external device (see S345 and S347 in FIG. 49).
  • the image processing unit 303 includes an imaging control unit 303 b, a shooting control changing unit 303 c, an image combining unit 303 d, a recording control unit 303 e, and a metadata creation unit 304.
  • the imaging control unit 303b has an imaging control circuit, and controls acquisition of image data from the imaging element 302b. That is, the imaging control unit 303 b controls the photoelectric conversion time of the imaging element 302 b and the reading of the image data, and causes the control unit 301 to output the read image data.
  • the imaging control changing unit 303c is configured to adjust the focus changing unit 302b, the exposure changing unit 302c, and the imaging according to the set mode such as the depth synthesis processing mode, the high dynamic range synthesis processing (HDR) mode, and the super high resolution synthesis processing mode.
  • the position change unit 302d is controlled to execute imaging control according to the set mode.
  • the image synthesis unit 303d has an image synthesis circuit, an image processing circuit, etc., and has a depth synthesis processing mode, a high dynamic range synthesis processing (HDR) mode, a super high resolution synthesis processing mode, a noise reduction mode, an electronic camera shake prevention mode, etc.
  • image processing is performed on the acquired image data of a plurality of frames.
  • Image processing in the depth synthesis processing mode, the high dynamic range synthesis processing (HDR) mode, and the super high resolution synthesis processing mode will be described later with reference to FIGS. 43A to 45D.
  • the image compositing unit 303d functions as a first image compositing unit that acquires a plurality of photographed image data at different focus positions by the image data acquisition unit and performs a first image synthesis using the acquired plurality of photographed image data. (See, for example, FIGS. 43A to 43D, S323 in FIG. 48, and depth combination shown in FIG. 51). Further, the image combining unit 303d obtains a plurality of pieces of photographed image data under the same exposure condition and different focus positions by the image data acquiring unit, and performs the first image combination using the plurality of pieces of acquired photographed image data. It functions as a first image combining unit (for example, see S323 in FIGS. 43A to 43D and FIG. 48, and depth combining shown in FIG. 51).
  • the image combining unit 303d acquires a plurality of photographed image data by making the same exposure condition and conditions other than the exposure different by the image data acquiring unit, and using the acquired plurality of photographed image data, the second image It functions as a second image combining unit that performs combining (see, for example, super resolution combining in FIG. 44A to FIG. 44D, noise reduction combining in FIG. 46, electronic camera shake preventing combining in FIG. 47, etc.). Further, the image combining unit 303d obtains a plurality of photographed image data by the image data acquiring unit without changing the same exposure condition and the focus position, and uses the plurality of acquired photographed image data to perform a second operation. It functions as a second image combining unit that performs image combining (see, for example, super resolution combining in FIG. 44A to FIG. 44D, noise reduction combining in FIG. 46, electronic camera shake preventing combining in FIG. 47, etc.).
  • the image combining unit 303d functions as a third image combining unit that performs third image combining using a plurality of pieces of captured image data acquired under different exposure conditions by the image data acquisition unit (for example, HDR in FIGS. 45A to 45D). Mode, S315 of FIG.
  • the recording control unit 303 e performs recording control when recording the image data subjected to the image processing by the image processing unit 303 in the recording unit 305.
  • the image data is associated with the metadata generated by the metadata generation unit 304 and recorded in the recording unit 305.
  • any one of execution data, reference data, and conversion data is associated (see S313, S319, S325, and S329 in FIG. 48).
  • the metadata generation unit 304 generates information attached to the image data.
  • the metadata creation unit 304 creates the operation data creation unit 304a, the reference data creation unit 304b, and the conversion data creation unit 304c.
  • the execution data creation unit 304 a generates metadata based on actual shooting (exposure) conditions when image data of a plurality of frames is acquired.
  • the reference data creation unit 304b calculates a shooting (exposure) condition as a reference from actual shooting (exposure) conditions when acquiring image data of a plurality of frames, and metadata based on the shooting (exposure) condition.
  • Generate The conversion data generation unit 304c generates a conversion value of shooting (exposure) data of a combined image from actual shooting (exposure) conditions when acquiring image data of a plurality of frames.
  • the HDR composite mode when the HDR composite mode is set, a similar image can be taken by taking a picture with reference to reference data calculated based on the actual exposure data. It is possible.
  • the conversion data at the time of setting the depth synthesis mode is a simple conversion value, even if it is photographed with exposure data (aperture value, FNo) according to this conversion data, it is impossible to photograph with similar images.
  • the effects of the image can be communicated in an easy-to-understand manner, and when performing similar shooting, it can be said that assistance by such functions is necessary because normal settings can not be made.
  • the metadata generation unit 304 functions as a metadata generation unit that calculates conversion data of aperture value in composite image data combined by the first image combining unit, and creates metadata based on the conversion data (for example, as shown in FIG. 48 S325, see FIG.
  • the metadata creation unit calculates the converted aperture value F based on the number of times of imaging performed by the image data acquisition unit and the aperture value at each imaging (for example, see S363 in FIG. 51).
  • the metadata generation unit 304 generates metadata based on the same exposure condition when shooting a plurality of images when the second image synthesis unit performs the second image synthesis. (See, for example, S327 to S329 in FIG. 48).
  • the metadata generation unit 304 functions as a metadata generation unit that generates single metadata indicating different exposure conditions in the case of performing the first image synthesis and in the case of performing the third image synthesis. For example, refer to S325 and S329 in FIG.
  • the metadata creation unit 304 functions as a metadata creation unit that creates metadata representing composite image data composited by the first image compositing unit or the second image compositing unit.
  • metadata is created based on the converted exposure condition (for example, see S325 in FIG. 48).
  • the same exposure condition at the time of a plurality of shootings It is used to create metadata (see, for example, S329 in FIG. 48).
  • the recording unit 305 is a recording medium having an electrically rewritable non-volatile memory.
  • the recording unit 305 can record image data 305 b and metadata 305 c associated with the image data 305 b.
  • Image data, metadata, and the like recorded in the recording unit 305 are recorded, for example, in accordance with a standard such as Exif.
  • the display unit 306 has a display display disposed on the back of the camera or the like, and various images such as through image display, reproduction display, and a menu screen are displayed on the display display.
  • the operation unit 307 includes various operation members such as a power button, a release button, a reproduction button, an OK button, and a touch panel.
  • the operation unit 307 has a switch that is turned on in response to the operation of the power supply button, the release button, the reproduction button, the OK button, etc.
  • the operation unit 307 detects the operation state of the switch and outputs it to the control unit 301.
  • the communication unit 308 includes a communication circuit for communicating with an external device, the Internet, or the like.
  • the metadata-added image data acquired by the imaging element 302 b and recorded in the recording unit 305 is transmitted to the outside via the communication unit 308.
  • FIG. 43A shows the user 310 shooting a subject 330 using the camera 320 in the depth-of-field synthesis mode. Since the upper portion 330a and the lower portion 330b of the subject 330 are different in distance from the camera 320, it may be difficult to focus on both the upper portion 330a and the lower portion 330b. In such a situation, when the depth composition mode is set, a plurality of frames are photographed while changing the focus position, parts in the photographed image are compared, and the in-focus parts are synthesized to achieve focus adjustment. Create an image.
  • FIG. 43B shows a portion in focus with the imaging timing.
  • the first photographing is performed between time t1 and t2.
  • the shutter speed SS is 1/100 second
  • the aperture value FNo is 16
  • the black-painted portion F1 (corresponding to the upper portion 330a) of the captured image is in focus.
  • the focus changing unit 302c moves the focus position of the optical system 302a between times t2 and t3.
  • the second shooting is performed between time t4 and t4.
  • the shutter speed SS at this time is also 1/100 second
  • the f-number FNo is 16
  • the black-painted portion F2 (corresponding to the lower portion 330b) of the photographed image is in focus.
  • an image 341 shows a first photographed image, and by this photographing, image data in which an upper portion 330a (see F1 of FIG. 43B) of the subject 330 is focused is acquired.
  • the image 342 shows a second captured image, and image data obtained by focusing on the lower portion 330b (see F2 of FIG. 43B) of the subject 330 is acquired by this capturing.
  • the image combining unit 303d After obtaining the image data of the image 341 and the image 342, next, the image combining unit 303d performs depth combination of both image data. In this depth synthesis processing, an area with high sharpness (contrast) of the image is extracted for each image, and image data of the area with high sharpness is synthesized. Thereby, image data of the image 343 in which both the upper portion 330a and the lower portion 330b are in focus is generated. By performing the depth synthesis process, image data having a depth of field deeper than that of single shooting can be generated.
  • the metadata generation unit 304 also generates metadata.
  • the first shooting for depth composition and the second shooting and exposure are performed twice.
  • the shutter speed SS is 1/100 second
  • the aperture is FNo. 16 are identical.
  • the metadata creation unit 304 uses the data of the two shootings to calculate a converted aperture value (FNo), and sets this as converted data 304c.
  • conversion data of aperture value is recorded, and operation data and reference data are not recorded. The user can know the converted aperture value.
  • FIG. 44A shows that the user 310 uses the camera 320 to shoot the subject 331 in the super-resolution composition mode.
  • the subject 331 is at a distance, and the subject 331 appears small even when photographed at a normal focal length, and a display with sufficient resolution is not obtained even when magnified display (magnified print).
  • the imaging position changing unit 302e changes the position of the imaging element 302b in the plane orthogonal to the optical axis of the optical system 302a, To shoot. Then, the image synthesis is performed by interpolation using an image captured by changing the position of the imaging element 302b in the second to fourth imaging between the pixels and the intermediate position of the pixels in the image acquired in the first imaging.
  • the image composition the number of pixels is substantially increased, and a high resolution image is generated.
  • the image 345 is generated by super-resolution composition, as shown in FIG. 44B, the resolution of the magnified image 346 is high, and magnified viewing is possible. Further, as the metadata 347, in addition to the shutter speed SS and the aperture FNo, the number of converted pixels is recorded.
  • FIG. 44C shows the timing chart during super-resolution imaging and the movement of the image sensor 302b.
  • the first photographing is performed between times t11 and t12.
  • the shutter speed SS at this time is 1/100 second, and the image sensor 302b is at the position P1.
  • the imaging position changing unit 302e moves the imaging element 302b to the position P2 until time t13.
  • the second shooting is performed between time t13 and t14.
  • the shutter speed SS at this time is 1/100 second, and the image sensor 302b is at the position P2.
  • the position P1 is indicated by a broken line, and the position P2 of the imaging element 302b is moved to the lower right by a predetermined amount as shown in FIG. 44C.
  • This predetermined amount is a value smaller than the pixel interval (pixel pitch) (for example, 1/2 of the pixel pitch).
  • the imaging position changing unit 302e moves the imaging element 302b to the position P3 until time t15.
  • the third shooting is performed between time t15 and t16.
  • the shutter speed SS at this time is 1/100 second, and the image sensor 302b is at the position P3.
  • the position P1 is indicated by a broken line, and as shown in FIG. 44C, the position P3 of the imaging element 302b has moved to the upper right by a predetermined amount.
  • the fourth imaging is performed at time t17 to t18, and the fifth imaging is performed at time t19 to t20.
  • the shutter speed SS is 1/100 second, and the imaging element 302b is moved to the positions P4 and P5 by a predetermined amount lower left and upper left than the position P1.
  • the image combining unit 303d When obtaining a plurality of image data, the image combining unit 303d performs super-resolution combining processing. That is, with reference to the position P1 of the imaging element 302b, the pixel value between the pixels is interpolated and synthesized using the image data when the pixels are moved by a predetermined amount. For example, if the movement amount of the imaging element 302b is 1/2 of the pixel pitch, it is possible to interpolate pixel values at positions shifted by 1/2 pitch of the pixel, and the number of pixels is multiplied by a predetermined number (for example, 1) .5 times) high resolution image data. This predetermined number can be made different depending on the manner of interpolation operation in super-resolution composition processing.
  • a predetermined number for example, 1, .5 times
  • the metadata generation unit 304 When the image combining unit 303 d generates image data by super-resolution combining processing, the metadata generation unit 304 also generates metadata. In order to perform super-resolution composition, photographing is performed while shifting the position of the imaging element 302b, and exposure is performed five times. The shutter speed SS is 1/100 second for all of the first to fifth exposure conditions, and the aperture is FNo. Since the 16 is the same, the exposure data is the implementation data. Therefore, as the metadata 347, as shown in FIG. 44D, operation data that is the common exposure condition is recorded, and reference data and conversion data are not recorded.
  • the image combining unit 303 d performs super resolution combining processing to generate super resolution generated image data.
  • the metadata (implementation data 304 a) generated here is recorded in the recording unit 305 as metadata 305 c in association with the image data.
  • Other users can obtain an image of the same brightness as the super-resolution composite image by using this implementation data.
  • image data in which the number of pixels has increased by a predetermined number of times is synthesized by performing super resolution synthesis using a plurality of image data. Therefore, as the metadata 347, the number of pixels increased by a predetermined number of times may be recorded as conversion data, and the operation data and the reference data may not be recorded.
  • FIG. 45A shows that the user 310 uses the camera 320 to shoot a person 332 as a subject and a cherry tree 333. These objects are under fine weather, and the cherry tree 333 is very bright, while the person is very dark due to backlighting. That is, unless the range in which the image sensor 302b can reproduce light and dark is very wide, the light and dark of both objects can not be properly expressed. In such a case, shooting is performed by setting the HDR mode.
  • FIG. 45C is a timing chart of shooting when set to the HDR mode.
  • the HDR mode is set, the first photographing is performed under the exposure condition which is overexposure from the standard exposure, and then the second photographing is performed under the exposure condition which is underexposure.
  • the first shooting is performed between times t21 and t23.
  • the shutter speed SS at this time is an exposure time (SS is 2/100 second) which is twice 1/100 second.
  • the second shooting is performed between time t24 and t25.
  • the shutter speed SS at this time is an exposure time of 1/2 times 1/100 (SS is 1/200 sec).
  • the focus position of the optical system 302a is the same in the first and second photographing.
  • the image combining unit 303d performs HDR combining using the image data of the overexposure obtained in the first shooting and the image data of the underexposure obtained in the second shooting to reproduce the light and dark from the dark area to the light area. Generate superior image data.
  • HDR high definition image data
  • image data with no overexposure or underexposure over the entire screen is combined.
  • FIG. 45B shows an image 48 not subjected to the HDR combining process and an image 349 subjected to the HDR combining process.
  • the cherry tree 333 is overexposed while the person 332 is underexposed.
  • the cherry tree 333 and the person 332 are properly represented in light and shade.
  • the metadata 350 of the image 349 subjected to the HDR combining processing has a shutter speed SS of 1/100 sec and an aperture value FNo of 16 as shown in FIG. 45B. As described above, although the exposure is performed twice in the HDR combination mode, the exposure amounts are different from each other. Therefore, as the metadata 350, the execution data (SS: 1/50, 1/200) 104a and Reference data (SS: 1/100) 304 b is recorded without recording the conversion data 304 c (see FIG. 45D).
  • the image combining unit 303 d performs HDR combining processing to generate HDR combined image data.
  • the metadata (reference data 304 b) generated here is recorded in the recording unit 305 as metadata 305 c in association with the image data. If photographing is performed using this reference data, an image of the same brightness can be obtained except for color expression and the like.
  • imaging is performed between time t31 to t32, t33 to t34, t35 to t36, t37 to t38, and t39 to t40.
  • the shutter speed SS is 1/100 second in all cases, and the ISO sensitivity is 6400.
  • the number of times of imaging in the NR mode may be appropriately selected.
  • the image combining unit 303d calculates an average value of pixel values of corresponding pixels, and generates NR combined image data.
  • the metadata creation unit 304 generates an ISO sensitivity 6400 as the exposure condition at each shooting, that is, 1/100 second as the shutter speed SS in the example shown in FIG.
  • the metadata (implementation data 304 a) generated here is recorded in the recording unit 305 as metadata 305 c in association with the image data.
  • the noise is reduced in the NR composite image data, and the metadata creation unit 304 calculates the converted ISO sensitivity according to the reduced ISO sensitivity, and stores the converted data 304 c instead of the operation data 304 a.
  • metadata may be recorded in 305.
  • image data with reduced camera shake is obtained by photographing a plurality of frames under the same exposure condition, shifting the pixel position of each image according to the camera shake amount, and averaging the output values of the corresponding pixels. Can.
  • photographing is performed between time t41 to t42, t43 to t44, t45 to t46, t47 to t48, and t49 to t50.
  • the shutter speed SS is 1/100 second in all cases, and the ISO sensitivity is 6400. If the amount of camera shake is equal to or more than the predetermined amount (see shooting at times t43 to t44 in FIG. 47), since camera shake correction is often difficult, it is excluded from the target image of the camera shake preventing and combining process. The number of times of shooting in the electronic camera shake prevention mode may be appropriately selected.
  • the image combining unit 303d detects a shake amount, shifts the position of the pixel according to the shake amount, and calculates an average value of pixel values of corresponding pixels, Generate electronic shake preventing image data.
  • the amount of camera shake may use a sensor output such as a gyro, or the amount of camera shake may be calculated by correlation calculation of two image data.
  • the metadata creation unit 304 generates ISO sensitivity 6400 as the exposure condition at each photographing, that is, 1/100 second as the shutter speed SS in the example shown in FIG.
  • the metadata (implementation data 304 a) generated here is recorded in the recording unit 305 as metadata 305 c in association with the image data.
  • the image combining unit 303d performs image combining using image data acquired by this exposure.
  • the metadata generation unit 304 generates any of the operation data 304 a, the reference data 304 d, and the conversion data 304 c according to the type of image composition, and records the metadata 305 c in the recording unit 305.
  • the exposure conditions that are actually controlled are created as the execution data 304a.
  • the exposure condition corresponding to the image generated by the combining process is calculated, and this exposure condition is created as the reference data 304b.
  • the exposure control value of the image generated by the composition processing (the aperture value in the case of the depth composition mode) The conversion value of is calculated, and this exposure control value is created as conversion data 304c.
  • the metadata creation unit 304 may create information for distinguishing the combination processing, and record information for distinguishing the combination processing in the recording unit 305.
  • the data created by the metadata creation unit 304 may be information that can distinguish whether it is implementation data, reference data, or conversion data.
  • the image combining process is not limited to the above-described depth combining process, super-resolution combining process, HDR combining process, NR combining process, electronic shake preventing combining process, for example, comparative bright combining process, comparative dark combining process, average It is sufficient that the composition processing is performed using image data of a plurality of frames such as addition composition processing and live valve composition processing. In this case, for example, in the case of comparative bright combining processing, the total exposure time may be recorded as metadata as implementation data.
  • the shooting mode is set (S301).
  • the camera mode is set to the shooting mode as a default unless the user sets the playback mode or other modes.
  • the setting state of the mode is detected, and the determination is made based on the detection result.
  • step S303 live view imaging is performed (S303).
  • image data acquired by the imaging element 302b is acquired. This image data is repeatedly acquired at a predetermined frame rate.
  • live view display, focusing, and standard exposure are set (S305).
  • the image processing unit 303 performs image processing for through image display on the image data acquired in step S303, and performs through image display on the display unit 306 based on the processed image data.
  • the through image display is updated at a predetermined frame rate.
  • the contrast value of the acquired image data is calculated, and the position of the focusing lens of the optical system 302a is adjusted so that the contrast value reaches a peak. Focusing may be performed by another method such as phase difference AF other than the above-described contrast AF.
  • luminance information and the like are calculated from image data, and a standard exposure such as a shutter speed, an aperture value, and an ISO sensitivity is set based on the luminance information.
  • the mode can be switched by the operation member of the operation unit 307.
  • the modes in this case include a mode in which a plurality of frames are exposed such as a depth combination mode, a super resolution combination mode, an HDR combination mode, and the like in addition to the photographing mode and the reproduction mode described above.
  • step S307 If the result of determination in step S307 is that there is mode switching, mode setting is performed (S309).
  • mode in the mode control unit 301b is set.
  • step S309 If mode setting is performed in step S309, or if the result of determination in step S307 is that there is no mode switching, it is next determined whether the release switch has been operated (S311). When the release button is operated, the state of the release switch changes. Here, the determination is made based on the state change of the release switch. If it is determined that the release switch has not been operated as a result of this determination, the process returns to step S301.
  • the type of the set combination mode is determined (S313).
  • the determination is made based on the mode set first or the mode set in step S309. It is determined whether the synthesis mode is set to the HDR synthesis mode, the depth synthesis mode, or another synthesis mode.
  • the determination of the combination mode is performed according to which of the operation data, reference data, and metadata is to be recorded as metadata.
  • the determination of the combination mode in step S313 may be changed according to the metadata.
  • step S313 when the HDR composite mode is set, a plurality of images are taken by changing from the standard exposure to the long second time and the short second time (S315).
  • the exposure conditions are different for each frame.
  • the shutter speed is set to a long second so that the first frame is overexposed compared to the standard exposure (set in step S305), and the second frame is standard
  • the shutter speed is set at a short time so that the exposure is underexposure rather than the exposure, and shooting is performed.
  • image composition is performed (S317).
  • image combining processing is performed on the plurality of pieces of image data acquired in step S315 in accordance with the mode in which the image combining unit 303d is set.
  • image data and metadata are recorded (S319).
  • the metadata creation unit 304 creates reference data 304 b.
  • the reference data 304 b is data indicating an exposure condition corresponding to the effect of the image generated by the image synthesis.
  • the generated reference data 304 b is recorded as the image data 305 b and the metadata 305 c of the recording unit 305 in association with the image data synthesized in step S 317. Once the data is recorded, the process returns to step S301.
  • step S313 if the depth combination mode is set as the combination mode, the focus position is changed with the standard exposure to shoot a plurality of images (S321).
  • the focus position is changed, shooting is performed at the changed focus position, shooting is repeated until the predetermined number of sheets is reached, and a plurality of image data is acquired.
  • image composition is performed (S323).
  • the image combining unit 303d performs the depth combining process using the plurality of pieces of image data acquired in step S321 and having different focus positions. Thereby, image data of an image having a deep depth of field can be generated.
  • the detailed operation of the depth synthesis process will be described later with reference to FIG.
  • the metadata creation unit 304 creates the conversion data 304 c.
  • the conversion data 304 c differs from data indicating exposure conditions that are actually subjected to exposure control in each frame when shooting a plurality of frames, and exposure conditions of a composite image generated by a plurality of image data (Here, it is conversion data of f-number FNo).
  • the created conversion data 304 c is recorded as image data 305 b and metadata 305 c of the recording unit 305 in association with the image data synthesized in step S 323. Once the data is recorded, the process returns to step S301.
  • a plurality of images are taken in combination according to the mode (S327).
  • Other combining modes include, for example, a super resolution combining mode (see FIGS. 44A to 44D), an NR combining mode (see FIG. 46), an electronic camera shake prevention mode (see FIG. 47), and the like.
  • a super resolution combining mode see FIGS. 44A to 44D
  • an NR combining mode see FIG. 46
  • an electronic camera shake prevention mode see FIG. 47
  • shooting is repeated while moving the image sensor 302b in the direction perpendicular to the optical axis.
  • the exposure condition at this time is the standard exposure calculated in step S305.
  • the NR combination mode or the electronic image stabilization mode shooting is repeated under the same exposure condition without moving the image sensor 302b.
  • image composition After taking a plurality of images, next, image composition is performed (S328).
  • image composition for example, super resolution composition mode, NR composition mode, electronic camera shake prevention mode
  • image composition according to the set composition mode is performed.
  • the metadata creation unit 304 creates the implementation data 304 a.
  • the execution data 304a is data indicating the exposure conditions for which exposure control is actually controlled in each frame when shooting a plurality of frames.
  • the created execution data 304 a is recorded as the image data 305 b and the metadata 305 c of the recording unit 305 in association with the image data synthesized in step S 328. Once the data is recorded, the process returns to step S301.
  • step S331 if it is not the photographing mode, it is determined whether or not it is the reproduction mode (S331). When the user operates an operation member such as the reproduction button of the operation unit 307, the reproduction mode can be set. If the result of determination in this step is that the reproduction mode is not set, the mode is shifted to another mode.
  • an icon list is displayed (S333).
  • the icon of the recorded image is displayed on the display unit 306 based on the thumbnail data of the image data recorded in the recording unit 305.
  • step S335 If the result of determination in step S335 is that no image is selected, it is determined whether or not to return (S337).
  • the user When the user wants to end the reproduction mode, the user operates the return button in the operation unit 307 or clicks the return icon (collectively, return operation).
  • the determination is made based on whether or not the return operation has been performed.
  • the process returns to step S333.
  • the return operation is performed, the process returns to step S301.
  • step S335 If the result of determination in step S335 is that an image is selected, enlarged display is performed (S339). Here, the image data of the selected icon is read out and enlarged display is performed on the display unit 306.
  • step S341 If it is determined in step S341 that the detail display operation has been performed, the metadata is displayed (S343).
  • the metadata 305 c recorded in association with the image data is read from the recording unit 305 and displayed on the display unit 306. Display examples will be described later with reference to FIGS. 50A to 50C.
  • step S343 When the metadata is displayed in step S343, or as a result of the determination in step S341, if the detail display operation is not performed, it is determined whether external transmission is performed (S345).
  • the transmission button of the operation unit 307 When the user transmits the image data recorded in the recording unit 305 by wireless or wired communication via the Internet etc., the transmission button of the operation unit 307 is operated or the transmission icon is touched (generally External sending operation). In this step, the determination is made based on whether or not an external transmission operation has been performed.
  • step S345 As a result of the determination in step S345, when an external transmission operation is performed, transmission is performed to the setting destination (S347).
  • the image data of the image selected in step S 335 and the associated metadata are transmitted to the set transmission destination.
  • images and metadata based on the received image data can be displayed. A display example at this time will be described later with reference to FIGS. 50A to 50C.
  • step S349 it is determined whether or not to return (S349).
  • the user wants to end the playback mode, he performs a return operation.
  • the determination is made based on whether or not this return operation has been performed.
  • the process returns to step S339.
  • the return operation is performed, the process returns to step S301.
  • the mode in which the HDR combination mode accompanied by the exposure change is set with the exposure change is set (S 313 ⁇ HDR)
  • the meta Reference data is created and recorded as data (S319).
  • the mode is not accompanied by a change in exposure and a depth combination mode in which shooting is performed while the shooting distance is changed is set (S 313 ⁇ depth combination)
  • conversion data obtained by converting the exposure value as metadata.
  • the execution data is used as metadata. Created and recorded (S329).
  • the control value for which the exposure control is actually performed is recorded (S329), and when the exposure change is accompanied but the photographing condition is not changed, the reference exposure is recorded (S319) ),
  • the exposure control value here, the converted aperture value FNo
  • the user views metadata it is easy to understand what kind of control has been performed.
  • steps S319, S325, and S327 only one of reference data, operation data, and conversion data is created and recorded as metadata. By recording only one of them, the capacity of the metadata 305c can be reduced, and by simplifying it, processing becomes easy.
  • reference data, operation data, and conversion data may be created and recorded as metadata 305c.
  • an area that can be recorded by the manufacturer may be used, such as a maker note of the Exif standard.
  • FIG. 50A is a display example when the depth synthesis mode as shown in FIGS. 43A to 43D is set.
  • the depth-synthesized image 343, the shutter speed recorded as the operation data, and the metadata indicating the aperture value recorded as the conversion data are displayed.
  • “conversion” is displayed to clearly indicate that it is conversion data.
  • information indicating conversion data is also recorded in the metadata 305c.
  • FIG. 50B is a display example when the super-resolution composition mode as shown in FIGS. 44A to 44D is set. In this case, the depth-synthesized image 346 and the metadata indicating the shutter speed and the aperture value recorded as the operation data are displayed.
  • FIG. 50C is a display example when the HDR combining mode as shown in FIGS. 45A to 45D is set.
  • an HDR combined image 349 and metadata indicating a shutter speed and an aperture value recorded as reference data are displayed.
  • “reference” is displayed to clearly indicate that it is reference data.
  • information indicating that the data is reference data is also recorded in the metadata 305c.
  • the converted exposure value (in this case, the aperture value FNo) is obtained if the exposure value is changed as the image effect by the change of the photographing condition. Since (converted data) is calculated and displayed, the display is easy for the user to understand.
  • “reference” is displayed in the case of reference data and “conversion” is displayed in the case of conversion data, but this display may be deleted. Also in the case of implementation data, a display may be added to clearly indicate that it is implementation data. Further, although the metadata is displayed outside the image in FIGS. 50A to 50C, it may be displayed superimposed on the image.
  • step S323 Next, the detailed operation of the depth combination in step S323 (see FIG. 48) will be described using the flowchart shown in FIG.
  • the current focus position P1 and FNo are determined (S351).
  • the focus changing unit 302c detects the current focus position P1 of the focus lens
  • the exposure changing unit 302d detects the aperture value FNo currently set.
  • lens performance determination is performed (S353).
  • various lens performances such as the focal length of the optical system 302a and the permissible circle of confusion are stored.
  • data on various lens performances such as the permissible circle of confusion is read out.
  • reference shooting is performed (S355).
  • shooting is performed at the reference position to acquire image data of one frame.
  • the current position P1 of the focus lens is used as the reference position.
  • a predetermined focus position or the like may be used.
  • the predetermined number of times may be set automatically by the camera as appropriate according to the shooting conditions, in addition to the user setting.
  • step S357 If the result of determination in step S357 is that the predetermined number of times has not been reached, shooting is performed by shifting to a focus position that can not be covered by the focus position P1 (S359). Since the permissible circle of confusion is read out in step S353, the focus changing unit 302c moves the focus lens so as to obtain a focus range that allows generation of an in-focus image by depth combination processing using this data.
  • the aperture value FNo and the shutter speed SS perform exposure control with the same value at the time of reference shooting in step S355, and the image sensor 302b acquires image data.
  • the focus lens is moved from the focus position P1 on the basis of the next focus lens position. After taking a picture, the process returns to step S357.
  • step S357 when the predetermined number of times is reached, next, a portion in focus is selected and synthesized (S361).
  • depth synthesis processing is performed using the plurality of image data acquired in steps S355 and S359. That is, in each image data, portions with high contrast (sharpness) values are extracted, and these extracted portions are combined to generate focused image data, that is, high-contrast image data.
  • the number of times ⁇ FNo is calculated and set as a conversion FNo (S363).
  • the conversion FNo is other than this method, and other methods will be described later with reference to FIGS. 52 to 54.
  • the movement of the focus lens is moved in consideration of lens performance (for example, the circle of permissible confusion), image data is acquired at that position, and this is repeated a predetermined number of times.
  • Image data of (S 355, S 357, S 359).
  • depth composition is performed using a plurality of acquired image data (S363).
  • a converted FNo of the generated image data obtained by the depth synthesis process is calculated (S363).
  • the calculated conversion FNo is recorded as metadata together with the image data (see S325).
  • the depth-synthesized image is different from the aperture value FNo at the time of actual shooting. By displaying the converted FNo, the user can easily know the aperture value FNo of the combined image.
  • FIGS. 52 to 54 are in common with the embodiment of the present invention shown in FIG.
  • FIG. 52 shows how the camera 320 shoots the subject 331 in the depth-of-field combining mode.
  • the subject distance S n (corresponding to the reference imaging step S355) to perform the first round of shooting.
  • the second shooting (2nd Shot), the third shooting (3rd Shot), and the fourth shooting (4th Shot) are performed, and the fifth shooting at the subject distance S f Perform (5th Shot).
  • the subject depth in each shooting is D1 to D5.
  • the respective object depths D1 to D5 are adjacent to each other at the end, they may not necessarily be adjacent to each other, and a gap may be left.
  • FIG. 53 is an optical path diagram showing the relationship between the focus lens position at the time of depth synthesis, the position of the object, the permissible circle of confusion, and the depth of focus.
  • LP1 and LP2 indicate focus lens positions
  • FP indicates a focal plane position
  • indicates a permissible circle of confusion diameter
  • F indicates an aperture value FNo
  • X indicates a depth combination pitch coefficient.
  • Optical path OP1n the focus lens is located at a position LP1, showing an optical path of the object of the subject distance S n.
  • an object at an object distance S n is in focus behind the focal plane FP, at the position of XF ⁇ , and in the focal plane FP the image is spread within the permissible circle diameter of confusion (X ⁇ ) ing.
  • the optical path OP1s indicates the optical path of the object at the object distance S with the focus lens at the position LP1.
  • the object at the subject distance S is in focus at the position of the focal plane FP, and the image is concentrated at one point on the focal plane FP.
  • the optical path OP1 f indicates the optical path of an object at a subject distance S f (far from the subject distance S n ) with the focus lens at the position LP1.
  • an object at a subject distance S f is in focus at the position XF ⁇ ahead of the focal plane FP, and the image is expanded within the permissible circle diameter (X ⁇ ) at the focal plane FP and the image is blurred. ing.
  • optical paths OP2n to OP2f indicate optical paths with respect to the object distances S'n, S ', and S'f when the focus lens is at the position LP2.
  • the focus lens when the focus lens is at the position LP1, captured image data is acquired, and after acquisition, the focus lens is moved to the position LP2 to acquire captured image data. And using the acquired image data, by when focus stacking, with respect to the subject between the subject distance S n to S'f, it is possible to generate an image data in focus.
  • the coefficient X it is better for the coefficient X to be close to 1 in order to generate a high-precision depth composite image, a composite image that is sufficiently resistant to viewing can be obtained with a coefficient X of around 3 to 5 as well.
  • Focal length f Permissible circle of confusion diameter of imaging system: ⁇ Near point distance: S f Far point distance: S n
  • the converted conversion FNo after combination can be calculated by replacing the near point distance S f and the far point distance S n as follows.
  • the conversion FNo after the depth synthesis processing can be calculated by the above-mentioned equation (6) using the following parameters.
  • Focal length f Permissible circle of confusion diameter: ⁇ Farthest shooting distance in the pre-combination image: S f Closest shooting distance in the pre-combination image: Sn It should be noted that since the focal length is squared in the numerator of equation (6), the depth of field becomes shallow when the lens is a telephoto lens, so depth synthesis is performed to achieve the same depth of field as a wide-angle lens. The number of combined shots increases, and the combined FNo increases.
  • the converted FNo after depth combination processing is focal length: f, permissible circle of confusion diameter: ⁇ , farthest shooting distance in the image before combination: S f , image before combination closest focusing distance in: it can be calculated using S n (see equation (6)).
  • the focal length f is the set focal length of the zoom lens
  • the permissible circle of confusion diameter is a value stored in the storage unit of the imaging unit 302
  • the farthest shooting distance may be obtained from the position of the focus lens.
  • the horizontal axis corresponds to the lens extension position (LD) of the focus lens (focusing lens).
  • the vertical axis in FIG. 55 indicates the reciprocal of the shooting distance at which the subject is in focus, and the origin side is in the infinity direction.
  • lines L1 to L3 (exemplified, the number of lines may be more or less than this) in the graph show the relationship between the lens extension position and the inverse of the photographing distance according to the zoom position.
  • the lens position after driving the focus lens for depth combination is LDstart + ⁇ LD ⁇ n. If the focal length is determined, it is determined to one of the lines L1 to L3 in FIG. 55, and from this line, the distance at the start of shooting and at the end of shooting (the farthest shooting distance in the image before combining in equation (6): S f and the closest photographing distance in the pre-combination image: S n ) can be calculated.
  • the initial focus lens position (LD), the focus lens extension amount ( ⁇ LD), the number of times of shooting (n), and the focal length are known, according to the graph shown in FIG. The distance can be calculated.
  • the graph shown in FIG. 55 is represented by a curve, but the imaging distance L can be calculated by the linear approximation shown in the following equation (7), as long as it is limited to a relatively narrow range.
  • steps S 351 to S 359 the position of the focus lens is changed and shooting is repeated, and when shooting a predetermined number of times is finished, next, if it is further defocused, adopting or emphasizing is performed (S 365).
  • step S367 the FNo is brightened to calculate a converted FNo (S367).
  • a conversion FNo of an image with a shallow depth of field is calculated.
  • the FNo detected in step S351 is divided by the predetermined number of times in step S357, and divided by the square root of the predetermined number of times.
  • the imaging condition is switched for the same object to acquire a plurality of pieces of photographed image data (for example, see S315, S321, and S327 in FIG. 48). )
  • a plurality of photographed image data are acquired at different focus positions (for example, see S321 in FIG. 48), and the first image composition is performed using the acquired plurality of photographed image data (For example, refer to S323 in FIG. 48)
  • the conversion data of the aperture value in the composite image data synthesized by the first image composition is calculated, and the metadata is created based on the conversion data (for example, S325 in FIG. 48) reference).
  • the present embodiment or the modification it is possible to create appropriate information according to the image combining process and associate the information with the image data. That is, the depth of field of a composite image obtained by combining a plurality of images captured at different focus positions becomes deeper, and is different from the depth of field determined by the aperture value at each imaging.
  • the converted aperture value is calculated, and the metadata is created based on this, so when the user views the composite image, It is easy to understand the information according to the operation and effect.
  • the combination mode is determined (see S313 in FIG. 48), image combination is performed according to the result, and implementation data, conversion data, or metadata as metadata according to the combination mode One of the reference data is recorded.
  • the present invention is not limited to this.
  • it is necessary to change the exposure condition, change the imaging distance, or change the position of the imaging device.
  • the type of metadata may be determined appropriately.
  • any one of implementation data, conversion data, or reference data is recorded as metadata according to the combination mode.
  • the present invention is not limited to this, and any two or all of implementation data, conversion data, or reference data may be generated and recorded.
  • the function of the focus changing unit 302c, the exposure changing unit 302d, the imaging position changing unit 302e, etc. may be realized by software using a program stored in the CPU and memory.
  • the function may be realized by a program stored in the CPU and memory in the control unit 301.
  • all or part of the functions of the imaging control unit 303b, the imaging control changing unit 303c, and the like are realized by a central processing unit (CPU), peripheral circuits, and programs. It may be realized by a circuit that is executed by program code such as Digital Signal Processor, or may be a hardware configuration such as a gate circuit generated based on a program language described by Verilog, and hardware Of course, it does not matter if it is executed by a wear circuit.
  • CPU central processing unit
  • peripheral circuits and programs. It may be realized by a circuit that is executed by program code such as Digital Signal Processor, or may be a hardware configuration such as a gate circuit generated based on a program language described by Verilog, and hardware Of course, it does not matter if it is executed by a wear circuit.
  • the digital camera may be a lens type camera, a digital single-lens reflex camera or a compact digital camera, a video camera, Of course, it may be a camera for moving images such as a movie camera, or may be a camera built in a portable information terminal (PDA: Personal Digital Assist) such as a cellular phone or a smartphone.
  • PDA Personal Digital Assist
  • it may be an industrial or medical optical instrument such as an endoscope or a microscope, and may be a surveillance camera, an on-vehicle camera, or a stationary camera such as a camera attached to a television receiver or a personal computer. It may be.
  • the present invention is not limited to the above-described embodiments as it is, and at the implementation stage, the constituent elements can be modified and embodied without departing from the scope of the invention.
  • various inventions can be formed by appropriate combinations of a plurality of components disclosed in the above-described embodiments. For example, some components of all the components shown in the embodiment may be deleted. Furthermore, components in different embodiments may be combined as appropriate.
  • many of the controls and functions described in the flowchart can be set by a program, and the computer may read and execute the program to realize the controls and functions described above. it can.
  • the program may be recorded or stored in whole or in part as a computer program product on a portable medium such as a flexible disk, a CD-ROM, a non-volatile memory, etc., or a storage medium such as a hard disk or volatile memory. It can be distributed or provided at the time of product shipment or via a portable medium or communication line.
  • the user can easily realize the image processing apparatus according to the present embodiment by downloading the program via a communication network and installing it on a computer or installing it from a recording medium to a computer.
  • a composition control unit which receives a plurality of captured images obtained by capturing an object while changing the focus position, and combines the plurality of captured images to generate a composite image;
  • a metadata creation unit that creates metadata for each of the captured images based on imaging conditions for each of the captured images used for combining the composite image;
  • An image processing apparatus comprising: a recording control unit that adds and records the metadata created by the metadata creation unit to the image file of the composite image created by the combination control unit.
  • the metadata creating unit is characterized in that the difference in focus position at the time of capturing each of the captured images is distance-converted for each of the captured images, and the metadata including the information of the distance difference obtained by the distance conversion is created.
  • An image processing apparatus according to item 1 or 2.
  • the metadata creation unit creates the metadata including the information obtained by the distance conversion based on the information of the optical system and the focus position at the time of capturing each captured image. Or the image processing apparatus as described in 3.
  • the metadata creation unit is characterized in that the distance-converted metadata is calibrated using correction information obtained by imaging a known correction target whose size is known. Image processing device.
  • the metadata generation unit converts, for each captured image, a difference in focus position at the time of capturing each captured image into a distance, and a portion where the subject is focused using the converted information and the correction information. 6.
  • the image processing apparatus according to claim 5, wherein the metadata including information on a distance between the image forming apparatus and the image forming apparatus is created.
  • Appendix 8 The image processing apparatus according to claim 1 or 2, further comprising a display control unit that reads out the metadata and displays the content of the metadata on a display unit.
  • An object determination unit that determines an object to be focused in a focusing range
  • a lens control unit for controlling the focus position is provided to an imaging unit that picks up an object while changing the focus position by the optical system with variable focus position based on the judgment result of the object judgment unit.
  • Appendix 11 A plurality of captured images obtained by capturing an object while changing the focus position are given, and the plurality of captured images are combined to generate a composite image, Metadata based on shooting conditions for each of the captured images used for combining the combined image is created for each of the captured images, An image processing method characterized in that the metadata is added to an image file of the composite image and recorded.
  • An image pickup apparatus comprising: an image pickup section which picks up an object while changing a focus position by an optical system with variable focus position.
  • An image data acquisition unit capable of acquiring a plurality of photographed image data by switching photographing conditions for the same object;
  • a first image combining unit that acquires a plurality of photographed image data under different exposure conditions by the image data acquisition unit and performs a first image synthesis using the acquired plurality of photographed image data;
  • the image data acquisition unit acquires a plurality of photographed image data while changing the same exposure condition and conditions other than the exposure, and performing a second image synthesis using the acquired plurality of photographed image data.
  • An image synthesis unit A metadata creation unit that creates metadata representing combined image data combined by the first image combining unit or the second image combining unit; Have An image processing apparatus characterized in that the metadata creation unit creates single metadata indicating different exposure conditions in the case of performing the first image combination and the case of performing the second image combination. .
  • Item 18 The image processing apparatus according to Item 18, wherein the metadata creating unit creates information that distinguishes the first image composition and the second image composition.
  • the metadata generation unit generates reference metadata based on the exposure condition in the image data acquisition unit when the first image synthesis is performed, and the metadata generation unit performs the second image synthesis.
  • Item 19 The image processing apparatus according to item 19, wherein an actual exposure condition in the image data acquisition unit is implementation metadata.
  • the metadata creating unit creates metadata corresponding to an exposure effect of the combined image created by the first image combining.
  • Item 18 The image processing apparatus according to item 18, characterized in that
  • An image data acquisition unit capable of acquiring a plurality of photographed image data by switching the first imaging condition for the same object;
  • a first image combining unit that acquires a plurality of photographed image data by changing the second imaging condition by the image data acquisition unit and performs a first image combination using the acquired plurality of photographed image data;
  • the image data acquisition unit acquires a plurality of photographed image data by changing the third photographing condition without changing the second photographing condition, and uses the acquired plurality of photographed image data to perform a second image composition.
  • [Additional item 24] Switch shooting conditions for the same object and acquire multiple shooting image data,
  • the first image composition is performed using a plurality of photographed image data acquired under different exposure conditions
  • the second image composition is performed using a plurality of captured image data acquired under different conditions other than the same exposure condition and exposure condition
  • the first image composition is different from the second image composition.
  • An image data acquisition unit capable of acquiring a plurality of photographed image data by switching photographing conditions for the same object;
  • a first image combining unit that acquires a plurality of photographed image data at different focus positions by the image data acquisition unit and performs a first image synthesis using the acquired plurality of photographed image data;
  • a metadata creation unit that calculates conversion data of aperture value in composite image data combined by the first image combining unit, and creates metadata based on the conversion data;
  • the metadata generation unit calculates the conversion data based on the focal length f of the optical system, the permissible circle of confusion diameter ⁇ , the near point distance S f, and the far point distance S n. Image processing device.
  • the image data acquisition unit acquires a plurality of photographed image data while changing the same exposure condition and conditions other than the exposure, and performing a second image synthesis using the acquired plurality of photographed image data.
  • Has an image synthesis unit The metadata generation unit generates metadata according to the same exposure condition when the second image synthesis unit performs the second image synthesis, according to item 25.
  • Image processing device acquires a plurality of photographed image data while changing the same exposure condition and conditions other than the exposure, and performing a second image synthesis using the acquired plurality of photographed image data.
  • the metadata generation unit generates metadata according to the same exposure condition when the second image synthesis unit performs the second image synthesis, according to item 25.
  • the image data acquisition unit can acquire a plurality of photographed image data with different exposure conditions.
  • the image processing apparatus further includes a third image combining unit that performs third image combining using a plurality of pieces of photographed image data acquired by the image data acquisition unit under different exposure conditions,
  • the metadata generation unit generates single metadata indicating different exposure conditions in the case of performing the first image combination and the case of performing the third image combination.
  • An image data acquisition unit capable of acquiring a plurality of photographed image data by switching photographing conditions for the same object; And a first image combining unit that acquires a plurality of photographed image data under the same exposure condition and different focus positions by the image data acquiring unit and performs a first image synthesis using the acquired plurality of photographed image data ,
  • the image data acquisition unit acquires a plurality of photographed image data without changing the same exposure condition and focus position, and performs a second image combination using the acquired plurality of photographed image data.
  • a synthesis unit A metadata creation unit that creates metadata representing combined image data combined by the first image combining unit or the second image combining unit; Have The metadata creating unit creates metadata based on the converted exposure condition when performing the first image combining, and uses the same exposure condition when performing the second image combining.
  • An image processing apparatus for creating metadata An image processing apparatus for creating metadata.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

画像処理装置は、異なる撮影条件で撮影された複数の撮像画像を取得する画像取得部と、上記複数の撮像画像を用いて合成画像を生成するものであって、上記複数の撮像画像を画面全体で合成して上記合成画像を得る鑑賞性重視モードと上記複数の撮像画像の各撮像画像を上記合成画像中の各領域の画像として選択的に用いて上記合成画像を得る部分再現性重視モードとを有する合成制御部とを具備する。

Description

画像処理装置、画像処理方法、画像処理プログラム及び撮像装置
 本発明は、画像合成が可能な画像処理装置、画像処理方法、画像処理プログラム及び撮像装置に関する。
 従来、デジタルカメラなどの撮影機能付き携帯機器(撮像装置)が普及している。撮像装置によって撮像された画像は、鑑賞用途だけでなく、診断、検査、測定、計数、分析、監視等の鑑賞用途以外の各種用途(以下、画像データ用途という)に用いられることがある。一般的には、撮像されて得られた画像は、画像処理装置によって、各用途に適した画像処理が施される。
 この種の撮像装置において使われる画像ファイルは、撮影情報等の規格化された情報、例えば、露出時間、絞り値、露出プログラム、ISO感度、撮影日時の情報等を含む。写真用のメタデータを含む画像ファイルフォーマットとしてエクスチェンジャブル・イメージ・ファイル・フォーマット(Exif)が使用されている。このExif情報として、シャッタ速度、絞り値(F値)、ISO感度等の情報が画像データと共に記録される。ユーザは、画像ファイル中のメタデータの内容を参照することで、当該画像の撮影条件等を確認することができ、例えば今後の撮影のパラメータ設定等の示唆を得ることができる。
 ところで、画像処理装置においては、撮影して得た複数枚の画像を合成して合成画像を得る合成処理が可能なものものある。例えば、露出を変化させながら複数枚の写真を撮影して合成することで、ダイナミックレンジを拡大し、白飛びや黒つぶれを抑制するハイダイナミックレンジ(HDR)合成処理やピント位置を変化させながら複数回の撮影を行って得た複数の撮像画像を合成(深度合成)することで、ユーザが狙った被写体の全体にピントが合った画像を得る深度合成処理等が可能な画像処理装置も商品化されている。
 また、撮影方向を変化させながら撮影して得た複数枚の撮像画像を合成するパノラマ合成処理や、撮像素子の画素位置をずらしながら撮影して得た複数枚の撮像画像を合成する超解像度合成処理等が可能な画像処理装置もある。
 例えば、日本国特開2015-156523号公報においては、撮像方向を変位させながらの撮像動作によって得られる複数のフレーム画像データを用いて生成されたパノラマ画像データが、全周パノラマ画像と判断される場合に、該パノラマ画像データと、該パノラマ画像データが全周パノラマ画像であることを示す情報とを関連付ける関連付け部を備える装置が開示されている。
 また、日本国特開2009-32182号公報では、入力された画像データから顔領域を抽出し、抽出した顔領域の全画像領域に占める割合が所定の閾値以上であるかを判定し、所定の閾値以上である場合に顔領域の色情報を算出し、また、顔領域以外の領域(背景領域)においてシーン判定を行って撮影シーンを判定することにより、背景領域の階調も考慮しつつ、顔領域を好ましく露出補正する技術が開示されている。
 ところで、画像合成処理は、合成後の1枚の合成画像が全体的に各用途に適した画像となるように画像処理が施されている。即ち、合成画像の作成には、複数の撮像画像がそのまま用いられておらず、画像の各部分では被写体光学像から得た画像が忠実に再現されていない場合がある。
 本発明は、画像合成によって、鑑賞用途だけでなく画像データそのものとしての記録用途としても有用な合成画像を、いずれの用途用であるかを識別可能にすることができる画像処理装置、画像処理方法、画像処理プログラム及び撮像装置を提供することを目的とする。
 本発明の一態様による画像処理装置は、異なる撮影条件で撮影された複数の撮像画像を取得する画像取得部と、上記複数の撮像画像を用いて合成画像を生成するものであって、上記複数の撮像画像を画面全体で合成して上記合成画像を得る鑑賞性重視モードと上記複数の撮像画像の各撮像画像を上記合成画像中の各領域の画像として選択的に用いて上記合成画像を得る部分再現性重視モードとを有する合成制御部とを具備する。
 本発明の一態様による画像処理方法は、異なる撮影条件で撮影された複数の撮像画像を取得する手順と、上記複数の撮像画像を用いて合成画像を生成する手順であって、上記複数の撮像画像を画面全体で合成して上記合成画像を得る鑑賞性重視モードと上記複数の撮像画像の各撮像画像を上記合成画像中の各領域の画像として選択的に用いて上記合成画像を得る部分再現性重視モードとを選択して上記合成画像を生成する手順とを具備する。
 本発明の一態様による画像処理プログラムは、コンピュータに、異なる撮影条件で撮影された複数の撮像画像を取得する手順と、上記複数の撮像画像を用いて合成画像を生成する手順であって、上記複数の撮像画像を画面全体で合成して上記合成画像を得る鑑賞性重視モードと上記複数の撮像画像の各撮像画像を上記合成画像中の各領域の画像として選択的に用いて上記合成画像を得る部分再現性重視モードとを選択して上記合成画像を生成する手順とを実行させる。
 本発明の一態様による撮像装置は、上記画像処理装置と、異なる撮影条件で被写体を撮像して上記複数の撮像画像を得る撮像部とを具備する。
本発明の第1の実施の形態に係る画像処理装置を示すブロック図。 鑑賞性重視モードと部分再現性重視モードにおけるHDR合成処理を説明するための説明図。 鑑賞性重視モードと部分再現性重視モードにおけるHDR合成処理を説明するための説明図。 鑑賞性重視モードと部分再現性重視モードにおけるHDR合成処理を説明するための説明図。 鑑賞性重視モードと部分再現性重視モードにおけるHDR合成処理を説明するための説明図。 鑑賞性重視モードと部分再現性重視モードにおけるHDR合成処理を説明するための説明図。 鑑賞性重視モードと部分再現性重視モードにおける深度合成処理を説明するための説明図。 鑑賞性重視モードと部分再現性重視モードにおける深度合成処理を説明するための説明図。 鑑賞性重視モードと部分再現性重視モードにおける深度合成処理を説明するための説明図。 鑑賞性重視モードと部分再現性重視モードにおける深度合成処理を説明するための説明図。 鑑賞性重視モードと部分再現性重視モードにおける深度合成処理を説明するための説明図。 再現性重視領域毎に撮影条件及び画像処理を変化させる場合の例を説明するための説明図。 再現性重視領域毎に撮影条件及び画像処理を変化させる場合の例を説明するための説明図。 再現性重視領域毎に撮影条件及び画像処理を変化させる場合の例を説明するための説明図。 HDR合成モードにおける撮像タイミングチャート。 画像合成モードが指定されている場合のカメラ制御を示すフローチャート。 画像ファイルに記録される内容を説明するための説明図。 画像ファイルに記録される内容を説明するための説明図。 深度合成による部分再現性重視モードの合成画像を示す説明図。 本発明の第2の実施の形態において採用される画像合成処理を示すフローチャート。 第2の実施の形態において作成される画像ファイルを示す説明図。 第2の実施の形態において作成される画像ファイルを示す説明図。 本発明の第3の実施の形態に係る画像処理装置を有する撮像装置を示すブロック図。 深度合成モードにおける撮影の様子を示す説明図。 深度合成モードにおける動作を説明するための説明図。 深度合成モードにおいて撮影された撮像画像及び合成画像を示す説明図。 深度合成モードにおいて撮影された撮像画像及び合成画像を示す説明図。 深度合成モードにおいて撮影された撮像画像及び合成画像を示す説明図。 横軸にピント位置をとり縦軸に距離の逆数をとって、所定のレンズについてピント位置と距離との関係を示すグラフ。 硬貨の種類と直径との関係を示す図表。 キャリブレーション処理のフローを示すフローチャート。 キャリブレーション時の撮影の様子を示す説明図。 第3の実施の形態の動作を説明するためのフローチャートである。 通常撮影時の画像ファイルに記録される内容を説明するための説明図。 深度合成モード時の画像ファイルに記録される内容を説明するための説明図。 変形例を示す説明図。 他の変形例を示す説明図。 本発明の第4の実施の形態において採用される深度合成のピント位置シフト制御を示すフローチャート。 深度合成による撮像画像のコントラストの変化を示す説明図。 本発明の第5の実施の形態を示すフローチャート。 第5の実施の形態の深度合成モードにおける撮影の様子を示す説明図。 深度合成モードにおいて撮影された撮像画像及び合成画像を示す説明図。 深度合成モードにおいて撮影された撮像画像及び合成画像を示す説明図。 深度合成モードにおいて撮影された撮像画像及び合成画像を示す説明図。 深度合成モードにおいて撮影された撮像画像及び合成画像を示す説明図。 キャリブレーションを説明するための説明図。 本発明の第6の実施の形態に係るカメラの主として電気的構成を示すブロック図。 本発明の第6の実施の形態に係るカメラにおける深度合成処理を説明する図。 本発明の第6の実施の形態に係るカメラにおける深度合成処理を説明する図。 本発明の第6の実施の形態に係るカメラにおける深度合成処理を説明する図。 本発明の第6の実施の形態に係るカメラにおける深度合成処理を説明する図。 本発明の第6の実施の形態に係るカメラにおける超高解像合成処理を説明する図。 本発明の第6の実施の形態に係るカメラにおける超高解像合成処理を説明する図。 本発明の第6の実施の形態に係るカメラにおける超高解像合成処理を説明する図。 本発明の第6の実施の形態に係るカメラにおける超高解像合成処理を説明する図。 本発明の第6の実施の形態に係るカメラにおけるハイダイナミックレンジ合成処理(HDR)を説明する図。 本発明の第6の実施の形態に係るカメラにおけるハイダイナミックレンジ合成処理(HDR)を説明する図。 本発明の第6の実施の形態に係るカメラにおけるハイダイナミックレンジ合成処理(HDR)を説明する図。 本発明の第6の実施の形態に係るカメラにおけるハイダイナミックレンジ合成処理(HDR)を説明する図。 本発明の第6の実施の形態に係るカメラにおけるノイズリダクション(NR)合成処理を説明する図。 本発明の第6の実施の形態に係るカメラにおける電子手振れ防止処理を説明する図。 本発明の第6の実施の形態におけるカメラのカメラ制御動作を示すフローチャート。 本発明の第6の実施の形態におけるカメラのカメラ制御動作を示すフローチャート。 本発明の第6の実施の形態におけるカメラにおいて、メタデータの表示の例を示す図。 本発明の第6の実施の形態におけるカメラにおいて、メタデータの表示の例を示す図。 本発明の第6の実施の形態におけるカメラにおいて、メタデータの表示の例を示す図。 本発明の第7の実施の形態に係るカメラの主として電気的構成を示すブロック図。 本発明の第7の実施の形態に係るカメラにおける深度合成処理を説明する図。 本発明の第7の実施の形態に係るカメラにおける深度合成処理を説明する図。 本発明の第7の実施の形態に係るカメラにおける深度合成処理を説明する図。 本発明の第7の実施の形態に係るカメラにおける深度合成処理を説明する図。 本発明の第7の実施の形態に係るカメラにおける超高解像合成処理を説明する図。 本発明の第7の実施の形態に係るカメラにおける超高解像合成処理を説明する図。 本発明の第7の実施の形態に係るカメラにおける超高解像合成処理を説明する図。 本発明の第7の実施の形態に係るカメラにおける超高解像合成処理を説明する図。 本発明の第7の実施の形態に係るカメラにおけるハイダイナミックレンジ合成処理(HDR)を説明する図。 本発明の第7の実施の形態に係るカメラにおけるハイダイナミックレンジ合成処理(HDR)を説明する図。 本発明の第7の実施の形態に係るカメラにおけるハイダイナミックレンジ合成処理(HDR)を説明する図。 本発明の第7の実施の形態に係るカメラにおけるハイダイナミックレンジ合成処理(HDR)を説明する図。 本発明の第7の実施の形態に係るカメラにおけるノイズリダクション(NR)合成処理を説明する図。 本発明の第7の実施の形態に係るカメラにおける電子手振れ防止処理を説明する図。 本発明の第7の実施の形態におけるカメラのカメラ制御動作を示すフローチャート。 本発明の第7の実施の形態におけるカメラのカメラ制御動作を示すフローチャート。 本発明の第7の実施の形態におけるカメラにおいて、メタデータの表示の例を示す図。 本発明の第7の実施の形態におけるカメラにおいて、メタデータの表示の例を示す図。 本発明の第7の実施の形態におけるカメラにおいて、メタデータの表示の例を示す図。 本発明の第7の実施の形態における深度合成の動作を示すフローチャート。 本発明の第7の実施の形態において、深度合成を行うために撮影する際の個々の撮影距離を示す図。 本発明の第7の実施の形態において、深度合成を行うために撮影する際の個々の光学系の光路を示す図。 本発明の第7の実施の形態において、深度合成を行った際の換算距離を算出するための説明図。 本発明の第7の実施の形態において、深度合成を行った際の換算距離の別の算出を説明するための図。 本発明の第7の実施の形態における深度合成の変形例の動作を示すフローチャート。
 以下、図面を参照して本発明の実施の形態について詳細に説明する。
(第1の実施の形態)
 図1は本発明の第1の実施の形態に係る画像処理装置を示すブロック図である。なお、以下の説明では、画像処理装置10は、撮像部を有する撮像装置1に内蔵されたものとして説明するが、画像処理装置10としては、撮像装置に内蔵されたものでなく、外部の撮像部からの撮像画像が与えられて画像処理を行うものであってもよい。
 撮像装置に内蔵された画像処理装置は、撮像部に対してHDR合成や深度合成等の合成処理のための撮像制御を行う。本実施の形態における画像処理装置は、撮像して得た複数枚の画像合成に際して鑑賞用途用の画像処理及び画像データ用途用の画像処理を行うことが可能である。本実施の形態においては、鑑賞用途用の画像処理では合成画像の全体として鑑賞性に優れた画像を得るための合成画像処理を行い、画像データ用途用の画像処理では、合成画像の各部において、被写体を忠実に再現可能な画像を得るための合成画像処理を行う。
 なお、被写体を忠実に再現可能な画像とは、被写体光学像を忠実に再現する画像であってもよく、例えば、ピント位置及び露出が適正な撮影条件の元に撮影された画像であってもよい。また、被写体を忠実に再現可能な画像としては、撮像部からの画像そのものだけでなく、撮像部からの画像に所定の画像信号処理を施した画像を含む。
 画像データ用途は、主に科学技術分野で利用されることが多いので、科学技術用途と言ってもよく、また、測定機器等の装置によって自動的に利用されることが考えられ、測定用途或いは機械用途と言ってもよい。画像データ用途の画像は、利用される用途に応じて、必要とされる情報が異なることが考えられるが、被写体の画像情報の情報量が大きい画像が好ましく、例えば、画像の部分部分においてピントが合って適正露出の画像であった方が良い場合が多い。なお、画像データ用途の画像を生成するモードを部分再現性重視モードと言い、部分再現性重視モードにおいて得られた画像を部分再現性重視画像ともいう。
 撮像部が被写体光学像から得た画像は、撮像時の撮影条件に応じたものである。例えば、HDR合成や深度合成等においては、ピント位置、露出時間、絞り値、ISO感度等の各種撮影条件を変化させた複数回の撮像によって合成に用いる複数枚の画像が取得されており、これらの画像は、取得された撮影条件に応じて相互に異なる画像となっている。
 本実施の形態においては、部分再現性重視モードでは、画像を複数の領域(以下、再現性重視領域という)に分け、各再現性重視領域内の画像は同一の撮影条件で撮像されて得られた画像で構成される。従って、部分再現性重視画像は、画像の各再現性重視領域の境界における画像の連続性がない場合があり、1枚の画像全体では画像品位が低いことがある反面、画像の部分部分では、被写体の再現性に優れた画像となっている。
 図1において、撮像装置1には撮像部20が設けられている。撮像部20は、CCDやCMOSセンサ等の図示しない撮像素子と、被写体の光学像を撮像素子の撮像面に導く図示しない撮影レンズ(光学系)とを備える。撮影レンズとしては、撮像部20に取り付けられた固定のレンズであってもよく、また、交換式のレンズであってもよい。この撮影レンズは、ズームやフォーカシングのための図示しないレンズ等を備えており、これらのレンズは、撮影条件変更部21によって駆動制御されるようになっている。撮影条件変更部21は、後述する信号処理部12の撮影条件設定部13aからの制御信号に基づいて、フォーカシングのためのレンズを駆動してピント位置を変更すると共に、図示しない絞りや撮像素子のシャッタスピード等を制御することができるようになっている。なお、撮像部20において採用する撮像素子としては、像面位相差法においてデフォーカス量を求めるためのフォーカス制御用の画素(以下、AF画素という)を有するものであってもよい。
 画像処理装置10の制御部11は、例えば、図示しないメモリに記憶されたプログラムに従ってカメラ制御を行う図示しないCPU等を用いたプロセッサによって構成することができる。画像処理装置10には、操作判定部18が設けられている。操作判定部18は、図示しないシャッタボタン、ファンクションボタン、撮影モード設定等の各種スイッチ等を含む図示しない操作部に対するユーザ操作を判定し、判定結果に基づく操作信号を制御部11に供給するようになっている。画像処理装置10には各種のセンサにより構成されるセンサ部16が設けられている。センサ部16は、例えば、加速度センサやジャイロセンサ等の各種センサを含んでおり、各種センサの検出結果を制御部11に与える。制御部11は操作判定部18からの操作信号及びセンサ部16の検出結果に基づいて各部を制御する。
 信号処理部12は画像取得部13及び画像処理部14を備えている。画像取得部13は、制御部11に制御されて、撮像画像取得のための処理を実行する。即ち、画像取得部13中の撮影条件設定部13aは、撮像部20の撮影条件変更部21に設定信号を出力してシャッタスピード、露光時間、絞り、ISO感度等を制御する。また、撮影条件設定部13aは、撮影条件変更部21に設定信号を出力して、ピント位置及びズーム位置を制御すると共に、オートフォーカス制御が可能である。例えば、撮影条件設定部13aは、所謂山登りコントラスト法によるオートフォーカス制御や像面位相差法によるオートフォーカス制御を行ってもよい。
 画像取得部13は、撮像部20からの撮像画像を読み出して画像処理部14に与える。画像処理部14は、制御部11に制御されて、読み出された撮像画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。
 信号処理部12は、表示に関する各種処理を実行する。信号処理部12は、画像処理部14による信号処理後の撮像画像を表示部30に与えることができる。表示部30は、LCD(液晶パネル)等の表示画面を有しており、信号処理部12から与えられた画像を表示する。また、信号処理部12は、各種メニュー表示等を表示部30の表示画面に表示させることもできるようになっている。
 なお、表示部30の表示画面上には、図示しないタッチパネルが設けられていてもよい。タッチパネルは、ユーザが指で指し示した表示画面上の位置に応じた操作信号を発生することができる。この操作信号は、制御部11に供給される。これにより、制御部11は、ユーザがタッチした表示画面上の位置やユーザが表示画面上を指でスライドさせるスライド操作を検出することができ、ユーザ操作に対応した処理を実行することができるようになっている。
 なお、表示部30の表示画面は撮像装置1の図示しない筐体の背面に沿って設けられており、撮影者は、撮影時に表示部30の表示画面上に表示されたスルー画を確認することができ、スルー画を確認しながら撮影操作を行うこともできる。
 画像処理装置10には通信部15が設けられている。信号処理部12は、通信部15を制御して、外部機器との間で通信を行うことができる。通信部15は、信号処理部12に制御されて、外部機器との間で有線又は無線によるデータの送信及び受信が可能である。例えば、通信部15としては、USB規格の有線通信やWifi(登録商標)等の無線LANやブルートゥース(登録商標)等による無線通信が可能に構成されている。信号処理部12は、通信部15を介して、撮像画像、合成画像等の画像ファイルやその他の各種情報を外部機器に送信することができるようになっている。
 信号処理部12は、各種信号処理後の撮像画像を圧縮処理し、圧縮後の画像を記録部40に与えて記録させることができる。記録部40は、所定の記録媒体を備えており、信号処理部12によって画像ファイルが記録されるようになっている。例えば、記録制御部としての信号処理部12は、画像ファイルとして例えばExif(Exchangeable image file format)などの特定形式の画像ファイルを記録することができる。記録部40は、画像ファイル中の静止画及び動画の画像データ部分を記録する領域である画像記録部41及びメタデータ部分を記録する領域である付随情報記録部42を備えている。また、記録部40には、所定の対象物の特徴量を記録した対象物分類データベース(DB)43が設けられている。
 画像処理部14は、画像合成処理を行う適応処理部14bを備えている。合成制御部としての適応処理部14bは、通常のHDR合成や深度合成等の鑑賞性に優れた画像合成を生成するモード(以下、鑑賞性重視モードという)において、複数枚の撮像画像を用いて1枚の合成画像を生成する。この場合には、適応処理部14bは、公知の合成処理を行うことによって、1枚の画像全体で鑑賞性に優れた合成画像を生成する。
 本実施の形態においては、適応処理部14bは、部分再現性重視モードにおいてHDR合成や深度合成等の画像合成を行う場合には、合成前の1枚の撮像画像を用いて合成画像の1つの領域(再現性重視領域)の画像部分を生成する。即ち、合成画像の1つの再現性重視領域の画像部分は、合成前の1枚の撮像画像のみを用いて生成されるので、当該領域内は同一の撮影条件で撮影が行われて同一の画像処理が施された画像により構成される。従って、この再現性重視領域内は、被写体光学像を忠実に再現したものとなっている。
 画像処理部14には領域判定部14aが設けられており、領域判定部14aは、1枚の撮像画像を用いて生成される合成画像の再現性重視領域を判定するようになっている。例えば、領域判定部14aは、HDR合成時には、輝度分布のレベル範囲に応じて再現性重視領域を判定してもよい。例えば、領域判定部14aは輝度レベルを複数段階に分け、各段階の輝度レベル範囲毎に再現性重視領域を設定してもよい。また、領域判定部14aは、再現性重視領域の設定に際して、画像中の各対象物毎に再現性重視領域を設定してもよい。
 対象物分類DB43は、対象物の特徴量が記憶されており、領域判定部14aは、撮像画像に対して画像解析処理を行い、対象物分類DB43から読出した特徴量と撮像画像の各画像部分の特徴量との比較によって、画像中から各対象物を抽出して、対象物の形状に沿った領域又は対象物を囲む所定の領域を再現性重視領域に設定するようになっていてもよい。
 また例えば、領域判定部14aは、深度合成時には、合焦分布の範囲に応じて再現性重視領域を判定してもよい。例えば、領域判定部14aは各撮像画像中で合焦状態が得られている領域を再現性重視領域に設定してもよい。この場合にも、領域判定部14aは、再現性重視領域の設定に際して、画像中の各対象物を判定して、対象物の形状に沿った領域又は対象物を囲む所定の領域を再現性重視領域に設定するようになっていてもよい。
 なお、領域判定部14aは、ユーザによる領域指定操作によって、再現性重視領域を決定するようになっていてもよい。
 図2A、図2B及び図3A~図3Cは鑑賞性重視モードと部分再現性重視モードにおけるHDR合成処理を説明するための説明図である。HDR合成処理では、同一画角の同一被写体についての露出値が異なる複数枚の撮像画像を取得する。図2Aの画像51は露出アンダで撮影して得た画像を示している。
 図2Aの撮像画像51は、中央に山の画像51aと、山の手前の比較的暗い森の画像51bと山の後方の比較的明るい空の画像51cとを含んでいる。画像51は露出アンダであり、画像51中の暗い森の画像51bは黒つぶれしていることを示している。
 図3A~図3Cは横軸に垂直線Y上の各垂直画素位置YI0~YI3をとり縦軸に各画素の画素出力(輝度レベル)をとって、垂直線Y上の輝度分布を示している。図3Aは図2Aの垂直線Y上の輝度レベルであって、適正露出で撮影された場合の輝度レベルを示している。垂直画素位置YI0~YI1の範囲は、輝度レベルが低く、殆どノイズレベル以下である。垂直画素位置YI1~YI2の範囲は、輝度レベルが適正である。垂直画素位置YI2~YI3の範囲は、輝度レベルが高く、殆ど飽和レベル以上である。
 鑑賞性重視モードにおける通常のHDR合成では、露出アンダから露出オーバまで露出を変化させて複数回の撮像を行って合成する。図3Bはこの合成画像の輝度レベルを示している。通常のHDR合成では、画像全体で鑑賞性に優れた画像とするために、各撮像画像の輝度レベルを調整し、図3Bに示すように、画像全体の輝度レベルがノイズレベルと飽和レベルとの間の適正レベルに収まるように画像処理を行う。図3Bでは、露出が異なる複数枚の撮像画像を単に合成するだけでなく、各画像の輝度レベルを圧縮すると共に、各画像の境界部分のレベルが連続するように輝度調整が行われている。
 図2Bはこうして生成されたHDR合成画像52を示している。即ち、このHDR画像52は、明るい部分の空の画像52aは白飛びすることなく色が表現されている。また、画像52は、暗い森の部分についても色を表現することが可能であり、この部分は比較的明るい森の画像52b1と比較的暗い森の画像52b2とが表現されている。
 これに対し、本実施の形態における部分再現性重視モードのHDR合成では、合成画像を構成する複数の撮像画像がそのまま用いられる。図3Cは図3Bに対応したものであり、部分再現性重視モードにおけるHDR合成画像の輝度レベルを示している。図3Cは3枚の撮像画像を合成して1枚の合成画像を生成した例を示している。合成に用いられた各撮像画像は、撮影時の撮影条件及び画像処理が相互に異なり、領域判定部14aが判定した再現性重視領域内では、同一の撮影条件及び画像処理が適用されている。このため、図3Cに示すように、各撮像画像の境界部分が不連続となることがある反面、垂直画素位置YI0~YI1,YI1~YI2,YI2~YI3の各範囲の輝度変化は被写体光学像の輝度変化を忠実に再現しており、再現性重視領域内では、被写体光学像の再現性に優れている。
 また、鑑賞性重視モードにおけるHDR合成では、画像の全体が適正レベル範囲に入るように輝度レベル分布が圧縮されるのに対し、部分再現性重視モードにおけるHDR合成では、再現性重視領域が適正レベル範囲に入るように輝度レベル分布が設定されるので、再現性重視領域内の輝度変化が比較的大きく、再現性重視領域毎の画像のダイナミックレンジが大きく、画像解析に有利な画像が得られる。
 従って、本実施の形態の部分再現性重視モードにおけるHDR合成を採用すると、撮影範囲の暗い部分も明るい部分もそれぞれ適正な明るさで、且つ十分なダイナミックレンジを有し、観察や画像解析に有利な画像が得られる。
 図4A、図4B及び図5A~図5Cは鑑賞性重視モードと部分再現性重視モードにおける深度合成処理を説明するための説明図である。深度合成処理では、同一画角の同一被写体についてのピント位置が異なる複数枚の撮像画像を取得する。
 図4Aの撮像画像61は、実線によってトンボ62の前ばね62bにピントが合っており、破線によって頭62a、後ばね62c及び腹62dにはピントが合っていないことを示している。即ち、画像61は前ばね62bにピントを合わせて撮影されて得られた画像である。
 図5A~図5Cは横軸に垂直線Y上の各垂直画素位置YI0~YI3をとり縦軸に被写体までの距離の逆数をとって、垂直線Y上の合焦状態分布を示している。図5Aは図4Aの垂直線Y上の合焦状態分布であって、前ばね62bにピントを合わせた状態で撮影された場合の合焦状態分布を示している。垂直画素位置YI0~YI1の範囲は、合焦範囲内の遠端と近端との間の被写体の画像部分及び合焦範囲内の遠端と近端との間以外の被写体の画像部分を含む。垂直画素位置YI1~YI2の範囲は、合焦範囲内の被写体の画像部分である。垂直画素位置YI2~YI3の範囲は、合焦範囲内の遠端よりも遠い被写体の画像部分である。
 鑑賞性重視モードにおける通常の深度合成では、遠端から近端までピント位置を変化させて複数回の撮像を行って合成する。図5Bの破線はこの合成画像の合焦状態分布を示している。通常の深度合成では、画像全体で鑑賞性に優れた画像とするために、画像各部においてピントがあった複数枚の撮像画像を取得し、主要被写体については合焦状態分布が合焦状態の遠端と近端との間に入るように画像処理を行う。図5Bの例は、実線にて合焦状態を示すピント位置が異なる3枚の撮像画像を単に合成するだけでなく、各画像の境界部分において、連続的な合焦状態(破線)が得られるように画像処理が施されている。
 図4Bはこうして生成された深度合成画像63を示している。即ち、この深度合成画像63は、トンボ62の全域に亘ってピントが合っていることを実線にて示してある。
 これに対し、本実施の形態における部分再現性重視モードの深度合成では、合成画像を構成する複数の撮像画像がそのまま用いられる。図5Cは図5Bに対応したものであり、部分再現性重視モードにおける深度合成画像の合焦状態分布を示している。図5Cは3枚の撮像画像を合成して1枚の合成画像を生成した例を示している。合成に用いられた各撮像画像は、撮影時の撮影条件及び画像処理が相互に異なり、領域判定部14aが判定した再現性重視領域内では、同一の撮影条件及び画像処理が適用されている。このため、図5Cに示すように、各撮像画像の境界部分が不連続となることがある反面、垂直画素位置YI0~YI1,YI1~YI2,YI2~YI3の各範囲の合焦状態分布は被写体光学像の合焦状態分布を忠実に再現しており、再現性重視領域内では、被写体光学像の再現性に優れている。
 従って、本実施の形態の部分再現性重視モードにおける深度合成を採用すると、再現性重視領域内では、観察や画像解析に有利な画像が得られる。
 信号処理部12は、画像合成が行われた場合には、各合成画像の画像ファイルに、通常の鑑賞性重視モードによって生成された画像であるか部分再現性重視モードによって生成された画像であるかを示すタグを付加するようになっている。なお、信号処理部12は、画像ファイル中の画像データ部分を記録部40の画像記録部41に記録し、タグデータを付随情報記録部42に記録する。
 更に、本実施の形態においては、信号処理部12は、画像合成中の各再現性重視領域がいずれの撮像画像を用いたものかについて、その撮像画像の撮影条件及び画像処理の内容と共に、タグデータとして付随情報記録部42に記録するようになっている。
 ところで、上述したように、再現性重視領域内では同一の撮影条件及び画像処理が設定されるが、再現性重視領域毎に撮影条件及び画像処理を変化させてもよい。これにより、各再現性重視領域において、より画像解析等に有利な画像を得ることができる。
 図6A,6B及び図7は再現性重視領域毎に撮影条件及び画像処理を変化させる場合の例を説明するための説明図である。図6A及び図6Bはそれぞれ図2A又は図2Bに対応しており、画像処理の変化を明瞭に示すために被写体(画像構成物)として「温泉」の看板が撮像されているものとして、撮像画像71及び合成画像72にはそれぞれ当該看板の画像72a,72bを含む例を示している。
 図7は各被写体(画像構成物)に対する画像処理の処理内容を示している。領域判定部14aは、撮像画像に対する画像解析によって、画像中の各被写体を画像構成物(対象物)として判定する。そして、画像処理部14bは、領域判定部14aが判定した画像中の対象物の種類に応じて適切な画像処理を実行する。なお、対象物の種類毎の画像処理の内容については、記録部40にデータベースとして記録されているものとする。
 例えば、被写体が「空」である場合には、適応処理部14bは、画像のコントラストを低く階調を少なくすると共に、色判定及びノイズ判定処理を高精度に行う。また、例えば、被写体が「山」又は「森」である場合には、適応処理部14bは、コントラストを高くして通常の階調にする。また、例えば、被写体が「文字」である場合には、適応処理部14bは、コントラストを高くして2値化する。この2値化によって、文字部分が明瞭となる。
 図6Aの看板の画像71aは、ハッチングによって文字部分と背景部分とのコントラストが比較的小さく、文字の判別が多少困難であることを示している。これに対し、図6Bの看板の画像72aは、この画像部分を高コントラスト化して2値化しているので、文字部分が明瞭となっている。
 次に、このように構成された実施の形態の動作について図8から図11を参照して説明する。図8はHDR合成モードにおける撮像タイミングチャートを示し、図9は画像合成モードが指定されている場合のカメラ制御を示すフローチャートである。また、図10A及び図10Bは画像ファイルに記録される内容を説明するための説明図であり、図10Aは通常の画像ファイルを示し、図10Bは合成画像の画像ファイルを示している。また、図11は深度合成による部分再現性重視モードの合成画像を示す説明図である。
 図9のステップS1において、制御部11は、撮影モードが指定されているか否かを判定する。撮影モードが指定されている場合には、制御部11は、ステップS2においてスルー画用の撮像画像を取得する。即ち、制御部11は、信号処理部12に指示を与えて、撮像部20に被写体を撮像させ、画像処理部14は撮像部20からの撮像画像に所定の画像処理を施して表示部30に与える。表示部30は、スルー画を表示画面上に表示すると共に、オートフォーカス機能及び自動露出機能により、ピント位置及び標準露出の設定を行う(ステップS3)。本実施の形態においては、適応処理部14bは、撮像画像に対してHDR合成処理を行って、HDR合成画像をスルー画として表示部30の表示画面上に表示させることもできる。
 図8はライブビューの撮像タイミング、取得した撮像画像、合成処理、鑑賞用途と画像データ用途用の合成画像を示している。信号処理部12は、スルー画表示時にHDR合成画像を表示させるために、撮像毎に露出を変化させている。図8の例では、1画像毎に露出オーバでの撮影と露出アンダでの撮影を交互に行う。そして、適応処理部14bは、露出オーバと露出アンダの2つの撮像画像を合成処理して、スルー画用のHDR合成画像(HDRLV)を生成する。こうして、ライブビュー表示において、HDR合成された見やすい画像が表示される。
 更に、本実施の形態においては、領域判定部14aはスルー画を利用して、画像中の対象物を判定する。なお、領域判定部14aは、例えば、対象物の領域を再現性重視領域に設定してもよく、対象物を含む矩形等の再現性重視領域を設定してもよい。
 制御部11は、ステップS4において、モード切換の指示があったか否かを判定する。モード切換の指示が発生した場合には、制御部11はステップS5において、指示されたモードの各種設定を行った後、ステップS6に処理を移行する。
 こうして、制御部11は、所定のモードにおいて、静止画レリーズスイッチ(SW)が操作されたか否かを判定する(ステップS6)。静止画レリーズSWが操作されると、制御部11はステップS7において、部分再現性重視モードが指定されているか否かを判定する。
 いま、鑑賞性重視モードでの画像合成が指定されているものとする。この場合には、制御部11は、処理をステップS7からステップS8に移行する。適応処理部14bは、ステップS8において、画像全体で鑑賞性に優れた画像合成を行う。図8の例では、適応処理部14bは露出オーバ(露出A)で撮影して得た撮像画像と露出アンダ(露出B)で撮影して得た撮像画像とを用いて、通常のHDR合成処理を行う。通常のHDR合成では、上述したように、2つの撮像画像をそのまま用いて合成するだけでなく、各撮像画像の境界領域等における画像処理によって、画像全体として違和感のない陰影が得られるように、画像処理が施される。
 つまり、この場合、合成画像は、全く異なる撮影条件で得られた画像を合成したものであるにも拘わらず、あたかも人間の目が脳での理解や処理を含めて、異なる領域があっても視野内の景色や対象物を一つの一連の情景、一枚の画像として判断するのにふさわしい表現となっている。それゆえに、その境界領域には、部分ごと、領域ごとに徐々に変わるような処理がかかっており、そこでは合成前の元のデータが、場所ごとに微妙な修正がかかり、特に、その境界の連続性を得るための処理がかかった部分は、ひとことでここは、この条件で撮った画像、と言えなくなってしまう。ただし、連続性重視処理が行われていない領域もある場合は、その部分に関してはその限りではない。つまり、その部分は後述のステップS11で得られる画像と変わらない場合もある。よって、このステップS11の画像と同様の部分を指定するような領域情報を持ってもよい。この工夫で、ステップS8とステップS11の画像を両方得る必要はなくなる。ただし、連続性処理が行われた境界部の画像データは、比較的に、先に述べたデータ再現性、信頼性に劣ったデータとなってしまう。
 信号処理部12は、ステップS9において、生成した合成画像のサムネイルを作成し、ステップS10において、記録部40に画像ファイルを記録する。即ち、信号処理部12は、画像データを画像記録部41に記録し、メタデータを付随情報記録部42に記録する。
 図10Aは鑑賞性重視モードにおいて作成される静止画ファイルを示している。静止画ファイルは、画像記録部41に記録される画像データを含む。また、画像ファイル中の画像データ以外のデータは、付随情報記録部42に記録される。サムネイルは、ステップS9において生成されたものである。対応動画、音声情報は、画像データに対応して動画が撮影され音声が取得された場合に記録される動画情報と音声情報である。
 本実施の形態においては、静止画ファイルは、当該静止画ファイルが鑑賞性重視モードにおいて取得されたものであることを示す鑑賞性重視タグを含む。また、撮影時情報A,Bは、当該静止画ファイルが2つの撮像画像を合成して作成されたこと、及びこれらの2つの撮像画像の取得時の撮影時の情報(日時、感度、シャッタスピード(SS)及び絞り)を示している。
 次に、部分再現性重視モードが指定されたものとする。この場合には、制御部11は、ステップS7から処理をステップS11に移行して、部分再現性重視モードにおける画像合成を行う。適応処理部14bは、ステップS3において設定された再現性重視領域毎に、合成前の1枚の撮像画像を用いて画像を生成する。再現性重視領域に用いられる各撮像画像は、当該再現性重視領域については、被写体の再現性に優れた画像である。
 つまり、この領域はこうで、この領域はこう、と特定の処理が明確化できる画像であり、その領域と領域の間の徐々に変化するような処理は施されていないので、再現性にすぐれ、各領域の処理の特徴を簡単に表現が可能となる。また、その不連続となる領域の情報を同時に記録してもよい。不連続であるがゆえに、領域の区分は後で確認がしやすいので、あえて領域情報を持たずとも分析がしやすい。例えば、再現性重視領域内では、ピントが合い、適正露出であり、場合によっては、測定等の用途に応じた画像処理が施されている。
 例えば、図6Aの看板の画像71a部分は、高コントラスト化及び2値化によって、文字認識処理に優れた画像となっている。なお、例えば、看板の文字サイズを判定する用途等では高コントラスト化及び2値化を必要としない場合もあり、この場合には、ピントが合い、適正露出の画像であって、画像処理が施されていない再現性重視領域が採用されることもある。
 ここで、ステップS7での分岐は必ずしも必要ではなく、ステップS8、ステップS11で得られる画像を選択的にではなく、同時に得られるようなシステムもあり得る。この場合、例えば、連続性がない画像をいきなり人が見ると、何が写っているか分からないことがあるので、まず、観賞性重視画像を見せて確認するようにして、その後、ステップS11の被写体像の再現性に優れた画像を、何かの装置で測定用に用いるといった使われ方が想定できる。
 適応処理部14bは、部分再現性重視モードでは、再現性重視領域毎に使用する1つの撮像画像のみを選択し、他の撮像画像の情報を用いない。従って、部分再現性重視画像は、再現性重視領域の境界部分において画像が不連続になることがある反面、再現性重視領域内では被写体の再現性に優れている。
 図8の例では、部分再現性重視モードを測定用の合成画像の生成に用いた例を示しており、露出Aの撮像画像と露出Bの撮像画像を用いて作成した測定用合成画像を示している。図8の測定用合成画像中のA,Bはそれぞれ露出Aの撮像画像を用いた再現性重視領域と露出Bの撮像画像を用いた再現性重視領域とを示している。
 また、図11は被写体としてトンボと花を含む画像を、部分再現性重視モードによって深度合成した例を示している。合成画像81は、トンボ82aの画像を含む再現性重視領域82と花83aの画像を含む再現性重視領域83とを含む。再現性重視領域82,83は、トンボ82a又は花83aの被写体距離に適したピント位置でそれぞれ撮影されて取得された各撮像画像によって生成されており、トンボ82a及び花83aはピントが合っている。これに対し、再現性重視領域82,83以外の部分では、破線にて示すように、ピントが合っておらず、また、花83aの茎84の画像は再現性重視領域82内においては、ピントがずれている。
 信号処理部12は、ステップS12において、生成した合成画像のサムネイルを作成する。この場合には、視認性を重視して、通常のHDR合成処理によって生成した合成画像を元にサムネイルを生成する。即ち、このサムネイルは、ステップS9において生成されたサムネイルの画像情報と同様の情報であり、領域間の連続性を犠牲にしない画像合成をサムネイル化して得たものである。もちろん、それに特化した用途の場合などは、連続性を犠牲にした画像を縮小してサムネイル化したものでもよい。
 信号処理部12は、ステップS13において、記録部40に画像ファイルを記録する。即ち、信号処理部12は、画像データを画像記録部41に記録し、メタデータを付随情報記録部42に記録する。
 図10Bは部分再現性重視モードにおいて作成される静止画ファイルを示している。この静止画ファイルは、画像記録部41に記録される画像データを含む。また、画像ファイル中の画像データ以外のデータは、付随情報記録部42に記録される。部分再現性重視モードにおいても、鑑賞性重視モードと同様に、対応動画の情報及び音声情報を有する。
 部分再現性重視モードにおいては、当該静止画ファイルが部分再現性重視モードにおいて取得されたものであることを示す再現性重視タグを含む。また、撮影時情報A,Bは、鑑賞性重視モードと同様に、当該静止画ファイルが2つの撮像画像を合成して作成されたこと、及びこれらの2つの撮像画像の取得時の撮影時の情報(日時、感度、シャッタスピード(SS)及び絞り)を示している。更に、部分再現性重視モードにおいては、各撮像画像が合成画像中のいずれの再現性重視領域に用いられているかを示す領域情報が記録されている。なお、記録された画像データに対する画像解析によって再現性重視領域が判定可能である場合もある。この場合には、再現性重視領域の情報の記録は省略してもよい。
 このように、各画像ファイルは、タグによって、鑑賞性重視モードにおいて得られた合成画像であるか又は部分再現性重視モードにおいて得られた合成画像であるかが明らかであり、また、部分再現性重視モードにおいて、各撮像画像がいずれの再現性重視領域に用いられているかも明らかである。
 図9のステップS1において、撮影モードが指示されていない場合には、制御部11は、ステップS21に移行して再生モードが指定されているか否かを判定する。制御部11は、再生モードが指定されていない場合には、指定された他のモードに移行する。
 再生モードが指定されると、制御部11は、ステップS22において、記録部40に記録されている画像を選択するためのアイコン一覧表示を行う。制御部11は、次のステップS23において、画像が選択されたか否かを判定する。ユーザがアイコン一覧表示から所定の画像を選択すると、制御部11は、ステップS23からステップS25に処理を移行して、選択操作に基づく画像を選択して再生して、表示部30の表示画面上に表示させる。なお、制御部11は、画像選択操作がない場合には、次のステップS24において戻る操作があったか否かを判定し、戻る操作があった場合には処理をステップS1に戻し、無かった場合には処理をステップS22に戻す。
 ステップS25における画像の表示中に、制御部11は、詳細表示の表示を指示する操作が発生したか否かを判定する(ステップS26)。制御部11は、詳細表示の表示指示が発生した場合には、処理をステップS27に移行して、付随情報記録部42から読出したメタデータに基づく表示(メタデータ表示)を表示部30に表示させる。これにより、例えば、図10A又は図10Bのメタデータの内容が表示される。この表示によって、ユーザは撮像画像についての撮影情報、合成画像がいずれのモードで得られたものであるか、合成画像の作成に用いた各撮像画像の撮影情報及び各再現性重視領域にいずれの撮像画像が用いられているか、等について認識することができる。
 詳細表示の表示指示がなかった場合又はメタデータ表示の表示中において、制御部11は、外部送信指示が発生したか否かを判定する(ステップS28)。外部送信指示が発生すると、信号処理部12は、通信部15を制御して、選択されている画像の画像ファイルを設定された送信先に送信する。
 なお、制御部11は、外部送信指示が無い場合又は外部送信の終了後のステップS30において、戻る操作があったか否かを判定し、戻る操作があった場合には処理をステップS1に戻し、無かった場合には処理をステップS25に戻す。
 このように本実施の形態においては、複数の撮像画像を合成して合成画像を生成する場合において、合成画像全体として鑑賞性に優れた合成画像を得る鑑賞性重視モードと画像の部分部分で被写体の再現性に優れた部分再現性重視モードとを指定して画像合成を行うことができる。部分再現性重視モードにおいては、再現性重視領域内において、被写体の再現性に優れた画像を得ることができ、科学技術用途や測定用途等において、極めて有用な画像を得ることができる。また、合成画像の画像ファイルは、鑑賞性重視モードと部分再現性重視モードのいずれで作成されたものであるかを示すタグデータ、各再現性重視領域がいずれの撮像画像を用いたものであるかを示す情報等を含んでおり、合成画像の利用時の利便性が高い。
(第2の実施の形態)
 図12は本発明の第2の実施の形態において採用される画像合成処理を示すフローチャートである。また、図13A及び図13Bは本実施の形態において作成される画像ファイルを示す説明図である。本実施の形態のハードウェア構成は図1と同様である。本実施の形態は動画撮影に適用したものである。
 図12のステップS31において、制御部11は、撮影モードが指定されているか否かを判定する。撮影モードが指定されていない場合には、制御部11は撮影モード以外の指定されたモードを実行する。撮影モードが指定されている場合には、制御部11は、ステップS32,S33においてスルー画用の撮像画像を取得する。即ち、制御部11は、信号処理部12に指示を与えて、画像取得条件A,Bを用いて撮像部20に被写体を撮像させ、画像処理部14は撮像部20からの撮像画像(動画像)に所定の画像処理を施す。更に、画像処理部14は、ステップS34において画像取得条件A,Bによって取得された2種類の撮像画像(動画像A,B)に対して、画像全体として鑑賞性を重視した合成処理を行う。この合成動画像が表示部30に与えられてスルー画として用いられる。
 制御部11は次のステップS35において、ステップS32,S33において取得した画像の被写体変化が小さいか否かを判定する。制御部11は、被写体変化が比較的大きい場合には、ステップS36において、画像の連続性を重視し、ステップS34で取得した合成画像に代えて、最新画像を必要に応じて補正したスルー画像を表示する。制御部11は、次のステップS51において、動画撮影が指示されたか否かを判定する。
 一方、被写体変化が小さい場合には、制御部11は、ステップS37~S42において、部分再現性重視モードの再現性重視領域を判定するための処理を行う。即ち、領域判定部14aは、ステップS37において、取得した2種類の画像を加算し、所定の領域毎に画像判定を行う(ステップS38)。領域判定部14aは、画像判定結果に従って、各再現性重視領域に取得した動画像A,Bを割当てる(ステップS39)。例えば、画像取得条件A,BがHDR合成処理のための露出アンダと露出オーバの条件である場合には、合成画像中の比較的暗い領域に露出オーバの条件によって取得された動画像を割当て、比較的明るい領域に露出アンダの条件によって取得された動画像を割当てる。
 制御部11は、次のステップS40において、部分再現性重視モード(再現性重視)が指定されているか否かを判定し、部分再現性重視モードが指定されている場合には再現性重視フラグを設定し(ステップS41)、そうでない場合にはステップS42において再現性重視フラグを解除した後、ステップS51に移行する。
 制御部11は、ステップS51において、動画撮影操作が行われたか否かを判定し、動画撮影操作が行われていない場合にはステップS61において静止画撮影操作が行われたか否かを判定する。制御部11は、ステップS61において、静止画撮影操作が行われたことを検出すると、ステップS62において、部分再現性重視モードが指定されているか否かを判定する。部分再現性重視モードが指定されていない場合には、適応処理部14bは、ステップS63において、領域間の連続性を考慮した画像補正を伴う合成処理を行う。これにより、合成画像中の1枚の画像は、全体として鑑賞性に優れたものとなり、生成される静止画は画像全体として、連続的で見やすい画像となる。
 また、部分再現性重視モードが指定されている場合には、適応処理部14bは、ステップS54において、ステップS39において割当てた再現性重視領域別の画像データを用いて1枚の合成画像を得る。この場合には、画像取得条件A,Bで取得された各画像は、それぞれ画像補正されることなく、そのまま各再現性重視領域用として用いられ保存されることになる。制御部11は、ステップS66において、時刻、撮影情報等と共に取得した静止画像をファイル化して処理をステップS31に戻す。
 図13Aはこの場合において記録部40に記録される静止画ファイルを示している。この静止画ファイルは、画像記録部41に記録される静止画の画像データを含む。また、画像ファイル中の画像データ以外のデータは、付随情報記録部42に記録される。
 図13Aの例では、鑑賞性重視モードの静止画の場合には、鑑賞性重視タグが“1”で、再現性重視タグが“0”に設定され、部分再現性重視モードの静止画の場合には、鑑賞性重視タグが“0”で、再現性重視タグが“1”に設定される。他のメタデータについては、図10A又は図10Bと同様である。
 次に、制御部11がステップS51において、動画撮影操作を検出するものとする。この場合には、制御部11は、次のステップS52において、部分再現性重視モードが指定されているか否かを判定する。部分再現性重視モードが指定されていない場合には、適応処理部14bは、ステップS53において、領域間の連続性を考慮した画像補正を伴う合成処理を行う。これにより、合成動画像中の各コマの画像は、全体として鑑賞性に優れたものとなり、生成される動画は画像全体として、連続的で見やすい画像となる。
 また、部分再現性重視モードが指定されている場合には、適応処理部14bは、ステップS54において、ステップS39において割当てた再現性重視領域別の画像データを保存する。この場合には、画像取得条件A,Bで取得された各動画像は、それぞれ画像補正されることなく、そのまま各再現性重視領域用として用いられて保存されることになる。
 制御部11は、ステップS55において、動画撮影の終了が指示されたか否かを判定する。動画撮影の終了操作が行われた場合には、制御部11は、ステップS56において、時刻、撮影情報等と共に取得した動画像をファイル化して処理をステップS31に戻す。なお、制御部11は、ステップS55において動画撮影の終了が指示されていないと判定した場合には、次のステップS57において静止画記録が指示されたか否かを判定する。制御部11は、静止画記録が指示された場合には、処理をステップS62に移行して静止画記録のための処理を行い、静止画記録が指示されていない場合には、処理をステップS31に戻す。
 図13Aは記録部40に記録される動画ファイルを示している。この動画ファイルは、画像記録部41に記録される動画の画像データを含む。また、画像ファイル中の画像データ以外のデータは、付随情報記録部42に記録される。
 付随情報記録部42に記録されるサムネイルは視認性を重視して、領域間の連続性を維持しながら合成した画像をサムネイル化したものである。もちろん、視認しない用途や、もとから視認性は重要でない場合は連続性を維持しない画像からサムネイルを作ってもよい。また、動画ファイルに対応する静止画や音声がある場合には、対応静止画の情報や音声情報が記録される。また、メタデータは、撮像画像の取得時の撮影時の情報(日時、感度、シャッタスピード(SS)及び絞り)を含む。
 また、動画のメタデータには、動画に用いた各コマの情報、再現性重視領域の情報及び各領域についての処理内容の情報を含む。また、動画は、鑑賞性重視期間と再現性重視期間とが混在することを考慮して、メタデータに、これらの期間、即ち、鑑賞性重視タグの設定期間と再現性重視タグの設定期間の情報を含む。これにより、動画の各期間の各再現性重視領域の画像について、メタデータにより各種情報を取得することができる。
 このように本実施の形態においては、第1の実施の形態と同様に、鑑賞用途だけでなく画像データ用途としても有用な合成画像を、いずれの用途用であるかを識別可能に取得(撮像、記録、利用など)することができるという効果を有する。また、本実施の形態は部分再現性重視モードでの動画像の取得及び記録が可能であり、動画の各期間において、いずれのモードによる動画像が取得されたか、また、各領域に用いた動画像がいずれの動画像であるかを認識することができる。
(第3の実施の形態)
 図14は本発明の第3の実施の形態に係る画像処理装置を有する撮像装置を示すブロック図である。合成画像については、画像ファイルに付加されたメタデータから、十分に分かりやすい情報を得ることは困難である。そこで、本実施の形態は、画像合成によって得た合成画像について、ユーザに分かりやすいメタデータを合成画像の画像ファイルに付与することを可能にするものである。
 本実施の形態においては、撮像装置の画像処理装置は、撮像部に対して深度合成のための撮像制御を行うと共に、深度合成時に用いた各撮像画像の取得時の撮影情報等を撮像画像毎にメタデータとして合成画像の画像ファイルに付与して記録させるようになっている。これにより、合成画像のメタデータの内容を参照するユーザの利便性を向上させる。
 なお、撮影情報としては、露出時間、絞り値、露出プログラム、ISO感度、撮影日時の情報等の各種撮影パラメータを含む。更に、本実施の形態においては、撮影情報として被写体までの距離の情報(以下、被写体距離情報という)を含む。なお、本実施の形態においては、被写体距離は、撮影レンズから被写体の各部までの距離であって、合焦状態となる場合の距離をいう。
 また、本実施の形態においては、メタデータとして被写体距離情報を含めるだけでなく、画像処理によるキャリブレーションによって、求める距離の情報の正確性を向上させるようになっている。
 図14において、撮像装置101には撮像部110が設けられている。撮像部110は、CCDやCMOSセンサ等の撮像素子111と、被写体の光学像を撮像素子の撮像面に導く撮影レンズ(光学系)112とを備える。撮影レンズ112としては、撮像部110に取り付けられた固定のレンズであってもよく、また、交換式のレンズであってもよい。撮影レンズ112は、ズームやフォーカシングのための図示しないレンズ等を備えており、これらのレンズは、レンズ駆動部113によって駆動制御されるようになっている。レンズ駆動部113のピント変更部113aは、後述する制御部120のレンズ制御部124からの制御信号に基づいて、フォーカシングのためのレンズを駆動して、ピント位置を変更することができるようになっている。なお、撮像部110において採用する撮像素子111としては、像面位相差法においてデフォーカス量を求めるためのフォーカス制御用の画素(以下、AF画素という)を有するものであってもよい。
 また、光学系特性部114は、光学系の特性に関する情報を取得して、制御部120に出力するようになっている。なお、光学系の特性に関する情報としては、後述する深度合成に必要な情報、例えば、被写界深度情報、ピント合わせ可能範囲の情報やピント合わせ時の距離とピント位置の関係を示す情報等を含む。また、光学系特性部114は、光学系の特性に関する情報として、焦点距離及び絞りの状態を反映させた情報を取得することができるようになっている。
 制御部120は、例えば、図示しないメモリに記憶されたプログラムに従ってカメラ制御を行う図示しないCPU等を用いたプロセッサによって構成することができる。制御部120は、撮像部110に撮像素子111の駆動信号を出力してシャッタスピード、露光時間等を制御すると共に、撮像部110からの撮像画像を読み出す。制御部120の画像処理部121は、読み出した撮像画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。
 レンズ制御部124は、レンズ駆動部113を制御する。レンズ制御部124は、オートフォーカス制御が可能である。例えば、レンズ制御部124は、レンズ駆動部113のピント変更部113aを制御してピント位置を変更しながら画像処理部121のコントラスト判定処理結果によって、所謂山登りコントラスト法によるオートフォーカス制御が可能である。また、レンズ制御部124は、撮像素子111がAF画素を有している場合には、像面位相差法によるオートフォーカス制御を行ってもよい。
 制御部120には、操作判定部127が設けられている。操作判定部127は、図示しないシャッタボタン、ファンクションボタン、撮影モード設定等の各種スイッチ等を含む操作部115に対するユーザ操作を受け付けるようになっている。制御部120は操作判定部127の判定結果に基づいて各部を制御する。記録制御部125は、各種信号処理後の撮像画像を圧縮処理し、圧縮後の画像を記録部130に与えて記録させることができる。
 記録部130は、所定の記録媒体を備えており、記録制御部125によって画像ファイルが記録されるようになっている。例えば、記録制御部125は、画像ファイルとして例えばExif(Exchangeable image file format)など特定の形式にして画像ファイルを記録することができ、記録部130は、画像ファイル中の画像データ部分を記録する領域である画像データ部131及びメタデータ部分を記録する領域であるメタデータ部132を備えている。また、記録部130には、所定の対象物の特徴量を記録した対象物特徴データベース(DB)133が設けられている。
 制御部120の表示制御部128は、表示に関する各種処理を実行する。表示制御部128は、信号処理後の撮像画像を表示部141に与えることができる。表示部141は、LCD(液晶パネル)等の表示画面を有しており、表示制御部128から与えられた画像を表示する。また、表示制御部128は、各種メニュー表示等を表示部141の表示画面に表示させることもできるようになっている。
 なお、表示部141の表示画面上には、図示しないタッチパネルが設けられていてもよい。タッチパネルは、ユーザが指で指し示した表示画面上の位置に応じた操作信号を発生することができる。この操作信号は、制御部120に供給される。これにより、制御部120は、ユーザがタッチした表示画面上の位置やユーザが表示画面上を指でスライドさせるスライド操作を検出することができ、ユーザ操作に対応した処理を実行することができるようになっている。
 なお、表示部141の表示画面は撮像装置101の筐体101a(図15参照)の背面に沿って設けられており、撮影者は、撮影時に表示部141の表示画面上に表示されたスルー画を確認することができ、スルー画を確認しながら撮影操作を行うこともできる。
 通信制御部129は、通信部145を制御して、外部機器との間で通信を行うことができる。通信部145は、通信制御部129に制御されて、外部機器との間で有線又は無線によるデータの送信及び受信が可能である。例えば、通信部145としては、USB規格の有線通信やWifi(登録商標)等の無線LANやブルートゥース(登録商標)等による無線通信が可能に構成されている。通信制御部129は、通信部145を介して、撮像画像、合成画像等の画像ファイルやその他の各種情報を外部機器に送信することができるようになっている。
 本実施の形態においては、深度合成等の画像合成を行う場合に、合成前の各撮像画像について被写体距離情報を含む撮影情報を取得し、取得した撮影情報をメタデータとして合成画像の画像ファイルに付与することができるようになっている。
 制御部120の深度合成制御部122は、このような深度合成処理を制御する。即ち、合成制御部である深度合成制御部122は、深度合成モードにおいて、撮像素子111及びレンズ制御部124を制御して深度合成のための複数回の撮影を行わせ、画像処理部121を制御して取得された複数の撮像画像による深度合成画像を生成する。更に、本実施の形態においては、深度合成制御部122は、メタデータ作成部126を制御して、各撮像画像についての被写体距離情報をメタデータとして記録部130に記録させるようになっている。
 図15は深度合成モードにおける撮影の様子を示す説明図である。また、図16は深度合成モードにおける動作を説明するための説明図である。また、図17Aから図17Cは深度合成モードにおいて撮影された撮像画像及び合成画像を示す説明図である。
 図15の例は物品の撮影、所謂物撮りにおける様子を示している。インターネット等を介して物品を販売するネット販売では、販売する商品等の写真をサイト上に掲載することがある。この場合の商品写真については、通常細部まで鮮明な画像であった方がよい。しかしながら、商品が奥行き方向に長い部分を有する商品を撮影する場合には、商品の各部の被写体距離が比較的大きく異なる場合がある。このため、絞りを絞れなかったり、被写体距離が小さすぎたりする場合には、撮影機器の焦点深度が浅くなり、通常撮影モードでは、商品の一部にしかピントが合っていない画像が撮影されてしまうことがある。これに対し、深度合成モードを採用すれば、このようなユースシーンにおいて、細部までピントが合った画像の撮影を容易に行うことができる。
 テーブル154上には物品(商品)である瓶155が載置されている。ユーザ151は、瓶155が視野範囲に入るように、右手152で撮像装置101の各回路を収納した筐体101aを把持して構える。撮影モード時には、この状態で筐体101aの背面に設けた表示部141の表示画面141a上に、スルー画が表示される。ユーザ151はこのスルー画を確認しながら、瓶155の撮影を行う。
 レンズ制御部124は、深度合成制御部122に制御されて、撮影範囲中の瓶155の所定位置についてオートフォーカス制御を行いながら撮影を行う。いま、ユーザが図16の撮影タイミングにおいて操作部115中の図示しないレリーズボタン操作すると、深度合成制御部122は、所定の露出でオートフォーカス制御によるピント位置を変更しながら複数回の撮影を行う。図16の例では、深度合成制御部122は、シャッタ速度が1/100秒の状態で、1回目の露出時と2回目の露出時とでピント位置を切換えて撮像を行う。
 例えば、1回目の撮影によって得られる画像が図17Aに示す撮像画像150aであり、2回目の撮影によって得られる画像が図17Bに示す撮像画像150bであるものとする。なお、図17A~図17Cは実線によってピントが合っている状態(合焦状態)を示し、破線によってピントが合っていない状態(非合焦状態)を示している。
 1回目の撮影では、図17Aに示すように、瓶155の先端にピントが合った撮像画像150aが得られる。なお、撮像画像150aは瓶155の先端側155aのピントは合っているが、破線部に示すように、瓶155の中央よりも下側155bではピントは合っていない。
 2回目の撮影では、図17Bに示すように、瓶155の中央にピントが合った撮像画像150bが得られる。なお、撮像画像150bは瓶155の中央から下側155bのピントは合っているが、破線部に示すように、瓶155の中央よりも先端側155aではピントは合っていない。
 図16の撮像画像の塗り潰し部分はピントが合っている画像部分を示しており、1回目の撮影では瓶155の画像位置の画像の上側のみ合焦状態となっている。また、2回目の撮影では瓶155の画像位置の画像の下側のみ合焦状態となっている。
 画像処理部121は、深度合成制御部122に制御されて、深度合成モードにおけるこれらの2回の撮影によって得た2枚の撮像画像を合成して、図16に示すように、瓶155の画像位置の全体について合焦状態となる合成画像150cを得る。図17Cに示すように、深度合成の結果、合成画像150cは、瓶155の先端側155aから下側155bまでの全域において合焦状態となっている。
 制御部120には、対象物判定部123が設けられている。対象物判定部123は、深度合成モードにおいてピント位置を変化させる範囲、即ち、合焦範囲を決定するための対象物判定を行うことができるようになっている。対象物判定部123が所定の対象物を合焦対象被写体としては判定することで、深度合成モードにおいて、例えば、合焦対象被写体のみを合焦状態とすることが可能である。なお、対象物判定部123は、後述するキャリブレーション処理に用いる対象物を判定するためにも用いられる。
 対象物判定部123は、撮像部110からの撮像画像に対する画像解析を行って、撮像画像中から合焦範囲を決定するための合焦対象被写体を判定する。例えば、対象物判定部123は、被写体に対する特徴量を用いて、合焦対象被写体を検出してもよい。例えば、被写体の特徴量の情報を記録部130の対象物特徴データベース(DB)部133に記録させてもよい。対象物判定部123は、対象物特徴DB部133から特徴量を読出し、特徴量を用いて合焦対象被写体を検出してもよい。更に、対象物判定部123は、ユーザによる被写体の指定操作によって、合焦対象被写体を決定するようにしてもよい。
 対象物特徴DB部133には、被写体距離算出時のキャリブレーションに用いるサイズが既知の対象物(以下、補正用既知対象物という)の特徴量の情報も記録されている。対象物判定部123は、対象物特徴DB部133の情報を用いて、撮像画像中の補正用既知対象物を検出することもできるようになっている。なお、補正用既知対象物の特徴量としては、形状、模様、サイズ等がある。
 ここに、特定の既知の大きさのコインや切手やメモリの入った定規など、色や大きさや形状やパターンで検出しやすいものを補正用既知対象物としてその画像の特徴情報と、大きさの情報を対応付けて記憶させておけば、適宜、撮影画像から、この特徴を有する部分を見つけ出して、その画像部分の大きさと、本来の大きさを使って、他の画像部分の実際の大きさを判定するのに用いることができる。
 対象物特徴DB部133に記録する補正用既知対象物の情報については、例えば操作部115の操作によってユーザが追加更新することができるようになっていてもよい。なお、補正用既知対象物としては、どの方向から撮像した場合でもキャリブレーションのための補正情報を簡単に求めることができるように球状の物体や円形の物体が好ましい。
 なお、対象物判定部123は、撮像画像の各部における被写体距離と撮像画像に対する画像解析結果とに基づいて、同一物体又は輪郭が連続する被写体を合焦対象被写体として検出してもよい。また、対象物判定部123は、撮像画像中の輪郭線を判定すると共に、輪郭線上の被写体距離の変化に基づいて、合焦対象被写体を判定してもよい。例えば、対象物判定部123は、被写体距離の変化が所定の閾値よりも大きい場合には、輪郭が不連続であると判定してもよい。
 制御部120にはメタデータ作成部126が設けられている。メタデータ作成部126は、通常撮影時においては、撮影されて取得された撮像画像について、特定の規格の画像ファイルのメタデータとして、被写体距離情報を含むメタデータを生成することができる。
 更に、本実施の形態においては、メタデータ作成部126は、深度合成モードにおいて生成された合成画像について、特定の規格の画像ファイルのメタデータとして、合成に用いた撮像画像毎に被写体距離情報を含むメタデータを生成することができるようになっている。
 メタデータ作成部126は、データ換算部126aを有しており、データ換算部126aは、光学系特性部114からの情報及びレンズ制御部124からのピント位置の情報を用いてピント位置を距離に換算して、被写体距離を得ることができるようになっている。
 図18は横軸にピント位置をとり縦軸に距離の逆数をとって、所定のレンズについてピント位置と距離との関係を示すグラフである。図18は所定のレンズについて、無限遠から至近までにおけるピント位置と距離の逆数との関係を3つのズーム位置毎に示している。例えば、ズーム位置がZ1の場合において、レンズをピント位置LD1の位置に繰り出した場合の距離の逆数はL1であり、ピント位置LD2の位置に繰り出した場合の距離の逆数はL2であることが分かる。図18の特性はレンズ毎に異なり、制御部120は撮像部110の光学系特性部114から光学系に関する情報を読出すことで、図18の関係を求めることができる。
 例えば、図18の各曲線は、下記(1)式によって与えられる。メタデータ作成部126のデータ換算部126aは、光学系特性部114から読出した図18の特性情報を図示しないメモリ又は記録部130に記録する。データ換算部126aは、レンズ制御部124からのピント位置の情報と光学特性情報とに基づいて、撮像画像毎に被写体距離を求めるようになっている。1/L=α×LD+β   …(1)
 なお、上記(1)式において、LDはレンズ繰り出し位置(ピント位置)を示し、α,βは所定の定数である。距離の逆数1/Lは、ピント位置LDに略々比例し、βはオフセット値、即ち、無限遠における距離の逆数に相当する。比例係数α及びオフセット値βは、レンズ毎及びズーム位置毎に異なる値となる。撮影レンズ112として交換不能なレンズを採用した場合には、オフセット値βとして比較的正確な値を得ることができる。しかし、撮影レンズ112として交換可能なレンズを採用した場合には、交換レンズ取付け時の機械精度等により、オフセット値βの精度は比較的低い場合も考えられる。また、撮影レンズ112としてズーム可変のレンズを採用した場合には、ズーム位置の検出精度が低いときには、比例係数αの精度も比較的低いこともある。そこで、データ換算部126aは、サイズが既知の補正用既知対象物を用いてキャリブレーションを行うことで、距離算出の精度を向上させるようになっている。
 図19から図21はキャリブレーション処理を説明するためのものであり、キャリブレーション用の補正用既知対象物として硬貨を用いる例を示している。図19は硬貨の種類と直径との関係を示す図表であり、図20はキャリブレーション処理のフローを示すフローチャートであり、図21はキャリブレーション時の撮影の様子を示す説明図である。
 図19に示すように、硬貨はその種類に応じて直径が規定されている。対象物判定部123によって撮像画像中に補正用既知対象物が含まれることが検出されると、データ換算部126aは、図20のステップS141において、補正用既知対象物である硬貨の直径の情報を対象物特徴DB部133から読出す。データ換算部126aは、撮像画像中における補正用既知対象物について、例えば画素数等によりサイズを求める(ステップS142)。データ換算部126aは、補正用既知対象物の画像中のサイズと、対象物特徴DB部133から読出したサイズとの比較によって、被写体距離のキャリブレーションを行うための補正情報を算出する(ステップS143)。データ換算部126aは、算出した補正情報を記録部130に記録するか又は図示しないメモリに記憶させる。データ換算部126aは、上記(1)式に従って、レンズ特性及びピント位置LDに基づいて求めた被写体距離を、補正情報を用いて補正する。
 図21は被写体距離の算出精度を向上させるために、被写体までの距離を変化させて補正情報を算出する例を示している。
 いま、ピント位置及びズーム位置を固定にした状態で補正用既知対象物である硬貨160の画像サイズが所定倍となるように、筐体101aを筐体101a’の位置に変化させて撮像画像距離を変化させるものとする。ピント位置LDがレンズ制御部124によって与えられた場合には、上記(1)式において、α,βの値を算出することができ、被写体距離を正確に求めることが可能である。
 データ換算部126aは、補正情報によって補正した被写体距離の情報を、当該撮像画像のメタデータとして生成する。メタデータ作成部126は、被写体距離情報を含むメタデータをメタデータ部132に記録するようになっている。
 次に、このように構成された実施の形態の動作について図22~図24を参照して説明する。図22は第3の実施の形態の動作を説明するためのフローチャートである。図23及び図24は特定の規格の画像ファイルに記録される内容を説明するための説明図である。図23は通常撮影時の画像ファイルを示し、図24は深度合成モード時の画像ファイルを示している。
 図22のステップS101において、制御部120は、撮影モードが指定されているか否かを判定する。撮影モードが指定されている場合には、制御部120は、ステップS102においてスルー画用の撮像画像を取得する。即ち、制御部120は、撮像部110に被写体を撮像させ、画像処理部121は撮像部110からの撮像画像に所定の画像処理を施して表示部141に与える。表示部141は、スルー画を表示画面上に表示すると共に、オートフォーカス機能及び自動露出機能により、ピント位置及び標準露出の設定を行う(ステップS103)
 制御部120は、ステップS104において、モード切換の指示があったか否かを判定する。モード切換の指示が発生した場合には、制御部120はステップS105において、指示されたモードの各種設定を行う。例えば、深度合成モードが指定された場合には、深度合成モードに必要な各種設定が行われる。
 モード切換の指示が発生していない場合には、制御部120は次のステップS106において、キャリブレーションが指示されたか否かを判定する。キャリブレーションが指示されると、制御部120はステップS107においてキャリブレーションを実行する。例えば、制御部120のデータ換算部126aは、図20のフローに従って、キャリブレーションを実行して補正情報を求める。制御部120は、ステップS107において求めた補正情報を記録部130に記録しておく。なお、キャリブレーションの効果を得るためには、ステップS107の補正情報の算出時からズーム位置を変化させることなく撮影を行った方がよい。
 次に、制御部120は、ユーザによる撮影操作の有無を判定し(ステップS108)、撮影操作が行われない場合には処理をステップS101に戻す。ユーザがレリーズスイッチにより撮影を指示した場合には、制御部120はステップS109において、現在のモードが撮影条件変更を伴うモード、例えば、深度合成モードであるか否かを判定する。
 例えば、通常撮影モードである場合には、制御部120は処理をステップS110に移行して、取得した撮像画像の画像データとメタデータとを記録部130に記録する。なお、画像データ部131に記録される画像データとメタデータ部132に記録されるメタデータとは相互に関連付けられて、撮像画像毎に画像データとメタデータとからなる画像ファイルが生成される。即ち、メタデータ作成部126は、光学系特性部114及びレンズ制御部124等から撮影情報を取得する。データ換算部126aは、光学系に関する情報及びピント位置の情報に基づいて、被写体距離を算出する。この場合には、データ換算部126aは、記録部130から補正情報を読出して、当該補正情報によって被写体距離をキャリブレーションする。データ換算部126aは、被写体距離情報を含むメタデータを記録部130に与えて記録する。
 図23はこの場合の記録部130に記録される画像データ及びメタデータの一例を説明するものである。図23は3つの画像ファイル161~163の情報を示しており、1つ目の画像ファイル161は画像データ161aとメタデータ161bとを含み、メタデータ161bは被写体距離が50mであることを示す距離情報を含む。また、2つ目の画像ファイル162は画像データ162aとメタデータ162bとを含み、メタデータ162bは被写体距離が15mであることを示す距離情報を含む。また、3つ目の画像ファイル163は画像データ163aとメタデータ163bとを含み、メタデータ163bは被写体距離が15cmであることを示す距離情報を含む。このメタデータは、特定の規格のデータであり、ユーザは画像ファイルを読出す場合に、これらのメタデータの内容を確認することができる。
 次に、ステップS105において深度合成モードの各種設定が行われているものとする。この場合には、制御部120は、ステップS109からステップS111に処理を移行する。制御部120の深度合成制御部122は、ステップS111~S115において、深度合成のための複数回の撮影を行う。先ず、深度合成制御部122は、ステップS111において、現在のピント位置及びこのピント位置での撮像画像を記録部130に記録する。深度合成モードにおいては、上述したように、ピント位置をずらしながら複数回の撮影を行う。ステップS113では、深度合成制御部122は、レンズ制御部124を制御して、ピント変更部113aによりピント位置を例えば所定量シフトさせる。深度合成制御部122は、この結果得られたシフト後の撮像画像及びそのピント位置を記録部130に記録する(ステップS114)。
 深度合成制御部122は、ステップS115において、深度合成に必要な複数回の撮影が終了したか否かを判定する。例えば、深度合成制御部122は、予め規定されたシフト量及び回数だけピント位置をシフトしながら撮影を行ってもよい。図22の例では、深度合成制御部122は、ステップS112において、対象物判定部123を制御して、合焦状態で撮影を行う対象物である合焦対象被写体を検出し、当該合焦対象被写体の全域において合焦状態が得られるまでピント位置をシフトさせるようになっている。深度合成制御部122は、合焦対象被写体の全域において合焦状態が得られたと判定した場合には、ステップS115からステップS116に処理を移行し、そうでない場合には処理をステップS113に戻して、ピント位置のシフト、撮像及び記録を繰り返す。
 深度合成制御部122は、ステップS116において、撮影された複数枚の撮像画像を合成して、合焦状態の合焦対象被写体を含む深度合成画像を生成する。深度合成モードにおいては、メタデータ作成部126は、光学系特性部114及びレンズ制御部124等から撮像画像毎に撮影情報を取得する。データ換算部126aは、光学系に関する情報及びピント位置の情報に基づいて、各撮像毎に被写体距離を算出する(ステップS117)。データ換算部126aは、記録部130から補正情報を読出して、当該補正情報によって被写体距離をキャリブレーションする。深度合成制御部122は、記録制御部125を制御して合成画像を記録部130の画像データ部131に与えて記録する。また、メタデータ作成部126は、記録制御部125を制御して、データ換算部126aによって求めた被写体距離情報を含むメタデータを記録部130に与えて記録する。なお、画像データ部131に記録される画像データとメタデータ部132に記録されるメタデータとは相互に関連付けられて、各合成画像毎に画像データとメタデータとからなる画像ファイルが生成される。
 図24はこの場合の記録部130に記録される画像データ及びメタデータの一例を説明するものである。図24は1合成画像ファイル165の情報を示しており、画像ファイル165は画像データ165aとメタデータ165b,165cとを含む。メタデータ165bは、深度合成画像の生成時の共通の撮影情報を示しており、図24の例ではシャッタ速度(SS)が1/100秒であり、絞りがFナンバー(FNo.)16であることを示している。
 また、メタデータ165cは、深度合成画像の合成に用いた撮像画像毎の撮影情報を示しており、図24の例では、深度合成に2枚の撮像画像が用いられ、各撮像画像取得時の被写体距離が、それぞれ10cm,13cmであることを示している。
 メタデータ165b,165cは、特定の規格のデータであり、ユーザは画像ファイルを読出す場合に、これらのメタデータの内容を確認することができる。即ち、本実施の形態では、ユーザは、深度合成モードにおいて取得された合成画像について、作成に用いられた各撮像画像の撮影情報を個別に認識することが可能である。
 図22のステップS101において、撮影モードが指示されていない場合には、制御部120は、ステップS121に移行して再生モードが指定されているか否かを判定する。制御部120は、再生モードが指定されていない場合には、指定された他のモードに移行する。
 再生モードが指定されると、制御部120は、ステップS122において、記録部130に記録されている画像を選択するためのアイコン一覧表示を行う。ユーザがアイコン一覧表示から所定の画像を選択すると、制御部120は、選択操作に基づく画像を選択して再生して、表示部141の表示画面上に表示させる(ステップS125)。なお、制御部120は、画像選択操作がない場合には、次のステップS124において戻る操作があったか否かを判定し、戻る操作があった場合には処理をステップS101に戻し、無かった場合には処理をステップS122に戻す。
 ステップS125における画像の表示中に、制御部120は、詳細表示の表示を指示する操作が発生したか否かを判定する(ステップS126)。制御部120は、詳細表示の表示指示が発生した場合には、処理をステップS127に移行して、メタデータ部132から読出したメタデータに基づく表示(メタデータ表示)を表示部141に表示させる。これにより、例えば、図23及び図24のメタデータ161b~163b,165b,165cの内容が表示される。この表示によって、ユーザは撮像画像についての撮影情報及び合成画像については撮像画像毎の撮影情報を把握することができる。
 詳細表示の表示指示がなかった場合又はメタデータ表示の表示中において、制御部120は、外部送信指示が発生したか否かを判定する(ステップS128)。外部送信指示が発生すると、制御部120の通信制御部129は、通信部145を制御して、選択されている画像の画像ファイルを設定された送信先に送信する。
 なお、制御部120は、外部送信指示が無い場合又は外部送信の終了後のステップS130において、戻る操作があったか否かを判定し、戻る操作があった場合には処理をステップS101に戻し、無かった場合には処理をステップS125に戻す。
 このように本実施の形態においては、複数の撮像画像を合成して合成画像を生成する場合でも、合成に用いた撮像画像毎に撮影情報等のメタデータを生成することができ、生成したメタデータをユーザが確認可能な例えば特定の規格のデータとして画像ファイルに付与することができる。これにより、合成画像であっても、撮像画像毎に撮影条件等を確認することができ、利便性に優れている。例えば、ユーザは、撮像画像毎の撮影条件等を参考にして深度合成画像生成のための撮影を行うことで、失敗の少ない撮影が可能である。
 また、本実施の形態においては、画像ファイルに付与するメタデータとして被写体距離の情報を生成して記録することができる。この被写体距離情報は、光学系の特性情報及びピント位置に基づいて算出されると共に、補正用既知対象物に基づいて算出した補正情報を用いてキャリブレーションされており、高精度に求められる。これにより、ユーザは、被写体距離を正確に把握することができる。
(変形例1)
 図25は変形例を示す説明図である。図25において図24と同一の構成要素には同一符号を付して説明を省略する。
 図22のフローでは、ステップS117等において、各ピント位置で撮影した被写体の各部までの被写体距離を求め、ステップS118ではメタデータとして撮像画像毎の被写体距離の情報を記録する例を説明した。本変形例は、被写体距離情報だけでなく、被写体距離差、即ち、被写体の各部までの距離の差の情報をメタデータとして記録するものである。この場合には、データ換算部126aは、ステップS117において、被写体の所定部分までの距離と、この距離からピント位置をシフトさせて求めた他の所定部分までの距離との差である距離差を求める。
 図25はこの場合において記録部130に記録される画像データ及びメタデータの一例を説明するものである。図25は1合成画像ファイル165の情報を示しており、画像ファイル165は画像データ165aとメタデータ165b,165dとを含む。
 メタデータ165dは、深度合成画像の合成に用いた撮像画像毎の撮影情報を示しており、図25の例では、深度合成に3枚の撮像画像が用いられ、1枚目の撮像画像取得時の被写体距離が10cmで、2枚目の撮像画像は、1枚目の撮像画像取得時の被写体距離に対して+1.5cmの距離差を有する位置にピントを合わせて撮像され、3枚目の撮像画像は、1枚目の撮像画像取得時の被写体距離に対して+3cmの距離差を有する位置にピントを合わせて撮像されたものであることを示している。
 このように本変形例では、深度合成に用いられた複数枚の撮像画像について、合焦状態となった被写体各部までの距離差を簡単に把握することができる。
 なお、この変形例では、被写体距離の情報と、距離差の情報とを求めて記録する例を説明したが、被写体距離の情報を省略して、距離差の情報のみを記録するようになっていてもよい。
(変形例2)
 図26は他の変形例を示す説明図である。本変形例は、被写体距離情報だけでなく、ピントを合わせた被写体の部位(以下、ピント部位という)の画像中の位置座標(以下、ピント部位座標という)、ピント部位間の距離の情報をメタデータとして記録するものである。例えば、データ換算部126aは、図22のステップS117において、これらの情報を求めるようになっていてもよい。深度合成制御部122は、所定のピント位置で撮像した場合における画像処理部121の画像処理結果に基づいて、当該ピント位置においてピントを合わせたピント部位のピント部位座標を求めてもよい。例えば、ピント部位座標は、画像中のx,y座標によって表してもよい。
 なお、データ換算部126aは、ピント部位間の距離を、キャリブレーションに用いた補正情報を用いて算出してもよい。例えば、補正用既知対象物として硬貨を用いた場合には、データ換算部126aは、硬貨の画像水平方向の寸法によって補正情報を求め、この補正情報を利用して画像垂直方向の寸法を算出してもよい。これにより、画像中の各部の距離から被写体の各部位間の距離を算出してもよい。
 図26はこの変形例において記録部130に記録される画像データ及びメタデータの一例を説明するものである。図26は1合成画像ファイル171の情報を示しており、画像ファイル171は画像データ171aとメタデータ172a,172bからなるメタデータ171bとを含む。メタデータ172aは、深度合成画像の生成時の共通の撮影情報を示しており、図26の例ではシャッタ速度(SS)が1/100秒であり、絞りがFナンバー(FNo.)16であることを示している。
 メタデータ172bは、深度合成画像の合成に用いた撮像画像毎の撮影情報を示しており、図26の例では、深度合成のために撮像された1枚の撮像画像は、ピント部位P1にピントが合わされて撮像されたものであり、このピント部位P1までの被写体距離は10cmであることを示している。また、メタデータ1172bは、ピント部位P1から3cm離れた部位にピントを合わせた状態で2枚目の撮像画像が撮像されることを示している。
 なお、図26のメタデータ172b中には、ピント部位P1,P2に対応するがピント部位座標について示してないが、メタデータ部132には各ピント部位のピント部位座標についても記録することができる。例えば、図22のステップS127のメタデータの再生時に、制御部120は、ピント部位座標の情報を読出して、ピント部位座標及びピント部位間の距離の表示を、画像データに基づく撮像画像の表示上に重ねて表示させてもよい。
 図26の例はこのような重畳表示を示しており、ピント部位P1,P2に対応する画像中のピント部位座標位置P1,P2の表示及びピント部位間の距離の表示173が表示されている。
 このように本変形例では、深度合成に用いられた複数枚の撮像画像について、合焦状態となった被写体のピント部位の位置及びピント部位間の距離を簡単に把握することができる。
 なお、この変形例では、被写体距離の情報と、ピント部位について座標や部位間の距離の情報等を求めて記録する例を説明したが、被写体距離の情報を省略して、ピント部位について座標や部位間の距離の情報等のみを記録するようになっていてもよい。
(第4の実施の形態)
 図27は本発明の第4の実施の形態において採用される深度合成のピント位置シフト制御を示すフローチャートである。また、図28は深度合成による撮像画像のコントラストの変化を示す説明図である。なお、本実施の形態におけるハードウェア構成は第1の実施形態と同様である。
 図22のフローでは、ステップS113のピント位置のシフト量は、予め規定された所定量であり、合成に用いる撮像は、予め規定された所定回数又はピント位置を合焦対象被写体の全域に合わせるまで行われた。これに対し、本実施の形態は、合焦対象被写体の合焦状態を判定することで、ピント位置のシフト量及びシフト回数(撮像回数)を決定するものである。
 図27のステップS151において、メタデータ作成部126は、光学系特性部114から光学特性の情報を取得する。深度合成制御部122は、現在のピント位置及び光学特性に基づいて現在のピント位置に対応する被写体距離を求める(ステップS152)。
 また、対象物判定部123は、ステップS153において、現在のピント位置から連続する輪郭、模様、色彩等によって、撮像画像中の合焦対象被写体を検出する。深度合成制御部122は、ステップS154において、合焦対象被写体について、合焦状態を判定する。例えば、深度合成制御部122は、撮像画像の画像各部のコントラストによって、合焦対象被写体の合焦状態を判定してもよい。
 いま、図17A~図17Cの瓶155が合焦対象被写体として検出された場合について説明する。図28の縦軸は瓶155の縦方向の画像位置に対応し、横軸は各画像位置におけるコントラストを示しており、左側の曲線は図17Aに対応した撮像画像のコントラストを示し、中央の曲線はピント位置を図17Bに示す瓶155の中央に変更して得た撮像画像のコントラストを示し、右側の曲線は深度合成画像のコントラストを示している。
 いま、ステップS152において、瓶155の先端位置が合焦状態となるようにピント位置が設定されたものとする。このピント位置の撮像画像によって、深度合成制御部122は、光学特性の情報や画像処理部121の画像処理等によって、図28左側のコントラストを取得する。記録部130には、合焦状態として許容可能なコントラストの限界値の情報が記録されており、深度合成制御部122は、合焦対象被写体の画像部分の全域がこの限界値よりも高いか否か、即ち、合焦対象被写体の全域が合焦状態として許容可能であるか否かを判定する(ステップS155)。
 なお、この判定は、単一の撮像画像のみについて行うのではなく、それまでに撮像された全ての撮像画像の合焦状態を考慮して行われる。従って、合焦対象被写体の全域が合焦状態として許容可能であると判定された場合には、それまでに撮像された全ての撮像画像を合成して得た深度合成画像は、合焦対象被写体の全域において合焦状態が得られるものとなる。
 深度合成制御部122は、合焦対象被写体の全域が合焦状態として許容可能である場合には、ピント位置シフト制御を終了して深度合成のための撮像を終了する。また、深度合成制御部122は、合焦対象被写体の全域が合焦状態として許容可能でない場合には、処理をステップS156に移行して、合焦対象被写体中のコントラストがこの限界値以下となる境界部分を検出する。
 深度合成制御部122は、ステップS157において、検出した境界部分にピントが合うようにピント位置を設定し、当該ピント位置における被写体距離を求めて、処理をステップS154に戻す。ステップS156において検出された境界部分が瓶155の中央位置である場合には、ステップS157において図17Bのピント位置で2回目の撮像が行われる。
 この場合において、図28の中央の曲線から、深度合成制御部122は合焦対象被写体の全域において合焦状態が許容可能であるものと判定すると、深度合成のための撮像を停止し、それまでの撮像画像を用いて深度合成画像を生成する。図28の右側の曲線はこの場合に得られる合成画像の合焦対象被写体部分のコントラストの変化を示しており、合焦対象被写体の全域において合焦状態が得られていることが分かる。
 このように本実施の形態においては、ピント位置をシフトさせながら、合焦対象被写体について合焦状態を判定し、判定結果に基づいてピント位置のシフト量を求めると共に、判定結果に基づいて合成に用いる撮像の停止を決定しており、深度合成に必要な撮像を最小の必要回数だけ行うことを可能にする。これにより、深度合成に必要な撮影が無駄に行われることを防止して処理時間を短縮することができると共に、必要な撮影が行われずに希望する深度合成画像が得られないことを防止することができる。
 なお、本実施の形態においても、上記変形例1,2を適用して、距離差の情報やピント部位について座標や、ピント部位間の距離の情報を記録するようになっていてもよい。
(第5の実施の形態)
 図29は本発明の第5の実施の形態を示すフローチャートである。図29において図22のフローと同一の手順には同一符号を付して説明を省略する。図30は第5の実施の形態の深度合成モードにおける撮影の様子を示す説明図である。また、図31Aから図31Dは深度合成モードにおいて撮影された撮像画像及び合成画像を示す説明図である。また、図32はキャリブレーションを説明するための説明図である。本実施の形態のハードウェア構成は第3の実施の形態と同様である。
 本実施の形態は、撮影時に補正用既知対象物を同時に撮影することによって、キャリブレーションのための撮影を不要にするものである。
 図30は物撮りにおける撮影の様子を示している。テーブル154上には物品(商品)である瓶155と補正用既知対象物である硬貨160が載置されている。ユーザ151は、瓶155及び硬貨160が視野範囲に入るように、右手152で撮像装置101の各回路を収納した筐体101aを把持して構える。撮影モード時には、この状態で筐体101aの背面に設けた表示部141の表示画面141a上に、スルー画が表示される。ユーザ151はこのスルー画を確認しながら、瓶155及び硬貨160の撮影を行う。
 図29のフローは図22のフローのステップS106,S107を省略すると共にステップS161を追加した点が図22のフローと異なる。深度合成モードにおいては、図29のステップS111~S115において、深度合成のために必要な複数回の撮像が行われる。
 本実施の形態においては、深度合成のための複数回の撮像が終了すると、次のステップS161において、深度合成制御部122は、キャリブレーションに用いる補正量情報を算出するために、補正用既知対象物にピントを合わせた撮像を行うようになっている。
 図31A~図31Dはこれらの撮像によって得られる画像を示しており、例えば、1回目から3回目の撮影によって得られる各撮像画像がそれぞれ図31A~図31Cに示す撮像画像157a~157cであるものとする。なお、図31A~図31Dは実線によってピントが合っている状態(合焦状態)を示し、破線によってピントが合っていない状態(非合焦状態)を示している。
 1回目の撮影では、図31Aに示すように、瓶155の先端にピントが合った撮像画像157aが得られる。なお、撮像画像157aは瓶155の先端側155aのピントは合っているが、破線部に示すように、瓶155の中央よりも下側155bではピントは合っていない。2回目の撮影では、図31Bに示すように、瓶155の中央にピントが合った撮像画像157bが得られる。なお、撮像画像157bは瓶155の中央から下側155bのピントは合っているが、破線部に示すように、瓶155の中央よりも先端側155aではピントは合っていない。これらの撮像画像157a,157bを深度合成することによって、瓶155の全域に亘ってピントがあった画像を得ることができる。
 本実施の形態では、距離を算出してキャリブレーションを行うために、3回目の撮影が行われる。3回目の撮影では、補正用既知対象物である硬貨160にピントを合わせた撮像を行う。この場合には、図31Cに示すように、硬貨160にのみピントが合い、瓶155にはピントが合っていない撮像画像157dが得られる。
 データ換算部126aは、硬貨160までの距離と硬貨160の画像中におけるサイズとに基づいて、補正情報を算出する。データ換算部126aは、算出した補正情報を記録部130に記録する(ステップS161)。データ換算部126aは、ステップS117において、撮像画像毎に求めた被写体距離のキャリブレーションを行う。
 図32は瓶155を撮影した深度合成の1回目と2回目の撮影時のピント位置がそれぞれLD1,LD2であり、硬貨160を撮影した3回目の撮影時のピント位置がLD3であることを示している。ピント位置は被写体距離の逆数に比例するので、ピント位置LD3における硬貨160の画像中のサイズと実際のサイズとに基づく補正情報を、ピント位置LD1,LD2において求めた被写体距離に適用することによって、1回目と2回目の撮像画像について正確な被写体距離を算出することができる。
 なお、図29のフローでは、深度合成のための撮影の後、キャリブレーションのための補正用既知対象物の撮影を行う例を説明したが、この順番は特に限定されない。しかし、ピント位置を変更するためのレンズ駆動における精度を考慮すると、レンズを一方方向に移動させながらピント位置を変更させた方がピント位置を高精度に制御することができるので、合焦対象被写体の各部と補正用既知対象物との距離が近い方又は遠い方から順に撮影を行った方がよい。
 他の作用は第3の実施の形態と同様である。
 このように本実施の形態においては、第3の実施の形態と同様の効果が得られると共に、キャリブレーションのための撮影操作が不要であるという利点があり、全体の撮影時間を短縮することができる。
 なお、本実施の形態においても、上記変形例1,2を適用して、距離差の情報やピント部位について座標や、ピント部位間の距離の情報を記録するようになっていてもよい。
(第6の実施の形態)
 図33は本発明の第6の実施の形態を示すブロック図である。例えば、合成処理の際に使用される撮影コマの画像データの露出条件は同じ場合もあれば、異なる場合もある。しかし、露出条件等の撮影条件の記録の仕方によっては、不適切な記録となってしまうことが考えられる。本実施の形態は、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うようにしたものである。
 以下、本実施の形態としてデジタルカメラ(以下、「カメラ」と称す)に適用した例について説明する。このカメラは、撮像部を有し、この撮像部によって被写体像を画像データに変換し、この変換された画像データに基づいて、被写体像を本体の背面に配置した表示部にスルー画表示する。撮影者はスルー画表示を観察することにより、構図やシャッタタイミングを決定する。レリーズ操作時には、画像データが記録媒体に記録される。記録媒体に記録された画像データは、再生モードを選択すると、表示部に再生表示することができる。
 また、本実施形態に係るカメラは、複数コマの画像データを取得し、この複数コマの画像データを用いて行う合成処理を行うことができる。この場合、複数の異なる露出条件で画像データを得て行う第1の画像合成処理と、同じ露出条件で複数の画像データを得て行う第2の画像合成処理とで、異なる露出条件(撮影条件)を示す単一のメタデータを生成し、画像データに関連付けて記録するようにしている。
 図33は、本実施形態に係るカメラの主として電気的構成を示すブロック図である。このカメラは、制御部201、撮像部202、記録部205、表示部206、操作部207、通信部208を有する。
 撮像部202は、光学系202a、撮像素子202b 、ピント変更部202c、露出変更部202d、および撮像位置変更部202dを有する。なお、ピント変更部202c、露出変更部202dおよび撮像位置変更部202dは、設定可能なモードに応じて、適宜、省略してもよい。
 光学系202aは、フォーカスレンズ等の光学レンズを有し、被写体像を形成することができる。光学系202aのピント位置は、後述するピント変更部202cによって移動制御される。
 撮像素子202bは、CCDイメージセンサ、CMOSイメーセンサ等のイメージセンサを有する。この撮像素子202bは、光学系202aによって被写体像が形成される位置付近に配置され、撮像制御部203bからの制御に従って、被写体像を画像データに変換し出力する。撮像素子202bは、同一の対象物に対し、撮影条件(第1の撮影条件)を切り換えて複数の撮影画像データを取得可能な画像データ取得部 として機能する。
 ピント変更部202cは、光学系202aの内のフォーカスレンズを光軸方向に移動する駆動機構および駆動回路を有する。ピント変更部202cは、撮像制御部203bからのピント合わせ信号に基づいてフォーカスレンズを合焦位置に移動させる。また、ピント変更部202cは、深度合成モードが設定された場合に、フォーカスレンズを所定の異なるピント位置に順次移動させ、それぞれのピント位置で画像データが取得される。
 露出変更部202dは、撮影時の露出条件を変更させる。露出変更部202dは、絞りおよび絞り制御回路、シャッタおよびシャッタ制御回路、ISO感度変更回路等の内の少なくとも1つを有する。すなわち、露出変更部202dは、絞り値、シャッタ速度値、およびISO感度の内の少なくとも1つを変更することにより、露出条件を変更する。また、露出変更部202dは、ハイダイナミックレンジ合成(HDR)モードが設定された場合に、所定の異なる露出条件で順次撮影が行われ、それぞれの露出条件で画像データが取得される。
 撮像位置変更部202eは、撮像素子202bを光軸と直交する面内で移動させる移動機構および移動回路を有する。撮像位置変更部202eは、超高解像合成モードが設定された場合に、撮像素子202bを光軸と直交する面内で所定の異なる撮像位置に撮像素子202bを順次移動させ、それぞれの撮像位置で画像データが取得される。
 制御部201は、CPU(Central Processing Unit)とその周辺回路およびメモリ等を有したASIC(Application Specific Integrated Circuit)で構成される。CPUはメモリに記憶されたプログラムに従って、カメラ200内の各部を制御することによってカメラの全体を実行する。制御部201は、モード制御部201b、表示制御部201c、通信制御部201d、および画像処理部203を有する。これらの各部の一部の機能は、CPUとプログラムによって実現され、また他の一部の機能は周辺回路によって実現される。
 モード制御部201b は、ユーザによって設定されたモード等に応じて、撮像制御部203b、撮影制御変更部203c、画像合成部203d等による制御を実行させる。
 表示制御部201cは、表示部206における表示の制御を行う。表示としては、撮像素子202bによって取得された画像データに基づくスルー画表示、記録部205に記録された画像の再生画像表示、メニュー画面表示等、種々の表示がある。また、記録部205に記録された際の画像表示の際には、画像データに関連して記録されているメタデータの表示を行うようにしてもよい(後述する図41A~図41C参照)。
 通信制御部201dは、通信部208を介して行う外部との無線(赤外線等を含む)通信、または有線通信の制御を行う。本実施形態においては、後述するように、記録部205に記録された画像データ等は外部装置に通信可能である(図40のS245、S247参照)。
 画像処理部203は、撮像制御部203b、撮影制御変更部203c、画像合成部203d、記録制御部203e、メタデータ作成部204を有する。
 撮像制御部203bは、撮像素子202bから画像データの取得の制御を行う。すなわち、撮像制御部203bは、撮像素子202bの光電変換時間や画像データの読出しを制御し、読み出した画像データを制御部201に出力させる。
 撮影制御変更部203cは、深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モード等の設定されたモードに応じて、ピント変更部202b、露出変更部202c、撮像位置変更部202dを制御し、設定されたモードに応じた撮影制御を実行する。
 画像合成部203dは、画像処理回路等を有し、深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モード、ノイズリダクションモード、電子手振れ防止モード等に応じて、取得した複数コマの画像データに対して、画像処理を施す。深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モードにおける画像処理については、図34Aから図36Dを用いて後述する。
 画像合成部203dは、画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部 として機能する。画像合成部203dは、画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部 として機能する。
 記録制御部203eは、画像処理部203によって画像処理が施された画像データを、記録部205に記録する際の記録制御を行う。後述するように、画像データは、メタデータ作成部204によって生成されたメタデータと関連付けられ、記録部205に記録される。画像合成モードに応じて、実施データまたは参考データのいずれかが関連付けられる(図39のS213、S219、S225参照)。
 メタデータ作成部204は、画像データに付随した情報を生成する。本実施形態においては、メタデータ作成部204は実施データ作成部204aと参考データ作成部204bを有する。実施データ作成部204aは、複数コマの画像データを取得した際の実際の露出条件に基づいてメタデータを生成する。参考データ作成部204bは、複数コマの画像データを取得した際の実際の複数の露出条件から参考となる露出条件を算出し、この露出条件に基づいてメタデータを生成する。
 メタデータ作成部204は、第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部 として機能する。また、このメタデータ作成部は、第1の画像合成を行う場合と、第2の画像合成を行う場合で、異なる露出条件(撮影条件)を示す単一のメタデータを作成する(例えば、図34D、図35D、図36D、図39のS219、S225参照)。
 メタデータ作成部 は、第1の画像合成と上記第2の画像合成を区別する情報を作成する(例えば、図41C参照)。また、メタデータ作成部 は、第1の画像合成を行った場合には画像データ取得部における露出条件に基づいて参考メタデータを作成し(例えば、図39のS219参照)、第2の画像合成を行った場合には画像データ取得部における実際の露出条件を実施メタデータとする(例えば、図39のS225参照)。
 メタデータ作成部 は、第1の画像合成部によって第1の画像合成を行った場合には、第1の画像合成によって生成された合成画像の露出効果に相当するメタデータを作成する(例えば、図36D、図39のS219参照)。メタデータ作成部 は、第2の画像合成部によって第2の画像合成を行った場合には、画像データ取得部で1コマの画像データを取得する際の露出条件に基づいてメタデータを作成する(例えば、図34D、図35D、図39のS225参照)。
 記録部205は、電気的に書き換え可能な不揮発性メモリを有する記録媒体である。記録部205には、画像データ205bと、この画像データ205bに関連付けられたメタデータ205cが記録可能である。記録部205に記録される画像データやメタデータ等は、例えば、Exif等の規格に従って記録される。
 表示部206は、カメラの背面等に配置された表示ディスプレイを有し、表示ディスプレイには、スルー画表示、再生表示、メニュー画面等、種々の画像が表示される。
 操作部207は、電源釦、レリーズ釦、再生釦、OK釦、タッチパネル等の種々の操作部材を有する。電源釦、レリーズ釦、再生釦、OK釦等の操作に応じてオンとなるスイッチを有し、操作部207は、スイッチの操作状態を検出し、制御部201に出力する。
 通信部208は、外部機器やインターネット等と通信を行うための通信回路を有する。通信部208を介して、撮像素子202bによって取得され、記録部205に記録されたメタデータ付き画像データが外部に送信される。
 次に、図34A~34Dを用いて、深度合成モードが設定された場合の撮影方法と画像合成方法について説明する。図34Aは、ユーザ210がカメラ220を用いて被写体230を、深度合成モードで撮影する様子を示す。被写体230の上部230aと下部230bは、カメラ220からの距離が異なるため、上部230aと下部230bの両方にピントを合わせるのは困難な場合がある。このような状況で、深度合成モードが設定されると、ピントの位置を変えながら複数コマを撮影し、撮影された画像内の部分を比較し、ピントの合った部分を合成してピントの合った画像を作成する。
 図34B は、撮影タイミングとピントの合っている部分を示す。時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t1~t2の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮影画像の内、黒塗りの部分F1(上部230aに相当)にピント合っている。撮影が終わると、時刻t2~t3の間に、ピント変更部202cによって光学系202aのピント位置を移動させる。
 続いて、時刻t4~t4の間に2回目の撮影がなされる。この時のシャッタ速度SSも1/100秒であり、また撮影画像の内、黒塗りの部分F2(下部230bに相当)にピント合っている。1回目および2回目に撮影された2つの撮影画像に深度合成処理を施すと、黒塗りの部分F1およびF2(上部230aおよび下部230b)にピントが合った画像を得ることができる。
 図34Cにおいて、画像241は1枚目の撮影画像を示し、この撮影により被写体230の上部230a(図34BのF1参照)にピントを合わせた画像データを取得する。次に、画像242は2枚目の撮影画像を示し、この撮影により被写体230の下部230b(図34BのF2参照)にピントを合わせた画像データを取得する。
 画像241および画像242の画像データを取得すると、次に、画像合成部203dは、両画像データを深度合成する。この深度合成処理は、画像ごとに、画像の先鋭度(コントラスト)の高い領域を抽出し、先鋭度が高い領域の画像データを合成する。これにより、上部230aおよび下部230bの両方にピントがあった画像243の画像データを生成する。深度合成処理は、単写よりも深い被写界深度の画像データを生成することができる。
 また、画像合成部203dが深度合成処理によって画像データを生成すると、メタデータ生成部204は、メタデータも生成する。深度合成を行うための1回目の撮影と、2回目の撮影と、露出は2回行われている。1回目と2回目の露出条件はいずれもシャッタ速度SSが1/100秒であり、絞りはFNo.16で同一であるので、露出データは、実施データとなる。そこで、メタデータ44としては、図34Dに示すように、この共通の露出条件である実施データを記録し、参考データは記録しない。他のユーザは、この実施データを使用することにより、深度合成画像と同様の明るさの画像を得ることができる 。
 次に、図35A~図35Dを用いて、超解像合成モードが設定された場合の撮影方法と画像合成方法について説明する。図35Aは、ユーザ210がカメラ220を用いて被写体231を、超解像合成モードで撮影する様子を示す。被写体231は、遠方にあり、通常の焦点距離で撮影しても被写体231は小さく写り、拡大表示(拡大プリント)しても十分な解像度の表示とはならない。
 このような図35Aに示す状況で、超解像合成モードが設定されると、撮像位置変更部202eは、撮像素子202bの位置を変えながら複数コマを撮影する。そして、1回目の撮影で取得した画像における画素と画素の中間位置を、2回目から4回目の撮影において撮像素子202bの位置を変えて撮影した画像を用いて、補間することにより、解像度の高い画像を合成する。超解像合成で画像245が生成されると、図35Bに示すように、拡大画像246の解像度は高く、拡大鑑賞が可能となる。
 図35Cは、超解像撮影時のタイミングチャートと撮像素子202bの移動を示す。時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t11~t12の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子202bは位置P1にある。時刻t12において撮影が終わると、撮像位置変更部202eは、時刻t13までの間に撮像素子202bを位置P2まで移動させる。
 次に、時刻t13~t14の間に2回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子202bは位置P2にある。このタイミングにおいて位置P1は破線で示しており、撮像素子202bの位置P2は図35Cに示すように、右下に所定量だけ移動している。この所定量は、画素間隔(画素ピッチ)よりも小さな値(例えば、画素ピッチの1/2)である。時刻t14において撮影が終わると、撮像位置変更部202eは、時刻t15までの間に撮像素子202bを位置P3まで移動させる。
 次に、時刻t15~t16の間に3回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子202bは位置P3にある。このタイミングにおいて位置P1は破線で示しており、撮像素子202bの位置P3は図35Cに示すように、右上に所定量だけ移動している。
 以後、時刻t17~t18において4回目の撮影がなされ、時刻t19~t20において5回目の撮影がなされる。これらタイミングでもシャッタ速度SSは1/100秒であり、また撮像素子202bは位置P4、P5と、位置P1よりも左下、左上に所定量だけ移動している。
 複数の画像データを取得すると、画像合成部203dは超解像合成処理を施す。すなわち、撮像素子202bの位置P1を基準として、画素が所定量移動した際の画像データを用いて、画素間の画素値を補間する。例えば、撮像素子202bの移動量が画素ピッチの1/2であれば、画素の前後左右1/2ピッチずれた位置の画素値を補間することができ、画素数が4倍相当の高解像の画像データとなる。
 画像合成部203dが超解像合成処理によって画像データを生成すると、メタデータ生成部204は、メタデータも生成する。超解像合成を行うために、露出は5回行われている。1回目から5回目の露出条件はいずれもシャッタ速度SSが1/100秒であり、絞りはFNo.16で同一であるので、露出データは、実施データとなる。そこで、メタデータ247としては、図35Dに示すように、この共通の露出条件である実施データを記録し、参考データは記録しない。
 すなわち、複数枚の画像データが生成されると、画像合成部203dは、超解像合成処理を施し、超解像成画像データを生成する。メタデータ作成部204は、実施データ204aとして、図35A~図35Dに示した例では、1回の撮影の際の露出条件であるシャッタ速度SS=1/100秒、また絞り値FNo.16を生成する。ここで生成されたメタデータ(実施データ204a)は、記録部205内にメタデータ205cとして画像データに関連付けて記録される。他のユーザは、この実施データを使用することにより、超解像合成画像と同様の明るさの画像を得ることができる 。
 次に、図36A~図36Dを用いて、ハイダイナミックレンジ合成処理(HDR)モードが設定された場合の撮影方法と画像合成方法について説明する。図36Aは、ユーザ210がカメラ220を用いて、被写体である人物232および桜の木233を撮影する様子を示す。これらの被写体は晴天の下にあり、桜の木233は非常に明るく、一方人物は逆光のため非常に暗くなっている。すなわち、撮像素子202bが明暗を再現できる範囲が非常に広くないと、両方の被写体の明暗を適正に表現することができない。このような場合に、HDRモードに設定して撮影を行う。
 図36Cは、HDRモードに設定されたときの撮像のタイミングチャートである。図36Aの状態で撮影する際の標準露出(適正露出)、すなわち、被写体232、233の両方を考慮した標準露出は、シャッタ速度1/100秒、絞り値FNo.16とする。HDRモードが設定されると、この標準露出よりオーバ露光となる露出条件で1回目の撮影を行い、続いて、アンダ露光となる露出条件で2回目の撮影を行う。
 本実施形態においては、図36Cに示すように、時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t21~t23の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒の2倍の露出時間(SSは2/100秒)である。続いて、時刻t24~t25の間に2回目の撮影がなされる。このときのシャッタ速度SSは1/100の1/2倍の露出時間(SSは1/200秒)である。なお、光学系202aのピント位置は1回目と2回目の撮影において同じである。
 1回目の撮影で取得した露出オーバの画像データと、2回目の撮影で取得した露出アンダの画像データを用いて、画像合成部203dはHDR合成を行い、暗部から明部までの明暗の再現に優れた画像データを生成する。このHDR合成にあたっては、それぞれの画像(被写体)で適正露出となっている部分を繋ぎ合わせることによって、画面全体で白飛びや黒つぶれがない画像データを合成する。
 図36Bは、HDR合成処理を施さない画像248と、HDR合成処理を施した画像249を示す。HDR合成処理を施していない画像248は、桜の木233は白飛びとなっており、一方人物232は黒つぶれとなっている。これに対して、HDR合成処理を施した画像249は、桜の木233および人物232は適正に明暗が表現されている。
 HDR合成処理を施した画像249のメタデータ50は、図36Bに示すように、シャッタ速度SS=1/100秒、絞りFNo.=16である。前述したように、HDR合成モードでは、露出は2回行われているが、各々異なる露出量であることから、実施データ(SS:1/50、1/200)204aを記録せず、参考データ(SS:1/100)204bを記録する(図36D参照)。
 すなわち、複数枚の画像データが生成されると、画像合成部203dは、HDR合成処理を施し、HDR合成画像データを生成する。メタデータ作成部204は、参考データ204bとして、図36A~図36Dに示した例では、HDR合成によって生成された画像の露出条件に相当するシャッタ速度SS=1/100秒、また絞り値FNo.16を生成する。ここで生成されたメタデータ(参考データ204b)は、記録部205内にメタデータ205cとして画像データに関連付けて記録される。この参考データで撮影すれば、色表現などを除けば、同様の明るさの画像を得ることができる。
 次に、図37を用いて、ノイズリダクションモード(NRモード)が設定された場合の撮影タイミングについて説明する。ISO感度を高感度に設定すると、画像にノイズが増加し、見苦しくなる。そこで、同一の露出条件で複数コマの撮影を行い、各画像の対応する画素の出力値を平均化することにより、ノイズを低減させた画像を合成することができる。
 NRモードが設定された状態で、レリーズ釦が操作され撮影が開始すると、時刻t31~t32、t33~t34、t35~t36、t37~t38、t39~t40の間で、撮影が行われる。このときの露出条件は、いずれもシャッタ速度SSは1/100秒であり、ISO感度は6400である。なお、NRモードの際の撮影回数は、適宜、最適な回数を選択すればよい。
 複数枚の画像データが生成されると、画像合成部203dは、対応する画素の画素値の平均値を算出し、NR合成画像データを生成する。メタデータ作成部204は、実施データ204aとして、図37に示した例では、各撮影の際の露出条件、すなわちシャッタ速度SSとして1/100秒、ISO感度6400を生成する。ここで生成されたメタデータ(実施データ204a)は、記録部205内にメタデータ205cとして画像データに関連付けて記録される。
 次に、図38を用いて、電子手振れ防止モードが設定された場合の撮影タイミングについて説明する。カメラを保持するユーザの手が振れていると、画像がぶれてしまい、見苦しい画像となってしまう。そこで、同一の露出条件で複数コマの撮影を行い、各画像の画素位置を手振れ量に応じてずらし、対応する画素の出力値を平均化することにより、手振れを軽減させた画像データを得ることができる。
 電子手振れ防止モードが設定された状態で、レリーズ釦が操作され撮影が開始すると、時刻t41~t42、t43~t44、t45~t46、t47~t48、t49~t50の間で、撮影が行われる。このときの露出条件は、いずれもシャッタ速度SSは1/100秒であり、ISO感度は6400である。なお、手振れ量が所定量以上の場合には(図38の時刻t43~t44の撮影参照)、手振れ補正が困難な場合が多いので、手振れ防止合成処理の対象画像から除外する。電子手振れ防止モードの際の撮影回数は、適宜、最適な回数を選択すればよい。
 複数枚の画像データが生成されると、画像合成部203dは、手振れ量を検出し、この手振れ量に応じて、画素の位置をずらして、対応する画素の画素値の平均値を算出し、電子手振れ防止画像データを生成する。手振れ量は、ジャイロ等のセンサ出力を利用してもよく、また2つの画像データの相関演算により手振れ量を算出してもよい。
 メタデータ作成部204は、実施データ204aとして、図38に示した例では、各撮影の際の露出条件、すなわちシャッタ速度SSとして1/100秒、ISO感度6400を生成する。ここで生成されたメタデータ(実施データ204a)は、記録部205内にメタデータ205cとして画像データに関連付けて記録される。
 図34Aないし図38を用いて説明したように、本実施形態においては、複数コマの露出を行い、この露出によって取得した画像データを用いて画像合成部203dが画像合成を行っている。メタデータ生成部204は、画像合成の種類に応じて、実施データ204aまたは参考データ204dのいずれかを作成し、記録部205内にメタデータ205cを記録するようにしている。
 メタデータの作成にあたっては、複数コマのそれぞれのコマでの露出条件が同じ場合には、実際に制御した露出条件を実施データ204aとして作成している。一方、複数コマのそれぞれのコマでの露出条件が異なる場合には、合成処理によって生成された画像に相当する露出条件を算出して、この露出条件を参考データ204bとして作成している。
 また、メタデータとして、メタデータ作成部204は、合成処理を区別するための情報も作成し、この合成処理を区別するための情報を記録部205に記録するようにしてもよい。この場合、メタデータ作成部204で作成したデータが、実施データであるか、参考データであるかを区別できるような情報であってもよい。
 なお、画像合成処理としては、上述した深度合成処理、超解像合成処理、HDR合成処理、NR合成処理、電子手振れ防止合成処理に限らず、例えば、比較明合成処理 、比較暗合成処理、平均加算合成処理、ライブバルブ合成処理等、複数コマの画像データを用いて合成処理を行うものであればよい。この場合、例えば、比較明合成処理の場合には、トータルの露出時間を実施データとしてメタデータとして記録すればよい。
 次に、図39および図40に示すフローチャートを用いて、本実施形態におけるカメラ制御について説明する。このフローチャートは、制御部201内のCPUがメモリに記憶されたプログラムに従って、カメラ内の各部を制御することにより、実行する。
 カメラ制御のフローに入ると、まず、撮影モードか否かを判定する(S201)。カメラのモードは、ユーザが再生モード等他のモードに設定しなければ、デフォルトとして撮影モードに設定されている。このステップでは、モードの設定状態を検出し、その検出結果に基づいて判定する。
 ステップS201における判定の結果、撮影モードであれば、次に、スルー画用撮像を行う(S203)。ここでは、撮像素子202bによって取得された画像データを取得する。この画像データは所定のフレームレートで繰り返し取得される。
 スルー画用撮像を行うと、次に、スルー画表示、ピント合わせ、標準露出を設定する(S205)。ステップS203において取得した画像データに対して、画像処理部203においてスルー画表示用の画像処理を施し、この処理された画像データに基づいて、表示部206にスルー画表示を行う。スルー画表示は所定のフレームレートで更新される。また、取得した画像データのコントラスト値を算出し、このコントラスト値がピークとなるように、光学系202aのフォーカスレンズの位置を調整する。なお、ピント合わせは、前述のコントラストAF以外にも位相差AF等、他の方法によって行ってもよい。また、画像データから輝度情報等を算出し、この輝度情報に基づいて、シャッタ速度、絞り値、ISO感度等の標準露出を設定する。
 続いて、モード切換があったか否かを判定する(S207)。操作部207の操作部材によってモードの切換を行うことができる。ここでのモードは、前述した撮影モード、再生モードの他、深度合成モード、超解像合成モード、HDR合成モード等、複数コマの露出を行い、合成処理を行うモードを含む。
 ステップS207における判定の結果、モード切換があった場合には、モード設定を行う(S209)。ここでは、操作部207によるモードに切換に応じて、モード制御部201bにおけるモードを設定する。
 ステップS209においてモード設定を行うと、またはステップS207における判定の結果、モード切換がなかった場合には、次に、レリーズスイッチが操作されたか否かを判定する(S211)。レリーズ釦が操作されると、レリーズスイッチの状態が変化する。ここでは、レリーズスイッチの状態変化に基づいて判定する。この判定の結果、レリーズスイッチが操作されていない場合には、ステップS201に戻る。
 ステップS211における判定の結果、レリーズスイッチが操作された場合には、次に、露出変更を伴うモードか否かを判定する(S213)。ここでは、最初に設定されているモード、またはステップS209において設定されたモードに基づいて判定する。露出変更を伴うモードとしては、例えば、HDR合成モードがある。また、露出変更を伴わないモードとしては、例えば、深度合成モード、超解像合成モード、ノイズリダクション(NR)モード、電子手ブレ防止モード等がある。
 ステップS213における判定の結果、露出変更を伴うモードの場合には、標準露出から長秒時、短秒時に変更して複数枚の撮影を行う(S215)。この場合は、複数コマの撮影を行う際に、それぞれのコマで露出条件が異なる場合である。例えば、図36A~図36Dを用いて説明したHDR合成モードでは、1コマ目では標準露出(ステップS205において設定)よりも露出オーバとなるように、シャッタ速度を長秒時に設定し、2コマ目では標準露出よりも露出アンダとなるようにシャッタ速度を短秒時に設定し、撮影している。
 続いて、画像合成を行う(S217)。ここでは、ステップS215において取得した複数の画像データに対して、画像合成部203dが設定されているモードに従って、画像合成処理を施す。
 画像合成を行うと、次に、画像データとメタデータ(参考露出)を記録する(S219)。ここでは、メタデータ作成部204が参考データ204bを作成する。参考データ204bは、前述したように、画像合成によって生成された画像の効果に相当する露出条件を示すデータである。この作成された参考データ204bは、ステップS217において合成された画像データに関連付けられて記録部205の画像データ205bおよびメタデータ205cとして記録される。データの記録を行うと、ステップS201に戻る。
 ステップS213に戻り、このステップでの判定の結果、露出変更を伴うモードでない場合には、標準露出でピントや撮像素子位置を変更して複数枚の撮影を行う(S221)。ここでは、設定されているモードに応じた処理を行う。例えば、深度合成モードが設定されている場合には、ピント位置を変更し、変更した複数のピント位置でそれぞれ撮影を行う。また、超解像合成モードが設定されている場合には、撮像素子202bの位置を変更し、変更した複数の位置でそれぞれ撮影を行う。このときの露出条件は、ステップS205において算出された標準露出である。
 続いて、画像合成を行う(S223)。ここでは、ステップS221において取得した複数の画像データに対して、画像合成部203dが設定されているモードに従って、画像合成処理を施す。
 画像合成を行うと、次に、画像データとメタデータ(実施露出)を記録する(S225)。ここでは、メタデータ作成部204が実施データ204aを作成する。実施データ204aは、前述したように、複数コマの撮影を行った際の各コマにおいて実際に露出制御された露出条件を示すデータである。この作成された実施データ204aは、ステップS223において合成された画像データに関連付けられて記録部205の画像データ205bおよびメタデータ205cとして記録される。データの記録を行うと、ステップS201に戻る。
 ステップS201に戻り、この判定の結果、撮影モードでない場合には、再生モードか否かを判定する(S231)。ユーザが操作部207の再生釦等の操作部材を操作することにより、再生モードを設定することができる。このステップにおける判定の結果、再生モードでない場合には、その他のモードに移行する。
 ステップS231における判定の結果、再生モードの場合には、次に、アイコン一覧を表示する(S233)。ここでは、記録部205に記録されている画像データのサムネイルデータに基づいて、記録画像のアイコンを表示部206に表示する。
 次に、画像が選択されたか否かについて判定する(S235)。ユーザは表示部206に表示された一覧表示されたアイコンの中から拡大表示したいアイコンをタッチ、または十字釦等によって選択する。このステップでは、ユーザによってアイコンが選択されたか否かを判定する。
 ステップS235における判定の結果、画像が選択されていない場合には、戻るか否かを判定する(S237)。ユーザが再生モードを終了したい場合には、操作部207の内の戻る釦を操作するか、戻るアイコンをクリックする(総称して戻る操作)。ここでは、戻る操作がなされたか否かに基づいて判定する。この判定の結果、戻る操作がなされていない場合には、ステップS233に戻る。一方、戻る操作がなされた場合には、ステップS201に戻る。
 ステップS235における判定の結果、画像が選択された場合には、拡大表示を行う(S239)。ここでは、選択されたアイコンの画像データを読出し、表示部206に拡大表示を行う。
 拡大表示を行うと、次に、詳細表示を行うか否かの判定を行う(S241)。ユーザが選択した画像に関連付けて記録されているメタデータを表示させたい場合には、操作部207の内の詳細釦を操作するか又は詳細アイコンをクリックする(総称して詳細表示操作)。ここでは、詳細表示操作がなされたか否かに基づいて判定する。
 ステップS241における判定の結果、詳細表示操作がなされていた場合には、メタデータを表示する(S243)。ここでは、画像データに関連付けて記録されたメタデータ205cを記録部205から読み出し、表示部206に表示する。表示例については図41A~図41Cを用いて後述する。
 ステップS243においてメタデータを表示すると、またはステップS241における判定の結果、詳細表示操作がなされていない場合には、外部送信か否かを判定する(S245)。ユーザが記録部205に記録された画像データを、インターネット等を介して、無線また有線通信等によって送信した場合には、操作部207の送信釦を操作し、または送信アイコンをタッチ操作する(総称して外部送信操作)。このステップでは、外部送信操作がなされたか否かに基づいて判定する。
 ステップS245における判定の結果、外部送信操作がなされた場合には、設定先に送信する(S247)。ここでは、設定された送信先に、ステップS235において選択された画像の画像データおよび関連付けされたメタデータを送信する。送信先では、受信した画像データに基づく画像およびメタデータを表示させることができる。この時の表示例については図41A~図41Cを用いて後述する。
 ステップS247において設定先に送信すると、またはステップS245における判定の結果、外部送信操作がされていない場合には、戻るか否かを判定する(S249)。ユーザが再生モードを終了したい場合には、戻る操作を行う。ここでは、この戻る操作がなされたか否かに基づいて判定する。この判定の結果、戻る操作がなされていない場合には、ステップS239に戻る。一方、戻る操作がなされた場合には、ステップS201に戻る。
 このように、本実施形態におけるカメラ制御のフローにおいては、レリーズ操作がなされた際に、露出変更を伴うモードが設定されている場合には(S213Yes)、メタデータとして、参考データを作成し記録している(S219)。一方、露出変更を伴わないモードが設定されている場合には(S213No)、メタデータとして実施データを作成し記録している(S225)。すなわち、露出変更を伴わない場合には実際に露出制御された制御値が記録され、一方、露出変更を伴う場合には合成画像の効果に応じた露出制御値が記録されることから、ユーザがメタデータを見た際に、どのような制御がなされたかが分かり易いという効果がある。
 なお、ステップS219およびS225においては、メタデータとしては、参考データおよび実施データのいずれか一方のみを作成し、記録するようにしていた。いずれか一方のみを記録することにより、メタデータ205cの容量を小さくすることができ、また単純化することにより、処理が容易となる。しかし、ステップS219およびS225において、参考データおよび実施データの両方を作成し、これをメタデータ205cとして記録するようにしてもよい。この場合には、例えば、メタデータの記録領域の内、Exif規格のメーカノート のように、製造元が記録可能としている領域を利用してもよい。
 次に、図41A~図41Cを用いて、メタデータの表示について説明する。この表示は、図40のステップS243、およびステップS247で送信された送信先で行われる。
 図41Aは、図34A~図34Dで示したような深度合成モードが設定された場合の表示例である。この場合には、深度合成された画像243と、実施データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。図41Bは、図35A~図35Dで示したような超解像合成モードが設定された場合の表示例である。この場合には、深度合成された画像246と、実施データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。
 図41Cは、図36A~図36Dで示したようなHDR合成モードが設定された場合の表示例である。この場合には、HDR合成された画像249と、参考データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。なお、図41Cにおいては、参考データであることを明示するために、「参考」が表示される。このために、メタデータ205cに、参考データであることを示す情報も併せて記録しておく。
 このように、記録された画像に加えて、メタデータを表示することにより、撮影画像の露出条件を確認することが簡単にできる。また、この表示の際に、露出変更を伴わない場合には各コマを撮影した際の実際の露出値が表示され、露出変更を伴う場合には、合成画像の効果に相当する露出値が表示されるようしたので、分かり易い表示となる。撮影者以外の他のユーザは、このメタデータに基づく露出値を参考にすることにより、類似の写真を撮影することが容易となる。
 なお、図41A~図41Cにおいては、参考データの場合のみ、「参考」と表示したが、この表示を消去しておいてもよい。また、実施データの場合にも、実施データであることを明示するような表示を付加してもよい。また、図41A~図41Cにおいては、メタデータを画像の外側で表示していたが、画像に重畳して表示するようにしてもよい。
 以上説明したように、本実施の形態においては、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し(例えば、図39のS203参照)、異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い(例えば、図39のS217参照)、同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い(例えば、図39のS223参照)、第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、第1の画像合成を行う場合と、第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する(例えば、図34D、図35D、図36D、図39のS219、S225参照)。このため、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うことができる。すなわち、複数の撮影画像データを取得する際に、露出変更を行っている場合と露出変更を行わない場合で、異なる露出条件を示すようにしており、画像合成処理に応じた情報の表示が可能となる。
 なお、本実施の形態においては、モードが露出変更を伴うか否かを判定し(図39のS213参照)、この結果に応じて、メタデータとして参考データまたは実施データを記録するようにしている。しかし、モードが露出変更を伴うか否かに限らず、例えば、撮影距離の変更を伴うか否か等、撮影条件に応じて、メタデータの種類を適宜決定するようにしてもよい。この場合には、画像データ取得部は、同一の対象物に対し、第1の撮影条件を切り換えて複数の撮影画像データを取得可能であり、第1画像合成部は画像データ取得部によって、第2の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行い、第2画像合成部は画像データ取得部によって、第2の撮影条件を変えず、第3の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行い、メタデータ作成部は、第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成する際に、第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる撮影条件を示す単一のメタデータを作成すればよい。
 また、本実施の形態においては、ピント変更部202c、露出変更部202d、撮像位置変更部202e等は、CPUおよびメモリに記憶したプログラムによってソフトウエアでその機能を実現してもよく、また制御部201内のCPUとメモリに記憶したプログラムでその機能を実現するようにしても勿論かまわない。
 また、本実施の形態においては、撮像制御部203b、撮影制御変更部203c等の各部の機能の全部または一部をCPU(Central Processing Unit)と周辺回路およびプログラムによって実現していたが、DSP(Digital Signal Processor)等のプログラムコードで実行される回路で実現するようにしてもよく、ヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウェア構成でもよく、またハードウェア回路によって実行するようにしても勿論かまわない。
(第7の実施の形態)
 図42は本発明の第7の実施の形態を示すブロック図である。深度合成処理の際には、撮影距離を変えて取得した複数の画像を用いて画像処理を行うために、個々の画像の被写界深度と合成された画像の被写界深度が異なっている。本実施の形態は、画像合成処理の効果が分かりやすい情報を作成し、画像データに関連付けを行うようにしたものである。
 以下、本実施の形態としてデジタルカメラ(以下、「カメラ」と称す)に適用した例について説明する。このカメラは、撮像部を有し、この撮像部によって被写体像を画像データに変換し、この変換された画像データに基づいて、被写体像を本体の背面に配置した表示部にスルー画表示する。撮影者はスルー画表示を観察することにより、構図やシャッタタイミングを決定する。レリーズ操作時には、画像データが記録媒体に記録される。記録媒体に記録された画像データは、再生モードを選択すると、表示部に再生表示することができる。
 また、本実施形態に係るカメラは、複数コマの画像データを取得し、この複数コマの画像データを用いて行う合成処理を行うことができる。深度合成モードが設定されている場合、撮影レンズのピント位置を移動させては撮影を行い、複数のピント位置で撮影を繰り返して行うことにより、複数コマの画像データを取得し、深度合成処理を行う(後述する図51等参照)。また、複数のピント位置の少なくとも一部を用いて、深度合成処理された画像の被写界深度に相当する換算FNoを算出し(後述する図48のS325,S363、式(6)等参照)、この換算FNoに基づく換算データを画像データと共に記録する。このように、その画像処理が行われた結果に現れる効果を効果換算データとして記載することで、その機能の効果を画像と共に積極的に伝えることが可能となる。ここではFNoを例にしているが、同様の考え方は、シャッタースピードや、撮像センサの感度などにも活用することが可能である。また、画素を少しずつ分割して使うような超解像のような技術でも利用可能である。
 図42は、本実施形態に係るカメラの主として電気的構成を示すブロック図である。このカメラは、制御部301、撮像部302、記録部305、表示部306、操作部307、通信部308を有する。
 撮像部302は、光学系302a、撮像素子302b、ピント変更部302c、露出変更部302d、および撮像位置変更部302dを有する。なお、ピント変更部302c、露出変更部302dおよび撮像位置変更部302dは、設定可能なモードに応じて、適宜、省略してもよい。
 光学系302aは、フォーカスレンズ等の光学レンズを有し、被写体像を形成することができる。光学系302aのピント位置は、後述するピント変更部302cによって移動制御される。
 撮像素子302bは、CCDイメージセンサ、CMOSイメーセンサ等のイメージセンサを有する。この撮像素子302bは、光学系302aによって被写体像が形成される位置付近に配置され、撮像制御部303bからの制御に従って、被写体像を画像データに変換し出力する。撮像素子302bは、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部 として機能する。また、画像データ取得部 は、露出条件を異ならせて複数の撮影画像データを取得可能である(例えば、図45A~図45DのHDRモード、図48のS315等参照)。
 ピント変更部302cは、光学系302aの内のフォーカスレンズを光軸方向に移動する駆動機構および駆動回路を有する。ピント変更部302cは、撮像制御部303bからのピント合わせ信号に基づいてフォーカスレンズを合焦位置に移動させる。また、ピント変更部302cは、深度合成モードが設定された場合に、現在のフォーカスレンズのピントを検出し、フォーカスレンズを所定の異なるピント位置に順次移動させる。それぞれのピント位置で撮像素子302bが画像データを取得する。
 露出変更部302dは、撮影時の露出条件を変更させる。露出変更部302dは、絞りおよび絞り制御回路、シャッタおよびシャッタ制御回路、ISO感度変更回路等の内の少なくとも1つを有し、またこれらの露出制御値を検出する。すなわち、露出変更部302dは、絞り値、シャッタ速度値、およびISO感度の内の少なくとも1つを変更することにより、露出条件を変更する。また、露出変更部302dは、ハイダイナミックレンジ合成(HDR)モードが設定された場合に、所定の異なる露出条件で順次撮影を行う。それぞれの露出条件で画像データが取得される。
 撮像位置変更部302eは、撮像素子302bを光軸と直交する面内で移動させる移動機構および移動回路を有する。撮像位置変更部302eは、超高解像合成モードが設定された場合に、撮像素子302bを光学系302aの光軸と直交する面内で所定の異なる撮像位置に撮像素子302bを順次移動させ、それぞれの撮像位置で画像データが取得される。
 制御部301は、CPU(Central Processing Unit)とその周辺回路およびメモリ等を有したASIC(Application Specific Integrated Circuit)で構成される。CPUはメモリに記憶されたプログラムに従って、カメラ300内の各部を制御することによってカメラの全体を実行する。制御部301は、モード制御部301b、表示制御部301c、通信制御部301d、および画像処理部303を有する。これらの各部の一部の機能は、CPUとプログラムによって実現され、また他の一部の機能は周辺回路によって実現される。
 モード制御部301bは、ユーザによって設定されたモード等に応じて、撮像制御部303b、撮影制御変更部303c、画像合成部303d等による制御を実行させる。
 表示制御部301cは、表示部306における表示の制御を行う。表示としては、撮像素子302bによって取得された画像データに基づくスルー画表示、記録部305に記録された画像の再生画像表示、メニュー画面表示等、種々の表示がある。また、記録部305に記録された際の画像表示の際には、画像データに関連して記録されているメタデータの表示を行うようにしてもよい(後述する図50A~図50C参照)。
 通信制御部301dは、通信部308を介して行う外部との無線(赤外線等を含む)通信、または有線通信の制御を行う。本実施形態においては、後述するように、記録部305に記録された画像データ等は外部装置に通信可能である(図49のS345、S347参照)。
 画像処理部303は、撮像制御部303b、撮影制御変更部303c、画像合成部303d、記録制御部303e、メタデータ作成部304を有する。
 撮像制御部303bは、撮像制御回路を有し、撮像素子302bから画像データの取得の制御を行う。すなわち、撮像制御部303bは、撮像素子302bの光電変換時間や画像データの読出しを制御し、読み出した画像データを制御部301に出力させる。
 撮影制御変更部303cは、深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モード等の設定されたモードに応じて、ピント変更部302b、露出変更部302c、撮像位置変更部302dを制御し、設定されたモードに応じた撮影制御を実行する。
 画像合成部303dは、画像合成回路や画像処理回路等を有し、深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モード、ノイズリダクションモード、電子手振れ防止モード等に応じて、取得した複数コマの画像データに対して、画像処理を施す。深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モードにおける画像処理については、図43Aないし図45Dを用いて後述する。
 画像合成部303dは、画像データ取得部によって、異なるピント位置で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部 として機能する(例えば、図43A~図43D、図48のS323、図51に示す深度合成等参照)。また、画像合成部303dは、画像データ取得部によって、同一の露出条件、かつ異なるピント位置で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部 として機能する(例えば、図43A~図43D、図48のS323、図51に示す深度合成等参照)。
 画像合成部303dは、画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部 として機能する(例えば、図44A~図44Dの超解像合成、図46のノイズリダクション合成、図47の電子手振れ防止合成等参照)。また、画像合成部303dは、画像データ取得部によって、同一の露出条件、かつピント位置を異ならせることなく複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部 として機能する(例えば、図44A~図44Dの超解像合成、図46のノイズリダクション合成、図47の電子手振れ防止合成等参照)。
 画像合成部303dは、画像データ取得部によって異なる露出条件で取得した複数の撮影画像データを用いて第3の画像合成を行う第3画像合成部として機能する(例えば、図45A~図45DのHDRモード、図48のS315)。
 記録制御部303eは、画像処理部303によって画像処理が施された画像データを、記録部305に記録する際の記録制御を行う。後述するように、画像データは、メタデータ作成部304によって生成されたメタデータと関連付けられ、記録部305に記録される。画像合成モードに応じて、実施データ、参考データ、または換算データ のいずれかが関連付けられる(図48のS313、S319、S325、S329参照)。
 メタデータ作成部304は、画像データに付随した情報を生成する。本実施形態においては、メタデータ作成部304は実施データ作成部304a、参考データ作成部304b、および換算データ作成部304cをそれぞれ作成する。実施データ作成部304aは、複数コマの画像データを取得した際の実際の撮影(露出)条件に基づいてメタデータを生成する。
 参考データ作成部304bは、複数コマの画像データを取得した際の実際の複数の撮影(露出)条件から参考となる撮影(露出)条件を算出し、この撮影(露出)条件に基づいてメタデータを生成する。換算データ作成部304cは、複数コマの画像データを取得した際の実際の撮影(露出)条件から、合成された画像の撮影(露出)データの換算値を生成する。
 例えば、本実施形態においては、HDR合成モードが設定された際には、この実際の露出データに基づいて算出された参考データを参考にして撮影を行うことにより、類似の画像で撮影することが可能である。一方、深度合成モード設定時の換算データは、単なる換算値であることから、この換算データに応じた露出データ(絞り値、FNo)で撮影しても、類似の画像で撮影できない。ただし、画像が有する効果に関しては、分かりやすく伝えることが出来、同様の撮影を行う時に、通常の設定では出来ない事から、こうした機能による補助が必要であることが伝えられる。
 メタデータ作成部304は、第1画像合成部によって合成された合成画像データにおける絞り値の換算データを算出し、換算データに基づいてメタデータを作成するメタデータ作成部 として機能する(例えば、図48のS325、図51等参照)。このメタデータ作成部 は、光学系の焦点距離f、許容錯乱円径δ、近点距離Sおよび遠点距離Sに基づいて上記換算データを算出する(例えば、後述する(6)式参照)。また、 換算データは、換算絞り値Fであり、該Fを、 F=f(S-S)/2δS によって算出する(例えば、後述する(6)式参照)。メタデータ作成部 は、画像データ取得部によって行った撮影の回数と、各撮影時の絞り値に基づいて、換算絞り値Fを算出する(例えば、図51のS363参照)。
 メタデータ作成部304は、第2画像合成部により第2の画像合成を行う場合には、複数枚の撮影を行った際の同一の露出条件に基づいて、メタデータを生成するメタデータ作成部 として機能する(例えば、図48のS327~S329参照)。また、メタデータ作成部304は、第1の画像合成を行う場合と、第3の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成するメタデータ作成部 として機能する(例えば、図48のS325、S329参照)。
 メタデータ作成部304は、第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部 として機能し、このメタデータ作成部は、第1の画像合成を行う場合は、換算した露出条件に基づいてメタデータを作成し(例えば、図48のS325参照)、一方第2の画像合成を行う場合は、複数の撮影時における同一の露出条件を用いてメタデータを作成する(例えば、図48のS329参照)。
 記録部305は、電気的に書き換え可能な不揮発性メモリを有する記録媒体である。記録部305には、画像データ305bと、この画像データ305bに関連付けられたメタデータ305cが記録可能である。記録部305に記録される画像データやメタデータ等は、例えば、Exif等の規格に従って記録される。
 表示部306は、カメラの背面等に配置された表示ディスプレイを有し、表示ディスプレイには、スルー画表示、再生表示、メニュー画面等、種々の画像が表示される。
 操作部307は、電源釦、レリーズ釦、再生釦、OK釦、タッチパネル等の種々の操作部材を有する。電源釦、レリーズ釦、再生釦、OK釦等の操作に応じてオンとなるスイッチを有し、操作部307は、スイッチの操作状態を検出し、制御部301に出力する。
 通信部308は、外部機器やインターネット等と通信を行うための通信回路を有する。通信部308を介して、撮像素子302bによって取得され、記録部305に記録されたメタデータ付き画像データが外部に送信される。
 次に、図43A~図43Dを用いて、深度合成モードが設定された場合の撮影方法と画像合成方法について説明する。図43Aは、ユーザ310がカメラ320を用いて被写体330を、深度合成モードで撮影する様子を示す。被写体330の上部330aと下部330bは、カメラ320からの距離が異なるため、上部330aと下部330bの両方にピントを合わせるのは困難な場合がある。このような状況で、深度合成モードが設定されると、ピントの位置を変えながら複数コマを撮影し、撮影された画像内の部分を比較し、ピントの合った部分を合成してピントの合った画像を作成する。
 図43Bは、撮影タイミングとピントの合っている部分を示す。時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t1~t2の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒、絞り値FNoは16であり、また撮影画像の内、黒塗りの部分F1(上部330aに相当)にピント合っている。撮影が終わると、時刻t2~t3の間に、ピント変更部302cによって光学系302aのピント位置を移動させる。
 続いて、時刻t4~t4の間に2回目の撮影がなされる。この時のシャッタ速度SSも1/100秒であり、絞り値FNoは16であり、また撮影画像の内、黒塗りの部分F2(下部330bに相当)にピント合っている。1回目および2回目に撮影された2つの撮影画像に深度合成処理を施すと、黒塗りの部分F1およびF2(上部330aおよび下部330b)にピントが合った画像を得ることができる。
 図43Cにおいて、画像341は1枚目の撮影画像を示し、この撮影により被写体330の上部330a(図43BのF1参照)にピントを合わせた画像データを取得する。次に、画像342は2枚目の撮影画像を示し、この撮影により被写体330の下部330b(図43BのF2参照)にピントを合わせた画像データを取得する。
 画像341および画像342の画像データを取得すると、次に、画像合成部303dは、両画像データを深度合成する。この深度合成処理は、画像ごとに、画像の先鋭度(コントラスト)の高い領域を抽出し、先鋭度が高い領域の画像データを合成する。これにより、上部330aおよび下部330bの両方にピントがあった画像343の画像データを生成する。深度合成処理を行うことにより、単写よりも深い被写界深度の画像データを生成することができる。
 また、画像合成部303dが深度合成処理によって画像データを生成すると、メタデータ生成部304は、メタデータも生成する。深度合成を行うための1回目の撮影と、2回目の撮影と、露出は2回行われている。1回目と2回目の露出条件はいずれもシャッタ速度SSが1/100秒であり、絞りはFNo.16で同一である。深度合成することにより、実際に撮影された個々の画像の被写界深度とは異なり、深度が深くなる。そこで、メタデータ作成部304は、2つの撮影のデータを用いて、換算絞り値(FNo)を算出し、これを換算データ304cとする。メタデータ344としては、図43Dに示すように、絞り値の換算データを記録し、実施データおよび参考データは記録しない。ユーザは、換算された絞り値を知ることができる。
 次に、図44A~図44Dを用いて、超解像合成モードが設定された場合の撮影方法と画像合成方法について説明する。図44Aは、ユーザ310がカメラ320を用いて被写体331を、超解像合成モードで撮影する様子を示す。被写体331は、遠方にあり、通常の焦点距離で撮影しても被写体331は小さく写り、拡大表示(拡大プリント)しても十分な解像度の表示とはならない。
 このような図44Aに示す状況で、超解像合成モードが設定されると、撮像位置変更部302eは、光学系302aの光軸と直交する面内で撮像素子302bの位置を変えながら複数コマを撮影する。そして、1回目の撮影で取得した画像における画素と画素の中間位置を、2回目から4回目の撮影において撮像素子302bの位置を変えて撮影した画像を用いて、補間により画像合成を行う。この画像合成により、実質的に画素数が増加したことになり、解像度の高い画像が生成される。超解像合成で画像345が生成されると、図44Bに示すように、拡大画像346の解像度は高く、拡大鑑賞が可能となる。また、メタデータ347としては、シャッタ速度SS、絞りFNoの他に、換算画素数が記録される。
 図44Cは、超解像撮影時のタイミングチャートと撮像素子302bの移動を示す。時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t11~t12の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子302bは位置P1にある。時刻t12において撮影が終わると、撮像位置変更部302eは、時刻t13までの間に撮像素子302bを位置P2まで移動させる。
 次に、時刻t13~t14の間に2回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子302bは位置P2にある。このタイミングにおいて位置P1は破線で示しており、撮像素子302bの位置P2は図44Cに示すように、右下に所定量だけ移動している。この所定量は、画素間隔(画素ピッチ)よりも小さな値(例えば、画素ピッチの1/2)である。時刻t14において撮影が終わると、撮像位置変更部302eは、時刻t15までの間に撮像素子302bを位置P3まで移動させる。
 次に、時刻t15~t16の間に3回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子302bは位置P3にある。このタイミングにおいて位置P1は破線で示しており、撮像素子302bの位置P3は図44Cに示すように、右上に所定量だけ移動している。
 以後、時刻t17~t18において4回目の撮影がなされ、時刻t19~t20において5回目の撮影がなされる。これらタイミングでもシャッタ速度SSは1/100秒であり、また撮像素子302bは位置P4、P5と、位置P1よりも左下、左上に所定量だけ移動している。
 複数の画像データを取得すると、画像合成部303dは超解像合成処理を施す。すなわち、撮像素子302bの位置P1を基準として、画素が所定量移動した際の画像データを用いて、画素間の画素値を補間して合成処理する。例えば、撮像素子302bの移動量が画素ピッチの1/2であれば、画素の前後左右1/2ピッチずれた位置の画素値を補間することができ、画素数が所定数倍(例えば、1.5倍)相当の高解像の画像データとなる。この所定数は、超解像合成処理の際の補間演算のやり方により、異ならせることができる。
 画像合成部303dが超解像合成処理によって画像データを生成すると、メタデータ生成部304は、メタデータも生成する。超解像合成を行うために、撮像素子302bの位置をずらしながら撮影を行い、露出は5回行われている。1回目から5回目の露出条件はいずれもシャッタ速度SSが1/100秒であり、絞りはFNo.16で同一であるので、露出データは、実施データとなる。そこで、メタデータ347としては、図44Dに示すように、この共通の露出条件である実施データを記録し、参考データや換算データは記録しない。
 すなわち、複数枚の画像データが生成されると、画像合成部303dは、超解像合成処理を施し、超解像成画像データを生成する。メタデータ作成部304は、実施データ304aとして、図44A~図44Dに示した例では、1回の撮影の際の露出条件であるシャッタ速度SS=1/100秒、また絞り値FNo.16を生成する。ここで生成されたメタデータ(実施データ304a)は、記録部305内にメタデータ305cとして画像データに関連付けて記録される。他のユーザは、この実施データを使用することにより、超解像合成画像と同様の明るさの画像を得ることができる。なお、本実施形態においては、複数の画像データを用いて超解像合成を行うことにより、画素数が所定数倍、増加したような画像データを合成している。そこで、メタデータ347としては、所定数倍増加した画素数を換算データとして記録し、実施データおよび参考データは記録しないようにしてもよい。
 次に、図45A~図45Dを用いて、ハイダイナミックレンジ合成処理(HDR)モードが設定された場合の撮影方法と画像合成方法について説明する。図45Aは、ユーザ310がカメラ320を用いて、被写体である人物332および桜の木333を撮影する様子を示す。これらの被写体は晴天の下にあり、桜の木333は非常に明るく、一方人物は逆光のため非常に暗くなっている。すなわち、撮像素子302bが明暗を再現できる範囲が非常に広くないと、両方の被写体の明暗を適正に表現することができない。このような場合に、HDRモードに設定して撮影を行う。
 図45Cは、HDRモードに設定されたときの撮影のタイミングチャートである。図45Aの状態で撮影する際の標準露出(適正露出)、すなわち、被写体332、333の両方を考慮した標準露出は、シャッタ速度1/100秒、絞り値FNo=16とする。HDRモードが設定されると、この標準露出よりオーバ露光となる露出条件で1回目の撮影を行い、続いて、アンダ露光となる露出条件で2回目の撮影を行う。
 本実施形態においては、図45Cに示すように、時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t21~t23の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒の2倍の露出時間(SSは2/100秒)である。続いて、時刻t24~t25の間に2回目の撮影がなされる。このときのシャッタ速度SSは1/100の1/2倍の露出時間(SSは1/200秒)である。なお、光学系302aのピント位置は1回目と2回目の撮影において同じである。
 1回目の撮影で取得した露出オーバの画像データと、2回目の撮影で取得した露出アンダの画像データを用いて、画像合成部303dはHDR合成を行い、暗部から明部までの明暗の再現に優れた画像データを生成する。このHDR合成にあたっては、それぞれの画像(被写体)で適正露出となっている部分を繋ぎ合わせることによって、画面全体で白飛びや黒つぶれがない画像データを合成する。
 図45Bは、HDR合成処理を施さない画像48と、HDR合成処理を施した画像349を示す。HDR合成処理を施していない画像348は、桜の木333は白飛びとなっており、一方人物332は黒つぶれとなっている。これに対して、HDR合成処理を施した画像349は、桜の木333および人物332は適正に明暗が表現されている。
 HDR合成処理を施した画像349のメタデータ350は、図45Bに示すように、シャッタ速度SS=1/100秒、絞り値FNo=16である。前述したように、HDR合成モードでは、露出は2回行われているが、各々異なる露出量であることから、メタデータ350としては、実施データ(SS:1/50、1/200)104aおよび換算データ304cを記録せず、参考データ(SS:1/100)304bを記録する(図45D参照)。
 すなわち、複数枚の画像データが生成されると、画像合成部303dは、HDR合成処理を施し、HDR合成画像データを生成する。メタデータ作成部304は、参考データ304bとして、図45A~図45Dに示した例では、HDR合成によって生成された画像の露出条件に相当するシャッタ速度SS=1/100秒、また絞り値FNo=16を生成する。ここで生成されたメタデータ(参考データ304b)は、記録部305内にメタデータ305cとして画像データに関連付けて記録される。この参考データで撮影すれば、色表現などを除けば、同様の明るさの画像を得ることができる。
 次に、図46を用いて、ノイズリダクションモード(NRモード)が設定された場合の撮影タイミングについて説明する。ISO感度を高感度に設定すると、画像にノイズが増加し、見苦しくなる。そこで、同一の露出条件で複数コマの撮影を行い、各画像の対応する画素の出力値を平均化することにより、ノイズを低減させた画像を合成することができる。
 NRモードが設定された状態で、レリーズ釦が操作され撮影が開始すると、時刻t31~t32、t33~t34、t35~t36、t37~t38、t39~t40の間で、撮影が行われる。このときの露出条件は、いずれもシャッタ速度SSは1/100秒であり、ISO感度は6400である。なお、NRモードの際の撮影回数は、適宜、最適な回数を選択すればよい。
 複数枚の画像データが生成されると、画像合成部303dは、対応する画素の画素値の平均値を算出し、NR合成画像データを生成する。メタデータ作成部304は、実施データ304aとして、図46に示した例では、各撮影の際の露出条件、すなわちシャッタ速度SSとして1/100秒、ISO感度6400を生成する。ここで生成されたメタデータ(実施データ304a)は、記録部305内にメタデータ305cとして画像データに関連付けて記録される。なお、NR合成画像データは、ノイズが軽減されており、メタデータ作成部304は、この軽減されたISO感度に応じた換算ISO感度を算出し、実施データ304aではなく、換算データ304cを記録部305にメタデータとして記録するようにしてもよい。
 次に、図47を用いて、電子手振れ防止モードが設定された場合の撮影タイミングについて説明する。カメラを保持するユーザの手が振れていると、画像がぶれてしまい、見苦しい画像となってしまう。そこで、同一の露出条件で複数コマの撮影を行い、各画像の画素位置を手振れ量に応じてずらし、対応する画素の出力値を平均化することにより、手振れを軽減させた画像データを得ることができる。
 電子手振れ防止モードが設定された状態で、レリーズ釦が操作され撮影が開始すると、時刻t41~t42、t43~t44、t45~t46、t47~t48、t49~t50の間で、撮影が行われる。このときの露出条件は、いずれもシャッタ速度SSは1/100秒であり、ISO感度は6400である。なお、手振れ量が所定量以上の場合には(図47の時刻t43~t44の撮影参照)、手振れ補正が困難な場合が多いので、手振れ防止合成処理の対象画像から除外する。電子手振れ防止モードの際の撮影回数は、適宜、最適な回数を選択すればよい。
 複数枚の画像データが生成されると、画像合成部303dは、手振れ量を検出し、この手振れ量に応じて、画素の位置をずらして、対応する画素の画素値の平均値を算出し、電子手振れ防止画像データを生成する。手振れ量は、ジャイロ等のセンサ出力を利用してもよく、また2つの画像データの相関演算により手振れ量を算出してもよい。
 メタデータ作成部304は、実施データ304aとして、図47に示した例では、各撮影の際の露出条件、すなわちシャッタ速度SSとして1/100秒、ISO感度6400を生成する。ここで生成されたメタデータ(実施データ304a)は、記録部305内にメタデータ305cとして画像データに関連付けて記録される。
 図43Aないし図47を用いて説明したように、本実施形態においては、複数コマの露出を行い、この露出によって取得した画像データを用いて画像合成部303dが画像合成を行っている。メタデータ生成部304は、画像合成の種類に応じて、実施データ304a、参考データ304d、換算データ304cのいずれかを作成し、記録部305内にメタデータ305cを記録するようにしている。
 メタデータの作成にあたっては、複数コマのそれぞれのコマでの露出条件が同じ場合には、実際に制御した露出条件を実施データ304aとして作成している。また、複数コマのそれぞれのコマでの露出条件が異なる場合には、合成処理によって生成された画像に相当する露出条件を算出して、この露出条件を参考データ304bとして作成している。また、複数のコマでの露出条件が同じでも、撮影距離が異なる等により撮影条件が異なる場合には、合成処理によって生成された画像の露出制御値(深度合成モードの場合には、絞り値)の換算値を算出して、この露出制御値を換算データ304cとして作成している。
 また、メタデータとして、メタデータ作成部304は、合成処理を区別するための情報も作成し、この合成処理を区別するための情報を記録部305に記録するようにしてもよい。この場合、メタデータ作成部304で作成したデータが、実施データであるか、参考データであるか、換算データであるかを区別できるような情報であってもよい。
 なお、画像合成処理としては、上述した深度合成処理、超解像合成処理、HDR合成処理、NR合成処理、電子手振れ防止合成処理に限らず、例えば、比較明合成処理、比較暗合成処理、平均加算合成処理、ライブバルブ合成処理等、複数コマの画像データを用いて合成処理を行うものであればよい。この場合、例えば、比較明合成処理の場合には、トータルの露出時間を実施データとしてメタデータとして記録すればよい。
 次に、図48および図49に示すフローチャートを用いて、本実施形態におけるカメラ制御について説明する。このフローチャート(後述する図51および図56に示すフローチャート含む)は、制御部301内のCPUがメモリに記憶されたプログラムに従って、カメラ内の各部を制御することにより、実行する。なお、図48および図49に示すフローにおいては、主として、画像合成を行うモードが設定されている場合について説明する。
 カメラ制御のフローに入ると、まず、撮影モードか否かを判定する(S301)。カメラのモードは、ユーザが再生モード等他のモードに設定しなければ、デフォルトとして撮影モードに設定されている。このステップでは、モードの設定状態を検出し、その検出結果に基づいて判定する。
 ステップS301における判定の結果、撮影モードであれば、次に、スルー画用撮像を行う(S303)。ここでは、撮像素子302bによって取得された画像データを取得する。この画像データは所定のフレームレートで繰り返し取得される。
 スルー画用撮像を行うと、次に、スルー画表示、ピント合わせ、標準露出を設定する(S305)。ステップS303において取得した画像データに対して、画像処理部303においてスルー画表示用の画像処理を施し、この処理された画像データに基づいて、表示部306にスルー画表示を行う。スルー画表示は所定のフレームレートで更新される。また、取得した画像データのコントラスト値を算出し、このコントラスト値がピークとなるように、光学系302aのフォーカスレンズの位置を調整する。なお、ピント合わせは、前述のコントラストAF以外にも位相差AF等、他の方法によって行ってもよい。また、画像データから輝度情報等を算出し、この輝度情報に基づいて、シャッタ速度、絞り値、ISO感度等の標準露出を設定する。
 続いて、モード切換があったか否かを判定する(S307)。操作部307の操作部材によってモードの切換を行うことができる。ここでのモードは、前述した撮影モード、再生モードの他、深度合成モード、超解像合成モード、HDR合成モード等、複数コマの露出を行い、合成処理を行うモードを含む。
 ステップS307における判定の結果、モード切換があった場合には、モード設定を行う(S309)。ここでは、操作部307によるモードに切換に応じて、モード制御部301bにおけるモードを設定する。
 ステップS309においてモード設定を行うと、またはステップS307における判定の結果、モード切換がなかった場合には、次に、レリーズスイッチが操作されたか否かを判定する(S311)。レリーズ釦が操作されると、レリーズスイッチの状態が変化する。ここでは、レリーズスイッチの状態変化に基づいて判定する。この判定の結果、レリーズスイッチが操作されていない場合には、ステップS301に戻る。
 ステップS311における判定の結果、レリーズスイッチが操作された場合には、次に、設定されている合成モードの種類を判定する(S313)。ここでは、最初に設定されているモード、またはステップS309において設定されたモードに基づいて判定する。合成モードして、HDR合成モード、深度合成モード、またはその他の合成モードが設定されているか否かを判定する。ここでは、メタデータとして、実施データ、参考データ、メタデータのいずれを記録するかに応じて、合成モードの判定を行っている。ステップS313での合成モードの判定は、メタデータに応じた変更するようにしてもよい。なお、合成モードが設定されていない場合には、通常の撮影を実行すればよく、図48のフローにおいては通常撮影動作を省略している。
 ステップS313における判定の結果、HDR合成モードが設定されている場合には、標準露出から長秒時、短秒時に変更して複数枚の撮影を行う(S315)。この場合は、複数コマの撮影を行う際に、それぞれのコマで露出条件が異なる場合である。図45A~図45Dを用いて説明したHDR合成モードでは、1コマ目では標準露出(ステップS305において設定)よりも露出オーバとなるように、シャッタ速度を長秒時に設定し、2コマ目では標準露出よりも露出アンダとなるようにシャッタ速度を短秒時に設定し、撮影している。
 続いて、画像合成を行う(S317)。ここでは、ステップS315において取得した複数の画像データに対して、画像合成部303dが設定されているモードに従って、画像合成処理を施す。
 画像合成を行うと、次に、画像データとメタデータ(参考露出)を記録する(S319)。ここでは、メタデータ作成部304が参考データ304bを作成する。参考データ304bは、前述したように、画像合成によって生成された画像の効果に相当する露出条件を示すデータである。この作成された参考データ304bは、ステップS317において合成された画像データに関連付けられて記録部305の画像データ305bおよびメタデータ305cとして記録される。データの記録を行うと、ステップS301に戻る。
 ステップS313に戻り、このステップでの判定の結果、合成モードとして、深度合成モードが設定されていた場合には、標準露出でピント位置を変更して複数枚の撮影を行う(S321)。ここでは、深度合成モードが設定されている場合には、ピント位置を変更し、変更したピント位置で撮影を行い、所定枚数に達するまで撮影を繰り返し、複数の画像データを取得する。
 続いて、画像合成を行う(S323)。ここでは、ステップS321において取得した、ピント位置が異なる複数の画像データを用いて、画像合成部303dが深度合成処理を施す。これによって、被写界深度が深い画像の画像データを生成することができる。深度合成処理の詳しい動作については、図51を用いて後述する。
 画像合成を行うと、次に、画像データとメタデータ(換算露出)を記録する(S325)。ここでは、メタデータ作成部304が換算データ304cを作成する。換算データ304cは、前述したように、複数コマの撮影を行った際の各コマにおいて実際に露出制御された露出条件を示すデータとは異なり、複数の画像データによって生成された合成画像の露出条件(ここでは、絞り値FNo)の換算データである。この作成された換算データ304cは、ステップS323において合成された画像データに関連付けられて記録部305の画像データ305bおよびメタデータ305cとして記録される。データの記録を行うと、ステップS301に戻る。
 ステップS313における判定の結果、合成モードがHDR合成モードおよび深度合成モードでない場合には、その他の合成モードとして、合成にモードに応じて複数枚撮影を行う(S327)。その他の合成モードとしては、例えば、超解像合成モード(図44A~図44D参照)、NR合成モード(図46参照)、電子手振れ防止モード(図47参照)等がある。超解像合成モードの場合には、撮像素子302bを光軸と垂直な方向に移動させながら、撮影を繰り返す。このときの露出条件は、ステップS305において算出された標準露出である。また、NR合成モードや電子手振れ防止モードの場合には、撮像素子302bを移動させることなく、同一の露出条件で撮影を繰り返す。
 複数枚の撮影を行うと、次に、画像合成を行う(S328)。ここでは、設定されている合成モードに応じた画像合成(例えば、超解像合成モード、NR合成モード、電子手振れ防止モード)を行う。
 画像合成を行うと、次に、画像データとメタデータ(実施露出)を記録する(S329)。ここでは、メタデータ作成部304が実施データ304aを作成する。実施データ304aは、前述したように、複数コマの撮影を行った際の各コマにおいて実際に露出制御された露出条件を示すデータである。この作成された実施データ304aは、ステップS328において合成された画像データに関連付けられて記録部305の画像データ305bおよびメタデータ305cとして記録される。データの記録を行うと、ステップS301に戻る。
 ステップS301に戻り、この判定の結果、撮影モードでない場合には、再生モードか否かを判定する(S331)。ユーザが操作部307の再生釦等の操作部材を操作することにより、再生モードを設定することができる。このステップにおける判定の結果、再生モードでない場合には、その他のモードに移行する。
 ステップS331における判定の結果、再生モードの場合には、次に、アイコン一覧を表示する(S333)。ここでは、記録部305に記録されている画像データのサムネイルデータに基づいて、記録画像のアイコンを表示部306に表示する。
 次に、画像が選択されたか否かについて判定する(S335)。ユーザは表示部306に表示された一覧表示されたアイコンの中から拡大表示したいアイコンをタッチ、または十字釦等によって選択する。このステップでは、ユーザによってアイコンが選択されたか否かを判定する。
 ステップS335における判定の結果、画像が選択されていない場合には、戻るか否かを判定する(S337)。ユーザが再生モードを終了したい場合には、操作部307の内の戻る釦を操作するか、戻るアイコンをクリックする(総称して戻り操作)。ここでは、戻り操作がなされたか否かに基づいて判定する。この判定の結果、戻り操作がなされていない場合には、ステップS333に戻る。一方、戻り操作がなされた場合には、ステップS301に戻る。
 ステップS335における判定の結果、画像が選択された場合には、拡大表示を行う(S339)。ここでは、選択されたアイコンの画像データを読出し、表示部306に拡大表示を行う。
 拡大表示を行うと、次に、詳細表示を行うか否かの判定を行う(S341)。ユーザが選択した画像に関連付けて記録されているメタデータを表示させたい場合には、操作部307の内の詳細釦を操作するか又は詳細アイコンをクリックする(総称して詳細表示操作)。ここでは、詳細表示操作がなされたか否かに基づいて判定する。
 ステップS341における判定の結果、詳細表示操作がなされていた場合には、メタデータを表示する(S343)。ここでは、画像データに関連付けて記録されたメタデータ305cを記録部305から読み出し、表示部306に表示する。表示例については図50A~図50Cを用いて後述する。
 ステップS343においてメタデータを表示すると、またはステップS341における判定の結果、詳細表示操作がなされていない場合には、外部送信か否かを判定する(S345)。ユーザが記録部305に記録された画像データを、インターネット等を介して、無線また有線通信等によって送信した場合には、操作部307の送信釦を操作し、または送信アイコンをタッチ操作する(総称して外部送信操作)。このステップでは、外部送信操作がなされたか否かに基づいて判定する。
 ステップS345における判定の結果、外部送信操作がなされた場合には、設定先に送信する(S347)。ここでは、設定された送信先に、ステップS335において選択された画像の画像データおよび関連付けされたメタデータを送信する。送信先では、受信した画像データに基づく画像およびメタデータを表示させることができる。この時の表示例については図50A~図50Cを用いて後述する。
 ステップS347において設定先に送信すると、またはステップS345における判定の結果、外部送信操作がされていない場合には、戻るか否かを判定する(S349)。ユーザが再生モードを終了したい場合には、戻り操作を行う。ここでは、この戻り操作がなされたか否かに基づいて判定する。この判定の結果、戻り操作がなされていない場合には、ステップS339に戻る。一方、戻り操作がなされた場合には、ステップS301に戻る。
 このように、本実施形態におけるカメラ制御のフローにおいては、レリーズ操作がなされた際に、露出変更を伴うHDR合成モード露出変更を伴うモードが設定されている場合には(S313→HDR)、メタデータとして、参考データを作成し記録している(S319)。一方、露出変更を伴わないモードであって、撮影距離が変更されながら撮影がなされる深度合成モードが設定されている場合には(S313→深度合成)、メタデータとして露出値を換算した換算データを作成し記録している(S325)。また、露出変更を伴わないモードであって、撮影距離等の撮影条件が変更されないで撮影が繰り返しなされるその他のモードが設定されている場合には(S313→その他)、メタデータとして実施データを作成し記録している(S329)。
 すなわち、露出変更および撮影条件の変更を伴わない場合には実際に露出制御された制御値が記録され(S329)、露出変更を伴うが撮影条件が変更しない場合には参考露出が記録され(S319)、露出変更を伴わないが撮影条件が変更する場合には、撮影条件による影響を考慮して換算した露出制御値(ここでは換算絞り値FNo)が記録される。このため、ユーザがメタデータを見た際に、どのような制御がなされたかが分かり易いという効果がある。
 なお、ステップS319、S325、およびS327においては、メタデータとしては、参考データ、実施データ、および換算データのいずれか一つのみを作成し、記録するようにしていた。いずれか一つのみを記録することにより、メタデータ305cの容量を小さくすることができ、また単純化することにより、処理が容易となる。しかし、ステップS319、S325およびS327において、参考データ、実施データ、可能なら換算データを作成し、これをメタデータ305cとして記録するようにしてもよい。この場合には、例えば、メタデータの記録領域の内、Exif規格のメーカノートのように、製造元が記録可能としている領域を利用してもよい。
 次に、図50A~図50Cを用いて、メタデータの表示について説明する。この表示は、図49のステップS343、およびステップS347で送信された送信先で行われる。
 図50Aは、図43A~図43Dで示したような深度合成モードが設定された場合の表示例である。この場合には、深度合成された画像343と、実施データとして記録されたシャッタ速度、および換算データとして記録された絞り値を示すメタデータが表示される。なお、図50Aにおいては、換算データであることを明示するために、「換算」が表示される。このために、メタデータ305cに、換算データであることを示す情報も併せて記録しておく。
 図50Bは、図44A~図44Dで示したような超解像合成モードが設定された場合の表示例である。この場合には、深度合成された画像346と、実施データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。
 図50Cは、図45A~図45Dで示したようなHDR合成モードが設定された場合の表示例である。この場合には、HDR合成された画像349と、参考データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。なお、図50Cにおいては、参考データであることを明示するために、「参考」が表示される。このために、メタデータ305cに、参考データであることを示す情報も併せて記録しておく。
 このように、記録された画像に加えて、メタデータを表示することにより、撮影画像の露出条件を確認することが簡単にできる。また、この表示の際に、露出変更を伴わない場合には各コマを撮影した際の実際の露出値が表示され、露出変更を伴う場合には、合成画像の効果に相当する露出値が表示されるようしたので、分かり易い表示となる。撮影者以外の他のユーザは、このメタデータに基づく露出値を参考にすることにより、類似の写真を撮影することが容易となる。
 また、露出変更を伴わない場合であっても、撮影条件が変更されることにより画像効果として露出値が変更されたような影響がある場合には、換算露出値(この場合は絞り値FNo)(換算データ)を算出し表示するようにしたので、ユーザにとって分かり易い表示となる。
 なお、図50A~図50Cにおいては、参考データの場合には「参考」と表示し、換算データの場合には「換算」と表示したが、この表示を消去しておいてもよい。また、実施データの場合にも、実施データであることを明示するような表示を付加してもよい。また、図50A~図50Cにおいては、メタデータを画像の外側で表示していたが、画像に重畳して表示するようにしてもよい。
 次に、図51に示すフローチャートを用いてステップS323(図48参照)の深度合成の詳しい動作について説明する。
 深度合成のフローに入ると、まず、現在のピント位置P1と、FNoを判定する(S351)。このステップでは、ピント変更部302cがフォーカスレンズの現在のピント位置P1を検出し、また露出変更部302dが現在設定されている絞り値FNoを検出する。
 続いて、レンズ性能判定を行う(S353)。撮像部302の記憶部(不図示)には、光学系302aの焦点距離、許容錯乱円等の種々のレンズ性能が記憶されている。このステップでは、許容錯乱円等の種々のレンズ性能に関するデータを読み出す。
 続いて、基準撮影を行う(S355)。深度合成モードが設定され、レリーズスイッチが操作された場合には、基準位置で撮影を行い1コマ分の画像データを取得する。基準位置としては、フォーカスレンズの現在位置P1を使用する。しかし、現在位置P1以外にも、所定のフォーカス位置等であってもよい。
 基準撮影を行うと、次に、所定回数だけ撮影を行ったか否かについて判定する(S357)。深度合成のための撮影回数は、予めユーザが設定しておくので、このステップでは、予め設定された回数の撮影がなされたか否かについて判定する。なお、所定回数としては、ユーザが設定する以外にも、撮影条件に応じて適宜カメラが自動設定するようにしてもよい。
 ステップS357における判定の結果、所定回数に達していない場合には、ピント位置P1でカバーできないピント位置にずらして撮影を行う(S359)。ステップS353において許容錯乱円を読出しているので、このデータを用いて、深度合成処理によってピントの合った画像を生成できる程度のピント範囲となるように、ピント変更部302cはフォーカスレンズを移動させる。フォーカスレンズを移動させるとその位置で、絞り値FNoおよびシャッタ速度SSは、ステップS355における基準撮影時の同じ値で露出制御を行い、撮像素子302bによって画像データを取得する。なお、2回目以降の撮影の際には、ピント位置P1から、次のフォーカスレンズ位置を基準にしてフォーカスレンズを移動させる。撮影を行うと、ステップS357に戻る。
 ステップS357における判定の結果、所定回数に達すると、次に、ピントの合った部分を選んで合成する(S361)。ここでは、ステップS355およびS359において取得した複数の画像データを用いて、深度合成処理を行う。すなわち、各画像データの中で、コントラスト(先鋭度)値の高い部分を抽出し、これら抽出された部分を合成することにより、ピントの合った、言い換えるとコントラストの高い画像データを生成する。
 続いて、回数×FNoを算出し、換算FNoとする(S363)。ここでは、ステップS357において判定した撮影の回数に、ステップS351で判定した絞り値FNoを乗算することにより、換算FNoを算出する。例えば、絞り値FNo=8で、5回撮影を行った場合には、換算FNoとしては5×8=40、すなわち換算FNoはF=40となる。なお、換算FNoは、この方法以外にもあり、他の方法については、図52乃至図54を用いて後述する。換算FNoを算出すると、元のフロー(図48のS323)に戻る。
 このように、深度合成のフローにおいては、レンズ性能(例えば、許容錯乱円)を考慮してフォーカスレンズの移動を移動させて、その位置で画像データを取得し、これを所定回数繰り返すことにより複数の画像データを取得している(S355、S357、S359)。所定回数の撮影が終わると、取得した複数の画像データを用いて深度合成を行っている(S363)。また、深度合成処理を行うと、深度合成処理によって得られた生成された画像データの換算FNoを算出している(S363)。ここで、算出された換算FNoは、画像データと共にメタデータとして記録される(S325参照)。深度合成された画像は、実際の撮影時の絞り値FNoとは異なっている。換算FNoを表示することにより、ユーザは合成された画像の絞り値FNoを簡単に知ることができる。
 次に、図52ないし図54を用いて、深度合成の際の換算FNoの算出の他の例について説明する。なお、図52および図53は、図51に示す本発明の一実施形態と共通する。
 図52は、カメラ320によって被写体331を、深度合成モードで撮影する様子を示す。まず、被写体距離Sにおいて、第1回目の撮影を行う(ステップS355の基準撮影に相当する)。その後、被写体距離を変えながら、第2回目の撮影(2nd Shot)、第3回目の撮影(3rd Shot)、第4回目の撮影(4th Shot)を行い、被写体距離Sにおいて第5回目の撮影(5th Shot)を行う。それぞれの撮影における被写体深度はD1~D5である。なお、それぞれの被写体深度D1~D5は、端部において隣接しているが、必ずしも隣接しなくてもよく、隙間が空いていてもよい。
 5回の撮影で得られた画像データを用いて深度合成処理を行うと、深度Depの画像が合成され、また合成画像のピントは仮想撮影距離Lvirとなる。厳密には、被写界深度Dn1とDf5も、深度合成後の深度内となるが、Dn1およびDf5を無視し、演算を簡略化する。
 図53は、深度合成時のフォーカスレンズ位置、被写体位置、許容錯乱円、焦点深度の関係を示す光路図である。図53において、LP1、LP2は、フォーカスレンズ位置を示し、FPは焦点面位置を示し、δは許容錯乱円直径、Fは絞り値FNo、Xは深度合成ピッチ係数を表す。
 光路OP1nは、フォーカスレンズが位置LP1にあり、被写体距離Sの物体の光路を示す。図から分かるように、被写体距離Sにある物体は焦点面FPより後方、XFδの位置にピントが合い、焦点面FPでは許容錯乱円直径(Xδ)内で画像が広がっており、画像がぼけている。
 光路OP1sは、フォーカスレンズが位置LP1にあり、被写体距離Sの物体の光路を示す。図から分かるように、被写体距離Sにある物体は焦点面FPの位置にピントが合い、焦点面FPでは一点に画像が集中している。
 光路OP1fは、フォーカスレンズが位置LP1にあり、被写体距離S(被写体距離Sより遠方にある)の物体の光路を示す。図から分かるように、被写体距離Sにある物体は焦点面FPより前方、XFδの位置にピントが合い、焦点面FPでは許容錯乱円直径(Xδ)内で画像が広がっており、画像がぼけている。
 光路OP2n~光路OP2fは、フォーカスレンズが位置LP2にある場合において、被写体距離S’n、S’、S’f、に対する光路を示す。
 このように、フォーカスレンズが位置LP1にある際に撮影画像データを取得し、取得後にフォーカスレンズを位置LP2に移動して撮影画像データを取得する。そして取得した画像データを用いて、深度合成するとことにより、被写体距離SからS’fまでの間の被写体に対して、ピントの合った画像データを生成することができる。図53に示す例では、許容錯乱円直径δにピッチ係数Xを乗算しており、係数X=1の場合には、許容錯乱円内のぼけた画像となる。高精度の深度合成画像を生成するには係数Xは1に近い方がよいが、係数X=3~5程度の値でも十分鑑賞に堪える合成画像をえることができる。
 次に、図54を用いて、換算FNoの算出について説明する。まず、図54における符号を説明する。
f:レンズ焦点距離[mm]
s:被写体距離[mm]
t:レンズから結像面までの距離[mm]
F:F値(撮影時の絞り)
ε:焦点深度の二分の一[mm]
δ:許容錯乱円直径[mm]
:近点距離[mm]
:遠点距離[mm]
Dn:前方被写界深度[mm]
Df:後方被写界深度[mm]
 図54において、ε=δFとする。近点距離Sおよび遠点距離Sは、下記(1)(2)式より算出される。
 S=sf/(f+εs)  ・・・(1)
 S=sf/(f-εs)  ・・・(2)
 上記(1)式を変形すると、下記(3)式が得られる。
 S(f+εs)=sf 
 S+εSs=sf
 S=s(f-εS
 s=S/(f-εS) ・・・(3)
 また、上記(2)式を変形すると、下記(4)式が得られる。
 S(f-εs)=sf 
 S-εSs=sf
 S=s(f-εS
 s=S/(f+εS) ・・・(4)
 上記(3)(4)式より、εを示す下記(5)式を算出できる。
 S/(f-εS)=S/(f+εS
 S(f+εS)=S(f-εS
 S+εS=S-εS
 2εS=S-S
 2εS=f(S-S
 ε=f(S-S)/2S ・・・(5)
 前述したように、ε=δFとしていることから、上述の(5)式より、絞り値Fを示す下記(6)式を算出できる。
 Fδ=f(S-S)/2S
 F=f(S-S)/2δS ・・・(6)
 上述の(6)式より、絞り値Fは、以下のパラメータから算出できることが分かる。
 焦点距離:f
 撮影システムの許容錯乱円直径:δ
 近点距離:S
 遠点距離:S
 上述の(6)式を、深度合成後の画像に応用すると、近点距離Sと遠点距離Sを、以下のように置き換えることにより、合成後の換算FNoを算出することができる。
 近点距離S→深度合成の際の一番奥側の撮影距離(図52の5回目の撮影時(5th Shot)の撮影距離)
 遠点距離S→深度合成の際の一番カメラ側の撮影距離(図52の1回目の撮影時(1st Shot)の撮影距離)
 従って、深度合成処理後の換算FNoは、以下のパラメータを用いて、上述の(6)式によって算出することができる。
 焦点距離:f
 許容錯乱円直径:δ
 合成前画像中の最遠撮影距離:S
 合成前画像中の最近接撮影距離:S
 なお、(6)式の分子に、焦点距離の2乗があることから、望遠レンズになると被写界深度が浅くなるため、広角レンズと同一の被写界深度になるように深度合成を行うと合成撮影枚数が増え、合成FNoは大きくなる。
 図52ないし図54を用いて説明したように、深度合成処理後の換算FNoは、焦点距離:f、許容錯乱円直径:δ、合成前画像中の最遠撮影距離:S、合成前画像中の最近接撮影距離:Sを用いて算出することができる(上記(6)式参照)。なお、焦点距離fは光学系302aがズームレンズの場合には、このズームレンズの設定焦点距離を求め、許容錯乱円直径は撮像部302の記憶部に記憶された値を読出し、最遠撮影距離および最近接撮影距離は、フォーカスレンズの位置から求めればよい。
 次に、図55を用いて、撮影距離の算出方法の一例について説明する。図55において、横軸はフォーカスレンズ(ピント合わせレンズ)のレンズ繰り出し位置(LD)に相当する。また、図55の縦軸は、ピントが合う撮影距離の逆数を示し、原点側が無限遠方向である。また、グラフ中のラインL1~L3(例示であり、ライン数はこれよりも多くても少なくてもよい)は、ズーム位置に応じたレンズ繰り出し位置と撮影距離の逆数の関係を示す。
 今、ピント合わせレンズ繰り出し位置の初期位置はLDstartであり、また深度合成のためにフォーカスレンズの1回あたりの移動量をΔLDとすると、深度合成のためのフォーカスレンズの駆動後のレンズ位置は、LDstart+ΔLD×nとなる。焦点距離が決まれば、図55中のラインL1~L3のいずれかに決まり、このラインより、撮影開始時および撮影終了時の距離(上記(6)式の合成前画像中の最遠撮影距離:S、合成前画像中の最近接撮影距離:S)を算出することができる。
 従って、初期のフォーカスレンズの位置(LD)と、フォーカスレンズの繰り出し量(ΔLD)、撮影回数(n)、および焦点距離が分かれば、図55に示すグラフより、撮影開始時および撮影終了時の距離を算出することができる。
 図55に示すグラフは、曲線で表されているが、比較的狭い範囲に限れば、下記(7)式に示す直線近似で、撮影距離Lを算出することができる。
 1/L=α×LD+β ・・・(7)
 (7)式において、α、βは焦点距離、距離に応じた定数であり、LDはLDstart、またはΔLD×n+LDstartである。
 次に、図56に示すフローチャートを用いて、図51に示した深度合成の変形例について説明する。前述した本発明の一実施形態における深度合成は、複数の画像の中からピントの合った部分を選択して合成し、画面全体としてピントの合った画像を生成していた。これに対して、本変形例における深度合成は、ピントのあっていない部分は更にピンボケとなるような合成を行う。この深度合成を行うことにより、主被写体に対してはピントが合っており、一方、背景に対してはぼかしたような画像を得ることができる。この画像処理により、一眼カメラ(一眼レフカメラ)で絞り値を小さくして撮影したような画像となる。
 図56に示すフローチャートは、図51に示すフローチャートと比較し、ステップS301およびS363を、ステップS365およびS367に置き換えた以外は、同じであるので、相違点を中心に説明する。
 ステップS351~S359において、フォーカスレンズの位置を変更して撮影を繰り返し行い、所定回数の撮影が終了すると、次に、ピントぼけた所で、更にぼければ採用または強調を行う(S365)。主被写体(背景)でない部分において、基準撮影によって取得した画像のコントラスと、基準撮影より後で撮影した画像のコントラストを比較し、コントラストが低下した部分を選択して、画像を合成するか、または更にコントラストを低下させた画像を用いて合成を行う。これによって、主被写体でない部分のコントラストを低く、すなわちぼかすことができ、被写界深度を浅くした画像を合成することができる。
 ステップS365において深度合成処理を行うと、次に、FNoを明るくして換算FNoを算出する(S367)。ここでは、被写界深度を浅くした画像の換算FNoを算出する。例えば、ステップS351で検出したFNoを、ステップS357における所定回数で除算、また所定回数の平方根で除算する。換算FNoを算出すると、元のフロー(図48のS323)に戻る。
 以上説明したように、本発明の一実施形態や変形例においては、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し(例えば、図48のS315、S321、S327参照)、撮影画像の取得の際に、異なるピント位置で複数の撮影画像データを取得し(例えば、図48のS321参照)、この取得した複数の撮影画像データを用いて第1の画像合成を行い(例えば、図48のS323参照)、第1画像合成によって合成された合成画像データにおける絞り値の換算データを算出し、換算データに基づいてメタデータを作成している(例えば、図48のS325参照)。
 このため、本実施の形態や変形例においては、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うことができる。すなわち、異なるピント位置で撮影した複数の画像を合成した合成画像の被写界深度は深くなり、個々の撮影時の絞り値で決まる被写界深度とは異なっている。この点、本発明の一実施形態や変形例においては、換算した絞り値を算出し、これに基づいてメタデータを作成していることから、ユーザが合成画像を見る際に、 画像合成処理の操作や効果に応じた情報を容易に理解することができる。
 なお、本実施の形態や変形例においては、合成モードを判定し(図48のS313参照)、この結果に応じた画像合成を行い、合成モードに応じてメタデータとして実施データ、換算データ、または参考データのいずれかを記録するようにしている。しかし、これに限らず、画像合成を行うために複数回の撮影を行う際に、露出条件の変更を伴うか否か、撮影距離の変更を伴うか否か、撮像素子の位置の変更を伴うか否か等、条件に応じて、メタデータの種類を適宜決定するようにしてもよい。
 また、本実施の形態や変形例においては、合成モードに応じて、メタデータとして実施データ、換算データ、または参考データのいずれかを記録するようにしている。しかし、これに限らず、実施データ、換算データ、または参考データのいずれか2つ又は全てを生成し、これらを記録するようにしてもよい。
 また、本実施の形態や変形例においては、ピント変更部302c、露出変更部302d、撮像位置変更部302e等は、CPUおよびメモリに記憶したプログラムによってソフトウエアでその機能を実現してもよく、また制御部301内のCPUとメモリに記憶したプログラムでその機能を実現するようにしても勿論かまわない。
 また、本実施の形態においては、撮像制御部303b、撮影制御変更部303c等の各部の機能の全部または一部をCPU(Central Processing Unit)と周辺回路およびプログラムによって実現していたが、DSP(Digital Signal Processor)等のプログラムコードで実行される回路で実現するようにしてもよく、ヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウェア構成でもよく、またハードウェア回路によって実行するようにしても勿論かまわない。
 さらに、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、レンズ型カメラでも、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。また、内視鏡、顕微鏡のような産業用、医療用の光学機器でもよく、監視カメラや車載用カメラ、据え置き型のカメラ、例えば、テレビジョン受信機やパーソナルコンピュータ等に取り付けられているカメラであってもよい。
 また、ピントの合わせ方は、従来のカメラのように、ピント調整レンズを動かすもののみならず、撮像素子を動かすものもあり、これらの位置関係を固定で、固定焦点でカメラ全体を動かして複数画像を得るものもある。また、複眼で、複数のピント位置を撮像可能にしておき、ピント(フォーカス)位置の異なる複数の画像を得るものもある。こうしたいずれも、どこの位置にピントの合った画像かを記録できるものは、本発明の範疇に入るものである。このように記録しておく方が、後で見て撮影時の状況や条件等を把握しやすく、他のユーザに分かりやすく伝えることが出来る。また、必ずしも合成画像である必要はなく、得られた画像が合成しなくても良い場合もある。
 本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
 なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。
 また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD-ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記録又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールすることで、容易に本実施の形態の画像処理装置を実現することができる。
[付記]
[付記項1]
 ピント位置を変化させながら被写体を撮像して得られた複数の撮像画像が与えられ、上記複数の撮像画像を合成して合成画像を生成する合成制御部と、
 上記合成画像の合成に用いられた各撮像画像についての撮影条件に基づくメタデータを上記撮像画像毎に作成するメタデータ作成部と、
 上記合成制御部が生成した上記合成画像の画像ファイルに上記メタデータ作成部が作成した上記メタデータを付与して記録する記録制御部とを具備したことを特徴とする画像処理装置。
[付記項2]
 上記メタデータ作成部は、上記各撮像画像の撮像時のピント位置を撮像画像毎に距離換算した情報を含む上記メタデータを作成することを特徴とする付記項1に記載の画像処理装置。
[付記項3]
 上記メタデータ作成部は、上記各撮像画像の撮像時のピント位置の差を撮像画像間毎に距離換算し、上記距離換算した距離差の情報を含む上記メタデータを作成することを特徴とする付記項1又は2に記載の画像処理装置。
[付記項4]
 上記メタデータ作成部は、上記各撮像画像の撮像時における上記光学系の情報と上記ピント位置とに基づいて、上記距離換算した情報を含む上記メタデータを作成することを特徴とする付記項2又は3に記載の画像処理装置。
[付記項5]
 上記メタデータ作成部は、サイズが既知の補正用既知対象物を撮像して得た補正情報を用いて上記距離換算した上記メタデータをキャリブレーションすることを特徴とする付記項2又は3記載の画像処理装置。
[付記項6]
 上記メタデータ作成部は、上記各撮像画像の撮像時のピント位置の差を撮像画像間毎に距離換算し、当該距離換算した情報と上記補正情報とを用いて上記被写体のピントを合わせた部位間の距離の情報を含む上記メタデータを作成することを特徴とする付記項5に記載の画像処理装置。
[付記項7]
 上記メタデータ作成部は、上記被写体のピントを合わせた部位の上記撮像画像上における座標の情報を含む上記メタデータを作成することを特徴とする付記項1又は2に記載の画像処理装置。
[付記項8]
 上記メタデータを読出して、上記メタデータの内容を表示部に表示する表示制御部を更に具備したことを特徴とする付記項1又は2に記載の画像処理装置。
[付記項9]
 合焦させる範囲の合焦対象被写体を判定する対象物判定部と、
 上記対象物判定部の判定結果に基づいてピント位置可変の光学系によりピント位置を変化させながら被写体を撮像する撮像部に対して、上記ピント位置の制御を行うレンズ制御部とを具備したことを特徴とする付記項1又は2に記載の画像処理装置。
[付記項10]
 上記レンズ制御部は、上記撮像画像の各部のコントラストに基づいて、上記ピント位置のシフト量を決定することを特徴とする付記項9に記載の画像処理装置。
[付記項11]
 ピント位置を変化させながら被写体を撮像して得られた複数の撮像画像が与えられ、上記複数の撮像画像を合成して合成画像を生成し、
 上記合成画像の合成に用いられた各撮像画像についての撮影条件に基づくメタデータを上記撮像画像毎に作成し、
 上記合成画像の画像ファイルに上記メタデータを付与して記録することを特徴とする画像処理方法。
[付記項12]
 上記各撮像画像の撮像時のピント位置を撮像画像毎に距離換算した情報を含む上記メタデータを作成することを特徴とする付記項11に記載の画像処理方法。
[付記項13]
 サイズが既知の補正用既知対象物を撮像して得た補正情報を用いて上記距離換算した上記メタデータをキャリブレーションすることを特徴とする付記項12に記載の画像処理方法。
[付記項14]
 合焦の対象となる合焦対象被写体と上記補正用既知対象物とを含む上記複数の撮像画像が与えられ、各撮像画像中の上記合焦対象被写体と上記補正用既知対象物とを判定し、
 当該判定結果に基づいてピント位置可変の光学系によりピント位置を変化させながら被写体を撮像する撮像部に対して、上記合焦対象被写体及び上記補正用既知対象物にピントを合わせるピント位置のシフト制御を行うことを特徴とする付記項13に記載の画像処理方法。
[付記項15]
 コンピュータに、
 ピント位置を変化させながら被写体を撮像して得られた複数の撮像画像が与えられ、上記複数の撮像画像を合成して合成画像を生成する手順と、
 上記合成画像の合成に用いられた各撮像画像についての撮影条件について、サイズが既知の補正用既知対象物を撮像して得た補正情報を用いて上記ピント位置を距離換算してメタデータとして作成する手順と、
 上記合成画像の画像ファイルに上記メタデータを付与して記録する手順とを実行させるための画像処理プログラム。
[付記項16]
 上記メタデータを作成する手順は、上記各撮像画像の撮像時のピント位置を撮像画像毎に距離換算した情報を含む上記メタデータを作成することを特徴とする付記項15に記載の画像処理プログラム。
[付記項17]
 上記付記項1から10のいずれか1つに記載の画像処理装置と、
 ピント位置可変の光学系によりピント位置を変化させながら被写体を撮像する撮像部とを具備したことを特徴とする撮像装置。
[付記項18]
 同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、
 上記画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、
 上記画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、
 上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、
 を有し、
 上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件 を示す単一のメタデータを作成することを特徴とする画像処理装置。
[付記項19]
 上記メタデータ作成部は、上記第1の画像合成と上記第2の画像合成を区別する情報を作成することを特徴とする付記項18に記載の画像処理装置。
[付記項20]
 上記メタデータ作成部は、上記第1の画像合成を行った場合には上記画像データ取得部における露出条件に基づいて参考メタデータを作成し、上記第2の画像合成を行った場合には上記画像データ取得部における実際の露出条件を実施メタデータとすることを特徴とする付記項19に記載の画像処理装置。
[付記項21]
 上記メタデータ作成部は、上記第1の画像合成部によって第1の画像合成を行った場合には、上記第1の画像合成によって生成された合成画像の露出効果に相当するメタデータを作成することを特徴とする付記項18に記載の画像処理装置。
[付記項22]
 上記メタデータ作成部は、上記第2の画像合成部によって第2の画像合成を行った場合には、上記画像データ取得部で1コマの画像データを取得する際の露出条件に基づいてメタデータを作成することを特徴とする付記8項1に記載の画像処理装置。
[付記項23]
 同一の対象物に対し、第1の撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、
 上記画像データ取得部によって、第2の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、
 上記画像データ取得部によって、第2の撮影条件を変えず、第3の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、
 上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、
 を有し、
 上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる撮影条件 を示す単一のメタデータを作成することを特徴とする画像処理装置。
[付記項24]
 同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し、
 異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い、
 同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い、
 上記第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する、
 ことを特徴とする画像処理方法。
[付記項25]
 同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、
 上記画像データ取得部によって、異なるピント位置で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、
 上記第1画像合成部によって合成された合成画像データにおける絞り値の換算データを算出し、上記換算データに基づいてメタデータを作成するメタデータ作成部と、
 を有することを特徴とする画像処理装置。
[付記項26]
 上記メタデータ作成部は、光学系の焦点距離f、許容錯乱円径δ、近点距離Sおよび遠点距離Sに基づいて上記換算データを算出することを特徴とする付記項25に記載の画像処理装置。
[付記項27]
 上記換算データは、換算絞り値Fであり、該Fを、
 F=f(S-S)/(2δ×S×S) 
 によって算出することを特徴とする付記項26に記載の画像処理装置。
[付記項28]
 上記メタデータ作成部は、上記画像データ取得部によって行った撮影の回数と、各撮影時の絞り値に基づいて、換算絞り値Fを算出することを特徴とする付記項25に記載の画像処理装置。
[付記項29]
 上記画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成 を行う第2画像合成部を有し、
 上記メタデータ作成部は、上記第2画像合成部により上記第2の画像合成を行う場合には、上記同一の露出条件に基づいて、メタデータを生成することを特徴とする付記項25に記載の画像処理装置。
[付記項30] 
 上記画像データ取得部は、更に露出条件を異ならせて複数の撮影画像データを取得可能であり、
 上記画像処理装置は、更に、上記画像データ取得部によって異なる露出条件で取得した複数の撮影画像データを用いて第3の画像合成を行う第3画像合成部を有し、
 上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第3の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する、
 ことを特徴とする付記項25に記載の画像処理装置。
[付記項31] 
 同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、
 上記画像データ取得部によって、同一の露出条件、かつ異なるピント位置で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、
 上記画像データ取得部によって、同一の露出条件、かつピント位置を異ならせることなく複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成 を行う第2画像合成部と、
 上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、
 を有し、
 上記メタデータ作成部は、上記第1の画像合成を行う場合は、換算した露出条件に基づいてメタデータを作成し、一方上記第2の画像合成を行う場合は、上記同一の露出条件を用いてメタデータを作成することを特徴とする画像処理装置。
[付記項32]
 同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し、
 上記撮影画像の取得の際に、異なるピント位置で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行い、
 上記第1画像合成によって合成された合成画像データにおける絞り値の換算データを算出し、上記換算データに基づいてメタデータを作成する、
 ことを特徴とする画像処理方法。

 本出願は、2017年8月3日に日本国に出願された特願2017-150607号、2017年8月4日に日本国に出願された特願2017-151423号、2017年8月18日に日本国に出願された特願2017-157953号及び2017年9月6日に日本国に出願された特願2017-171444号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (8)

  1.  異なる撮影条件で撮影された複数の撮像画像を取得する画像取得部と、
     上記複数の撮像画像を用いて合成画像を生成するものであって、上記複数の撮像画像を画面全体で合成して上記合成画像を得る鑑賞性重視モードと上記複数の撮像画像の各撮像画像を上記合成画像中の各領域の画像として選択的に用いて上記合成画像を得る部分再現性重視モードとを有する合成制御部とを具備したことを特徴とする画像処理装置。
  2.  上記部分再現性重視モードは、上記合成画像中の各領域内において、上記撮影条件及び上記撮像画像に対する画像処理が変化しないことを特徴とする請求項1に記載の画像処理装置。
  3.  上記鑑賞性重視モードと上記部分再現性重視モードとを区別する情報を付加して上記合成画像を記録する記録制御部を更に具備することを特徴とする請求項1に記載の画像処理装置。
  4.  上記撮像画像中の被写体を判定して、上記領域を決定する領域判定部を更に具備することを特徴とする請求項1に記載の画像処理装置。
  5.  上記画像取得部は、上記合成画像中の各領域に用いる撮像画像として、合焦状態で且つ適正露出の画像を取得することを特徴とする請求項1に記載の画像処理装置。
  6.  異なる撮影条件で撮影された複数の撮像画像を取得する手順と、
     上記複数の撮像画像を用いて合成画像を生成する手順であって、上記複数の撮像画像を画面全体で合成して上記合成画像を得る鑑賞性重視モードと上記複数の撮像画像の各撮像画像を上記合成画像中の各領域の画像として選択的に用いて上記合成画像を得る部分再現性重視モードとを選択して上記合成画像を生成する手順とを具備したことを特徴とする画像処理方法。
  7.  コンピュータに、
     異なる撮影条件で撮影された複数の撮像画像を取得する手順と、
     上記複数の撮像画像を用いて合成画像を生成する手順であって、上記複数の撮像画像を画面全体で合成して上記合成画像を得る鑑賞性重視モードと上記複数の撮像画像の各撮像画像を上記合成画像中の各領域の画像として選択的に用いて上記合成画像を得る部分再現性重視モードとを選択して上記合成画像を生成する手順とを実行させるための画像処理プログラム。
  8.  上記請求項1から5のいずれか1つに記載の画像処理装置と、
     異なる撮影条件で被写体を撮像して上記複数の撮像画像を得る撮像部とを具備したことを特徴とする撮像装置。
PCT/JP2018/028709 2017-08-03 2018-07-31 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置 WO2019026923A1 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2017150607A JP6909669B2 (ja) 2017-08-03 2017-08-03 画像処理装置および画像処理方法
JP2017-150607 2017-08-03
JP2017151423A JP2019033308A (ja) 2017-08-04 2017-08-04 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置
JP2017-151423 2017-08-04
JP2017-157953 2017-08-18
JP2017157953A JP2019036885A (ja) 2017-08-18 2017-08-18 画像処理装置および画像処理方法
JP2017-171444 2017-09-06

Publications (1)

Publication Number Publication Date
WO2019026923A1 true WO2019026923A1 (ja) 2019-02-07

Family

ID=65234298

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/028709 WO2019026923A1 (ja) 2017-08-03 2018-07-31 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置

Country Status (1)

Country Link
WO (1) WO2019026923A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172019A1 (ja) * 2020-02-26 2021-09-02 キヤノン株式会社 画像処理装置および画像処理装置の制御方法
CN113615156A (zh) * 2019-03-15 2021-11-05 佳能株式会社 图像处理设备、图像处理方法、计算机程序和存储介质
WO2023026701A1 (ja) * 2021-08-25 2023-03-02 富士フイルム株式会社 撮像装置、撮像装置の駆動方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014036401A (ja) * 2012-08-10 2014-02-24 Sony Corp 撮像装置、画像信号処理方法及びプログラム
JP2016032289A (ja) * 2014-07-25 2016-03-07 日本電気株式会社 画像合成システム、画像合成方法、画像合成プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014036401A (ja) * 2012-08-10 2014-02-24 Sony Corp 撮像装置、画像信号処理方法及びプログラム
JP2016032289A (ja) * 2014-07-25 2016-03-07 日本電気株式会社 画像合成システム、画像合成方法、画像合成プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113615156A (zh) * 2019-03-15 2021-11-05 佳能株式会社 图像处理设备、图像处理方法、计算机程序和存储介质
WO2021172019A1 (ja) * 2020-02-26 2021-09-02 キヤノン株式会社 画像処理装置および画像処理装置の制御方法
WO2023026701A1 (ja) * 2021-08-25 2023-03-02 富士フイルム株式会社 撮像装置、撮像装置の駆動方法、及びプログラム

Similar Documents

Publication Publication Date Title
JP6271990B2 (ja) 画像処理装置、画像処理方法
JP5395678B2 (ja) 距離マップ生成型マルチレンズカメラ
US8106995B2 (en) Image-taking method and apparatus
JP3873994B2 (ja) 撮像装置、及び画像取得方法
JP6838994B2 (ja) 撮像装置、撮像装置の制御方法およびプログラム
WO2011162227A1 (ja) 立体パノラマ画像合成装置、撮像装置並びに立体パノラマ画像合成方法、記録媒体及びコンピュータプログラム
KR101599872B1 (ko) 디지털 영상 처리 장치, 그 제어방법 및 이를 실행시키기 위한 프로그램을 저장한 기록매체
JP2007043637A (ja) 撮像装置、撮像プログラムおよび画像処理プログラム
JP6506036B2 (ja) 撮像機器
JP2019033308A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置
US20180262686A1 (en) Shooting device, shooting method and shooting control method
WO2019026923A1 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置
JP2016213582A (ja) 観察装置
US20040252223A1 (en) Image pickup device, image pickup system and image pickup method
JP6261205B2 (ja) 画像処理装置
KR20120002834A (ko) 참조 영상을 제공하는 촬상장치 및 그의 참조 영상 제공방법
JP2009065582A (ja) 拡大表示機能付きカメラおよびカメラの制御方法
JP6909669B2 (ja) 画像処理装置および画像処理方法
JP4870503B2 (ja) カメラ、ブログ管理システム
JP4747673B2 (ja) 電子カメラおよび画像処理プログラム
JP2019036885A (ja) 画像処理装置および画像処理方法
JP2009219085A (ja) 撮像装置
US20170302862A1 (en) Imaging apparatus and imaging method
JP2018061292A (ja) 画像処理装置、画像処理方法、プログラム
JP2019047436A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18841320

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18841320

Country of ref document: EP

Kind code of ref document: A1