WO2020189510A1 - 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体 - Google Patents

画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体 Download PDF

Info

Publication number
WO2020189510A1
WO2020189510A1 PCT/JP2020/010859 JP2020010859W WO2020189510A1 WO 2020189510 A1 WO2020189510 A1 WO 2020189510A1 JP 2020010859 W JP2020010859 W JP 2020010859W WO 2020189510 A1 WO2020189510 A1 WO 2020189510A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
type data
compositing
recorded
composition
Prior art date
Application number
PCT/JP2020/010859
Other languages
English (en)
French (fr)
Inventor
明光 吉田
英貴 門井
豪 山下
宣和 吉田
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019049006A external-priority patent/JP7395258B2/ja
Priority claimed from JP2019049142A external-priority patent/JP7395259B2/ja
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to CN202080021007.5A priority Critical patent/CN113615156A/zh
Publication of WO2020189510A1 publication Critical patent/WO2020189510A1/ja
Priority to US17/467,345 priority patent/US20210400192A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00442Simultaneous viewing of a plurality of images, e.g. using a mosaic display arrangement of thumbnails
    • H04N1/00453Simultaneous viewing of a plurality of images, e.g. using a mosaic display arrangement of thumbnails arranged in a two dimensional array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3242Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of processing required or performed, e.g. for reproduction or before recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3247Data linking a set of images to one another, e.g. sequence, burst or continuous capture mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/325Modified version of the image, e.g. part of the image, image reduced in size or resolution, thumbnail or screennail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3252Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken

Definitions

  • the present invention relates to an image processing device or the like capable of synthesizing a plurality of images or reproducing a composite image.
  • Patent Document 1 discloses a technique of recording the number of times of multiplex as metadata in a file header when recording composite image data obtained by multiple-exposure imaging in which a plurality of images are combined at the time of photographing. In Patent Document 1, it is also determined that the image data is an image taken by multiple exposure by a plurality of times.
  • the present invention has been made in view of such a problem, and provides an image processing apparatus capable of appropriately discriminating and processing an image according to the presence or absence and type of composition processing.
  • the image processing apparatus having one aspect of the present invention is A compositing means that synthesizes a plurality of captured images to generate a composite image, A recording control means for recording the captured image or the composite image as a recorded image in the recording unit, and It has a shooting mode or a determination means for determining a synthesis method performed by the synthesis means.
  • the recording control means is characterized in that a recorded image photographed or synthesized by a shooting mode or a synthesis method determined by the determination means is associated with type data determined based on the determination result of the determination and recorded. To do.
  • an image processing device capable of appropriately discriminating and processing an image according to the presence or absence and type of composition processing.
  • the image processing device includes a general-purpose image processing device (hereinafter referred to as a PC) such as a personal computer, a digital camera, a digital movie camera, and the like. Further, it can be applied to any device that can display a list of image files, such as a mobile phone, a smartphone, a so-called tablet terminal, and a car navigation device, and the image processing device of the present invention includes those product forms.
  • a PC general-purpose image processing device
  • FIG. 1 is a block diagram showing a functional configuration of an image pickup apparatus 100 as an example of the image processing apparatus of this embodiment.
  • the control unit 101 includes a CPU (Central Processing Unit) as a computer, and functions as a control means for controlling the entire image pickup device.
  • the control unit 101 reads a computer program for operating each component included in the image pickup apparatus 100 from a ROM (read only memory) 102 as a storage medium, and expands the computer program into a RAM (random access memory) 103. Execute.
  • ROM read only memory
  • RAM random access memory
  • the ROM 102 is a rewritable non-volatile memory, and stores parameters and the like necessary for the operation of each component included in the image pickup apparatus 100 in addition to the operation program executed by the CPU.
  • the RAM 103 is a rewritable volatile memory, and is used as a temporary storage area for data output in the operation of each component included in the image pickup apparatus 100.
  • the imaging optical system 104 includes a lens, a diaphragm, a driving unit for driving the optical members thereof, and the like, and the light from the subject is imaged on the imaging unit 105.
  • the image pickup unit 105 includes image pickup elements such as a CCD (Charge Coupled Device) image sensor and a CMOS (Complementary Metal-Node Semiconductor) image sensor.
  • the image pickup element functions as an image pickup means for performing photoelectric conversion on the optical image formed by the image pickup optical system 104 to form an analog image signal and generate a captured image.
  • the analog image signal is A / D converted by the A / D (analog / digital) conversion unit of the imaging unit 105 to become digital image data and stored in the RAM 103.
  • the image processing device may have the image pickup means in the image processing device, but the image processing device may not have the image pickup means.
  • the image processing unit 107 applies various image processing such as white balance adjustment, color interpolation, reduction / enlargement, and filtering to the image data stored in the RAM 103.
  • the recording medium 108 is a memory card or the like that can be attached to and detached from the image pickup apparatus 100, and functions as a recording unit for recording image data stored in the RAM 103.
  • the control unit 101 also functions as a recording control means for recording a captured image or the composite image as a recorded image on the recording medium 108.
  • the image data processed by the image processing unit 107, the image data after A / D conversion by the imaging unit 105, and the like are recorded on the recording medium 108 as recorded image data. Further, the image processing unit 107 synthesizes a plurality of image data obtained by the photographing and output from the imaging unit 105 by a method based on a photographing mode set in advance at the time of photographing by the imaging unit 105.
  • the control unit 101 uses the image processing unit 107 according to a signal indicating a shooting mode set by the user by the operation unit 111 and a shooting mode determined based on a shooting scene determined (acquired) from the image by the control unit 101 at the time of imaging. Give instructions to. As a result, the composition process according to the shooting mode is performed. Further, the control unit 101 determines (acquires) the shooting mode at this time to determine the type data indicating the type of the image related to the composition, and the image data of the composite image after the composition process is performed by the image processing unit 107. On the other hand, the determined type data is associated and recorded on the recording medium 108.
  • an image file in which at least a part of the header information is configured in accordance with a general-purpose standard is generated. Then, by recording the type data in the data area conforming to the standard of the header information, the image data also recorded in the image data unit in the image file is associated with the type data.
  • the image processing unit 107 performs a compositing process on a plurality of image data input based on the instruction of the control unit 101. At this time, at least a part of the data to be synthesized may be the data read from the ROM 102 or the recording medium 108.
  • the image processing unit 107 synthesizes a plurality of image data recorded on the ROM 102 or the recording medium 108 at the time of reproduction according to the composition processing method set by the user by the operation unit 111. Each shooting mode and the corresponding compositing process and various compositing processes during playback will be described later.
  • the display unit 109 includes a display device such as an LCD (Liquid Crystal Display), and displays a through image of the captured image acquired by the imaging unit 105. Further, the display unit 109 displays data such as characters and images, and a so-called graphical user interface such as a menu.
  • the distance map acquisition unit 110 acquires information related to the distance distribution of the subject as a distance map by, for example, a TOF (Time of Flight) method or a stereo camera.
  • TOF Time of Flight
  • Data such as image shift amount distribution and defocus amount distribution between images with parallax related to the distance map or captured image represent the distribution of depth information in the depth direction of the subject.
  • data representing the distribution of depth information will be referred to as distance map data.
  • the acquired distance map data is stored in the RAM 103 as digital data. Many methods are well known for generating map data, and any of them may be used.
  • the operation unit 111 includes buttons, dials, touch panels, slide bars, and the like of various physical operation members, receives operations by the user, and outputs an instruction signal to the control unit 101 and the like.
  • the communication unit 106 is a wireless LAN interface or the like for communicating with an external device, but may be of any type as long as it can communicate with an external device such as a wired LAN interface or a USB interface.
  • Image files can be transmitted and received to and from an external device (for example, a PC, a smartphone, etc.) via the communication unit 106. (Data structure of image file)
  • FIG. 2 shows the data structure of the image file generated and managed by the image pickup apparatus 100.
  • the image data file 201 is generated, for example, at the time of imaging by the imaging unit 105, acquired via the communication unit 106, or stored in the recording medium 108 or the ROM 102.
  • the image pickup apparatus 100 processes the image data file 201, it may be temporarily copied to the RAM 103.
  • the image data file 201 has a marker SOI (202) indicating the start of an image at the beginning, and then has an application marker APP1 (203) (APP1 area) as a header area.
  • the application marker APP1 (203), the size of APP1 (204), the identification code of APP1 (205), the DateTime (206) indicating the date and time when the image was created, the DateTimeOriginal (207) indicating the date and time when the image data was generated, and the image. It is composed of a Relation Information (208), shooting information, etc. (209) and a thumbnail image (210) showing the relationship between the two.
  • Relation Information (208) describes, for example, predetermined information indicating that there is a relationship between a plurality of captured images to be combined. This predetermined information may be the image number of the related image recorded first, or may be information indicating a specific shooting mode.
  • the shooting information and the like (209) include, for example, the shooting date and time, shooting parameters (exposure time, aperture value, ISO sensitivity, focal length, presence / absence of auxiliary light source, etc.), and the composite information unit 2091 according to this embodiment.
  • the synthesis information unit 2091 holds the synthesis-related information generated and processed in this embodiment.
  • the recorded image data is obtained from the image data unit 215 in which the quantization table DQT (212), the Huffman table DHT (212), the frame start marker SOF (213), the scan start marker (214), and the compressed data are stored. It is configured and terminated with a marker EOI (216) indicating the end of the image data.
  • the file structure shown in this embodiment is adapted to the structure of the Exif standard, it can be compatible with the Exif standard.
  • the recording structure of various information such as the synthetic information of this embodiment is not necessarily limited to the structure of the Exif standard. For example, it may be recorded in a file different from the image data file 201, or may be recorded in a special database included in the image pickup apparatus 100.
  • FIG. 3 shows an example of the information held in the synthetic information unit 2091.
  • the application of the external device, the network server, etc. the optimization and restoration of the composite processing, AI, etc. are used. Record various information related to this synthesis for learning.
  • the general-purpose Exif area compatibility with various Exif-compliant devices can be made, and it can be referred to by a general-purpose application.
  • the composite information unit 2091 is provided with areas for describing the image identification information 301, the composite type information 302, the source image number information 303 of the composite image, the composite image information 304, and the source image information 305 of the composite image.
  • the image identification information 301 is type data mainly indicating the type of the image related to the composition, and any one of the classification information such as "non-composite image", “general composite image”, and "composite image acquired at the time of shooting" is stored. To.
  • the "composite image acquired at the time of shooting” is an image synthesized from only a series of a plurality of source images (provisional recorded images) acquired from the image sensor at the time of shooting (the use of all images is not essential). In addition, it is attached to a composite image that can be regarded as having substantially constant shooting conditions (aperture value, subject distance, light source, lens focal length, etc.) and subject range (shooting field of view) when all source images are acquired. It is a classification.
  • “3” is given as the first type data to the "composite image acquired at the time of shooting".
  • the "general composite image” is a classification attached to a composite image synthesized from a plurality of captured images (source images), and does not limit the composite method.
  • "2" is given to the "general composite image” as the second type data.
  • non-composite image is a classification given to an image that cannot be regarded as a composite image classified into a "general composite image” and a “composite image acquired at the time of shooting", for example, an image that is considered not to be composited.
  • "1" is given as the type data to the "non-composite image”.
  • a value other than any of the above "1” to "3” may be prepared and used as the image identification information 301. For example, when it is unclear which classification is assigned, "0" may be added as the type data. (Each synthesis mode and its classification)
  • a mode in which HDR (High Dynamic Range) composition is performed at the time of shooting as one of the types of composition of a multi-shot system (a shooting mode involving multiple shootings at different timings or an imaging optical system is hereinafter referred to as a multi-shot system).
  • a multi-shot system a shooting mode involving multiple shootings at different timings or an imaging optical system.
  • HDR composition mode at the time of shooting shooting conditions other than ISO and shutter speed are regarded as substantially constant among a plurality of source images, and "3", which is the first type data, is added as image identification information. You may do so.
  • HDR composition at the time of shooting is, for example, taking a plurality of images having different exposures (ISO, shutter speed, etc.), developing each image with a different gamma, and synthesizing the development results.
  • the HDR composition mode at the time of shooting is a mode in which an appropriate image is extracted and combined according to the brightness value of the image from a plurality of images having different exposure conditions.
  • the second type of data is "2" as image identification information. Is given. This is because the image was not composited at the time of shooting. This is also because there are some source images such as ISO and shutter speed whose shooting conditions cannot be regarded as constant.
  • the HDR processing performed by an image processing device, a PC application, or the like at the time of reproduction is, for example, developing an image selected by a user with gamma according to an exposure difference and synthesizing the development results.
  • the HDR painting-like shooting is a mode in which a composite image having a painting-like atmosphere is generated by performing gradation processing from a plurality of images having different exposures (ISO, shutter speed, etc.).
  • "2" is added as image identification information even in the case of a composite image obtained in a shooting mode in which multiple images are taken to achieve a multi-shot noise reduction function and a composite image is generated. .. This is because the shooting conditions can be regarded as constant, but the function is premised on handheld shooting, and the angle of view of each shot image may differ due to camera shake or the like, and the angle of view cannot be regarded as constant.
  • the angle of view (range of subject, field of view) and shooting conditions can be regarded as substantially constant in the shooting mode in which multiple images are taken to achieve the multi-shot noise reduction function and a composite image is generated. You can also do it. Therefore, "3" may be added as the image identification information.
  • the multi-shot reduction function is a shooting mode in which multiple images taken under the same shooting conditions are aligned based on the detected shake amount and then combined to obtain a composite image with reduced noise. It is used when the image is dark and there is a lot of noise.
  • the angle of view (range of the subject, shooting field of view) and shooting conditions are substantially constant, and "3" is added as image identification information. You can do it.
  • "2" is added as the image identification information when the night view is continuously shot with a strobe and without a strobe by handheld shooting. This is a function premised on handheld shooting, and the angle of view cannot be regarded as constant. This is also because there are captured images in which the conditions related to the "light source" change among the imaging conditions.
  • "3" may be added as the image identification information in order not to be confused with "without a handheld night view strobe” by changing the way the image identification information is assigned. Then, in principle, "3" may be added as image identification information to the night view taken by handheld shooting with a strobe.
  • the creative filter type shooting is a shooting mode in which a shot image is recorded by applying a special image processing effect. Images for so-called rough monochrome shooting, soft focus shooting, diorama style shooting, toy camera shooting, oil painting style shooting, watercolor style shooting, fisheye style shooting, beautiful skin shooting, background blur shooting, etc. "1" is added as the identification information.
  • "1" is added as image identification information to the image obtained in the edit mode (application) in which the image processing equivalent to the image processing performed on the captured image in these modes is applied to the image at the time of reproduction.
  • the reason for assigning "1" is that although some image processing performed in these shooting modes or editing modes (applications) involves compositing images, a plurality of shot images (source images) are used. This is because it is not a synthetic process.
  • Rough monochrome photography is photography in which one image is taken, random noise is superimposed on the taken image, and monochrome processing is applied to produce an effect similar to that of a monochrome film.
  • Soft focus shooting is shooting in which, for example, one image is taken, and an image obtained by subjecting the shot image to an LPF (Low Pass Filter) and the original shot image are combined at a fixed ratio.
  • LPF Low Pass Filter
  • diorama-style photography For example, one image is taken, and the image obtained by applying LPF to the photographed image and the original photographed image are combined in a part of the area. In this mode, a part of the image is blurred to give an image effect as if a real subject was taken as a diorama.
  • Toy camera shooting is shooting that takes, for example, one image and adds an image effect as if it was taken with a toy camera.
  • Image processing performed by toy camera shooting for example, reproduces a sweet focus effect by synthesizing an LPF-applied image and the original image, and bright finishes, biased color tones, and peripheral dimming due to brightness and color conversion. It is a process to reproduce the effect such as.
  • oil painting style photography for example, one image is taken, the photographed image is subjected to image processing, and the photographed image is combined with the original image to be subjected to image processing to make the image look like an oil painting.
  • watercolor-style photography for example, one image is taken, the photographed image is subjected to image processing, and the photographed image is combined with the original image to be subjected to image processing to make the image look like a watercolor painting.
  • Fisheye-style photography is an effect as if it was taken with a fisheye lens by taking, for example, one image and synthesizing (interlacing) pixels so that each area has a fisheye lens-like distortion. It is a thing.
  • the skin-beautifying shooting is a shooting mode in which the NR (Noise Reduction) of the skin-colored portion is strengthened to reduce the sense of resolution and smooth the texture of the skin.
  • the background blur shooting is a shooting in which, for example, two images are taken by changing the aperture, the main subject and the background are separated from the difference between the two images, and the background is blurred.
  • the composite source image is one image, and a plurality of images are taken to determine the blurred area.
  • background blur shooting is realized by opening the aperture.
  • Date imprint photography is the superimposition of date text data on an image.
  • the control unit 101 determines that the shooting conditions and the angle of view for shooting a plurality of images can be regarded as constant, the first type data "3" is added as the image identification information. This is because the shooting conditions may not have changed due to the detection of tripod use. Further, in the case of the embodiment in which multiple exposure shooting (multiple composition mode) is implemented on the premise of continuous shooting, it can be considered that the angle of view is constant and the shooting conditions are substantially constant, so that the first type of image identification information is always used. The data "3" may be added.
  • the multiple exposure shooting includes, for example, an addition mode, an addition averaging mode, a comparative bright mode, and a comparative dark mode.
  • the addition mode is a mode in which a plurality of images are taken and RAW images are simply added.
  • the addition averaging mode is a mode in which a plurality of images are taken and RAW images are simply added and averaged. This is for improving the S / N of, for example, a very dark image.
  • the comparative brightness mode is to perform a comparative brightness composition process in which the one whose pixel value at the same coordinate is not low is adopted when a plurality of images are taken and a RAW image is combined.
  • the comparative dark mode is a process of performing a comparative dark compositing process in which the one in which the pixel values at the same coordinates are not high is adopted when a plurality of images are taken and the RAW images are combined.
  • "2" is added as image identification information. This is because the source images having different angles of view are combined.
  • panoramic photography is for the user to take pictures at multiple angles of view, such as by panning the camera, and combine them.
  • a wide-angle image is generated by connecting a plurality of images captured at a plurality of different angles of view.
  • Wide-angle images obtained by compositing in panoramic photography include images in all directions (360 degrees).
  • "3" may be added as image identification information. This is because in the case of depth composite shooting, the angle of view is substantially constant, and shooting conditions other than focus can be regarded as substantially constant because the focus is shaken. This is also because the angle of view can be regarded as substantially constant even in the case of starry sky portrait photography, and the shooting conditions other than focus can be regarded as substantially constant.
  • Depth composite shooting is to take a plurality of images by shaking the focus, synthesize the areas in which the plurality of images are in focus based on the distance map acquired by the distance map acquisition unit 110, etc., and have a depth higher than each image. It is a shooting that produces a deep image of.
  • the starry sky portrait photography is a shooting in which, for example, after strobe photography in which the strobe is fired, the strobe does not emit light and continuously shoots, for example, two images, and for example, three images are combined.
  • the starry sky trajectory shooting is a shooting mode in which a plurality of starry skies are shot and comparatively brightly combined.
  • the image pickup unit 105 is, for example, a so-called laminated sensor in which the image pickup element and the signal processing unit have an integrated multilayer structure.
  • the output from the stacking sensor may be one image data whose data format is almost the same as that of the image in which normal composition is not performed. "1" is added as the image identification information.
  • the control unit 101 can instruct the image pickup unit 105, which is a laminated sensor, to perform the synthesis process to the signal processing unit in the image pickup unit 105, the image pickup unit 105 outputs in response to the synthesis instruction. "2" is added as image identification information to the image data.
  • "3" may be added as the image identification information.
  • there is a shooting mode called super-resolution shooting in which the image sensor or the imaging optical system is moved minutely to perform a plurality of shot images, and the resolution is increased by synthesizing those images. ..
  • this super-resolution shooting mode since the shooting field of view cannot be regarded as constant at the point where the images are taken with the angle of view shifted, "2" is added as the image identification information.
  • the composition type information 302 is information indicating the type of composition processing mode, composition processing, and composition condition under which the composition image is synthesized.
  • the composition type information 302 is at least information corresponding to the present image data from the type data corresponding to a plurality of types for composition such as the multiple exposure mode, additive synthesis, comparative bright composition, HDR composition, and panorama composition as described above. One is stored.
  • the source image number information 303 is information about the number of images acquired to generate the image data of the image data file 201, and is a composite image indicating the number of captured images (source images) and the number of source images used for the composite image. Information on the number and image number used is included.
  • the number of captured images indicates the total number of images captured to generate the present image data. This includes, for example, the number of image data and the like that are not used in the composite image due to poor image quality due to camera shake or the like.
  • the number of composite images indicates the number of images actually stored in the image data unit 215 of the image data file 201 and used to generate the image data.
  • the image number used is information in which the image numbers related to each of the image data synthesized at the time of generating the present image data, which is counted in the number of composite images, are arranged.
  • the composite image information 304 information on statistical values related to the shooting conditions of the image used for the synthesis is recorded.
  • the maximum value of the exposure time in the image used for the composition is recorded as the statistical value of the exposure time.
  • an average value of aperture values of a plurality of images used for synthesis, an average value of ISO sensitivity, and an average value of focal length are recorded.
  • the statistical value related to each shooting condition recorded in the composite image information 304 is not limited to one type, and is an arbitrary statistical value depending on the purpose of data collection or application such as maximum value, minimum value, total value, average value, and dispersion value. May be recorded in multiple types. Further, in this embodiment, only the statistical values of the shooting parameters for the images used for compositing are stored, but the present invention is not limited to this, and the images taken to generate the image data and not used for compositing are also stored. One or more types of information on the above statistical values including the information may be stored.
  • the source image information 305 is information regarding the shooting parameters of each image acquired to generate the image data of the image data file 201.
  • Shooting parameters such as exposure time, aperture value, ISO sensitivity, and focal length are recorded in order for each shot image. By storing such information, it is possible to determine how many images taken by shooting a certain scene and how many images were taken with what shooting parameters were obtained and generated. Information can be collected. (Overall operation of digital camera)
  • step S401 the power switch included in the operation unit 111 is operated by the user to switch the power on, so that the control unit 101 initializes the flags, control variables, and the like.
  • shooting mode information is acquired, and judgment and setting are performed.
  • the setting information of the number of images N used for compositing is also acquired, and the determination and the setting are performed.
  • step S402 the control unit 101 determines the setting position of the mode changeover switch included in the operation unit 111, proceeds to step S403 when the shooting mode is set, and steps S404 when a mode other than the shooting mode is set. Proceed to. Details of the shooting mode processing in step S403 will be described later.
  • step S404 the control unit 101 determines whether the mode changeover switch is set to the reproduction mode, proceeds to step S405 if it is set to the reproduction mode, and proceeds to step S406 if a mode other than the reproduction mode is set. move on. Details of the reproduction mode processing in step S405 will be described later.
  • step S406 the control unit 101 executes processing according to the other selected modes, and proceeds to step S407 after the execution.
  • Other modes include a communication mode for transmitting and receiving files stored in the recording medium 108.
  • step S407 the control unit 101 determines the setting position of the power switch. If the power switch is set to power on, the process returns to step S402, and if the power switch is set to power off, the process proceeds to step S408. In step S408, the control unit 101 performs a predetermined termination process.
  • the termination process includes the following processes. That is, the control unit 101 changes the display of the display unit 109 to the finished state, closes the lens barrier, and protects the image pickup unit 105. Further, the control unit 101 records parameters including flags and control variables, setting values, and setting modes in a non-volatile memory or the like, and then shuts off the power supply to a portion that does not require power supply. (Shooting / recording processing)
  • FIG. 5 shows a flowchart of the photographing / recording process of the imaging device 100 in this embodiment.
  • FIG. 5 is a flowchart showing details of the shooting mode processing in step S403 of FIG.
  • the control unit 101 sequentially outputs the images captured by the display unit 109, and performs a through display in which the images are sequentially displayed on the display unit 109.
  • step S502 the control unit 101 determines whether or not the shutter switch SW1 has been pressed by the user. If it is pressed, the process proceeds to step S503, and if it is not pressed, the shutter switch SW1 is waited for to be pressed.
  • step S503 the control unit 101 performs a shooting preparation operation. That is, distance measurement is performed to focus the photographing lens 103 on the subject, and photometry is performed to determine the aperture value and the shutter time. Based on the photometric result, the control unit 101 also sets the flash emission amount and the like if necessary.
  • step S504 the control unit 101 determines whether or not the shutter switch SW2 has been pressed by the user, and if it is pressed, the process proceeds to step S506. If it is not pressed, the process proceeds to step S505, and the control unit 101 determines whether the shutter switch SW1 is continuously pressed. When the shutter switch SW1 is released, the process returns to step S502. If Yes in step S505, the process returns to step S504.
  • step S506 the control unit 101 acquires the date and time when the shooting starts from the RTC (Real Time Clock) in the control unit 101 and stores it in the RAM 103. Subsequently, in step S507, the synthesis processing flag i is set to 0. Subsequently, in step S508, the control unit 101 opens the shutter in the optical system 104 having an aperture function according to the aperture value according to the photometric data stored in the RAM 103 or the ROM 102, and starts exposing the image sensor of the image pickup unit 105.
  • RTC Real Time Clock
  • step S509 the control unit 101 outputs image data from the image pickup unit 105, and then uses the image processing unit 107 to perform image processing such as compression / coding processing.
  • step S510 the control unit 101 determines whether or not the set shooting mode is a shooting mode involving compositing processing. That is, in step S401, the control unit 101 functions as a determination means (acquisition means) for determining (acquiring) the photographing mode or the synthesis method performed by the synthesis means.
  • the process proceeds to step S511, and the image identification information 301 to be recorded in the header is determined as the type data “1” indicating that it is a normal image (non-composite image) and stored.
  • the control unit 101 functions as a type data generation means for generating type data according to the type of composition associated with the setting of the shooting mode, for example.
  • control unit 101 determines the type data (“1” as the image identification information 301) when the image processing unit 107 does not synthesize the data. Then, in step S512, the image data is recorded on the recording medium 108 together with the image data. At this time, the control unit 101 functions as a recording control means for recording the type data corresponding to the type of synthesis in the APP1 (203), which is the header area of the Exif standard, in association with the recorded image. After step S512, the process returns to step S501.
  • step S510 If it is determined in step S510 that the compositing process mode is used, the process proceeds to step S513, and compositing is performed in the preset compositing processing mode. At this time, the control unit 101 functions as a compositing means for composing a plurality of captured images by a plurality of types of methods to generate a composite image.
  • step S514 it is determined whether or not the number of captured images used for compositing has reached the preset number N of images, and if not, the process returns to step S508 to perform a new exposure operation.
  • step S515 When the number of images reaches N, the file name and shooting date and time are acquired in step S515, and in step S516, a header for recording these data and type data according to the type of composition in APP1 (203) as a header area. Generate information.
  • control unit 101 when the control unit 101 is synthesized by the synthesis means, the control unit 101 has at least two types of data (“2” or “3” as the image identification information 301) depending on the type of synthesis. Generate one of them.
  • image processing unit 107 determines an appropriate classification from at least one of three types of data, including the case where the composition is performed and the case where the composition is not performed.
  • step S517 the control unit 101 displays an image on the display unit 109 and records on the recording medium 108.
  • the control unit 101 functions as a recording means for recording the type data in the APP1 (203), which is the header area of the Exif standard, in association with the recorded image.
  • the type data is a predetermined type data (composite identification information is 3)
  • site identification information is 3
  • at least "the number of captured images used for compositing” and “shooting conditions of the captured images used for compositing” are set. For example, the exposure time and the like are recorded in the same region APP1 (203).
  • FIG. 6 is a flowchart showing details of the reproduction mode process of step 405 of FIG.
  • the playback mode is started by the playback instruction via the mode changeover switch by the user. Alternatively, this flow is started when the power of the device is turned on and started while the playback mode is set.
  • the control unit 101 acquires initial image information from the recording medium 108.
  • This initial image is the latest image or the image displayed in the previous playback.
  • the image of the initial image can be displayed as soon as the playback mode is entered, and during processing such as calculating the total number of images. , You can prevent the problem that nothing is displayed.
  • step S602 the control unit 101 determines whether or not the initial image information in step S601 has been acquired correctly. This judgment is made because there are cases where there is no image or there are cases where image information cannot be obtained due to media defects. If the initial image information can be obtained, it is determined that there is at least one image. If there is an image, the process proceeds to step S603, and if there is no image, the process proceeds to step S609.
  • step S603 the control unit 101 reads the initial image from the recording medium 108 based on the initial image information acquired in step S601.
  • step S604 file analysis processing is performed, and the control unit 101 analyzes and acquires attribute information such as shooting information and composite information of the read initial image.
  • the control unit 101 sets the type data according to the type of composition recorded in association with the recorded image, the information indicating the composition type, the number of captured images used for the composition, and the captured image used for the composition.
  • Type for acquiring shooting conditions It functions as a data acquisition means. Also, check if the image data is corrupted.
  • step S605 the control unit 101 displays the read initial image, and selectively displays attribute information such as shooting information and composite information together with the image as needed. This selective display will be described later in FIG. Further, when it is analyzed that the data is invalid such that a part of the file of the initial image is broken according to the file analysis result in step S604, the control unit 101 also displays an error.
  • step S606 the control unit 101 starts calculating the total number of images recorded on the recording medium 108 and acquires the total number of images. This process works asynchronously with the image display process, and it is possible to proceed to the next image display process without waiting for the completion. By processing in this way, even when many images are recorded on the recording medium 108 and it takes time to calculate the total number of images, the images can be viewed.
  • step S607 the control unit 101 analyzes all the images in the recording medium 108 and starts creating a search list as the search result.
  • the search list is a list in which attribute information added to each image is acquired in advance and managed collectively. By creating this search list, for example, it is possible to collectively set images having a certain attribute as playback targets or deletion targets.
  • step S608 the control unit 101 waits for the user to input playback. Proceed to the state. If there is no image in step S602, the process proceeds to step S609, and the control unit 101 displays a message such as "there is no image" to the effect that there is no image via the display unit 109. , Step S608.
  • FIG. 7 is a diagram showing an image list display example in the embodiment, and FIG. 7A shows an example of a screen displayed on the display unit 109 when the image display application is operated in the present device.
  • FIG. 7A shows that the image data Image1 to Image12 stored in the RAM 103 are displayed in a list.
  • This image is obtained from, for example, a digital camera or a mobile phone. It may also be downloaded from a server on the network. It is also possible to use thumbnails of image data without using the image data body.
  • the display switching button 401 is selected (touched) in the state of FIG. 7 (A), the screen transitions to the screen of FIG. 7 (B).
  • an icon in the shape of a "pin” (hereinafter referred to as a pin icon) is superimposed and displayed on the thumbnail of the image. That is, the pin icon is displayed for the image file having the composition-related information.
  • image identification information 301 ("1" to "3", etc.), composition type information 302, etc. are described as composition-related information in Image 1, 3, 4, 6, 7, 8, 10, and 11. It shows that it is.
  • the pin icon does not necessarily have to be completely superimposed on the thumbnail, and it is sufficient to distinguish between image files that have / do not have composition-related information, so a part of the pin icon may be superimposed or superimposed on the thumbnail in the image data. It does not have to be displayed in the vicinity.
  • a pin icon is superimposed and displayed on the image data in which the composition-related information is described. By checking this screen, the user can easily check which image data the composition-related information is added to.
  • the screen transitions to the screen of FIG. 7 (C).
  • the image identification information 301 and the composition type are changed by changing to the icons and characters corresponding to the image identification information 301 and the composition type information 302 instead of the pin icons up to that point.
  • Information 302 and the like can be easily identified.
  • composition type information 302 is panoramic composition, that is, the composition using panoramic composition is the composite image data.
  • HDR indicating HDR composition or an icon indicating HDR is superimposed and displayed. This is to show that the composition type information 302 is the image data obtained by "HDR composition”.
  • Image7 is superposed with "additive” indicating additive synthesis or an icon indicating additive synthesis.
  • Image3 remains a pin icon. This indicates image data in which the composition type information 302 is not described. Further, when the number of captured images used for compositing and the shooting conditions of the captured images used for compositing are recorded on the recording medium in association with the recorded images, at least one of them should be selectively displayed. You may be able to do it.
  • the type data is, for example, "3”
  • the number of captured images used for compositing and the shooting conditions of the captured images used for compositing are recorded on the recording medium in association with the recorded images.
  • characters, icons, and the like corresponding to the composition type information 302 are superimposed and displayed on the image data.
  • the user can easily confirm which image data was combined by which composition type, the number of captured images, the shooting conditions of the captured images used for the composition, and the like.
  • the screen changes to the screen of FIG. 7 (A). That is, each time the display switching button is clicked, the above three types of display screens are switched in order. In the above embodiment, it is assumed that each time the display switching button 401 is operated, the display form loops in the order of FIG. 7 (A) ⁇ FIG. 7 (B) ⁇ FIG. 7 (C) ⁇ FIG. 7 (A). .. However, one of the display types may be specified directly from the display menu, and the display may be performed accordingly.
  • shooting conditions for captured images such as image identification information 301, composite type information 302, source image number information 303 which is the number of captured images used for composition, composite image information 304, and source image information of composite images.
  • Etc. may be displayed at least one of them. By looking at them, the photographer's intentions and ingenuity can be grasped. (Image processing during playback)
  • the control unit 101 reads image data from the ROM 102 or the recording medium 108 and displays it on the display device of the display unit 109.
  • the image processing unit 107 is made to input the image data corresponding to the image displayed on the display unit 109 and perform the image processing.
  • the control unit 101 rewrites the header information of the image data that is the target of the image processing according to the image processing performed by the image processing unit 107.
  • the image data to be processed such as gradation conversion processing, color conversion processing, defect correction processing, and filter processing.
  • image processing performed based on the pixel value is performed.
  • control unit 101 also stores "3" indicating the composite image acquired at the time of shooting in the image identification information 301 in the image file that stores the processed image data.
  • image data in which "3" is stored in the image identification information 301 of the image file is subjected to some kind of composition processing with other source images, text data, frames, icons, CG, and the like.
  • control unit 101 stores "2" indicating a general composite image in the image identification information 301 in the image file that stores the processed image data.
  • the control unit 101 stores the processed image data for the image data in which "2" is stored in the image identification information 301 of the image file, regardless of which of the above image processing is performed.
  • the image identification information 301 also stores "2" indicating a general composite image in the file.
  • the image data in which "1" is stored in the image identification information 301 of the image file is subjected to image processing corresponding to the processing classified as "2" or "1" in each of the above shooting modes.
  • the control unit 101 determines the image identification information 301 corresponding to the processed image data according to the above classification. That is, the control unit 101 determines whether or not the image processing performed on the reproduced image is composition and the method of composition processing.
  • the image identification information 301 to be recorded in the image file that stores the processed image data is determined, and recorded in the composite information unit 2091 of the image file including the processed image data.
  • image processing performed based on the pixel value of the image data to be processed such as other gradation conversion processing, color conversion processing, defect correction processing, and filter processing is performed, the processed image data is stored.
  • the image file also stores "1" indicating a non-composite image in the image identification information 301.
  • the user or the computer by recording the information stored in the composite information unit 2091 together with the image data, the user or the computer appropriately determines the image according to the presence or absence and type of the composite processing. You will be able to process it. For example, it is possible to collect image files including HDR-synthesized images, analyze the information recorded in the composite information unit 2091 by AI or the like, and learn various shooting conditions.
  • the exposure time and ISO of the material image can also be utilized for that purpose.
  • the tag indicating the total exposure period including the exposure time of each captured image and the non-exposure period between the captures of each captured image attached to the composite image is taken for this amount of time. It becomes possible to infer that the trajectory will be about this level. As a result, it is not necessary to set the shooting time unnecessarily long.
  • composition failed (when the camera judges that it failed at the time of shooting, when the cloud side judges it as a failure, or when the user judges it as a failure and gives a bad rating etc.) Record the information in a file. Then, it can be used for the next shooting conditions.
  • the cause of the failure is considered to be camera shake, it can be regarded as a user who is prone to camera shake, and improvements can be made such as setting the exposure time automatically determined by the control unit 101 for the next and subsequent shootings to a shorter time. become.
  • the information in the composite information unit is referred to when performing image processing on the composite JPEG image used for determining the image processing parameters of the composite image with an application or the like.
  • the logic for determining the parameters can be changed in the case of a composite image.
  • the parameter is set to ISO3200
  • the parameter is set to ISO2500
  • the parameter is set to ISO1600, and so on.
  • the parameters can be switched according to the ISO sensitivity of the source image.
  • a computer program that realizes the functions of the above-described embodiment may be supplied to an image processing device or the like via a network or various storage media with a part or all of the control in the present embodiment. Then, a computer (or CPU, MPU, etc.) in the image processing device or the like may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.
  • Imaging device 105 Imaging unit 110 Distance map acquisition unit

Abstract

合成処理の有無や種類に応じて画像を適切に判別し処理できる画像処理装置を提供する。 実施例の画像処理装置は、撮影された複数の撮影画像を合成して合成画像を生成する合成手段と、前記撮影画像または前記合成画像を記録部に記録画像として記録する記録制御手段と、撮影モードあるいは前記合成手段で行う合成の方法を判定する判定手段と、を有し、前記記録制御手段は、前記判定手段が判定した撮影モードまたは合成の方法で撮影または合成された記録画像に、該判定による判定結果に基づいて決定される種類データを関連付けて記録することを特徴とする。

Description

画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
 本発明は複数画像の合成または合成画像の再生が可能な画像処理装置等に関するものである。
 デジタルカメラやカメラ付き携帯端末等の撮像装置では、撮影して得られた画像データの属性情報に、撮影条件などを付帯させて1つの画像ファイルとして記録することが出来る。特許文献1では、撮影時に複数画像を合成する多重露出撮影によって得られた合成画像データを記録する際に、多重の回数をメタデータとしてファイルヘッダに記録する技術の開示がある。特許文献1では多重の回数をもって当該画像データが多重露出撮影された画像であることも判断するとしている。
特開2012-094978号公報
 しかしながら上記既存の技術では、多重露出撮影という1つの合成を伴う撮影モードで撮影された画像であるか否かを識別できるに過ぎない。種々の合成を伴う撮影モード、あるいは種々の合成処理シーケンスによって生成された画像や、当該画像の属性情報を識別するための汎用的な付帯情報については考慮されていなかった。
 本発明はかかる課題に鑑みてなされたものであり、合成処理の有無や種類に応じて画像を適切に判別し処理できる画像処理装置を提供するものである。
 上記課題を解決するため、本発明の1つのアスペクトの画像処理装置は、
 撮影された複数の撮影画像を合成して合成画像を生成する合成手段と、
 前記撮影画像または前記合成画像を記録部に記録画像として記録する記録制御手段と、
 撮影モードあるいは前記合成手段で行う合成の方法を判定する判定手段と、を有し、
 前記記録制御手段は、前記判定手段が判定した撮影モードまたは合成の方法で撮影または合成された記録画像に、該判定による判定結果に基づいて決定される種類データを関連付けて記録することを特徴とする。
 本発明によれば、合成処理の有無や種類に応じて画像を適切に判別し処理できる画像処理装置を得ることが可能になる。
本実施例における画像処理装置のブロック構成図である。 画像データファイルのデータ構造の例を示す図である。 合成情報部のデータ構造の例を示す図である。 実施例における画像処理装置の全体フローチャートである。 実施例における撮影モードのフローチャートである。 実施例における再生モードのフローチャートである。 実施例における画像一覧表示例を示す図である。
 以下、本発明の実施例を、図面を用いて詳細に説明する。なお、本発明の実施例に係る画像処理装置として、撮像装置の例を用いて説明する。しかしながら画像処理装置は、パーソナルコンピュータ等の汎用の画像処理装置(以下、PCとする)、デジタルカメラ、デジタルムービーカメラなどを含む。また、携帯電話、スマートフォン、いわゆるタブレット端末、カーナビゲーション装置など、画像ファイル一覧を表示可能な装置であればいずれにも適用可能であり、本発明の画像処理装置はそれらの製品形態を含む。
 図1は、本実施例の画像処理装置の一例としての撮像装置100の機能構成を示すブロック図である。制御部101はコンピュータとしてのCPU(中央演算処理装置)を備え、撮像装置全体を制御する制御手段として機能している。
 制御部101は、撮像装置100が備える各構成部を動作させるためのコンピュータプログラムを記憶媒体としてのROM(リード・オンリ・メモリ)102から読み出し、RAM(ランダム・アクセス・メモリ)103に展開して実行する。
 ROM102は書き換え可能な不揮発性メモリであり、CPUが実行する動作プログラムに加え、撮像装置100が備える各構成部の動作に必要なパラメータ等を記憶する。RAM103は書き換え可能な揮発性メモリであり、撮像装置100が備える各構成部の動作において出力されたデータの一時的な記憶領域として用いられる。
 撮像光学系104はレンズや絞り及びそれらの光学部材を駆動する駆動部等を備え、被写体からの光を撮像部105に結像させる。撮像部105はCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等の撮像素子を備える。撮像素子は、撮像光学系104により結像された光学像に対して光電変換を行い、アナログ画像信号を形成し、撮影画像を生成するための撮像手段として機能する。
 前記アナログ画像信号は撮像部105のA/D(アナログ/デジタル)変換部によりA/D変換されてデジタル画像データとなりRAM103に記憶される。なお、本実施例では撮像手段を画像処理装置内に有するが画像処理装置は撮像手段を持たないものであっても良い。
 画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、縮小/拡大、フィルタリング等の様々な画像処理を適用する。
 記録媒体108は、撮像装置100に着脱可能なメモリカード等であり、RAM103に記憶されている画像データを記録するための記録部として機能する。ここで制御部101は、記録媒体108に撮影画像または前記合成画像を記録画像として記録する記録制御手段としても機能している。画像処理部107で処理された画像データや、撮像部105によるA/D変換後の画像データ等が、記録画像データとして記録媒体108に記録される。また画像処理部107は、撮像部105による撮影時に予め設定された撮影モードに基づいた方法で、該撮影で得られ撮像部105から出力された複数の画像データを合成処理する。
 例えば、操作部111によってユーザから設定された撮影モードを示す信号や撮像時に制御部101によって画像から判定(取得)された撮影シーンに基づいて決まった撮影モードに従って、制御部101は画像処理部107に指示を出す。それによって撮影モードに応じた合成処理が行われる。さらに制御部101はこのとき撮影モードを判定(取得)することで合成に係る画像の種類を示す種類データを決定し、画像処理部107で合成処理が行われた後の合成画像の画像データに対して決定した種類データを関連づけて記録媒体108に記録する。
 例えば本実施形態では、ヘッダ情報の少なくとも一部が汎用的な規格(Exif規格)に準拠して構成された画像ファイルを生成する。そして、このヘッダ情報の規格に準拠したデータ領域に種類データを記録することで、同じく画像ファイル内の画像データ部に記録される画像データと種類データとを関連づける。
 画像処理部107は制御部101の指示に基づいて入力される複数の画像データに合成処理を行う。このとき、合成対象となるデータの少なくとも一部がROM102あるいは記録媒体108より読み出されたデータであってもよい。
 また画像処理部107は操作部111によってユーザから設定された合成処理の方法にしたがって、ROM102あるいは記録媒体108に記録された複数の画像データを再生時に合成する。各撮影モードとそれに対応する合成処理や再生時の各種合成処理については後述する。
 表示部109は、LCD(Liquid Crystal Display)等の表示デバイスを備え、撮像部105により取得された撮像画像のスルー画像表示等を行う。また表示部109は、文字や画像などのデータや、メニューなどのいわゆるグラフィカルユーザインタフェースを表示する。
 距離マップ取得部110は、例えばTOF(Time of Flight)方式やステレオカメラ等で被写体の距離分布に関連する情報を距離マップとして作成することによって取得する。
 距離マップまたは撮像画像に関連する視差のある画像間の像ずれ量分布やデフォーカス量分布のデータ等は、被写体の奥行方向における深度情報の分布を表すことになる。以下では、深度情報の分布を表すデータを距離マップデータという。取得された距離マップデータはデジタルデータとしてRAM103に記憶される。マップデータの生成方法については多くの方法が周知であり、いずれを使っても良い。
 操作部111は、各種の物理的な操作部材のボタン、ダイヤル、タッチパネル、スライドバー等を含み、使用者の操作を受け付け、制御部101等に指示信号を出力する。
 通信部106は、外部装置と通信するための無線LANインタフェースなどであるが、有線LANインタフェース、USBインタフェース等、外部装置と通信できるものであれば良く、その種別は問わない。この通信部106を介して、外部装置(例えばPCやスマートフォン等)と画像ファイルを送受信することができる。
 (画像ファイルのデータ構造)
 図2は、撮像装置100が生成・管理する画像ファイルのデータ構造を示している。本実施例では、Exif規格にしたがったファイル形式を採用するものとする。画像データファイル201は、例えば撮像部105による撮像時に生成されたり、通信部106を介して取得したり、記録媒体108あるいはROM102に保存されていたりする。撮像装置100が画像データファイル201を処理する際には、一時的にRAM103にコピーされることもある。
 画像データファイル201は先頭に画像開始を示すマーカーSOI(202)を有し、その後にヘッダ領域としてアプリケーションマーカーAPP1(203)(APP1領域)を有する。
 アプリケーションマーカーAPP1(203)内は、APP1のサイズ(204)、APP1の識別コード(205)、画像の作成日時を示す DateTime(206)、画像データが生成された日時を示す DateTimeOriginal(207)、画像の関連を示すRelationInformation(208)、撮影情報等(209)およびサムネイル画像(210)から構成される。
 DateTime(206)および DateTimeOriginal(207)にはRAM103に記憶した撮影日時情報を格納する。また、RelationInformation(208)には例えば合成される複数の撮影画像間において関連がある事を示す所定の情報が記載される。この所定の情報は最初に記録した関連画像の画像番号でも良いし、特定の撮影モードを示す情報でも良い。
 撮影情報等(209)としては、たとえば、撮影日時、撮影パラメータ(露光時間、絞り値、ISO感度、焦点距離、補助光源の有無等)、本実施例に係る合成情報部2091を含む。合成情報部2091には、本実施例で生成、処理する合成関連の情報が保持される。
 また記録される本画像データは、量子化テーブルDQT(212)、ハフマンテーブルDHT(212)、フレーム開始マーカーSOF(213)、スキャン開始マーカー(214)および圧縮データが格納された画像データ部215から構成され、画像データの最後を示すマーカーEOI(216)で終端される。
 本実施例で示したファイル構造はExif規格の構造に合わせたものとしたのでExif規格と互換性を持つことができる。しかし、本実施例の合成情報等の各種情報の記録構造は、必ずしもExif規格の構造に限定されない。例えば画像データファイル201とは別のファイルに記録してもよいし、撮像装置100が持つ特別なデータベースに記録してもよい。
 図3は、合成情報部2091に保持されている情報の一例を示している。本実施例では、後段の画像処理部107や外部装置のアプリケーション、ネットワークサーバー上などで本合成画像と、本合成画像に係る情報を元に、合成処理の最適化や復元やAI等を用いた学習を行うために、本合成に係る様々な情報を記録する。かつこれらの情報の少なくとも一部を汎用的なExif領域に格納することで、Exif準拠の各種装置と互換性を持たせることができ、汎用的なアプリケーションでも参照可能とすることができる。
 合成情報部2091には画像識別情報301、合成種別情報302、合成画像のソース画像数情報303、合成画像情報304、合成画像のソース画像情報305を記載する領域がそれぞれ配されている。
 画像識別情報301は、主に合成に係る画像の種類を示す種類データで、「非合成画像」、「一般合成画像」、「撮影時取得合成画像」などの分類情報からいずれか1つが格納される。
 「撮影時取得合成画像」は、撮影時に撮像素子から取得された一連の複数のソース画像(暫定記録画像)のみ(全数の使用を必須としない)から合成された画像である。かつ全てのソース画像の取得の際に撮影の条件(絞り値、被写体距離、光源、レンズ焦点距離など)と被写体の範囲(撮影視野)がそれぞれ実質的に一定であるとみなせる合成画像に付される分類である。
 「撮影時取得合成画像」には第1の種類データとして「3」が付与される。「一般合成画像」は、複数の撮影画像(ソース画)から合成された合成画像に付される分類であり、合成の方法を限定しない。「一般合成画像」には第2の種類データとして「2」が付与される。
 「非合成画像」は、「一般合成画像」「撮影時取得合成画像」に分類される合成画像とみなせない画像に付与する、例えば合成されていないとみなされる画像に付与される分類である。「非合成画像」には種類データとして「1」が付与される。なお、画像識別情報301として上記の「1」~「3」のいずれか以外の値を用意し、用いても良い。例えば、いずれの分類に付されるかが不明な場合は、種類データとして「0」を付与するなどしてもよい。
 (各合成モードとその分類)
 次に各種の撮影モードで合成処理を伴うものによって得られる画像や再生時の各種合成処理によって得られる合成画像に対する画像識別情報301の付与例について説明する。
 なお、本実施例では、前述のように、撮影時に合成に使われた複数枚の画像の撮影条件と画角が実質的に同じ場合には第1の種類データとして「3」を生成する。また、合成に使われた複数枚の画像の撮影条件と画角の一方が実質的に異なる場合には第2の種類データとして「2」を生成する。また非合成の場合は第3の種類データとして「1」を生成するものとする。
 例えばマルチショット系(異なるタイミングあるいは撮像光学系で複数の撮影を伴う撮影モードを以降マルチショット系と呼ぶことにする)の合成の種類の一つとして撮影時にHDR(High Dynamic Range)合成をするモードがある。この撮影時HDR合成モードでは、ISOやシャッタースピードなど、複数のソース画像の中で撮影条件が一定と見なせないものがある。従って画像識別情報として第2の種類データである「2」を付与する。
 なお、撮影時HDR合成モードではISOやシャッタースピード以外の撮影条件は、複数のソース画像の中で実質的に一定と見なして、画像識別情報として第1の種類データである「3」を付与するようにしても良い。ここで撮影時のHDR合成は、例えば露出(ISOやシャッタースピード等)の異なる複数枚の画像を撮影し、それぞれの画像を異なるガンマで現像し、現像結果を合成するものである。なお、撮影時HDR合成モードは露出条件の異なる複数の画像のなかから、画像の輝度値に応じて適正な画像を抜き出して合成するモードである。
 また、マルチショット系の合成の種類の一つとして再生時に画像処理装置やPCアプリなどでHDR処理をする場合(再生時HDR合成モード)でも、画像識別情報として第2の種類データである「2」を付与する。これは、撮影時に合成された画像ではないためである。またISOやシャッタースピードなど、複数のソース画像の中で撮影条件が一定と見なせないものがあるためである。ここで再生時に画像処理装置やPCアプリなどで行うHDR処理とは、例えばユーザが選択した画像を露出差に応じたガンマでそれぞれ現像し、現像結果を合成するものである。
 また、マルチショット系の合成の種類の一つとして、例えばHDR絵画調撮影を行うHDR絵画調撮影モードで得られた合成画像の場合も上記と同様に画像識別情報として「2」を付与する。なお、HDR絵画調撮影とは、露出(ISOやシャッタースピード等)の異なる複数枚の画像から階調処理を行うなどして絵画のような雰囲気を持つ合成画像を生成するモードである。
 また、合成の種類の一つとしてマルチショットノイズ低減機能を達成するために複数撮像を行い、合成画像を生成する撮影モードで得られる合成画像の場合にも画像識別情報として「2」を付与する。これは、撮影条件は一定とみなせるが、手持ち撮影前提の機能であり、手振れ等により各撮影画像の画角が異なる場合があり画角が一定と見なせないためである。
 なお、マルチショットノイズ低減機能を達成するために複数撮像を行い、合成画像を生成する撮影モードのときに、画角(被写体の範囲、撮影視野)及び撮影条件が実質的に一定と見なせると考えることもできる。従って画像識別情報として「3」を付与するようにしても良い。なお、マルチショット低減機能とは、同一撮影条件で複数枚撮影した画像を、検出される振れ量に基づき位置合わせしてから合成し、ノイズの低減された合成画像を得る撮影モードであり、被写体が暗くノイズが多い場合などに用いる。
 また、手持ち撮影で夜景をストロボなしで複数回撮影することを前提とした手持ち夜景撮影モードで得られる合成画像の場合も画像識別情報として「2」を付与する。これも撮影条件は一定であるが、手持ち撮影前提の機能であり、手振れにより各撮影画像の画角が異なる場合があり画角が一定と見なせないためである。
 ただし、手持ち夜景撮影モードで得られる合成画像であるときに、画角(被写体の範囲、撮影視野)及び撮影条件が実質的に一定であると見なして画像識別情報として「3」を付与するようにしても良い。
 また、合成の種類の一つとして手持ち撮影で夜景をストロボありの撮影とストロボなしの撮影を連続で行う場合も、画像識別情報として「2」を付与する。これは手持ち撮影を前提とした機能であり、画角が一定と見なせないためである。また撮影条件のうち、「光源」に関する条件が変わる撮影画像が存在するためである。
 ただし、手持夜景ストロボありのときに、「手持ち夜景ストロボなし」と画像識別情報の振り方を変えて混同しないようにするために、画像識別情報として「3」を付与しても良い。そして手持ち撮影で夜景をストロボありの撮影に原則的に画像識別情報として「3」を付与するようにしてもよい。
 次にいわゆるクリエイティブフィルタ系の撮影の場合について説明する。クリエイティブフィルタ系の撮影とは、撮影された画像に特殊な画像処理効果を施して記録する撮影モードである。
 撮影時の撮影モードの種類として所謂ラフモノクロ撮影、ソフトフォーカス撮影、ジオラマ風撮影、トイカメラ撮影、油彩風撮影、水彩風撮影、魚眼風撮影、美肌撮影、背景ぼかし撮影などの場合には画像識別情報として「1」を付与する。
 また、これらのモードで撮影画像に行われる画像処理と同等の画像処理を再生時に画像に施す編集モード(アプリケーション)で得られる画像に対しても、画像識別情報として「1」を付与する。「1」を付与する理由は、これらの撮影モードあるいは編集モード(アプリケーション)で行われる画像処理の中には、画像同士の合成を伴うモードもあるものの、複数の撮影画像(ソース画像)を用いた合成処理でないためである。
 ラフモノクロ撮影とは、画像を1枚撮影するとともに、撮影した画像にランダムノイズを重畳し、モノクロ処理を施すことでモノクロフィルムのような効果を出す撮影である。ソフトフォーカス撮影とは画像を例えば1枚撮影し、撮影画像にLPF(Low Pass Filter)をかけた画像と元の撮影画像とを一定比率で合成するような撮影である。
 ジオラマ風撮影とは画像を例えば1枚撮影し、撮影画像にLPFをかけた画像と元の撮影画像とを一部の領域で合成する。それによって画像の一部の領域をぼかして現実の被写体をジオラマにしたものを撮影したかのような画像効果を付与する画像を生成するモードである。
 トイカメラ撮影とは、画像を例えば1枚撮影し、トイカメラで撮影されたかのような画像効果を付加する撮影である。トイカメラ撮影で行われる画像処理は、例えばLPFをかけた画像と元の画像とを合成することで甘いピント効果を再現したり、輝度、色変換などにより明るい仕上がり、偏った色調、周辺減光などの効果を再現したりする処理である。
 油彩風撮影とは、画像を例えば1枚撮影し、撮影された画像に画像処理を施し、元の画像と合成することで油絵のような見えになる画像処理を施したものである。
 水彩風撮影とは、画像を例えば1枚撮影し、撮影された画像に画像処理を施し、元の画像と合成することで水彩画のような見えになる画像処理を施したものである。魚眼風撮影とは、画像をたとえば1枚撮影し、領域毎に魚眼レンズ風の歪みを持たせるように画素の合成(補間)を行うことで、魚眼レンズで撮影したかのような効果を施したものである。
 美肌撮影とは、肌色部分のNR(Noise Reduction)を強くして解像感を落し、肌の質感を滑らかにする撮影モードである。背景ぼかし撮影とは、絞りを変えて例えば2枚撮影し、2枚の画像の差分から主被写体と背景を分離し、背景をぼかす撮影である。この場合合成のソース画像は1枚とし、ぼかす領域を決定するために複数枚撮影をする。背景ぼかし撮影を、絞りを開放にすることによって実現する場合もある。
 日付写し込み撮影とは日付テキストデータを画像に重畳するものである。
 また、合成の種類の一つとして多重露光撮影(多重合成モード)の場合には画像識別情報として第2の種類データである「2」を付与する。これは、撮影条件および画角をユーザが自由に設定可能であるため、それぞれ一定とみなせないためである。また連写優先の場合には一枚目に記録画像を選択できるためである。
 ただし、制御部101によって複数枚の撮影に当たる撮影条件および画角が一定とみなせると判定された場合には画像識別情報として第1の種類データである「3」を付与する。これは、三脚使用を検知することなどによって撮影条件が変わっていない場合があるからである。また連写を前提として多重露光撮影(多重合成モード)が実装されている実施形態の場合には、画角一定、撮影条件が実質的に一定と見なせるため、常に画像識別情報として第1の種類データである「3」を付与するようにしてもよい。
 なお、多重露光撮影には、例えば加算モード、加算平均モード、比較明モード、比較暗モードなどが含まれる。加算モードとは複数枚撮影し、RAW画像を単純に加算するものである。加算平均モードとは、複数枚撮影し、RAW画像を単純に加算平均するものである。これによって例えば非常に暗い画像のS/Nを向上させるためのものである。
 比較明モードとは、複数枚撮影しRAW画像を合成する際に、同一座標における画素値が低くない方を採用する比較明合成処理を行うものである。
 比較暗モードとは、複数枚撮影しRAW画像を合成する際に、同一座標における画素値が高くない方を採用する比較暗合成処理を行うものである。
 また、合成の種類の一つとしてパノラマ撮影や深度合成撮影や星空ポートレート撮影の場合には、画像識別情報として「2」を付与する。これは、画角が異なるソース画像の合成であるためである。
 なお、パノラマ撮影とは、ユーザがカメラをパンニングするなどして複数の画角で撮影し、それらを合成するものである。この合成によって、複数の異なる画角で撮像された複数の画像を繋げてより広角の画像が生成される。パノラマ撮影で合成により得られる広角な画像には全方位(360度)の画像なども含まれる。
 なお、深度合成撮影や星空ポートレート撮影の場合には画像識別情報として「3」を付与するようにしても良い。これは深度合成撮影の場合には、ピントを振った程度なので、画角も実質的にほぼ一定、ピント以外の撮影条件も実質的に一定とみなせるためである。また、星空ポートレート撮影の場合にも画角も実質的にほぼ一定、ピント以外の撮影条件も実質的にほぼ一定とみなせるためである。
 深度合成撮影とは、ピントを振って複数枚撮影し、距離マップ取得部110により取得された距離マップなどに基づいて複数の画像のピントが合っている領域を合成して、各画像よりも深度の深い画像を生成する撮影である。星空ポートレート撮影とは、ストロボを発光させて撮影を行うストロボ撮影の後、ストロボは非発光で連続して例えば2枚を撮影し、例えば3枚の画像を合成するような撮影である。
 なお、合成の種類の一つとして星空軌跡撮影では画像識別情報として「3」を付与する。これは画角(被写体の範囲、撮影視野)及び撮影条件が一定と見なせるためである。なお、星空軌跡撮影とは星空を複数枚撮影し比較明合成する撮影モードである。
 また撮像部105が例えば撮像素子と信号処理部とが一体の多層構造となったいわゆる積層センサである場合を考える。
 このとき該積層センサ内で行われる画像合成があったとしても、積層センサからの出力は通常の合成が行われない画像とデータ形式がほとんど変わらない1つの画像データである場合が考えられるため、画像識別情報として「1」を付与する。
 ただし、制御部101から積層センサである撮像部105に撮像部105内の信号処理部に合成処理の指示が行えるような形態である場合には、該合成の指示に応じて撮像部105から出力された画像データに画像識別情報として「2」を付与する。
 あるいは積層センサ内部で積層センサ内のメモリを利用して同一撮影条件の複数枚合成を行った場合には、画像識別情報として「3」を付与するようにしてもよい。
 また合成の種類の一つとして超解像撮影と呼ばれる、撮像素子あるいは撮像光学系を微小に移動させて複数枚の撮影画像を行い、それらの画像を合成することで解像度を上げる撮影モードがある。この超解像撮影モードの場合には、画角をずらして撮像している点で撮影視野が一定とみなせないため画像識別情報として「2」を付与する。
 ただし、超解像撮影の場合には、画角も実質的にほぼ一定、ピント以外の撮影条件も実質的にほぼ一定とみなせるので、画像識別情報として「3」を付与するようにしても良い。
 合成種別情報302は、合成画像がどのような合成処理モード、合成処理、合成条件で合成されたかの種類を示す情報である。合成種別情報302は、例えば前述のような多重露出モード、加算合成、比較明合成、HDR合成、パノラマ合成などの合成用の複数の種類に応じた種類データから本画像データに対応する情報の少なくとも1つが格納される。
 ソース画像数情報303は、画像データファイル201の画像データを生成するために取得した画像の数についての情報で、撮影画像(ソース画像)数、合成画像に使用されたソース画像数を示す合成画像数、使用画像番号の情報が含まれる。撮影画像数とは、本画像データを生成するために撮影した画像の総数を示す。この中には例えば手ぶれ等により画質が悪くなり最終的に合成画像には使用しなかった画像データなどの枚数も含まれている。
 合成画像数は実際に画像データファイル201の画像データ部215に格納されて画像データの生成に用いられた画像の数を示す。使用画像番号とは、合成画像数にカウントされる、本画像データの生成時に合成された画像データそれぞれに係る画像番号を並べた情報である。
 合成画像情報304は、合成に用いられた画像の撮影条件に係る統計値の情報が記録されている。図3には露光時間の統計値として、合成に用いられた画像の中での露光時間の最大値が記録されている。また絞り値、ISO感度、焦点距離の統計値として、合成に用いられた複数画像の絞り値の平均値、ISO感度の平均値、焦点距離の平均値がそれぞれ記録されている。
 合成画像情報304に記録される各撮影条件に係る統計値は1種類に限らず、最大値、最小値、合計値、平均値、分散値などデータ収集やアプリケーションの目的に応じて任意の統計値を複数種類記録しておいてもよい。また、本実施例では合成に用いられた画像についての撮影パラメータの統計値のみを格納しているが、これに限らず画像データを生成するために撮影された、合成に用いられなかった画像も含めた上記統計値の情報も1種類乃至複数種類格納してもよい。
 ソース画像情報305は、画像データファイル201の画像データを生成するために取得した各画像の撮影パラメータに関する情報である。撮影画像ごとに露光時間、絞り値、ISO感度、焦点距離等の撮影パラメータが順に記録される。このような情報を格納しておくことで、あるシーンを撮影して取得された合成画像が、どのような撮影パラメータで撮影された画像を、どれくらいの数だけ取得して生成されたのかについての情報を収集することができる。
 (デジタルカメラの全体動作)
 以下、本実施形態の撮像装置100の全体動作について図4の本実施例の撮像装置100の全体的な動作を説明するためのフローチャートを参照して説明する。なお、図4を含む以下に示すフローチャートは、制御部101がROM102に格納されたプログラムを読み出し、演算処理や制御を行うことにより実現される。
 (全体のフロー)
 ステップS401では、ユーザにより操作部111に含まれる電源スイッチが操作され、電源オンに切り替わることで、制御部101はフラグや制御変数などを初期化する。また撮影モード情報の取得し、判定と設定が行われる。このとき合成処理を伴う撮影モードが設定されている場合には、合成に用いる画像数Nの設定情報も取得し、判定と設定が行われる。
 ステップS402では、制御部101は操作部111に含まれるモード切替スイッチの設定位置を判断し、撮影モードに設定されている場合、ステップS403に進み、撮影モード以外が設定されている場合、ステップS404に進む。ステップS403における撮影モード処理の詳細は後述する。
 ステップS404では、制御部101はモード切替スイッチが再生モードに設定されているかを判断し、再生モードに設定されている場合、ステップS405に進み、再生モード以外が設定されている場合、ステップS406に進む。ステップS405における再生モード処理の詳細は後述する。ステップS406では、制御部101は選択されたその他のモードに応じた処理を実行し、実行後にステップS407に進む。その他のモードとして記録媒体108に格納されたファイルの送受信を行う通信モードなどが含まれる。
 ステップS407では、制御部101は電源スイッチの設定位置を判断する。電源スイッチが電源オンに設定されている場合、ステップS402に戻り、電源スイッチが電源オフに設定されている場合、ステップS408に進む。ステップS408では、制御部101は所定の終了処理を行う。
 終了処理には、以下のような処理が含まれる。すなわち、制御部101は表示部109の表示を終了状態に変更し、レンズバリアを閉じて撮像部105を保護する。また、制御部101はフラグや制御変数などを含むパラメータや設定値、設定モードを不揮発性メモリ等に記録し、その後、電源供給が不要な部分への電源を遮断する。
 (撮影・記録処理)
 図5に本実施例における撮像装置100の撮影・記録処理のフローチャートを示す。
 (撮影モード処理)
 図5は、図4のステップS403の撮影モード処理の詳細を示すフローチャートである。
 撮影モードを開始すると、ステップS501において、制御部101は表示部109に撮像した画像を順次出力して、表示部109に順次表示するスルー表示を行う。
 ステップS502では、制御部101はユーザによりシャッタースイッチSW1が押下されたか否かを判定する。押下された場合、ステップS503に進み、押下されていない場合、シャッタースイッチSW1の押下を待つ。ステップS503では、制御部101は撮影準備動作を行う。即ち、測距を行って撮影レンズ103の焦点を被写体に合わせると共に、測光を行って絞り値およびシャッター時間を決定する。制御部101は測光結果に基づき、必要であればストロボの発光量などの設定も行う。
 ステップS504では、制御部101はユーザによりシャッタースイッチSW2が押下されたか否かを判定し、押下された場合、ステップS506に進む。押下されていない場合、ステップS505に進み、制御部101はシャッタースイッチSW1の押下が継続されているかを判断する。シャッタースイッチSW1の押下が解除されている場合、ステップS502に戻る。ステップS505でYesの場合には、ステップS504に戻る。
 ステップS506では、制御部101は撮影開始する日時を制御部101内のRTC(Real Time Clock)から取得し、RAM103に記憶する。続いて、ステップS507では、合成処理フラグiを0にセットする。
 続いてステップS508で制御部101はRAM103またはROM102に記憶される測光データに従い、絞り機能を有する光学系104内のシャッターを絞り値に応じて開放して撮像部105の撮像素子を露光開始する。
 ステップS509では、制御部101は撮像部105から画像データを出力した後、画像処理部107を用いて圧縮・符号化処理などの画像処理を行う。その後、ステップS510で制御部101は設定されている撮影モードが合成処理を伴う撮影モードか否かを判定する。即ち、ステップS401において、制御部101は撮影モードあるいは前記合成手段で行う合成の方法を判定(取得)する判定手段(取得手段)として機能する。
 合成処理を伴う撮影モードでなければステップS511に進みヘッダに記録する画像識別情報301を通常画像(非合成画像)であることを示す種類データ「1」に決定し、格納する。
 このとき制御部101は、例えば撮影モードの設定に紐づけられた合成の種類に応じた種類データを生成する種類データ生成手段として機能する。
 なお、前述のように制御部101は、画像処理部107によって合成がなされなかった場合には、種類データ(画像識別情報301として「1」)に決定する。そしてステップS512で画像データとともに記録媒体108に記録する。このとき制御部101は、Exif規格のヘッダ領域であるAPP1(203)に合成の種類に応じた種類データを記録画像に関連付けて記録する記録制御手段として機能する。ステップS512の後、ステップS501に戻る。
 ステップS510で合成処理モードであると判別された場合には、ステップS513に進み、予め設定された合成処理モードにて合成を行う。このとき制御部101は、撮影された複数枚の撮影画像を複数種類の方法で合成して合成画像を生成するための合成手段として機能している。次いでステップS514で合成のために使う撮像画像数が予め設定された画像数Nに達したか否かを判別し、達していなければステップS508に戻って新たな露光動作を行う。
 画像数がNに達したらステップS515でファイル名と撮影日時を取得し、ステップS516で、ヘッダ領域としてのAPP1(203)にこれらのデータと合成の種類に応じた種類データを記録するためのヘッダ情報を生成する。
 ステップS516では、制御部101は、設定された撮影モードに応じて画像データと関連づけて記録する種類データを決定する。
 なお、前述のように制御部101は、前記合成手段によって合成がなされた場合には、合成の種類に応じて少なくとも2種類の種類データ(画像識別情報301として「2」または「3」)のうちの一つを生成する。また画像処理部107によって合成がなされた場合と合成がなされなかった場合を含めて、少なくとも3種類の種類データのうちの一つの中から適切な分類を決定する。
 次にステップS517で、制御部101は、表示部109への画像表示や記録媒体108への記録を行う。このとき制御部101は、Exif規格のヘッダ領域であるAPP1(203)に種類データを記録画像に関連付けて記録する記録手段として機能する。
 またこのとき、種類データが所定の種類データ(合成識別情報が3)の場合には、少なくとも「合成に使われた撮影画像の枚数」と、「合成に使われた撮影画像の撮影条件」として例えば露光時間等とを、同領域APP1(203)に記録する。ステップS517の後、ステップS501に戻る。
 なお、上記実施例では露光が終了する毎に合成を実行しているが、N回の撮像を行った後で合成処理を行ってもよいことは言うまでもない。
 (再生モード処理)
 図6は、図4のステップ405の再生モード処理の詳細を示すフローチャートである。
 ユーザによるモード切替スイッチを介した再生指示によって、再生モードが開始する。または再生モードが設定されている状態で、装置の電源を投入して起動した場合に、このフローが開始される。
 まず、ステップS601において、制御部101は記録媒体108から初期画像情報を取得する。
 この初期画像とは最新の画像あるいは前回の再生で表示した画像である。初期画像情報の取得は、後述する総画像枚数計算や検索リスト作成よりも先に行うことで、再生モードに入ると直ぐに、初期画像の画像表示ができ、総画像枚数計算等の処理の間に、何も表示が出ないような問題を防ぐことができる。
 ステップS602では、制御部101はステップS601の初期画像情報の取得が正しく行われたか否かを判断する。このような判断をするのは、画像が一枚も無いような場合やメディア不良によって画像情報を取得できない場合があるためである。初期画像情報が取得できる場合、少なくとも画像が1枚あると判断される。画像がある場合、ステップS603に進み、画像がない場合、ステップS609に進む。
 ステップS603では、制御部101はステップS601で取得した初期画像情報に基づいて記録媒体108から初期画像を読み込む。ステップS604では、ファイル解析処理を行って、制御部101は読み込んだ初期画像の撮影情報や合成情報などの属性情報を解析し取得する。
 即ち、このとき制御部101は、記録画像に関連付けて記録された合成の種類に応じた種類データと合成種別を示す情報と合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件を取得する種類データ取得手段として機能している。また、画像データが壊れていないかをチェックする。
 ステップS605では、制御部101は読み込んだ初期画像の表示を行うと共に、必要に応じて撮影情報や合成情報等の属性情報なども画像とともに選択的に表示する。この選択的な表示については図7において後述する。また、制御部101はステップS604のファイル解析結果に応じて、初期画像のファイルの一部が壊れているなど不正なデータであることが解析された場合、エラー表示も合わせて行う。
 ステップS606では、制御部101は記録媒体108に記録されている画像の総枚数の計算を開始して、総画像枚数を取得する。この処理は、画像の表示処理とは非同期で働き、完了を待たずに次の画像の表示処理に進むことも可能である。このように処理することで、多くの画像が記録媒体108に記録されていて、総画像枚数計算に時間がかかるような場合でも画像の閲覧を可能にする。
 ステップS607では、制御部101は記録媒体108内の全画像の解析を行って、その検索結果としての検索リストの作成を開始する。検索リストとは、各画像に付加された属性情報を予め取得し、一括して管理するリストである。この検索リストを作成しておくことで、例えば、ある属性を有する画像をまとめて再生対象としたり、消去対象としたりすることが可能となる。
 検索リスト作成処理も総画像枚数の計算と同様に、画像の表示処理とは非同期で行われ、次の画像の表示処理が可能であり、ステップS608で、制御部101はユーザによる再生の入力待ち状態に進む。
 なお、ステップS602において、画像が1枚もない場合、ステップS609に進み、制御部101は「画像がありません」などのメッセージ表示を伴う、画像がない旨の表示を、表示部109を介して行い、ステップS608に進む。
 (画面表示)
 次に、本実施例における画像データの表示方法について説明する。図7は実施例における画像一覧表示例を示す図であり、図7(A)は、本装置において画像表示アプリケーションを動作させた場合に表示部109に表示される画面の一例を示している。
 図7(A)では、RAM103に記憶された画像データImage1~Image12が一覧表示される様を示している。この画像は、例えばデジタルカメラや携帯電話などから取得したものである。また、ネットワーク上のサーバなどからダウンロードしたものであってもよい。また、画像データ本体を用いず、画像データのサムネイルを用いることも可能である。図7(A)の状態で表示切替ボタン401を選択(タッチ)すると、図7(B)の画面に遷移する。
 図7(B)に示すように、合成関連情報の付加された画像データについては「ピン」の形状をしたアイコン(以下、ピンアイコン)を、その画像のサムネイルに重畳して表示する。すなわち、ピンアイコンは、合成関連情報を有する画像ファイルに対して表示されるものである。この画面の例は、Image1、3、4、6、7、8、10、11に合成関連情報として画像識別情報301(「1」~「3」など)や合成種別情報302などが記述されていることを示している。
 もちろんピンアイコンは必ずしもサムネイルに完全に重畳する必要はなく、合成関連情報を有する/有さない画像ファイルの区別が付けば良いので、ピンアイコンの一部を重畳させたり、画像データにサムネイルに重畳させなくとも、近傍に表示しても構わない。なお、この画面では合成関連情報が記述されている画像データにはピンアイコンが重畳表示される。この画面を確認することで、ユーザはどの画像データに合成関連情報が付加されているかを容易に確認することができる。
 図7(B)の状態で更に、前記表示切り替えボタンをクリックすると、図7(C)の画面に遷移する。図7(C)の画面に示すように、それまでのピンアイコンに変えて、画像識別情報301や合成種別情報302などに応じたアイコンや文字に変化することで、画像識別情報301や合成種別情報302などが容易に識別可能となる。
 例えばImage1、4、10、11はパノラマ合成を示す「P」あるいはパノラマを示すアイコンが重畳表示される。これは合成種別情報302がパノラマ合成、つまりパノラマ合成を用いが合成画像データであることを示すためである。
 Image6、8はHDR合成を示す「HDR」またはHDRを示すアイコンが重畳表示される。これは合成種別情報302が「HDR合成」によって得た画像データであることを示すためである。
 Image7は加算合成を示す「加算」または加算合成を示すアイコンが重畳表示される。これは合成種別情報302が「加算合成」、つまり加算合成によって得た画像データであることを示す。Image3はピンアイコンのままである。これは、合成種別情報302が記述されていない画像データを示す。更に、合成に使われた撮影画像の枚数や合成に使われた撮影画像の撮影条件が記録画像と関連付けて記録媒体に記録されている場合には、それらの少なくとも一方を選択的に表示することができるようにしても良い。
 特に種類データが例えば「3」の場合などに、合成に使われた撮影画像の枚数や合成に使われた撮影画像の撮影条件が記録画像と関連付けて記録媒体に記録されている。
 以上述べたように、図7(C)の画面では、合成種別情報302に応じた文字やアイコンなどを画像データに重畳表示する。このことにより、ユーザはどの画像データがどの合成種別で合成されたかや撮影画像の枚数や合成に使われた撮影画像の撮影条件等を容易に確認することができる。
 なお、図7(C)の表示画面にて、表示切り替えボタンをクリックすると、図7(A)の画面に推移するものとする。すなわち、表示切り替えボタンをクリックする度に、上記3種類の表示画面が順に切り換わる。
 なお、上記実施例では、表示切替ボタン401を操作する度に、図7(A)→図7(B)→図7(C)→図7(A)…と表示形態がループするものとした。しかし、表示メニューからダイレクトにその表示種別の1つを指定し、それに従って表示を行ってもよい。
 また、画像識別情報301や、合成種別情報302や、合成に使われた撮影画像の枚数であるソース画像数情報303や、合成画像情報304や合成画像のソース画像情報などの撮影画像の撮影条件等の少なくとも一つを表示できるようにしても良い。それらを見ることによって撮影者の意図や工夫を把握することができる。
 (再生時の画像処理)
 また、画像処理部107が画像の再生時に画像処理を行う場合の動作について説明する。たとえば制御部101がROM102あるいは記録媒体108から画像データを読み出し、表示部109の表示デバイスに表示させているとする。その状態で操作部111を介したユーザからの画像処理の指示に応じて、画像処理部107に表示部109に表示された画像に対応する画像データを入力して画像処理を行わせる。ここで、制御部101は、画像処理部107で行われる画像処理に応じて、画像処理の対象となっている画像データのヘッダ情報を書き換える。
 具体的には、画像ファイルの画像識別情報301に「3」が格納されている画像データに対して、階調変換処理、色変換処理、欠陥補正処理、フィルタ処理などの処理対象の画像データの画素値に基づいて行われる画像処理が行われた場合を考える。
 その場合には、制御部101は、処理後の画像データを格納する画像ファイルにも画像識別情報301に撮影時取得合成画像を示す「3」を格納する。これに対して、画像ファイルの画像識別情報301に「3」が格納されている画像データに対して、他のソース画像との何かしらの合成処理や、テキストデータやフレーム、アイコン、CGなどとの合成処理を伴う画像処理が行われた場合を考える。
 その場合には、制御部101は、処理後の画像データを格納する画像ファイルには画像識別情報301に一般合成画像を示す「2」を格納する。制御部101をこのように動作させることで、撮影時取得合成画像「3」の情報の信頼性をシステム内で担保することができる。また、制御部101は、画像ファイルの画像識別情報301に「2」が格納されている画像データに対しては、上記いずれの画像処理が行われても、処理後の画像データを格納する画像ファイルにも画像識別情報301に一般合成画像を示す「2」を格納する。
 また、画像ファイルの画像識別情報301に「1」が格納されている画像データに対して、上記各撮影モードで「2」あるいは「1」と分類されている処理に該当する画像処理が行われた場合を考える。その場合には制御部101は、上記の分類に従って処理後の画像データに対応する画像識別情報301を決定する。すなわち、制御部101は、再生画像に対して行われる画像処理が合成であるか否かおよび合成処理の方法を判定する。
 そして、判定結果に基づいて処理後の画像データを格納する画像ファイルに記録する画像識別情報301を決定し、処理後の画像データを含む画像ファイルの合成情報部2091に記録する。それ以外の階調変換処理、色変換処理、欠陥補正処理、フィルタ処理などの処理対象の画像データの画素値に基づいて行われる画像処理を行った場合には、処理後の画像データを格納する画像ファイルにも画像識別情報301に非合成画像を示す「1」を格納する。
 以上のように、本実施例では、合成情報部2091に格納されているような情報を画像データと共に記録することによって、合成処理の有無や種類に応じて画像をユーザあるいはコンピュータが適切に判別し処理できるようになる。例えばHDR合成された画像が含まれる画像ファイルを収集し、それらの合成情報部2091に記録される情報をAI等によって分析して各種撮影条件などを学習させることができる。
 そして、シーンや構図から、露出差を学習させるための参考情報とすることができ、素材画像の露光時間やISOなどもそのために活用することができる。
 また、星空軌跡撮影などについては、合成画像に付与された各撮影画像の露光時間と各撮影画像の撮影の間の非露光期間を含む総露光期間を示すタグから、この程度の時間撮影すればこの程度の軌跡になるということを推測できるようになる。それによって無駄に長く撮影時間を設定しなくて済むようになる。
 また、カメラの学習に使う場合に、合成に失敗した(カメラが撮影時に失敗と判断した場合やクラウド側で失敗と判断された場合やユーザが失敗と判断して悪いレーティング等をつける場合など)という情報をファイルに記録しておく。そして、次回の撮影条件に活用することができる。
 例えば、失敗の原因が手ぶれと考えられるなら手ぶれしやすいユーザとみなして、制御部101が次回以降の撮影に際して自動で決める露光時間の設定をより短秒にするなどの改善をすることができるようになる。
 また、合成画像の画像処理パラメータ決定に利用する
合成されたJPEG画像に対して、アプリ等で画像処理を行う時に合成情報部の情報を参考にする。
NRのパラメータをISO感度毎に保持し、撮影されたISO感度に応じてパラメータを適用するアプリにおいて、合成画像の場合はパラメータの決定のロジックを変更することもできる。
 例えば、ISO3200の非合成画像の時はISO3200のパラメータとし、ISO3200X2の合成画像の場合にはISO2500のパラメータとし、ISO3200X4の合成画像の場合にはISO1600のパラメータにするなど、のように、合成枚数とソース画像のISO感度に応じてパラメータを切り替えることができる。
 またExif構造のAPP1の中の特に撮影条件のデータの中に上記合成情報部2091を埋め込むことによって、既存のExif準拠の装置やソフトウェアと高い互換性を持たせることができる。
 (その他の実施例)
 なお、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
 また、本実施例における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理装置等に供給するようにしてもよい。そしてその画像処理装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
 本出願は、先に出願された、2019年3月15日に出願された日本特許出願第2019-49006号の利益と、2019年3月15日に出願された日本特許出願第2019-49142号の利益と、を主張するものである。また、これらの日本特許出願のそれぞれの内容は本明細書において参照によりその全体が本明細書に組み込まれる。
100 撮像装置
105 撮像部
110 距離マップ取得部

Claims (26)

  1.  撮影された複数の撮影画像を合成して合成画像を生成する合成手段と、
     前記撮影画像または前記合成画像を記録部に記録画像として記録する記録制御手段と、
     撮影モードあるいは前記合成手段で行う合成の方法を判定する判定手段と、を有し、
     前記記録制御手段は、前記判定手段が判定した撮影モードまたは合成の方法で撮影または合成された記録画像に、該判定による判定結果に基づいて決定される種類データを関連付けて記録することを特徴とする画像処理装置。
  2.  前記判定手段は、前記複数の撮影画像が撮影される時に予め設定された撮影モードに基づいて、該複数の撮影画像に対応する撮影モードの判定を行うことを特徴とする請求項1に記載の画像処理装置。
  3.  前記記録制御手段は、前記種類データが所定の種類データの場合には、少なくとも合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件を前記記録画像に関連付けて記録することを特徴とする請求項1または2に記載の画像処理装置。
  4.  前記記録制御手段は、前記合成手段によって合成がされた場合に、合成の種類に応じて少なくとも2種類の種類データのうちの一つを生成することを特徴とする請求項1に記載の画像処理装置。
  5.  前記記録制御手段は、撮影時に合成に使われた複数枚の画像の撮影条件と画角が同じ場合には第1の種類データを生成し、合成に使われた複数枚の画像の撮影条件と画角の一方が異なる場合には第2の種類データを生成することを特徴とする請求項4に記載の画像処理装置。
  6.  前記記録制御手段は、前記合成手段によって複数の撮影画像の合成がされなかった場合に、第3の種類データを生成することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7.  前記記録制御手段は、前記種類データを画像データファイルのヘッダ領域に記録することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8.  前記記録制御手段は、前記種類データをExif規格の画像データファイルのAPP1領域に記録することを特徴とする請求項7に記載の画像処理装置。
  9.  更に前記撮影画像を生成するための撮像手段を有することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10.  更に、合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件の少なくとも一方を選択的に表示可能な表示手段を有することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11.  撮影画像または合成画像が記録された記録媒体から記録画像を再生する再生手段と、
     前記記録画像に関連付けて記録された合成に係る分類を示す種類データと合成種別を示す情報と合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件を取得する種類データ取得手段と、
     前記種類データ取得手段によって取得された種類データと合成種別を示す情報と合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件の少なくとも一つを選択的に表示可能な表示手段と、を有することを特徴とする画像処理装置。
  12.  撮影された複数枚の撮影画像を複数種類の方法で合成して合成画像を生成するための合成手段と、
     前記撮影画像または前記合成画像を記録画像として記録する記録手段と、
     前記合成手段による合成の種類に応じて種類データを生成するとともに、撮影時に合成に使われた複数枚の画像の撮影条件と画角が実質的に同じ場合には第1の種類データを生成し、合成に使われた複数枚の画像の撮影条件と画角の一方が実質的に異なる場合には第2の種類データを生成する種類データ生成手段と、を有し、
     前記記録手段は、前記種類データ生成手段によって生成された種類データを前記記録画像に関連付けて記録することを特徴とする画像処理装置。
  13.  前記種類データ生成手段は、前記合成手段によって合成がされた場合と合成がされなかった場合を含めて、少なくとも3種類の前記種類データのうちの一つを生成することを特徴とする請求項12に記載の画像処理装置。
  14.  前記合成手段は少なくとも多重合成モードを有することを特徴とする請求項12に記載の画像処理装置。
  15.  前記合成手段が前記多重合成モードで合成をした場合には、前記種類データ生成手段は前記第2の種類データを生成することを特徴とする請求項14に記載の画像処理装置。
  16.  前記合成手段は少なくとも撮影時HDR合成モードを有することを特徴とする請求項12に記載の画像処理装置。
  17.  前記合成手段が前記撮影時HDR合成モードで合成をした場合には、前記種類データ生成手段は前記第1の種類データを生成することを特徴とする請求項16に記載の画像処理装置。
  18.  前記合成手段は少なくとも再生時HDR合成モードを有することを特徴とする請求項12に記載の画像処理装置。
  19.  前記合成手段が前記再生時HDR合成モードで合成をした場合には、前記種類データ生成手段は前記第2の種類データを生成することを特徴とする請求項18に記載の画像処理装置。
  20.  撮影画像または合成画像が記録された記録媒体から記録画像を再生する再生手段と、
     前記記録画像に関連付けて記録された合成の種類に応じた種類データを取得する種類データ取得手段と、
     前記種類データ取得手段によって取得された種類データが所定の種類データの場合に、少なくとも合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件の少なくとも一方を選択的に表示可能な表示手段と、を有することを特徴とする画像処理装置。
  21.  撮影された複数枚の撮影画像を複数種類の方法で合成して合成画像を生成するための合成ステップと、
     前記撮影画像または前記合成画像を記録画像として記録する記録ステップと、
     前記合成ステップによる合成の種類に応じて種類データを生成する種類データ生成ステップと、を有し、
     前記記録ステップは、前記種類データ生成ステップによって生成された種類データを前記記録画像に関連付けて記録するとともに、前記種類データ生成ステップによって生成された種類データが所定の種類データの場合には、少なくとも合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件を前記記録画像に関連付けて記録することを特徴とする画像処理方法。
  22.  撮影画像または合成画像が記録された記録媒体から記録画像を再生する再生ステップと、
     前記記録画像に関連付けて記録された合成の種類に応じた種類データと合成種別を示す情報と合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件を取得する種類データ取得ステップと、
     前記種類データ取得ステップによって取得された種類データと合成種別を示す情報と合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件の少なくとも一つを選択的に表示可能な表示ステップと、を有することを特徴とする画像処理方法。
  23.  撮影された複数枚の撮影画像を複数種類の方法で合成して合成画像を生成するための合成ステップと、
     前記撮影画像または前記合成画像を記録画像として記録する記録ステップと、
     前記合成ステップによる合成の種類に応じて種類データを生成するとともに、撮影時に合成に使われた複数枚の画像の撮影条件と画角が実質的に同じ場合には第1の種類データを生成し、合成に使われた複数枚の画像の撮影条件と画角の一方が実質的に異なる場合には第2の種類データを生成する種類データ生成ステップと、
     前記記録ステップは、前記種類データ生成ステップによって生成された種類データを前記記録画像に関連付けて記録することを特徴とする画像処理方法。
  24.  撮影画像または合成画像が記録された記録媒体から記録画像を再生する再生ステップと、
     前記記録画像に関連付けて記録された合成の種類に応じた種類データを取得する種類データ取得ステップと、
     前記種類データ取得ステップによって取得された種類データが所定の種類データの場合に、少なくとも合成に使われた撮影画像の枚数と合成に使われた撮影画像の撮影条件の少なくとも一方を選択的に表示可能な表示ステップと、を有することを特徴とする画像処理方法。
  25.  請求項1~20のうちいずれか一項に記載の前記画像処理装置の各手段としてコンピュータを機能させるためのコンピュータプログラム。
  26.  請求項25に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。
     

     
PCT/JP2020/010859 2019-03-15 2020-03-12 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体 WO2020189510A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080021007.5A CN113615156A (zh) 2019-03-15 2020-03-12 图像处理设备、图像处理方法、计算机程序和存储介质
US17/467,345 US20210400192A1 (en) 2019-03-15 2021-09-06 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019049006A JP7395258B2 (ja) 2019-03-15 2019-03-15 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP2019049142A JP7395259B2 (ja) 2019-03-15 2019-03-15 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP2019-049006 2019-03-15
JP2019-049142 2019-03-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/467,345 Continuation US20210400192A1 (en) 2019-03-15 2021-09-06 Image processing apparatus, image processing method, and storage medium

Publications (1)

Publication Number Publication Date
WO2020189510A1 true WO2020189510A1 (ja) 2020-09-24

Family

ID=72519856

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/010859 WO2020189510A1 (ja) 2019-03-15 2020-03-12 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体

Country Status (3)

Country Link
US (1) US20210400192A1 (ja)
CN (1) CN113615156A (ja)
WO (1) WO2020189510A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021061501A (ja) * 2019-10-04 2021-04-15 シャープ株式会社 動画像変換装置及び方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016119693A (ja) * 2016-02-02 2016-06-30 株式会社ソニー・インタラクティブエンタテインメント 画像撮像装置および画像撮像方法
WO2017104395A1 (ja) * 2015-12-15 2017-06-22 株式会社リコー 画像処理装置及び画像処理方法
JP2017175507A (ja) * 2016-03-25 2017-09-28 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2018014651A (ja) * 2016-07-21 2018-01-25 オリンパス株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2019029954A (ja) * 2017-08-03 2019-02-21 オリンパス株式会社 画像処理装置および画像処理方法
JP2019033308A (ja) * 2017-08-04 2019-02-28 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8194993B1 (en) * 2008-08-29 2012-06-05 Adobe Systems Incorporated Method and apparatus for matching image metadata to a profile database to determine image processing parameters
US8842190B2 (en) * 2008-08-29 2014-09-23 Adobe Systems Incorporated Method and apparatus for determining sensor format factors from image metadata
US8724007B2 (en) * 2008-08-29 2014-05-13 Adobe Systems Incorporated Metadata-driven method and apparatus for multi-image processing
JP5882599B2 (ja) * 2011-04-28 2016-03-09 キヤノン株式会社 撮像装置及びその制御方法
JP2017220892A (ja) * 2016-06-10 2017-12-14 オリンパス株式会社 画像処理装置及び画像処理方法
WO2019026923A1 (ja) * 2017-08-03 2019-02-07 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置
EP3846439A4 (en) * 2018-10-15 2021-09-15 Huawei Technologies Co., Ltd. METHOD AND SYSTEM FOR INTELLIGENT PHOTOGRAPHY AND ASSOCIATED DEVICE
CN111953909B (zh) * 2019-05-16 2022-02-01 佳能株式会社 图像处理设备、图像处理方法和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017104395A1 (ja) * 2015-12-15 2017-06-22 株式会社リコー 画像処理装置及び画像処理方法
JP2016119693A (ja) * 2016-02-02 2016-06-30 株式会社ソニー・インタラクティブエンタテインメント 画像撮像装置および画像撮像方法
JP2017175507A (ja) * 2016-03-25 2017-09-28 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2018014651A (ja) * 2016-07-21 2018-01-25 オリンパス株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2019029954A (ja) * 2017-08-03 2019-02-21 オリンパス株式会社 画像処理装置および画像処理方法
JP2019033308A (ja) * 2017-08-04 2019-02-28 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置

Also Published As

Publication number Publication date
US20210400192A1 (en) 2021-12-23
CN113615156A (zh) 2021-11-05

Similar Documents

Publication Publication Date Title
US8189087B2 (en) Imaging device and photographed image display control method
KR101341265B1 (ko) 이미지 센서의 이미지 데이터 세트를 처리하는 방법과 시스템, 그 컴퓨터 프로그램 및 그 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체
US9413922B2 (en) Photographing apparatus and method for synthesizing images
JP2010130437A (ja) 撮像装置、及び、プログラム
CN104754196A (zh) 电子装置及方法
KR101737086B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
JP2005217874A (ja) ファイル管理方法
CN111953909B (zh) 图像处理设备、图像处理方法和存储介质
CN101155262A (zh) 图像校正装置、图像校正方法以及计算机可读取介质
JP2007019617A (ja) 撮影装置
WO2020189510A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP7378963B2 (ja) 画像処理装置、画像処理方法、及び、コンピュータプログラム
JP7395258B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP6210772B2 (ja) 情報処理装置、撮像装置、制御方法、及びプログラム
JP7395259B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP7378962B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP2008005248A (ja) 撮像装置
JP6594485B2 (ja) 撮像装置、撮像装置の制御方法及びシステム
JP4552631B2 (ja) デジタルカメラ
JP2019047436A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置
WO2022079989A1 (ja) 情報処理システム、情報処理装置、情報処理方法、情報処理プログラム、撮像装置、撮像装置の制御方法、制御プログラム
JP2008252321A (ja) 撮像装置、撮像方法、及び撮像プログラム
JP6520566B2 (ja) 画像記録装置
JP5734348B2 (ja) 撮像装置
JP2006165767A (ja) デジタルカメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20773932

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20773932

Country of ref document: EP

Kind code of ref document: A1