WO2005115016A1 - 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法 - Google Patents

画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法 Download PDF

Info

Publication number
WO2005115016A1
WO2005115016A1 PCT/JP2005/007866 JP2005007866W WO2005115016A1 WO 2005115016 A1 WO2005115016 A1 WO 2005115016A1 JP 2005007866 W JP2005007866 W JP 2005007866W WO 2005115016 A1 WO2005115016 A1 WO 2005115016A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
data
information
image file
generating
Prior art date
Application number
PCT/JP2005/007866
Other languages
English (en)
French (fr)
Inventor
Hideaki Yoshida
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2004130127A external-priority patent/JP4589651B2/ja
Priority claimed from JP2004130128A external-priority patent/JP4642375B2/ja
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP05737293.0A priority Critical patent/EP1742488B1/en
Priority to CN200580013159.6A priority patent/CN1947431B/zh
Publication of WO2005115016A1 publication Critical patent/WO2005115016A1/ja
Priority to US11/586,079 priority patent/US8155431B2/en
Priority to US13/412,082 priority patent/US8693764B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/32Image data format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3212Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a job, e.g. communication, capture or filing of an image
    • H04N2201/3214Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a job, e.g. communication, capture or filing of an image of a date
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3212Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a job, e.g. communication, capture or filing of an image
    • H04N2201/3215Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a job, e.g. communication, capture or filing of an image of a time or duration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3245Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of image modifying data, e.g. handwritten addenda, highlights or augmented reality information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3274Storage or retrieval of prestored additional information
    • H04N2201/3277The additional information being stored in the same storage device as the image data

Definitions

  • Image processing device image processing and editing device, image file reproducing device, image processing method, image processing and editing method, and image file reproducing method
  • the present invention relates to an image processing apparatus, an image processing / editing apparatus, an image file reproducing apparatus, an image processing method, an image processing / editing method, and an image file reproducing method suitable for capturing and editing a stereo image. .
  • the system controller includes a stereo adapter detector that detects whether the stereo adapter is attached, and an automatic exposure (AE) controller that analyzes the subject image signal related to the photometric area and calculates the photometric information required for exposure control.
  • AE automatic exposure
  • a photometry area setting unit for setting the photometry area described above is provided, and the photometry area setting unit has a function of setting different photometry areas in the normal shooting mode and the stereo shooting mode, respectively. It discloses a technique for setting an optimal photometric area for each of a normal shooting mode and a stereo shooting mode.
  • a method of projecting two images of the same subject (hereinafter, referred to as a monocular image) mutually shifted according to parallax on the left and right sides of one image frame.
  • a monocular image one image in which monocular images are arranged on the left and right
  • the left and right monocular images in the integrated image are observed with the right eye or the left eye, respectively.
  • This perceived image (hereinafter referred to as a fusion image) gives perspective to each part according to the amount of displacement of each part of the left and right monocular images.
  • the Exif standard follows the JPEG standard file (JPEG file) format. That is, the image data itself is treated as image data conforming to the PEG standard, and Exif data (metadata) is arranged in the header of the JPEG file.
  • JPEG file JPEG file
  • Metadata Exif data
  • Exif standard metadata is described in TIFF format and includes information such as shooting date and thumbnail.
  • the left and right monocular images captured using a stereo adapter may actually have vignetting at the boundary or a shift in the imaging position.
  • a predetermined portion in each of the left and right regions for correcting the vignetting and misalignment is trimmed to set an effective monocular image range (hereinafter referred to as an image frame). Since the range of the image frame affects the sense of depth of the stereoscopic image, it is necessary to appropriately set the image frame when processing and editing the stereoscopic image.
  • By describing information related to trimming and the like in the metadata it is possible to appropriately set an image frame and give an appropriate sense of depth to the fused image.
  • processing 'editing is not always performed using processing' editing software (hereinafter, referred to as 3D-compatible software) corresponding to a stereoscopic image, but processing 'editing software (hereinafter, 3D-compatible) which does not support stereoscopic images.
  • 3D-compatible software processing' editing software
  • Non-compliant software is exempted from processing and editing.
  • the 3D-compatible software should perform the trimming suitable for the stereoscopic image before the enlargement. Therefore, the sense of depth of the fusion image increases, and the sense of discomfort between the actual image and the recognized image increases.
  • FIG. 17 is an explanatory diagram for explaining a problem in this case.
  • Reference numerals 17a to 17d in FIG. 17 denote cases where the integrated image is trimmed by 3D-compatible software
  • reference numerals 17e to 17h denote examples in which the integrated image is trimmed by 3D-incompatible software and then trimmed by 3D-compatible software. Is shown.
  • Reference numerals 17a and 17e denote integrated images in which monochromatic images of the same subject (person) are arranged on the left and right. As described above, this integrated image is subjected to trimming for setting an effective image frame to be used for the fused image for correction of vignetting and displacement. In the Exif standard, information on the appropriate trimming position is described in the metadata in advance.
  • trimming at the optimal trimming position can be automatically performed by using this metadata.
  • Reference numeral 17b indicates the optimum trimming position by a broken line.
  • Reference numeral 17c indicates a clipped image by 3D-compatible software.
  • the metadata is automatically corrected according to the image after extraction. That is, information such as the optimum trimming position and the maximum pop-out amount that determines the maximum value of the sense of depth of the image are also updated.
  • the image is further cut out by 3D-compatible software.
  • the optimal trimming position has been updated corresponding to the image with the reference numeral 17c, and the image cut out by the 3D software is as indicated by the reference numeral 17d.
  • Reference numeral 17g denotes an image cut out by 3D-incompatible software. In this case, the metadata is not modified.
  • the 3D-compatible software also cuts out the image force of 17g.
  • the 3D-compatible software performs automatic trimming with reference to the metadata. That is, the sign
  • clipping is performed at the optimal trimming position (broken line) set in the metadata. That is, in this case, the subject is outside the cutout range, and an appropriate integrated image cannot be obtained from the cutout image.
  • the present invention provides an image processing apparatus, an image processing and editing apparatus capable of properly recognizing a fused image even when a stereoscopic image is processed by an editing machine or software that does not support a stereoscopic image. And an image file reproducing apparatus, an image processing method, an image processing and editing method, and an image file reproducing method.
  • the image processing apparatus is a stereo image data generating means for generating stereo image data based on a plurality of monocular images of the same object obtained with a predetermined parallax.
  • Ancillary data generating means for generating ancillary data relating to the stereo image data, ancillary data date and time information generating means for generating information relating to the date and time when the ancillary data was generated or updated, and the stereo image data generating means.
  • Image file generating means for generating an image file by combining the generated stereo image data with the accompanying data generated by the accompanying data generating means, wherein the image data is generated by the accompanying data date / time information generating means.
  • File information generating means for converting the image file into a predetermined file format and generating an image file by further adding information on the date and time when the image file was generated or updated.
  • An image processing / editing apparatus combines stereo image data based on a plurality of monocular images of the same subject obtained with a predetermined parallax and accompanying data relating to the stereo image data. Further, information on the date and time when the associated data was generated or updated and information on the date and time when the image file was generated or updated were further added, and the image generated by converting to a predetermined file format was added.
  • An accompanying data updating means for updating the accompanying data; and an accompanying data update date / time information generating means for generating information on the date and time when the accompanying data was updated.
  • image data generating means for generating an image file by combining the stereo image data edited by the image processing 'editing means' with the accompanying data updated by the accompanying data updating means.
  • the information on the date and time when the accompanying data generated by the accompanying data update date / time information generating means is updated and the information on the date and time when the image file is generated or updated are further added to the predetermined file.
  • the image file reproducing apparatus further comprising: an image file generating unit configured to generate an image file by converting the image into a format.
  • Playback means for further adding the information about the date and time when the image file was created and the information about the date and time when the image file was created or updated, and playing back the image file created by converting it to a predetermined file format.
  • Determining means for determining whether the information on the date and time when the associated data reproduced or reproduced by the reproducing means was generated or updated matches the information on the date and time when the image file was generated or updated, and If it is determined that they match, the control means prohibits the continuation of the reproducing operation by the reproducing means. Step and what you have.
  • stereo image data generating means generates stereo image data based on a plurality of monocular images of the same object obtained with a predetermined parallax
  • stereo image Ancillary data generating means for generating ancillary data relating to data
  • stereo image size information generating means for generating information regarding an image size of the stereo image data
  • stereo image data generated by the stereo image data generating means for generating an image file by combining the additional data generated by the additional data generating means, wherein information relating to the image size generated by the stereo image size information generating means is stored. Generates an image file by adding it to the inside and outside of the accompanying data and converting it to a predetermined file format
  • An image file generation unit that is one having,
  • An image processing / editing apparatus synthesizes stereo image data based on a plurality of monocular images of the same subject obtained with a predetermined parallax and accompanying data relating to the stereo image data.
  • information on the image size of the stereo image data is further added to the inside and outside of the accompanying data, and converted into a predetermined file format to perform image processing based on the stereo image data in the image file generated.
  • Image processing 'editing means for performing editing, and associated data updating means for updating the accompanying data of the accompanying data before the image processing' editing is performed, based on the contents of the image processing 'editing, The information related to the image size of the stereo image data before the editing of the image color added to the inside and outside of the accompanying data is performed. Then, based on the contents of the image processing / editing, the stereo image size information updating means for updating the information on each image size, and the stereo image data edited / edited by the image processing / editing means. And an accompanying data updated by the accompanying data updating means, to generate an image file, wherein the data relating to the image size updated by the stereo image size information updating means is attached to the accompanying data.
  • Image file generating means for converting the image into a predetermined file format and generating an image file by adding the inside and outside of the file to each other.
  • the image file reproducing device is obtained with a predetermined parallax. Synthesizing stereo image data based on a plurality of monocular images of the same subject with accompanying data relating to the stereo image data, and further adding information relating to the image size of the stereo image data inside and outside the accompanying data, Reproducing means for reproducing an image file generated by converting the image data into a predetermined file format; and information on an image size in the accompanying data reproduced by the reproducing means and information on an image size outside the accompanying data. It has a judging means for judging the coincidence, and a control means for prohibiting the continuation of the reproducing operation by the reproducing means when the judging means judges that they do not match.
  • FIG. 1 is a block diagram showing an electronic camera incorporating an image processing device according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a specific configuration of an image file generation unit 50c in FIG.
  • FIG. 3 is an explanatory diagram showing an example of an image file generated by an image file generation unit 50c
  • FIG. 4 is a flowchart showing an operation flow of an image file generation unit 50c.
  • FIG. 5 is a block diagram showing an image processing / editing apparatus according to a second embodiment of the present invention.
  • FIG. 6 is a flowchart showing a processing flow of image file generation.
  • FIG. 7 is a block diagram showing an image file reproducing device according to a third embodiment of the present invention.
  • FIG. 8 is a flowchart showing a processing flow of an image file.
  • FIG. 9 is a block diagram showing an electronic camera incorporating an image processing device according to a fourth embodiment of the present invention.
  • FIG. 10 is a block diagram showing a specific configuration of an image file generation unit 50c in FIG.
  • FIG. 11 is an explanatory diagram showing an example of an image file generated by an image file generation unit 50c.
  • FIG. 12 is a flowchart showing an operation flow of an image file generation unit 50c.
  • FIG. 13 is a block diagram showing an image processing / editing apparatus according to a fifth embodiment of the present invention.
  • FIG. 14 is a flowchart showing a processing flow of image file generation.
  • FIG. 15 is a block diagram showing an image file reproducing device according to a sixth embodiment of the present invention.
  • FIG. 16 is a flowchart showing a processing flow of an image file.
  • FIG. 17 is an explanatory diagram for explaining a problem of the background art.
  • FIG. 1 is a block diagram showing an electronic camera in which the image processing device according to the first embodiment of the present invention is incorporated. This embodiment is applied to an image file recording device.
  • the electronic camera includes a camera body 1, a lens unit 5 having a lens barrel, and a stereo adapter 10 for capturing a stereo image.
  • a mirror type stereo adapter 10 is detachably attached to the lens unit 5.
  • the stereo adapter 10 has a configuration in which mirrors 11 and 12 are arranged at positions separated by parallax, respectively, and mirrors 13 and 14 for guiding light reflected by these mirrors 11 and 12 to the camera side are arranged. Te ru.
  • the light that has passed through the mirrors 11 and 13 and the mirrors 12 and 14 in the stereo adapter 10 is respectively exposed through an imaging lens group 21 in the lens unit 5, an exposure control mechanism 22, and a half mirror in the camera body 1. Guided to 31.
  • the lens unit 5 includes a photographic lens group 21, an exposure control mechanism 22, a lens driving mechanism 23, a lens driver 24, and an exposure control driver 25.
  • the imaging lens group 21 is a main imaging optical system capable of performing normal monocular imaging (monocular imaging) when the stereo adapter 10 is not attached, and is driven by the lens driving mechanism 23 to perform focusing and zooming. Is being adjusted!
  • the lens driving mechanism 23 is controlled by a lens driver 24.
  • the exposure control mechanism 22 controls the aperture of the photographing lens group 21 and a shutter device (not shown).
  • the exposure control mechanism 22 is controlled by an exposure control driver 25.
  • the light guided from the lens unit 5 to the camera body 1 passes through the half mirror 31 and is guided to the CCD color image sensor 34 via the low-pass and infrared cut filter system 32. An image is formed.
  • the CCD color image sensor 34 is driven and controlled by a CCD driver 35 to convert an optical image of a subject into an electric signal.
  • a CCD driver 35 to convert an optical image of a subject into an electric signal.
  • the CCD color imaging element 34 for example, an interline type with a vertical overflow drain structure and a progressive (sequential) scanning type is employed.
  • the light incident on the left-eye viewing mirror 11 of the stereo adapter 10 forms an image on an area L of an imaging surface (not shown) of the CCD color imaging device 34 via the mirror 13 and the imaging lens group 21.
  • the light that has entered the right-eye viewing mirror 12 is focused on the area R of the imaging surface (not shown) of the CCD color imaging device 34 via the mirror 14 and the imaging lens group 21. I have.
  • the signal photoelectrically converted by the CCD color imaging device 34 is passed through a pre-processing circuit 36 including AZD conversion and the like, to a digital processing circuit for performing color signal generation processing, matrix conversion processing, and other various digital processing. Given to 39.
  • color image data is generated by processing the digitized image signal.
  • an LCD display unit 40 is connected, and a memory card 42 such as a CF (Compact Flash Memory Card) or a smart media is connected via a card interface (IF) 41.
  • a memory card 42 such as a CF (Compact Flash Memory Card) or a smart media is connected via a card interface (IF) 41.
  • the LCD display section 40 performs display based on color image data, and the memory card 42 stores color image data.
  • the memory card 42 can be loaded into an external personal computer 60. Then, the image recorded on the memory card 42 can be displayed on the personal computer 60 and image processing can be performed. Further, the image recorded on the memory card 42 can be printed out by a printer (not shown).
  • the half mirror 31 is configured to partially reflect an incident subject image, and thus guides reflected light to the AF sensor module 45.
  • the AF sensor module 45 performs focus detection based on a light beam that has entered through the photographing lens group 21.
  • the AF sensor module 45 includes a separator lens 46 for dividing a pupil and an AF sensor 47 including a line sensor.
  • the system controller 50 including a CPU and the like includes the camera body 1 and the lens This is to control each part in the unit 5 in an integrated manner.
  • the system controller 50 includes a lens driver 24, an exposure control driver 25, a CCD driver 35, a pre-process circuit 36, a digital process circuit 39, an AF sensor module 45, an operation switch section 52, An operation display unit 53, a nonvolatile memory (EEPROM) 51, and a stereo switching switch (SW) 54 are connected.
  • EEPROM nonvolatile memory
  • SW stereo switching switch
  • the operation switch unit 52 includes various switch powers such as a release switch and a shooting mode setting.
  • the operation display unit 53 is a display unit for displaying an operation state, a mode state, and the like of the camera.
  • the EEPROM 51 is a memory for storing various setting information and the like.
  • the stereo switch 54 is a switch for switching modes when the stereo adapter 10 is mounted on the lens unit 5. Note that, here, the shooting mode switching is performed by operating the stereo switching switch 54. The switching is not limited to this. For example, a detection function may be provided in the stereo adapter 10 so that the shooting mode is automatically switched.
  • the system controller 50 controls the driving of the CCD color image sensor 34 by the exposure control mechanism 22 and the CCD driver 35 to perform exposure (charge accumulation) and signal reading.
  • the system controller 50 supplies the output of the CCD 34 to the digital process circuit 39 via the pre-process circuit 36 to perform various kinds of signal processing, and records the signals on the memory card 42 via the card interface 41.
  • the strobe 57 emits flash light, and is controlled by the system controller 50 via the exposure control driver 25 in the lens unit 5!
  • the system controller 50 further includes an exposure control unit 50d and a photometric area setting unit 50e.
  • the exposure control unit 50d analyzes the subject image signal relating to the photometric area and calculates exposure information necessary for exposure control.
  • the photometric area setting unit 50e sets a photometric area for the exposure control unit 50d.
  • the system controller 50 further includes a metadata generation unit 50a, a stereo image generation unit 50b, and an image file generation unit 50c.
  • the metadata generation unit 50a as ancillary data generation means includes various types of data related to the captured image.
  • the associated data (hereinafter referred to as metadata) is generated and provided to the image file generating unit 50c.
  • the metadata generation unit 50a generates information on the shooting date and time, and when the shot image is a stereoscopic image, generates various information (stereoscopic image information) related to the stereoscopic image.
  • the stereoscopic image information include trimming information.
  • the trimming information is information indicating an effective image frame of each monochromatic image, and indicates an area used for recognition of a fused image during reproduction.
  • the stereo image generation unit 50b is configured to generate a stereo image based on a plurality of input monocular images. For example, when one image in which a plurality of monocular images are arranged on the imaging surface of the CCD 34 forms an image, the stereo image generation unit 50b generates a stereo image using the input image as it is. When a plurality of monocular images are separately captured and input, for example, the stereo image generating unit 50b generates a stereo image based on each of the input monocular images.
  • the image file generation unit 50c can convert the stereo image generated by the stereo image generation unit 50b into an electronic image file in a predetermined format and output the electronic image file.
  • the image file generating unit 50c converts one integrated image into an image format of, for example, the PEG standard or the TIFF standard to form one image file.
  • the image file generating unit 50c allocates each monocurricular image to each page in the TIFF format to form one image file.
  • the image file generating unit 50c performs a compression process on the stereo image as necessary, and converts the stereo image into a digital image file of a predetermined format with attached data (metadata).
  • FIG. 2 is a block diagram showing a specific configuration of the image file generation unit 50c in FIG.
  • FIG. 3 is an explanatory diagram illustrating an example of an image file generated by the image file generation unit 50c.
  • Image data of a stereo image is input to the compression unit 71 of the image file generation unit 50c.
  • the compression section 71 performs predetermined compression processing on the image data of the stereo image and outputs the data to the data synthesis section 72.
  • the metadata is also input to the data combining unit 72, and the data combining unit 72 combines the image data and the metadata.
  • the image file generation unit 50c includes a metadata date and time setting unit 73 and an image file date and time setting unit 74.
  • the metadata date and time setting unit 73 can output information on the date and time of creation of metadata regarding various types of stereoscopic image information to the data synthesizing unit 72.
  • the image file date / time setting section 74 can output information on the date / time of creation of the image file to the data synthesizing section 72. Both the metadata date and time setting unit 73 and the image file date and time setting unit 74 set the date and time when the image file was last updated, that is, in this case, the same date and time.
  • the data synthesizing unit 72 synthesizes the input data and supplies the synthesized data to the format unit 75.
  • the format unit 75 arranges the input data according to a predetermined image format and outputs the data as one image file.
  • the image file has a header section and an image data section.
  • image data compressed by the compression section 71 is arranged in the image data section.
  • the header section contains the file name of the image file, the file creation (update) date and time, and also metadata.
  • the file creation (update) date and time information is set by the image file date and time setting unit 74.
  • the metadata includes metadata identification information, information on the shooting date and time of the image, and information on the stereoscopic image.
  • the information on the shooting date and time is information generated by the metadata generation unit 50a and included in the metadata input to the data synthesis unit 72.
  • the stereoscopic image information includes various information related to the stereoscopic image when the image data arranged in the image data section is a stereoscopic image.
  • the trimming information is included in the metadata generated by the metadata generation unit 50a and input to the data synthesis unit 72.
  • the metadata creation (update) date and time is information set by the metadata date and time setting unit 73, and includes the metadata creation date and time for various types of stereoscopic image information.
  • the file format in Fig. 3 is an example of an image file, and Fig. 3 illustrates an example in which the metadata creation (update) date and time is arranged as a part of the stereoscopic image information. It may be placed in the area.
  • the controller 50 has been described as being 3D-compatible. However, if the controller 50 does not support 3D, the controller 50 in the metadata area may In the description area of the image information, for example, a predetermined initial value is set or no information is described.
  • FIG. 4 is a flowchart showing an operation flow of the image file generation unit 50c.
  • the subject optical image incident via the stereo adapter 10 forms an image on the imaging surface of the CCD color imaging device 34 via the imaging lens group 21, the exposure control mechanism 22, the half mirror 31, and the filter system 32.
  • the CCD color image sensor 34 outputs data of one image including the left and right monochromatic images L and R.
  • the image signal from the CCD color image sensor 34 is input to the controller 50 via the pre-processing circuit 36.
  • the stereo image generation unit 50b generates an integrated image in which monocular images are arranged on the left and right based on the input image signal.
  • the metadata generation unit 50a generates shooting date / time information and stereoscopic image information regarding the generated integrated image.
  • step S1 of Fig. 4 the image file generation unit 50c performs a predetermined compression process on the generated integrated image (stereo image).
  • the metadata date and time setting unit 73 in the image file generation unit 50c generates information on the date and time of metadata creation regarding the stereoscopic image information generated by the metadata generation unit 50a.
  • the metadata date / time setting unit 73 may set the current time as the metadata creation date / time.
  • the image file date and time setting unit 74 in the image file generation unit 50c generates the same date and time as the metadata creation date and time as the information of the image file creation date and time.
  • the image file generation unit 50c combines the stereo image, metadata, metadata creation date and time, and image file creation date and time information with the data combining unit 72 (step S4).
  • An image file having the data format shown in (1) is generated (step S5).
  • the image file generated by the image file generation unit 50c is provided to the digital process circuit 39.
  • the digital process circuit 39 can display the integrated image on the display screen of the LCD 40 based on the input electronic image file. Also, the digital process circuit 39 converts the input electronic image file into a memory card 42 via a card IF41. To be recorded.
  • information on the date and time of creation of the image file is matched with information on the date and time of creation of the metadata. It is clear that they should be matched.
  • the image file generated by the image file generation unit includes not only the creation (update) date and time of the image file itself but also the metadata of the stereoscopic image information.
  • Information on creation (update) date and time is arranged.
  • Creation (update) date and time information of metadata related to stereoscopic image information is separately arranged in image file creation (update) date and time information.
  • Creation (update) of image files and creation of metadata about stereoscopic image information (Update) can be managed separately.
  • the creation (update) date and time of the metadata is made to match the creation (update) date and time of the image file. Since the creation (update) date and time of the metadata and the creation (update) date and time of the image file substantially match or the time difference is relatively small, it is possible to set the actual creation (update) date and time. Good. In this case, it is possible to determine whether or not the image file has been created (updated) by a 3D-incompatible device or software by determining that the difference between these dates and times is smaller than the threshold value.
  • an image file is generated by an image processing device having an image file generation unit.
  • the image file generation unit may be implemented by software having the same function. Obviously, this is also feasible. That is, by using a computer that can execute a program having the same function as the flowchart of FIG. 4, an image file generating unit similar to that of FIG. 2 can be generated.
  • the image file date and time setting unit 74 is configured by an operation system of a computer or the like. In general, the creation (update) date and time of an image file is automatically described when the file is created (updated).
  • data such as file names and file creation (update) dates and times are described as examples arranged in the header of an image file. It is a small configuration that is placed in the directory entry area managed by the 'location'.
  • the example in which the present invention is applied to an electronic camera can be applied to a single image processing apparatus that processes an image captured by a force electronic camera. Similar functions can be achieved by a program such as a personal computer that processes a captured image.
  • FIG. 5 is a block diagram showing an image processing / editing apparatus according to the second embodiment of the present invention
  • FIG. 6 is a flowchart showing a processing flow of image file generation. This embodiment is applied to an image file editing apparatus. It should be noted that this embodiment can also be realized by software having the same functions as those of the apparatus in FIG.
  • An image file having the data format shown in Fig. 3 is input to the decoding unit 81.
  • the decoding unit 81 decodes the input image file and extracts various data included in the image file.
  • the decoding unit 81 gives the image data in the image file to the image decompression unit 82, and gives the metadata to the metadata processing unit 84.
  • the image expanding section 82 expands the input image data to obtain image data before compression. This image data is provided to the image processing / editing unit 83.
  • the image processing / editing unit 83 performs processing / editing on the input image according to the user's processing / editing operation (step S11), and generates the image after the processing / editing into an image file. Part 86 Output to The image processing / editing unit 83 can use the processing / editing process with reference to metadata on the image to be processed / edited.
  • the metadata processing unit 84 updates the metadata based on the image processing / editing process of the image editing / editing unit 83. For example, when the image processing 'processing of the editing unit 83' editing process is an enlargement process for a stereoscopic image, the metadata processing unit 84 provides trimming information indicating an optimal cutout range corresponding to the enlargement process. To update.
  • the image file generating unit 86 combines the image data from the image processing / editing unit 83 and the metadata from the metadata processing unit 84 to generate an image file in the file format shown in FIG.
  • the date and time updating section 87 in the image file generating section 86 is given the information on the current time from the timer 88 and sets the information on the file updating date and time (step S12).
  • the image file generating unit 86 rewrites the file creation (update) date and time (see FIG. 3) in the file format to the information of the update date and time. Further, the image file generation unit 86 rewrites the metadata creation (update) date and time (see FIG. 3) in the file format to information of the same date and time as the file creation (update) date (step S13). In this way, the image file generating unit 86 generates and outputs an image file in which the file creation (update) date and the metadata creation (update) date are changed to the same date and time (step S14).
  • the metadata is updated along with the image processing / editing, and the update date and time are changed to the same current date and time as the image file creation (update) date and time. .
  • the information of the date of creation (update) of the image file and the date of creation (update) of the metadata match. This is it.
  • the information on the update date and time of the metadata and the update date and time of the image file need not always be based on the actual update date and time as long as they are the same date and time.
  • FIG. 7 is a block diagram showing an image file reproducing device according to the third embodiment of the present invention
  • FIG. 8 is a flowchart showing a processing flow of an image file.
  • This embodiment is applied to an image file reproducing apparatus. It should be noted that this embodiment can also be implemented by software having the same function as the device in FIG. [0078]
  • An image file having the file format shown in Fig. 3 is input to the decoding unit 91.
  • the decoding unit 91 decodes the input image file and extracts various data included in the image file.
  • the decoding unit 91 gives the image data in the image file to the image decompression unit 92, and gives the metadata to the switching unit 96, the metadata invalidation unit 95, and the date / time determination unit 94.
  • the image expansion unit 92 expands the input image data to obtain image data before compression. This image data is provided to the reproduction processing unit 93.
  • the date and time determination unit 94 acquires information on the date and time of file creation (update) (see FIG. 3) and information on the date and time of metadata creation (update) (step S 21). The date and time determination unit 94 determines whether the acquired file creation (update) date and time and the metadata creation (update) date and time match or not (step S22). The date and time determination unit 94 outputs the determination result to the switching unit 96 and the warning unit 97.
  • the date and time determination unit 94 determines that the information of both dates and times match each other. Good. However, considering that erroneous determinations may occur depending on the setting of the threshold value, it is a rule that it is determined that they match only in exactly the same case.
  • the metadata invalidating unit 95 invalidates the input metadata (step S24). For example, the metadata invalidating unit 95 invalidates the metadata relating to the stereoscopic image by deleting the parameter or setting the parameter to an initial value.
  • the switching unit 96 selectively supplies one of the metadata from the decoding unit 91 and the metadata from the metadata invalidating unit 95 to the reproduction processing unit 93 based on the determination result of the date and time determining unit 94. For example, when the switching unit 96 receives the determination result indicating that the date and time match, the switching unit 96 provides the metadata from the decoding unit 91 to the reproduction processing unit 93 and determines that the date and time do not match. Is given, the reproduction process is prohibited (step S24).
  • the reproduction processing unit 93 performs predetermined reproduction processing on the image data using the metadata from the switching unit 96 (step S25).
  • the playback processing unit 93 sends the metadata information set by the metadata invalidation unit 95 to the playback processing unit 93. May be given.
  • the warning unit 97 issues a warning to the user, for example, by displaying a warning or the like.
  • the image file in which the creation (update) date and time of the file and the metadata are described independently is different from each other when the date and time do not match
  • the image The reproduction process is prohibited because there is no correlation between the data and the metadata, or the reproduction process is performed using the invalidated metadata.
  • the reproduction process is performed using the metadata and the image data in correlation with the image data. Can be prevented.
  • FIG. 9 is a block diagram showing an electronic camera in which the image processing device according to the fourth embodiment of the present invention is incorporated. This embodiment is applied to an image file recording device. 9, the same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted.
  • the camera main body 101 of the present embodiment is different from the camera main body 1 of the first embodiment only in that a system controller 150 is employed instead of the system controller 50.
  • the system controller 150 differs from the system controller 50 in that a metadata generation unit 150a and an image file generation unit 150c are used instead of the metadata generation unit 50a and the image file generation unit 50c, respectively.
  • the metadata generation unit 150a as the associated data generation unit generates various types of associated data (hereinafter, referred to as metadata) related to the captured image and supplies the generated data to the image file generation unit 150c.
  • the metadata generation unit 150a generates information on the shooting date and time, and when the shot image is a stereoscopic image, generates various information (stereoscopic image information) related to the stereoscopic image.
  • the stereoscopic image information for example, there is an optimum trimming position which is trimming information.
  • the information on the optimum trimming position is information indicating an effective image frame of each monocular image, and indicates an area used for recognition of a fused image during reproduction.
  • the stereoscopic image information there is also information on the maximum pop-out amount that defines the maximum value of the sense of depth of the stereoscopic image.
  • the image file generation unit 150c can convert the stereo image generated by the stereo image generation unit 50b into an electronic image file in a predetermined format and output the electronic image file. Yes.
  • the image file generating unit 150c converts one integrated image into an image format of, for example, the PEG standard or the TIFF standard to form one image file.
  • the image file generating unit 150c allocates each monocular image to each page of the TIFF format to form one image file.
  • the image file generating unit 150c performs a compression process on the stereo image as necessary, and converts the stereo image into a digital image file of a predetermined format with attached data (metadata).
  • FIG. 10 is a block diagram showing a specific configuration of the image file generating unit 150c in FIG.
  • FIG. 11 is an explanatory diagram showing an example of an image file generated by the image file generation unit 150c.
  • Image data of a stereo image is input to the compression unit 171 of the image file generation unit 150c.
  • the compression section 171 performs predetermined compression processing on the image data of the stereo image, and outputs the data to the data synthesis section 172.
  • the metadata is also input to the data combining unit 172, and the data combining unit 172 combines the image data and the metadata.
  • image file generating section 150c includes metadata size setting section 173 and image file size setting section 174.
  • the metadata size setting unit 173 can output information on the image size (3D image size) (the number of pixels) of the stereoscopic image to the data synthesizing unit 172.
  • the image file size setting section 174 can output information on the image size (the number of pixels) of the image based on the image data to the data synthesizing section 172.
  • the metadata size setting unit 173 and the image file size setting unit 174 set image size information of an image based on the same image data. Therefore, the image data is data of a stereoscopic image. In this case, the outputs of these setting units 173 and 174 become information of the same image size.
  • the data synthesizing unit 172 synthesizes the input data and supplies the synthesized data to the format unit 175.
  • the format unit 175 arranges the input data according to a predetermined image format and outputs the data as one image file.
  • the image file has a header part and an image data part.
  • image In the data section image data compressed by the compression section 171 is arranged.
  • the header part information on the file name of the image file and the image size are arranged, and also metadata is arranged.
  • the image size information is set by the image file size setting unit 174.
  • the metadata includes metadata identification information, information on the shooting date and time of the image, and information on the stereoscopic image.
  • the information on the shooting date and time is information generated by the metadata generation unit 150a and included in the metadata input to the data synthesis unit 172.
  • the three-dimensional image information includes various information related to the three-dimensional image.
  • the information on the optimal trimming position and the information on the maximum pop-out amount are generated by the metadata generation unit 150a and are included in the metadata input to the data synthesis unit 172.
  • the information on the 3D image size is information set by the metadata size setting unit 173, and indicates the image size of a stereoscopic image based on the image data.
  • the information of the 3D image size recorded as metadata and the information of the image size recorded in the header part of the image file have the same contents.
  • Fig. 11 is an example of an image file.
  • Fig. 11 an example in which the 3D image size is arranged as a part of the stereoscopic image information has been described. You can do it.
  • controller 150 is 3D-compatible. However, if controller 150 is not 3D-compatible, stereoscopic image information in the metadata area may be used. In the description area, for example, a predetermined initial value is set or no information is described.
  • FIG. 12 is a flowchart showing the operation flow of the image file generation unit 150c.
  • the subject optical image incident via the stereo adapter 10 forms an image on the imaging surface of the CCD color imaging device 34 via the imaging lens group 21, the exposure control mechanism 22, the half mirror 31, and the filter system 32.
  • the CCD color image sensor 34 includes left and right monochromatic images L, R Output data of one image including.
  • the image signal from the CCD color image sensor 34 is input to the controller 150 via the pre-processing circuit 36.
  • the stereo image generation unit 50b generates an integrated image in which a monocular image is arranged on the left and right based on the input image signal.
  • the metadata generation unit 150a generates shooting date and time information and stereoscopic image information relating to the generated integrated image.
  • step S101 in Fig. 12 the image file generating unit 150c performs a predetermined compression process on the generated integrated image (stereo image).
  • the metadata size setting unit 173 in the image file generating unit 150c generates information (3D image size) of the image size of the stereoscopic image stored in the image data unit.
  • step S103 the image file size setting section 174 in the image file generation section 150c generates information on the image size of the image stored in the image data section. That is, in this case, the 3D image size set by the metadata size setting unit 173 and the image size set by the image file size setting unit 174 have the same value.
  • the image file generating unit 150c combines the stereo image, the metadata, the 3D image size, and the information on the image size by the data combining unit 172 (step S104), and the data shown in FIG. A format image file is generated (step S105).
  • the image file generated by the image file generation unit 150c is provided to the digital process circuit 39.
  • the digital process circuit 39 can display the integrated image on the display screen of the LCD 40 based on the input electronic image file.
  • the digital process circuit 39 can also provide the input electronic image file to the memory card 42 via the card IF 41 and record it.
  • the image file generated by the image file generation unit includes, in addition to the image size information of the image based on the image data in the image file, 3D image size power Located in metadata.
  • the information on the image size of the stereoscopic image is arranged separately from the information on the image size of the header part in the image file, and these information can be managed separately. If an image file is created (updated) by a 3D-incompatible device or software, Since the 3D image size of the metadata to be created is not generated or updated, comparing the information of these image sizes allows the image file to be created (updated) by a 3D-incompatible device or software. ⁇ can be determined.
  • the image file generating unit described in the example of generating the image file by the image processing apparatus having the image file generating unit has the same function. It is obvious that the present invention can also be realized by software exhibiting the following. That is, by using a computer capable of executing a program having the same function as the flowchart of FIG. 12, an image file generating unit similar to that of FIG. 10 can be generated.
  • the image file size setting unit 174 is configured by an operation system of a computer, and the image size in the image file In general, it is automatically described when creating (updating).
  • the example in which the present invention is applied to an electronic camera can be applied to a single image processing apparatus that processes an image captured by a force electronic camera. Similar functions can be achieved by a program such as a personal computer that processes a captured image.
  • FIG. 13 is a block diagram showing an image processing / editing apparatus according to the fifth embodiment of the present invention
  • FIG. 14 is a flowchart showing a processing flow of image file generation. This embodiment is applied to the image file editing apparatus shown in FIG. Note that this embodiment can also be realized by software having the same functions as those of the device in FIG.
  • An image file having the data format shown in Fig. 11 is input to the decoding unit 181.
  • the decoding unit 181 decodes the input image file and extracts various data included in the image file.
  • the decoding unit 181 gives the image data in the image file to the image decompression unit 182, and gives the metadata to the metadata processing unit 184.
  • the image expansion unit 182 expands the input image data to obtain image data before compression. This image data is provided to the image processing / editing unit 183.
  • the image processing / editing unit 183 performs the processing / editing on the input image data according to the user's processing / editing operation (step S111), and converts the image data after the processing / editing into an image file. Output to the file generation unit 186.
  • the image processing / editing unit 183 can use the image processing / editing process with reference to metadata on image data to be processed / edited.
  • the metadata processing unit 184 updates the metadata based on the image processing / editing processing of the editing unit 183. For example, when the editing process of the image processing 'editing unit 183 is a trimming process for a stereoscopic image, the metadata processing unit 184 determines an optimum cutout range corresponding to the trimming process. Update the information of the trimming position and the information of the maximum protrusion amount.
  • the image file generation unit 186 combines the image data from the image processing / editing unit 183 with the metadata from the metadata processing unit 184 to generate an image file in the file format shown in FIG.
  • the size updating unit 187 in the image file generating unit 186 has the same functions as the metadata size setting unit 173 and the image file size setting unit 174 in FIG.
  • the image size information of the subsequent image is generated (step S112).
  • the image file generation unit 186 rewrites the information on the image size in the image file in the file format (see FIG. 11) with the information generated by the size update unit 187. Further, the image file generation unit 186 rewrites the information of the 3D image size (see FIG.
  • Step S113 in the metadata in the file format to the information generated by the size update unit 187 (Step S113).
  • the generation unit 186 generates and outputs an image file in which the image size in the image file and the 3D image size in the metadata are changed to the same information (step S114).
  • the metadata is updated along with the image processing / editing.
  • the image size in the image file and the information on the 3D image size in the metadata match as long as the image is edited and edited using the editing device according to the present embodiment. This is it.
  • FIG. 15 is a block diagram showing an image file reproducing device according to the sixth embodiment of the present invention
  • FIG. 16 is a flowchart showing a processing flow of an image file. This embodiment is applied to the image file reproducing apparatus shown in FIG. It should be noted that this embodiment can also be realized by software having the same function as the device in FIG.
  • An image file having the file format shown in Fig. 11 is input to the decoding unit 191.
  • the decoding unit 191 decodes the input image file and extracts various data included in the image file.
  • the decoding unit 191 gives the image data in the image file to the image decompression unit 192, and gives the metadata to the switching unit 196, the metadata invalidation unit 195, and the size determination unit 194.
  • the image expansion unit 192 expands the input image data to obtain image data before compression. This image data is provided to the reproduction processing unit 193.
  • the size determination unit 194 acquires information on the image size (see Fig. 11) in the image file and information on the 3D image size in the metadata (step S121). It is determined whether the image size in the file matches the 3D image size in the metadata (step S122). Size determination section 194 outputs the determination result to switching section 196 and warning section 197.
  • the metadata invalidating unit 195 invalidates the input metadata (step S124). 0
  • the metadata invalidating unit 195 deletes the parameter of the metadata related to the stereoscopic image.
  • invalidation is performed by setting the initial value.
  • the switching section 196 selectively supplies one of the metadata from the decoding section 191 and the metadata from the metadata invalidating section 195 to the reproduction processing section 193 based on the determination result of the size determining section 194. For example, the switching unit 196 determines that the image sizes match.
  • the switching unit 196 determines that the image sizes match.
  • the reproduction processing unit 193 uses the metadata from the switching unit 196 to perform predetermined reproduction processing on the image data (step S125). 0 Also, the reproduction processing unit 193 transmits the image size from the size determination unit 194 to the image size. If a determination result indicating that the metadata does not match is given, the metadata information set by the metadata invalidating unit 195 may be given to the reproduction processing unit 193.
  • the warning unit 197 issues a warning to the user, for example, by displaying a warning or the like. .
  • the image size is not matched.
  • the reproduction process is prohibited because there is no correlation between the data and the metadata, or the reproduction process is performed using the invalidated metadata. This makes it possible to prevent the reproduction process from being performed using the metadata that cannot be correlated with the image data when the image is processed or edited by a device or software that does not support 3D. Wear.
  • the stereo system has been described as a binocular system corresponding to the left and right eyes. However, the same applies to a general multi-view stereo system having three or more eyes. Of course it is possible.

Description

明 細 書
画像処理装置、画像加工 ·編集装置、画像ファイル再生装置、画像処理 方法、画像加工 ·編集方法及び画像ファイル再生方法
技術分野
[0001] 本発明は、ステレオ画像の撮像及び編集等に好適な画像処理装置、画像加工'編 集装置、画像ファイル再生装置、画像処理方法、画像加工,編集方法及び画像ファ ィル再生方法に関する。
背景技術
[0002] 画像を立体的情報を含んで撮影記録し、これを再生観察する方式には多種多様な 提案がある。その中でも、左右両眼の視点に対応する視差を持った 2画像を記録し、 これを左右両眼に対してそれぞれ提示する 、わゆる 2眼式ステレオ方式は、構成が 最も簡単で安価な割に効果が大きいため、旧くから今日に至るまで利用されている。
[0003] この 2眼式ステレオ方式において、いわゆるパーソナルユースに対しては、同時に は 1人し力観察できないという制約はあるものの、最も基本的かつ古典的な方法であ るステレオペア画像を用いる方式が、極めて安価にまた鮮明な画像を観察できる方 式として、今日、なお広く使用されている。
[0004] そして、ステレオアダプタを用いたステレオ撮像装置としては、例えば、特開 2002 — 218506号公報(以下、文献 1という)に開示されたものがある。文献 1では、システ ムコントローラに、ステレオアダプタの装着を検出するステレオアダプタ検出部、測光 エリアに関する被写体画像信号を解析して露出制御に必要な測光情報を算出する ための自動露出 (AE)制御部、及び上述の測光エリアの設定を行う測光エリア設定 部を設けて、測光エリア設定部が、通常撮影モード時とステレオ撮影モードとでそれ ぞれ異なる測光エリアを設定する機能を有しており、通常撮影モード及びステレオ撮 影モードそれぞれに最適な測光エリアを設定する技術を開示している。
[0005] このように、 2眼式ステレオ方式では、 1枚の画枠の中の左右に、視差に応じて相互 にずれた同一被写体の 2つの画像 (以下、モノキユラ画像という)を映し出す方法を採 用する。即ち、 2眼式ステレオ方式では、左右にモノキユラ画像が配置された 1枚の画 像 (以下、統合画像という)から立体感を得るために、統合画像中の左右のモノキユラ 画像を夫々右目又は左目で観察する。左右の目で観察した 2つの画像を、 1つの画 像として融合させることによって、立体感を有する画像を認識することができる。この 認識上の画像 (以下、融合画像という)は、左右のモノキユラ画像の各部のずれ量に 応じて、各部に遠近感を生じさせる。
[0006] ところで、電子カメラで扱う画像データとしては、 Exif規格のデータ形式のものが普 及して 、る。 Exif規格は、 JPEG規格のファイル (JPEGファイル)形式に従ったもので ある。即ち、画像データそのものについて ίお PEG規格の画像データとして扱い、 JP EGファイルのヘッダ部に、 Exifデータ(メタデータ)を配置したものである。 Exif規格 のメタデータは、 TIFF形式で記述され、撮影日付やサムネイル等の情報を含む。
[0007] このメタデータ中に、ステレオ画像に関する情報を記述することができる。例えば、 ステレオアダプタを用いて撮像された左右のモノキユラ画像は、実際には境界部にケ ラレが生じていたり、或いは結像位置にずれが生じていたりする。このケラレ及び位 置ずれ等を補正すベぐ左右の各領域中の所定部分をトリミングして有効なモノキュ ラ画像の範囲(以下、画枠という)を設定する。画枠の範囲は、立体画像の奥行き感 に影響を与えることから、立体画像の加工'編集を行う場合には、画枠を適切に設定 する必要がある。メタデータ中に、トリミングに関する情報等を記述することで画枠を 適切に設定して、融合画像に適正な奥行き感を与えることが可能となる。
[0008] ところで、画像の加工'編集ソフトウェアを用いて、立体画像の加工'編集を行うこと が考えられる。この場合において、立体画像に対応した加工'編集ソフトウェア(以下 、 3D対応ソフトという)を用いて加工'編集が行われるとは限らず、立体画像に非対 応の加工'編集ソフトウェア(以下、 3D非対応ソフトという)を用いて加工'編集が行わ れることち考免られる。
[0009] 一般的なカ卩ェ '編集ソフトウェアにおいては、 Exif規格に対応している。このため、
3D非対応ソフトにおいて、立体画像の加工'編集を行った場合でも、メタデータ部分 を破壊することなぐ画像データの処理が可能である。しかし、 3D非対応ソフトにおい ては、立体画像に関するメタデータ部分を編集することはできな 、。
[0010] 従って、 3D非対応ソフトにおいて画像データの加工'編集を行った場合には、立体 画像の加工'編集が行われているにも拘わらず、対応するメタデータは編集されずに 元のままとなる。即ち、この場合には、立体画像とメタデータの相関関係にずれが生 じるという問題があった。
[0011] この場合でも、加工'編集された立体画像を 3D非対応の装置又はソフトウェアによ つて再生する場合には特には問題は生じない。ところが、加工'編集された立体画像 を 3D対応の装置又はソフトウェアで処理する場合には、これらの装置又はソフトゥェ ァカ Sメタデータの情報に基づ 、て処理を行うことから、適正な融合画像が得られな!/ヽ ことちある。
[0012] 例えば、 3D非対応ソフトによって、立体画像を拡大したにも拘わらず、トリミングに 関するメタデータが修正されなければ、 3D対応ソフトでは、拡大前の立体画像に適 したトリミングを実施することから、融合画像の奥行き感は大きくなり、実際と認識画像 との違和感が増大する。
[0013] 図 17はこの場合の問題点を説明するための説明図である。図 17の符号 17a乃至 1 7dは、統合画像を 3D対応ソフトによってトリミングする場合を示し、符号 17e乃至 17 hは統合画像を 3D非対応ソフトによってトリミングした後、 3D対応ソフトによってトリミ ングする例を示している。
[0014] 符号 17a, 17eは、同一被写体 (人物)の各モノキユラ画像を左右に配列した統合 画像を示している。この統合画像に対して、上述したように、ケラレや位置ずれ補正 のために、融合画像に用いる有効な画枠を設定するトリミングを行うものとする。 Exif 規格では、適正なトリミング位置についての情報が予めメタデータ内に記述されてい る。
[0015] 3D対応ソフトにおいては、このメタデータを用いることによって、自動的に最適トリミ ング位置でのトリミングが可能である。符号 17bは破線によって最適トリミング位置を 示している。符号 17cは 3D対応ソフトによる切り出し画像を示している。 3Dソフトによ る切り出しに際して、メタデータは切り出し後の画像に対応して自動的に修正される。 即ち、最適トリミング位置や、画像の奥行き感の最大値を決定する最大飛び出し量等 の情報も更新される。
[0016] ここで、更に 3D対応ソフトによって、画像の切り出しを行うものとする。この場合には 、最適トリミング位置が符号 17cの画像に対応して更新されており、 3Dソフトによる切 り出し画像は符号 17dに示すものとなる。
[0017] 一方、 3D非対応ソフトによって符号 17eに示す統合画像をトリミングするものとする
。この場合には、一般的には、符号 17fの一点鎖線に示すトリミング位置での切り出し が行われることが考えられる。符号 17gは 3D非対応ソフトによる切り出し画像を示し ている。この場合には、メタデータの修正は行われない。
[0018] ここで、 3D対応ソフトによって、符号 17gの画像力も切出しを行うものとする。この場 合には、 3D対応ソフトは、メタデータを参照して自動的なトリミングを行う。即ち、符号
17hに示すように、メタデータに設定されて!、る最適トリミング位置 (破線)で切り出し を行う。即ち、この場合には、被写体が切り出し範囲からはみ出しており、切り出し後 の画像から適切な統合画像は得られな ヽ。
[0019] また、符号 17hの破線のトリミング位置で切り出した画像を再生出力すると、その融 合画像の奥行き感は極めて大きぐ設定されている最大飛び出し量を超えてしまうと いう問題もあった。
[0020] 本発明は立体画像非対応の加工'編集機又はソフトウェアによって立体画像が処 理された場合でも、融合画像の適正な認識を可能にすることができる画像処理装置 、画像加工,編集装置、画像ファイル再生装置、画像処理方法、画像加工,編集方 法及び画像ファイル再生方法を提供することを目的とする。
発明の開示
課題を解決するための手段
[0021] 本発明の請求項 1に係る画像処理装置は、所定の視差を有して得られた同一被写 体の複数のモノキユラ画像に基づくステレオ画像データを生成するステレオ画像デ ータ生成手段と、前記ステレオ画像データに関する付随データを生成する付随デー タ生成手段と、前記付随データの生成又は更新を行った日時に関する情報を生成 する付随データ日時情報生成手段と、前記ステレオ画像データ生成手段で生成され たステレオ画像データと、前記付随データ生成手段にて生成された付随データとを 合成して画像ファイルを生成する画像ファイル生成手段であって、前記付随データ 日時情報生成手段で生成された前記付随データの生成又は更新を行った日時に関 する情報と、当該画像ファイルの生成又は更新を行った日時に関する情報とをさらに 付加して、所定のファイルフォーマットに変換して画像ファイルを生成する画像フアイ ル生成手段と、有するものであ、り、
本発明の請求項 3に係る画像加工'編集装置は、所定の視差を有して得られた同 一被写体の複数のモノキユラ画像に基づくステレオ画像データと前記ステレオ画像 データに関する付随データとを合成し、かつ、前記付随データの生成又は更新を行 つた日時に関する情報と、当該画像ファイルの生成又は更新を行った日時に関する 情報とをさらに付加して、所定のファイルフォーマットに変換して生成された画像ファ ィル内のステレオ画像データに基づいて画像加工'編集を行う画像加工'編集手段 と、前記画像加工 '編集が行われる前の前記付随データに対して、画像加工 '編集 の内容に基づいてこの付随データを更新する付随データ更新手段と、前記付随デ ータの更新が行われた日時に関する情報を生成する付随データ更新日時情報生成 手段と、前記画像加工'編集手段で画像加工'編集されたステレオ画像データと、前 記付随データ更新手段にて更新された付随データとを合成して画像ファイルを生成 する画像ファイル生成手段であって、前記付随データ更新日時情報生成手段で生 成された前記付随データの更新を行った日時に関する情報と、当該画像ファイルの 生成又は更新を行った日時に関する情報とをさらに付加して、所定のファイルフォー マットに変換して画像ファイルを生成する画像ファイル生成手段と、有するものであり 本発明の請求項 5に係る画像ファイル再生装置は、所定の視差を有して得られた 同一被写体の複数のモノキユラ画像に基づくステレオ画像データと前記ステレオ画 像データに関する付随データとを合成し、かつ、前記付随データの生成又は更新を 行った日時に関する情報と、当該画像ファイルの生成又は更新を行った日時に関す る情報とをさらに付加して、所定のファイルフォーマットに変換して生成された画像フ アイルを再生する再生手段と、前記再生手段によって再生された前記付随データの 生成又は更新を行った日時に関する情報と当該画像ファイルの生成又は更新を行 つた日時に関する情報との一致を判定する判定手段と、前記判定手段によって不一 致と判定された場合には、前記再生手段による再生動作の «続を禁止する制御手 段と、有するものである。
本発明の請求項 12に係る画像処理装置は、所定の視差を有して得られた同一被 写体の複数のモノキユラ画像に基づくステレオ画像データを生成するステレオ画像 データ生成手段と、前記ステレオ画像データに関する付随データを生成する付随デ ータ生成手段と、前記ステレオ画像データの画像サイズに関する情報を生成するス テレオ画像サイズ情報生成手段と、前記ステレオ画像データ生成手段で生成された ステレオ画像データと、前記付随データ生成手段にて生成された付随データとを合 成して画像ファイルを生成する画像ファイル生成手段であって、前記ステレオ画像サ ィズ情報生成手段で生成された画像サイズに関する情報を前記付随データ内外に それぞれ付加して、所定のファイルフォーマットに変換して画像ファイルを生成する 画像ファイル生成手段と、有するものであり、
本発明の請求項 13に係る画像加工'編集装置は、所定の視差を有して得られた同 一被写体の複数のモノキユラ画像に基づくステレオ画像データと前記ステレオ画像 データに関する付随データとを合成し、かつ、前記ステレオ画像データの画像サイズ に関する情報をさらに前記付随データ内外にそれぞれ付加して、所定のファイルフォ 一マットに変換して生成された画像ファイル内のステレオ画像データに基づいて画像 加工'編集を行う画像加工'編集手段と、前記画像加工'編集が行われる前の前記 付随データに対して、画像加工'編集の内容に基づ 、てこの付随データを更新する 付随データ更新手段と、前記付随データの内外にそれぞれ付加された前記画像カロ ェ '編集が行われる前の前記ステレオ画像データの画像サイズに関する情報に対し て、画像加工'編集の内容に基づ!/、てそれぞれの画像サイズに関する情報を更新す るステレオ画像サイズ情報更新手段と、前記画像加工'編集手段で画像加工'編集 されたステレオ画像データと、前記付随データ更新手段にて更新された付随データ とを合成して画像ファイルを生成する画像ファイル生成手段であって、前記ステレオ 画像サイズ情報更新手段で更新された画像サイズに関するデータを付随データの 内外にそれぞれ付加して、所定のファイルフォーマットに変換して画像ファイルを生 成する画像ファイル生成手段と、有するものであり、
本発明の請求項 14に係る画像ファイル再生装置は、所定の視差を有して得られた 同一被写体の複数のモノキユラ画像に基づくステレオ画像データと前記ステレオ画 像データに関する付随データとを合成し、かつ、前記ステレオ画像データの画像サイ ズに関する情報をさらに前記付随データ内外にそれぞれ付加して、所定のファイル フォーマットに変換して生成された画像ファイルを再生する再生手段と、前記再生手 段によって再生された前記付随データ内の画像サイズに関する情報と前記付随デー タ外の画像サイズに関する情報との一致を判定する判定手段と、前記判定手段によ つて不一致と判定された場合には、前記再生手段による再生動作の継続を禁止する 制御手段と、を有するものである。
図面の簡単な説明
[図 1]本発明の第 1の実施の形態に係る画像処理装置が組込まれた電子カメラを示 すブロック図。
[図 2]図 1中の画像ファイル生成部 50cの具体的な構成を示すブロック図。
[図 3]画像ファイル生成部 50cによって生成される画像ファイルの一例を示す説明図
[図 4]画像ファイル生成部 50cの動作フローを示すフローチャート。
[図 5]図 5は本発明の第 2の実施の形態に係る画像加工'編集装置を示すブロック図
[図 6]画像ファイル生成の処理フローを示すフローチャート。
[図 7]本発明の第 3の実施の形態に係る画像ファイル再生装置を示すブロック図。
[図 8]画像ファイルの処理フローを示すフローチャート。
[図 9]本発明の第 4の実施の形態に係る画像処理装置が組込まれた電子カメラを示 すブロック図。
[図 10]図 9中の画像ファイル生成部 50cの具体的な構成を示すブロック図。
[図 11]画像ファイル生成部 50cによって生成される画像ファイルの一例を示す説明 図。
[図 12]画像ファイル生成部 50cの動作フローを示すフローチャート。
[図 13]図 13は本発明の第 5の実施の形態に係る画像加工'編集装置を示すブロック 図。 [図 14]画像ファイル生成の処理フローを示すフローチャート。
[図 15]本発明の第 6の実施の形態に係る画像ファイル再生装置を示すブロック図。
[図 16]画像ファイルの処理フローを示すフローチャート。
[図 17]背景技術の問題点を説明するための説明図。
発明を実施するための最良の形態
[0024] 以下、図面を参照して本発明の実施の形態について詳細に説明する。図 1は本発 明の第 1の実施の形態に係る画像処理装置が組込まれた電子カメラを示すブロック 図である。本実施の形態は画像ファイルの記録装置に適用したものである。
[0025] (第 1の実施形態)
図 1において、電子カメラは、カメラ本体 1と、レンズ鏡筒を有するレンズユニット 5と 、ステレオ画像撮影用のステレオアダプタ 10とによって構成されている。電子カメラは 、レンズユニット 5にミラー式のステレオアダプタ 10が着脱自在に取り付けられている 。ステレオアダプタ 10は、視差程度離れた位置にミラー 11、 12がそれぞれ配置され 、更にこれらのミラー 11、 12によって反射された光をカメラ側に導くためのミラー 13、 14が配置された構成となって 、る。
[0026] ステレオアダプタ 10内のミラー 11、 13及びミラー 12、 14を通過した光は、それぞれ レンズユニット 5内の撮影レンズ群 21を介して露出制御機構 22、更にはカメラ本体 1 内のハーフミラー 31に導かれる。
[0027] レンズユニット 5は、撮影レンズ群 21と、露出制御機構 22と、レンズ駆動機構 23と、 レンズドライバ 24と、露出制御ドライバ 25とを有して構成されて ヽる。
[0028] 撮影レンズ群 21は、ステレオアダプタ 10が装着していない状態では通常の単眼視 の撮像 (モノキユラ撮像)が可能な主撮像光学系であり、レンズ駆動機構 23によって 駆動されてフォーカシングゃズーミングの調節が行われるようになって!/、る。レンズ駆 動機構 23は、レンズドライバ 24によって制御される。露出制御機構 22は、撮影レン ズ群 21の絞り及びシャツタ装置(図示せず)を制御するようになっている。露出制御 機構 22は、露出制御ドライバ 25によって制御される。
[0029] レンズユニット 5からカメラ本体 1に導かれた光は、ハーフミラー 31を通過して、ロー パス及び赤外カット用のフィルタ系 32を介して CCDカラー撮像素子 34に導かれて 結像されるようになっている。 CCDカラー撮像素子 34は、 CCDドライバ 35によって 駆動制御されて、被写体の光学像を電気信号に変換する。なお、 CCDカラー撮像 素子 34としては、例えば、縦型オーバフロードレイン構造のインターライン型で、プロ グレツシブ (順次)走査型のものが採用される。
[0030] ステレオアダプタ 10の左眼視用ミラー 11に入射された光は、ミラー 13及び撮影レ ンズ群 21を介して CCDカラー撮像素子 34の図示しない撮像面の領域 Lに結像され る。同様に、右眼視用ミラー 12に入射された光は、ミラー 14及び撮影レンズ群 21を 介して CCDカラー撮像素子 34の図示しな ヽ撮像面の領域 Rに結像されるようになつ ている。
[0031] CCDカラー撮像素子 34によって光電変換された信号は、 AZD変 等を含む プリプロセス回路 36を介して、色信号生成処理、マトリックス変換処理、その他各種 のデジタル処理を行うためのデジタルプロセス回路 39に与えられる。このデジタルプ ロセス回路 39において、デジタル化された画像信号を処理することにより、カラー画 像データが生成される。
[0032] デジタルプロセス回路 39には、 LCD表示部 40が接続されると共に、カードインター フェース(IF) 41を介して CF (Compact Flash Memory Card)やスマートメディ ァ等のメモリカード 42が接続される。 LCD表示部 40はカラー画像データに基づく表 示を行うものであり、メモリカード 42はカラー画像データを格納するものである。
[0033] なお、メモリカード 42は、外部のパーソナルコンピュータ 60に装填が可能である。そ して、メモリカード 42に記録された画像は、パーソナルコンピュータ 60上で表示、画 像処理等が可能である。更に、メモリカード 42に記録された画像を、図示しないプリ ンタによってプリントアウトすることも可能である。
[0034] ハーフミラー 31は、入射される被写体像が一部反射されるように構成されているも ので、反射光を AFセンサモジュール 45に導くようになつている。 AFセンサモジユー ル 45は、撮影レンズ群 21を通って入射された光線に基づいて焦点検出を行うため のものである。 AFセンサモジュール 45は、瞳分割用のセパレータレンズ 46と、ライン センサで構成される AFセンサ 47を有して構成されて 、る。
[0035] CPU等によって構成されるシステムコントローラ 50は、カメラ本体 1及びレンズュ- ット 5内の各部を統括的に制御するためのものである。システムコントローラ 50には、 上述したレンズドライバ 24と、露出制御ドライバ 25と、 CCDドライバ 35と、プリプロセ ス回路 36と、デジタルプロセス回路 39と、 AFセンサモジュール 45の他、操作スイツ チ部 52と、操作表示部 53と、不揮発性メモリ (EEPROM) 51と、ステレオ切り替えス イッチ(SW) 54とが接続されて 、る。
[0036] 操作スィッチ部 52は、レリーズスィッチや撮影モード設定等の各種スィッチ力ゝら構 成される。操作表示部 53は、カメラの操作状態及びモード状態等を表示するための 表示部である。
[0037] EEPROM51は、各種設定情報等を記憶するためのメモリである。そして、ステレオ 切り替えスィッチ 54は、ステレオアダプタ 10がレンズユニット 5に装着される際にモー ドを切り替えるための切り替えスィッチである。なお、ここでは、撮影モード切り替えは ステレオ切り替えスィッチ 54を操作して行うようにしている力 これに限られるものでは ない。例えば、ステレオアダプタ 10内に検出機能を設けて自動的に撮影モードの切 り替えが行われるようにしてもよ 、。
[0038] システムコントローラ 50は、露出制御機構 22と CCDドライバ 35による CCDカラー 撮像素子 34の駆動を制御して、露光 (電荷蓄積)及び信号の読み出しを行う。システ ムコントローラ 50は、 CCD34の出力をプリプロセス回路 36を介してデジタルプロセス 回路 39に与えて各種信号処理を施し、カードインターフェース 41を介してメモリカー ド 42に記録させるようになって 、る。
[0039] ストロボ 57は、閃光を発光するもので、レンズユニット 5内の露出制御ドライバ 25を 介して、システムコントローラ 50によって制御されるようになって!/、る。
[0040] システムコントローラ 50は、更に、露出制御部 50d及び測光エリア設定部 50eを有 している。露出制御部 50dは、測光エリアに関する被写体画像信号を解析して露出 制御に必要な露光情報を算出するためのものである。また、測光エリア設定部 50eは 、露出制御部 50dに対して、測光エリアの設定を行うようになっている。
[0041] 本実施の形態においては、システムコントローラ 50は、更に、メタデータ生成部 50a 、ステレオ画像生成部 50b及び画像ファイル生成部 50cを有して 、る。
[0042] 付随データ生成手段としてのメタデータ生成部 50aは、撮影画像に関する各種の 付随データ(以下、メタデータという)を生成して画像ファイル生成部 50cに与える。例 えば、メタデータ生成部 50aは、撮影日時の情報や、撮影画像が立体画像である場 合には、立体画像に関する各種情報 (立体画像情報)を生成する。立体画像情報と しては、例えば、トリミング情報がある。トリミング情報は、各モノキユラ画像の有効な画 枠を示す情報であり、再生時に融合画像の認識に用いる領域を示して 、る。
[0043] ステレオ画像生成部 50bは、入力された複数のモノキユラ画像に基づいてステレオ 画像を生成するようになっている。例えば、 CCD34の撮像面に複数のモノキユラ画 像が配置された 1枚の画像が結像した場合には、ステレオ画像生成部 50bは、入力 された画像をそのまま用いてステレオ画像を生成する。また、複数のモノキユラ画像 が例えば別々に撮像されて入力された場合には、ステレオ画像生成部 50bは入力さ れた各モノキユラ画像に基づいてステレオ画像を生成する。
[0044] 画像ファイル生成部 50cは、ステレオ画像生成部 50bが生成したステレオ画像を、 所定フォーマットの電子画像ファイルに変換して出力することができるようになつてい る。画像ファイル生成部 50cは、ステレオ画像が統合画像である場合には、 1枚の統 合画像を例え〖 PEG規格又は TIFF規格の画像フォーマットに変換して 1画像ファ ィルとする。また、画像ファイル生成部 50cは、ステレオ画像が複数のモノキユラ画像 によって構成される場合には、例えば各モノキユラ画像を TIFF形式の各ページに割 り当てて、 1画像ファイルを構成する。
[0045] この場合には、画像ファイル生成部 50cは、ステレオ画像を必要に応じて圧縮処理 し、付随データ (メタデータ)を付カ卩した所定フォーマットのデジタル画像ファイルに変 換する。
[0046] 図 2は図 1中の画像ファイル生成部 50cの具体的な構成を示すブロック図である。
また、図 3は画像ファイル生成部 50cによって生成される画像ファイルの一例を示す 説明図である。
[0047] 画像ファイル生成部 50cの圧縮部 71にはステレオ画像の画像データが入力される 。圧縮部 71は、ステレオ画像の画像データに所定の圧縮処理を施してデータ合成 部 72に出力する。データ合成部 72には、メタデータも入力され、データ合成部 72は 画像データとメタデータとを合成する。 [0048] 本実施の形態にぉ 、ては、画像ファイル生成部 50cは、メタデータ日時設定部 73 及び画像ファイル日時設定部 74を備えている。メタデータ日時設定部 73は、各種立 体画像情報に関するメタデータの作成日時の情報をデータ合成部 72に出力するこ とができるようになつている。また、画像ファイル日時設定部 74は、画像ファイルの作 成日時の情報をデータ合成部 72に出力することができるようになつている。なお、メタ データ日時設定部 73及び画像ファイル日時設定部 74は、いずれも画像ファイルの 最終更新時の日時、即ちこの場合は、同一の日時を設定するようになっている。
[0049] データ合成部 72は、入力された各データを合成してフォーマット部 75に与える。フ ォーマット部 75は、入力された各データを所定の画像フォーマットに従って配列して 、 1画像ファイルとして出力するようになっている。
[0050] 図 3に示すように、画像ファイルは、ヘッダ部と画像データ部とを有して 、る。画像 データ部には、圧縮部 71によって圧縮された画像データが配置される。ヘッダ部に は、画像ファイルのファイル名、ファイル作成(更新)日時が配置されると共にメタデー タも配置される。ファイル作成(更新)日時の情報は、画像ファイル日時設定部 74に より設定されたものである。
[0051] メタデータは、メタデータ識別情報、画像の撮影日時の情報及び立体画像に関す る情報を含む。なお、撮影日時の情報は、メタデータ生成部 50aによって生成され、 データ合成部 72に入力されるメタデータに含まれて 、る情報である。
[0052] 立体画像情報は、画像データ部に配置された画像データが立体画像である場合 において、その立体画像に関する種々の情報を含んでいる。トリミング情報は、メタデ ータ生成部 50aによって生成され、データ合成部 72に入力されるメタデータに含まれ ている。メタデータ作成(更新)日時は、メタデータ日時設定部 73によって設定された 情報であり、各種立体画像情報に関するメタデータの作成日時を内容とする。
[0053] なお、図 3のファイルフォーマットは画像ファイルの一例であり、図 3ではメタデータ 作成 (更新)日時を立体画像情報の一部として配置する例を説明したが、メタデータ 内の他の領域に配置するようにしてもょ 、。
[0054] また、本実施の形態においては、コントローラ 50は、 3D対応であるものとして説明 したが、仮に、コントローラ 50が 3D非対応である場合には、メタデータ領域中の立体 画像情報の記述領域には、例えば、所定の初期値が設定されるか又は何らの情報も 記述されない。
[0055] 次に、このように構成された実施の形態の作用について図 4を参照して説明する。
図 4は画像ファイル生成部 50cの動作フローを示すフローチャートである。
[0056] V、ま、ステレオ切り替えスィッチ 54によって、ステレオ撮影モードが指示されて!、る ものとする。ステレオアダプタ 10を介して入射した被写体光学像は、撮影レンズ群 21 、露出制御機構 22、ハーフミラー 31及びフィルタ系 32を介して CCDカラー撮像素 子 34の撮像面に結像する。 CCDカラー撮像素子 34は、左右のモノキユラ画像 L, R を含む 1枚の画像のデータを出力する。 CCDカラー撮像素子 34からの画像信号は プリプロセス回路 36を介してコントローラ 50に入力される。
[0057] ステレオ画像生成部 50bは入力された画像信号に基づいて、左右にモノキユラ画 像を配置した統合画像を生成する。メタデータ生成部 50aは、生成された統合画像 に関する撮影日時の情報や、立体画像情報を生成する。
[0058] 画像ファイル生成部 50cは、図 4のステップ S1において、生成された統合画像 (ス テレオ画像)に対して所定の圧縮処理を施す。次のステップ S2において、画像フアイ ル生成部 50c中のメタデータ日時設定部 73は、メタデータ生成部 50aによって生成 される立体画像情報に関するメタデータの作成日時の情報を生成する。なお、メタデ ータ日時設定部 73は、現在時刻をメタデータ作成日時としてもよい。ステップ S3で は、画像ファイル生成部 50c中の画像ファイル日時設定部 74は、メタデータの作成 日時と同一の日時を画像ファイルの作成日時の情報として生成する。
[0059] 画像ファイル生成部 50cは、データ合成部 72によって、ステレオ画像、メタデータ、 メタデータ作成日時及び画像ファイル作成日時の情報を合成し (ステップ S4 )、フォ 一マット部 75によって、図 3に示すデータフォーマットの画像ファイルを生成する(ス テツプ S5 )。
[0060] 画像ファイル生成部 50cによって生成された画像ファイルは、デジタルプロセス回 路 39に与えられる。デジタルプロセス回路 39は、入力された電子画像ファイルに基 づいて、統合画像を LCD40の表示画面に表示させることができる。また、デジタルプ ロセス回路 39は、入力された電子画像ファイルをカード IF41を介してメモリカード 42 に与えて、記録させることもできる。
[0061] なお、本実施の形態にぉ 、ては画像ファイルの作成日時の情報をメタデータの作 成日時の情報に一致させた力 メタデータの作成日時の情報を画像ファイルの作成 日時の情報に一致させるようにしてもょ 、ことは明らかである。
[0062] このように、本実施の形態においては、画像ファイル生成部によって生成される画 像ファイルには、画像ファイル自体の作成 (更新)日時の情報の他に、立体画像情報 に関するメタデータの作成(更新)日時の情報が配置される。立体画像情報に関する メタデータの作成 (更新)日時の情報が画像ファイルの作成 (更新)日時の情報に別 個に配置されており、画像ファイルの作成(更新)と立体画像情報に関するメタデータ の作成 (更新)とを別々に管理することができる。 3D非対応機器又はソフトウェアによ つて、画像ファイルが作成 (更新)される場合には、立体画像情報に関するメタデータ の作成(更新)日時は、生成又は更新されないことから、これらの日時の情報を比較 することで、画像ファイルが 3D非対応機器又はソフトウェアによって作成(更新)され た力否かを判定することを可能にすることができる。
[0063] なお、上記実施の形態にお!、ては、メタデータの作成(更新)日時と画像ファイルの 作成 (更新)日時とを一致させる例について説明したが、一般的には、実際のメタデ ータの作成(更新)日時と画像ファイルの作成(更新)日時とは、略一致しているか又 はその時間差は比較的小さいので、実際の作成 (更新)日時を設定するようにしても よい。この場合には、これらの日時同士の差が閾値よりも小さいことによって、画像フ アイルが 3D非対応機器又はソフトウェアによって作成 (更新)されたか否かを判定す ることがでさる。
[0064] また、上記実施の形態においては、画像ファイル生成部を備えた画像処理装置に よって画像ファイルを生成する例にっ 、て説明したが、画像ファイル生成部を同様の 機能を呈するソフトウェアによっても実現可能であることは明らかである。即ち、図 4の フローチャートと同様の機能を呈するプログラムを実行可能なコンピュータを用いるこ とで、図 2と同様の画像ファイル生成部を生成することができる。
[0065] なお、画像ファイル生成部 50cがソフトウェアによって構成される場合には、例えば 画像ファイル日時設定部 74は、コンピュータのオペレーションシステム等によって構 成され、画像ファイルの作成(更新)日時はファイルの作成(更新)時に自動的に記述 されることが一般的である。
[0066] 本実施の形態にぉ ヽて、ファイル名やファイル作成(更新)日時等のデータは画像 ファイルのヘッダ部内に配置される例として説明を行っている力 これらはコンビユー タの OSが直接的に配置'管理しているディレクトリエントリ領域に配置する構成として ちょい。
[0067] なお、第 1の実施の形態においては、電子カメラに適用した例を説明した力 電子 カメラによって撮像された画像を処理する単独の画像処理装置にも適用することがで き、また、撮像画像を処理するパーソナルコンピュータ等のプログラムによって、同様 の機能を達成することも可能である。
[0068] また、上記実施の形態においては、左右にモノキユラ画像が配置された 1枚の画像 をカメラによって取得し、この画像に基づくステレオ画像を生成する例について説明 したが、例えば 2台のカメラで別々に撮影して得られた各モノキユラ画像が別々に入 力され、これらの各モノキユラ画像から 1枚のステレオ画像を生成するものに適用する ことができることは明らかである。
[0069] (第 2の実施の形態)
図 5は本発明の第 2の実施の形態に係る画像加工'編集装置を示すブロック図であ り、図 6は画像ファイル生成の処理フローを示すフローチャートである。本実施の形態 は画像ファイルの編集装置に適用したものである。なお、本実施の形態においても、 図 5の装置と同様の機能を有するソフトウェアによって実現可能である。
[0070] デコード部 81には、図 3のデータフォーマットを有する画像ファイルが入力される。
デコード部 81は、入力された画像ファイルをデコードして、画像ファイル中に含まれ る各種データを取り出す。デコード部 81は、画像ファイル中の画像データについて は、画像伸張部 82に与え、メタデータについてはメタデータ処理部 84に与える。
[0071] 画像伸張部 82は、入力された画像データを伸張して、圧縮前の画像データを得る 。この画像データは画像加工'編集部 83に与えられる。
[0072] 画像加工'編集部 83は、ユーザの加工'編集操作に応じて、入力された画像に対 して加工'編集を施し (ステップ S 11)、加工'編集後の画像を画像ファイル生成部 86 に出力する。なお、画像加工'編集部 83は、加工'編集する画像についてのメタデー タを参照して、加工'編集処理に利用することができる。
[0073] メタデータ処理部 84は、画像加工'編集部 83の加工'編集処理に基づいて、メタデ ータを更新する。例えば、メタデータ処理部 84は、画像加工'編集部 83の加工'編 集処理が、立体画像に対する拡大処理であった場合には、この拡大処理に対応させ て最適な切り出し範囲を示すトリミング情報を更新する。
[0074] 画像ファイル生成部 86は、画像加工'編集部 83からの画像データとメタデータ処 理部 84からのメタデータとを合成し、図 3のファイルフォーマットの画像ファイルを生 成する。画像ファイル生成部 86中の日時更新部 87は、タイマー 88から現在時刻の 情報が与えられており、ファイルの更新日時の情報を設定する (ステップ S12)。画像 ファイル生成部 86は、ファイルフォーマット中のファイル作成(更新)日時(図 3参照) を、この更新日時の情報に書き換える。更に、画像ファイル生成部 86は、ファイルフ ォーマット中のメタデータ作成(更新)日時(図 3参照)を、ファイル作成(更新)日時と 同一の日時の情報に書き換える (ステップ S13)。こうして、画像ファイル生成部 86は 、ファイルの作成(更新)日時及びメタデータの作成(更新)日時を同一の日時に変更 した画像ファイルを生成して出力する (ステップ S14)。
[0075] このように本実施の形態においては、画像の加工'編集に伴って、メタデータを更 新すると共に、その更新日時を画像ファイルの作成(更新)日時と同一の現在日時に 変更する。これにより、本実施の形態に係る編集装置を用いて画像の加工'編集を行 う限り、画像ファイルの作成(更新)日時と、メタデータの作成(更新)日時の情報は一 致すること〖こなる。
[0076] なお、メタデータの更新日時及び画像ファイルの更新日時の情報は、同一日時で あれば必ずしも実際の更新日時に基づくものとしなくてもよい。
[0077] (第 3の実施の形態)
図 7は本発明の第 3の実施の形態に係る画像ファイル再生装置を示すブロック図で あり、図 8は画像ファイルの処理フローを示すフローチャートである。本実施の形態は 画像ファイルの再生装置に適用したものである。なお、本実施の形態においても、図 7の装置と同様の機能をするソフトウェアによって実現可能である。 [0078] デコード部 91には、図 3のファイルフォーマットを有する画像ファイルが入力される。 デコード部 91は、入力された画像ファイルをデコードして、画像ファイル中に含まれ る各種データを取り出す。デコード部 91は、画像ファイル中の画像データについて は、画像伸張部 92に与え、メタデータについては切換部 96、メタデータ無効化部 95 及び日時判定部 94に与える。
[0079] 画像伸張部 92は、入力された画像データを伸張して、圧縮前の画像データを得る 。この画像データは再生処理部 93に与えられる。
[0080] 日時判定部 94は、ファイルの作成(更新)日時(図 3参照)の情報及びメタデータ作 成(更新)日時の情報を取得する (ステップ S21)。 日時判定部 94は取得したファイル の作成(更新)日時とメタデータ作成(更新)日時との一致,不一致を判定する (ステツ プ S22)。 日時判定部 94は判定結果を切換部 96及び警告部 97に出力する。
[0081] なお、日時判定部 94は、メタデータ作成(更新)日時とファイル作成(更新)日時と が所定の閾値以内であれば、両日時の情報が一致しているものと判定してもよい。た だし閾値の設定によっては誤判定が発生することを考慮すれば、全く同一の場合に のみ一致して 、ると判定するのが原則である。
[0082] メタデータ無効化部 95は、入力されたメタデータを無効化する (ステップ S24)。例 えば、メタデータ無効化部 95は、立体画像に関するメタデータについては、そのパラ メータを削除するか又は初期値に設定することで無効化を行う。
[0083] 切換部 96は日時判定部 94の判定結果に基づいて、デコード部 91からのメタデー タか又はメタデータ無効化部 95からのメタデータの一方を選択的に再生処理部 93 に与える。例えば、切換部 96は日時が一致していることを示す判定結果が与えられ た場合には、デコード部 91からのメタデータを再生処理部 93に与え、日時が不一致 であることを示す判定結果が与えられた場合には、再生処理を禁止する (ステップ S 24)。
[0084] 再生処理部 93は切換部 96からのメタデータを用いて画像データに所定の再生処 理を施す (ステップ S25)。また、再生処理部 93は、日時判定部 94から日時が不一致 であることを示す判定結果が与えられた場合には、メタデータ無効化部 95によって 設定されたメタデータ情報を再生処理部 93に与えてもよい。 [0085] 警告部 97は、日時判定部 94からの判定結果によって日時が不一致であることが示 された場合には、例えば警告表示等によって、例えばユーザに警告を発するようにな つている。
[0086] このように、本実施の形態にぉ 、ては、ファイルとメタデータの作成(更新)日時が 独立に記述された画像ファイルに対して、両日時が不一致である場合には、画像デ ータとメタデータとの相関がないものとして再生処理を禁止し、或いは無効化されたメ タデータを用いた再生処理を実施する。これにより、 3D非対応の機器又はソフトゥェ ァによって画像が加工'編集された場合等にお!/、て、画像データと相関がとれて 、な V、メタデータを用いて再生処理が行われることを防止することができる。
[0087] (第 4の実施の形態)
図 9は本発明の第 4の実施の形態に係る画像処理装置が組込まれた電子カメラを 示すブロック図である。本実施の形態は画像ファイルの記録装置に適用したものであ る。図 9において図 1と同一の構成要素には同一符号を付して説明を省略する。
[0088] 本実施の形態のカメラ本体 101は、システムコントローラ 50に代えてシステムコント ローラ 150を採用した点が第 1の実施の形態のカメラ本体 1と異なるのみである。シス テムコントローラ 150は、メタデータ生成部 50a及び画像ファイル生成部 50cに夫々 代えてメタデータ生成部 150a及び画像ファイル生成部 150cを採用した点がシステ ムコントローラ 50と異なる。
[0089] 付随データ生成手段としてのメタデータ生成部 150aは、撮影画像に関する各種の 付随データ(以下、メタデータという)を生成して画像ファイル生成部 150cに与える。 例えば、メタデータ生成部 150aは、撮影日時の情報や、撮影画像が立体画像であ る場合には、立体画像に関する各種情報 (立体画像情報)を生成する。立体画像情 報としては、例えば、トリミング情報である最適トリミング位置がある。最適トリミング位 置の情報は、各モノキユラ画像の有効な画枠を示す情報であり、再生時に融合画像 の認識に用いる領域を示している。また、立体画像情報としては、立体画像の奥行き 感の最大値を規定する最大飛び出し量の情報もある。
[0090] 画像ファイル生成部 150cは、ステレオ画像生成部 50bが生成したステレオ画像を 、所定フォーマットの電子画像ファイルに変換して出力することができるようになって いる。画像ファイル生成部 150cは、ステレオ画像が統合画像である場合には、 1枚 の統合画像を例え〖 PEG規格又は TIFF規格の画像フォーマットに変換して 1画像 ファイルとする。また、画像ファイル生成部 150cは、ステレオ画像が複数のモノキユラ 画像によって構成される場合には、例えば各モノキユラ画像を TIFF形式の各ページ に割り当てて、 1画像ファイルを構成する。
[0091] この場合には、画像ファイル生成部 150cは、ステレオ画像を必要に応じて圧縮処 理し、付随データ (メタデータ)を付カ卩した所定フォーマットのデジタル画像ファイルに 変換する。
[0092] 図 10は図 9中の画像ファイル生成部 150cの具体的な構成を示すブロック図である 。また、図 11は画像ファイル生成部 150cによって生成される画像ファイルの一例を 示す説明図である。
[0093] 画像ファイル生成部 150cの圧縮部 171にはステレオ画像の画像データが入力さ れる。圧縮部 171は、ステレオ画像の画像データに所定の圧縮処理を施してデータ 合成部 172に出力する。データ合成部 172には、メタデータも入力され、データ合成 部 172は画像データとメタデータとを合成する。
[0094] 本実施の形態においては、画像ファイル生成部 150cは、メタデータサイズ設定部 1 73及び画像ファイルサイズ設定部 174を備えて ヽる。メタデータサイズ設定部 173は 、立体画像の画像サイズ (3D画像サイズ)(画素数)の情報をデータ合成部 172に出 力することができるようになつている。また、画像ファイルサイズ設定部 174は、画像 データに基づく画像の画像サイズ (画素数)の情報をデータ合成部 172に出力するこ とができるようになつている。なお、メタデータサイズ設定部 173及び画像ファイルサ ィズ設定部 174は、同一の画像データに基づく画像の画像サイズの情報を設定する ものであり、従って、画像データが立体画像についてのデータである場合には、これ らの設定部 173, 174の出力は、相互に同一の画像サイズの情報となる。
[0095] データ合成部 172は、入力された各データを合成してフォーマット部 175に与える 。フォーマット部 175は、入力された各データを所定の画像フォーマットに従って配列 して、 1画像ファイルとして出力するようになっている。
[0096] 図 11に示すように、画像ファイルは、ヘッダ部と画像データ部とを有して 、る。画像 データ部には、圧縮部 171によって圧縮された画像データが配置される。ヘッダ部に は、画像ファイルのファイル名、画像サイズの情報が配置されると共にメタデータも配 置される。画像サイズの情報は、画像ファイルサイズ設定部 174により設定されたも のである。
[0097] メタデータは、メタデータ識別情報、画像の撮影日時の情報及び立体画像に関す る情報を含む。なお、撮影日時の情報は、メタデータ生成部 150aによって生成され 、データ合成部 172に入力されるメタデータに含まれて 、る情報である。
[0098] 立体画像情報は、画像データ部に配置された画像データが立体画像である場合 において、その立体画像に関する種々の情報を含んでいる。最適トリミング位置の情 報及び最大飛び出し量の情報は、メタデータ生成部 150aによって生成され、データ 合成部 172に入力されるメタデータに含まれている。 3D画像サイズの情報は、メタデ ータサイズ設定部 173によって設定された情報であり、画像データに基づく立体画像 の画像サイズを示す。ここでは、上述のように、メタデータとして記録される 3D画像サ ィズの情報と、画像ファイルのヘッダ部に記録される画像サイズの情報は同一の内容 となる。
[0099] なお、図 11のファイルフォーマットは画像ファイルの一例であり、図 11では 3D画像 サイズを立体画像情報の一部として配置する例を説明したが、メタデータ内の他の領 域に配置するようにしてもょ 、。
[0100] また、本実施の形態においては、コントローラ 150は、 3D対応であるものとして説明 したが、仮に、コントローラ 150が 3D非対応である場合には、メタデータ領域中の立 体画像情報の記述領域には、例えば、所定の初期値が設定されるか又は何らの情 報も記述されない。
[0101] 次に、このように構成された実施の形態の作用について図 12を参照して説明する。
図 12は画像ファイル生成部 150cの動作フローを示すフローチャートである。
[0102] いま、ステレオ切り替えスィッチ 54によって、ステレオ撮影モードが指示されている ものとする。ステレオアダプタ 10を介して入射した被写体光学像は、撮影レンズ群 21 、露出制御機構 22、ハーフミラー 31及びフィルタ系 32を介して CCDカラー撮像素 子 34の撮像面に結像する。 CCDカラー撮像素子 34は、左右のモノキユラ画像 L, R を含む 1枚の画像のデータを出力する。 CCDカラー撮像素子 34からの画像信号は プリプロセス回路 36を介してコントローラ 150に入力される。
[0103] ステレオ画像生成部 50bは入力された画像信号に基づいて、左右にモノキユラ画 像を配置した統合画像を生成する。メタデータ生成部 150aは、生成された統合画像 に関する撮影日時の情報や、立体画像情報を生成する。
[0104] 画像ファイル生成部 150cは、図 12のステップ S101において、生成された統合画 像 (ステレオ画像)に対して所定の圧縮処理を施す。次のステップ S102において、画 像ファイル生成部 150c中のメタデータサイズ設定部 173は、画像データ部に格納さ れる立体画像の画像サイズの情報(3D画像サイズ)を生成する。ステップ S103では 、画像ファイル生成部 150c中の画像ファイルサイズ設定部 174は、画像データ部に 格納される画像の画像サイズの情報を生成する。即ち、この場合には、メタデータサ ィズ設定部 173が設定する 3D画像サイズと画像ファイルサイズ設定部 174が設定す る画像サイズとは、同一の値となる。
[0105] 画像ファイル生成部 150cは、データ合成部 172によって、ステレオ画像、メタデー タ、 3D画像サイズ及び画像サイズの情報を合成し (ステップ S 104 )、フォーマット部 1 75によって、図 11に示すデータフォーマットの画像ファイルを生成する(ステップ S 105 )。
[0106] 画像ファイル生成部 150cによって生成された画像ファイルは、デジタルプロセス回 路 39に与えられる。デジタルプロセス回路 39は、入力された電子画像ファイルに基 づいて、統合画像を LCD40の表示画面に表示させることができる。また、デジタルプ ロセス回路 39は、入力された電子画像ファイルをカード IF41を介してメモリカード 42 に与えて、記録させることもできる。
[0107] このように、本実施の形態においては、画像ファイル生成部によって生成される画 像ファイルには、画像ファイル中の画像データに基づく画像の画像サイズの情報の 他に、同一画像についての 3D画像サイズ力 メタデータ中に配置される。立体画像 の画像サイズの情報が、画像ファイル中のヘッダ部の画像サイズの情報とは別個に 配置されており、これらの情報を別々に管理することができる。 3D非対応機器又はソ フトウェアによって、画像ファイルが作成 (更新)される場合には、立体画像情報に関 するメタデータの 3D画像サイズは、生成又は更新されないことから、これらの画像サ ィズの情報を比較することで、画像ファイルが 3D非対応機器又はソフトウェアによつ て作成 (更新)されたカゝ否かを判定することができる。
[0108] また、本実施の形態にお!ヽては、画像ファイル生成部を備えた画像処理装置によ つて画像ファイルを生成する例にっ ヽて説明した力 画像ファイル生成部を同様の 機能を呈するソフトウェアによっても実現可能であることは明らかである。即ち、図 12 のフローチャートと同様の機能を呈するプログラムを実行可能なコンピュータを用いる ことで、図 10と同様の画像ファイル生成部を生成することができる。
[0109] なお、画像ファイル生成部 150cがソフトウェアによって構成される場合には、例え ば画像ファイルサイズ設定部 174は、コンピュータのオペレーションシステム等によつ て構成され、画像ファイル中の画像サイズはファイルの作成(更新)時に自動的に記 述されることが一般的である。
[0110] なお、第 4の実施の形態においては、電子カメラに適用した例を説明した力 電子 カメラによって撮像された画像を処理する単独の画像処理装置にも適用することがで き、また、撮像画像を処理するパーソナルコンピュータ等のプログラムによって、同様 の機能を達成することも可能である。
[0111] また、本実施の形態においても、左右にモノキユラ画像が配置された 1枚の画像を カメラによって取得し、この画像に基づくステレオ画像を生成する例について説明し たが、例えば 2台のカメラで別々に撮影して得られた各モノキユラ画像が別々に入力 され、これらの各モノキユラ画像から 1枚のステレオ画像を生成するものに適用するこ とができることは明らかである。
[0112] (第 5の実施の形態)
図 13は本発明の第 5の実施の形態に係る画像加工'編集装置を示すブロック図で あり、図 14は画像ファイル生成の処理フローを示すフローチャートである。本実施の 形態は図 11に示す画像ファイルの編集装置に適用したものである。なお、本実施の 形態においても、図 13の装置と同様の機能を有するソフトウェアによって実現可能で ある。
[0113] デコード部 181には、図 11のデータフォーマットを有する画像ファイルが入力され る。デコード部 181は、入力された画像ファイルをデコードして、画像ファイル中に含 まれる各種データを取り出す。デコード部 181は、画像ファイル中の画像データにつ いては、画像伸張部 182に与え、メタデータについてはメタデータ処理部 184に与え る。
[0114] 画像伸張部 182は、入力された画像データを伸張して、圧縮前の画像データを得 る。この画像データは画像加工'編集部 183に与えられる。
[0115] 画像加工'編集部 183は、ユーザの加工'編集操作に応じて、入力された画像デー タに対して加工'編集を施し (ステップ S111 )、加工'編集後の画像データを画像ファ ィル生成部 186に出力する。なお、画像加工'編集部 183は、加工'編集する画像デ ータについてのメタデータを参照して、加工'編集処理に利用することができる。
[0116] メタデータ処理部 184は、画像加工'編集部 183の加工'編集処理に基づいて、メ タデータを更新する。例えば、メタデータ処理部 184は、画像加工'編集部 183の加 ェ '編集処理が、立体画像に対するトリミング処理であった場合には、このトリミング処 理に対応させて最適な切り出し範囲を示す最適トリミング位置の情報及び最大飛び 出し量の情報等を更新する。
[0117] 画像ファイル生成部 186は、画像加工'編集部 183からの画像データとメタデータ 処理部 184からのメタデータとを合成し、図 11のファイルフォーマットの画像ファイル を生成する。画像ファイル生成部 186中のサイズ更新部 187は、図 10のメタデータ サイズ設定部 173及び画像ファイルサイズ設定部 174と同様の機能を有しており、画 像加工'編集部 183による加工'編集後の画像の画像サイズの情報を生成する (ステ ップ S112 )。画像ファイル生成部 186は、ファイルフォーマット中の画像ファイル中の 画像サイズの情報(図 11参照)を、サイズ更新部 187で生成された情報に書き換える 。更に、画像ファイル生成部 186は、ファイルフォーマット中のメタデータ内の 3D画像 サイズの情報(図 11参照)を、サイズ更新部 187で生成された情報に書き換える (ス テツプ S113 ) oこうして、画像ファイル生成部 186は、画像ファイル中の画像サイズ及 びメタデータ中の 3D画像サイズを同一の情報に変更した画像ファイルを生成.出力 する(ステップ S 114 )。
[0118] このように本実施の形態においては、画像の加工'編集に伴って、メタデータを更 新すると共に、加工'編集に伴って変更された画像サイズの情報を、画像ファイル中 の画像サイズ及びメタデータ中の 3D画像サイズに書き込む。これにより、本実施の 形態に係る編集装置を用 V、て画像の加ェ ·編集を行う限り、画像フアイル中の画像サ ィズと、メタデータ中の 3D画像サイズの情報は一致すること〖こなる。
[0119] (第 6の実施の形態)
図 15は本発明の第 6の実施の形態に係る画像ファイル再生装置を示すブロック図 であり、図 16は画像ファイルの処理フローを示すフローチャートである。本実施の形 態は図 11に示す画像ファイルの再生装置に適用したものである。なお、本実施の形 態においても、図 15の装置と同様の機能をするソフトウェアによって実現可能である
[0120] デコード部 191には、図 11のファイルフォーマットを有する画像ファイルが入力され る。デコード部 191は、入力された画像ファイルをデコードして、画像ファイル中に含 まれる各種データを取り出す。デコード部 191は、画像ファイル中の画像データにつ いては、画像伸張部 192に与え、メタデータについては切換部 196、メタデータ無効 化部 195及びサイズ判定部 194に与える。
[0121] 画像伸張部 192は、入力された画像データを伸張して、圧縮前の画像データを得 る。この画像データは再生処理部 193に与えられる。
[0122] サイズ判定部 194は、画像ファイル中の画像サイズ(図 11参照)の情報及びメタデ ータ中の 3D画像サイズの情報を取得する (ステップ S121 ) oサイズ判定部 194は取 得した画像ファイル中の画像サイズとメタデータ中の 3D画像サイズとの一致,不一致 を判定する (ステップ S122 )。サイズ判定部 194は判定結果を切換部 196及び警告 部 197に出力する。
[0123] メタデータ無効化部 195は、入力されたメタデータを無効化する(ステップ S 124 ) 0 例えば、メタデータ無効化部 195は、立体画像に関するメタデータについては、その パラメータを削除するか又は初期値に設定することで無効化を行う。
[0124] 切換部 196はサイズ判定部 194の判定結果に基づいて、デコード部 191からのメタ データか又はメタデータ無効化部 195からのメタデータの一方を選択的に再生処理 部 193に与える。例えば、切換部 196は画像サイズが一致していることを示す判定結 果が与えられた場合には、デコード部 191からのメタデータを再生処理部 193に与え 、画像サイズが不一致であることを示す判定結果が与えられた場合には、再生処理 を禁止する(ステップ S124 )。
[0125] 再生処理部 193は切換部 196からのメタデータを用 V、て画像データに所定の再生 処理を施す (ステップ S 125 )0また、再生処理部 193は、サイズ判定部 194から画像 サイズが不一致であることを示す判定結果が与えられた場合には、メタデータ無効化 部 195によって設定されたメタデータ情報を再生処理部 193に与えてもょ ヽ。
[0126] 警告部 197は、サイズ判定部 194からの判定結果によって画像サイズが不一致で あることが示された場合には、例えば警告表示等によって、例えばユーザに警告を発 するようになっている。
[0127] このように、本実施の形態においては、ファイルヘッダとメタデータ中に夫々画像サ ィズが独立に記述された画像ファイルに対して、両画像サイズが不一致である場合 には、画像データとメタデータとの相関がないものとして再生処理を禁止し、或いは 無効化されたメタデータを用いた再生処理を実施する。これにより、 3D非対応の機 器又はソフトウェアによって画像が加工'編集された場合等において、画像データと 相関がとれて ヽな 、メタデータを用いて再生処理が行われることを防止することがで きる。
[0128] なお、上記各実施の形態においては、ステレオ方式として、左右両眼に対応する 2 眼式として説明したが、 3眼以上の一般の多眼式ステレオ方式に対しても同様に適 用可能であることはもちろんである。
[0129] 更に、本発明を動画に適用することができることも明らかである。

Claims

請求の範囲
[1] 所定の視差を有して得られた同一被写体の複数のモノキユラ画像に基づくステレオ 画像データを生成するステレオ画像データ生成手段と、
前記ステレオ画像データに関する付随データを生成する付随データ生成手段と、 前記付随データの生成又は更新を行った日時に関する情報を生成する付随デー タ日時情報生成手段と、
前記ステレオ画像データ生成手段で生成されたステレオ画像データと、前記付随 データ生成手段にて生成された付随データとを合成して画像ファイルを生成する画 像ファイル生成手段であって、前記付随データ日時情報生成手段で生成された前 記付随データの生成又は更新を行った日時に関する情報と、当該画像ファイルの生 成又は更新を行った日時に関する情報とをさらに付加して、所定のファイルフォーマ ットに変換して画像ファイルを生成する画像ファイル生成手段と、
を有する画像処理装置。
[2] 前記生成又は更新を行った日時は相互に同一日時に設定されて生成される請求 項 1に記載の画像処理装置。
[3] 所定の視差を有して得られた同一被写体の複数のモノキユラ画像に基づくステレオ 画像データと前記ステレオ画像データに関する付随データとを合成し、かつ、前記付 随データの生成又は更新を行った日時に関する情報と、当該画像ファイルの生成又 は更新を行った日時に関する情報とをさらに付加して、所定のファイルフォーマットに 変換して生成された画像ファイル内のステレオ画像データに基づ ヽて画像加工'編 集を行う画像加工,編集手段と、
前記画像加工'編集が行われる前の前記付随データに対して、画像加工'編集の 内容に基づいてこの付随データを更新する付随データ更新手段と、
前記付随データの更新が行われた日時に関する情報を生成する付随データ更新 日時情報生成手段と、
前記画像加工'編集手段で画像加工'編集されたステレオ画像データと、前記付随 データ更新手段にて更新された付随データとを合成して画像ファイルを生成する画 像ファイル生成手段であって、前記付随データ更新日時情報生成手段で生成され た前記付随データの更新を行った日時に関する情報と、当該画像ファイルの生成又 は更新を行った日時に関する情報とをさらに付加して、所定のファイルフォーマットに 変換して画像ファイルを生成する画像ファイル生成手段と、
を有する画像加工'編集装置。
[4] 前記更新を行った日時は相互に同一日時に設定されて生成される請求項 3に記載 の画像加工'編集装置。
[5] 所定の視差を有して得られた同一被写体の複数のモノキユラ画像に基づくステレオ 画像データと前記ステレオ画像データに関する付随データとを合成し、かつ、前記付 随データの生成又は更新を行った日時に関する情報と、当該画像ファイルの生成又 は更新を行った日時に関する情報とをさらに付加して、所定のファイルフォーマットに 変換して生成された画像ファイルを再生する再生手段と、
前記再生手段によって再生された前記付随データの生成又は更新を行った日時 に関する情報と当該画像ファイルの生成又は更新を行った日時に関する情報との一 致を判定する判定手段と、
前記判定手段によって不一致と判定された場合には、前記再生手段による再生動 作の継続を禁止する制御手段と、
を有する画像ファイル再生装置。
[6] 前記判定手段によって不一致と判定された場合には、前記再生動作の継続の禁 止に代えて、付随データを無効化するよう制御する制御手段と、
を有する請求項 5に記載の画像ファイル再生装置。
[7] 前記判定手段によって不一致と判定された場合には、警告を行う警告手段を更に 有する
請求項 5に記載の画像ファイル再生装置。
[8] 前記判定手段によって不一致と判定された場合には、警告を行う警告手段を更に 有する
請求項 6に記載の画像ファイル再生装置。
[9] 所定の視差を有して得られた同一被写体の複数のモノキユラ画像に基づくステレオ 画像データを生成するステレオ画像データ生成ステップと、 前記ステレオ画像データに関する付随データを生成する付随データ生成ステップ と、
前記付随データの生成又は更新を行った日時に関する情報を生成する付随デー タ日時情報生成ステップと、
前記ステレオ画像生成手段で生成されたステレオ画像データと、前記付随データ 生成手段にて生成された付随データとを合成して画像ファイルを生成する画像フアイ ル生成ステップであって、前記付随データ日時情報生成手段で生成された前記付 随データの作成又は更新を行った日時に関する情報と、当該画像ファイルの生成又 は更新を行った日時に関する情報とをさらに付加して、所定のファイルフォーマットに 変換して画像ファイルを生成する画像ファイル生成ステップと、
を有する画像処理方法。
所定の視差を有して得られた同一被写体の複数のモノキユラ画像に基づくステレオ 画像データと前記ステレオ画像データに関する付随データとを合成し、かつ、前記付 随データの生成又は更新を行った日時に関する情報と、当該画像ファイルの生成又 は更新を行った日時に関する情報とをさらに付加して、所定のファイルフォーマットに 変換して生成された画像ファイル内のステレオ画像データに基づ ヽて画像加工'編 集を行う画像加ェ ·編集ステップと、
前記画像加工'編集が行われる前の前記付随データに対して、画像加工'編集の 内容に基づいてこの付随データを更新する付随データ更新ステップと、
前記付随データの更新が行われた日時に関する情報を生成する付随データ更新 日時情報生成ステップと、
前記画像加工'編集手段で画像加工'編集されたステレオ画像データと、前記付随 データ更新手段にて更新された付随データとを合成して画像ファイルを生成する画 像ファイル生成ステップであって、前記付随データ更新日時情報生成手段で生成さ れた前記付随データの更新を行った日時に関する情報と、当該画像ファイルの生成 又は更新を行った日時に関する情報とをさらに付加して、所定のファイルフォーマット に変換して画像ファイルを生成する画像ファイル生成ステップと、
を有する画像加工'編集方法。 [11] 所定の視差を有して得られた同一被写体の複数のモノキユラ画像に基づくステレオ 画像データと前記ステレオ画像データに関する付随データとを合成し、かつ、前記付 随データの生成又は更新を行った日時に関する情報と、当該画像ファイルの生成又 は更新を行った日時に関する情報とをさらに付加して、所定のファイルフォーマットに 変換して生成された画像ファイルを再生する再生ステップと、
前記再生手段によって再生された前記付随データの生成又は更新を行った日時 に関する情報と当該画像ファイルの生成又は更新を行った日時に関する情報との一 致を判定する判定ステップと、
前記判定手段によって不一致と判定された場合には、前記再生動作の継続を禁止
、付随データを無効化、警告の少なくとも 1つを行うステップと、
を有する画像ファイル再生方法。
[12] 所定の視差を有して得られた同一被写体の複数のモノキユラ画像に基づくステレオ 画像データを生成するステレオ画像データ生成手段と、
前記ステレオ画像データに関する付随データを生成する付随データ生成手段と、 前記ステレオ画像データの画像サイズに関する情報を生成するステレオ画像サイ ズ情報生成手段と、
前記ステレオ画像データ生成手段で生成されたステレオ画像データと、前記付随 データ生成手段にて生成された付随データとを合成して画像ファイルを生成する画 像ファイル生成手段であって、前記ステレオ画像サイズ情報生成手段で生成された 画像サイズに関する情報を前記付随データ内外にそれぞれ付加して、所定のフアイ ルフォーマットに変換して画像ファイルを生成する画像ファイル生成手段と、 を有する画像処理装置。
[13] 所定の視差を有して得られた同一被写体の複数のモノキユラ画像に基づくステレオ 画像データと前記ステレオ画像データに関する付随データとを合成し、かつ、前記ス テレオ画像データの画像サイズに関する情報をさらに前記付随データ内外にそれぞ れ付カ卩して、所定のファイルフォーマットに変換して生成された画像ファイル内のステ レオ画像データに基づ ヽて画像加工'編集を行う画像加工'編集手段と、
前記画像加工'編集が行われる前の前記付随データに対して、画像加工'編集の 内容に基づいてこの付随データを更新する付随データ更新手段と、 前記付随データの内外にそれぞれ付加された前記画像加工'編集が行われる前 の前記ステレオ画像データの画像サイズに関する情報に対して、画像加工'編集の 内容に基づいてそれぞれの画像サイズに関する情報を更新するステレオ画像サイズ 情報更新手段と、
前記画像加工'編集手段で画像加工'編集されたステレオ画像データと、前記付随 データ更新手段にて更新された付随データとを合成して画像ファイルを生成する画 像ファイル生成手段であって、前記ステレオ画像サイズ情報更新手段で更新された 画像サイズに関するデータを付随データの内外にそれぞれ付加して、所定のフアイ ルフォーマットに変換して画像ファイルを生成する画像ファイル生成手段と、 を有する画像加工'編集装置。
[14] 所定の視差を有して得られた同一被写体の複数のモノキユラ画像に基づくステレオ 画像データと前記ステレオ画像データに関する付随データとを合成し、かつ、前記ス テレオ画像データの画像サイズに関する情報をさらに前記付随データ内外にそれぞ れ付カ卩して、所定のファイルフォーマットに変換して生成された画像ファイルを再生 する再生手段と、
前記再生手段によって再生された前記付随データ内の画像サイズに関する情報と 前記付随データ外の画像サイズに関する情報との一致を判定する判定手段と、 前記判定手段によって不一致と判定された場合には、前記再生手段による再生動 作の継続を禁止する制御手段と、
を有する画像ファイル再生装置。
[15] 前記判定手段によって不一致と判定された場合には、前記再生動作の継続の禁 止に代えて、付随データを無効化するよう制御する制御手段と、
を有する請求項 14に記載の画像ファイル再生装置。
[16] 前記判定手段によって不一致と判定された場合には、警告を行う警告手段を更に 有する請求項 14に記載の画像ファイル再生装置。
[17] 前記判定手段によって不一致と判定された場合には、警告を行う警告手段を更に 有する請求項 15に記載の画像ファイル再生装置。 [18] 所定の視差を有して得られた同一被写体の複数のモノキユラ画像に基づくステレオ 画像データを生成するステレオ画像生成ステップと、
前記ステレオ画像データに関する付随データを生成する付随データ生成ステップ と、
前記ステレオ画像データの画像サイズに関する情報を生成するステレオ画像サイ ズ情報生成ステップと、
前記ステレオ画像データ生成ステップで生成されたステレオ画像データと、前記付 随データ生成手段にて生成された付随データとを合成して画像ファイルを生成する 画像ファイル生成ステップであって、前記ステレオ画像サイズ情報生成手段で生成さ れた画像サイズに関する情報を前記付随データ内外にそれぞれ付加して、所定のフ アイルフォーマットに変換して画像ファイルを生成する画像ファイル生成ステップと、 を有する画像処理方法。
[19] 所定の視差を有して得られた同一被写体の複数のモノキユラ画像に基づくステレオ 画像データと前記ステレオ画像データに関する付随データとを合成し、かつ、前記ス テレオ画像データの画像サイズに関する情報をさらに前記付随データ内外にそれぞ れ付カ卩して、所定のファイルフォーマットに変換して生成された画像ファイル内のステ レオ画像データに基づ ヽて画像加工'編集を行う画像加工'編集ステップと、 前記画像加工'編集が行われる前の前記付随データに対して、画像加工'編集の 内容に基づいてこの付随データを更新する付随データ更新ステップと、
前記付随データの内外にそれぞれ付加された前記画像加工'編集が行われる前 の前記ステレオ画像データの画像サイズに関する情報に対して、画像加工'編集の 内容に基づいてそれぞれの画像サイズに関する情報を更新するステレオ画像サイズ 情報更新ステップと、
前記画像加工'編集手段で画像加工'編集されたステレオ画像データと、前記付随 データ更新手段にて更新された付随データとを合成して画像ファイルを生成する画 像ファイル生成ステップであって、前記ステレオ画像サイズ情報更新手段で更新され た画像サイズに関するデータを付随データの内外にそれぞれ付加して、所定のファ ィルフォーマットに変換して画像ファイルを生成する画像ファイル生成ステップと、 を有する画像加工'編集方法。
所定の視差を有して得られた同一被写体の複数のモノキユラ画像に基づくステレオ 画像データと前記ステレオ画像データに関する付随データとを合成し、かつ、前記ス テレオ画像データの画像サイズに関する情報をさらに前記付随データ内外にそれぞ れ付カ卩して、所定のファイルフォーマットに変換して生成された画像ファイルを再生 する再生ステップと、
前記再生ステップによって再生された前記付随データ内の画像サイズに関する情 報と前記付随データ外の画像サイズに関する情報との一致を判定する判定ステップ と、
前記判定ステップによって不一致と判定された場合には、前記再生動作の継続を 禁止、付随データを無効化、警告の少なくとも 1つを行うステップと、
を有する画像ファイル再生方法。
PCT/JP2005/007866 2004-04-26 2005-04-26 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法 WO2005115016A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP05737293.0A EP1742488B1 (en) 2004-04-26 2005-04-26 Image file reproducing apparatus and method
CN200580013159.6A CN1947431B (zh) 2004-04-26 2005-04-26 图像处理装置、图像加工/编辑装置、图像文件再现装置、图像处理方法、图像加工/编辑方法及图像文件再现方法
US11/586,079 US8155431B2 (en) 2004-04-26 2006-10-24 Image file processing apparatus which generates an image file to include stereo image data, collateral data related to the stereo image data, information of a date and time at which the collateral data is updated, and information of a date and time at which the image file is generated or updated, and corresponding image file processing method
US13/412,082 US8693764B2 (en) 2004-04-26 2012-03-05 Image file processing apparatus which generates an image file to include stereo image data and collateral data related to the stereo image data, and information related to an image size of the stereo image data, and corresponding image file processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004-130127 2004-04-26
JP2004-130128 2004-04-26
JP2004130127A JP4589651B2 (ja) 2004-04-26 2004-04-26 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法
JP2004130128A JP4642375B2 (ja) 2004-04-26 2004-04-26 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/586,079 Continuation US8155431B2 (en) 2004-04-26 2006-10-24 Image file processing apparatus which generates an image file to include stereo image data, collateral data related to the stereo image data, information of a date and time at which the collateral data is updated, and information of a date and time at which the image file is generated or updated, and corresponding image file processing method

Publications (1)

Publication Number Publication Date
WO2005115016A1 true WO2005115016A1 (ja) 2005-12-01

Family

ID=35428693

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/007866 WO2005115016A1 (ja) 2004-04-26 2005-04-26 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法

Country Status (3)

Country Link
US (2) US8155431B2 (ja)
EP (2) EP2442576A3 (ja)
WO (1) WO2005115016A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7929027B2 (en) 2006-12-27 2011-04-19 Fujifilm Corporation Image management method

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122643A (ja) * 2005-10-31 2007-05-17 Toshiba Corp データ検索システム、メタデータ同期方法およびデータ検索装置
JP4993578B2 (ja) * 2007-01-15 2012-08-08 オリンパスイメージング株式会社 画像ファイル再生装置,画像ファイル加工編集装置
US7788267B2 (en) * 2007-02-26 2010-08-31 Seiko Epson Corporation Image metadata action tagging
DE202007010389U1 (de) * 2007-07-24 2007-09-27 Maier, Florian Vorrichtung zur automatischen Positionierung von gekoppelten Kameras zur plastischen Bilddarstellung
JP4672764B2 (ja) * 2007-10-03 2011-04-20 富士フイルム株式会社 誤消去判断装置、方法及びプログラム
JP4913085B2 (ja) * 2008-03-04 2012-04-11 オリンパスイメージング株式会社 マルチ画像ファイル編集装置、マルチ画像ファイル編集プログラム、マルチ画像ファイル編集方法
KR101547151B1 (ko) 2008-12-26 2015-08-25 삼성전자주식회사 영상 처리 방법 및 장치
JP5266126B2 (ja) * 2009-03-31 2013-08-21 富士フイルム株式会社 画像表示装置および方法並びにプログラム
JP5577623B2 (ja) * 2009-05-14 2014-08-27 リコーイメージング株式会社 撮像装置
US9524700B2 (en) * 2009-05-14 2016-12-20 Pure Depth Limited Method and system for displaying images of various formats on a single display
JP2010268184A (ja) * 2009-05-14 2010-11-25 Hoya Corp 撮像装置
JP5604173B2 (ja) * 2010-04-30 2014-10-08 三洋電機株式会社 再生装置、表示装置、記録装置及び格納媒体
US9402065B2 (en) 2011-09-29 2016-07-26 Qualcomm Incorporated Methods and apparatus for conditional display of a stereoscopic image pair
US9152646B2 (en) * 2013-04-05 2015-10-06 Dropbox, Inc. Ordering content items
JP6498064B2 (ja) * 2015-07-27 2019-04-10 キヤノン株式会社 電子機器及びその制御方法
JP6991830B2 (ja) * 2017-10-25 2022-01-13 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355733A (ja) * 1998-06-04 1999-12-24 Sony Corp データ送受信装置及びデータ送受信方法
JP2001160068A (ja) * 1999-11-12 2001-06-12 Ricoh Co Ltd 文書管理システムにおいて問い合わせを処理するための方法及び装置
WO2001097531A2 (en) 2000-06-12 2001-12-20 Vrex, Inc. Electronic stereoscopic media delivery system
JP2002082775A (ja) * 2000-07-06 2002-03-22 Hitachi Ltd 計算機システム
JP2002165210A (ja) * 2000-08-04 2002-06-07 Matsushita Electric Ind Co Ltd データ送信端末及びデータ送受信装置
US20020071616A1 (en) 2000-08-29 2002-06-13 Olympus Optical Co., Ltd. Method and apparatus of generating three dimensional image data having one file structure and recording the image data on a recording medium, and recording medium for storing the three dimensional image data having one file structure
EP1235143A2 (en) 2000-12-27 2002-08-28 Microsoft Corporation Method and system for creating and maintaining version-specific properties in a file
WO2004008768A1 (en) 2002-07-16 2004-01-22 Electronics And Telecommunications Research Institute Apparatus and method for adapting 2d and 3d stereoscopic video signal

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6023277A (en) * 1996-07-03 2000-02-08 Canon Kabushiki Kaisha Display control apparatus and method
CN100511279C (zh) * 1997-12-18 2009-07-08 富士胶片株式会社 图像编辑装置及图像编辑方法
US6708309B1 (en) * 1999-03-11 2004-03-16 Roxio, Inc. Method and system for viewing scalable documents
US7053937B1 (en) * 1999-05-21 2006-05-30 Pentax Corporation Three-dimensional image capturing device and recording medium
US6775665B1 (en) 1999-09-30 2004-08-10 Ricoh Co., Ltd. System for treating saved queries as searchable documents in a document management system
DE60126165T2 (de) * 2000-02-03 2007-10-25 Sanyo Electric Co., Ltd., Moriguchi Bildelement-Taktgenerator für eine Anzeige
US6766430B2 (en) 2000-07-06 2004-07-20 Hitachi, Ltd. Data reallocation among storage systems
US7106885B2 (en) * 2000-09-08 2006-09-12 Carecord Technologies, Inc. Method and apparatus for subject physical position and security determination
JP2002150315A (ja) * 2000-11-09 2002-05-24 Minolta Co Ltd 画像処理装置および記録媒体
JP3945160B2 (ja) * 2000-12-25 2007-07-18 日本電気株式会社 情報提供サーバ、クライアント、情報提供システムの処理方法、及びプログラムを記録した記録媒体
JP2002218506A (ja) 2001-01-18 2002-08-02 Olympus Optical Co Ltd 撮像装置
US7340383B2 (en) * 2001-12-20 2008-03-04 Ricoh Company, Ltd. Control device, method and computer program product for browsing data
US7302118B2 (en) * 2002-02-07 2007-11-27 Microsoft Corporation Transformation of images
US6993196B2 (en) * 2002-03-18 2006-01-31 Eastman Kodak Company Digital image storage method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355733A (ja) * 1998-06-04 1999-12-24 Sony Corp データ送受信装置及びデータ送受信方法
JP2001160068A (ja) * 1999-11-12 2001-06-12 Ricoh Co Ltd 文書管理システムにおいて問い合わせを処理するための方法及び装置
WO2001097531A2 (en) 2000-06-12 2001-12-20 Vrex, Inc. Electronic stereoscopic media delivery system
JP2002082775A (ja) * 2000-07-06 2002-03-22 Hitachi Ltd 計算機システム
JP2002165210A (ja) * 2000-08-04 2002-06-07 Matsushita Electric Ind Co Ltd データ送信端末及びデータ送受信装置
US20020071616A1 (en) 2000-08-29 2002-06-13 Olympus Optical Co., Ltd. Method and apparatus of generating three dimensional image data having one file structure and recording the image data on a recording medium, and recording medium for storing the three dimensional image data having one file structure
EP1235143A2 (en) 2000-12-27 2002-08-28 Microsoft Corporation Method and system for creating and maintaining version-specific properties in a file
WO2004008768A1 (en) 2002-07-16 2004-01-22 Electronics And Telecommunications Research Institute Apparatus and method for adapting 2d and 3d stereoscopic video signal

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DIGITAL IMAGING GROUP,INC.: ""DIG35 Specification -Metadata for Digital Images-" version 1.0", 30 August 2000 (2000-08-30)
KAWAI T. ET AL: "Rittai Eizo no Non-linear Henshuyo Software no Kaihatsu", THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, 2003, pages 249 - 249, XP002997650 *
See also references of EP1742488A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7929027B2 (en) 2006-12-27 2011-04-19 Fujifilm Corporation Image management method
US8400524B2 (en) 2006-12-27 2013-03-19 Fujifilm Corporation Image management method

Also Published As

Publication number Publication date
US8155431B2 (en) 2012-04-10
US20070036444A1 (en) 2007-02-15
EP2442576A2 (en) 2012-04-18
EP2442576A3 (en) 2013-08-21
US8693764B2 (en) 2014-04-08
EP1742488A4 (en) 2008-10-22
EP1742488B1 (en) 2014-10-15
EP1742488A1 (en) 2007-01-10
US20120163705A1 (en) 2012-06-28

Similar Documents

Publication Publication Date Title
WO2005115016A1 (ja) 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法
JP4993578B2 (ja) 画像ファイル再生装置,画像ファイル加工編集装置
US8743175B2 (en) 3D image file, photographing apparatus, image reproducing apparatus, and image processing apparatus
JP3841630B2 (ja) 画像取り扱い装置
JP4720785B2 (ja) 撮像装置、画像再生装置、撮像方法及びプログラム
US20130113892A1 (en) Three-dimensional image display device, three-dimensional image display method and recording medium
JP2007295547A (ja) デジタルカメラ
WO2005112475A9 (ja) 画像処理装置
CN1947431B (zh) 图像处理装置、图像加工/编辑装置、图像文件再现装置、图像处理方法、图像加工/编辑方法及图像文件再现方法
JP4888192B2 (ja) 撮像装置
JP2008288798A (ja) 撮像装置
JP4642375B2 (ja) 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法
JP4668602B2 (ja) 立体視画像生成装置および方法並びにプログラム
US20130120374A1 (en) Image processing device, image processing method, and image processing program
JP5264426B2 (ja) 撮像装置及びその制御方法、並びにプログラム
JP2009177316A (ja) 撮像装置
JP5144782B2 (ja) 撮像装置、画像再生装置、撮像方法及びプログラム
JP2012165247A (ja) 画像処理装置、撮影装置および画像処理プログラム
JP2009094727A (ja) 画像記録装置及び画像記録方法
JP2002330450A (ja) 撮像装置
JP2012114549A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2013021637A (ja) 撮像装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005737293

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11586079

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580013159.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2005737293

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11586079

Country of ref document: US