WO2012150680A1 - 立体画像処理装置および立体画像処理方法 - Google Patents

立体画像処理装置および立体画像処理方法 Download PDF

Info

Publication number
WO2012150680A1
WO2012150680A1 PCT/JP2012/060837 JP2012060837W WO2012150680A1 WO 2012150680 A1 WO2012150680 A1 WO 2012150680A1 JP 2012060837 W JP2012060837 W JP 2012060837W WO 2012150680 A1 WO2012150680 A1 WO 2012150680A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image processing
processing
image data
special
Prior art date
Application number
PCT/JP2012/060837
Other languages
English (en)
French (fr)
Inventor
学 市川
Original Assignee
オリンパスイメージング株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスイメージング株式会社 filed Critical オリンパスイメージング株式会社
Priority to CN201280009669.6A priority Critical patent/CN103385005B/zh
Priority to JP2013513075A priority patent/JP5444505B2/ja
Publication of WO2012150680A1 publication Critical patent/WO2012150680A1/ja
Priority to US13/790,887 priority patent/US9317900B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction

Definitions

  • the present invention relates to a stereoscopic image processing apparatus and a stereoscopic image processing method for generating an image to which a stereoscopic image and special image processing are simultaneously applied.
  • Some photographing apparatuses such as digital cameras have a function of photographing a stereoscopic image (three-dimensional image) that looks stereoscopically using a plurality of images.
  • a stereoscopic image three-dimensional image
  • an image feature amount related to the perspective of a video is calculated for each parallax calculation region, and grouping is performed for each object included in the screen based on the calculated image feature amount.
  • An apparatus and method for converting a two-dimensional image into a three-dimensional image by generating information about the perspective of the video of each group based on the information and converting the information into parallax information is disclosed.
  • An imaging device that captures a three-dimensional image by using a twin-lens camera or a dedicated lens is also known.
  • Patent Document 2 discloses an image processing apparatus that can apply a special effect that generates a high-contrast image having a grainy feeling (noise) like a film.
  • a special effect for generating an image in which the periphery is dimmed as shown in Patent Document 3 a special effect for generating an image with high saturation and contrast, and a portion of the image is blurred, and soft contrast
  • An image processing apparatus having an art filter function capable of generating an image with various special effects such as a special effect for generating an image such as a focus image and a special effect for drawing a pattern such as a cross with a light source. It is disclosed.
  • various imaging apparatuses for acquiring a three-dimensional image have been proposed, and various image processing apparatuses that generate image data with a special effect have been proposed.
  • a 3D image and an image to which a special effect is applied at the same time a 3D image is generated using a plurality of images with the special effect, or a special effect is applied to the generated 3D image.
  • the method of generating is conceivable.
  • the applied effect may change significantly.
  • the graininess may change due to rotation and trapezoidal correction, and the graininess may be lost.
  • the dimmed portion may be displaced depending on the cutout position.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide a stereoscopic image processing apparatus and a stereoscopic image processing method that allow a stereoscopic image with special effects to be seen naturally without a sense of incongruity. . It is another object of the present invention to provide a stereoscopic image processing apparatus and a stereoscopic image processing method capable of generating a stereoscopic image without increasing processing time and necessary memory.
  • the stereoscopic image processing apparatus generates image data that is visually special and can be stereoscopically viewed by performing image processing on RAW data obtained by photographing.
  • An image processing apparatus wherein the RAW data is converted into a gradation corresponding to the special effect, and the image data subjected to the gradation conversion by the gradation conversion section is stereoscopically viewed as image data.
  • a stereo image data processing unit that generates at least stereo image data by performing at least one of clipping or geometric conversion, and optically the stereo image data generated by the stereo image data processing unit
  • Special image processing that produces a special effect similar to the image to be formed or a special effect similar to the image formed in the photographic film and development printing process, to generate a stereoscopic special image Comprising an effective image processing unit.
  • the special effect image processing unit is located at a predetermined position of the reference image data among the plurality of image data for generating the stereoscopic image data.
  • the special image processing is performed on each image data based on the position of the corresponding image data.
  • the stereoscopic image processing apparatus according to a third invention is the stereoscopic image processing apparatus according to the first invention, wherein the special effect image processing unit performs different image processing depending on the coordinate position in the image data, or processing different from adjacent pixels. Composite image data.
  • a stereoscopic image processing apparatus is the first image processing parameter according to the first invention, wherein the first image processing parameter for determining the image processing content in the gradation conversion unit and the image processing content in the gradation conversion unit are determined.
  • An image processing parameter storage unit for storing a second image processing parameter for special image processing different from the first image processing parameter, and using the first image processing parameter, A processing content to be performed by the stereoscopic image data processing unit is determined using the image processed by the tone processing unit, an image processing by the special effect is performed by using the second image processing parameter, and the stereoscopic image data processing is performed.
  • a stereoscopic image is generated for the image subjected to the image processing by the special effect in the unit.
  • the RAW data is two or more in the first aspect.
  • the stereoscopic image processing apparatus according to a sixth aspect of the present invention is the stereoscopic image processing apparatus according to the first aspect, wherein the gradation converting unit generates the image data other than the stereoscopic special image when the image data other than the stereoscopic special image is generated together. A process of converting the RAW data into a gradation corresponding to a generated image other than the stereoscopic special image effect is performed.
  • a stereoscopic image processing apparatus further includes a storage unit that stores the stereoscopic image data processed by the special effect image processing unit in the first aspect, and the storage unit includes the stereoscopic image. Data for specifying processing performed when generating data is stored.
  • a stereoscopic image processing apparatus is the above-described first aspect, further comprising a multi-recording unit for storing a plurality of image data, and performing normal two-dimensional images, 3D images, and special effects. At least two or more image data in the 3D image are stored.
  • a stereoscopic image processing method is an image processing method for generating image data that expresses a visual special effect and can be stereoscopically viewed by performing image processing on RAW data obtained by photographing.
  • the RAW data is converted into a gradation corresponding to the special effect, and the gradation-converted image data is cut out as image data to be stereoscopically viewed, or at least one of geometric conversion is performed,
  • the image data is generated, and the above-mentioned stereoscopic image data is subjected to special image processing that applies a special effect similar to an optically formed image or a special effect similar to an image formed in a photographic film and development printing process. Generate special images.
  • the stereoscopic image processing method according to a tenth aspect of the present invention is the ninth aspect of the present invention, in which noise reduction processing is performed after edge enhancement processing is performed prior to image processing corresponding to the special effect of the RAW data.
  • the storage medium storing the stereoscopic image processing program according to the eleventh aspect of the invention generates image data that expresses a special visual effect and can be stereoscopically viewed by performing image processing on the RAW data obtained by photographing.
  • a stereoscopic image processing apparatus and a stereoscopic image processing method that allow a stereoscopic image to which a special effect has been applied to be seen naturally without a sense of incongruity.
  • a stereoscopic image processing apparatus and a stereoscopic image processing method capable of generating a stereoscopic image without increasing the processing time and necessary memory.
  • FIG. 1 is a block diagram showing the overall configuration of mainly the electrical system of the camera according to the first embodiment of the present invention.
  • FIG. 2 is a flowchart showing a main flow of the camera according to the first embodiment of the present invention.
  • FIG. 3 is a flowchart showing a main flow of the camera according to the first embodiment of the present invention.
  • FIG. 4 is a flowchart showing the image processing operation of the camera according to the first embodiment of the present invention.
  • FIG. 5 is a flowchart showing the operation of the special image processing of the camera according to the first embodiment of the present invention.
  • FIG. 6 is a flowchart showing the image processing / 3D generation operation of the camera according to the first embodiment of the present invention.
  • FIG. 1 is a block diagram showing the overall configuration of mainly the electrical system of the camera according to the first embodiment of the present invention.
  • FIG. 2 is a flowchart showing a main flow of the camera according to the first embodiment of the present invention.
  • FIG. 3 is a
  • FIG. 7 is a diagram showing the relationship between data and processing in the camera according to the first embodiment of the present invention.
  • FIG. 8 is a chart showing an outline of effects for each special effect, a saturation parameter, gamma, and a relationship of processing contents in the camera according to the first embodiment of the present invention.
  • FIG. 9 is a graph showing gamma values applied according to special effects in the camera according to the first embodiment of the present invention.
  • FIG. 10 is a diagram for explaining a position where the special image processing is performed in the camera according to the first embodiment of the present invention.
  • FIG. 11 is a flowchart showing the image processing / 3D generation operation of the camera according to the second embodiment of the present invention.
  • FIG. 12 is a diagram showing the relationship between data and processing in the camera according to the second embodiment of the present invention.
  • FIG. 13 is a block diagram showing the overall configuration of mainly the electrical system of the camera according to the third embodiment of the present invention.
  • FIG. 14 is a flowchart showing a main flow of the camera according to the third embodiment of the present invention.
  • FIG. 15 is a flowchart showing a main flow of the camera according to the third embodiment of the present invention.
  • FIG. 16 is a flowchart showing the image processing / 3D generation operation of the camera according to the third embodiment of the present invention.
  • FIG. 17 is a diagram for explaining multi-recording applicable to the camera according to the first to third embodiments of the present invention.
  • FIG. 18 is a diagram illustrating a dual engine to which the camera according to the first to third embodiments of the present invention can be applied.
  • a camera according to a preferred embodiment of the present invention is a digital camera, and has an imaging unit including an imaging element 103 and the like.
  • the imaging unit converts a subject image into image data, and based on the converted image data.
  • the subject image is displayed in live view on a display unit including the LCD 135 arranged on the back of the main body.
  • the photographer determines the composition and the photo opportunity by observing the live view display.
  • the image data is recorded on the recording medium 131.
  • the camera When the 3D shooting mode is set, the camera generates a stereoscopic image (three-dimensional image, 3D image) and records it on a recording medium when shooting at the second position after shooting at the first position. To do.
  • a special effect (art filter: registered trademark) is set by operating the operation unit 123, image data is processed with the set special effect, a special effect image is displayed in a live view, and a recording medium 131 is also recorded.
  • FIG. 1 is a block diagram mainly showing an electrical configuration of a camera according to the first embodiment of the present invention.
  • This camera includes a camera body 100 and an interchangeable lens 200 that can be attached to and detached from the camera body 100.
  • the photographing lens is an interchangeable lens type, but the present invention is not limited to this, and a digital camera of a type in which the photographing lens is fixed to the camera body may of course be used.
  • the interchangeable lens 200 includes a photographic lens 201, a diaphragm 203, a driver 205, a microcomputer 207, and a flash memory 209, and has an interface (hereinafter referred to as I / F) 300 with the camera body 100 described later.
  • I / F interface
  • the photographing lens 201 is composed of a plurality of optical lenses for forming a subject image, and is a single focus lens or a zoom lens.
  • a diaphragm 203 is arranged behind the optical axis of the photographing lens 201.
  • the diaphragm 203 has a variable aperture, and restricts the amount of light of the subject light beam that has passed through the photographing lens 201.
  • the photographing lens 201 can be moved in the optical axis direction by a driver 205, and the focus position of the photographing lens 201 is controlled based on a control signal from the microcomputer 207. In the case of a zoom lens, the focal length is also controlled. Is done.
  • the driver 205 also controls the aperture of the diaphragm 203.
  • the microcomputer 207 connected to the driver 205 is connected to the I / F 300 and the flash memory 209.
  • the microcomputer 207 operates according to a program stored in the flash memory 209, communicates with a microcomputer 121 in the camera body 100 described later, and controls the interchangeable lens 200 based on a control signal from the microcomputer 121. Do.
  • the flash memory 209 stores various information such as optical characteristics and adjustment values of the interchangeable lens 200 in addition to the above-described program.
  • the I / F 300 is an interface for performing communication between the microcomputer 207 in the interchangeable lens 200 and the microcomputer 121 in the camera body 100.
  • a mechanical shutter 101 is disposed in the camera body 100 on the optical axis of the photographing lens 201.
  • the mechanical shutter 101 controls the passage time of the subject luminous flux and employs a known focal plane shutter or the like.
  • An image sensor 103 is disposed behind the mechanical shutter 101 and at a position where a subject image is formed by the photographing lens 201.
  • each photodiode constituting each pixel are two-dimensionally arranged in a matrix, and each photodiode generates a photoelectric conversion current corresponding to the amount of received light, and this photoelectric conversion current is applied to each photodiode. Charges are accumulated by the connected capacitor.
  • a Bayer array RGB filter is arranged in front of each pixel. Note that the image sensor 103 is not limited to the Bayer array, and may of course be a form such as Fovion.
  • the image sensor 103 is connected to an analog processing unit 105.
  • the analog processing unit 105 performs waveform shaping on the photoelectric conversion signal (analog image signal) read from the image sensor 103 while reducing reset noise and the like. Further, the gain is increased so as to obtain a more appropriate luminance.
  • the analog processing unit 105 is connected to an A / D conversion unit 107.
  • the A / D conversion unit 107 performs analog-to-digital conversion on the analog image signal, and converts the digital image signal (hereinafter referred to as image data) to the bus 110.
  • image data digital image signal
  • RAW data raw image data before image processing in the image processing unit 109
  • two or more RAW data are acquired for 3D image generation.
  • the bus 110 is a transfer path for transferring various data read or generated inside the camera body 100 to the camera body 100.
  • the bus 110 includes an image processing unit 109, an AE (Auto-Exposure) processing unit 111, an AF (Auto-Focus) processing unit 113, a 3D image generation unit 115, and an image compression / decompression unit 117.
  • a microcomputer 121, an SDRAM (Synchronous DRAM) 127, a memory interface (hereinafter referred to as a memory I / F) 129, and a liquid crystal display (hereinafter referred to as an LCD) driver 133 are connected.
  • the image processing unit 109 includes a basic image processing unit 109a that performs basic image processing, and a special image processing unit 109b that applies a special effect when an art filter is set.
  • the basic image processing unit 109a performs optical black (OB) subtraction processing, white balance (WB) correction, synchronization processing performed in the case of Bayer data, gamma / color reproduction processing, color matrix calculation, noise reduction (for RAW data). NR) processing, edge enhancement processing, and the like.
  • the basic image processing unit 109a functions as a gradation conversion unit that performs gamma correction (gradation conversion) corresponding to a special effect (art filter) in the gamma / color reproduction process. Note that color reproduction processing (color correction, saturation correction) is also performed in accordance with special effects.
  • the special image processing unit 109b gives various visual special effects such as shading addition, blur addition, soft focus addition, noise addition, and cross filter effect addition according to the set special effect (art filter). Perform special image processing.
  • the image processing unit 109 reads the image data temporarily stored in the SDRAM 127, performs image processing on the image data, and sends the image data subjected to the image processing to the bus 110. Output.
  • the special image processing unit 109b has a special effect similar to an optically formed image or a photographic film and development printing process on the stereoscopic image data generated by the 3D image generation unit 115 functioning as a stereoscopic image data processing unit. It functions as a special effect image processing unit that processes a special image that gives a special effect or the like similar to the image formed in step S3 to generate a stereoscopic special image.
  • the AE processing unit 111 measures subject brightness based on image data input via the bus 110, and outputs this subject brightness information to the microcomputer 121 via the bus 110.
  • a dedicated photometric sensor may be provided for measuring the subject brightness, in this embodiment, the subject brightness is calculated based on the image data.
  • the AF processing unit 113 extracts a high-frequency component signal from the image data, acquires a focus evaluation value by integration processing, and outputs it to the microcomputer 121 via the bus 110.
  • the photographing lens 201 is focused by a so-called contrast method.
  • the 3D image generation unit 115 generates 3D image data (also referred to as stereoscopic image data) using a plurality of images.
  • 3D image data is generated using two images, an image captured at the first position (for example, for the left eye) and an image captured at the second position (for example, for the right eye).
  • the 3D image generation unit 115 cuts out the image data subjected to gradation conversion by the basic image processing unit 109a functioning as a gradation conversion unit as image data to be viewed stereoscopically, or performs geometric conversion such as rotation correction and trapezoid correction. At least one of the processes is performed to function as a stereoscopic image data processing unit that generates stereoscopic image data.
  • the image compression / decompression unit 117 reads the image data read from the SDRAM 127 when recording the image data on the recording medium 131 according to various compression methods such as JPEG compression method for a still image and MPEG for a moving image. Compress.
  • the microcomputer 121 creates a JPEG file, an MPO file, and an MPEG file by adding a header necessary for configuring the JPEG file, the MPO file, and the MPEG file to the JPEG image data and the MPEG image data.
  • the recorded file is recorded on the recording medium 131 via the memory I / F 129.
  • the image compression / decompression unit 117 also decompresses JPEG image data and MPEG image data for image reproduction display. In decompression, the file recorded on the recording medium 131 is read out, decompressed by the image compression / decompression unit 117, and the decompressed image data is temporarily stored in the SDRAM 127.
  • a JPEG compression method or an MPEG compression method is adopted as an image compression method, but the compression method is not limited to this, and TIFF, H.264, or the like. Of course, other compression methods such as H.264 may be used.
  • the microcomputer 121 functions as a control unit for the entire camera, and comprehensively controls various sequences of the camera.
  • an operation unit 123 and a flash memory 125 are connected to the microcomputer 121.
  • the operation unit 123 includes operation members such as various input buttons and various input keys such as a power button, a release button, a moving image button, a playback button, a menu button, a cross button, and an OK button, and detects an operation state of these operation members.
  • the detection result is output to the microcomputer 121.
  • the microcomputer 121 executes various sequences according to the user's operation based on the detection result of the operation member from the operation unit 123.
  • the power button is an operation member for instructing to turn on / off the power of the digital camera. When the power button is pressed, the power of the digital camera is turned on. When the power button is pressed again, the power of the digital camera is turned off.
  • the release button consists of a first release switch that turns on when half-pressed, and a second release switch that turns on when pressed halfway and then fully pressed.
  • the microcomputer 121 executes a shooting preparation sequence such as an AE operation and an AF operation.
  • the second release switch is turned on, the mechanical shutter 101 and the like are controlled, image data based on the subject image is acquired from the image sensor 103 and the like, and a series of shooting sequences for recording the image data on the recording medium 131 are executed. Take a picture.
  • the reproduction button is an operation button for setting and canceling the reproduction mode.
  • the reproduction mode is set, the image data of the photographed image is read from the recording medium 131 and the photographed image is reproduced and displayed on the LCD 135.
  • the menu button is an operation button for displaying a menu screen on the LCD 135.
  • Camera settings include special effects (art filter) settings.
  • special effects various special effects such as fantastic focus, pop art, toy photo, rough monochrome, diorama, etc. can be set (see FIG. 8 described later).
  • the flash memory 125 stores a program for executing various sequences of the microcomputer 121.
  • the microcomputer 121 controls the entire camera based on this program.
  • the flash memory 125 stores various adjustment values such as a color matrix coefficient, an R gain and a B gain corresponding to the white balance mode, a gamma table, and an exposure condition determination table. These coefficients store different values depending on the special effect (art filter) to be set.
  • the SDRAM 127 is an electrically rewritable volatile memory for temporary storage of image data and the like.
  • the SDRAM 127 temporarily stores the image data output from the A / D conversion unit 107 and the image data processed by the image processing unit 109, the image compression / decompression unit 117, and the like.
  • the memory I / F 129 is connected to the recording medium 131, and controls writing and reading of image data and data such as a header attached to the image data on the recording medium 131.
  • the recording medium 131 is, for example, a recording medium such as a memory card that is detachably attached to the camera body 100, but is not limited thereto, and may be a hard disk or the like built in the camera body 100.
  • the LCD driver 133 is connected to the LCD 135 and causes the LCD 135 to display an image based on the image data read from the SDRAM 127 or the recording medium 131 and expanded by the image compression / decompression unit 117.
  • the LCD 135 includes a liquid crystal panel disposed on the back surface of the camera body 100 and performs image display.
  • As the image display there are a REC view display for displaying the recorded image data for a short time immediately after shooting, a playback display of a still image or a moving image file recorded on the recording medium 131, and a moving image display such as a live view display. included.
  • the display unit is not limited to the LCD, and other display panels such as an organic EL may be adopted.
  • initialization is executed (S1).
  • electrical initialization such as mechanical initialization and initialization of various flags is performed.
  • step S3 it is next determined whether or not the playback button has been pressed.
  • the operation state of the playback button in the operation unit 123 is detected and determined. If the result of this determination is that the playback button has been pressed, playback mode is executed (S5).
  • image data is read from the recording medium 131 and a list of still images and moving images is displayed on the LCD 135. The user operates the cross button to select an image from the list, and confirms the image using the OK button. When the reproduction ends, the process returns to step S3.
  • step S7 it is next determined whether or not the menu button has been operated.
  • the operation state of the menu button in the operation unit 123 is detected and determined.
  • camera settings are made (S9).
  • various camera settings can be performed on the menu screen.
  • camera settings for example, there are various shooting modes such as a 3D shooting mode, and as an image finishing effect, a natural-looking image (Natural), a vivid image (Vivid), or a calm image is set.
  • There are special effects such as (Flat) and art filters (see FIG. 8).
  • There are still image recording modes such as JPEG recording, JPEG + RAW recording, and RAW recording.
  • There is a setting of a moving image recording mode such as H.264.
  • step S9 If the result of determination in step S9 is that the menu button has not been pressed, it is next determined whether or not the release button has been pressed halfway, in other words, whether or not the first release switch has been turned on from off. Perform (S21). This determination is made based on the detection result obtained by detecting the state of the first release switch linked to the release button by the operation unit 123. As a result of the detection, when the first release switch is changed from OFF to ON, the determination result is Yes. On the other hand, when the ON state or the OFF state is maintained, the determination result is No.
  • step S21 If the result of determination in step S21 is that the release button has been half-pressed and the transition has been made from off to first release, AE / AF operation is executed (S23).
  • the AE processing unit 111 detects subject brightness based on the image data acquired by the image sensor 103, and calculates a shutter speed, an aperture value, and the like for appropriate exposure based on the subject brightness.
  • the driver 205 moves the focus position of the photographing lens 201 via the microcomputer 207 in the interchangeable lens 200 so that the focus evaluation value acquired by the AF processing unit 113 becomes a peak value. Accordingly, when the movie shooting is not being performed and the release button is pressed halfway, the photographing lens 201 is focused at that time.
  • step S21 If the result of determination in step S21 is that the release button has not transitioned from off to first release, it is next determined whether or not the release button has been fully pressed and the second release switch has been turned on (S27). . In this step, the state of the second release switch linked to the release button is detected by the operation unit 123, and a determination is made based on the detection result.
  • step S29 If the result of determination in step S27 is that the release button has been fully pressed and the second release switch has been turned on, still image shooting with a mechanical shutter is performed (S29).
  • the aperture 203 is controlled by the aperture value calculated in step S23, and the shutter speed of the mechanical shutter 101 is controlled by the calculated shutter speed.
  • an image signal is read from the image sensor 103, and the image data processed by the analog processing unit 105 and the A / D conversion unit 107 is output to the bus 110.
  • step S31 If the result of determination in step S31 is that it is not in 3D shooting mode, image processing is then performed (S33) and still image recording is performed (S35).
  • image processing is then performed (S33) and still image recording is performed (S35).
  • the 3D shooting mode it is necessary to perform image processing and still image recording after shooting the second image at the second position.
  • the 3D shooting mode is not set, since the second shot is not required, image processing and still image recording are performed immediately. Detailed operation of the image processing in step S33 will be described later with reference to FIG.
  • step S27 If the result of determination in step S27 is that the release button has not been fully pressed, it is next determined whether or not it is the second 3D image (S41, see FIG. 3).
  • the 3D shooting mode is set, and it is determined in step S29 described above whether or not the first shooting has been completed at the first position.
  • step S43 photographing with an electronic shutter is performed (S43).
  • the second main shooting of 3D shooting is performed in step S53, which will be described later.
  • step S43 image data is acquired using the electronic shutter of the image sensor 103 in order to acquire an image for movement amount analysis. In this photographing, photographing is performed according to the exposure condition determined in step 23.
  • step S45 image processing is performed (S45).
  • image processing similar to that in step S33 is performed on the acquired image data.
  • steps S85 to S89 are for special image processing in the flow of FIG.
  • live view display is performed (S47).
  • the photographer moves the camera to the second position, and when the second position is reached, the position is reached. Take the second shot. Therefore, the live view display is performed even after the first image is taken so that the user can easily move to the second position.
  • live view display a subject image is displayed as a moving image on the LCD 135 based on image data acquired by the image sensor 103.
  • the feature amount is calculated (S49).
  • feature amounts such as edge components and color components are detected from the first photographed image acquired in step S29 and the live view image acquired in step S43, and the movement amount of the camera is calculated.
  • the second shooting position may be displayed superimposed on the live view display. Useful for photographers.
  • the second image capturing is determined (S51).
  • the process proceeds to step S25, proceeds from S3 ⁇ S7 ⁇ S21 ⁇ S27 ⁇ S41 ⁇ S43, and performs image capturing again to calculate the feature value. To determine whether to shoot the second image.
  • step S51 determines whether the position for shooting the second image has been reached. If the result of determination in step S51 is that the position for shooting the second image has been reached, the second image is then shot using the mechanical shutter (S53). It is desirable that the exposure condition at the time of shooting the second image is the same as that at the time of shooting the first image in step S29. This is to prevent a sense of incongruity due to a difference in brightness.
  • 3D image recording is performed (S57).
  • the left and right stereo images generated in step S55 are JPEG compressed by the image compression / expansion unit 117 to generate an MPO (Multi-Picture Object) file, and the generated file is recorded on the recording medium 131.
  • MPO Multi-Picture Object
  • data that can specify what kind of processing has been performed when generating the 3D image is recorded in the header portion of the main image or the sub-image.
  • special processing can be read from the image data.
  • the generated 3D image may be displayed on the LCD 135 for a predetermined time.
  • step S61 If the result of determination in step S41 is not the second 3D image, then AE is performed (S61).
  • step S61 is processed through steps S21 to S27 and S41, no operation is performed on the release button. In this case, live view display is performed in step S67 described later.
  • step S61 exposure control for performing live view display is performed. That is, the shutter speed and ISO sensitivity of the electronic shutter of the image sensor 103 for performing live view display with appropriate exposure are calculated.
  • image processing is for live view display, and when a special effect is set, image processing corresponding to the set special effect is also performed. Detailed operation of this image processing will be described later with reference to FIG.
  • live view display is performed on the LCD 135 (S67). Since image data is acquired in step S63 and image processing is performed in step S65, the live view display is updated in this step. The photographer can determine the composition and shutter timing by observing the live view display.
  • step S67 If live view display is performed in step S67, or if the result of determination in step S51 is that the second image was not captured, or if 3D image recording was performed in step S57, or the result of determination in step S31 was 3D image capturing. If it is the mode, or if still image recording is performed in step S35, or if AE / AF is performed in step S23, it is determined whether or not the power is off (S25). In this step, it is determined whether or not the power button of the operation unit 123 has been pressed again. If the result of this determination is that power is not off, processing returns to step S3. On the other hand, if the result of determination is that the power is off, the main flow is terminated after performing the main flow termination operation.
  • the 3D shooting mode when the release button is fully pressed, the first shot is taken at the first position (see S29). When the photographer moves the camera and reaches the second position, the second photograph is taken (see S53).
  • a special effect (art filter) is set together with the 3D shooting mode, image processing and 3D generation are performed after the end of shooting the second image (see S55) to generate a 3D image with the special effect. And record.
  • an optical black (OB) calculation is performed (S71).
  • the optical black value caused by the dark current of the image sensor 103 is subtracted from the pixel value of each pixel constituting the image data by the OB calculation unit in the basic image processing unit 109a.
  • white balance (WB) correction is performed (S73).
  • the WB correction unit in the basic image processing unit 109a performs WB correction on the image data in accordance with the set white balance mode. Specifically, the image data of the Bayer array is corrected by reading the R gain and B gain corresponding to the white balance mode set by the user from the flash memory 125 of the camera body and multiplying the values. Or, in the case of auto white balance, R gain and B gain are calculated from RAW data and corrected using these.
  • a synchronization process is performed (S75).
  • the image data subjected to white balance correction is converted into data in which each pixel is composed of RGB data by the synchronization processing unit in the basic image processing unit 109a. Specifically, data that does not exist in the pixel is obtained by interpolation from the periphery and converted to RGB data.
  • color matrix calculation is performed (S77).
  • the color matrix calculation unit in the basic image processing unit 109a performs linear conversion by multiplying the image data by a color matrix coefficient corresponding to the set white balance mode to correct the color of the image data. Since the color matrix coefficient is stored in the flash memory 125, it is read out and used.
  • the gamma processing unit in the basic image processing unit 109a reads the gamma table stored in the flash memory 125 and performs gamma correction processing on the image data.
  • the gamma table stores values designed according to the finishing setting in the flash memory 125.
  • FIG. 8 shows an effect summary, saturation parameter, gamma, and special effect for the set art filter.
  • FIG. 9 shows a gamma table to be applied according to the set special effect.
  • FIG. 9A is a diagram showing a case where the present invention is applied to RGB data.
  • FIG. 9A shows an example of a gamma value in the case of pop art processing and other processing.
  • FIG. 9B is a diagram showing a case where it is applied to Y data. For example, when contrast enhancement is performed as shown in FIG. An example of the value is shown.
  • the gamma correction processing performed in step S79 is performed using the gamma value determined according to the set special effect (art filter), or the standard gamma value when no special effect is set. That is, gamma correction processing is performed according to a value designed according to the finish setting.
  • step S79 the color reproduction processing unit in the basic image processing unit 109a performs a saturation and hue correction process on the image data.
  • This correction processing is performed using a saturation parameter designed in advance according to the finish setting. That is, the saturation and hue correction processing is performed according to the saturation parameter shown in FIG. 8 determined by the set special effect (art filter). This process converts RGB to YCbCr.
  • edge enhancement is performed (S81).
  • the edge enhancement processing unit in the basic image processing unit 109a extracts edge components from the image data that has been subjected to gamma conversion and color correction by using a bandpass filter, and calculates coefficients according to the degree of edge enhancement.
  • the edge of the image data is emphasized by multiplying and adding to the image data.
  • NR noise removal
  • step S85 If the result of determination in step S85 is that special image processing has been performed, it is next determined whether or not 3D shooting mode is set (S87). Since the 3D shooting mode is also set on the menu screen, this step is determined based on the setting on the menu screen.
  • step S89 special image processing is performed (S89).
  • processing relating to gamma conversion and color correction is performed in step S79.
  • Other special image processing such as cross filter processing, soft focus processing, and the like required according to the set special effect (art filter) is performed.
  • Perform image processing If live view is displayed, an image that has undergone special image processing according to the special effect that has been set is displayed in live view, and if normal still image shooting, an image that has undergone special image processing is recorded. The Detailed operation of the special image processing will be described later with reference to FIG. When both the special image processing and the 3D shooting mode are set, the image processing is performed after the second image is shot (S55, see FIG. 6).
  • step S89 If special image processing is performed in step S89, or if the result of determination in step S85 is not special image processing, or if the result of determination in step S87 is 3D shooting mode, the flow returns to the original flow.
  • step S89 the special image processing in step S89 (see FIG. 4) will be described using the flowchart shown in FIG.
  • a cross filter S101
  • the special effect to be executed is determined as shown in the rightmost column of FIG. Therefore, in this step, it is determined whether or not the art filter set on the menu screen requires cross filter processing.
  • the cross filter process is to be performed when fantastic focus + starlight or pop art + starlight is set as the art filter.
  • step S101 If the result of determination in step S101 is a cross filter, then cross filter processing is performed (S103).
  • the special image processing unit 109b performs a cross filter process on the image data.
  • the cross filter process is a process for detecting a high luminance part from an image, drawing a cross pattern thereon, and superimposing it.
  • step S101 If the cross filter process is performed or if the result of determination in step S101 is that cross filter is not performed, it is next determined whether or not to perform soft focus (S105).
  • soft focus it is determined whether or not the art filter set on the menu screen requires soft focus processing. In the present embodiment, as shown in FIG. 8, it is determined that the soft focus process is performed when the fantastic focus, the fantastic focus + starlight, and the fantastic focus + white edge are set.
  • step S107 soft focus processing is performed (S107).
  • the special image processing unit 109b performs soft focus processing on the image data.
  • step S109 it is next determined whether or not to add noise (S109).
  • noise it is determined whether or not the art filter set on the menu screen requires noise addition processing. In the present embodiment, as shown in FIG. 8, when the rough monochrome is set, it is determined that the noise addition process is performed.
  • step S111 If the result of determination in step S109 is that noise has been added, next, noise addition processing is performed (S111).
  • the special image processing unit 109b performs noise addition processing on the image data.
  • the noise addition process is a process of adding a noise pattern image created in advance to the subject image.
  • the noise pattern image may be generated based on a random number or the like.
  • step S113 it is next determined whether or not shading is to be performed (S113).
  • shading it is determined whether or not the art filter set on the menu screen requires a shading process. In the present embodiment, as shown in FIG. 8, when pop art + pinhole is set, it is determined to perform the shading process.
  • step S115 shading processing is performed (S115).
  • the special image processing unit 109b performs shading processing on the image data.
  • the shading process is a process of multiplying the luminance signal by a smaller coefficient toward the periphery so that the peripheral luminance becomes dark according to the distance from the center.
  • step 113 determines whether or not the surrounding luminance is increased.
  • the peripheral luminance increase process is performed when the fantastic focus + white edge and pop art + white edge are set.
  • a peripheral brightness increase process is next performed (S119).
  • the special image processing unit 109b performs a peripheral luminance increase process on the image data.
  • the peripheral brightness increasing process is a process of increasing the peripheral brightness, and white information (for example, 255 (255 for 255 bits) for RGB (8 bits)) as the peripheral part becomes white according to the distance from the center.
  • white information for example, 255 (255 for 255 bits) for RGB (8 bits)
  • the pixel value is changed so as to be 255, 0, 0).
  • step S121 it is next determined whether or not peripheral blurring is performed (S121).
  • peripheral blurring it is determined whether or not the art filter set on the menu screen requires peripheral blurring processing. In the present embodiment, as shown in FIG. 8, when the diorama is set, it is determined that the peripheral blurring process is performed.
  • peripheral blurring processing is performed (S123).
  • the special image processing unit 109b performs peripheral blurring processing on the image data.
  • the peripheral blur processing low-pass filter processing is performed while changing the low-pass coefficient in accordance with the position of the image so that the degree of blurring increases in the peripheral portion according to the distance from the center. In this case, only the upper and lower sides and the left and right sides may be blurred.
  • step S121 If the peripheral blur processing is performed or if the result of determination in step S121 is not peripheral blurring, the special image processing is terminated and the original flow is returned to.
  • special image processing As described above, in the flow of special image processing, various special image processing necessary for the set art filter (special effect) is performed.
  • special image processing is performed based on the position of the image data corresponding to a predetermined position of the image data, such as soft focus.
  • image data that has undergone processing that differs from adjacent pixels such as image processing that differs depending on the coordinate position of the image data, such as shading or increased peripheral brightness, or cross-filter or rough monochrome processing is combined. There is something to do.
  • step S55 (FIG. 3) will be described with reference to the flowchart shown in FIG. As described above, this flow is executed after the second image is captured by the mechanical shutter when the 3D shooting mode and the special effect are set on the menu screen.
  • image processing is performed by the image processing unit 109 (S131).
  • steps S29 and S53 each of the RAW image data is acquired by photographing with the mechanical shutter, and therefore, in this step, an image processing flow is executed for each RAW image data.
  • This flow of image processing is steps S71 to S83 in the flow of image processing shown in FIG. 4. Steps S85 and after are omitted here and not executed.
  • step S131 In executing the image processing flow in step S131, if a special effect (art filter) is set on the menu screen, image processing is performed using image processing parameters corresponding to the special effect (step S79). (See gamma conversion and color correction in FIG. 4). For this reason, both the luminance and color difference components do not generate pseudo contours due to sudden changes in gradation, and image quality does not deteriorate.
  • a special effect art filter
  • the 3D image generation unit 115 specifies a cutout position and determines image correction processing. That is, the feature amount (for example, edge component, color component, luminance component, etc.) of the image is detected, and the cutout position for generating a stereoscopically visible image from the two images is specified. Also, a process for correcting a subtle change or rotation of the shooting angle of view is determined.
  • a 3D image is generated (S135).
  • the 3D image generation unit 115 generates a 3D image using two pieces of image data that have been subjected to image processing in step S131 and whose cutout position has been determined and correction processing has been determined in step S133.
  • a 3D image is generated with an image processed to a color or contrast (gamma) according to the setting.
  • step S137 it is next determined whether or not to perform special image processing (S137).
  • a special effect artificial filter
  • image processing is performed in step S131 for saturation and gamma according to the setting.
  • cross-filter processing, soft focus processing, noise addition processing, shading processing, peripheral brightness enhancement processing, peripheral blur processing, and film-specific graininess which are the effects optically formed using an optical filter or lens at the time of shooting
  • Special image processing such as noise addition processing that reproduces the feeling and soft focus processing that is performed in the development printing process is not performed. Therefore, in this step, it is determined whether or not these special image processes are necessary. Even if special effects (art filter) are set, in the case of pop art, natural (not shown), and bibit (not shown), it is only necessary to change the saturation and gamma. No further special image processing is necessary.
  • step S139 special image processing is executed (S139).
  • the special image processing unit 109b performs image processing according to the flow of special image processing shown in FIG. In the special image processing, shading, peripheral luminance increase, and peripheral blur are changed according to the distance from the center point of the image processing. The center point of image processing in the case of a 3D image will be described later with reference to FIG.
  • step S137 If special image processing is performed or if the result of determination in step S137 is that special image processing is not required, the flow of image processing and 3D generation ends, and the flow returns to the original flow.
  • FIG. 10 shows a left-eye image 401 captured at the first position and a right-eye image 403 captured at the second position when the 3D shooting mode is set.
  • a mountain 413 is shown. Since the mountain 413 is far away, the left-eye image 401 and the right-eye image 403 are shown at substantially the same position, but the person 411 is located at a short distance, so the positions shown in both images are different. . That is, in the example shown in FIG. 10, the person 411 is located a distance a away from the center by a distance a in the left-eye image 401, and the person 411 is located a distance b away from the center to the left side from the center. The position of the person 411 is different.
  • the center point of 3D image processing selects the position of the main subject that does not give a sense of incongruity when a 3D image is generated. For example, a subject on the near distance side, a face position detected by the face detection unit, a pet position, or the like may be selected.
  • the image processing center points 421a and 421b respectively correspond to the same position of the same subject. However, even if this position is slightly deviated, it may be in a range where there is no sense of incongruity after 3D image processing.
  • the predetermined position of the reference image is determined as the image center point, and the corresponding position in the other image is also determined as the image center point.
  • a special effect that changes according to the distance from the center position, such as shading processing, is performed around the image center points 421a and 421b. For this reason, it becomes an image without a sense of incongruity with respect to a right eye image and a left eye image.
  • RAW data for the left eye is acquired at the first position (# 201L, S29 in FIG. 2).
  • the RAW data for the left eye is subjected to basic image processing such as gamma and saturation (203L, S131 in FIG. 6), and an image for the left eye corresponding to the finish is obtained (# 205L).
  • RAW data for the right eye is acquired at the second position (# 201R, S53 in FIG. 3), and basic image processing such as gamma and saturation is performed (203R, S131 in FIG. 6).
  • a right eye image is obtained (# 205R).
  • the 3D cutout position and the correction process are determined (# 211; S133 in FIG. 6), and a 3D image is generated (# 221, S135 in FIG. 6). Then, special image processing is performed on the right-eye image and the left-eye image (# 223, S139 in FIG. 6), and a 3D art image is generated (# 225).
  • the RAW data is subjected to gamma processing (gradation processing) and saturation processing (color correction processing) (# 203L, # 203R), and the image processed image data is processed.
  • a 3D image is generated by performing a correction process using a cut-out position for generating a 3D image using the image, or geometric transformation such as image rotation or trapezoidal correction (# 211 and # 221).
  • the image data subjected to the image processing for the 3D image similar to the optically formed image is subjected to the photographic film and the development printing process.
  • a special effect process similar to the image to be formed is performed (# 223). Therefore, it is possible to generate a 3D art image that can reproduce both the 3D image and the art (special effect) image with high quality.
  • both gamma processing (gradation processing) and saturation processing (color correction processing) are performed. Then, only gradation processing may be performed.
  • the 3D cut-out position and the correction processing are determined after the images corresponding to the left-eye and right-eye finishes are generated (# 211, S133), but only one of them may be used.
  • the configuration of the second embodiment is the same as that of the first embodiment shown in FIG. 1, and the operation is the same as that shown in FIGS. 2 to 5, and the flow of image processing and 3D generation shown in FIG. Is simply changed to the flow shown in FIG. Therefore, the flow of image processing and 3D generation shown in FIG. 11 will be described. Steps that perform the same processing as in FIG. 6 are assigned the same step numbers, and detailed descriptions thereof are omitted. Note that the flowchart shown in FIG. 11 is also executed by the microcomputer 121 according to the program stored in the flash memory 125.
  • step S132 When entering the flow of image processing and 3D generation in FIG. 11, first, image processing is performed (S132).
  • the basic image processing unit 109a executes steps S71 to S83 in the image processing flow shown in FIG. 4 for the two pieces of RAW data acquired in steps S29 and S53, respectively.
  • the finished image is set to Natural and image processing is performed. Note that processing other than Natural may be used as long as it is a special effect close to the standard finish.
  • a 3D cut-out position and correction processing are determined (S133).
  • the 3D image generation unit 115 uses the two images subjected to the image processing in step S132, and the image feature amount (for example, edge component, color component, luminance component). , And a process for determining a cutout position for generating a stereoscopically visible image from the two images and correcting a subtle change or rotation of the shooting angle of view is determined.
  • step S134 image processing is executed (S134).
  • steps S71 to S83 are executed in the image processing flow shown in FIG. 4 for the two pieces of RAW data acquired in steps S29 and S53, not for the image processed in step S132.
  • image processing is performed by setting parameters such as gamma and saturation according to the finished image set on the menu screen.
  • step S136 3D image generation is performed (S136).
  • a 3D image is generated using the two left and right images subjected to image processing in step S134.
  • RAW data for the left eye is acquired at the first position (# 201L, S29 in FIG. 2).
  • the left-eye RAW data is subjected to image processing by setting parameters such as gamma and saturation so that the finish is natural (# 204L, S132 in FIG. 11), and the image for the left eye according to the finish of the natural setting Is obtained (# 207L).
  • RAW data for the right eye is acquired at the second position (# 201R, S53 in FIG. 3), and parameters such as gamma and saturation are set so that the result is natural, and image processing is performed (204R, FIG. 11 S132), an image for the right eye corresponding to the finish of the natural setting is obtained (# 207R).
  • the 3D cutout position and the correction processing are determined (# 211; S133 in FIG. 11).
  • image processing is performed using the RAW data for the left eye so as to achieve a finish according to the set special effect (art filter) (# 213L, S134 in FIG. 11), and the image for the left eye according to the finish Is obtained (# 215L).
  • image processing is performed using the RAW data for the right eye so as to obtain a finish corresponding to the set special effect (art filter) (# 213R, S134 in FIG. 11), and an image for the right eye corresponding to the finish is obtained. Obtain (# 215R).
  • a 3D image is generated using the determined 3D cutout position and correction processing (# 211) (# 221, S136 in FIG. 11). Special image processing is performed on the right-eye and left-eye 3D images generated here (# 223, S139), and a 3D art image is generated (# 225).
  • gamma correction grade processing
  • saturation correction color correction processing
  • Correction processing such as a cutout position for generating a 3D image using the image processed image data or geometric transformation is performed.
  • gamma correction gradient processing
  • saturation correction according to the set special effect (art filter) using the left-eye and right-eye RAW data
  • Image processing is performed using the parameters of color correction processing (# 213L, # 213R), and images according to the finish are obtained (# 215L, # 215R).
  • the 3D image is generated from the images acquired in # 215L and # 215R according to the 3D cutout position and correction processing determined in # 211.
  • the cutout position and the correction process for generating the 3D image are determined based on the natural processed image, the cutout position and the correction process can be accurately determined. It is possible to generate a 3D art image capable of reproducing both a 3D image and an art (special effect) image with high quality.
  • the flash memory 125 corresponds to the gamma table (first image processing parameter) for determining the image processing content in the basic image processing unit 109a functioning as the gradation conversion unit and the special effect. It functions as an image processing parameter storage unit that stores the second image processing parameter for special effects different from the first image processing parameter, which determines the image processing content in the basic image processing unit 109a that functions as a gradation conversion unit.
  • the first image processing parameter is a natural feeling image processing such as natural
  • the second image processing parameter is an image processing parameter corresponding to a special effect (art filter) set on the menu screen. .
  • the processing content to be performed by the 3D image generation unit 115 is determined using the image processed by the gradation processing unit using the first image processing parameter.
  • the tone conversion unit performs the image processing by the special effect using the second image processing parameter, and the 3D image is generated by performing the image processing by the special effect by the 3D image generation unit 115 (stereoscopic image data processing unit). Is generated.
  • both gamma correction (gradation processing) and saturation correction (color correction processing) are performed.
  • gradation processing gamma correction
  • saturation correction color correction processing
  • only gradation processing may be performed here.
  • the 3D cut-out position and the correction processing are determined after the images corresponding to the left-eye and right-eye finishes are generated (# 211, S133), but only one of them may be used.
  • the third embodiment is different in that two photographing lenses are provided and two images with parallax are acquired at the same time.
  • the photographing lens 201 is replaced with two photographing lenses 201a and 201b
  • the diaphragm 203 is replaced with two diaphragms 203a and 203b
  • the image sensor 103 is imaged. Only the element 104 is replaced. Therefore, only the differences will be described, and the same members will be assigned the same reference numerals and detailed description thereof will be omitted.
  • the right-eye photographic lens 201a and the left-eye photographic lens 201b are arranged on the same plane (shown as shifted positions in the drawing in FIG. 13), and are arranged so that the right and left-eye subject luminous fluxes can be simultaneously photographed.
  • a right-eye diaphragm 203a is disposed on the optical axis of the right-eye photographic lens 201a
  • a left-eye diaphragm 203b is disposed on the optical axis of the left-eye photographic lens 201b, and each controls the amount of the subject luminous flux that passes therethrough.
  • the image sensor 104 is disposed on the optical axis of the right-eye photographic lens 201a and the left-eye photographic lens 201b. A left-eye image and a right-eye image are formed on the image sensor 104, that is, on one image sensor.
  • a moving image button for starting and ending moving image shooting is arranged. Since the moving image is not yet shot in the initial state, moving image shooting starts when the moving image button is pressed in this state, and moving image shooting ends when the moving image button is pressed during moving image shooting. Therefore, each time the moving image button is pressed, the start and end of moving image shooting are repeated alternately.
  • the photographing lenses 201a and 201b are provided separately. However, only one lens is provided, and the left and right subject light fluxes are separated by using an image sensor and a light shielding member. It may be. Further, the photographing lens may be a fixed type instead of an interchangeable type. Further, although the left image and the right image are received by one image sensor 104, two image sensors may be arranged to acquire image signals separately.
  • FIG. 14 and FIG. 15 are main flows in the present embodiment.
  • steps that perform the same processing as the flow shown in FIG. 2 and FIG. 3 in the first embodiment are assigned the same step numbers, and detailed descriptions thereof are omitted.
  • the release button when the release button is fully pressed and the second release switch is turned on, two images are acquired simultaneously (S27, S30), and the 3D shooting mode is set. If the image processing is completed, the image processing and 3D generation are performed immediately after the photographing is finished (S31, S37).
  • the movie button is operated, a movie is recorded (S11 to S17).
  • the 3D shooting mode is set, a 3D image and a special effect are applied during movie shooting to record the movie. (S65 to S69).
  • initialization S1
  • electrical initialization such as mechanical and flag initialization is performed.
  • the recording flag is initialized. This recording flag is a flag indicating whether or not a moving image is being recorded. When it is on, it indicates that a moving image is being recorded. When it is off, it indicates that no moving image is being recorded. Show.
  • step S3 it is next determined whether or not the playback button has been pressed. If it has been pressed, playback processing is performed (S5), and the process returns to step S3.
  • the image selected from the list during the reproduction process is a moving image
  • the moving image is sequentially reproduced from the first frame in time series. If the selected image is a still image, the confirmed still image is displayed.
  • step S3 If the result of determination in step S3 is that the playback button has not been pressed, it is determined whether or not the menu button has been pressed (S7). If the result of this determination is that the menu button has been pressed, camera settings are made (S9), and processing returns to step S3.
  • camera settings In the camera setting, various settings can be made as in the first embodiment, and the 3D shooting mode and special effects (art filter) are also performed here.
  • step S7 If the result of determination in step S7 is that the menu button has not been pressed, it is next determined whether or not a movie button has been pressed (S11). In this step, the operation unit 123 detects the operation state of the moving image button and makes a determination based on the detection result.
  • step S11 If the result of determination in step S11 is that a movie button has been pressed, the recording flag is then reversed (S13). As described above, every time the movie button is pressed, the movie shooting start and end are alternately repeated. Therefore, in this step, if the recording flag is off, it is turned on. Turn off and invert the recording flag.
  • step S15 it is next determined whether or not a moving image is being recorded. Since the recording flag indicates the recording state of the moving image, it is determined in this step whether or not the recording flag is on. If the result of this determination is that a moving image is being recorded, a moving image file is generated (S17). Here, a moving image file such as MPEG is generated. Note that the recording of the moving image file is performed in step S69 described later.
  • step S17 If a moving image file is generated in step S17, or if the result of determination in step S15 is that the moving image is not being recorded, or if the result of determination in step S11 is that the moving image button has not been pressed, Similarly to step S15, it is determined whether or not moving image recording is in progress (S19).
  • step S19 it is determined whether or not the release button has been pressed halfway and the first release switch has transitioned from off to on. (S21). If the result of this determination is that the first release switch of the release button has transitioned from off to on, an AE operation and an AF operation are executed (S23).
  • calculation of exposure control values such as an aperture and a shutter speed and focusing of the photographing lenses 201a and 201b are performed. Therefore, when the moving image is not being recorded, that is, when the release button is pressed halfway in the still image shooting mode, the exposure control value is calculated and the photographing lens 201 is focused at that time.
  • step S ⁇ b> 21 If the result of determination in step S ⁇ b> 21 is that the first release switch of the release button has not transitioned from off to on, then the release button is fully pressed and the second release switch is turned on, as in the first embodiment. It is determined whether or not (S27). If the result of this determination is that a second release has been made, photographing using a mechanical shutter is performed (S30).
  • S27 If the result of this determination is that a second release has been made, photographing using a mechanical shutter is performed (S30).
  • S27 photographing using a mechanical shutter is performed.
  • only one image can be acquired even when the 3D shooting mode is set. However, in the present embodiment, an image for the right eye and 2 for the left eye are obtained from the image sensor 104. Sheet images can be acquired simultaneously. When the 3D shooting mode is not set, one image is acquired.
  • step S31 If the result of determination in step S31 is that it is in 3D shooting mode, image processing and 3D generation are performed (S37). As described above, since two images with parallax are acquired in step S30, in this step, the two images are processed to generate a 3D image. Detailed operations of this image processing and 3D generation will be described later with reference to FIG. When the 3D image is generated, the 3D image is recorded on the recording medium 131 (S39).
  • step S27 If the result of determination in step S27 is that the second release switch has not been turned on, or if the result of determination in step S19 is that moving image recording is in progress, next, as in the first embodiment, AE operation is performed. (S61).
  • step S61 and subsequent steps are executed, the release button is not operated at all in the still image shooting mode and the live view is displayed or the moving image is being recorded.
  • step S61 If the AE operation is performed in step S61, next, as with the first embodiment, photographing with an electronic shutter is performed (S63), and image processing is performed (S65).
  • an AE operation is performed for live view display or moving image shooting to obtain an appropriate exposure, and image processing is performed.
  • image processing since the flow shown in FIG. 4 is executed, basic image processing is performed, and if the 3D shooting mode is not set, special effect (art filter) image processing is also executed.
  • live view display is performed as in the first embodiment (S67).
  • Live view display is performed on the LCD 135 by using the image data processed in step S65.
  • the photographer can determine the composition by observing the live view display, and can determine the shutter timing during still image shooting, and the shooting end timing during moving image shooting.
  • step S65 it is next determined whether or not a moving image is being recorded, as in steps S15 and S19 (S68). Whether a moving image is being recorded is determined based on the recording flag. If the result of this determination is that moving image recording is in progress, moving image recording is performed (S69).
  • the image data processed in step S65 is compressed by the image compression / decompression unit 117 and recorded on the recording medium 131.
  • step S69 If moving image recording is performed in step S69, or if the result of determination in step S68 is that moving image recording is not performed, 3D image recording is performed in step S39, still image recording is performed in step S35, or step S23 If AE / AF is performed in step S2, it is next determined whether or not the power is off (S25). In this step, it is determined whether or not the power button of the operation unit 123 has been pressed again. If the result of this determination is that power is not off, processing returns to step S3. On the other hand, if the result of determination is that the power is off, the main flow is terminated after performing the main flow termination operation.
  • step S131a image processing is performed (S131a). Since one piece of RAW image data in which the right eye portion and the left eye portion are captured is acquired by mechanical shutter shooting in step S30, an image processing flow is executed for each portion of the RAW image data in this step.
  • This image processing flow is steps S71 to S83 in the image processing flow shown in FIG. 4. Steps S85 and after are omitted here and not executed. Note that when different image sensors are arranged for the right eye and the left eye, image processing is performed on each of the two pieces of RAW data.
  • a 3D cut-out position and correction processing are determined (S133a).
  • the image for the right eye and the image for the left eye are separately photographed, and processing for correcting a subtle change or rotation of the photographing field angle is determined.
  • correction as in the first embodiment is not necessary, but there is an error that occurs in the manufacturing stage. I am trying to correct. That is, field angle correction information for absorbing the above-mentioned error is stored in the flash memory 209 in the interchangeable lens 200, acquired by communication with the lens, and the cutout position correction and field angle correction method are determined. To do.
  • positional deviation of the image sensors may be taken into consideration.
  • 3D image generation is performed (S135).
  • the 3D image generation unit 115 performs image processing in step S131a, and generates a 3D image using the 3D cutout position and determination of correction processing in step S133a.
  • step S137 it is next determined whether or not to perform special image processing.
  • a special effect artificial filter
  • step S139 it is determined whether or not additional special image processing is necessary, as in the first embodiment. If special image processing is performed or if the result of determination in step S137 is that special image processing is not necessary, the flow of image processing and 3D generation is terminated, and the flow returns to the original flow.
  • a right-eye image and a left-eye image are acquired simultaneously, and gamma correction (tone correction), saturation correction (color correction), and the like are performed on the acquired image.
  • the 3D cutout position and the correction processing are determined.
  • a 3D image is generated according to the cut-out position and correction processing determined here, and necessary special image processing is performed after the 3D image is generated. For this reason, when performing image clipping, rotation, trapezoid correction, or the like performed in the process of generating a three-dimensional image, the image does not change significantly, and a three-dimensional image can be generated without a sense of incongruity.
  • FIG. 17 shows an entire image 431 obtained by photographing a landscape + person, and the entire image 431 includes a mountain 435 and a person 437.
  • the camera records the partial image 433 of the main subject including the person 437 together with the entire image 431 on the recording medium 131 separately from the entire image 431.
  • Such a method of separately recording a plurality of images obtained from one shooting is called multi-recording.
  • a plurality of images can be recorded such as the entire image 431 and the partial image 433 (two images are recorded in the example of FIG. 17).
  • the 3D shooting mode may be set. In this case (example in FIG. 17), in order to generate a 3D image, the entire image for the right eye, the entire image for the left eye, the partial image for the right eye, and the left eye The partial image for recording is recorded on the recording medium 131.
  • a special effect (art filter) is set together with the 3D shooting mode, a 3D image with the special effect can be generated according to the procedure described in the first to third embodiments of the present invention. .
  • a normal two-dimensional image, a 3D image, and a 3D image with a special effect are generated. That is, in FIG. 12, a normal two-dimensional image can be acquired from # 204L and # 204R. Also, by replacing # 207L and # 207R with # 215L and # 215R to generate a 3D image, a 3D image without special effects can be generated.
  • the special image processing is performed with the left eye image and the right eye image as the center of the image processing centered on substantially the same location of the subject.
  • the image used for determining the 3D cut-out position and the correction process is changed by rotation and trapezoid correction by performing gradation conversion and the like by the basic image processing unit 109a.
  • the basic image processing unit 109a that performs gradation conversion (gamma correction) performs gradation conversion when generating image data other than a 3D image with a special effect.
  • processing for converting the RAW data into gradations corresponding to a generated image other than the stereoscopic special image effect is performed. Therefore, at the time of switching between multi-recording and live view, it is possible to generate both a normal two-dimensional image and a 3D image and a 3D image with a special effect. Note that two types of images may be generated without generating all of the three types of images.
  • FIGS. 1 and 13 only one image processing unit 109 is provided, and right-eye image data and left-eye image data are sequentially processed in time series. If two basic image processing units 109a and two special image processing units 109b are provided in the image processing unit 109, that is, a dual engine is used, it is possible to simultaneously process image data for the right eye and image data for the left eye.
  • FIG. 18 corresponds to FIG. 7 in the first embodiment and is a diagram showing the flow of image data and processing when the image processing unit 109 is a dual engine.
  • # 201L, # 203L, # 205L, and # 223L are processed by the one processing unit of the image processing unit 109 for the left-eye image
  • # 201R, # 203R, # 205R, ## are processed for the right-eye image
  • 223R is processed by the other processing unit of the image processing unit 109.
  • # 211 and # 221 are processed by the 3D image generation unit 115.
  • the image processing unit 109 as a dual engine, it is possible to perform image processing on the right-eye image data and the left-eye image data in parallel. For this reason, the time for image processing can be shortened.
  • the left and right images can be captured simultaneously, so that a 3D art movie with a special effect can be easily realized.
  • image data obtained by converting RAW data into gradations corresponding to special effects is used.
  • the stereoscopic image data is generated after being cut out as image data to be stereoscopically viewed or at least one process of geometric transformation is performed, and a special effect is applied to the generated stereoscopic image data.
  • a stereoscopic image to which a special effect is applied can be viewed naturally without a sense of incongruity, and can be generated without increasing processing time and necessary memory.
  • the 3D shooting mode and special effects are set on the menu screen.
  • this setting is not limited to the setting screen such as the menu screen.
  • the dedicated button may be set by operation.
  • two images are used for generating a 3D image, the number of images may be three or more.
  • the digital camera is used as the photographing device.
  • the camera may be a digital single-lens reflex camera or a compact digital camera, and may be used for moving images such as video cameras and movie cameras. It may be a camera, or may be a camera built in a mobile phone, a personal digital assistant (PDA: Personal Digital Assist), a game machine, or the like.
  • PDA Personal Digital Assist
  • the present invention can be applied to any device for image processing for generating a stereoscopic image by applying a special effect to a plurality of images having parallax.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.
  • various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment.
  • constituent elements over different embodiments may be appropriately combined.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

特殊効果を施した立体画像が違和感なく自然に見ることができ、また処理時間や必要なメモリを増大させることがなく生成することができる立体画像処理装置および立体画像処理方法を提供する。RAWデータ(#201L、#201R)を特殊効果に対応した階調に変換し(#203L、#203R)、階調変換された画像データを、立体視する画像データとして切り出すか、または幾何学変換の何れかの処理を少なくとも行って立体画像データを生成し(#211、#221)、立体画像データに対して、光学的に形成される画像類似した特殊効果または写真フィルム及び現像焼付工程で形成された画像に類似した特殊効果を施す特殊画像処理し(#223)、立体特殊画像を生成する(#225)。

Description

立体画像処理装置および立体画像処理方法
 本発明は、立体画像および特殊画像処理を同時に適用した画像生成する立体画像処理装置および立体画像処理方法に関する。
 デジタルカメラ等の撮影装置においては、複数の画像を用いて立体的に見える立体画像(3次元画像)を撮影する機能を有するものがある。例えば、特許文献1には、視差算出領域毎に映像の遠近に関する画像特徴量を算出し、これに基づいて画面に含まれている物体毎にグループ分けを行い、グループ分け結果と画像特徴量に基づいて各グループの映像の遠近に関する情報を生成し、視差情報に変換することによって2次元画像を3次元画像に変換する装置および方法が開示されている。また、2眼カメラや専用レンズを用いることで、3次元画像を撮影する撮影機器も知られている。
 一方、撮影によって取得したRAWデータを用いて特殊効果を施した画像データを生成することも種々提案されている。例えば、特許文献2には、フィルムのような粒状感(ノイズ)がありハイコントラストの画像を生成する特殊効果を施すことを可能とした画像処理装置が開示されている。また、特許文献3に示されているような周辺を減光した画像を生成する特殊効果や、彩度やコントラストが高くかつ画像の一部分をぼかした画像を生成する特殊効果、軟調なコントラストでソフトフォーカス撮影したような画像を生成する特殊効果、光源に対してクロス等のパターンを描画する特殊効果など、様々な特殊効果を施した画像を生成することができるアートフィルタ機能を有する画像処理装置が開示されている。
特許第2951291号公報 特開2010-62836号公報 特開2010-74244号公報
 上述したように、3次元画像を取得するための撮影装置は種々提案されており、また特殊効果を施した画像データを生成する画像処理装置も種々提案されている。3次元画像と特殊効果を同時に適用した画像を生成する場合には、特殊効果を施した複数の画像を用いて3次元画像を生成するか、または生成した3次元画像に特殊効果を施して画像を生成する方法が考えられる。
 前者の場合、すなわち、特殊効果を施した複数の画像を用いて3次元画像を生成する場合には、特殊効果を施した複数の画像を用いて3次元画像を生成しようとすると、3次元画像を生成する過程で行われる画像の切り出しや回転・台形補正等を行う際に、適用した効果が著しく変化する場合がある。例えば、粒状感のある特殊効果や、周辺を減光する特殊効果が施された画像では、回転・台形補正によって粒状感が変化し、粒状感のつぶれ等が生じる場合がある。また、切り出し位置によっては、減光された部分がずれてしまう場合がある。
 また、後者の場合、すなわち、生成した3次元画像に特殊効果を施して画像を生成する場合には、視覚的な効果に非常に影響するコントラストや彩度を変換する際のビット精度不足による階調トビや、それを抑えるために高ビットで3次元画像を生成しなければならない。このため、画像処理に時間がかかり、画像データの高ビット化のためにメモリが増大してしまう。
 本発明は、このような事情を鑑みてなされたものであり、特殊効果を施した立体画像が違和感なく自然に見ることができる立体画像処理装置および立体画像処理方法を提供することを目的とする。また、処理時間や必要なメモリを増大させることがなく立体画像を生成することができる立体画像処理装置および立体画像処理方法を提供することを目的とする。
 本発明の第1の発明に係わる立体画像処理装置は、撮影して得られたRAWデータに画像処理を施すことにより、視覚的に特殊効果を施し、且つ立体視が可能な画像データを生成する画像処理装置であって、上記RAWデータを上記特殊効果に対応して階調に変換する階調変換部と、上記階調変換部によって階調変換された画像データを、立体視する画像データとして切り出すか、または幾何学変換のいずれかの処理を少なくとも行い、立体画像データを生成する立体画像データ処理部と、上記立体画像データ処理部で生成された上記立体画像データに対して、光学的に形成される画像類似した特殊効果または写真フィルム及び現像焼き付け工程で形成された画像に類似した特殊効果を施す特殊画像処理を行い、立体特殊画像を生成する特殊効果画像処理部と、を具備する。
 第2の発明に係わる立体画像処理装置は、上記第1の発明において、上記特殊効果画像処理部は、上記立体画像データを生成する複数の画像データのうち、基準とする画像データの所定位置に対応した画像データの位置を基に各画像データに対して上記特殊画像処理を行う。
 第3の発明に係わる立体画像処理装置は、上記第1の発明において、上記特殊効果画像処理部は、画像データにおける座標位置により異なる画像処理を行う、または隣接する画素とは異なる処理が行われた画像データを合成する。
 第4の発明に係わる立体画像処理装置は、上記第1の発明において、上記階調変換部における画像処理内容を決定する第1の画像処理パラメータと、上記階調変換部における画像処理内容を決定する、上記第1の画像処理パラメータとは異なる特殊画像処理のための第2の画像処理パラメータとを記憶する画像処理パラメータ記憶部を更に具備し、上記第1の画像処理パラメータを用いて上記階調処理部で画像処理された画像を用いて上記立体画像データ処理部で行う処理内容を決定し、上記第2の画像処理パラメータを用いて上記特殊効果による画像処理を行い、上記立体画像データ処理部で上記特殊効果による画像処理を行った画像に対して立体画像を生成する。
 第5の発明に係わる立体画像処理装置は、上記第1の発明において、上記RAWデータは、2つ以上である。
 第6の発明に係わる立体画像処理装置は、上記第1の発明において、上記階調変換部は、上記立体視特殊画像以外の画像データを共に生成する場合は、上記階調変換の他に上記RAWデータを上記立体視特殊画像効果以外の生成画像に対応した階調に変換する処理を行う。
 第7の発明に係わる立体画像処理装置は、上記第1の発明において、上記特殊効果画像処理部によって処理された立体画像データを記憶する記憶部を更に有し、この記憶部は、上記立体画像データを生成する際に行った処理を特定するためのデータを記憶する。
 第8の発明に係わる立体画像処理装置は、上記第1の発明において、さらに、複数の画像データを記憶するマルチレコーディング部を有し、通常の二次元画像、3D画像、および特殊効果を施した3D画像の内の少なくとも2以上の画像データを記憶する。
 第9の発明に係わる立体画像処理方法は、撮影して得たRAWデータに画像処理を施すことにより、視覚的な特殊効果を表し、且つ立体視が可能な画像データを生成する画像処理方法において、上記RAWデータを上記特殊効果に対応した階調に変換し、上記階調変換された画像データを、立体視する画像データとして切り出すか、または幾何学変換の何れかの処理を少なくとも行い、立体画像データを生成し、上記立体画像データに対して、光学的に形成される画像類似した特殊効果または写真フィルム及び現像焼付工程で形成された画像に類似した特殊効果を施す特殊画像処理し、立体特殊画像を生成する。
 第10の発明に係わる立体画像処理方法は、上記第9の発明において、上記RAWデータの上記特殊効果に対応した画像処理に先だって、エッジ強調処理を実行した後に、ノイズリダクション処理を行う。
 第11の発明に係わる立体画像処理プログラムを記録した記憶媒体は、撮影して得たRAWデータに画像処理を施すことにより、視覚的な特殊効果を表し、且つ立体視が可能な画像データを生成することをコンピュータに実行させるための立体画像処理プログラムを記録した記憶媒体であって、上記RAWデータを上記特殊効果に対応した階調に変換し、上記階調変換された画像データを、立体視する画像データとして切り出すか、または幾何学変換の何れかの処理を少なくとも行い、立体画像データを生成し、上記立体画像データに対して、光学的に形成される画像類似した特殊効果または写真フィルム及び現像焼付工程で形成された画像に類似した特殊効果を施す特殊画像処理し、立体特殊画像を生成する。
 本発明によれば、特殊効果を施した立体画像が違和感なく自然に見ることができる立体画像処理装置および立体画像処理方法を提供することができる。また、処理時間や必要なメモリを増大させることがなく立体画像を生成することができる立体画像処理装置および立体画像処理方法を提供することができる。
図1は、本発明の第1実施形態に係わるカメラの主として電気系の全体構成を示すブロック図である。 図2は、本発明の第1実施形態に係わるカメラのメインフローを示すフローチャートである。 図3は、本発明の第1実施形態に係わるカメラのメインフローを示すフローチャートである。 図4は、本発明の第1実施形態に係わるカメラの画像処理の動作を示すフローチャートである。 図5は、本発明の第1実施形態に係わるカメラの特殊画像処理の動作を示すフローチャートである。 図6は、本発明の第1実施形態に係わるカメラの画像処理・3D生成の動作を示すフローチャートである。 図7は、本発明の第1実施形態に係わるカメラにおいて、データと処理の関係を示す図である。 図8は、本発明の第1実施形態に係わるカメラにおいて、特殊効果毎の効果の概要、彩度パラメータ、ガンマ、処理内容の関係を示す図表である。 図9は、本発明の第1実施形態に係わるカメラにおいて、特殊効果に応じて適用するガンマの値を示すグラフである。 図10は、本発明の第1実施形態に係わるカメラにおいて、特殊画像処理をかける位置を説明する図である。 図11は、本発明の第2実施形態に係わるカメラの画像処理・3D生成の動作を示すフローチャートである。 図12は、本発明の第2実施形態に係わるカメラにおいて、データと処理の関係を示す図である。 図13は、本発明の第3実施形態に係わるカメラの主として電気系の全体構成を示すブロック図である。 図14は、本発明の第3実施形態に係わるカメラのメインフローを示すフローチャートである。 図15は、本発明の第3実施形態に係わるカメラのメインフローを示すフローチャートである。 図16は、本発明の第3実施形態に係わるカメラの画像処理・3D生成の動作を示すフローチャートである。 図17は、本発明の第1ないし第3実施形態に係わるカメラが適用可能なマルチレコーディングを説明する図である。 図18は、本発明の第1ないし第3実施形態に係わるカメラが適用可能なデュアルエンジンを説明する図である。
 以下、図面に従って本発明を適用したカメラを用いて好ましい実施形態について説明する。本発明の好ましい一実施形態に係わるカメラは、デジタルカメラであり、撮像素子103等を含む撮像部を有し、この撮像部によって被写体像を画像データに変換し、この変換された画像データに基づいて、被写体像を本体の背面に配置したLCD135からなる表示部にライブビュー表示する。撮影者はライブビュー表示を観察することにより、構図やシャッタチャンスを決定する。レリーズ操作時には、画像データが記録媒体131に記録される。
 また、3D撮影モードが設定されている場合には、第1位置で撮影した後に、第2の位置で撮影すると、カメラは立体画像(3次元画像、3D画像)を生成し、記録媒体に記録する。また、操作部123を操作することによって特殊効果(アートフィルタ:登録商標)の設定を行うと、設定された特殊効果で画像データが画像処理され、特殊効果画像がライブビュー表示され、また記録媒体131にも記録される。
 図1は、本発明の第1実施形態に係わるカメラの主として電気的構成を示すブロック図である。このカメラは、カメラ本体100と、これに脱着可能な交換式レンズ200とから構成される。なお、本実施形態においては、撮影レンズは交換レンズ式としたが、これに限らず、カメラ本体に撮影レンズが固定されるタイプのデジタルカメラであっても勿論かまわない。
 交換式レンズ200は、撮影レンズ201、絞り203、ドライバ205、マイクロコンピュータ207、フラッシュメモリ209から構成され、後述するカメラ本体100との間にインターフェース(以後、I/Fと称す)300を有する。
 撮影レンズ201は、被写体像を形成するための複数の光学レンズから構成され、単焦点レンズまたはズームレンズである。この撮影レンズ201の光軸の後方には、絞り203が配置されており、絞り203は口径が可変であり、撮影レンズ201を通過した被写体光束の光量を制限する。また、撮影レンズ201はドライバ205によって光軸方向に移動可能であり、マイクロコンピュータ207からの制御信号に基づいて、撮影レンズ201のピント位置が制御され、ズームレンズの場合には、焦点距離も制御される。また、ドライバ205は、絞り203の口径の制御も行う。
 ドライバ205に接続されたマイクロコンピュータ207は、I/F300およびフラッシュメモリ209に接続されている。マイクロコンピュータ207は、フラッシュメモリ209に記憶されているプログラムに従って動作し、後述するカメラ本体100内のマイクロコンピュータ121と通信を行い、マイクロコンピュータ121からの制御信号に基づいて交換式レンズ200の制御を行う。
 フラッシュメモリ209には、前述したプログラムの他、交換式レンズ200の光学的特性や調整値等の種々の情報が記憶されている。I/F300は、交換式レンズ200内のマイクロコンピュータ207とカメラ本体100内のマイクロコンピュータ121の相互間の通信を行うためのインターフェースである。
 カメラ本体100内であって、撮影レンズ201の光軸上には、メカシャッタ101が配置されている。このメカシャッタ101は、被写体光束の通過時間を制御し、公知のフォーカルプレーンシャッタ等が採用される。このメカシャッタ101の後方であって、撮影レンズ201によって被写体像が形成される位置には、撮像素子103が配置されている。
 撮像素子103は、各画素を構成するフォトダイオードが二次元的にマトリックス状に配置されており、各フォトダイオードは受光量に応じた光電変換電流を発生し、この光電変換電流は各フォトダイオードに接続するキャパシタによって電荷蓄積される。各画素の前面には、ベイヤ―配列のRGBフィルタが配置されている。なお、撮像素子103はベイヤ配列に限定されず、例えばFovionのような形式でも勿論かまわない。
 撮像素子103はアナログ処理部105に接続されており、このアナログ処理部105は、撮像素子103から読み出した光電変換信号(アナログ画像信号)に対し、リセットノイズ等を低減した上で波形整形を行い、さらに適切な輝度になるようにゲインアップを行う。アナログ処理部105はA/D変換部107に接続されており、このA/D変換部107は、アナログ画像信号をアナログ―デジタル変換し、デジタル画像信号(以後、画像データという)をバス110に出力する。なお、本明細書においては、画像処理部109において画像処理される前の生の画像データをRAWデータと称する。3D撮影モードが設定されている場合には、3D画像生成用に2以上のRAWデータが取得される。
 バス110は、カメラ本体100の内部で読み出され若しくは生成された各種データをカメラ本体100の内部に転送するための転送路である。バス110には、前述のA/D変換部107の他、画像処理部109、AE(Auto Exposure)処理部111、AF(Auto Focus)処理部113、3D画像生成部115、画像圧縮展開部117、マイクロコンピュータ121、SDRAM(Synchronous DRAM)127、メモリインターフェース(以後、メモリI/Fという)129、液晶ディスプレイ(以後、LCDという)ドライバ133が接続されている。
 画像処理部109は、基本的な画像処理を行う基本画像処理部109aと、アートフィルタが設定された場合に特殊効果を施すための特殊画像処理部109bを有している。基本画像処理部109aは、RAWデータに対して、オプティカルブラック(OB)減算処理、ホワイトバランス(WB)補正、ベイヤデータの場合に行う同時化処理、ガンマ・色再現処理、カラーマトリックス演算、ノイズリダクション(NR)処理、エッジ強調処理等を行う。また、基本画像処理部109aは、上記ガンマ・色再現処理において、特殊効果(アートフィルタ)に対応したガンマ補正(階調変換)を行う階調変換部として機能する。なお、色再現処理(色補正、彩度補正)についても特殊効果に対応した処理を行う。
 また、特殊画像処理部109bは、設定された特殊効果(アートフィルタ)に応じて、シェーディング付加、ぼかし付加、ソフトフォーカス付加、ノイズ付加、クロスフィルタ効果付加等の種々の視覚的な特殊効果を付与する特殊画像処理を行う。これらの種々の画像処理を行うために、画像処理部109は、SDRAM127に一時記憶された画像データを読出し、この画像データに対して画像処理を施し、画像処理を施した画像データをバス110に出力する。特殊画像処理部109bは、立体画像データ処理部として機能する3D画像生成部115で生成された立体画像データに対して、光学的に形成される画像に類似した特殊効果または写真フィルムおよび現像焼付工程で形成された画像に類似した特殊効果等を施す特殊画像を処理し、立体特殊画像を生成する特殊効果画像処理部として機能する。
 AE処理部111は、バス110を介して入力した画像データに基づいて被写体輝度を測定し、この被写体輝度情報を、バス110を介してマイクロコンピュータ121に出力する。被写体輝度の測定のために専用の測光センサを設けても良いが、本実施形態においては、画像データに基づいて被写体輝度を算出する。
 AF処理部113は、画像データから高周波成分の信号を抽出し、積算処理により合焦評価値を取得し、バス110を介してマイクロコンピュータ121に出力する。本実施形態においては、いわゆるコントラスト法によって撮影レンズ201のピント合わせを行う。
 3D画像生成部115は、複数枚の画像を用いて、3D画像データ(立体画像データともいう)を生成する。本実施形態においては、第1の位置で撮影した画像(例えば左目用)と、第2の位置で撮影した画像(例えば右目用)の2枚の画像を用いて、3D画像データを生成する。この3D画像生成部115は、階調変換部として機能する基本画像処理部109aによって階調変換された画像データを立体視する画像データとして切り出すか、または回転補正や台形補正等の幾何学変換のいずれかの処理を少なくとも行い、立体画像データを生成する立体画像データ処理部として機能する。
 画像圧縮展開部117は、画像データの記録媒体131への記録時に、SDRAM127から読み出した画像データを、静止画の場合にはJPEG圧縮方式等、また動画の場合にはMPEG等の各種圧縮方式に従って圧縮する。マイクロコンピュータ121は、JPEG画像データやMPEG画像データに対して、JPEGファイルやMPOファイル、MPEGファイルを構成するために必要なヘッダを付加してJPEGファイルやMPOファイル、MPEGファイルを作成し、この作成したファイルをメモリI/F129を介して記録媒体131に記録する。
 また、画像圧縮展開部117は、画像再生表示用にJPEG画像データやMPEG画像データの伸張も行う。伸張にあたっては、記録媒体131に記録されているファイルを読み出し、画像圧縮展開部117において伸張処理を施した上で、伸張した画像データをSDRAM127に一時記憶する。なお、本実施形態においては、画像圧縮方式としては、JPEG圧縮方式やMPEG圧縮方式を採用するが、圧縮方式はこれに限らずTIFF、H.264等、他の圧縮方式でも勿論かまわない。
 マイクロコンピュータ121は、このカメラ全体の制御部としての機能を果たし、カメラの各種シーケンスを総括的に制御する。マイクロコンピュータ121には、前述のI/F300以外に、操作部123およびフラッシュメモリ125が接続されている。
 操作部123は、電源釦、レリーズ釦、動画釦、再生釦、メニュー釦、十字釦、OK釦等、各種入力釦や各種入力キー等の操作部材を含み、これらの操作部材の操作状態を検知し、検知結果をマイクロコンピュータ121に出力する。マイクロコンピュータ121は、操作部123からの操作部材の検知結果に基づいて、ユーザの操作に応じた各種シーケンスを実行する。電源釦は、当該デジタルカメラの電源のオン/オフを指示するための操作部材である。電源釦が押されると当該デジタルカメラの電源はオンとなり、再度、電源釦が押されると当該デジタルカメラの電源はオフとなる。
 レリーズ釦は、半押しでオンになるファーストレリーズスイッチと、半押しから更に押し込み全押しとなるとオンになるセカンドレリーズスイッチからなる。マイクロコンピュータ121は、ファーストレリーズスイッチがオンとなると、AE動作やAF動作等の撮影準備シーケンスを実行する。また、セカンドレリーズスイッチがオンとなると、メカシャッタ101等を制御し、撮像素子103等から被写体画像に基づく画像データを取得し、この画像データを記録媒体131に記録する一連の撮影シーケンスを実行して撮影を行う。
 再生釦は、再生モードの設定と解除するための操作釦であり、再生モードが設定されると、記録媒体131から撮影画像の画像データを読み出し、LCD135に撮影画像を再生表示する。
 メニュー釦は、メニュー画面をLCD135に表示させるための操作釦である。メニュー画面上では、各種のカメラ設定を行うことができる。カメラ設定としては、特殊効果(アートフィルタ)の設定がある。特殊効果としては、ファンタジックフォーカス、ポップアート、トイフォト、ラフモノクローム、ジオラマ等、種々の特殊効果が設定可能である(後述する図8参照)。
 フラッシュメモリ125は、マイクロコンピュータ121の各種シーケンスを実行するためのプログラムを記憶している。マイクロコンピュータ121はこのプログラムに基づいてカメラ全体の制御を行う。また、フラッシュメモリ125は、カラーマトリックス係数、ホワイトバランスモードに応じたRゲインとBゲイン、ガンマテーブル、露出条件決定テーブル等の種々の調整値を記憶している。これらの係数は、設定される特殊効果(アートフィルタ)に応じて異なる値を記憶している。
 SDRAM127は、画像データ等の一時記憶用の電気的書き換え可能な揮発性メモリである。このSDRAM127は、A/D変換部107から出力された画像データや、画像処理部109や画像圧縮展開部117等において処理された画像データを一時記憶する。
 メモリI/F129は、記録媒体131に接続されており、画像データや画像データに添付されたヘッダ等のデータを、記録媒体131に書き込みおよび読出しの制御を行う。記録媒体131は、例えば、カメラ本体100に着脱自在なメモリカード等の記録媒体であるが、これに限らず、カメラ本体100に内蔵されたハードディスク等であっても良い。
 LCDドライバ133は、LCD135に接続されており、SDRAM127や記録媒体131から読み出され、画像圧縮展開部117によって伸張された画像データに基づいて画像をLCD135において表示させる。LCD135は、カメラ本体100の背面等に配置された液晶パネルを含み、画像表示を行う。画像表示としては、撮影直後、記録される画像データを短時間だけ表示するレックビュー表示、記録媒体131に記録された静止画や動画の画像ファイルの再生表示、およびライブビュー表示等の動画表示が含まれる。なお、表示部としては、LCDに限らず、有機EL等、他の表示パネルを採用しても勿論かまわない。
 次に、図2および図3に示すフローチャートを用いて、本実施形態におけるカメラのメイン処理について説明する。このメインフローにおいては、動画撮影に関する処理は省略してある。なお、図2ないし図6に示すフローチャートはフラッシュメモリ125に記憶されているプログラムに従ってマイクロコンピュータ121が実行する。
 操作部123の内の電源釦が操作され、電源オンとなると、図2に示すメインフローが動作を開始する。動作を開始すると、まず、初期化を実行する(S1)。初期化としては、機械的初期化や各種フラグ等の初期化等の電気的初期化を行う。
 初期化を行うと、次に、再生釦が押されたか否かを判定する(S3)。ここでは、操作部123内の再生釦の操作状態を検知し、判定する。この判定の結果、再生釦が押された場合には、再生モードを実行する(S5)。ここでは、記録媒体131から画像データを読み出し、LCD135に静止画と動画の一覧を表示する。ユーザは十字釦を操作することにより、一覧の中から画像を選択し、OK釦により画像を確定する。再生が終わると、ステップS3に戻る。
 ステップS3における判定の結果、再生釦が押されていなかった場合には、次に、メニュー釦が操作されたか否かを判定する(S7)。ここでは、操作部123内のメニュー釦の操作状態を検知し、判定する。
 ステップS7における判定の結果、メニュー釦が押された場合には、カメラ設定を行う(S9)。前述したように、種々のカメラ設定をメニュー画面で行うことができる。カメラ設定としては、例えば、3D撮影モード等の種々の撮影モードがあり、また画像の仕上がり効果として、自然に見える画像にする(Natural)、鮮やかな画像にする(Vivid)、落ち着いた画像にする(Flat)、アートフィルタ等の特殊効果(図8参照)がある。またJPEG記録、JPEG+RAW記録、RAW記録等の静止画記録モードがあり、Motion-JPEG、H.264等の動画記録モードの設定がある。カメラ設定を行うと、ステップS3に戻る。
 ステップS9における判定の結果、メニュー釦が押されていなかった場合には、次に、レリーズ釦が半押しされたか否か、言い換えると、ファーストレリーズスイッチがオフからオンとなったか否かの判定を行う(S21)。この判定は、レリーズ釦に連動するファーストレリーズスイッチの状態を操作部123によって検知し、この検知結果に基づいて行う。検知の結果、ファーストレリーズスイッチがオフからオンに遷移した場合には判定結果はYesとなり、一方、オン状態またはオフ状態が維持されている場合には、判定結果はNoとなる。
 ステップS21における判定の結果、レリーズ釦が半押しされ、オフからファーストレリーズに遷移した場合には、AE・AF動作を実行する(S23)。ここでは、AE処理部111が、撮像素子103によって取得された画像データに基づいて被写体輝度を検出し、この被写体輝度に基づいて、適正露出となるシャッタ速度、絞り値等を算出する。
 また、AF処理部113によって取得された合焦評価値がピーク値となるように、交換式レンズ200内のマイクロコンピュータ207を介してドライバ205が撮影レンズ201のピント位置を移動させる。したがって、動画撮影を行っていない場合に、レリーズ釦が半押しされると、その時点で、撮影レンズ201のピント合わせを行う。
 ステップS21における判定の結果、レリーズ釦がオフからファーストレリーズに遷移しなかった場合には、次に、レリーズ釦が全押しされ、セカンドレリーズスイッチがオンになったか否かの判定を行う(S27)。このステップでは、レリーズ釦に連動するセカンドレリーズスイッチの状態を操作部123によって検知し、この検知結果に基づいて判定を行う。
 ステップS27における判定の結果、レリーズ釦が全押しされ、セカンドレリーズスイッチがオンになった場合には、メカシャッタによる静止画撮影を行う(S29)。ここでは、ステップS23において演算された絞り値で絞り203が制御され、また演算されたシャッタ速度でメカシャッタ101のシャッタ速度が制御される。そして、シャッタ速度に応じた露光時間が経過すると、撮像素子103から画像信号が読み出され、アナログ処理部105およびA/D変換部107によって処理された画像データがバス110に出力される。
 メカシャッタによる撮影を行うと、次に、3D撮影モードか否かの判定を行う(S31)。前述したように3D撮影モードはメニュー画面において設定されていることから、撮影モードの設定状態に基づいて判定する。
 ステップS31における判定の結果、3D撮影モードでなかった場合には、次に、画像処理を行い(S33)、静止画記録を行う(S35)。3D撮影モードが設定されている場合には、第2の位置で2枚目の撮影を行ってから画像処理および静止画記録を行う必要がある。一方、3D撮影モードが設定されていないには、2枚目の撮影が必要ないことから、直ちに画像処理および静止画の記録を行う。ステップS33における画像処理の詳しい動作については、図4を用いて後述する。
ステップS27における判定の結果、レリーズ釦が全押しされていない場合には、次に、3D撮影2枚目か否かを判定する(S41、図3参照)。ここでは、3D撮影モードが設定されており、前述したステップS29において第1の位置において1枚目の撮影が終了したか否かを判定する。
 ステップS41における判定の結果、3D撮影の2枚目である場合には、次に、電子シャッタによる撮影を行う(S43)。3D撮影の2枚目の本撮影は後述するステップS53において行うが、その前に2枚目を撮影する第2の位置に達しているか否かについて、画像を解析しカメラの移動量を測定する。そこで、ステップS43において、移動量解析用の画像を取得するために撮像素子103の電子シャッタを用いて画像データの取得を行う。なお、この撮影にあたっては、ステップ23において決定した露出条件に従って撮影を行う。
 電子シャッタによる撮影を行うと、次に、画像処理を行う(S45)。ここでは、取得した画像データに対して、ステップS33と同様の画像処理を施す。ステップS45における画像処理の詳しい動作については、図4を用いて後述する。ただし、図4のフローにおいて、ステップS85~S89は特殊画像処理用であることから、省略する。
 画像処理を行うと、次に、ライブビュー表示を行う(S47)。本実施形態においては、3D撮影モードが設定され、第1の位置で1枚目の撮影を行うと、撮影者は第2の位置までカメラを移動させ、第2の位置に達すると、その位置で2枚目の撮影を行う。そこで、第2の位置に移動しやすいように、1枚目の撮影後もライブビュー表示を行うようにしている。ライブビュー表示は、撮像素子103によって取得した画像データに基づいて、LCD135に被写体像を動画で表示する。
 ライブビュー表示を行うと、次に、特徴量の算出を行う(S49)。ここでは、ステップS29において取得した1枚目の撮影画像と、ステップS43において取得したライブビュー用画像から、エッジ成分や色成分等の特徴量を検出し、カメラの移動量を算出する。ここで算出されたカメラの移動量に基づいて、2枚目の撮影位置(第2の位置)をライブビュー表示に重畳して表示するようにしてもよい。撮影者にとって便利である。
 特徴量の算出を行うと、次に、2枚目撮影の判定を行う(S51)。ここでは、算出されたカメラの移動量に基づいて、左右視差分だけカメラが移動した否を判定する。この判定の結果、2枚目の撮影位置に移動していなかった場合には、ステップS25に進み、S3→S7→S21→S27→S41→S43と進み、再度、撮影を行って特徴量の算出を行い、2枚目撮影の判定を行う。
 ステップS51における判定の結果、2枚目撮影の位置に達すると、次に、メカシャッタによる2枚目の撮影を行う(S53)。2枚目の撮影時の露出条件は、ステップS29における1枚目の撮影時と同じ条件にすることが望ましい。明るさの違いによる違和感を防ぐためである。
 メカシャッタによる2枚目の撮影を行うと、次に、画像処理・3D生成を行う(S55)。ここでは、特殊効果(アートフィルタ)を施した3D画像の生成を行う。詳しくは、図6に示すフローチャートを用いて説明するが、特殊効果に応じたガンマ変換(階調変換)や彩度等の基本的な画像処理を行った後、3D画像データを生成し、生成した3D画像に対して、更に特殊効果に応じて必要な画像処理を施して、最終的な3D画像データを生成する。
 画像処理・3D生成を行うと、次に、3D画像記録を行う(S57)。ここでは、ステップS55において生成された左右のステレオ画像を、画像圧縮展開部117においてJPEG圧縮してMPO(Multi-Picture Object)ファイルを生成し、この生成されたファイルを記録媒体131に記録する。このとき、3D画像を生成する際にどのような処理を行ったかを特定できるデータを主画像や副画像のヘッダ部に記録する。これにより画像データから特殊処理を読み取ることができる。なお、生成した3D画像をLCD135に所定時間の間、表示するようにしてもよい。
 ステップS41における判定の結果、3D撮影2枚目でなかった場合には、次に、AEを行う(S61)。前述のステップS21からS27、S41を経て、ステップS61を処理する場合は、レリーズ釦に対して何ら操作を行っていない場合であり、この場合には後述するステップS67においてライブビュー表示を行う。ステップS61においては、ライブビュー表示を行うための露出制御を行う。すなわち、適正露出でライブビュー表示を行うための撮像素子103の電子シャッタのシャッタ速度およびISO感度を算出する。
 AEを行うと、次に、電子シャッタによる撮影を行う(S63)。ここでは、撮像素子103の電子シャッタを用いて画像データを取得する。続いて、取得した画像データに対して画像処理を行う(S65)。ここでの画像処理は、ライブビュー表示用であり、また特殊効果が設定されている場合には、設定されている特殊効果に応じた画像処理も行う。この画像処理の詳しい動作については、図4を用いて後述する。
 画像処理を行うと、LCD135にライブビュー表示を行う(S67)。ステップS63において画像データを取得し、ステップS65において画像処理を行ったことから、このステップでは、ライブビュー表示の更新を行う。撮影者はこのライブビュー表示を観察することにより、構図やシャッタタイミングを決定することができる。
 ステップS67においてライブビュー表示を行うと、またはステップS51における判定の結果、2枚目撮影でなかった場合には、またはステップS57において3D画像記録を行うと、またはステップS31における判定の結果、3D撮影モードであった場合には、またはステップS35において静止画記録を行うと、またはステップS23においてAE・AFを行うと、電源オフか否かの判定を行う(S25)。このステップでは、操作部123の電源釦が再度、押されたか否かを判定する。この判定の結果、電源オフではなかった場合には、ステップS3に戻る。一方、判定の結果、電源オフであった場合には、メインのフローの終了動作を行ったのち、メインフローを終了する。
 このように本発明の第1実施形態におけるメインフローにおいては、3D撮影モードが設定されている場合には、レリーズ釦を全押しすると第1の位置で1枚目の撮影を行い(S29参照)、撮影者がカメラを移動させ、第2の位置に達すると2枚目の撮影を行っている(S53参照)。3D撮影モードと共に特殊効果(アートフィルタ)が設定されている場合には、2枚目の撮影の終了後に画像処理・3D生成を行って(S55参照)、特殊効果の施された3D画像を生成し記録する。
 次に、ステップS33、S45、S65における画像処理について、図4に示すフローチャートを用いて説明する。画像処理のフローに入ると、まず、オプティカルブラック(OB)演算を行う(S71)。このステップでは、基本画像処理部109a内のOB演算部によって、画像データを構成する各画素の画素値から、撮像素子103の暗電流等に起因するオプティカルブラック値をそれぞれ減算する。
 OB演算を行うと、次に、ホワイトバランス(WB)補正を行う(S73)。このステップでは、基本画像処理部109a内のWB補正部によって、設定されているホワイトバランスモードに応じて、画像データに対してWB補正を行う。具体的には、ベイヤ配列の画像データに対して、ユーザが設定したホワイトバランスモードに応じたRゲインとBゲインをカメラ本体のフラッシュメモリ125から読み出し、その値を乗じることで補正を行う。またはオートホワイトバランスの場合には、RAWデータからRゲインおよびBゲインを算出し、これらを用いて補正する。
 続いて、同時化処理を行う(S75)。このステップでは、ホワイトバランス補正を行った画像データに対して、基本画像処理部109a内の同時化処理部によって、各画素がRGBデータで構成されるデータに変換する。具体的には、その画素にないデータを周辺から補間によって求め、RGBデータに変換する。
 同時化処理を行うと、次に、カラーマトリックス演算を行う(S77)。このステップでは、基本画像処理部109a内のカラーマトリックス演算部によって、画像データに対して設定されているホワイトバランスモードに応じたカラーマトリックス係数を乗じる線形変換を行って画像データの色を補正する。カラーマトリックス係数はフラッシュメモリ125に記憶されているので、読み出して使用する。
 カラーマトリックス演算を行うと、次に、ガンマ変換および色補正を行う(S79)。このステップでは、基本画像処理部109a内のガンマ処理部によって、フラッシュメモリ125に記憶されているガンマテーブルを読み出し、画像データに対してガンマ補正処理を行う。ガンマテーブルは、仕上がりの設定に応じて設計した値がフラッシュメモリ125に記憶されている。
 前述したように、メニュー画面において特殊効果(アートフィルタ)の設定が可能である。設定されたアートフィルタに対する効果概要、彩度パラメータ、ガンマ、および特殊効果を、図8に示す。また、設定された特殊効果に応じて適用するガンマテーブルを図9に示す。ここで、図9(a)は、RGBデータに適用した場合を示す図であり、例えば、ポップアート処理の場合とその他の処理の場合におけるガンマの値の一例を示している。また、図9(b)はYデータに適用した場合を示す図であり、例えば、図8に示すようなコントラスト強調する場合や、中間の輝度をより明るくする場合、その他標準の場合のガンマの値の一例を示している。ステップS79で行うガンマ補正処理は、設定された特殊効果(アートフィルタ)に応じて決まるガンマの値を、また特殊効果が設定されていない場合には標準のガンマの値を用いて行う。すなわち、仕上がりの設定に応じて設計した値に応じてガンマ補正処理を行う。
 また、ステップS79においては、基本画像処理部109a内の色再現処理部によって、画像データに対して、彩度や色相の補正処理を行う。この補正処理にあたっては、仕上がりの設定に応じて予め設計した彩度パラメータを用いて行う。すなわち、設定されている特殊効果(アートフィルタ)によって決まる図8に示す彩度パラメータに従って、彩度や色相の補正処理を行う。この処理でRGBからYCbCrに変換する。
 ガンマ変換および色補正を行うと、次に、エッジ強調を行う(S81)。このステップでは、ガンマ変換および色補正の行われた画像データに対して、基本画像処理部109a内のエッジ強調処理部が、バンドパスフィルタによりエッジ成分を抽出し、エッジ強調度に応じて係数を乗じて画像データに加算することにより、画像データのエッジを強調する。
 次にNR(ノイズ除去)を行う(S83)。このステップでは、画像を周波数分解し、周波数に応じてノイズを低減する処理を行う。
 NR処理を行うと、次に、特殊画像処理か否かの判定を行う(S85)。前述したように、メニュー画面において特殊効果(アートフィルタ)の設定が行われているので、このステップではメニュー画面での設定に基づいて判定する。
 ステップS85における判定の結果、特殊画像処理がなされていた場合には、次に、3D撮影モードが設定されているか否かの判定を行う(S87)。3D撮影モードもメニュー画面において設定することから、このステップでは、メニュー画面での設定に基づいて判定する。
 ステップS87における判定の結果、3D撮影モードが設定されていなかった場合には、特殊画像処理を行う(S89)。特殊画像処理の内、ガンマ変換と色補正に関する処理は、ステップS79において行われており、それ以外のクロスフィルタ処理、ソフトフォーカス処理等、設定された特殊効果(アートフィルタ)に応じて必要な特殊画像処理を行う。ライブビュー表示中であれば、設定されている特殊効果に応じた特殊画像処理が施された画像がライブビュー表示され、通常の静止画撮影であれば、特殊画像処理を施した画像が記録される。特殊画像処理の詳しい動作については、図5を用いて後述する。なお、特殊画像処理および3D撮影モードの両方が設定されている場合には、2枚目の撮影を行った後に画像処理が行われる(S55、図6参照)。
 ステップS89において特殊画像処理を行うと、またはステップS85における判定の結果、特殊画像処理でなかった場合、またはステップS87における判定の結果、3D撮影モードであった場合には、元のフローに戻る。
 このように本実施形態における画像処理のフローにおいては、OB減算等の種々の特殊画像処理に係わらない共通な画像処理を実行し、またガンマ変換および色補正にあたっては、設定された特殊効果に応じた補正処理を、基本画像処理部109aによって行っている。さらに3D撮影モードが設定されていない限り特殊画像処理を、特殊画像処理部109bによって併せて行っている。
 次に、ステップS89(図4参照)における特殊画像処理について、図5に示すフローチャートを用いて説明する。特殊画像処理のフローに入ると、まず、クロスフィルタを行うか否かの判定を行う(S101)。アートフィルタを設定すると、図8の最右欄に示すように実行される特殊効果が決まる。そこで、このステップでは、メニュー画面において設定されたアートフィルタが、クロスフィルタ処理を必要としているか否かを判定する。すなわち、本実施形態においては、図8に示すように、アートフィルタとして、ファンタジックフォーカス+スターライト、ポップアート+スターライトが設定されている場合に、クロスフィルタの処理を行うと判定される。
 ステップS101における判定の結果、クロスフィルタであった場合には、次に、クロスフィルタ処理を行う(S103)。ここでは、特殊画像処理部109bが画像データに対してクロスフィルタ処理を施す。クロスフィルタ処理は、画像から高輝度部を検出し、そこにクロスパターンを描画し重畳する処理である。
 クロスフィルタ処理を行うと、またはステップS101における判定の結果、クロスフィルタを行わない場合には、次に、ソフトフォーカスを行うか否かの判定を行う(S105)。ここでは、メニュー画面において設定されたアートフィルタが、ソフトフォーカス処理を必要としているか否かを判定する。本実施形態においては、図8に示すように、ファンタジックフォーカス、ファンタジックフォーカス+スターライト、ファンタジックフォーカス+ホワイトエッジが設定されている場合には、ソフトフォーカスの処理を行うと判定される。
 ステップS105における判定の結果、ソフトフォーカスであった場合には、次に、ソフトフォーカス処理を行う(S107)。ここでは、特殊画像処理部109bが画像データに対してソフトフォーカス処理を施す。ソフトフォーカス処理は、画像全体にぼかし処理を行い、ぼかす前の画像と一定割合(例えば、元画像:ぼかし画像=3:2)で合成を行う処理である。
 ソフトフォーカス処理を行うと、またはステップS105における判定の結果、ソフトフォーカスでなかった場合には、次に、ノイズ付加を行うか否かの判定を行う(S109)。ここでは、メニュー画面において設定されたアートフィルタが、ノイズ付加処理を必要としているか否かを判定する。本実施形態においては、図8に示すように、ラフモノクロームが設定されている場合には、ノイズ付加処理を行うと判定される。
 ステップS109における判定の結果、ノイズ付加であった場合には、次に、ノイズ付加処理を行う(S111)。ここでは、特殊画像処理部109bが画像データに対してノイズ付加処理を施す。ノイズ付加処理は、予め作成したノイズパターン画像を被写体画像に加算する処理である。ノイズパターン画像は乱数等に基づいて生成してもよい。
 ノイズ付加処理を行うと、またはステップS109における判定の結果、ノイズ付加を行わない場合には、次に、シェーディングを行うか否かの判定を行う(S113)。ここでは、メニュー画面において設定されたアートフィルタが、シェーディング処理を必要としているか否かを判定する。本実施形態においては、図8に示すように、ポップアート+ピンホールが設定されている場合には、シェーディング処理を行うと判定される。
 ステップS113における判定の結果、シェーディングであった場合には、次に、シェーディング処理を行う(S115)。ここでは、特殊画像処理部109bが画像データに対してシェーディング処理を施す。シェーディング処理は、中心からの距離に応じ、周辺の輝度が暗くなるように、輝度信号に対して周辺ほど小さい係数を乗ずる処理である。
 シェーディング処理を行うと、またはステップ113における判定の結果、シェーディングを行わない場合には、次に、周辺輝度アップか否かの判定を行う(S117)。ここでは、メニュー画面において設定されたアートフィルタが、周辺輝度アップ処理を必要としているか否かを判定する。本実施形態においては、図8に示すように、ファンタジックフォーカス+ホワイトエッジ、ポップアート+ホワイトエッジが設定されている場合には、周辺輝度アップ処理を行うと判定される。
 ステップS117における判定の結果、周辺輝度アップであった場合には、次に、周辺輝度アップ処理を行う(S119)。ここでは、特殊画像処理部109bが画像データに対して周辺輝度アップ処理を施す。周辺輝度アップ処理は、周辺輝度を明るくする処理であり、中心からの距離に応じ、周辺部が白くなるように、周辺部ほど白情報(例えば、RGB(8ビット)なら255,255,255:またYCbCr(8ビット)なら255,0,0)となるように画素値を変更する処理である。
 周辺輝度アップ処理を行うと、またはステップS117における判定の結果、周辺輝度アップ処理でなかった場合には、次に、周辺ぼかしを行うか否かの判定を行う(S121)。ここでは、メニュー画面において設定されたアートフィルタが、周辺ぼかし処理を必要としているか否かを判定する。本実施形態においては、図8に示すように、ジオラマが設定されている場合には、周辺ぼかし処理を行うと判定される。
 ステップS121における判定の結果、周辺ぼかしであった場合には、次に、周辺ぼかし処理を行う(S123)。ここでは、特殊画像処理部109bが画像データに対して周辺ぼかし処理を施す。周辺ぼかし処理は、中心からの距離に応じ、周辺部ほどボケる度合いが大きくなるように、画像の位置に応じてローパス係数を変更しながら、ローパスフィルタ処理を行う。この場合、上下だけ、左右だけぼかすようにしてもよい。
 周辺ぼかし処理を行うと、またはステップS121における判定の結果、周辺ぼかしでなかった場合には、特殊画像処理を終了し、元のフローに戻る。
 このように特殊画像処理のフローにおいては、設定されたアートフィルタ(特殊効果)に応じて必要となる種々の特殊画像処理を施す。ここでの特殊画像処理としては、特殊画像処理としては、ソフトフォーカス等のように、画像データの所定位置に対応した画像データの位置を基にして行うものがある。また、シェーディングや周辺輝度アップ等のように、画像データの座標位置により異なる画像処理や、またはクロスフィルタやラフモノクローム処理等のように、隣接する画素とは異なる処理が施された画像データを合成するものがある。
 次に、ステップS55(図3)における画像処理・3D生成について、図6に示すフローチャートを用いて説明する。このフローは、前述したように、メニュー画面において、3D撮影モードおよび特殊効果が設定されている場合に、メカシャッタによって2枚目の撮影が終了した後に実行される。
 画像処理・3D生成のフローに入ると、まず、画像処理部109によって画像処理を行う(S131)。ステップS29およびS53において、それぞれメカシャッタによって撮影を行い、2枚のRAW画像データを取得しているので、このステップでは、それぞれのRAW画像データについて、画像処理のフローを実行する。この画像処理のフローは、図4に示した画像処理のフローにおけるステップS71~S83であり、ステップS85以下は、ここでは省略し、実行しない。
 ステップS131における画像処理のフローを実行するにあたって、メニュー画面において特殊効果(アートフィルタ)が設定されている場合には、特殊効果に応じた画像処理パラメータを用いて画像処理を行っている(ステップS79(図4参照)におけるガンマ変換および色補正を参照)。このため、輝度および色差成分ともに階調の急激な変化によって疑似輪郭が発生することがなく、画質劣化が生じない。
 画像処理を行うと、次に、3D用切り出し位置の決定と補正処理の決定を行う(S133)。ここでは、3D画像生成部115が、画像処理を行った2枚の画像データから3D画像を生成するために、切り出し位置を特定し、画像の補正処理を決定する。すなわち、画像の特徴量(例えば、エッジ成分、色成分、輝度成分等)を検出し、2枚の画像から立体的に見える画像を生成するための切り出し位置を特定する。また撮影画角の微妙な変化や回転などを補正する処理を決定する。
 続いて、3D画像の生成を行う(S135)。ここでは、ステップS131において画像処理され、ステップS133において切り出し位置が決定され補正処理が決定された2枚の画像データを用いて、3D画像生成部115が3D画像を生成する。メニュー画面で特殊効果(アートフィルタ)が設定されていた場合には、設定に応じた色やコントラスト(ガンマ)に処理された画像で3D画像が生成される。
 3D画像の生成を行うと、次に、特殊画像処理を行うか否かの判定を行う(S137)。特殊効果(アートフィルタ)が設定されていた場合に、設定に応じた彩度やガンマについては、ステップS131において画像処理がなされている。しかし、撮影時に光学フィルタやレンズを用いて光学的に形成されたような効果であるクロスフィルタ処理、ソフトフォーカス処理、ノイズ付加処理、シェーディング処理、周辺輝度アップ処理、周辺ぼかし処理、フィルム独特の粒状感を再現するようなノイズ付加処理、現像焼き付け工程で行うようなソフトフォーカス処理などの特殊画像処理については、行われていない。そこで、このステップでは、これらの特殊画像処理が必要か否かの判定を行う。なお、特殊効果(アートフィルタ)が設定されている場合であっても、ポップアート、ナチュラル(不図示)、ビビット(不図示)の場合には、彩度やガンマを変更するだけであるので、さらなる特殊画像処理は必要ない。
 ステップS137における判定の結果、特殊画像処理が必要な場合には、特殊画像処理を実行する(S139)。ここでは、図5に示した特殊画像処理のフローに従って、特殊画像処理部109bが画像処理を行う。なお、特殊画像処理の内、シェーディング、周辺輝度アップ、および周辺ぼかしについては、画像処理の中心点からの距離に応じて変化させている。3D画像の場合の画像処理の中心点について、図10を用いて後述する。
 特殊画像処理を行うと、またはステップS137における判定の結果、特殊画像処理が必要でない場合には、画像処理・3D生成のフローを終了し、元のフローに戻る。
 図10は、3D撮影モードが設定された場合において、第1の位置で撮影された左目用画像401と、第2の位置で撮影された右目用画像403を示しており、被写体として人物411と山413が写っている。山413は遠方にあるため、左目用画像401と右目用画像403では略同じ位置に写っているが、人物411は近距離に位置しているため、両画像において写っている位置が異なっている。すなわち、図10に示す例では、左目用画像401では中心より右側に距離aだけ離れて人物411が位置し、また右目用画像403では中心より左側に距離bだけ離れて人物411が位置し、人物411の位置が異なっている。3D画像処理の中心点は、3D画像を生成した際に違和感が生じない主被写体の位置を選択する。例えば、近距離側の被写体や、顔検出部によって検出された顔位置やペットの位置等を選択すればよい。
 左右画像のそれぞれの画像処理中心を決めるには、まず、いずれか一方を基準画像として決める。今、左目用画像401を基準画像として決めると、左目用画像401の画像処理中心点421aに対応する右目用画像403上の位置は、画像処理中心点421bとなる。したがって、画像処理中心点421aと421bは、それぞれ同一被写体の同一位置に対応する。但し、この位置は多少ずれても3D画像として画像処理後に違和感がない範囲であればよい。
 このように、本実施形態においては、基準とする画像の所定位置を画像中心点として決め、他方の画像でこれに対応する位置も画像中心点と決める。この画像中心点421a、421bを中心としてシェーディング処理等、中心位置からの距離に応じて変化する特殊効果を施すようにしている。このため、右目画像と左目画像に対して違和感のない画像となる。
 次に、本実施形態において3D撮影モードを設定した際の画像データの流れと処理の関係について図7を用いて説明する。3D撮影モードが設定されている際には、第1の位置で左目用のRAWデータが取得される(#201L、図2のS29)。この左目用のRAWデータはガンマおよび彩度等の基本的な画像処理がなされ(203L、図6のS131)、仕上がりに応じた左目用の画像を得る(#205L)。一方、第2の位置で右目用のRAWデータが取得され(#201R、図3のS53)、ガンマおよび彩度等の基本的な画像処理がなされ(203R、図6のS131)、仕上がりに応じた右目用の画像を得る(#205R)。
 左目用と右目用の仕上がりに応じた画像を取得すると、3D用切り出し位置と補正処理の決定がなされ(#211、図6のS133)、3D画像が生成され(#221、図6のS135)、右目用および左目用の画像に対してそれぞれ特殊画像処理がなされ(#223、図6のS139)、3Dアート画像が生成される(#225)。
 このように、第1実施形態においては、RAWデータに対してガンマ処理(階調処理)および彩度処理(色補正処理)を施し(#203L、#203R)、この画像処理された画像データを用いて3D画像を生成するための切り出し位置、または画像回転や台形補正等の幾何学変換による補正処理を行って3D画像を生成する(#211、#221)。この3D画像のための画像処理がなされた画像データに対して、光学的に形成される画像に類似した3D画像のための画像処理がなされた画像データに対して、写真フィルム及び現像焼き付け工程で形成される画像に類似した特殊効果の処理を施すようにしている(#223)。このため、3D画像とアート(特殊効果)画像を共に高品質で再生できる3Dアート画像を生成することができる。
 なお、本実施形態においては、基本的な画像処理において(#203L、#203R、S131)において、ガンマ処理(階調処理)および彩度処理(色補正処理)の両方を行っていたが、ここでは階調処理のみを行うようにしてもよい。また、左目用と右目用の仕上がりに応じた画像が生成された後に、3D用切り出し位置および補正処理を決定していたが(#211、S133)、いずれか一方だけでもよい。
 次に、本発明の第2実施形態について、図11および図12を用いて説明する。第1実施形態においては、第1および第2の位置で撮影した2枚のRAWデータから画像処理・3D生成を行う際のステップS131における画像処理において、設定された特殊効果(アートフィルタ)に応じたガンマ処理および彩度処理を行い、この処理された画像データを用いて3D画像の生成を行っていた。これに対して、第2実施形態においては、第1および第2の位置で撮影した2枚のRAWデータから画像処理・3D生成を行う際には、仕上がり画像がNaturalに対応するガンマ処理および彩度処理を行い、この画像を用いて3D画像の切り出し位置と補正処理を決定する。そして別途、RAWデータに仕上がり画像に応じたガンマ処理及び彩度処理を行った画像に対して、3D画像の切り出しと補正処理を行って3D画像を生成して特殊効果を適用するようにしている。
 第2実施形態における構成は図1に示した第1実施形態と同様であり、また動作も図2ないし図5に示したフローと同様であり、図6に示した画像処理・3D生成のフローを図11に示すフローに変更するだけである。そこで、図11に示す画像処理・3D生成のフローについて説明する。なお、図6と同一の処理を行うステップについては同一のステップ番号を付し、詳しい説明を省略する。なお、図11に示すフローチャートも、フラッシュメモリ125に記憶されているプログラムに従ってマイクロコンピュータ121が実行する。
 図11の画像処理・3D生成のフローに入ると、まず、画像処理を行う(S132)。ここでは、基本画像処理部109aが、ステップS29およびS53において取得した2枚のRAWデータに対して、それぞれ図4に示した画像処理のフローの内、ステップS71~S83を実行する。このフロー中、ステップS79のガンマ変換・色補正においては、仕上がり画像をNaturalに設定して画像処理を行う。なお、標準の仕上がりに近い特殊効果であれば、Natural以外の処理でもよい。
 ステップS132において画像処理を実行すると、次に、3D用切り出し位置と補正処理を決定する(S133)。ここでは、第1実施形態の場合と同様、3D画像生成部115が、ステップS132において画像処理された2枚の画像を用いて、画像の特徴量(例えば、エッジ成分、色成分、輝度成分)を検出し、2枚の画像から立体的に見える画像を生成するための切り出し位置の特定と、撮影画角の微妙な変化や回転などを補正する処理を決定する。
 続いて、画像処理を実行する(S134)。ここでは、ステップS132において処理された画像ではなく、ステップS29およびS53において取得した2枚のRAWデータに対して、それぞれ図4に示した画像処理のフローの内、ステップS71~S83を実行する。このフロー中、ステップS79のガンマ変換・色補正においては、メニュー画面で設定された仕上がり画像に応じたガンマや彩度等のパラメータを設定して画像処理を行う。
 ステップS134において画像処理を行うと、3D画像生成を行う(S136)。ここでは、ステップS133において決定された3D用切り出し位置と補正処理に基づいて、ステップS134において画像処理された左右2枚の画像を用いて3D画像を生成する。
 3D画像を生成すると、次に、第1実施形態と同様に、特殊画像処理が必要か否かを判定し(S137)、この判定の結果、特殊画像処理が必要であれば特殊画像処理を行い(S139)、元のフローに戻る。
 本実施形態における画像データの流れと、画像処理の関係について、図12を用いて説明する。3D撮影モードが設定されている際には、第1の位置で左目用のRAWデータが取得される(#201L、図2のS29)。この左目用のRAWデータは仕上がりとしてナチュラルとなるようにガンマおよび彩度等のパラメータが設定されて画像処理がなされ(#204L、図11のS132)、ナチュラル設定の仕上がりに応じた左目用の画像を得る(#207L)。一方、第2の位置で右目用のRAWデータが取得され(#201R、図3のS53)、仕上がりとしてナチュラルとなるようにガンマおよび彩度等のパラメータが設定され画像処理がなされ(204R、図11のS132)、ナチュラル設定の仕上がりに応じた右目用の画像を得る(#207R)。
 左目用と右目用のナチュラル設定の仕上がりに応じた画像を取得すると、3D用切り出し位置と補正処理の決定がなされる(#211、図11のS133)。一方、左目用のRAWデータを用いて、設定された特殊効果(アートフィルタ)に応じた仕上がりとなるように画像処理がなされ(#213L、図11のS134)、仕上がりに応じた左目用の画像を得る(#215L)。また右目用のRAWデータを用いて、設定された特殊効果(アートフィルタ)に応じた仕上がりとなるように画像処理がなされ(#213R、図11のS134)、仕上がりに応じた右目用の画像を得る(#215R)。
 仕上がりに応じた左右用の画像(#215L、#215R)に対して、決定された3D切り出し位置と補正処理(#211)を用いて3D画像を生成する(#221、図11のS136)。ここで生成された右目用および左目用の3D画像に対してそれぞれ特殊画像処理がなされ(#223、S139)、3Dアート画像が生成される(#225)。
 このように、第2実施形態においては、RAWデータに対してガンマ補正(階調処理)および彩度補正(色補正処理)はナチュラルのパラメータを用いて処理し(#204L、#204R)、この画像処理された画像データを用いて3D画像を生成するための切り出し位置、または幾何学変換等の補正処理を行うようにしている。また#204L、#204Rでの画像処理とは別に、左目用と右目用のRAWデータを用いて、設定された特殊効果(アートフィルタ)に応じたガンマ補正(階調処理)および彩度補正(色補正処理)のパラメータを用いて画像処理を行い(#213L、#213R)、仕上がりに応じた画像を得ている(#215L、#215R)。3D画像の生成にあたっては、#211において決定された3D切り出し位置と補正処理に従って、#215L、#215Rにおいて取得した画像から3D画像を生成している。本実施形態においては、3D画像生成のための切り出し位置や補正処理については、ナチュラル処理された画像に基づいて決定していることから、正確に切り出し位置や補正処理を決定することが可能となり、3D画像とアート(特殊効果)画像を共に高品質で再生できる3Dアート画像を生成することができる。
 また、第2実施形態においては、フラッシュメモリ125が、階調変換部として機能する基本画像処理部109aにおける画像処理内容を決定するガンマテーブル(第1の画像処理パラメータ)と、特殊効果に応じて階調変換部として機能する基本画像処理部109aにおける画像処理内容を決定する、第1の画像処理パラメータとは異なる特殊効果用の第2の画像処理パラメータを記憶する画像処理パラメータ記憶部として機能する。ここで第1の画像処理パラメータは、ナチュラル等、自然な感じの画像処理であり、第2の画像処理パラメータは、メニュー画面において設定された特殊効果(アートフィルタ)に対応した画像処理パラメータである。特殊効果(アートフィルタ)では、ナチュラルのパラメータと比較して、コントラストが強調されたり、コントラストが軟調になるような画像処理パラメータや、暗部(黒)が浮いたガンマや飽和部(白)が最大値にならないような画像処理パメータ等を用いる。そして、Natural基準で3D処理を予め行っておき、その後、アートフィルタで、通常(Natural)とは大きく異なるガンマを用いて特殊効果を施す。そして、第2実施形態においては、第1の画像処理パラメータを用いて階調処理部で画像処理された画像を用いて3D画像生成部115(立体画像データ処理部)で行う処理内容を決定し、階調変換部が第2の画像処理パラメータを用いて特殊効果による画像処理を行い、3D画像生成部115(立体画像データ処理部)で特殊効果による画像処理を行った画像に対して立体画像を生成するようにしている。
 なお、本実施形態においても、基本的な画像処理において(#213L、#213R、図11のS134)において、ガンマ補正(階調処理)および彩度補正(色補正処理)の両方を行っていたが、ここでは階調処理のみを行うようにしてもよい。また、左目用と右目用の仕上がりに応じた画像が生成された後に、3D用切り出し位置および補正処理を決定していたが(#211、S133)、いずれか一方だけでもよい。
 次に、本発明の第3実施形態について、図13ないし図16を用いて説明する。第1及び第2実施形態においては、撮影レンズ201は1つのみであり、視差のある画像を得るために、第1の位置で撮影した後に第2の位置にカメラを移動させて撮影を行っていた。これに対して、第3実施形態においては、撮影レンズを2つ備え、同時に視差のある2枚の画像を取得するようにしている点で相違する。
 第3実施形態における構成は、図1に示したブロック図において、撮影レンズ201を2つの撮影レンズ201a、201bに置き換え、また絞り203を2つの絞り203a、203bに置き換え、また撮像素子103を撮像素子104に置き換えているだけである。そこで、相違点のみ説明し、同一の部材については同一の符号を付して詳しい説明を省略する。
 右目用撮影レンズ201aと左目用撮影レンズ201bは、同一平面上に配置され(図13では作図上ずらした位置として描いている)、それぞれ右目用と左目用の被写体光束を同時に撮影できるように配置されている。右目用撮影レンズ201aの光軸上には右目用絞り203aが配置され、また左目撮影レンズ201bの光軸上には左目用絞り203bが配置され、それぞれ通過する被写体光束の光量を制御する。
 右目用撮影レンズ201aと左目用撮影レンズ201bの光軸上には、撮像素子104が配置されている。この撮像素子104に、すなわち1つの撮像素子に、左目用画像と右目用画像が結像する。
 また、操作部123内には、動画の撮影を開始させ、また終了させるための動画釦が配置されている。初期状態では動画未撮影状態であるので、この状態で動画釦を押すと動画の撮影を開始し、動画撮影中に動画釦を押すと、動画の撮影を終了する。従って、動画釦を押すたびに、動画の撮影開始と終了を交互に繰り返す。
 なお、第3実施形態においては、撮影レンズ201a、201bをそれぞれ別々に設けているが、レンズを1つだけ設け、撮像素子や遮光部材の活用により、左用と右用の被写体光束を分離するようにしてもよい。また、撮影レンズは交換式ではなく固定式としてもよい。また、1つの撮像素子104で左用と右用の画像を受光するようにしたが、2つの撮像素子を配置し、別々に画像信号を取得するようにしてもよい。
 次に、第3実施形態の動作について図14ないし図16に示すフローチャートを用いて説明する。これらのフローチャートは、第1及び第2実施形態と同様、フラッシュメモリ125に記憶されているプログラムに従ってマイクロコンピュータ121が実行する。
 図14および図15は、本実施形態におけるメインフローである。このメインフローにおいて、第1実施形態における図2および図3に示すフローと同一の処理を行うステップについては、同一のステップ番号を付し、詳しい説明を省略する。第1実施形態と比較し、本実施形態においては、レリーズ釦が全押しされ、セカンドレリーズスイッチがオンになると、同時に2枚の画像が取得され(S27、S30)、3D撮影モードが設定されている場合には、撮影終了後、直ちに画像処理・3D生成がなされる(S31、S37)点で相違する。また、動画釦が操作されると動画の記録がなされ(S11~S17)、3D撮影モードが設定されている場合には、動画撮影中に3D画像と特殊効果が施されて動画記録がなされる(S65~S69)。
 メインフローがスタートすると、初期化(S1)を行う。ここでは、機械的およびフラグの初期化等の電気的初期化を行う。ここで、各種フラグ等の初期化として、記録中フラグの初期化を行う。この記録中フラグは、動画の記録中であるか否かを示すフラグであり、オンの場合には動画を記録中であることを示し、オフの場合には動画の記録を行っていないことを示す。
 初期化を行うと、次に、再生釦が押されたか否かの判定を行い(S3)、押されていた場合には、再生処理を行い(S5)、ステップS3に戻る。再生処理の際に、一覧表から選択した画像が動画の場合には、時系列的に先頭フレームから順次動画再生を行う。また選択された画像が静止画の場合には、確定した静止画を表示する。
 ステップS3における判定の結果、再生釦が押されていなかった場合には、メニュー釦が押されたか否かの判定を行う(S7)。この判定の結果、メニュー釦が押されていた場合には、カメラ設定を行い(S9)、ステップS3に戻る。カメラ設定では第1実施形態と同様、種々の設定ができ、3D撮影モードや特殊効果(アートフィルタ)もここで行う。
 ステップS7における判定の結果、メニュー釦が押されていなかった場合には、次に、動画釦が押されたか否かを判定する(S11)。このステップでは、操作部123において、動画釦の操作状態を検知し、この検知結果に基づいて判定する。
 ステップS11における判定の結果、動画釦が押された場合には、次に、記録中フラグの反転を行う(S13)。前述したように、動画釦は押されるたびに、動画撮影開始と終了を交互に繰り返すので、このステップでは、記録中フラグがオフであった場合にはオンに、またオンであった場合にはオフに、記録中フラグを反転させる。
 ステップS13において記録中フラグの反転を行うと、次に、動画の記録中か否かの判定を行う(S15)。記録中フラグが動画の記録状態を示しているので、このステップでは、記録中フラグがオンであるか否かの判定を行う。この判定の結果、動画記録中の場合には、動画ファイルの生成を行う(S17)。ここでは、MPEG等の動画ファイルを生成する。なお、動画ファイルの記録は後述するステップS69において行う。
 ステップS17において動画ファイルの生成を行うと、またはステップS15における判定の結果、動画記録中でなかった場合には、またはステップS11における判定の結果、動画釦が押されていなかった場合には、次に、ステップS15と同様に、動画記録中であるか否かの判定を行う(S19)。
 ステップS19における判定の結果、動画記録中でなかった場合には、次に、第1実施形態と同様に、レリーズ釦が半押しされ、ファーストレリーズスイッチがオフからオンに遷移したか否かを判定する(S21)。この判定の結果、レリーズ釦のファーストレリーズスイッチがオフからオンに遷移した場合には、AE動作およびAF動作を実行する(S23)。ここでは、絞りおよびシャッタ速度等の露出制御値の演算および撮影レンズ201a、201bのピント合わせを行う。したがって、動画記録中ではない場合に、すなわち静止画撮影モード時に、レリーズ釦が半押しされると、その時点で、露出制御値の演算および撮影レンズ201のピント合わせを行う。
 ステップS21における判定の結果、レリーズ釦のファーストレリーズスイッチがオフからオンに遷移しなかった場合には、次に、第1実施形態と同様に、レリーズ釦が全押しされ、セカンドレリーズスイッチがオンになったか否かの判定を行う(S27)。この判定の結果、セカンドレリーズがなされた場合には、メカシャッタによる撮影を行う(S30)。第1実施形態においては、3D撮影モードが設定されている場合であっても1枚の画像しか取得できなかったが、本実施形態においては、撮像素子104から右目用の画像と左目用の2枚の画像を同時に取得することができる。なお、3D撮影モードが設定されていない場合には、1枚の画像を取得する。
 メカシャッタによる撮影を行うと、次に、第1実施形態と同様に、3D撮影モードか否かを判定し(S31)、この判定の結果、3D撮影モードでなければ、ステップS30において取得した1枚の画像について画像処理を行い(S33)、静止画記録を行う(S35)。
 ステップS31における判定の結果、3D撮影モードであった場合には、画像処理・3D生成を行う(S37)。前述したように、ステップS30において視差のある2枚の画像を取得することから、このステップでは、2枚の画像を画像処理し、3D画像を生成する。この画像処理・3D生成の詳しい動作については、図16を用いて後述する。3D画像を生成すると、記録媒体131に3D画像の記録を行う(S39)。
 ステップS27における判定の結果、セカンドレリーズスイッチがオンとなっていなかった場合、またはステップS19における判定の結果、動画記録中であった場合には、次に、第1実施形態と同様に、AE動作を行う(S61)。このステップS61以下を実行する場合は、静止画撮影モードでレリーズ釦が何ら操作されておらず単にライブビュー表示がなされている場合か、または動画記録中の場合である。
 ステップS61において、AE動作を行うと、次に、第1実施形態と同様に電子シャッタによる撮影を行い(S63)、画像処理を行う(S65)。ここでは、ライブビュー表示もしくは動画撮影のためにAE動作を行って適正露出を得ると共に、画像処理を行う。この画像処理では、図4に示したフローを実行するので、基本的な画像処理を行うと共に、3D撮影モードが設定されていなければ特殊効果(アートフィルタ)の画像処理も実行する。
 画像処理を行うと、第1実施形態と同様に、ライブビュー表示を行う(S67)。ステップS65において画像処理された画像データを用いて、LCD135にライブビュー表示を行う。撮影者はライブビュー表示を観察することにより構図を決め、また静止画撮影中ならシャッタタイミングを、また動画撮影中なら撮影終了のタイミングを決定することができる。
 ライブビュー表示を行うと、次に、ステップS15、S19と同様に、動画記録中か否かの判定を行う(S68)。動画記録中であるか否かは記録中フラグに基づいて判定する。この判定の結果、動画記録中の場合には、動画記録を行う(S69)。ここでは、ステップS65において画像処理された画像データを画像圧縮展開部117によって圧縮し、記録媒体131に記録する。
 ステップS69において動画記録を行うと、またはステップS68における判定の結果、動画記録中でなかった場合、またはステップS39において3D画像記録を行うと、またはステップS35において静止画記録を行うと、またはステップS23においてAE・AFを行うと、次に、電源オフか否かの判定を行う(S25)。このステップでは、操作部123の電源釦が再度、押されたか否かを判定する。この判定の結果、電源オフではなかった場合には、ステップS3に戻る。一方、判定の結果、電源オフであった場合には、メインのフローの終了動作を行ったのち、メインフローを終了する。
 次に、ステップS37における画像処理・3D生成の詳しい動作について、図16を用いて説明する。画像処理・3D生成のフローに入ると、まず、画像処理を行う(S131a)。ステップS30におけるメカシャッタ撮影によって、右目部分および左目部分が写っている1枚のRAW画像データを取得しているので、このステップでは、RAW画像データのそれぞれの部分について、画像処理のフローを実行する。このフローでは、第1実施形態の場合と同様、特殊効果(アートフィルタ)が設定されている場合には、設定された特殊効果に応じたガンマ補正(階調補正)や彩度補正(色補正)を行う。この画像処理のフローは、図4に示した画像処理のフローにおいてステップS71~S83であり、ステップS85以下は、ここでは省略し、実行しない。なお、右目用と左目用で異なる撮像素子が配置されている場合には、2枚のRAWデータについてそれぞれ画像処理を行う。
 ステップS131aにおいて画像処理を行うと、3D用切り出し位置と補正処理を決定する(S133a)。第1実施形態においては、右目用画像と左目用画像を別々に撮影していたので、また撮影画角の微妙な変化や回転などを補正する処理を決定していた。第3実施形態においては、2つの画像を同一の撮像素子で受光していることから、第1実施形態のような補正は必要ないが、製造する段階で生じる誤差等があることから、この誤差を補正するようにしている。すなわち、上述の誤差を吸収するための画角の補正情報を交換式レンズ200内のフラッシュメモリ209に保持しておき、レンズとの通信によって取得し、切り出し位置の補正や画角補正方法を決定する。なお、撮像素子が複数ある場合には、撮像素子の位置ズレも考慮するようにしてもよい。
 次に、3D画像生成を行う(S135)。ここでは、3D画像生成部115が、ステップS131aにおいて画像処理され、ステップS133aにおいて3D用切り出し位置と補正処理の決定を用いて、3D画像を生成する。
 3D画像を生成すると、次に、特殊画像処理を行うか否かを判定する(S137)。ここでは、特殊効果(アートフィルタ)が設定されている場合に、第1実施形態と同様に、追加の特殊画像処理が必要か否かを判定する。この判定の結果、特殊画像処理が必要な場合には、第1実施形態と同様に、その特殊画像処理を実行する(S139)。特殊画像処理を行うと、またはステップS137における判定の結果、特殊画像処理が必要でなかった場合には、画像処理・3D生成のフローを終了し、元のフローに戻る。
 このように、本発明の第3実施形態においては、右目用の画像と左目用の画像を同時に取得し、この取得した画像について、ガンマ補正(階調補正)や彩度補正(色補正)等の画像処理を行った後、3D用切り出し位置と補正処理を決定している。ここで決定された切り出し位置と補正処理に従って、3D画像を生成し、3D画像生成後、必要な特殊画像処理を行うようにしている。このため、3次元画像を生成する過程で行われる画像の切り出しや回転・台形補正等を行う際に、画像が著しく変化することがなく、3次元画像を違和感なく生成することができる。
 次に、本発明の第1ないし第3実施形態に係わるカメラが適用可能なマルチレコーディングについて、図17を用いて説明する。図17は、風景+人物を撮影した全体画像431を示しており、全体画像431は、山435や人物437を含んでいる。カメラは全体画像431と共に、人物437を含む主要な被写体の部分画像433を全体画像431とは別に記録媒体131に記録する。このような1回の撮影から得られる複数の画像を別々に記録する方式をマルチレコーディングという。
 マルチレコーディングを行う場合には、全体画像431と部分画像433のように複数の画像を記録することができる(図17の例では2枚の画像を記録)。マルチレコーディングを行う際に、3D撮影モードを設定してもよく、この場合(図17の例)には3D画像を生成するために右目用全体画像、左目用全体画像、右目用部分画像、左目用部分画像を記録媒体131に記録する。3D撮影モードと共に特殊効果(アートフィルタ)が設定されている場合には、本発明の第1ないし第3実施形態において説明したような手順により、特殊効果を施した3D画像を生成することができる。
 例えば、第2実施形態における特殊効果を施した3D画像生成を利用すると、通常の二次元画像、3D画像、および特殊効果を施した3D画像を生成する。すなわち、図12において、#204Lおよび#204Rから通常の2次元画像を取得することができる。また、#207Lおよび#207Rを#215Lおよび#215Rに置き換えて3D画像を生成することにより特殊効果を施さない3D画像を生成することができる。
 #223において特殊画像処理を行う場合には、図10を用いて説明したように、左目用画像と右目用画像で被写体の略同一の場所を画像処理中心として、特殊画像処理を行う。マルチレコーディングを行う場合には、全体画像431と部分画像433で、それぞれの画像に相応しい画像処理中心を決めて画像処理を行うとよい。
 特殊効果を施した3D画像を生成する際に、3D用切り出し位置や補正処理の決定にあたって使用する画像は、基本画像処理部109aによって階調変換等を行うことにより、回転・台形補正によって変化することなく、また視覚的な効果に非常に影響するコントラストや彩度を変換する際のビット精度不足による階調トビを防止することができ、違和感のない立体画像を生成することができる。
 このように、マルチレコーディング可能なカメラにおいては、階調変換(ガンマ補正)を行う基本画像処理部109aは、特殊効果を施した3D画像以外の画像データを共に生成する場合は、階調変換の他にRAWデータを立体視特殊画像効果以外の生成画像に対応した階調に変換する処理を行うようにしている。このため、マルチレコーディングやライブビューの切換えの際に、通常の2次元画像、3D画像のみ、特殊効果を施した3D画像を共に生成することが可能となる。なお、この3種類の画像の全てを生成せずに、このうちの2種類の画像を生成するようにしてもよい。
 次に、本発明の第1ないし第3実施形態に係わるカメラが適用可能なデュアルエンジンについて、図18を用いて説明する。図1および図13に示すブロック図においては、画像処理部109は、1つしか設けておらず、右目用の画像データおよび左目用の画像データを順次、時系列で処理していた。画像処理部109の基本画像処理部109aおよび特殊画像処理部109bをそれぞれ2つ設け、すなわちデュアルエンジンとすると、右目用の画像データと左目用の画像データを同時に処理することが可能となる。
 図18は、第1実施形態における図7に対応し、画像処理部109をデュアルエンジンにした場合の画像データと処理の流れを示す図である。図18において、左目用画像について、#201L、#203L、#205L、#223Lを、画像処理部109の一方の処理部によって処理し、右目用画像について、#201R、#203R、#205R、#223Rを、画像処理部109の他方の処理部によって処理する。また、#211および#221は、3D画像生成部115によって処理する。
 このように、画像処理部109をデュアルエンジンとすることにより、右目用画像データと左目用画像データを並列に画像処理することが可能となる。このため、画像処理のための時間を短縮することができる。特に、上述の第3実施形態と組み合わせると、左右の画像を同時に撮像可能であることから、特殊効果を施した3Dアート動画を容易に実現することができる。
 以上説明したように、本発明の各実施形態やその応用例においては、RAWデータに対して特殊効果(ナチュラル等の自然の感じの処理を含む)に対応した階調に変換した画像データを用いて、立体視する画像データとして切り出すか、または幾何学変換の少なくとも1つの処理を行ってから立体画像データを生成し、この生成された立体画像データに対して特殊効果を施すようにしている。このため、特殊効果を施した立体画像が違和感なく自然に見ることができ、かつ処理時間や必要なメモリを増大させることがなく生成することができる。
 なお、本発明の各実施形態においては、3D撮影モードや特殊効果(アートフィルタ)をメニュー画面において設定するようにしていたが、この設定はメニュー画面等の設定画面に限らず、例えば、専用釦を設け、この専用釦を操作によって設定するようにしてもよい。また、3D画像生成用に2枚の画像を使用したが、3枚以上であっても勿論かまわない。
 また、本実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話や携帯情報端末(PDA:Personal Digital Assist)、ゲーム機器等に内蔵されるカメラでも構わない。いずれにしても、視差のある複数の画像に対して特殊効果を付与して立体画像を生成するための画像処理のための機器であれば、本発明を適用することができる。
 本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
100 カメラ本体
101 メカシャッタ
103 撮像素子
104 撮像素子
105 アナログ処理部
107 A/D変換部
109 画像処理部
109a 基本画像処理部
109b 特殊画像処理部
110 バス
111 AE処理部
113 AF処理部
115 3D画像生成部
117 画像圧縮展開部
121 マイクロコンピュータ
123 操作部
125 フラッシュメモリ
127 SDRAM
129 メモリI/F
131 記録媒体
133 LCDドライバ
135 LCD
200 交換式レンズ
201 撮影レンズ
201a 右目用撮影レンズ
201b 左目用撮影レンズ
203 絞り
203a 右目用絞り
203b 左目用絞り
205 ドライバ
207 マイクロコンピュータ
209 フラッシュメモリ
300 I/F
401 左目用画像
403 右目用画像
411 人物
413 山
421a 画像処理中心
421b 画像処理中心
431 全体画像
433 部分画像
435 山
437 人物

Claims (11)

  1.  撮影して得られたRAWデータに画像処理を施すことにより、視覚的に特殊効果を施し、且つ立体視が可能な画像データを生成する画像処理装置において、
     上記RAWデータを上記特殊効果に対応して階調に変換する階調変換部と、
     上記階調変換部によって階調変換された画像データを、立体視する画像データとして切り出すか、または幾何学変換のいずれかの処理を少なくとも行い、立体画像データを生成する立体画像データ処理部と、
     上記立体画像データ処理部で生成された上記立体画像データに対して、光学的に形成される画像類似した特殊効果または写真フィルム及び現像焼き付け工程で形成された画像に類似した特殊効果を施す特殊画像処理を行い、立体特殊画像を生成する特殊効果画像処理部と、
     を具備することを特徴とする立体画像処理装置。
  2.  上記特殊効果画像処理部は、上記立体画像データを生成する複数の画像データのうち、基準とする画像データの所定位置に対応した画像データの位置を基に各画像データに対して上記特殊画像処理を行うことを特徴とする請求項1に記載の立体画像処理装置。
  3.  上記特殊効果画像処理部は、画像データにおける座標位置により異なる画像処理を行う、または隣接する画素とは異なる処理が行われた画像データを合成することを特徴とする請求項1に記載の立体画像処理装置。
  4.  上記階調変換部における画像処理内容を決定する第1の画像処理パラメータと、上記階調変換部における画像処理内容を決定する、上記第1の画像処理パラメータとは異なる特殊画像処理のための第2の画像処理パラメータとを記憶する画像処理パラメータ記憶部を更に具備し、
     上記第1の画像処理パラメータを用いて上記階調処理部で画像処理された画像を用いて上記立体画像データ処理部で行う処理内容を決定し、
     上記第2の画像処理パラメータを用いて上記特殊効果による画像処理を行い、
     上記立体画像データ処理部で上記特殊効果による画像処理を行った画像に対して立体画像を生成する、
     ことを特徴とする請求項1に記載の立体画像処理装置。
  5.  上記RAWデータは、2つ以上であることを特徴とする請求項1に記載の立体画像処理装置。
  6.  上記階調変換部は、上記立体視特殊画像以外の画像データを共に生成する場合は、上記階調変換の他に上記RAWデータを上記立体視特殊画像効果以外の生成画像に対応した階調に変換する処理を行うことを特徴とする請求項1に記載の立体画像処理装置。
  7.  上記特殊効果画像処理部によって処理された立体画像データを記憶する記憶部を更に有し、この記憶部は、上記立体画像データを生成する際に行った処理を特定するためのデータを記憶することを特徴とする請求項1に記載の立体画像処理装置。
  8.  さらに、複数の画像データを記憶するマルチレコーディング部を有し、通常の二次元画像、3D画像、および特殊効果を施した3D画像の内の少なくとも2以上の画像データを記憶することを特徴とする請求項1に記載の立体画像処理装置。
  9.  撮影して得たRAWデータに画像処理を施すことにより、視覚的な特殊効果を表し、且つ立体視が可能な画像データを生成する画像処理方法において、
     上記RAWデータを上記特殊効果に対応した階調に変換し、
     上記階調変換された画像データを、立体視する画像データとして切り出すか、または幾何学変換の何れかの処理を少なくとも行い、立体画像データを生成し、
     上記立体画像データに対して、光学的に形成される画像類似した特殊効果または写真フィルム及び現像焼付工程で形成された画像に類似した特殊効果を施す特殊画像処理し、立体特殊画像を生成する、
     ことを特徴とする立体画像処理方法。
  10.  上記RAWデータの上記特殊効果に対応した画像処理に先だって、エッジ強調処理を実行した後に、ノイズリダクション処理を行うことを特徴とする請求項9に記載の立体画像処理方法。
  11.  撮影して得たRAWデータに画像処理を施すことにより、視覚的な特殊効果を表し、且つ立体視が可能な画像データを生成することをコンピュータに実行させるための立体画像処理プログラムを記録した記憶媒体であって、
     上記RAWデータを上記特殊効果に対応した階調に変換し、
     上記階調変換された画像データを、立体視する画像データとして切り出すか、または幾何学変換の何れかの処理を少なくとも行い、立体画像データを生成し、
     上記立体画像データに対して、光学的に形成される画像類似した特殊効果または写真フィルム及び現像焼付工程で形成された画像に類似した特殊効果を施す特殊画像処理し、立体特殊画像を生成する、
     立体画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2012/060837 2011-05-03 2012-04-23 立体画像処理装置および立体画像処理方法 WO2012150680A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201280009669.6A CN103385005B (zh) 2011-05-03 2012-04-23 立体图像处理装置以及立体图像处理方法
JP2013513075A JP5444505B2 (ja) 2011-05-03 2012-04-23 立体画像処理装置および立体画像処理方法
US13/790,887 US9317900B2 (en) 2011-05-03 2013-03-08 Three-dimensional image processing device, and three-dimensional image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011103331 2011-05-03
JP2011-103331 2011-05-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/790,887 Continuation US9317900B2 (en) 2011-05-03 2013-03-08 Three-dimensional image processing device, and three-dimensional image processing method

Publications (1)

Publication Number Publication Date
WO2012150680A1 true WO2012150680A1 (ja) 2012-11-08

Family

ID=47107869

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/060837 WO2012150680A1 (ja) 2011-05-03 2012-04-23 立体画像処理装置および立体画像処理方法

Country Status (4)

Country Link
US (1) US9317900B2 (ja)
JP (1) JP5444505B2 (ja)
CN (1) CN103385005B (ja)
WO (1) WO2012150680A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018133746A (ja) * 2017-02-16 2018-08-23 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014024500A1 (ja) * 2012-08-10 2014-02-13 株式会社ニコン 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
CN104811684B (zh) * 2015-04-02 2017-06-16 广东欧珀移动通信有限公司 一种图像的三维美颜方法及装置
CN105025228A (zh) * 2015-07-22 2015-11-04 深圳市万姓宗祠网络科技股份有限公司 一种根据画面状态连续记录视频、影像的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2951291B2 (ja) * 1997-06-17 1999-09-20 三洋電機株式会社 2次元映像を3次元映像に変換する装置および方法
JP2005159755A (ja) * 2003-11-26 2005-06-16 Fuji Photo Film Co Ltd 画像処理装置及び画像処理プログラム
JP2010062836A (ja) * 2008-09-03 2010-03-18 Olympus Imaging Corp 画像処理装置、画像処理方法、および、画像処理プログラム
JP2010074244A (ja) * 2008-09-16 2010-04-02 Olympus Imaging Corp 撮像装置、画像処理方法、および、画像処理プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100445619B1 (ko) 1996-07-18 2004-08-25 산요덴키가부시키가이샤 2차원 영상을 3차원 영상으로 변환하는 장치 및 방법
US7010158B2 (en) * 2001-11-13 2006-03-07 Eastman Kodak Company Method and apparatus for three-dimensional scene modeling and reconstruction
JP2004356772A (ja) * 2003-05-27 2004-12-16 Sanyo Electric Co Ltd 三次元立体画像表示装置およびコンピュータに三次元立体画像表示機能を付与するプログラム
JP4652727B2 (ja) * 2004-06-14 2011-03-16 キヤノン株式会社 立体画像生成システムおよびその制御方法
JP4847192B2 (ja) * 2006-04-14 2011-12-28 キヤノン株式会社 画像処理システム、画像処理装置、撮像装置、及びそれらの制御方法
US8538144B2 (en) 2006-11-21 2013-09-17 Thomson Licensing Methods and systems for color correction of 3D images
US8228366B2 (en) * 2006-12-15 2012-07-24 Thomson Licensing System and method for interactive visual effects compositing
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
JP4809294B2 (ja) * 2007-06-11 2011-11-09 富士フイルム株式会社 画像記録装置及び画像記録方法
JP4815470B2 (ja) * 2007-06-15 2011-11-16 富士フイルム株式会社 画像表示装置及び画像表示方法
JP4672764B2 (ja) * 2007-10-03 2011-04-20 富士フイルム株式会社 誤消去判断装置、方法及びプログラム
US8300086B2 (en) * 2007-12-20 2012-10-30 Nokia Corporation Image processing for supporting a stereoscopic presentation
US8208009B2 (en) * 2008-02-05 2012-06-26 Disney Enterprises, Inc. Stereoscopic image generation using retinal rivalry in scene transitions
US9094675B2 (en) * 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
CN102291537B (zh) 2008-09-03 2015-05-27 奥林巴斯映像株式会社 图像处理装置、摄像装置以及图像处理方法
JP5415170B2 (ja) * 2009-07-21 2014-02-12 富士フイルム株式会社 複眼撮像装置
JP5425554B2 (ja) * 2009-07-27 2014-02-26 富士フイルム株式会社 立体撮像装置及び立体撮像方法
US20110222757A1 (en) * 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2951291B2 (ja) * 1997-06-17 1999-09-20 三洋電機株式会社 2次元映像を3次元映像に変換する装置および方法
JP2005159755A (ja) * 2003-11-26 2005-06-16 Fuji Photo Film Co Ltd 画像処理装置及び画像処理プログラム
JP2010062836A (ja) * 2008-09-03 2010-03-18 Olympus Imaging Corp 画像処理装置、画像処理方法、および、画像処理プログラム
JP2010074244A (ja) * 2008-09-16 2010-04-02 Olympus Imaging Corp 撮像装置、画像処理方法、および、画像処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018133746A (ja) * 2017-02-16 2018-08-23 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム

Also Published As

Publication number Publication date
CN103385005B (zh) 2015-10-21
JP5444505B2 (ja) 2014-03-19
US9317900B2 (en) 2016-04-19
US20130230232A1 (en) 2013-09-05
JPWO2012150680A1 (ja) 2014-07-28
CN103385005A (zh) 2013-11-06

Similar Documents

Publication Publication Date Title
US8885026B2 (en) Imaging device and imaging method
JP5249149B2 (ja) 立体画像記録装置及び方法、立体画像出力装置及び方法、並びに立体画像記録出力システム
US9077976B2 (en) Single-eye stereoscopic image capturing device
JP6325885B2 (ja) 撮像装置、撮像方法、及びプログラム
US8823778B2 (en) Imaging device and imaging method
JP4787180B2 (ja) 撮影装置及び撮影方法
JP5474234B2 (ja) 単眼立体撮像装置及びその制御方法
JP4692850B2 (ja) 撮影装置
US9282316B2 (en) Stereoscopic imaging device and stereoscopic imaging method
JP2008294785A (ja) 画像処理装置、撮像装置、画像ファイル及び画像処理方法
JP2015231058A (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP4916378B2 (ja) 撮像装置、画像処理装置、画像ファイル及び階調補正方法
JP5444505B2 (ja) 立体画像処理装置および立体画像処理方法
JP2013090095A (ja) 撮像装置、撮像方法、およびプログラム
US20130188025A1 (en) Stereoscopic imaging device and stereoscopic imaging method
JP6280780B2 (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP5800541B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2012124650A (ja) 撮像装置および撮像方法
JP2005229280A (ja) 画像処理装置および方法並びにプログラム
JP5113269B2 (ja) 撮影装置
JP2012028871A (ja) 立体画像表示装置、立体画像撮影装置、立体画像表示方法及び立体画像表示プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12779737

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013513075

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12779737

Country of ref document: EP

Kind code of ref document: A1