WO2014064946A1 - 撮像装置、画像処理装置、撮像装置の制御プログラムおよび画像処理装置の制御プログラム - Google Patents

撮像装置、画像処理装置、撮像装置の制御プログラムおよび画像処理装置の制御プログラム Download PDF

Info

Publication number
WO2014064946A1
WO2014064946A1 PCT/JP2013/006360 JP2013006360W WO2014064946A1 WO 2014064946 A1 WO2014064946 A1 WO 2014064946A1 JP 2013006360 W JP2013006360 W JP 2013006360W WO 2014064946 A1 WO2014064946 A1 WO 2014064946A1
Authority
WO
WIPO (PCT)
Prior art keywords
parallax
image data
pixel value
adjustment
subject
Prior art date
Application number
PCT/JP2013/006360
Other languages
English (en)
French (fr)
Inventor
清茂 芝崎
浜島 宗樹
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to CN201380055906.7A priority Critical patent/CN104756493B/zh
Priority to JP2014543159A priority patent/JP6036840B2/ja
Publication of WO2014064946A1 publication Critical patent/WO2014064946A1/ja
Priority to US14/694,482 priority patent/US9693036B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present invention relates to an imaging device, an image processing device, a control program for the imaging device, and a control program for the image processing device.
  • Patent Literature JP-A-8-47001
  • Stereo image data that has been shot by a stereo imaging device may cause extreme parallax between the left and right images due to shooting conditions, subject placement in the scene, etc. I sometimes felt discomfort and fatigue.
  • the imaging device includes reference image data generated by imaging the same scene, first parallax image data having a first parallax in one direction with respect to a subject image of the reference image data, and An imaging unit that generates captured image data including second parallax image data having a second parallax in a direction opposite to one direction, an adjustment condition acquisition unit that acquires an adjustment condition related to parallax amount adjustment, and an adjustment condition Based on the reference image data, the first parallax image data, and the second parallax image data, the third parallax image data having a third parallax different from the first parallax in one direction and the second parallax image data in the other direction are processed.
  • An image processing unit that generates fourth parallax image data having a fourth parallax different from the parallax.
  • the imaging device includes reference image data generated by imaging the same scene, first parallax image data having a first parallax in one direction with respect to a subject image of the reference image data, and An imaging unit that generates captured image data including second parallax image data having a second parallax in another direction opposite to one direction, and adjusted parallax image data having a parallax different from the first parallax and the second parallax
  • An adjustment condition acquisition unit that acquires an adjustment condition related to parallax amount adjustment for generation, and an output unit that outputs the adjustment condition in association with captured image data.
  • the image processing apparatus includes reference image data, first parallax image data having a first parallax in one direction with respect to a subject image of the reference image data, and in another direction opposite to the one direction.
  • a capturing unit that captures captured image data including second parallax image data having a second parallax, and an adjustment condition related to parallax amount adjustment associated with the captured image data; a reference image data based on the adjustment condition;
  • third parallax image data having a third parallax different from the first parallax in one direction and a fourth parallax different from the second parallax in the other direction
  • an image processing unit that generates fourth parallax image data.
  • a control program for an imaging apparatus that generates a first parallax image having a first parallax in one direction with respect to a reference image data and a subject image of the reference image data generated by imaging the same scene.
  • a control program for an imaging apparatus which is generated by imaging the same scene, and includes a first parallax image having a first parallax in one direction with respect to a subject image of the reference image data and reference image data.
  • the computer is caused to execute an adjustment condition acquisition step for acquiring an adjustment condition related to parallax amount adjustment for generating image data, and an output step for outputting the adjustment condition in association with the captured image data.
  • the control program of the image processing apparatus includes a reference image data, first parallax image data having a first parallax in one direction with respect to a subject image of the reference image data, and opposite to the one direction.
  • the data, the first parallax image data, and the second parallax image data, third parallax image data having a third parallax different from the first parallax in one direction and different from the second parallax in the other direction Causing the computer to execute an image processing step of generating fourth parallax image data having four parallaxes.
  • An imaging device is based on a detection unit that detects a subject distribution in the depth direction with respect to a scene, a determination unit that determines a change condition regarding the amount of parallax based on the subject distribution, and a change condition And a control unit that executes imaging control for generating captured image data including first parallax image data and second parallax image data having parallax.
  • An imaging device control program includes a detection step of detecting a subject distribution in a depth direction with respect to a scene, a determination step of determining a change condition related to a parallax amount based on the subject distribution, and a change condition And causing the computer to execute an imaging control step of generating captured image data including first parallax image data and second parallax image data having parallax.
  • the digital camera according to the present embodiment which is one form of the imaging device, is configured to generate images with a plurality of viewpoints for one scene by one shooting. Each image having a different viewpoint is called a parallax image.
  • a parallax image a case where a right parallax image and a left parallax image from two viewpoints corresponding to the right eye and the left eye are generated will be described.
  • the digital camera in the present embodiment can generate a parallax-free image without parallax from the central viewpoint together with the parallax image.
  • FIG. 1 is a diagram illustrating a configuration of a digital camera 10 according to an embodiment of the present invention.
  • the digital camera 10 includes a photographic lens 20 as a photographic optical system, and guides a subject light beam incident along the optical axis 21 to the image sensor 100.
  • the photographing lens 20 may be an interchangeable lens that can be attached to and detached from the digital camera 10.
  • the digital camera 10 includes an image sensor 100, a control unit 201, an A / D conversion circuit 202, a memory 203, a drive unit 204, an image processing unit 205, a memory card IF 207, an operation unit 208, a display unit 209, and an LCD drive circuit 210. .
  • the direction parallel to the optical axis 21 toward the image sensor 100 is defined as the Z-axis plus direction
  • the direction toward the front of the drawing on the plane orthogonal to the Z-axis is the X-axis plus direction
  • the upward direction on the drawing is Y.
  • the axis is defined as the plus direction.
  • the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes of FIG.
  • the photographing lens 20 is composed of a plurality of optical lens groups, and forms an image of a subject light flux from the scene in the vicinity of its focal plane.
  • the photographic lens 20 is represented by a single virtual lens arranged in the vicinity of the pupil. Further, in the vicinity of the pupil, a diaphragm 22 that restricts the incident light beam concentrically with the optical axis 21 as the center is disposed.
  • the image sensor 100 is disposed in the vicinity of the focal plane of the photographing lens 20.
  • the image sensor 100 is an image sensor such as a CCD or CMOS sensor in which a plurality of photoelectric conversion elements are two-dimensionally arranged.
  • the image sensor 100 is controlled in timing by the drive unit 204, converts the subject image formed on the light receiving surface into an image signal, and outputs the image signal to the A / D conversion circuit 202.
  • the A / D conversion circuit 202 converts the image signal output from the image sensor 100 into a digital image signal and outputs the digital image signal to the memory 203.
  • the image processing unit 205 performs various image processes using the memory 203 as a work space, and generates captured image data.
  • the captured image data includes reference image data generated from the output of the non-parallax pixels of the image sensor 100 and parallax image data generated from the output of the parallax pixels of the image sensor 100, as will be described later.
  • the processing unit until the captured image data is generated is an imaging unit
  • the imaging unit is configured to include the imaging element 100, an A / D conversion circuit 202, a memory 203, a control unit 201, and an image processing unit 205.
  • the control unit 201 controls the digital camera 10 in an integrated manner. For example, the aperture of the diaphragm 22 is adjusted according to the set diaphragm value, and the photographing lens 20 is advanced and retracted in the optical axis direction according to the AF evaluation value. Further, the position of the photographing lens 20 is detected, and the focal length and the focus lens position of the photographing lens 20 are grasped. Furthermore, a timing control signal is transmitted to the drive unit 204, and a series of sequences until the image signal output from the image sensor 100 is processed into captured image data by the image processing unit 205 is managed.
  • control unit 201 includes an adjustment condition acquisition unit 231.
  • the adjustment condition acquisition unit 231 acquires various adjustment conditions for determining a stereoscopic adjustment parameter to be described later. Although details will be described later, for example, an aperture value, a focal length, and the like as imaging conditions when the captured image data is generated are sequentially acquired as adjustment conditions.
  • the image processing unit 205 includes an adjustment value determining unit 232, a calculating unit 233, and a moving image generating unit 234.
  • the adjustment value determination unit 232 determines the value of the three-dimensional adjustment parameter from the adjustment conditions acquired by the adjustment condition acquisition unit 231.
  • the calculation unit 233 generates new parallax image data from the captured image data using the determined stereoscopic adjustment parameter.
  • the moving image generation unit 234 generates a 3D moving image file by connecting the new parallax image data generated by the calculation unit.
  • the image processing unit 205 also has general image processing functions such as adjusting image data according to the selected image format.
  • the generated captured image data is converted into a display signal by the LCD drive circuit 210 and displayed on the display unit 209.
  • the data is recorded on the memory card 220 attached to the memory card IF 207.
  • FIG. 2 is a conceptual diagram conceptually showing a state in which a part of the image sensor 100 is enlarged.
  • the basic grid 110 includes four Bayer arrays having 4 ⁇ 2 ⁇ 2 basic units in the Y-axis direction and four in the X-axis direction.
  • a green filter (G filter) is arranged for the upper left pixel and the lower right pixel
  • a blue filter (B filter) is arranged for the lower left pixel
  • R filter red filter
  • the basic grid 110 includes parallax pixels and non-parallax pixels.
  • the parallax pixel is a pixel that receives a partial light beam that is deviated from the optical axis of the photographing lens 20 out of the incident light beam that is transmitted through the photographing lens 20.
  • the parallax pixel is provided with an aperture mask having a deviated opening that is deviated from the center of the pixel so as to transmit only the partial light flux.
  • the opening mask is provided so as to overlap the color filter.
  • the parallax Lt pixel defined so that the partial light beam reaches the left side with respect to the pixel center and the parallax specified so that the partial light beam reaches the right side with respect to the pixel center by the aperture mask.
  • the non-parallax pixel is a pixel that is not provided with an aperture mask, and is a pixel that receives the entire incident light beam that passes through the photographing lens 20.
  • the parallax pixel is not limited to the aperture mask when receiving the partial light beam that is deviated from the optical axis, but has various configurations such as a selective reflection film in which the light receiving region and the reflective region are separated, and a deviated photodiode region. Can be adopted. In other words, the parallax pixel only needs to be configured to receive a partial light beam that is deviated from the optical axis, among incident light beams that pass through the photographing lens 20.
  • Pixels in the basic grid 110 are denoted by PIJ .
  • the upper left pixel is P 11
  • the upper right pixel is P 81.
  • the parallax pixels are arranged as follows.
  • the other pixels are non-parallax pixels, and are any of the non-parallax pixel + R filter, the non-parallax pixel + G filter, and the non-parallax pixel + B filter.
  • the parallax pixels When viewed as a whole of the image sensor 100, the parallax pixels are classified into one of a first group having a G filter, a second group having an R filter, and a third group having a B filter. Includes at least one parallax Lt pixel and parallax Rt pixel belonging to each group. As in the example in the figure, these parallax pixels and non-parallax pixels may be arranged with randomness in the basic lattice 110. By arranging with randomness, RGB color information can be acquired as the output of the parallax pixels without causing bias in the spatial resolution for each color component, so that high-quality parallax image data can be obtained. can get.
  • FIG. 3 is a diagram illustrating an example of processing for generating 2D image data and parallax image data.
  • the image processing unit 205 receives raw raw image data in which output values (pixel values) are arranged in the order of pixel arrangement of the image sensor 100, and executes plane separation processing for separating the raw image data into a plurality of plane data.
  • the left column of the figure shows an example of processing for generating 2D-RGB plane data as 2D image data.
  • the image processing unit 205 In generating 2D-RGB plane data, the image processing unit 205 first removes the pixel values of the parallax pixels to form a vacant lattice. Then, the pixel value that becomes the empty grid is calculated by interpolation processing using the pixel values of the surrounding pixels. For example, the pixel value of the empty lattice P 11 is obtained by averaging the pixel values of P ⁇ 1 ⁇ 1 , P 2 ⁇ 1 , P ⁇ 12 , and P 22 which are the pixel values of the G filter pixels adjacent in the diagonal direction. To calculate.
  • the pixel value of the empty lattice P 63 is calculated by averaging the pixel values of P 43 , P 61 , P 83 , and P 65 that are adjacent R filter pixel values by skipping one pixel vertically and horizontally.
  • the pixel value of the air grating P 76 is the pixel value of the adjacent B filter skipping one pixel vertically and horizontally, and averaging operation of the pixel values of P 56, P 74, P 96 , P 78 calculate.
  • the image processing unit 205 performs image processing as a general 2D image according to a predetermined format such as JPEG when generating still image data and MPEG when generating moving image data.
  • the image processing unit 205 further separates the 2D-RGB plane data for each color and performs the interpolation processing as described above to generate each plane data as reference image data. That is, three types of data are generated: Gn plane data as green reference image plane data, Rn plane data as red reference image plane data, and Bn plane data as blue reference image plane data.
  • the right column of the figure shows an example of processing for generating two G plane data, two R plane data, and two B plane data as parallax pixel data.
  • the two G plane data are GLt plane data as left parallax image data and GRt plane data as right parallax image data.
  • the two R plane data are RLt plane data and right parallax image data as left parallax image data.
  • the two B plane data are the BLt plane data as the left parallax image data and the BRt plane data as the right parallax image data.
  • the image processing unit 205 removes pixel values other than the pixel values of the G (Lt) pixels from all output values of the image sensor 100 to form a vacant lattice.
  • two pixel values P 11 and P 55 remain in the basic grid 110. Therefore, it divided into four equal basic grid 110 vertically and horizontally, the 16 pixels of the top left is represented by an output value of the P 11, is representative of the 16 pixels in the lower right in the output value of the P 55. Then, for the upper right 16 pixels and the lower left 16 pixels, average values of neighboring representative values adjacent in the vertical and horizontal directions are averaged and interpolated. That is, the GLt plane data has one value in units of 16 pixels.
  • the image processing unit 205 when generating the GRt plane data, the image processing unit 205 removes pixel values other than the pixel value of the G (Rt) pixel from all the output values of the image sensor 100 to obtain an empty grid. Then, two pixel values P 51 and P 15 remain in the basic grid 110. Therefore, the basic grid 110 is divided into four equal parts vertically and horizontally, the upper right 16 pixels are represented by the output value of P 51 , and the lower left 16 pixels are represented by the output value of P 15 . The upper left 16 pixels and the lower right 16 pixels are interpolated by averaging the peripheral representative values adjacent vertically and horizontally. That is, the GRt plane data has one value in units of 16 pixels. In this way, GLt plane data and GRt plane data having a resolution lower than that of 2D-RGB plane data can be generated.
  • the image processing unit 205 In generating the RLt plane data, the image processing unit 205 removes pixel values other than the pixel value of the R (Lt) pixel from all output values of the image sensor 100 to form a vacant lattice. Then, the primitive lattice 110, the pixel values of P 27 remains. This pixel value is set as a representative value for 64 pixels of the basic grid 110. Similarly, when generating the RRt plane data, the image processing unit 205 removes pixel values other than the pixel value of the R (Rt) pixel from all output values of the image sensor 100 to form a vacant lattice. Then, the pixel value P 63 remains in the basic grid 110. This pixel value is set as a representative value for 64 pixels of the basic grid 110.
  • RLt plane data and RRt plane data having a lower resolution than 2D-RGB plane data are generated.
  • the resolution of the RLt plane data and the RRt plane data is lower than the resolution of the GLt plane data and the GRt plane data.
  • the image processing unit 205 In generating the BLt plane data, the image processing unit 205 removes pixel values other than the pixel values of the B (Lt) pixels from all output values of the image sensor 100 to form a vacant lattice. Then, the primitive lattice 110, the pixel values of P 32 remains. This pixel value is set as a representative value for 64 pixels of the basic grid 110. Similarly, when generating the BRt plane data, the image processing unit 205 removes pixel values other than the pixel value of the B (Rt) pixel from all the output values of the image sensor 100 to obtain an empty grid. Then, the primitive lattice 110, the pixel values of P 76 remains. This pixel value is set as a representative value for 64 pixels of the basic grid 110.
  • BLt plane data and BRt plane data having a resolution lower than that of 2D-RGB plane data are generated.
  • the resolution of the BLt plane data and the BRt plane data is lower than the resolution of the GLt plane data and the GRt plane data, and is equal to the resolution of the RLt plane data and the RRt plane data.
  • image processing may be performed on the output image data so that the amount of parallax between generated images is within the target amount of parallax.
  • the image processing unit 205 generates left-view color image data and right-view color image data using these plane data.
  • color image data in which the parallax amount as a 3D image is adjusted while maintaining the blur amount of the 2D color image is generated.
  • the generation principle will be described first.
  • FIG. 4 is a diagram for explaining the concept of defocusing.
  • the parallax Lt pixel and the parallax Rt pixel receive the subject luminous flux that arrives from one of the two parallax virtual pupils set as the optical axis target as a partial region of the lens pupil.
  • the parallax pixel outputs an image signal obtained by photoelectrically converting only the partial light flux that has passed through the parallax virtual pupil by the action of the aperture mask that each has. Therefore, the pixel value distribution indicated by the output of the parallax pixel may be considered to be proportional to the light intensity distribution of the partial light flux that has passed through the corresponding parallax virtual pupil.
  • the output of each parallax pixel is the corresponding image point regardless of the subject luminous flux that has passed through any parallax virtual pupil. This shows a steep pixel value distribution centering on this pixel. If the parallax Lt pixels are arranged in the vicinity of the image point, the output value of the pixel corresponding to the image point is the largest, and the output value of the pixels arranged in the vicinity rapidly decreases. Further, even when the parallax Rt pixels are arranged in the vicinity of the image point, the output value of the pixel corresponding to the image point is the largest, and the output value of the pixels arranged in the vicinity rapidly decreases. That is, even if the subject luminous flux passes through any parallax virtual pupil, the output value of the pixel corresponding to the image point is the largest, and the output value of the pixels arranged in the vicinity rapidly decreases. Match each other.
  • the peak of the pixel value distribution indicated by the parallax Lt pixel corresponds to the image point, compared to the case where the object point exists at the focal position. Appearing at a position away from the pixel in one direction, and its output value decreases. In addition, the width of the pixel having the output value is increased.
  • the peak of the pixel value distribution indicated by the parallax Rt pixel appears at a position away from the pixel corresponding to the image point in the opposite direction to the one direction in the parallax Lt pixel and at an equal distance, and the output value similarly decreases. Similarly, the width of the pixel having the output value is increased.
  • the same pixel value distribution that is gentler than that in the case where the object point exists at the focal position appears at an equal distance from each other.
  • the same pixel value distribution that becomes more gentle as compared with the state of FIG. 4B appears further apart.
  • the amount of blur and the amount of parallax increase as the object point deviates from the focal position.
  • the amount of blur and the amount of parallax change in conjunction with defocus. That is, the amount of blur and the amount of parallax have a one-to-one relationship.
  • FIGS. 4B and 4C show the case where the object point shifts away from the focal position, but when the object point moves away from the focal position, as shown in FIG.
  • the relative positional relationship between the pixel value distribution indicated by the parallax Lt pixel and the pixel value distribution indicated by the parallax Rt pixel is reversed. Due to such a defocus relationship, when viewing a parallax image, the viewer visually recognizes a subject existing far behind the focal position and visually recognizes a subject present in front.
  • FIG. 5 is a graph showing changes in the pixel value distribution described in FIGS. 4B and 4C.
  • the horizontal axis represents the pixel position, and the center position is the pixel position corresponding to the image point.
  • the vertical axis represents the output value (pixel value) of each pixel. As described above, this output value is substantially proportional to the light intensity.
  • the distribution curve 1804 and the distribution curve 1805 represent the pixel value distribution of the parallax Lt pixel and the pixel value distribution of the parallax Rt pixel in FIG. 4B, respectively. As can be seen from the figure, these distributions have a line-symmetric shape with respect to the center position. Further, a combined distribution curve 1806 obtained by adding them shows a pixel value distribution of pixels without parallax with respect to the situation of FIG. 4B, that is, a pixel value distribution when the entire subject luminous flux is received, and a substantially similar shape.
  • the distribution curve 1807 and the distribution curve 1808 represent the pixel value distribution of the parallax Lt pixel and the pixel value distribution of the parallax Rt pixel in FIG. 4C, respectively. As can be seen from the figure, these distributions are also symmetrical with respect to the center position. Also, a combined distribution curve 1809 obtained by adding them shows a shape substantially similar to the pixel value distribution of the non-parallax pixels for the situation of FIG.
  • the amount of parallax expressed as an interval between peaks is adjusted while approximately maintaining the amount of blur expressed by the spread of the pixel value distribution. That is, in this embodiment, the image processing unit 205 is adjusted between the 2D image generated from the non-parallax pixel and the 3D image generated from the parallax pixel while maintaining the blur amount of the 2D image almost as it is. An image having a parallax amount is generated.
  • FIG. 6 is a diagram illustrating a pixel value distribution for explaining the concept of the adjusted parallax amount.
  • Lt distribution curve 1901 and Rt distribution curve 1902 indicated by solid lines in the figure are distribution curves in which actual pixel values of Lt plane data and Rt plane data are plotted. For example, it corresponds to the distribution curves 1804 and 1805 in FIG.
  • the distance between the peaks of the Lt distribution curve 1901 and the Rt distribution curve 1902 represents the 3D parallax amount, and the greater the distance, the stronger the stereoscopic effect during image reproduction.
  • the 2D distribution curve 1903 obtained by adding 50% each of the Lt distribution curve 1901 and the Rt distribution curve 1902 has a convex shape with no left-right bias.
  • the 2D distribution curve 1903 corresponds to a shape in which the height of the combined distribution curve 1806 in FIG. That is, an image based on this distribution is a 2D image with a parallax amount of zero.
  • the adjusted Lt distribution curve 1905 is a curve obtained by adding 80% of the Lt distribution curve 1901 and 20% of the Rt distribution curve 1902.
  • the peak of the adjusted Lt distribution curve 1905 is displaced closer to the center than the peak of the Lt distribution curve 1901 as much as the component of the Rt distribution curve 1902 is added.
  • the adjusted Rt distribution curve 1906 is a curve obtained by adding 20% of the Lt distribution curve 1901 and 80% of the Rt distribution curve 1902.
  • the peak of the adjusted Rt distribution curve 1906 is displaced closer to the center than the peak of the Rt distribution curve 1902 by the amount to which the component of the Lt distribution curve 1901 is added.
  • the adjusted parallax amount represented by the distance between the peaks of the adjusted Lt distribution curve 1905 and the adjusted Rt distribution curve 1906 is smaller than the 3D parallax amount. Therefore, the stereoscopic effect during image reproduction is alleviated.
  • the spread of each of the adjusted Lt distribution curve 1905 and the adjusted Rt distribution curve 1906 is equivalent to the spread of the 2D distribution curve 1903, it can be said that the amount of blur is equal to that of the 2D image.
  • the amount of adjustment parallax can be controlled by how much the Lt distribution curve 1901 and the Rt distribution curve 1902 are added. Then, by applying this adjusted pixel value distribution to each plane of color image data generated from pixels without parallax, the color of the left viewpoint that gives a stereoscopic effect different from that of parallax image data generated from parallax pixels Image data and right-view color image data can be generated.
  • left-view color image data and right-view color image data are generated from the nine plane data described with reference to FIG.
  • Color image data of the left viewpoint RLt c plane data is red plane data corresponding to the left viewpoint, a green plane data GLt c plane data, and three color parallax plane data BLt c plane data is blue plane data Consists of.
  • the color image data of the right-side perspective is, RRT c plane data is red plane data corresponding to the right viewpoint, a green plane data GRT c plane data, and three of BRt c plane data is blue plane Datacolor Consists of parallax plane data.
  • FIG. 7 is a diagram for explaining color parallax plane data generation processing.
  • a generation process of RLt c plane data and RRt c plane data which are red parallax planes among color parallax planes, will be described.
  • the red parallax plane is generated using the pixel value of the Rn plane data described with reference to FIG. 3, and the pixel value of the RLt plane data and the RRt plane data. Specifically, for example, when calculating the pixel value RLt mn of the target pixel position (i m , j n ) of the RLt c plane data, first, the calculation unit 233 of the image processing unit 205 first calculates the same pixel position of the Rn plane data. A pixel value Rn mn is extracted from (i m , j n ).
  • the calculation unit 233 extracts the pixel value RLt mn from the same pixel position (i m , j n ) of the RLt plane data, and extracts the pixel value RRt mn from the same pixel position (i m , j n ) of the RRt plane data. To do. Then, calculating unit 233, the pixel values Rn mn, by multiplying the value obtained by distributing the pixel values RLt mn and RRT mn stereoscopic adjustment parameter C, and calculates the pixel value RLt cmn. Specifically, it is calculated by the following equation (1). However, the three-dimensional adjustment parameter C is set in a range of 0.5 ⁇ C ⁇ 1.
  • the calculation unit 233 uses the extracted pixel value Rn mn as the pixel value RLt mn and the pixel value RRt. Calculated by multiplying mn by the value distributed by the three-dimensional adjustment parameter C. Specifically, it is calculated by the following equation (2). Calculator 233, such processing is sequentially executed from the pixel at the left end and the upper end (1,1) to a right end and the lower end of the coordinate (i 0, j 0).
  • the same pixel position of RLt plane data (i m, j n) from instead of extracting the pixel value RLt mn extracts the pixel value GLt mn from the same pixel position of GLt plane data (i m, j n).
  • the same pixel position of the RRT plane data (i m, j n) from instead of extracting the pixel value RRT mn extracts the pixel value GRT mn from the same pixel position of GRT plane data (i m, j n) .
  • the parameters of Equation (1) and Equation (2) are appropriately changed and processed in the same manner.
  • the generation processing of the GLt c plane data and the GRt c plane data which are green parallax planes is completed, the generation processing of the BLt c plane data and BRt c plane data which are blue parallax planes is executed next.
  • the pixel same pixel position (i m, j n) of Rn plane data in the above description instead of extracting the pixel values Rn mn from the same pixel position of Bn plane data (i m, j n) from Extract the value Bn mn .
  • the same pixel position of RLt plane data (i m, j n) from instead of extracting the pixel value RLt mn extracts the pixel value BLt mn from the same pixel position of BLt plane data (i m, j n).
  • the same pixel position of the RRT plane data (i m, j n) from instead of extracting the pixel value RRT mn extracts the pixel value BRt mn from the same pixel position of BRt plane data (i m, j n) .
  • the parameters of Equation (1) and Equation (2) are appropriately changed and processed in the same manner.
  • left-view color image data (RLt c- plane data, GLt c- plane data, BLt c- plane data) and right-view color image data (RRt c- plane data, GRt c- plane data, BRt c- plane data) Is generated. That is, the color image data of the left viewpoint and the right viewpoint can be acquired by a relatively simple process as a virtual output that does not actually exist as a pixel of the image sensor 100.
  • the stereoscopic adjustment parameter C can be changed within a range of 0.5 ⁇ C ⁇ 1, it is possible to adjust the amount of parallax as a 3D image while maintaining the amount of blur of the 2D color image due to pixels without parallax. it can. Therefore, if these image data are reproduced by a 3D image compatible reproduction device, the viewer of the stereoscopic video display panel can appreciate the 3D video in which the stereoscopic effect is appropriately adjusted as a color image.
  • the processing is simple, it is possible to generate image data at high speed and to deal with moving images.
  • FIG. 8 is a diagram for explaining a change in RGB pixel value distribution.
  • FIG. 8A shows a G (Lt) pixel, a G (Rt) pixel, and an R (Lt) pixel when a white subject light beam from an object point located at a position deviated by a certain amount from the focal position is received. , R (Rt) pixels, B (Lt) pixels, and B (Rt) pixels.
  • FIG. 8B shows the R (N) pixel, G (N) pixel, and B (N) pixel that are non-parallax pixels when a white subject light beam from the object point in FIG. 8A is received. It is the graph which arranged the output value. It can be said that this graph also represents the pixel value distribution of each color.
  • FIG. 9 is a diagram illustrating the relationship between the vergence angle of the viewer and the amount of parallax.
  • the eyeball 50 represents the eyeball of the viewer, and the figure shows the right eye 51 and the left eye 52 being separated.
  • the display unit 40 reproduces non-adjusted image data whose parallax amount is not adjusted, and displays a subject 61 for the right-eye image and a subject 62 for the left-eye image.
  • Object 61 and the object 62 are the same object, so were present at a position shifted from the focal position at the time of shooting, the display unit 40 is displayed at a distance with a disparity amount D 1.
  • the viewer views the position of the lifting distance L1 (in the drawing) where the straight line connecting the right eye 51 and the subject 61 and the straight line connecting the left eye 52 and the subject 62 intersect. (Represented by a square).
  • the convergence angle at this time is ⁇ 1 as shown in the figure.
  • ⁇ 1 the convergence angle at this time.
  • the video is uncomfortable and causes eye strain. Therefore, when image processing is performed using the stereoscopic adjustment parameter in the present embodiment, adjusted image data in which the parallax amount is adjusted by the stereoscopic adjustment parameter as described above is generated.
  • the figure shows a state where the adjusted image data is reproduced over the non-adjusted image data.
  • the display unit 40 displays a subject 71 of the right-eye image and a subject 72 of the left-eye image of the adjustment image data.
  • the subject 71 and the subject 72 are the same subject, and the subjects 61 and 62 are also the same subject.
  • Object 71 and the object 72, the display unit 40 is displayed at a distance with a disparity amount D 2.
  • the viewer recognizes that the subject exists at the position of the lifting distance L2 (represented by a triangle in the figure) where the straight line connecting the right eye 51 and the subject 71 intersects with the straight line connecting the left eye 52 and the subject 72.
  • the convergence angle at this time is ⁇ 2 smaller than ⁇ 1 . Therefore, the viewer can feel the extreme feeling of lifting and can reduce the accumulation of eye strain. Note that the amount of parallax is appropriately adjusted as will be described later, so that the viewer can appreciate the video with a comfortable floating feeling (a three-dimensional effect with a feeling of depression when the defocus relationship is reversed).
  • parallax amount used as description of FIG. 9 was represented by the separation distance in the display part 40, a parallax amount can be defined in various forms. For example, it may be defined in units of pixels in the captured image data, or may be defined by a deviation width with respect to the horizontal width of the image.
  • FIG. 10 is a diagram schematically showing the relationship among the aperture value, the contrast indicating the sharpness of the image, the subject distance, and the parallax amount in the digital camera 10.
  • the horizontal axis represents the distance from the digital camera 10, and the vertical axis represents the amount of parallax and the height of contrast.
  • FIG. 10A shows a state where the aperture value is F1.4
  • FIG. 10B shows a state where the aperture value is F4
  • FIG. 10C shows a state where the aperture value is F8.
  • the focal length of the taking lens 20 are the same in both states, also, the digital camera 10 is focused on the main subject is located at a distance L 10.
  • Contrast curve 1610 the highest in the distance L 10 is a distance to be focal positions in any state.
  • the larger the aperture value the higher the value before and after the focal length. That is, it shows that the depth of field becomes deeper as the image is taken with the aperture 22 being reduced.
  • Parallax amount curve 1620 at a distance L 10 shows the parallax amount 0, approaches the digital camera 10 side than the distance L 10, shows the curve slope increases. That is, the parallax amount curve 1620 distance L indicates a positive value at the front than 10 indicates that it is visible lifted larger as closer object.
  • the parallax amount curve 1620 as the distance from the digital camera 10 side than the distance L 10, shows the curve slope becomes smaller. That is, the parallax amount curve 1620 indicates a negative value in the back side than the distance L 10, represents that to be viewed sinks slowly as more distant object.
  • the parallax amount curve 1620 becomes gentler as the aperture value increases. That is, as compared with the case where the aperture value is F1.4, the amount of parallax in front of the focal position and the amount of parallax in the back become smaller as F4 and F8 change.
  • the parallax amount curve 1620 is within this range if the aperture value is F8. Regardless of the distance, the viewer can comfortably view the 3D video.
  • the image processing unit 205 generates adjusted image data in which the parallax amount is adjusted by the stereoscopic adjustment parameter so as to be within the set lower limit value and upper limit value.
  • FIG. 11 is a rear view of the digital camera 10 that displays a menu screen for limiting the amount of parallax.
  • the limitation on the amount of parallax is set as the lower limit value ⁇ m and the upper limit value + m as described above.
  • the absolute value of the lower limit value and the upper limit value may be different.
  • the parallax amount is expressed in units of pixels of the parallax image in the adjusted parallax image data.
  • the amount of parallax that viewers feel uncomfortable and tired varies from viewer to viewer. Therefore, it is preferable to configure the digital camera 10 so that a photographer who is a user of the digital camera 10 can change the setting of the parallax amount restriction at the time of shooting.
  • the digital camera 10 has, for example, four options as shown in the figure as a menu for limiting the amount of parallax. Specifically, “Standard” presets the range that a standard viewer feels comfortable with, presets a range wider than the standard, “strong” allows a larger amount of parallax, and presets a range narrower than the standard In addition, “weak” that allows only a smaller amount of parallax, and “manual” in which the photographer inputs an upper limit value and a lower limit value are provided. When “Manual” is selected, the photographer can sequentially specify “maximum lifting amount” as an upper limit value and “maximum sinking amount” as a lower limit value in units of pixels. The photographer selects and designates these by operating a dial button 2081 that is a part of the operation unit 208.
  • the image processing unit 205 When the range of the parallax amount allowed as the parallax amount restriction is set as described above, the image processing unit 205 generates adjusted parallax image data in which the parallax amount is adjusted to fall within this range.
  • the parallax amount adjustment processing according to the present embodiment does not require complicated processing such as cutting out for each subject object and moving the object in the horizontal direction using the depth map information as in the prior art. Accordingly, since the calculation can be performed at a higher speed than in the prior art, the image processing unit 205 can easily cope with the output of the adjusted parallax image data in real time even for moving image shooting in which the state of the subject changes every moment.
  • the digital camera 10 includes an auto 3D moving image mode in which a parallax image data adjusted to a comfortable parallax amount is continuously generated and a moving image file is generated by connecting the parallax image data as one of the moving image shooting modes. .
  • the photographer operates the mode button 2082 that is part of the operation unit 208 to select the auto 3D moving image mode.
  • Whether or not all of the subjects constituting the same scene fall within the set parallax amount range depends on various conditions, as can be understood from the description of FIG. These conditions, including the set parallax amount range, are used as adjustment conditions for parallax amount adjustment.
  • the adjustment condition acquisition unit 231 acquires various adjustment conditions and passes them to the adjustment value determination unit 232 as appropriate. As described above, the adjustment condition acquisition unit 231 acquires the parallax amount range input via the menu screen and the operation unit 208 as the adjustment condition.
  • the adjustment condition acquisition unit 231 acquires the focal length information (zoom information) acquired by the control unit 201 from the photographing lens 20 as the adjustment condition.
  • the inclination of the parallax amount curve 1620 changes according to the change of the aperture value. That is, the aperture value at the time of acquiring each captured image data (at the time of capturing) can be an adjustment condition that affects the amount of parallax as a setting condition of the optical system. Therefore, the adjustment condition acquisition unit 231 acquires the aperture value that the control unit 201 acquires from the photographing lens 20 as the adjustment condition.
  • the parallax amount is 0 with respect to the focused subject, and takes positive and negative values before and after that. That is, the focus lens position as the setting condition of the photographic lens 20 that is an optical system can be an adjustment condition that affects the amount of parallax. Therefore, the adjustment condition acquisition unit 231 acquires the focus lens position (focus information) acquired by the control unit 201 from the photographing lens 20 as the adjustment condition.
  • the adjustment condition acquisition unit 231 acquires the subject distribution in the depth direction as the adjustment condition.
  • the control unit 201 detects the subject distribution from the defocus amount for each subdivided area using defocus information used for autofocus.
  • the defocus information may use the output of a phase difference sensor provided exclusively, or may use the output of parallax pixels of the image sensor 100.
  • the parallax image data processed by the image processing unit 205 can also be used.
  • FIG. 12 is a diagram illustrating the concept of parallax amount adjustment.
  • FIG. 12A corresponds to the diagram in FIG. 10A excluding the contrast curve 1610.
  • a near-point subject existing on the near side that is the digital camera 10 side and a far-point subject existing on the far side that is the opposite side are included. The case where it exists is assumed.
  • the in-focus object distance L 10 near point subject to L 20, far point object is present in L 30.
  • the parallax amount range set as the adjustment condition is from ⁇ m to + m
  • the value of the parallax amount curve 1620 with respect to the distance L 30 of the far-point subject is within this range. There is no need to adjust. However, since the value of the parallax amount curve 1620 with respect to the distance L 20 of near-point object is over + m, the image of the near-point object to be parallax amount + m, adjusts the parallax amount of the total.
  • the parallax amount curve is adjusted so that the parallax amount falls within the set parallax amount range. More specifically, the parallax amount curve may be adjusted so that the parallax amount of the subject image on the side greatly deviating from the set parallax amount range becomes the limit value of the parallax amount range.
  • the adjusted parallax amount curve 1630 is the parallax amount curve adjusted in this way. By adjusting in this way, all the images of the subject constituting the same scene fall within the set parallax amount range.
  • the distance L 11 is the focal position
  • the parallax amount relative to the image of the near point object has not moved (the distance L 20), as indicated by the parallax amount curve 1620, in comparison with FIG. 12 (a) It becomes considerably large.
  • the overall parallax amount is adjusted so that the near-point subject image has the parallax amount + m.
  • the adjustment amount is larger than the adjustment amount in the case of FIG.
  • the inclination of the adjustment parallax amount curve 1630 is closer to the horizontal, and thus the parallax amount of the far-side subject side image is further suppressed.
  • Figure 12 (c) is a diagram showing the object status of FIG. 12 (b), the concept of parallax amount adjustment when the near-point object is moved from the distance L 20 to the back side of the distance L 21.
  • the parallax amount curve 1620 remain such because the focus position length L 11 is intact, by the near-point object is shifted to the rear side, the amount of adjustment, the adjustment amount when shown in FIG. 12 (b) On the other hand, it becomes smaller.
  • the adjustment amount is uniquely determined if the above-described adjustment conditions can be acquired. Since the adjustment amount has a one-to-one relationship with the value of the three-dimensional adjustment parameter C, the adjustment value determination unit 232 can determine the value of the three-dimensional adjustment parameter C when receiving the adjustment condition from the adjustment condition acquisition unit 231. Specifically, a lookup table corresponding to FIG. 12 is prepared in advance, and when the adjustment value determination unit 232 inputs each value of the adjustment condition and refers to the lookup table, the stereoscopic adjustment parameter C for the input is obtained. Can be extracted and determined. The look-up table is constructed based on the results of prior simulations, experiments, and the like. Alternatively, a multivariable function that uses each value of the adjustment condition as a variable may be prepared in advance regardless of the format of the lookup table.
  • the adjustment conditions may not be applied to all the above conditions, but may be adopted only for some conditions. For example, even if only the focal length of the photographing lens 20 is set as an adjustment condition and the values of the focal length and the three-dimensional adjustment parameter C are made to correspond one-to-one, the viewer's discomfort and fatigue can be reduced to some extent.
  • FIG. 13 is a processing flow in moving image shooting. The flow in the figure starts when the mode button 2082 is operated by the photographer and the automatic 3D moving image mode is started. Note that the parallax amount range is set in advance by the photographer.
  • the adjustment condition acquisition unit 231 acquires the parallax amount range set by the photographer from the system memory in step S11. When an instruction from the photographer is received as an adjustment condition other than the parallax amount range, these adjustment conditions are also acquired.
  • step S12 the control unit 201 waits for a recording start instruction for the photographer to press the recording start button.
  • a recording start instruction is detected (YES in step S12)
  • the control unit 201 proceeds to step S13 and executes AF and AE.
  • step S ⁇ b> 14 the control unit 201 performs charge accumulation and readout of the image sensor 100 via the drive unit 204, and acquires captured image data as one frame. During this period, the control unit 201 may continue driving the focus lens and the diaphragm 22 in accordance with the detection result in step S13.
  • step S15 the adjustment condition acquisition unit 231 acquires the adjustment conditions associated with the captured image data acquisition in step S14. Depending on the type of adjustment condition, acquisition may be executed prior to step S14 or in parallel.
  • step S16 the adjustment condition acquisition unit 231 delivers the acquired adjustment condition to the adjustment value determination unit 232, and the adjustment value determination unit 232 refers to the lookup table using the received adjustment condition as an argument, and determines the three-dimensional adjustment parameter C. Determine the value of.
  • step S17 the calculation unit 233 receives the value of the stereoscopic adjustment parameter C determined by the adjustment value determination unit 232 and the captured image data, and the color image data (RLt c plane data, GLt c plane data, BLt c) of the left viewpoint. Plane data) and right-view color image data (RRt c plane data, GRt c plane data, BRt c plane data). Specific processing will be described later.
  • control unit 201 determines in step S18 that it has not received a recording stop instruction from the photographer, it returns to step S13 and executes the next frame processing. If it is determined that a recording stop instruction has been received, the process proceeds to step S19.
  • the moving image generating unit 234 connects the color image data of the left viewpoint and the color image data of the right viewpoint that are continuously generated, and executes format processing according to a 3D-compatible moving image format such as Blu-ray 3D. Generate a file. Then, the control unit 201 records the generated moving image file on the memory card 220 via the memory card IF 207, and ends a series of flows. Note that the recording to the memory card 220 may be sequentially executed in synchronization with the generation of the left-viewpoint color image data and the right-viewpoint color image data, and the file end process may be executed in synchronization with the recording stop instruction. Further, the control unit 201 is not limited to recording on the memory card 220, and may be configured to output to an external device via a LAN, for example.
  • FIG. 14 is a processing flow of step S17 until the color image data of the left viewpoint and the parallax color image data that is the color image data of the right viewpoint are generated.
  • step S101 the calculation unit 233 acquires captured image data.
  • step S102 as described with reference to FIG. 3, the captured image data is plane-separated into image data without parallax and parallax image data.
  • step S103 the calculation unit 233 executes an interpolation process for interpolating vacancies existing in the separated plane data as described with reference to FIG.
  • the calculation unit 233 initializes each variable in step S104. Specifically, first, 1 is substituted into the color variable Cset.
  • the three-dimensional adjustment parameter C is the value determined in step S16.
  • the calculation unit 233 increments the parallax variable S in step S108.
  • step S109 it is determined whether or not the parallax variable S exceeds 2. If not, the process returns to step S107. If it exceeds, the process proceeds to step S110.
  • step S110 the calculation unit 233 assigns 1 to the parallax variable S and increments the coordinate variable i. Then, in step S111, it is determined whether coordinate variable i exceeds i 0. If not, the process returns to step S105. If it exceeds, the process proceeds to step S112.
  • step S112 the calculation unit 233 assigns 1 to the coordinate variable i and increments the coordinate variable j. Then, in step S113, it is determined whether coordinate variable j exceeds j 0. If not, the process returns to step S105. If it exceeds, the process proceeds to step S114.
  • step S115 the calculation unit 233 assigns 1 to the coordinate variable j and increments the color variable Cset.
  • step S116 it is determined whether or not the color variable Cset exceeds 3. If not, the process returns to step S105. If it exceeds, color image data of the left viewpoint (RLt c plane data, GLt c plane data, BLt c plane data) and color image data of the right viewpoint (RRt c plane data, GRt c plane data, BRt c plane data) Returning to the flow of FIG.
  • FIG. 15 is a diagram illustrating a preferred opening shape.
  • each of the openings 105 and 106 has a shape in contact with a virtual center line 322 passing through the center of the pixel or a shape straddling the center line 322.
  • the shape of the opening 105 and the shape of the opening 106 are preferably the same as the respective shapes obtained by dividing the shape of the opening 104 of the non-parallax pixel by the center line 322.
  • the shape of the opening 104 is preferably equal to the shape in which the shape of the opening 105 and the shape of the opening 106 are adjacent to each other.
  • the calculation formula used by the calculation unit 233 employs the above formulas (1) and (2) using the weighted arithmetic mean, but not limited to this, various calculation formulas can be used.
  • the weighted geometric mean it can be expressed in the same manner as the above formulas (1) and (2), Can be adopted as a calculation formula.
  • the amount of blur maintained is not the amount of blur due to the output of the non-parallax pixel but the amount of blur due to the output of the parallax pixel.
  • FIG. 16 is a diagram for explaining the cooperation between the digital camera 10 and the TV monitor 80.
  • the TV monitor 80 includes a display unit 40 made of, for example, liquid crystal, a memory card IF 81 that receives the memory card 220 taken out from the digital camera 10, a remote controller 82 that is operated by a viewer at hand, and the like.
  • the TV monitor 80 is compatible with 3D image display.
  • the display format of the 3D image is not particularly limited.
  • the right-eye image and the left-eye image may be displayed in a time-division manner, or may be an interlace in which strips are arranged in a horizontal or vertical direction. Further, it may be a side-by-side format arranged on one side and the other side of the screen.
  • the TV monitor 80 decodes a moving image file that includes the color image data of the left viewpoint and the color image data of the right viewpoint, and displays a 3D image on the display unit 40.
  • the TV monitor 80 serves as a general display device that displays a standardized moving image file.
  • the TV monitor 80 can also function as an image processing apparatus that bears at least part of the function of the control unit 201 and at least part of the function of the image processing unit 205 described with reference to FIG.
  • the adjustment condition acquisition unit 231 described in FIG. 1 and an image processing unit including the adjustment value determination unit 232, the calculation unit 233, and the moving image generation unit 234 are incorporated in the TV monitor 80. With this configuration, it is possible to realize function sharing different from the function sharing by the combination of the digital camera 10 and the TV monitor 80 in the above-described embodiment. The modification is demonstrated below.
  • the adjustment image data generation process in which the parallax amount is adjusted by the stereoscopic adjustment parameter is assigned to the TV monitor 80 side instead of the digital camera 10 side. Therefore, the digital camera 10 does not have to include the adjustment value determination unit 232 and the calculation unit 233 with respect to the configuration of FIG. Instead, the adjustment condition acquisition unit 231 delivers the acquired adjustment conditions to the moving image generation unit 234, and the moving image generation unit 234 receives the captured image data generated by the image processing unit 205 as a moving image file and receives it in the corresponding frame.
  • the association may be described in the moving image file as tag information, or a related file in which adjustment conditions are recorded may be generated, and link information to the related file may be described in the moving image file.
  • FIG. 17 is a processing flow in moving image shooting of the digital camera 10 as a modification.
  • the processes related to the respective processes in the process flow of FIG. 13 are denoted by the same step numbers, and the description thereof is omitted except for the description of different processes and additional processes.
  • step S21 the adjustment condition acquisition unit 231 delivers the acquired adjustment condition to the moving image generation unit 234, and the moving image generation unit 234 associates the adjustment condition with the captured image data generated in step S14.
  • moving image files are created by connecting the captured image data that are continuously generated and associated with the adjustment conditions.
  • the moving image file may be data at any stage described with reference to FIG. 3 as long as it includes reference image data and left-right viewpoint parallax image data as captured image data of successive frames. That is, separation processing, interpolation processing, and plane data processing may be performed in step S14 as processing of the digital camera 10, or part or all may be performed in the TV monitor 80 as an image processing apparatus.
  • the control part 201 outputs the produced
  • FIG. 18 is a processing flow in the moving image reproduction of the TV monitor 80 as a modified example.
  • the processes related to the respective processes in the process flow of FIG. 13 are denoted by the same step numbers, and the description thereof is omitted except for the description of different processes and additional processes.
  • the TV monitor 80 includes a control unit that includes an adjustment condition acquisition unit 231, and an image processing unit that includes an adjustment value determination unit 232, a calculation unit 233, and a moving image generation unit 234.
  • the control unit corresponds to the control unit 201 described with reference to FIG. 1, and the image processing unit also corresponds to the image processing unit 205.
  • step S31 the control unit decodes the moving image file acquired via the memory card IF 81 and acquires each plane data from the captured image data. Subsequently, in step S32, the adjustment condition associated with each captured image data is read and acquired.
  • the plane data acquisition process in step S31 and the adjustment condition acquisition process in step S32 may be executed first or in parallel.
  • the adjustment value determination unit 232 determines the value of the stereoscopic adjustment parameter C in step S16, and the calculation unit 233 and the moving image generation unit 234 generate left and right plane image data in which the parallax amount is adjusted in step S17. To do.
  • step S32 the control unit displays a 3D image based on the generated left and right plane image data on the display unit 40. Then, in step S34, the control unit determines whether there is an instruction to stop playback from the viewer or whether the image data to be played back has ended. If none of the data is applicable, the control unit returns to step S31, The playback process for the next frame is started. On the other hand, in the case of any of the above, a series of reproduction processing is ended.
  • all the adjustment conditions are acquired by the digital camera 10 at the time of shooting and are associated with the shot image data.
  • the viewer inputs some adjustment conditions at the time of playback on the TV monitor 80. You may comprise so that it can.
  • the viewer can input the parallax amount range by operating the remote controller 82.
  • the adjustment condition acquisition unit 231 of the TV monitor 80 acquires the input parallax amount range as an adjustment condition, and the adjustment value determination unit 232 determines the value of the stereoscopic adjustment parameter C according to the parallax amount range. If comprised in this way, the TV monitor 80 can display the 3D image according to the preference for every viewer.
  • the adjustment condition is associated with each captured image data in frame units, but the correspondence between the adjustment condition and the captured image data is not limited to this.
  • one adjustment condition can be shared by a plurality of frames and a predetermined time unit.
  • the adjustment condition may be shared by a plurality of photographed image data with the update timing when the setting condition of the optical system is changed or when the subject situation is changed.
  • the parallax amount curve 1620 is adjusted so that the near-point subject and the far-point subject are within the set parallax amount range.
  • the standard to adjust is not limited to this.
  • the accumulated amount of parallax is calculated by integrating the amount of parallax of each pixel in the entire frame. If the accumulated amount of parallax is positive, the image will pop out as a whole, so if it is larger than a predetermined reference value, adjusted parallax image data is generated by reducing the amount of parallax using a stereo adjustment parameter. To do.
  • the processing may be performed in the same way as in the case of positive, and the parallax image data may be generated as it is without using the stereo adjustment parameter for the negative side where the sense of discomfort is relatively small. .
  • the image when evaluating with the accumulated parallax amount, the image may be subdivided into a plurality of regions, and the accumulated value may be calculated and evaluated for each of the regions. If evaluated in this way, the amount of parallax can be reduced even when there is a region having a protruding amount of parallax.
  • the evaluation can be performed based on the change amount of the accumulated parallax amount.
  • the accumulated amount of parallax may change suddenly when the shooting scene is changed, but if a reference value is set in advance as the allowable change amount, the amount of parallax can be reduced when the allowable change amount is exceeded. Can do. In this case, a process of gradually increasing the parallax amount up to the originally allowable parallax amount range may be performed.
  • the configuration for outputting the parallax image data in which the parallax amount is adjusted based on the acquired adjustment condition can be applied to still image shooting.
  • the still image shot in this way does not cause extreme parallax between the left and right images, and does not give the viewer a sense of incongruity.
  • the TV monitor 80 has been described as an example of the image processing apparatus.
  • the image processing apparatus can take various forms.
  • a device such as a PC, a mobile phone, or a game device that includes or is connected to the display unit can be an image processing apparatus.
  • Each processing flow described in this embodiment is executed by a control program that controls the control unit.
  • the control program is recorded in a built-in nonvolatile memory, and is appropriately expanded in the work memory to execute each process.
  • the control program recorded in the server is transmitted to each device via the network, and is expanded in the work memory to execute each process.
  • a control program recorded on the server is executed on the server, and each device executes processing in accordance with a control signal transmitted via the network.
  • the configuration has been described in which the image sensor 100 includes pixels without parallax and the captured image data includes reference image data.
  • the image sensor 100 may not include pixels without parallax, and thus the captured image data may be configured only by parallax image data.
  • adjusted parallax image data obtained by subtracting the parallax amount from the parallax image data using the stereoscopic adjustment parameter is generated. Even if the image sensor 100 includes pixels without parallax, adjusted parallax image data may be generated using only parallax image data.
  • the subject image of the right parallax image data has the first parallax in the first direction with respect to the virtual subject image based on the subject image of the right parallax image data, and the subject image of the left parallax image data becomes the virtual subject image.
  • the second parallax is in the other direction opposite to the first direction. That is, the subject image of the right parallax image data and the subject image of the left parallax image data have parallax of first parallax + second parallax.
  • the image processing unit uses the adjustment condition as the adjusted parallax image data, the adjusted right parallax image data having a third parallax different from the first parallax in one direction, and the second parallax in the other direction. Generates adjusted left parallax image data having a different fourth parallax.
  • the digital camera according to the present embodiment which is one form of the imaging device, is configured to generate images with a plurality of viewpoints for one scene by one shooting. Each image having a different viewpoint is called a parallax image.
  • a parallax image a case where a right parallax image and a left parallax image from two viewpoints corresponding to the right eye and the left eye are generated will be described.
  • the digital camera in the present embodiment can generate a parallax-free image without parallax from the central viewpoint together with the parallax image.
  • FIG. 19 is a diagram illustrating the configuration of the digital camera 10 according to the embodiment of the present invention.
  • the digital camera 10 includes a photographic lens 20 as a photographic optical system, and guides a subject light beam incident along the optical axis 21 to the image sensor 100.
  • the photographing lens 20 may be an interchangeable lens that can be attached to and detached from the digital camera 10.
  • the digital camera 10 includes an image sensor 100, a control unit 201, an A / D conversion circuit 202, a memory 203, a drive unit 204, an image processing unit 205, a memory card IF 207, an operation unit 208, a display unit 209, and an LCD drive circuit 210. .
  • the direction parallel to the optical axis 21 toward the image sensor 100 is defined as the Z-axis plus direction
  • the direction toward the front of the drawing on the plane orthogonal to the Z-axis is the X-axis plus direction
  • the upward direction on the drawing is Y.
  • the axis is defined as the plus direction.
  • the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes in FIG.
  • the photographing lens 20 is composed of a plurality of optical lens groups, and forms an image of a subject light flux from the scene in the vicinity of its focal plane.
  • the photographic lens 20 is represented by a single virtual lens arranged in the vicinity of the pupil. Further, in the vicinity of the pupil, a diaphragm 22 that restricts the incident light beam concentrically with the optical axis 21 as the center is disposed.
  • the image sensor 100 is disposed in the vicinity of the focal plane of the photographing lens 20.
  • the image sensor 100 is an image sensor such as a CCD or CMOS sensor in which a plurality of photoelectric conversion elements are two-dimensionally arranged.
  • the image sensor 100 is controlled in timing by the drive unit 204, converts the subject image formed on the light receiving surface into an image signal, and outputs the image signal to the A / D conversion circuit 202.
  • the A / D conversion circuit 202 converts the image signal output from the image sensor 100 into a digital image signal and outputs the digital image signal to the memory 203.
  • the image processing unit 205 performs various image processes using the memory 203 as a work space, and generates captured image data.
  • the captured image data includes reference image data generated from the output of the non-parallax pixels of the image sensor 100 and parallax image data generated from the output of the parallax pixels of the image sensor 100, as will be described later.
  • the control unit 201 controls the digital camera 10 in an integrated manner. For example, the aperture of the diaphragm 22 is adjusted according to the set diaphragm value, and the photographing lens 20 is advanced and retracted in the optical axis direction according to the AF evaluation value. Further, the position of the photographing lens 20 is detected, and the focal length and the focus lens position of the photographing lens 20 are grasped. Furthermore, a timing control signal is transmitted to the drive unit 204, and a series of imaging control until the image signal output from the imaging device 100 is processed into captured image data by the image processing unit 205 is managed.
  • the control unit 201 includes a depth information detection unit 235 and a determination unit 236.
  • the depth information detection unit 235 detects the subject distribution in the depth direction with respect to the scene. Specifically, the control unit 201 detects the subject distribution from the defocus amount for each subdivided area using defocus information used for autofocus.
  • the defocus information may use the output of a phase difference sensor provided exclusively, or may use the output of parallax pixels of the image sensor 100.
  • the parallax image data processed by the image processing unit 205 can also be used.
  • the subject distribution can be detected even when the focus lens is advanced and retracted without using the defocus information and the AF evaluation value by the contrast AF method is calculated for each subdivided region.
  • the determination unit 236 determines a change condition related to the amount of parallax based on the subject distribution detected by the depth information detection unit 235. As will be described in detail later, the determination unit 236 determines an aperture value as a shooting condition, for example, so that the amount of parallax between output parallax images falls within the target amount of parallax.
  • the change condition related to the parallax amount is a diaphragm value indicating the diaphragm 22 and its opening degree.
  • the image processing unit 205 processes the image signal output from the image sensor 100 to generate captured image data.
  • the image processing unit 205 includes a calculation unit 233 and a moving image generation unit 234.
  • the calculation unit 233 generates new parallax image data by image processing when adjusting the parallax amount using a stereoscopic adjustment parameter described later.
  • the moving image generation unit 234 connects the parallax image data and generates a 3D moving image file.
  • the image processing unit 205 also has general image processing functions such as adjusting image data according to the selected image format.
  • the generated captured image data is converted into a display signal by the LCD drive circuit 210 and displayed on the display unit 209.
  • the data is recorded on the memory card 220 attached to the memory card IF 207.
  • the operation unit 208 functions as a part of a reception unit that receives a user operation and transmits an instruction to the control unit 201.
  • the operation unit 208 includes a plurality of operation members such as a shutter button that receives a shooting start instruction.
  • FIG. 20 is a diagram schematically illustrating the relationship between the contrast indicating the sharpness of an image and the amount of parallax.
  • the horizontal axis represents the distance from the digital camera 10, and the vertical axis represents the amount of parallax and the height of contrast.
  • the digital camera 10 is focused on the main subject is located at a distance L p.
  • the contrast curve 1610 forms the highest convex curve at the distance L p that is the distance to the focal position. That illustrates how gradually blurred with increasing distance from the distance L p back and forth.
  • Parallax amount curve 1620 at a distance L p indicates parallax amount 0, than the distance L p approaches the digital camera 10 side, shows the curve slope increases. That is, the parallax amount curve 1620 shows a positive value on the near side of the distance L p , and indicates that the closer the subject is, the higher the image is visually recognized.
  • the parallax amount curve 1620 than the distance L p As the distance from the digital camera 10 side, shows the curve slope becomes smaller. That is, the parallax amount curve 1620 distance L p from indicate a negative value in the back side, it represents that it is visible sinks slowly as more distant object.
  • the subject composing the scene moves from the distance L f (the amount of parallax at this time is + m) to the distance L r ( The amount of parallax at this time may be distributed between -m). That is, if the closest near subject from the digital camera 10 exists at the distance L f and the farthest far subject exists at the distance L r , the viewer can adjust the amount of parallax without adjusting the amount of parallax in the subsequent image processing. You can enjoy 3D video comfortably.
  • the near-point object is in front of the distance L f than the distance L f '(parallax amount at this time is + m') are present, since exceeds the parallax amount allowed, viewer discomfort, fatigue Learn.
  • FIG. 21 is a diagram schematically illustrating the relationship between the subject distribution and the amount of parallax.
  • FIG. 21 corresponds to the figure in FIG. 20 excluding the contrast curve 1610.
  • the in-focus object distance L 10 near point subject to L 20, far point object is present in L 30.
  • the parallax amount range set as the allowable range is from ⁇ m to + m
  • the value of the parallax amount curve 1620 with respect to the distance L 30 of the far-point subject is within this range.
  • the value of the parallax amount curve 1620 with respect to the distance L 20 of near-point object is over + m.
  • Figure 21 (b) is a diagram of the subject situation, showing the concept of parallax amount when focus object is moved from the distance L 10 to the back side of the distance L 11 in FIG. 21 (a).
  • the distance L 11 is the focal position
  • the parallax amount relative to the image of the near point object has not moved (the distance L 20), as indicated by the parallax amount curve 1620, in comparison with FIG. 22 (a) It becomes considerably large. That is, the excess amount from the allowable range increases.
  • FIG. 21 (c) shows the object status of FIG. 21 (b), the near point object from the distance L 20 to the back side of the distance L 21, the concept of parallax amount when further moved to the distance L 22 It is.
  • the focal position so remains the distance L 11 parallax amount curve 1620 depicts the same curve as FIG. 21 (b), the by near point object is shifted to the rear side, the parallax amount at the time of the distance L 21 is acceptable Although exceeding the range, the excess amount is smaller than the excess amount of FIG. If further moved until the distance L 22, the parallax amount is within an allowable range.
  • the subject distribution in the depth direction with respect to the scene and the position of the subject to be focused are parameters that determine whether or not the parallax amount falls within the set allowable range.
  • FIG. 22 is a diagram schematically illustrating the relationship between the aperture value and the parallax amount.
  • the horizontal axis represents the distance from the digital camera 10
  • the vertical axis represents the amount of parallax and the height of contrast.
  • 22A shows a state where the aperture value is F1.4
  • FIG. 22B shows a state where the aperture value is F4
  • FIG. 22C shows a state where the aperture value is F8.
  • the focal length of the taking lens 20 are the same in both states, also, the digital camera 10 is focused on the main subject is located at a distance L 10.
  • Contrast curve 1610 the highest in the distance L 10 is a distance to be focal positions in any state.
  • the aperture 22 that is, as the aperture value is increased, a relatively high value is obtained before and after the focal length. That is, it shows that the depth of field becomes deeper as the image is taken with the aperture 22 being reduced.
  • Parallax amount curve 1620 at a distance L 10 shows the parallax amount 0, approaches the digital camera 10 side than the distance L 10, shows the curve slope increases.
  • the parallax amount curve 1620 as the distance from the digital camera 10 side than the distance L 10, shows the curve slope becomes smaller.
  • the parallax amount curve 1620 becomes gentler as the aperture value increases. That is, as compared with the case where the aperture value is F1.4, the amount of parallax in front of the focal position and the amount of parallax in the back become smaller as F4 and F8 change. If the viewer does not feel discomfort and fatigue when the amount of parallax falls within the range of ⁇ m to + m, the entire parallax amount curve 1620 falls within this range when the aperture value is F8. Even if the subject is present at any distance, the viewer can comfortably appreciate the 3D video.
  • the parallax amount exceeds + m on the short distance side of the parallax amount curve 1620.
  • the parallax amount curve 1620 at F4 exceeds + m in front of the area than the distance L 25.
  • the slope of the parallax amount curve 1620 at F4 is gentler than the slope of the parallax amount curve 1620 at F1.8, the relationship of L 25 ⁇ L 24 is established.
  • the imaging conditions that affect the parallax amount are changed so that the parallax amount between the generated images is within the target parallax amount (allowable parallax amount: for example, a range of ⁇ m).
  • the stereoscopic adjustment parameter used for image processing is changed.
  • the aperture value affects the amount of parallax as described with reference to FIG. 22, the aperture value may be changed according to the detected subject distribution so that the amount of parallax between output parallax images is within the allowable amount of parallax.
  • the determination unit 236 changes the aperture value from F1.4, at a distance L 25 in the F4 is a aperture value parallax amount is + m with respect to the subject.
  • the aperture value is changed to a large value not only when the near-point subject exceeds the allowable parallax amount range but also when the far-point subject exceeds the allowable parallax amount range.
  • the aperture value may be changed to a small value, that is, the direction in which the aperture 22 is opened.
  • the shutter speed can be changed to the high speed side
  • the ISO sensitivity can be changed to the low sensitivity side.
  • the relationship between the in-focus subject distance and the parallax amount curve 1620 for each aperture value is prepared in advance as a lookup table.
  • the determination unit 236 can extract and determine the aperture value to be changed by referring to the lookup table with the subject distribution and the allowable parallax amount as input values.
  • FIG. 23 is a diagram schematically showing the concept of focus shift.
  • the vertical axis and the horizontal axis are the same as those in FIG.
  • Contrast curves 1610 and the parallax amount curve 1620 focusing subject exists at a distance L 10, represents the contrast curve and a parallax amount curve when focused on the subject by moving the focus lens.
  • the peak value of the contrast curve 1610 is higher than the focus threshold E s is evaluated with focusing.
  • the parallax amount is + m 0 when referring to the parallax amount curve 1620, which exceeds the allowable parallax amount + m. Therefore, in the focus shift to correct the focus lens position in a range above the focus threshold E s, it falls within the acceptable range parallax amount at the distance L 27.
  • a parallax amount curve 1621 where the parallax amount with respect to the near-point subject is + m is selected, and a distance L p where the parallax amount is 0 in the parallax amount curve 1621 is extracted. Then, by changing the focus lens position, the distance L p as the focusing position.
  • the contrast curve 1611 is a contrast curve at this time. Since the object is present in the distance L 10 in fact, the contrast value for the subject is reduced by ⁇ e as shown. Contrast value at this time has only to above the focus threshold E s. In this way, an image shot with the focus lens position changed can be evaluated as in-focus as the image, although the contrast value for the main subject is slightly reduced, and the parallax amount for the near-point subject is within an allowable range. Yes.
  • the correction of the focusing lens position is not allowed. That is, when the parallax amount relative to the near-point object in parallax amount curve 1620 largely exceeds the allowable amount of parallax, changing the focus lens position in a range above the focus threshold E s, fit the parallax amount within the allowable range I can't. In this case, it may be used in combination with other methods such as changing the aperture value to a large value.
  • a lookup table prepared in advance as a relationship between the focused subject distance and the parallax amount curve for each aperture value may be used.
  • the determination unit 236 can extract and determine the distance L p by referring to the lookup table using the subject distribution and the allowable parallax amount as input values.
  • the control unit 201 corresponds to the distance L p to change the position of the focus lens. Control unit 201, the contrast value obtained as a result of determining whether above the focus threshold E s. If it is determined that it exceeds, the photographing sequence is continued as it is. If it is determined that the value does not exceed, the focus lens position is returned and the control shifts to another method.
  • actual control unit 201 without moving the focus lens whether the focal position is the attenuation of contrast when shifted to the L p determination unit 236 calculates the L 10, above the focus threshold E s It may be judged.
  • the contrast AF method when the focus adjustment with respect to the distance L 10, may also refer to the actual evaluation value has already been obtained.
  • FIG. 24 is a diagram illustrating a concept of parallax amount adjustment using a three-dimensional adjustment parameter.
  • FIGS. 24A to 24C corresponds to each of FIGS. 21A to 21C.
  • the parallax amount range set in FIG. 24A is from ⁇ m to + m
  • the value of the parallax amount curve 1620 with respect to the distance L 30 of the far point subject is within this range. It is not necessary to adjust the amount of parallax. However, since the value of the parallax amount curve 1620 with respect to the distance L 20 of near-point object is over + m, the image of the near-point object to be parallax amount + m, adjusts the parallax amount of the total.
  • the parallax amount curve is adjusted so that the parallax amount of the near-point subject image and the parallax amount of the far-point subject image fall within the set parallax amount range. More specifically, the parallax amount curve may be adjusted so that the parallax amount of the subject image on the side greatly deviating from the set parallax amount range becomes the limit value of the parallax amount range.
  • the adjusted parallax amount curve 1630 is the parallax amount curve adjusted in this way. By adjusting in this way, all the images of the subject constituting the same scene fall within the set parallax amount range.
  • the total amount of parallax is adjusted so that the near-point subject image has the amount of parallax + m.
  • the adjustment amount becomes larger than the adjustment amount in the case of FIG.
  • the inclination of the adjustment parallax amount curve 1630 is closer to the horizontal, and thus the parallax amount of the far-side subject side image is further suppressed.
  • the but focus position parallax amount curve 1620 remain such because of the distance L 11 is the same as in FIG. 24 (b), the the near-point object is moved from the distance L 20 to the distance L 21 Therefore, the adjustment amount becomes smaller than the adjustment amount in the case of FIG. If the near-point subject moves from L 21 to L 22 , the parallax amount is within the set parallax amount range without adjustment.
  • the adjustment amount with respect to the parallax amount curve 1620 is uniquely determined if the subject distribution in the depth direction with respect to the scene and the position of the subject to be focused can be acquired. Since the adjustment amount has a one-to-one relationship with the value of the three-dimensional adjustment parameter C, the determination unit 236 can determine the value of the three-dimensional adjustment parameter C when receiving the adjustment information from the depth information detection unit 235 and the like. Specifically, a lookup table corresponding to FIG. 24 is prepared in advance, and when the determination unit 236 inputs each value of the adjustment information and refers to the lookup table, the value of the stereoscopic adjustment parameter C corresponding to the input Can be extracted and determined. The look-up table is constructed based on the results of prior simulations, experiments, and the like. Alternatively, a multivariable function that uses each value of the adjustment information as a variable may be prepared in advance regardless of the format of the lookup table.
  • FIG. 25 is a rear view of a digital camera that displays a menu screen for limiting the parallax amount range.
  • the parallax amount range is set as the lower limit value ⁇ m and the upper limit value + m as described above.
  • the absolute value of the lower limit value and the upper limit value may be different.
  • the parallax amount is expressed in units of pixels of the parallax image in the parallax image data.
  • the amount of parallax that viewers feel uncomfortable and tired varies from viewer to viewer. Therefore, it is preferable to configure the digital camera 10 so that a photographer who is a user of the digital camera 10 can change the setting of the parallax amount restriction at the time of shooting.
  • the digital camera 10 is provided with, for example, four options as shown in the figure as a menu for limiting the parallax amount range. Specifically, “Standard” presets the range that a standard viewer feels comfortable with, presets a range wider than the standard, “strong” allows a larger amount of parallax, and presets a range narrower than the standard In addition, “weak” that allows only a smaller amount of parallax, and “manual” in which the photographer inputs an upper limit value and a lower limit value are provided. When “Manual” is selected, the photographer can sequentially specify “maximum lifting amount” as an upper limit value and “maximum sinking amount” as a lower limit value in units of pixels. The photographer selects and designates these by operating a dial button 2081 that is a part of the operation unit 208.
  • the digital camera 10 includes an auto 3D moving image mode in which a parallax image data adjusted to a comfortable parallax amount is continuously generated and a moving image file is generated by connecting the parallax image data as one of the moving image shooting modes. .
  • the photographer operates the mode button 2082 that is part of the operation unit 208 to select the auto 3D moving image mode.
  • FIG. 26 is a diagram for explaining subject designation.
  • FIG. 26A shows a subject distribution in the depth direction from the digital camera 10 in a certain scene
  • FIG. 26B is a rear view of the digital camera 10 displaying the scene in a live view.
  • the scene has a tree 300 (distance L o ), a girl 301 (distance L f ), a boy 302 (distance L p ), and a woman 303 (distance L r ) in order from the digital camera 10.
  • FIG. 26B a live view image that captures this scene is displayed on the display unit 209.
  • the boy 302 is the focused subject.
  • An AF frame 310 indicating that the boy 302 is in focus is displayed superimposed on the image of the boy 302.
  • the subject closest to the digital camera 10 is the near point subject.
  • the subjects constituting the scene may be continuously distributed in the depth direction.
  • the closest subject in the scene is a near point subject.
  • three persons are main subjects, and it is assumed that the viewer gazes at these three persons at the time of viewing. Therefore, the subject images whose parallax amount is to be adjusted are these three images, and other subject images may be excluded. Therefore, the control unit 201 receives a photographer's instruction as to which subject the parallax amount should be adjusted.
  • the display unit 209 displays a title 320 (for example, “Please select a near subject”) indicating that the user instruction is accepted.
  • the user touches a subject image that is desired to be a near-point subject (girl 301 in the figure).
  • the display unit 209 is provided with a touch panel 2083 as a part of the operation unit 208, and the control unit 201 acquires the output of the touch panel 2083 and determines which subject is the near-point subject.
  • the subject in front of the designated subject (the tree 300 in the figure) is excluded from the subject distribution detection target.
  • not only near-point subjects but also far-point subjects may receive instructions in the same manner.
  • the depth information detection unit 235 sets the subject (the subject from the near point subject to the far point subject) designated by the user instruction in this way as the subject of the subject distribution detection.
  • the subject received at the start of shooting is tracked by subject tracking, and the distances L f , L p , L r may be acquired.
  • FIG. 27 is a processing flow in moving image shooting according to the first embodiment. The flow in the figure starts when the mode button 2082 is operated by the photographer and the automatic 3D moving image mode is started. Note that the parallax amount range is set in advance by the photographer.
  • the determination unit 236 acquires the parallax amount range set by the photographer from the system memory in step S11.
  • the control unit 201 executes AF and AE. Proceeding to step S13, the control unit 201 receives, from the user, target subject designation via the touch panel 2083, for example, as described with reference to FIG. Proceeding to step S14, the depth information detection unit 235 detects the subject distribution in the depth direction from the phase difference information detected in association with the AF operation of step S12, for the subject specified in step S13.
  • step S15 the control unit 201 waits for a recording start instruction for the photographer to press the recording start button.
  • the control unit 201 proceeds to step S16. If no instruction is detected, the process returns to step S12. Note that after returning to step S12, the specified subject may be tracked and the processing of steps S13 and S14 may be skipped.
  • step S16 the determination unit 236 changes the shooting conditions. Specifically, the aperture value is changed as described with reference to FIG. 22, or the focus lens position is changed as described with reference to FIG. In addition to this, an imaging condition that affects the amount of parallax may be changed so as to be within the set range of the amount of parallax. For example, if the photographing lens 20 is a zoom lens, the focal length can be changed.
  • step S17 the control unit 201 executes AF and AE again according to the changed imaging condition.
  • step S18 the control unit 201 performs charge accumulation and readout of the image sensor 100 via the drive unit 204, and acquires captured image data as one frame.
  • the amount of parallax between the parallax images in the captured image data acquired here is within the set amount of parallax.
  • step S19 the control unit 201 accepts a target subject designation from the user for the case where the photographer wants to change the target subject during moving image shooting.
  • step S20 the depth information detection unit 235 detects the subject distribution in the depth direction. Note that the processing in step S19 may be skipped. In this case, since the subject designation in step S13 is maintained as it is, the processing in step S20 can be said to be processing for realizing subject tracking of the target subject according to the AF and AE processing in step S17.
  • step S21 determines in step S21 that it has not received a recording stop instruction from the photographer, it returns to step S16 and executes the next frame process. If it is determined that a recording stop instruction has been received, the process proceeds to step S22.
  • the moving image generating unit 234 connects the continuously generated left-viewpoint color image data and right-viewpoint color image data, and executes format processing according to a 3D-compatible moving image format such as Blu-ray 3D. Generate a file. Then, the control unit 201 records the generated moving image file on the memory card 220 via the memory card IF 207, and ends a series of flows. Note that the recording to the memory card 220 may be sequentially executed in synchronization with the generation of the left-viewpoint color image data and the right-viewpoint color image data, and the file end process may be executed in synchronization with the recording stop instruction. Further, the control unit 201 is not limited to recording on the memory card 220, and may be configured to output to an external device via a LAN, for example.
  • the moving image generation unit 234 causes the calculation unit 233 to perform image processing in which the value of the stereoscopic adjustment parameter C in the above formulas (1) and (2) is 1, and thus a high-definition color image of the left viewpoint. Data and color image data of the right viewpoint may be generated.
  • FIG. 28 is a processing flow in moving image shooting according to the second embodiment.
  • the processing related to each processing in the processing flow of FIG. 27 is given the same step number, and the description thereof is omitted except for the description of different processing and additional processing.
  • step S16 in the flow of FIG. 27 does not exist.
  • the control unit 201 executes AF and AE in step S17 without changing the shooting condition for adjusting the parallax amount.
  • step S18 captured image data is acquired. The amount of parallax between the parallax images in the captured image data acquired here does not fall within the set amount of parallax depending on the subject distribution and the shooting conditions.
  • the determination unit 236 acquires the adjustment information described with reference to FIG. 24 in step S31, and determines the value of the three-dimensional adjustment parameter C with reference to the lookup table using the received adjustment information as an argument in step S32.
  • step S33 the calculation unit 233 receives the value of the stereoscopic adjustment parameter C determined by the determination unit 236 and the captured image data, and color image data (RLt c plane data, GLt c plane data, BLt c plane data) of the left viewpoint. ) And right viewpoint color image data (RRt c plane data, GRt c plane data, BRt c plane data). Specific processing will be described next.
  • FIG. 29 is a processing flow of step S33 until the color image data of the left viewpoint and the color image data of the right viewpoint are generated.
  • step S101 the calculation unit 233 acquires captured image data.
  • step S102 as described with reference to FIG. 3, the captured image data is plane-separated into image data without parallax and parallax image data.
  • step S103 the calculation unit 233 executes an interpolation process for interpolating vacancies existing in the separated plane data as described with reference to FIG.
  • the calculation unit 233 initializes each variable in step S104. Specifically, first, 1 is substituted into the color variable Cset.
  • the three-dimensional adjustment parameter C is the value determined in step S32.
  • the calculation unit 233 increments the parallax variable S in step S108.
  • step S109 it is determined whether or not the parallax variable S exceeds 2. If not, the process returns to step S107. If it exceeds, the process proceeds to step S110.
  • step S110 the calculation unit 233 assigns 1 to the parallax variable S and increments the coordinate variable i. Then, in step S111, it is determined whether coordinate variable i exceeds i 0. If not, the process returns to step S105. If it exceeds, the process proceeds to step S112.
  • step S112 the calculation unit 233 assigns 1 to the coordinate variable i and increments the coordinate variable j. Then, in step S113, it is determined whether coordinate variable j exceeds j 0. If not, the process returns to step S105. If it exceeds, the process proceeds to step S114.
  • step S115 the calculation unit 233 assigns 1 to the coordinate variable j and increments the color variable Cset.
  • step S116 it is determined whether or not the color variable Cset exceeds 3. If not, the process returns to step S105. If it exceeds, color image data of the left viewpoint (RLt c plane data, GLt c plane data, BLt c plane data) and color image data of the right viewpoint (RRt c plane data, GRt c plane data, BRt c plane data) If all of the above are complete, the flow returns to the flow of FIG.
  • FIG. 30 is a diagram illustrating a preferred opening shape.
  • each of the openings 105 and 106 has a shape in contact with a virtual center line 322 passing through the center of the pixel or a shape straddling the center line 322.
  • the shape of the opening 105 and the shape of the opening 106 are preferably the same as the respective shapes obtained by dividing the shape of the opening 104 of the non-parallax pixel by the center line 322.
  • the shape of the opening 104 is preferably equal to the shape in which the shape of the opening 105 and the shape of the opening 106 are adjacent to each other.
  • the calculation formula used by the calculation unit 233 employs the above formulas (1) and (2) using the weighted arithmetic mean, but not limited to this, various calculation formulas can be used.
  • the above formulas (3) and (4) can be adopted as calculation formulas expressed in the same manner as the above formulas (1) and (2).
  • the amount of blur maintained is not the amount of blur due to the output of the non-parallax pixel but the amount of blur due to the output of the parallax pixel.
  • FIG. 31 is a diagram for explaining the cooperation between the digital camera 10 and the TV monitor 80.
  • the TV monitor 80 includes a display unit 40 made of, for example, liquid crystal, a memory card IF 81 that receives the memory card 220 taken out from the digital camera 10, a remote controller 82 that is operated by a viewer at hand, and the like.
  • the TV monitor 80 is compatible with 3D image display.
  • the display format of the 3D image is not particularly limited.
  • the right-eye image and the left-eye image may be displayed in a time-division manner, or may be an interlace in which strips are arranged in a horizontal or vertical direction. Further, it may be a side-by-side format arranged on one side and the other side of the screen.
  • the TV monitor 80 decodes a moving image file that includes the color image data of the left viewpoint and the color image data of the right viewpoint, and displays a 3D image on the display unit 40.
  • the TV monitor 80 serves as a general display device that displays a standardized moving image file.
  • the TV monitor 80 can also function as an image processing apparatus that bears at least part of the function of the control unit 201 and at least part of the function of the image processing unit 205 described with reference to FIG.
  • the determination unit 236 described in FIG. 1 and an image processing unit including the calculation unit 233 and the moving image generation unit 234 are incorporated in the TV monitor 80.
  • the digital camera 10 does not perform image processing using the stereoscopic adjustment parameter, and associates the depth information detected by the depth information detection unit 235 with the generated captured image data.
  • the TV monitor 80 determines the value of the stereoscopic adjustment parameter C with reference to the associated depth information, and executes image processing using the stereoscopic adjustment parameter on the acquired image data.
  • the TV monitor 80 displays the 3D image with the parallax amount adjusted in this way on the display unit 40.
  • the viewer may be configured to be able to input some adjustment information during playback on the TV monitor 80.
  • the viewer can input the parallax amount range by operating the remote controller 82.
  • the TV monitor 80 acquires the input parallax amount range as adjustment information, and the determination unit 236 determines the value of the stereoscopic adjustment parameter C according to the parallax amount range. If comprised in this way, the TV monitor 80 can display the 3D image according to the preference for every viewer.
  • the TV monitor 80 has been described as an example of an image processing apparatus, the image processing apparatus can take various forms.
  • a device such as a PC, a mobile phone, or a game device that includes or is connected to the display unit can be an image processing apparatus.
  • the target subject is accepted by the user's instruction, but the control unit 201 may automatically select the subject.
  • the control unit 201 can set only a human image included in the scene as a target subject through the human recognition process.
  • Each processing flow described in this embodiment is executed by a control program that controls the control unit.
  • the control program is recorded in a built-in nonvolatile memory, and is appropriately expanded in the work memory to execute each process.
  • the control program recorded in the server is transmitted to each device via the network, and is expanded in the work memory to execute each process.
  • a control program recorded on the server is executed on the server, and each device executes processing in accordance with a control signal transmitted via the network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

 ステレオ撮像装置によって撮影されたままのステレオ画像データは、撮影時の条件、シーンにおける被写体の配置などに起因して左右の画像間に極度に視差が生じている場合があり、鑑賞者は、鑑賞時に違和感、疲労感を覚えることがあった。そこで、同一シーンを撮像して生成される、基準画像データ、基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データを生成する撮像部と、視差量調整に関する調整条件を取得する調整条件取得部と、調整条件に基づいて、基準画像データ、第1視差画像データおよび第2視差画像データを処理することにより、一方向に第1視差とは異なる第3視差を有する第3視差画像データと、他方向に第2視差とは異なる第4視差を有する第4視差画像データとを生成する画像処理部とを備える撮像装置を提供する。

Description

撮像装置、画像処理装置、撮像装置の制御プログラムおよび画像処理装置の制御プログラム
 本発明は、撮像装置、画像処理装置、撮像装置の制御プログラムおよび画像処理装置の制御プログラムに関する。
 2つの撮影光学系を用いて、右目用の画像と左目用の画像とから成るステレオ画像を取得するステレオ撮像装置が知られている。
[先行技術文献]
[特許文献]
  [特許文献1] 特開平8-47001号公報
 ステレオ撮像装置によって撮影されたままのステレオ画像データは、撮影時の条件、シーンにおける被写体の配置などに起因して左右の画像間に極度に視差が生じている場合があり、鑑賞者は、鑑賞時に違和感、疲労感を覚えることがあった。
 本発明の第1の態様における撮像装置は、同一シーンを撮像して生成される、基準画像データ、基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データを生成する撮像部と、視差量調整に関する調整条件を取得する調整条件取得部と、調整条件に基づいて、基準画像データ、第1視差画像データおよび第2視差画像データを処理することにより、一方向に第1視差とは異なる第3視差を有する第3視差画像データと、他方向に第2視差とは異なる第4視差を有する第4視差画像データとを生成する画像処理部とを備える。
 本発明の第2の態様における撮像装置は、同一シーンを撮像して生成される、基準画像データ、基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データを生成する撮像部と、第1視差および第2視差とは異なる視差を有する調整視差画像データを生成するための視差量調整に関する調整条件を取得する調整条件取得部と、調整条件を撮影画像データに関連付けて出力する出力部とを備える。
 本発明の第3の態様における画像処理装置は、基準画像データ、基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データと、撮影画像データに関連付けられた視差量調整に関する調整条件とを取り込む取込部と、調整条件に基づいて、基準画像データ、第1視差画像データおよび第2視差画像データを処理することにより、一方向に第1視差とは異なる第3視差を有する第3視差画像データと、他方向に第2視差とは異なる第4視差を有する第4視差画像データとを生成する画像処理部とを備える。
 本発明の第4の態様における撮像装置の制御プログラムは、同一シーンを撮像して生成される、基準画像データ、基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データを生成する撮像ステップと、視差量調整に関する調整条件を取得する調整条件取得ステップと、調整条件に基づいて、基準画像データ、第1視差画像データおよび第2視差画像データを処理することにより、一方向に第1視差とは異なる第3視差を有する第3視差画像データと、他方向に第2視差とは異なる第4視差を有する第4視差画像データとを生成する画像処理ステップとをコンピュータに実行させる。
 本発明の第5の態様における撮像装置の制御プログラムは、同一シーンを撮像して生成される、基準画像データ、基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データを生成する撮像ステップと、第1視差および第2視差とは異なる視差を有する調整視差画像データを生成するための視差量調整に関する調整条件を取得する調整条件取得ステップと、調整条件を撮影画像データに関連付けて出力する出力ステップとをコンピュータに実行させる。
 本発明の第6の態様における画像処理装置の制御プログラムは、基準画像データ、基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データと、撮影画像データに関連付けられた視差量調整に関する調整条件とを取り込む取込ステップと、調整条件に基づいて、基準画像データ、第1視差画像データおよび第2視差画像データを処理することにより、一方向に第1視差とは異なる第3視差を有する第3視差画像データと、他方向に第2視差とは異なる第4視差を有する第4視差画像データとを生成する画像処理ステップとをコンピュータに実行させる。
 本発明の第7の態様における撮像装置は、シーンに対して奥行き方向の被写体分布を検出する検出部と、被写体分布に基づいて視差量に関する変更条件を決定する決定部と、変更条件に基づいて、互いに視差を有する第1視差画像データと第2視差画像データを包含する撮影画像データを生成する撮像制御を実行する制御部とを備える。
 本発明の第8の態様における撮像装置の制御プログラムは、シーンに対して奥行き方向の被写体分布を検出する検出ステップと、被写体分布に基づいて視差量に関する変更条件を決定する決定ステップと、変更条件に基づいて、互いに視差を有する第1視差画像データと第2視差画像データを包含する撮影画像データを生成する撮像制御ステップとをコンピュータに実行させる。
 なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本発明の実施形態に係るデジタルカメラの構成を説明する図である。 撮像素子の一部を拡大した様子を概念的に表す概念図である。 2D画像データと視差画像データの生成処理の例を説明する図である。 デフォーカスの概念を説明する図である。 視差画素が出力する光強度分布を示す図である。 調整視差量の概念を説明するための画素値分布を示す図である。 カラー視差プレーンデータの生成処理を説明する図である。 RGBの画素値分布の変化を説明する図である。 鑑賞者の輻輳角と視差量の関係を示す図である。 絞り値、画像の鮮鋭度を示すコントラストおよび視差量の関係を模式的に示す図である。 視差量制限のメニュー画面を表示するデジタルカメラの背面図である。 視差量調整の概念を示す図である。 動画撮影における処理フローである。 視差カラー画像データを生成するまでの処理フローである。 好ましい開口形状を説明する図である。 デジタルカメラとTVモニタとの連携を説明する図である。 変形例としてのデジタルカメラの動画撮影における処理フローである。 変形例としてのTVモニタにおける処理フローである。 本発明の実施形態に係るデジタルカメラの構成を説明する図である。 画像の鮮鋭度を示すコントラストと視差量の関係を模式的に示す図である。 被写体分布と視差量の関係を模式的に示す図である。 絞り値と視差量の関係を模式的に示す図である。 フォーカスシフトの概念を模式的に示す図である。 立体調整パラメータを用いた視差量調整の概念を示す図である。 視差量範囲制限のメニュー画面を表示するデジタルカメラの背面図である。 被写体指定を説明する図である。 第1実施例に係る動画撮影における処理フローである。 第2実施例に係る動画撮影における処理フローである。 視差カラー画像データを生成するまでの処理フローである。 好ましい開口形状を説明する図である。 デジタルカメラとTVモニタとの連携を説明する図である。
 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
 <第1の実施形態>
 撮像装置の一形態である本実施形態に係るデジタルカメラは、1つのシーンについて複数の視点数の画像を一度の撮影により生成できるように構成されている。互いに視点の異なるそれぞれの画像を視差画像と呼ぶ。本実施形態においては、特に、右目と左目に対応する2つの視点による右視差画像と左視差画像を生成する場合について説明する。本実施形態におけるデジタルカメラは、中央視点による視差のない視差なし画像も、視差画像と共に生成できる。
 図1は、本発明の実施形態に係るデジタルカメラ10の構成を説明する図である。デジタルカメラ10は、撮影光学系としての撮影レンズ20を備え、光軸21に沿って入射する被写体光束を撮像素子100へ導く。撮影レンズ20は、デジタルカメラ10に対して着脱できる交換式レンズであっても構わない。デジタルカメラ10は、撮像素子100、制御部201、A/D変換回路202、メモリ203、駆動部204、画像処理部205、メモリカードIF207、操作部208、表示部209およびLCD駆動回路210を備える。
 なお、図示するように、撮像素子100へ向かう光軸21に平行な方向をZ軸プラス方向と定め、Z軸と直交する平面において紙面手前へ向かう方向をX軸プラス方向、紙面上方向をY軸プラス方向と定める。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。
 撮影レンズ20は、複数の光学レンズ群から構成され、シーンからの被写体光束をその焦点面近傍に結像させる。なお、図1では撮影レンズ20を説明の都合上、瞳近傍に配置された仮想的な1枚のレンズで代表して表している。また、瞳近傍には、光軸21を中心として同心状に入射光束を制限する絞り22が配置されている。
 撮像素子100は、撮影レンズ20の焦点面近傍に配置されている。撮像素子100は、二次元的に複数の光電変換素子が配列された、例えばCCD、CMOSセンサ等のイメージセンサである。撮像素子100は、駆動部204によりタイミング制御されて、受光面上に結像された被写体像を画像信号に変換してA/D変換回路202へ出力する。
 A/D変換回路202は、撮像素子100が出力する画像信号をデジタル画像信号に変換してメモリ203へ出力する。画像処理部205は、メモリ203をワークスペースとして種々の画像処理を施し、撮影画像データを生成する。撮影画像データは、後述するように、撮像素子100の視差なし画素の出力から生成される基準画像データと、撮像素子100の視差画素の出力から生成される視差画像データを包含する。撮影画像データを生成するまでの処理部を撮像部とする場合、撮像部は、撮像素子100、A/D変換回路202、メモリ203、制御部201および画像処理部205を含んで構成される。
 制御部201は、デジタルカメラ10を統合的に制御する。例えば、設定された絞り値に応じて絞り22の開口を調整し、AF評価値に応じて撮影レンズ20を光軸方向に進退させる。また、撮影レンズ20の位置を検出して、撮影レンズ20の焦点距離、フォーカスレンズ位置を把握する。さらに、駆動部204に対してタイミング制御信号を送信し、撮像素子100から出力される画像信号が画像処理部205で撮影画像データに処理されるまでの一連のシーケンスを管理する。
 また、制御部201は、調整条件取得部231を包含する。調整条件取得部231は、後述する立体調整パラメータを決定するための、さまざまな調整条件を取得する。詳しくは後述するが、例えば、その撮影画像データが生成された時の撮影条件としての絞り値、焦点距離等を調整条件として逐次取得する。
 画像処理部205は、調整値決定部232、算出部233および動画生成部234を包含する。調整値決定部232は、調整条件取得部231が取得した調整条件から立体調整パラメータの値を決定する。算出部233は、決定された立体調整パラメータを用いて、撮影画像データから、新たな視差画像データを生成する。動画生成部234は、算出部が生成した新たな視差画像データを繋ぎ合わせて、3Dの動画ファイルを生成する。
 画像処理部205は、他にも選択された画像フォーマットに従って画像データを調整するなどの画像処理一般の機能も担う。生成された撮影画像データは、LCD駆動回路210により表示信号に変換され、表示部209に表示される。また、メモリカードIF207に装着されているメモリカード220に記録される。
 図2は、撮像素子100の一部を拡大した様子を概念的に表す概念図である。画素領域には2000万個以上もの画素がマトリックス状に配列されている。本実施形態においては、隣接する8画素×8画素の64画素が一つの基本格子110を形成する。基本格子110は、2×2の4画素を基本単位とするベイヤー配列を、Y軸方向に4つ、X軸方向に4つ含む。なお、図示するように、ベイヤー配列においては、左上画素と右下画素に緑フィルタ(Gフィルタ)、左下画素に青フィルタ(Bフィルタ)、右上画素に赤フィルタ(Rフィルタ)が配される。
 基本格子110は、視差画素と視差なし画素を含む。視差画素は、撮影レンズ20を透過する入射光束のうち、撮影レンズ20の光軸に対して偏位した部分光束を受光する画素である。視差画素には、当該部分光束のみを透過させるように、画素中心から偏位した偏位開口を有する開口マスクが設けられている。開口マスクは、例えば、カラーフィルタに重ねて設けられる。本実施形態においては、開口マスクにより、部分光束が画素中心に対して左側に到達するように規定された視差Lt画素と、部分光束が画素中心に対して右側に到達するように規定された視差Rt画素の2種類が存在する。一方、視差なし画素は、開口マスクが設けられていない画素であり、撮影レンズ20を透過する入射光束の全体を受光する画素である。
 なお、視差画素は、光軸から偏位した部分光束を受光するにあたり、開口マスクに限らず、受光領域と反射領域が区分された選択的反射膜、偏位したフォトダイオード領域など、様々な構成を採用し得る。すなわち、視差画素は、撮影レンズ20を透過する入射光束のうち、光軸から偏位した部分光束を受光できるように構成されていれば良い。
 基本格子110内の画素をPIJで表す。例えば、左上画素はP11であり、右上画素はP81である。図に示すように、視差画素は以下のように配列されている。
 P11…視差Lt画素+Gフィルタ(=G(Lt))
 P51…視差Rt画素+Gフィルタ(=G(Rt))
 P32…視差Lt画素+Bフィルタ(=B(Lt))
 P63…視差Rt画素+Rフィルタ(=R(Rt))
 P15…視差Rt画素+Gフィルタ(=G(Rt))
 P55…視差Lt画素+Gフィルタ(=G(Lt))
 P76…視差Rt画素+Bフィルタ(=B(Rt))
 P27…視差Lt画素+Rフィルタ(=R(Lt))
 他の画素は視差なし画素であり、視差無し画素+Rフィルタ、視差なし画素+Gフィルタ、視差無し画素+Bフィルタのいずれかである。
 撮像素子100の全体でみた場合に、視差画素は、Gフィルタを有する第1群と、Rフィルタを有する第2群と、Bフィルタを有する第3群のいずれかに区分され、基本格子110には、それぞれの群に属する視差Lt画素および視差Rt画素が少なくとも1つは含まれる。図の例のように、これらの視差画素および視差なし画素が、基本格子110内においてランダム性を有して配置されると良い。ランダム性を有して配置されることにより、色成分ごとの空間分解能に偏りを生じさせることなく、視差画素の出力としてRGBのカラー情報を取得することができるので、高品質な視差画像データが得られる。
 次に、撮像素子100から出力される撮影画像データから2D画像データと視差画像データを生成する処理の概念を説明する。図3は、2D画像データと視差画像データの生成処理の例を説明する図である。
 基本格子110における視差画素および視差なし画素の配列からもわかるように、撮像素子100の出力をその画素配列に一致させてそのまま羅列しても、特定の像を表す画像データにはならない。撮像素子100の画素出力を、同一に特徴付けられた画素グループごとに分離して寄せ集めてはじめて、その特徴に即した一つの像を表す画像データが形成される。例えば、左右の視差画素をそれぞれ寄せ集めると、互いに視差を有する左右の視差画像データが得られる。このように、同一に特徴付けられた画素グループごとに分離して寄せ集められたそれぞれの画像データを、プレーンデータと呼ぶ。
 画像処理部205は、撮像素子100の画素配列順にその出力値(画素値)が羅列されたRAW元画像データを受け取り、複数のプレーンデータに分離するプレーン分離処理を実行する。図の左列は、2D画像データとしての2D-RGBプレーンデータの生成処理の例を示す。
 2D-RGBプレーンデータを生成するにあたり、画像処理部205は、まず視差画素の画素値を除去して、空格子とする。そして、空格子となった画素値を、周辺画素の画素値を用いて補間処理により算出する。例えば、空格子P11の画素値は、斜め方向に隣接するGフィルタ画素の画素値である、P-1-1、P2-1、P-12、P22の画素値を平均化演算して算出する。また、例えば空格子P63の画素値は、上下左右に1画素飛ばして隣接するRフィルタの画素値である、P43、P61、P83、P65の画素値を平均化演算して算出する。同様に、例えば空格子P76の画素値は、上下左右に1画素飛ばして隣接するBフィルタの画素値である、P56、P74、P96、P78の画素値を平均化演算して算出する。
 このように補間された2D-RGBプレーンデータは、ベイヤー配列を有する通常の撮像素子の出力と同様であるので、その後は2D画像データとして各種処理を行うことができる。すなわち、公知のベイヤー補間を行って、各画素にRGBデータの揃ったカラー画像データを生成する。画像処理部205は、静止画データを生成する場合にはJPEG等の、動画データを生成する場合にはMPEG等の、予め定められたフォーマットに従って一般的な2D画像としての画像処理を行う。
 本実施形態においては、画像処理部205は、2D-RGBプレーンデータをさらに色ごとに分離し、上述のような補間処理を施して、基準画像データとしての各プレーンデータを生成する。すなわち、緑色の基準画像プレーンデータとしてのGnプレーンデータ、赤色の基準画像プレーンデータとしてのRnプレーンデータ、および青色の基準画像プレーンデータとしてのBnプレーンデータの3つを生成する。
 図の右列は、視差画素データとしての2つのGプレーンデータ、2つのRプレーンデータおよび2つのBプレーンデータの生成処理の例を示す。2つのGプレーンデータは、左視差画像データとしてのGLtプレーンデータと右視差画像データとしてのGRtプレーンデータであり、2つのRプレーンデータは、左視差画像データとしてのRLtプレーンデータと右視差画像データとしてのRRtプレーンデータであり、2つのBプレーンデータは、左視差画像データとしてのBLtプレーンデータと右視差画像データとしてのBRtプレーンデータである。
 GLtプレーンデータを生成するにあたり、画像処理部205は、撮像素子100の全出力値からG(Lt)画素の画素値以外の画素値を除去して空格子とする。すると、基本格子110には、P11とP55の2つの画素値が残る。そこで、基本格子110を縦横に4等分し、左上の16画素分をP11の出力値で代表させ、右下の16画素分をP55の出力値で代表させる。そして、右上の16画素分および左下の16画素分は、上下左右に隣接する周辺の代表値を平均化演算して補間する。すなわち、GLtプレーンデータは、16画素単位で一つの値を有する。
 同様に、GRtプレーンデータを生成するにあたり、画像処理部205は、撮像素子100の全出力値からG(Rt)画素の画素値以外の画素値を除去して空格子とする。すると、基本格子110には、P51とP15の2つの画素値が残る。そこで、基本格子110を縦横に4等分し、右上の16画素分をP51の出力値で代表させ、左下の16画素分をP15の出力値で代表させる。そして、左上の16画素分および右下の16画素分は、上下左右に隣接する周辺の代表値を平均化演算して補間する。すなわち、GRtプレーンデータは、16画素単位で一つの値を有する。このようにして、2D-RGBプレーンデータよりは解像度の低いGLtプレーンデータとGRtプレーンデータを生成することができる。
 RLtプレーンデータを生成するにあたり、画像処理部205は、撮像素子100の全出力値からR(Lt)画素の画素値以外の画素値を除去して空格子とする。すると、基本格子110には、P27の画素値が残る。この画素値を基本格子110の64画素分の代表値とする。同様に、RRtプレーンデータを生成するにあたり、画像処理部205は、撮像素子100の全出力値からR(Rt)画素の画素値以外の画素値を除去して空格子とする。すると、基本格子110には、P63の画素値が残る。この画素値を基本格子110の64画素分の代表値とする。このようにして、2D-RGBプレーンデータよりは解像度の低いRLtプレーンデータとRRtプレーンデータが生成される。この場合、RLtプレーンデータとRRtプレーンデータの解像度は、GLtプレーンデータとGRtプレーンデータの解像度よりも低い。
 BLtプレーンデータを生成するにあたり、画像処理部205は、撮像素子100の全出力値からB(Lt)画素の画素値以外の画素値を除去して空格子とする。すると、基本格子110には、P32の画素値が残る。この画素値を基本格子110の64画素分の代表値とする。同様に、BRtプレーンデータを生成するにあたり、画像処理部205は、撮像素子100の全出力値からB(Rt)画素の画素値以外の画素値を除去して空格子とする。すると、基本格子110には、P76の画素値が残る。この画素値を基本格子110の64画素分の代表値とする。このようにして、2D-RGBプレーンデータよりは解像度の低いBLtプレーンデータとBRtプレーンデータが生成される。この場合、BLtプレーンデータとBRtプレーンデータの解像度は、GLtプレーンデータとGRtプレーンデータの解像度よりも低く、RLtプレーンデータとRRtプレーンデータの解像度と同等である。
 本実施形態においては、生成される画像間の視差量がターゲットとする視差量に収まるように、出力画像データに対して画像処理を施す場合がある。この場合、画像処理部205は、これらのプレーンデータを用いて、左側視点のカラー画像データおよび右側視点のカラー画像データを生成する。特に、立体調整パラメータを導入することにより、2Dカラー画像のぼけ量を維持したまま3D画像としての視差量を調整したカラー画像データを生成する。具体的な処理に先立って、まず生成原理について説明する。
 図4は、デフォーカスの概念を説明する図である。視差Lt画素および視差Rt画素は、レンズ瞳の部分領域としてそれぞれ光軸対象に設定された2つの視差仮想瞳のいずれかから到達する被写体光束を受光する。本実施形態の光学系においては、実際の被写体光束はレンズ瞳の全体を通過するので、視差画素に到達するまでは、視差仮想瞳に対応する光強度分布が互いに区別されるのではない。しかし、視差画素は、それぞれが有する開口マスクの作用により、視差仮想瞳を通過した部分光束のみを光電変換した画像信号を出力する。したがって、視差画素の出力が示す画素値分布は、それぞれ対応する視差仮想瞳を通過した部分光束の光強度分布と比例関係にあると考えても良い。
 図4(a)で示すように、被写体である物点が焦点位置に存在する場合、いずれの視差仮想瞳を通った被写体光束であっても、それぞれの視差画素の出力は、対応する像点の画素を中心として急峻な画素値分布を示す。像点付近に視差Lt画素が配列されていれば、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する。また、像点付近に視差Rt画素が配列されていても、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する。すなわち、被写体光束がいずれの視差仮想瞳を通過しても、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する分布を示し、それぞれの分布は互いに一致する。
 一方、図4(b)に示すように、物点が焦点位置からずれると、物点が焦点位置に存在した場合に比べて、視差Lt画素が示す画素値分布のピークは、像点に対応する画素から一方向に離れた位置に現れ、かつその出力値は低下する。また、出力値を有する画素の幅も広がる。視差Rt画素が示す画素値分布のピークは、像点に対応する画素から、視差Lt画素における一方向とは逆向きかつ等距離に離れた位置に現れ、同様にその出力値は低下する。また、同様に出力値を有する画素の幅も広がる。すなわち、物点が焦点位置に存在した場合に比べてなだらかとなった同一の画素値分布が、互いに等距離に離間して現れる。また、図4(c)に示すように、さらに物点が焦点位置からずれると、図4(b)の状態に比べて、さらになだらかとなった同一の画素値分布が、より離間して現れる。つまり、物点が焦点位置から大きくずれる程、ぼけ量と視差量が増すと言える。別言すれば、デフォーカスに応じて、ぼけ量と視差量は連動して変化する。すなわち、ぼけ量と視差量は、一対一に対応する関係を有する。
 また、図4(b)(c)は、物点が焦点位置から遠ざかる方向へずれる場合を示すが、物点が焦点位置から近づく方向へずれる場合は、図4(d)に示すように、図4(b)(c)と比べて、視差Lt画素が示す画素値分布と視差Rt画素が示す画素値分布の相対的な位置関係が逆転する。このようなデフォーカス関係により、視差画像を鑑賞するときに鑑賞者は、焦点位置より奥に存在する被写体を遠くに視認し、手前に存在する被写体を近くに視認する。
 図4(b)(c)で説明した画素値分布の変化をそれぞれグラフ化すると、図5のように表される。図において、横軸は画素位置を表し、中心位置が像点に対応する画素位置である。縦軸は各画素の出力値(画素値)を表す。この出力値は上述の通り実質的に光強度に比例する。
 分布曲線1804と分布曲線1805は、それぞれ図4(b)の視差Lt画素の画素値分布と視差Rt画素の画素値分布を表す。図からわかるように、これらの分布は中心位置に対して線対称の形状を成す。また、これらを足し合わせた合成分布曲線1806は、図4(b)の状況に対する視差なし画素の画素値分布、すなわち被写体光束の全体を受光した場合の画素値分布と略相似形状を示す。
 分布曲線1807と分布曲線1808は、それぞれ図4(c)の視差Lt画素の画素値分布と視差Rt画素の画素値分布を表す。図からわかるように、これらの分布も中心位置に対して線対称の形状を成す。また、これらを足し合わせた合成分布曲線1809は、図4(c)の状況に対する視差なし画素の画素値分布と略相似形状を示す。
 本実施形態において立体調整パラメータを利用して画像処理する場合は、実際に撮像素子100の出力値として取得され、空格子が補間処理された、このような画素値分布の視差Lt画素の画素値と視差Rt画素の画素値とを用いて、仮想的な画素値分布をつくり出す。このとき、画素値分布の広がりによって表現されるぼけ量はおよそ維持しつつ、ピーク間の間隔として表現される視差量を調整する。つまり、本実施形態において画像処理部205は、2D画像のぼけ量をほぼそのまま維持しつつも、視差無し画素から生成される2D画像と視差画素から生成される3D画像との間に調整された視差量を有する画像を生成する。図6は、調整視差量の概念を説明するための画素値分布を示す図である。
 図において実線で示すLt分布曲線1901とRt分布曲線1902は、LtプレーンデータとRtプレーンデータの実際の画素値をプロットした分布曲線である。例えば、図5における分布曲線1804、1805に相当する。そして、Lt分布曲線1901とRt分布曲線1902のそれぞれのピーク間距離は3D視差量を表し、この距離が大きいほど、画像再生時の立体感が強くなる。
 Lt分布曲線1901とRt分布曲線1902とをそれぞれ5割として足し合わせた2D分布曲線1903は、左右に偏りのない凸形状となる。2D分布曲線1903は、図5における合成分布曲線1806の高さを1/2にした形状に相当する。すなわち、この分布に基づく画像は、視差量0の2D画像となる。
 調整Lt分布曲線1905は、Lt分布曲線1901の8割と、Rt分布曲線1902の2割を足し合わせた曲線である。調整Lt分布曲線1905のピークは、Rt分布曲線1902の成分が加えられる分だけ、Lt分布曲線1901のピークよりも中心寄りに変位する。同様に、調整Rt分布曲線1906は、Lt分布曲線1901の2割と、Rt分布曲線1902の8割を足し合わせた曲線である。調整Rt分布曲線1906のピークは、Lt分布曲線1901の成分が加えられる分だけ、Rt分布曲線1902のピークよりも中心寄りに変位する。
 したがって、調整Lt分布曲線1905と調整Rt分布曲線1906のそれぞれのピーク間距離で表される調整視差量は、3D視差量よりも小さくなる。したがって、画像再生時の立体感は、緩和される。一方で、調整Lt分布曲線1905と調整Rt分布曲線1906のそれぞれの分布の広がりは、2D分布曲線1903の広がりと同等なので、ぼけ量は2D画像のそれと等しいと言える。
 すなわち、Lt分布曲線1901とRt分布曲線1902をそれぞれどれくらいの割合で加算するかにより、調整視差量を制御することができる。そして、この調整された画素値分布を、視差なし画素から生成されたカラー画像データの各プレーンに適用することにより、視差画素から生成された視差画像データとは異なる立体感を与える左側視点のカラー画像データと右側視点のカラー画像データとを生成することができる。
 本実施形態においては、図3を用いて説明した9つのプレーンデータから、左側視点のカラー画像データと右側視点のカラー画像データを生成する。左側視点のカラー画像データは、左側視点に対応する赤色プレーンデータであるRLtプレーンデータ、緑色プレーンデータであるGLtプレーンデータ、および青色プレーンデータであるBLtプレーンデータの3つのカラー視差プレーンデータによって構成される。同様に、右側視点のカラー画像データは、右側視点に対応する赤色プレーンデータであるRRtプレーンデータ、緑色プレーンデータであるGRtプレーンデータ、および青色プレーンデータであるBRtプレーンデータの3つのカラー視差プレーンデータによって構成される。
 図7は、カラー視差プレーンデータの生成処理を説明する図である。特に、カラー視差プレーンのうち赤色視差プレーンである、RLtプレーンデータとRRtプレーンデータの生成処理について示す。
 赤色視差プレーンは、図3を用いて説明したRnプレーンデータの画素値と、RLtプレーンデータおよびRRtプレーンデータの画素値とを用いて生成する。具体的には、例えばRLtプレーンデータの対象画素位置(i,j)の画素値RLtmnを算出する場合、まず、画像処理部205の算出部233は、Rnプレーンデータの同一画素位置(i,j)から画素値Rnmnを抽出する。次に、算出部233は、RLtプレーンデータの同一画素位置(i,j)から画素値RLtmnを、RRtプレーンデータの同一画素位置(i,j)から画素値RRtmnを抽出する。そして、算出部233は、画素値Rnmnに、画素値RLtmnとRRtmnを立体調整パラメータCで分配した値を乗じて、画素値RLtcmnを算出する。具体的には、以下の式(1)により算出する。ただし、立体調整パラメータCは、0.5<C<1の範囲で設定される。
Figure JPOXMLDOC01-appb-M000001
 同様に、RRtプレーンデータの対象画素位置(i,j)の画素値RRtcmnを算出する場合も、算出部233は、抽出した画素値Rnmnに、画素値RLtmnと画素値RRtmnを立体調整パラメータCで分配した値を乗じて算出する。具体的には、以下の式(2)により算出する。
Figure JPOXMLDOC01-appb-M000002
 算出部233は、このような処理を、左端かつ上端の画素である(1、1)から右端かつ下端の座標である(i,j)まで順次実行する。
 そして、赤色視差プレーンであるRLtプレーンデータとRRtプレーンデータの生成処理が完了したら、次に緑色視差プレーンであるGLtプレーンデータとGRtプレーンデータの生成処理を実行する。具体的には、上述の説明においてRnプレーンデータの同一画素位置(i,j)から画素値Rnmnを抽出する代わりに、Gnプレーンデータの同一画素位置(i,j)から画素値Gnmnを抽出する。また、RLtプレーンデータの同一画素位置(i,j)から画素値RLtmnを抽出する代わりに、GLtプレーンデータの同一画素位置(i,j)から画素値GLtmnを抽出する。同様に、RRtプレーンデータの同一画素位置(i,j)から画素値RRtmnを抽出する代わりに、GRtプレーンデータの同一画素位置(i,j)から画素値GRtmnを抽出する。そして、式(1)および式(2)の各パラメータを適宜変更して同様に処理する。
 さらに、緑色視差プレーンであるGLtプレーンデータとGRtプレーンデータの生成処理が完了したら、次に青色視差プレーンであるBLtプレーンデータとBRtプレーンデータの生成処理を実行する。具体的には、上述の説明においてRnプレーンデータの同一画素位置(i,j)から画素値Rnmnを抽出する代わりに、Bnプレーンデータの同一画素位置(i,j)から画素値Bnmnを抽出する。また、RLtプレーンデータの同一画素位置(i,j)から画素値RLtmnを抽出する代わりに、BLtプレーンデータの同一画素位置(i,j)から画素値BLtmnを抽出する。同様に、RRtプレーンデータの同一画素位置(i,j)から画素値RRtmnを抽出する代わりに、BRtプレーンデータの同一画素位置(i,j)から画素値BRtmnを抽出する。そして、式(1)および式(2)の各パラメータを適宜変更して同様に処理する。
 以上の処理により、左側視点のカラー画像データ(RLtプレーンデータ、GLtプレーンデータ、BLtプレーンデータ)および右側視点のカラー画像データ(RRtプレーンデータ、GRtプレーンデータ、BRtプレーンデータ)が生成される。すなわち、実際には撮像素子100の画素として存在しない仮想的な出力として、左側視点および右側視点のカラー画像データを、比較的簡易な処理により取得することができる。
 しかも、立体調整パラメータCを0.5<C<1の範囲で変更できるので、視差無し画素による2Dカラー画像のぼけ量を維持したまま、3D画像としての視差量の大きさを調整することができる。したがって、これらの画像データを3D画像対応の再生装置で再生すれば、立体映像表示パネルの鑑賞者は、カラー画像として立体感が適度に調整された3D映像を鑑賞できる。特に、処理が簡易なので高速に画像データを生成することができ、動画像にも対応できる。
 次に、以上の処理を画素値分布とカラーの観点から説明する。図8は、RGBの画素値分布の変化を説明する図である。図8(a)は、焦点位置から一定量だけずれた位置に存在する物点からのある白色被写体光束を受光した場合の、G(Lt)画素、G(Rt)画素、R(Lt)画素、R(Rt)画素、B(Lt)画素およびB(Rt)画素のそれぞれの出力値を並べたグラフである。
 図8(b)は、図8(a)における物点からのある白色被写体光束を受光した場合の、視差無し画素であるR(N)画素、G(N)画素およびB(N)画素の出力値を並べたグラフである。このグラフも、各色の画素値分布を表すと言える。
 C=0.8として対応する画素ごとに上述の処理を施すと、図8(c)のグラフで表される画素値分布となる。図から分かるように、RGBそれぞれの画素値に応じた分布が得られる。
 次に、3D画像データを再生装置で再生した場合の、鑑賞者と映像との関係について説明する。図9は、鑑賞者の輻輳角と視差量の関係を示す図である。眼球50は、鑑賞者の眼球を表し、図は、右目51と左目52が離間している様子を示す。
 表示部40には、視差量が調整されていない非調整画像データが再生され、右目用画像の被写体61と左目用画像の被写体62が表示されている。被写体61と被写体62は同一の被写体であり、撮影時において焦点位置からずれた位置に存在していたので、表示部40においては、視差量Dをもって離間して表示されている。
 眼球50は、これらを一致させて視認しようとするので、鑑賞者は、右目51と被写体61を結ぶ直線と、左目52と被写体62を結ぶ直線とが交差する、浮き上がり距離L1の位置(図において四角で表す)に被写体が存在するように認識する。
 このときの輻輳角は、図示するようにθである。一般的に、輻輳角が大きくなると、映像に対して違和感を覚え、また、眼精疲労の原因ともなる。そこで、本実施形態において立体調整パラメータを利用して画像処理する場合は、上述のように視差量を立体調整パラメータによって調整した調整画像データを生成する。なお、図は、非調整画像データに重ねて調整画像データが再生されている様子を示す。
 表示部40には、調整画像データの右目用画像の被写体71と左目用画像の被写体72が表示されている。被写体71と被写体72は同一の被写体であり、また被写体61、62とも同一の被写体である。被写体71と被写体72は、表示部40においては、視差量Dをもって離間して表示されている。鑑賞者は、右目51と被写体71を結ぶ直線と、左目52と被写体72を結ぶ直線とが交差する、浮き上がり距離L2の位置(図において三角で表す)に被写体が存在するように認識する。
 このときの輻輳角は、θよりも小さいθである。したがって、鑑賞者は極端な浮き上がり感を感じることなく、また眼精疲労の蓄積も軽減できる。なお、視差量は、後述するように適度に調整されるので、鑑賞者は、心地良い浮き上がり感(デフォーカス関係が逆転した場合の沈み込み感も合せて立体感)をもって映像を鑑賞できる。
 なお、図9の説明として用いた視差量は、表示部40における離間距離で表わされたが、視差量は、さまざまな形式で定義され得る。例えば、撮影画像データにおけるピクセル単位で定義しても良いし、画像の横幅に対するずれ幅で定義しても良い。
 図10は、デジタルカメラ10における絞り値、画像の鮮鋭度を示すコントラスト、被写体距離および視差量の関係を模式的に示す図である。横軸は、デジタルカメラ10からの距離を表し、縦軸は、視差量とコントラストの高さを表す。また、図10(a)は、絞り値がF1.4の状態を表し、図10(b)は、絞り値がF4の状態を表し、図10(c)は、絞り値がF8の状態を表す。なお、撮影レンズ20の焦点距離はいずれの状態においても同一であり、また、デジタルカメラ10は、距離L10に位置する主要被写体に焦点を合わせている。
 コントラスト曲線1610は、いずれの状態においても焦点位置までの距離である距離L10で最も高い。一方で、絞り値が大きくなるほど焦点距離前後でも比較的高い値を示す。すなわち、絞り22を絞った状態で撮影された画像ほど被写界深度が深くなることを示す。
 視差量曲線1620は、距離L10において視差量0を示し、距離L10よりデジタルカメラ10側に近づくにつれ、傾きが大きくなるカーブを示す。すなわち、視差量曲線1620は距離L10より手前側で正の値を示し、より近い被写体ほど大きく浮き上がって視認されることを表している。
 他方、視差量曲線1620は、距離L10よりデジタルカメラ10側から遠ざかるにつれ、傾きが小さくなるカーブを示す。すなわち、視差量曲線1620は距離L10より奥側で負の値を示し、より遠い被写体ほど緩やかに沈み込んで視認されることを表している。
 また、視差量曲線1620は、絞り値が大きくなるほど、その変化がなだらかになる。すなわち、絞り値がF1.4の場合に比べ、F4、F8と推移するに従い、焦点位置より手前の視差量および奥の視差量が小さくなる。
 視差量が-mから+mの範囲に含まれる場合に、鑑賞者が違和感、疲労感を覚えないとすると、絞り値がF8の場合であれば視差量曲線1620がこの範囲に収まっているので、いずれの距離に被写体が存在しても鑑賞者は心地よく3D映像を鑑賞できる。
 一方、絞り値がF1.4およびF4の場合は、視差量曲線1620の近距離側で+mを超えている。したがって、被写体が+mを超える近距離に存在すれば鑑賞者は違和感、疲労感を覚える。そこで、本実施形態において画像処理部205は、設定された下限値と上限値の間に収まるように視差量を立体調整パラメータによって調整した調整画像データを生成する。
 まず、視差量の制限について説明する。図11は、視差量制限のメニュー画面を表示するデジタルカメラ10の背面図である。
 視差量の制限は、上述のように、下限値-m、上限値+mのように設定される。下限値と上限値の絶対値は異なっていても良い。ここでは、視差量を調整視差画像データにおける視差画像のピクセル単位で表す。
 鑑賞者が違和感、疲労感を覚える視差量は、鑑賞者ごとに異なる。したがって、撮影時においてデジタルカメラ10のユーザである撮影者が視差量制限の設定を変更できるように、デジタルカメラ10を構成することが好ましい。
 デジタルカメラ10には、視差量制限のメニューとして、例えば、図示するように4つの選択肢が設けられている。具体的には、標準的な鑑賞者が心地よいと感じる範囲がプリセットされた「標準」、標準よりも広い範囲がプリセットされ、より大きな視差量を許容する「強め」、標準よりも狭い範囲がプリセットされ、より小さな視差量しか許容しない「弱め」、および撮影者が上限値、下限値を数値入力する「マニュアル」が設けられている。「マニュアル」を選択した場合には、撮影者は、上限値としての「最大浮き上がり量」と下限値としての「最大沈み込み量」を、ピクセル単位で順次指定することができる。撮影者は、操作部208の一部であるダイヤルボタン2081を操作することにより、これらの選択、指定を行う。
 このように視差量制限として許容される視差量の範囲が設定されると、画像処理部205は、この範囲に収まるように視差量を調整した調整視差画像データを生成する。本実施形態における視差量の調整処理は、従来技術のように被写体オブジェクトごとに切り出し、デプスマップの情報を用いつつオブジェクト単位で水平方向に移動させるような複雑な処理を必要としない。したがって、従来技術に比べて高速に演算できるので、画像処理部205は、被写体の状況が刻々と変化する動画撮影に対してもリアルタイムに調整視差画像データを出力することに容易に対応できる。
 本実施形態におけるデジタルカメラ10は、心地良い視差量に調整された視差画像データを連続的に生成し、これらを繋ぎ合わせて動画ファイルを生成するオート3D動画モードを、動画撮影モードのひとつとして備える。撮影者は、撮影に先立ち、操作部208の一部であるモードボタン2082を操作して、オート3D動画モードを選択する。
 同一シーンを構成する被写体の全部が設定された視差量範囲に収まるか否かは、図10の説明からも理解されるように、様々な条件に左右される。設定される視差量範囲も含めて、これらの条件を視差量調整に関する調整条件とする。
 ここで調整条件について、さらに説明する。調整条件取得部231は各種の調整条件を取得して、適宜調整値決定部232へ引き渡す。上述のように、調整条件取得部231は、メニュー画面および操作部208を介して入力された視差量範囲を調整条件として取得する。
 図10においては、撮影レンズ20の焦点距離が固定の場合について説明したが、同一被写体を撮影する場合において、視差量は、撮影レンズ20の焦点距離によっても変化する。つまり、光学系である撮影レンズ20の設定条件としての焦点距離は、視差量に影響を与える調整条件となり得る。したがって、調整条件取得部231は、制御部201が撮影レンズ20から取得する焦点距離情報(ズーム情報)を、調整条件として取得する。
 図10を用いて説明したように、視差量曲線1620は、絞り値の変化に応じて傾きが変わる。つまり、各撮影画像データの取得時(撮影時)における絞り値は、光学系の設定条件として視差量に影響を与える調整条件となり得る。したがって、調整条件取得部231は、制御部201が撮影レンズ20から取得する絞り値を、調整条件として取得する。
 図10を用いて説明したように、視差量は、焦点を合わせた被写体に対して0であり、その前後で正負の値を取る。つまり、光学系である撮影レンズ20の設定条件としてのフォーカスレンズ位置は、視差量に影響を与える調整条件となり得る。したがって、調整条件取得部231は、制御部201が撮影レンズ20から取得するフォーカスレンズ位置(フォーカス情報)を、調整条件として取得する。
 図10においては、焦点位置である距離L10に主要被写体が存在する場合を想定したが、他の被写体が奥行き方向に分布して存在する場合、これら他の被写体が浮き上がって、あるいは沈み込んで視認されることになる。つまり、奥行き方向の被写体分布は、被写体状況として視差量に影響を与える調整条件となり得る。したがって、調整条件取得部231は、奥行き方向の被写体分布を、調整条件として取得する。具体的には、制御部201が、オートフォーカスに用いるデフォーカス情報を利用して、細分化された領域ごとのデフォーカス量から被写体分布を検出する。なお、デフォーカス情報は、専用に設けられた位相差センサの出力を利用しても良いし、撮像素子100の視差画素の出力を利用しても良い。視差画素の出力を利用する場合は、画像処理部205によって処理された視差画像データを用いることもできる。
 次に、調整条件によって値が決定される立体調整パラメータを利用した視差量の調整について説明する。図12は、視差量調整の概念を示す図である。
 図12(a)は、図10(a)のうち、コントラスト曲線1610を除いた図に対応する。ここでは、焦点を合わせる対象である主要被写体としての合焦被写体の他に、デジタルカメラ10側である手前側に存在する近点被写体と、反対側である奥側に存在する遠点被写体とが存在する場合を想定している。図10(a)においては、合焦被写体は距離L10に、近点被写体はL20に、遠点被写体はL30に存在する。
 調整条件として設定された視差量範囲が-mから+mである場合、遠点被写体の距離L30に対する視差量曲線1620の値はこの範囲に収まっているので、遠点被写体側に関しては視差量を調整しなくても良い。しかし、近点被写体の距離L20に対する視差量曲線1620の値は+mを超えているので、近点被写体の像が視差量+mになるように、全体の視差量を調整する。
 すなわち、合焦被写体に対して手前側に最も離れた位置に存在する被写体(近点被写体)の像の視差量と、奥側に最も離れた被写体位置に存在する被写体(遠点被写体)の像の視差量とが、共に設定された視差量範囲に収まるように、視差量曲線を調整する。より具体的には、設定された視差量範囲から大きく外れた側の被写体像の視差量が当該視差量範囲の限界値になるように視差量曲線を調整すれば良い。図12(a)においては、調整視差量曲線1630がこのように調整された視差量曲線である。このように調整すれば、同一シーンを構成する被写体の像の全部が、設定された視差量範囲に収まる。
 図12(b)は、図12(a)の被写体状況から、合焦被写体が距離L10から奥側の距離L11へ移動した場合の視差量調整の概念を示す図である。この場合、距離L11が焦点位置となるので、移動していない近点被写体(距離L20)の像に対する視差量は、視差量曲線1620で示されるように、図12(a)に比べて相当大きくなる。この場合も、図12(a)の場合と同様に、近点被写体の像が視差量+mになるように、全体の視差量を調整する。ただし、その調整量は、図12(a)の場合の調整量に対して大きくなる。その結果、調整視差量曲線1630の傾きは水平により近づくので、遠点被写体側の像の視差量はより抑制される。
 図12(c)は、図12(b)の被写体状況から、近点被写体が距離L20から奥側の距離L21へ移動した場合の視差量調整の概念を示す図である。この場合、焦点位置は距離L11のままなので視差量曲線1620はそのままであるが、近点被写体が奥側にずれたことにより、その調整量は、図12(b)の場合の調整量に対して小さくなる。
 以上のように、調整量は、上述の調整条件が取得できれば一意に定まる。調整量は、立体調整パラメータCの値と一対一の関係にあるので、調整値決定部232は、調整条件取得部231から調整条件を受け取れば、立体調整パラメータCの値を決定できる。具体的には、図12に対応するルックアップテーブルが予め用意されており、調整値決定部232は、調整条件の各値を入力してルックアップテーブルを参照すると、その入力に対する立体調整パラメータCの値を抽出、決定することができる。ルックアップテーブルは、事前のシミュレーション、実験等の結果により構築される。あるいは、ルックアップテーブルの形式に依らず、調整条件の各値を変数とする多変数関数が予め用意されていても良い。
 なお、調整条件は上述の条件全てを対象としなくても、一部の条件に限って採用しても良い。例えば、撮影レンズ20の焦点距離のみを調整条件として、焦点距離と立体調整パラメータCの値を一対一に対応させたとしても、鑑賞者の違和感、疲労感をある程度軽減できる。
 次に、デジタルカメラ10の一連の処理フローについて説明する。図13は、動画撮影における処理フローである。図のフローは、撮影者によりモードボタン2082が操作されてオート3D動画モードが開始された時点から始まる。なお、視差量範囲は、事前に撮影者により設定されている。
 オート3D動画モードが開始されると、調整条件取得部231は、ステップS11で、撮影者が設定した視差量範囲をシステムメモリから取得する。視差量範囲以外にも調整条件として撮影者から指示を受けていた場合には、それらの調整条件も併せて取得する。
 制御部201は、ステップS12で、撮影者が録画開始ボタンを押下げる録画開始指示を待つ。録画開始指示を検出すると(ステップS12のYES)、制御部201は、ステップS13へ進み、AF、AEを実行する。そして、制御部201は、ステップS14で、駆動部204を介して撮像素子100の電荷蓄積、読み出しを実行し、1フレームとしての撮影画像データを取得する。なお、制御部201は、この間、ステップS13の検出結果に応じてフォーカスレンズ駆動、絞り22の駆動を継続していても良い。
 調整条件取得部231は、ステップS15で、ステップS14の撮影画像データ取得に伴う調整条件を取得する。なお、調整条件の種類によっては、ステップS14に先立って、あるいは、並行して取得を実行しても良い。
 ステップS16へ進み、調整条件取得部231は、取得した調整条件を調整値決定部232へ引き渡し、調整値決定部232は、受け取った調整条件を引数としてルックアップテーブルを参照し、立体調整パラメータCの値を決定する。
 ステップS17では、算出部233は、調整値決定部232が決定した立体調整パラメータCの値と撮影画像データとを受け取り、左側視点のカラー画像データ(RLtプレーンデータ、GLtプレーンデータ、BLtプレーンデータ)および右側視点のカラー画像データ(RRtプレーンデータ、GRtプレーンデータ、BRtプレーンデータ)を生成する。具体的な処理は後述する。
 制御部201は、ステップS18で、撮影者から録画停止指示を受けていないと判断すればステップS13へ戻り次のフレーム処理を実行する。録画停止指示を受けたと判断すればステップS19へ進む。
 ステップS19では、動画生成部234は、連続的に生成された左側視点のカラー画像データと右側視点のカラー画像データを繋ぎ合わせ、Blu-ray3Dなどの3D対応動画フォーマットに従ってフォーマット処理を実行し、動画ファイルを生成する。そして、制御部201は、生成された動画ファイルを、メモリカードIF207を介してメモリカード220へ記録し、一連のフローを終了する。なお、メモリカード220への記録は、左側視点のカラー画像データと右側視点のカラー画像データの生成に同期して逐次実行し、録画停止指示に同期してファイル終端処理を実行しても良い。また、制御部201は、メモリカード220へ記録するに限らず、例えばLANを介して外部機器に出力するように構成しても良い。
 次に、図13のステップS17の処理について詳細に説明する。図14は、左側視点のカラー画像データと右側視点のカラー画像データである視差カラー画像データを生成するまでの、ステップS17の処理フローである。
 算出部233は、ステップS101で、撮影画像データを取得する。そして、ステップS102において、図3を用いて説明したように、撮影画像データを、視差なし画像データと視差画像データにプレーン分離する。算出部233は、ステップS103で、図3を用いて説明したように分離した各プレーンデータに存在する空格子を補間する補間処理を実行する。
 算出部233は、ステップS104で、各変数の初期化を行う。具体的には、まず、カラー変数Csetに1を代入する。カラー変数Csetは、1=赤、2=緑、3=青を表す。また、座標変数であるiとjに1を代入する。さらに、視差変数Sに1を代入する。視差変数Sは、1=左、2=右を表す。
 算出部233は、ステップS105において、Csetプレーンの対象画素位置(i,j)から画素値を抽出する。例えばCset=1で、対象画素位置が(1,1)である場合、抽出する画素値は、Rn11である。さらに、算出部233は、ステップS106において、LtCsetプレーンデータ、RtCsetプレーンデータの対象画素位置(i,j)から画素値を抽出する。例えば対象画素位置が(1,1)である場合、抽出する画素値は、LtCset11とRtCset11である。
 算出部は、ステップS107において、視差変数Sに対応する対象画素位置(i,j)の画素値を算出する。例えばCset=1、S=1で、対象画素位置が(1,1)である場合、RRLtC11を算出する。具体的には、例えば、上述の式(1)により算出する。ここで、立体調整パラメータCは、ステップS16で決定された値である。
 算出部233は、ステップS108で、視差変数Sをインクリメントする。そして、ステップS109で、視差変数Sが2を超えたか否かを判断する。超えていなければステップS107へ戻る。超えていればステップS110へ進む。
 算出部233は、ステップS110で、視差変数Sに1を代入すると共に、座標変数iをインクリメントする。そして、ステップS111で、座標変数iがiを超えたか否かを判断する。超えていなければステップS105へ戻る。超えていればステップS112へ進む。
 算出部233は、ステップS112で、座標変数iに1を代入すると共に、座標変数jをインクリメントする。そして、ステップS113で、座標変数jがjを超えたか否かを判断する。超えていなければステップS105へ戻る。超えていればステップS114へ進む。
 ステップS114まで進むと、Csetに対する左右それぞれの全画素の画素値が揃うので、算出部233は、これらの画素値を並べて、プレーン画像データを生成する。例えばCset=1である場合、RLtプレーンデータとRRtプレーンデータを生成する。
 ステップS115ヘ進み、算出部233は、座標変数jに1を代入すると共に、カラー変数Csetをインクリメントする。そして、ステップS116で、カラー変数Csetが3を超えたか否かを判断する。超えていなければステップS105へ戻る。超えていれば、左側視点のカラー画像データ(RLtプレーンデータ、GLtプレーンデータ、BLtプレーンデータ)および右側視点のカラー画像データ(RRtプレーンデータ、GRtプレーンデータ、BRtプレーンデータ)の全てが揃ったとして、図13のフローに戻る。
 次に、図2を用いて説明した開口マスクの好ましい開口形状について説明する。図15は、好ましい開口形状を説明する図である。
 視差Lt画素の開口部105、および視差Rt画素の開口部106は、それぞれ対応する画素に対して中心を含んで互いに反対方向に偏位していることが好ましい。具体的には、開口部105および106のそれぞれが、画素中心を通る仮想的な中心線322と接する形状であるか、あるいは、中心線322を跨ぐ形状であることが好ましい。
 特に、図示するように、開口部105の形状と開口部106の形状は、視差なし画素の開口部104の形状を中心線322で分割したそれぞれの形状と同一であることが好ましい。別言すれば、開口部104の形状は、開口部105の形状と開口部106の形状を隣接させた形状に等しいことが好ましい。
 以上の説明においては、算出部233が用いる計算式は、加重相加平均を利用した上記式(1)(2)を採用したが、これに限らず様々な計算式を採用することができる。例えば、加重相乗平均を利用すれば、上記式(1)(2)と同様に表して、
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 を計算式として採用できる。この場合、維持されるぼけ量が、視差なし画素の出力によるぼけ量ではなく、視差画素の出力によるぼけ量となる。
 また、他の計算式としては、上記式(1)(2)と同様に表して、
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
 を採用しても良い。この場合、GLtcmn、GRtcmn、BLtcmn、BRtcmnをそれぞれ算出するときも、立方根の項は変化しない。
 さらには、
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
 を採用しても良い。この場合も、GLtcmn、GRtcmn、BLtcmn、BRtcmnをそれぞれ算出するときも、立方根の項は変化しない。
 次に表示装置との連携について説明する。図16は、デジタルカメラ10とTVモニタ80との連携を説明する図である。TVモニタ80は、例えば液晶から構成される表示部40、デジタルカメラ10から取り出されたメモリカード220を受容するメモリカードIF81、鑑賞者が手元で操作するリモコン82等により構成されている。TVモニタ80は3D画像の表示に対応している。3D画像の表示形式は、特に限定されない。例えば、右目用画像と左目用画像を時分割で表示しても良いし、水平方向または垂直方向に短冊状にそれぞれが並んだインターレースであっても良い。また、画面の一方側と他方側に並ぶサイドバイサイド形式であっても良い。
 TVモニタ80は、左側視点のカラー画像データと右側視点のカラー画像データを含んでフォーマット化された動画ファイルをデコードして、3D画像を表示部40に表示する。この場合、TVモニタ80は、規格化された動画ファイルを表示する一般的な表示装置としての機能を担う。しかしながら、TVモニタ80は、図1を用いて説明した制御部201の機能の少なくとも一部、および画像処理部205の少なくとも一部の機能を担う画像処理装置として機能させることもできる。具体的には、図1で説明した調整条件取得部231と、調整値決定部232、算出部233,動画生成部234を包含する画像処理部とをTVモニタ80に組み込む。このように構成することにより、上述の実施形態におけるデジタルカメラ10とTVモニタ80の組み合わせによる機能分担とは異なる機能分担を実現することができる。以下にその変形例を説明する。
 変形例においては、視差量を立体調整パラメータによって調整した調整画像データの生成処理を、デジタルカメラ10側ではなく、TVモニタ80側に担わせる。したがって、デジタルカメラ10は、図1の構成に対して調整値決定部232と算出部233を備えなくて良い。その代わり、調整条件取得部231は、取得した調整条件を動画生成部234へ引き渡し、動画生成部234は、画像処理部205によって生成された撮影画像データを動画ファイル化しつつ、対応するフレームに受け取った調整条件を関連付ける。関連付けは、タグ情報として動画ファイル内に記述しても良いし、調整条件を記録した関連ファイルを生成し、動画ファイル内に当該関連ファイルへのリンク情報を記述しても良い。
 具体的に変形例におけるデジタルカメラ10の処理動作について説明する。図17は、変形例としてのデジタルカメラ10の動画撮影における処理フローである。図13の処理フローの各処理と関連する処理については同一のステップ番号を付すことにより、異なる処理および追加的な処理の説明を除いて、その説明を省略する。
 ステップS21では、調整条件取得部231は、取得した調整条件を動画生成部234へ引き渡し、動画生成部234は、ステップS14で生成した撮影画像データに当該調整条件を関連付ける。
 ステップS19では、連続的に生成され、調整条件が各々に関連付けられた撮影画像データを繋ぎ合わせて動画ファイル化を実行する。なお、動画ファイルは、連続するフレームの撮影画像データとして基準画像データと左右視点の視差画像データを包含すれば、図3を用いて説明したいずれの段階のデータであっても良い。すなわち、分離処理、補間処理、プレーンデータ処理は、デジタルカメラ10の処理としてステップS14で行っても良いし、一部または全部を画像処理装置としてのTVモニタ80で行っても良い。そして、制御部201は、生成された動画ファイルをメモリカード220へ出力して、一連のフローを終了する。
 次に、変形例におけるTVモニタ80の処理動作について説明する。図18は、変形例としてのTVモニタ80の動画再生における処理フローである。図13の処理フローの各処理と関連する処理については同一のステップ番号を付すことにより、異なる処理および追加的な処理の説明を除いて、その説明を省略する。ただし、TVモニタ80は、調整条件取得部231を包含する制御部と、調整値決定部232、算出部233,動画生成部234を包含する画像処理部を備える。制御部は、図1を用いて説明した制御部201に対応し、画像処理部は、同じく画像処理部205に対応する。
 制御部は、3D画像の再生指示を検出すると、ステップS31で、メモリカードIF81を介して取得された動画ファイルをデコードして、撮影画像データから各プレーンデータを取得する。続いて、ステップS32で、各撮影画像データに関連付けられている調整条件を読み出して取得する。なお、ステップS31の各プレーンデータの取得処理と、ステップS32の調整条件の取得処理は、いずれを先に実行しても良いし、並行して実行しても良い。
 そして、調整値決定部232は、ステップS16で、立体調整パラメータCの値を決定し、算出部233および動画生成部234は、ステップS17で、視差量が調整された左右のプレーン画像データを生成する。
 ステップS32へ進み、制御部は、生成された左右のプレーン画像データによる3D画像を表示部40に表示する。そして、制御部は、ステップS34で、鑑賞者から再生停止の指示があったか、あるいは、再生すべき画像データが終了したかを判断し、いずれにも該当しない場合には、ステップS31へ戻って、次のフレームの再生処理を開始する。一方、いずれかに該当する場合には、一連の再生処理を終了する。
 上記の変形例においては、すべての調整条件は撮影時においてデジタルカメラ10で取得され、撮影画像データに関連付けられたが、鑑賞者が、TVモニタ80での再生時に、一部の調整条件を入力できるように構成しても良い。例えば、鑑賞者は、リモコン82を操作して、視差量範囲を入力できる。TVモニタ80の調整条件取得部231は、入力された視差量範囲を調整条件として取得し、調整値決定部232は、この視差量範囲に従って立体調整パラメータCの値を決定する。このように構成すれば、TVモニタ80は、鑑賞者ごとの好みに応じた3D画像を表示することができる。
 以上説明した本実施形態においては、調整条件は、フレーム単位である各撮影画像データに関連付けられたが、調整条件と撮影画像データの対応関係はこれに限らない。例えば、複数のフレーム単位、予め定められた時間単位で1つの調整条件を共有することができる。また、光学系の設定条件が変更された時、被写体状況が変化した時などを更新タイミングとして調整条件を複数の撮影画像データで共有しても良い。
 また、以上の本実施形態においては、図12を用いて説明したように、近点被写体および遠点被写体が設定された視差量範囲に収まるように視差量曲線1620を調整したが、視差量を調整する基準は、これに限らない。例えば、フレーム全体における各画素の視差量を積分して累積視差量を算出する。累積視差量がプラスであれば、全体的に飛び出す画像となっているので、予め定められた基準値よりも大きい場合には、立体調整パラメータを用いて視差量を減じた調整視差画像データを生成する。累積視差量がマイナスであれば、プラスの場合と同様に処理しても良いし、違和感が比較的小さなマイナス側については、立体調整パラメータを用いずに、そのまま視差画像データを生成しても良い。
 このように累積視差量で評価する場合、画像を複数の領域に細分化して、それぞれで累積値を算出し評価するようにしても良い。このように評価すれば、突出した視差量を有する領域が存在する場合でも、視差量を減ずることができる。
 また、累積視差量の変化量を基準に評価することもできる。例えば、撮影シーンが変更された場合に累積視差量が急激に変化することがあるが、許容変化量として予め基準値を設けておけば、当該許容変化量を超えた場合に視差量を減ずることができる。この場合、本来許容される視差量範囲まで視差量を徐々に増加させる処理を行っても良い。
 また、以上の本実施形態においては動画撮影を前提として説明したが、取得した調整条件に基づいて視差量を調整した視差画像データを出力する構成は、もちろん静止画撮影についても適用できる。このように撮影された静止画像は、左右の画像間に極端な視差を生じさせず、鑑賞者に違和感を与えない。
 また、以上の本実施形態においてはTVモニタ80を画像処理装置の一例として説明したが、画像処理装置はさまざまな形態を採り得る。例えば、PC、携帯電話、ゲーム機器など、表示部を備える、あるいは表示部に接続される機器は画像処理装置になり得る。
 以上の本実施形態において説明した各処理フローは、制御部を制御する制御プログラムによって実行される。制御プログラムは、内蔵する不揮発性メモリに記録されており、適宜ワークメモリに展開されて各処理を実行する。あるいは、サーバに記録された制御プログラムが、ネットワークを介して各装置に送信され、ワークメモリに展開されて各処理を実行する。または、サーバに記録された制御プログラムがサーバ上で実行され、各装置は、ネットワークを介して送信されてくる制御信号に即して処理を実行する。
 以上の本実施形態においては、撮像素子100が視差なし画素を含み、撮影画像データは、基準画像データを含む構成について説明した。しかし、撮像素子100が視差なし画素を含まず、よって撮影画像データが視差画像データのみから成る構成であっても良い。この場合、視差画像データから、立体調整パラメータを用いて視差量を減じた調整視差画像データを生成する。また、撮像素子100が視差なし画素を含んでいたとしても、視差画像データのみを用いて調整視差画像データを生成しても良い。
 より具体的には、右視差画像データの被写体像が基準となる仮想の被写体像に対して第1方向に第1視差を有するとし、左視差画像データの被写体像が当該仮想の被写体像に対して第1方向とは反対の他方向に第2視差を有するとする。すなわち、右視差画像データの被写体像と、左視差画像データの被写体像は、互いに第1視差+第2視差の視差を有する。このとき、画像処理部は、調整視差画像データとして、調整条件を用いて、一方向に第1視差とは異なる第3視差を有する調整された右視差画像データと、他方向に第2視差とは異なる第4視差を有する調整された左視差画像データを生成する。
 <第2の実施形態>
 撮像装置の一形態である本実施形態に係るデジタルカメラは、1つのシーンについて複数の視点数の画像を一度の撮影により生成できるように構成されている。互いに視点の異なるそれぞれの画像を視差画像と呼ぶ。本実施形態においては、特に、右目と左目に対応する2つの視点による右視差画像と左視差画像を生成する場合について説明する。本実施形態におけるデジタルカメラは、中央視点による視差のない視差なし画像も、視差画像と共に生成できる。
 図19は、本発明の実施形態に係るデジタルカメラ10の構成を説明する図である。デジタルカメラ10は、撮影光学系としての撮影レンズ20を備え、光軸21に沿って入射する被写体光束を撮像素子100へ導く。撮影レンズ20は、デジタルカメラ10に対して着脱できる交換式レンズであっても構わない。デジタルカメラ10は、撮像素子100、制御部201、A/D変換回路202、メモリ203、駆動部204、画像処理部205、メモリカードIF207、操作部208、表示部209およびLCD駆動回路210を備える。
 なお、図示するように、撮像素子100へ向かう光軸21に平行な方向をZ軸プラス方向と定め、Z軸と直交する平面において紙面手前へ向かう方向をX軸プラス方向、紙面上方向をY軸プラス方向と定める。以降のいくつかの図においては、図19の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。
 撮影レンズ20は、複数の光学レンズ群から構成され、シーンからの被写体光束をその焦点面近傍に結像させる。なお、図19では撮影レンズ20を説明の都合上、瞳近傍に配置された仮想的な1枚のレンズで代表して表している。また、瞳近傍には、光軸21を中心として同心状に入射光束を制限する絞り22が配置されている。
 撮像素子100は、撮影レンズ20の焦点面近傍に配置されている。撮像素子100は、二次元的に複数の光電変換素子が配列された、例えばCCD、CMOSセンサ等のイメージセンサである。撮像素子100は、駆動部204によりタイミング制御されて、受光面上に結像された被写体像を画像信号に変換してA/D変換回路202へ出力する。
 A/D変換回路202は、撮像素子100が出力する画像信号をデジタル画像信号に変換してメモリ203へ出力する。画像処理部205は、メモリ203をワークスペースとして種々の画像処理を施し、撮影画像データを生成する。撮影画像データは、後述するように、撮像素子100の視差なし画素の出力から生成される基準画像データと、撮像素子100の視差画素の出力から生成される視差画像データを包含する。
 制御部201は、デジタルカメラ10を統合的に制御する。例えば、設定された絞り値に応じて絞り22の開口を調整し、AF評価値に応じて撮影レンズ20を光軸方向に進退させる。また、撮影レンズ20の位置を検出して、撮影レンズ20の焦点距離、フォーカスレンズ位置を把握する。さらに、駆動部204に対してタイミング制御信号を送信し、撮像素子100から出力される画像信号が画像処理部205で撮影画像データに処理されるまでの一連の撮像制御を管理する。
 また、制御部201は、奥行情報検出部235および決定部236を包含する。奥行情報検出部235は、シーンに対して奥行き方向の被写体分布を検出する。具体的には、制御部201が、オートフォーカスに用いるデフォーカス情報を利用して、細分化された領域ごとのデフォーカス量から被写体分布を検出する。なお、デフォーカス情報は、専用に設けられた位相差センサの出力を利用しても良いし、撮像素子100の視差画素の出力を利用しても良い。視差画素の出力を利用する場合は、画像処理部205によって処理された視差画像データを用いることもできる。あるいは、デフォーカス情報を利用しなくても、フォーカスレンズを進退させ、細分化された領域ごとにコントラストAF方式によるAF評価値を算出しても被写体分布を検出することができる。
 決定部236は、奥行情報検出部235が検出した被写体分布に基づいて視差量に関する変更条件を決定する。詳しくは後述するが、決定部236は、出力視差画像間の視差量がターゲットとする視差量に収まるように、例えば撮影条件としての絞り値を決定する。この場合、視差量に関する変更条件は、絞り22とその開口度合いを表す絞り値である。
 画像処理部205は、上述の通り、撮像素子100から出力される画像信号を処理して撮影画像データを生成する。また、画像処理部205は、算出部233および動画生成部234を包含する。算出部233は、後述する立体調整パラメータを利用して視差量を調整する場合に、画像処理により新たな視差画像データを生成する。動画生成部234は、視差画像データを繋ぎ合わせて、3Dの動画ファイルを生成する。
 画像処理部205は、他にも選択された画像フォーマットに従って画像データを調整するなどの画像処理一般の機能も担う。生成された撮影画像データは、LCD駆動回路210により表示信号に変換され、表示部209に表示される。また、メモリカードIF207に装着されているメモリカード220に記録される。
 操作部208は、ユーザの操作を受け付けて制御部201へ指示を伝達する受付部の一部として機能する。操作部208は、撮影開始指示を受け付けるシャッタボタン等、複数の操作部材を含む。
 第2の実施形態における説明は、第1の実施形態と多くを共有する。具体的には、第1の実施形態における図2から図9の説明についてである。したがって、これらの説明を省略し、さらに異なる部分を含む説明を続ける。
 図20は、画像の鮮鋭度を示すコントラストと視差量の関係を模式的に示す図である。横軸は、デジタルカメラ10からの距離を表し、縦軸は、視差量とコントラストの高さを表す。デジタルカメラ10は、距離Lに位置する主要被写体に焦点を合わせている。
 コントラスト曲線1610は、焦点位置までの距離である距離Lで最も高い凸状の曲線を成す。すなわち、距離Lから前後に離れるにつれて徐々にぼけていく様子を示す。
 視差量曲線1620は、距離Lにおいて視差量0を示し、距離Lよりデジタルカメラ10側に近づくにつれ、傾きが大きくなるカーブを示す。すなわち、視差量曲線1620は距離Lより手前側で正の値を示し、より近い被写体ほど大きく浮き上がって視認されることを表している。
 他方、視差量曲線1620は、距離Lよりデジタルカメラ10側から遠ざかるにつれ、傾きが小さくなるカーブを示す。すなわち、視差量曲線1620は距離Lより奥側で負の値を示し、より遠い被写体ほど緩やかに沈み込んで視認されることを表している。
 視差量が-mから+mの範囲に含まれる場合に鑑賞者が違和感、疲労感を覚えないとすると、シーンを構成する被写体が距離L(このときの視差量は+m)から距離L(このときの視差量は-m)の間に分布していれば良い。すなわち、デジタルカメラ10から最も近い近点被写体が距離Lに存在し、最も遠い遠点被写体が距離Lに存在すれば、後段の画像処理で視差量を調整しなくても、鑑賞者は心地よく3D映像を鑑賞できる。一方、近点被写体が距離Lよりも手前の距離Lf'(このときの視差量は+m')に存在すると、許容される視差量を超えてしまうので、鑑賞者は違和感、疲労感を覚える。
 さらに被写体分布と視差量の関係について説明を続ける。図21は、被写体分布と視差量の関係を模式的に示す図である。
 図21の各図は、図20のうち、コントラスト曲線1610を除いた図に対応する。また、焦点を合わせる対象である主要被写体としての合焦被写体の他に、近点被写体と遠点被写体とが存在する場合を想定している。図21(a)においては、合焦被写体は距離L10に、近点被写体はL20に、遠点被写体はL30に存在する。
 許容範囲として設定された視差量範囲が-mから+mである場合、遠点被写体の距離L30に対する視差量曲線1620の値はこの範囲に収まっている。しかし、近点被写体の距離L20に対する視差量曲線1620の値は+mを超えている。
 図21(b)は、図21(a)の被写体状況から、合焦被写体が距離L10から奥側の距離L11へ移動した場合の視差量の概念を示す図である。この場合、距離L11が焦点位置となるので、移動していない近点被写体(距離L20)の像に対する視差量は、視差量曲線1620で示されるように、図22(a)に比べて相当大きくなる。すなわち、許容範囲からの超過量が大きくなる。
 図21(c)は、図21(b)の被写体状況から、近点被写体が距離L20から奥側の距離L21へ、さらには距離L22へ移動した場合の視差量の概念を示す図である。焦点位置は距離L11のままなので視差量曲線1620は図21(b)と同じ曲線を描くが、近点被写体が奥側にずれたことにより、距離L21の時点での視差量は、許容範囲を超えているものの、その超過量は、図21(b)の超過量よりも小さくなる。さらに距離L22まで移動すれば、その視差量は許容範囲に収まる。
 すなわち、シーンに対する奥行き方向の被写体分布と、焦点を合わせる被写体の位置は、設定された許容範囲に視差量が収まるか否かを決定するパラメータであると言える。
 次に、絞り値と視差量の関係について説明する。図22は、絞り値と視差量の関係を模式的に示す図である。図20と同様に、横軸は、デジタルカメラ10からの距離を表し、縦軸は、視差量とコントラストの高さを表す。また、図22(a)は、絞り値がF1.4の状態を表し、図22(b)は、絞り値がF4の状態を表し、図22(c)は、絞り値がF8の状態を表す。なお、撮影レンズ20の焦点距離はいずれの状態においても同一であり、また、デジタルカメラ10は、距離L10に位置する主要被写体に焦点を合わせている。
 コントラスト曲線1610は、いずれの状態においても焦点位置までの距離である距離L10で最も高い。一方で、絞り22を絞るほど、すなわち絞り値が大きくなるほど焦点距離前後でも比較的高い値を示す。すなわち、絞り22を絞った状態で撮影された画像ほど被写界深度が深くなることを示す。視差量曲線1620は、距離L10において視差量0を示し、距離L10よりデジタルカメラ10側に近づくにつれ、傾きが大きくなるカーブを示す。他方、視差量曲線1620は、距離L10よりデジタルカメラ10側から遠ざかるにつれ、傾きが小さくなるカーブを示す。
 視差量曲線1620は、絞り値が大きくなるほど、その変化がなだらかになる。すなわち、絞り値がF1.4の場合に比べ、F4、F8と推移するに従い、焦点位置より手前の視差量および奥の視差量が小さくなる。視差量が-mから+mの範囲に含まれる場合に鑑賞者が違和感、疲労感を覚えないとすると、絞り値がF8の場合であれば視差量曲線1620の全体がこの範囲に収まっているので、いずれの距離に被写体が存在しても鑑賞者は心地よく3D映像を鑑賞できる。
 一方、絞り値がF1.4およびF4の場合では、視差量は、視差量曲線1620の近距離側で+mを超えている。具体的には、F1.4の場合で、距離L24よりも手前の領域で+mを超えており、F4の場合で、距離L25よりも手前の領域で+mを超えている。この場合、F4における視差量曲線1620の傾きの方が、F1.8における視差量曲線1620傾きよりも緩やかであるので、L25<L24の関係が成り立つ。これらの絞り値において、距離L24または距離L25よりも近距離に被写体が存在すれば、撮影された3D映像の鑑賞時において、鑑賞者は違和感、疲労感を覚える。
 そこで、本実施形態においては、生成される画像間の視差量がターゲットとする視差量(許容視差量:例えば±mの範囲)に収まるように、視差量に影響を与える撮像条件を変更したり、画像処理に用いる立体調整パラメータを変更したりする。
 まず、撮像条件の変更について説明する。図22を用いて説明したように絞り値が視差量に影響を与えるので、出力視差画像間の視差量が許容視差量に収まるように、検出した被写体分布に応じて絞り値を変更すると良い。例えば図22(a)の状況(初期絞り値がF1.4、合焦被写体が距離L10)において、近点被写体が距離L25に存在すると、その視差量は+mを超えてしまう。そこで、決定部236は、絞り値をF1.4から、距離L25における被写体に対する視差量が+mとなる絞り値であるF4に変更する。
 近点被写体が許容視差量の範囲を超える場合に限らず、遠点被写体が許容視差量の範囲を超える場合でも、絞り値を大きな値に変更する。なお、近点被写体および遠点被写体の視差量が、許容視差量に対して余裕がある場合には、絞り値を小さな値、すなわち絞り22を開く方向に変更しても良い。この場合、シャッタ速度を高速側に変更したり、ISO感度を低感度側に変更したりすることができる。
 各絞り値に対する合焦被写体距離と視差量曲線1620の関係は、ルックアップテーブルとして予め用意されている。決定部236は、被写体分布と許容視差量を入力値として当該ルックアップテーブルを参照すれば、変更すべき絞り値を抽出、決定することができる。
 撮像条件の変更として、絞り値を変更する以外にも、フォーカス位置を変更するフォーカスシフトの手法がある。図23は、フォーカスシフトの概念を模式的に示す図である。縦軸および横軸は、図20と同様である。
 コントラスト曲線1610と視差量曲線1620は、合焦被写体が距離L10に存在し、フォーカスレンズを移動させてこの被写体に焦点を合わせたときのコントラスト曲線と視差量曲線を表す。この場合、コントラスト曲線1610のピーク値は、合焦と評価される合焦閾値Eを上回っている。
 近点被写体が距離L27の位置に存在すると、その視差量は、視差量曲線1620を参照すると+mであり、許容視差量+mを超えている。そこで、フォーカスシフトにおいては、合焦閾値Eを上回る範囲でフォーカスレンズ位置を修正し、距離L27における視差量を許容範囲に収める。
 図の例の場合、近点被写体に対する視差量が+mとなる視差量曲線1621を選択し、この視差量曲線1621において視差量が0となる距離Lを抽出する。そして、フォーカスレンズ位置を変更して、距離Lを合焦位置とする。コントラスト曲線1611は、このときのコントラスト曲線である。実際には距離L10に被写体が存在するので、当該被写体に対するコントラスト値は、図示するようにΔeだけ低下する。このときのコントラスト値が合焦閾値Eを上回っていれば良い。このようにフォーカスレンズ位置を変更して撮影された画像は、主要被写体に対するコントラスト値は若干低下するものの、画像としては合焦と評価でき、かつ、近点被写体に対する視差量は許容範囲に収まっている。
 距離Lに対するコントラスト値が合焦閾値Eを上回っていない場合には、フォーカスレンズ位置の修正は、許容されない。すなわち、視差量曲線1620において近点被写体に対する視差量が許容視差量を大きく上回る場合には、合焦閾値Eを上回る範囲でフォーカスレンズ位置を変更しても、当該視差量を許容範囲に収めることができない。この場合、例えば絞り値を大きな値に変更するなど、他の手法と併用すると良い。
 フォーカスシフトによる視差量調整の場合も、各絞り値に対する合焦被写体距離と視差量曲線の関係として予め用意されているルックアップテーブルを利用すれば良い。決定部236は、被写体分布と許容視差量を入力値として当該ルックアップテーブルを参照すれば、距離Lを抽出、決定できる。制御部201は、距離Lに対応してフォーカスレンズの位置を変更する。制御部201は、その結果得られるコントラスト値が合焦閾値Eを上回るか否かを判断する。上回ると判断すれば、そのまま撮影シーケンスを続行する。上回らないと判断すれば、フォーカスレンズ位置を戻して、他の手法を併用するなどの制御に移行する。あるいは、実際に制御部201がフォーカスレンズを移動させることなく、焦点位置がL10からLへシフトしたときのコントラストの減衰量を決定部236が演算し、合焦閾値Eを上回るか否かを判断しても良い。この場合、例えばコントラストAF方式であれば、距離L10に対するフォーカス調整時の、すでに取得されている実際の評価値を参照することもできる。
 次に、立体調整パラメータの変更について説明する。図24は、立体調整パラメータを用いた視差量調整の概念を示す図である。図24(a)~(c)の各図は、図21(a)~(c)の各図に対応している。
 図24(a)において設定された視差量範囲が-mから+mである場合、遠点被写体の距離L30に対する視差量曲線1620の値はこの範囲に収まっているので、遠点被写体側に関しては視差量を調整しなくても良い。しかし、近点被写体の距離L20に対する視差量曲線1620の値は+mを超えているので、近点被写体の像が視差量+mになるように、全体の視差量を調整する。
 すなわち、近点被写体の像の視差量と、遠点被写体の像の視差量とが、共に設定された視差量範囲に収まるように、視差量曲線を調整する。より具体的には、設定された視差量範囲から大きく外れた側の被写体像の視差量が当該視差量範囲の限界値になるように視差量曲線を調整すれば良い。図24(a)においては、調整視差量曲線1630がこのように調整された視差量曲線である。このように調整すれば、同一シーンを構成する被写体の像の全部が、設定された視差量範囲に収まる。
 図24(b)の場合も、図24(a)の場合と同様に、近点被写体の像が視差量+mになるように、全体の視差量を調整する。ただし、その調整量は、図24(a)の場合の調整量に対して大きくなる。その結果、調整視差量曲線1630の傾きは水平により近づくので、遠点被写体側の像の視差量はより抑制される。
 図24(c)の場合、焦点位置は距離L11のままなので視差量曲線1620は図24(b)の場合と同一であるが、近点被写体が距離L20から距離L21へ移動したことにより、その調整量は、図24(b)の場合の調整量に対して小さくなる。さらに近点被写体がL21からL22へ移動すれば、その視差量は、調整を施さなくても設定された視差量範囲に収まっている。
 以上のように、視差量曲線1620に対する調整量は、シーンに対する奥行き方向の被写体分布と、焦点を合わせる被写体の位置が取得できれば一意に定まる。調整量は、立体調整パラメータCの値と一対一の関係にあるので、決定部236は、奥行情報検出部235等からこれらの調整情報を受け取れば、立体調整パラメータCの値を決定できる。具体的には、図24に対応するルックアップテーブルが予め用意されており、決定部236は、調整情報の各値を入力してルックアップテーブルを参照すると、その入力に対する立体調整パラメータCの値を抽出、決定することができる。ルックアップテーブルは、事前のシミュレーション、実験等の結果により構築される。あるいは、ルックアップテーブルの形式に依らず、調整情報の各値を変数とする多変数関数が予め用意されていても良い。
 次に許容視差量としての視差量範囲の設定について説明する。図25は、視差量範囲の制限のメニュー画面を表示するデジタルカメラの背面図である。
 視差量範囲は、上述のように、下限値-m、上限値+mのように設定される。下限値と上限値の絶対値は異なっていても良い。ここでは、視差量を視差画像データにおける視差画像のピクセル単位で表す。
 鑑賞者が違和感、疲労感を覚える視差量は、鑑賞者ごとに異なる。したがって、撮影時においてデジタルカメラ10のユーザである撮影者が視差量制限の設定を変更できるように、デジタルカメラ10を構成することが好ましい。
 デジタルカメラ10には、視差量範囲の制限のメニューとして、例えば、図示するように4つの選択肢が設けられている。具体的には、標準的な鑑賞者が心地よいと感じる範囲がプリセットされた「標準」、標準よりも広い範囲がプリセットされ、より大きな視差量を許容する「強め」、標準よりも狭い範囲がプリセットされ、より小さな視差量しか許容しない「弱め」、および撮影者が上限値、下限値を数値入力する「マニュアル」が設けられている。「マニュアル」を選択した場合には、撮影者は、上限値としての「最大浮き上がり量」と下限値としての「最大沈み込み量」を、ピクセル単位で順次指定することができる。撮影者は、操作部208の一部であるダイヤルボタン2081を操作することにより、これらの選択、指定を行う。
 本実施形態におけるデジタルカメラ10は、心地良い視差量に調整された視差画像データを連続的に生成し、これらを繋ぎ合わせて動画ファイルを生成するオート3D動画モードを、動画撮影モードのひとつとして備える。撮影者は、撮影に先立ち、操作部208の一部であるモードボタン2082を操作して、オート3D動画モードを選択する。
 図26は、被写体指定を説明する図である。特に図26(a)は、あるシーンにおけるデジタルカメラ10から奥行方向の被写体分布を示し、図26(b)は、そのシーンをライブビューで表示するデジタルカメラ10の背面図である。
 図26(a)に示すように、シーンは、デジタルカメラ10から近い順に木300(距離L)、少女301(距離L)、少年302(距離L)、女性303(距離L)から構成される。
 そして図26(b)に示すように、このシーンを捉えたライブビュー画像が、表示部209に表示されている。ここでは、少年302が合焦被写体である。少年302が合焦状態である旨を表すAF枠310が、少年302の像に重畳して表示されている。
 これまでの説明においては、デジタルカメラ10から最も近い被写体を近点被写体とした。しかし、シーンを構成する被写体は、奥行方向に対して連続的に分布している場合がある。また、シーンに対して相対的に小さい被写体、シーンに対して重要ではない被写体も存在する。したがって、必ずしもシーンにおいて最も近い被写体を近点被写体として扱わなくても良い。例えば、図26(a)のシーンにおいては、3人の人物が主な被写体であり、鑑賞時において鑑賞者はこの3人を注視することが想定される。したがって、視差量が調整されるべき被写体像はこれら3人の像であり、他の被写体像は除外して良い。そこで、制御部201は、いずれの被写体に対して視差量を調整すべきか、撮影者の指示を受け付ける。
 表示部209には、ユーザ指示を受け付ける状態であることを示す、タイトル320(例えば「近点被写体を選択して下さい」)が表示されている。この状態において、ユーザは、近点被写体としたい被写体像をタッチする(図では少女301)。表示部209には操作部208の一部としてタッチパネル2083が重ねて設けられており、制御部201は、タッチパネル2083の出力を取得して、いずれの被写体を近点被写体とするかを決定する。この場合、指定された被写体よりも手前の被写体(図では木300)は、被写体分布の検出対象から除外する。なお、近点被写体に限らず、遠点被写体も同様に指示を受け付けて良い。
 奥行情報検出部235は、このようにユーザ指示により指定された被写体(近点被写体から遠点被写体までの被写体)を被写体分布の検出対象とする。なお、動画撮影、コンティニュアス撮影等において、撮影画像データを連続的に生成する場合には、撮影開始時に受け付けた被写体を被写体追従により追跡して、刻々と変化する距離L、L、Lを取得しても良い。
 次にデジタルカメラ10の動画撮影における処理フローについて説明する。上述のように、生成される画像間の視差量が許容視差量に収まるようにするには、視差量に影響を与える撮像条件を変更する場合と、画像処理に用いる立体調整パラメータを変更する場合がある。両者を併用することもできるが、以下の実施例においては、これらの処理を分けて説明する。
 <第1実施例>
 第1実施例として、視差量に影響を与える撮像条件を変更する動画撮影の処理フローを説明する。図27は、第1実施例に係る動画撮影における処理フローである。図のフローは、撮影者によりモードボタン2082が操作されてオート3D動画モードが開始された時点から始まる。なお、視差量範囲は、事前に撮影者により設定されている。
 オート3D動画モードが開始されると、決定部236は、ステップS11で、撮影者が設定した視差量範囲をシステムメモリから取得する。制御部201は、ステップS12で、AF、AEを実行する。ステップS13へ進み、制御部201は、例えば図26を用いて説明したように、タッチパネル2083を介して対象とする被写体指定をユーザから受け付ける。ステップS14へ進み、奥行情報検出部235は、ステップS13で指定を受けた被写体に対して、例えばステップS12のAF動作に伴って検出された位相差情報から、奥行方向の被写体分布を検出する。
 制御部201は、ステップS15で、撮影者が録画開始ボタンを押下げる録画開始指示を待つ。録画開始指示を検出すると(ステップS15のYES)、制御部201は、ステップS16へ進む。指示を検出しない場合は、ステップS12へ戻る。なお、ステップS12へ戻った後においては、指定された被写体の追従を行い、ステップS13、S14の処理をスキップしても良い。
 ステップS16において決定部236は、撮影条件を変更する。具体的には、図22を用いて説明したように絞り値を変更したり、図23を用いて説明したようにフォーカスレンズ位置を変更したりする。この他にも、視差量に影響を与える撮像条件を、設定された視差量範囲に収まるように変更しても良い。例えば、撮影レンズ20がズームレンズであれば焦点距離を変更することもできる。
 ステップS17へ進み、制御部201は、変更された撮像条件に従って、再びAF,AEを実行する。そして、制御部201は、ステップS18で、駆動部204を介して撮像素子100の電荷蓄積、読み出しを実行し、1フレームとしての撮影画像データを取得する。ここで取得された撮影画像データにおける視差画像間の視差量は、設定された視差量に収まっている。
 ステップS19では、動画撮影中に対象とする被写体を撮影者が変更したいと考えた場合のために、制御部201は、対象とする被写体指定をユーザから受け付ける。そして、ステップS20へ進み、奥行情報検出部235は、奥行方向の被写体分布を検出する。なお、ステップS19の処理はスキップしても良い。この場合、ステップS13の被写体指定をそのまま維持することになるので、ステップS20の処理は、ステップS17のAF、AE処理に応じた、対象被写体の被写体追従を実現する処理と言える。
 制御部201は、ステップS21で、撮影者から録画停止指示を受けていないと判断すればステップS16へ戻り次のフレーム処理を実行する。録画停止指示を受けたと判断すればステップS22へ進む。
 ステップS22では、動画生成部234は、連続的に生成された左側視点のカラー画像データと右側視点のカラー画像データを繋ぎ合わせ、Blu-ray3Dなどの3D対応動画フォーマットに従ってフォーマット処理を実行し、動画ファイルを生成する。そして、制御部201は、生成された動画ファイルを、メモリカードIF207を介してメモリカード220へ記録し、一連のフローを終了する。なお、メモリカード220への記録は、左側視点のカラー画像データと右側視点のカラー画像データの生成に同期して逐次実行し、録画停止指示に同期してファイル終端処理を実行しても良い。また、制御部201は、メモリカード220へ記録するに限らず、例えばLANを介して外部機器に出力するように構成しても良い。
 なお、動画生成部234は、算出部233に、上述の式(1)、式(2)の立体調整パラメータCの値を1とする画像処理を実行させて、高精細な左側視点のカラー画像データと右側視点のカラー画像データを生成しても良い。
 <第2実施例>
 第2実施例として、画像処理に用いる立体調整パラメータを変更する動画撮影の処理フローを説明する。図28は、第2実施例に係る動画撮影における処理フローである。図27の処理フローの各処理と関連する処理については同一のステップ番号を付すことにより、異なる処理および追加的な処理の説明を除いて、その説明を省略する。
 本フローにおいては、図27のフローにおけるステップS16が存在しない。ステップS15で録画ONの指示を受けると、制御部201は、ステップS17では、視差量調整のための撮影条件変更を行うことなく、AF、AEを実行する。そしてステップS18で撮影画像データを取得する。ここで取得された撮影画像データにおける視差画像間の視差量は、被写体分布および撮影条件によっては、設定された視差量に収まっていない。
 決定部236は、ステップS31で、図24を用いて説明した調整情報を取得し、ステップS32で、受け取った調整情報を引数としてルックアップテーブルを参照し、立体調整パラメータCの値を決定する。
 ステップS33では、算出部233は、決定部236が決定した立体調整パラメータCの値と撮影画像データとを受け取り、左側視点のカラー画像データ(RLtプレーンデータ、GLtプレーンデータ、BLtプレーンデータ)および右側視点のカラー画像データ(RRtプレーンデータ、GRtプレーンデータ、BRtプレーンデータ)を生成する。具体的な処理を次に述べる。
 図29は、左側視点のカラー画像データと右側視点のカラー画像データである視差カラー画像データを生成するまでの、ステップS33の処理フローである。
 算出部233は、ステップS101で、撮影画像データを取得する。そして、ステップS102において、図3を用いて説明したように、撮影画像データを、視差なし画像データと視差画像データにプレーン分離する。算出部233は、ステップS103で、図3を用いて説明したように分離した各プレーンデータに存在する空格子を補間する補間処理を実行する。
 算出部233は、ステップS104で、各変数の初期化を行う。具体的には、まず、カラー変数Csetに1を代入する。カラー変数Csetは、1=赤、2=緑、3=青を表す。また、座標変数であるiとjに1を代入する。さらに、視差変数Sに1を代入する。視差変数Sは、1=左、2=右を表す。
 算出部233は、ステップS105において、Csetプレーンの対象画素位置(i,j)から画素値を抽出する。例えばCset=1で、対象画素位置が(1,1)である場合、抽出する画素値は、Rn11である。さらに、算出部233は、ステップS106において、LtCsetプレーンデータ、RtCsetプレーンデータの対象画素位置(i,j)から画素値を抽出する。例えば対象画素位置が(1,1)である場合、抽出する画素値は、LtCset11とRtCset11である。
 算出部は、ステップS107において、視差変数Sに対応する対象画素位置(i,j)の画素値を算出する。例えばCset=1、S=1で、対象画素位置が(1,1)である場合、RRLtC11を算出する。具体的には、例えば、上述の式(1)により算出する。ここで、立体調整パラメータCは、ステップS32で決定された値である。
 算出部233は、ステップS108で、視差変数Sをインクリメントする。そして、ステップS109で、視差変数Sが2を超えたか否かを判断する。超えていなければステップS107へ戻る。超えていればステップS110へ進む。
 算出部233は、ステップS110で、視差変数Sに1を代入すると共に、座標変数iをインクリメントする。そして、ステップS111で、座標変数iがiを超えたか否かを判断する。超えていなければステップS105へ戻る。超えていればステップS112へ進む。
 算出部233は、ステップS112で、座標変数iに1を代入すると共に、座標変数jをインクリメントする。そして、ステップS113で、座標変数jがjを超えたか否かを判断する。超えていなければステップS105へ戻る。超えていればステップS114へ進む。
 ステップS114まで進むと、Csetに対する左右それぞれの全画素の画素値が揃うので、算出部233は、これらの画素値を並べて、プレーン画像データを生成する。例えばCset=1である場合、RLtプレーンデータとRRtプレーンデータを生成する。
 ステップS115ヘ進み、算出部233は、座標変数jに1を代入すると共に、カラー変数Csetをインクリメントする。そして、ステップS116で、カラー変数Csetが3を超えたか否かを判断する。超えていなければステップS105へ戻る。超えていれば、左側視点のカラー画像データ(RLtプレーンデータ、GLtプレーンデータ、BLtプレーンデータ)および右側視点のカラー画像データ(RRtプレーンデータ、GRtプレーンデータ、BRtプレーンデータ)の全てが揃ったとして、図28のフローに戻る。
 次に、図2を用いて説明した開口マスクの好ましい開口形状について説明する。図30は、好ましい開口形状を説明する図である。
 視差Lt画素の開口部105、および視差Rt画素の開口部106は、それぞれ対応する画素に対して中心を含んで互いに反対方向に偏位していることが好ましい。具体的には、開口部105および106のそれぞれが、画素中心を通る仮想的な中心線322と接する形状であるか、あるいは、中心線322を跨ぐ形状であることが好ましい。
 特に、図示するように、開口部105の形状と開口部106の形状は、視差なし画素の開口部104の形状を中心線322で分割したそれぞれの形状と同一であることが好ましい。別言すれば、開口部104の形状は、開口部105の形状と開口部106の形状を隣接させた形状に等しいことが好ましい。
 以上の説明においては、算出部233が用いる計算式は、加重相加平均を利用した上記式(1)(2)を採用したが、これに限らず様々な計算式を採用することができる。例えば、加重相乗平均を利用すれば、上記式(1)(2)と同様に表して、上記式(3)(4)を計算式として採用できる。この場合、維持されるぼけ量が、視差なし画素の出力によるぼけ量ではなく、視差画素の出力によるぼけ量となる。
 また、他の計算式としては、上記式(1)(2)と同様に表して、上記式(5)(6)を採用しても良い。この場合、GLtcmn、GRtcmn、BLtcmn、BRtcmnをそれぞれ算出するときも、立方根の項は変化しない。
 さらには、上記式(7)(8)を採用しても良い。この場合も、GLtcmn、GRtcmn、BLtcmn、BRtcmnをそれぞれ算出するときも、立方根の項は変化しない。
 次に表示装置との連携について説明する。図31は、デジタルカメラ10とTVモニタ80との連携を説明する図である。TVモニタ80は、例えば液晶から構成される表示部40、デジタルカメラ10から取り出されたメモリカード220を受容するメモリカードIF81、鑑賞者が手元で操作するリモコン82等により構成されている。TVモニタ80は3D画像の表示に対応している。3D画像の表示形式は、特に限定されない。例えば、右目用画像と左目用画像を時分割で表示しても良いし、水平方向または垂直方向に短冊状にそれぞれが並んだインターレースであっても良い。また、画面の一方側と他方側に並ぶサイドバイサイド形式であっても良い。
 TVモニタ80は、左側視点のカラー画像データと右側視点のカラー画像データを含んでフォーマット化された動画ファイルをデコードして、3D画像を表示部40に表示する。この場合、TVモニタ80は、規格化された動画ファイルを表示する一般的な表示装置としての機能を担う。
 しかしながら、TVモニタ80は、図1を用いて説明した制御部201の機能の少なくとも一部、および画像処理部205の少なくとも一部の機能を担う画像処理装置として機能させることもできる。具体的には、図1で説明した決定部236と、算出部233,動画生成部234を包含する画像処理部とをTVモニタ80に組み込む。このように構成することにより、実施例2におけるデジタルカメラ10とTVモニタ80の組み合わせによる機能分担とは異なる機能分担を実現することができる。
 具体的には、デジタルカメラ10は、立体調整パラメータによる画像処理を実行せず、奥行情報検出部235が検出した奥行情報を、生成した撮影画像データに関連付ける。そして、TVモニタ80は、画像処理装置として、関連付けられた奥行情報を参照して立体調整パラメータCの値を決定し、取得した画像データに対して立体調整パラメータを用いた画像処理を実行する。TVモニタ80は、このように視差量が調整された3D画像を表示部40に表示する。
 上記の変形例においては、鑑賞者が、TVモニタ80での再生時に、一部の調整情報を入力できるように構成しても良い。例えば、鑑賞者は、リモコン82を操作して、視差量範囲を入力できる。TVモニタ80は、入力された視差量範囲を調整情報として取得し、決定部236は、この視差量範囲に従って立体調整パラメータCの値を決定する。このように構成すれば、TVモニタ80は、鑑賞者ごとの好みに応じた3D画像を表示することができる。
 なお、TVモニタ80を画像処理装置の一例として説明したが、画像処理装置はさまざまな形態を採り得る。例えば、PC、携帯電話、ゲーム機器など、表示部を備える、あるいは表示部に接続される機器は画像処理装置になり得る。
 以上の本実施形態においては動画撮影を前提として説明したが、検出した奥行情報に基づいて視差量を調整した画像データを出力する構成は、もちろん静止画撮影についても適用できる。このように撮影された静止画像は、左右の画像間に極端な視差を生じさせず、鑑賞者に違和感を与えない。
 また、以上の実施形態においては、対象とする被写体をユーザの指示により受け付けたが、制御部201が自動的に対象とする被写体を選定しても良い。例えば、制御部201は、人物認識処理により、シーンに含まれる人物像に限って対象被写体とすることができる。
 以上の本実施形態において説明した各処理フローは、制御部を制御する制御プログラムによって実行される。制御プログラムは、内蔵する不揮発性メモリに記録されており、適宜ワークメモリに展開されて各処理を実行する。あるいは、サーバに記録された制御プログラムが、ネットワークを介して各装置に送信され、ワークメモリに展開されて各処理を実行する。または、サーバに記録された制御プログラムがサーバ上で実行され、各装置は、ネットワークを介して送信されてくる制御信号に即して処理を実行する。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。
 請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 デジタルカメラ、20 撮影レンズ、21 光軸、22 絞り、50 眼球、51 右目、52 左目、40 表示部、61、62、71、72 被写体、80 TVモニタ、81 メモリカードIF、82 リモコン、100 撮像素子、104、105、106 開口部、110 基本格子、201 制御部、202 A/D変換回路、203 メモリ、204 駆動部、205 画像処理部、207 メモリカードIF、208 操作部、209 表示部、210 LCD駆動回路、231 調整条件取得部、232 調整値決定部、233 算出部、234 動画生成部、235 奥行情報検出部、236 決定部、300 木、301 少女、302 少年、303 女性、310 AF枠、320 タイトル、322 中心線、1610、1611 コントラスト曲線、1620、1621 視差量曲線、1630 調整視差量曲線、1804、1805、1807、1808 分布曲線、1806、1809 合成分布曲線、1901 Lt分布曲線、1902 Rt分布曲線、1903 2D分布曲線、1905 調整Lt分布曲線、1906 調整Rt分布曲線、2081 ダイヤルボタン、2082 モードボタン 2083 タッチパネル

Claims (31)

  1.  同一シーンを撮像して生成される、基準画像データ、前記基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および前記一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データを生成する撮像部と、
     視差量調整に関する調整条件を取得する調整条件取得部と、
     前記調整条件に基づいて、前記基準画像データ、前記第1視差画像データおよび前記第2視差画像データを処理することにより、前記一方向に前記第1視差とは異なる第3視差を有する第3視差画像データと、前記他方向に前記第2視差とは異なる第4視差を有する第4視差画像データとを生成する画像処理部と
    を備える撮像装置。
  2.  前記画像処理部は、前記撮像部が連続的に生成する前記撮影画像データを処理することにより、前記第3視差画像データと前記第4視差画像データに基づく動画ファイルを生成する請求項1に記載の撮像装置。
  3.  同一シーンを撮像して生成される、基準画像データ、前記基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および前記一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データを生成する撮像部と、
     前記第1視差および前記第2視差とは異なる視差を有する調整視差画像データを生成するための視差量調整に関する調整条件を取得する調整条件取得部と、
     前記調整条件を前記撮影画像データに関連付けて出力する出力部と
    を備える撮像装置。
  4.  前記出力部は、前記撮像部が連続的に生成する前記撮影画像データから作られた動画ファイルに前記調整条件を関連付ける請求項3に記載の撮像装置。
  5.  前記調整条件取得部は、前記撮像部が連続的に生成する前記撮影画像データに対応して、前記調整条件を動的に取得する請求項2または4に記載の撮像装置。
  6.  前記調整条件は、前記撮像部へ前記被写体像を結像させる光学系の設定条件を含む請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記設定条件は、絞り、焦点距離およびフォーカスレンズ位置の少なくともいずれかを含む請求項6に記載の撮像装置。
  8.  前記調整条件は、前記同一シーンの被写体状況を含む請求項1から7のいずれか1項に記載の撮像装置。
  9.  前記被写体状況は、奥行き方向の被写体分布を含む請求項8に記載の撮像装置。
  10.  前記調整条件は、入力部を介してユーザより指示されるユーザ指示を含む請求項1から9のいずれか1項に記載の撮像装置。
  11.  前記調整条件は、前記ユーザ指示により指示された視差量の範囲設定を含む請求項10に記載の撮像装置。
  12.  前記調整条件は、フレーム全体における各画素の視差量を積分して算出される累積視差量を含む請求項1から11のいずれか1項に記載の撮像装置。
  13.  前記画像処理部は、前記調整条件に基づいて調整値を決定し、
     前記基準画像データの対象画素位置における基準画素値、前記第1視差画像データの前記対象画素位置における第1視差画素値、および前記第2視差画像データの前記対象画素位置における第2視差画素値を抽出して、計算式
      P=2P×(C・P+(1-C)P)/(P+P) 
      P=2P×((1-C)P+C・P)/(P+P) 
    (P:基準画素値、P:第1視差画素値、P:第2視差画素値、P:第3視差画素値、P:第4視差画素値、C:調整値(実数、ただし、0.5<C<1))
    により、前記第3視差画像データを形成する第3視差画素値と前記第4視差画像データを形成する第4視差画素値とを算出する請求項1または2に記載の撮像装置。
  14.  前記画像処理部は、前記調整条件に基づいて調整値を決定し、
     前記基準画像データの対象画素位置における基準画素値、前記第1視差画像データの前記対象画素位置における第1視差画素値、および前記第2視差画像データの前記対象画素位置における第2視差画素値を抽出して、計算式
      P=P×(P/P(C-0.5)
      P=P×(P/P(C-0.5)
    (P:基準画素値、P:第1視差画素値、P:第2視差画素値、P:第3視差画素値、P:第4視差画素値、C:調整値(実数、ただし、0.5<C<1))
    により、前記第3視差画像データを形成する第3視差画素値と前記第4視差画像データを形成する第4視差画素値とを算出する請求項1または2に記載の撮像装置。
  15.  基準画像データ、前記基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および前記一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データと、前記撮影画像データに関連付けられた視差量調整に関する調整条件とを取り込む取込部と、
     前記調整条件に基づいて、前記基準画像データ、前記第1視差画像データおよび前記第2視差画像データを処理することにより、前記一方向に前記第1視差とは異なる第3視差を有する第3視差画像データと、前記他方向に前記第2視差とは異なる第4視差を有する第4視差画像データとを生成する画像処理部と
    を備える画像処理装置。
  16.  前記画像処理部は、前記取込部が取り込んだ連続的な前記撮影画像データを処理することにより、前記第3視差画像データと前記第4視差画像データに基づく動画ファイルを生成する請求項15に記載の画像処理装置。
  17.  前記画像処理部は、前記調整条件に基づいて調整値を決定し、
     前記基準画像データの対象画素位置における基準画素値、前記第1視差画像データの前記対象画素位置における第1視差画素値、および前記第2視差画像データの前記対象画素位置における第2視差画素値を抽出して、計算式
      P=2P×(C・P+(1-C)P)/(P+P) 
      P=2P×((1-C)P+C・P)/(P+P) 
    (P:基準画素値、P:第1視差画素値、P:第2視差画素値、P:第3視差画素値、P:第4視差画素値、C:調整値(実数、ただし、0.5<C<1))
    により、前記第3視差画像データを形成する第3視差画素値と前記第4視差画像データを形成する第4視差画素値とを算出する請求項15または16に記載の画像処理装置。
  18.  前記画像処理部は、前記調整条件に基づいて調整値を決定し、
     前記基準画像データの対象画素位置における基準画素値、前記第1視差画像データの前記対象画素位置における第1視差画素値、および前記第2視差画像データの前記対象画素位置における第2視差画素値を抽出して、計算式
      P=P×(P/P(C-0.5)
      P=P×(P/P(C-0.5)
    (P:基準画素値、P:第1視差画素値、P:第2視差画素値、P:第3視差画素値、P:第4視差画素値、C:調整値(実数、ただし、0.5<C<1))
    により、前記第3視差画像データを形成する第3視差画素値と前記第4視差画像データを形成する第4視差画素値とを算出する請求項15または16に記載の画像処理装置。
  19.  同一シーンを撮像して生成される、基準画像データ、前記基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および前記一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データを生成する撮像ステップと、
     視差量調整に関する調整条件を取得する調整条件取得ステップと、
     前記調整条件に基づいて、前記基準画像データ、前記第1視差画像データおよび前記第2視差画像データを処理することにより、前記一方向に前記第1視差とは異なる第3視差を有する第3視差画像データと、前記他方向に前記第2視差とは異なる第4視差を有する第4視差画像データとを生成する画像処理ステップと
    をコンピュータに実行させる撮像装置の制御プログラム。
  20.  同一シーンを撮像して生成される、基準画像データ、前記基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および前記一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データを生成する撮像ステップと、
     前記第1視差および前記第2視差とは異なる視差を有する調整視差画像データを生成するための視差量調整に関する調整条件を取得する調整条件取得ステップと、
     前記調整条件を前記撮影画像データに関連付けて出力する出力ステップと
    をコンピュータに実行させる撮像装置の制御プログラム。
  21.  基準画像データ、前記基準画像データの被写体像に対して一方向に第1視差を有する第1視差画像データ、および前記一方向とは反対の他方向に第2視差を有する第2視差画像データを包含する撮影画像データと、前記撮影画像データに関連付けられた視差量調整に関する調整条件とを取り込む取込ステップと、
     前記調整条件に基づいて、前記基準画像データ、前記第1視差画像データおよび前記第2視差画像データを処理することにより、前記一方向に前記第1視差とは異なる第3視差を有する第3視差画像データと、前記他方向に前記第2視差とは異なる第4視差を有する第4視差画像データとを生成する画像処理ステップと
    をコンピュータに実行させる画像処理装置の制御プログラム。
  22.  シーンに対して奥行き方向の被写体分布を検出する検出部と、
     前記被写体分布に基づいて視差量に関する変更条件を決定する決定部と、
     前記変更条件に基づいて、互いに視差を有する第1視差画像データと第2視差画像データを包含する撮影画像データを生成する撮像制御を実行する制御部と
    を備える撮像装置。
  23.  光学系を通過する入射光束のうち前記光学系の光軸に対して第1方向へ偏位した第1部分光束を受光する第1視差画素群と、前記第1方向とは異なる第2方向へ偏位した第2部分光束を受光する第2視差画素群とを含む撮像素子を備える請求項22に記載の撮像装置。
  24.  前記検出部は、それぞれの被写体に対する位相差情報に基づいて前記被写体分布を検出する請求項22または23に記載の撮像装置。
  25.  ユーザによる被写体の指定を受け付ける受付部を備え、
     前記検出部は、指定を受けた前記被写体を前記被写体分布の検出対象とする請求項22から24のいずれか1項に記載の撮像装置。
  26.  前記決定部は、前記変更条件として絞り値を決定する請求項22から25のいずれか1項に記載の撮像装置。
  27.  前記決定部は、前記変更条件としてフォーカスレンズ位置の修正量を決定する請求項22から26のいずれか1項に記載の撮像装置。
  28.  前記決定部は、前記変更条件として前記制御部が前記第1視差画像データと前記第2視差画像データを生成するときに用いる両画像間の視差量を調整する調整パラメータ値を決定する請求項22から27のいずれか1項に記載の撮像装置。
  29.  前記制御部は、基準画像データ、前記基準画像データの被写体像に対して一方向に第3視差を有する第3視差画像データ、および前記一方向とは反対の他方向に第4視差を有する第4視差画像データを取得し、
     前記基準画像データの対象画素位置における基準画素値、前記第3視差画像データの前記対象画素位置における第3視差画素値、および前記第4視差画像データの前記対象画素位置における第4視差画素値を抽出して、計算式
      P=2P×(C・P+(1-C)P)/(P+P) 
      P=2P×((1-C)P+C・P)/(P+P) 
    (P:基準画素値、P:第1視差画素値、P:第2視差画素値、P:第3視差画素値、P:第4視差画素値、C:調整パラメータ値(実数、ただし、0.5<C<1))
    により、第1視差画素値を算出して前記第1視差画像データを生成し、第2視差画素値を算出して前記第2視差画像データを生成する請求項28に記載の撮像装置。
  30.  前記制御部は、基準画像データ、前記基準画像データの被写体像に対して一方向に第3視差を有する第3視差画像データ、および前記一方向とは反対の他方向に第4視差を有する第4視差画像データを取得し、
     前記基準画像データの対象画素位置における基準画素値、前記第3視差画像データの前記対象画素位置における第3視差画素値、および前記第4視差画像データの前記対象画素位置における第4視差画素値を抽出して、計算式
      P=P×(P/P(C-0.5)
      P=P×(P/P(C-0.5)
    (P:基準画素値、P:第1視差画素値、P:第2視差画素値、P:第3視差画素値、P:第4視差画素値、C:調整パラメータ値(実数、ただし、0.5<C<1))
    により、第1視差画素値を算出して前記第1視差画像データを生成し、第2視差画素値を算出して前記第2視差画像データを生成する請求項28に記載の撮像装置。
  31.  シーンに対して奥行き方向の被写体分布を検出する検出ステップと、
     前記被写体分布に基づいて視差量に関する変更条件を決定する決定ステップと、
     前記変更条件に基づいて、互いに視差を有する第1視差画像データと第2視差画像データを包含する撮影画像データを生成する撮像制御ステップと
    をコンピュータに実行させる撮像装置の制御プログラム。
PCT/JP2013/006360 2012-10-26 2013-10-28 撮像装置、画像処理装置、撮像装置の制御プログラムおよび画像処理装置の制御プログラム WO2014064946A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201380055906.7A CN104756493B (zh) 2012-10-26 2013-10-28 摄像装置、图像处理装置、摄像装置的控制程序及图像处理装置的控制程序
JP2014543159A JP6036840B2 (ja) 2012-10-26 2013-10-28 撮像装置、画像処理装置、撮像装置の制御プログラムおよび画像処理装置の制御プログラム
US14/694,482 US9693036B2 (en) 2012-10-26 2015-04-23 Imaging apparatus, image processing device, computer-readable medium having stored thereon an imaging apparatus controlling program, and computer-readable medium having stored thereon an image processing program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012236192 2012-10-26
JP2012236193 2012-10-26
JP2012-236192 2012-10-26
JP2012-236193 2012-10-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/694,482 Continuation US9693036B2 (en) 2012-10-26 2015-04-23 Imaging apparatus, image processing device, computer-readable medium having stored thereon an imaging apparatus controlling program, and computer-readable medium having stored thereon an image processing program

Publications (1)

Publication Number Publication Date
WO2014064946A1 true WO2014064946A1 (ja) 2014-05-01

Family

ID=50544330

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/006360 WO2014064946A1 (ja) 2012-10-26 2013-10-28 撮像装置、画像処理装置、撮像装置の制御プログラムおよび画像処理装置の制御プログラム

Country Status (4)

Country Link
US (1) US9693036B2 (ja)
JP (1) JP6036840B2 (ja)
CN (1) CN104756493B (ja)
WO (1) WO2014064946A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104093013A (zh) * 2014-06-25 2014-10-08 中国科学院遥感与数字地球研究所 一种立体视觉三维可视化系统中自动调节图像视差的方法
WO2018008269A1 (ja) * 2016-07-08 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6288088B2 (ja) * 2013-07-05 2018-03-07 株式会社ニコン 撮像装置
US10341546B2 (en) * 2015-04-28 2019-07-02 Sony Corporation Image processing apparatus and image processing method
JP2017199178A (ja) * 2016-04-27 2017-11-02 Kyb株式会社 路面状態検出装置
US9992487B1 (en) * 2016-08-10 2018-06-05 Integrity Applications Incorporated Stereoscopic viewer

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245451A (ja) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> 立体画像評価装置
JP2004221700A (ja) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
WO2011108276A1 (ja) * 2010-03-05 2011-09-09 パナソニック株式会社 立体撮像装置、および立体撮像方法
JP2011248693A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置、画像処理方法および画像処理プログラムならびに撮像装置
WO2012073491A1 (ja) * 2010-11-29 2012-06-07 株式会社ニコン 撮像素子、及び、撮像装置
JP2012142922A (ja) * 2010-12-17 2012-07-26 Canon Inc 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3186448B2 (ja) 1994-08-01 2001-07-11 ミノルタ株式会社 立体テレビカメラ
JP4737573B2 (ja) * 2009-02-05 2011-08-03 富士フイルム株式会社 3次元画像出力装置及び方法
KR20140030183A (ko) * 2011-04-14 2014-03-11 가부시키가이샤 니콘 화상 처리 장치 및 화상 처리 프로그램

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245451A (ja) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> 立体画像評価装置
JP2004221700A (ja) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
WO2011108276A1 (ja) * 2010-03-05 2011-09-09 パナソニック株式会社 立体撮像装置、および立体撮像方法
JP2011248693A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置、画像処理方法および画像処理プログラムならびに撮像装置
WO2012073491A1 (ja) * 2010-11-29 2012-06-07 株式会社ニコン 撮像素子、及び、撮像装置
JP2012142922A (ja) * 2010-12-17 2012-07-26 Canon Inc 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104093013A (zh) * 2014-06-25 2014-10-08 中国科学院遥感与数字地球研究所 一种立体视觉三维可视化系统中自动调节图像视差的方法
WO2018008269A1 (ja) * 2016-07-08 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JPWO2018008269A1 (ja) * 2016-07-08 2019-04-25 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
US11272167B2 (en) 2016-07-08 2022-03-08 Sony Corporation Information processing apparatus, information processing method, and information processing system
JP7110978B2 (ja) 2016-07-08 2022-08-02 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Also Published As

Publication number Publication date
JP6036840B2 (ja) 2016-11-30
CN104756493A (zh) 2015-07-01
US20150245011A1 (en) 2015-08-27
JPWO2014064946A1 (ja) 2016-09-08
US9693036B2 (en) 2017-06-27
CN104756493B (zh) 2017-03-08

Similar Documents

Publication Publication Date Title
US8885026B2 (en) Imaging device and imaging method
US9560341B2 (en) Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device
US8736671B2 (en) Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device
CN102934025B (zh) 摄像装置及摄像方法
US9341935B2 (en) Image capturing device
JP5368350B2 (ja) 立体撮像装置
JP6036840B2 (ja) 撮像装置、画像処理装置、撮像装置の制御プログラムおよび画像処理装置の制御プログラム
JP5788518B2 (ja) 単眼立体撮影装置、撮影方法及びプログラム
CN103098459B (zh) 立体摄像装置及阴影校正方法
EP2590421A1 (en) Single-lens stereoscopic image capture device
JP5449551B2 (ja) 画像出力装置、方法およびプログラム
JP2012257105A (ja) 立体画像取得装置
JP2014036362A (ja) 撮像装置、その制御方法、および制御プログラム
JP5580486B2 (ja) 画像出力装置、方法およびプログラム
WO2015163350A1 (ja) 画像処理装置、撮像装置及び画像処理プログラム
JP6439285B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP5825932B2 (ja) 撮像装置及びその制御方法、プログラム、及び記録媒体
WO2012001958A1 (ja) 画像処理装置および方法並びにプログラム
JP6070061B2 (ja) 画像処理装置、撮影装置、画像処理方法およびプログラム
WO2013031392A1 (ja) 立体撮像装置
JP2024008154A (ja) 画像処理装置、表示装置および画像処理方法
JP6255753B2 (ja) 画像処理装置および撮像装置
JP6070060B2 (ja) 撮像装置およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13849943

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014543159

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13849943

Country of ref document: EP

Kind code of ref document: A1