WO2014034444A1 - 画像処理装置および画像処理方法、並びに情報処理装置 - Google Patents

画像処理装置および画像処理方法、並びに情報処理装置 Download PDF

Info

Publication number
WO2014034444A1
WO2014034444A1 PCT/JP2013/072021 JP2013072021W WO2014034444A1 WO 2014034444 A1 WO2014034444 A1 WO 2014034444A1 JP 2013072021 W JP2013072021 W JP 2013072021W WO 2014034444 A1 WO2014034444 A1 WO 2014034444A1
Authority
WO
WIPO (PCT)
Prior art keywords
resolution
image
viewpoint
viewpoint image
unit
Prior art date
Application number
PCT/JP2013/072021
Other languages
English (en)
French (fr)
Inventor
健吾 早坂
功久 井藤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2014532923A priority Critical patent/JP6458988B2/ja
Priority to US14/422,956 priority patent/US9600859B2/en
Priority to CN201380044211.9A priority patent/CN104584545B/zh
Publication of WO2014034444A1 publication Critical patent/WO2014034444A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present technology relates to an image processing device, an image processing method, and an information processing device, and in particular, an image processing device and an image processing method capable of acquiring a high-resolution viewpoint image and a disparity map with a simple configuration. And an information processing apparatus.
  • Patent Document 1 describes a distance calculation method using a technique called stereo matching.
  • the phase difference between the viewpoint images corresponds to the distance. Calculated as a value.
  • the local region (unit region) to be compared is sequentially moved in the horizontal direction, and a positional shift (Pixel shift, disparity) between the viewpoint images of the unit regions having the strongest correlation within the comparison range is detected. Is required. It is possible to calculate the positional deviation from a plurality of viewpoint images along an arbitrary angle direction in the image. Furthermore, since the disparity can be measured in units of pixels, the disparity distribution diagram (disparity map) can be obtained equal to the resolution of the input image.
  • disparity is only distance information, it does not necessarily need to be highly accurate. Therefore, it is desirable that a viewpoint image of a predetermined viewpoint generally used as a photograph has a high resolution, but a viewpoint image used only for disparity generation does not necessarily have to have a high resolution.
  • the present technology has been made in view of such a situation, and makes it possible to acquire a high-resolution viewpoint image and a disparity map with a simple configuration.
  • An image processing device includes a first viewpoint image captured at a first resolution and a second viewpoint image captured at a second resolution lower than the first resolution.
  • the resolution of one viewpoint image is converted into the resolution of the other viewpoint image, and the first viewpoint image and the second viewpoint image having the same resolution are generated, and the resolution converter generates the resolution.
  • the image processing apparatus includes a generation unit that generates a disparity map based on the correlation value between the first viewpoint image and the second viewpoint image having the same resolution.
  • the image processing method according to the first aspect of the present technology corresponds to the image processing device according to the first aspect of the present technology.
  • the resolution of the viewpoint image is converted to the resolution of the other viewpoint image to generate the first viewpoint image and the second viewpoint image having the same resolution, and the first viewpoint image and the second viewpoint image having the same resolution are generated.
  • a disparity map is generated based on the correlation value between the two viewpoint images.
  • An information processing apparatus includes a first imaging element that captures a first viewpoint image having a first resolution, and a second viewpoint that has a second resolution lower than the first resolution.
  • An image capturing unit including a second image sensor that captures an image; and the first viewpoint image captured by the first image sensor and the second viewpoint image captured by the second image sensor.
  • a resolution converter that converts the resolution of one of the viewpoint images into the resolution of the other viewpoint image, and generates the first viewpoint image and the second viewpoint image having the same resolution, and the resolution converter
  • the information processing apparatus includes a generation unit that generates a disparity map based on a correlation value between the generated first viewpoint image and second viewpoint image having the same resolution.
  • a first imaging element that captures a first viewpoint image having a first resolution and a second viewpoint image that has a second resolution lower than the first resolution are captured.
  • the resolution of the image is converted to the resolution of the other viewpoint image, and the first viewpoint image and the second viewpoint image having the same resolution are generated, and the first viewpoint image and the second viewpoint image having the same resolution are generated.
  • a disparity map is generated based on the correlation value between the viewpoint images.
  • a high-resolution viewpoint image and a disparity map can be acquired with a simple configuration.
  • FIG. 1 It is a figure explaining the resolution conversion of the disparity map of FIG. It is a figure explaining the viewpoint interpolation process of FIG. It is a figure explaining the viewpoint interpolation process of FIG. It is a figure which shows the camera array which images a viewpoint image and an interpolation image. It is a side view of an image pick-up part which shows a light ray vector of a light ray acquired by an image pick-up part. It is a side view of the imaging part which shows the light ray vector of a viewpoint image and an interpolation image. It is a figure explaining development processing. It is a figure explaining development processing. 3 is a flowchart for describing an imaging process of the information processing apparatus in FIG. 1.
  • FIG. 21 is a flowchart for describing imaging processing when the CPU functions as the image processing unit in FIG. 20.
  • FIG. It is a figure showing an example of composition of a 1 embodiment of a system to which this art is applied. It is the figure which showed the example of the hardware constitutions of the server of FIG. It is a flowchart explaining the process of the server of FIG.
  • FIG. 1 is a block diagram illustrating an example of a hardware configuration of an embodiment of an information processing apparatus to which the present technology is applied.
  • the information processing apparatus 10 includes an imaging unit 11, a display unit 12, a storage unit 13, a communication unit 14, and a CPU 15.
  • the imaging unit 11 captures still images and moving images.
  • the imaging unit 11 includes a camera array that can acquire a plurality of viewpoint images of a subject.
  • the imaging unit 11 captures a central viewpoint viewpoint image among a plurality of viewpoint images with high resolution, and captures peripheral viewpoint viewpoint images that are viewpoints other than the central viewpoint with low resolution.
  • the display unit 12 is a display device using, for example, an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), a CRT (Cathode Ray Tube), or the like.
  • the display unit 12 displays a preview image of a subject generated based on a plurality of viewpoint images acquired by the imaging unit 11, sets development parameters necessary for the development processing, and finally displays the subject generated by the arithmetic processing of the CPU 15. Used for displaying images.
  • the storage unit 13 is, for example, a nonvolatile memory such as an HDD (Hard Disk Drive), a flash memory (SSD (Solid State Drive), or other solid-state memory.
  • the storage unit 13 is a plurality of viewpoints acquired by the imaging unit 11. Stores an image, a plurality of development parameters, an interpolated image and a final image generated by arithmetic processing of the CPU 15, various programs, etc.
  • the development parameters stored in the storage unit 13 may be downloaded via the communication unit 14. Alternatively, it may be read from a memory card mounted in a slot (not shown).
  • the communication unit 14 is configured to be able to communicate with a server device on a network (not shown) and an external network terminal.
  • the CPU 15 controls the operations of the imaging unit 11, the display unit 12, the storage unit 13, and the communication unit 14 by executing a program stored in the storage unit 13. Specifically, the CPU 15 generates a plurality of interpolation images that interpolate a plurality of viewpoint images based on the plurality of viewpoint images, and uses the interpolation images and the viewpoint images to generate a subject corresponding to the development parameter selected by the user. It functions as an image processing unit for developing an image.
  • the imaging unit 11 includes a camera array (multi-viewpoint camera) in which a plurality of camera modules are arranged in a matrix on the same plane.
  • FIG. 2 is a schematic perspective view illustrating a configuration example of the camera module 21 configuring the imaging unit 11
  • FIG. 3 is a schematic perspective view of the imaging unit 11.
  • the camera module 21 includes a solid-state imaging device such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device) sensor.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • FIG. 3 shows an example in which 3 (row) ⁇ 3 (column) camera modules 21 having an angle of view ⁇ degree are arranged in the same plane, but the arrangement and number of camera modules 21 are of course limited to this. Absent.
  • the peripheral viewpoint camera module 21 may be arranged at an apex of an octagon centered on the central viewpoint camera module.
  • the three camera modules 21 in the first row from the top among the nine camera modules 21 are also referred to as camera modules C11, C12, and C13 in order from the left toward the subject.
  • the three camera modules in the second row from the top are also referred to as C21, C22, and C23 in order from the left toward the subject.
  • the three camera modules in the third row from the top are also referred to as C31, C32, and C33 in order from the left toward the subject.
  • the imaging unit 11 acquires a viewpoint image of a subject according to the position (viewpoint) of each of the plurality of camera modules 21 by simultaneously photographing the subject with the individual camera modules 21.
  • the acquired viewpoint image is used by the image processing unit 30 or stored in the storage unit 13.
  • the camera module C22 arranged in the center is composed of camera modules having higher resolution than the other camera modules C11 to C13, C21, C23, and C31 to C33 arranged around the camera module C22. Therefore, as shown in FIG. 4, the resolution of the central viewpoint viewpoint image G22 acquired by the camera module C22 is that of the peripheral viewpoint viewpoint images captured by the camera modules C11 to C13, C21, C23, and C31 to C33. The resolution is higher than that of G11 to G13, G21, G23, and G31 to G33.
  • the camera module C22 having the first resolution R1 is mainly used for acquiring a high-resolution viewpoint image of the subject, and the camera modules C11 to C13, C21, C23, and C31 to C33 having the second resolution R2 are: Used only to obtain a deparity map.
  • the camera module C22 has a first resolution R1
  • the other camera modules C11 to C13, C21, C23, and C31 to C33 around it have a second resolution R2 that is lower than the first resolution. It shall have.
  • the values of the first resolution R1 and the second resolution R2 are not particularly limited, and can be set to appropriate values that can obtain the final image and the disparity map of the target resolution.
  • FIG. 5 is a block diagram illustrating a first configuration example of an image processing unit realized by the CPU 15.
  • 5 includes a resolution conversion unit 31, a correlation value calculation unit 32, an interpolation processing unit 33, and a development processing unit 34.
  • the resolution conversion unit 31 of the information processing apparatus 10 changes the resolution of the viewpoint image of the first resolution R1 of the central viewpoint among the plurality of viewpoint images captured by the imaging unit 11 of FIG. 1 to the second resolution R2. Convert.
  • the resolution conversion unit 31 supplies the correlation value calculation unit 32 with the viewpoint image of the central viewpoint and the viewpoint images of the peripheral viewpoints of the second resolution R2 obtained as a result.
  • the correlation value calculation unit 32 functions as a generation unit, and uses the viewpoint image of the central viewpoint and the viewpoint images of the peripheral viewpoints of the second resolution R2 supplied from the resolution conversion unit 31, and uses the viewpoint image of the second resolution R2. A stereo matching process is performed for each pixel. Then, the correlation value calculation unit 32 determines, for each pixel of the second resolution R2, between the local regions in the viewpoint image of the central viewpoint and the peripheral viewpoint when the correlation value obtained by the stereo matching process represents the strongest correlation. Detect distance.
  • the correlation value calculation unit 32 generates a phase difference distribution (disparity map) of the second resolution R2 by using the detected distance (phase difference) of each pixel of the second resolution R2 as a pixel value.
  • the correlation value calculation unit 32 converts the resolution of the disparity map of the second resolution R2 into the first resolution R1 and supplies the first resolution R1 to the interpolation processing unit 33.
  • the pixel value of the disparity map is referred to as a disparity value in order to distinguish it from the pixel value of the viewpoint image.
  • the interpolation processing unit 33 uses the disparity map from the correlation value calculation unit 32 and the viewpoint image from the imaging unit 11 to generate a viewpoint image with the first resolution R1 between the central viewpoint and the peripheral viewpoint. In addition to interpolation, a viewpoint image having the first resolution R1 of the peripheral viewpoint is generated. The interpolation processing unit 33 supplies the viewpoint image of the first resolution R1 of the central viewpoint and the peripheral viewpoint, and the interpolation image to the development processing unit 34.
  • the development processing unit 34 develops the subject image using the viewpoint image and the interpolation image from the interpolation processing unit 33 and the development parameters selected by the user from among the plurality of development parameters stored in the storage unit 13.
  • the development processing to be (reconstructed) is performed.
  • the development processing unit 34 outputs the image of the first resolution R1 generated as a result as the final image.
  • the final image is stored in the storage unit 13 or transmitted to an external device via the communication unit 14.
  • the image processing unit 30 performs the stereo matching process by converting the resolution of the viewpoint image at the center viewpoint of the first resolution R1 to the second resolution R2 that is the same as the resolution of the viewpoint image at the peripheral viewpoint. . Therefore, even when the resolution of the viewpoint image of the peripheral viewpoint to be imaged is lower than the resolution of the viewpoint image of the central viewpoint, the image processing unit 30 and the viewpoint image and disparity map of the high-resolution central viewpoint Can be obtained.
  • the information processing apparatus 10 uses the imaging unit 11 having a simple configuration in which the resolution of the peripheral viewpoint camera module 21 is lower than the resolution of the central viewpoint camera module 21, and uses a high-resolution viewpoint image and disparity map. And can get. As a result, the manufacturing cost can be reduced.
  • FIG. 6 is a diagram illustrating the flow of processing for generating an interpolation image in the image processing unit 30 of FIG.
  • the image processing unit 30 calculates the correlation values between the viewpoint image G22 of the central viewpoint and the viewpoint images G11 to G13, G21, G23, G31 to G33 of the peripheral viewpoint, but here, as an example, the viewpoint A case where a correlation value between the image G22 and the viewpoint image G23 having a parallax only in the horizontal direction is calculated will be described.
  • the resolution converter 31 converts (down-converts) the resolution of the viewpoint image G22 having the first resolution R1 imaged by the imaging unit 11 into the second resolution R2 (step ST01). Thereby, as shown in FIG. 7, since the resolution of the viewpoint image G22 and the viewpoint image G23 is the same, an appropriate stereo matching process can be performed.
  • the correlation value calculation unit 32 executes a stereo matching process for calculating a correlation value between the viewpoint image G22 having the second resolution R2 and the viewpoint image G23, and disparity having the second resolution R2.
  • a map is generated (step ST02).
  • the correlation value calculation unit 32 converts (up-converts) the resolution of the generated disparity map into the first resolution R1 (step ST03).
  • the edge information of the viewpoint image G22 having the first resolution R1 before resolution conversion can be referred to.
  • the interpolation processing unit 33 refers to the obtained disparity map of the first resolution R1, the captured viewpoint image G22 and the viewpoint image G23, and generates the viewpoint image G23 of the first resolution R1.
  • the viewpoint image having the first resolution R1 between the viewpoints of the viewpoint image G22 and the viewpoint image G23 is interpolated (step ST04).
  • a viewpoint image (camera image) G23 having the first resolution R1 is obtained, and an interpolation image having the first resolution R1, which is a viewpoint image between the viewpoint image G22 and the viewpoint image G23, is obtained as an interpolation result ( Step ST05).
  • the correlation value calculation between the viewpoint image G22 and the viewpoint images G11 to G13, G21, and G31 to G33 is also executed in the same procedure as described above. Thereby, an interpolation image having the first resolution R1 between the viewpoint image G21 and the surrounding viewpoint images G11 to G13, G21, and G31 to G33 is generated.
  • FIG. 8 is a diagram for explaining the stereo matching process in step ST02 of FIG.
  • the viewpoint image of the central viewpoint and the images of the peripheral viewpoints are sequentially compared in the local region, and the phase difference (disparity) between the viewpoint images is obtained.
  • the viewpoint image G22 and the viewpoint image G23 of the peripheral viewpoint with the viewpoints arranged in the horizontal (H) direction and having parallax in the horizontal direction, the viewpoint image G22 and the viewpoint
  • Each pixel of the image G23 is sequentially compared in local area units, and a correlation value (pixel correlation value) indicating the similarity between the local areas is obtained. Then, the phase difference between the local areas when the correlation value represents the strongest correlation is set as the disparity value of the pixel corresponding to the local area.
  • a local region (partial image C1: center coordinates (x1, y1) in FIG. 8) in the viewpoint image G22 is extracted.
  • a local region to be compared in the viewpoint image G23 (partial image H1 in FIG. 8: center coordinates (x1, y1) is extracted, and the position of the partial image H1 is sequentially moved in the horizontal direction within the comparison range H10.
  • the correlation value is sequentially calculated, and the positional deviation (Pixel deviation) between the partial image C1 and the partial image H1 when the correlation value represents the strongest correlation in the comparison range H10 is the center coordinate (x1, y1).
  • the disparity value of the pixel As the disparity value of the pixel.
  • the correlation value calculation unit 32 performs such processing on the pixels in the edge region where the edge of the viewpoint image G22 exists, so that a disparity map having a phase difference as a disparity value only in the edge region of the viewpoint image G22 is obtained. Generate. Disparity values other than the edge region of the disparity map are undetected values indicating that a phase difference is not detected.
  • the correlation value calculation unit 32 performs such processing on the pixels in the edge region of the viewpoint image G22, thereby generating a disparity map having a phase difference only in the edge region of the viewpoint image G22. Disparity values other than the edge area of the disparity map are set as undetected values.
  • a stereo matching process is performed using a plurality of viewpoint images, thereby detecting a phase difference between the viewpoint images and generating a disparity map.
  • Various correlation values can be used in the stereo matching process.
  • SAD SudADof Absolute Difference
  • SSD Small of Squared Difference
  • NCC Normalized Cross-Correlation
  • SAD or SSD the stronger the correlation, the smaller the correlation value (closer to 0), and the weaker the correlation, the larger the correlation value (closer to ⁇ ).
  • NCC Normalized Cross-Correlation
  • the correlation value approaches 1 as the correlation increases, and the correlation value approaches 0 as the correlation decreases.
  • the disparity map has a phase difference as a disparity value only in the edge region of the viewpoint image G22 of the central viewpoint. Accordingly, as shown in FIG. 9, when the edge region 71A of the viewpoint image 71 that is the viewpoint image G22 having the first resolution R1 and the edge region 72A of the viewpoint image 72 that is the viewpoint image G22 having the second resolution R2 are different. In some cases, the resolution of the disparity map cannot be converted to the first resolution R1 by simple pixel interpolation.
  • the phase difference between the pixel 91 and the pixel 92 of the viewpoint image 71 that is not the edge region 72A of the viewpoint image 72 but the edge region 71A of the viewpoint image 71 is the pixel of the corresponding viewpoint image 72. Since the disparity value of 90 is an undetected value, interpolation cannot be performed.
  • the correlation value calculation unit 32 generates a phase difference for the pixels 91 and 92 which are not the edge region 72A in the viewpoint image 72 but are the edge region 71A in the viewpoint image 71 as follows.
  • the correlation value calculation unit 32 obtains the difference between the pixel values of adjacent pixels (pixels represented by squares with A to D in FIG. 10) adjacent to the pixel 91 in the viewpoint image 71 in the vertical and horizontal directions. Then, the correlation value calculation unit 32 determines whether or not the disparity value of the second resolution R2 corresponding to the adjacent pixel exists in the order of the difference, and if so, the disparity value of the pixel 91 is determined. Let it be a phase difference.
  • the correlation value calculation unit 32 newly sets the adjacent pixels on the upper, lower, left, and right sides of the pixel 92 on the right of the pixel 91 as the adjacent pixels. The same processing is performed. In this way, the phase difference of the pixel 91 is generated. The same applies to the phase difference of the pixel 92.
  • the correlation value calculation unit 32 also generates a phase difference by simply interpolating the disparity map of the second resolution R2 for the pixels other than the pixel 91 and the pixel 92 in the edge region 71A of the viewpoint image 71.
  • the correlation value calculation unit 32 has the phase difference as the disparity value of the edge region 71A and the disparity value of the first resolution R1 having the undetected value as the disparity value of the region other than the edge region 71A. Generate a parity map. Then, the correlation value calculation unit 32 interpolates the disparity value of the area other than the edge area 71A based on the disparity value of the edge area 71A of the disparity map of the first resolution R1 to obtain the final first resolution. Generate R1 disparity map.
  • the correlation value calculation unit 32 uses the disparity values of the pixel 91 and the pixel 92 in which no phase difference is detected in the viewpoint image 72 in the disparity map of the first resolution R1, and the pixels having similar pixel values. Phase difference. Therefore, the resolution of the disparity map can be converted to the first resolution R1 with high accuracy.
  • the interpolation processing unit 33 first generates peripheral viewpoint viewpoint images G11 to G13, G21, G23, and G31 to G33 of the first resolution R1, using the disparity map and the viewpoint images of all viewpoints.
  • the interpolation processing unit 33 moves the pixel value of the viewpoint image G22 for each pixel by the disparity value of the disparity map of each peripheral viewpoint and the reference viewpoint. Then, for each pixel of the first resolution R1, the interpolation processing unit 33 compares the pixel value of the viewpoint image G22 after movement with the corresponding pixel value of the viewpoint image of the peripheral viewpoint of the second resolution R2, The movement amount and the pixel value of the viewpoint image G23 are adjusted until the difference is minimized. When the pixel value is adjusted in this way, the resolution of the viewpoint image G23 becomes the first resolution R1.
  • the interpolation processing unit 33 uses each of the peripheral viewpoints, the disparity map of the reference viewpoint, and the two adjacent viewpoint images that use the adjusted movement amount as the disparity value, and handles the two viewpoint images.
  • the viewpoint image of the viewpoint between the viewpoints to be interpolated is interpolated.
  • the interpolation processing unit 33 for each pixel, the viewpoint image G21 having the first resolution R1 by a half of the disparity value of the disparity map of the viewpoint image G21 and the viewpoint image G22. And the viewpoint image G22 is moved.
  • the interpolation processing unit 33 generates an interpolation image T35 of the viewpoint located at the center on the straight line connecting the camera module C21 and the camera module C22 by averaging the viewpoint image G21 and the viewpoint image G22 after movement. To do.
  • the interpolation processing unit 33 uses the viewpoint image G11, the viewpoint image G12, and the disparity map to set the viewpoint image of the viewpoint located at the center on the straight line connecting the camera module C11 and the camera module C12 as the interpolation image T02. Generate.
  • the interpolation processing unit 33 uses the viewpoint image G11, the viewpoint image G22, and the disparity map to generate a viewpoint image of a viewpoint located on a straight line connecting the camera module C11 and the camera module C22 as an interpolation image T08.
  • the interpolated image T27 is generated after the interpolated image T25 and the interpolated image T29 having the same horizontal position as the interpolated image T27, or the interpolated image T02 and the interpolated image T35 having the same vertical position are generated.
  • the interpolation processing unit 33 uses the viewpoint image G21, the viewpoint image G22, and the disparity map, and is positioned at the center on the straight line connecting the viewpoint of the interpolation image T35 and the viewpoint of the camera module C22.
  • a viewpoint image of the viewpoint to be generated is generated as an interpolation image T36.
  • the interpolation processing unit 33 uses the viewpoint image G21, the viewpoint image G22, and the disparity map to convert the viewpoint image of the viewpoint located at the center on the straight line connecting the viewpoint of the interpolation image T35 and the viewpoint of the camera module C21 to the interpolation image T34.
  • Similar processing is performed on the two adjacent viewpoint images of the viewpoint images G11 to G13, G21 to G23, and G31 to G33 of all viewpoints, whereby the camera modules C11 to C13, C21 to C23, and C31.
  • An interpolation image of the viewpoint in the area surrounded by thru C33 can be generated.
  • three viewpoints of interpolation images are provided between viewpoints of two viewpoint images adjacent to viewpoint images G11 to G13, G21 to G23, and G31 to G33, and 72 interpolation images T01 to T72 is generated.
  • the number of interpolation images is not limited to the example of FIG.
  • the number of interpolation images is freely set in consideration of the image quality of the final image, the processing time and processing cost of viewpoint interpolation processing, and the like.
  • a viewpoint image (light ray vector information) that is close to that when captured by the camera array 110 having a large number of camera modules 21 as shown in FIG. It can obtain easily with the imaging part 11 which consists of.
  • the first resolution R1 is b (vertical) ⁇ a (horizontal) pixels and a viewpoint image of m rows and n columns is generated by the viewpoint interpolation process, the angle and the passing position are different by the viewpoint interpolation process. This means that ray information can be sampled by the number b ⁇ a ⁇ m ⁇ n.
  • the method for generating the interpolation image is not particularly limited.
  • FIG. 14 is a side view of the imaging unit 11 showing a light vector of light rays acquired by the imaging unit 11.
  • each camera module 21 of the imaging unit 11 acquires light rays from the same subject in the range of the angle of view ⁇ degree, and images a viewpoint image. Accordingly, the viewpoint image captured by each camera module 21 is information on the light ray vector 410 of the light ray from the subject at the viewpoint of the camera module 21.
  • FIG. 15 is a side view of the imaging unit 11 showing the light vector of the viewpoint image and the interpolation image.
  • the interpolated image is a viewpoint image of a viewpoint between adjacent camera modules 21. That is, as shown in FIG. 15, the interpolation image is information (predicted value) of the light vector of the light from the subject at the viewpoint between the adjacent camera modules 21. Therefore, the information on the light vector 420 of the viewpoint image and the interpolation image is larger than the information on the light vector 410.
  • 16 and 17 are diagrams for explaining the development processing performed based on the light vector 420 and the development parameters.
  • a captured image is reconstructed when a light beam corresponding to the light vector 420 is captured by the virtual image sensor 440 via the virtual optical system 430 corresponding to the development parameter. .
  • the storage unit 13 stores parameters for specifying a plurality of types of optical systems as a plurality of development parameters.
  • the development parameters include lens design information (lens shape, arrangement, material, coating, etc.), filter, focus position, aperture value, aperture shape, white balance, exposure correction value, and the like.
  • design information for development parameter lenses not only design information for currently distributed lenses, but also design information for rare lenses with high phantom values, virtual lenses that cannot be physically created, etc. Can do.
  • the user selects a desired development parameter from among a plurality of development parameters stored in the storage unit 13. This makes it possible to capture a subject image with the optical system intended by the user.
  • the development processing unit 34 selects, from the light vector 420, the light vector 421 of the light that passes through the optical system corresponding to the development parameter. For example, when the development parameter selected by the user is design information of an interchangeable lens developed for a certain single-lens reflex camera, the development processing unit 34 drops onto the opening surface of the interchangeable lens and transmits light rays that enter the interior. A ray vector is selected from ray vector 420.
  • the development processing unit 34 obtains the position of the virtual image sensor 440 where the light beam of the light vector 421 reaches by optical simulation. For each pixel, the development processing unit 34 extracts, from the viewpoint image or the interpolated image, information on the ray vector 421 of the ray that reaches the position of the pixel or a peripheral position, and generates a pixel value that represents the color and the luminance.
  • the development processing unit 34 uses the information of the light vector 420 to re-create the subject image captured through an arbitrary optical system. Can be built. As a result, the user can perform virtual shooting by changing the focus position and aperture with an arbitrary lens any number of times after shooting.
  • FIG. 18 is a flowchart for describing an imaging process of the information processing apparatus 10 of FIG.
  • step S11 of FIG. 18 the imaging unit 11 of the information processing apparatus 10 captures the central viewpoint viewpoint image with the first resolution R1 and also captures the peripheral viewpoint viewpoint images with the second resolution R2.
  • step S12 the resolution conversion unit 31 of the image processing unit 30 converts the resolution of the viewpoint image of the central viewpoint imaged by the imaging unit 11 to the second resolution R2.
  • the resolution conversion unit 31 supplies the viewpoint image of the second resolution R2 of the central viewpoint obtained as a result to the correlation value calculation unit 32.
  • step S ⁇ b> 13 the correlation value calculation unit 32 performs the stereo matching process using the viewpoint image of the second resolution R ⁇ b> 2 at the central viewpoint and the viewpoint image of the second resolution R ⁇ b> 2 of the peripheral viewpoint, thereby performing the second matching process.
  • step S14 the correlation value calculation unit 32 performs a high resolution process for converting the resolution of the generated disparity map into the first resolution R1. Details of the resolution enhancement processing will be described with reference to FIG.
  • the correlation value calculation unit 32 interpolates the disparity values outside the edge region based on the disparity values in the edge region of the disparity map of the first resolution R1 obtained as a result of the resolution enhancement processing, and the interpolation processing unit 33 To supply.
  • step S15 the interpolation processing unit 33 uses the disparity map of the first resolution R1 and the captured viewpoint images of all viewpoints supplied from the correlation value calculation unit 32 to interpolate the first resolution R1.
  • a viewpoint image of an image and a peripheral viewpoint is generated.
  • the interpolation processing unit 33 supplies the central viewpoint of the first resolution R1 and the viewpoint images of the peripheral viewpoints and the interpolation image to the development processing unit 34.
  • step S ⁇ b> 16 the development processing unit 34 uses the viewpoint image and the interpolation image from the interpolation processing unit 33 and the development parameters selected by the user from among the plurality of development parameters stored in the storage unit 13. Develop (reconstruct) the subject image.
  • the development processing unit 34 outputs the image of the first resolution R1 generated as a result as the final image. Then, the process ends.
  • FIG. 19 is a flowchart for explaining the details of the high resolution processing in step S14 of FIG. This high resolution processing is performed using each pixel of the first resolution R1 image at the central viewpoint as a pixel to be processed.
  • step S31 of FIG. 19 the correlation value calculation unit 32 determines whether or not the pixel to be processed has an edge. If it is determined in step S31 that the pixel to be processed has an edge, the process proceeds to step S32.
  • step S32 the correlation value calculation unit 32 determines whether or not the disparity value of the pixel corresponding to the pixel to be processed exists in the disparity map of the second resolution R2.
  • step S33 the correlation value calculation unit 32 sets the disparity value to the disparity value of the pixel to be processed in the disparity map of the first resolution R1. To do. Then, the process returns to step S14 in FIG.
  • step S34 the correlation value calculation unit 32 sets pixels adjacent to the processing target pixel in the vertical and horizontal directions as adjacent pixels.
  • the correlation value calculation unit 32 obtains the difference between the pixel value of the pixel to be processed and each adjacent pixel in the viewpoint image at the center viewpoint of the first resolution R1.
  • step S36 the correlation value calculation unit 32 sets m to 1.
  • step S37 the correlation value calculation unit 32 determines whether there is a disparity value of an adjacent pixel corresponding to the mth smallest difference.
  • step S36 If it is determined in step S36 that no disparity value exists, the correlation value calculation unit 32 increments m by 1 in step S38. In step S39, the correlation value calculation unit 32 determines whether m is larger than the number M of adjacent pixels, that is, whether disparity values of all adjacent pixels do not exist.
  • step S39 If it is determined in step S39 that m is not greater than the number M of adjacent pixels, the process returns to step S37, and the subsequent processes are repeated.
  • step S39 if it is determined in step S39 that m is larger than the number M of adjacent pixels, the process returns to step S34, and the correlation value calculation unit 32 adjoins pixels above, below, left, and right of the pixel adjacent to the right of the processing target pixel. Is set to the adjacent pixel. Then, the subsequent processing is repeated.
  • step S36 If it is determined in step S36 that a disparity value exists, the process proceeds to step S40.
  • step S40 the correlation value calculation unit 32 sets the disparity value of the disparity map of the second resolution R2 of the adjacent pixel corresponding to the mth smallest difference as the disparity value of the pixel to be processed. Then, the process returns to step S14 in FIG.
  • step S41 the correlation value calculation unit 32 sets the disparity value of the pixel to be processed as an undetected value, and returns the process to step S14 in FIG.
  • FIG. 20 is a block diagram illustrating a second configuration example of the image processing unit realized by the CPU 15.
  • the configuration of the image processing unit 450 in FIG. 20 is that a resolution conversion unit 451 and a correlation value calculation unit 452 are provided instead of the resolution conversion unit 31 and the correlation value calculation unit 32. And different.
  • the image processing unit 450 converts the resolution of the peripheral viewpoint viewpoint image to the first resolution, and performs stereo matching processing at the first resolution.
  • the resolution conversion unit 451 of the image processing unit 450 sets the resolution of the viewpoint image of the second resolution R2 of the peripheral viewpoint among the plurality of viewpoint images captured by the imaging unit 11 of FIG. Convert to resolution R1.
  • the resolution conversion unit 451 supplies the viewpoint image of the peripheral viewpoint and the viewpoint image of the central viewpoint obtained as a result of the first resolution R1 to the correlation value calculation unit 452.
  • the correlation value calculation unit 452 functions as a generation unit, and uses the viewpoint image of the peripheral viewpoint of the first resolution R1 and the viewpoint image of the center viewpoint supplied from the resolution conversion unit 451, and has the first resolution R1. A stereo matching process is performed for each pixel. Then, the correlation value calculation unit 452 performs, for each pixel of the first resolution R1, between the local regions in the viewpoint image of the central viewpoint and the peripheral viewpoint when the correlation value obtained by the stereo matching process represents the strongest correlation. Detect distance.
  • the correlation value calculation unit 452 generates a disparity map of the first resolution R1 by using the detected distance of each pixel of the first resolution R1 as a disparity value, and supplies the disparity map to the interpolation processing unit 33.
  • the image processing unit 450 performs stereo matching processing by converting the resolution of the viewpoint image of the peripheral viewpoint of the second resolution R2 to the first resolution R1 that is the same as the resolution of the viewpoint image of the central viewpoint. . Therefore, as with the image processing unit 30, the image processing unit 450, even when the resolution of the captured viewpoint image of the peripheral viewpoint is lower than the resolution of the central viewpoint viewpoint image, The viewpoint image and disparity map of the viewpoint can be acquired.
  • FIG. 21 is a diagram for explaining the flow of processing for generating an interpolation image in the image processing unit 450 of FIG.
  • the image processing unit 450 calculates a correlation value between the viewpoint image G22 of the central viewpoint and the viewpoint images G11 to G13, G21, G23, G31 to G33 of the peripheral viewpoint, but here, as an example, the viewpoint A case where a correlation value between the image G22 and the viewpoint image G23 having a parallax only in the horizontal direction is calculated will be described.
  • the resolution conversion unit 451 converts (up-converts) the resolution of the viewpoint image G23 having the second resolution R2 imaged by the imaging unit 11 into the first resolution R1 (step ST11). Thereby, as shown in FIG. 22, since the resolution of the viewpoint image G22 and the viewpoint image G23 is the same, an appropriate stereo matching process can be performed.
  • a specific method for converting the resolution of the viewpoint image G23 to the first resolution R1 is not particularly limited, and, for example, super-resolution processing is applicable.
  • the correlation value calculation unit 452 executes a stereo matching process for calculating a correlation value between the viewpoint image G22 having the first resolution R1 and the viewpoint image G23, and disparity having the first resolution R1.
  • a map is generated (step ST12).
  • the interpolation processing unit 33 refers to the disparity map of the first resolution R1 obtained and the captured viewpoint image G22 and viewpoint image G23 by the same process as the above-described method, and the first resolution.
  • a viewpoint image G23 of R1 is generated, and a viewpoint image of the first resolution R1 between the viewpoints of the viewpoint image G22 and the viewpoint image G23 is interpolated (step ST04).
  • a viewpoint image G23 having the first resolution R1 is obtained, and an interpolation image having the first resolution R1, which is a viewpoint image between the viewpoint image G22 and the viewpoint image G23, is obtained as an interpolation result (step ST05).
  • FIG. 23 is a flowchart for describing imaging processing of the information processing apparatus 10 when the CPU 15 functions as the image processing unit 450.
  • the imaging unit 11 of the information processing apparatus 10 captures the central viewpoint viewpoint image at the first resolution R1 and the peripheral viewpoint viewpoint image at the second resolution R2.
  • step S62 the resolution conversion unit 451 of the image processing unit 450 converts the resolution of the viewpoint image of the peripheral viewpoint imaged by the imaging unit 11 into the first resolution R1.
  • the resolution converter 451 supplies the viewpoint image having the first resolution R1 of the peripheral viewpoint obtained as a result to the correlation value calculator 452.
  • step S63 the correlation value calculation unit 452 performs the stereo matching process using the viewpoint image of the first resolution R1 of the peripheral viewpoint and the viewpoint image of the first resolution R1 of the central viewpoint, thereby performing the first matching process. Generate a disparity map with resolution R1. The correlation value calculation unit 452 supplies the disparity map of the first resolution R1 to the interpolation processing unit 33.
  • the image processing unit 450 obtains the phase difference in units of pixels of the first resolution R1 using the central viewpoint image and the peripheral viewpoint image of the first resolution R1, and the first resolution R1. Generate a disparity map. Therefore, the disparity map having the first resolution R1 can be generated with higher accuracy than the image processing unit 30.
  • the image processing unit 30 obtains the phase difference in units of pixels of the second resolution R2 using the central viewpoint image and the peripheral viewpoint image of the second resolution R2, and the first resolution R1. Generate a disparity map. Accordingly, it is possible to generate a disparity map having the first resolution R1 with a smaller amount of calculation than the image processing unit 450.
  • the resolution conversion unit 451 considers the amount of computation and the disparity calculation accuracy, and determines the viewpoint image of the central viewpoint.
  • the number of pixels in the vertical direction may be halved and the number of pixels in the horizontal direction of the peripheral viewpoint viewpoint image may be doubled.
  • processing similar to the processing in step ST03 in FIG. 6 is performed after the processing in step ST12 in FIG. 21, and the resolution of the disparity map is converted to the first resolution R1.
  • FIG. 24 is a diagram illustrating a configuration example of an embodiment of a system to which the present technology is applied.
  • the system 500 in FIG. 24 is configured by connecting a network terminal 502 capable of communicating with the imaging device 501 to a server 504 on the cloud via the network 503.
  • the system 500 performs processing of the information processing apparatus 10 in FIG. 1 by a plurality of apparatuses.
  • the imaging device 501 is a digital still camera that captures still images and a digital video camera that captures moving images.
  • the imaging device 501 includes the imaging unit 11 described above, and captures a viewpoint image at the center viewpoint of the first resolution R1 and a viewpoint image of the peripheral viewpoints at the second resolution R2.
  • the captured viewpoint image is transmitted to the network terminal 502.
  • the network terminal 502 is typically an information processing apparatus such as a personal computer (PC (Personal Computer), smartphone, mobile phone, tablet PC, PDA (Personal Digital Assistant).
  • PC Personal Computer
  • smartphone mobile phone
  • tablet PC Personal Digital Assistant
  • PDA Personal Digital Assistant
  • the imaging device 501 and the network terminal 502 can communicate with each other by wire or wireless, and the network terminal 502 receives a viewpoint image captured by the imaging device 501.
  • the network terminal 502 is also capable of communicating with the server 504 via the network 503.
  • the network terminal 502 transmits the viewpoint image to the server 504 via the network 503.
  • the network 503 is a wireless LAN (IEEE802.11 or the like) such as the Internet, a wired LAN (Local Area Network), or WiFi (Wireless Fidelity), a 3G or 4G wireless mobile communication network, or the like.
  • IEEE802.11 IEEE802.11 or the like
  • the Internet a wired LAN (Local Area Network), or WiFi (Wireless Fidelity), a 3G or 4G wireless mobile communication network, or the like.
  • the server 504 provides a development processing system that performs virtual shooting using a viewpoint image to the user of the network terminal 502. Specifically, the server 504 functions as the above-described image processing unit 30 (450), and extracts a subject image based on N viewpoint (here, nine viewpoints) viewpoint images and development parameters transmitted from the network terminal 502. develop.
  • the server 504 stores development parameters. Furthermore, the server 504 performs a charging process for the development process using a development parameter such as a special lens that is attractive to the user among the stored development parameters.
  • the imaging device 501 and the network terminal 502 are configured as separate devices, but may be configured as one mobile terminal 505.
  • the mobile terminal 505 performs both capturing of the viewpoint image and transmission of the viewpoint image to the server 504.
  • FIG. 25 is a diagram illustrating an example of a hardware configuration of the server 504 in FIG.
  • the server 504 has a CPU (Central Processing Unit) 521, a ROM (Read Only Memory) 522, a RAM (Random Access Memory) 523, an input / output interface 525, and a bus 524 that connects these components to each other. Prepare.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 521 comprehensively controls each block of the server 504 by executing a program stored in the ROM 522 or the RAM 523. Specifically, the CPU 521 functions as the image processing unit 30 (450). In addition, the CPU 521 controls the communication unit 529 to receive a viewpoint image or the like, or to transmit a reconstructed subject image or the like.
  • the CPU 521 may have the same function as the front end in the Web server, and may perform basic Web operations such as output of a main page, for example.
  • the ROM 522 is a non-volatile memory in which an OS (Operating System) to be executed by the CPU 521, a program, various parameters, and the like are fixedly stored.
  • the RAM 523 is used as a work area for the CPU 521 and temporarily holds the OS, various applications being executed, and various data being processed.
  • a display unit 526, an operation reception unit 527, a storage unit 528, a communication unit 529, and the like are connected to the input / output interface 525.
  • the display unit 526 is a display device using, for example, an LCD, an OELD, a CRT, or the like.
  • the operation reception unit 527 is, for example, a pointing device such as a mouse, a keyboard, a touch panel, and other input devices.
  • the touch panel can be integrated with the display unit 526.
  • the storage unit 528 is, for example, a nonvolatile memory such as an HDD, a flash memory, or other solid-state memory.
  • the storage unit 528 stores an OS, various applications, and various data. Particularly in the present embodiment, the storage unit 528 stores N viewpoint images received from the network terminal 502.
  • the storage unit 528 stores a plurality of development parameters.
  • the communication unit 529 is a NIC (Network Interface Card) for preferential connection to the network 503 and a module for wireless communication, and is responsible for communication processing with the network terminal 502.
  • the communication unit 529 receives N viewpoint images from the network terminal 502 and transmits the developed subject image to the network terminal 502.
  • the communication unit 529 transmits a plurality of development parameters stored in the storage unit 528 to the network terminal 502 as development parameter selection candidates.
  • the communication unit 529 receives the development parameter selection candidate selected by the user from the network terminal 502. This development parameter is used by the development processing unit 34.
  • FIG. 26 is a flowchart for explaining the processing of the server 504 in FIG.
  • the communication unit 529 of the server 504 receives N viewpoint images from the network terminal 502.
  • the image processing unit 30 (450) of the server 504 generates a disparity map of the first resolution R1 from the N viewpoint image received by the communication unit 529.
  • step ST23 the image processing unit 30 (450) uses the disparity map of the first resolution R1 and the received N-viewpoint viewpoint image to generate the first resolution interpolation image and the peripheral viewpoint viewpoint image. Generate.
  • step ST24 the image processing unit 30 (450) develops the subject image based on the first resolution interpolation image, the central viewpoint viewpoint image, the peripheral viewpoint viewpoint image, and the development parameters.
  • This development parameter is selected by the user of the network terminal 502.
  • step ST25 the communication unit 529 transmits the developed subject image as a final image to the network terminal 502.
  • FIG. 27 is a block diagram illustrating an example of a hardware configuration of the network terminal 502 of FIG.
  • the network terminal 502 includes a CPU 541, a RAM 542, a nonvolatile memory 543, a display unit 544, and a communication unit 545.
  • the CPU 541 comprehensively controls each block of the network terminal 502 while accessing the RAM 542 or the like as necessary by executing a program stored in the RAM 523 or the nonvolatile memory 543.
  • the RAM 542 is used as a work area for the CPU 541 and temporarily holds the OS, various applications being executed, and various data being processed.
  • the non-volatile memory 543 is, for example, a flash memory or a ROM, and stores an OS, a program (application), various parameters, and the like that are executed by the CPU 541.
  • the nonvolatile memory 543 stores a viewpoint image or a moving image that is a still image of N viewpoints captured by the imaging device 501.
  • the display unit 544 is, for example, an LCD or an OELD, and displays various menus, application GUI (Graphical User Interface), and the like.
  • the display unit 544 is integrated with a touch panel and can accept a user's touch operation.
  • the display unit 544 displays a setting GUI for selecting a development parameter selection candidate supplied via the communication unit 545.
  • the display unit 544 selects a predetermined development parameter from the selection candidates according to the touch operation of the user while the setting GUI is displayed, and supplies the selected development parameter to the communication unit 545.
  • the communication unit 545 performs communication with the server 504 via the network 503, communication with the imaging device 501, communication with other mobile terminals in the vicinity, and the like. For example, the communication unit 545 receives N viewpoint images transmitted from the imaging device 501 and stores them in the nonvolatile memory 543. The communication unit 545 transmits the N viewpoint images stored in the nonvolatile memory 543 to the server 504.
  • the communication unit 545 receives the development parameter selection candidate transmitted from the server 504.
  • the communication unit 545 notifies the server 504 of the selected development parameter among the development parameter selection candidates.
  • the hardware configuration of the portable terminal 505 in which the imaging device 501 and the network terminal 502 are integrated is the network terminal except that the imaging unit 11 is newly provided as shown in FIG.
  • the configuration is the same as 502.
  • FIG. 28 is a schematic diagram illustrating an example of a setting GUI displayed on the display unit 544.
  • the setting GUI is displayed together with the preview image Pv.
  • the development parameter is configured by lens design information, an aperture shape, and a focus position.
  • the lens unit selection unit DL On the display unit 544, the lens unit selection unit DL, the aperture shape selection unit DA, and the focus position selection unit DF are displayed as the setting GUI so as to be superimposed on the preview image Pv.
  • a graphic representing a lens unit based on a selection candidate of lens design information for development parameters is displayed.
  • the aperture shape selection section DA a graphic representing a selection candidate for the aperture shape of the development parameter is displayed.
  • a setting bar Fb representing the focus position selection candidates by position is displayed.
  • the user touches a figure representing a desired lens unit displayed on the lens unit selection unit DL with a finger U to select a selection candidate of design information of the lens corresponding to the lens unit.
  • the user touches a figure representing a desired diaphragm shape displayed on the diaphragm shape selection unit DA with the finger U to select a candidate for the diaphragm shape selection.
  • the user touches the setting bar Fb of the focus position selection unit DF with the finger U and moves the finger U up and down to move the setting bar Fb to a position corresponding to the desired focus position. Thereby, the user can select a selection candidate of a desired focus position.
  • the setting bar Fb is not moved by moving the finger U after the user touches the setting bar Fb with the finger U, but the user touches a desired position on the focus position selection unit DF. Therefore, it may be moved to that position. Further, the focus position selection candidate may not be displayed, and the focus position selection candidate closest to the subject at the touch position of the finger U in the screen may be selected.
  • the lens unit selection unit DL is arranged at the upper left of the preview image Pv
  • the aperture shape selection unit DA is arranged at the lower left
  • the focus position selection unit DF is arranged on the right side. Is not limited to this.
  • development parameter selection candidates such as white balance and exposure correction values can be displayed in the same manner as the lens unit selection unit DL, the aperture shape selection unit DA, the focus position selection unit DF, and the like.
  • the display unit 544 is integrated with the touch panel.
  • the user can move the pointer displayed on the screen by operating a mouse or the like (not shown). A selection operation corresponding to the touch operation is performed.
  • FIG. 29 is a sequence diagram showing a basic operation flow of the system 500 of FIG.
  • FIG. 30 is a flowchart for explaining the upload of the viewpoint image to the server 504, and
  • FIG. 31 is a flowchart for explaining the development of the subject image.
  • operations in the network terminal 502 and the server 504 are performed in cooperation with the CPU and each software module executed under the control of the CPU.
  • the imaging device 501 determines whether a shutter button (not shown) has been pressed by the user. When it is determined in step ST301 that the shutter button has been pressed, in step ST302, the imaging device 501 captures N viewpoint images simultaneously using the imaging unit 11. That is, the imaging device 501 acquires a viewpoint image with a first resolution R1 at the center viewpoint and a viewpoint image with a second resolution R2 at the peripheral viewpoint.
  • step ST303 the imaging device 501 compresses the acquired viewpoint images of N viewpoints using the correlation between adjacent viewpoint images.
  • step ST304 the imaging device 501 transmits an image transfer request to the network terminal 502 by wire or wirelessly.
  • step ST305 the imaging device 501 determines whether the image transfer request has been accepted by the network terminal 502. If it is determined in step ST305 that it has not been accepted, the process returns to step ST304, and the processes of steps ST304 and ST305 are repeated until accepted.
  • step ST306 the imaging device 501 transmits the compressed image of the N viewpoint images to the network terminal 502 by wire or wirelessly, and the process proceeds to step ST307.
  • step ST301 If it is determined in step ST301 that the shutter button has not been pressed, the process proceeds to step ST307.
  • step ST307 the imaging apparatus 501 determines whether or not the power is turned off, that is, whether or not a power-off operation has been performed by the user.
  • step ST307 If it is determined in step ST307 that the power is not turned off, the process returns to step ST301, and the processes in steps ST301 to ST307 are performed until the power-off operation is performed. If it is determined in step ST307 that the power is turned off, the imaging apparatus 501 turns off the power and ends the process.
  • the viewpoint image compression process can use, for example, a video compression algorithm.
  • the viewpoint images of N viewpoints acquired by the imaging device 501 may be transmitted to the network terminal 502 without being compressed. By compressing the viewpoint image, the amount of data transmitted to the network terminal 502 can be suppressed.
  • the compressed image may be generated by the network terminal 502. Thereby, the processing load of the imaging device 501 can be reduced.
  • step ST401 the network terminal 502 determines whether an image transfer request from the imaging device 501 has been received via the communication unit 545. If it is determined in step ST401 that an image transfer request has not been received, the process ends.
  • step ST401 when it is determined in step ST401 that the image transfer request has been received, in step ST402, the network terminal 502 transmits a transfer permission to the imaging device 501 via the communication unit 545.
  • the imaging device 501 determines that the image transfer request has been accepted when receiving this transfer permission.
  • step ST403 the network terminal 502 receives a compressed image of N viewpoint images from the imaging device 501 via the communication unit 545.
  • the network terminal 502 stores the received compressed image in the nonvolatile memory 543.
  • step ST404 the network terminal 502 uploads (transmits) the compressed image to the storage unit 528 of the server 504 via the communication unit 545 and the network 503. Then, the process returns to step ST401, and the subsequent processes are repeated.
  • step ST501 the server 504 determines whether there is a compressed image uploaded to the storage unit 528 via the communication unit 529. If it is determined in step ST501 that there is no compressed image uploaded, the process ends.
  • step ST501 If it is determined in step ST501 that there is a compressed image uploaded, in step ST502, the server 504 confirms the uploaded compressed image, decompresses it, and returns it to the original N-viewpoint viewpoint image. To store.
  • step ST503 the server 504 generates a low-resolution preview image to be displayed on the display unit 544 of the network terminal 502.
  • the preview image is generated based on N viewpoint images transmitted from the network terminal 502.
  • step ST504 the server 504 transmits that the preview image has been prepared to the network terminal 502 via the communication unit 545 and the network 503, and transmits the preview image. Then, the process returns to step ST501, and the subsequent processes are repeated.
  • the network terminal 502 After uploading the compressed image to the storage unit 528 of the server 504 in step ST404, the network terminal 502 determines whether or not there is a new preview image in the server 504 in step ST405. Specifically, the network terminal 502 determines whether a preview image has been prepared from the server 504 or not.
  • the network terminal 502 determines in step ST405 that there is no new preview image, and ends the process.
  • step ST405 it is determined in step ST405 that there is a new preview image, and the process proceeds to step ST406.
  • step ST406 the network terminal 502 receives the preview image from the server 504.
  • the received preview image is displayed on the display unit 544 of the network terminal 502, and the image to be developed is confirmed by the user.
  • the preview image may be generated not by the server 504 but by the network terminal 502.
  • the preview image may be a low-resolution viewpoint image of one of the N viewpoints, or may be a sample image obtained by reducing the resolution of a final image developed using predetermined development parameters. . Further, the number of preview images may be one or plural. When there are a plurality of preview images and the preview images are sample images, the development parameters corresponding to the respective preview images are different.
  • the server 504 transmits development parameter selection candidates to the network terminal 502 at the time of transmission of the preview image or after transmission.
  • the network terminal 502 receives the development parameter selection candidate, and displays a setting GUI (for example, the lens unit selection unit DL of FIG. 28) on the display unit 544 together with the preview image. This makes it possible to provide a development service that is highly convenient for the user.
  • step ST408 the network terminal 502 selects a development parameter selection candidate of the user's preference in accordance with the touch operation of the setting GUI by the user.
  • step ST409 when there are a plurality of preview images, the network terminal 502 changes the preview image to be displayed to a preview image close to the selected development parameter.
  • step ST410 the network terminal 502 determines whether the selection of the development parameter selection candidate is completed.
  • step ST410 For example, if the user has not performed the development parameter selection completion operation, it is determined in step ST410 that selection of the development parameter selection candidate is not completed, and the process returns to step ST408.
  • the processes in steps ST408 to ST410 are repeated until an operation for completing selection of development parameter selection candidates is performed.
  • step ST410 If it is determined in step ST410 that selection of development parameter selection candidates has been completed, for example, if a user performs a development parameter selection completion operation, the process proceeds to step ST411.
  • step ST411 the network terminal 502 transmits the selected development parameter selection candidate to the server 504.
  • step ST412 the network terminal 502 determines whether to develop the current development target image with a development parameter selection candidate different from the selected development parameter selection candidate.
  • step ST412 when the development parameter changing operation is performed by the user, it is determined in step ST412 that development is performed with a development parameter selection candidate different from the selected development parameter selection candidate, and the process returns to step ST408. As a result, the newly selected development parameter selection candidates are transmitted to the server 504.
  • step ST412 when the development parameter changing operation is not performed by the user, it is determined in step ST412 that development is not performed with a development parameter selection candidate different from the selected development parameter selection candidate, and the process returns to step ST405.
  • step ST505 the server 504 determines whether the development parameter is received from the network terminal 502. If it is determined in step ST505 that the development parameter has not been received, the process ends.
  • step ST506 the server 504 generates a final image of the second resolution R2 according to the development parameter. Specifically, the server 504 performs the processes of steps ST22 to ST24. In other words, the server 504 interpolates the uploaded N viewpoint images to convert them into high-density light vector information, and further executes an optical simulation using development parameters to generate a final image.
  • step ST507 the server 504 notifies the network terminal 502 that the final image (subject image) has been generated, and transmits the final image to the network terminal 502.
  • step ST414 the network terminal 502 determines whether there is a final image that has been developed, that is, whether the server 504 has notified that the final image has been generated. If it is determined in step ST414 that there is no final image that has been developed, the process ends.
  • step ST414 If it is determined in step ST414 that there is a final image that has been developed, the network terminal 502 downloads the developed final image from the server 504 in step ST415.
  • step ST416 the network terminal 502 displays the downloaded final image on the display unit 544. Thereby, the user can appreciate the final image. At this time, for example, a storage GUI for selecting whether or not to store the final image is also displayed on the display unit 544.
  • step ST417 the network terminal 502 determines whether or not to save the final image according to the user's touch operation or the like on the save GUI. When it is determined not to save in step ST417, the process returns to step ST414, and the subsequent processes are performed.
  • step ST4108 the network terminal 502 determines whether or not the development parameter selection candidate selected by the user is a charged development parameter.
  • step ST418 If it is determined in step ST418 that the development parameter is a paid development parameter, the network terminal 502 displays a message requesting acceptance of the charge on the display unit 544. In step ST419, the network terminal 502 determines whether or not the user has accepted charging in accordance with a touch operation or the like from the user.
  • step ST419 If it is determined in step ST419 that the billing is not accepted, the final image is not saved, the process returns to step ST414, and the subsequent processes are repeated.
  • step ST420 the network terminal 502 performs an electronic payment process, and the process proceeds to step ST421.
  • step ST418 If it is determined in step ST418 that the development parameter is not charged, the electronic settlement process is not performed, and the process proceeds to step ST421.
  • step ST421 the network terminal 502 stores the downloaded final image in the nonvolatile memory 543 of the network terminal 502 or the storage unit 528 of the server 504.
  • the server 504 When the server 504 receives a different type of development parameter again, the server 504 re-executes the above-described processing to generate a final image (second development). In this case, the network terminal 502 re-executes the above-described processing, and executes final image storage and electronic payment processing as necessary.
  • the server 504 functions as the image processing unit 30 (450). Therefore, the server 504 acquires a high-resolution central viewpoint viewpoint image and disparity map even when the resolution of the captured viewpoint image of the peripheral viewpoint is lower than the resolution of the central viewpoint viewpoint image. can do.
  • the system 500 uses the imaging device 501 having a simple configuration in which the resolution of the peripheral viewpoint camera module 21 is lower than the resolution of the central viewpoint camera module 21, and generates a high-resolution viewpoint image and disparity map. Can be acquired. As a result, the manufacturing cost can be reduced.
  • server 504 performs the interpolation process, it is possible to generate viewpoint images of many viewpoints with a small number of camera modules 21, and to reconstruct the subject image of the development parameter intended by the user.
  • the subject image captured by the imaging device 501 is developed (reconstructed) using the server 504 on the cloud. Accordingly, it is not necessary to perform enormous arithmetic processing such as interpolation processing and development processing in the imaging apparatus 501, and it is possible to realize cost reduction and power consumption reduction of the imaging apparatus 501. Further, since the imaging device 501 and the network terminal 502 serving as a viewer are separated, the imaging device 501 can be easily carried. Thereby, flexible imaging using the imaging device 501 becomes possible.
  • FIG. 32 is a diagram for explaining disparity (parallax) and depth.
  • the depth Z that is the distance in the direction is defined by the following equation (a).
  • L is a horizontal distance between the position C1 and the position C2 (hereinafter, referred to as an inter-camera distance).
  • D is the position of the subject M on the color image photographed by the camera c2 from the horizontal distance u1 of the position of the subject M on the color image photographed by the camera c1 from the center of the color image.
  • f is the focal length of the camera c1, and in the formula (a), the focal lengths of the camera c1 and the camera c2 are the same.
  • the parallax d and the depth Z can be uniquely converted. Therefore, the disparity map in the first and second embodiments can be replaced with an image representing the depth Z.
  • the disparity map and the image representing the depth Z are collectively referred to as a depth image.
  • the depth image may be an image representing the parallax d or the depth Z, and the pixel value of the depth image is not the parallax d or the depth Z itself, but a value obtained by normalizing the parallax d and the inverse 1 / Z of the depth Z. A normalized value or the like can be adopted.
  • the value I obtained by normalizing the parallax d with 8 bits (0 to 255) can be obtained by the following equation (b). Note that the normalization bit number of the parallax d is not limited to 8 bits, and other bit numbers such as 10 bits and 12 bits may be used.
  • D max is the maximum value of the parallax d
  • D min is the minimum value of the parallax d.
  • the maximum value D max and the minimum value D min may be set in units of one screen or may be set in units of a plurality of screens.
  • the value y obtained by normalizing the reciprocal 1 / Z of the depth Z by 8 bits (0 to 255) can be obtained by the following equation (c).
  • the normalized bit number of the inverse 1 / Z of the depth Z is not limited to 8 bits, and other bit numbers such as 10 bits and 12 bits may be used.
  • Z far is the maximum value of the depth Z
  • Z near is the minimum value of the depth Z.
  • the maximum value Z far and the minimum value Z near may be set in units of one screen, or may be set in units of a plurality of screens.
  • YUV420 or YUV400 can be adopted as the color format of the depth image. Of course, other color formats may be adopted.
  • the present technology it is possible to reset the focus position, the aperture, and the like after shooting the subject. Therefore, even when the image is out of focus or the depth of field is set incorrectly, a high-quality subject image intended by the user can be obtained.
  • the interpolation processing unit 33 converts the resolution of the entire viewpoint image of the central viewpoint or the peripheral viewpoint used for the stereo matching process into the edge area (window) for calculating the phase difference. Only the corresponding area may be converted in resolution. Also by this, the same effect as described above can be obtained.
  • the subject image is reconstructed using the interpolation image, but a three-dimensional (3D) image may be generated using the interpolation image.
  • the viewpoint interpolation process and the development process are performed by the server 504, but may be performed by the network terminal 502.
  • the interpolation image is generated using the first resolution disparity map, but the interpolation image may be generated using the second resolution disparity.
  • the resolution of the viewpoint image of the peripheral viewpoint may be improved by making the camera module 21 of the peripheral viewpoint a camera module that performs monochrome photography.
  • the central viewpoint camera module 21 is a Bayer array camera module and the first resolution is twice the vertical and horizontal directions of the second resolution, the resolution of the central viewpoint viewpoint image and the peripheral viewpoint viewpoint image is determined. Are the same. As a result, the disparity map can be generated with high accuracy.
  • the first resolution and the second resolution may be set so that the sampling frequencies of the central viewpoint viewpoint image and the peripheral viewpoint viewpoint images are different. In this case, it is possible to prevent moiré from occurring simultaneously in the central viewpoint viewpoint image and the peripheral viewpoint viewpoint images.
  • the disparity map is used for the interpolation process.
  • the disparity map may be used for the object clipping process or the like. In this case, by generating a disparity map with high accuracy, a desired subject can be accurately extracted from the viewpoint image.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • the present technology can also take the following configurations.
  • the resolution of one viewpoint image is set as the other viewpoint image.
  • a resolution conversion unit that converts the first viewpoint image and the second viewpoint image to the same resolution
  • An image processing apparatus comprising: a generation unit that generates a disparity map based on a correlation value between the first viewpoint image and the second viewpoint image having the same resolution generated by the resolution conversion unit.
  • the resolution conversion unit converts the resolution of the first viewpoint image into the second resolution;
  • the generation unit is configured to generate the disc having the second resolution based on a correlation value between the first viewpoint image having the second resolution and the second viewpoint image generated by the resolution conversion unit.
  • the image processing apparatus converts the resolution of the disparity map into the first resolution.
  • the generation unit converts the resolution of the disparity map into the first resolution based on the first viewpoint image having the first resolution.
  • the generation unit is a pixel of the first resolution that is an edge region in the first viewpoint image of the first resolution but is not an edge region in the first viewpoint image of the second resolution.
  • the pixel value of the disparity map of the target pixel is determined based on a difference between pixel values of the first viewpoint image having the first resolution between the target pixel and an adjacent pixel adjacent to the target pixel. ).
  • the resolution converter converts the resolution of the second viewpoint image to the first resolution;
  • the generation unit is configured to generate the disc having the first resolution based on a correlation value between the first viewpoint image having the first resolution and the second viewpoint image generated by the resolution conversion unit.
  • the image processing apparatus according to (1), wherein a parity map is generated.
  • an interpolation processing unit Based on the disparity map and the first viewpoint image generated by the generation unit, an interpolation processing unit that generates an interpolated image of viewpoints between viewpoints corresponding to the first viewpoint image and the second viewpoint image
  • a development processing unit that virtually generates an image captured by the optical system using the first viewpoint image, the second viewpoint image, the interpolation image, and a parameter that specifies the optical system;
  • the image processing apparatus according to any one of (1) to (6).
  • a resolution conversion step of generating the first viewpoint image and the second viewpoint image having the same resolution An image processing method comprising: a generation step of generating a disparity map based on a correlation value between the first viewpoint image and the second viewpoint image having the same resolution generated by the processing of the resolution conversion step .
  • the resolution of one viewpoint image is the resolution of the other viewpoint image.
  • a resolution converting unit that converts the first viewpoint image and the second viewpoint image to the same resolution.
  • An information processing apparatus comprising: a generation unit that generates a disparity map based on a correlation value between the first viewpoint image and the second viewpoint image having the same resolution generated by the resolution conversion unit. (10) The information processing apparatus according to (9), wherein the second image sensor is disposed around the first image sensor.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 本技術は、簡素な構成で高解像度の視点画像とディスパリティマップとを取得することができる画像処理装置および画像処理方法、並びに情報処理装置に関する。 解像度変換部は、第1の解像度で撮像された中央の視点の視点画像の解像度を、第1の解像度よりも低い第2の解像度で撮像された周辺視点の視点画像の解像度に変換し、同一の解像度の中央の視点の視点画像と周辺視点の視点画像を生成する。相関値算出部は、同一の解像度の中央の視点の視点画像と周辺視点の視点画像との間の相関値に基づいて、ディスパリティマップを生成する。本技術は情報処理装置に適用することができる。

Description

画像処理装置および画像処理方法、並びに情報処理装置
 本技術は、画像処理装置および画像処理方法、並びに情報処理装置に関し、特に、簡素な構成で高解像度の視点画像とディスパリティマップとを取得することができるようにした画像処理装置および画像処理方法、並びに情報処理装置に関する。
 視点の異なる複数の画像を用いて測定対象(被写体)までの距離を測定する技術が知られている。例えば下記特許文献1にはステレオマッチングと呼ばれる手法を用いた距離算出方法が記載されている。
 このようなステレオマッチングの手法では、画像内の水平方向(H方向)又は垂直方向(V方向)に沿った複数の視点画像から距離を算出する場合、視点画像間の位相差が距離に対応する値として求められる。位相差は、比較対象の局所領域(単位領域)を水平方向に逐次移動させ、比較範囲内で最も相関が強い単位領域同士の視点画像間での位置ずれ(Pixelずれ、ディスパリティ)を検出することにより求められる。画像内の任意の角度方向に沿った複数の視点画像からも位置ずれを算出することが可能である。さらにディスパリティは、画素単位で計測可能なため、ディスパリティの分布図(ディスパリティマップ)は入力画像の解像度と等しく求めることが可能である。
特開2011-171858号公報
 しかしながら、ディスパリティはあくまで距離情報であるため、必ずしも高精度である必要はない。従って、一般的に写真として用いられる所定の視点の視点画像は高解像度であることが望ましいが、ディスパリティの生成にのみ用いられる視点画像は、必ずしも高解像度である必要はない。
 本技術は、このような状況に鑑みてなされたものであり、簡素な構成で高解像度の視点画像とディスパリティマップとを取得することができるようにするものである。
 本技術の第1の側面の画像処理装置は、第1の解像度で撮像された第1の視点画像と前記第1の解像度よりも低い第2の解像度で撮像された第2の視点画像のうちの一方の視点画像の解像度を、他方の視点画像の解像度に変換し、同一の解像度の前記第1の視点画像と前記第2の視点画像を生成する解像度変換部と、前記解像度変換部により生成された前記同一の解像度の第1の視点画像と第2の視点画像との間の相関値に基づいて、ディスパリティマップを生成する生成部とを備える画像処理装置である。
 本技術の第1の側面の画像処理方法は、本技術の第1の側面の画像処理装置に対応する。
 本技術の第1の側面においては、第1の解像度で撮像された第1の視点画像と前記第1の解像度よりも低い第2の解像度で撮像された第2の視点画像のうちの一方の視点画像の解像度が、他方の視点画像の解像度に変換されて、同一の解像度の前記第1の視点画像と前記第2の視点画像が生成され、前記同一の解像度の第1の視点画像と第2の視点画像との間の相関値に基づいて、ディスパリティマップが生成される。
 本技術の第2の側面の情報処理装置は、第1の解像度の第1の視点画像を撮像する第1の撮像素子と、前記第1の解像度よりも低い第2の解像度の第2の視点画像を撮像する第2の撮像素子とを有する撮像部と、前記第1の撮像素子により撮像された前記第1の視点画像と前記第2の撮像素子により撮像された前記第2の視点画像のうちの一方の視点画像の解像度を、他方の視点画像の解像度に変換し、同一の解像度の前記第1の視点画像と前記第2の視点画像を生成する解像度変換部と、前記解像度変換部により生成された前記同一の解像度の第1の視点画像と第2の視点画像との間の相関値に基づいて、ディスパリティマップを生成する生成部とを備える情報処理装置である。
 本技術の第2の側面においては、第1の解像度の第1の視点画像を撮像する第1の撮像素子と、前記第1の解像度よりも低い第2の解像度の第2の視点画像を撮像する第2の撮像素子とが備えられ、前記第1の撮像素子により撮像された前記第1の視点画像と前記第2の撮像素子により撮像された前記第2の視点画像のうちの一方の視点画像の解像度が、他方の視点画像の解像度に変換されて、同一の解像度の前記第1の視点画像と前記第2の視点画像が生成され、前記同一の解像度の第1の視点画像と第2の視点画像との間の相関値に基づいて、ディスパリティマップが生成される。
 本技術によれば、簡素な構成で高解像度の視点画像とディスパリティマップとを取得することができる。
本技術を適用した情報処理装置の一実施の形態のハードウェア構成の例を示すブロック図である。 撮像部を構成するカメラモジュールの構成例を示す概略斜視図である。 撮像部の概略斜視図である。 撮像される視点画像の例を示す図である。 画像処理部の第1の構成例を示したブロック図である。 図5の画像処理部における補間画像を生成する処理の流れを説明する図である。 図5の解像度変換部による解像度変換後の視点画像の例を示す図である。 図6のステレオマッチング処理を説明する図である。 図6のディスパリティマップの解像度変換を説明する図である。 図6のディスパリティマップの解像度変換を説明する図である。 図6の視点補間処理を説明する図である。 図6の視点補間処理を説明する図である。 視点画像と補間画像を撮像するカメラアレイを示す図である。 撮像部により取得される光線の光線ベクトルを示す撮像部の側面図である。 視点画像と補間画像の光線ベクトルを示す撮像部の側面図である。 現像処理を説明する図である。 現像処理を説明する図である。 図1の情報処理装置の撮像処理を説明するフローチャートである。 図18の高解像度化処理の詳細を説明するフローチャートである。 画像処理部の第2の構成例を示したブロック図である。 図20の画像処理部における補間画像を生成する処理の流れを説明する図である。 図20の解像度変換部による解像度変換後の視点画像の例を示す図である。 CPUが図20の画像処理部として機能する場合の撮像処理を説明するフローチャートである。 本技術を適用したシステムの一実施の形態の構成例を示す図である。 図24のサーバのハードウェア構成の例を示した図である。 図25のサーバの処理を説明するフローチャートである。 図24のネットワーク端末のハードウェア構成の例を示したブロック図である。 設定GUIの例を示す模式図である。 システムの基本的な動作の流れを示したシーケンス図である。 視点画像のサーバへのアップロードを説明するフローチャートである。 被写体像の現像を説明するフローチャートである。 ディスパリティと奥行きについて説明する図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 <第1実施の形態>
 (情報処理装置の一実施の形態のハードウェア構成の例)
 図1は、本技術を適用した情報処理装置の一実施の形態のハードウェア構成の例を示すブロック図である。
 情報処理装置10は、撮像部11、表示部12、記憶部13、通信部14及びCPU15を有する。
 撮像部11は、静止画や動画を撮影する。特に本実施形態では、撮像部11は、被写体の複数の視点画像を取得可能なカメラアレイにより構成される。撮像部11は、複数の視点画像のうちの中央の視点の視点画像を高解像度で撮像し、中央の視点以外の視点である周辺視点の視点画像を低解像度で撮像する。
 表示部12は、例えばLCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。表示部12は、撮像部11で取得された複数の視点画像を基に生成される被写体のプレビュー画像の表示、現像処理に必要な現像パラメータの設定、CPU15の演算処理により生成される被写体の最終画像の表示等に用いられる。
 記憶部13は、例えばHDD(Hard Disk Drive)やフラッシュメモリ(SSD(Solid State Drive)、その他の固体メモリ等の不揮発性メモリである。記憶部13は、撮像部11で取得された複数の視点画像、複数の現像パラメータ、CPU15の演算処理により生成される補間画像及び最終画像、各種のプログラム等を記憶する。記憶部13に格納される現像パラメータは、通信部14を介してダウンロードされてもよいし、図示せぬスロットに装着されたメモリーカードから読み出されてもよい。
 通信部14は、図示せぬネットワーク上のサーバ装置や外部のネットワーク端末との通信が可能に構成される。
 CPU15は、記憶部13に記憶されているプログラムを実行することにより、撮像部11、表示部12、記憶部13、通信部14の動作を制御する。具体的には、CPU15は、複数の視点画像に基づいて複数の視点画像を補間する複数の補間画像を生成し、補間画像および視点画像を用いて、ユーザにより選択された現像パラメータに対応する被写体像を現像する画像処理部等として機能する。
 (撮像部の構成例)
 撮像部11は、複数のカメラモジュールを同一平面内にマトリクス状に配列したカメラアレイ(多視点カメラ)により構成される。図2は、撮像部11を構成するカメラモジュール21の構成例を示す概略斜視図であり、図3は、撮像部11の概略斜視図である。
 カメラモジュール21は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)センサ等の固体撮像素子で構成される。
 図3には、画角θ度のカメラモジュール21が同一平面内に3(行)×3(列)個配列された例が示されるが、カメラモジュール21の配列や個数は勿論これに限られない。例えば、周辺視点のカメラモジュール21は、中央の視点のカメラモジュールを中心とした8角形の頂点に配置されるようにしてもよい。
 以下の説明では、9つのカメラモジュール21のうちの上から1番目の行の3つのカメラモジュール21を、被写体に向かって左から順に、カメラモジュールC11,C12,C13とも称する。同様に、上から2番目の行の3つのカメラモジュールを、被写体に向かって左から順に、C21,C22,C23とも称する。上から3番目の行の3つのカメラモジュールを、被写体に向かって左から順に、C31,C32,C33とも称する。
 撮像部11は、個々のカメラモジュール21で被写体を同時に撮影することで、複数のカメラモジュール21各々の位置(視点)に応じた被写体の視点画像を取得する。取得した視点画像は、画像処理部30で用いられたり、記憶部13に記憶されたりする。
 なお、中央に配置されたカメラモジュールC22は、その周囲に配置された他のカメラモジュールC11乃至C13,C21,C23、およびC31乃至C33よりも高い解像度を有するカメラモジュールで構成されている。従って、図4に示すように、カメラモジュールC22により取得される中央の視点の視点画像G22の解像度は、カメラモジュールC11乃至C13,C21,C23、およびC31乃至C33で撮像された周辺視点の視点画像G11乃至G13,G21,G23、およびG31乃至G33の解像度に比べて高い。
 第1の解像度R1のカメラモジュールC22は主に、被写体の高解像度の視点画像を取得するために用いられ、第2の解像度R2のカメラモジュールC11乃至C13,C21,C23、およびC31乃至C33は、ディパリティマップを取得するためにのみ用いられる。
 本明細書では、カメラモジュールC22は第1の解像度R1を有し、その周囲の他のカメラモジュールC11乃至C13,C21,C23、およびC31乃至C33はそれぞれ第1の解像度より低い第2の解像度R2を有しているものとする。第1の解像度R1及び第2の解像度R2の値は特に限定されず、目的とする解像度の最終画像及びディスパリティマップを取得できる適宜の値に設定可能である。
 (画像処理部の第1の構成例)
 図5は、CPU15により実現される画像処理部の第1の構成例を示したブロック図である。
 図5の画像処理部30は、解像度変換部31、相関値算出部32、補間処理部33、および現像処理部34により構成される。
 情報処理装置10の解像度変換部31は、図1の撮像部11により撮像された複数の視点画像のうちの中央の視点の第1の解像度R1の視点画像の解像度を、第2の解像度R2に変換する。解像度変換部31は、その結果得られる第2の解像度R2の中央の視点の視点画像と周辺視点の視点画像を相関値算出部32に供給する。
 相関値算出部32は、生成部として機能し、解像度変換部31から供給される第2の解像度R2の中央の視点の視点画像と周辺視点の視点画像とを用いて、第2の解像度R2の画素ごとにステレオマッチング処理を行う。そして、相関値算出部32は、第2の解像度R2の画素ごとに、ステレオマッチング処理により得られる相関値が最も強い相関を表すときの中央の視点と周辺視点の視点画像内の局所領域どうしの距離を検出する。
 相関値算出部32は、検出された第2の解像度R2の各画素の距離(位相差)を画素値とすることにより、第2の解像度R2の位相差分布(ディスパリティマップ)を生成する。相関値算出部32は、第2の解像度R2のディスパリティマップの解像度を第1の解像度R1に変換し、補間処理部33に供給する。なお、以下では、ディスパリティマップの画素値を、視点画像の画素値と区別するため、ディスパリティ値という。
 補間処理部33は、相関値算出部32からのディスパリティマップと、撮像部11からの視点画像とを用いて、中央の視点と周辺視点の間の視点の第1の解像度R1の視点画像を補間するとともに、周辺視点の第1の解像度R1の視点画像を生成する。補間処理部33は、中央の視点と周辺視点の第1の解像度R1の視点画像、および、補間画像を現像処理部34に供給する。
 現像処理部34は、補間処理部33からの視点画像および補間画像と、記憶部13に記憶されている複数の現像パラメータのうちのユーザにより選択された現像パラメータとを用いて、被写体像を現像(再構築)する現像処理を行う。現像処理部34は、その結果生成される第1の解像度R1の画像を最終画像として出力する。最終画像は、記憶部13に記憶されたり、通信部14を介して外部の装置に伝送されたりする。
 以上のように、画像処理部30は、第1の解像度R1の中央の視点の視点画像の解像度を周辺視点の視点画像の解像度と同一の第2の解像度R2に変換してステレオマッチング処理を行う。従って、画像処理部30は、撮像される周辺視点の視点画像の解像度が中央の視点の視点画像の解像度に比べて低い場合であっても、高解像度の中央の視点の視点画像とディスパリティマップを取得することができる。
 よって、情報処理装置10は、周辺視点のカメラモジュール21の解像度が中央の視点のカメラモジュール21の解像度に比べて低い簡素な構成の撮像部11を用いて、高解像度の視点画像とディスパリティマップとを取得することができる。その結果、製造コストを低減することができる。
 (補間画像を生成する処理の流れ)
 図6は、図5の画像処理部30における補間画像を生成する処理の流れを説明する図である。画像処理部30は、中央の視点の視点画像G22と、周辺の視点の視点画像G11乃至G13,G21,G23,G31乃至G33との間の相関値をそれぞれ算出するが、ここでは一例として、視点画像G22と水平方向にのみ視差を有する視点画像G23との相関値を算出する場合について説明する。
 解像度変換部31は、撮像部11により撮像された第1の解像度R1の視点画像G22の解像度を第2の解像度R2に変換(ダウンコンバート)する(ステップST01)。これにより、図7に示すように、視点画像G22と視点画像G23の解像度が同一となるため、適正なステレオマッチング処理が可能となる。
 解像度変換後、相関値算出部32は、第2の解像度R2の視点画像G22と視点画像G23との間の相関値を算出するためのステレオマッチング処理を実行し、第2の解像度R2のディスパリティマップを生成する(ステップST02)。
 さらに相関値算出部32は、生成したディスパリティマップの解像度を第1の解像度R1に変換(アップコンバート)する(ステップST03)。この際、解像度変換前の第1の解像度R1を有する視点画像G22のエッジ情報を参考にすることができる。
 補間処理部33は、その後、得られた第1の解像度R1のディスパリティマップと、撮像された視点画像G22および視点画像G23を参照して、第1の解像度R1の視点画像G23を生成するとともに、視点画像G22と視点画像G23の視点の間の視点の第1の解像度R1の視点画像を補間する(ステップST04)。これにより、第1の解像度R1の視点画像(カメラ画像)G23が得られるとともに、視点画像G22と視点画像G23の間の視点画像である第1の解像度R1の補間画像が補間結果として得られる(ステップST05)。
 視点画像G22と、視点画像G11乃至G13,G21,G31乃至G33との間における相関値算出についても上述と同様な手順で実行される。これにより、視点画像G21とその周囲の視点画像G11乃至G13,G21,G31乃至G33との間の第1の解像度R1の補間画像が生成される。
 (ステレオマッチング処理の説明)
 図8は、図6のステップST02のステレオマッチング処理を説明する図である。
 ステレオマッチング処理では、中央の視点の視点画像と各周辺視点の画像が局所領域で逐次比較されていき、視点画像間の位相差(ディスパリティ)が求められる。
 例えば、図8に示すように、視点が水平(H)方向に並び、水平方向に視差を有する中央の視点の視点画像G22と周辺視点の視点画像G23のステレオマッチング処理では、視点画像G22と視点画像G23の各画素が局所領域単位で逐次比較され、局所領域同士の類似度を示す相関値(画素相関値)が求められる。そして、相関値が最も強い相関を表すときの局所領域間の位相差が、その局所領域に対応する画素のディスパリティ値とされる。
 すなわち、まず、視点画像G22内の局所領域(図8中の部分画像C1:中心座標(x1,y1))が取り出される。次いで、視点画像G23内における比較対象の局所領域(図8中の部分画像H1:中心座標(x1,y1)が取り出され、この部分画像H1の位置が比較範囲H10内で水平方向に逐次移動されながら、相関値が逐次算出される。そして、この比較範囲H10内で相関値が最も強い相関を表すときの部分画像C1と部分画像H1の位置ずれ(Pixelずれ)が、中心座標(x1,y1)の画素のディスパリティ値として求められる。
 相関値算出部32は、このような処理を視点画像G22のエッジが存在するエッジ領域内の画素について行うことにより、視点画像G22のエッジ領域においてのみディスパリティ値として位相差を有するディスパリティマップを生成する。ディスパリティマップのエッジ領域以外のディスパリティ値は、位相差の未検出を表す未検出値とされる。
 また、図8に示すように、視点が垂直(V)方向に並び、垂直方向に視差を有する中央の視点の視点画像G22と周辺視点の視点画像G12のステレオマッチング処理は、視点画像G22と視点画像G23のステレオマッチング処理と同様に行われる。
 すなわち、まず、視点画像G22内の部分画像C1と、視点画像G12内の部分画像V1とがそれぞれ取り出され、部分画像V1の位置が比較範囲V10内で垂直方向に逐次移動されながら相関値が逐次算出される。相関値算出部32は、このような処理を視点画像G22のエッジ領域内の画素について行うことにより、視点画像G22のエッジ領域においてのみ位相差を有するディスパリティマップを生成する。ディスパリティマップのエッジ領域以外のディスパリティ値は未検出値とされる。
 このようにして、複数の視点画像を用いてステレオマッチング処理が行われることにより視点画像間の位相差が検出され、ディスパリティマップが生成される。
 なお、ステレオマッチング処理における相関値としては種々のものを用いることができるが、例えば、SAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)、またはNCC(Normalized Cross-Correlation)などを相関値として用いることができる。SADまたはSSDが用いられる場合、相関が強いほど相関値は小さくなり(0に近づき)、相関が弱いほど相関値が大きくなる(∞に近づく)。一方、NCCが用いられる場合、相関が強いほど相関値が1に近づき、相関が弱いほど相関値が0に近づく。
 (ディスパリティマップの解像度変換の説明)
 図9および図10は、図6のステップST03のディスパリティマップの解像度変換を説明する図である。
 図9および図10において、正方形は画素を表す。また、図9および図10の例では、第1の解像度R1は第2の解像度R2の4倍である。
 上述したように、ディスパリティマップは、中央の視点の視点画像G22のエッジ領域内においてのみディスパリティ値として位相差を有する。従って、図9に示すように、第1の解像度R1の視点画像G22である視点画像71のエッジ領域71Aと、第2の解像度R2の視点画像G22である視点画像72のエッジ領域72Aが異なる場合、単純な画素補間によりディスパリティマップの解像度を第1の解像度R1に変換することができない場合がある。
 即ち、単純な画素補間では、視点画像72のエッジ領域72Aではないが、視点画像71のエッジ領域71Aである、視点画像71の画素91と画素92の位相差は、対応する視点画像72の画素90のディスパリティ値が未検出値であるため、補間できない。
 従って、相関値算出部32は、視点画像72ではエッジ領域72Aではないが、視点画像71ではエッジ領域71Aである画素91および画素92について、以下のようにして位相差を生成する。
 まず、相関値算出部32は、視点画像71における画素91の上下左右に隣接する隣接画素(図10中A乃至Dが付された正方形で表す画素)と画素91の画素値の差分を求める。そして、相関値算出部32は、その差分が小さい順に、隣接画素に対応する第2の解像度R2のディスパリティ値が存在するかどうかを判定し、存在する場合、そのディスパリティ値を画素91の位相差とする。
 一方、全ての隣接画素に対応する第2の解像度R2のディスパリティ値が存在しない場合、相関値算出部32は、画素91の右隣の画素92の上下左右に隣接する画素を新たに隣接画素とし、同様の処理を行う。このようにして、画素91の位相差が生成される。画素92の位相差についても同様である。
 相関値算出部32はまた、視点画像71のエッジ領域71A内の画素91および画素92以外の画素について、第2の解像度R2のディスパリティマップを単純に画素補間することにより位相差を生成する。
 以上のようにして、相関値算出部32は、エッジ領域71Aのディスパリティ値として位相差を有し、エッジ領域71A以外の領域のディスパリティ値として未検出値を有する第1の解像度R1のディスパリティマップを生成する。そして、相関値算出部32は、第1の解像度R1のディスパリティマップのエッジ領域71Aのディスパリティ値に基づいてエッジ領域71A以外の領域のディスパリティ値を補間し、最終的な第1の解像度R1のディスパリティマップを生成する。
 以上により、相関値算出部32は、第1の解像度R1のディスパリティマップにおいて、視点画像72において位相差が検出されていない画素91および画素92のディスパリティ値を、画素値が似ている画素の位相差とすることができる。従って、ディスパリティマップの解像度を高精度に第1の解像度R1に変換することができる。
 (視点補間処理の説明)
 次に、図11および図12を参照して、図6のステップST04の視点補間処理を説明する。
 補間処理部33は、まず、ディスパリティマップおよび全ての視点の視点画像を用いて、第1の解像度R1の周辺視点の視点画像G11乃至G13,G21,G23、およびG31乃至G33を生成する。
 具体的には、補間処理部33は、画素ごとに、各周辺視点と基準視点のディスパリティマップのディスパリティ値だけ視点画像G22の画素値を移動する。そして、補間処理部33は、第1の解像度R1の画素ごとに、移動後の視点画像G22の画素値と、対応する第2の解像度R2の周辺視点の視点画像の画素値とを比較し、その差分が最小になるまで移動量および視点画像G23の画素値を調整する。このようにして画素値が調整されると、視点画像G23の解像度は、第1の解像度R1となる。
 次に、補間処理部33は、調整後の移動量をディスパリティ値とする各周辺視点と基準視点のディスパリティマップと、隣り合う2つの視点画像とを用いて、その2つの視点画像に対応する視点間の視点の視点画像を補間する。
 例えば、補間処理部33は、図11に示すように、画素ごとに、視点画像G21と視点画像G22のディスパリティマップのディスパリティ値の1/2倍だけ、第1の解像度R1の視点画像G21と視点画像G22を移動させる。補間処理部33は、移動後の視点画像G21と視点画像G22に対して平均化等を行うことにより、カメラモジュールC21とカメラモジュールC22を結ぶ直線上の中央に位置する視点の補間画像T35を生成する。
 同様に、補間処理部33は、視点画像G11、視点画像G12、およびディスパリティマップを用いて、カメラモジュールC11とカメラモジュールC12を結ぶ直線上の中央に位置する視点の視点画像を補間画像T02として生成する。補間処理部33は、視点画像G11と視点画像G22、およびディスパリティマップを用いて、カメラモジュールC11とカメラモジュールC22を結ぶ直線上に位置する視点の視点画像を補間画像T08として生成する。補間画像T27は、補間画像T27と水平方向の位置が同一である補間画像T25と補間画像T29、あるいは、垂直方向の位置が同一である補間画像T02と補間画像T35が生成された後、生成される。
 また、図12に示すように、補間処理部33は、視点画像G21、視点画像G22、およびディスパリティマップを用いて、補間画像T35の視点とカメラモジュールC22の視点を結ぶ直線上の中央に位置する視点の視点画像を補間画像T36として生成する。補間処理部33は、視点画像G21、視点画像G22、およびディスパリティマップを用いて、補間画像T35の視点とカメラモジュールC21の視点を結ぶ直線上の中央に位置する視点の視点画像を補間画像T34として生成する。
 同様の処理が、全ての視点の視点画像G11乃至G13,G21乃至G23,およびG31乃至G33の隣り合う2つの視点画像に対して行われることにより、カメラモジュールC11乃至C13,C21乃至C23、およびC31乃至C33で囲まれた領域内の視点の補間画像を生成することができる。
 図12の例では、視点画像G11乃至G13,G21乃至G23、およびG31乃至G33の隣り合う2つの視点画像の視点の間に補間画像の視点が3つずつ設けられ、72枚の補間画像T01乃至T72が生成されている。勿論、補間画像の数は図12の例に限定されない。補間画像の数は、最終画像の画質、視点補間処理の処理時間や処理コスト等を考慮して自由に設定される。
 補間画像T01乃至T72を生成することによって、図13に示すような多数のカメラモジュール21を有するカメラアレイ110で撮影したときに近い視点画像(光線ベクトルの情報)を、僅か9個のカメラモジュール21からなる撮像部11で容易に得ることができる。ここで、第1の解像度R1がb(縦)×a(横)画素であり、視点補間処理によりm行n列の視点画像が生成されたとすると、視点補間処理により、角度や通過位置の異なる光線情報が、b×a×m×nの数だけサンプリングできたことになる。
 補間画像の生成方法は、特に限定されない。
 (現像処理の説明)
 図14は、撮像部11により取得される光線の光線ベクトルを示す撮像部11の側面図である。
 図14に示すように、撮像部11の各カメラモジュール21は、画角θ度の範囲の同一の被写体からの光線を取得し、視点画像を撮像する。従って、各カメラモジュール21により撮像される視点画像は、そのカメラモジュール21の視点における被写体からの光線の光線ベクトル410の情報である。
 図15は、視点画像と補間画像の光線ベクトルを示す撮像部11の側面図である。
 補間画像は、隣接するカメラモジュール21の間の視点の視点画像である。即ち、図15に示すように、補間画像は、隣接するカメラモジュール21の間の視点における被写体からの光線の光線ベクトルの情報(の予測値)である。従って、視点画像と補間画像の光線ベクトル420の情報は、光線ベクトル410の情報に比べて多くなる。
 図16と図17は、光線ベクトル420と現像パラメータとに基づいて行われる現像処理を説明する図である。
 図16と図17に示すように、現像処理では、光線ベクトル420に対応する光線を現像パラメータに対応する仮想光学系430を介して仮想イメージセンサ440で撮像したときの撮像画像が再構築される。
 具体的には、記憶部13には、複数の現像パラメータとして複数種の光学系を特定するパラメータが記憶されている。現像パラメータとしては、レンズの設計情報(レンズ形状、配置、材質、コーティング等)、フィルタ、フォーカス位置、絞り値、絞り形状、ホワイトバランス、露出補正値などがある。現像パラメータのレンズの設計情報としては、現在流通しているレンズの設計情報だけでなく、希少価値の高い幻のレンズや、物理的に作り得ない仮想的なレンズなどの設計情報を採用することができる。
 ユーザは、記憶部13に記憶されている複数の現像パラメータのうちの所望の現像パラメータを選択する。これにより、ユーザの意図した光学系で被写体像を撮像することが可能となる。
 現像処理部34は、ユーザにより選択された現像パラメータに基づいて、その現像パラメータに対応する光学系を通過する光線の光線ベクトル421を光線ベクトル420から選択する。例えば、ユーザにより選択された現像パラメータが、ある一眼レフカメラ用に開発された交換レンズの設計情報である場合、現像処理部34は、その交換レンズの開口面に降り注ぎ、内部に侵入する光線の光線ベクトルを光線ベクトル420から選択する。
 そして、現像処理部34は、光線ベクトル421の光線が仮想イメージセンサ440のどの位置に到達するかを光学シミュレーションにより求める。現像処理部34は、画素ごとに、その画素の位置または周辺の位置に到達する光線の光線ベクトル421の情報を視点画像または補間画像から抽出し、色と輝度を表す画素値を生成する。
 以上のように、視点画像と補間画像が表す光線ベクトル420は高密度であるため、現像処理部34は、光線ベクトル420の情報を用いて任意の光学系を介して撮像される被写体像を再構築することができる。その結果、ユーザは、撮影後に何度でも任意のレンズでフォーカス位置や絞りを変更して仮想的な撮影を行うことができる。
 (情報処理装置の処理の説明)
 図18は、図1の情報処理装置10の撮像処理を説明するフローチャートである。
 図18のステップS11において、情報処理装置10の撮像部11は、中央の視点の視点画像を第1の解像度R1で撮像するとともに、周辺視点の視点画像を第2の解像度R2で撮像する。
 ステップS12において、画像処理部30の解像度変換部31は、撮像部11により撮像された中央の視点の視点画像の解像度を、第2の解像度R2に変換する。解像度変換部31は、その結果得られる中央の視点の第2の解像度R2の視点画像を相関値算出部32に供給する。
 ステップS13において、相関値算出部32は、中央の視点の第2の解像度R2の視点画像と周辺視点の第2の解像度R2の視点画像とを用いて、ステレオマッチング処理を行うことにより、第2の解像度R2のディスパリティマップを生成する。
 ステップS14において、相関値算出部32は、生成されたディスパリティマップの解像度を第1の解像度R1に変換する高解像度化処理を行う。この高解像度化処理の詳細は、後述する図19を参照して説明する。相関値算出部32は、高解像度化処理の結果得られる第1の解像度R1のディスパリティマップのエッジ領域のディスパリティ値に基づいて、エッジ領域外のディスパリティ値を補間し、補間処理部33に供給する。
 ステップS15において、補間処理部33は、相関値算出部32から供給される第1の解像度R1のディスパリティマップと撮像された全ての視点の視点画像とを用いて、第1の解像度R1の補間画像と周辺視点の視点画像を生成する。補間処理部33は、第1の解像度R1の中央の視点および周辺視点の視点画像並びに補間画像を、現像処理部34に供給する。
 ステップS16において、現像処理部34は、補間処理部33からの視点画像および補間画像と、記憶部13に記憶されている複数の現像パラメータのうちのユーザにより選択された現像パラメータとを用いて、被写体像を現像(再構築)する。現像処理部34は、その結果生成される第1の解像度R1の画像を最終画像として出力する。そして、処理は終了する。
 図19は、図18のステップS14の高解像度化処理の詳細を説明するフローチャートである。この高解像度化処理は、中央の視点の第1の解像度R1の画像の各画素を処理対象の画素として行われる。
 図19のステップS31において、相関値算出部32は、処理対象の画素にエッジがあるかどうかを判定する。ステップS31で処理対象の画素にエッジがあると判定された場合、処理はステップS32に進む。
 ステップS32において、相関値算出部32は、第2の解像度R2のディスパリティマップに処理対象の画素に対応する画素のディスパリティ値が存在するかどうかを判定する。
 ステップS32でディスパリティ値が存在すると判定された場合、ステップS33において、相関値算出部32は、そのディスパリティ値を、第1の解像度R1のディスパリティマップの処理対象の画素のディスパリティ値にする。そして、処理は図18のステップS14に戻る。
 一方、ステップS32でディスパリティ値が存在しないと判定された場合、ステップS34において、相関値算出部32は、処理対象の画素の上下左右に隣接する画素を隣接画素に設定する。ステップS35において、相関値算出部32は、第1の解像度R1の中央の視点の視点画像における処理対象の画素と各隣接画素の画素値の差分を求める。
 ステップS36において、相関値算出部32は、mを1に設定する。ステップS37において、相関値算出部32は、m番目に小さい差分に対応する隣接画素のディスパリティ値が存在するかどうかを判定する。
 ステップS36でディスパリティ値が存在しないと判定された場合、ステップS38において、相関値算出部32は、mを1だけインクリメントする。ステップS39において、相関値算出部32は、mが隣接画素の数Mより大きいかどうか、即ち全ての隣接画素のディスパリティ値が存在しないかどうかを判定する。
 ステップS39でmが隣接画素の数Mより大きくはないと判定された場合、処理はステップS37に戻り、以降の処理が繰り返される。
 一方、ステップS39でmが隣接画素の数Mより大きいと判定された場合、処理はステップS34に戻り、相関値算出部32は、処理対象の画素の右隣の画素の上下左右に隣接する画素を隣接画素に設定する。そして、以降の処理が繰り返される。
 また、ステップS36でディスパリティ値が存在すると判定された場合、処理はステップS40に進む。ステップS40において、相関値算出部32は、m番目に小さい差分に対応する隣接画素の第2の解像度R2のディスパリティマップのディスパリティ値を、処理対象の画素のディスパリティ値にする。そして、処理は図18のステップS14に戻る。
 一方、ステップS31でエッジがないと判定された場合、ステップS41において、相関値算出部32は、処理対象の画素のディスパリティ値を未検出値にし、処理を図18のステップS14に戻す。
 (画像処理部の第2の構成例)
 図20は、CPU15により実現される画像処理部の第2の構成例を示したブロック図である。
 図20に示す構成のうち、図5の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図20の画像処理部450の構成は、解像度変換部31、相関値算出部32の代わりに、解像度変換部451、相関値算出部452が設けられる点が、図5の画像処理部30の構成と異なる。画像処理部450は、周辺視点の視点画像の解像度を第1の解像度に変換し、第1の解像度でステレオマッチング処理を行う。
 具体的には、画像処理部450の解像度変換部451は、図1の撮像部11により撮像された複数の視点画像のうちの周辺視点の第2の解像度R2の視点画像の解像度を、第1の解像度R1に変換する。解像度変換部451は、その結果得られる第1の解像度R1の周辺視点の視点画像と中央の視点の視点画像とを相関値算出部452に供給する。
 相関値算出部452は、生成部として機能し、解像度変換部451から供給される第1の解像度R1の周辺視点の視点画像と中央の視点の視点画像とを用いて、第1の解像度R1の画素ごとにステレオマッチング処理を行う。そして、相関値算出部452は、第1の解像度R1の画素ごとに、ステレオマッチング処理により得られる相関値が最も強い相関を表すときの中央の視点と周辺視点の視点画像内の局所領域どうしの距離を検出する。
 相関値算出部452は、検出された第1の解像度R1の各画素の距離をディスパリティ値とすることにより、第1の解像度R1のディスパリティマップを生成し、補間処理部33に供給する。
 以上のように、画像処理部450は、第2の解像度R2の周辺視点の視点画像の解像度を中央の視点の視点画像の解像度と同一の第1の解像度R1に変換してステレオマッチング処理を行う。従って、画像処理部450は、画像処理部30と同様に、撮像される周辺視点の視点画像の解像度が中央の視点の視点画像の解像度に比べて低い場合であっても、高解像度の中央の視点の視点画像とディスパリティマップを取得することができる。
 (補間画像を生成する処理の他の流れ)
 図21は、図20の画像処理部450における補間画像を生成する処理の流れを説明する図である。画像処理部450は、中央の視点の視点画像G22と、周辺の視点の視点画像G11乃至G13,G21,G23,G31乃至G33との間の相関値をそれぞれ算出するが、ここでは一例として、視点画像G22と水平方向にのみ視差を有する視点画像G23との相関値を算出する場合について説明する。
 解像度変換部451は、撮像部11により撮像された第2の解像度R2の視点画像G23の解像度を第1の解像度R1に変換(アップコンバート)する(ステップST11)。これにより、図22に示すように、視点画像G22と視点画像G23の解像度が同一となるため、適正なステレオマッチング処理が可能となる。視点画像G23の解像度を第1の解像度R1に変換する具体的な手法は特に限定されず、例えば、超解像度処理が適用可能である。
 解像度変換後、相関値算出部452は、第1の解像度R1の視点画像G22と視点画像G23との間の相関値を算出するためのステレオマッチング処理を実行し、第1の解像度R1のディスパリティマップを生成する(ステップST12)。
 補間処理部33は、その後、上述した方法と同様な処理によって、得られた第1の解像度R1のディスパリティマップと、撮像された視点画像G22および視点画像G23を参照して、第1の解像度R1の視点画像G23を生成するとともに、視点画像G22と視点画像G23の視点の間の視点の第1の解像度R1の視点画像を補間する(ステップST04)。これにより、第1の解像度R1の視点画像G23が得られるとともに、視点画像G22と視点画像G23の間の視点画像である第1の解像度R1の補間画像が補間結果として得られる(ステップST05)。
 (撮像処理の他の例)
 図23は、CPU15が画像処理部450として機能する場合の情報処理装置10の撮像処理を説明するフローチャートである。
 図23のステップS61において、情報処理装置10の撮像部11は、中央の視点の視点画像を第1の解像度R1で撮像するとともに、周辺視点の視点画像を第2の解像度R2で撮像する。
 ステップS62において、画像処理部450の解像度変換部451は、撮像部11により撮像された周辺視点の視点画像の解像度を、第1の解像度R1に変換する。解像度変換部451は、その結果得られる周辺視点の第1の解像度R1の視点画像を相関値算出部452に供給する。
 ステップS63において、相関値算出部452は、周辺視点の第1の解像度R1の視点画像と中央の視点の第1の解像度R1の視点画像とを用いて、ステレオマッチング処理を行うことにより、第1の解像度R1のディスパリティマップを生成する。相関値算出部452は、第1の解像度R1のディスパリティマップを補間処理部33に供給する。
 ステップS64およびS65の処理は、図18のステップS15およびS16の処理と同様であるので、説明は省略する。
 以上のように、画像処理部450は、第1の解像度R1の中央の視点の画像と周辺視点の画像を用いて第1の解像度R1の画素単位で位相差を求め、第1の解像度R1のディスパリティマップを生成する。従って、画像処理部30に比べて高精度で第1の解像度R1のディスパリティマップを生成することができる。
 これに対して、画像処理部30は、第2の解像度R2の中央の視点の画像と周辺視点の画像を用いて第2の解像度R2の画素単位で位相差を求め、第1の解像度R1のディスパリティマップを生成する。従って、画像処理部450に比べて少ない演算量で第1の解像度R1のディスパリティマップを生成することができる。
 なお、第2の解像度R2が第1の解像度R1の片軸1/2の解像度である場合、解像度変換部451は、演算量およびディスパリティ算出精度を考慮して、中央の視点の視点画像の垂直方向の画素数を1/2にし、周辺視点の視点画像の水平方向の画素数を2倍にしてもよい。この場合、図21のステップST12の処理後に図6のステップST03の処理と同様の処理が行われ、ディスパリティマップの解像度が第1の解像度R1に変換される。
 <第2実施の形態>
 (システムの一実施の形態の構成例)
 図24は、本技術を適用したシステムの一実施の形態の構成例を示す図である。
 図24のシステム500は、撮像装置501と通信可能なネットワーク端末502が、ネットワーク503を介してクラウド上のサーバ504と接続することにより構成される。システム500は、図1の情報処理装置10の処理を複数の装置により行う。
 具体的には、撮像装置501は、静止画を撮影するデジタルスチルカメラ、動画を撮影するデジタルビデオカメラである。撮像装置501は、上述した撮像部11を備え、第1の解像度R1の中央の視点の視点画像と第2の解像度R2の周辺視点の視点画像を撮像する。撮像された視点画像は、ネットワーク端末502に伝送される。
 ネットワーク端末502は、典型的には、パーソナルコンピュータ(PC(Personal Computer)、スマートフォン、携帯電話機、タブレットPC、PDA(Personal Digital Assistant)等の情報処理装置である。
 撮像装置501とネットワーク端末502とは有線又は無線で通信可能であり、ネットワーク端末502は、撮像装置501で撮像された視点画像を受け取る。ネットワーク端末502はまた、サーバ504とネットワーク503を介して通信可能にされている。ネットワーク端末502は、視点画像をネットワーク503を介してサーバ504に伝送する。
 ネットワーク503は、インターネット、有線LAN(Local Area Network)、WiFi(Wireless Fidelity)等の無線LAN(IEEE802.11等)、3Gや4G方式の無線移動体通信ネットワーク等である。
 サーバ504は、ネットワーク端末502のユーザに視点画像を用いて仮想撮影を行う現像処理システムを提供する。具体的には、サーバ504は、上述した画像処理部30(450)として機能し、ネットワーク端末502から送信されてくるN視点(ここでは9視点)の視点画像と現像パラメータを基に被写体像を現像する。また、サーバ504は、現像パラメータを記憶する。さらに、サーバ504は、記憶している現像パラメータのうちの、利用者が魅力を感じる特殊なレンズ等の現像パラメータを用いた現像処理に対して課金処理を行う。
 なお、ここでは、撮像装置501とネットワーク端末502は、別々の装置として構成されるようにしたが、1つの携帯端末505として構成されるようにしてもよい。この場合、携帯端末505が、視点画像の撮像と視点画像のサーバ504への送信の両方を行う。
 (サーバのハードウェア構成の例)
 図25は、図24のサーバ504のハードウェア構成の例を示した図である。
 図25に示すように、サーバ504は、CPU(Central Processing Unit)521、ROM(Read Only Memory)522、RAM(Random Access Memory)523、入出力インターフェース525、及び、これらを互いに接続するバス524を備える。
 CPU521は、ROM522やRAM523に記憶されているプログラムを実行することにより、サーバ504の各ブロックを統括的に制御する。具体的には、CPU521は、画像処理部30(450)として機能する。また、CPU521は、通信部529を制御して視点画像等を受信したり、再構築された被写体像等を送信したりする。CPU521は、Webサーバにおけるフロントエンドと同様の機能を有してもよく、例えば、メインページの出力等の基本的なWeb動作を行ってもよい。
 ROM522は、CPU521に実行させるOS(Operating System)やプログラム、各種パラメータなどが固定的に記憶されている不揮発性のメモリである。RAM523は、CPU521の作業用領域等として用いられ、OS、実行中の各種アプリケーション、処理中の各種データを一次的に保持する。
 入出力インターフェース525には、表示部526、操作受付部527、記憶部528、通信部529等が接続される。
 表示部526は、例えばLCD、OELD、CRT等を用いた表示デバイスである。操作受付部527は、例えばマウス等のポインティングデバイス、キーボード、タッチパネル、その他の入力装置である。操作受付部527がタッチパネルである場合、そのタッチパネルは表示部526と一体となり得る。
 記憶部528は、例えばHDDやフラッシュメモリ、その他の固体メモリ等の不揮発性メモリである。記憶部528には、OSや各種アプリケーション、各種データが記憶される。特に本実施形態では、記憶部528には、ネットワーク端末502から受信したN視点の視点画像が格納される。また、記憶部528は、複数の現像パラメータを記憶する。
 通信部529は、ネットワーク503に優先接続するためのNIC(Network Interface Card)や、無線通信用のモジュールであり、ネットワーク端末502との間の通信処理を担う。通信部529は、ネットワーク端末502からN視点の視点画像を受信し、ネットワーク端末502へ現像した被写体像を送信する。
 また、通信部529は、記憶部528に記憶されている複数の現像パラメータを現像パラメータの選択候補としてネットワーク端末502へ送信する。通信部529は、ユーザにより選択された現像パラメータの選択候補をネットワーク端末502から受信する。この現像パラメータは、現像処理部34で用いられる。
 (サーバの処理の説明)
 図26は、図25のサーバ504の処理を説明するフローチャートである。
 図26のステップST21において、サーバ504の通信部529は、ネットワーク端末502からN視点の視点画像を受信する。ステップST22において、サーバ504の画像処理部30(450)は、通信部529により受信されたN視点の視点画像から第1の解像度R1のディスパリティマップを生成する。
 ステップST23において、画像処理部30(450)は、第1の解像度R1のディスパリティマップと受信されたN視点の視点画像とを用いて、第1の解像度の補間画像と周辺視点の視点画像を生成する。
 ステップST24において、画像処理部30(450)は、第1の解像度の補間画像、中央の視点の視点画像、および周辺視点の視点画像、並びに、現像パラメータに基づいて、被写体像を現像する。この現像パラメータは、ネットワーク端末502のユーザにより選択されたものである。
 ステップST25において、通信部529は、現像された被写体像を最終画像として、ネットワーク端末502へ送信する。
 (ネットワーク端末のハードウェア構成の例)
 図27は、図24のネットワーク端末502のハードウェア構成の例を示したブロック図である。
 図27に示すように、ネットワーク端末502は、CPU541、RAM542、不揮発性メモリ543、表示部544及び通信部545を有する。
 CPU541は、RAM523や不揮発性メモリ543に記憶されているプログラムを実行することにより、必要に応じてRAM542等にアクセスしながらネットワーク端末502の各ブロックを統括的に制御する。RAM542は、CPU541の作業用領域等として用いられ、OS、実行中の各種アプリケーション、処理中の各種データを一次的に保持する。
 不揮発性メモリ543は、例えばフラッシュメモリやROMであり、CPU541に実行させるOS、プログラム(アプリケーション)や各種パラメータなどを記憶する。また不揮発性メモリ543は、撮像装置501により撮像されたN視点の静止画像である視点画像や動画像などを記憶する。
 表示部544は、例えばLCDやOELDであり、各種メニューやアプリケーションのGUI(Graphical User Interface)等を表示する。典型的には、表示部544は、タッチパネルと一体とされており、ユーザのタッチ操作を受け付け可能である。例えば、表示部544は、通信部545を介して供給される現像パラメータの選択候補を選択するための設定GUIを表示する。表示部544は、設定GUIの表示中のユーザのタッチ操作に応じて、選択候補の中から所定の現像パラメータを選択し、通信部545に供給する。
 通信部545は、ネットワーク503を介したサーバ504との通信、撮像装置501との通信、近隣の他の携帯端末との通信等を行う。例えば、通信部545は、撮像装置501から伝送されてくるN視点の視点画像等を受け取り、不揮発性メモリ543に記憶させる。通信部545は、不揮発性メモリ543に記憶されているN視点の視点画像をサーバ504へ送信する。
 また、通信部545は、サーバ504から送信されてくる現像パラメータの選択候補を受信する。通信部545は、現像パラメータの選択候補のうちの選択された現像パラメータをサーバ504に通知する。
 なお、図示は省略するが、撮像装置501とネットワーク端末502が一体となった携帯端末505のハードウェアの構成は、図27に示すように撮像部11が新たに設けられる点を除いてネットワーク端末502の構成と同一である。
 (画面の例)
 図28は、表示部544に表示される設定GUIの例を示す模式図である。
 図28の画面では、プレビュー画像Pvとともに、設定GUIが表示されている。図28の例では、現像パラメータは、レンズの設計情報、絞り形状、およびフォーカス位置により構成される。
 この場合、表示部544には、プレビュー画像Pvに重畳して、設定GUIとして、レンズユニット選択部DL、絞り形状選択部DA、およびフォーカス位置選択部DFが表示される。
 レンズユニット選択部DLには、現像パラメータのレンズの設計情報の選択候補に基づくレンズユニットを表す図形が表示される。絞り形状選択部DAには、現像パラメータの絞り形状の選択候補を表す図形が表示される。フォーカス位置選択部DFには、フォーカス位置の選択候補を位置で表す設定バーFbが表示される。
 ユーザは、レンズユニット選択部DLに表示される所望のレンズユニットを表す図形を指Uでタッチ操作することにより、そのレンズユニットに対応するレンズの設計情報の選択候補を選択する。また、ユーザは、絞り形状選択部DAに表示される所望の絞り形状を表す図形を指Uでタッチ操作することにより、その絞り形状の選択候補を選択する。
 また、ユーザは、フォーカス位置選択部DFの設定バーFbを指Uでタッチ操作し、指Uを上下方向に移動させることにより、設定バーFbを所望のフォーカス位置に対応する位置に移動させる。これにより、ユーザは、所望のフォーカス位置の選択候補を選択することができる。
 なお、設定バーFbは、ユーザが設定バーFbを指Uでタッチ操作した後指Uを移動させることにより移動するのではなく、ユーザがフォーカス位置選択部DF上の所望の位置をタッチ操作することにより、その位置に移動するようにしてもよい。また、フォーカス位置の選択候補は表示されず、画面内における指Uのタッチ位置の被写体に最も近いフォーカス位置の選択候補が選択されるようにしてもよい。
 また、図28の例では、プレビュー画像Pvの左上にレンズユニット選択部DLが配置され、左下に絞り形状選択部DAが配置され、右側にフォーカス位置選択部DFが配置されているが、配置位置は、これに限定されない。
 図示は省略するが、ホワイトバランスや露出補正値等の他の現像パラメータの選択候補も、レンズユニット選択部DL、絞り形状選択部DA、フォーカス位置選択部DF等と同様に表示することができる。
 また、第2実施の形態では、表示部544がタッチパネルと一体化されているが、タッチパネルと一体化されていない場合、ユーザは、図示せぬマウス等の操作により画面内に表示されるポインタを移動させ、タッチ操作に相当する選択操作を行う。
 (システムの処理の説明)
 図29は、図24のシステム500の基本的な動作の流れを示したシーケンス図である。図30は、視点画像のサーバ504へのアップロードを説明するフローチャートであり、図31は、被写体像の現像を説明するフローチャートである。第2実施の形態において、ネットワーク端末502およびサーバ504における動作は、CPUと、その制御下において実行される各ソフトウェアモジュールとで協働して行われる。
 撮像装置501は電源がオフにされると、ステップST301において、撮像装置501は、ユーザにより図示せぬシャッタボタンが押されたかどうかを判定する。ステップST301でシャッタボタンが押されたと判定した場合、ステップST302において、撮像装置501は、撮像部11によりN視点の視点画像を同時に撮影する。即ち、撮像装置501は、中央の視点の第1の解像度R1の視点画像と周辺視点の第2の解像度R2の視点画像を取得する。
 続いてステップST303において、撮像装置501は、取得されたN視点の視点画像を隣り合う視点画像間の相関を利用して圧縮する。ステップST304において、撮像装置501は、ネットワーク端末502へ画像転送要求を有線又は無線で送信する。
 ステップST305において、撮像装置501は、画像転送要求がネットワーク端末502において受理されたかどうかを判定する。ステップST305で受理されていないと判定された場合、処理はステップST304に戻り、受理されるまでステップST304およびST305の処理が繰り返される。
 一方、ステップST305で受理されたと判定された場合、ステップST306において、撮像装置501は、ネットワーク端末502にN視点の視点画像の圧縮画像を有線又は無線で送信し、処理をステップST307に進める。
 また、ステップST301でシャッタボタンが押されていないと判定された場合、処理はステップST307に進む。
 ステップST307において、撮像装置501は、電源オフするかどうか、即ちユーザにより電源オフ操作が行われたかどうかを判定する。
 ステップST307で電源オフしないと判定された場合、処理はステップST301に戻り、電源オフ操作が行われるまでステップST301乃至ST307の処理が行われる。また、ステップST307で電源オフすると判定された場合、撮像装置501は電源をオフし、処理を終了する。
 視点画像の圧縮処理は、例えば、動画圧縮のアルゴリズムを利用することができる。撮像装置501で取得されたN視点の視点画像は、圧縮せずに、ネットワーク端末502へ送信されてもよい。視点画像を圧縮することで、ネットワーク端末502へ送信されるデータ量を抑えることができる。また、圧縮画像の生成は、ネットワーク端末502で行ってもよい。これにより撮像装置501の処理負荷を低減することができる。
 ネットワーク端末502は、ステップST401において、通信部545を介して撮像装置501からの画像転送要求を受信したかどうかを判定する。ステップST401で画像転送要求を受信していないと判定された場合、処理は終了する。
 一方、ステップST401で画像転送要求を受信したと判定された場合、ステップST402において、ネットワーク端末502は、通信部545を介して撮像装置501に転送許可を送信する。撮像装置501は、この転送許可を受信したとき画像転送要求が受理されたと判定する。
 ステップST403において、ネットワーク端末502は、通信部545を介して、撮像装置501からN視点の視点画像の圧縮画像を受信する。ネットワーク端末502は、受信した圧縮画像を不揮発性メモリ543へ格納する。
 ステップST404において、ネットワーク端末502は、通信部545とネットワーク503を介して、サーバ504の記憶部528へ圧縮画像をアップロード(送信)する。そして、処理はステップST401に戻り、以降の処理が繰り返される。
 一方、サーバ504は、ステップST501において、通信部529を介して記憶部528へアップロードされた圧縮画像があるかどうかを判定する。ステップST501でアップロードされた圧縮画像がないと判定された場合、処理は終了する。
 また、ステップST501でアップロードされた圧縮画像があると判定された場合、ステップST502において、サーバ504は、アップロードされた圧縮画像を確認後解凍して元のN視点の視点画像に戻し、記憶部528へ格納する。
 次に、ステップST503において、サーバ504は、ネットワーク端末502の表示部544に表示する低解像度のプレビュー画像を生成する。プレビュー画像は、ネットワーク端末502から送信されたN視点の視点画像を基に生成される。ステップST504において、サーバ504は、通信部545とネットワーク503を介して、ネットワーク端末502へプレビュー画像が用意できたことを送信し、プレビュー画像を送信する。そして、処理はステップST501に戻り、以降の処理が繰り返される。
 ネットワーク端末502は、ステップST404でサーバ504の記憶部528へ圧縮画像をアップロードした後、ステップST405において、サーバ504に新しいプレビュー画像があるかどうかを判定する。具体的には、ネットワーク端末502は、サーバ504からプレビュー画像が用意できたことを受信したかどうかを判定する。
 ネットワーク端末502は、サーバ504からプレビュー画像が用意できたことを受信していない場合、ステップST405で新しいプレビュー画像がないと判定し、処理を終了する。
 一方、サーバ504からプレビュー画像が用意できたことを受信した場合、ステップST405で新しいプレビュー画像があると判定し、処理をステップST406に進める。
 ステップST406において、ネットワーク端末502は、サーバ504からプレビュー画像を受信する。受信されたプレビュー画像は、ネットワーク端末502の表示部544に表示され、ユーザにより、現像対象の画像の確認が行われる。
 プレビュー画像は、サーバ504ではなく、ネットワーク端末502で生成されてもよい。また、プレビュー画像は、N視点のうちの1つの視点の低解像度の視点画像であってもよいし、所定の現像パラメータを用いて現像した最終画像を低解像度化したサンプル画像であってもよい。さらに、プレビュー画像の枚数は、1枚であってもよいし、複数であってもよい。プレビュー画像の枚数が複数であり、プレビュー画像がサンプル画像である場合、各プレビュー画像に対応する現像パラメータは異なる。
 サーバ504は、プレビュー画像の送信時又は送信後に、現像パラメータの選択候補をネットワーク端末502に送信する。ステップST407において、ネットワーク端末502は、現像パラメータの選択候補を受信し、プレビュー画像とともに設定GUI(例えば、図28のレンズユニット選択部DL等)を表示部544に表示する。これにより、ユーザに対して利便性の高い現像サービスの提供が可能となる。
 ステップST408において、ネットワーク端末502は、ユーザによる設定GUIのタッチ操作に応じて、ユーザの好みの現像パラメータの選択候補を選択する。
 ステップST409において、プレビュー画像の枚数が複数である場合、ネットワーク端末502は、表示対象のプレビュー画像を、選択された現像パラメータに近いプレビュー画像に変更する。ステップST410において、ネットワーク端末502は、現像パラメータの選択候補の選択が完了したかどうかを判定する。
 例えば、ユーザにより現像パラメータの選択の完了操作が行われていない場合、ステップST410で現像パラメータの選択候補の選択が完了していないと判定され、処理はステップST408に戻る。そして、現像パラメータの選択候補の選択の完了操作が行われるまで、ステップST408乃至ST410の処理が繰り返される。
 ステップST410で現像パラメータの選択候補の選択が完了したと判定された場合、例えば、ユーザにより現像パラメータの選択の完了操作が行われた場合、処理はステップST411に進む。ステップST411において、ネットワーク端末502は、サーバ504へ選択された現像パラメータの選択候補を送信する。
 ステップST412において、ネットワーク端末502は、現在の現像対象の画像を、選択した現像パラメータの選択候補とは異なる現像パラメータの選択候補で現像するかどうかを判定する。
 例えば、ユーザにより現像パラメータの変更操作が行われた場合、ステップST412で、選択した現像パラメータの選択候補とは異なる現像パラメータの選択候補で現像すると判定され、処理はステップST408に戻る。その結果、新しく選択された現像パラメータの選択候補が、サーバ504へ送信される。
 一方、例えば、ユーザにより現像パラメータの変更操作が行われない場合、ステップST412で、選択した現像パラメータの選択候補とは異なる現像パラメータの選択候補で現像しないと判定され、処理はステップST405に戻る。
 サーバ504は、ステップST505において、ネットワーク端末502から現像パラメータを受信したかどうかを判定する。ステップST505で現像パラメータを受信していないと判定された場合、処理は終了する。
 一方、ステップST505で現像パラメータを受信したと判定された場合、ステップST506において、サーバ504は、その現像パラメータに従って第2の解像度R2の最終画像を生成する。詳細には、サーバ504は、ステップST22乃至ST24の処理を行う。すなわちサーバ504は、アップロードされたN視点の視点画像を補間処理して高密度の光線ベクトルの情報に変換し、更に、現像パラメータを用いた光学シミュレーションを実行し、最終画像を生成する。
 ステップST507において、サーバ504は、最終画像(被写体像)が生成できたことをネットワーク端末502へ通知するとともに、最終画像をネットワーク端末502へ送信する。
 ネットワーク端末502は、ステップST414において、現像が完了した最終画像があるかどうか、即ちサーバ504から最終画像が生成できたことが通知されたかどうかを判定する。ステップST414で現像が完了した最終画像がないと判定された場合、処理は終了する。
 ステップST414で現像が完了した最終画像があると判定された場合、ステップST415において、ネットワーク端末502は、現像された最終画像をサーバ504からダウンロードする。
 ステップST416において、ネットワーク端末502は、ダウンロードした最終画像を表示部544へ表示する。これにより、ユーザは、最終画像を鑑賞することができる。このとき、表示部544には、例えば、最終画像の保存の要否を選択する保存GUIも表示される。
 ステップST417において、ネットワーク端末502は、保存GUIに対するユーザのタッチ操作等に応じて最終画像を保存するかどうかを判定する。ステップST417で保存しないと判定された場合、処理はステップST414に戻り、以降の処理が行われる。
 ステップST417で保存すると判定された場合、ステップST418において、ネットワーク端末502は、ユーザにより選択された現像パラメータの選択候補が有料の現像パラメータであるかどうかを判定する。
 ステップST418で有料の現像パラメータであると判定された場合、ネットワーク端末502は、表示部544に課金の承諾を求めるメッセージを表示する。そして、ステップST419において、ネットワーク端末502は、ユーザからのタッチ操作等に応じてユーザが課金を承諾したかどうかを判定する。
 ステップST419で課金を承諾していないと判定された場合、最終画像は保存されず、処理はステップST414に戻り、以降の処理が繰り返される。
 一方、ステップST419で課金を承諾したと判定された場合、ステップST420において、ネットワーク端末502は、電子決済処理を行い、処理をステップST421に進める。
 また、ステップST418で有料の現像パラメータではないと判定された場合、電子決済処理は行われず、処理はステップST421に進む。
 ステップST421において、ネットワーク端末502は、ダウンロードした最終画像をネットワーク端末502の不揮発性メモリ543又はサーバ504の記憶部528へ保存する。
 サーバ504は、異なる種類の現像パラメータを再受信した場合、上述の処理を再実行して最終画像を生成する(2回目の現像)。この場合、ネットワーク端末502は上述の処理を再実行して、必要に応じた最終画像の保存、電子決済処理を実行する。
 以上のように第2実施の形態において、サーバ504は、画像処理部30(450)として機能する。従って、サーバ504は、撮像される周辺視点の視点画像の解像度が中央の視点の視点画像の解像度に比べて低い場合であっても、高解像度の中央の視点の視点画像とディスパリティマップを取得することができる。
 よって、システム500は、周辺視点のカメラモジュール21の解像度が中央の視点のカメラモジュール21の解像度に比べて低い簡素な構成の撮像装置501を用いて、高解像度の視点画像とディスパリティマップとを取得することができる。その結果、製造コストを低減することができる。
 また、サーバ504は、補間処理を行うので、少ないカメラモジュール21で多くの視点の視点画像を生成し、ユーザの意図する現像パラメータの被写体像を再構築することができる。
 第2実施の形態においては、クラウド上のサーバ504を利用して、撮像装置501で撮像した被写体像を現像(再構築)するようにしている。これにより、補間処理や現像処理といった膨大な演算処理を撮像装置501において行う必要がなくなり、撮像装置501の低コスト化、低消費電力化を実現することができる。また、撮像装置501と、ビューアの役目を果たすネットワーク端末502とを分離したので、撮像装置501を容易に持ち運ぶことができる。これにより、撮像装置501を用いた柔軟な撮影が可能となる。
 <本明細書におけるディスパリティマップの説明>
 図32は、ディスパリティ(視差)と奥行きについて説明する図である。
 図32に示すように、被写体Mのカラー画像が、位置C1に配置されたカメラc1と位置C2に配置されたカメラc2により撮影される場合、被写体Mの、カメラc1(カメラc2)からの奥行方向の距離である奥行きZは、以下の式(a)で定義される。
Figure JPOXMLDOC01-appb-I000001
 なお、Lは、位置C1と位置C2の水平方向の距離(以下、カメラ間距離という)である。また、dは、カメラc1で撮影されたカラー画像上の被写体Mの位置の、カラー画像の中心からの水平方向の距離u1から、カメラc2で撮影されたカラー画像上の被写体Mの位置の、カラー画像の中心からの水平方向の距離u2を減算した値、即ち視差である。さらに、fは、カメラc1の焦点距離であり、式(a)では、カメラc1とカメラc2の焦点距離は同一であるものとしている。
 式(a)に示すように、視差dと奥行きZは、一意に変換可能である。従って、第1および第2実施の形態におけるディスパリティマップは、奥行きZを表す画像に代えることができる。以下では、ディスパリティマップと奥行きZを表す画像とを総称して、デプス画像とする。
 デプス画像は、視差dまたは奥行きZを表す画像であればよく、デプス画像の画素値としては、視差dまたは奥行きZそのものではなく、視差dを正規化した値、奥行きZの逆数1/Zを正規化した値等を採用することができる。
 視差dを8bit(0~255)で正規化した値Iは、以下の式(b)により求めることができる。なお、視差dの正規化ビット数は8bitに限定されず、10bit,12bitなど他のビット数にすることも可能である。
Figure JPOXMLDOC01-appb-M000002
 なお、式(b)において、Dmaxは、視差dの最大値であり、Dminは、視差dの最小値である。最大値Dmaxと最小値Dminは、1画面単位で設定されてもよいし、複数画面単位で設定されてもよい。
 また、奥行きZの逆数1/Zを8bit(0~255)で正規化した値yは、以下の式(c)により求めることができる。なお、奥行きZの逆数1/Zの正規化ビット数は8bitに限定されず、10bit,12bitなど他のビット数にすることも可能である。
Figure JPOXMLDOC01-appb-M000003
 式(c)において、Zfarは、奥行きZの最大値であり、Znearは、奥行きZの最小値である。最大値Zfarと最小値Znearは、1画面単位で設定されてもよいし、複数画面単位で設定されてもよい。
 また、デプス画像のカラーフォーマットとしては、YUV420又はYUV400などを採用することができる。勿論、他のカラーフォーマットを採用するにようにしてもよい。
 本技術によれば、被写体の撮影後に、フォーカス位置や絞り等を設定し直すことができる。従って、ピントがぼけたり、被写界深度の設定にミスがあったりした場合でも、ユーザの意図する高画質の被写体像を得ることができる。
 また、重くて嵩張る交換レンズを持ち歩かなくても、撮影後に幾つもの交換レンズで撮影したのと同様の画像を取得することができる。さらに、小型、軽量、薄型の撮像装置でも、大型レンズ等を有する大型の撮像装置と同等の高画質の撮影が可能となる。
 以上、本技術の実施形態について説明したが、本技術は上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
 例えば以上の実施形態では、補間処理部33は、ステレオマッチング処理に用いられる中央の視点または周辺視点の視点画像の全領域の解像度が変換されたが、位相差を算出するエッジ領域(ウィンドウ)に対応する領域のみを解像度変換するようにしてもよい。これによっても上述と同様の作用効果を得ることができる。
 以上の実施形態では、補間画像を用いて被写体像が再構築されたが、補間画像を用いて3次元(3D)画像を生成してもよい。
 また以上の実施形態では、視点補間処理及び現像処理がサーバ504で行われたが、ネットワーク端末502で行われるようにしてもよい。
 また、以上の実施の形態では、第1の解像度のディスパリティマップを用いて補間画像が生成されたが、第2の解像度のディスパリティを用いて補間画像が生成されるようにしてもよい。
 また、周辺視点のカメラモジュール21を、モノクロ撮影を行うカメラモジュールにすることにより、周辺視点の視点画像の解像度を向上させるようにしてもよい。この場合、中央の視点のカメラモジュール21がベイヤ配列のカメラモジュールであり、第1の解像度が第2の解像度の縦横2倍である場合、中央の視点の視点画像と周辺視点の視点画像の解像度は同一になる。その結果、ディスパリティマップを精度良く生成することができる。
 また、中央の視点の視点画像と周辺視点の視点画像のサンプリング周波数が異なるように、第1の解像度と第2の解像度が設定されてもよい。この場合、中央の視点の視点画像と周辺視点の視点画像において同時にモアレが発生することを防止することができる。
 また、以上の実施の形態では、ディスパリティマップが補間処理に用いられたが、被写体の切り出し処理等に用いられるようにしてもよい。この場合、ディスパリティマップを高精度で生成することにより、視点画像から所望の被写体を精度良く切り出すことができる。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 また、本技術は以下のような構成も採ることができる。
 (1)
 第1の解像度で撮像された第1の視点画像と前記第1の解像度よりも低い第2の解像度で撮像された第2の視点画像のうちの一方の視点画像の解像度を、他方の視点画像の解像度に変換し、同一の解像度の前記第1の視点画像と前記第2の視点画像を生成する解像度変換部と、
 前記解像度変換部により生成された前記同一の解像度の第1の視点画像と第2の視点画像との間の相関値に基づいて、ディスパリティマップを生成する生成部と
 を備える画像処理装置。
 (2)
 前記解像度変換部は、前記第1の視点画像の解像度を前記第2の解像度に変換し、
 前記生成部は、前記解像度変換部により生成された前記第2の解像度の前記第1の視点画像と前記第2の視点画像との間の相関値に基づいて、前記第2の解像度の前記ディスパリティマップを生成する
 前記(1)に記載の画像処理装置。
 (3)
 前記生成部は、前記ディスパリティマップの解像度を前記第1の解像度に変換する
 前記(2)に記載の画像処理装置。
 (4)
 前記生成部は、前記第1の解像度の前記第1の視点画像に基づいて、前記ディスパリティマップの解像度を前記第1の解像度に変換する
 前記(3)に記載の画像処理装置。
 (5)
 前記生成部は、前記第1の解像度の前記第1の視点画像においてエッジ領域であるが、前記第2の解像度の前記第1の視点画像においてエッジ領域ではない前記第1の解像度の画素である対象画素の前記ディスパリティマップの画素値を、前記対象画素と前記対象画素に隣接する隣接画素の前記第1の解像度の前記第1の視点画像の画素値の差分に基づいて決定する
 前記(4)に記載の画像処理装置。
 (6)
 前記解像度変換部は、前記第2の視点画像の解像度を前記第1の解像度へ変換し、
 前記生成部は、前記解像度変換部により生成された前記第1の解像度の前記第1の視点画像と前記第2の視点画像との間の相関値に基づいて、前記第1の解像度の前記ディスパリティマップを生成する
 前記(1)に記載の画像処理装置。
 (7)
 前記生成部により生成された前記ディスパリティマップと前記第1の視点画像に基づいて、前記第1の視点画像と前記2の視点画像に対応する視点間の視点の補間画像を生成する補間処理部と、
 前記第1の視点画像、前記第2の視点画像、および前記補間画像、並びに、光学系を特定するパラメータを用いて、仮想的に前記光学系で撮像された画像を生成する現像処理部と
 をさらに備える
 前記(1)乃至(6)のいずれかに記載の画像処理装置。
 (8)
 画像処理装置が、
 第1の解像度で撮像された第1の視点画像と前記第1の解像度よりも低い第2の解像度で撮像された第2の視点画像のうちの一方の視点画像の解像度を、他方の視点画像の解像度に変換し、同一の解像度の前記第1の視点画像と前記第2の視点画像を生成する解像度変換ステップと、
 前記解像度変換ステップの処理により生成された前記同一の解像度の第1の視点画像と第2の視点画像との間の相関値に基づいて、ディスパリティマップを生成する生成ステップと
 を含む画像処理方法。
 (9)
 第1の解像度の第1の視点画像を撮像する第1の撮像素子と、前記第1の解像度よりも低い第2の解像度の第2の視点画像を撮像する第2の撮像素子とを有する撮像部と、
 前記第1の撮像素子により撮像された前記第1の視点画像と前記第2の撮像素子により撮像された前記第2の視点画像のうちの一方の視点画像の解像度を、他方の視点画像の解像度に変換し、同一の解像度の前記第1の視点画像と前記第2の視点画像を生成する解像度変換部と、
 前記解像度変換部により生成された前記同一の解像度の第1の視点画像と第2の視点画像との間の相関値に基づいて、ディスパリティマップを生成する生成部と
 を備える情報処理装置。
 (10)
 前記第2の撮像素子は、前記第1の撮像素子の周囲に配置される
 前記(9)に記載の情報処理装置。
 11 撮像部, 21 カメラモジュール, 30 画像処理部, 31 解像度変換部, 32 相関値算出部, 33 補間処理部, 34 現像処理部, 450 画像処理部, 451 解像度変換部, 452 相関値算出部, 500 システム, 501 撮像装置, 504 サーバ

Claims (10)

  1.  第1の解像度で撮像された第1の視点画像と前記第1の解像度よりも低い第2の解像度で撮像された第2の視点画像のうちの一方の視点画像の解像度を、他方の視点画像の解像度に変換し、同一の解像度の前記第1の視点画像と前記第2の視点画像を生成する解像度変換部と、
     前記解像度変換部により生成された前記同一の解像度の第1の視点画像と第2の視点画像との間の相関値に基づいて、ディスパリティマップを生成する生成部と
     を備える画像処理装置。
  2.  前記解像度変換部は、前記第1の視点画像の解像度を前記第2の解像度に変換し、
     前記生成部は、前記解像度変換部により生成された前記第2の解像度の前記第1の視点画像と前記第2の視点画像との間の相関値に基づいて、前記第2の解像度の前記ディスパリティマップを生成する
     請求項1に記載の画像処理装置。
  3.  前記生成部は、前記ディスパリティマップの解像度を前記第1の解像度に変換する
     請求項2に記載の画像処理装置。
  4.  前記生成部は、前記第1の解像度の前記第1の視点画像に基づいて、前記ディスパリティマップの解像度を前記第1の解像度に変換する
     請求項3に記載の画像処理装置。
  5.  前記生成部は、前記第1の解像度の前記第1の視点画像においてエッジ領域であるが、前記第2の解像度の前記第1の視点画像においてエッジ領域ではない前記第1の解像度の画素である対象画素の前記ディスパリティマップの画素値を、前記対象画素と前記対象画素に隣接する隣接画素の前記第1の解像度の前記第1の視点画像の画素値の差分に基づいて決定する
     請求項4に記載の画像処理装置。
  6.  前記解像度変換部は、前記第2の視点画像の解像度を前記第1の解像度へ変換し、
     前記生成部は、前記解像度変換部により生成された前記第1の解像度の前記第1の視点画像と前記第2の視点画像との間の相関値に基づいて、前記第1の解像度の前記ディスパリティマップを生成する
     請求項1に記載の画像処理装置。
  7.  前記生成部により生成された前記ディスパリティマップと前記第1の視点画像に基づいて、前記第1の視点画像と前記2の視点画像に対応する視点間の視点の補間画像を生成する補間処理部と、
     前記第1の視点画像、前記第2の視点画像、および前記補間画像、並びに、光学系を特定するパラメータを用いて、仮想的に前記光学系で撮像された画像を生成する現像処理部と
     をさらに備える
     請求項1に記載の画像処理装置。
  8.  画像処理装置が、
     第1の解像度で撮像された第1の視点画像と前記第1の解像度よりも低い第2の解像度で撮像された第2の視点画像のうちの一方の視点画像の解像度を、他方の視点画像の解像度に変換し、同一の解像度の前記第1の視点画像と前記第2の視点画像を生成する解像度変換ステップと、
     前記解像度変換ステップの処理により生成された前記同一の解像度の第1の視点画像と第2の視点画像との間の相関値に基づいて、ディスパリティマップを生成する生成ステップと
     を含む画像処理方法。
  9.  第1の解像度の第1の視点画像を撮像する第1の撮像素子と、前記第1の解像度よりも低い第2の解像度の第2の視点画像を撮像する第2の撮像素子とを有する撮像部と、
     前記第1の撮像素子により撮像された前記第1の視点画像と前記第2の撮像素子により撮像された前記第2の視点画像のうちの一方の視点画像の解像度を、他方の視点画像の解像度に変換し、同一の解像度の前記第1の視点画像と前記第2の視点画像を生成する解像度変換部と、
     前記解像度変換部により生成された前記同一の解像度の第1の視点画像と第2の視点画像との間の相関値に基づいて、ディスパリティマップを生成する生成部と
     を備える情報処理装置。
  10.  前記第2の撮像素子は、前記第1の撮像素子の周囲に配置される
     請求項9に記載の情報処理装置。
PCT/JP2013/072021 2012-08-31 2013-08-16 画像処理装置および画像処理方法、並びに情報処理装置 WO2014034444A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014532923A JP6458988B2 (ja) 2012-08-31 2013-08-16 画像処理装置および画像処理方法、並びに情報処理装置
US14/422,956 US9600859B2 (en) 2012-08-31 2013-08-16 Image processing device, image processing method, and information processing device
CN201380044211.9A CN104584545B (zh) 2012-08-31 2013-08-16 图像处理装置、图像处理方法、以及信息处理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012191161 2012-08-31
JP2012-191161 2012-08-31

Publications (1)

Publication Number Publication Date
WO2014034444A1 true WO2014034444A1 (ja) 2014-03-06

Family

ID=50183259

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/072021 WO2014034444A1 (ja) 2012-08-31 2013-08-16 画像処理装置および画像処理方法、並びに情報処理装置

Country Status (4)

Country Link
US (1) US9600859B2 (ja)
JP (1) JP6458988B2 (ja)
CN (1) CN104584545B (ja)
WO (1) WO2014034444A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016158138A (ja) * 2015-02-25 2016-09-01 沖電気工業株式会社 仮想視点画像生成装置及びプログラム
JP2017017581A (ja) * 2015-07-02 2017-01-19 沖電気工業株式会社 仮想視点画像生成装置及びプログラム
KR20170141202A (ko) * 2015-04-28 2017-12-22 소니 주식회사 화상 처리 장치 및 화상 처리 방법
US10748264B2 (en) 2015-09-09 2020-08-18 Sony Corporation Image processing apparatus and image processing method
WO2022075073A1 (ja) * 2020-10-07 2022-04-14 ソニーグループ株式会社 撮影デバイス、サーバ装置、および、3dデータ生成方法
JP7315988B1 (ja) 2022-01-13 2023-07-27 誠一 杉田 移動体の走行制御システム

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
KR101733443B1 (ko) 2008-05-20 2017-05-10 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
WO2013043751A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
IN2014CN02708A (ja) 2011-09-28 2015-08-07 Pelican Imaging Corp
US9412206B2 (en) 2012-02-21 2016-08-09 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US8619082B1 (en) 2012-08-21 2013-12-31 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US20140092281A1 (en) * 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9438888B2 (en) 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US10119808B2 (en) * 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
JP2017531976A (ja) 2014-09-29 2017-10-26 フォトネイション ケイマン リミテッド アレイカメラを動的に較正するためのシステム及び方法
JP6503979B2 (ja) * 2015-08-26 2019-04-24 沖電気工業株式会社 携帯図面表示装置、図面表示システム
JP6611588B2 (ja) * 2015-12-17 2019-11-27 キヤノン株式会社 データ記録装置、撮像装置、データ記録方法およびプログラム
EP3389256B1 (en) * 2016-01-06 2023-04-12 Huawei Technologies Co., Ltd. Method and device for processing image
TWI613904B (zh) * 2016-06-17 2018-02-01 聚晶半導體股份有限公司 立體影像產生方法及使用此方法的電子裝置
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US20210065404A1 (en) * 2018-01-05 2021-03-04 Sony Corporation Image processing apparatus, image processing method, and program
US11348271B2 (en) * 2019-03-14 2022-05-31 Omron Corporation Image processing device and three-dimensional measuring system
DE112020004391T5 (de) 2019-09-17 2022-06-02 Boston Polarimetrics, Inc. Systeme und verfahren zur oberflächenmodellierung unter verwendung von polarisationsmerkmalen
MX2022004163A (es) 2019-10-07 2022-07-19 Boston Polarimetrics Inc Sistemas y metodos para la deteccion de estandares de superficie con polarizacion.
CN114787648B (zh) 2019-11-30 2023-11-10 波士顿偏振测定公司 用于使用偏振提示进行透明对象分段的系统和方法
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10134187A (ja) * 1996-10-31 1998-05-22 Nec Corp 三次元構造推定装置
JP2000102040A (ja) * 1998-09-28 2000-04-07 Olympus Optical Co Ltd 電子ステレオカメラ
JP2002359838A (ja) * 2001-03-28 2002-12-13 Matsushita Electric Ind Co Ltd 運転支援装置
JP2009165115A (ja) * 2007-12-12 2009-07-23 Sony Corp 撮像装置
WO2012029301A1 (ja) * 2010-08-31 2012-03-08 パナソニック株式会社 撮影装置、再生装置、および画像処理方法
WO2012111755A1 (ja) * 2011-02-18 2012-08-23 ソニー株式会社 画像処理装置および画像処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
CN101312539B (zh) 2008-07-03 2010-11-10 浙江大学 用于三维电视的分级图像深度提取方法
CN101790103B (zh) * 2009-01-22 2012-05-30 华为技术有限公司 一种视差计算方法及装置
AU2009201637B2 (en) * 2009-04-24 2011-08-11 Canon Kabushiki Kaisha Processing multi-view digital images
KR101807886B1 (ko) * 2009-10-14 2017-12-11 돌비 인터네셔널 에이비 깊이 맵 처리를 위한 방법 및 디바이스
US8339470B2 (en) * 2009-11-30 2012-12-25 Indian Institute Of Technology Madras Method and system for generating a high resolution image
US9030530B2 (en) * 2009-12-15 2015-05-12 Thomson Licensing Stereo-image quality and disparity/depth indications
JP5387856B2 (ja) 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
JP5468426B2 (ja) * 2010-03-12 2014-04-09 日立オートモティブシステムズ株式会社 ステレオカメラ装置
US8428342B2 (en) * 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10134187A (ja) * 1996-10-31 1998-05-22 Nec Corp 三次元構造推定装置
JP2000102040A (ja) * 1998-09-28 2000-04-07 Olympus Optical Co Ltd 電子ステレオカメラ
JP2002359838A (ja) * 2001-03-28 2002-12-13 Matsushita Electric Ind Co Ltd 運転支援装置
JP2009165115A (ja) * 2007-12-12 2009-07-23 Sony Corp 撮像装置
WO2012029301A1 (ja) * 2010-08-31 2012-03-08 パナソニック株式会社 撮影装置、再生装置、および画像処理方法
WO2012111755A1 (ja) * 2011-02-18 2012-08-23 ソニー株式会社 画像処理装置および画像処理方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016158138A (ja) * 2015-02-25 2016-09-01 沖電気工業株式会社 仮想視点画像生成装置及びプログラム
KR20170141202A (ko) * 2015-04-28 2017-12-22 소니 주식회사 화상 처리 장치 및 화상 처리 방법
CN107534731A (zh) * 2015-04-28 2018-01-02 索尼公司 图像处理装置和图像处理方法
EP3291532A4 (en) * 2015-04-28 2018-12-19 Sony Corporation Image processing device and image processing method
US10341546B2 (en) 2015-04-28 2019-07-02 Sony Corporation Image processing apparatus and image processing method
TWI752905B (zh) * 2015-04-28 2022-01-21 日商新力股份有限公司 畫像處理裝置及畫像處理方法
KR102479827B1 (ko) * 2015-04-28 2022-12-22 소니그룹주식회사 화상 처리 장치 및 화상 처리 방법
JP2017017581A (ja) * 2015-07-02 2017-01-19 沖電気工業株式会社 仮想視点画像生成装置及びプログラム
US10748264B2 (en) 2015-09-09 2020-08-18 Sony Corporation Image processing apparatus and image processing method
WO2022075073A1 (ja) * 2020-10-07 2022-04-14 ソニーグループ株式会社 撮影デバイス、サーバ装置、および、3dデータ生成方法
JP7315988B1 (ja) 2022-01-13 2023-07-27 誠一 杉田 移動体の走行制御システム
JP2023108070A (ja) * 2022-01-13 2023-08-04 誠一 杉田 移動体の走行制御システム

Also Published As

Publication number Publication date
JP6458988B2 (ja) 2019-01-30
CN104584545B (zh) 2017-05-31
US9600859B2 (en) 2017-03-21
US20150248744A1 (en) 2015-09-03
JPWO2014034444A1 (ja) 2016-08-08
CN104584545A (zh) 2015-04-29

Similar Documents

Publication Publication Date Title
JP6458988B2 (ja) 画像処理装置および画像処理方法、並びに情報処理装置
KR102500759B1 (ko) 심 없는 이미지 스티칭(Seamless image stitching)
JP6019729B2 (ja) 画像処理装置、画像処理方法及びプログラム
US9900510B1 (en) Motion blur for light-field images
US10334151B2 (en) Phase detection autofocus using subaperture images
US8326077B2 (en) Method and apparatus for transforming a non-linear lens-distorted image
US9955057B2 (en) Method and apparatus for computational scheimpflug camera
CN107079100A (zh) 用于相机阵列的透镜移位校正的方法和系统
JP2012249070A (ja) 撮像装置及び撮像方法
CN110868541B (zh) 视场融合方法及装置、存储介质、终端
CN102037717A (zh) 使用具有异构成像器的单片相机阵列的图像拍摄和图像处理
CN107407554A (zh) 对多相机成像系统进行仿真
US10482571B2 (en) Dual fisheye, hemispherical image projection and stitching method, device and computer-readable medium
US20140016827A1 (en) Image processing device, image processing method, and computer program product
WO2019214594A1 (zh) 图像处理方法、相关设备及计算机存储介质
US20160292842A1 (en) Method and Apparatus for Enhanced Digital Imaging
CN104412298A (zh) 用于变换图像的方法和设备
CN114612575A (zh) 一种相机参数的标定、三维数据生成方法和系统
JP6376194B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2020088571A (ja) 管理システム、情報処理システム、情報処理方法およびプログラム
US20230072247A1 (en) Method and device for processing image content
CN108282609B (zh) 一种全景视频分发监控系统及方法
CN115280755A (zh) 图像生成方法和设备
CN116957926A (zh) 图像放大方法、装置和电子设备
CN118115560A (zh) 深度信息确定方法、装置、电子设备和计算机存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13832437

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014532923

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14422956

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13832437

Country of ref document: EP

Kind code of ref document: A1