WO2014132754A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2014132754A1
WO2014132754A1 PCT/JP2014/052504 JP2014052504W WO2014132754A1 WO 2014132754 A1 WO2014132754 A1 WO 2014132754A1 JP 2014052504 W JP2014052504 W JP 2014052504W WO 2014132754 A1 WO2014132754 A1 WO 2014132754A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
input image
reference image
input
search area
Prior art date
Application number
PCT/JP2014/052504
Other languages
English (en)
French (fr)
Inventor
基広 浅野
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2015502829A priority Critical patent/JPWO2014132754A1/ja
Priority to US14/770,330 priority patent/US20160005158A1/en
Publication of WO2014132754A1 publication Critical patent/WO2014132754A1/ja

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • G06T3/4069Super resolution, i.e. output image resolution higher than sensor resolution by subpixel displacement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging

Definitions

  • the present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method for performing processing for improving resolution.
  • the resolution is not improved even if the super-resolution processing is performed on these input image groups.
  • Patent Document 1 Japanese Patent Laying-Open No. 2009-55410 discloses a technique for detecting a rough motion amount (shift amount) in a reduced image.
  • the above-mentioned patent document 1 does not use the difference in viewpoint for each input image, but the pixel position shift in each input image when generating one high-resolution image from a multi-viewpoint input image group. It is not possible to deal with it appropriately. For this reason, even if the technique disclosed in Patent Document 1 is used, if the pixel position used for the super-resolution processing is shifted for each input image, the problem that the resolution is not improved even if the super-resolution processing is performed is not solved. .
  • the present invention has been made in view of such problems, and an object thereof is to provide an image processing apparatus and an image processing method capable of generating a high-resolution image while suppressing deterioration in image quality.
  • a controller of an image processing device has a high-resolution image having higher frequency information than an input image from a multi-viewpoint input image group each having a common partial region.
  • An image processing apparatus for generating and outputting an image, wherein one input image of the input image group is set as a reference image, and a search area corresponding to the reference image based on environmental conditions is set for each input image other than the reference image
  • a setting unit for performing, a template matching process in the search area using the reference image, an estimation unit for estimating a positional deviation with respect to the reference image for each input image other than the reference image, and the input image,
  • a processing unit for executing super-resolution processing using the estimated positional deviation as a parameter.
  • the setting unit sets the search area based on the positional relationship between the viewpoint of the input image as the reference image and the viewpoint of at least one input image of the input images other than the reference image, and the environmental conditions.
  • the setting unit specifies a search area identified from the distance and direction between the viewpoint of the reference image and the farthest viewpoint among the multiple viewpoints, and the deformation rate defined in advance with respect to environmental conditions, Set for each input image other than the reference image.
  • the setting unit sets the search area based on the distance and direction between the viewpoint of the input image as the reference image and the viewpoint of each input image other than the reference image, and the environmental conditions.
  • the setting unit uses one input image of the input images other than the reference image selected according to the positional relationship with the viewpoint of the reference image as the second reference image, and is estimated for the second reference image.
  • a search area is set for each input image other than the reference image and the second reference image based on the misalignment.
  • the setting unit sets a search area corresponding to the reference image based on the environmental condition as the first search area, and each input image other than the reference image from the viewpoint of the first search area and the input image as the reference image.
  • the setting unit uses, as a reference image, an input image at a viewpoint arranged inside among the multiple viewpoints in the input image group.
  • the image processing apparatus further includes a blur degree estimation unit for estimating the degree of blur of the input image by performing template matching processing by adding blur corresponding to the degree of blur to the reference image.
  • the unit performs super-resolution processing using the estimated degree of blur as a parameter.
  • the input image group is an image group obtained by a lens array including a plurality of lenses having different optical axes.
  • an image processing method is a method for generating, as an output image, a high-resolution image having frequency information higher than that of an input image from a multi-viewpoint input image group each having a common partial region.
  • a step of setting a search area corresponding to the reference image based on the environmental condition for each input image other than the reference image, using one input image in the input image group as a reference image, and searching using the reference image By performing template matching processing within the area, a step of estimating a positional deviation with respect to the reference image for each input image other than the reference image, and executing a super-resolution process for the input image using the estimated positional deviation as a parameter And a step of performing.
  • an image processing program causes a computer to output, as an output image, a high-resolution image having frequency information higher than that of an input image from a multi-viewpoint input image group each having a common partial area.
  • the present invention it is possible to generate a high-resolution image from a low-resolution multi-viewpoint input image group while suppressing deterioration in image quality.
  • FIG. 1 is a block diagram illustrating a basic configuration of an image processing apparatus according to an embodiment. It is a block diagram which shows the structure of the digital camera which actualized the image processing apparatus. It is a block diagram which shows the structure of the personal computer which actualized the image processing apparatus. It is a figure showing the specific example of arrangement
  • step # 33 of FIG. It is a figure for demonstrating the deterioration information used by step # 33 of FIG. It is a figure showing the specific example of deterioration information. It is a figure showing the other example of the super-resolution process in step S3 of FIG. It is a figure showing the 2nd example of position shift outline estimation processing. It is a figure showing the 2nd example of position shift outline estimation processing. It is a figure showing the 2nd example of position shift outline estimation processing. It is a figure showing the 3rd example of position shift outline estimation processing. It is a figure showing the 3rd example of position shift outline estimation processing. It is a figure showing the 3rd example of position shift outline estimation processing. It is a figure showing the 3rd example of position shift outline estimation processing. It is a figure showing the 3rd example of position shift outline estimation processing. It is a figure showing the 3rd example of position shift outline estimation processing. It is a figure showing the 3rd example of position shift outline estimation processing.
  • FIG. 9 is a flowchart showing a parameter calculation process performed prior to the super-resolution process in step S3 of FIG. 8.
  • FIG. It is a figure for demonstrating the conversion method of the coefficient of a Gaussian filter in step # 11 of FIG. It is a figure for demonstrating the calculation method of PSF in step # 12 of FIG.
  • FIG. 1 is a block diagram showing a basic configuration of an image processing apparatus 1 according to the present embodiment.
  • the image processing apparatus 1 includes an imaging unit 2, an image processing unit 3, and an image output unit 4.
  • the image capturing unit 2 captures an image of a subject to acquire an image (hereinafter also referred to as “input image”), and the image processing unit 3 performs an operation on the acquired input image.
  • input image an image
  • the image processing unit 3 performs an operation on the acquired input image.
  • a high-resolution output image (hereinafter also referred to as “high-resolution image”) having a higher frequency component than the input image is generated.
  • the image output unit 4 outputs this high resolution image to a display device or the like.
  • the imaging unit 2 captures an object (subject) and generates an input image. More specifically, the imaging unit 2 includes a camera 22 and an A / D (Analog to Digital) conversion unit 24 connected to the camera 22. The A / D converter 24 outputs an input image indicating the subject imaged by the camera 22.
  • a / D Analog to Digital
  • the camera 22 is an optical system for imaging a subject, and is an array camera. That is, the camera 22 electrically converts N lenses 22a-1 to 22a-n (which are also referred to as lenses 22a, representatively) arranged in a lattice shape and having different viewpoints, and an optical image formed by the lens 22a. And an image sensor (image sensor) 22b which is a device for converting the signal.
  • the A / D converter 24 converts a video signal (analog electrical signal) indicating a subject output from the image sensor 22b into a digital signal and outputs the digital signal.
  • the imaging unit 2 may further include a control processing circuit for controlling each part of the camera.
  • the image processing unit 3 generates a high-resolution image by performing the image processing method according to the present embodiment on the input image acquired by the imaging unit 2. More specifically, the image processing unit 3 includes a position shift estimation unit 32 and a super-resolution processing unit 36 for performing a position shift estimation process to be described later.
  • the misregistration estimation unit 32 further includes a first estimation unit 321 for performing the first misregistration estimation process and a second estimation unit 322 for performing the second misregistration estimation process, and the first estimation unit 321. Further includes a setting unit 324 for setting a search area to be described later.
  • the super-resolution processing unit 36 further includes a calculation unit 361 for calculating parameters used for the super-resolution processing based on the estimated positional deviation and the like.
  • the super-resolution processing unit 36 performs super-resolution processing described later on the input image.
  • the super-resolution processing is processing for generating frequency information that exceeds the Nyquist frequency of the input image.
  • the misregistration estimation unit 32 performs a first misregistration estimation process and a second misregistration estimation process which will be described later, and estimates a misregistration from the reference image for each input image.
  • the image output unit 4 outputs the high resolution image generated by the image processing unit 3 to a display device or the like.
  • the image processing apparatus 1 shown in FIG. 1 can be configured as a system in which each unit is embodied as an independent apparatus.
  • the image processing apparatus 1 may be embodied as a digital camera or a personal computer described below. Many. Therefore, as an implementation example of the image processing apparatus 1 according to the present embodiment, an implementation example with a digital camera and an implementation example with a PC (personal computer) will be described.
  • FIG. 2 is a block diagram showing a configuration of a digital camera 100 that embodies the image processing apparatus 1 shown in FIG. 2, components corresponding to the respective blocks constituting the image processing apparatus 1 shown in FIG. 1 are denoted by the same reference numerals as those in FIG. 1.
  • a digital camera 100 includes a CPU (Central Processing Unit) 102, a digital processing circuit 104, an image display unit 108, a card interface (I / F) 110, a storage unit 112, and a camera unit. 114.
  • CPU Central Processing Unit
  • I / F card interface
  • the CPU 102 controls the entire digital camera 100 by executing a program stored in advance.
  • the digital processing circuit 104 executes various digital processes including image processing according to the present embodiment.
  • the digital processing circuit 104 is typically configured by a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), an LSI (Large Scale Integration), an FPGA (Field-Programmable Gate Array), or the like.
  • the digital processing circuit 104 includes an image processing circuit 106 for realizing the functions provided by the image processing unit 3 shown in FIG.
  • the image display unit 108 includes an input image provided by the camera unit 114, an output image generated by the digital processing circuit 104 (image processing circuit 106), various setting information related to the digital camera 100, and a control GUI (Graphical User Interface) screen is displayed.
  • GUI Graphic User Interface
  • the card interface (I / F) 110 is an interface for writing image data generated by the image processing circuit 106 to the storage unit 112 or reading image data or the like from the storage unit 112.
  • the storage unit 112 is a storage device that stores image data generated by the image processing circuit 106 and various types of information (setting values such as control parameters and operation modes of the digital camera 100).
  • the storage unit 112 includes a flash memory, an optical disk, a magnetic disk, and the like, and stores data in a nonvolatile manner.
  • the camera unit 114 generates an input image by imaging a subject.
  • a digital camera 100 shown in FIG. 2 is obtained by mounting the entire image processing apparatus 1 according to the present embodiment as a single apparatus. That is, the user can visually recognize a high-resolution image on the image display unit 108 by imaging the subject using the digital camera 100.
  • FIG. 3 is a block diagram showing a configuration of a personal computer 200 that embodies the image processing apparatus 1 shown in FIG.
  • a personal computer 200 shown in FIG. 3 is obtained by mounting a part of the image processing apparatus 1 according to the present embodiment as a single apparatus.
  • the imaging unit 2 for acquiring an input image is not mounted, and an input image acquired by an arbitrary imaging unit 2 is input from the outside. Even such a configuration can be included in the image processing apparatus 1 according to the embodiment of the present invention.
  • components corresponding to blocks constituting the image processing apparatus 1 shown in FIG. 1 are denoted by the same reference numerals as those in FIG.
  • the personal computer 200 includes a personal computer main body 202, a monitor 206, a mouse 208, a keyboard 210, and an external storage device 212.
  • the personal computer main body 202 is typically a general-purpose computer according to a general-purpose architecture, and includes a CPU, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like as basic components.
  • the personal computer main body 202 can execute an image processing program 204 for realizing a function provided by the image processing unit 3 shown in FIG.
  • Such an image processing program 204 is stored and distributed in a storage medium such as a CD-ROM (Compact Disk-Read Only Memory) or distributed from a server device via a network.
  • the image processing program 204 is stored in a storage area such as a hard disk of the personal computer main body 202.
  • Such an image processing program 204 implements processing by calling necessary modules among program modules provided as part of an operating system (OS) executed by the personal computer main body 202 at a predetermined timing and order. It may be configured as follows. In this case, the image processing program 204 itself does not include a module provided by the OS, and image processing is realized in cooperation with the OS. Further, the image processing program 204 may be provided by being incorporated in a part of some program instead of a single program. Even in such a case, the image processing program 204 itself does not include a module that is commonly used in the program, and image processing is realized in cooperation with the program. Even such an image processing program 204 that does not include some modules does not depart from the spirit of the image processing apparatus 1 according to the present embodiment.
  • OS operating system
  • image processing program 204 may be realized by dedicated hardware.
  • the monitor 206 displays a GUI screen provided by an operating system (OS), an image generated by the image processing program 204, and the like.
  • OS operating system
  • the mouse 208 and the keyboard 210 each accept a user operation and output the contents of the accepted user operation to the personal computer main body 202.
  • the external storage device 212 stores an input image acquired by some method, and outputs this input image to the personal computer main body 202.
  • a device that stores data in a nonvolatile manner such as a flash memory, an optical disk, or a magnetic disk is used.
  • FIG. 4 is a diagram showing a specific example of the arrangement of the lenses 22 a included in the camera 22.
  • the camera 22 is an array camera including 16 lenses 22a-1 to 22a-16 (lenses A to P) arranged in a grid pattern.
  • the intervals (base line lengths) between the lenses A to P in FIG. 4 are uniform in both the vertical and horizontal directions.
  • the images A, B, C, E, F, G, I, J, K, L, M, N, O, and P when captured by the camera 22 are the lenses A to A, respectively. It is assumed that the input image is from P.
  • Members such as the lens 22a may be deformed depending on environmental conditions.
  • the lens 22a, a member for holding the lens 22a, or the like is formed of a material that is easily affected by plastic or the like, the deformation rate is large. Therefore, the input image is affected by the deformation, and the super-resolution processing using the input image is affected.
  • the environmental conditions include, for example, temperature and humidity. In the following description, temperature change is taken as an example.
  • the first effect is that the distance between the lens 22a and the image sensor (image sensor) 22b changes due to the temperature change of the lens, and the input image is blurred.
  • the focus shifts from the reference position by about 15 to 20 ⁇ m due to a temperature change of 30 ° C. with respect to the lens.
  • the image sensed at 22b is blurred.
  • the amount of deviation from the reference position of the focus may be slightly different depending on the color.
  • the sensor surface is deformed (warped, etc.) due to a temperature change of the image sensor (image sensor) 22b, and thus, of the group of input images from the lens 22a.
  • a part of an input image or a part of an input image is blurred.
  • the sensor surface is deformed so as to warp from the reference position.
  • the blurring degree (blurring degree) in each input image changes in an axially symmetrical manner to the input image group.
  • the influence of the deformation of the member such as the lens 22a on the input image due to the temperature change is the largest in the first effect shown in FIG. 5, and generally all the input images are uniformly blurred.
  • the amount of deformation differs for each lens position, so the degree of blur differs for each input image and for each region in the input image.
  • the image processing apparatus 1 (Overview of operation) In the image processing apparatus 1, super-resolution processing is performed on a plurality of input images with different viewpoints obtained by being photographed by the camera 22 that is an array camera, and a high-resolution image is obtained. At this time, the image processing apparatus 1 performs super-resolution processing in consideration of pixel position shifts due to environmental conditions (temperature changes and the like) in the respective input images shown in FIG.
  • FIG. 8 is a flowchart showing an operation flow in the image processing apparatus 1 according to the present embodiment.
  • 16 input images are acquired by executing a process of acquiring an input image with each of the lenses 22 a.
  • a low resolution image of about 1000 ⁇ 750 pixels is input.
  • the positional deviation approximate estimation process is executed as the first positional deviation estimation process (step S1).
  • the shift amount in pixel units integer pixels
  • the positional deviation of the pixel for each input image due to the change in the position of the lens 22a due to the temperature change is estimated.
  • step S2 a second positional shift estimation process is executed (step S2).
  • the shift amount in sub-pixel units decimal pixels
  • step S3 super-resolution processing is executed in consideration of the amount of displacement (step S3), and a high-resolution image of about 4000 ⁇ 3000 pixels is generated as an output image.
  • FIG. 9 and FIG. 10 are diagrams for explaining a first specific example of the positional deviation approximate estimation process as the first positional deviation estimation process in step S1.
  • FIG. 9 is a diagram for explaining the displacement of the pixel position due to the temperature change of the input image from each lens 22a.
  • the diagram schematically shows the input image when the temperature rises by 30 ° C. It is.
  • the 16 solid line rectangles represent the input images A to P, respectively.
  • the 16 thin line rectangles represent the input images A to P before the temperature rise
  • the 16 dotted line rectangles represent the input images A to P after the temperature rise. Yes.
  • each lens 22a and a member that holds lens 22a expand, so that the shooting range of each input image is expanded as a whole centering on the center.
  • the displacement of the position of the lens 22a due to temperature is smaller as the lens arranged on the inner side and larger as the lens arranged on the outer side. Therefore, the deviation of the input image from the lens (for example, lenses F, G, J, K) arranged on the inner side from before the temperature rise is caused by the lens (for example, lenses A to E, H, I, L) arranged on the outer side. Is smaller than the deviation of the input image from P).
  • the image processing apparatus 1 uses an input image from a lens disposed on the inside as a reference image in step S1.
  • the input image F from the lens F arranged inside is used as the reference image.
  • the position of the input image P from the lens P arranged at the position farthest from the lens F is shifted most.
  • the elongation of the position on the input image is 1/1000 times the temperature increase of 30 ° C.
  • the distance between the input image F and the input image P, which is the reference image is 4000 pixels in the oblique direction (X direction and Y direction)
  • the input image P is inclined by a temperature change of 30 ° C. It changes by 4 pixels in each direction (X direction and Y direction), that is, changes in a range of 9 ⁇ 9 pixels.
  • step S1 assuming that the displacement of the pixel (reference pixel) S represented by a black circle in FIG. 9 on the input image F that is the reference image is estimated, the input that is the reference image is referred to with reference to FIG.
  • an area search for searching for a pixel corresponding to the reference pixel S within the above-described range of change of the pixel of 30 ° C. around the pixel S ′. Area). That is, referring to FIG.
  • the search area is set to an area wider than the area set only from the temperature change in consideration of a deviation from a design value such as an actual distance between the lenses 22a. Also good.
  • template matching processing is performed using an image including the reference pixel S of the input image F, and the pixel T having the highest degree of coincidence with the reference pixel S is at a position corresponding to the reference pixel S. Identified as a pixel.
  • An example of the template matching process here is NCC (Normalized Cross Correlation). Other examples include SAD (Sum of Absolute Difference) and SSD (Sum of Squared Difference).
  • step S ⁇ b> 1 the above processing is performed for each pixel of the input image F, so that a pixel used for the super-resolution processing is detected for each input image. That is, as shown in the right diagram of FIG.
  • FIG. 11 to FIG. 13 are diagrams for explaining the positional deviation estimation process as the second positional deviation estimation process in step S2.
  • the input image P (dotted rectangle) after the temperature change, which is a reference image, corresponds to the reference pixel S of the input image F specified by the first positional deviation estimation process in step S1.
  • step S2 the paper “Robust super-resolution processing based on pixel selection considering the positional deviation amount” shown in FIG. 13 (Journal of the Institute of Electronics, Information and Communication Engineers, Vol. J92-D) No. 5, pp. 650-660, 2009, May 2009) can be employed. That is, as shown in FIG. 12 and FIG. 13, the coordinates of the pixel having the highest matching degree among the matching degrees for each pixel are specified as the shift amount.
  • step S2 other methods such as fitting to a quadratic curve in each of the X coordinate and the Y coordinate may be employed instead of the quadratic curved surface fitting described above.
  • FIG. 14 is a diagram showing the flow of super-resolution processing in step S3. 14, as a specific example, a case where the paper “Fast and Robust Multiframe Super Resolution” (IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 13, NO. 10, OCTOBER 2004 page. 1327-1344) is described. The flow of resolution processing is shown.
  • one of the input images is subjected to an interpolation process such as a bilinear method to convert the resolution of the input image to a high resolution that is the resolution after the super-resolution process.
  • an output candidate image as an initial image is generated.
  • step # 32 a BTV (Bilateral Total Variation) amount for robust convergence to noise is calculated.
  • step # 33 the generated output candidate images are compared with the 16 input images, and a residual is calculated. That is, in step # 33, the generated output candidate image is set to the input image size based on each input image and its deterioration information (information indicating the relationship between the image after super-resolution and the input image). After conversion (reduction in resolution) (# 41 in FIG. 15), the difference from the 16 input images is calculated and recorded. Then, the difference is returned to the size after the super-resolution processing (# 43 in FIG. 15), and is set as a residual.
  • step # 34 the residual and the BTV amount calculated from the output candidate image generated in step # 31 are reduced, and the next output candidate image is generated.
  • steps # 31 to # 34 are repeated until the output candidate image converges, and the converged output candidate image is output as an output image after the super-resolution processing.
  • the number of iterations may be a predetermined number of times such as the number of times of convergence (for example, 200 times), or a convergence determination may be made for each series of processing, and may be repeated according to the result. .
  • FIG. 15 is a diagram for explaining the deterioration information used in step # 33.
  • Deterioration information refers to information representing the relationship of each input image with respect to a high-resolution image after super-resolution processing, and is represented, for example, in a matrix format.
  • the deterioration information includes a shift amount, a down-sampling amount, a blur amount, and the like of each of the input images estimated in step S2.
  • the deterioration information is defined by a matrix indicating the conversion when each of the input image and the high-resolution image after the super-resolution processing is expressed as a one-dimensional vector.
  • the image processing apparatus 1 calculates a parameter used for the super-resolution processing based on the positional deviation estimated in the estimation processing in steps S1 and S2, and incorporates it as deterioration information.
  • FIG. 16 is a diagram showing a specific example of deterioration information.
  • the image processing apparatus 1 estimates the deterioration information as shown in FIG. 16 when the pixel shift amount is estimated to be 0.25 pixel and the downsampling amount is 1/4 in each of the vertical direction and the horizontal direction. Is specified.
  • the degradation information includes 1 in 16 locations. A coefficient of / 16 is listed. Therefore, when the pixel shift amount is 0.25 pixel, each 16 pixels of the high resolution image contributes by 1/16 of the shift amount.
  • the super-resolution processing in step S3 is not limited to the processing shown in FIG. 14, but is reconfigurable super-resolution processing that generates one image from a plurality of input images. Other processes may be employed if any.
  • FIG. 17 is a diagram illustrating another example of the super-resolution processing in step S3.
  • the constraint term calculated in step S32 may be replaced with the BTV amount, for example, another one such as 4-neighbor Laplacian may be used (step # 32 ').
  • the misregistration rough estimation process in step S1 is not limited to the processes shown in FIGS. That is, in the positional deviation approximate estimation processing, in the processing shown in FIGS. 9 and 10, the search area is the distance and direction between the viewpoint (lens F) of the reference image F and the farthest viewpoint (lens P).
  • the search area is specified based on the deformation rate defined in advance with respect to the environmental condition (temperature change), and the search area is set for each of the input images A to E and G to P other than the reference image F.
  • the search area is set based on the positional relationship between the viewpoint of the input image as the reference image and the viewpoint of at least one of the input images other than the reference image, and the environmental condition (temperature change). Any method other than the above method may be used.
  • the search area includes the distance and direction between the viewpoint of the input image as the reference image and the viewpoint of each input image other than the reference image, and environmental conditions (temperature change). It may be set based on this. That is, the amount of pixel shift for each input image increases according to the distance from the reference image (the distance of the lens 22a), and the direction of deviation is determined by the positional relationship of the lens 22a. Therefore, a different search area may be set for each input image.
  • FIG. 18 to FIG. 20 are diagrams showing a second example of the positional deviation approximate estimation process.
  • the distance and direction between the viewpoint (lens F) and the viewpoint (lens) of the reference image F the temperature change, Based on the above, a search area is set for each input image.
  • a search area in each input image with respect to the reference image is defined in advance, and the image processing apparatus 1 sets a search area corresponding to the corresponding temperature change. These may be set for each input image. That is, the range read from FIG. 19 centered on the position of the pixel S ′ corresponding to the reference pixel S when there is no position shift due to temperature change in each input image may be set as the search area ( The right figure of FIG. As shown in FIGS. 18 and 19, the search area is set wider as it is farther from the reference image, and is set longer in the radial direction. In addition, instead of the relationship as shown in FIG.
  • an arithmetic expression for calculating a search area based on the temperature change and each input image (the viewpoint) with respect to the reference image is stored in advance.
  • the search area for each input image may be calculated and set for each input image by inputting the temperature change and the viewpoint of the input image into the arithmetic expression.
  • a search area that is wider and longer in a radial direction is calculated as it is farther from the reference image.
  • the direction of the search area is not limited to the direction that matches the direction of the input image as exemplified above, and may be a different direction as shown in FIG. That is, as shown in FIG. 20, the search area may be set for each input image in a direction corresponding to the direction from the reference image.
  • the search area By setting the search area in this way, it is possible to improve the accuracy of estimation of misalignment and to narrow the search area in a radial direction according to the direction from the reference image.
  • the time required for the rough estimation process can be shortened and the process can be speeded up.
  • FIGS. 21 to 24 are diagrams showing a third example of the misregistration rough estimation process.
  • the third example of the misregistration rough estimation process first, as shown in the right diagram of FIG. 21, one input image in the input image group is set as the second reference image, and the second reference image is displayed.
  • a search area for another input image is set using the approximate estimation result of the positional deviation at.
  • template matching processing is performed within the set search area based on the distance and direction between the viewpoint (lens F) of the reference image F and the viewpoint (lens) of the second reference image, and the temperature change.
  • the pixel T ′ is detected as the pixel having the highest degree of coincidence with the reference pixel S.
  • an input image that is close to the viewpoint of the reference image and that has a component in which the vector between the viewpoints is in an oblique direction (X direction and Y direction) is selected.
  • the input image A is preferably selected as the second reference image.
  • the pixel having the highest degree of coincidence with the reference pixel S for each of the input image other than the reference image and the second reference image based on the pixel T ′ in the second reference image. Is estimated (black circle in FIG. 24). Then, a predetermined range based on the estimated pixels in each input image is set as a search area (bold dotted line rectangle in FIG. 24).
  • a pixel S ′′ corresponding to a case where there is no positional shift due to a temperature change in the reference pixel S on the reference image F in the second reference image A is specified, and the pixel S ′′ is determined as At the center, a search area is set based on the distance and direction between the viewpoints of the reference image F and the second reference image A, and the amount of change in the pixel (eg, 1/1000 times) due to temperature change (eg, ⁇ 30 ° C.). (Thick dotted line rectangle in FIG. 22).
  • a template matching process is performed using an image including the reference pixel S of the input image F within the search area, and a pixel T ′ having the highest degree of coincidence with the reference pixel S is a pixel at a position corresponding to the reference pixel S. Identified.
  • the pixel having the highest degree of coincidence with the reference pixel S in each input image As an example, as shown in Fig. 23, the positional relationship in each input image of the reference pixel on the reference image for each temperature change is stored in advance and one of the positional relationships is stored. This is specified by substituting the result of the above-described positional deviation approximate estimation process (positional relationship between the pixel S ′′ and the pixel T ′) into one (in this example, the positional relationship of the input image A).
  • the positional relationship in each input image is represented in a table format, but may be stored as an arithmetic expression for each input image.
  • a predetermined range based on that pixel is set as a search area (thick dotted line rectangle).
  • a range defined in advance according to a temperature change centering on the pixel may be set as a search area.
  • FIG. 25 to FIG. 30 are diagrams showing a fourth example of the positional deviation approximate estimation process.
  • the reference in addition to the positional deviation due to the temperature change, the reference is set according to the distance between the viewpoints (the lens 22a) between the input image serving as the reference image and the other input images.
  • a search area is set in consideration of a positional shift based on parallax from an image.
  • FIG. 25 is a diagram illustrating a specific example of each input image when there is parallax.
  • the example of FIG. 25 represents input images A to P when an apple placed at a subject distance of 50 cm is photographed on a background image (not shown) having no parallax at infinity.
  • no parallax occurs in the background portion, but a pixel misalignment (in the enlargement direction as a whole) occurs as in the case where the temperature of only the apple portion rises.
  • FIG. 26 is a diagram for explaining a case where the positional deviation due to the parallax is estimated without considering the temperature change in order to simplify the explanation, and FIG. 27 is set when the positional deviation due to the parallax is estimated. It is the figure which represented the specific example of the search area performed with a coordinate. Referring to FIG. 26, even when a positional shift due to parallax is estimated, a search area (thick dotted line) with respect to a pixel position corresponding to a reference pixel on the reference image F of each input image (a pixel position in the case of no parallax). (Rectangular) is set, and the template matching process is executed within the search area, whereby the pixel having the highest degree of matching is detected.
  • the search area (estimated range) for parallax in each input image may be defined in advance, or may be calculated using an arithmetic expression stored in advance. Good. Since the parallax appears only in the direction in which the entire image looks enlarged, the search area for parallax is set with the pixel position when there is no parallax as an end.
  • FIG. 28 is a diagram illustrating an example of a search area in the case of estimating a pixel position shift in consideration of both parallax and temperature change
  • FIG. 29 is a diagram for explaining the search area. 28 and 29, when both parallax and temperature change are considered, the search area (first search area) set when estimating the position shift due to the temperature change, and the position shift due to the parallax A range that includes (covers) both the search area (second search area) and the search area that is set when estimating the search area is set as the search area.
  • FIG. 30 is a diagram showing, in coordinates, a specific example of the search area set when estimating the pixel position deviation in consideration of both parallax and temperature change, and is illustrated as the first search area.
  • the search area shown in FIG. 19 is set, and the search area shown in FIG. 27 is set as the second search area.
  • the search area is a range obtained by adding (circumscribing) the first search area and the second search area. can do.
  • the search area is also set from a range that covers the first search area and the second search area in consideration of deviation from a design value such as the actual distance between the lenses 22a.
  • An area wider than the area may be set. Further, as shown in FIG. 20, it may be set in a direction that does not coincide with the direction of the input image, or, as described in the third example of the positional deviation approximate estimation process,
  • One input image may be used as a second reference image, and a search area for another input image may be set using a rough estimation result of a positional shift in the second reference image.
  • the image processing apparatus 1 may perform the super-resolution processing in consideration of the degree of blur in each input image shown in FIGS. 5 and 7.
  • FIG. 31 is a block diagram showing the basic configuration of the image processing apparatus 1 according to the second modification.
  • second estimation unit 322 of image processing apparatus 1 includes a blur degree estimation unit 323 for performing the blur degree estimation process in addition to the configuration of FIG. 1.
  • the blur degree estimation unit 323 performs the blur degree estimation process in the second positional deviation estimation process, and estimates the degree of blur from the reference image for each input image.
  • the degree of blur is also estimated when the amount of shift in sub-pixel units (decimal pixels) is estimated in step S2.
  • the super-resolution processing is executed in consideration of the positional deviation amount and the degree of blur.
  • FIGS. 32 to 36 are diagrams for explaining the misregistration estimation process in the image processing apparatus 1 according to the second modification, which is executed in step S2 and further performs the degree of blur.
  • step S2 in the second modified example in addition to an image in a range including reference pixel S in input image F as a reference image, blur corresponding to the degree of blur is added to the image. Added images are generated and used for template matching processing. Then, as a result of the template matching process using the plurality of standard images having different degrees of blur, a positional deviation in sub-pixel units is estimated between the standard image having the highest degree of coincidence (NCC degree) and the position in the reference image. In addition, the degree of blur is estimated.
  • NCC degree degree of coincidence
  • the blurred reference image (the reference image with “degree of blur” 2 in the example of FIG. 32) is more similar to the reference image. This is because can be estimated. That is, when the above-described positional deviation estimation processing is performed between images with similar degrees of blurring, the similarity between the images increases, and the pixel estimation accuracy increases.
  • An example of a method for generating an image with blur is a method of applying a smoothing filter to the input image F.
  • the smoothing filter include a Gaussian filter and an averaging filter.
  • normalization is performed so that the sum of the coefficients of the filter becomes 1.
  • FIG. 33 shows an example in which the filter size is 3 ⁇ 3 pixels, the size may be different depending on how the constant ⁇ is selected. If the filter coefficient is close to 0 (for example, 0.01 or less), the filter processing is hardly affected. Therefore, the filter size is determined from the actual filter coefficient.
  • the standard image with “blur degree” 1 Based on the pixel T of the reference image when the pattern matching process is performed using each of the standard image with “blur degree” 0, the standard image with “blur degree” 1, and the standard image with “blur degree” 2. It is assumed that the NCC values, which are the degree of coincidence for each pixel in the defined range (the area corresponding to 9 pixels including the 8 pixels around the pixel T), are obtained as shown in FIGS. In this case, since the NCC value of the center pixel when using the reference image having the “blur degree” 2 is the highest value among these, the positional deviation amount is estimated based on this pixel, and “ It is estimated that “degree” 2 is the degree of blur of the reference image.
  • parameters used for the super-resolution processing are calculated using the estimated degree of blur prior to the super-resolution processing in step S3.
  • the pixel after super-resolution is calculated. Parameters according to the pitch are required. Therefore, the coefficient of the smoothing filter (Gaussian filter) corresponding to the pixel pitch of the input image used in the positional deviation estimation process in step S2 is converted according to the pixel pitch between the input image and the output image.
  • FIG. 37 is a flowchart showing a parameter calculation process performed prior to the super-resolution process in step S3. That is, referring to FIG. 37, first, for each input image, the coefficient of the Gaussian filter used for adding the blur of the reference image having the highest NCC value in the positional deviation estimation process in step S2 is super-resolution. The pixel pitch of the processed image is converted (step # 11), and the PSF is calculated (step # 12).
  • FIG. 38 is a diagram for explaining a method for converting the coefficient of the Gaussian filter in step # 11.
  • FIG. 39 is a diagram for explaining the PSF calculation method in step # 12.
  • FIG. 38 shows the conversion method of the coefficient of the Gaussian filter when the number of pixels is three times the vertical and horizontal in the super-resolution processing. Making the number of pixels three times the height and width by super-resolution processing corresponds to making the input image fine at a 1/3 pixel pitch. Therefore, it is necessary to calculate the coefficients at 1/3 pixel intervals of the Gaussian filter (for example, FIG. 33) used for adding blur.
  • the coefficient is calculated by substituting 4 into the above equation (1).
  • the maximum value of the coordinate value (x, y) is 1 here, the filter coefficient at one or more coordinate values such as 1.33 and 1.67 becomes a numerical value that cannot be ignored when the constant ⁇ increases. Therefore, in that case, the coefficient is calculated with a larger filter size than the example shown in FIG. As shown in FIGS. 14 to 16, when the downsampling amount is 1/4 in the super-resolution degradation information, the coefficients of the Gaussian filter are calculated at 1/4 pixel intervals.
  • the PSF defined by the pixel pitch of the super-resolution image having “defocus” of 0 based on the design value of the lens is defined as shown in the upper diagram of FIG.
  • the PSF that is a parameter corresponding to the “blur degree” 1 is calculated.
  • normalization is performed so that the sum of the filter coefficients is 1.
  • the degradation information is defined using the parameters calculated in this way for each input image or each partial region, and the super-resolution processing is executed in step S3.
  • the image processing apparatus 1 performs the above-described processing, so that the super-resolution processing is performed on the input image group according to the positional deviation of the pixel due to the environmental condition (temperature change or the like) for each input image. Can be performed. As a result, it is possible to suppress deterioration in image quality due to pixel displacement in each input image of the high-resolution image after super-resolution processing.
  • the image processing apparatus 1 detects a pixel displacement, the viewpoint (lens) of the input image as a reference image and the viewpoint (lens) of at least one of the input images other than the reference image Since the search area is set based on the positional relationship and the environmental condition, it is possible to improve the processing speed and increase the estimation accuracy of the positional deviation while enabling efficient search.
  • the image processing apparatus 1 also estimates the degree of blur for each input image in the positional deviation estimation process, and further, according to the degree of blur for one reference image in the input image group for each input image, Super-resolution processing can be performed on the input image group. Thereby, it is possible to further suppress deterioration in image quality due to a difference in the degree of blur of each input image of the high-resolution image after the super-resolution processing.

Abstract

 画像処理装置(1)は、それぞれが共通する部分領域を有する多視点の入力画像群のうちの1つの入力画像に基づく画像を基準画像とし、基準画像以外の入力画像ごとに、環境条件に基づく基準画像に応じた探索エリアを設定するための設定部(321)と、基準画像を用いて探索エリア内でテンプレートマッチング処理を行なうことで、基準画像以外の入力画像ごとの基準画像に対する位置ずれを推定するための位置ずれ推定部(32)と、入力画像について、推定された位置ずれをパラメーターとして用いて超解像処理を実行するための超解像処理部(36)とを備える。

Description

画像処理装置および画像処理方法
 この発明は画像処理装置および画像処理方法に関し、特に、解像度を向上させる処理を行なう画像処理装置および画像処理方法に関する。
 それぞれが共通する部分領域を有し、低解像度である多視点の入力画像群から1枚の高解像度画像を生成する画像処理技術がある。このような処理は、超解像処理とも呼ばれる。
 入力画像ごとに超解像処理に用いる画素位置がずれると、これら入力画像群に対して超解像処理を施しても解像度が向上しない。
 たとえば、特開2009-55410号公報(以下、特許文献1)は、縮小画像において概略の動き量(ずれ量)を検出する技術を開示している。
特開2009-55410号公報
 しかしながら、上記特許文献1は、入力画像ごとの視点の異なりを利用したものではなく、多視点の入力画像群から1枚の高解像度画像を生成する際の、各入力画像における画素位置のずれに対して適切に対処することはできない。そのため、上記特許文献1の技術を用いても、入力画像ごとに超解像処理に用いる画素位置がずれている場合には、超解像処理を施しても解像度が向上しないという問題が解消されない。
 本発明はこのような問題に鑑みてなされたものであって、画質の劣化を抑えて高解像度画像を生成することが可能な画像処理装置および画像処理方法を提供することを目的としている。
 上記目的を達成するために、本発明のある局面に従うと、画像処理装置のコントローラーは、それぞれが共通する部分領域を有する多視点の入力画像群から入力画像よりも高い周波数情報を持つ高解像度画像を作成して出力する画像処理装置であって、入力画像群のうちの1つの入力画像を基準画像とし、基準画像以外の入力画像ごとに、環境条件に基づく基準画像に応じた探索エリアを設定するための設定部と、基準画像を用いて探索エリア内でテンプレートマッチング処理を行なうことで、基準画像以外の入力画像ごとの基準画像に対する位置ずれを推定するための推定部と、入力画像について、推定された位置ずれをパラメーターとして用いて超解像処理を実行するための処理部とを備える。
 好ましくは、設定部は、基準画像とする入力画像の視点と基準画像以外の入力画像のうちの少なくとも1つの入力画像の視点との位置関係と、環境条件とに基づいて探索エリアを設定する。
 より好ましくは、設定部は、基準画像の視点と多視点のうちの最も遠い視点との間の距離および方向と、環境条件に対して予め規定されている変形率とから特定した探索エリアを、基準画像以外の入力画像のそれぞれに設定する。
 好ましくは、設定部は、基準画像とする入力画像の視点と基準画像以外の入力画像それぞれの視点との間の距離および方向と、環境条件とに基づいて探索エリアを設定する。
 好ましくは、設定部は、基準画像の視点との位置関係に応じて選択された基準画像以外の入力画像のうちの1つの入力画像を第2の基準画像とし、第2の基準画像について推定された位置ずれに基づいて、基準画像および第2の基準画像以外の入力画像ごとに探索エリアを設定する。
 好ましくは、設定部は、環境条件に基づく基準画像に応じた探索エリアを第1の探索エリアとし、第1の探索エリアと、基準画像とする入力画像の視点から基準画像以外の入力画像それぞれの視点までの距離に応じて設定される、基準画像からの視差に基づく位置ずれを探索するための第2の探索エリアとを含むエリアを探索エリアとして設定する。
 好ましくは、設定部は、入力画像群のうちの、多視点の中で内側に配置された視点の入力画像を基準画像とする。
 好ましくは、画像処理装置は、基準画像に対してぼけ度合いに応じたぼけを付加してテンプレートマッチング処理を行なうことで、入力画像のぼけ度合いを推定するためのぼけ度合推定部をさらに備え、処理部は、推定されたぼけ度合いもさらにパラメーターとして用いて超解像処理を実行する。
 好ましくは、入力画像群は、互いに光軸が異なる複数レンズを含んだレンズアレイで得られる画像群である。
 本発明の他の局面に従うと、画像処理方法は、それぞれが共通する部分領域を有する多視点の入力画像群から、入力画像よりも高い周波数情報を持つ高解像度画像を出力画像として生成する方法であって、入力画像群のうちの1つの入力画像を基準画像とし、基準画像以外の入力画像ごとに、環境条件に基づく基準画像に応じた探索エリアを設定するステップと、基準画像を用いて探索エリア内でテンプレートマッチング処理を行なうことで、基準画像以外の入力画像ごとの基準画像に対する位置ずれを推定するステップと、入力画像について、推定された位置ずれをパラメーターとして用いて超解像処理を実行するステップとを備える。
 本発明のさらに他の局面に従うと、画像処理プログラムは、コンピューターに、それぞれが共通する部分領域を有する多視点の入力画像群から、入力画像よりも高い周波数情報を持つ高解像度画像を出力画像として生成する処理を実行させるプログラムであって、入力画像群のうちの1つの入力画像を基準画像とし、基準画像以外の入力画像ごとに、環境条件に基づく基準画像に応じた探索エリアを設定するステップと、基準画像を用いて探索エリア内でテンプレートマッチング処理を行なうことで、基準画像以外の入力画像ごとの基準画像に対する位置ずれを推定するステップと、入力画像について、推定された位置ずれをパラメーターとして用いて超解像処理を実行するステップとをコンピューターに実行させる。
 この発明によると、低解像度である多視点の入力画像群から、画質の劣化を抑えて高解像度画像を生成することができる。
実施の形態にかかる画像処理装置の構成の基本的構成を示すブロック図である。 画像処理装置を具現化したデジタルカメラの構成を示すブロック図である。 画像処理装置を具現化したパーソナルコンピューターの構成を示すブロック図である。 画像処理装置のカメラに含まれるレンズの配置の具体例を表わした図である。 レンズの温度変化の、超解像処理に対する影響を説明するための図である。 レンズの温度変化の、超解像処理に対する影響を説明するための図である。 レンズの温度変化の、超解像処理に対する影響を説明するための図である。 画像処理装置での動作の流れを表わすフローチャートである。 各レンズからの入力画像の温度変化による画素位置のずれを説明するための図である。 図8のステップS1での、第1の位置ずれ推定処理としての位置ずれ概略推定処理の第1の具体例を説明するための図である。 図8のステップS2での、第2の位置ずれ推定処理としての位置ずれ推定処理を説明するための図である。 図8のステップS2での、第2の位置ずれ推定処理としての位置ずれ推定処理を説明するための図である。 図8のステップS2での、第2の位置ずれ推定処理としての位置ずれ推定処理を説明するための図である。 図8のステップS3での超解像処理の流れを表わした図である。 図14のステップ#33で用いられる劣化情報を説明するための図である。 劣化情報の具体例を表わした図である。 図8のステップS3での超解像処理の他の例を表わした図である。 位置ずれ概略推定処理の第2の例を表わした図である。 位置ずれ概略推定処理の第2の例を表わした図である。 位置ずれ概略推定処理の第2の例を表わした図である。 位置ずれ概略推定処理の第3の例を表わした図である。 位置ずれ概略推定処理の第3の例を表わした図である。 位置ずれ概略推定処理の第3の例を表わした図である。 位置ずれ概略推定処理の第3の例を表わした図である。 位置ずれ概略推定処理の第4の例を表わした図である。 位置ずれ概略推定処理の第4の例を表わした図である。 位置ずれ概略推定処理の第4の例を表わした図である。 位置ずれ概略推定処理の第4の例を表わした図である。 位置ずれ概略推定処理の第4の例を表わした図である。 位置ずれ概略推定処理の第4の例を表わした図である。 第2の変形例にかかる画像処理装置の構成の基本的構成を示すブロック図である。 図8の上記ステップS2での位置ずれ推定処理の第2の変形例を説明するための図である。 図8の上記ステップS2での位置ずれ推定処理の第2の変形例を説明するための図である。 図8の上記ステップS2での位置ずれ推定処理の第2の変形例を説明するための図である。 図8の上記ステップS2での位置ずれ推定処理の第2の変形例を説明するための図である。 図8の上記ステップS2での位置ずれ推定処理の第2の変形例を説明するための図である。 図8のステップS3の超解像処理に先だって行なわれる、パラメーター算出のための処理を表わすフローチャートである。 図37のステップ#11でのガウシアンフィルターの係数の換算方法を説明するための図である。 図37のステップ#12でのPSFの算出方法を説明するための図である。
 以下に、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらの説明は繰り返さない。
 <システム構成>
 図1は、本実施の形態にかかる画像処理装置1の構成の基本的構成を示すブロック図である。
 図1を参照して、画像処理装置1は、撮像部2と、画像処理部3と、画像出力部4とを含む。図1に示す画像処理装置1においては、撮像部2が被写体を撮像することで画像(以下、「入力画像」とも称する)を取得し、画像処理部3がこの取得された入力画像に対して後述するような画像処理を行なうことで、入力画像よりも高周波数成分を有する高解像度の出力画像(以下、「高解像度画像」とも称する)を生成する。そして、画像出力部4は、この高解像度画像を表示デバイスなどへ出力する。
 撮像部2は、対象物(被写体)を撮像して入力画像を生成する。より具体的には、撮像部2は、カメラ22と、カメラ22と接続されたA/D(Analog to Digital)変換部24とを含む。A/D変換部24は、カメラ22により撮像された被写体を示す入力画像を出力する。
 カメラ22は、被写体を撮像するための光学系であって、アレイカメラである。すなわち、カメラ22は、格子状に配置された視点の異なるN個のレンズ22a-1~22a-n(これらを代表させて、レンズ22aとも称する)と、レンズ22aにより形成された光学像を電気信号に変換するデバイスである撮像素子(イメージセンサー)22bとを含む。
 A/D変換部24は、撮像素子22bから出力される被写体を示す映像信号(アナログ電気信号)をデジタル信号に変換して出力する。撮像部2はさらに、カメラ各部分を制御するための制御処理回路などを含み得る。
 画像処理部3は、撮像部2によって取得された入力画像に対して、本実施の形態に従う画像処理方法を実施することで高解像度画像を生成する。より具体的には、画像処理部3は、後述する位置ずれ推定処理を行なうための位置ずれ推定部32と、超解像処理部36とを含む。位置ずれ推定部32は、さらに第1の位置ずれ推定処理を行なうための第1推定部321と第2の位置ずれ推定処理を行なうための第2推定部322とを含み、第1推定部321は、さらに、後述する探索エリアを設定するための設定部324を含む。また、超解像処理部36は、さらに、推定された位置ずれ等に基づいて、超解像処理に用いるパラメーターを算出するための算出部361を含む。
 超解像処理部36は、入力画像に対して後述する超解像処理を行なう。超解像処理とは、入力画像が持つナイキスト周波数を超える周波数情報を生成する処理である。その際に、位置ずれ推定部32は、後述する第1の位置ずれ推定処理および第2の位置ずれ推定処理を行なって、入力画像それぞれについて、基準画像からの位置ずれを推定する。
 画像出力部4は、画像処理部3によって生成される高解像度画像を表示デバイスなどへ出力する。
 図1に示す画像処理装置1は、各部を独立の装置で具現化したシステムとして構成することもできるが、汎用的には、以下に説明するデジタルカメラやパーソナルコンピューターなどとして具現化される場合が多い。そこで、本実施の形態に従う画像処理装置1の具現化例として、デジタルカメラでの具現化例とPC(パーソナルコンピューター)での具現化例とについて説明する。
 図2は、図1に示す画像処理装置1を具現化したデジタルカメラ100の構成を示すブロック図である。図2において、図1に示す画像処理装置1を構成するそれぞれのブロックに対応するコンポーネントには、図1と同一の参照符号を付している。
 図2を参照して、デジタルカメラ100は、CPU(Central Processing Unit)102と、デジタル処理回路104と、画像表示部108と、カードインターフェイス(I/F)110と、記憶部112と、カメラ部114とを含む。
 CPU102は、予め格納されたプログラムなどを実行することで、デジタルカメラ100の全体を制御する。デジタル処理回路104は、本実施の形態に従う画像処理を含む各種のデジタル処理を実行する。デジタル処理回路104は、典型的には、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、LSI(Large Scale Integration)、FPGA(Field-Programmable Gate Array)などによって構成される。このデジタル処理回路104は、図1に示す画像処理部3が提供する機能を実現するための画像処理回路106を含む。
 画像表示部108は、カメラ部114により提供される入力画像、デジタル処理回路104(画像処理回路106)によって生成される出力画像、デジタルカメラ100に係る各種設定情報、および、制御用GUI(Graphical User Interface)画面などを表示する。
 カードインターフェイス(I/F)110は、画像処理回路106によって生成された画像データを記憶部112へ書き込み、あるいは、記憶部112から画像データなどを読み出すためのインターフェイスである。記憶部112は、画像処理回路106によって生成された画像データや各種情報(デジタルカメラ100の制御パラメーターや動作モードなどの設定値)を格納する記憶デバイスである。この記憶部112は、フラッシュメモリ、光学ディスク、磁気ディスクなどからなり、データを不揮発的に記憶する。
 カメラ部114は、被写体を撮像することで入力画像を生成する。
 図2に示すデジタルカメラ100は、本実施の形態に従う画像処理装置1の全体を単体の装置として実装したものである。すなわち、ユーザーは、デジタルカメラ100を用いて被写体を撮像することで、画像表示部108において高解像度の画像を視認することができる。
 図3は、図1に示す画像処理装置1を具現化したパーソナルコンピューター200の構成を示すブロック図である。図3に示すパーソナルコンピューター200は、本実施の形態に従う画像処理装置1の一部を単体の装置として実装したものである。図3に示すパーソナルコンピューター200では、入力画像を取得するための撮像部2が搭載されておらず、任意の撮像部2によって取得された入力画像が外部から入力される構成となっている。このような構成であっても、本発明の実施の形態に従う画像処理装置1に含まれ得る。なお、図3においても、図1に示す画像処理装置1を構成するそれぞれのブロックに対応するコンポーネントには、図1と同一の参照符号を付している。
 図3を参照して、パーソナルコンピューター200は、パーソナルコンピューター本体202と、モニター206と、マウス208と、キーボード210と、外部記憶装置212とを含む。
 パーソナルコンピューター本体202は、典型的には、汎用的なアーキテクチャーに従う汎用コンピューターであり、基本的な構成要素として、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)などを含む。パーソナルコンピューター本体202は、図1に示す画像処理部3が提供する機能を実現するための画像処理プログラム204が実行可能になっている。このような画像処理プログラム204は、CD-ROM(Compact Disk-Read Only Memory)などの記憶媒体に格納されて流通し、あるいは、ネットワークを介してサーバー装置から配信される。そして、画像処理プログラム204は、パーソナルコンピューター本体202のハードディスクなどの記憶領域内に格納される。
 このような画像処理プログラム204は、パーソナルコンピューター本体202で実行されるオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち必要なモジュールを、所定のタイミングおよび順序で呼出して処理を実現するように構成されてもよい。この場合、画像処理プログラム204自体には、OSが提供するモジュールは含まれず、OSと協働して画像処理が実現される。また、画像処理プログラム204は、単体のプログラムではなく、何らかのプログラムの一部に組込まれて提供されてもよい。このような場合にも、画像処理プログラム204自体には、当該何らかのプログラムにおいて共通に利用されるようなモジュールは含まれず、当該何らかのプログラムと協働して画像処理が実現される。このような一部のモジュールを含まない画像処理プログラム204であっても、本実施の形態に従う画像処理装置1の趣旨を逸脱するものではない。
 もちろん、画像処理プログラム204によって提供される機能の一部または全部を専用のハードウェアによって実現してもよい。
 モニター206は、オペレーティングシステム(OS)が提供するGUI画面、画像処理プログラム204によって生成される画像などを表示する。
 マウス208およびキーボード210は、それぞれユーザー操作を受付け、その受付けたユーザー操作の内容をパーソナルコンピューター本体202へ出力する。
 外部記憶装置212は、何らかの方法で取得された入力画像を格納しており、この入力画像をパーソナルコンピューター本体202へ出力する。外部記憶装置212としては、フラッシュメモリ、光学ディスク、磁気ディスクなどのデータを不揮発的に記憶するデバイスが用いられる。
 図4は、カメラ22に含まれるレンズ22aの配置の具体例を表わした図である。図4の例では、一例として、カメラ22が、格子状に配置された16個のレンズ22a-1~22a-16(レンズA~P)を含むアレイカメラであるものとする。図4のレンズA~Pの間隔(基線長)は、縦方向および横方向ともに均一であるものとする。なお、カメラ22で撮影したときの、カメラ22からの入力画像A,B,C,E,F,G,I,J,K,L,M,N,O,Pは、それぞれ、レンズA~Pからの入力画像であることを表わすものとする。
 <動作概要>
 (課題の説明)
 レンズ22a等の部材は、環境条件によって変形することがある。特に、レンズ22aや、レンズ22aを保持する部材等がプラスチックなどの影響を受けやすい素材で形成されている場合、その変形率が大きい。そのため、入力画像がその変形の影響を受けることになり、その入力画像を用いる超解像処理が影響を受ける。なお、環境条件としては、たとえば温度や湿度などがあり、以下の説明では温度変化を例に挙げる。
 図5~図7は、レンズの温度変化の、超解像処理に対する影響を説明するための図である。詳しくは、図5を参照して、第1の影響として、レンズの温度変化によってレンズ22aと撮像素子(イメージセンサー)22bとの間の距離が変化し、それによって入力画像がぼけるという影響がある。たとえば、各レンズからの焦点が撮像素子22bのセンサー面上となるレンズ22aの位置を基準位置としたとき、レンズに対する30℃の温度変化によって焦点が基準位置から15~20μm程度ずれるため、撮像素子22bでセンシングされる画像がぼける。なお、この場合、色によって焦点の基準位置からのずれ量が多少異なる場合がある。
 また、図6を参照して、第2の影響として、レンズ22aを保持する部材の温度変化によってレンズピッチ(レンズの位置)が変わり、それによって入力画像における画素位置がずれるという影響がある。たとえば、レンズ22aを保持する部材に対して30℃の温度上昇があった場合、図6に表わされたように、外側に配置されたレンズほど大きい移動距離で、外側に移動するよう、レンズの位置が変化する。これにより、各入力画像における超解像処理に用いる画素位置が予め規定した位置からずれることになる。
 また、図7を参照して、第3の影響として、撮像素子(イメージセンサー)22bの温度変化によってセンサー面が変形(反るなど)し、それによって、レンズ22aからの入力画像群のうちの一部の入力画像や、1枚の入力画像中の一部領域がぼけるという影響がある。たとえば、各レンズからの焦点が撮像素子22bのセンサー面上となるレンズ22aの位置を基準位置としたとき、撮像素子22bに30℃の温度変化があった場合、図7に表わされたように、センサー面が基準位置から反るように変形する。これにより、各入力画像におけるぼけ方(ぼけ度合い)が、入力画像群に軸対称に変化することになる。
 レンズ22a等の部材の温度変化による変形の入力画像への影響は、図5に表わされた第1の影響が最も大きく、概ね、すべての入力画像に一律にぼけが含まれる。一方、図7に表わされた例ではレンズ位置ごとの変形量が異なるため入力画像ごとや、入力画像中の領域ごとにぼけ度合いが異なる。
 (動作概要)
 画像処理装置1では、アレイカメラであるカメラ22で撮影されることで得られる、それぞれ異なる視点の複数の入力画像について超解像処理を施し、高解像度画像を得る。このとき、画像処理装置1は、図6に表わされたそれぞれの入力画像における環境条件(温度変化等)による画素位置のずれを考慮して超解像処理を行なう。
 <動作フロー>
 (全体動作)
 図8は、本実施の形態にかかる画像処理装置1での動作の流れを表わすフローチャートである。図8を参照して、まず、画像処理装置1ではレンズ22aそれぞれで入力画像を取得する処理が実行されることで、16枚の入力画像が取得される。ここでは、たとえば1000×750画素程度の低解像度の画像が入力されるものとする。
 入力画像が取得されると、第1の位置ずれ推定処理として、位置ずれ概略推定処理が実行される(ステップS1)。ここでは、ピクセル単位(整数画素)でのずれ量が推定される。なお、ここではレンズ22aが温度変化によって位置が変化することによる、入力画像ごとの画素の位置ずれが推定される。
 次に、ピクセル単位でのずれ量に基づいて、第2の位置ずれ推定処理が実行される(ステップS2)。ここでは、サブピクセル単位(小数画素)でのずれ量が推定される。
 そして、位置ずれ量を考慮して超解像処理が実行され(ステップS3)、4000×3000画素程度の高解像度画像が出力画像として生成される。
 (位置ずれ概略推定)
 図9および図10は、上記ステップS1での、第1の位置ずれ推定処理としての位置ずれ概略推定処理の第1の具体例を説明するための図である。図9は、各レンズ22aからの入力画像の温度変化による画素位置のずれを説明するための図であって、一例として、30℃、温度が上昇した場合の入力画像を模式的に表わした図である。図9の温度上昇前の図(左図)において、16個の実線矩形はそれぞれ、入力画像A~Pを表わしている。図9の温度上昇後の図(右図)では、16個の細線矩形が温度上昇前の入力画像A~Pを表わし、16個の点線矩形が温度上昇後の入力画像A~Pを表わしている。
 図9を参照して、温度が上昇すると、各レンズ22aおよび図示しないレンズ22aを保持する部材が膨張するため、各入力画像の撮影範囲が中央を中心として全体的に拡大する。温度によるレンズ22aの位置のずれは、内側に配置されたレンズほど小さく、外側に配置されたレンズほど大きい。そのため、内側に配置されたレンズ(たとえばレンズF,G,J,K)からの入力画像の温度上昇前からのずれは、外側に配置されたレンズ(たとえばレンズA~E,H,I,L~P)からの入力画像のずれよりも小さい。そこで、好ましくは、画像処理装置1は、内側に配置されたレンズからの入力画像を上記ステップS1での基準画像として用いる。以下の例では、内側に配置されたレンズFからの入力画像Fを基準画像として用いるものとする。この場合、レンズFから最も離れた位置に配置されたレンズPからの入力画像Pが最も大きく位置がずれることになる。
 図9の例に表わされたように、一例として、入力画像上の位置の伸びが30℃の温度上昇に対して1/1000倍であるものとする。この場合、基準画像である入力画像Fと入力画像Pとの間の距離が、斜め方向(X方向、Y方向それぞれ)に4000画素であるとすると、入力画像Pが30℃の温度変化によって斜め方向(X方向、Y方向それぞれ)に4画素変化する、つまり、9×9画素の範囲で変化することになる。
 上記ステップS1では、基準画像である入力画像F上の、図9において黒丸で表わした画素(基準画素)Sの位置ずれを推定するものとすると、図10を参照して、基準画像である入力画像Fから視点が最も離れた入力画像Pの、温度変化による位置ずれがない場合に対応する画素S’が特定される(点線丸)。そして、30℃の温度変化における位置ずれを推定する場合、この画素S’を中心に、上記の30℃の画素の変化の範囲が、基準画素Sに対応する画素を探索するためのエリア(探索エリア)として設定される。すなわち、図10を参照して、上記の変化の量と変化の方向とから、30℃温度低下した場合に画素S’に対応する位置にある画素R1と、30℃温度上昇した場合の画素R2とが特定され、一例として、画素R1およびR2を対角とした矩形(太点線矩形)が探索エリアとして設定される。
 なお、上記の探索エリアは、温度変化に加えて、たとえば実際のレンズ22a間の距離等の設計値からのずれを考慮して、温度変化のみから設定されるエリアよりも広いエリアが設定されてもよい。
 上記探索エリア内に対して、入力画像Fの基準画素Sを含む画像を用いてテンプレートマッチング処理が行なわれて、基準画素Sと最も一致度が高い画素Tが基準画素Sに対応する位置にある画素として特定される。ここでのテンプレートマッチング処理の一例として、NCC(Normalized Cross Correlation)が挙げられる。他の例として、SAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)などであってもよい。上記ステップS1では、上記の処理が、入力画像Fの各画素について行なわれることで、各入力画像について、超解像処理に用いる画素が検出される。すなわち、図9の右図に示されたように、入力画像Pについて図10のようにして設定された探索エリアが、算出画像とされた入力画像Fおよび入力画像P以外の入力画像それぞれについて、同様に設定される。そして、各入力画像について探索エリアに対して上記のテンプレートマッチング処理が行なわれて、各入力画像における基準画素Sに対応する位置にある画素が特定される。
 (位置ずれ推定)
 図11~図13は、上記ステップS2での、第2の位置ずれ推定処理としての位置ずれ推定処理を説明するための図である。図11を参照して、参照画像である、温度変化後の入力画像P(点線矩形)について、上記ステップS1の第1の位置ずれ推定処理によって特定された、入力画像Fの基準画素Sに対応する画素Tを中心とした3×3画素の範囲などの画素Tに基づく規定範囲(太点線矩形)でのテンプレートマッチングにおける画素ごとの一致度(たとえばNCC値)(図12)を元に2次曲面フィッティングが行なわれ、サブピクセル単位での位置ずれが推定される。ステップS2の位置ずれ推定では、一例として、図13に表わされた、論文「位置ずれ量を考慮した画素選択に基づくロバスト超解像処理」(電子情報通信学会論文誌、Vol.J92-D、No.5、pp.650-660、2009、2009年5月)に記載された手法を採用することができる。すなわち、図12および図13に表わされたように、画素ごとの一致度のうち、最も一致度の高い画素の座標がずれ量として特定される。
 なお、ステップS2では、上記の2次曲面フィッティングに替えて、X座標およびY座標それぞれで2次曲線にフィッティングするなどの他の手法が採用されてもよい。
 (超解像処理)
 図14は、上記ステップS3での超解像処理の流れを表わした図である。図14では、具体例として、論文「Fast and Robust Multiframe Super Resolution」(IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 13, NO. 10, OCTOBER 2004 page.1327-1344)に記載された処理を行なう場合の超解像処理の流れが示されている。
 図14を参照して、ステップ#31で、入力画像のうちの1枚に対してバイリニア法等の補間処理を施して入力画像の解像度を超解像処理後の解像度である高解像度に変換することで、初期画像としての出力候補画像が生成される。
 ステップ#32で、ノイズにロバストに収束させるためのBTV(Bilateral Total Variation)量が算出される。
 ステップ#33で、上記生成された出力候補画像と16枚分の入力画像とが比較されて、残差が算出される。すなわち、ステップ#33では、上記生成された出力候補画像が、各入力画像とその劣化情報(超解像後の画像と入力画像との間の関係を示す情報)とに基づいて入力画像サイズに変換(低解像度化)されて(図15の#41)、16枚分の入力画像との差異が算出され、記録される。そして、その差異が、超解像処理後のサイズに戻され(図15の#43)、残差とされる。
 ステップ#34で、上記ステップ#31で生成された出力候補画像から算出された残差とBTV量とが減ぜられて次の出力候補画像が生成される。
 上記ステップ#31~#34の処理が、出力候補画像が収束するまで繰り返され、収束した出力候補画像が超解像処理後の出力画像として出力される。
 繰り返しは、おおよそ充分に収束する回数(たとえば200回)などの、予め規定された回数であってもよいし、一連の処理の都度、収束判定がなされ、その結果に応じて繰り返されてもよい。
 図15は、上記ステップ#33で用いられる劣化情報を説明するための図である。
 劣化情報とは、超解像処理後の高解像度画像に対する入力画像それぞれの関係を表わす情報を指し、たとえば行列形式で表わされる。劣化情報には、上記ステップS2で推定された入力画像それぞれのサブピクセルレベルでのずれ量、ダウンサンプリング量、およびぼけ量などが含まれる。
 図15を参照して、劣化情報は、入力画像および超解像処理後の高解像度画像それぞれを1次元のベクトル表現した場合に、その変換を示す行列で規定される。画像処理装置1は、上記ステップS1およびS2の推定処理にて推定された位置ずれに基づいて超解像処理に用いるパラメーターを算出し、劣化情報として組み込む。
 図16は、劣化情報の具体例を表わした図である。画像処理装置1は、画素のずれ量が0.25画素と推定され、ダウンサンプリング量が縦方向および横方向それぞれに1/4であった場合に、図16に表わされたような劣化情報を規定する。入力画像の内の1画素に対応した1か所と、超解像処理後の高解像度画像の16か所の16画素とが対応しているときに、劣化情報には、16か所に1/16の係数が記載されている。そのため、画素のずれ量が0.25画素である場合、高解像度画像の16画素それぞれに対してはそのずれ量の1/16分、寄与することになる。
 なお、上記ステップS3での超解像処理は、図14に表わされた処理に限定されるものではなく、複数枚の入力画像から1枚の画像を生成する再構成型超解像処理であれば他の処理が採用されてもよい。図17は、上記ステップS3での超解像処理の他の例を表わした図である。すなわち、図17を参照して、上記ステップS32で算出される拘束項はBTV量に替えて、たとえば、4近傍ラプラシアンなどの他のものが用いられてもよい(ステップ#32’)。
 [変形例1]
 上記ステップS1での位置ずれ概略推定処理は、図9および図10に表わされた処理に限定されるものではない。すなわち、位置ずれ概略推定処理において、図9および図10に示された処理では、探索エリアが、基準画像Fの視点(レンズF)と最も遠い視点(レンズP)との間の距離および方向と、環境条件(温度変化)に対して予め規定されている変形率とから特定され、その探索エリアが基準画像F以外の入力画像A~E,G~Pのそれぞれに設定されるものとしていた。しかしながら、探索エリアは、基準画像とする入力画像の視点と基準画像以外の入力画像のうちの少なくとも1つの入力画像の視点との位置関係と、環境条件(温度変化)とに基づいて設定されるものであれば、上記の方法以外であってもよい。
 位置ずれ概略推定処理の他の例として、探索エリアが、基準画像とする入力画像の視点と基準画像以外の入力画像それぞれの視点との間の距離および方向と、環境条件(温度変化)とに基づいて設定されてもよい。すなわち、入力画像ごとの画素のずれ量は基準画像からの距離(レンズ22aの距離)に応じて大きくなり、またずれる方向はレンズ22aの位置関係によって決まる。そのため、入力画像ごとに異なる探索エリアを設定してもよい。
 図18~図20は、位置ずれ概略推定処理の第2の例を表わした図である。位置ずれ概略推定処理の第2の例では、図18の右図に表わされたように、基準画像Fの視点(レンズF)と視点(レンズ)と間の距離および方向と、温度変化とに基づいて、入力画像ごとに探索エリアが設定される。
 一例として、図19に表わされたように、温度変化ごとに、基準画像に対する各入力画像における探索エリアが予め規定されており、画像処理装置1は、該当する温度変化に応じた探索エリアを、それぞれの入力画像に設定するようにしてもよい。すなわち、各入力画像の、温度変化による位置ずれがない場合に基準画素Sに対応する画素S’の位置を中心とした、図19から読み取られた範囲を、探索エリアとして設定してもよい(図18の右図)。図18および図19に示されるように、探索エリアは、基準画像から遠いほど広く、また放射状の方向に長く設定される。なお、図19のような関係に替えて、予め、温度変化と基準画像に対する各入力画像(の視点)と基づいて探索エリアを算出するための演算式を記憶しておき、画像処理装置1は、その演算式に温度変化と入力画像の視点とを入力することで、入力画像ごとの探索エリアを算出し各入力画像に設定してもよい。この演算式でも、図18および図19に示されたように、基準画像から遠いほど広く、また放射状の方向に長い探索エリアが算出されるものとする。このように探索エリアが設定されることで、位置ずれの推定精度を向上させることができると共に、基準画像に近い入力画像については探索エリアを狭くすることができるため、位置ずれの概略推定処理に要する時間を短縮し、処理を高速化することができる。
 なお、探索エリアの方向はこれまで例示されたように入力画像の方向と一致するものに限定されず、図20に示されたように、異なる方向であってもよい。すなわち、図20に示されたように、探索エリアは、基準画像からの方向に応じた方向で、各入力画像に設定されてもよい。このように探索エリアが設定されることで、位置ずれの推定精度を向上させることができると共に、基準画像からの方向に応じて放射状の方向に探索エリアを狭くすることができるため、位置ずれの概略推定処理に要する時間を短縮し、処理を高速化することができる。
 図21~図24は、位置ずれ概略推定処理の第3の例を表わした図である。位置ずれ概略推定処理の第3の例では、まず、図21の右図に表わされたように、入力画像群のうちの1つの入力画像を第2の基準画像とし、第2の基準画像での位置ずれの概略推定結果を用いて他の入力画像の探索エリアが設定される。詳しくは、基準画像Fの視点(レンズF)と第2の基準画像の視点(レンズ)と間の距離および方向と、温度変化とに基づいて、設定された探索エリア内でテンプレートマッチング処理が行なわれることで基準画素Sと最も一致度が高い画素として画素T’が検出される。好ましくは、第2の基準画像としては、基準画像の視点から近い入力画像であって、視点間のベクトルが斜め方向(X方向、Y方向それぞれ)の成分を有する入力画像が選択される。基準画像Fに対しては、好ましくは、入力画像Aが第2の基準画像として選択される。このようにすることで、後述するようにして各入力画像に対して設定される探索エリアを狭くすることができ、位置ずれの推定精度を向上させることができると共に、処理を高速化することができる。
 次に、図24に表わされたように、第2の基準画像における画素T’に基づいて基準画像および第2の基準画像以外の入力画像のそれぞれについて基準画素Sと最も一致度が高い画素が推定される(図24の黒丸)。そして、各入力画像における推定された画素に基づく所定範囲が探索エリアとして設定される(図24の太点線矩形)。
 より詳しくは、図22を参照して、第2の基準画像Aの、基準画像F上の基準画素Sに温度変化による位置ずれがない場合に対応する画素S”が特定され、画素S”を中心に、基準画像Fと第2の基準画像Aとの視点間の距離および方向と、温度変化(たとえば±30℃)による画素の変化量(たとえば1/1000倍)とから探索エリアが設定される(図22中の太点線矩形)。その探索エリア内で入力画像Fの基準画素Sを含む画像を用いてテンプレートマッチング処理が行なわれて、基準画素Sと最も一致度が高い画素T’が基準画素Sに対応する位置にある画素として特定される。
 次に、上記の入力画像Aについての位置ずれ概略推定処理の結果である画素S”と画素T’との位置関係に基づいて、各入力画像での、基準画素Sと最も一致度が高い画素が特定される。ここでは、一例として、図23に示されるように、予め、温度変化ごとの、基準画像上の基準画素の各入力画像における位置関係を記憶しておき、その位置関係の一つ(この例では入力画像Aの位置関係)に上記位置ずれ概略推定処理の結果(画素S”と画素T’との位置関係)を代入することで特定される。なお、図23では各入力画像における位置関係がテーブル形式で表わされているが、入力画像ごとの演算式として記憶されていてもよい。
 図24を参照して、各入力画像での基準画素Sと最も一致度が高い画素が特定されると、その画素に基づく所定範囲が探索エリアとして設定される(太点線矩形)。一例として、上記画素を中心とした、温度変化に応じて予め規定されている範囲が探索エリアとして設定されてもよい。このようにすることで、探索エリアをより狭くすることができるため、位置ずれの推定精度を向上させることができると共に、処理を高速化することができる。
 図25~図30は、位置ずれ概略推定処理の第4の例を表わした図である。位置ずれ概略推定処理の第4の例では、温度変化による位置ずれに加えて、基準画像とする入力画像とその他の入力画像との視点(レンズ22a)間の距離に応じて設定される、基準画像からの視差に基づく位置ずれを考慮して探索エリアが設定される。
 図25は、視差がある場合の各入力画像の具体例を示す図である。図25の例は、無限遠にある視差のない背景画像(不図示)に、被写体距離50cmに置かれたりんごが撮影されたときの各入力画像A~Pを表わしている。図25を参照して、背景部分には視差は生じないが、りんご部のみ温度が上がった場合と同様な、(全体として拡大方向の)画素の位置ずれが生じる。
 図26は、説明を簡易にするために温度変化を考慮せず、視差による位置ずれの推定を行なう場合を説明するための図であり、図27は、視差による位置ずれの推定する場合に設定される探索エリアの具体例を座標で表した図である。図26を参照して、視差による位置ずれを推定する場合も、各入力画像の基準画像F上の基準画素に対応する画素位置(視差なしの場合の画素位置)に対して探索エリア(太点線矩形)を設定し、その探索エリア内でテンプレートマッチング処理を実行することで最も一致度の高い画素が検出される。この場合も、図27に示されたように、各入力画像における視差用の探索エリア(推定範囲)は予め規定されていてもよいし、予め記憶している演算式を用いて算出してもよい。なお、視差は、画像全体として拡大して見える方向にしか現れないため、視差用の探索エリアは、視差なしの場合の画素位置を端部として設定される。
 図28は視差と温度変化との双方を考慮して画素の位置ずれを推定する場合の探索エリアの一例を表わす図であり、図29はその説明のための図である。図28および図29を参照して、視差と温度変化との双方を考慮する場合、温度変化による位置ずれを推定する際に設定される探索エリア(第1の探索エリア)と、視差による位置ずれを推定する際に設定される探索エリア(第2の探索エリア)との両エリアを含む(カバーする)範囲が探索エリアとして設定される。
 図30は、視差と温度変化との双方を考慮して画素の位置ずれを推定する場合に設定される探索エリアの具体例を座標で表した図であって、上記第1の探索エリアとして図19に表わされた探索エリアが設定され、上記第2の探索エリアとして図27に表わされた探索エリアが設定された場合の例を表わしている。図30を参照して、図29に図示されているように、一例として、この場合、探索エリアは、上記第1の探索エリアと第2の探索エリアとを足し合わせた(外接する)範囲とすることができる。
 なお、上記の探索エリアもまた、たとえば実際のレンズ22a間の距離等の設計値からのずれを考慮して、上記第1の探索エリアと第2の探索エリアとをカバーする範囲から設定されるエリアよりも広いエリアが設定されてもよい。また、図20で表わされたように入力画像の方向とは一致しない方向に設定されてもよいし、位置ずれ概略推定処理の第3の例で説明されたように、入力画像群のうちの1つの入力画像を第2の基準画像とし、第2の基準画像での位置ずれの概略推定結果を用いて他の入力画像の探索エリアを設定するようにしてもよい。
 [変形例2]
 第2の変形例として、画像処理装置1は、図5および図7に表わされたそれぞれの入力画像におけるぼけ度合いをさらに考慮して超解像処理を行なうようにしてもよい。
 図31は、第2の変形例にかかる画像処理装置1の構成の基本的構成を示すブロック図である。
 図31を参照して、画像処理装置1の第2推定部322は、図1の構成に加えて、ぼけ度合い推定処理を行なうためのぼけ度合い推定部323を含む。ぼけ度合い推定部323は、第2の位置ずれ推定処理の際にぼけ度合い推定処理を行なって、入力画像それぞれについて、基準画像からのぼけ度合いを推定する。
 第2の変形例にかかる画像処理装置1では、上記ステップS2でサブピクセル単位(小数画素)でのずれ量が推定される際に、ぼけ度合いも推定される。そして、上記ステップS3では、位置ずれ量およびぼけ度合いを考慮して超解像処理が実行される。
 図32~図36は、第2の変形例にかかる画像処理装置1で上記ステップS2で実行される、ぼけ度合いもさらに行なう場合の位置ずれ推定処理を説明するための図である。図32を参照して、第2の変形例での上記ステップS2では、基準画像として、入力画像F中の基準画素Sを含む範囲の画像の他に、その画像にぼけ度合いに応じたぼけを付加した画像が生成され、それぞれがテンプレートマッチング処理に用いられる。そして、これらぼけ度合いの異なる複数の基準画像を用いたテンプレートマッチング処理の結果、最も一致度(NCC度)の高い基準画像と参照画像中の位置とで、サブピクセル単位での位置ずれが推定されると共に、ぼけ度合いも推定される。
 図32の例では、「ぼけ度」0として入力画像F中の画像の他、「ぼけ度」1として入力画像F中の画像にぼけを付加した画像と、「ぼけ度」2としてぼけを付加した画像とが、それぞれ基準画像として生成され、用いられる。これら基準画像を用いた、画素Tに基づく規定範囲(点線矩形)での各テンプレートマッチング処理の結果、画素ごとの一致度(たとえばNCC値)が最も高い画素の座標がずれ量として特定されると共に、そのときの基準画像の示すぼけ度合いが、入力画像Pのその位置での、基準画像とされた入力画像に対するぼけ度合いと推定される。
 これは、参照画像が基準画像よりもぼけている場合には、ぼかした基準画像(図32の例では、「ぼけ度」2の基準画像)の方が参照画像と似てくるため、ぼけ度合いが推定できることになるためである。すなわち、ぼけ度合いが似た画像間で上記の位置ずれ推定処理を行なう方が画像同士の類似性が高くなるため、画素の推定精度が高くなるためである。
 なお、ぼけを付加した画像の生成方法の一例として、入力画像Fに対して平滑化フィルターを適用する方法が挙げられる。平滑化フィルターとしては、たとえば、ガウシアンフィルターや平均化フィルターなどが挙げられる。以下の説明では、ガウシアンフィルターを用いる場合を例に挙げる。ガウシアンフィルターとは、以下の式(1)に座標値(x,y)とぼけ度合いを表わす定数σとを代入することで得られる:
  f(x,y)=exp{-(x2+y2)/2/σ2}/2π/σ2 …式(1)。
 すなわち、図33を参照して、「ぼけ度」1の基準画像を生成するためには、定数σをσ=0.4としてガウシアンフィルターの係数が算出される。このとき、フィルターの係数の合計が1になるように正規化される。この係数のフィルターが「ぼけ度」0の基準画像である入力画像Fに適応されることにより、ぼけ度合いの異なる(「ぼけ度」1の)基準画像が生成される。さらに、よりぼけ方の進んだ「ぼけ度」2の基準画像を生成するためには、図33に示された方法と同様に、定数σをσ=0.6としてガウシアンフィルターの係数が算出される。
 なお、図33ではフィルターのサイズが3×3画素である例が示されているが、定数σの選び方によってサイズが異なってもよい。フィルター係数が0に近い(たとえば、0.01以下)と、フィルター処理にほとんど影響しなくなるので、実際のフィルター係数からフィルターサイズを決定するものとする。
 「ぼけ度」0の基準画像と、「ぼけ度」1の基準画像と、「ぼけ度」2の基準画像とのそれぞれを用いてパターンマッチング処理を行なった場合の、参照画像の画素Tに基づく規定範囲(画素Tの周辺8画素を含む9画素分の領域)の各画素についての一致度であるNCC値が、それぞれ、図34~図36のように得られたものとする。この場合、「ぼけ度」2の基準画像を用いたときの中央の画素のNCC値がこれらの中で最も高い値であるため、この画素に基づいて位置ずれ量が推定されると共に、「ぼけ度」2がこの参照画像のぼけ度合いであると推定される。
 第2の変形例では、上記ステップS3の超解像処理に先だって、推定されたぼけ度合いを用いて超解像処理に用いるパラメーターが算出される、超解像処理では、超解像後の画素ピッチに応じたパラメーターが必要となる。そのため、上記ステップS2の位置ずれ推定処理に用いられた、入力画像の画素ピッチに応じた平滑化フィルター(ガウシアンフィルター)の係数が、入力画像と出力画像との画素ピッチに応じて換算される。
 具体例として、上述のように、ぼけを付加するためにガウシアンフィルターが用いられる場合、超解像処理に用いられるパラメーターとしてPSF(Point Spread Function)を用いる。図37は、上記ステップS3の超解像処理に先だって行なわれる、パラメーター算出のための処理を表わすフローチャートである。すなわち、図37を参照して、はじめに、入力画像ごとに、上記ステップS2の位置ずれ推定処理で最もNCC値の高かった基準画像のぼけの付加に用いられたガウシアンフィルターの係数が、超解像処理後の画像の画素ピッチに換算され(ステップ#11)、PSFが算出される(ステップ#12)。
 図38は、上記ステップ#11でのガウシアンフィルターの係数の換算方法を説明するための図である。図39は、上記ステップ#12でのPSFの算出方法を説明するための図である。
 図38では超解像処理で縦横3倍の画素数にするとした場合のガウシアンフィルターの係数の換算方法が表わされている。超解像処理で縦横3倍の画素数にすることは、入力画像を1/3画素ピッチで細かくすることに相当する。そのため、ぼけを付加するために用いられたガウシアンフィルター(たとえば図33)の1/3画素間隔で係数を算出する必要がある。
 このとき、ぼけ度合いを表わす定数σは同じ値を用いる。つまり、σ=0.4の場合には、図38に表わされたように、1/3画素間隔とされた座標値(x,y)と「ぼけ度」1を表わす定数σ=0.4とを上記式(1)に代入することで係数が算出される。なお、ここでは座標値(x,y)の最大値を1としているが、定数σが大きくなると1.33や1.67などの1以上の座標値でのフィルター係数が無視できない数値となる。そのため、その場合には、図38に示された例より大きなフィルターサイズで係数を算出する。なお、図14~図16のように、超解像の劣化情報でダウンサンプリング量が1/4の場合には、ガウシアンフィルターの係数は、1/4画素間隔で算出する。
 次に、図39を参照して、レンズの設計値などに基づいて「ぼけ度」0の超解像画像の画素ピッチで定義されたPSFを図39の上図のように定義されたとする。そして、この係数を画素と同様に扱って図38の換算されたガウシアンフィルターを適用することにより、「ぼけ度」1に対応するパラメーターであるPSFが算出される。なお、この場合も、フィルター係数の合計が1になるように、正規化する。入力画像ごと、またはその部分領域ごとにこのようにして算出されたパラメーターを用いて劣化情報を規定し、上記ステップS3で超解像処理が実行される。
 <実施の形態の効果>
 本実施の形態にかかる画像処理装置1は上記処理を実行することで、入力画像ごとの、環境条件(温度変化等)による画素の位置ずれに応じて、入力画像群に対して超解像処理を行なうことができる。これにより、超解像処理後の高解像度画像のそれぞれの入力画像における画素の位置ずれによる画質の劣化を抑えることができる。
 また、画像処理装置1は、画素の位置ずれを検出する際に、基準画像とする入力画像の視点(レンズ)と基準画像以外の入力画像のうちの少なくとも1つの入力画像の視点(レンズ)との位置関係と、環境条件とに基づいて探索エリアを設定するため、効率のよい探索を可能として処理速度を向上させつつ、位置ずれの推定精度も向上させることができる。
 さらに、画像処理装置1は、位置ずれ推定処理において入力画像ごとのぼけ度合いも推定することで、さらに、入力画像ごとの、入力画像群のうちの1枚の基準画像に対するぼけ度合いに応じて、入力画像群に対して超解像処理を行なうことができる。これにより、超解像処理後の高解像度画像のそれぞれの入力画像のぼけ度合いの異なりによる画質の劣化もさらに抑えることができる。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 1 画像処理装置、2 撮像部、3 画像処理部、4 画像出力部、22 カメラ、22a レンズ、22b 撮像素子、24 変換部、32 位置ずれ推定部、36 超解像処理部、100 デジタルカメラ、104 デジタル処理回路、106 画像処理回路、108 画像表示部、112 記憶部、114 カメラ部、200 パーソナルコンピューター、202 パーソナルコンピューター本体、204 画像処理プログラム、206 モニター、208 マウス、210 キーボード、212 外部記憶装置、321 第1推定部、322 第2推定部、323 ぼけ度合い推定部、324 設定部、361 算出部。

Claims (11)

  1.  それぞれが共通する部分領域を有する多視点の入力画像群から、前記入力画像よりも高い周波数情報を持つ高解像度画像を作成して出力する画像処理装置であって、
     前記画像処理装置のコントローラーは、
     前記入力画像群のうちの1つの入力画像を基準画像とし、前記基準画像以外の入力画像ごとに、環境条件に基づく前記基準画像に応じた探索エリアを設定するための設定部と、
     前記基準画像を用いて前記探索エリア内でテンプレートマッチング処理を行なうことで、前記基準画像以外の入力画像ごとの前記基準画像に対する位置ずれを推定するための推定部と、
     前記入力画像について、推定された前記位置ずれをパラメーターとして用いて超解像処理を実行するための処理部とを備える、画像処理装置。
  2.  前記設定部は、前記基準画像とする入力画像の視点と前記基準画像以外の入力画像のうちの少なくとも1つの入力画像の視点との位置関係と、前記環境条件とに基づいて前記探索エリアを設定する、請求項1に記載の画像処理装置。
  3.  前記設定部は、前記基準画像の視点と前記多視点のうちの最も遠い視点との間の距離および方向と、前記環境条件に対して予め規定されている変形率とから特定した前記探索エリアを、前記基準画像以外の入力画像のそれぞれに設定する、請求項2に記載の画像処理装置。
  4.  前記設定部は、前記基準画像とする入力画像の視点と前記基準画像以外の入力画像それぞれの視点との間の距離および方向と、前記環境条件とに基づいて前記探索エリアを設定する、請求項2に記載の画像処理装置。
  5.  前記設定部は、前記基準画像の視点との位置関係に応じて選択された前記基準画像以外の入力画像のうちの1つの入力画像を第2の基準画像とし、前記第2の基準画像について推定された位置ずれに基づいて、前記基準画像および前記第2の基準画像以外の入力画像ごとに前記探索エリアを設定する、請求項2に記載の画像処理装置。
  6.  前記設定部は、前記環境条件に基づく前記基準画像に応じた前記探索エリアを第1の探索エリアとし、前記第1の探索エリアと、前記基準画像とする入力画像の視点から前記基準画像以外の入力画像それぞれの視点までの距離に応じて設定される、前記基準画像からの視差に基づく位置ずれを探索するための第2の探索エリアとを含むエリアを前記探索エリアとして設定する、請求項1~5のいずれかに記載の画像処理装置。
  7.  前記設定部は、前記入力画像群のうちの、前記多視点の中で内側に配置された視点の入力画像を前記基準画像とする、請求項1~6のいずれかに記載の画像処理装置。
  8.  前記基準画像に対してぼけ度合いに応じたぼけを付加して生成して前記テンプレートマッチング処理を行なうことで、前記入力画像のぼけ度合いを推定するためのぼけ度合推定部をさらに備え、
     前記処理部は、推定された前記ぼけ度合いもさらにパラメーターとして用いて前記超解像処理を実行する、請求項1~7のいずれかに記載の画像処理装置。
  9.  前記入力画像群は、互いに光軸が異なる複数レンズを含んだレンズアレイで得られる画像群である、請求項1~8のいずれかに記載の画像処理装置。
  10.  それぞれが共通する部分領域を有する多視点の入力画像群から、前記入力画像よりも高い周波数情報を持つ高解像度画像を出力画像として生成する方法であって、
     前記入力画像群のうちの1つの入力画像を基準画像とし、前記基準画像以外の入力画像ごとに、環境条件に基づく前記基準画像に応じた探索エリアを設定するステップと、
     前記基準画像を用いて前記探索エリア内でテンプレートマッチング処理を行なうことで、前記基準画像以外の入力画像ごとの前記基準画像に対する位置ずれを推定するステップと、
     前記入力画像について、推定された前記位置ずれをパラメーターとして用いて超解像処理を実行するステップとを備える、画像処理方法。
  11.  コンピューターに、それぞれが共通する部分領域を有する多視点の入力画像群から、前記入力画像よりも高い周波数情報を持つ高解像度画像を出力画像として生成する処理を実行させるプログラムであって、
     前記入力画像群のうちの1つの入力画像を基準画像とし、前記基準画像以外の入力画像ごとに、環境条件に基づく前記基準画像に応じた探索エリアを設定するステップと、
     前記基準画像を用いて前記探索エリア内でテンプレートマッチング処理を行なうことで、前記基準画像以外の入力画像ごとの前記基準画像に対する位置ずれを推定するステップと、
     前記入力画像について、推定された前記位置ずれをパラメーターとして用いて超解像処理を実行するステップとを前記コンピューターに実行させる、画像処理プログラム。
PCT/JP2014/052504 2013-02-26 2014-02-04 画像処理装置および画像処理方法 WO2014132754A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015502829A JPWO2014132754A1 (ja) 2013-02-26 2014-02-04 画像処理装置および画像処理方法
US14/770,330 US20160005158A1 (en) 2013-02-26 2014-02-04 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-035962 2013-02-26
JP2013035962 2013-02-26

Publications (1)

Publication Number Publication Date
WO2014132754A1 true WO2014132754A1 (ja) 2014-09-04

Family

ID=51428028

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/052504 WO2014132754A1 (ja) 2013-02-26 2014-02-04 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US20160005158A1 (ja)
JP (1) JPWO2014132754A1 (ja)
WO (1) WO2014132754A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI544785B (zh) * 2014-03-07 2016-08-01 聯詠科技股份有限公司 影像縮減取樣裝置與方法
US10346956B2 (en) * 2015-07-22 2019-07-09 Panasonic Intellectual Property Management Co., Ltd. Image processing device
GB2553284B (en) * 2016-08-23 2020-02-05 Thales Holdings Uk Plc Multilook coherent change detection
JP6885896B2 (ja) * 2017-04-10 2021-06-16 富士フイルム株式会社 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
CN107330854B (zh) * 2017-06-15 2019-09-17 武汉大学 一种基于新型模板的图像超分辨率增强方法
CN111179204B (zh) * 2020-01-16 2023-02-10 深圳市爱协生科技有限公司 一种将矩形图片处理成含有刘海边框的图片的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009053126A (ja) * 2007-08-29 2009-03-12 Topcon Corp 画像測定装置
JP2010021834A (ja) * 2008-07-11 2010-01-28 Nikon Corp 撮像装置
JP2010096723A (ja) * 2008-10-20 2010-04-30 Funai Electric Co Ltd 物体の距離導出装置
JP2011237997A (ja) * 2010-05-10 2011-11-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2012100129A (ja) * 2010-11-04 2012-05-24 Jvc Kenwood Corp 画像処理方法及び画像処理装置
JP2012256177A (ja) * 2011-06-08 2012-12-27 Canon Inc 画像処理方法、画像処理装置及びプログラム。

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697749B2 (en) * 2004-08-09 2010-04-13 Fuji Jukogyo Kabushiki Kaisha Stereo image processing device
US20090161982A1 (en) * 2007-12-19 2009-06-25 Nokia Corporation Restoring images
US8315474B2 (en) * 2008-01-18 2012-11-20 Sanyo Electric Co., Ltd. Image processing device and method, and image sensing apparatus
JP2013176468A (ja) * 2012-02-28 2013-09-09 Canon Inc 情報処理装置、情報処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009053126A (ja) * 2007-08-29 2009-03-12 Topcon Corp 画像測定装置
JP2010021834A (ja) * 2008-07-11 2010-01-28 Nikon Corp 撮像装置
JP2010096723A (ja) * 2008-10-20 2010-04-30 Funai Electric Co Ltd 物体の距離導出装置
JP2011237997A (ja) * 2010-05-10 2011-11-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2012100129A (ja) * 2010-11-04 2012-05-24 Jvc Kenwood Corp 画像処理方法及び画像処理装置
JP2012256177A (ja) * 2011-06-08 2012-12-27 Canon Inc 画像処理方法、画像処理装置及びプログラム。

Also Published As

Publication number Publication date
JPWO2014132754A1 (ja) 2017-02-02
US20160005158A1 (en) 2016-01-07

Similar Documents

Publication Publication Date Title
WO2014132754A1 (ja) 画像処理装置および画像処理方法
JP5997645B2 (ja) 画像処理装置及び方法、及び撮像装置
JP5978949B2 (ja) 画像合成装置及び画像合成用コンピュータプログラム
JP2007000205A (ja) 画像処理装置及び画像処理方法並びに画像処理プログラム
JP6518115B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム
JP6332951B2 (ja) 画像処理装置および画像処理方法、およびプログラム
WO2009096520A1 (ja) 対応点探索装置および対応点探索方法
JP2014164574A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10785484B2 (en) Motion vector calculation method, information processing apparatus, recording medium recording motion vector calculation program
JP6494402B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
JP6282133B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP2016164709A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2017011652A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
US11438570B2 (en) Data processing apparatus and data processing method for generation of calibration data for performing image processing
JP6614824B2 (ja) 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム
JP6532328B2 (ja) 画像処理装置、その制御方法、および制御プログラム
JP2012003503A (ja) 画像処理装置およびその制御方法、並びにプログラム
JP5587322B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2014077024A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
US9243935B2 (en) Distance information estimating apparatus
JP6671975B2 (ja) 画像処理装置、撮像装置、画像処理方法およびコンピュータプログラム
WO2014192642A1 (ja) 画像処理装置および画像処理方法
JP6751663B2 (ja) 画像処理装置、画像処理方法
JP2018072942A (ja) 画像処理装置、画像処理方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14756360

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015502829

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14770330

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14756360

Country of ref document: EP

Kind code of ref document: A1