WO2015005163A1 - 高解像度画像生成装置、高解像度画像生成方法及び高解像度画像生成プログラム - Google Patents

高解像度画像生成装置、高解像度画像生成方法及び高解像度画像生成プログラム Download PDF

Info

Publication number
WO2015005163A1
WO2015005163A1 PCT/JP2014/067386 JP2014067386W WO2015005163A1 WO 2015005163 A1 WO2015005163 A1 WO 2015005163A1 JP 2014067386 W JP2014067386 W JP 2014067386W WO 2015005163 A1 WO2015005163 A1 WO 2015005163A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
resolution
pixel
optical flow
target image
Prior art date
Application number
PCT/JP2014/067386
Other languages
English (en)
French (fr)
Inventor
秀明 前原
要介 石渡
博信 阿倍
竹内 浩一
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2015526272A priority Critical patent/JP5987114B2/ja
Priority to US14/891,059 priority patent/US9563937B2/en
Priority to EP14823455.2A priority patent/EP3021278A4/en
Publication of WO2015005163A1 publication Critical patent/WO2015005163A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the present invention relates to a high-resolution image generation apparatus that inputs an image obtained by imaging from an overlying platform such as an optical earth observation satellite and generates an image having a resolution higher than that of an original image.
  • the optical flow is complicated. This is because the multi-viewpoint image having parallax with each other can usually have different moving directions and amounts for each part of the image, although it can be usually expressed only by translation / rotation of the entire image. As described above, in the case of multi-view images having parallax with each other, the optical flow is complicated, and thus there is a high possibility that many errors are mixed when the optical flow is calculated by a normal means.
  • Patent Document 1 is a method of narrowing down the processing range based on the characteristics of radio wave images, and cannot solve the above-described problems when using multi-viewpoint images.
  • Patent Document 2 suppresses the influence of shielding, and cannot solve the above-described problem when using a multi-viewpoint image.
  • the present invention has been made to solve a problem assumed when performing high resolution processing (reconstruction super-resolution) using multi-viewpoint images as input, and depth information can be calculated from multi-viewpoint images. It is an object of the present invention to obtain a high-resolution image generation apparatus capable of generating a high-quality image by selecting good / bad portions of the optical flow from the results.
  • the high-resolution image generating apparatus is a high-resolution image generating apparatus that performs processing for increasing the resolution of an image to a higher resolution than the resolution of the image.
  • the target image to be increased in resolution, and a plurality of reference images obtained by capturing the imaging target of the target image from a viewpoint different from the viewpoint of the target image, and each of the target image and the plurality of reference images
  • An image storage unit that stores imaging device state information indicating an imaging state of the imaging device that captured the image in association with each of the target image and the plurality of reference images;
  • a plurality of sets including the target image and the reference image, wherein the reference images are different from each other, are extracted from the image storage unit, and each set is extracted for each pixel of the target image.
  • An optical flow calculation unit that calculates an optical flow including pixel-by-pixel correspondence information indicating a pixel of the reference image to which the pixel corresponds; Corresponds to each of the target image and the reference image included in the set among the optical flow for each set calculated by the optical flow calculation unit and the imaging apparatus state information stored in the image storage unit.
  • a depth information calculation unit that calculates depth information indicating the depth of each pixel of the target image for each set based on the imaging device state information Based on the depth information of at least two of the depth information for each set calculated by the depth information calculation unit, each of the correspondence information for each pixel included in the optical flow for each set is set to the height of the target image.
  • an optical flow determination unit that determines whether or not to use for resolution by a processing device.
  • the depth information calculation unit calculates the depth of each pixel of the target image for each set of the target image and the reference image based on the optical flow and the imaging device state information.
  • the depth information to be calculated is calculated, and the optical flow determination unit determines whether to use each piece of pixel correspondence information included in the optical flow for each set for increasing the resolution of the target image based on at least two depth information. Therefore, it is possible to obtain a high-resolution image generation apparatus capable of generating a high-quality image.
  • FIG. 10 It is a figure which shows the multiview image data 1222 (image 0004) based on this Embodiment.
  • A is a multi-viewpoint image 1221 (image 0004),
  • (b) is sensor position information 1231 (image 0004), and
  • (c) is sensor vector information 1232 (image 0004).
  • (A) is a multi-viewpoint image 1221 (image 0003),
  • (b) is sensor position information 1231 (image 0003), and
  • (c) is sensor vector information 1232 (image 0003).
  • OF0004to0005X which shows X component of the optical flow from the standard image 0004 to the reference image 0005.
  • FIG. It is a figure which shows the left half (from pixel (0,0) to pixel (31,63)) of the high-resolution image 125.
  • FIG. It is a figure which shows the right half (from a pixel (32,0) to a pixel (63,63)) of the high resolution image 125.
  • FIG. It is a gray scale display of the high-resolution image 125.
  • FIG. It is a figure which shows the left half (from pixel (0,0) to pixel (31,63)) of the high-resolution image 125a.
  • FIG. 1 is a diagram showing a block configuration of a high-resolution image generation apparatus 100 according to the present embodiment.
  • a block configuration of the high-resolution image generating apparatus 100 according to the present embodiment will be described with reference to FIG.
  • the high-resolution image generation apparatus 100 includes an optical flow calculation unit 101, a depth information calculation unit 102, an optical flow selection unit 103 (optical flow determination unit), a high-resolution image calculation unit 104 (high-resolution processing unit), and a hard disk 120 (image Storage unit) and display 130.
  • the hard disk 120 stores image capturing information 121.
  • the hard disk 120 may temporarily store an optical flow calculated by an optical flow calculation unit 101 described later as an optical flow 124.
  • the image capturing information 121 includes multi-view image information 122 and parameter information 123 corresponding to the multi-view image information 122.
  • the multi-viewpoint image information 122 is information on a plurality of images obtained by photographing the ground at different angles from the sky by a platform such as an optical observation satellite.
  • the multi-view image information 122 includes a multi-view image 1221 displayed in gray scale and multi-view image data 1222 indicating the density value of each pixel of the multi-view image 1221. Details of the multi-viewpoint image 1221 and the multi-viewpoint image data 1222 will be described later.
  • the hard disk 120 is an example of an image storage unit that stores multi-viewpoint image information 122 of a target image (standard image) to be increased in resolution and a plurality of reference images obtained by capturing the imaging target of the standard image from different viewpoints. It is.
  • the parameter information 123 is information on internal and external parameters when the multi-viewpoint image 1221 included in the multi-viewpoint image information 122 is captured.
  • the parameter information 123 is information such as the focal length, position, and posture of the camera or sensor.
  • the parameter information 123 includes, for example, sensor position information 1231 and sensor vector information 1232.
  • the parameter information 123 is an example of imaging apparatus state information indicating an imaging state of an imaging apparatus (camera, sensor, etc.) that captured the corresponding multi-viewpoint image 1221.
  • the optical flow calculation unit 101 extracts, from the hard disk 120, a plurality of sets including the base image and the reference image, and the reference images are different from each other, and for each extracted set, the optical flow is processed by the processing device. calculate.
  • the optical flow is information including pixel-by-pixel correspondence information representing pixels on the reference image to which each pixel corresponds for each pixel of the standard image.
  • the optical flow calculation unit 101 selects a plurality of sets of multi-view image information 122 from the hard disk 120 two by two, and calculates an optical flow between the two selected multi-view image information 122.
  • the depth information calculation unit 102 includes, for each set of optical flows calculated by the optical flow calculation unit 101 and the parameter information 123 stored in the hard disk 120, each image of the reference image and the reference image included in the set. Based on the parameter information 123 corresponding to the imaging information 121, depth information indicating the depth of each pixel of the reference image is calculated for each set. The depth of the image indicates a distance from an image pickup target sensor represented by the image or an altitude value.
  • the optical flow sorting unit 103 Based on at least two pieces of depth information among the depth information for each set calculated by the depth information calculation unit 102, the optical flow sorting unit 103 sets each piece of pixel correspondence information for each pixel included in the optical flow for each set. Is used by the processing device to determine whether or not to use for increasing the resolution of the reference image. That is, the optical flow sorting unit 103 collates the results of a plurality of distance calculations performed by the depth information calculation unit 102, and sorts the good / bad portions of the optical flow.
  • the high-resolution image calculation unit 104 includes pixel-by-pixel correspondence information for each pixel included in the optical flow for each set, for each pixel that is determined to be used to increase the resolution of the reference image by the optical flow selection unit 103 (good determination). Based on the correspondence information, the resolution of the reference image is increased. That is, the high-resolution image calculation unit 104 inputs the optical flow portion determined to be good and the corresponding image region, generates a high-resolution image, and the optical flow portion determined to be defective is high-resolution. It is not used for conversion.
  • the display 130 outputs and displays the generation result of the high resolution image.
  • FIG. 2 is a diagram illustrating an example of a hardware configuration of the high-resolution image generation apparatus 100 according to the present embodiment.
  • a hardware configuration example of the high-resolution image generation apparatus 100 will be described with reference to FIG.
  • the high resolution image generation apparatus 100 is a computer, and each element of the high resolution image generation apparatus 100 can be realized by a program. That is, each element of the optical flow calculation unit 101, the depth information calculation unit 102, the optical flow selection unit 103, and the high resolution image calculation unit 104 can be realized by a program.
  • an arithmetic device 901 As a hardware configuration of the high-resolution image generation device 100, an arithmetic device 901, an external storage device 902, a main storage device 903, a communication device 904, and an input / output device 905 are connected to the bus.
  • the arithmetic device 901 is a CPU (Central Processing Unit) that executes a program.
  • the external storage device 902 is, for example, a ROM (Read Only Memory), a flash memory, or a hard disk device.
  • the hard disk 120 is an example of the external storage device 902.
  • the main storage device 903 is a RAM (Random / Access / Memory).
  • the communication device 904 is, for example, a communication board or the like, and is connected to a LAN (Local / Area / Network) or the like.
  • the communication device 904 is not limited to a LAN, but includes an IP-VPN (Internet, Protocol, Private, Network), a wide area LAN, an ATM (Asynchronous / Transfer / Mode) network, a WAN (Wide / Area / Network), or the Internet. It does not matter if it is connected to.
  • LAN, WAN, and the Internet are examples of networks.
  • the input / output device 905 is, for example, a mouse, a keyboard, a display device, or the like. Instead of the mouse, a touch panel, touch pad, trackball, pen tablet, or other pointing device may be used.
  • the display device may be an LCD (Liquid / Crystal / Display), a CRT (Cathode / Ray / Tube), or another display device.
  • the display 130 is an example of a display device.
  • the program is normally stored in the external storage device 902, and is loaded into the main storage device 903 and sequentially read into the arithmetic device 901 and executed.
  • the program is a program that realizes the function described as “unit” shown in FIG.
  • an operating system (OS) is also stored in the external storage device 902. At least a part of the OS is loaded into the main storage device 903, and the arithmetic device 901 executes “OS” shown in FIG. ”Is executed.
  • An application program is also stored in the external storage device 902, and is sequentially executed by the arithmetic device 901 while being loaded in the main storage device 903. Information such as “ ⁇ table” is also stored in the external storage device 902.
  • Information, data, signal values, and variable values indicating the results of the processing are stored in the main storage device 903 as files. Yes.
  • data received by the high-resolution image generation device 100 is stored in the main storage device 903.
  • the encryption key / decryption key, random number value, and parameter may be stored in the main storage device 903 as a file.
  • FIG. 2 is merely an example of the hardware configuration of the high-resolution image generation apparatus 100, and the hardware configuration of the high-resolution image generation apparatus 100 is not limited to the configuration illustrated in FIG. It may be a configuration.
  • FIG. 3 is a flowchart showing the operation of the high-resolution image generation method performed by the high-resolution image generation apparatus 100 according to the present embodiment.
  • the optical flow calculation unit 101, the depth information calculation unit 102, the optical flow selection unit 103, the high-resolution image calculation unit 104, and the like cooperate with hardware resources such as a processing device, a storage device, and an input / output device. Realized by working.
  • the high-resolution image generation apparatus 100 implements a high-resolution image generation method by executing an optical flow calculation program, a depth information calculation program, an optical flow selection program, a high-resolution image calculation program, and the like using a processing device.
  • the high-resolution image generation process (high-resolution image generation process) (high-resolution image generation step) by the high-resolution image generation apparatus 100 will be described with reference to FIG.
  • “to treatment” can also be referred to as “to process” and “to step”.
  • ⁇ Optical flow calculation processing S110> First, the optical flow calculation process by the optical flow calculation unit 101 will be described. It is assumed that the hard disk 120 shown in FIG. 1 stores a standard image 0004 that is a target for high resolution, a reference image 0003 captured from a different viewpoint from the standard image 0004, and image capturing information 121 related to the reference image 0005. . In some cases, the reference image 0003, the standard image 0004, and the reference image 0005 are simply referred to as an image 0003, an image 0004, and an image 0005.
  • FIG. 4 is a diagram showing multi-viewpoint image data 1222 (image 0005) according to the present embodiment.
  • 5A is a diagram showing multi-viewpoint image 1221 (image 0005)
  • FIG. 5B is sensor position information 1231 (image 0005)
  • FIG. 5C is sensor vector information 1232 (image 0005).
  • FIG. 6 is a diagram showing multi-viewpoint image data 1222 (image 0004) according to the present embodiment.
  • 7A is a diagram showing multi-viewpoint image 1221 (image 0004)
  • FIG. 7B is sensor position information 1231 (image 0004)
  • FIG. 7C is sensor vector information 1232 (image 0004).
  • FIG. 8 is a diagram showing multi-viewpoint image data 1222 (image 0003) according to the present embodiment.
  • 9A is a diagram showing multi-viewpoint image 1221 (image 0003)
  • FIG. 9B is sensor position information 1231 (image 0003)
  • FIG. 9C is sensor vector information 1232 (image 0003).
  • the optical flow calculation unit 101 inputs a plurality of image capturing information 121 from the hard disk 120. Three pieces of image capturing information 121 are input.
  • the images indicated by the three image capturing information 121 are a reference image 0003, a standard image 0004, and a reference image 0005.
  • parentheses (0005) are added as in the multi-view image data 1222 (0005), the multi-view image data 1222 for the reference image 0005 is indicated.
  • the image capturing information 121 includes the multi-viewpoint image information 122 and the parameter information 123 as information related to the image.
  • the multi-view image information 122 is image information and includes a multi-view image 1221 and multi-view image data 1222.
  • the parameter information 123 includes sensor position information 1231 and sensor vector information 1232.
  • the multi-viewpoint image data 1222 (0005) shown in FIG. 4 is displayed by rescaling the density value of each pixel of the multi-viewpoint image 1221 (0005) from 0 to 99.
  • Multi-viewpoint image data 1222 (0005) is pixel data that takes values of 0 to 31 in both the horizontal and vertical directions.
  • a multi-viewpoint image 1221 (0005) shown in FIG. 5A is a grayscale display of the reference image 0005.
  • the sensor position information 1231 shown in FIG. 5B indicates the position of the sensor when the image 0005 is captured for each pixel in the earth center coordinates. Imaging is performed by the line sensor from the right side, and therefore the coordinates in the column direction are the same.
  • sensor vector information 1232 shown in FIG. 5C indicates a vector from the sensor center to the ground surface when the image 0005 is captured for each pixel. Imaging is performed by the line sensor from the right side, and the vectors in the row direction are the same.
  • the optical flow calculation unit 101 reads the image capturing information 121 of the images 0003, 0004, and 0005 from the hard disk 120, and calculates an optical flow according to the following procedure.
  • the A image is referred to as “reference image”
  • the B image is referred to as “reference image”.
  • the optical flow from the A image to the B image and the optical flow from the B image to the A image are calculated.
  • the optical flow from the A image to the B image is represented as OFAtoBX / Y
  • the optical flow from the B image to the A image is represented as OFBtoAX / Y.
  • An optical flow OF0004to0005X / Y from the standard image 0004 to the reference image 0005 is calculated using the standard image 0004 as a standard image and the image 0005 as an image.
  • an optical flow OF0005to0004X / Y from the reference image 0005 to the standard image 0004 is calculated using the reference image 0005 as a standard image and the standard image 0005 as a reference image.
  • the optical flow calculation unit 101 calculates an optical flow using the multi-viewpoint image data 1222.
  • the optical flow calculation unit 101 calculates an optical flow for each pixel of the multi-view image data 1222 of the reference image.
  • a partial image having a predetermined size centered on a pixel for which an optical flow is to be obtained is cut out.
  • a place having the highest correlation between the overlapping pixels is found. This method is called an area correlation method and is a well-known method, and thus detailed description thereof is omitted.
  • the optical flow calculation unit 101 calculates a numerical value indicating which location of the reference image each pixel of the reference image corresponds to. In the optical flow, the numerical value corresponding to each pixel is used as pixel-by-pixel correspondence information.
  • FIG. 10 is a diagram showing OF0004to0005X indicating the X component (horizontal direction) of the optical flow from the standard image 0004 to the reference image 0005.
  • FIG. 11 is a diagram illustrating OF0004to0005Y indicating the Y component (vertical direction) of the optical flow from the standard image 0004 to the reference image 0005.
  • FIG. 12 is a diagram illustrating OF0005to0004X indicating the X component (horizontal direction) of the optical flow from the reference image 0005 to the base image 0004.
  • FIG. 13 is a diagram illustrating OF0005to0004Y indicating the Y component (vertical direction) of the optical flow from the reference image 0005 to the base image 0004.
  • the unit of the numerical value of each pixel of the optical flow is 0.1 pixel. Also, in FIGS. 10 to 13, the numerical value surrounded by the thick line indicates that it is negative. Each value of the optical flow indicates the amount of movement of each pixel of the reference image in the reference image.
  • the optical flow OF0004to0005X / Y from the reference image 0004 to the reference image 0005 will be described with a specific example.
  • the movement amount in the X direction corresponding to the pixel (13, 7) of the reference image 0004 is 12.
  • the amount of movement in the Y direction corresponding to the pixel (13, 7) of the reference image 0004 is ⁇ 4. This is because the pixels on the reference image 0005 corresponding to the pixel (13, 7) of the standard image 0004 are 1.2 pixels on the right and 0.4 on the right from the position of the pixel (13, 7) of the standard image 0004. Indicates that the pixel is located. That is, the coordinates of the pixel on the reference image 0005 corresponding to the pixel (13, 7) of the standard image 0004 are (14.2, 6.6).
  • the optical flow OF0005to0004X / Y from the reference image 0005 to the base image 0004 will be described with a specific example.
  • the amount of movement in the X direction corresponding to the pixel (6, 7) of the reference image 0005 is ⁇ 6.
  • the amount of movement in the Y direction corresponding to the pixel (6, 7) of the reference image 0005 is 4. This is because the pixels on the base image 0004 corresponding to the pixel (6, 7) of the reference image 0005 are 0.6 pixel on the left and 0.4 on the bottom from the position of the pixel (6, 7) of the reference image 0005. Indicates that the pixel is located.
  • the optical flow calculation unit 101 also calculates optical flows OF0004to0003X / Y and OF0003to0004X / Y of the base image 0004 and the reference image 0003.
  • the depth information calculation unit 102 calculates the depth (sensor) for each pixel of the reference image 0004 from the optical flow calculated by the optical flow calculation unit 101 and the sensor position information 1231 and sensor vector information 1232 stored in the hard disk 120. Distance or altitude). The result of calculating the depth for each pixel of the reference image 0004 is defined as depth information.
  • the depth information calculation unit 102 calculates the sensor position (px, py, pz) and sensor vector from the sensor position information 1231 and sensor vector information 1232 for the pixel of the reference image 0004 to be calculated (referred to as a calculation target pixel). (Vx, vy, vz) is taken out from the hard disk 120. Then, the depth information calculation unit 102 calculates a straight line l determined from the extracted sensor position (px, py, pz) and the sensor vector (vx, vy, vz).
  • the depth information calculation unit 102 refers to the optical flow given for the calculation target pixel, and acquires pixel coordinates on the reference image 0005.
  • an optical flow from the standard image 0004 to the reference image 0005 is used. That is, the pixel coordinates on the reference image 0005 are acquired using the optical flow OF0004to0005X / Y from the standard image 0004 to the reference image 0005.
  • the depth information calculation unit 102 calculates a straight line l ′ determined from the sensor position (px ′, py ′, pz ′) given to the pixel coordinates on the reference image and the sensor vector (vx ′, vy ′, vz ′). calculate.
  • the depth information calculation unit 102 obtains an intersection point between the straight line l calculated from the calculation target pixel of the standard image and the straight line l ′ calculated from the pixel coordinates of the reference image obtained in the optical flow. This intersection is a position in the earth center coordinates of the imaging target represented by the calculation target pixel of the reference image 0004. In this way, the depth information calculation unit 102 calculates the position of each pixel of the reference image in the earth center coordinates.
  • the respective earth center coordinates are obtained using straight lines corresponding to the four nearest pixels of the pixel coordinates on the reference image, and the earth center coordinates of the calculation target pixel are obtained by performing linear interpolation.
  • the earth center coordinates can be converted into a distance from the earth ellipsoid by converting into the latitude / longitude coordinate system.
  • the intersection of the two straight lines is obtained. However, if the two straight lines do not intersect, the middle point is regarded as the intersection at the position where the distance between the two straight lines is the shortest.
  • the depth information calculation unit 102 calculates the elevation value at the earth center coordinates of the calculation target pixel by subtracting the geoid height from the distance from the earth ellipsoid of the earth center coordinates of the calculation target pixel.
  • FIG. 14 is a diagram illustrating a result of converting the earth center coordinates calculated for each pixel of the standard image 0004 to an altitude value using the optical flow OF0004to0005X / Y from the standard image 0004 to the reference image 0005.
  • FIG. 15 is a diagram illustrating a result of converting the earth center coordinates calculated for each pixel of the standard image 0004 to an altitude value using the optical flow OF0004to0003X / Y from the standard image 0004 to the reference image 0003.
  • the depth of each pixel is not limited to the altitude value, and the distance from the sensor may be used as the depth.
  • the value replaced with the altitude value is used as the depth calculation result.
  • FIG. 16 is a diagram illustrating a result of calculating an absolute value of a difference between the calculation result of the elevation value illustrated in FIG. 14 and the calculation result of the elevation value illustrated in FIG.
  • the optical flow selection unit 103 extracts two depth information from the depth information calculated by the depth information calculation unit 102, calculates a difference in depth for each pixel of the reference image using the extracted two depth information, When the calculated difference is less than the threshold value, it is determined that the per-pixel correspondence information of the optical flow corresponding to the calculation target pixel of the reference image is a good portion that can be used for increasing the resolution of the reference image.
  • the optical flow sorting unit 103 extracts the calculation result of the altitude value shown in FIG. 14 and the calculation result of the altitude value shown in FIG. 15 and obtains a difference (absolute value) for each pixel (FIG. 16). . Further, the optical flow sorting unit 103 records, for example, a location (pixel) where the difference is 3 m or more as a defective location. Recording as a defective part is not limited to a difference of 3 m or more, and can be changed as appropriate, such as 2 m, 4 m, and 5 m.
  • the high-resolution image calculation unit 104 inputs the standard image 0004, the reference image 0005, the reference image 0003, the optical flow OF0004to0005X / Y, and the OF0005to0004X / Y optical flow OF0004to0003X / Y and OF0003to0004X / Y, according to the following procedure. An image having a resolution twice that of the reference image 0004 is generated.
  • the high resolution image calculation unit 104 creates an image 0004 ′ having a double resolution from the reference image 0004 by linear interpolation.
  • the image 0004 ′ is created with the resolution being doubled, but the image 0004 is simply doubled, and the resolution is not increased.
  • 17 and 18 are views showing an image 0004 ′ having a double resolution created from the reference image 0004.
  • FIG. 17 is a diagram illustrating the left half (from pixel (0, 0) to pixel (31, 63)) of the image 0004 ′.
  • FIG. 18 is a diagram illustrating the right half (from pixel (32,0) to pixel (63,63)) of the image 0004 ′.
  • FIG. 19 is a grayscale display of the image 0004 ′.
  • the high-resolution image calculation unit 104 performs an optical flow (from the reference image to the reference image) of the base image 0004, the reference image 0005, and the reference image 0003 with respect to the image 0004 ′ of FIGS. , 1/2 downsampling is performed. That is, 1/2 downsampling is performed using OF0005to0004X / Y (corresponding to the reference image 0005), OF0003to0004X / Y (corresponding to the reference image 0003), and OF0004to0004X / Y (corresponding to the standard image 0004). Since the optical flow OF0004to0004X / Y of the reference image 0004 refers to itself from itself, 0 is applied to both the X component and the Y component.
  • x ′ (x ⁇ 15) ⁇ 2-1 + flowX (x, y) / 10 ⁇ 2 + 31 (Formula 1)
  • y ′ (y ⁇ 15) ⁇ 2-1 + flowY (x, y) / 10 ⁇ 2 + 31 (Formula 2)
  • the high-resolution image calculation unit 104 calculates coordinates (x ′, y ′) on the image 0004 ′, and performs linear interpolation from data of four coordinates (x ′, y ′) around (x, y). The value of (x, y) is obtained.
  • FIG. 20 is a diagram illustrating a result of 1/2 downsampling using OF0004to0004X / Y (corresponding to the reference image 0004).
  • FIG. 21 is a diagram illustrating a result of 1/2 downsampling using OF0005to0004X / Y (corresponding to the reference image 0005).
  • FIG. 22 is a diagram illustrating a result of 1/2 downsampling using OF0003to0004X / Y (corresponding to the reference image 0003).
  • the high resolution image calculation unit 104 calculates the difference between the downsampling results of FIGS. 20 to 22 and the base image 0004, the reference image 0005, and the reference image 0003.
  • FIG. 23 shows the result of calculating the difference between the downsampling result using OF0004to0004X / Y (corresponding to the reference image 0004) and the reference image 0004.
  • FIG. 24 shows the result of calculating the difference between the downsampling result using OF0005to0004X / Y (corresponding to the reference image 0005) and the reference image 0005.
  • FIG. 25 shows the result of calculating the difference between the downsampling result using OF0003to0004X / Y (corresponding to the reference image 0003) and the reference image 0003.
  • the numerical value surrounded by a thick line indicates that it is negative.
  • the high-resolution image calculation unit 104 performs the difference calculation results of FIGS. 20 to 22 based on the optical flows (from the reference image to the reference image) of the reference image 0004, the reference image 0005, and the reference image 0003, respectively.
  • Perform 2/1 upsampling That is, 2/1 upsampling is performed using OF0004to0005X / Y (corresponding to the reference image 0005), OF0004to0003X / Y (corresponding to the reference image 0003), and OF0004to0004X / Y (corresponding to the standard image 0004).
  • the optical flow OF0004to0004X / Y of the reference image 0004 refers to itself from the self as in the case described above, 0 is applied to both the X component and the Y component.
  • x ′ (x ⁇ 31) /2 ⁇ 0.25 ⁇ flowX ([x / 2], [y / 2]) / 10/2 + 15 (formula 3)
  • y ′ (y ⁇ 31) /2 ⁇ 0.25 ⁇ flowY ([x / 2], [y / 2]) / 10/2 + 15 (formula 4)
  • the high resolution image calculation unit 104 upsamples the difference of the reference image 0005 by 2/1 using OF0004to0005X / Y (corresponding to the reference image 0005).
  • 26 and 27 are diagrams illustrating the results of 2/1 upsampling the difference of the reference image 0005 using OF0004to0005X / Y (corresponding to the reference image 0005).
  • FIG. 26 is a diagram illustrating the left half (from pixel (0, 0) to pixel (31, 63)) of the result of up-sampling the difference of the reference image 0005 by 2/1.
  • FIGS. 26 and 27 are diagram illustrating the right half (from pixel (32,0) to pixel (63,63)) of the result of up-sampling the difference of the reference image 0005 by 2/1.
  • the numerical value surrounded by the thick line indicates that it is negative.
  • the high-resolution image calculation unit 104 uses OF0004to0004X / Y (corresponding to the standard image 0004) and OF0004to0003X / Y (corresponding to the reference image 0003) for the difference between the standard image 0004 and the difference between the reference images 0003. Perform 2/1 upsampling.
  • the high resolution image calculation unit 104 updates the image 0004 '(see FIGS. 17 and 18) based on the 2/1 upsampling result.
  • the high resolution image calculation unit 104 updates the image 0004 ′ according to Equation 5 below.
  • the function Valid (x, y) is assumed to be a function that returns 0 when the difference in elevation value of the coordinates (x, y) shown in FIG. That is, the function Valid (x, y) is a function that outputs 1 when the coordinate (x, y) is a good part and outputs 0 when the coordinate is a defective part.
  • d0004 (x, y) is the value of the coordinate (x, y) in the 2/1 upsampling result of the difference from the reference image 0004, and d0005 (x, y) is the 2/1 upsampling of the difference from the reference image 0005.
  • the value of coordinates (x, y) in the result, d0003 (x, y), indicates the value of coordinates (x, y) in the 2/1 upsampling result of the difference from the reference image 0003.
  • v (x, y) represents a value before update of coordinates (x, y) on the image 0004 ′
  • v ′ (x, y) represents a value after update.
  • is a constant, and 0.25 is used in this embodiment.
  • [X] represents a maximum integer smaller than x.
  • v ′ (x, y) v (x, y) + ⁇ ⁇ (d0004 (x, y) + d0005 (x, y) + d0003 (x, y)) ⁇ Valid ([x / 2], [y / 2] (Formula 5)
  • the high-resolution image calculation unit 104 updates the image 0004 ′ using only the good part of the optical flow, and outputs the high-resolution image 125 obtained by increasing the resolution of the reference image 0004.
  • 28 and 29 are diagrams showing a high-resolution image 125 that is a result of increasing (updating) the resolution of the image 0004 ′.
  • FIG. 28 is a diagram illustrating the left half (from pixel (0, 0) to pixel (31, 63)) of the high-resolution image 125.
  • FIG. 29 is a diagram illustrating the right half (from pixel (32, 0) to pixel (63, 63)) of the high-resolution image 125.
  • FIG. 30 is a grayscale display of the high resolution image 125.
  • the high-resolution image calculation unit 104 repeats the steps of 1/2 downsampling, difference calculation, 2/1 upsampling, and updating until a predetermined number of times is reached.
  • the high-resolution image calculation unit 104 repeats the above procedure (1/2 downsampling / difference calculation / 2/1 upsampling / update procedure), for example, 10 times.
  • FIGS. 31 and 32 show the results of repeating the procedure 10 times. It is a figure which shows the high-resolution image 125a which is.
  • FIG. 31 is a diagram showing the left half (from pixel (0, 0) to pixel (31, 63)) of the high-resolution image 125a.
  • FIG. 32 is a diagram illustrating the right half (from pixel (32,0) to pixel (63,63)) of the high-resolution image 125a.
  • FIG. 33 is a grayscale display of the high resolution image 125a.
  • High resolution (super-resolution) processing based on an algorithm called IBP (Iterative Backward Projection) method has been described.
  • IBP Intelligent Backward Projection
  • High resolution (super-resolution) processing can also be performed by a MAP (Maximum / A / Posterori) method or the like.
  • the input image is implemented as three images, but any number of images can be implemented as long as there are two or more images.
  • the input images are assumed to have the same resolution, the same can be performed using images having different resolutions.
  • two depth calculation results are compared and a portion where the difference is more than 3 m is determined as defective.
  • three or more depth calculation results are compared, and the failure is focused on variance or standard deviation. It can also be implemented to make a determination. Further, when obtaining a standard deviation or the like, it is also possible to perform a pre-processing for outlier removal by the Smirnov-Grubbs test method or the like.
  • the high-resolution image generation apparatus 100 is configured to display multi-viewpoint images captured from different directions and internal / external parameters (such as the focal length, position / orientation of the sensor or camera). For each of a plurality of optical flows, a multi-view image storage means for storing the image), an optical flow calculation means for selecting a plurality of sets of images from the multi-view images, and calculating an optical flow between the selected images.
  • a multi-view image storage means for storing the image
  • an optical flow calculation means for selecting a plurality of sets of images from the multi-view images, and calculating an optical flow between the selected images.
  • the depth calculation means for calculating the depth of the image is compared with the results of multiple depth calculations, Optical flow selection means for selecting good and bad parts, and optical flow part selected as good parts An input portion of an image corresponding thereto, the calculation of high-resolution images, and a high-resolution image calculating means.
  • the “optical flow calculation unit”, the “depth information calculation unit”, the “optical flow selection unit”, and the “high resolution image calculation unit” are used as independent functional blocks. It is composed.
  • the present invention is not limited to this.
  • an “optical flow calculation unit” and a “depth information calculation unit” are realized by one functional block, and an “optical flow selection unit” and a “high resolution image calculation unit” are provided. You may implement
  • the high-resolution image generation apparatus 100 may be configured by further dividing one functional block into a plurality of functional blocks. Alternatively, these functional blocks may be configured in any other combination.
  • 100 high-resolution image generation apparatus 101 optical flow calculation unit, 102 depth information calculation unit, 103 optical flow selection unit, 104 high-resolution image calculation unit, 120 hard disk, 121 image capturing information, 122 multi-view image information, 123 parameter information, 125, 125a High-resolution image, 130 display, 901 arithmetic device, 902 external storage device, 903 main storage device, 904 communication device, 905 input / output device, 1221 multi-view image, 1222 multi-view image data, 1231 sensor position information, 1232 Sensor vector information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

 オプティカルフローの良・不良部位の選別を行うことで、高品位な画像生成が可能な高解像度画像生成装置を得ることを目的とする。基準画像及び複数の参照画像の多視点画像情報(122)とパラメータ情報(123)とを記憶するハードディスク(120)と、基準画像と参照画像との複数の組であって、参照画像が互いに異なる複数の組を抽出し、組毎にオプティカルフローを計算するオプティカルフロー計算部(101)と、オプティカルフロー(124)とパラメータ情報(123)とに基づいて、組毎に基準画像の各画素の奥行きを示す奥行き情報を計算する奥行き情報計算部(102)と、2つの奥行き情報に基づいて、組毎のオプティカルフローに含まれる画素毎の対応情報のそれぞれを基準画像の高解像度化に用いるか否かを判定するオプティカルフロー選別部(103)とを備える。

Description

高解像度画像生成装置、高解像度画像生成方法及び高解像度画像生成プログラム
 本発明は、光学地球観測衛星など上空のプラットフォームからの撮像によって得られる画像を入力し、オリジナルの画像の解像度より高い解像度の画像を生成する高解像度画像生成装置に関する。
 高解像度画像の生成に関する先行技術としては、電波観測衛星から取得された画像において、画像の劣化範囲を予め特定し、高解像度化を行う処理から除外することで、高解像度化において発生する問題を回避する方法が述べられている(特許文献1参照)。
 また、動画像を入力とする高解像度化処理において、物体が他の物体の前面を通過するときなどに発生する遮蔽の影響を抑える目的で、遮蔽パタンを検出して処理から除外することにより、高品位な高解像度化処理を可能とする方法が述べられている(特許文献2参照)。
特許4305148号公報 特開2009-146231号公報
 画像を高解像度化する方法には複数のタイプが存在するが、ここでは複数枚(通常は4枚以上)の画像を用いることにより被写体の標本化密度を増やし、高解像度の画像を正しく復元するという再構成型超解像と呼ばれる計算機処理を対象とする。この再構成型超解像を行うためには、画像間のオプティカルフロー(同じ被写体の部位を記録した画素同士の対応付け)を計算する必要がある。
 例えば、異なる方向から複数回の撮影を行うことによって得られる多視点画像がある。多視点画像は互いに視差を持つため、オプティカルフローが複雑となる。これは、通常は画像全体の並進・回転のみで表現できる場合が多いが、互いに視差を持つ多視点画像は、画像の部位毎に異なる移動方位・量を持ちうるためである。
 このように、互いに視差を持つ多視点画像の場合は、オプティカルフローが複雑となるため、オプティカルフローを通常の手段によって計算する場合に多くのエラーが混入する可能性が高いという課題がある。
 特許文献1に開示された技術は、電波画像の特性に基づいて処理範囲を絞り込む方法であり、多視点画像を用いる際の上記課題を解決することはできない。
 また、特許文献2に開示された技術は、遮蔽の影響を抑えるものであり、多視点画像を用いる際の上記課題を解決することはできない。
 本発明は、多視点画像を入力とした高解像度化処理(再構成型超解像)を行う際に想定される課題を解決するためになされたもので、多視点画像から奥行き情報を計算できることを利用し、その結果からオプティカルフローの良・不良部位の選別を行うことで、高品位な画像生成が可能な高解像度画像生成装置を得ることを目的としている。
 本発明に係る高解像度画像生成装置は、画像に対し、前記画像の解像度より高い解像度に高解像度化する処理を行う高解像度画像生成装置において、
 高解像度化する対象の対象画像と、前記対象画像の撮像対象を前記対象画像の視点と異なる視点から撮影した複数の参照画像とを記憶するとともに、前記対象画像と前記複数の参照画像とのそれぞれを撮像した撮像装置の撮像状態を示す撮像装置状態情報を前記対象画像と前記複数の参照画像とのそれぞれに対応付けて記憶する画像記憶部と、
 前記画像記憶部から、前記対象画像と前記参照画像とを含む複数の組であって、前記参照画像が互いに異なる複数の組を抽出し、抽出した組毎に、前記対象画像の画素毎に各画素が対応する前記参照画像の画素を示す画素毎対応情報を含むオプティカルフローを処理装置により計算するオプティカルフロー計算部と、
 前記オプティカルフロー計算部により計算された組毎の前記オプティカルフローと、前記画像記憶部に記憶された前記撮像装置状態情報のうち、前記対象画像と当該組に含まれる前記参照画像とのそれぞれに対応する前記撮像装置状態情報とに基づいて、前記対象画像の各画素の奥行きを示す奥行き情報を組毎に計算する奥行き情報計算部と、
 前記奥行き情報計算部により計算された組毎の前記奥行き情報のうちの少なくとも2つの前記奥行き情報に基づいて、組毎の前記オプティカルフローに含まれる前記画素毎対応情報のそれぞれを前記対象画像の高解像度化に用いるか否かを処理装置により判定するオプティカルフロー判定部とを備えることを特徴とする。
 本発明に係る高解像度画像生成装置によれば、奥行き情報計算部が、オプティカルフローと撮像装置状態情報とに基づいて、対象画像と参照画像との組毎に、対象画像の各画素の奥行きを示す奥行き情報を計算し、オプティカルフロー判定部が、少なくとも2つの奥行き情報に基づいて、組毎のオプティカルフローに含まれる画素毎対応情報のそれぞれを対象画像の高解像度化に用いるか否かを判定するので、高品位な画像生成が可能な高解像度画像生成装置を得ることがきる。
本実施の形態に係る高解像度画像生成装置100のブロック構成を示す図である。 本実施の形態に係る高解像度画像生成装置100のハードウェア構成の一例を示す図である。 本実施の形態に係る高解像度画像生成装置100による高解像度画像生成処理の動作を示すフローチャートである。 本実施の形態に係る多視点画像データ1222(画像0005)を示す図である。 (a)は多視点画像1221(画像0005)、(b)はセンサ位置情報1231(画像0005)、(c)はセンサベクトル情報1232(画像0005)を示す図である。 本実施の形態に係る多視点画像データ1222(画像0004)を示す図である。 (a)は多視点画像1221(画像0004)、(b)はセンサ位置情報1231(画像0004)、(c)はセンサベクトル情報1232(画像0004)を示す図である。 本実施の形態に係る多視点画像データ1222(画像0003)を示す図である。 (a)は多視点画像1221(画像0003)、(b)はセンサ位置情報1231(画像0003)、(c)はセンサベクトル情報1232(画像0003)を示す図である。 基準画像0004から参照画像0005へのオプティカルフローのX成分を示すOF0004to0005Xを示す図である。 基準画像0004から参照画像0005へのオプティカルフローのY成分を示すOF0004to0005Yを示す図である。 参照画像0005から基準画像0004へのオプティカルフローのX成分を示すOF0005to0004Xを示す図である。 参照画像0005から基準画像0004へのオプティカルフローのY成分を示すOF0005to0004Yを示す図である。 基準画像0004から参照画像0005へのオプティカルフローOF0004to0005X/Yを用いて、基準画像0004の各画素毎について計算した地球中心座標を、標高値に変換した結果を示す図である。 基準画像0004から参照画像0003へのオプティカルフローOF0004to0003X/Yを用いて、基準画像0004の各画素毎について計算した地球中心座標を、標高値に変換した結果を示す図である。 図14に示す標高値の計算結果と図15に示す標高値の計算結果との差の絶対値を計算した結果を示す図である。 画像0004’の左半分(画素(0,0)から画素(31,63)まで)を示す図である。 画像0004’の右半分(画素(32,0)から画素(63,63)まで)を示す図である。 画像0004’のグレースケール表示である。 OF0004to0004X/Y(基準画像0004に対応)を用いて1/2ダウンサンプリングを行った結果を示す図である。 OF0005to0004X/Y(参照画像0005に対応)を用いて1/2ダウンサンプリングを行った結果を示す図である。 OF0003to0004X/Y(参照画像0003に対応)を用いて1/2ダウンサンプリングを行った結果を示す図である。 OF0004to0004X/Y(基準画像0004に対応)を用いたダウンサンプリング結果と、基準画像0004との差分を計算した結果である。 OF0005to0004X/Y(参照画像0005に対応)を用いたダウンサンプリング結果と、参照画像0005との差分を計算した結果である。 OF0003to0004X/Y(参照画像0003に対応)を用いたダウンサンプリング結果と、参照画像0003との差分を計算した結果である。 参照画像0005の差分を2/1アップサンプリングした結果の左半分(画素(0,0)から画素(31,63)まで)を示す図である。 参照画像0005の差分を2/1アップサンプリングした結果の右半分(画素(32,0)から画素(63,63)まで)を示す図である。 高解像度画像125の左半分(画素(0,0)から画素(31,63)まで)を示す図である。 高解像度画像125の右半分(画素(32,0)から画素(63,63)まで)を示す図である。 高解像度画像125のグレースケール表示である。 高解像度画像125aの左半分(画素(0,0)から画素(31,63)まで)を示す図である。 高解像度画像125aの右半分(画素(32,0)から画素(63,63)まで)を示す図である。 高解像度画像125aのグレースケール表示である。
 実施の形態1.
 図1は、本実施の形態に係る高解像度画像生成装置100のブロック構成を示す図である。図1を用いて、本実施の形態に係る高解像度画像生成装置100のブロック構成について説明する。
 高解像度画像生成装置100は、オプティカルフロー計算部101、奥行き情報計算部102、オプティカルフロー選別部103(オプティカルフロー判定部)、高解像度画像計算部104(高解像度化処理部)、ハードディスク120(画像記憶部)、ディスプレイ130を備える。
 ハードディスク120は、画像撮像情報121を記憶する。また、ハードディスク120は、後述するオプティカルフロー計算部101により算出されたオプティカルフローを一時的にオプティカルフロー124として記憶するとしてもよい。
 画像撮像情報121は、多視点画像情報122と、多視点画像情報122に対応するパラメータ情報123とを有する。
 多視点画像情報122は、光学観測衛星などのプラットフォームにより、上空から異なる角度で地上を撮影した複数の画像の情報である。多視点画像情報122は、グレースケール表示の多視点画像1221と、多視点画像1221の各画素の濃度値を示した多視点画像データ1222とを有する。多視点画像1221と多視点画像データ1222との詳細については後述する。
 ハードディスク120は、高解像度化する対象の対象画像(基準画像)と、基準画像の撮像対象を異なる視点から撮影した複数の参照画像とのそれぞれの多視点画像情報122を記憶する画像記憶部の一例である。
 また、パラメータ情報123は、多視点画像情報122に含まれる多視点画像1221を撮影した時の内部・外部パラメータの情報である。パラメータ情報123は、カメラまたはセンサの焦点距離、位置、姿勢等の情報である。パラメータ情報123は、例えば、センサ位置情報1231、センサベクトル情報1232を有する。
 パラメータ情報123は、対応する多視点画像1221を撮像した撮像装置(カメラ、センサ等)の撮像状態を示す撮像装置状態情報の一例である。
 オプティカルフロー計算部101は、ハードディスク120から、基準画像と参照画像とを含む複数の組であって、参照画像が互いに異なる複数の組を抽出し、抽出した組毎に、オプティカルフローを処理装置により計算する。オプティカルフローとは、基準画像の画素毎に、各画素が対応する参照画像上の画素を表す画素毎対応情報を含む情報である。
 オプティカルフロー計算部101は、ハードディスク120から多視点画像情報122を2つずつ複数組選択し、選択した2つの多視点画像情報122間のオプティカルフローを計算する。
 奥行き情報計算部102は、オプティカルフロー計算部101により計算された組毎のオプティカルフローと、ハードディスク120に記憶されたパラメータ情報123のうち、基準画像と当該組に含まれる参照画像とのそれぞれの画像撮像情報121に対応するパラメータ情報123とに基づいて、基準画像の各画素の奥行きを示す奥行き情報を組毎に計算する。画像の奥行きとは、その画像によって表されている撮像対象のセンサからの距離、あるいは、標高値を示すものとする。
 オプティカルフロー選別部103は、奥行き情報計算部102により計算された組毎の奥行き情報のうちの少なくとも2つの奥行き情報に基づいて、組毎のオプティカルフローに含まれる画素毎の画素毎対応情報のそれぞれを、基準画像の高解像度化に用いるか否かを処理装置により判定する。つまり、オプティカルフロー選別部103は、奥行き情報計算部102による複数の距離計算の結果を照合して、オプティカルフローの良部分・不良部分の選別を行う。
 高解像度画像計算部104は、組毎のオプティカルフローに含まれる画素毎の画素毎対応情報のうち、オプティカルフロー選別部103により基準画像の高解像度化に用いる(良判定)と判定された画素毎対応情報に基づいて、基準画像を高解像度化する。つまり、高解像度画像計算部104は、良判定されたオプティカルフローの部分と、それに対応する画像領域とを入力し、高解像度画像の計算生成を行い、不良判定されたオプティカルフローの部分は高解像度化には使用しない。
 ディスプレイ130は、高解像度画像の生成結果を出力表示する。
 図2は、本実施の形態に係る高解像度画像生成装置100のハードウェア構成の一例を示す図である。
 図2を用いて、高解像度画像生成装置100のハードウェア構成例について説明する。
 高解像度画像生成装置100はコンピュータであり、高解像度画像生成装置100の各要素をプログラムで実現することができる。つまり、オプティカルフロー計算部101、奥行き情報計算部102、オプティカルフロー選別部103、高解像度画像計算部104の各要素をプログラムで実現することができる。
 高解像度画像生成装置100のハードウェア構成としては、バスに、演算装置901、外部記憶装置902、主記憶装置903、通信装置904、入出力装置905が接続されている。
 演算装置901は、プログラムを実行するCPU(Central・Processing・Unit)である。
 外部記憶装置902は、例えばROM(Read・Only・Memory)やフラッシュメモリ、ハードディスク装置である。ハードディスク120は、外部記憶装置902の一例である。
 主記憶装置903は、RAM(Random・Access・Memory)である。
 通信装置904は、例えば通信ボード等であり、LAN(Local・Area・Network)等に接続されている。通信装置904は、LANに限らず、IP-VPN(Internet・Protocol・Virtual・Private・Network)、広域LAN、ATM(Asynchronous・Transfer・Mode)ネットワークといったWAN(Wide・Area・Network)、あるいは、インターネットに接続されていても構わない。LAN、WAN、インターネットは、ネットワークの一例である。
 入出力装置905は、例えばマウス、キーボード、ディスプレイ装置等である。マウスの代わりに、タッチパネル、タッチパッド、トラックボール、ペンタブレット、あるいは、その他のポインティングデバイスが用いられてもよい。ディスプレイ装置は、LCD(Liquid・Crystal・Display)、CRT(Cathode・Ray・Tube)、あるいは、その他の表示装置でもよい。ディスプレイ130は、表示装置の一例である。
 プログラムは、通常は外部記憶装置902に記憶されており、主記憶装置903にロードされた状態で、順次演算装置901に読み込まれ、実行される。
 プログラムは、図1に示す「~部」として説明している機能を実現するプログラムである。
 更に、外部記憶装置902にはオペレーティングシステム(OS)も記憶されており、OSの少なくとも一部が主記憶装置903にロードされ、演算装置901はOSを実行しながら、図1に示す「~部」の機能を実現するプログラムを実行する。
 また、アプリケーションプログラムも外部記憶装置902に記憶されており、主記憶装置903にロードされた状態で、順次演算装置901により実行される。
 また、「~テーブル」等の情報も外部記憶装置902に記憶されている。
 また、本実施の形態の説明において、「~の判断」、「~の判定」、「~の抽出」、「~の検知」、「~の設定」、「~の登録」、「~の選択」、「~の生成」、「~の入力」、「~の出力」等として説明している処理の結果を示す情報やデータや信号値や変数値が主記憶装置903にファイルとして記憶されている。
 また、高解像度画像生成装置100が受信したデータが主記憶装置903に記憶される。
 また、暗号鍵・復号鍵や乱数値やパラメータが、主記憶装置903にファイルとして記憶されてもよい。
 なお、図2の構成は、あくまでも高解像度画像生成装置100のハードウェア構成の一例を示すものであり、高解像度画像生成装置100のハードウェア構成は図2に記載の構成に限らず、他の構成であってもよい。
 図3は、本実施の形態に係る高解像度画像生成装置100による高解像度画像生成方法の動作を示すフローチャートである。高解像度画像生成方法は、オプティカルフロー計算部101、奥行き情報計算部102、オプティカルフロー選別部103、高解像度画像計算部104等が、処理装置、記憶装置、入出力装置等のハードウェア資源と協働することにより実現される。例えば、高解像度画像生成装置100は、オプティカルフロー計算プログラム、奥行き情報計算プログラム、オプティカルフロー選別プログラム、高解像度画像計算プログラム等を処理装置を用いて実行することにより高解像度画像生成方法を実現する。
 図3を用いて、高解像度画像生成装置100による高解像度画像生成処理(高解像度画像生成工程)(高解像度画像生成ステップ)について説明する。以下において、「~処理」との記載は、「~工程」、「~ステップ」とも言い換えることができる。
 <オプティカルフロー計算処理:S110>
 まず、オプティカルフロー計算部101によるオプティカルフロー計算処理について説明する。
 図1に示すハードディスク120には、高解像度化の対象である基準画像0004、基準画像0004とは異なる視点から撮像した参照画像0003、参照画像0005に関する画像撮像情報121が記憶されているものとする。参照画像0003、基準画像0004、参照画像0005を単に画像0003、画像0004、画像0005と記載する場合もある。
 図4は、本実施の形態に係る多視点画像データ1222(画像0005)を示す図である。図5は、(a)は多視点画像1221(画像0005)、(b)はセンサ位置情報1231(画像0005)、(c)はセンサベクトル情報1232(画像0005)を示す図である。図6は、本実施の形態に係る多視点画像データ1222(画像0004)を示す図である。図7は、(a)は多視点画像1221(画像0004)、(b)はセンサ位置情報1231(画像0004)、(c)はセンサベクトル情報1232(画像0004)を示す図である。図8は、本実施の形態に係る多視点画像データ1222(画像0003)を示す図である。図9は、(a)は多視点画像1221(画像0003)、(b)はセンサ位置情報1231(画像0003)、(c)はセンサベクトル情報1232(画像0003)を示す図である。
 ここでは、オプティカルフロー計算部101は、ハードディスク120から複数の画像撮像情報121を入力する。3つの画像撮像情報121を入力する。3つの画像撮像情報121により示される画像は、参照画像0003,基準画像0004,参照画像0005とする。
 以下の説明において、多視点画像データ1222(0005)のように、かっこ書き(0005)を付した場合には、参照画像0005についての多視点画像データ1222であることを示すものとする。
 上述したように、画像撮像情報121は、画像に関する情報として、多視点画像情報122とパラメータ情報123とを有する。多視点画像情報122は、画像の情報であり、多視点画像1221、多視点画像データ1222から構成される。パラメータ情報123は、センサ位置情報1231、センサベクトル情報1232から構成される。
 図4に示す多視点画像データ1222(0005)は、多視点画像1221(0005)の各画素の濃度値を0~99にリスケーリングして表示したものである。多視点画像データ1222(0005)は、水平方向、垂直方向ともに0~31の値をとる画素データである。
 図5(a)に示す多視点画像1221(0005)は、参照画像0005のグレースケール表示である。
 図5(b)に示すセンサ位置情報1231は、画像0005を撮像したときのセンサの位置を地球中心座標で画素毎に示したものである。撮像は向かって右側からラインセンサによって行われたものであり、よって、列方向の座標は同一となっている。
 また、図5(c)に示すセンサベクトル情報1232は、画像0005を撮像したときのセンサー中心から地表面までのベクトルを、画素毎に示したものである。撮像は向かって右側からラインセンサによって行われたものであり、行方向のベクトルは同一となっている。
 オプティカルフロー計算部101は、ハードディスク120から画像0003,0004,0005の画像撮像情報121を読み出し、以下の手順にしたがってオプティカルフローを計算する。
 ここで、A画像からB画像へのオプティカルフローを計算する場合、A画像を「基準とする画像」、B画像を「参照する画像」と呼ぶものとする。A画像とB画像とのオプティカルフローを計算する場合、A画像からB画像へのオプティカルフローと、B画像からA画像へのオプティカルフローとを計算する。以下において、A画像からB画像へのオプティカルフローをOFAtoBX/Yと表し、B画像からA画像へのオプティカルフローをOFBtoAX/Yと表す。
 ここでは、一例として、基準画像0004と参照画像0005とのオプティカルフローの計算方法について述べる。基準画像0004を基準とする画像とし、画像0005を参照する画像とし、基準画像0004から参照画像0005へのオプティカルフローOF0004to0005X/Yを計算する。また、反対に、参照画像0005を基準とする画像とし、基準画像0005を参照する画像とし、参照画像0005から基準画像0004へのオプティカルフローOF0005to0004X/Yを計算する。
 オプティカルフロー計算部101は、多視点画像データ1222を用いてオプティカルフローを算出する。
 オプティカルフロー計算部101は、基準となる画像の多視点画像データ1222の各画素毎にオプティカルフローを算定する。まず、基準となる画像において、オプティカルフローを求めようとする画素を中心とした所定サイズの部分画像を切り出す。次に、その部分画像を参照する画像に重ねたとき、重なり合う画素間の相関が最も高い場所を見つける。この方法は面積相関法と呼ばれ、広く知られた方法であるので、詳細の説明は省略する。
 このように、オプティカルフロー計算部101は、基準となる画像の各画素が、参照する画像のどの場所に対応するかを示す数値を算出する。オプティカルフローにおいて、各画素に対応する上記数値を画素毎対応情報とする。
 図10は、基準画像0004から参照画像0005へのオプティカルフローのX成分(水平方向)を示すOF0004to0005Xを示す図である。
 図11は、基準画像0004から参照画像0005へのオプティカルフローのY成分(垂直方向)を示すOF0004to0005Yを示す図である。
 図12は、参照画像0005から基準画像0004へのオプティカルフローのX成分(水平方向)を示すOF0005to0004Xを示す図である。
 図13は、参照画像0005から基準画像0004へのオプティカルフローのY成分(垂直方向)を示すOF0005to0004Yを示す図である。
 図10~図13において、オプティカルフローの各画素の数値の単位は0.1ピクセルである。また、図10~図13において、太線で囲まれた数値はマイナスであることを示す。
 オプティカルフローの各値は、基準となる画像の各画素の、参照する画像における移動量を示している。
 基準画像0004から参照画像0005へのオプティカルフローOF0004to0005X/Yについて、具体例で説明する。図10に示すように、基準画像0004の画素(13,7)に対応するX方向の移動量は、12である。図11に示すように、基準画像0004の画素(13,7)に対応するY方向の移動量は、-4である。
 これは、基準画像0004の画素(13,7)に対応する参照画像0005上の画素は、基準画像0004の画素(13,7)の位置から、右に1.2ピクセル、上に0.4ピクセルの位置にあることを示している。つまり、基準画像0004の画素(13,7)に対応する参照画像0005上の画素の座標は(14.2,6.6)であることを示している。
 反対に、参照画像0005から基準画像0004へのオプティカルフローOF0005to0004X/Yについて、具体例で説明する。図12に示すように、参照画像0005の画素(6,7)に対応するX方向の移動量は、-6である。図13に示すように、参照画像0005の画素(6,7)に対応するY方向の移動量は、4である。
 これは、参照画像0005の画素(6,7)に対応する基準画像0004上の画素は、参照画像0005の画素(6,7)の位置から、左に0.6ピクセル、下に0.4ピクセルの位置にあることを示している。つまり、参照画像0005の画素(6,7)に対応する基準画像0004上の画素の座標は(-5.4,7.4)であることを示している。
 同様にして、オプティカルフロー計算部101は、基準画像0004と参照画像0003とのオプティカルフローOF0004to0003X/YおよびOF0003to0004X/Yも計算する。
 <奥行き情報計算処理:S120>
 次に、奥行き情報計算部102による奥行き情報計算処理について説明する。
 奥行き情報計算部102は、オプティカルフロー計算部101により計算されたオプティカルフローと、ハードディスク120に記憶されているセンサ位置情報1231及びセンサベクトル情報1232とから、基準画像0004の各画素について、奥行き(センサからの距離あるいは標高)を計算する。基準画像0004の各画素について奥行きを計算した結果を、奥行き情報とする。
 まず、奥行き情報計算部102は、計算しようとしている基準画像0004の画素(計算対象画素とする)について、センサ位置情報1231及びセンサベクトル情報1232から、センサー位置(px,py,pz)及びセンサベクトル(vx,vy,vz)を、ハードディスク120から取り出す。そして、奥行き情報計算部102は、取り出したセンサー位置(px,py,pz)とセンサベクトル(vx,vy,vz)とから定まる直線lを算出する。
 次に、奥行き情報計算部102は、計算対象画素について与えられているオプティカルフローを参照し、参照画像0005上の画素座標を取得する。ここでは、基準画像0004から参照画像0005へのオプティカルフローを用いる。つまり、基準画像0004から参照画像0005へのオプティカルフローOF0004to0005X/Yを用いて、参照画像0005上の画素座標を取得する。
 奥行き情報計算部102は、参照画像上の画素座標に与えられているセンサー位置(px’,py’,pz’)とセンサベクトル(vx’,vy’,vz’)とから定まる直線l’を算出する。奥行き情報計算部102は、基準画像の計算対象画素から算出された直線lと、オプティカルフローに求められた参照画像の画素座標から算出された直線l’との交点を求める。この交点が、基準画像0004の計算対象画素が表している撮像対象の地球中心座標における位置となる。このようにして、奥行き情報計算部102は、基準画像の各画素の地球中心座標における位置を計算する。
 なお、参照画像上の画素座標には一般には実数値が与えられている。そこで、実際には、参照画像上の画素座標の最近傍の4画素に対応する直線を使ってそれぞれの地球中心座標を求め、線形補間を行うことにより計算対象画素の地球中心座標を得る。地球中心座標は、緯度・経度座標系に変換することで地球楕円体からの距離に変換することができる。
 また、上記において、2直線の交点を求めるとしたが、2直線が交わらない場合には、2直線間の距離が最短となる位置において、その真ん中の点を交点とみなすものとする。
 さらに、奥行き情報計算部102は、計算対象画素の地球中心座標の地球楕円体からの距離から、ジオイド高を減ずることにより、計算対象画素の地球中心座標における標高値を算出する。
 図14は、基準画像0004から参照画像0005へのオプティカルフローOF0004to0005X/Yを用いて、基準画像0004の各画素について計算した地球中心座標を、標高値に変換した結果を示す図である。
 図15は、基準画像0004から参照画像0003へのオプティカルフローOF0004to0003X/Yを用いて、基準画像0004の各画素について計算した地球中心座標を、標高値に変換した結果を示す図である。
 なお、各画素の奥行きとしては、標高値に限らず、センサからの距離を奥行きとして用いてもよい。本実施の形態では、以下の説明において、奥行きの計算結果として標高値に置き換えた値を使用する。
 <オプティカルフロー選別処理:S130>
 次に、オプティカルフロー選別部103によるオプティカルフロー選定処理(オプティカルフローの良否判定処理)について説明する。
 図16は、図14に示す標高値の計算結果と図15に示す標高値の計算結果との差の絶対値を計算した結果を示す図である。
 オプティカルフロー選別部103は、奥行き情報計算部102により計算された奥行き情報から2つの奥行き情報を抽出し、抽出した2つの奥行き情報を用いて、基準画像の画素毎に奥行きの差分を算出し、算出した差分が閾値未満の場合に、基準画像の計算対象画素に対応するオプティカルフローの画素毎対応情報を基準画像の高解像度化に用いることができる良部分であると判定する。
 具体的には、オプティカルフロー選別部103は、図14に示す標高値の計算結果と図15に示す標高値の計算結果とを取り出して、画素毎に差(絶対値)を求める(図16)。さらに、オプティカルフロー選別部103は、例えば、差が3m以上となる箇所(画素)を不良箇所として記録する。不良箇所として記録するのは、差3m以上に限らず、2m,4m,5m等、適宜変更可能であるものとする。
 差が3m以上となる箇所を不良箇所として記録する場合には、図16に点線の丸印で示すように、例えば、(0,0)、(15,0)、(16,1)、(17,1)、(15,2)などが不良箇所に相当する。他にも不良箇所があるが、ここでは、説明を省略する。
 オプティカルフローOF0004to0005X/YおよびオプティカルフローOF0004to0003X/Yにおいて、これらの不良箇所の画素座標に対応する値が、高解像度化には用いることができない不良部分であることとなる。
 <高解像度画像計算処理:S140>
 次に、高解像度画像計算部104による高解像度画像計算処理について説明する。
 高解像度画像計算部104は、基準画像0004・参照画像0005・参照画像0003と、オプティカルフローOF0004to0005X/YおよびOF0005to0004X/Y・オプティカルフローOF0004to0003X/YおよびOF0003to0004X/Yを入力して、以下の手順により、基準画像0004の2倍の解像度の画像の生成を行う。
 まず、高解像度画像計算部104は、基準画像0004から線形補間により2倍の解像度の画像0004’を作成する。ここでは、解像度を2倍として画像0004’を作成したが、画像0004を単に2倍に引き伸ばしただけであり、高解像度化したものではない。
 図17,18は、基準画像0004から作成された2倍の解像度の画像0004’を示す図である。
 図17は、画像0004’の左半分(画素(0,0)から画素(31,63)まで)を示す図である。
 図18は、画像0004’の右半分(画素(32,0)から画素(63,63)まで)を示す図である。
 図19は、画像0004’のグレースケール表示である。
 次に、高解像度画像計算部104は、図17,18の画像0004’に対し、基準画像0004・参照画像0005・参照画像0003それぞれのオプティカルフロー(参照画像から基準画像へのもの)に基いて、1/2ダウンサンプリングを行う。つまり、OF0005to0004X/Y(参照画像0005に対応)、OF0003to0004X/Y(参照画像0003に対応)、OF0004to0004X/Y(基準画像0004に対応)を用いて1/2ダウンサンプリングを行う。なお、基準画像0004のオプティカルフローOF0004to0004X/Yとは、自身から自身を参照することになるので、X成分・Y成分ともに0を適用する。
 ダウンサンプリング画像上の座標(x,y)(x=0,1,2,・・・,31、y=0,1,2,・・・,31)に対応する画像0004’上の座標(x’,y’)(x’=0,1,2,・・・,63、y’=0,1,2,・・・,63)は以下の式1及び式2となる。なお、flowX(x,y)およびflowY(x,y)は、それぞれ座標(x,y)におけるオプティカルフローのX成分とY成分を示すとする。
x’=(x-15)×2-1+flowX(x,y)/10×2+31  (式1)
y’=(y-15)×2-1+flowY(x,y)/10×2+31  (式2)
 高解像度画像計算部104は、画像0004’上の座標(x’,y’)を算出し、(x,y)のまわりの4つ座標(x’,y’)のデータから、線形補間により(x,y)の値を求める。
 図20は、OF0004to0004X/Y(基準画像0004に対応)を用いて1/2ダウンサンプリングを行った結果を示す図である。
 図21は、OF0005to0004X/Y(参照画像0005に対応)を用いて1/2ダウンサンプリングを行った結果を示す図である。
 図22は、OF0003to0004X/Y(参照画像0003に対応)を用いて1/2ダウンサンプリングを行った結果を示す図である。
 次に、高解像度画像計算部104は、図20~22のダウンサンプリング結果と、基準画像0004・参照画像0005・参照画像0003それぞれとの差分を計算する。
 図23は、OF0004to0004X/Y(基準画像0004に対応)を用いたダウンサンプリング結果と、基準画像0004との差分を計算した結果である。
 図24は、OF0005to0004X/Y(参照画像0005に対応)を用いたダウンサンプリング結果と、参照画像0005との差分を計算した結果である。
 図25は、OF0003to0004X/Y(参照画像0003に対応)を用いたダウンサンプリング結果と、参照画像0003との差分を計算した結果である。
 図23~図25において、太線で囲まれた数値はマイナスであることを示す。
 次に、高解像度画像計算部104は、図20~22の差分計算結果に対し、基準画像0004・参照画像0005・参照画像0003それぞれのオプティカルフロー(基準画像から参照画像へのもの)に基づいて2/1アップサンプリングを行う。つまり、OF0004to0005X/Y(参照画像0005に対応)、OF0004to0003X/Y(参照画像0003に対応)、OF0004to0004X/Y(基準画像0004に対応)を用いて2/1アップサンプリングを行う。なお、基準画像0004のオプティカルフローOF0004to0004X/Yとは、上述した場合と同様に、自身から自身を参照することになるので、X成分・Y成分ともに0を適用する。
 アップサンプリング画像上の座標(x,y)(x=0,1,2,・・・,63、y=0,1,2,・・・,63)に対応するダウンサンプリング画像上の座標(x’,y’)(x’=0,1,2,・・・,31、y’=0,1,2,・・・,31)は以下の式3,式4で表される。なお、flowX(x,y)およびflowY(x,y)は、それぞれ座標(x,y)におけるオプティカルフローのX成分とY成分を示すとする。また、[x]はxより小さい最大の整数を示す。
x’=(x-31)/2-0.25-flowX([x/2],[y/2])/10/2+15  (式3)
y’=(y-31)/2-0.25-flowY([x/2],[y/2])/10/2+15  (式4)
 一例として、高解像度画像計算部104は、参照画像0005の差分を、OF0004to0005X/Y(参照画像0005に対応)を用いて2/1アップサンプリングする。
 図26,27は、参照画像0005の差分を、OF0004to0005X/Y(参照画像0005に対応)を用いて2/1アップサンプリングした結果を示す図である。
 図26は、参照画像0005の差分を2/1アップサンプリングした結果の左半分(画素(0,0)から画素(31,63)まで)を示す図である。図27は、参照画像0005の差分を2/1アップサンプリングした結果の右半分(画素(32,0)から画素(63,63)まで)を示す図である。
 図26,27において、太線で囲まれた数値はマイナスであることを示す。
 高解像度画像計算部104は、同様にして、基準画像0004の差分、参照画像0003の差分についても、OF0004to0004X/Y(基準画像0004に対応)、OF0004to0003X/Y(参照画像0003に対応)を用いて2/1アップサンプリングを行う。
 次に、高解像度画像計算部104は、2/1アップサンプリング結果に基づいて、画像0004’(図17,18参照)の更新を行う。高解像度画像計算部104は、以下の式5により、画像0004’の更新を行う。
 関数Valid(x,y)は、図16に示した座標(x,y)の標高値の差が、3m以下のときに1、3m超のときに0を返す関数であるとする。つまり、関数Valid(x,y)は、座標(x,y)が良部分である場合は1、不良部分である場合は0を出力する関数である。
 d0004(x,y)は、基準画像0004との差分の2/1アップサンプリング結果における座標(x,y)の値、d0005(x,y)は参照画像0005との差分の2/1アップサンプリング結果における座標(x,y)の値、d0003(x,y)は参照画像0003との差分の2/1アップサンプリング結果における座標(x,y)の値を示す。
 v(x,y)は、画像0004’上の座標(x,y)の更新前の値、v’(x,y)は更新後の値を示す。αは定数であり、本実施の形態では、0.25を使用することとする。また、[x]はxより小さい最大の整数を示す。
 以上の条件を前提として、高解像度画像計算部104は、以下の式5により、画像0004’の更新を行う。
v’(x,y)=v(x,y)+α×(d0004(x,y)+d0005(x,y)+d0003(x,y))×Valid([x/2],[y/2])  (式5)
 以上のようにして、高解像度画像計算部104は、オプティカルフローの良部分のみを用いて画像0004’を更新し、基準画像0004を高解像度化した高解像度画像125を出力する。
 図28,29は、画像0004’を高解像度化(更新)した結果である高解像度画像125を示す図である。
 図28は、高解像度画像125の左半分(画素(0,0)から画素(31,63)まで)を示す図である。
 図29は、高解像度画像125の右半分(画素(32,0)から画素(63,63)まで)を示す図である。
 図30は、高解像度画像125のグレースケール表示である。
 図19の基準画像0004を単に引き延ばした画像0004’と比較すると、図30の高解像度画像125は、コントラストが改善していることが観察できる。
 高解像度画像計算部104は、以降、所定の回数に達するまで、1/2ダウンサンプリング・差分計算・2/1アップサンプリング・更新の手順を繰り返す。
 高解像度画像計算部104は、例えば、10回、上記手順(1/2ダウンサンプリング・差分計算・2/1アップサンプリング・更新の手順)を繰り返す
 図31,32は、手順を10回繰り返した結果である高解像度画像125aを示す図である。
 図31は、高解像度画像125aの左半分(画素(0,0)から画素(31,63)まで)を示す図である。
 図32は、高解像度画像125aの右半分(画素(32,0)から画素(63,63)まで)を示す図である。
 図33は、高解像度画像125aのグレースケール表示である。
 図30の高解像度画像125と、図33の高解像度画像125aとを比較すると、図33の高解像度画像125aでは、画像各部において画像の詳細が復元されていることが観察できる。
 ここで、上記手順を繰り返す回数は、適宜変更可能である。
 以上のように、高解像度画像生成装置100による高解像度画像生成処理により、基準画像0004を2倍の解像度に高解像度化した画像が得られることとなる。
 なお、本実施の形態では、IBP(Iterative・Backward・Projection)法と呼ばれるアルゴリズムに基づいて高解像度化(超解像)処理を行う方法を示したが、IBP法のその他の方式の実装や、MAP(Maximum・A・Posteriori)法などによって高解像度化(超解像)処理を実施することもできる。
 また、本実施の形態では、入力画像を3枚として実施したが、2枚以上であれば任意の枚数で実施することができる。また、入力画像として解像度が同一であるものとして実施したが、互いに異なる解像度の画像を使っても同様に実施することもできる。
 また、本実施の形態では、2つの奥行き計算結果を比較して差が3m超の部分を不良として判定したが、3つ以上の奥行き計算結果を比較して分散あるいは標準偏差に着目して不良判定を行うように実施することもできる。また、標準偏差などを求める場合、スミルノフ・グラブス検定法などにより外れ値除去の前段処理を行うように実施することもできる。
 以上のように、本実施の形態に係る高解像度画像生成装置100は、異なる方向から撮影された多視点画像と撮影時の内部・外部パラメーター(センサーあるいはカメラの焦点距離、位置・向き等の情報)を記憶する多視点画像記憶手段と、多視点画像から画像を2枚ずつ複数組を選択し、選択した画像間のオプティカルフローを計算するオプティカルフロー計算手段と、複数のオプティカルフローのそれぞれに対し、内部・外部パラメーター(センサーあるいはカメラの焦点距離、位置・向き等の情報)を参照して、画像の奥行きを計算する奥行き計算手段と、複数の奥行き計算の結果を比較して、オプティカルフローの良部分・不良部分の選定を行うオプティカルフロー選定手段と、良部分として選定されたオプティカルフローの部分と、それに対応する画像の部分を入力とし、高解像度画像の計算を行う、高解像度画像計算手段とを備える。
 これにより、多視点画像からは奥行き情報を計算できることを利用し、その結果からオプティカルフローの良・不良部位の選別を行うことで、高品位な画像生成が可能であるという効果がある。
 上記実施の形態の説明では、「オプティカルフロー計算部」、「奥行き情報計算部」、「オプティカルフロー選別部」、「高解像度画像計算部」がそれぞれ独立した機能ブロックとして高解像度画像生成装置100を構成している。しかし、これに限られるわけではなく、例えば、「オプティカルフロー計算部」、「奥行き情報計算部」をひとつの機能ブロックで実現し、「オプティカルフロー選別部」、「高解像度画像計算部」をひとつの機能ブロックで実現しても良い。あるいは、ひとつの機能ブロックをさらに複数の機能ブロックに分割して高解像度画像生成装置100を構成してもよい。あるいは、これらの機能ブロックを、他のどのような組み合わせで構成しても構わない。
 以上、本発明の実施の形態について説明したが、この実施の形態のうち、1つの部分を実施しても構わない。あるいは、この実施の形態のうち、2つ以上の部分を組み合わせて実施しても構わない。なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
 100 高解像度画像生成装置、101 オプティカルフロー計算部、102 奥行き情報計算部、103 オプティカルフロー選別部、104 高解像度画像計算部、120 ハードディスク、121 画像撮像情報、122 多視点画像情報、123 パラメータ情報、125,125a 高解像度画像、130 ディスプレイ、901 演算装置、902 外部記憶装置、903 主記憶装置、904 通信装置、905 入出力装置、1221 多視点画像、1222 多視点画像データ、1231 センサ位置情報、1232 センサベクトル情報。

Claims (7)

  1.  画像に対し、前記画像の解像度より高い解像度に高解像度化する処理を行う高解像度画像生成装置において、
     高解像度化する対象の対象画像と、前記対象画像の撮像対象を前記対象画像の視点と異なる視点から撮影した複数の参照画像とを記憶するとともに、前記対象画像と前記複数の参照画像とのそれぞれを撮像した撮像装置の撮像状態を示す撮像装置状態情報を前記対象画像と前記複数の参照画像とのそれぞれに対応付けて記憶する画像記憶部と、
     前記画像記憶部から、前記対象画像と前記参照画像とを含む複数の組であって、前記参照画像が互いに異なる複数の組を抽出し、抽出した組毎に、前記対象画像の画素毎に各画素が対応する前記参照画像の画素を示す画素毎対応情報を含むオプティカルフローを処理装置により計算するオプティカルフロー計算部と、
     前記オプティカルフロー計算部により計算された組毎の前記オプティカルフローと、前記画像記憶部に記憶された前記撮像装置状態情報のうち、前記対象画像と当該組に含まれる前記参照画像とのそれぞれに対応する前記撮像装置状態情報とに基づいて、前記対象画像の各画素の奥行きを示す奥行き情報を組毎に計算する奥行き情報計算部と、
     前記奥行き情報計算部により計算された組毎の前記奥行き情報のうちの少なくとも2つの前記奥行き情報に基づいて、組毎の前記オプティカルフローに含まれる前記画素毎対応情報のそれぞれを前記対象画像の高解像度化に用いるか否かを処理装置により判定するオプティカルフロー判定部と
    を備えることを特徴とする高解像度画像生成装置。
  2.  前記高解像度画像生成装置は、さらに、
     組毎の前記オプティカルフローに含まれる前記画素毎対応情報のうち、前記オプティカルフロー判定部により前記対象画像の高解像度化に用いると判定された前記画素毎対応情報に基づいて、前記対象画像を高解像度化する高解像度化処理部を備えることを特徴とする請求項1に記載の高解像度画像生成装置。
  3.  前記オプティカルフロー判定部は、
     前記奥行き情報計算部により計算された組毎の前記奥行き情報から2つの前記奥行き情報を抽出し、抽出した2つの前記奥行き情報を用いて、前記対象画像の画素毎に前記奥行きの差分を算出し、算出した差分が閾値未満の場合に、前記対象画像の当該画素に対応する前記画素毎対応情報を前記対象画像の高解像度化に用いると判定することを特徴とする請求項1または2に記載の高解像度画像生成装置。
  4.  前記画像記憶部は、
     前記撮像装置状態情報として、前記撮像装置の位置を示す撮像装置位置情報と、前記撮像装置の向きを示す撮像装置向き情報とを記憶することを特徴とする請求項1~3のいずれかに記載の高解像度画像生成装置。
  5.  前記奥行き情報計算部は、
     前記対象画像の各画素の奥行きとして、前記対象画像の各画素が示す位置の標高値を計算することを特徴とする請求項1~4のいずれかに記載の高解像度画像生成装置。
  6.  画像に対し、前記画像の解像度より高い解像度に高解像度化する処理を行う高解像度画像生成装置であって、高解像度化する対象の対象画像と、前記対象画像の撮像対象を前記対象画像の視点と異なる視点から撮影した複数の参照画像とを記憶するとともに、前記対象画像と前記複数の参照画像とのそれぞれを撮像した撮像装置の撮像状態を示す撮像装置状態情報を前記対象画像と前記複数の参照画像とのそれぞれに対応付けて記憶する画像記憶部を備える高解像度画像生成装置の高解像度画像生成方法において、
     オプティカルフロー計算部が、前記画像記憶部から、前記対象画像と前記参照画像とを含む複数の組であって、前記参照画像が互いに異なる複数の組を抽出し、抽出した組毎に、前記対象画像の画素毎に各画素が対応する前記参照画像の画素を示す画素毎対応情報を含むオプティカルフローを処理装置により計算するオプティカルフロー計算工程と、
     奥行き情報計算部が、前記オプティカルフロー計算工程により計算された組毎の前記オプティカルフローと、前記画像記憶部に記憶された前記撮像装置状態情報のうち、前記対象画像と当該組に含まれる前記参照画像とのそれぞれに対応する前記撮像装置状態情報とに基づいて、前記対象画像の各画素の奥行きを示す奥行き情報を組毎に計算する奥行き情報計算工程と、
     オプティカルフロー判定部が、前記奥行き情報計算工程により計算された組毎の前記奥行き情報のうちの少なくとも2つの前記奥行き情報に基づいて、組毎の前記オプティカルフローに含まれる前記画素毎対応情報のそれぞれを前記対象画像の高解像度化に用いるか否かを処理装置により判定するオプティカルフロー判定工程と、
     高解像度化処理部が、組毎の前記オプティカルフローに含まれる前記画素毎対応情報のうち、前記オプティカルフロー判定工程により前記対象画像の高解像度化に用いると判定された前記画素毎対応情報に基づいて、前記対象画像を高解像度化する高解像度化処理工程とを備えることを特徴とする高解像度画像生成方法。
  7.  画像に対し、前記画像の解像度より高い解像度に高解像度化する処理を行う高解像度画像生成装置であって、高解像度化する対象の対象画像と、前記対象画像の撮像対象を前記対象画像の視点と異なる視点から撮影した複数の参照画像とを記憶するとともに、前記対象画像と前記複数の参照画像とのそれぞれを撮像した撮像装置の撮像状態を示す撮像装置状態情報を前記対象画像と前記複数の参照画像とのそれぞれに対応付けて記憶する画像記憶部を備える高解像度画像生成装置の高解像度画像生成プログラムにおいて、
     オプティカルフロー計算部が、前記画像記憶部から、前記対象画像と前記参照画像とを含む複数の組であって、前記参照画像が互いに異なる複数の組を抽出し、抽出した組毎に、前記対象画像の画素毎に各画素が対応する前記参照画像の画素を示す画素毎対応情報を含むオプティカルフローを処理装置により計算するオプティカルフロー計算ステップと、
     奥行き情報計算部が、前記オプティカルフロー計算ステップにより計算された組毎の前記オプティカルフローと、前記画像記憶部に記憶された前記撮像装置状態情報のうち、前記対象画像と当該組に含まれる前記参照画像とのそれぞれに対応する前記撮像装置状態情報とに基づいて、前記対象画像の各画素の奥行きを示す奥行き情報を組毎に計算する奥行き情報計算ステップと、
     オプティカルフロー判定部が、前記奥行き情報計算ステップにより計算された組毎の前記奥行き情報のうちの少なくとも2つの前記奥行き情報に基づいて、組毎の前記オプティカルフローに含まれる前記画素毎対応情報のそれぞれを前記対象画像の高解像度化に用いるか否かを処理装置により判定するオプティカルフロー判定ステップと、
     高解像度化処理部が、組毎の前記オプティカルフローに含まれる前記画素毎対応情報のうち、前記オプティカルフロー判定ステップにより前記対象画像の高解像度化に用いると判定された前記画素毎対応情報に基づいて、前記対象画像を高解像度化する高解像度化処理ステップとを備えることを特徴とする高解像度画像生成プログラム。
PCT/JP2014/067386 2013-07-12 2014-06-30 高解像度画像生成装置、高解像度画像生成方法及び高解像度画像生成プログラム WO2015005163A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015526272A JP5987114B2 (ja) 2013-07-12 2014-06-30 高解像度画像生成装置、高解像度画像生成方法及び高解像度画像生成プログラム
US14/891,059 US9563937B2 (en) 2013-07-12 2014-06-30 High-resolution image generation apparatus, high-resolution image generation method, and high-resolution image generation program
EP14823455.2A EP3021278A4 (en) 2013-07-12 2014-06-30 High-resolution image generation device, high-resolution image generation method, and high-resolution image generation program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013146945 2013-07-12
JP2013-146945 2013-07-12

Publications (1)

Publication Number Publication Date
WO2015005163A1 true WO2015005163A1 (ja) 2015-01-15

Family

ID=52279849

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/067386 WO2015005163A1 (ja) 2013-07-12 2014-06-30 高解像度画像生成装置、高解像度画像生成方法及び高解像度画像生成プログラム

Country Status (4)

Country Link
US (1) US9563937B2 (ja)
EP (1) EP3021278A4 (ja)
JP (1) JP5987114B2 (ja)
WO (1) WO2015005163A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9872011B2 (en) * 2015-11-24 2018-01-16 Nokia Technologies Oy High-speed depth sensing with a hybrid camera setup
JP7059881B2 (ja) * 2018-10-04 2022-04-26 トヨタ自動車株式会社 画像処理装置、画像処理方法、およびプログラム
JP7116244B2 (ja) * 2019-03-01 2022-08-09 株式会社ソニー・インタラクティブエンタテインメント 画像送受信システム、画像送信装置、画像受信装置、画像送受信方法及びプログラム
CN110062220B (zh) * 2019-04-10 2021-02-19 长春理工大学 视差层次最大化的虚拟视点图像生成方法
WO2021223860A1 (en) 2020-05-05 2021-11-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Acquiring a digital image of an image content

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146231A (ja) 2007-12-14 2009-07-02 Nara Institute Of Science & Technology 超解像法および超解像プログラム
JP4305148B2 (ja) 2003-12-02 2009-07-29 三菱電機株式会社 Sar画像超解像装置
JP2012253748A (ja) * 2011-05-09 2012-12-20 Canon Inc 画像処理装置およびその方法
WO2014077024A1 (ja) * 2012-11-19 2014-05-22 コニカミノルタ株式会社 画像処理装置、画像処理方法および画像処理プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0713331B1 (en) * 1994-11-17 2001-03-14 Canon Kabushiki Kaisha Camera control device and method
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
JP2002157576A (ja) 2000-11-22 2002-05-31 Nec Corp ステレオ画像処理装置及びステレオ画像処理方法並びにステレオ画像処理用プログラムを記録した記録媒体
JP4202705B2 (ja) 2002-09-27 2008-12-24 株式会社パスコ レーザデータのノイズ除去方法
JP4837615B2 (ja) 2006-04-11 2011-12-14 パナソニック株式会社 画像処理方法および画像処理装置
US7957610B2 (en) 2006-04-11 2011-06-07 Panasonic Corporation Image processing method and image processing device for enhancing the resolution of a picture by using multiple input low-resolution pictures
US8374464B2 (en) 2006-05-31 2013-02-12 Nec Corporation Method, apparatus and program for enhancement of image resolution
JP2009181508A (ja) 2008-01-31 2009-08-13 Sharp Corp 画像処理装置、検査システム、画像処理方法、画像処理プログラム、及び該プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5243833B2 (ja) 2008-04-04 2013-07-24 株式会社日立製作所 画像信号処理回路、画像表示装置、および画像信号処理方法
JP5229733B2 (ja) 2008-11-25 2013-07-03 Necシステムテクノロジー株式会社 ステレオマッチング処理装置、ステレオマッチング処理方法およびプログラム
IT1393687B1 (it) 2009-04-03 2012-05-08 Tele Rilevamento Europa T R E S R L Procedimento per l'identificazione di pixel statisticamente omogenei in immagini sar acquisite sulla stessa area.
JP5448981B2 (ja) * 2009-04-08 2014-03-19 株式会社半導体エネルギー研究所 液晶表示装置の駆動方法
JP2011113527A (ja) 2009-11-30 2011-06-09 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP5769248B2 (ja) 2011-09-20 2015-08-26 Necソリューションイノベータ株式会社 ステレオマッチング処理装置、ステレオマッチング処理方法、及び、プログラム
JP5795932B2 (ja) 2011-10-07 2015-10-14 株式会社日立製作所 土地状態推定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4305148B2 (ja) 2003-12-02 2009-07-29 三菱電機株式会社 Sar画像超解像装置
JP2009146231A (ja) 2007-12-14 2009-07-02 Nara Institute Of Science & Technology 超解像法および超解像プログラム
JP2012253748A (ja) * 2011-05-09 2012-12-20 Canon Inc 画像処理装置およびその方法
WO2014077024A1 (ja) * 2012-11-19 2014-05-22 コニカミノルタ株式会社 画像処理装置、画像処理方法および画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3021278A4 *

Also Published As

Publication number Publication date
US20160086311A1 (en) 2016-03-24
EP3021278A1 (en) 2016-05-18
JP5987114B2 (ja) 2016-09-07
JPWO2015005163A1 (ja) 2017-03-02
EP3021278A4 (en) 2017-03-01
US9563937B2 (en) 2017-02-07

Similar Documents

Publication Publication Date Title
JP6561216B2 (ja) 光学フローを使用した中間ビューの生成
JP4679033B2 (ja) 深度マップのメジアン値融合のためのシステムおよび方法
JP5987114B2 (ja) 高解像度画像生成装置、高解像度画像生成方法及び高解像度画像生成プログラム
JP7058277B2 (ja) 再構成方法および再構成装置
WO2011033668A1 (ja) 視差画像生成装置
US10818018B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP4658223B2 (ja) 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体
JP2007000205A (ja) 画像処理装置及び画像処理方法並びに画像処理プログラム
JP2013225740A (ja) 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム
WO2004114224A1 (ja) 仮想視点画像生成方法及び3次元画像表示方法並びに装置
US10049432B2 (en) Image processing apparatus, image processing method, program and recording medium
JP5812716B2 (ja) 画像処理装置および方法
US8687000B2 (en) Image generating apparatus and computer program
CN111402345B (zh) 基于多目全景图像的模型生成方法及装置
CN116168143A (zh) 一种多视图三维重建的方法
JP2018036898A (ja) 画像処理装置及びその制御方法
JP2007053621A (ja) 画像生成装置
JP2011039801A (ja) 画像処理装置および画像処理方法
JP2016126673A (ja) 情報処理装置及びその制御方法、並びに、ビデオカメラ
US20120038785A1 (en) Method for producing high resolution image
US20130120461A1 (en) Image processor and image processing method
JP2017199285A (ja) 情報処理装置、情報処理方法、プログラム
JP4642431B2 (ja) 地図表示装置、地図表示システム、地図表示方法およびプログラム
JP5478200B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP6355206B2 (ja) カメラキャリブレーション方法、カメラキャリブレーション装置及びカメラキャリブレーションプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14823455

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015526272

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14891059

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2014823455

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE