WO2009150882A1 - 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置 - Google Patents

画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置 Download PDF

Info

Publication number
WO2009150882A1
WO2009150882A1 PCT/JP2009/055366 JP2009055366W WO2009150882A1 WO 2009150882 A1 WO2009150882 A1 WO 2009150882A1 JP 2009055366 W JP2009055366 W JP 2009055366W WO 2009150882 A1 WO2009150882 A1 WO 2009150882A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processing
region
feature point
motion
Prior art date
Application number
PCT/JP2009/055366
Other languages
English (en)
French (fr)
Inventor
田中正行
奥富正敏
矢口陽一
Original Assignee
国立大学法人東京工業大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人東京工業大学 filed Critical 国立大学法人東京工業大学
Priority to JP2010516785A priority Critical patent/JP5294343B2/ja
Priority to US12/737,083 priority patent/US20110170784A1/en
Publication of WO2009150882A1 publication Critical patent/WO2009150882A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4069Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by subpixel displacements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Definitions

  • the present invention relates to a digital image processing technique, and in particular, an image alignment processing technique for performing an alignment process of an entire image (full screen) between images including a plurality of motions with high accuracy, and the image.
  • the present invention relates to image quality improvement processing technology using alignment processing technology.
  • the present invention also relates to a region expansion processing technique for performing region expansion processing on an image including a plurality of motions.
  • the present invention relates to an image quality improvement processing technique using the image alignment processing technique of the present invention and the area expansion processing technique of the present invention.
  • Digital image processing technology includes image quality improvement processing that uses multiple images to generate high-quality images.
  • super-resolution processing is one such image quality improvement processing.
  • Super-resolution processing is a process that reconstructs (estimates) one high-resolution image using multiple low-resolution images with misalignment.
  • the captured low-resolution images often include a plurality of moving objects with different motions, and the entire image (such as a full screen) between images including such a plurality of motions. It is a very difficult problem to perform high-precision alignment processing.
  • image alignment processing corresponding to multiple motions As an existing method for aligning the entire image (full screen) between images containing multiple motions (hereinafter referred to as “image alignment processing corresponding to multiple motions”), for example,
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2007-257287
  • Patent Document 2 Japanese Patent Application 2007-038006
  • Patent Document 3 Japanese Patent Application 2007-070401
  • Non-patent document 1
  • Non-Patent Document 2 S. Park Co-authored by N. Park and M. Rang, “Sono Resonance Image Reconstruction : Technique nore nono view Super-resolution image reconstruction: a technical overview) J, IEEE Signal Processing Magazine (EEE Signal Processing Magazine), Vol. 20, No. 3, p.21 -36, 2003 Non-Patent Document 2:
  • Non-Patent Document 4 'Masato Toda, Masato Tsukada, Atsushi Inoue,' Registration Trayon Hyper-angle image processing considering error ”, Pro- edings of FIT 2 0 0 6 (Proceeding of FIT 2006), No. 1, p.63-64, 2006 Non-patent Reference 5:
  • Non-Patent Document 9 By M. Black and P. Anandan, "The Ronoest Estate Off-Multiple Motions: Parametric The robust estimation of multiple motions (Parametric and piecewise-smooth flow fields) J, combinatorial vision and image Tanning (Computer Vision and Image Understanding), Vol.63, No.1, p.75-104, 1996
  • Non-Patent Document 10
  • Non-patent literature 1 1 Co-authored by J. Wills, S. Agarwal, and S. Belongie, “What went where J, ⁇ ⁇ Computer Society Conference and Computer Vision and Pattern Recognition (CVPR), 1st, p .37-44, 2003 Non-patent literature 1 1 :
  • Non-Patent Literature 1 3 Co-authored by O. Chum and J. Matas, “Matching with PRObAC-progressive sample consensus”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), Chapter 1, p. .220-226, 2005
  • Non-Patent Literature 1 3
  • Non-Patent Document 16 Distinctive Image Features from Scale-Invariant Keypoints), International Journal of Computer Vision, 60th, 2nd. , P.91-110, 200
  • Non-Patent Document 1 :
  • Non-Patent Document 1 9 Co-authored by S. Baker and I. Matthews, “Nore's Ikanade 20 Years on: Lucas— Kanade 20 Years On: A Unifying Framework) J. International Journal of Computer Vision), Vol. 56, No. 3, D.221-255, 2004
  • Non-Patent Document 1 9
  • the conventional method 2 has a problem that the registration process tends to become unstable because only local information is used for the registration process.
  • ⁇ conventional method 5 '' that extracts multiple motions only obtains feature points corresponding to each motion, and it supports that motion. There is a problem that there is no area to do.
  • the present invention has been made for the above-described circumstances, and an object of the present invention is to perform robust and highly accurate alignment processing of the entire image (full screen) between images including a plurality of motions.
  • An object of the present invention is to provide an image alignment processing device that can be used.
  • Another object of the present invention is to perform alignment processing on a plurality of images including a plurality of motions using the image alignment processing device of the present invention, It is an object of the present invention to provide an image quality improvement processing apparatus that performs an image quality improvement process using the above-mentioned images.
  • Another object of the present invention is to provide a region expansion processing device that performs region expansion processing on an image including a plurality of motions.
  • another object of the present invention is to provide a plurality of images including a plurality of motions.
  • the image is subjected to registration processing by the image registration processing device of the present invention, and based on the registration processing result, the region is processed by the region expansion processing device of the present invention on the plurality of images.
  • Another object of the present invention is to provide an image quality improvement processing apparatus that performs an extension process, and further performs an image quality improvement process using the alignment process result, the area extension process result, and the plurality of images.
  • the present invention relates to an image alignment processing apparatus that performs the entire image alignment process between a reference image including a plurality of motions and an input image including a plurality of motions with high accuracy and a high accuracy.
  • the object includes a feature point extraction processing unit, a feature point base registration processing unit, a single motion region extraction processing unit, a region base registration processing unit, and a feature point deletion processing unit,
  • a feature point extraction processing unit performs feature point extraction processing to extract feature points of the reference image and the input image, respectively, and the feature point base alignment processing unit extracts features extracted from the reference image.
  • a process of associating a point (reference image feature point) with a feature point (input image feature point) extracted from the input image, and an initial motion parameter after removing an outlier from the associated feature point And a single motion region extraction processing unit based on the initial motion parameters output from the feature point base alignment processing unit.
  • a single motion region extraction process that extracts a single motion region corresponding to the initial motion parameter using a similarity between the two and a local positional deviation amount, and the region-based alignment processing unit The initial motion parameters output from the feature point-based alignment processing unit and the single motion region output from the single motion region extraction processing unit.
  • the feature parameter deletion processing unit estimates the motion parameter corresponding to the single motion region with sub-pixel accuracy, and performs the region-based registration processing, and the feature point deletion processing unit performs the reference image feature point and the input This is effectively achieved by performing feature point deletion processing for deleting feature points included in the single motion region extracted by the single motion region extraction processing unit from the image feature points.
  • the object of the present invention is to provide the image registration processing device, a process performed by the feature point extraction processing unit based on the reference image and the input image, and a special point base registration processing unit.
  • the feature point extraction processing unit performs processing in order, processing performed in the single motion region extraction processing unit, and processing performed in the region base alignment processing unit.
  • the first single motion region corresponding to the first dominant motion is extracted using all the extracted feature points, and the first single motion region corresponding to the extracted first single motion region is extracted. 1 More effectively achieved by estimating motion parameters.
  • the object of the present invention is that the image registration processing device is not deleted by the feature point deletion process performed by the feature point deletion processing unit after the first motion parameter is estimated.
  • the feature points remaining in are used as reference image feature points and input image feature points used in the feature point-based registration processing performed by the feature point-based registration processing unit.
  • the second control is performed by sequentially performing the processing performed in the base alignment processing unit, the processing performed in the single motion region extraction processing unit, and the processing performed in the region base alignment processing unit.
  • the object of the present invention is that the image registration processing device includes the single motion region by processing performed by the feature point deletion processing unit after the second motion parameter is estimated.
  • the present invention relates to an image quality improvement processing device that generates a high-quality improved image based on a plurality of images including a plurality of motions.
  • the above object of the present invention is to provide an image alignment processing unit, an image quality And an improvement processing unit, wherein the image registration processing unit selects one reference image from the plurality of images, and sets all remaining images as input images.
  • the image position of the present invention A plurality of images including a plurality of motions are obtained by repeatedly performing the alignment processing of the entire image of one reference image and one input image performed by the alignment processing device on the plurality of images.
  • All of the single motion regions in the image of the image are extracted, and all the motion parameters related to the single motion regions are estimated with robustness and high accuracy, and the image quality improvement processing unit Together By performing image quality improvement processing on the multiple images based on the multiple single motion areas output from the management unit and the motion parameters corresponding to each single motion area.
  • the image quality improvement image is generated effectively.
  • the present invention provides a reference image including a plurality of motions and a plurality of motions.
  • the above object of the present invention is to provide a feature point extraction processing unit, a feature point-based registration, and an image registration processing device that performs the entire image registration processing with an input image including a motion image with high accuracy.
  • a feature point extraction unit that includes a processing unit, a single motion region extraction processing unit, and a region-based registration processing unit, wherein the feature point extraction processing unit extracts feature points of the reference image and the input image, respectively.
  • the feature point-based registration processing unit performs processing, and the correspondence between the feature point extracted from the reference image (reference image feature point) and the feature point extracted from the input image (input image feature point) And a feature point-based alignment process consisting of an initial motion parameter estimation process after removing outliers from the associated feature points.
  • the motion region extraction processing unit uses the similarity between images and the amount of local displacement to determine the initial motion parameters.
  • a single motion region extraction process is performed to extract a corresponding single motion region
  • the region base alignment processing unit includes initial motion parameters output from the feature point base alignment processing unit, and A region-based registration process that estimates motion parameters corresponding to a single motion region with sub-pixel accuracy based on the single motion region output from the single motion region extraction processing unit.
  • the image registration processing device based on the reference image and the input image, The processing performed in the feature point extraction processing unit, the processing performed in the feature point base registration processing unit, the processing performed in the single motion region extraction processing unit, and the region base registration processing unit
  • the first single mode corresponding to the first dominant motion is utilized by using all the feature points extracted by the feature point extraction processing unit. This is effectively achieved by extracting the motion region and estimating the first motion parameter corresponding to the extracted first single motion region.
  • the present invention can be obtained by performing a registration process of a reference image including a plurality of motions, an input image including a plurality of motions, and the entire image of the reference image and the input image.
  • Region expansion processing for the reference image and the input image based on a plurality of single motion regions corresponding to the plurality of motions and a plurality of motion parameters corresponding to the plurality of single motion regions.
  • the above-described object of the present invention relates to a textureless region extraction processing unit that receives the reference image, and an image deformation process that receives the input image and the plurality of motion parameters.
  • a threshold processing unit based on similarity using the reference image as one input
  • a logical product processing unit and a logical sum processing unit that receives the plurality of single motion regions as inputs.
  • the textureless region extraction processing unit extracts a textureless region of the reference image.
  • An area extraction process is performed, and the extracted textureless area is output to the logical product processing unit.
  • the image deformation processing unit deforms the input image based on the plurality of motion parameters, and the deformed input image. Is output to the threshold processing unit based on the similarity as a modified input image, and the threshold processing unit based on the similarity performs threshold processing on the local similarity with respect to the reference image and the modified input image.
  • the similar region is extracted, and the extracted similar region is output to the logical product processing unit, and the logical product processing unit is output from the textureless region extraction processing unit.
  • a textureless similar region is generated by performing a logical product process on the textureless region and the similar region output from the threshold processing unit based on the similarity, and the generated textureless similar region is converted into the logically similar region.
  • Output to the sum processing unit, and the logical sum processing unit outputs from the logical product processing unit.
  • the textureless similarity region and the plurality of single motion regions are subjected to a logical OR process, and a plurality of the textureless similarity region and the plurality of single motion regions are combined. Effectively achieved by creating an extended single motion region.
  • the object of the present invention is to obtain a local image variance in the reference image in the textureless region extraction process, and to determine a region where the obtained local image variance is a predetermined threshold value or less as a textureless region.
  • the local similarity used in the threshold processing unit based on the similarity is more effectively achieved by being an SSD or SAD.
  • the present invention relates to an image quality improvement processing apparatus that generates a high quality image quality improved image based on a plurality of images including a plurality of motions.
  • the above object of the present invention is to provide an image registration processing unit, A region expansion processing unit, and an image quality improvement processing unit, wherein the image alignment processing unit selects one reference image from the plurality of images, and sets all remaining images as input images. By repeatedly performing the alignment processing for the entire image of one reference image and one input image performed by the image alignment processing device of the present invention on the plurality of images, a plurality of motions is performed.
  • All of the single motion regions in a plurality of images including the region are extracted, and all the motion parameters related to these single motion regions are estimated robustly and with high accuracy, and the region expansion processing unit
  • the region of the present invention based on all the single motion regions in the plurality of images and all the motion parameters corresponding to all the single motion regions output from the image alignment processing unit.
  • the image registration processing technique according to the present invention has an excellent effect that the entire image registration processing between images including a plurality of motions can be performed with a high degree of accuracy.
  • the image registration processing technology according to the present invention is characterized by Since it has the advantages of the base alignment process and the area base alignment process, according to the present invention, it is possible to perform such a difficult alignment process.
  • the image registration processing technology according to the present invention, a plurality of extracted single motion areas and the estimated single motion areas are compared. Using the corresponding motion parameters, the image quality improvement processing device according to the present invention realized super-resolution processing of the entire image (full screen).
  • FIG. 1 is a block diagram showing a first embodiment of the image quality improvement processing apparatus according to the present invention.
  • FIG. 2 is a block diagram showing an embodiment of the image alignment processing apparatus according to the present invention.
  • FIG. 3 is a flowchart showing the processing flow of the image registration processing apparatus 100 according to the present invention.
  • FIG. 4 is a diagram showing an image example when the entire image alignment process between two images including a plurality of motions is performed by the image alignment processing apparatus according to the present invention.
  • Figure 5 shows a time-series image of a scene where two moving objects are moving separately.
  • FIG. 6 shows the result of the single motion region extraction process.
  • FIG. 7 is a diagram showing the result of deforming the left and right moving bodies according to the reference image.
  • Fig. 8 shows the result of super-resolution processing.
  • FIG. 9 is a diagram showing the super-resolution processing result.
  • FIG. 10 is a diagram showing the super-resolution processing result.
  • FIG. 11 is a block diagram showing a second embodiment of the image quality improvement processing apparatus according to the present invention.
  • FIG. 12 is a block diagram showing an embodiment of the area expansion processing device according to the present invention.
  • the present invention relates to an image registration processing technology corresponding to a plurality of motions and an image quality improvement processing technology using the image registration processing technology.
  • the present invention relates to an image alignment processing device, an image alignment process, and an image alignment processing apparatus that can perform the alignment processing of the entire image (full screen) between images including a plurality of motions with high accuracy.
  • the present invention relates to a method and an image alignment processing program.
  • the present invention performs alignment processing between images on a plurality of images including a plurality of motions by the image alignment processing device of the present invention, and the obtained plurality of single motion regions and each unit.
  • the present invention relates to an image quality improvement processing apparatus that generates an image quality improved image by performing image quality improvement processing using a plurality of images with high-precision motion parameters corresponding to one motion area. Relates to a region expansion processing technology for performing region expansion processing on an image including a plurality of motions.
  • the present invention relates to image quality improvement processing technology using the image registration processing technology of the present invention and the area expansion processing technology of the present invention.
  • the registration processing between images can be broadly divided into feature point-based registration processing and region-based registration processing.
  • the region-based alignment process is the same as the initial value of the motion parameter. Although it is necessary to provide a motion area, alignment processing can be performed with high accuracy.
  • the initial value of motion parameters and a single motion area are not required, and the alignment process can be performed in the mouth bust.
  • the feature point-based registration process cannot be performed with higher accuracy than the area-based registration process.
  • the feature point-based registration process can estimate motion parameters, but cannot estimate a single motion region corresponding to the motion parameters.
  • the inventors of the present invention focused on the advantages of the feature-point-based registration processing and the region-based registration processing, combined the advantages of both while eliminating the disadvantages of both, and further developed a unique single motion.
  • the present invention invented the present invention in which the processing of aligning the entire image (entire screen) between images including a plurality of motions can be performed with a high degree of accuracy by using the region extraction processing technique.
  • each motion is estimated as a single motion, and a single motion region corresponding to the single motion.
  • the motion parameters of the extracted single motion region are estimated with high accuracy.
  • the present invention when used to perform alignment processing of the entire image (full screen) of one reference image including a plurality of motions and one input image including a plurality of motions.
  • feature point extraction processing (hereinafter also referred to as first processing) is performed to extract the feature points of the reference image and the input image, respectively.
  • the feature point extracted from the reference image (reference image feature point) and the feature point extracted from the input image (input image feature point) are subjected to a matching process, and deviated from the matched feature point.
  • Perform feature point-based registration processing hereinafter also referred to as second processing to delete the value and robustly estimate the initial motion parameters.
  • the second process is also referred to as a feature point-based registration process that involves the removal of outliers.
  • the region corresponding to the initial motion parameter ie, a single motion region
  • the similarity between images and the amount of local displacement is extracted using the similarity between images and the amount of local displacement.
  • Single motion area extraction processing hereinafter also referred to as third processing.
  • the region base position that estimates the motion parameters corresponding to the single motion region with sub-pixel accuracy (with high accuracy) Perform the matching process (hereinafter also referred to as the fourth process).
  • the maximum number of feature points is obtained by performing a series of processes from the first process to the fourth process using all the feature points extracted from the reference image and the input image. It is possible to extract a single motion area corresponding to the containing dominant motion (hereinafter also referred to as the first dominant motion). Corresponding motion parameters can be estimated.
  • the feature point-based registration process (second process) with deletion of outliers is performed using all feature points associated with each other between images.
  • the dominant motion including the feature points is estimated.
  • a feature point deletion process (hereinafter also referred to as fifth process) is performed to delete the feature points included in the single motion area from the reference image feature points and the input image feature points.
  • the feature points remaining without being deleted are used as the reference image feature points and the input image feature points, and the second process to the fourth process are performed again to perform the second process. It is possible to extract a single motion region corresponding to the motion region that is dominant (hereinafter, also referred to as the second dominant motion), and the motion corresponding to the single motion region. Parameters can be estimated.
  • a series of processes from the second process to the fourth process are repeated while removing the feature points included in the single motion area by performing the fifth process as described above.
  • a single motion region corresponding to a plurality of motions is sequentially extracted, and motion parameters corresponding to the sequentially extracted single motion regions are also sequentially estimated.
  • a plurality of motion parameters are sequentially estimated in order from the dominant motion including many feature points.
  • the present invention it is possible to extract a plurality of single motion areas by performing the first process and further repeating a series of processes from the second process to the fifth process.
  • the motion parameters corresponding to each single motion region can be estimated with high accuracy and mouth-bust.
  • the above processing is the alignment processing of the entire image between two images including a plurality of motions.
  • the above processing (alignment processing of the entire image between two images including multiple motions) By repeatedly applying to a plurality of images including a motion, it is possible to perform alignment processing of the entire image between a plurality of images including a plurality of motions.
  • the motion parameter estimated with high accuracy is performed by performing alignment processing of the entire image on a plurality of images including a plurality of motions. Then, by using a single motion area corresponding to the motion parameter, image quality improvement processing (for example, super-resolution processing) of the entire image is performed to generate an image quality improved image.
  • image quality improvement processing for example, super-resolution processing
  • FIG. 1 is a block diagram showing a first embodiment of an image quality improvement processing apparatus according to the present invention.
  • an image quality improvement processing device 1 includes an image alignment processing unit 10 and an image quality improvement processing unit 2 0, and applies a plurality of images including a plurality of motions. Based on this, a high-quality image with improved image quality is generated.
  • the image registration processing unit 10 uses the image registration processing device according to the present invention, which will be described in detail later, for a plurality of images including a plurality of motions.
  • the image registration processing unit 10 uses the image registration processing device according to the present invention, which will be described in detail later, for a plurality of images including a plurality of motions.
  • a plurality of single motion areas corresponding to a plurality of motions are extracted, and a motion corresponding to each extracted single motion area is extracted. Parameter is estimated with high accuracy and mouth bust.
  • the image alignment processing unit 10 first selects one reference image from a plurality of images including a plurality of motions, sets all the remaining images as input images, and then selects the main image.
  • the entire image alignment process of one reference image and one input image which is performed by the image alignment processing device according to the invention, Iterate over multiple images containing multiple motions to extract all single motion regions in multiple images containing multiple motions, and ⁇ those single motions Estimate all motion parameters related to the area with high accuracy.
  • the image quality improvement processing unit 20 outputs a plurality of single motion areas output from the image alignment processing unit 10 and the motion parameters corresponding to each single motion area. Based on the above, an image quality improvement image is generated by performing image quality improvement processing on a plurality of images including a plurality of motions.
  • the image quality improvement processing performed by the image quality improvement processing unit 20 is, for example,
  • a moving image having a plurality of movements (a plurality of complex movements) (that is, a plurality of moving objects are included).
  • Time-series images of scenes that are moving separately) can be used.
  • the first frame of the time-series image can be used as a reference image, and the subsequent frames can be used as input images.
  • the image quality improvement processing apparatus of the present invention is not limited to being applied to a moving image, and it is of course possible to use a still image as a plurality of images including a plurality of motions. . ⁇
  • FIG. 2 is a block diagram showing an embodiment of the image registration processing apparatus (image registration processing apparatus 100) according to the present invention.
  • FIG. 3 is a flowchart showing the processing flow of the image alignment processing apparatus 100 of the present invention.
  • the process performed by the image alignment processing apparatus according to the present invention is an alignment process for the entire image between two images including a plurality of motions.
  • the image registration processing device 1 0 0 includes a feature point extraction processing unit 1 1 0, a feature point base registration processing unit 1 2 0, and a single motion region extraction process.
  • Part 1 3 area-based alignment processing part 1 4 0, and feature point deletion processing part 1 5 0, between two images including multiple motions (one image is a reference image) The other image is the input image), and the entire image is aligned.
  • the feature point extraction processing unit 110 is used to calculate the feature points of the reference image and the input image based on the reference image and the input image.
  • Each feature point extraction process is performed (see step S 10 and step S 20 in FIG. 3).
  • the feature point base registration processing unit 120 performs the feature point base registration processing.
  • the feature point-based registration process is a process of associating feature points extracted from the reference image (reference image feature points) with feature points extracted from the input image (input image feature points) (steps in Fig. 3).
  • the initial motion parameter estimation process (see step S40 in Fig. 3) after the outlier is deleted from the associated feature point.
  • the single motion region extraction processing unit 1 30 is based on the initial motion parameters output from the feature point-based registration processing unit 1 2 0, and the similarity between the images and the local positional deviation.
  • a single motion region extraction process (see step S 60 in FIG. 3) for extracting a single motion region corresponding to the initial motion parameter is performed using the quantity.
  • the region base alignment processing unit 1400 force feature point base alignment processing unit 1 2 0 outputs the initial motion parameters and single mode Based on the single motion region output from the motion region extraction processing unit 130, the motion parameter corresponding to the single motion region is estimated with sub-pixel accuracy (with high accuracy). Perform region-based alignment (see step S70 in Figure 3).
  • the region-based registration processing unit 14 0 uses the initial motion parameter output from the feature point base registration processing unit 120 as the initial value of the motion parameter, and performs single motion region extraction processing.
  • the single motion region output from the part 1 30 is used as the region of interest, and the motion parameters corresponding to the single motion region (region of interest) are estimated with subpixel accuracy. .
  • the image registration processing apparatus 100 first, the processing performed by the feature point extraction processing unit 110 based on the reference image and the input image, the feature point base registration processing unit 120.
  • the feature points are extracted by sequentially performing the processing performed in step 1, the processing performed in the single motion region extraction processing unit 1 30 and the processing performed in the region base alignment processing unit 14 0.
  • a single mode corresponding to the dominant motion (first dominant motion) containing the most feature points is used.
  • the motion area hereinafter referred to as the first single motion area
  • the motion parameter corresponding to the first single motion area hereinafter referred to as the first motion parameter). Is estimated.
  • the feature point deletion processing unit 15 50 includes the features included in the single motion region extracted by the single motion region extraction processing unit 13 30 from the reference image feature points and the input image feature points. Perform feature point deletion processing (see step S90 in Fig. 3) to delete points.
  • the feature point deletion process The feature points that have not been deleted by the feature point deletion processing performed by the unit 1 5 0 are used for the feature point base alignment processing performed by the feature point base alignment processing unit 1 2 0.
  • the region-based alignment processing unit 1400 Based on the reference image feature point and the input image feature point, the processing performed by the feature point base position matching process unit 120, the processing performed by the single motion region extraction processing unit 130
  • the region-based alignment processing unit 1400 performs a single motion corresponding to the second dominant motion (second dominant motion) by sequentially performing the processing performed in the 40.
  • a region hereinafter referred to as a second single motion region
  • a motion parameter corresponding to the second single motion region hereinafter referred to as a second motion parameter
  • the feature points included in the single motion area are removed by the processing performed by the feature point deletion processing unit 15 50 as described above.
  • the processing performed by the feature point based alignment processing unit 1 2 0, the processing performed by the single motion region extraction processing unit 1 3 0, and the processing performed by the region base alignment processing unit 1 4 0 By iterating, all single motion areas corresponding to multiple motions are extracted sequentially, and the motion parameters corresponding to the single motion areas extracted sequentially are set. Are also estimated sequentially.
  • single motion areas are sequentially extracted sequentially from dominant motions including many feature points, and sequentially sequentially.
  • the motion parameters corresponding to the extracted single motion region are estimated.
  • the feature point extraction processing unit 110 performs the feature point extraction processing, and further the feature point base registration processing unit 120 uses the feature point extraction processing unit 110.
  • Processing, single motion area extraction processing section By repeating the processing performed in 1 3 0, the processing performed in the region-based alignment processing unit 14 0, and the processing performed in the feature point deletion processing unit 1 5 0, a plurality of motions are obtained. It is possible to extract a plurality of single motion areas corresponding to each, and it is possible to estimate the motion parameters corresponding to each single motion area with a high degree of accuracy. .
  • the image registration processing device of the present invention performs feature point extraction processing on a reference image and an input image including a plurality of motions.
  • Do. Fig. 4 shows an example of the result of the feature point extraction process performed on the reference image and the input image.
  • a force S and D o G (Difference—of—Gaussian) which does not change the scale parameter of Gaussian are calculated.
  • D o G difference—of—Gaussian
  • the D o G scale parameter corresponding to the minimum or maximum value of D o G was extracted in ⁇ Processing of feature point matching between images '' described in detail in 2a>. It is used when normalizing the surrounding area of feature points.
  • New tau represents the number of feature points extracted from the reference image
  • N t represents the number of feature points extracted from the input image.
  • the feature point base registration processing unit 1 1 0 has feature points extracted from the reference image (reference image feature points) and feature points extracted from the input image (input image feature points). ) Based on the above, the feature point-based alignment process is performed.
  • the feature point-based registration process is a process of associating the reference image feature point with the input image feature point (that is, the process of associating the feature points between images) and removing outliers from the associated feature points And initial motion parameter estimation processing.
  • Non-Patent Literature 12 to Non-Patent Literature 14 describe methods for estimating motion parameters while removing feature point pairs that are out of correspondence with associated feature point pairs.
  • the “feature point extraction processing” performed by the feature point extraction processing unit 110 and the “inter-image processing” performed by the feature point base registration processing unit 120 were used for the feature point mapping process.
  • the SIFT algorithm described in Non-Patent Document 15 is a method that can obtain a comparatively past result even if the deformation is large.
  • the initial motion parameter estimation process after deleting outliers from the associated feature points is performed by the feature point base alignment processing unit 120.
  • Is described in Non-Patent Document 12 which is a method for speeding up the RANSAC algorithm described in Non-Patent Document 13; the PROSAC algorithm was used.
  • the initial motion parameters can be estimated in a robust manner by performing feature point-based registration processing that involves deletion of outlier feature point pairs (deletion of outliers).
  • step S 30 of FIG. 3 in the image registration processing device of the present invention, feature points extracted from the reference image (reference image feature points) and feature points extracted from the input image (input) Image feature points), that is, feature point association processing between images.
  • the process for associating feature points between images includes a process for normalizing a peripheral area of feature points, a process for calculating feature quantities of feature points, and an association process based on the distance between feature quantities.
  • the scale parameter of the feature point and the direction of the feature point are determined.
  • the scale parameter of Do G when the feature point is extracted is used as the scale parameter of the feature point.
  • the direction of the gradient of each pixel in the area surrounding the extracted feature point is calculated, and a histogram of the calculated direction of the gradient is created.
  • the direction of the gradient of the pixel corresponding to the peak of the created histogram is determined as the direction of the feature point.
  • the area around the feature points defined in this way is Normalize based on direction.
  • the process of normalizing the surrounding area of feature points is a process of enlarging, reducing, or rotating the surrounding area so that the scale and direction of the surrounding area are the same for all feature points.
  • the peripheral area of the normalized feature point is divided into small areas.
  • the area around the normalized feature point is divided into 16 small areas of 4 ⁇ 4.
  • the gradient direction of each pixel is calculated, and a histogram of the calculated gradient direction is created.
  • a frequency value in eight directions can be obtained by creating a histogram with a width of 45 degrees in the direction of 360 degrees. The value obtained by normalizing this frequency value with the number of pixels is used as the feature quantity of the feature point.
  • a feature amount corresponding to the feature point extracted from the reference image is set as 3 ⁇ 4. Also, let the feature quantity corresponding to the feature point extracted from the input image be. However, and are 1 to 28 dimensional vectors that represent feature quantities.
  • a distance s pq between the p-th feature point of the reference image and the q-th feature point of the input image is calculated.
  • Feature point of the input image corresponding to the [rho th feature point of the reference image, q-th feature point distance s [rho q smallest by UNA input image is selected.
  • the feature points extracted from the reference image are associated with the feature points extracted from the input image.
  • step S 40 of FIG. 3 in the image registration processing device of the present invention, outliers are deleted from the associated feature points, and initial motion parameter estimation processing is performed.
  • the initial motion parameter estimation process by removing outliers from the associated feature points is performed in steps 1 to 10 below.
  • step 1 projective transformation is used for the motion model, that is, the estimated initial motion parameter is the projective transformation parameter.
  • the present invention is not limited to using the projective transformation for the motion model.
  • a motion model other than the projective transformation can be used.
  • Step 3 From the one with the highest reliability r, the correspondence of (n-1) feature points is selected, and the correspondence of three feature points is selected at random. Step 3:
  • the projection transformation parameter I ⁇ is calculated using the correspondence between the three selected feature points and the nth feature point with the highest reliability r.
  • the input image feature point is converted, and the difference between the converted position of the input image feature point and the position of the reference image feature point associated with the input image feature point is calculated.
  • this predetermined threshold is 2.
  • Step 6 If the number of feature points whose position difference is less than or equal to a predetermined threshold is greater than L, L is set to the number of feature points whose position difference is less than or equal to a predetermined threshold.
  • Equation 1 Equation 1
  • is a specific example of the design parameter.
  • is set to 0 5.
  • t 1 0 0 0 0 0 0. Step 9:
  • Step 1 0
  • the “single motion region extraction processing” performed by the single motion region extraction processing unit 13 30 is disclosed in Patent Document 2 and Non-Patent Document 16.
  • the pixel selection algorithm is used.
  • the single motion region extraction processing unit 1 30 is configured by selecting pixels using the pixel selection algorithm disclosed in Patent Document 2 and Non-Patent Document 16 and only the selected pixels.
  • the region ie, the selected set of pixels
  • Patent Document 2 and Non-Patent Document 16 when selecting a pixel, in addition to the evaluation based on the similarity between images, a local misregistration amount is used.
  • a pixel having a high degree of similarity between images and a small displacement is selected.
  • the selected pixel is the pixel belonging to the single motion area.
  • the single motion region extraction processing unit 1 30 is limited to performing single motion region extraction processing using the pixel selection algorithm disclosed in Patent Document 2 and Non-Patent Document 16. However, for example, it is possible to generate a mask image by using a mask image generation algorithm as disclosed in Patent Document 1 and extract the generated mask image as a single motion region. Is possible.
  • step S 60 of FIG. 3 based on the estimated initial motion parameter, the similarity between images and the amount of local misregistration are used.
  • Single motion area extraction process that extracts a single motion area corresponding to the initial motion parameters I do.
  • Fig. 4 shows an example of an image of the extracted single motion area.
  • the reference image T the input image I
  • the estimated initial motion parameter H is extracted as a mask image M from the following (hereinafter also simply referred to as the initial motion parameter H).
  • the mask image M represents a single motion region.
  • Reference image T is the initial motion parameter H.
  • the image deformed in step 1 is defined as a deformation reference image ⁇ ′.
  • the similarity R (X, y; i, j) at the position (X, y) between the deformation reference image ⁇ 'and the input image I is defined as in the following equation (4).
  • C C and R th is a design parameter.
  • R th is 0.99 2 5 in this embodiment.
  • the mask image M (X, y) representing a single motion region can be calculated (extracted) by repeating the above calculation process for all positions (x, y). ⁇ 4> Region-based alignment processing
  • the ICI algorithm described in Non-Patent Document 18 is used for the region-based registration processing performed by the region-based registration processing unit 140.
  • the I C I A algorithm is an algorithm that can perform alignment processing at high speed and with high accuracy.
  • the single motion region is based on the initial motion parameter that is robustly estimated and the extracted single motion region.
  • Region-based alignment processing is performed to estimate motion parameters corresponding to motion regions with subpixel accuracy (with high accuracy).
  • Fig. 4 shows an example image of the alignment result of the entire image of the reference image and the input image using the motion parameters obtained by the area-based alignment process.
  • the motion parameter is estimated with high accuracy so as to minimize the evaluation function represented by the following expression 10.
  • ⁇ (, Y; H,) represents the X coordinate after conversion with the motion parameter.
  • (, ;; ⁇ ,) represents the y coordinate after conversion with the motion parameter.
  • Equation (10) a gradient-based minimization method is used.
  • the gradient-based minimization method requires an initial value, which is the initial motion parameter H. Is used.
  • the image quality improvement processing unit 20 corresponds to a plurality of single motion areas and each single motion area output from the image alignment processing unit 10. Based on the motion parameters to be generated, an image quality improved image is generated by performing image quality improvement processing on a plurality of images including a plurality of motions.
  • N images are observed (captured), and M k motion parameters (projection transformation parameters) and a single motion region corresponding to the motion parameters are observed from each observed image.
  • the image Mw is obtained by the entire image alignment process performed by the image alignment processing unit 10.
  • h represents a vector representation of the image with improved image quality.
  • N is the number of observation images.
  • a w is a matrix for estimating the kth observation image from the / th motion parameter (projection transformation parameter) of the kth observation image and the image quality improved image obtained from the camera model.
  • Q represents a matrix that represents the constraints of the image with improved image quality.
  • represents a parameter indicating the size of the constraint.
  • diag (m w ) represents a diagonal matrix with m w as a diagonal element.
  • T represents the matrix transpose operator. .
  • Image registration processing device and image quality improvement processing apparatus utilizes a computer system, can in this and the force s implemented Ri by the soft ware (computer program), and its, ASIC ( Of course, it can also be implemented by a nodeware such as an application specific integrated circuit (GU), a graphics processing unit (GU) or a field programmable gate array (FPGA).
  • a nodeware such as an application specific integrated circuit (GU), a graphics processing unit (GU) or a field programmable gate array (FPGA).
  • the image registration processing technology of the present invention is applied to a time-series image (real image) obtained by photographing a complex real scene in which there are a plurality of moving bodies, and shielding or specular reflection occurs. Furthermore, the effectiveness of the present invention was verified by performing super-resolution processing based on the image registration processing result according to the present invention. As a result, it was confirmed that the resolution of the entire image was effectively improved.
  • Figure 5 shows a time-series image of a scene where two moving objects are separated. For the time-series images shown in FIG. 5, the entire image alignment process according to the present invention was performed. As a single motion in the present invention, a planar projective transformation is assumed. Planar projective transformation is an image transformation that expresses the motion of a single plane.
  • Figure 6 shows the results of the single motion area extraction process.
  • the left side of Fig. 6 is the extraction result of the left single motion region
  • the right side of Fig. 6 is the extraction result of the right single motion region.
  • Figure 6 shows that only a single motion region is correctly extracted. Note that it is not necessary to extract all the pixels in the moving object. Since the present invention is also intended to perform image quality improvement processing (for example, super-resolution processing), it is rather important to extract only pixels that are accurately aligned with sub-pixel accuracy. 3 ⁇ 4>
  • Figure 7 shows the result of deforming the left and right moving bodies to match the reference image.
  • super-resolution processing was performed using the motion parameters estimated by the present invention.
  • super-resolution processing was also performed using motion parameters estimated by the concentration gradient method.
  • the concentration gradient method has three types of processing areas: the entire image (full screen), the manually specified left moving object, and the manually specified right moving object.
  • plane projection transformation was assumed as the motion.
  • the robust super-resolution processing the super-resolution processing was performed using only the region corresponding to the motion obtained by the method described in Non-Patent Document 16.
  • the number of frames of observation images is 30.
  • the method described in Non-Patent Document 19 is used, and the magnification for higher resolution is 3 times in the vertical and horizontal directions Set to.
  • Figure 8 shows the super-resolution processing results.
  • Mouth paste super-resolution processing has the effect of suppressing image degradation, but it cannot improve the resolution of areas with inaccurate alignment.
  • 8 (C) left side, (D) right side, (E) left side, and (E) right side show that the resolution is improved compared to the other super-resolution processing results in FIG. Areas with improved resolution are areas that are accurately aligned. From this result, it can be seen that the positioning of the moving body is accurately performed by the alignment processing of the entire image between images including a plurality of motions according to the present invention.
  • Figures 9 and 10 show the results of super-resolution processing for time-series images taken of more complex scenes.
  • This scene time-series image
  • lighting changes that include shielding and specular reflection components have occurred.
  • super-resolution processing was applied to all frames of the moving image.
  • FIGS. 9 and 10 correspond to frame 0, frame 50, frame 100, and frame 14 9 in order from the left column.
  • Figures 9 (B), (C), and (D) are images obtained by manually cutting out an area including glasses.
  • Figures 10 (B), (C), and (D) are images obtained by manually cutting out an area including a blue book. Each region was set for each frame, and the same region was extracted from the present invention, the existing method, and the observed image.
  • the super-resolution processing result using the alignment result according to the present invention has the highest resolution and the color shift can be suppressed at the edge of the glasses.
  • Figure 10 When comparing (B), (C), and (D), characters that cannot be read in the super-resolution processing result using the motion estimation result of the observation image enlargement or density gradient method of the entire image It can be seen that the image can be read by super-resolution processing using the alignment result according to the present invention.
  • a single motion region is extracted based on the similarity between images and the amount of local displacement. I am doing it.
  • the local misregistration amount estimation may be unstable in the textureless region. For this reason, a process may be performed in which a textureless area is determined and the textureless area is not included in a single motion area.
  • the inventors of the present invention show that even in the textureless region, if the local similarity like SSD is high, for example, a high local similarity. It was found that the textureless area having a high degree can be used for image quality improvement processing.
  • the textureless area having a high degree can be used for image quality improvement processing.
  • not only a textureless region but also a region that is a similar region hereinafter, such a region is simply referred to as a “textureless similar region”. Is added to a single motion area, and the signal-to-noise ratio of the textureless area is improved by image quality improvement processing.
  • FIG. 11 is a block diagram showing a second embodiment of the image quality improvement processing apparatus (image quality improvement processing apparatus 2 according to the present invention) according to the present invention.
  • the image quality improvement processing device 2 includes an image alignment processing unit 10, an area expansion processing unit 18, and an image quality improvement processing unit 20, and includes a plurality of motions. Based on a plurality of images including images, a high quality image with improved quality is generated.
  • the image registration processing unit 10 selects one reference image from a plurality of images, sets all the remaining images as input images, and then, as described above.
  • the image alignment processing unit 10 By repeatedly performing the alignment processing of the entire image of one reference image and one input image, which is performed by the image alignment processing device according to the present invention, on a plurality of images, a plurality of motions is obtained. All the single motion regions in a plurality of images including images are extracted, and all motion parameters related to these single motion regions are estimated with a high degree of accuracy.
  • the specific processing flow (operation) of the image registration processing unit 10 in the image quality improvement processing device 2 of the present invention is the processing flow of the image registration processing unit 10 in the image quality improvement processing device 1 of the present invention.
  • the description is omitted because it is the same as.
  • the area expansion processing unit 1 8 force image alignment processing unit 1 0 outputs all single motion areas in a plurality of images and all single mode Based on all motion parameters corresponding to the motion region, the region expansion processing for one reference image and one input image performed by the region expansion processing device according to the present invention, which will be described in detail later, By repeating this process for multiple images, all extended single motion regions in multiple images are generated.
  • the image quality improvement processing unit 20 receives all the extended single motion regions in the plurality of images output from the region expansion processing unit 18 and all the images output from the image alignment processing unit 10. Based on the motion parameters, an image quality improvement image is generated by performing image quality improvement processing on a plurality of images including a plurality of motions. Also, the image quality improvement processing performed by the image quality improvement processing unit 20 can be performed using, for example, the image quality improvement processing method disclosed in Patent Document 3.
  • a moving image having a plurality of motions (a plurality of complex motions) (that is, a plurality of moving bodies is included).
  • Time-series images of scenes that are moving separately) can be used.
  • the first frame of the time-series image can be used as a reference image, and the subsequent frames can be used as input images.
  • the image quality improvement processing device 2 is not limited to being applied to a moving image, and of course, still images can be used as a plurality of images including a plurality of motions. is there.
  • FIG. 12 is a block diagram showing an embodiment of the area expansion processing apparatus (area expansion processing apparatus 180) according to the present invention.
  • area expansion processing apparatus 180 area expansion processing apparatus 180
  • FIG. 12 is a block diagram showing an embodiment of the area expansion processing apparatus (area expansion processing apparatus 180) according to the present invention.
  • the region expansion processing device according to the present invention will be described in detail with reference to FIG.
  • the processing performed by the area expansion processing device includes a plurality of motions.
  • the plurality of single motion areas corresponding to the plurality of motions used in the area expansion processing device according to the present invention and the plurality of motion parameters corresponding to the plurality of single motion areas are the images according to the present invention. This is obtained by the alignment processing of the entire image performed by the alignment processing device.
  • the region expansion processing device 1 80 inputs a textureless region extraction processing unit 1 8 1 that receives a reference image, an input image, and a plurality of motion parameters.
  • Image transformation processing unit 1 8 2, threshold processing unit 1 8 3 based on similarity using the reference image as one input, logical product processing unit, and logical sum processing using multiple single motion regions as inputs
  • the textureless region extraction processing unit 1 8 1 performs the textureless region extraction processing for extracting the textureless region of the reference image and extracts it.
  • the textureless area is output to the logical product processing unit.
  • the image deformation processing unit 18 2 deforms the input image based on the plurality of motion parameters, and outputs the deformed input image to the threshold processing unit based on the similarity as the deformed input image.
  • the threshold processing unit based on similarity 1 83 extracts a similar region by performing threshold processing on the local similarity with respect to the reference image and the deformed input image, and ANDs the extracted similar regions.
  • the logical product processing unit 1 8 4 performs logical processing on the textureless region output from the textureless region extraction processing unit 1 8 1 and the similar region output from the threshold processing unit 1 8 3 based on similarity. By performing product processing, a textureless similar region is generated, and the generated textureless similar region is output to the logical sum processing unit 1 85.
  • the logical sum processing unit 1 85 performs logical sum processing on the textureless similar region output from the logical product processing unit 1 8 4 and a plurality of single motion regions. Multiple extended single motion regions are generated by combining textureless similar regions and multiple single motion regions.
  • the existing method can be used for the textureless region extraction processing performed by the textureless region extraction processing unit 1 8 1.
  • the textureless area extraction process for example, the local image variance in the reference image is obtained, and the area where the obtained local image variance is equal to or less than a predetermined threshold is defined as the textureless area. There is a way to extract.
  • the existing similarity can be used as the local similarity used in the threshold processing unit 1 83 according to the similarity.
  • SSD sum of squared difference
  • SAD sum of absolute difference
  • the image quality improvement processing is performed based on the extended single motion region obtained by adding the textureless similar region to the single motion region. As a result, the S / N ratio in the textureless region can be improved.
  • the area expansion processing device and the image quality improvement processing device 2 according to the present invention described above use a computer system and provide software (computer program). It can be implemented by hardware such as ASIC (Application Specific Integrated Circuit), GPU (Graphics Processing Unit) and FPGA (Field Programmable Gate Array). It is also possible to be implemented
  • Claim 1 An image alignment processing device that performs robust and highly accurate alignment processing of an entire image of a reference image including a plurality of motions and an input image including a plurality of motions,
  • a feature point extraction processing unit a feature point base registration processing unit, a single motion region extraction processing unit, a region base registration processing unit, and a feature point deletion processing unit;
  • the feature point extraction processing unit performs feature point extraction processing for extracting the feature points of the reference image and the input image, respectively.
  • the feature point-based registration processing unit associates a feature point (reference image feature point) extracted from the reference image with a feature point (input image feature point) extracted from the input image; Perform feature point-based alignment processing, which consists of initial motion parameter estimation processing after removing outliers from the associated feature points,
  • the single motion region extraction processing unit uses the similarity between images and the amount of local positional deviation to perform the initial motion estimation. Performs a single motion area extraction process that extracts a single motion area corresponding to the motion parameter.
  • the region-based registration processing unit is based on the initial motion parameter output from the feature point-based registration processing unit and the single motion region output from the single motion region extraction processing unit, Perform region-based registration processing to estimate motion parameters corresponding to the single motion region with sub-pixel accuracy,
  • the feature point deletion processing unit deletes feature points included in a single motion region extracted by the single motion region extraction processing unit from the reference image feature point and the input image feature point.
  • An image alignment processing device characterized by performing deletion processing. 2.
  • the image registration processing apparatus wherein the feature point extraction processing unit performs processing based on the reference image and the input image, the feature point base registration processing unit performs processing, All the features extracted by the feature point extraction processing unit are processed in order by the processing performed by one motion region extraction processing unit and the processing performed by the region base alignment processing unit. Claims are used to extract a first single motion region corresponding to the first dominant motion and to estimate a first motion parameter corresponding to the extracted first single motion region.
  • the image alignment processing apparatus according to 1. 3. In the image registration processing device, after the first motion parameter is estimated, the feature points that have not been deleted by the feature point deletion processing performed by the feature point deletion processing unit are detected.
  • the feature point base registration processing unit is used again as a reference image feature point and an input image feature point used in the feature point base registration processing performed by the feature point base registration processing unit.
  • the second dominant motion is obtained by sequentially performing the processing performed in step 1, the processing performed in the single motion region extraction processing unit, and the processing performed in the region base alignment processing unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

{課題}複数のモーションを含む画像間の画像全体の位置合わせ処理を、ロバスト且つ高精度に行えるようにした、画像位置合わせ処理装置を提供する。{解決手段}複数のモーションを含む基準画像及び入力画像の特徴点をそれぞれ抽出する特徴点抽出処理部と、基準画像特徴点と入力画像特徴点との対応付け処理と、対応付けられた特徴点から外れ値を削除してからの初期モーションパラメータ推定処理とをそれぞれ行う特徴点ベース位置合わせ処理部と、初期モーションパラメータに基づき、画像間の類似度と局所的な位置ずれ量を利用して単一モーション領域を抽出する単一モーション領域抽出処理部、初期モーションパラメータと単一モーション領域とに基づき、モーションパラメータをサブピクセル精度で推定する領域ベース位置合わせ処理部と、基準画像特徴点及び入力画像特徴点から単一モーション領域に含まれる特徴点を削除する特徴点削除処理部とを備える。

Description

発明の名称 画像位置合わせ処理装置、 領域拡張処理装置及び画質改善 処理装置 技術分野
本発明は、 デジタル画像処理技術に関し、 特に、 複数のモーショ ンを 含む画像間の画像全体 (全画面) の位置合わせ処理を口パス ト且つ高精 度に行う画像位置合わせ処理技術、 及び当該画像位置合わせ処理技術を 利用した画質改善処理技術に関するものである。
また、 本発明は、 複数のモーショ ンを含む画像に対する領域拡張処理 を行う領域拡張処理技術に関するものである。
更に、 本発明は、 本発明の画像位置合わせ処理技術と本発明の領域拡 張処理技術を利用した画質改善処理技術に関するものである。 背景技術
デジタル画像処理技術において、 複数の画像を利用して高画質な画像 を生成する画質改善処理がある。 例えば、 超解像処理は、 このよ うな画 質改善処理の 1つである。 超解像処理とは、 位置ずれのある複数の低解 像度画像を利用して、 1つの高解像度画像を再構成 (推定) する処理で める。
複数の画像を利用して高画質な画像を生成する画質改善処理を行うた めには、 これら複数の画像間の位置合わせ処理が必要不可欠である。 特 に、 超解像処理においては、 複数の低解像度画像間の高精度な位置合わ せ処理が必要である (非特許文献 1 を参照) 。 また、 様々な応用におい て、 画像全体 (全画面) を超解像処理したいという要求も大きい。
しか し、 撮影された低解像度画像 (観測画像) には、 モーショ ンの異 なる複数の移動体が含まれるこ とが多く 、 このよ うな複数のモーショ ン を含む画像間の画像全体 (全画面) の高精度な位置合わせ処理を行う こ とは、 非常に難しい問題である。
複数のモーショ ンが含まれる画像間の画像全体 (全画面) の位置合わ せ処理 (以下、 「複数モーショ ンに対応した画像位置合わせ処理」 と言 う。 ) を行う既存方法と しては、 例えば、
( 1 ) 画像全体 (全画面) を単一モーショ ンと仮定して、 位置合わせ処 理を行う方法 (以下、 「従来方法 1」 という。 ) 、
( 2 ) 局所的な情報のみを利用して、 画素毎に位置合わせ処理を行う方 法 (非特許文献 2を参照) (以下、 「従来方法 2」 という。 ) 、
( 3 ) 画像全体 (全画面) を格子状にプロック分割して、 プロック毎に 独立に位置合わせ処理を行う方法 (非特許文献 7〜非特許文献 9 を参照 ) (以下、 「従来方法 3」 という。 ) 、
( 4 ) 単一モーショ ン領域の抽出と位置合わせ処理を同時に行う方法 ( 非特許文献 1 0及ぴ非特許文献 1 1 を参照) (以下、 「従来方法 4」 と いう。 ) 、
( 5 ) 特徴点ベース位置合わせ処理手法を応用して、 複数のモーショ ン を抽出する方法 (非特許文献 1 2〜非特許文献 1 4を参照) (以下、 「 従来方法 5」 という。 ) 、 などの方法がある。
{先行技術文献 }
{特許文献)
特許文献 1 : 特開 2007- 257287号公報 特許文献 2 : 特願 2007 - 038006
特許文献 3 : 特願 2007- 070401
{非特許文献)
非特許文献 1 :
エス. パーク (S. Park) N ェム. パーク (M. Park)、 ェム. カン(M. Rang)共著, 「スー ノ ー レゾルーシ ヨ ン イ メ ージ リ コ ンス ト ラ ク シ ョ ン : ァ テ ク 二 力 ノレ ォ ー ノ 一 ビ ュ ー Super— resolution image reconstruction: a technical overview) J , I E E E シグナル プロセシング マガジン (; [EEE Signal Processing Magazine),第 20奢, 第 3号, p.21-36, 2003年 非特許文献 2 :
ダブリ ュー. チャオ (W. Zhao) 、 ェイチ. ソーニー (H. Sawhney ) 共著, 「ィ ズ ス ー ノ 一レゾルーシ ヨ ン ウ イ ズ オプテ ィ カル フ ロ ー フ ィ ー ジ フ、 ' ノレ ? ( Is super-resolution with optical flow feasible?) 」 , ョ 一口 ビアン カ ンフ ァ レンス オン コ ン ピュータ ビジョ ン ( European Conference on Computer Vision) (ECCV) ,第 1 卷 , p.599-613, 2002年 非特許文献 3 :
ゼッ ド . エイ . イ ノ ノ ブスキ (Z. A. Ivanovski) 、 エル. ノ ノブ スキ (L. Panovski) 、 エル. ジエ ー. カラム (L. J. Karam) 共 著, 「 ロ ノ ス ト ス ーノヽー レゾノレー シ ヨ ン ベ一 ス ド オン ピク セ /レ レべノレ セ レクテイ ビティ obust super-resolution based on pixel-level selectivity) 」 , プロ ス ィ ーディ ングズ オフ S P l E (Proceedings of SPIE) ,第 6077卷, p.607707, 2006年 非特許文献 4 : ' 戸田真人 · 塚田正人 · 井上晃共著, 「レジス ト レーシヨ ン誤差を考慮し た超角军像処理」 , プ ロ ス ィ ー デ ィ ン グ ズ オ フ F I T 2 0 0 6 ( Proceeding of FIT 2006) ,第 1卷, p.63 - 64, 2006年 非特許文献 5 :
ェヌ . ェノレ一ヤマニ (N. El-Yamany) 、 ピー. ノ ノヽ°ミ チャ リ ス (P. Papamichalis) 、 ダブリ ュー. スチユカ二 ( W. Schucany) 共著、 「 ァ ロ ノくス ト イ メ ージ ス ーノ ー レゾルーシ ヨ ン ス キーム ベース ド オン レデセンディ ング M—エスチメ イ タス ア ン ド イ ンフォメ イ シヨ ン一セ ォ レテ イ ク タ ー ジ エ ン ス (A Robust Image Super一 re so丄 ut i on Scheme Based on Redescending M - Estimators and Information— Theoretic Divergence) J , I E E E イ ンターナシ ョ ナノレ カ ンフ ァ レ ンス オン ア コースティ ッ ク ス, ス ピーチ アン ド シグナノレ プロセシング 、 IEEE International Conference on Acoustics , Speech and Signal Processing) (ICASSP),第 1卷, p.741-744, 2007年 非特許文献 6 :
エス . フ ァースィ (S. Farsiu) 、 ェム . ロ ビン ソ ン (M. Robinson ) 、 ェム. エラ ド (M. Elad) 、 ピー. ミ ラ ンフ ァ ー (P. Milanfar ) 共著, 「 フ ァ ス ト ア ン ド ス ト マルチフ レーム スーノヽ レゾノレ ーシヨ ン (Fast and robust multif rame super resolution) 」 , I E E E ト ラ ン ス ア ク シ ョ ン ズ オ ン イ メ ー ジ プ ロ セ シ ン グ ( IEEE Transactions on Image Processingノ ,第 1 o ,第 10 号, p. 13217- 1344, 2004年 非特許文献 7 :
ィ ー . コー ス ( E. Courses) 、 ティー. サーベイ ス (T. Surveys) 共著, 「ァ 口パス ト ィテラティブ ス ーノ ー レ ゾルーシ ヨ ン リ コンス ト ラ ク シ ヨ ン オフ イ メ ー ジ シーケ ンス ュ ジ ン グ 了 ロ レ ンテ ィ ズア ン ベイ ジア ン アプローチ ウ イ ズ フ ァ ス ト ァ フ ィ ン プロ ッ クベース ド レジ ス ト レ イ シ ヨ ン I. A Robust Iterative Super— Reso丄 ution Reconstruction of JLmage Sequences using a Lorentz ι an Bayesian Approach with Fast Affine Block-Based
Registration) J , I E E E イ ン タ ーナ シ ョ ナル カ ン フ ァ レ ンス オ ン イ メ ー ジ フ。 ロ セ シ ン グ 、丄 EEE International し onference on Image Processing) (ICIP),第 5巻, p.393-396, 2007年 非特許文献 8 :
ェム. イ ラニ (M. Irani) 、 ビー. ロ ウ ソ ゥ (B. Rousso) 、 エス . ペレグ (S. Peleg) 共著, 「コ ン ピューテ ィ ン グ ォク ル一デイ ング ア ン ド ト ラ ン ス ペ ア レ ン ト モ ー シ ョ ン ズ ( Computing occluding and transparent mot i ons) J , イ ンタ 一ナシ ョ ナノレ ジャーナノレ オフ コ ン ビ ユ ー タ ビジ ョ ン (International Journal of Computer Vision) , 第 12卷,第 1号, p.5 - 16, 1994年 非特許文献 9 ェム. ブラ ッ ク (M. Black) 、 ピ一. アナンダン(P. Anandan)共著 , 「ザ ロ ノ ス ト エ ス テ ィ メ イ シ ヨ ン オフ マルチプノレ モーシ ョ ンズ : パラ メ ト リ ッ ク ア ン ド ピース ワ イ ズ ス ムース フ ロ ー フ ィ ール ド ( The robust estimation of multiple motions: Parametric and piecewise- smooth flow fields) J , コ ンビ ータ ビジョ ン アン ド イ メ ージ ア ン ダス タ ンデ ィ ン グ (Computer Vision and Image Understanding) ,第 63卷,第 1号, p.75-104, 1996年 非特許文献 1 0 :
ジエー . ウイノレス (J. Wills) 、 エス . ァガワノレ (S. Agarwal) 、 エス . ビロ ングイ エ (S. Belongie) 共著, 「ホワ ッ ト ウ ェ ン ト ホ ウェア (What went where) J , Ι Ε Ε Ε コ ンピュータ ソサイァテ ィ カ ンフ ァ レンス 才ン コ ン ピュータ ビジ ョ ン ア ン ド パ ターン レ コ グニ シ ョ ン ( IctiE Computer Society Conference on Computer Vision and Pattern Recognition) (CVPR),第 1卷, p.37 - 44, 2003年 非特許文献 1 1 :
ピー . パハ ツ ト (p. Bhat) 、 ケィ . ツ エ ン (K. Zheng) 、 ェヌ . スナベ リ (N. Snavely) 、 エイ . ァガワ ラ (A. Agarwala) 、 ェム . ア グラ ワ ラ ( M. Agrawala) 、 ェム . コヘン (M. Cohen) 、 ビー. カー レス (B. Curless) 共著, 「ピース ワイ ズ イ メ ージ レジス ト レ イ シ ヨ ン イ ン ザ プ レゼ ンス オ フ マノレチプル ラ ー ジ モーシ ョ ンズ ( Piecewi se Image Registration in the Presence of Multiple large Motions) ] , Ι Ε Ε Ε コ ンピュータ ソサイァテ ィ カ ンフ ァ レ ン ス オ ン コ ン ピ ュ ー タ ビジ ョ ン ア ン ド タ ー ン レ コ グ ニ シ ヨ ン ( IEEE Computer Society Conference on Computer Vision and Pattern Recognition) (CVPR) ,第 2巻, p. 249ト 2497, 2006年 非特許文献 1 2 :
ォゥ. チュム (0. Chum) 、 ジエー. マタス (J. Matas) 共著, 「マ ツチング ウイ ズ P R O S A C—プロ グ レッシブ サンプ /レ コ ンセン サス (Matching with PRObAC-progress ive sample consensus) 」 , I E E E コ ンピュータ ソサイァティ カ ンファ レンス オン コ ン ピュ ー タ ビ ジ ョ ン ア ン ド パ タ ー ン レ コ グ - シ ヨ ン ( IEEE Computer Society Conference on Computer Vision and Pattern Recognition) (CVPR) ,第 1卷, p.220 - 226, 2005年 非特許文献 1 3 :
ェム . フ イ シャ ラ (M. Fischler) 、 アーノレ. ポレス (R. Bolles) 共著, 「ラ ンダム サンプノレ コ ンセ ンサス : ァ パ ラ ダイ ム フ ォー モデル フィ ッティ ング ウイズ アプリ ケイ シ ヨ ンズ ト ゥー イ メ ージ アナ リ シ ス ア ン ド オー ト メ ィ テ ド 力 ト ゥ ー グ ラ フ ィ ( Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography) 」 , コ ミ ュニケ一 シヨ ンズ オフ ザ A C M (Communications of the ACM),第 24 卷,第 6号, p . 381-395, 1981年 非特許文献 1 4 :
ォゥ. チョ ウイ (0. Choi) , ェイチ. キム(H. Kim) , アイ . ケウイ オン (I. Kweon)共著, 「シマルティ ニァス プレーン ェク ス ト ラ ク シヨ ン アン ド 2 D ホモグラ フ ィ エスティ メ イ シ ヨ ン ュジング ローカル フ ィーチャー ト ラ ンス フォーメ イ ショ ンズ (Simultaneous Plane Extraction and 2D Homography Estimation Using Local Feature Transformations) J ,アジア ン カ ンフ ァ レンス オン コ ン ヒ ュ 1 ~~ タ ヒ シ ヨ ン ^As 1 an Conference on Computer Vision) (ACCV) ,第 4844卷, p.269-278, 2007年 非特許文献 1 5 :
ディー. ロ ウィ (D. Lowe) 著, 「デステンクティブ イメージ フィ 一チヤ一ズ フロム スケーノレ ンべア リ アン ト キーポイ ン トズ (
Distinctive Image Features from Scale-Invariant Keypoints) 」 , イ ン タ ー ナ シ ョ ナ ノレ ジ ャ ー ナ ノレ オ フ コ ン ピ ュ ー タ ビ ジ ョ ン ( International Journal oi Computer Vision) ,第 60 ,第 2 号 , p.91-110, 200 年 非特許文献 1 6 :
矢口陽一 · 田中正行 · 奥富正敏共著, 「ォクルージョ ンゃ明る さ変化に ロバス トな超解像処理」 , 情報処理学会研究報告 : コ ンピュータ ビジョ ン と イ メ ージメ ディ ア 2007 - CVIM - 159, 第 2007 卷, 第 42 号, p.5:! - 56, 2007年 非特許文献 1 Ί :
シー. サン ( Sun) 著, 「フ ァ ス ト アル ゴ リ ズム フ ォ ー ス テ レオ マ ッ チ ン グ ア ン ド モー シ ョ ン エ ス テ ィ メ イ シ ヨ ン ( Fast algorithms for stereo matching and motion estimation) J ,プロ ック . ォ フ オース ト ラ リ ア一ジヤ ノ ン ア ドバーンス ト ワーク シ ョ ップ オン コ ン ピュー タ ビジ ョ ン (Proc. Of Australia- Japan Advanced Workshop on Computer Vision) , p.38-48, 2003 非特許文献 1 8 :
エス . ベイ カ (S. Baker) 、 アイ . マチューズ (I. Matthews) 共著 , 「ノレ一カ ス 一カナデ 2 0 ィ ヤーズ オン : 了 ユニ フ ァ イ ング フ レ ー ム ワ ー ク ( Lucas— Kanade 20 Years On: A Unifying Framework) J , イ ンターナショ ナノレ ジャーナノレ オフ コ ンピュータ ビジ ョ ン I. International journal of Computer Vision) ,第 56卷,第 3 号, D.221-255, 2004年 非特許文献 1 9 :
田中正行 · 奥富正敏共著, 「周波数領域最適化法による MA P型超解像 処理の高速化」 , 情報処理学会論文誌 : コ ンピュータ ビジ ョ ン と ィ メ ー ジメディア, 第 47卷, SIG10 (CVIM15) , p.12-22, 2006年 ' 発明の概要
{発明が解決しよ う とする課題 }
しかしながら、 単一モーショ ンであると仮定して位置合わせ処理を行 う 「従来方法 1」 では、 実際に画像全体に複数のモーショ ンが含まれて いるにもかかわらず、 単一モーショ ンと仮定しているため、 位置合わせ 処理の精度は低く 、 精度の良いモーショ ンパラメータは得られないとの 問題点がある。
また、 局所的な情報のみを利用して画素毎に位置合わせ処理を行う 「 従来方法 2」 では、 位置合わせ処理に局所的な情報しか利用していない ため、 位置合わせ処理が不安定になりがちとの問題点がある。
さ らに、 画像全体を格子状のブロ ックに分割しブロ ック毎に独立に位 置合わせ処理を行う 「従来方法 3」 でも、 同様に、 ブロ ック毎の位置合 わせ処理では、 ブロ ック内の情報のみ (即ち、 局所的な情報のみ) を利 用しているため、 位置合わせ処理が不安定になりがちとの問題点がある 。 また、 分割されたブロ ック内で単一モーショ ンを仮定して、 そのブロ ックの位置合わせ処理が行われるが、 ブロ ック内が単一モーショ ンであ るとは限らないので、 プロックによっては、 その位置合わせ処理の精度 が低く 、 精度の良いモーショ ンパラメータは得られないとの問題点もあ る。
また、 単一モーショ ン領域の抽出と位置合わせ処理を同時に行う 「従 来方法 4」 では、 単一モーシ ョ ンが含まれる領域の抽出と位置合わせ処 理を同時に行っている ものの、 単一モーショ ン領域の抽出が従来方法 4 の主目的であるため、 位置合わせ処理の精度はそれほど高いとは言えず 、 つま り 、 超解像処理に必要な精度で (サブピクセル精度で) のモーシ ヨ ンパラメ ータは得られなレヽと の問題点がある。
そして、 特徴点ベース位貴合わせ処理手法を応用して、 複数のモーシ ヨ ンを抽出する 「従来方法 5」 では、 各モーショ ンに対応する特徴点が 得られるだけであり、 そのモーショ ンに対応する領域は得られないとの 問題点がある。
このよ う に、 上述した複数モーショ ンに対応した画像位置合わせ処理 を行う既存方法 (従来方法 1〜従来方法 5 ) は、 いずれも超解像処理に 適したものではない。
ところで、 近年、 位置合わせ処理の結果が不正確であっても、 それに 基づいてロバス トに画像を再構成することができる 「口バス ト超解像処 理」 の研究も行われている (非特許文献 2〜非特許文献 7を参照) 。
しかしながら、 位置合わせが不正確な領域は、 ロバス ト超解像処理に よ りアーチファタ トを低減することはできても、 解像度を向上させるこ とはできず、 本質的な解決とはなっていない。
つま り 、 複数のモーショ ンが含まれる画像の画像全体 (全画面) を画 質改善処理 (例えば、 超解像処理) するためには、 複数モーショ ンに対 応し、 口パス ト且つ高精度な位置合わせ処理を行う こ とが要求される。
換言すれば、 複数のモーショ ンに対応する画像位置合わせ処理を行う ためには、 それぞれのモーショ ンに対応する 「単一モーショ ン領域」 の 抽出処理と、 抽出した単一モーショ ン領域に対する位置合わせ処理を行 う必要があり、 さらに、 画質改善処理 (例えば、 超解像処理) のために は、 抽出した単一モーショ ン領域に対して、 サブピクセル精度での位置 合わせ処理を行う必要がある。
本発明は、 上述のような事情から成されたものであり、 本発明の目的 は、 複数のモーショ ンを含む画像間の画像全体 (全画面) の位置合わせ 処理を、 ロバス ト且つ高精度に行えるよ うにした、 画像位置合わせ処理 装置を提供することにある。
また、 本発明のも う 1つの目的は、 複数のモーショ ンを含む複数の画 像に対し、 本発明の画像位置合わせ処理装置によ り位置合わせ処理を行 い、 その位置合わせ処理結果と複数の画像を利用して画質改善処理を行 う よ う にした、 画質改善処理装置を提供することにある。
また、 本発明のも う 1つの目的は、 複数のモーショ ンを含む画像に対 する領域拡張処理を行う領域拡張処理装置を提供することにある。
更に、 本発明のも う 1 つの目的は、 複数のモーショ ンを含む複数の画 像に対し、 本発明の画像位置合わせ処理装置によ り位置合わせ処理を行 い、 そして、 その位置合わせ処理結果に基づき、 前記複数の画像に対し 、 本発明の領域拡張処理装置によ り領域拡張処理を行い、 更に、 その位 置合わせ処理結果、 その領域拡張処理結果及び前記複数の画像を利用し て画質改善処理を行う よ うにした、 画質改善処理装置を提供するこ とに ある。
{課題を解決するための手段)
本発明は、 複数のモーショ ンを含む基準画像と、 複数のモーショ ンを 含む入力画像との画像全体の位置合わせ処理を口バス ト且つ高精度に行 う画像位置合わせ処理装置に関し、 本発明の上記目的は、 特徴点抽出処 理部と、 特徴点ベース位置合わせ処理部と、 単一モーショ ン領域抽出処 理部と、 領域ベース位置合わせ処理部と、 特徴点削除処理部とを備え、 前記特徴点抽出処理部が、 前記基準画像及び前記入力画像の特徴点をそ れぞれ抽出する、 特徴点抽出処理を行い、 前記特徴点ベース位置合わせ 処理部が、 前記基準画像から抽出された特徴点 (基準画像特徴点) と、 前記入力画像から抽出された特徴点 (入力画像特徴点) との対応付け処 理と、 対応付けられた特徴点から外れ値を削除してからの初期モーショ ンパラメータ推定処理とから構成される、 特徴点ベース位置合わせ処理 を行い、 前記単一モーショ ン領域抽出処理部が、 前記特徴点ベース位置 合わせ処理部から出力された初期モーショ ンパラメータに基づき、 画像 間の類似度と局所的な位置ずれ量を利用して、 当該初期モーショ ンパラ メータに対応する単一モーショ ン領域を抽出する、 単一モーショ ン領域 抽出処理を行い、 前記領域ベース位置合わせ処理部が、 前記特徴点べ一 ス位置合わせ処理部から出力された初期モーショ ンパラメータ と、 前記 単一モーシ ョ ン領域抽出処理部から出力された単一モーシ ョ ン領域とに 基づき、 当該単一モーショ ン領域に対応するモーシ ョ ンパラメータをサ プピクセル精度で推定する、 領域べ一ス位置合わせ処理を行い、 前記特 徴点削除処理部が、 前記基準画像特徴点及び前記入力画像特徴点から、 前記単一モーショ ン領域抽出処理部に抽出された単一モーショ ン領域に 含まれる特徴点を削除する、 特徴点削除処理を行う ことによって効果的 に達成される。
また、 本発明の上記目的は、 前記画像位置合わせ処理装置では、 前記 基準画像及び前記入力画像に基づき、 前記特徴点抽出処理部にて行われ る処理、 前記特徼点ベース位置合わせ処理部にて行われる処理、 前記単 一モーショ ン領域抽出処理部にて行われる処理、 前記領域ベース位置合 わせ処理部にて行われる処理を順番に行う ことによ り、 前記特徴点抽出 処理部によ り抽出された全ての特徴点を利用して、 第 1支配的なモーシ ョ ンに対応する第 1単一モーシ ョ ン領域を抽出し、 抽出した第 1単一モ ーショ ン領域に対応する第 1 モーショ ンパラメータを推定することによ つてよ り効果的に達成される。
また、 本発明の上記目的は、 前記画像位置合わせ処理装置では、 前記 第 1 モーシ ョ ンパラメータが推定された後に、 前記特徴点削除処理部に て行われる特徴点削除処理によ り削除されずに残った特徴点を、 前記特 徴点ベース位置合わせ処理部にて行われる特徴点ベース位置合わせ処理 に利用される基準画像特徴点及び入力画像特徴点と した上で、 再び、 前 記特徴点ベース位置合わせ処理部にて行われる処理、 前記単一モーショ ン領域抽出処理部にて行われる処理、 前記領域ベース位置合わせ処理部 にて行われる処理を順番に行う ことによ り、 第 2支配的なモーショ ンに 対応する第 2単一モーショ ン領域を抽出し、 抽出した第 2単一モーショ ン領域に対応する第 2モーシ ョ ンパラメータを推定することによってよ り効果的に達成される。
また、 本発明の上記目的は、 前記画像位置合わせ処理装置では、 前記 第 2 モーショ ンパラメータが推定された後に、 前記特徴点削除処理部に て行われる処理によ り単一モーショ ン領域に含まれる特徴点を取り除き ながら、 前記特徴点ベース位置合わせ処理部にて行われる処理、 前記単 —モーショ ン領域抽出処理部にて行われる処理、 前記領域ベース位置合 わせ処理部にて行われる処理を繰り返し行う ことによ り、 複数のモーシ ョ ンに対応する全ての単一モーショ ン領域を逐次的に抽出し、 逐次的に 抽出された単一モーショ ン領域に対応するモーショ ンパラメータをも逐 次的に推定するこ とによってよ り効果的に達成される。
更に、 本発明は、 複数のモーショ ンを含む複数の画像に基づき、 高画 質な画質改善画像を生成する画質改善処理装置に関し、 本発明の上記目 的は、 画像位置合わせ処理部と、 画質改善処理部とを備え、 前記画像位 置合わせ処理部が、 前記複数の画像から 1枚の基準画像を選択し、 残つ た全ての画像を入力画像と し、 次に、 本発明の画像位置合わせ処理装置 によ り行われる 1枚の基準画像と 1枚の入力画像との画像全体の位置合 わせ処理を、 前記複数の画像に対して繰り返し行う ことで、 複数のモー ショ ンを含む複数の画像における全ての単一モーショ ン領域を抽出し、 また、 それらの単一モーショ ン領域に係る全てのモーショ ンパラメータ をロバス ト且つ高精度に推定し、 前記画質改善処理部が、 前記画像位置 合わせ処理部から出力された、 複数の単一モーショ ン領域と、 それぞれ の単一モーショ ン領域に対応するモーショ ンパラメータ とに基づき、 前 記複数の画像に対し、 画質改善処理を行う ことによ り、 前記画質改善画 像を生成することによつて効果的に達成させる。
また更に、 本発明は、 複数のモーショ ンを含む基準画像と、 複数のモ ーショ ンを含む入力画像との画像全体の位置合わせ処理を口バス ト且つ 高精度に行う画像位置合わせ処理装置に関し、 本発明の上記目的は、 特 徴点抽出処理部と、 特徴点ベース位置合わせ処理部と、 単一モーショ ン 領域抽出処理部と、 領域ベース位置合わせ処理部とを備え、 前記特徴点 抽出処理部が、 前記基準画像及び前記入力画像の特徴点をそれぞれ抽出 する、 特徴点抽出処理を行い、 前記特徴点ベース位置合わせ処理部が、 前記基準画像から抽出された特徴点 (基準画像特徴点) と、 前記入力画 像から抽出された特徴点 (入力画像特徴点) と の対応付け処理と、 対応 付けられた特徴点から外れ値を削除してからの初期モーシヨ ンパラメ一 タ推定処理とから構成される、 特徴点ベース位置合わせ処理を行い、 前 記単一モーショ ン領域抽出処理部が、 前記特徴点ベース位置合わせ処理 部から出力された初期モーショ ンパラメータに基づき、 画像間の類似度 と局所的な位置ずれ量を利用して、 当該初期モーショ ンパラメータに対 応する単一モーショ ン領域を抽出する、 単一モーショ ン領域抽出処理を 行い、 前記領域ベース位置合わせ処理部が、 前記特徴点ベース位置合わ せ処理部から出力された初期モーショ ンパラメータと、 前記単一モーシ ヨ ン領域抽出処理部から出力された単一モーシ ョ ン領域とに基づき、 当 該単一モーショ ン領域に対応するモーショ ンパラメータをサブピクセル 精度で推定する、 領域ベース位置合わせ処理を行う ことにより 、 或いは 、 前記画像位置合わせ処理装置では、 前記基準画像及び前記入力画像に 基づき、 前記特徴点抽出処理部にて行われる処理、 前記特徴点ベース位 置合わせ処理部にて行われる処理、 前記単一モーショ ン領域抽出処理部 にて行われる処理、 前記領域ベース位置合わせ処理部にて行われる処理 を順番に行う ことによ り、 前記特徴点抽出処理部によ り抽出された全て の特徴点を利用して、 第 1支配的なモーショ ンに対応する第 1単一モー ショ ン領域を抽出し、 抽出した第 1単一モーショ ン領域に対応する第 1 モーショ ンパラメ ^ "タを推定するこ とによつて効果的に達成される。
また、 本発明は、 複数のモーショ ンを含む基準画像と、 複数のモーシ ヨ ンを含む入力画像と、 前記基準画像と前記入力画像との画像全体の位 置合わせ処理を行う ことによ り得られた複数のモーショ ンに対応する複 数の単一モーシ ョ ン領域及び前記複数の単一モーショ ン領域に対応する 複数のモーショ ンパラメータに基づき、 前記基準画像及ぴ前記入力画像 に対する領域拡張処理を行う領域拡張処理装置に関し、 本発明の上記目 的は、 前記基準画像を入力とするテク スチャ レス領域抽出処理部と、 前 記入力画像及び前記複数のモーショ ンパラメータを入力とする画像変形 処理部と、 前記基準画像を 1つの入力とする類似度による閾値処理部と
、 論理積処理部と、 前記複数の単一モーシ ョ ン領域を入力とする論理和 処理部とを備え、 前記テクスチャ レス領域抽出処理部が、 前記基準画像 のテクスチャ レス領域を抽出する、 テクスチャ レス領域抽出処理を行い 、 抽出したテクスチャ レス領域を前記論理積処理部へ出力し、 前記画像 変形処理部が、 前記複数のモーショ ンパラメータに基づき、 前記入力画 像を変形し、 変形された入力画像を変形入力画像と して前記類似度によ る閾値処理部へ出力し、 前記類似度による閾値処理部が、 前記基準画像 及び前記変形入力画像に対し、 局所的な類似度を閾値処理することによ り、 類似領域を抽出し、 抽出した類似領域を前記論理積処理部へ出力し 、 前記論理積処理部が、 前記テクスチャ レス領域抽出処理部から出力さ れた前記テクスチャ レス領域、 及び前記類似度による閾値処理部から出 力された前記類似領域に対し、 論理積処理を行う ことにより、 テクスチ ャ レス類似領域を生成し、 生成したテクスチャ レス類似領域を前記論理 和処理部へ出力し、 前記論理和処理部が、 前記論理積処理部から出力さ れた前記テクスチャレス類似領域、 及び前記複数の単一モーショ ン領域 に対し、 論理和処理を行う ことによ り、 前記テクスチャ レス類似領域と 前記複数の単一モーショ ン領域を合わせた、 複数の拡張単一モーショ ン 領域を生成することによって効果的に達成される。
また、 本発明の上記目的は、 前記テクスチャ レス領域抽出処理では、 前記基準画像における局所的な画像の分散を求め、 求めた局所的な画像 の分散が所定の閾値以下の領域をテクスチャ レス領域と して抽出するこ とによ り、 或いは、 前記類似度による閾値処理部に利用される前記局所 的な類似度は、 S S D又は S A Dであることによってよ り効果的に達成 される。
また更に、 本発明は、 複数のモーシ ョ ンを含む複数の画像に基づき、 高画質な画質改善画像を生成する画質改善処理装置に関し、 本発明の上 記目的は、 画像位置合わせ処理部と、 領域拡張処理部と、 画質改善処理 部とを備え、 前記画像位置合わせ処理部が、 前記複数の画像から 1枚の 基準画像を選択し、 残った全ての画像を入力画像と し、 次に、 本発明の 画像位置合わせ処理装置によ り行われる 1枚の基準画像と 1枚の入力画 像との画像全体の位置合わせ処理を、 前記複数の画像に対して繰り返し 行う ことで、 複数のモーショ ンを含む複数の画像における全ての単一モ ーシヨ ン領域を抽出し、 また、 それらの単一モーショ ン領域に係る全て のモーショ ンパラメータをロバス ト且つ高精度に推定し、 前記領域拡張 処理部が、 前記画像位置合わせ処理部から出力された、 前記複数の画像 における全ての単一モーショ ン領域と、 前記全ての単一モーショ ン領域 に対応する全てのモーショ ンパラメータとに基づき、 本発明の領域拡張 処理装置によ り行われる 1枚の基準画像及び 1枚の入力画像に対する領 域拡張処理を、 前記複数の画像に対して繰り返し行う ことで、 前記複数 の画像における全ての拡張単一モーショ ン領域を生成し、 前記画質改善 処理部が、 前記領域拡張処理部から出力された前記複数の画像における 全ての拡張単一モーショ ン領域と、 前記画像位置合わせ処理部から出力 された前記全てのモーショ ンパラメータとに基づき、 前記複数の画像に 対し、 画質改善処理を行う ことによ り、 前記画質改善画像を生成するこ とによって効果的に達成される。
{発明の効果 }
本発明に係る画像位置合わせ処理技術によれば、 複数のモーシヨ ンを 含む画像間の画像全体の位置合わせ処理を口パス ト且つ高精度に行う こ とができるという優れた効果を奏する。
また、 初期モーショ ンなしで大きな変形をもった画像間の位置合わせ 処理は、 従来の領域ベース位置合わせ処理アルゴリ ズムによっては不可 能であるが、 本発明に係る画像位置合わせ処理技術は、 特徴点ベース位 置合わせ処理と領域ベース位置合わせ処理の長所を併せ持っているので 、 本発明によれば、 そのよ う な困難な位置合わせ処理を行う ことも可能 である。
また、 従来の多く の位置合わせ処理方法は、 単一モーショ ンを仮定し ているため、 実際に、 そのよ うな位置合わせ処理方法を画像処理等のァ プリ ケーシヨ ンに適用する際に、 アプリケーショ ンのユーザが、 単一モ ーショ ン領域を指定する必要がある。
しかし、 本発明では、 単一モーショ ン領域を抽出しながら、 モーショ ンパラメータを推定するよ うにしているので、 ユーザによる単一モーシ ョ ン領域を指定する必要は全く ない。
更に、 本発明に係る画像位置合わせ処理技術によ り、 抽出された複数 の単一モ一ショ ン領域と、 推定されたそれらの単一モーショ ン領域に対 応する複数のモーショ ンパラメータを用いて、 本発明に係る画質改善処 理装置にて、 画像全体 (全画面) の超解像処理を実現した。
本発明によれば、 別々に動く複数の移動体 (モーショ ン) が存在する 時系列画像から、 高解像度の画像を再構成できるという優れた効果を奏 する。 ' 図面の簡単な説明
図 1 は本発明に係る画質改善処理装置の第 1実施形態を示すブロ ック 構成図である。
図 2は本発明に係る画像位置合わせ処理装置の実施形態を示すプロッ ク構成図である。
図 3は本発明の画像位置合わせ処理装置 1 0 0の処理流れを示すフロ 一図である。
図 4は本発明に係る画像位置合わせ処理装置による、 複数のモーショ ンを含む 2つの画像間の画像全体の位置合わせ処理を行う際の画像例を 示す図である。
図 5は 2つの移動体が別々に動いているシーンを撮影した時系列画像 を示す図である。
図 6は単一モーシ ョ ン領域抽出処理の結果を示す図である。
図 7は左右の移動体を基準画像に合わせて変形した結果を示す図であ る。
図 8は超解像処理結果を示す図である。
図 9は超解像処理結果を示す図である。
図 1 0は超解像処理結果を示す図である。
図 1 1 は本発明に係る画質改善処理装置の第 2実施形態を示すブロ ッ ク構成図である。
図 1 2は本発明に係る領域拡張処理装置の実施形態を示すプロ ック構 成図である。
発明を実施するための形態
本発明は、 複数モーショ ンに対応した画像位置合わせ処理技術及ぴ、 当該画像位置合わせ処理技術を利用した画質改善処理技術に関する。 具体的に、 本発明は、 複数のモーショ ンを含む画像間の画像全体 (全 画面) の位置合わせ処理を、 ロバス ト且つ高精度に行えるよ うにした、 画像位置合わせ処理装置、 画像位置合わせ処理方法及び画像位置合わせ 処理プログラムに関する。
また、 本発明は、 複数のモーショ ンを含む複数の画像に対し、 本発明 の画像位置合わせ処理装置にて画像間の位置合わせ処理を行い、 得られ た複数の単一モーショ ン領域及び各単一モーショ ン領域に対応する高精 度なモーショ ンパラメータ と、 複数の画像を利用して、 画質改善処理を 行う ことによ り、 画質改善画像を生成する、 画質改善処理装置に関する また、 本発明は、 複数のモーショ ンを含む画像に対する領域拡張処理 を行う領域拡張処理技術に関する。 また更に、 本発明は、 本発明の画像 位置合わせ処理技術と本発明の領域拡張処理技術を利用した画質改善処 理技術に関する。
ここで、 まず、 本発明の着眼点について述べる。
画像間の位置合わせ処理は、 特徴点ベース位置合わせ処理と領域べ一 ス位置合わせ処理に大きく分けられる。
領域ベース位置合わせ処理は、 モーショ ンパラメータの初期値と単一 モーショ ン領域を与える必要があるが、 位置合わせ処理を高精度に行う ことができる。
一方、 特徴点ベース位置合わせ処理では、 モーショ ンパラメータの初 期値や単一モーショ ン領域を必要とせず、 位置合わせ処理を口バス トに 行う こ とが可能である。
しかしながら、 特徴点ベース位置合わせ処理は、 領域ベース位置合わ せ処理ほど、 高精度に位置合わせ処理を行う ことができない。 また、 特 徴点ベース位置合わせ処理では、 モーショ ンパラメータを推定できるも のの、 そのモーショ ンパラメータに対応する単一モーショ ン領域を推定 することができない。
本発明の発明者らは、 特徴点ベース位置合わせ処理と領域ベース位置 合わせ処理の長所に着眼し、 両者の短所を排除した上で両者の長所を融 合し、 更に、 独自な単一モーショ ン領域抽出処理技術を利用することに より、 複数のモーショ ンを含む画像間の画像全体 (全画面) の位置合わ せ処理を口バス ト且つ高精度に行えるよ うにした本発明を発明した。
以下、 本発明の実施形態について、 図面を参照しながら詳細に説明す る。
本発明では、 複数のモーショ ンを含む画像間の位置合わせ処理を行う ために、 それぞれのモーショ ンを単一モーショ ンと して推定し、 その単 一モーシ ョ ンに対応する単一モーショ ン領域を抽出し、 更に、 抽出した 単一モーショ ン領域のモーショ ンパラメータを高精度に推定する。
つま り、 本発明を用いて、 複数のモーショ ンを含む 1枚の基準画像と 、 複数のモーショ ンを含む 1枚の入力画像との画像全体 (全画面) の位 置合わせ処理を行う場合に、 まず、 基準画像及び入力画像の特徴点をそ れぞれ抽出する、 特徴点抽出処理 (以下、 第 1処理と も言う。 ) を行う 次に、 基準画像から抽出された特徴点 (基準画像特徴点) と、 入力画 像から抽出された特徴点 (入力画像特徴点) と の対応付け処理を行い、 対応付けられた特徴点から外れ値を削除して、 初期モーショ ンパラメ一 タをロバス ト に推定する、 特徴点ベース位置合わせ処理 (以下、 第 2処 理とも言う。 ) を行う。 以下、 第 2処理は、 外れ値の削除を伴う特徴点 ベース位置合わせ処理とも言う。
次に、 推定された初期モーショ ンパラメータに基づき、 画像間の類似 度と局所的な位置ずれ量を利用して、 当該初期モーショ ンパラメータに 対応する領域 (即ち、 単一モーショ ン領域) を抽出する単一モーショ ン 領域抽出処理 (以下、 第 3処理とも言う。 ) を行う。
次に、 初期モーショ ンパラメータ と、 抽出された単一モーショ ン領域 とに基づき、 当該単一モーショ ン領域に対応するモーシ ョ ンパラメータ をサブピクセル精度で (高精度に) 推定する、 領域ベース位置合わせ処 理 (以下、 第 4処理とも言う。 ) を行う。
このよ う に、 基準画像及び入力画像から抽出された全ての特徴点を利 用して、 第 1処理から第 4処理までの一連の処理を行う ことによ り、 最 も多く の特徴点を含んでいる支配的なモーショ ン (以下、 第 1支配的な モーシ ョ ンと も言う。 ) に対応する単一モーシ ョ ン領域を抽出するこ と ができ、 また、 その単一モーショ ン領域に対応するモーショ ンパラメ一 タを推定することができる。
つま り、 上記のよ うに、 画像間で対応付けられた全ての特徴点を用い 、 外れ値の削除を伴う特徴点ベース位置合わせ処理 (第 2処理) を行う こ とによ り 、 最も多く の特徴点を含む支配的なモーショ ンが推定される 訳である。 次に、 基準画像特徴点及び入力画像特徴点から、 単一モーショ ン領域 に含まれる特徴点を削除する特徴点削除処理 (以下、 第 5処理と も言う 。 ) を行う。
次に、 削除されずに残った特徴点を基準画像特徴点及び入力画像特徴 点と して利用し、 再び、 第 2処理から第 4処理までの一連の処理を行う ことによ り、 2番目に支配的なモーシ ョ ン (以下、 第 2支配的なモーシ ヨ ンとも言う。 ) に対応する単一モーショ ン領域を抽出することができ 、 また、 その単一モーショ ン領域に対応するモーショ ンパラメータを推 定することができる。
本発明では、 上記のよ うにして、 第 5処理を行う ことによ り単一モー シヨ ン領域に含まれる特徴点を取り除きながら、 第 2処理から第 4処理 までの一連の処理を繰り返し行う こ とによ り、 複数のモーショ ンに対応 する単一モーショ ン領域を逐次的に抽出し、 そして、 逐次的に抽出され た単一モーショ ン領域に対応するモーショ ンパラメータをも逐次的に推 定する。 つま り、 本発明では、 特徴点を多く含む支配的なモーショ ンか ら順番に逐次的に複数のモーショ ンパラメータを推定するよ うにしてい る。
このよ う に、 本発明では、 第 1処理を行い、 更に、 第 2処理から第 5 処理までの一連の処理を繰り返し行う ことによ り、 複数の単一モーショ ン領域を抽出することが可能となり 、 また、 それぞれの単一モーシ ョ ン 領域に対応するモーショ ンパラメータを口バス ト且つ高精度に推定する ことができる。
ちなみに、 上記のよ うな処理は、 複数のモーショ ンを含む 2つの画像 間の画像全体の位置合わせ処理となる。 上記のよ うな処理 (複数のモー シヨ ンを含む 2 つの画像間の画像全体の位置合わせ処理) を、 複数のモ ーショ ンを含む複数の画像に対して繰り返し適用することによ り、 複数 のモーショ ンを含む複数の画像間の画像全体の位置合わせ処理が可能に なる。
更に、 本発明では、 複数のモーショ ンを含む複数の画像に対して、 画 像全体の位置合わせ処理を行う ことによ り、 高精度に (即ち、 サブピク セル精度で) 推定されたモーショ ンパラメータ と、 当該モーショ ンパラ メータに対応する単一モーシヨ ン領域を利用して、 画像全体の画質改善 処理 (例えば、 超解像処理) を行う ことによ り、 画質改善画像を生成す る。
図 1 は本発明に係る画質改善処理装置の第 1実施形態を示すプロ ック 構成図である。
図 1 に示すよ うに、 本発明に係る画質改善処理装置 1 は、 画像位置合 わせ処理部 1 0 と、 画質改善処理部 2 0 とから構成され、 複数のモーシ ョ ンを含む複数の画像に基づき、 高画質な画質改善画像を生成するもの である。
本発明の画質改善処理装置 1では、 まず、 画像位置合わせ処理部 1 0 が、 複数のモーショ ンを含む複数の画像に対し、 詳細は後述する本発明 に係る画像位置合わせ処理装置によ り 、 画像全体の位置合わせ処理を行 う こ と によ り 、 複数のモーショ ンに対応する複数の単一モーショ ン領域 を抽出し、 また、 抽出されたそれぞれの単一モーショ ン領域に対応する モーシ ョ ンパラメータを口バス ト且つ高精度に推定する。
つま り、 画像位置合わせ処理部 1 0では、 まず、 複数のモーショ ンを 含む複数の画像から、 1枚の基準画像を選択し、 残った全ての画像を入 力画像と し、 次に、 本発明に係る画像位置合わせ処理装置によ り行われ る 1枚の基準画像と 1枚の入力画像との画像全体の位置合わせ処理を、 複数のモ一ショ ンを含む複数の画像に対して繰り返し行 ことで、 複数 のモ一シ ンを含む複数の画像における全ての単一モーショ ン領域を抽 出し、 またヽ それらの単一モーショ ン領域に係る全てのモーショ ンパラ メータを Π ノ ス ト且つ高精度に推定する。
次に、 画質改善処理部 2 0が、 画像位置合わせ処理部 1 0から出力さ れた、 複数の単一モーショ ン領域と 、 それぞれの単一モ一ショ ン領域に 対応するモ一ショ ンパラメータ とに基づき、 複数のモーショ ンを含む複 数の画像に対し、 画質改善処理を行う ことによ り、 画質改善画像を生成 する。 またヽ 画質改善処理部 2 0にて行われる画質改善処理は、 例えば
、 特許文献 3に開示された画質改善処理方法を用いて行う ことができる o
なお、 本発明に係る画質改善処理装置に利用される複数のモーショ ン を含む複数の画像と して、 複数の動き (複数の複雑な動さ ) のある動画 像 (即ち 、 複数の移動体が別々 に動いているシーンを撮影した時系列画 像) を用いることができる。 その場合、 例えば、 時系列画像の最初のフ レームを基準画像と し、 その後のフレームを入力画像とすることができ る。
勿論、 本発明の画質改善処理装置は、 動画像に適用されることに限定 されることはなく 、 複数のモーショ ンを含む複数の画像と して、 静止画 像を用いることも勿論可能である。 ·
図 2は本発明に係る画像位置合わせ処理装置の実施形態 (画像位置合 わせ処理装置 1 0 0 ) を示すブロック構成図である。 また、 図 3は本発 明の画像位置合わせ処理装置 1 0 0の処理流れを示すフロー図である。 以下、 図 2及び図 3を用いて、 本発明に係る画像位置合わせ処理装置を 詳細に説明する。 本発明に係る画像位置合わせ処理装置にて行われる処理は、 複数のモ ーシヨ ンを含む 2枚の画像間の画像全体の位置合わせ処理である。
図 2に示すように、 本発明に係る画像位置合わせ処理装置 1 0 0は、 特徴点抽出処理部 1 1 0 と、 特徴点ベース位置合わせ処理部 1 2 0 と、 単一モーショ ン領域抽出処理部 1 3 0 と、 領域ベース位置合わせ処理部 1 4 0 と、 特徴点削除処理部 1 5 0 とから構成され、 複数のモーショ ン を含む 2枚の画像間 ( 1枚の画像は基準画像で、 も う 1枚の画像は入力 画像である) の画像全体の位置合わせ処理を行う ものである。
図 2に示すよ うに、 本発明の画像位置合わせ処理装置 1 0 0では、 ま ず、 特徴点抽出処理部 1 1 0が、 基準画像及び入力画像に基づき、 基準 画像及び入力画像の特徴点をそれぞれ抽出する、 特徴点抽出処理を行う (図 3のステップ S 1 0、 ステップ S 2 0を参照) 。
次に、 特徴点ベース位置合わせ処理部 1 2 0が、 特徴点ベース位置合 わせ処理を行う。 特徴点ベース位置合わせ処理は、 基準画像から抽出さ れた特徴点 (基準画像特徴点) と、 入力画像から抽出された特徴点 (入 力画像特徴点) との対応付け処理 (図 3のステップ S 3 0を参照) と、 対応付けられた特徴点から外れ値を削除してからの初期モーショ ンパラ メータ推定処理 (図 3 のステ ップ S 4 0を参照) とから構成される。 次に、 単一モーシ ョ ン領域抽出処理部 1 3 0が、 特徴点ベース位置合 わせ処理部 1 2 0から出力された初期モーショ ンパラメータに基づき、 画像間の類似度と局所的な位置ずれ量を利用して、 当該初期モーショ ン パラメータに対応する単一モーショ ン領域を抽出する単一モーショ ン領 域抽出処理 (図 3のステップ S 6 0を参照) を行う。
次に、 領域ベース位置合わせ処理部 1 4 0力 特徴点ベース位置合わ せ処理部 1 2 0から出力された初期モーショ ンパラメータと、 単一モー シ ヨ ン領域抽出処理部 1 3 0から出力された単一モーシ ョ ン領域とに基 づき、 当該単一モーショ ン領域に対応するモーショ ンパラメータをサブ ピクセル精度で (高精度に) 推定する、 領域ベース位置合わせ処理 (図 3 のステ ップ S 7 0を参照) を行う。
つま り、 領域ベース位置合わせ処理部 1 4 0では、 特徴点ベース位置 合わせ処理部 1 2 0から出力された初期モーショ ンパラメータをモーシ ヨ ンパラメータの初期値と し、 単一モーショ ン領域抽出処理部 1 3 0か ら出力された単一モーショ ン領域を注目領域と して、 当該単一モーショ ン領域 (注目領域) に対応するモーショ ンパラメータをサブピクセル精 度で推定するよ うにしている。
本発明の画像位置合わせ処理装置 1 0 0では、 まず、 基準画像及び入 力画像に基づき、 特徴点抽出処理部 1 1 0にて行われる処理、 特徴点べ ース位置合わせ処理部 1 2 0にて行われる処理、 単一モーショ ン領域抽 出処理部 1 3 0にて行われる処理、 領域ベース位置合わせ処理部 1 4 0 にて行われる処理を順番に行う ことによ り、 特徴点抽出処理部 1 1 0に よ り抽出された全ての特徴点を利用して、 最も多く の特徴点を含んでい る支配的なモーショ ン (第 1支配的なモーショ ン) に対応する単一モー シ ヨ ン領域 (以下、 第 1単一モーショ ン領域と言う。 ) を抽出し、 また 、 第 1単一モーショ ン領域に対応するモーショ ンパラメータ (以下、 第 1 モーシ ョ ンパラメータ と言う。 ) を推定する。
次に、 特徴点削除処理部 1 5 0が、 基準画像特徴点及び入力画像特徴 点から、 単一モーシ ョ ン領域抽出処理部 1 3 0に抽出された単一モーシ ョ ン領域に含まれる特徴点を削除する特徴点削除処理 (図 3 のステップ S 9 0を参照) を行う。
次に、 本発明の画像位置合わせ処理装置 1 0 0では、 特徴点削除処理 部 1 5 0 にて行われる特徴点削除処理によ り削除されずに残った特徴点 を、 特徴点ベース位置合わせ処理部 1 2 0にて行われる特徴点ベース位 置合わせ処理に利用される基準画像特徴点及び入力画像特徴点と した上 で、 再ぴ、 特徴点ベース位置'合わせ処理部 1 2 0にて行われる処理、 単 —モーショ ン領域抽出処理部 1 3 0にて行われる処理、 領域ベース位置 合わせ処理部 1 4 0にて行われる処理を順番に行う ことによ り、 2番目 に支配的なモーショ ン (第 2支配的なモーシ ョ ン) に対応する単一モー シヨ ン領域 (以下、 第 2単一モーショ ン領域と言う。 ) を抽出し、 また 、 第 2単一モーショ ン領域に対応するモーショ ンパラメータ (以下、 第 2 モーショ ンパラメータと言う。 ) を推定する。
本発明の画像位置合わせ処理装置 1 0 0では、 上記のよ うにして、 特 徴点削除処理部 1 5 0にて行われる処理によ り単一モーショ ン領域に含 まれる特徴点を取り除きながら、 特徴点ベース位置合わせ処理部 1 2 0 にて行われる処理、 単一モーショ ン領域抽出処理部 1 3 0にて行われる 処理、 領域ベース位置合わせ処理部 1 4 0にて行われる処理を繰り返し 行う こ とによ り、 複数のモーショ ンに対応する全ての単一モーショ ン領 域を逐次的に抽出し、 そして、 逐次的に抽出された単一モーショ ン領域 に対応するモーショ ンパラメータをも逐次的に推定する。
換言すれば、 本発明の画像位置合わせ処理装置 1 0 0では、 特徴点を 多く含む支配的なモーショ ンから、 順番に逐次的に単一モーショ ン領域 を抽出し、 そして、 順番に逐次的に抽出された単一モーショ ン領域に対 応するモーショ ンパラメータを推定するよ うにしている。
このよ う に、 本発明の画像位置合わせ処理装置 1 0 0では、 特徴点抽 出処理部 1 1 0によ り特徴点抽出処理を行い、 更に、 特徴点ベース位置 合わせ処理部 1 2 0にて行われる処理、 単一モーショ ン領域抽出処理部 1 3 0にて行われる処理、 領域ベース位置合わせ処理部 1 4 0にて行わ れる処理、 特徴点削除処理部 1 5 0にて行われる処理を繰り返し行う こ とによ り 、 複数のモーショ ンに対応する複数の単一モーショ ン領域を抽 出するこ とが可能となり、 また、 それぞれの単一モーショ ン領域に対応 するモーショ ンパラメータを口パス ト且つ高精度に推定するこ とができ る。
以下、 図 3のフロー図及び図 4の画像例を用いて、 本発明の画像位置 合わせ処理装置にて行われるそれぞれの処理について、 よ り詳細に説明 する。 く 1 >特徴点抽出処理
図 3のステップ S 1 0 とステップ S 2 0に示すよ うに、 本発明の画像 位置合わせ処理装置では、 複数のモーショ ンを含む基準画像及ぴ入力画 像に対して、 特徴点抽出処理をそれぞれ行う。 また、 図 4に基準画像及 ぴ入力画像に対して行った特徴点抽出処理結果の画像例を示している。 本発明における特徴点抽出処理では、 まず、 ガウシアンのスケールパ ラメータを変ィ匕させな力 Sら、 D o G (Difference— of— Gaussian) を計算 する。 次に、 D o Gの極小値又は極大値を特徴点と して抽出する。
このと き、 D o Gの極小値又は極大値に対応する D o Gのスケールパ ラメータは、 く 2 a 〉で詳述する 「画像間の特徴点の対応付け処理」 に おいて、 抽出された特徴点の周辺領域を正規化するときに利用される。
こ こで、 基準画像から抽出された特徴点の位置を {( , )} =1~ と し、 また、 入力面像から抽出された特徴点の位置を =卜 とす る。 ただし、 Ντは基準画像から抽出された特徴点の数を表し、 また、 N tは入力画像から抽出された特徴点の数を表す。 く 2 >特徴点ベース位置合わせ処理
本発明の画像位置合わせ処理装置では、 特徴点ベース位置合わせ処理 部 1 1 0が、 基準画像から抽出された特徴点 (基準画像特徴点) と入力 画像から抽出された特徴点 (入力画像特徴点) とに基づき、 特徴点べ一 ス位置合わせ処理を行う。
こ こで、 特徴点ベース位置合わせ処理について、 その概要を述べる。 特徴点ベース位置合わせ処理は、 基準画像特徴点と入力画像特徴点と の対応付け処理、 (即ち、 画像間の特徴点の対応付け処理) と、 対応付 けられた特徴点から外れ値を削除してからの初期モーシヨ ンパラメータ 推定処理とから構成される。
こ こで言う 「対応付けられた特徴点から外れ値を削除する」 とは、 画 像間の特徴点の対応付け処理によって得られた特徴点対 (以下、 「対応 付けられた特徴点対」 と言う。 ) から、 所定の基準に外れた特徴点対 ( 以下、 「外れ特徴点対」 と言う。 ) を削除することを意味する。 非特許 文献 1 2〜非特許文献 1 4に、 対応付けられた特徴点対から外れ特徴点 対を取り除きながら、 モーショ ンパラメータを推定する方法が記載され ている。
本発明の画像位置合わせ処理装置 1 0 0では、 特徴点抽出処理部 1 1 0にて行われる 「特徴点抽出処理」 と、 特徴点ベース位置合わせ処理部 1 2 0にて行われる 「画像間の特徴点の対応付け処理 (図 3のステップ S 3 0を参照) 」 については、 非特許文献 1 5に記載された S I F Tァ ルゴリ ズムを利用した。 なお、 非特許文献 1 5 に記載された S I F Tァ ルゴリズムは、 変形が大きく ても比較的口パス トな結果が得られる方法 である。 また、 特徴点ベース位置合わせ処理部 1 2 0にて行われる 「対応付け られた特徴点から外れ値を削除してからの初期モーショ ンパラメータ推 定処理 (図 3のステップ S 4 0を参照) 」 については、 非特許文献 1 3 に記載された R A N S A Cアルゴリ ズムの高速化手法である、 非特許文 献 1 2に記載された; P R O S A Cアルゴリ ズムを利用した。
本発明では、 外れ特徴点対の削除 (外れ値の削除) を伴う特徴点べ一 ス位置合わせ処理を行う ことによ り、 初期モーショ ンパラメータをロバ ス トに推定することができる。
< 2 a >画像間の特徴点の対応付け処理
図 3のステップ S 3 0に示すよ うに、 本発明の画像位置合わせ処理装 置では、 基準画像から抽出された特徴点 (基準画像特徴点) と、 入力画 像から抽出された特徴点 (入力画像特徴点) との対応付け処理、 即ち、 画像間の特徴点の対応付け処理を行う。
本発明における画像間の特徴点の対応付け処理は、 特徴点の周辺領域 を正規化する処理と、 特徴点の特徴量を計算する処理と、 特徴量の距離 に基づく対応付け処理とから構成される。
特徴点の周辺領域を正規化する処理を行うために、 まず、 特徴点のス ケールパラメータ と特徴点の方向を定める。 特徴点のスケールパラメ一 タ と して、 特徴点が抽出されたときの D o Gのスケールパラメータを利 用する。 また、 特徴点の方向を定めるために、 抽出された特徴点の周辺 領域の各画素の勾配の方向を計算し、 計算された勾配の方向のヒ ス トグ ラムを作成する。 作成されたヒ ス トグラムのピークを対応する画素の勾 配の方向を特徴点の方向と して定める。
このよ う に定められた、 特徴点の周辺領域を、 スケールパラメータと 方向に基づき、 正規化する。 特徴点の周辺領域を正規化する処理とは、 周辺領域をスケールと方向を全ての特徴点で等しく なるよ うに、 拡大ま たは縮小、 回転をする処理である。
次に、 特徴点の周辺領域を正規化する処理によ り、 正規化された特徴 点の周辺領域を、 小領域に分割する。 一つの具体例と して、 例えば、 正 規化された特徴点の周辺領域を 4 X 4の 1 6個の小領域に分割する。
次に、 分割された各小領域において、 各画素の勾配の方向を計算し、 計算された勾配の方向のヒス トグラムを作成する。 一つの具体例と して 、 例えば、 3 6 0度の方向を 4 5度幅でヒス トグラムを作成することに よ り、 8方向の頻度値が得られる。 この頻度値を画素数で正規化した値 を、 特徴点の特徴量とする。
分割された 1 6個の小領域で、 それぞれ 8方向の正規化された頻度値 が得られるので、 一つの特徴点に対して、 1 2 8個の特徴量が得られる こ とになる。
ここで、 基準画像から抽出された特徴点 に対応する特徴量を ¾ とする。 また、 入力画像から抽出された特徴点 )に対応する特徴量 を とする。 ただし、 及び は、 特徴量を表す 1 2 8次元のベク トル である。
特徴量の距離に基づく対応付け処理では、 まず、 基準画像の p番目の 特徴点と、 入力画像の q番目の特徴点との距離 s p qを計算する。 距離 s p qは =|| ¾ - | に基づいて計算される。 ここで、 ΙΗ は L 2 ノルム を表す。
基準画像の ρ番目の特徴点に対応する入力画像の特徴点は、 距離 s ρ qを最も小さくなるよ うな入力画像の q番目の特徴点が選ばれる。
次に、 信頼度 r は r = /^に基づいて計算される。 但し、 は最も小 さい距離を表し、 また、 は 2番目に小さい距離を表す。 信頼度 r が 閾値よ り大きい場合のみ、 画像間の特徴点の対応付けを行う。 一つの具 体例と して、 例えば、 信頼度 r の閾値を 1 . 5 と した。
以上の一連の処理によ り、 基準画像から抽出された特徴点と、 入力画 像から抽出された特徴点とは対応付けされる。
こ こで、 基準画像から抽出された特徴点 , )に対応づけられた、 入 力画像から抽出された特徴点を(x , )で表す。 また、 対応づけられた特 徴点の数を N T I とする。 つま り、 k = l〜N T Iが成立する。 く 2 b >対応づけられた特徴点から外れ値を削除して初期モーショ ンパ ラメ一タ推定処理
図 3のステップ S 4 0に示すよ うに、 本発明の画像位置合わせ処理装 置では、 対応付けられた特徴点から外れ値を削除して、 初期モーショ ン パラメ一タ推定処理を行う。
対応づけられた特徴点から外れ値を削除して初期モーショ ンパラメ一 タ推定処理は、 具体的に、 下記ステップ 1〜ステップ 1 0によ り行われ る。
なお、 以下の実施例では、 モーショ ンモデルに射影変換を利用してお り、 つま り、 推定される初期モーシ ョ ンパラメータは射影変換パラメ一 タである。 但し、 本発明は、 モーショ ンモデルに射影変換を利用するこ とに限定されるこ とは無く、 例えば、 射影変換以外のモーショ ンモデル を利用するこ と も勿論可能である。 ステップ 1 :
t、 n、 Lに対し、 それぞれ所定の適切な値をセッ トする。 こ こで、 t = l、 n = 5、 L = 0にセッ トする。 ステ ップ 2 :
信頼度 r の大きな方から、 ( n— 1 ) 個の特徴点の対応を選び、 その 中から 3つの特徴点の対応をランダムに選択する。 ステ ップ 3 :
選択された 3つの特徴点と n番目に信頼度 r の大きい特徴点との対応 を利用して、 射影変換パラメータ I ^を計算する。 ステ ップ 4 :
射影変換パラメータ に基づき、 入力画像特徴点を変換し、 変換さ れた入力画像特徴点の位置と、 入力画像特徴点に対応付けされている基 準画像特徴点の位置との差を計算する。 計算された位置の差が所定の閾 値以下である特徴点の数を数える。 一具体例と して、 例えば、 この所定 の閾値を 2 とする。 ステ ップ 5 :
位置の差が所定の閾値以下である特徴点の数が、 Lよ り も大きい場合 は、 Lに位置の差が所定の閾値以下である特徴点の数をセッ トする。 ステ ップ 6 :
t が下記数 1 で表す条件を満足する場合には、 射影変換パラメータ を初期モーショ ンパラメータ の推定値 H。と して出力し、 初期モーシ ヨ ンパラメータ推定処理が終了する (図 3のステップ S 5 0を参照) 。 【数 1 】
i>(log )/log(l- ( ))
【数 2】
3 -j
^)=Πゾ =0 NTI― j
但し、 ηは設計パラメ 具体例と して、 例えば、 η を 0 0 5 と した。 ステ ップ 7 :
t を 1増加させる。 ステ ップ 8 :
tが所定の数 て を超えた場合に、 初期モーショ ンパラメータ推定処理 が失敗したものと して、 本発明の画像位置合わせ処理装置における処理 を終了する (図 3のステップ S 5 0 を参照) 。 一具体例と して、 例えば 、 て = 1 0 0 0 0 0 0 と した。 ステ ップ 9 :
tが下記数 3で表す条件を満足する場合には、 nを 1増加させる。 【数 3】 t>rx
ステップ 1 0 :
ステップ 2に戻り、 処理を繰り返す く 3 〉単一モーショ ン領域抽出処理
本発明の画像位置合わせ処理装置では、 単一モーシ ョ ン領域抽出処理 部 1 3 0 にて行われる 「単一モーショ ン領域抽出処理」 については、 特 許文献 2、 非特許文献 1 6に開示された画素選択アルゴ リ ズムを利用し た。
つま り、 単一モーショ ン領域抽出処理部 1 3 0 では、 特許文献 2、 非 特許文献 1 6に開示された画素選択アルゴリ ズムを用いて画素を選択し 、 そして選択した画素のみで構成される領域 (即ち、 選択した画素の集 合) を単一モーショ ン領域と して抽出する。
特許文献 2や非特許文献 1 6では、 画素を選択する際に、 画像間の類 似度による評価に加えて、 局所的な位置ずれ量を利用する。 本発明では 、 非特許文献 1 6に記載されたアルゴリ ズムを用いた場合に、 画像間の 類似度が高く、 位置ずれ量の小さな画素を選択する。 選択した画素を単 —モーショ ン領域に属する画素とする。
なお、 単一モーショ ン領域抽出処理部 1 3 0では、 特許文献 2、 非特 許文献 1 6に開示された画素選択アルゴリズムを利用して単一モーショ ン領域抽出処理を行う ことに限定されることはなく 、 例えば、 特許文献 1 に開示されたよ うなマス ク画像生成アルゴリ ズムを利用することによ りマスク画像を生成し、 生成したマスク画像を単一モーショ ン領域と し て抽出することも勿論可能である。
本発明の画像位置合わせ処理装置では、 図 3 のステップ S 6 0に示す よ うに、 推定された初期モーショ ンパラメータに基づき、 画像間の類似 度と局所的な位置ずれ量を利用して、 当該初期モーショ ンパラメータに 対応する、 単一モーシ ョ ン領域を抽出する単一モ一シ ョ ン領域抽出処理 を行う。 また、 図 4に抽出された単一モーショ ン領域の画像例を示して いる。
以下、 単一モーショ ン領域抽出処理の好適な実施例を具体的に説明す る。
本発明の単一モーショ ン領域抽出処理では、 基準画像 Tと入力画像 I 、 推定された初期モーシ ョ ンパラメータ H。 (以下、 単に、 初期モーシ ヨ ンパラメータ H。と も言う。 ) から、 対応する入力画像における領域 を、 マス ク画像 Mと して抽出する。
ここで、 マスク画像 Mは単一モーショ ン領域を表す。 また、 基準画像 Tを初期モーシ ョ ンパラメータ H。で変形した画像を、 変形基準画像 Γ' とする。
まず、 変形基準画像 Γ'と入力画像 I との位置 ( X, y ) における類似 度 R ( X , y ; i , j ) を、 下記数 4のよ う に定義する。
【数 4 】
〉 T'(x + u + i,y + v + j)I(x + u, y + v)
Figure imgf000039_0001
こ こで、 wは周辺領域の大きさを表す。 本実施例では、 w = 7 と して レ、る。
次に、 i =— l , 0, l と : i =— l , 0, l における 9つの類似度 R ( X , y ; i , j ) の値を利用 して、 単一モーシ ョ ン領域を表すマス ク画像 M の位置 ( X , y ) における値、 即ち、 M ( X 、 y ) を下記のよ う に設定 する。
まず、 9つの類似度 R ( X , y ; i , j ) の値を利用 して、 下記数 5で 表す 2次関数にフィ ッティ ングし、 6個の係数 C。,(: 6,Ce,Crf,C„及ぴ を求 める
【数 5】 J) = Ca i2+Cb ij+Cc +Cd i+Ce j+Cf 次に、 求められた 6個の係数 ca,cb,cc,cd,ce及ぴ に関して、 下記数 6
〜数 9で表す関係が全て成立した場合には、 M ( X , y ) に 1 を設定す る。 そして、 下記数 6〜数 9で表す関係のうち、 一つでも成立しない場 合には、 M ( X , y ) に 0を設定する。
【数 6 】
C。<0,Ccく 0, <0
【数 7】
2CcCd - b^e
<0.5
D
【数 8】
e - bcd
<0.
D
【数 9】 R
Figure imgf000040_0001
ここで、 = CA 2 -4C。CCであり、 R t hは設計パラメータである。 R t hは 本実施例では 0. 9 9 2 5 と している。
全ての位置 ( x, y ) について、 以上の計算処理を繰り返すこ とによ り、 単一モーシ ョ ン領域を表すマス ク画像 M ( X , y ) を計算 (抽出) するこ とができる。 < 4〉領域ベース位置合わせ処理
本発明の画像位置合わせ処理装置では、 領域ベース位置合わせ処理部 1 4 0にて行われる領域ベース位置合わせ処理については、 非特許文献 1 8に記載された I C I Aアルゴリ ズムを利用した。 I C I Aアルゴリ ズムは、 高速で高精度に位置合わせ処理を行う ことができるァルゴリ ズ ムである。
本発明の画像位置合わせ処理装置では、 図 3のステップ S 7 0に示す ように、 ロバス ト に推定された初期モーシ ョ ンパラメータと、 抽出され た単一モーショ ン領域とに基づき、 当該単一モーショ ン領域に対応する モーショ ンパラメータをサブピクセル精度で (高精度に) 推定する、 領 域ベース位置合わせ処理を行う。 また、 図 4に領域ベース位置合わせ処 理で得られたモーショ ンパラメータを用いて、 基準画像と入力画像との 画像全体の位置合わせ結果の画像例を示している。
以下、 本発明に係る領域ベース位置合わせ処理の好適な実施例を具体 的に説明する。
本発明の領域ベース位置合わせ処理では、 下記数 1 0で表す評価関数 を最小にするよ う に、 モーショ ンパラメータ を高精度に推定する。
【数 1 0】
E。 (H =∑ M'(x, y)[T(x, y)一 I(wx ( , y; Ht ), wy (x,ァ; H ] こ こで、 M'(X, J は単一モーショ ン領域 M ( x , y ) を、 初期モーシ ョ ンパラメータ H。に基づき変形したマス ク画像を表す。
また、 ^( ,y; H, )はモーシ ョ ンパラメータ で変換した後の X座標を 表す。 ( ,ァ; Η,)はモーショ ンパラメータ で変換した後の y座標を表 す。 上記数 1 0で表す評価関数を最小にするために、 勾配に基づく最小化 手法を利用する。 勾配に基づく最小化方法では初期値を必要とするが、 その初期値には、 初期モーショ ンパラメータ H。を利用する。
数 1 0で表す評価関数を最小化することによ り得られたモーショ ンパ ラメータ を出力 し、 領域ベース位置合わせ処理が終了する (図 3 の ステ ップ S 8 0を参照) 。
一方、 最小化手法によ り数 1 0で表す評価関数を最小化することに失 敗したときに、 モーショ ンパラメータ推定処理が失敗したものと して、 本発明の画像位置合わせ処理装置における処理を終了する (図 3 のステ ップ S 8 0を参照) 。
< 5 >画質改善処理
本発明の画質改善処理装置 1では、 画質改善処理部 2 0が、 画像位置 合わせ処理部 1 0から出力された、 複数の単一モーショ ン領域と、 それ ぞれの単一モーショ ン領域に対応するモーショ ンパラメータ とに基づき 、 複数のモーショ ンを含む複数の画像に対し、 画質改善処理を行う こと によ り、 画質改善画像を生成する。
以下、 本発明の画質改善処理の好適な実施例を具体的に説明する。 N枚の画像を観測 (撮影) し、 それぞれの観測画像から M k個のモ一 シ ヨ ンパラメータ (射影変換パラメータ) と、 モーシ ョ ンパラメ一 タに対応する単一モーシ ョ ン領域を表すマス ク画像 Mwが、 画像位置合 わせ処理部 1 0にて行われる画像全体の位置合わせ処理によ り、 得られ た。
このとき、 画質改善処理では、 下記数 1 1 で表す評価関数を最小化す ることによ り 、 画質改善処理が行われる。 【数 1 1 】
N Mk
(h -∑∑ (A diag(m ,)(AW h-f,) + A || Qh |g
k=\ 1=1
ここで、 hは画質改善画像のベタ トル表現を表す。 は k番目の観測 画像のベタ トル表現を表す。 は k番目の観測画像の /番目のモーショ ンパラメータ (射影変換パラメータ) に対応する単一モーショ ン領域を 表すマスク画像のベタ トル表現を表す。 Nは観測画像の枚数である。
また、 Awは k番目の観測画像の /番目のモーショ ンパラメータ (射影 変換パラメータ) とカメ ラモデルから得られる画質改善画像から k番目 の観測画像を推定するための行列を表す。 Qは画質改善画像の拘束を表 す行列を表す。 λは拘束の大き さを表すパラメータを表す。 diag(mw)は mwを対角要素にもつ対角行列を表す。 Tは行列の転置オペレータを表 す。.
本発明に係る画像位置合わせ処理装置及び画質改善処理装置は、 コン ピュータシステムを利用し、 ソフ ト ウェア (コ ンピュータプログラム) に よ り 実装 される こ と 力 s で き 、 そ し て 、 A S I C ( Application Specific Integrated Circuit) 、 G U (Graphics Processing Unit ) や F P G A (Field Programmable Gate Array) などのノヽー ドウエア によ り実装されることも勿論できる。
以下では、 複数の移動体が存在し、 遮蔽や鏡面反射などが生じている 複雑な実シーンを撮影した時系列画像 (実画像) に対して、 本発明の画 像位置合わせ処理技術を適用し、 更に、 本発明による画像位置合わせ処 理結果に基づき、 超解像処理を行う ことによ り、 本発明の有効性を実証 した。 その結果、 画像全体の解像度が効果的に向上していることが確認 された。 図 5 に 2つの移動体が別々に いているシーンを撮影した時系列画像 を示す。 図 5に示す時系列画像に対し、 本発明による画像全体の位置合 わせ処理を行った。 本発明における単一モーショ ンと して、 平面射影変 換を仮定した。 平面射影変換はヽ 単一平面のモーショ ンを表現する画像 変形である
図 6 に単 —モーショ ン領域抽出処理の結果を示す。 図 6の左側は左の 単一モーショ ン領域の抽出結果で 、 図 6の右側は右の単ーモ一ショ ン領 域の抽出 果である。 図 6から 、 単一モーショ ン領域だけが正しく抽出 されていることが分かる。 ここで注意したいのは、 移動体内のすべての 画素を抽出する必要はないとい ことである。 本発明では、 画質改善処 理 (例えば 、 超解像処理) を行 ことをも目的と しているため、 サブピ クセル精度で正確に位置合わせされている画素だけを抽出することの方 がむしろ重要で ¾>る。
図 7に左右の移動体を基準画像に合わせて変形した結果を示す。 図 5
( A )と比較すると、 基準画像に正しく位置合わせされていることが分か る。
次に、 本発明によって推定されたモーショ ンパラメータを使って超解 像処理を行った。 また、 比較のため、 濃度勾配法によって推定されたモ ーショ ンパラメータを使って超解像処理をも行った。 濃度勾配法の処理 領域は、 画像全体 (全画面) 、 手動で指定した左の移動体、 手動で指定 した右の移動体の 3種類と した。 濃度勾配法では、 モーショ ンと して平 面射影変換を仮定した。 ロバス ト超解像処理と して、 非特許文献 1 6に 記載された方法で求めたモーショ ンに対応する領域のみを使つて超解像 処理を行った。 観測画像のフ レ一ム数は 3 0枚である。 再構成法には、 非特許文献 1 9に記載された方法を用い、 高解像度化の倍率は縦横 3倍 に設定した。
図 8に超解像処理結果を示す。 まず、 前述したロバス ト超解像処理の 効果によって、 図 8のいずれの超解像処理結果にも画像劣化が見られな いことが分かる。 口パス ト超解像処理は画像劣化を抑える効果があるが 、 位置合わせが不正確な領域の解像度を向上することはできない。 図 8 ( C )左側、 (D )右側、 (E )左側、 (E )右側は、 図 8 のほかの超解像処理 結果に比べて解像度が向上しているこ とが分かる。 解像度が向上した領 域は、 位置合わせが正確な領域である。 この結果から、 本発明によって 複数のモーショ ンを含む画像間の画像全体の位置合わせ処理によ り、 移 動体の位置合わせが正確に行われたこ とが分かる。
図 9及ぴ図 1 0に、 よ り複雑なシーンを撮影した時系列画像に対する 超解像処理結果を示す。 このシーン (時系列画像) は、 2冊の本を人間 が自由に動かしている動画像である。 2つの平面である 2冊の本が別々 に動き、 非平面である顔や服も自由に動いている。 また、 遮蔽や鏡面反 射成分も含むよ う な照明変化が生じている。 このシーンに対し、 動画像 の全フ レームに対して超解像処理を行った。
本発明によって推定したモーショ ンパラメータを使って超解像処理を 行った。 また、 比較のため、 画像全体を濃度勾配法によって推定したモ ーショ ンパラメータを使って超解像処理をも行った。 濃度勾配法では、 モーショ ンと して平面射影変換を仮定した。 図 9及び図 1 0は、 左の列 力 ら順に、 フ レーム 0 、 フ レーム 5 0 、 フ レーム 1 0 0 、 フ レーム 1 4 9に対応している。 図 9 ( B )、 (C )、 (D )は、 眼鏡の含まれる領域を手 動で切り 出した画像である。 図 1 0 ( B )、 (C )、 (D )は、 青い本の含ま れる領域を手動で切り出した画像である。 それぞれ、 フ レームごとに領 域を設定し、 本発明と既存手法、 観測画像から同じ領域を切り 出した。 図 9 ( B )、 (C )、 (D )を比較すると、 眼鏡のふち等において、 本発明 による位置合わせ結果を用いた超解像処理結果がもっとも解像感が高く 、 色ずれも抑えられているこ とがわかる。 図 1 0 ( B )、 ( C )、 ( D )を比 較すると、 観測画像の拡大や画像全体の濃度勾配法でのモーショ ン推定 結果を用いた超解像処理結果では読めない文字が、 本発明による位置合 わせ結果を用いた超解像処理によって読めるよ う になることが分かる。
図 9 ( A )のよ うな動画像 (観測時系列画像) に対し、 特定のフ レーム における特定の領域を超解像処理する場合には、 処理領域を指定して濃 度勾配法によってモーショ ンパラメータを推定する手法も有用である。 しかし、 超解像処理の対象が動画像の全フ レームである場合、 全フ レー ムに対して処理領域を指定するよ うな作業は非現実的である。
—方、 本発明による位置合わせ結果を利用すれば、 処理領域の指定な どの作業を必要とせずに、 全フレームの画像全体において超解像処理を 行う ことができる。
上述した本発明に係る画質改善処理装置の第 1実施形態において、 単 一モーショ ン領域抽出処理では、 画像間の類似度と局所的な位置ずれ量 に基づき、 単一モーショ ン領域を抽出するよ う にしている。
ところで、 局所的な位置ずれ量を推定する際に、 テクスチャ レス領域 では、 局所的な位置ずれ量推定が不安定になりやすいことがある。 その ため、 テクスチャ レス領域を判定し、 テクスチャ レス領域を単一モーシ ョ ン領域に含めないよ うにするという処理が行われることがある。
そこで、 本発明の発明者らは、 テクスチャ レス領域について鋭意研究 した結果と して、 テクスチャレス領域であっても、 例えば S S Dのよ う な局所的な類似度が高ければ、 高い局所的な類似度を有するそのテクス チヤレス領域を画質改善処理に利用可能であることを見出した。 つま り、 本発明に係る画質改善処理装置の第 2実施形態では、 テクス チヤ レス領域であると と もに、 類似領域でもある領域 (以下、 このよ う な領域を単に 「テクスチャ レス類似領域」 とも言う。 ) を、 単一モーシ ヨ ン領域に加えることによ り 、 画質改善処理によ り、 テクスチャレス領 域の S N比の向上を実現している。
図 1 1 は本発明に係る画質改善処理装置の第 2実施形態 (本発明に係 る画質改善処理装置 2 ) を示すプロック構成図である。
図 1 1 に示すよ うに、 本発明に係る画質改善処理装置 2は、 画像位置 合わせ処理部 1 0 と、 領域拡張処理部 1 8 と、 画質改善処理部 2 0 とか ら構成され、 複数のモーショ ンを含む複数の画像に基づき、 高画質な画 質改善画像を生成するものである。
本発明の画質改善処理装置 2では、 まず、 画像位置合わせ処理部 1 0 が、 複数の画像から 1枚の基準画像を選択し、 残った全ての画像を入力 画像と し、 次に、 上述した本発明に係る画像位置合わせ処理装置によ り 行われる 1枚の基準画像と 1枚の入力画像との画像全体の位置合わせ処 理を、 複数の画像に対して繰り返し行う ことで、 複数のモーショ ンを含 む複数の画像における全ての単一モーショ ン領域を抽出し、 また、 それ らの単一モーショ ン領域にィ系る全てのモーショ ンパラメータを口バス ト 且つ高精度に推定する。
なお、 本発明の画質改善処理装置 2における画像位置合わせ処理部 1 0の具体的な処理流れ (動作) は、 本発明の画質改善処理装置 1 におけ る画像位置合わせ処理部 1 0 の処理流れと同様であるため、 その説明を 省略する。
次に、 領域拡張処理部 1 8力 画像位置合わせ処理部 1 0から出力さ れた、 複数の画像における全ての単一モーショ ン領域と、 全ての単一モ ーショ ン領域に対応する全てのモーショ ンパラメータ とに基づき、 詳細 は後述する本発明に係る領域拡張処理装置によ り行われる 1枚の基準画 像及び 1枚の入力画像に対する領域拡張処理を、 複数の画像に対して繰 り返し行う ことで、 複数の画像における全ての拡張単一モーショ ン領域 を生成する。
次に、 画質改善処理部 2 0が、 領域拡張処理部 1 8から出力された複 数の画像における全ての拡張単一モーショ ン領域と、 画像位置合わせ処 理部 1 0から出力された全てのモーショ ンパラメータ とに基づき、 複数 のモーショ ンを含む複数の画像に対し、 画質改善処理を行う ことによ り 、 画質改善画像を生成する。 また、 画質改善処理部 2 0にて行われる画 質改善処理は、 例えば、 特許文献 3に開示された画質改善処理方法を用 いて行う ことができる。
なお、 本発明に係る画質改善処理装置 2に利用される複数のモーショ ンを含む複数の画像と して、 複数の動き (複数の複雑な動き) のある動 画像 (即ち、 複数の移動体が別々に動いているシーンを撮影した時系列 画像) を用いることができる。 その場合、 例えば、 時系列画像の最初の フ レームを基準画像と し、 その後のフ レームを入力画像とするこ とがで きる。
勿論、 本発明に係る画質改善処理装置 2は、 動画像に適用されること に限定されることはなく、 複数のモーショ ンを含む複数の画像と して、 静止画像を用いることも勿論可能である。
図 1 2は本発明に係る領域拡張処理装置の実施形態 (領域拡張処理装 置 1 8 0 ) を示すブロック構成図である。 以下、 図 1 2に基づき、 本発 明に係る領域拡張処理装置を詳細に説明する。
本発明に係る領域拡張処理装置にて行われる処理は、 複数のモーショ ンを含む基準画像と、 複数のモーショ ンを含む入力画像と、 基準画像と 入力画像との画像全体の位置合わせ処理を行う ことによ り得られた複数 のモーショ ンに対応する複数の単一モーショ ン領域及び複数の単一モー ショ ン領域に対応する複数のモーショ ンパラメータに基づき、 基準画像 及び入力画像に対する領域拡張処理である。
本発明に係る領域拡張処理装置で利用される複数のモーショ ンに対応 する複数の単一モーショ ン領域及び複数の単一モーショ ン領域に対応す る複数のモーショ ンパラメータは、 本発明に係る画像位置合わせ処理装 置にて行われる画像全体の位置合わせ処理によ り得られたものである。
図 1 2に示すよ う に、 本発明の領域拡張処理装置 1 8 0は、 基準画像 を入力とするテクスチャレス領域抽出処理部 1 8 1 と、 入力画像及ぴ複 数のモーショ ンパラメータを入力とする画像変形処理部 1 8 2 と、 基準 画像を 1つの入力とする類似度による閾値処理部 1 8 3 と、 論理積処理 部と、 複数の単一モーショ ン領域を入力とする論理和処理部とを備える 本発明の領域拡張処理装置 1 8 0では、 まず、 テクスチャ レス領域抽 出処理部 1 8 1 が、 基準画像のテクスチャレス領域を抽出する、 テクス チヤレス領域抽出処理を行い、 抽出したテクスチャ レス領域を論理積処 理部へ出力する。
次に、 画像変形処理部 1 8 2が、 複数のモーショ ンパラメータに基づ き、 入力画像を変形し、 変形された入力画像を変形入力画像と して類似 度による閾値処理部へ出力する。
そして、 類似度による閾値処理部 1 8 3が、 基準画像及び変形入力画 像に対し、 局所的な類似度を閾値処理することによ り、 類似領域を抽出 し、 抽出した類似領域を論理積処理部 1 8 4へ出力する。 次に、 論理積処理部 1 8 4が、 テクスチャレス領域抽出処理部 1 8 1 から出力されたテクスチャ レス領域、 及ぴ類似度による閾値処理部 1 8 3から出力された類似領域に対し、 論理積処理を行う ことによ り 、 テク スチヤ レス類似領域を生成し、 生成したテクスチャ レス類似領域を論理 和処理部 1 8 5へ出力する。
最後に、 論理和処理部 1 8 5が、 論理積処理部 1 8 4から出力された テクスチャ レス類似領域、 及び複数の単一モーショ ン領域に対し、 論理 和処理を行う こ とによ り 、 テクスチャ レス類似領域と複数の単一モーシ ヨ ン領域を合わせた、 複数の拡張単一モーシ ョ ン領域を生成する。
テクスチャ レス領域抽出処理部 1 8 1 にて行われるテクスチャ レス領 域抽出処理は、 既存の方法を利用することが可能である。 テクスチャレ ス領域抽出処理の一具体例と して、 例えば、 基準画像における局所的な 画像の分散を求め、 求めた局所的な画像の分散が所定の閾値以下の領域 をテクスチャ レス領域と して抽出する方法がある。
また、 類似度による閾値処理部 1 8 3に利用される局所的な類似度は 、 既存の類似度を利用することが可能である。 その具体例と して、 例え ば、 S S D ( Sum of Squared Difference ) 又 は S A D ( Sum of Absolute Difference) を用いることカ できる。
上述した本発明に係る画質改善処理装置 2によれば、 テクスチャ レス 類似領域を単一モーショ ン領域に加えることによ り得られた拡張単一モ ーシヨ ン領域に基づいて、 画質改善処理を行う よ うにしているので、 テ クスチヤ レス領域の S N比の向上を実現できるという優れた効果を奏す る。
なお、 上述した本発明に係る領域拡張処理装置及び画質改善処理装置 2は、 コンピュータシステムを利用 し、 ソフ ト ウェア (コンピュータプ ロ グ ラ ム ) に よ り 実装 さ れる こ と が で き 、 そ し て 、 A S I C ( Application Specific Integrated Circuitノ 、 G P U (, Graphics Processing Unit) や F P G A (Field Programmable Gate Array) など のハ ドウエアによ り実装されるこ とも勿
{符号の説明 }
1 2 画質改善処理装置
1 0 画像位置合わせ処理部
1 8 領域拡張処理部
2 0 画質改善処理部
1 0 0 画像位置合わせ処理装置
1 1 0 特徴点抽出処理部
1 2 0 特徴点ベース位置合わせ処理部
1 3 0 単一モーショ ン領域抽出処理部
1 4 0 領域ベース位置合わせ処理部
1 5 0 特徴点削除処理部
1 8 0 領域拡張処理装置
1 8 1 テクスチャ レス領域抽出処理部
1 8 2 画像変形処理部
1 8 3 類似度による閾値処理部
1 8 4 論理積処理部
1 8 5 論理和処理部 請 求 の 範 囲
請求項 1 . 複数のモーショ ンを含む基準画像と、 複数のモーショ ンを 含む入力画像との画像全体の位置合わせ処理をロバス ト且つ高精度に行 う画像位置合わせ処理装置であって、
特徴点抽出処理部と、 特徴点ベース位置合わせ処理部と、 単一モーシ ヨ ン領域抽出処理部と、 領域ベース位置合わせ処理部と、 特徴点削除処 理部とを備え、
前記特徴点抽出処理部が、 前記基準画像及び前記入力画像の特徴点を それぞれ抽出する、 特徴点抽出処理を行い、
前記特徴点ベース位置合わせ処理部が、 前記基準画像から抽出された 特徴点 (基準画像特徴点) と、 前記入力画像から抽出された特徴点 (入 力画像特徴点) と の対応付け処理と、 対応付けられた特徴点から外れ値 を削除してからの初期モーショ ンパラメ一タ推定処理とから構成される 、 特徴点ベース位置合わせ処理を行い、
前記単一モーショ ン領域抽出処理部が、 前記特徴点ベース位置合わせ 処理部から出力された初期モーショ ンパラメータに基づき、 画像間の類 似度と局所的な位置ずれ量を利用して、 当該初期モーシ ョ ンパラメータ に対応する単一モーショ ン領域を抽出する、 単一モーショ ン領域抽出処 理を行い、
前記領域ベース位置合わせ処理部が、 前記特徴点ベース位置合わせ処 理部から出力された初期モーショ ンパラメータ と、 前記単一モーショ ン 領域抽出処理部から出力された単一モーショ ン領域とに基づき、 当該単 一モーショ ン領域に対応するモーショ ンパラメータをサブピクセル精度 で推定する、 領域ベース位置合わせ処理を行い、 前記特徴点削除処理部が、 前記基準画像特徴点及び前記入力画像特徵 点から、 前記単一モーショ ン領域抽出処理部に抽出された単一モーショ ン領域に含まれる特徴点を削除する、 特徴点削除処理を行う こ とを特徴 とする画像位置合わせ処理装置。 請求項 2 . 前記画像位置合わせ処理装置では、 前記基準画像及び前記 入力画像に基づき、 前記特徴点抽出処理部にて行われる処理、 前記特徴 点ベース位置合わせ処理部にて行われる処理、 前記単一モーショ ン領域 抽出処理部にて行われる処理、 前記領域ベース位置合わせ処理部にて行 われる処理を順番に行う こ とによ り、 前記特徴点抽出処理部によ り抽出 された全ての特徴点を利用して、 第 1支配的なモーショ ンに対応する第 1単一モーショ ン領域を抽出し、 抽出した第 1単一モーショ ン領域に対 応する第 1 モーショ ンパラメータを推定する請求項 1 に記載の画像位置 合わせ処理装置。 請求項 3 . 前記画像位置合わせ処理装置では、 前記第 1 モーショ ンパ ラメータが推定された後に、 前記特徴点削除処理部にて行われる特徴点 削除処理によ り削除されずに残った特徴点を、 前記特徴点ベース位置合 わせ処理部にて行われる特徴点ベース位置合わせ処理に利用される基準 画像特徴点及ぴ入力画像特徴点と した上で、 再び、 前記特徴点ベース位 置合わせ処理部にて行われる処理、 前記単一モーショ ン領域抽出処理部 にて行われる処理、 前記領域ベース位置合わせ処理部にて行われる処理 を順番に行う ことによ り、 第 2支配的なモーショ ンに対応する第 2単一 モーショ ン領域を抽出し、 抽出した第 2単一モーショ ン領域に対応する 第 2 モーシ ョ ンパラメータを推定する請求項 2に記載の画像位置合わせ

Claims

処理装置。 請求項 4 . 前記画像位置合わせ処理装置では、 前記第 2モーショ ンパ ラメータが推定された後に、 前記特徴点削除処理部にて行われる処理に よ り単一モーショ ン領域に含まれる特徴点を取り除きながら、 前記特徴 点ベース位置合わせ処理部にて行われる処理、 前記単一モーショ ン領域 抽出処理部にて行われる処理、 前記領域ベース位置合わせ処理部にて行 われる処理を繰り返し行う ことによ り 、 複数のモーショ ンに対応する全 ての単一モーショ ン領域を逐次的に抽出し、 逐次的に抽出された単一モ ーショ ン領域に対応するモーショ ンパラメータをも逐次的に推定する請 求項 3 に記載の画像位置合わせ処理装置。 請求項 5 . 複数のモーショ ンを含む基準画像と、 複数のモーショ ンを 含む入力画像との画像全体の位置合わせ処理をロバス ト且つ高精度に行 う画像位置合わせ処理装置であって、
特徴点抽出処理部と、 特徴点ベース位置合わせ処理部と、 単一モーシ ヨ ン領域抽出処理部と、 領域ベース位置合わせ処理部とを備え、
前記特徴点抽出処理部が、 前記基準画像及び前記入力画像の特徴点を それぞれ抽出する、 特徴点抽出処理を行い、
前記特徴点ベース位置合わせ処理部が、 前記基準画像から抽出された 特徴点 (基準画像特徴点) と、 前記入力画像から抽出された特徴点 (入 力画像特徴点) と の対応付け処理と、 対応付けられた特徴点から外れ値 を削除してからの初期モーショ ンパラメータ推定処理とから構成される 、 特徵点ベース位置合わせ処理を行い、
前記単一モーショ ン領域抽出処理部が、 前記特徴点ベース位置合わせ 処理部から出力された初期モーショ ンパラメータに基づき、 画像間の類 似度と局所的な位置ずれ量を利用して、 当該初期モーショ ンパラメータ に対応する単一モーシヨ ン領域を抽出する、 単一モーショ ン領域抽出処 理を行い、
前記領域ベース位置合わせ処理部が、 前記特徴点ベース位置合わせ処 理部から出力された初期モーショ ンパラメータ と、 前記単一モーショ ン 領域抽出処理部から出力された単一モーショ ン領域とに基づき、 当該単 一モーショ ン領域に対応するモーシ 3 ンパラメータをサブピクセル精度 で推定する、 領域ベース位置合わせ処理を行う ことを特徴とする画像位 置合わせ処理装置。 請求項 6 . 前記画像位置合わせ処理装置では、 前記基準画像及び前記 入力画像に基づき、 前記特徴点抽出処理部にて行われる処理、 前記特徴 点ベース位置合わせ処理部にて行われる処理、 前記単一モーショ ン領域 抽出処理部にて行われる処理、 前記領域ベース位置合わせ処理部にて行 われる処理を順番に行う ことによ り、 前記特徴点抽出処理部によ り抽出 された全ての特徴点を利用して、 第 1支配的なモーショ ンに対応する第 1単一モーショ ン領域を抽出し、 抽出した第 1単一モーショ ン領域に対 応する第 1 モーショ ンパラメータを推定する請求項 5に記載の画像位置 合わせ処理装置。 請求項 7 . 複数のモーショ ンを含む基準画像と、 複数のモーショ ンを 含む入力画像との画像全体の位置合わせ処理をロバス ト且つ高精度に行 う画像位置合わせ処理方法であって、
特徴点抽出処理ステップと、 特徴点ベース位置合わせ処理ステップと 、 単一モーシ ョ ン領域抽出処理ステ ップと 、 領域ベース位置合わせ処理 ステップと、 特徴点削除処理ステップとを有し、
前記特徴点抽出処理ステップでは、 前記基準画像及び前記入力画像の 特徴点をそれぞれ抽出する、 特徴点抽出処理を行い、
前記特徴点ベース位置合わせ処理ステ ップでは、 前記基準画像から抽 出された特徴点 (基準画像特徴点) と、 前記入力画像から抽出された特 徴点 (入力画像特徴点) との対応付け処理と、 対応付けられた特徴点か ら外れ値を削除してからの初期モーショ ンパラメータ推定処理とから構 成される、 特徴点ベース位置合わせ処理を行い、
前記単一モーショ ン領域抽出処理ステップでは、 前記特徴点ベース位 置合わせ処理ステップで推定された初期モーシ ョ ンパラメータに基づき 、 画像間の類似度と局所的な位置ずれ量を利用して、 当該初期モーショ ンパラメータに対応する単一モーショ ン領域を抽出する、 単一モーショ ン領域抽出処理を行い、
前記領域ベース位置合わせ処理ステップでは、 前記特徴点ベース位置 合わせ処理ステップで推定された初期モーショ ンパラメータと、 前記単 一モーショ ン領域抽出処理ステップで抽出された単一モーショ ン領域と に基づき、 当該単一モーショ ン領域に対応するモーショ ンパラメータを サブピクセル精度で推定する、 領域ベース位置合わせ処理を行い、 前記特徴点削除処理ステップでは、 前記基準画像特徴点及び前記入力 画像特徴点から、 前記単一モーショ ン領域抽出処理ステ ップで抽出され た単一モーシ ョ ン領域に含まれる特徴点を削除する、 特徴点削除処理を 行う ことを特徴とする画像位置合わせ処理方法。 請求項 8 . 前記画像位置合わせ処理方法では、 前記基準画像及び前記 入力画像に基づき、 前記特徴点抽出処理ステップにて行われる処理、 前 記特徴点ベース位置合わせ処理ステップにて行われる処理、 前記単一モ ーショ ン領域抽出処理ステップにて行われる処理、 前記領域ベース位置 合わせ処理ステップにて行われる処理を順番に行う こ とによ り、 前記特 徴点抽出処理ステ ップで抽出された全ての特徴点を利用して、 第 1支配 的なモーショ ンに対応する第 1単一モーショ ン領域を抽出し、 抽出した 第 1単一モーショ ン領域に対応する第 1 モーシ ョ ンパラメータを推定す る請求項 7に記載の画像位置合わせ処理方法。 請求項 9 . 前記画像位置合わせ処理方法では、 前記第 1 モーショ ンパ ラメータが推定された後に、 前記特徴点削除処理ステップにて行われる 特徵点削除処理によ り削除されずに残った特徴点を、 前記特徴点ベース 位置合わせ処理ステ ップにて行われる特徴点ベース位置合わせ処理に利 用される基準画像特徴点及ぴ入力画像特徴点と した上で、 再び、 前記特 徴点ベース位置合わせ処理ステップにて行われる処理、 前記単一モーシ ョ ン領域抽出処理ステップにて行われる処理、 前記領域ベース位置合わ せ処理ステップにて行われる処理を順番に行う こ とによ り、 第 2支配的 なモーショ ンに対応する第 2単一モーショ ン領域を抽出し、 抽出した第 2単一モーショ ン領域に対応する第 2モーショ ンパラメータを推定する 請求項 8に記載の画像位置合わせ処理方法。 請求項 1 0 . 前記画像位置合わせ処理方法では、 前記第 2 モーショ ン パラメータが推定された後に、 前記特徴点削除処理ステップにて行われ る処理によ り単一モーショ ン領域に含まれる特徴点を取り除きながら、 前記特徴点ベース位置合わせ処理ステ ップにて行われる処理、 前記単一 モ一ショ ン領域抽出処理ステ ップにて行われる処理、 前記領域ベース位 置合わせ処理ステップにて行われる処理を繰り返し行う ことによ り、 複 数のモーショ ンに対応する全ての単一モーショ ン領域を逐次的に抽出し 、 逐次的に抽出された単一モーショ ン領域に対応するモーショ ンパラメ 一タをも逐次的に推定する請求項 9に記載の画像位置合わせ処理方法。 請求項 1 1 . 複数のモーシ ョ ンを含む基準画像と、 複数のモーショ ン を含む入力画像との画像全体の位置合わせ処理をロバス ト且つ高精度に 行う画像位置合わせ処理方法であって、
特徴点抽出処理ステップと 、 特徴点ベース位置合わせ処理ステ ップと 、 単一モーショ ン領域抽出処理ステ ップと 、 領域ベース位置合わせ処理 ステ ップと を有し、
前記特徴点抽出処理ステ ップでは、 前記基準画像及び前記入力画像の 特徴点をそれぞれ抽出する、 特徴点抽出処理を行い、
前記特徴点ベース位置合わせ処理ステップでは、 前記基準画像から抽 出された特徴点 (基準画像特徴点) と、 前記入力画像から抽出された特 徴点 (入力画像特徴点) との対応付け処理と、 対応付けられた特徴点か ら外れ値を削除してからの初期モーショ ンパラメータ推定処理とから構 成される、 特徴点ベース位置合わせ処理を行い、
前記単一モーショ ン領域抽出処理ステ ップでは、 前記特徴点ベース位 置合わせ処理ステ ップで推定された初期モーショ ンパラ メータに基づき 、 画像間の類似度と局所的な位置ずれ量を利用して、 当該初期モーショ ンパラメータに対応する単一モーショ ン領域を抽出する、 単一モーショ ン領域抽出処理を行い、
前記領域ベース位置合わせ処理ステップでは、 前記特徴点ベース位置 合わせ処理ステップで推定された初期モーショ ンパラメータ と、 前記単 ーモ一ショ ン領域抽出処理ステップで抽出された単一モーショ ン領域と に基づき、 当該単一モーショ ン領域に対応するモーショ ンパラメータを サブピクセル精度で推定する、 領域ベース位置合わせ処理を行う ことを 特徴とする画像位置合わせ処理方法。 請求項 1 2 . 前記画像位置合わせ処理方法では、 前記基準画像及び前 記入力画像に基づき、 前記特徴点抽出処理ステップにて行われる処理、 前記特徴点ベース位置合わせ処理ステップにて行われる処理、 前記単一 モーショ ン領域抽出処理ステップにて行われる処理、 前記領域ベース位 置合わせ処理ステップにて行われる処理を順番に行う ことによ り、 前記 特徴点抽出処理ステップで抽出された全ての特徴点を利用して、 第 1支 配的なモーショ ンに対応する第 1単一モーショ ン領域を抽出し、 抽出し た第 1 単一モーショ ン領域に対応する第 1 モーショ ンパラメータを推定 する請求項 1 1 に記載の画像位置合わせ処理方法。 請求項 1 3 . 複数のモーショ ンを含む基準画像と、 複数のモーシ ョ ン を含む入力画像との画像全体の位置合わせ処理をロバス ト且つ高精度に 行うための画像位置合わせ処理プログラムであって、
特徴点抽出処理手順と、 特徴点ベース位置合わせ処理手順と、 単一モ ーシヨ ン領域抽出処理手順と、 領域ベース位置合わせ処理手順と、 特徴 点削除処理手順とをコ ンピュータに実行させるためのプログラムであり 前記特徴点抽出処理手順では、 前記基準画像及び前記入力画像の特徴 点をそれぞれ抽出する、 特徴点抽出処理を行い、 前記特徴点ベース位置合わせ処理手順では、 前記基準画像から抽出さ れた特徴点 (基準画像特徴点) と、 前記入力画像から抽出された特徴点 (入力画像特徴点) と の対応付け処理と、 対応付けられた特徴点から外 れ値を削除してからの初期モーショ ンパラメータ推定処理とから構成さ れる、 特徴点ベース位置合わせ処理を行い、
前記単一モーシ ョ ン領域抽出処理手順では、 前記特徴点ベース位置合 わせ処理手順で推定された初期モーショ ンパラメータに基づき、 画像間 の類似度と局所的な位置ずれ量を利用して、 当該初期モーショ ンパラメ 一タに対応する単一モーシヨ ン領域を抽出する、 単一モーショ ン領域抽 出処理を行い、
前記領域ベース位置合わせ処理手順では、 前記特徴点ベース位置合わ せ処理手順で推定された初期モーショ ンパラメータと、 前記単一モーシ ヨ ン領域抽出処理手順で抽出された単一モーショ ン領域とに基づき、 当 該単一モーショ ン領域に対応するモーショ ンパラ メ ータ をサブピクセ /レ 精度で推定する、 領域ベース位置合わせ処理を行い、
前記特徴点削除処理手順では、 前記基準画像特徴点及び前記入力画像 特徴点から、 前記単一モーショ ン領域抽出処理手順で抽出された単一モ ーショ ン領域に含まれる特徴点を削除する、 特徴点削除処理を行う こ と を特徴とする画像位置合わせ処理プログラム。 請求項 1 4 . 前記画像位置合わせ処理プログラムでは、 前記基準画像 及び前記入力画像に基づき、 前記特徴点抽出処理手順にて行われる処理 、 前記特徴点ベース位置合わせ処理手順にて行われる処理、 前記単一モ ーショ ン領域抽出処理手順にて行われる処理、 前記領域ベース位置合わ せ処理手順にて行われる処理を順番に行う ことによ り、 前記特徴点抽出 処理手順で抽出された全ての特徴点を利用して、 第 1支配的なモーショ ンに対応する第 1単一モーショ ン領域を抽出し、 抽出した第 1単一モー シヨ ン領域に対応する第 1 モーショ ンパラメータを推定する請求項 1 3 に記載の画像位置合わせ処理プログラム。 請求項 1 5 . 前記画像位置合わせ処理プログラムでは、 前記第 1 モー シヨ ンパラメータが推定された後に、 前記特徴点削除処理手順にて行わ れる特徴点削除処理によ り削除されずに残った特徴点を、 前記特徴点べ ース位置合わせ処理手順にて行われる特徴点ベース位置合わせ処理に利 用される基準画像特徴点及び入力画像特徴点と した上で、 再び、 前記特 徴点ベース位置合わせ処理手順にて行われる処理、 前記単一モーシ ョ ン 領域抽出処理手順にて行われる処理、 前記領域ベース位置合わせ処理手 順にて行われる処理を順番に行う ことによ り 、 第 2支配的なモーショ ン に対応する第 2単一モーシ ョ ン領域を抽出し、 抽出した第 2単一モーシ ヨ ン領域に対応する第 2 モーショ ンパラメータを推定する請求項 1 4に 記載の画像位置合わせ処理プログラム。 請求項 1 6 . 前記画像位置合わせ処理プログラムでは、 前記第 2 モー シヨ ンパラメータが推定された後に、 前記特徴点削除処理手順にて行わ れる処理によ り単一モーショ ン領域に含まれる特徴点を取り除きながら 、 前記特徴点ベース位置合わせ処理手順にて行われる処理、 前記単一モ ーショ ン領域抽出処理手順にて行われる処理、 前記領域ベース位置合わ せ処理手順にて行われる処理を繰り返し行う こ とによ り、 複数のモーシ ョ ンに対応する全ての単一モーショ ン領域を逐次的に抽出し、 逐次的に 抽出された単一モーシ ョ ン領域に対応するモーショ ンパラメータをも逐 次的に推定する請求項 1 5に記載の画像位置合わせ処理プログラム。 請求項 1 7 . 複数のモーショ ンを含む基準画像と、 複数のモーショ ン を含む入力画像との画像全体の位置合わせ処理を口パス ト且つ高精度に 行うための画像位置合わせ処理プログラムであって、
特徴点抽出処理手順と、 特徴点ベース位置合わせ処理手順と、 単一モ ーショ ン領域抽出処理手順と、 領域ベース位置合わせ処理手順とをコ ン ピュータに実行させるためのプログラムであり 、
前記特徴点抽出処理手順では、 前記基準画像及び前記入力画像の特徴 点をそれぞれ抽出する、 特徴点抽出処理を行い、
前記特徴点ベース位置合わせ処理手順では、 前記基準画像から抽出さ れた特徴点 (基準画像特徴点) と、 前記入力画像から抽出された特徴点 (入力画像特徴点) との対応付け処理と、 対応付けられた特徴点から外 れ値を削除してからの初期モーショ ンパラメータ推定処理とから構成さ れる、 特徴点ベース位置合わせ処理を行い、
前記単一モーショ ン領域抽出処理手順では、 前記特徴点ベース位置合 わせ処理手順で推定された初期モーショ ンパラメータに基づき、 画像間 の類似度と局所的な位置ずれ量を利用して、 当該初期モーショ ンパラメ ータに対応する単一モーショ ン領域を抽出する、 単一モーショ ン領域抽 出処理を行い、
前記領域ベース位置合わせ処理手順では、 前記特徴点ベース位置合わ せ処理手順で推定された初期モーショ ンパラメータと、 前記単一モーシ ョ ン領域抽出処理手順で抽出された単一モーショ ン領域と.に基づき、 当 該単一モーショ ン領域に対応するモーショ ンパラメータをサプピクセル 精度で推定する、 領域ベース位置合わせ処理を行う こ とを特徴とする画 像位置合わせ処理プログラム。 請求項 1 8 . 前記画像位置合わせ処理プログラムでは、 前記基準画像 及ぴ前記入力画像に基づき、 前記特徴点抽出処理手順にて行われる処理 、 前記特徴点ベース位置合わせ処理手順にて行われる処理、 前記単一モ ーショ ン領域抽出処理手順にて行われる処理、 前記領域ベース位置合わ せ処理手順にて行われる処理を順番に行う ことによ り、 前記特徴点抽出 処理手順で抽出された全ての特徴点を利用して、 第 1支配的なモーショ ンに対応する第 1単一モーショ ン領域を抽出し、 抽出した第 1単一モー ショ ン領域に対応する第 1 モーショ ンパラメータを推定する請求項 1 7 に記載の画像位置合わせ処理プログラム。
請求項 1 9 . 複数のモーショ ンを含む複数の画像に基づき、 高画質な 画質改善画像を生成する画質改善処理装置であって、
画像位置合わせ処理部と、 画質改善処理部とを備え、
前記画像位置合わせ処理部が、 前記複数の画像から 1枚の基準画像を 選択し、 残った全ての画像を入力画像と し、 次に、 請求項 1乃至請求項 4の何れかに記載の画像位置合わせ処理装置によ り行われる 1枚の基準 画像と 1枚の入力画像との画像全体の位置合わせ処理を、 前記複数の画 像に対して繰り返し行う ことで、 複数のモーショ ンを含む複数の画像に おける全ての単一モーショ ン領域を抽出し、 また、 それらの単一モーシ ョ ン領域に係る全てのモーショ ンパラメータを口バス ト且つ高精度に推 定し、
前記画質改善処理部が、 前記画像位置合わせ処理部から出力された、 複数の単一モーショ ン領域と、 それぞれの単一モーショ ン領域に対応す るモーショ ンパラメータ とに基づき、 前記複数の画像に対し、 画質改善 処理を行う ことによ り、 前記画質改善画像を生成するこ とを特徴とする 画質改善処理装置。 請求項 2 0 . 複数のモーショ ンを含む基準画像と、 複数のモーショ ン を含む入力画像と、 前記基準画像と前記入力画像との画像全体の位置合 わせ処理を行う ことによ り得られた複数のモーショ ンに対応する複数の 単一モ一ショ ン領域及び前記複数の単一モーショ ン領域に対応する複数 のモーショ ンパラメータに基づき、 前記基準画像及び前記入力画像に対 する領域拡張処理を行う領域拡張処理装置であって、
前記基準画像を入力とするテクスチャ レス領域抽出処理部と、 前記入力画像及ぴ前記複数のモーショ ンパラメータを入力とする画像 変形処理部と、
前記基準画像を 1つの入力とする類似度による閾値処理部と、 論理積処理部と、
前記複数の単一モーショ ン領域を入力とする論理和処理部と、 を備え、
前記テク スチャ レス領域抽出処理部が、 前記基準画像のテク スチャ レ ス領域を抽出する、 テク スチャ レス領域抽出処理を行い、 抽出したテク スチヤレス領域を前記論理積処理部へ出力し、
前記画像変形処理部が、 前記複数のモーショ ンパラメータに基づき、 前記入力画像を変形し、 変形された入力画像を変形入力画像と して前記 類似度による閾値処理部へ出力し、
前記類似度による閾値処理部が、 前記基準画像及ぴ前記変形入力画像 に対し、 局所的な類似度を閾値処理することによ り、 類似領域を抽出し 、 抽出した類似領域を前記論理積処理部へ出力 し、
前記論理積処理部が、 前記テクスチヤレス領域抽出処理部から出力さ れた前記テクスチャ レス領域、 及び前記類似度による閾値処理部から出 力された前記類似領域に対し、 論理積処理を行う ことによ り 、 テクスチ ャ レス類似領域を生成し、 生成したテク スチャ レス類似領域を前記論理 和処理部へ出力し、
前記論理和処理部が、 前記論理積処理部から出力された前記テクスチ ャ レス類似領域、 及び前記複数の単一モーショ ン領域に対し、 論理和処 理を行う ことによ り、 前記テクスチャレス類似領域と前記複数の単一モ ーショ ン領域を合わせた、 複数の拡張単一モーショ ン領域を生成するこ とを特徴とする領域拡張処理装置。 請求項 2 1 . 前記テク スチャ レス領域抽出処理では、 前記基準画像に おける局所的な画像の分散を求め、 求めた局所的な画像の分散が所定の 閾値以下の領域をテク スチャ レス領域と して抽出する請求項 2 0に記载 の領域拡張処理装置。 請求項 2 2 . 前記類似度による閾値処理部に利用される前記局所的な 類似度は、 S S D又は S A Dである請求項 2 0又は請求項 2 1 に記載の 領域拡張処理装置。 請求項 2 3 . 複数のモーショ ンを含む複数の画像に基づき、 高画質な 画質改善画像を生成する画質改善処理装置であつて、
画像位置合わせ処理部と、 領域拡張処理部と、 画質改善処理部とを備 前記画像位置合わせ処理部が、 前記複数の画像から 1枚の基準画像を 選択し、 残った全ての画像を入力画像と し、 次に、 請求項 1乃至請求項 4の何れかに記載の画像位置合わせ処理装置によ り行われる 1枚の基準 画像と 1枚の入力画像との画像全体の位置合わせ処理を、 前記複数の画 像に対して繰り返し行う ことで、 複数のモーショ ンを含む複数の画像に おける全ての単一モーショ ン領域を抽出し、 また、 それらの単一モーシ ョ ン領域に係る全てのモーショ ンパラメータを口バス ト且つ高精度に推 定し、
前記領域拡張処理部が、 前記画像位置合わせ処理部から出力された、 前記複数の画像における全ての単一モーショ ン領域と、 前記全ての単一 モーショ ン領域に対応する全てのモーショ ンパラメータ とに基づき、 請 求項 2 0乃至請求項 2 2の何れかに記載の領域拡張処理装置によ り行わ れる 1枚の基準画像及び 1枚の入力画像に対する領域拡張処理を、 前記 複数の画像に対して繰り返し行う ことで、 前記複数の画像における全て の拡張単一モーショ ン領域を生成し、
前記画質改善処理部が、 前記領域拡張処理部から出力された前記複数 の画像における全ての拡張単一モーショ ン領域と、 前記画像位置合わせ 処理部から出力された前記全てのモーショ ンパラメータとに基づき、 前 記複数の画像に対し、 画質改善処理を行う こ とによ り、 前記画質改善画 像を生成することを特徴とする画質改善処理装置。 請求項 2 4 . 複数のモーショ ンを含む基準画像と、 複数のモーショ ン を含む入力画像と、 前記基準画像と前記入力画像との画像全体の位置合 わせ処理を行う ことによ り得られた複数のモーショ ンに対応する複数の 単一モーシ ョ ン領域及び前記複数の単一モーシ ョ ン領域に対応する複数 のモーショ ンパラメータに基づき、 前記基準画像及び前記入力画像に対 する領域拡張処理を行う領域拡張処理方法であって、
前記基準画像を入力とするテクスチャ レス領域抽出処理ステップと、 前記入力画像及ぴ前記複数のモーショ ンパラメータを入力とする画像 変形処理ステ ップと 、
前記基準画像を 1 つの入力とする類似度による閾値処理ステップと、 論理積処理ステップと、
前記複数の単一モーショ ン領域を入力とする論理和処理ステップと、 を有し、
前記テクスチヤレス領域抽出処理ステップでは、 前記基準画像のテク スチヤレス領域を抽出する、 テクスチャレス領域抽出処理を行い、 前記画像変形処理ステップでは、 前記複数のモーショ ンパラメータに 基づき、 前記入力画像を変形し、 変形された入力画像を変形入力画像と し、
前記類似度による閾値処理ステップでは、 前記基準画像及ぴ前記変形 入力画像に対し、 局所的な類似度を閾値処理することによ り、 類似領域 を抽出し、
前記論理積処理ステップでは、 前記テク スチャ レス領域抽出処理ステ ップで抽出された前記テクスチャ レス領域、 及び前記類似度による閾値 処理ステップで抽出された前記類似領域に対し、 論理積処理を行う こと によ り 、 テク スチャ レス類似領域を生成し、
前記論理和処理ステップでは、 前記論理積処理ステ ップで生成された テクスチャ レス類似領域、 及び前記複数の単一モーショ ン領域に対し、 論理和処理を行う こ とによ り、 前記テクスチヤ レス類似領域と前記複数 の単〜モ一ショ ン領域を合わせた、 複数の拡張単一モーショ ン領域を生 成することを特徴とする領域拡張処理方法。 請求項 2 5 . 前記テクスチャ レス領域抽出処理では、 前記基準画像に おける局所的な画像の分散を求め、 求めた局所的な画像の分散が所定の 閾値以下の領域をテクスチャレス領域と して抽出する請求項 2 4に記載 の領域拡張処理方法。 請求項 2 6 . 前記類似度による閾値処理ステップで利用される前記局 所的な類似度は、 S S D又は S A Dである請求項 2 4又は請求項 2 5に 記載の領域拡張処理方法。
PCT/JP2009/055366 2008-06-10 2009-03-12 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置 WO2009150882A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010516785A JP5294343B2 (ja) 2008-06-10 2009-03-12 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置
US12/737,083 US20110170784A1 (en) 2008-06-10 2009-03-12 Image registration processing apparatus, region expansion processing apparatus, and image quality improvement processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008151304 2008-06-10
JP2008-151304 2008-06-10

Publications (1)

Publication Number Publication Date
WO2009150882A1 true WO2009150882A1 (ja) 2009-12-17

Family

ID=41416593

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/055366 WO2009150882A1 (ja) 2008-06-10 2009-03-12 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置

Country Status (3)

Country Link
US (1) US20110170784A1 (ja)
JP (1) JP5294343B2 (ja)
WO (1) WO2009150882A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012014403A1 (ja) * 2010-07-30 2012-02-02 パナソニック株式会社 空間における変化領域検出装置及び方法
JP2012022656A (ja) * 2010-07-16 2012-02-02 Canon Inc 画像処理装置、画像処理方法、およびプログラム
CN102567729A (zh) * 2010-11-18 2012-07-11 卡西欧计算机株式会社 区域特定方法、区域特定装置、服务器及系统
JP2015181042A (ja) * 2010-12-20 2015-10-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 移動オブジェクトの検出及び追跡
JP2016032289A (ja) * 2014-07-25 2016-03-07 日本電気株式会社 画像合成システム、画像合成方法、画像合成プログラム
US9678988B2 (en) 2014-11-04 2017-06-13 Fujitsu Limited Image processing apparatus and image processing method
KR101901602B1 (ko) * 2011-01-14 2018-09-27 삼성전자주식회사 디지털 사진에서 노이즈를 제거하는 장치 및 방법
CN108701206A (zh) * 2015-11-20 2018-10-23 商汤集团有限公司 用于面部对准的系统和方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8620087B2 (en) * 2009-01-29 2013-12-31 Nec Corporation Feature selection device
US20110103965A1 (en) * 2009-10-30 2011-05-05 General Electric Company Wind turbine blades
US10638221B2 (en) 2012-11-13 2020-04-28 Adobe Inc. Time interval sound alignment
US9165373B2 (en) * 2013-03-11 2015-10-20 Adobe Systems Incorporated Statistics of nearest neighbor fields
JP5921469B2 (ja) * 2013-03-11 2016-05-24 株式会社東芝 情報処理装置、クラウドプラットフォーム、情報処理方法およびそのプログラム
US9129399B2 (en) 2013-03-11 2015-09-08 Adobe Systems Incorporated Optical flow with nearest neighbor field fusion
GB201313680D0 (en) * 2013-07-31 2014-01-08 Mbda Uk Ltd Image processing
GB201313681D0 (en) 2013-07-31 2014-01-08 Mbda Uk Ltd Image processing
GB201313682D0 (en) 2013-07-31 2013-12-18 Mbda Uk Ltd Method and apparatus for tracking an object
JP6376873B2 (ja) * 2014-07-16 2018-08-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10783649B2 (en) * 2018-09-17 2020-09-22 Adobe Inc. Aligning digital images by selectively applying pixel-adjusted-gyroscope alignment and feature-based alignment models
CN109711378B (zh) * 2019-01-02 2020-12-22 河北工业大学 人脸表情自动识别方法
JP7183085B2 (ja) * 2019-03-14 2022-12-05 株式会社東芝 移動体行動登録装置、移動体行動登録システム、移動体行動登録方法、移動体行動登録プログラム、及び移動体行動決定装置
CN111354026B (zh) * 2020-02-27 2022-10-21 广州运达智能科技有限公司 一种基于surf特征的改进列车图像精确配准方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006131967A1 (ja) * 2005-06-08 2006-12-14 Fujitsu Limited 画像処理装置
JP2007257287A (ja) * 2006-03-23 2007-10-04 Tokyo Institute Of Technology 画像レジストレーション方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3002721B2 (ja) * 1997-03-17 2000-01-24 警察庁長官 図形位置検出方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体
US7228006B2 (en) * 2002-11-25 2007-06-05 Eastman Kodak Company Method and system for detecting a geometrically transformed copy of an image
JP4135945B2 (ja) * 2003-01-14 2008-08-20 国立大学法人東京工業大学 画像のサブピクセルマッチングにおける多パラメータ高精度同時推定処理方法及び多パラメータ高精度同時推定処理プログラム
JP4461937B2 (ja) * 2003-09-30 2010-05-12 セイコーエプソン株式会社 低解像度の複数の画像に基づく高解像度の画像の生成
DE102004026782A1 (de) * 2004-06-02 2005-12-29 Infineon Technologies Ag Verfahren und Vorrichtung zur rechnergestützten Bewegungsschätzung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, computerlesbares Speichermedium und Computerprogramm-Element
FR2873256A1 (fr) * 2004-07-13 2006-01-20 France Telecom Procede et dispositif de densification de champ de mouvement
JP4613617B2 (ja) * 2005-01-07 2011-01-19 ソニー株式会社 画像処理システム、学習装置および方法、並びにプログラム
US8068700B2 (en) * 2007-05-28 2011-11-29 Sanyo Electric Co., Ltd. Image processing apparatus, image processing method, and electronic appliance

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006131967A1 (ja) * 2005-06-08 2006-12-14 Fujitsu Limited 画像処理装置
JP2007257287A (ja) * 2006-03-23 2007-10-04 Tokyo Institute Of Technology 画像レジストレーション方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022656A (ja) * 2010-07-16 2012-02-02 Canon Inc 画像処理装置、画像処理方法、およびプログラム
WO2012014403A1 (ja) * 2010-07-30 2012-02-02 パナソニック株式会社 空間における変化領域検出装置及び方法
CN102567729A (zh) * 2010-11-18 2012-07-11 卡西欧计算机株式会社 区域特定方法、区域特定装置、服务器及系统
CN102567729B (zh) * 2010-11-18 2014-11-19 卡西欧计算机株式会社 区域特定方法、区域特定装置、服务器及系统
JP2015181042A (ja) * 2010-12-20 2015-10-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 移動オブジェクトの検出及び追跡
KR101901602B1 (ko) * 2011-01-14 2018-09-27 삼성전자주식회사 디지털 사진에서 노이즈를 제거하는 장치 및 방법
JP2016032289A (ja) * 2014-07-25 2016-03-07 日本電気株式会社 画像合成システム、画像合成方法、画像合成プログラム
US9678988B2 (en) 2014-11-04 2017-06-13 Fujitsu Limited Image processing apparatus and image processing method
CN108701206A (zh) * 2015-11-20 2018-10-23 商汤集团有限公司 用于面部对准的系统和方法
CN108701206B (zh) * 2015-11-20 2022-04-12 商汤集团有限公司 用于面部对准的系统和方法

Also Published As

Publication number Publication date
US20110170784A1 (en) 2011-07-14
JP5294343B2 (ja) 2013-09-18
JPWO2009150882A1 (ja) 2011-11-10

Similar Documents

Publication Publication Date Title
WO2009150882A1 (ja) 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置
US8917948B2 (en) High-quality denoising of an image sequence
Su et al. Spatially adaptive block-based super-resolution
US8463073B2 (en) Robust recovery of transform invariant low-rank textures
US7885455B2 (en) Method of combining images of multiple resolutions to produce an enhanced active appearance model
US9824486B2 (en) High resolution free-view interpolation of planar structure
JP2007257287A (ja) 画像レジストレーション方法
Zhang et al. A coarse-to-fine framework for cloud removal in remote sensing image sequence
WO2006046493A1 (ja) 超解像処理の高速化方法
JP2009109666A (ja) 解像度変換装置、方法およびプログラム
Yung et al. Efficient feature-based image registration by mapping sparsified surfaces
Guarnieri et al. Perspective registration and multi-frame super-resolution of license plates in surveillance videos
Collins et al. Locally affine and planar deformable surface reconstruction from video
CN106203269A (zh) 一种基于可形变局部块的人脸超分辨率处理方法及系统
CN103109304A (zh) 从用手持拍摄装置采集的多个图像的全对焦成像的系统和方法
Tseng et al. Depth image super-resolution via multi-frame registration and deep learning
Farsiu et al. A practical approach to superresolution
Huangpeng et al. Super-resolving blurry multiframe images through multiframe blind deblurring using ADMM
Tanaka et al. A fast MAP-based super-resolution algorithm for general motion
Cho et al. Depth map up-sampling using cost-volume filtering
JP2018010359A (ja) 情報処理装置、情報処理方法、およびプログラム
Amintoosi et al. Precise image registration with structural similarity error measurement applied to superresolution
Tanaka et al. Robust and accurate estimation of multiple motions for whole-image super-resolution
Amintoosi et al. Video enhancement through image registration based on structural similarity
Petrou et al. Super-resolution in practice: the complete pipeline from image capture to super-resolved subimage creation using a novel frame selection method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09762313

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010516785

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12737083

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 09762313

Country of ref document: EP

Kind code of ref document: A1