WO2012058902A1 - 全景图合成方法及装置 - Google Patents

全景图合成方法及装置 Download PDF

Info

Publication number
WO2012058902A1
WO2012058902A1 PCT/CN2011/072820 CN2011072820W WO2012058902A1 WO 2012058902 A1 WO2012058902 A1 WO 2012058902A1 CN 2011072820 W CN2011072820 W CN 2011072820W WO 2012058902 A1 WO2012058902 A1 WO 2012058902A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
point
matching
corner
points
Prior art date
Application number
PCT/CN2011/072820
Other languages
English (en)
French (fr)
Inventor
刘冬梅
Original Assignee
中兴通讯股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中兴通讯股份有限公司 filed Critical 中兴通讯股份有限公司
Priority to EP11837430.5A priority Critical patent/EP2637138A4/en
Priority to US13/882,273 priority patent/US9224189B2/en
Publication of WO2012058902A1 publication Critical patent/WO2012058902A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/20Linear translation of a whole image or part thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing

Definitions

  • the present invention relates to image synthesis technology, and in particular to a panorama synthesis method and apparatus. Background technique
  • the present invention provides a method and apparatus for synthesizing a panoramic image to solve the problem that a high-resolution large-view picture cannot be obtained due to limitations of the angle of view and size of a mobile device camera in the prior art.
  • a panoramic image synthesis method for a mobile device camera comprising:
  • a panoramic image synthesizing device disposed on a mobile device camera, comprising: An image acquisition module, configured to acquire multiple original images of the same scene;
  • An image preprocessing module configured to perform a folding change and a coordinate transformation on the plurality of original images to determine an overlapping area of the plurality of original images
  • An image registration module configured to establish a mathematical model of the plurality of original images, align the overlapping regions of the plurality of original images, and convert the plurality of original images into a coordinate system of the reference image;
  • an image synthesis module configured to acquire a spatial transformation relationship between the plurality of original images according to a coordinate system of the reference image, select an image synthesis strategy, and complete image synthesis.
  • a series of single pictures are collectively referred to as a panoramic image, which solves the limitation of the prior art due to the perspective and size of the camera of the mobile device, and cannot obtain high resolution.
  • the problem of the large-field picture can obtain the scene picture of the large field of view without reducing the image resolution.
  • the embodiment of the present invention uses the camera processor to perform automatic matching to construct a seamless, high-definition image, which has a ratio The higher resolution and larger field of view of a single image can better meet the needs of mobile device users.
  • FIG. 1 is a schematic structural view of a panoramic image synthesizing apparatus according to an embodiment of the present invention
  • FIG. 2 is a schematic diagram of a process of splicing a panoramic image according to an embodiment of the present invention
  • FIG. 3 is a schematic diagram of a processing flow of an image registration module according to an embodiment of the present invention.
  • Figure 5 is a schematic diagram of geometric distance in an embodiment of the present invention.
  • FIG. 6 is a schematic diagram of an image synthesis algorithm according to an embodiment of the present invention.
  • FIG. 7 is a flowchart of a panorama synthesis method according to an embodiment of the present invention. detailed description
  • the present invention provides a panorama synthesis method and apparatus, which are different by a mobile device camera.
  • the angle and size of the picture are spliced in a panoramic manner, and the image sequences of a set of overlapping parts are spatially matched and aligned, and after being synthesized, a wide-angle scene containing the image sequence information is formed, complete and high-definition. New image.
  • FIG. 1 A schematic diagram of a panoramic image synthesizing apparatus according to an embodiment of the present invention.
  • the panoramic image synthesizing apparatus of the embodiment of the present invention includes: an image acquiring module 10, an image preprocessing module 12, an image registration module 14, and an image.
  • the synthesis module 16 is four parts. Each of the above modules will be described in detail below.
  • FIG. 2 is a schematic diagram of a process of splicing a panoramic image according to an embodiment of the present invention.
  • image acquisition module 10 sends it to image preprocessing module 12 for patchwork preprocessing, and then image registration.
  • the module 14 performs image registration, and the image synthesis module 16 performs image synthesis to finally acquire a target panorama.
  • the image acquisition is the first step of the image processing
  • the image acquisition module 10 is configured to acquire a plurality of original images of the same scene. That is to say, the image acquisition module 10 is mainly used to acquire a picture to be captured.
  • a corresponding camera device including a camera and a driving device, is required.
  • the image information collected by the camera is transmitted to the image preprocessing module 12, and then the image preprocessing module 12 analyzes the collected image information to verify the validity of the image information.
  • the image mosaic method will be different depending on the manner in which the image is acquired may result in different input original images.
  • the image preprocessing module 12 is configured to perform folding and coordinate transformation on the plurality of original images to determine overlapping regions of the plurality of original images.
  • the image preprocessing module 12 The plurality of original images perform basic operations of image processing, establish a matching template of the image, perform predetermined transformation on the image, and extract feature point sets of the image, and determine overlapping regions of the plurality of original images, wherein the basic operations of the image processing include: The graph processing, and the smoothing filtering of the image, the predetermined transform includes at least one of the following: a Fourier transform, a wavelet transform, and a Gabor transform.
  • the image pre-processing module 12 needs to perform some folding changes and coordinate transformations on the original image, including basic operations of image processing (for example, histogram processing, smoothing filtering of images, etc.), establishing matching templates of images, and performing images on the images.
  • the image pre-processing module 12 performs initial positioning, finds a rough overlapping area, narrows the matching range, and improves the image combining speed by performing operations such as a certain transform (for example, Fourier transform, wavelet transform, Gabor transform, etc.) and extracting feature sets of the image.
  • a certain transform for example, Fourier transform, wavelet transform, Gabor transform, etc.
  • the shield amount of the stitched image mainly depends on the registration precision of the image, and the image registration module 14 is used to establish a mathematical model of the plurality of original images, align the overlapping regions of the plurality of original images, and convert the plurality of original images to the reference image. Under the coordinate system;
  • the core problem of image registration is to find a transformation, find the corresponding position of the template or feature points in the image to be stitched in the reference image, and calculate the parameter values in the mathematical model according to the correspondence between the template or image features.
  • a mathematical model of the two images is created, the overlapping portions of the images are aligned, and the image to be stitched is converted to the coordinate system of the reference image to form a complete image.
  • the key to accurate registration is to have a mathematical model that describes well the conversion relationship between the two images.
  • the image registration module 14 determines the transformation parameters between the images according to the similarity measure, so that two or more images of the same scene acquired from different sensors, different perspectives, and different times are transformed into the same coordinate system, and obtained on the pixel layer.
  • the process of the best match is as follows: the embodiment of the present invention first improves the Harris corner detection algorithm, effectively improves the speed and accuracy of the extracted feature points; and then uses the similarity normalized cross Correlation (NCC), through the bidirectional maximum correlation
  • NCC similarity normalized cross Correlation
  • the coefficient matching method extracts the initial feature point pairs, and uses the random sample method (RANdom SAmple Consensus, RANSAC) to eliminate the pseudo feature point pairs to achieve the exact matching of the feature point pairs. Finally, the image matching is achieved by correctly matching the feature point pairs. .
  • FIG. 3 is a schematic diagram of a process of processing an image registration module according to an embodiment of the present invention.
  • the image registration module 14 needs to perform feature extraction, feature matching, transformation model parameter estimation, image re-sampling, and the acquired image. Transform and other operations. The operation of the image registration module 14 will be described in detail below.
  • the image registration module 14 specifically includes: a setup submodule, a first extraction submodule, a second extraction submodule, an acquisition submodule, and a conversion submodule. specifically:
  • Establishing a sub-module configured to acquire a matching template or a set of feature points in the plurality of original images in a corresponding position in the reference image, calculate each parameter value in the mathematical model according to the position, and establish a mathematical model of the plurality of original images;
  • a first extraction sub-module configured to extract feature points of the plurality of original images by using a specific manner; that is, the first extraction sub-module may extract geometric features or gray-scale features suitable for the image registration according to the image shield, preferably
  • the feature point is a corner point.
  • the corner detection algorithm is mainly divided into two types of edge-based and gray-based extraction algorithms. Because the former has a relatively large dependence on the edge extraction, if the detected edge is wrong or the edge line is interrupted, the corner extraction result will be greatly affected, and the gray-based extraction algorithm mainly calculates the local range. The extremely large points of the gray scale and the gradient change are used for the purpose of detection, and no edge extraction is required, so it is widely used in practice.
  • the most representative corner detection includes: Moravec operator corner detection, Forstner operator corner detection, Susan detection algorithm, Harris corner detection algorithm. Among them, the Harris corner detection algorithm has excellent performance in terms of consistency and validity, and the extracted points of interest have been proved to have the advantages of rotation, translation invariance and stability.
  • the Harris corner detection algorithm determines the corner point by using the gray rate of change of the image.
  • the algorithm determines whether the point is determined by calculating the eigenvalue of the matrix M associated with the autocorrelation function of the image, that is, the first-order curvature of the autocorrelation function. For corner points, if both curvature values are high, then the point is considered to be a corner point.
  • the Harris corner detection algorithm defines the autocorrelation value E( M , v) in any direction as:
  • I x and I y are the gradient values of the x and y directions of the image, respectively, and wcy) is a Gaussian filter, where @ denotes a convolution operation.
  • M is a 2 x 2 symmetric matrix, so there must be two eigenvalues ⁇ and eigenvalues reflecting the characteristic of the image pixel, ie if the point (x, y) is a feature point, then the M matrix of this point is 2
  • the eigenvalues are all positive values, and they are local maxima in the region centered on (x, y), then the feature points can be expressed by the evaluation function as:
  • T a reasonable threshold T.
  • the feature points are generally the pixel points corresponding to the maximum interest values in the local range. Therefore, after the R values of the points are calculated, the non-maximum value suppression is performed, and the points with the largest local interest values in the original image are extracted.
  • Harris corner detection process it can be seen from the above-mentioned Harris corner detection process that the original Harris corner detection in the prior art has defects such as single threshold setting, low positioning accuracy, and poor real-time performance, and the Harris corner detection algorithm in the prior art is used in the embodiment of the present invention. Improvements have been made. Thereby extracting as many feature points as possible and accurately positioned in the image, and speeding up the extraction of the corner points.
  • the Harris corner detection algorithm improved by the embodiment of the present invention includes the following processing:
  • Step 1 Calculate the first derivative of the horizontal and vertical directions and the product of the two points for each point of the image to obtain three new images.
  • the 3 x 3 convolution kernel is convolved with the original image to obtain the partial derivative of each point of the original image.
  • Gaussian filtering can be performed on these three images in order to reduce the influence of image noise on the extracted corners.
  • Step 2 Calculate the R value of each pixel corresponding to the original image according to the corner response function formula.
  • the k value in the corner response function of the original Harris corner detection algorithm is an empirical constant, which is more arbitrarily used, resulting in lower reliability of corner extraction. In the case of different picture conditions, it is easy to affect the angle. The accuracy of point extraction. Considering that the R real shield is a corner detection signal, the value of the determinant is large, and the value of the trace is small as a corner signal, and vice versa. Therefore, in the embodiment of the present invention, the corner response function is calculated by the following ratio method:
  • Step 3 Select a local extremum point.
  • an appropriate threshold is selected, and then the pixel whose interest value is larger than the threshold is used as the feature cell, and the pixel whose interest value is less than the threshold is filtered out.
  • the selection of a single threshold may cause some feature points to be filtered out for the non-uniform shield image.
  • the embodiment of the present invention performs screening of feature points by setting the threshold in combination with the method of suppressing non-maximum in the window in the image.
  • the specific steps are as follows: Select an appropriate window in the image, retain the pixel with the largest value of interest in the window, and delete the remaining pixels in the window, and move the window to filter the entire image.
  • the number of local extreme points is often large.
  • a reasonable threshold is set according to requirements, and thousands of points with the largest interest value are selected as the final result.
  • boundary templates can be used to exclude boundary corners that do not match well.
  • Step 4 Sub-pixel corner positioning:
  • the sub-pixel level of the point is precisely positioned.
  • six overdetermined equations containing a ⁇ f can be established.
  • the least squares method is used to solve the overdetermined equations.
  • the sub-pixel corners correspond to quadratic polynomials. The maximum point.
  • Table 1 shows the comparison of corner extraction using different methods:
  • the calculation speed and the subsequent matching rate are improved.
  • the time is greatly improved.
  • the extracted corner points have better performance and are extracted. faster.
  • the corner matching algorithm proposed by the embodiment of the present invention is divided into two steps: 1. Using the bidirectional maximum correlation coefficient (Bidirectional Greatest Correlative Coefficient, BGCC) performs rough matching; 2. Then it is purified by RANSAC to achieve fine matching of images. The method can accurately extract the correct matching feature point pairs while removing the redundant feature points.
  • BGCC Bidirectional Greatest Correlative Coefficient
  • a second extraction sub-module configured to extract an initial feature point pair by using a BCC matching method by using an NCC; specifically, the second extraction sub-module is configured to:
  • M, V is the average gray value of the corner window area:
  • Equation 7 uses the BGCC algorithm to perform coarse matching of corner points.
  • Step 1 Select a correlation window of ⁇ centering on any corner point in the image, and select a rectangular search area of size dlx dh centering on the pixel having the same coordinates as the corner point in 1 2 then calculate the diagonal points with each corner region 12 of the correlation coefficient Cij is the search window, the correlation coefficient is maximum as a corner point in the matching corner point, so that a set of matching points can be set.
  • Step 2 similarly, the image at any given point in a corner 12, within the window region corresponding to the search image with the maximum correlation coefficient corners, as 12 to the matching point in the corner, so that a can be obtained Group matching point set.
  • Step 3 Finally, the same matching corner pair is searched in the obtained two sets of matching points, and the pair of corner points is considered to be mutually matched, and thus the initial matching of the corner points is completed.
  • the embodiment of the present invention smoothes the image with a 7 ⁇ 7 median filter, and then subtracts the original image from the filtered image as an operation. Object. If only BGCC is used for matching, an incorrect matching pair will be generated. Sometimes the proportion of mismatching will be very high, which seriously interferes with the estimation of the transformation matrix, resulting in image registration failure. Therefore, the feature point pairs must be corrected to remove the erroneous matching pair, and the embodiment of the present invention performs fine matching using RANSAC.
  • the obtaining submodule is configured to remove the pseudo feature point pair by RANSAC random sampling consistency, and obtain an exact matching feature point pair;
  • the specific processing includes the following: In the input data The minimum set of points is used, and the minimum set of points obtained by each sampling is used to estimate the parameters to be determined, and at the same time, according to certain discriminant criteria, which of the input data are consistent with the set of parameters, that is, "inner point", which It is inconsistent, that is, "out of the grid.” After iterating a certain number of times, the estimated parameter value corresponding to the highest "inside point” ratio in the input data is used as the final parameter estimation value.
  • Step 1 repeat N random samples
  • Step 2 randomly select 4 pairs of matching points (the selected 4 points should ensure that any three points in the sample are not on the same line), and calculate the projection transformation matrix H linearly;
  • Step 3 Calculate the distance from each matching point to the corresponding matching point after matrix transformation
  • Step 4 Calculate the inner point of H according to the principle that the inner point distance is less than the distance threshold t, select a point set containing the innermost point, and re-estimate the projection transformation matrix H on the inner point field.
  • Step 402 it is determined whether N>trialcount, if yes, step 403 is performed, otherwise step 408 is performed; step 403, random selection does not repeat four points, count++;
  • Step 404 it is determined whether the three points are collinear and count ⁇ maxDataTrials, if yes, step 405 is performed, otherwise step 403 is performed;
  • Step 407 it is determined whether trialcount>maxTrials, if yes, step 408 is performed, otherwise step 402 is performed;
  • Step 408 output matrix 11.
  • the geometric distance between the actual matching point and its estimated matching point is used as a decision criterion to determine the correct matching point, that is, the inner point.
  • 5 is a schematic diagram of geometric distance according to an embodiment of the present invention. As shown in FIG. 5, the points p' and q' are respectively points corresponding to points and q estimated in respective corresponding images, and the actual matching points of one point in the image are shown.
  • the geometric distance to its estimated matching point is defined as follows:
  • Equation 8 The
  • the conversion submodule is configured to perform inverse mapping transformation on the plurality of original images according to the projection transformation matrix, convert the plurality of original images into a coordinate system of the reference image, and perform image registration according to the precisely matched feature point pairs.
  • Normalized transformation 1. Perform displacement transformation on the image points, so that the origin of the image is located in the shield of the image point set; 2. Scale the image points so that the image points are distributed in a circle with the radius of the core of the shield as ⁇ in. Define a normalized transformation matrix consisting of a translation transformation and a scale transformation
  • Equation 10 where i represents the i-th corner point in Equation 10.
  • the embodiment of the present invention can estimate the transformation matrix by using a Direct Linear Transformation (DLT) algorithm, which can obtain more accurate parameters.
  • DLT Direct Linear Transformation
  • At least 8 equations are needed to solve the projection transformation parameters, that is, 0 ( > 4 ) pairs of features are needed in the adjacent two images, and the feature pairs can pass through the above corner points. Match it.
  • Equation 12 Actually, by solving Singular Value Decomposition (SVD), the solution of h is the value of V.
  • the image synthesis module 16 After accurately calculating the conversion parameters between the images, the image synthesis module 16 needs to stitch the plurality of original images into a large panorama according to the determined parameters. In order to obtain a composite image, it is necessary to select an appropriate image synthesis strategy to complete the image mosaic; image synthesis is to combine the pixels of the source image to generate pixels on the mosaic plane, to achieve a natural transition between adjacent images, due to image registration. As a result, there is a registration error, so it is impossible to accurately register at each point. Therefore, the strategy of image synthesis should reduce the influence of the residual distortion and the difference in brightness between images on the merge effect as much as possible to obtain more of the same scene. For accurate, more comprehensive, and more reliable image descriptions. Image synthesis includes: drawing of stitched images, adjusting blending of luminosity, determining overlapping areas and eliminating seams.
  • the image synthesizing module 16 is configured to acquire a spatial transformation relationship between the plurality of original images according to a coordinate system of the reference image, select an appropriate image synthesis strategy, and complete image synthesis.
  • the embodiment of the present invention uses an improved progressive gradual synthesis method.
  • the gray value f(x, y) of a pixel in an image overlap region is obtained by weighted average of gray values fl(x, y) and f2(x, y) of corresponding pixel points in two images. :
  • dl is ramped from 1 to
  • d2 is ramped from 0 to 1
  • fl(x, y) slowly transitions smoothly to f2(x, y).
  • the processed image eliminates the boundary in the image, ghosting and blurring still appear in the overlapping region, because there are large differences in the gray values of the corresponding pixels in the overlapping portions of the two images.
  • the gray value of the synthesized image at these pixels is hopped, in order to avoid this situation, the present invention
  • the above example improves the above algorithm and introduces a threshold door.
  • the weighted average of fl(x, y) and f2(x, y) is not directly taken, but the point is calculated first.
  • the difference between the gray values of the pixels corresponding to the first two pictures is smoothed. If the difference is smaller than the threshold value, the weighted average value is taken as the gray value of the point. Otherwise, the gray value before the smoothing is taken as the gray value of the point. .
  • the image pixel f(x, y) synthesized by the modified algorithm can be expressed as:
  • FIG. 6 is a schematic diagram of an image synthesis algorithm according to an embodiment of the present invention.
  • the image and image f 2 have a seam area and an overlap area.
  • Problems such as blurred image and inconspicuous edge information may occur.
  • the selected seam area and overlap area are too small, the seam stitching of the image cannot be eliminated.
  • the results show that the 7x7 area around the seam can be used as the seam processing area, and the 3x3 template is used to linearly filter the pixels in the seam area, and the best results are obtained.
  • the image preprocessing module, the image registration module, and the image synthesizing module may constitute an image splicing module.
  • the image splicing module and the central control module share the same hardware carrier, and the image The splicing module uses digital image processing technology for image splicing, and can be used as a completely encapsulated entity inside the central control module.
  • the splicing result is stored in the storage module, and the user can directly obtain the spliced panoramic photo from the storage module.
  • the storage module comprises a mobile phone internal memory and an external expansion memory.
  • an image mosaic selection file may be set on the mobile device for the user to select the storage module, and the mosaic image obtained by the image mosaic module is displayed for preview by the user.
  • the image synthesizing algorithm may be directly integrated in the mobile device, and the image synthesizing algorithm provided by the embodiment of the present invention can implement images of different angles and different directions on the mobile device by using the image synthesizing algorithm provided by the embodiment of the present invention.
  • the synthesis can meet the user's needs more accurately and conveniently without adding expensive hardware resources.
  • FIG. 7 is a flowchart of a panorama synthesis method according to an embodiment of the present invention.
  • the panorama synthesis method includes the following processing:
  • Step 701 Acquire a plurality of original images of the same scene, perform folding change and coordinate transformation on the plurality of original images, and determine an overlapping area of the plurality of original images.
  • the acquisition of the image is the first step of image processing.
  • a corresponding camera device including a camera, and a driving device, is required.
  • the image information collected by the camera is transmitted to the image preprocessing module, and then the image preprocessing module analyzes and processes the collected image information to verify the validity of the image information.
  • the image mosaic method used in the end will be different because the image acquisition method will result in different input original images.
  • the purpose of image preprocessing is to ensure the accuracy of image registration.
  • the image preprocessing module performs basic operations on image processing of multiple original images, establishes matching templates for images, performs predetermined transformation on images, and extracts feature points of images.
  • An overlapping area of the plurality of original images wherein the basic operations of the image processing comprise: a histogram processing, and a smoothing filtering of the image, the predetermined transformation comprising at least one of the following: a Fourier transform, a wavelet transform, and a Gabor transform.
  • the image preprocessing module needs to perform some folding changes and coordinate transformation on the original image, including basic operations of image processing (for example, histogram processing, smoothing of images, etc.), establishing a matching template of the image, and performing some image on the image.
  • image processing for example, histogram processing, smoothing of images, etc.
  • the transform for example, Fourier transform, wavelet transform, Gabor transform, etc.
  • the image pre-processing module 12 performs initial positioning, finds a rough overlapping area, narrows the matching range, and improves the image combining speed.
  • Step 702 Establish a mathematical model of the plurality of original images, align the overlapping regions of the plurality of original images, and convert the plurality of original images into a coordinate system of the reference image;
  • the core problem of image registration is to find a transformation, find the corresponding position of the template or feature points in the image to be stitched in the reference image, and calculate the parameter values in the mathematical model according to the correspondence between the template or image features.
  • a mathematical model of the two images is created, the overlapping portions of the images are aligned, and the image to be stitched is converted to the coordinate system of the reference image to form a complete image.
  • the key to accurate registration is to have a mathematical model that describes well the conversion relationship between the two images.
  • the image registration module determines the transformation parameters between the images according to the similarity measure, so that two or more images of the same scene acquired from different sensors, different perspectives, and different times are transformed into the same coordinate system.
  • the specific implementation method is as follows: The embodiment of the present invention first improves the Harris corner detection algorithm, and effectively improves the speed and accuracy of the extracted feature points; and then uses the NCC to extract the initial feature point pairs by the bidirectional maximum correlation coefficient matching method, using RANSAC To eliminate the pseudo feature point pairs and achieve the exact matching of the feature point pairs; finally, the image matching is achieved by correctly matching the feature point pairs.
  • the image registration module needs to perform operations such as feature extraction, feature matching, transformation model parameter estimation, image re-sampling, and transformation on the acquired image, including the following processing:
  • the feature points are corner points.
  • the corner detection algorithm is mainly divided into two types of edge-based and gray-based extraction algorithms. Because the former has a relatively large dependence on the edge extraction, if the detected edge is wrong or the edge line is interrupted, the corner extraction result will be greatly affected, and the gray-based extraction algorithm mainly calculates the local range. The extremely large points of the gray scale and the gradient change are used for the purpose of detection, and no edge extraction is required, so it is widely used in practice.
  • Harris corner detection algorithm has excellent performance in terms of consistency and validity, and the extracted points of interest have proved to have the advantages of rotation, translation invariance and stability.
  • the Harris corner detection algorithm determines the corner point by using the gray rate of change of the image.
  • the algorithm determines whether the point is determined by calculating the eigenvalue of the matrix M associated with the autocorrelation function of the image, that is, the first-order curvature of the autocorrelation function. For corner points, if both curvature values are high, then the point is considered to be a corner point.
  • the Harris corner detection algorithm defines the autocorrelation value E(M, v) in any direction as:
  • I x and I y are the gradient values of the x and y directions of the image, respectively, and wcy) is a Gaussian filter, where @ denotes a convolution operation.
  • M is a 2 x 2 symmetric matrix, so there must be two eigenvalues ⁇ and eigenvalues reflecting the characteristic of the image pixel, ie if the point (x, y) is a feature point, then the M matrix of this point is 2
  • the eigenvalues are all positive values, and they are local maxima in the region centered on (x, y), then the feature points can be expressed by the evaluation function as:
  • T a reasonable threshold T.
  • the feature points are generally the pixel points corresponding to the maximum interest values in the local range. Therefore, after the R values of the points are calculated, the non-maximum value suppression is performed, and the points with the largest local interest values in the original image are extracted.
  • Harris corner detection process it can be seen from the above-mentioned Harris corner detection process that the original Harris corner detection in the prior art has defects such as single threshold setting, low positioning accuracy, and poor real-time performance, and the Harris corner detection algorithm in the prior art is used in the embodiment of the present invention. Improvements have been made. Thereby extracting as many feature points as possible and accurately positioned in the image, and speeding up the extraction The speed of the corner point.
  • the Harris corner detection algorithm improved by the embodiment of the present invention includes the following processing:
  • Step 1 Calculate the first derivative of the horizontal and vertical directions and the product of the two points for each point of the image to obtain three new images.
  • the 3 x 3 convolution kernel is convolved with the original image to obtain the partial derivative of each point of the original image.
  • Gaussian filtering can be performed on these three images in order to reduce the influence of image noise on the extracted corners.
  • Step 2 Calculate the R value of each pixel corresponding to the original image according to the corner response function formula.
  • the k value in the corner response function of the original Harris corner detection algorithm is an empirical constant, which is more arbitrarily used, resulting in lower reliability of corner extraction. In the case of different picture conditions, it is easy to affect the angle. The accuracy of point extraction. Considering that the R real shield is a corner detection signal, the value of the determinant is large, and the value of the trace is small as a corner signal, and vice versa. Therefore, in the embodiment of the present invention, the corner response function is calculated by the following ratio method:
  • Step 3 select local extremum points.
  • an appropriate threshold is selected, and then the pixel whose interest value is larger than the threshold is used as the feature cell, and the pixel whose interest value is less than the threshold is filtered out.
  • the selection of a single threshold may cause some feature points to be filtered out for the non-uniform shield image.
  • the embodiment of the present invention performs screening of feature points by setting the threshold in combination with the method of suppressing non-maximum in the window in the image.
  • the specific steps are as follows: Select an appropriate window in the image, retain the pixel with the largest value of interest in the window, and delete the remaining pixels in the window, and move the window to filter the entire image.
  • the number of local extreme points is often large.
  • a reasonable threshold is set according to requirements, and thousands of points with the largest interest value are selected as the final result.
  • boundary templates can be used to exclude boundary corners that do not match well.
  • Step 4 Sub-pixel corner positioning:
  • the sub-pixel level of the point is precisely positioned. Using the pixels around the corners that have been detected, we can create six overdetermined equations with a ⁇ f, and solve the overdetermined equations by least squares. The sub-pixel corners correspond to quadratic polynomials. The maximum point.
  • Table 1 above is a comparison of corner extraction using different methods: It can be seen from Table 1 that the improved Harris corner detection method of the embodiment of the present invention is improved in comparison with the thresholdless extraction algorithm in both the operation speed and the subsequent matching rate, compared with the original Harris corner detection method. There has been a big improvement in time, compared to the other two algorithms, the extracted corner points perform better and the extraction speed is faster.
  • the corner matching algorithm proposed by the embodiment of the present invention is divided into two steps: 1. Using BGCC for rough matching; 2. Then purifying it with RANSAC to achieve fine matching of images. This method can accurately extract the correct matching feature point pairs while removing redundant feature points.
  • the correlation coefficients are defined as follows:
  • (M, V) is the average gray value of the corner window area:
  • Standard variance of the mouth area Equation 7 uses the BGCC algorithm to perform coarse matching of corner points.
  • Step 1 Select a correlation window of ⁇ centering on any corner point in the image, and select a rectangular search area of size dlx dh centering on the pixel having the same coordinates as the corner point in 1 2 then calculate the diagonal points with each corner region 12 of the correlation coefficient Cij is the search window, the correlation coefficient is maximum as a corner point in the matching corner point, so that a set of matching points can be set.
  • Step 2 likewise, to any point in a corner of the image 12, within the window region corresponding to the search image with the maximum correlation coefficient as the corner points 12 to the matching point in the corner, so that a group can be obtained Match the set of points.
  • Step 3 Finally, the same matching corner pair is searched in the obtained two sets of matching points, and the pair of corner points is considered to be mutually matched, and thus the initial matching of the corner points is completed.
  • the embodiment of the present invention uses an image 7
  • the median filter of X 7 is smoothed, and the result of subtracting the original image from the filtered image is taken as the object of the operation.
  • the specific processing includes the following: In the input data The minimum set of points is used, and the minimum set of points obtained by each sampling is used to estimate the parameters to be determined, and at the same time, according to certain discriminant criteria, which of the input data are consistent with the set of parameters, that is, "inner point", which It is inconsistent, that is, "out of the grid.” After iterating a certain number of times, the estimated parameter value corresponding to the highest "inside point” ratio in the input data is used as the final parameter estimation value.
  • Step 1 repeat N random samples
  • Step 2 randomly select 4 pairs of matching points (the selected 4 points should ensure that any three points in the sample are not on the same line), and calculate the projection transformation matrix H linearly;
  • Step 3 Calculate the distance from each matching point to the corresponding matching point after matrix transformation
  • Step 4 Calculate the inner point of H according to the principle that the inner point distance is less than the distance threshold t, select a point set containing the innermost point, and re-estimate the projection transformation matrix H on the inner point field.
  • Step 402 it is determined whether N>trialcount, if yes, step 403 is performed, otherwise step 408 is performed; step 403, random selection does not repeat four points, count++;
  • Step 404 it is determined whether the three points are collinear and count ⁇ maxDataTrials, if yes, step 405 is performed, otherwise step 403 is performed;
  • Step 407 it is judged whether trialcount>maxTrials, if yes, step 408 is performed, otherwise step 402 is performed;
  • Step 408 output matrix 11.
  • the geometric distance between the actual matching point and its estimated matching point is used as a decision criterion to determine the correct matching point, that is, the inner point.
  • 5 is a schematic diagram of geometric distance according to an embodiment of the present invention. As shown in FIG. 5, the points ', ⁇ are respectively points ⁇ , corresponding points estimated in respective corresponding images, and the actual matching point of a point in the image is The estimated matching points are as follows:
  • Equation 8 The
  • in Equation 8 represents the Euclidean distance. Considering the symmetry, the geometric distance decision criterion function is defined as follows: dis X ( (Pi , Pi ) 2 + d ' (3 ⁇ 4 , 3 ⁇ 4') 2 )
  • the corresponding matching point is considered to be the outlier; if the calculated dis is less than the given distance threshold, the corresponding matching point is considered to be the inner point, only the inner point Suitable for calculating the transformation matrix H.
  • Normalized transformation 1. Perform displacement transformation on the image points, so that the origin of the image is located in the shield of the image point set; 2. Scale the image points so that the image points are distributed in a circle centered on the shield core.
  • the definition consists of a translation transformation and a scale transformation
  • the embodiment of the present invention can estimate the transformation matrix by using the DLT algorithm, and the method can obtain more accurate parameters.
  • Step 703 Acquire a spatial transformation relationship between the plurality of original images according to a coordinate system of the reference image, select an appropriate image synthesis strategy, and complete image synthesis.
  • Image composition includes: splicing of the image, adjustment of the luminosity, determination of overlapping areas and elimination of seams.
  • the embodiment of the present invention uses an improved progressive gradual synthesis method.
  • the gray value f(x, y) of a pixel in an image overlap region is obtained by weighted average of gray values fl (x, y) and f2 (x, y) of corresponding pixel points in two images. :
  • dl is gradually changed from 1 to
  • d2 is gradually changed from 0 to 1
  • fl(x, y) is smoothly and smoothly transitioned to f2(x, y).
  • the embodiment of the present invention improves the above algorithm, and introduces a threshold door for f(x, y), and causes the gray value of the synthesized image to jump at these pixels. Instead of directly taking the weighted average of fl(x, y) and f2(x, y), first calculate the gray value difference of the pixel corresponding to the first two pictures in the smoothing. If the difference is less than the threshold, then Take the weighted average value as the gray value of this point, and vice versa, take the gray value before smoothing as the gray value of this point.
  • the image pixel f (x, y) synthesized by the algorithm modified by this embodiment can be expressed as:
  • the image and image f 2 have a seam area and an overlap area.
  • problems such as blurred image and inconspicuous edge information may occur.
  • the selected seam area and overlap area are too small, the seam stitching of the image cannot be eliminated.
  • a series of single pictures are collectively referred to as a panoramic image by performing operations such as registration on a plurality of single images, thereby solving the prior art perspective and size of the camera due to the mobile device.
  • the limitation of the high-resolution large-view picture is not obtained, and the scene picture of the large field of view can be obtained without reducing the image resolution.
  • the embodiment of the present invention uses the camera processor to perform automatic matching and construct a seamless High-definition image, which has higher resolution and larger field of view than a single image, and can better meet the needs of mobile device users.

Description

全景图合成方法及装置 技术领域
本发明涉及图像合成技术, 特别是涉及一种全景图合成方法及装置。 背景技术
目前, 随着移动设备技术的飞速发展,移动设备的各项功能也越来越人性化,但是, 目前移动设备照相机只能实现对单张图片的拍摄,在使用普通移动设备照相机来获取视 野的场景图像时, 必须调节照相机的焦距, 通过缩放镜头才可以摄取完整的场景, 因为 照相机的分辨率是一定的, 拍摄的场景越大分辨率越低, 因此按照上述方法获取的照片 的分辨率会非常低; 为了获取高分辨率的场景照片, 就需要通过缩放照相机镜头来减小 拍摄的视野, 但这又得不到完整的场景照片。
在上述场景下, 用户虽然可以直接通过专门照相机的拍摄来获取场景的全景图像, 但是均需要昂贵的硬件支持, 不适用于普通用户。
如果普通用户想拍摄全景图片, 只能拍摄一张低分辨率的单张全景图片, 或者拍摄 多张高分辨率的非全景图片, 使得用户在使用移动设备照相机时, 在上述场景下不能满 足用户的需要。 因此, 现有技术中由于存在移动设备照相机的视角和大小的局限, 不能 获得高分辨率的大视野图片的问题。 发明内容
有鉴于此, 本发明提供一种全景图合成方法及装置, 以解决现有技术中由于移动设 备照相机的视角和大小的局限, 不能获得高分辨率的大视野图片的问题。
为解决上述技术问题, 本发明的技术方案是这样实现的:
一种全景图合成方法, 用于移动设备照相机, 包括:
获取同一场景的多个原始图像, 对所述多个原始图像进行折叠变化和坐标变换, 确 定所述多个原始图像的重叠区域;
建立所述多个原始图像的数学模型, 将所述多个原始图像的所述重叠区域对准, 并 将所述多个原始图像转换到参考图像的坐标系下;
根据所述参考图像的坐标系获取所述多个原始图像之间的空间变换关系,选择图像 合成策略, 完成图像的合成。
一种全景图合成装置, 设置于移动设备照相机, 包括: 图像获取模块, 用于获取同一场景的多个原始图像;
图像预处理模块, 用于对所述多个原始图像进行折叠变化和坐标变换, 确定所述多 个原始图像的重叠区域;
图像配准模块, 用于建立所述多个原始图像的数学模型, 将所述多个原始图像的所 述重叠区域对准, 并将所述多个原始图像转换到参考图像的坐标系下;
图像合成模块, 用于根据所述参考图像的坐标系获取所述多个原始图像之间的空间 变换关系, 选择图像合成策略, 完成图像的合成。
本发明有益效果如下:
通过对多个单张图像进行配准等操作, 将一系列单张图片合称为一幅全景图像, 解 决了现有技术中由于移动设备照相机的视角和大小的局限, 不能获得高分辨率的大视野 图片的问题, 能够在不降低图像分辨率的条件下获取大视野范围的场景照片, 本发明实 施例利用照相机处理器进行自动匹配, 构造一个无缝的、 高清晰的图像, 它具有比单个 图像更高的分辨率和更大的视野, 能够更好的满足移动设备用户的需求。 附图说明
图 1是本发明实施例的全景图合成装置的结构示意图;
图 2是本发明实施例的全景图像拼接流程的示意图;
图 3是本发明实施例的图像配准模块处理流程的示意图;
图 4是本发明实施例的算法 RANSAC的详细流程图;
图 5是本发明实施例的几何距离示意图;
图 6是本发明实施例的图像合成算法示意图;
图 7是本发明实施例的全景图合成方法的流程图。 具体实施方式
为了解决现有技术中由于移动设备照相机的视角和大小的局限, 不能获得高分辨率 的大视野图片的问题, 本发明提供了一种全景图合成方法及装置, 通过移动设备照相机 将所拍不同角度及大小的图片进行全景拼接,将一组相互间重叠部分的图像序列进行空 间匹配对准,经过釆样合成后,形成一幅包含各图像序列信息的宽视角场景的、完整的、 高清晰的新图像。以下结合附图以及实施例,对本发明进行进一步详细说明。应当理解, 此处所描述的具体实施例仅仅用以解释本发明, 并不限定本发明。
装置实施例
根据本发明的实施例, 提供了一种全景图合成装置, 设置于移动设备照相机, 图 1 是本发明实施例的全景图合成装置的结构示意图, 如图 1所示, 居本发明实施例的全 景图合成装置包括: 图像获取模块 10、 图像预处理模块 12、 图像配准模块 14、 图像合 成模块 16四部分。 以下对上述各个模块进行详细说明。
图 2是本发明实施例的全景图像拼接流程的示意图,如图 2所示, 图像获取模块 10 获取图像 1和图像 2后, 发送给图像预处理模块 12进行拼凑预处理, 随后, 图像配准 模块 14进行图像配准, 图像合成模块 16进行图像合成, 最终获取目标全景图。
从图 2所示的全景图像拼接流程示意图可以看出,图像的获取是图像处理的第一步, 图像获取模块 10用于获取同一场景的多个原始图像。 也就是说, 图像获取模块 10主要 用来获取所要拍摄的图片, 为实现获取图像的目的, 需要相应的摄像头装置, 包括摄像 头、 以及驱动装置。 在开启摄像头后, 将摄像头釆集到的图像信息传送到图像预处理模 块 12 , 然后图像预处理模块 12对釆集到的图像信息进行分析处理, 验证图像信息的有 效性。 需要说明的是, 在实际应用中, 由于图像获取的方式不同会导致输入原始图像的 不同, 最终使用的图像拼接方法也会不同。
图像预处理的目的是保证图像配准的精度, 图像预处理模块 12用于对多个原始图 像进行折叠变化和坐标变换, 确定多个原始图像的重叠区域; 具体地, 图像预处理模块 12对多个原始图像进行图像处理的基本操作 ,建立图像的匹配模板,对图像进行预定变 换、 以及提取图像的特征点集合, 确定多个原始图像的重叠区域, 其中, 图像处理的基 本操作包括: 直方图处理、 以及图像的平滑滤波, 预定变换包括以下至少之一: 傅里叶 变换、 小波变换、 伽柏 ( Gabor ) 变换。
也就是说, 图像预处理模块 12需要对原始图像做一些折叠变化和坐标变换, 包括 图像处理的基本操作(例如, 直方图处理、 图像的平滑滤波等)、 建立图像的匹配模板、 对图像进行某种变换(例如, 傅立叶变换、 小波变换、 Gabor变换等) 以及提取图像的 特征集合等操作, 图像预处理模块 12进行初略定位, 找到大致的重叠区域, 缩小匹配 范围, 提高图像合成速度。
拼接图像的盾量主要依赖图像的配准精度 , 图像配准模块 14用于建立多个原始图 像的数学模型, 将多个原始图像的重叠区域对准, 并将多个原始图像转换到参考图像的 坐标系下;
图像配准的核心问题是寻找一个变换,找到待拼接图像中的模板或特征点在参考图 像中对应的位置, 根据模板或者图像特征之间的对应关系, 可以计算出数学模型中的各 参量值, 从而建立两幅图像的数学模型, 使图像间相互重叠部分对准, 将待拼接图像转 换到参考图像的坐标系, 以此构成完整的图像。 精确配准的关键是要有很好地描述两幅 图像之间的转换关系的数学模型。 图像配准模块 14依据相似性度量来决定图像间的变换参数, 使从不同传感器、 不 同视角、 不同时间获取的同一场景的两幅或多幅图像变换到同一坐标系下, 在像素层上 得到最佳匹配的过程。具体实现方法为:本发明实施例首先改进了 Harris角点检测算法, 有效提高所提取特征点的速度和精度; 然后利用相似测度归一化互相关 ( Normalized Cross Correlation, NCC ), 通过双向最大相关系数匹配的方法提取出初始特征点对, 用 随机釆样法(RANdom SAmple Consensus , RANSAC )来剔除伪特征点对, 实现特征点 对的精确匹配; 最后用正确匹配特征点对实现图像的配准。
图 3是本发明实施例的图像配准模块处理流程的示意图, 如图 3所示, 图像配准模 块 14需要对获取的图像进行特征提取、 特征匹配、 变换模型参数估计、 图像重新釆样 和变换等操作。 下面对图像配准模块 14的操作进行详细的说明。
图像配准模块 14具体包括: 建立子模块、 第一提取子模块、 第二提取子模块、 获 取子模块、 以及转换子模块。 具体地:
建立子模块, 用于获取多个原始图像中匹配模板或特征点集合在参考图像中对应的 位置, 根据位置计算数学模型中的各参量值, 建立多个原始图像的数学模型;
第一提取子模块, 用于通过特定方式提取多个原始图像的特征点; 也就是说, 第一 提取子模块可以根据图像性盾提取适用于该图像配准的几何特征或灰度特征, 优选地, 在本发明实施例中, 特征点为角点。
在现有技术中, 角点检测算法主要分为基于边缘和基于灰度两类提取算法。 由于前 者对边缘的提取依赖性比较大, 如果检测到的边缘发生错误或是边缘线发生中断, 则会 对角点提取结果造成较大影响, 而基于灰度的提取算法主要是通过计算局部范围内灰度 和梯度变化剧烈的极大点来达到检测目的, 无需进行边缘提取, 因而在实际中得到了广 泛应用。 在现有技术中, 最具代表性的几种角点检测包括: Moravec 算子角点检测、 Forstner算子角点检测、 Susan检测算法、 Harris角点检测算法。 其中, Harris角点检测 算法在一致性和有效性方面均具有优良的性能以及所提取的兴趣点被证明具有旋转、平 移不变性、 稳定性好等优点。
Harris角点检测算法是利用图像的灰度变化率确定角点, 该算法通过计算一个与图 像的自相关函数相联系的矩阵 M 的特征值, 即自相关函数的一阶曲率来判定该点是否 为角点, 如果两个曲率值都高, 那么就认为该点是角点。
Harris角点检测算法定义了任意方向上的自相关值 E(M, v)为:
Figure imgf000006_0001
Figure imgf000007_0001
Ix、 Iy分别为图像 x、 y方向的梯度值, w c y)为高斯滤波器,其中 @表示卷积运算。 M是 2 x 2的对称矩阵, 因此必然存在 2个特征值 ^和 特征值反映了图像像素的特 征性, 即如果点 (x,y)是一特征点, 那么关于这个点的 M矩阵的 2个特征值都是正值, 并且它们是以 (x,y)为中心的区域中的局部最大值, 则特征点可用评价函数表示为:
R = Det(M) - kTrace2 ( ) 公式 3 其中, Det M) : ^ , Tmce(M) = A1 + A2 , Det为矩阵的行列式, Trace为矩阵的迹
(矩阵对角线元素的和), k是一实验值, 一般取 k=0.04~0.06。 设定一个合理的阈值 T, 当实际由公式 3计算出来的 R大于该阈值时, 则表示找到了一个角点, 否则就表示没有 找到角点。 特征点一般是局部范围内的极大兴趣值对应的像素点, 因此, 在计算完各点 的 R值后, 要进行非极大值抑制, 提取原始图像中所有局部兴趣值最大的点。
从上述 Harris角点检测过程可以看出,现有技术中原始的 Harris角点检测具有单一 阈值设定、 定位精度低以及实时性差等缺陷, 本发明实施例对现有技术中 Harris角点检 测算法进行了改进。 从而在图像中提取出尽可能多又定位精确的特征点, 同时加快提取 角点的速度。
具体地, 本发明实施例改进的 Harris角点检测算法包括如下处理:
步骤 1 , 对图像的每一个点计算其在横向和纵向的一阶导数以及两者的乘积, 得到 3幅新的图像。在图像处理中,利用 3 x 3卷积核与原图像做卷积求得原图像每一点的偏 导数。 在实际应用中, 为了减少图像噪声对提取角点的影响, 可以对这 3幅图像进行高 斯滤波。
步骤 2 , 根据角点响应函数式计算原图像上对应的每个像素的 R值。 原始 Harris角 点检测算法的角点响应函数式中的 k值是一个经验常数, 使用起来随意性较大, 造成角 点提取可靠性的降低, 在图片状况不一的情况下, 容易影响到角点提取的准确性。 考虑 到 R实盾是角点检测信号, 行列式的值大、 迹的值小为角点信号, 反之为边缘信号的特 点, 因此本发明实施例釆用如下比值法计算角点响应函数:
R= °etm 公式 4
Trace(M) + £
为了避免矩阵的迹有时可能为零, 因此在分母中补加很小的数 £; 与原始 Harris角 点检测算法中提出的响应函数相比, 它避免参数 k 的选取, 减少了 k选择的随机性, 具 有实用性, 可靠性好, 准确度高的特点。 步骤 3 , 选取局部极值点。
现有技术中的做法是选择一个适当的阈值, 然后将兴趣值大于该阈值的像元作为特 征像元, 兴趣值小于阈值的像元则被筛选掉。 上述处理虽然筒单易实现, 但单一阈值的 选取对于非均盾图像来说可能导致部分特征点也被筛选掉。
为了克服这一缺陷,本发明实施例釆用图像中窗口内抑制非最大的方式结合阈值的 设定来进行特征点的筛选。 具体步骤为: 在图像中选取一个适当的窗口, 将窗口中兴趣 值最大的像元保留, 而将窗口中其余像元删去, 移动窗口对整幅图像进行筛选。 局部极 值点的数目往往很多, 根据要求设定一合理的阈值, 选出兴趣值最大的若千个点作为最 后的结果。 另外, 为了加快提取的速度, 可以釆用边界模板将对匹配作用不大的边界角 点排除。
步骤 4 , 亚像素角 点定位: 本发明 实施例通过釆用 二次多 项式 ax2 + by2 + cxy + dx + dy + f = R(x, y)来逼近角点反应函数 R,以确定角点的亚像素级精确 位置。用已经检测出来的角点周围的像素点可以建立含有 a~f的 6个未知量的超定方程 组, 运用最小二乘法求解这个超定方程组, 亚像素级角点对应的是二次多项式的极大值 点。
表 1为釆用不同方法进行角点提取的比较:
表 1
Figure imgf000008_0001
比较, 在运算速度和后续的匹配率上都有所提高, 与原 Harris角点检测法相比在时间上 有了很大的提高, 相对其它两算法, 其提取的角点性能更好、 提取的速度更快。
在实际应用中, 两幅图像提取的特征点中有相当多的冗余点, 如果不去除这些冗余 的特征点将会导致匹配参数的误差, 甚至导致匹配失败。 选择合适的点匹配准则寻找对 应的特征对, 是实现图像配准正确性和精确度的重要保证。 常用的角点匹配算法有 Hausdorff 距离法、 松弛标记法、 确定性退火算法以及迭代最近点算法。
本发明实施例提出的角点匹配算法分为两步: 1、 利用双向最大相关系数 ( Bidirectional Greatest Correlative Coefficient, BGCC )进行粗匹配; 2、然后用 RANSAC 对其进行提纯, 实现图像的精匹配。 该方法在去除冗余特征点的同时能够准确提取出正 确的匹配特征点对。
第二提取子模块, 用于利用 NCC, 通过 BGCC 匹配方法提取初始特征点对; 具体 地, 第二提取子模块用于:
建立一个相似测度 NCC, 只有当两角点均是相对于对方相似度量值最大时才认为 匹配成功。
相关系数定义如下:
Figure imgf000009_0001
公式 5 其中, Ii、 I2是两幅图像的灰度; ηχη是窗口的大小; 设第一幅图像中的角点为 di、 i=l...m, 第二幅图像中的角点为 dj、 j=l...n, 则 «ν,1)和( ; 2,v; 2)分别为两幅图中第 i个 和第 j个待匹配的特征点。 (M,V)是角点窗口区域的平均灰度值:
― ¾ ¾ /(w + i,v + ;)
I (u,v) =」
(2n + l)(2n + l) 公式 6 窗口区域的标准方差
∑ ∑ /2(w + i,v + ;)
σ = (u,v)
(2n + l)(2n + l) ' ' 公式 7 用 BGCC算法进行角点的粗匹配具体为:
步骤 1, 以图像 中的任意一个角点为中心选取一个 ηχη的相关窗口, 在 12中以 与 中的角点具有相同坐标的像素点为中心, 选取一个大小为 dlx dh的矩形搜索区域, 然后对 中的角点与 12中搜索窗口区域内每一个角点计算相关系数 Cij, 将相关系数最 大的角点作为 给定角点的匹配点, 这样可以得到一组匹配点集。
步骤 2, 同样, 给定图像 12中的任意一个角点, 搜索图像 中对应的窗口区域内与 之相关系数最大的角点, 作为 12给定角点的匹配点, 这样也可以得到一组匹配点集。
步骤 3, 最后在得到的两组匹配点集中搜索相同的匹配角点对, 认为该角点对是相 互匹配对应的, 至此, 完成了角点的初始匹配。
在实际应用中, 为了补偿两幅图像由于光照产生的不同, 本发明实施例将图像用 7 X 7的中值滤波器进行平滑,然后将原图与经过滤波的图像相减的结果作为操作的对象。 如果仅使用 BGCC进行匹配就会产生错误的匹配对, 有时错误匹配的比例会非常 高,严重千扰了变换矩阵的估计, 导致图像配准失败。 因此, 必须对特征点对加以校正, 去除错误的匹配对, 本发明实施例釆用 RANSAC进行精匹配。
具体地, 获取子模块, 用于通过 RANSAC随机抽样一致性剔除伪特征点对, 获取 精确匹配的特征点对;
RANSAC 中, 首先根据具体问题设计出某种目标函数, 然后通过反复提取最小点 集估计该函数中参数的初始值,利用这些初始参数值把所有的数据分为 "内点" (inliers, 即满足估计参数的点)和 "出格点" (outliers, 即不满足估计参数的点), 最后反过来用 所有的 "内点,, 重新计算和估计函数的参数。 具体包括如下处理: 在输入数据中釆样最 小点集, 并利用每次取样所得到的最小点集估计出所要确定的参数, 同时根据一定的判 别准则判别输入数据中哪些是与该组参数相一致, 即 "内点", 哪些是不一致的, 即 "出 格点"。 如此迭代一定的次数之后, 将对应输入数据中 "内点" 比例最高的所估计出的 参数值作为最终的参数估计值。
算法 RANSAC的具体描述过程如下:
步骤 1 , 重复 N次随机釆样;
步骤 2, 随机选取 4对匹配点 (选取的 4点应保证样本中的任意三点不在同一直线 上), 线性地计算投影变换矩阵 H;
步骤 3 , 计算每个匹配点经过矩阵变换后到对应匹配点的距离;
步骤 4, 根据内点距离小于距离阈值 t的原则计算 H的内点, 选取一个包含内点最 多的点集, 并在此内点域上重新估计投影变换矩阵 H。
图 4是本发明实施例的算法 RANSAC的详细流程图, 如图 4所示, 包括如下处理: 步骤 401 , 初始 N=l , trialcount=0;
步骤 402, 判断是否 N>trialcount, 如果为是, 则执行步骤 403 , 否则执行步骤 408; 步骤 403 , 随机选取不重复四点, count++;
步骤 404, 判断是否三点共线且 count<maxDataTrials, 如果为是, 则执行步骤 405 , 否则执行步骤 403;
步骤 405 , 计算变换矩阵 H, 记录 dis<t的匹配内点 inliers, 统计内点个数 ninliers; 步骤 406, 若 ninliers>bestscore, M bestscore=ninliers , bestinliers=inliers , 计算釆样 次数 Ν, trialcount++;
步骤 407 , 判断是否 trialcount>maxTrials, 如果为是, 则执行步骤 408 , 否则执行步 骤 402;
步骤 408 , 输出矩阵11。 在上述算法中, 以实际匹配点与其估计的匹配点之间的几何距离作为判决准则, 用 以确定正确的匹配点, 即内点。 图 5是本发明实施例的几何距离示意图, 如图 5所示, 设点 p'、 q'分别为点 、 q在各自对应图像中估计出来的对应点, 则图像中一个点的实 际匹配点到其估计匹配点之间的几何距离定义如下:
1
d(p, p ) = d(p, H~lq) = \p -
Figure imgf000011_0001
q ) = d(q, Hp) = \\q - 公式 8 公式 8中的 |·|表示欧式距离, 考虑到对称性, 几何距离判决准则函数定义如下: dis =∑ {dt (Pi , p;)2 + d; (qt , q ) =∑ (J Α· - |Γ + - HPi f )
Figure imgf000011_0002
若计算出的 dis大于给定的距离阈值, 则对应的匹配点被认为是出格点; 若计算出 的 dis小于给定的距离阈值, 则对应的匹配点被认为是内点, 只有内点才适合计算变换 矩阵 H。
转换子模块, 用于根据投影变换矩阵对多个原始图像进行逆向映射变换, 将多个原 始图像转换到参考图像的坐标系下, 并根据精确匹配的特征点对进行图像的配准。
对算法 RANSAC的说明:
一、 存在一种归一化坐标系, 在此坐标系下估计的变换矩阵优于其它坐标系。 通过 对数据进行归一化处理, 可以提高算法的稳定性, 减少噪声的千扰。 归一化变换: 1、 对图像点做位移变换, 使得图像的原点位于图像点集的盾心; 2、 对图像点做缩放变换, 使得图像点分布在以盾心为圆心半径为 ^的圆中。 定义由平移变换和尺度变换组成的 归一化变换矩阵
1 0
0 1
ζ,.
平移变换: ' i ) X . y是点集的平均值;
尺度变换:
Figure imgf000011_0003
Ρ, = Τ r ρ = Τ
公式 10 其中, 公式 10中 i表示第 i个角点。
二、 本发明实施例可以釆用直接线性变换( Direct Linear Transformation, DLT ) 算 法估计变换矩阵, 该方法可得到更准确的参数。 求解投影变换参数至少需要 8个方程, 也就是需要在相邻的两幅图像中选取0 ( > 4 )对特征对应对, 特征对可以通过上述角点 匹配 得。 设图像 、 12之间的投影变换为 (以齐次坐标表示):
Figure imgf000012_0001
公式 11 通过叉积方程可以表示为: 其中 = ( ,χ',ο 令 表示 Η的 j行, 那么叉积方程可以表示为 Ah=0 , 即:
Figure imgf000012_0002
:0
公式 12 实际中通过对 Α进行奇异值分解( Singular Value Decomposition, SVD ), h的解就 是 V的值。
当准确计算出图像之间的转换参数之后, 图像合成模块 16需要根据求出的参数把 多张原始图缝合成一张大的全景图。 为了得到合成图像, 就需要选择合适的图像合成策 略, 完成图像的拼接; 图像合成就是将源图像的像素结合起来生成拼接平面上的像素, 实现相邻图像间自然的过渡, 由于图像配准的结果存在配准误差, 因而不可能在每一点 上都精确配准, 因此, 图像合成的策略要尽可能地减少遗留变形以及图像间的亮度差异 对合并效果的影响, 以获得对同一场景的更为精确、 更为全面、 更为可靠的图像描述。 图像合成包括: 拼接图像的画出, 光度的调整混合, 确定重叠区域和消除拼缝。
具体地, 图像合成模块 16用于根据参考图像的坐标系获取多个原始图像之间的空 间变换关系, 选择合适的图像合成策略, 完成图像的合成。
为了能使拼接区域平滑, 保证图像盾量, 本发明实施例釆用改进的渐进渐出合成方 法。
在现有技术中, 图像重叠区域中像素点的灰度值 f(x,y)由两图像中对应像素点的灰 度值 fl(x,y)和 f2(x,y)的加权平均得到:
f(x,y)=dl X fl(x,y)+d2 x G(x,y) 公式 13
其中 dl、 d2是渐变因子, 其取值范围限制在 (0, 1)之间, 且满足 dl+d2=l的关系, 在重叠区域中, 按照从第 1幅图像到第 2幅图像的方向, dl由 1渐变至 0 , d2由 0渐变 至 1 , fl(x,y)慢慢平滑过渡到 f2(x,y)。
在使用该算法时发现, 经处理后的图像虽然消除了图像中的边界, 但是重叠区域中 仍然出现重影、 模糊现象, 由于两幅图像重叠部分中个别对应像素灰度值存在较大的差 异而使合成后的图像在这些像素处的灰度值出现跳变, 为避免这种情况出现, 本发明实 施例对上述算法进行了改进,引入一个阈值 door,对于 f(x,y) ,并不直接取 fl(x,y)和 f2(x,y) 的加权平均值, 而是先计算该点在平滑前两幅图对应像素的灰度值差值, 若此差值小于 阈值, 则取加权平均值为此点灰度值, 反之, 则取平滑前的灰度值为此点灰度值。
施例修正后的算法合成的图像像素 f(x,y)可以表示为:
Figure imgf000013_0001
公式 14 图 6是本发明实施例的图像合成算法示意图, 如图 6所示, 图像 和图像 f2具有拼 缝区和重叠区, 一般来说, 如果选择的拼缝区、 重叠区域过大, 则会出现图像模糊、 边 缘信息不明显等问题, 若选择的拼缝区、 重叠区域太小, 则无法消除图像的拼缝现象。 经过多次实验, 结果表明, 可以釆用拼缝周围 7x7区域为拼缝处理区域, 以 3x3的模板 对拼缝区域内的像素点进行线性滤波, 得到的效果最好。
需要说明的是, 在本发明实施例中, 上述图像预处理模块、 图像配准模块、 图像合 成模块可以组成图像拼接模块, 在实际应用中, 图像拼接模块与中央控制模块共享同一 硬件载体, 图像拼接模块釆用数字图像处理技术进行图像拼接, 可以作为中央控制模块 内部完全封装的实体, 拼接结果存入存储模块中, 用户可以直接从存储模块中获得拼接 完成的全景照片。 优选地, 存储模块包括手机内部存储器和外部扩充存储器, 在实际应 用中, 可以在移动设备上设置图像拼接选择档供用户选择存储模块, 并显示图像拼接模 块得到的拼接图供用户预览。
在本实施例中, 上述图像合成算法可以直接集成在移动设备中, 只要该移动设备能 够正常拍照,通过使用本发明实施例提供的上述图像合成算法能够在移动设备上实现不 同角度不同方向的图像的合成,在不增加昂贵的硬件资源的基础上可以更加准确方便的 满足用户需求。
方法实施例
根据本发明的实施例, 提供了一种全景图合成方法, 用于移动设备照相机, 图 7是 本发明实施例的全景图合成方法的流程图, 如图 7所示, 根据本发明实施例的全景图合 成方法包括以下处理:
步骤 701 , 获取同一场景的多个原始图像, 对所述多个原始图像进行折叠变化和坐 标变换, 确定所述多个原始图像的重叠区域;
从图 2所示的全景图像拼接流程示意图可以看出,图像的获取是图像处理的第一步, 为了获取所要拍摄的图片, 需要相应的摄像头装置, 包括摄像头、 以及驱动装置。 在开 启摄像头后, 将摄像头釆集到的图像信息传送到图像预处理模块, 然后图像预处理模块 对釆集到的图像信息进行分析处理, 验证图像信息的有效性。 需要说明的是, 在实际应 用中, 由于图像获取的方式不同会导致输入原始图像的不同, 最终使用的图像拼接方法 也会不同。
图像预处理的目的是保证图像配准的精度, 图像预处理模块对多个原始图像进行图 像处理的基本操作, 建立图像的匹配模板, 对图像进行预定变换、 以及提取图像的特征 点集合, 确定多个原始图像的重叠区域, 其中, 图像处理的基本操作包括: 直方图处理、 以及图像的平滑滤波, 预定变换包括以下至少之一: 傅里叶变换、 小波变换、伽柏变换。
也就是说, 图像预处理模块需要对原始图像做一些折叠变化和坐标变换, 包括图像 处理的基本操作 (例如, 直方图处理、 图像的平滑滤波等)、 建立图像的匹配模板、 对 图像进行某种变换(例如, 傅立叶变换、 小波变换、 Gabor变换等) 以及提取图像的特 征集合等操作, 图像预处理模块 12进行初略定位, 找到大致的重叠区域, 缩小匹配范 围, 提高图像合成速度。
步骤 702, 建立所述多个原始图像的数学模型, 将所述多个原始图像的所述重叠区 域对准, 并将所述多个原始图像转换到参考图像的坐标系下;
图像配准的核心问题是寻找一个变换,找到待拼接图像中的模板或特征点在参考图 像中对应的位置, 根据模板或者图像特征之间的对应关系, 可以计算出数学模型中的各 参量值, 从而建立两幅图像的数学模型, 使图像间相互重叠部分对准, 将待拼接图像转 换到参考图像的坐标系, 以此构成完整的图像。 精确配准的关键是要有很好地描述两幅 图像之间的转换关系的数学模型。
在步骤 702中, 图像配准模块依据相似性度量来决定图像间的变换参数, 使从不同 传感器、 不同视角、 不同时间获取的同一场景的两幅或多幅图像变换到同一坐标系下, 在像素层上得到最佳匹配的过程。 具体实现方法为: 本发明实施例首先改进了 Harris角 点检测算法, 有效提高所提取特征点的速度和精度; 然后利用 NCC, 通过双向最大相 关系数匹配的方法提取出初始特征点对, 用 RANSAC来剔除伪特征点对, 实现特征点 对的精确匹配; 最后用正确匹配特征点对实现图像的配准。
如图 3所示, 图像配准模块需要对获取的图像进行特征提取、 特征匹配、 变换模型 参数估计、 图像重新釆样和变换等操作, 具体包括如下处理:
一、获取多个原始图像中匹配模板或特征点集合在参考图像中对应的位置, 根据位 置计算数学模型中的各参量值, 建立多个原始图像的数学模型;
二、 通过特定方式提取多个原始图像的特征点; 也就是说, 可以根据图像性盾提取 适用于该图像配准的几何特征或灰度特征,优选地,在本发明实施例中,特征点为角点。 在现有技术中, 角点检测算法主要分为基于边缘和基于灰度两类提取算法。 由于前 者对边缘的提取依赖性比较大, 如果检测到的边缘发生错误或是边缘线发生中断, 则会 对角点提取结果造成较大影响, 而基于灰度的提取算法主要是通过计算局部范围内灰度 和梯度变化剧烈的极大点来达到检测目的, 无需进行边缘提取, 因而在实际中得到了广 泛应用。 在现有技术中, 最具代表性的几种角点检测包括: Moravec 算子角点检测、 Forstner算子角点检测、 Susan检测算法、 Harris角点检测算法。 其中, Harris角点检测 算法在一致性和有效性方面均具有优良的性能以及所提取的兴趣点被证明具有旋转、平 移不变性、 稳定性好等优点。
Harris角点检测算法是利用图像的灰度变化率确定角点, 该算法通过计算一个与图 像的自相关函数相联系的矩阵 M 的特征值, 即自相关函数的一阶曲率来判定该点是否 为角点, 如果两个曲率值都高, 那么就认为该点是角点。
Harris角点检测算法定义了任意方向上的自相关值 E(M, v)为:
u
E ( u , v ) ≡ \u v \M
Figure imgf000015_0002
Figure imgf000015_0001
Ix、 Iy分别为图像 x、 y方向的梯度值, w c y)为高斯滤波器,其中 @表示卷积运算。 M是 2 x 2的对称矩阵, 因此必然存在 2个特征值 ^和 特征值反映了图像像素的特 征性, 即如果点 (x,y)是一特征点, 那么关于这个点的 M矩阵的 2个特征值都是正值, 并且它们是以 (x,y)为中心的区域中的局部最大值, 则特征点可用评价函数表示为:
R = Det(M) - kTrace2 ( ) 公式 3 其中, Det M) : ^ , Trace(M) = A1 + A2 , Det为矩阵的行列式, Trace为矩阵的迹
(矩阵对角线元素的和), k是一实验值, 一般取 k=0.04~0.06。 设定一个合理的阈值 T, 当实际由公式 3计算出来的 R大于该阈值时, 则表示找到了一个角点, 否则就表示没有 找到角点。 特征点一般是局部范围内的极大兴趣值对应的像素点, 因此, 在计算完各点 的 R值后, 要进行非极大值抑制, 提取原始图像中所有局部兴趣值最大的点。
从上述 Harris角点检测过程可以看出,现有技术中原始的 Harris角点检测具有单一 阈值设定、 定位精度低以及实时性差等缺陷, 本发明实施例对现有技术中 Harris角点检 测算法进行了改进。 从而在图像中提取出尽可能多又定位精确的特征点, 同时加快提取 角点的速度。
具体地, 本发明实施例改进的 Harris角点检测算法包括如下处理:
步骤 1 , 对图像的每一个点计算其在横向和纵向的一阶导数以及两者的乘积, 得到 3幅新的图像。在图像处理中,利用 3 x 3卷积核与原图像做卷积求得原图像每一点的偏 导数。 在实际应用中, 为了减少图像噪声对提取角点的影响, 可以对这 3幅图像进行高 斯滤波。
步骤 2, 根据角点响应函数式计算原图像上对应的每个像素的 R值。 原始 Harris角 点检测算法的角点响应函数式中的 k值是一个经验常数, 使用起来随意性较大, 造成角 点提取可靠性的降低, 在图片状况不一的情况下, 容易影响到角点提取的准确性。 考虑 到 R实盾是角点检测信号, 行列式的值大、 迹的值小为角点信号, 反之为边缘信号的特 点, 因此本发明实施例釆用如下比值法计算角点响应函数:
R= °etm 公式 4
Trace(M) + £
为了避免矩阵的迹有时可能为零, 因此在分母中补加很小的数 £ "; 与原始 Harris角 点检测算法中提出的响应函数相比, 它避免参数 k 的选取, 减少了 k选择的随机性, 具有实用性, 可靠性好, 准确度高的特点。
步骤 3 , 选取局部极值点。
现有技术中的做法是选择一个适当的阈值, 然后将兴趣值大于该阈值的像元作为特 征像元, 兴趣值小于阈值的像元则被筛选掉。 上述处理虽然筒单易实现, 但单一阈值的 选取对于非均盾图像来说可能导致部分特征点也被筛选掉。
为了克服这一缺陷,本发明实施例釆用图像中窗口内抑制非最大的方式结合阈值的 设定来进行特征点的筛选。 具体步骤为: 在图像中选取一个适当的窗口, 将窗口中兴趣 值最大的像元保留, 而将窗口中其余像元删去, 移动窗口对整幅图像进行筛选。 局部极 值点的数目往往很多, 根据要求设定一合理的阈值, 选出兴趣值最大的若千个点作为最 后的结果。 另外, 为了加快提取的速度, 可以釆用边界模板将对匹配作用不大的边界角 点排除。
步骤 4 , 亚像素角 点定位: 本发明 实施例通过釆用 二次多 项式 ax2 + by2 + cxy + dx + dy + f = R(x, y)来逼近角点反应函数 R,以确定角点的亚像素级精确 位置。用已经检测出来的角点周围的像素点可以建立含有 a~f 的 6个未知量的超定方程 组, 运用最小二乘法求解这个超定方程组, 亚像素级角点对应的是二次多项式的极大值 点。
前述表 1为釆用不同方法进行角点提取的比较: 从表 1中可以看出,本发明实施例改进后的 Harris角点检测法与无阈值提取算法相 比较, 在运算速度和后续的匹配率上都有所提高, 与原 Harris角点检测法相比在时间上 有了很大的提高, 相对其它两算法, 其提取的角点性能更好、 提取的速度更快。
在实际应用中, 两幅图像提取的特征点中有相当多的冗余点, 如果不去除这些冗余 的特征点将会导致匹配参数的误差, 甚至导致匹配失败。 选择合适的点匹配准则寻找对 应的特征对, 是实现图像配准正确性和精确度的重要保证。 常用的角点匹配算法有 Hausdorff 距离法、 松弛标记法、 确定性退火算法以及迭代最近点算法。
本发明实施例提出的角点匹配算法分为两步: 1、 利用 BGCC进行粗匹配; 2、 然后 用 RANSAC对其进行提纯, 实现图像的精匹配。 该方法在去除冗余特征点的同时能够 准确提取出正确的匹配特征点对。
三、 用于利用 NCC, 通过 BGCC匹配方法提取初始特征点对; 具体地:
建立一个相似测度 NCC, 只有当两角点均是相对于对方相似度量值最大时才认为 匹配成功。
相关系数定义如下:
c _
~
Figure imgf000017_0001
公式 5 其中, Ii、 I2是两幅图像的灰度; ηχη是窗口的大小; 设第一幅图像中的角点为 di、 i=l...m, 第二幅图像中的角点为 dj、 j=l...n, 则 «ν,1)和(M; 2,V; 2)分别为两幅图中第 i个 和第 j个待匹配的特征点。 (M,V)是角点窗口区域的平均灰度值:
― J J /(« + , ν + ;)
I (u,v) =」
(2" + l)(2" + l) 公式 6
口区域的标准方差
Figure imgf000017_0002
公式 7 用 BGCC算法进行角点的粗匹配具体为:
步骤 1, 以图像 中的任意一个角点为中心选取一个 ηχη的相关窗口, 在 12中以 与 中的角点具有相同坐标的像素点为中心, 选取一个大小为 dlx dh的矩形搜索区域, 然后对 中的角点与 12中搜索窗口区域内每一个角点计算相关系数 Cij, 将相关系数最 大的角点作为 给定角点的匹配点, 这样可以得到一组匹配点集。 步骤 2, 同样, 给定图像 12中的任意一个角点, 搜索图像 中对应的窗口区域内与 之相关系数最大的角点作为 12给定角点的匹配点, 这样也可以得到一组匹配点集。
步骤 3 , 最后在得到的两组匹配点集中搜索相同的匹配角点对, 认为该角点对是相 互匹配对应的, 至此, 完成了角点的初始匹配。
在实际应用中, 为了补偿两幅图像由于光照产生的不同, 本发明实施例将图像用 7
X 7的中值滤波器进行平滑,然后将原图与经过滤波的图像相减的结果作为操作的对象。
如果仅使用 BGCC进行匹配就会产生错误的匹配对, 有时错误匹配的比例会非常 高,严重千扰了变换矩阵的估计, 导致图像配准失败。 因此, 必须对特征点对加以校正, 去除错误的匹配对, 本发明实施例釆用 RANSAC进行精匹配。
四、 通过 RANSAC随机抽样一致性剔除伪特征点对, 获取精确匹配的特征点对;
RANSAC 中, 首先根据具体问题设计出某种目标函数, 然后通过反复提取最小点 集估计该函数中参数的初始值,利用这些初始参数值把所有的数据分为 "内点" (inliers, 即满足估计参数的点)和 "出格点" (outliers, 即不满足估计参数的点), 最后反过来用 所有的 "内点,, 重新计算和估计函数的参数。 具体包括如下处理: 在输入数据中釆样最 小点集, 并利用每次取样所得到的最小点集估计出所要确定的参数, 同时根据一定的判 别准则判别输入数据中哪些是与该组参数相一致, 即 "内点", 哪些是不一致的, 即 "出 格点"。 如此迭代一定的次数之后, 将对应输入数据中 "内点" 比例最高的所估计出的 参数值作为最终的参数估计值。
算法 RANSAC的具体描述过程如下:
步骤 1 , 重复 N次随机釆样;
步骤 2, 随机选取 4对匹配点 (选取的 4点应保证样本中的任意三点不在同一直线 上), 线性地计算投影变换矩阵 H;
步骤 3 , 计算每个匹配点经过矩阵变换后到对应匹配点的距离;
步骤 4, 根据内点距离小于距离阈值 t的原则计算 H的内点, 选取一个包含内点最 多的点集, 并在此内点域上重新估计投影变换矩阵 H。
图 4是本发明实施例的算法 RANSAC的详细流程图, 如图 4所示, 包括如下处理: 步骤 401 , 初始 N=l , trialcount=0;
步骤 402, 判断是否 N>trialcount, 如果为是, 则执行步骤 403 , 否则执行步骤 408; 步骤 403 , 随机选取不重复四点, count++;
步骤 404, 判断是否三点共线且 count<maxDataTrials, 如果为是, 则执行步骤 405 , 否则执行步骤 403;
步骤 405 , 计算变换矩阵 H, 记录 dis<t的匹配内点 inliers, 统计内点个数 ninliers; 步骤 406 , 若 ninliers>bestscore, U'J bestscore=ninliers , bestinliers=inliers , 计算釆样 次数 N, trialcount++;
步骤 407 , 判断是否 trialcount>maxTrials , 如果为是, 则执行步骤 408 , 否则执行步 骤 402;
步骤 408 , 输出矩阵11。
在上述算法中, 以实际匹配点与其估计的匹配点之间的几何距离作为判决准则, 用 以确定正确的匹配点, 即内点。 图 5是本发明实施例的几何距离示意图, 如图 5所示, 设点 '、 ^分别为点^、 在各自对应图像中估计出来的对应点, 则图像中一个点的实 际匹配点到其估计匹配点 如下:
d(p, p ) = d(p, H~lq) =
Figure imgf000019_0001
公式 8 公式 8中的 |·|表示欧式距离, 考虑到对称性, 几何距离判决准则函数定义如下: dis = X ( (Pi , Pi )2 + d ' (¾ ,¾')2)
Figure imgf000019_0002
若计算出的 dis大于给定的距离阈值, 则对应的匹配点被认为是出格点; 若计算出 的 dis小于给定的距离阈值, 则对应的匹配点被认为是内点, 只有内点才适合计算变换 矩阵 H。
五、 根据投影变换矩阵对多个原始图像进行逆向映射变换, 将多个原始图像转换到 参考图像的坐标系下, 并根据精确匹配的特征点对进行图像的配准。
对算法 RANSAC的说明:
一、 存在一种归一化坐标系, 在此坐标系下估计的变换矩阵优于其它坐标系。 通过 对数据进行归一化处理, 可以提高算法的稳定性, 减少噪声的千扰。 归一化变换: 1、 对图像点做位移变换, 使得图像的原点位于图像点集的盾心; 2、 对图像点做缩放变换, 使得图像点分布在以盾心为圆心- 的圆中。 定义由平移变换和尺度变换组成的
■ Τ Τ
归一化变换矩阵
1 0 - Υ
0 1 - J
0 0 1
平移变换: 其中 、 y是点集的平均值;
尺度变换:
Figure imgf000019_0003
T Τ
公式 10
其中, 公式 10中 i表示第 i个角点。
二、 本发明实施例可以釆用 DLT算法估计变换矩阵, 该方法可得到更准确的参数。
1 - 求解投影变换参数至少需要 8个方程, 也就是需要在相邻的两幅图像中选取n ( > 4 )对 特征对应对, 特征对可以通过上述角点匹配过程获得。 设图像 、 12之间的投影变换为 (以 标表示):
Figure imgf000020_0001
公式 11 通过叉积方程可以表示为: X;x HXi = Q , 其中 = (4x f; 令 表示 H的 j行, 那么叉积方程可以表示为 Ah=0 , 即:
0T
-x[X] = 0
0T
、 ' ' ' 厂 公式 12 实际中通过对 A进行 S VD , h的解就是 V的值。
步骤 703 ,根据所述参考图像的坐标系获取所述多个原始图像之间的空间变换关系, 选择合适的图像合成策略, 完成图像的合成。
当准确计算出图像之间的转换参数之后, 图像合成模块需要根据求出的参数把多张 原始图缝合成一张大的全景图。 为了得到合成图像, 就需要选择合适的图像合成策略, 完成图像的拼接; 图像合成就是将源图像的像素结合起来生成拼接平面上的像素, 实现 相邻图像间自然的过渡, 由于图像配准的结果存在配准误差, 因而不可能在每一点上都 精确配准, 因此, 图像合成的策略要尽可能地减少遗留变形以及图像间的亮度差异对合 并效果的影响, 以获得对同一场景的更为精确、 更为全面、 更为可靠的图像描述。 图像 合成包括: 拼接图像的画出, 光度的调整混合, 确定重叠区域和消除拼缝。
为了能使拼接区域平滑, 保证图像盾量, 本发明实施例釆用改进的渐进渐出合成方 法。
在现有技术中, 图像重叠区域中像素点的灰度值 f(x,y)由两图像中对应像素点的灰 度值 fl (x,y)和 f2(x,y)的加权平均得到:
f(x,y)=dl X fl (x,y)+d2 x G(x,y) 公式 13
其中 dl、 d2是渐变因子, 其取值范围限制在 (0, 1)之间, 且满足 dl+d2=l的关系, 在重叠区域中, 按照从第 1幅图像到第 2幅图像的方向, dl由 1渐变至 0 , d2由 0渐变 至 1 , fl(x,y)慢慢平滑过渡到 f2(x,y)。
在使用该算法时发现, 经处理后的图像虽然消除了图像中的边界, 但是重叠区域中 仍然出现重影、 模糊现象, 由于两幅图像重叠部分中个别对应像素灰度值存在较大的差 异而使合成后的图像在这些像素处的灰度值出现跳变, 为避免这种情况出现, 本发明实 施例对上述算法进行了改进,引入一个阈值 door,对于 f(x,y) ,并不直接取 fl(x,y)和 f2(x,y) 的加权平均值, 而是先计算该点在平滑前两幅图对应像素的灰度值差值, 若此差值小于 阈值, 则取加权平均值为此点灰度值, 反之, 则取平滑前的灰度值为此点灰度值。
本发 施例修正后的算法合成的图像像素 f (x,y)可以表示为:
f ix, y) =
Figure imgf000021_0001
公式 14 如图 6所示,图像 和图像 f2具有拼缝区和重叠区,一般来说,如果选择的拼缝区、 重叠区域过大, 则会出现图像模糊、 边缘信息不明显等问题, 若选择的拼缝区、 重叠区 域太小,则无法消除图像的拼缝现象。经过多次实验,结果表明,可以釆用拼缝周围 7x7 区域为拼缝处理区域, 以 3x3的模板对拼缝区域内的像素点进行线性滤波, 得到的效果 最好。
综上所述, 本发明实施例通过对多个单张图像进行配准等操作, 将一系列单张图片 合称为一幅全景图像, 解决了现有技术中由于移动设备照相机的视角和大小的局限, 不 能获得高分辨率的大视野图片的问题, 能够在不降低图像分辨率的条件下获取大视野范 围的场景照片, 本发明实施例利用照相机处理器进行自动匹配, 构造一个无缝的、 高清 晰的图像, 它具有比单个图像更高的分辨率和更大的视野, 能够更好的满足移动设备用 户的需求。
尽管为示例目的, 已经公开了本发明的优选实施例, 本领域的技术人员将意识到各 种改进、 增加和取代也是可能的, 因此, 本发明的范围应当不限于上述实施例。

Claims

权利要求书
1、 一种全景图合成方法, 用于移动设备照相机, 其特征在于, 包括:
获取同一场景的多个原始图像, 对所述多个原始图像进行折叠变化和坐标变换, 确 定所述多个原始图像的重叠区域;
建立所述多个原始图像的数学模型, 将所述多个原始图像的所述重叠区域对准, 并 将所述多个原始图像转换到参考图像的坐标系下;
根据所述参考图像的坐标系获取所述多个原始图像之间的空间变换关系,选择图像 合成策略, 完成图像的合成。
2、 如权利要求 1所述的方法, 其特征在于, 所述对所述多个原始图像进行折叠变 化和坐标变换确定所述多个原始图像的重叠区域, 包括:
对所述多个原始图像进行图像处理的基本操作 , 建立图像的匹配模板 , 对图像进行 预定变换, 提取图像的特征点集合, 确定所述多个原始图像的重叠区域。
3、 如权利要求 1所述的方法, 其特征在于, 所述建立所述多个原始图像的数学模 型, 包括:
获取所述多个原始图像中所述匹配模板或所述特征点集合在所述参考图像中对应 的位置, 根据所述位置计算所述数学模型中的各参量值, 建立所述多个原始图像的数学 模型。
4、 如权利要求 1所述的方法, 其特征在于, 所述将多个原始图像的重叠区域对准, 并将多个原始图像转换到参考图像的坐标系下, 包括:
通过特定方式提取所述多个原始图像的特征点;
利用相似测度归一化相互关 NCC, 通过双向最大相关系数匹配方法提取初始特征 点对;
通过随机釆样法 RANS AC随机抽样一致性剔除伪特征点对, 获取精确匹配的特征 点对;
根据投影变换矩阵对所述多个原始图像进行逆向映射变换,将所述多个原始图像转 换到所述参考图像的坐标系下, 并根据所述精确匹配的特征点对进行图像的配准。
5、 如权利要求 4所述的方法, 其特征在于, 所述特征点为角点, 所述特定方式为 角点检测算法;
所述通过特定方式提取所述多个原始图像的特征点包括:
对所述多个原始图像中每个原图像中的每一点计算该点在横向和纵向的一阶导数, 并计算横向一阶导数和纵向一阶导数的乘积, 获取与每个原图像对应的 3幅新的图像, 利用 3 x 3卷积核与所述原图像进行卷积,获取所述原图像每一点的偏导数, 并对所述 3 幅新的图像进行高斯滤波;
根据角点响应函数式即公式 1计算所述原图像上对应的每个像素的 R值,
R= °etm 公式
Trace(M) + £
其中, £) (^0 = 412, Trace{M) = i+ 2 ^ M是 2 χ 2的对称矩阵, 4和4为1^的 2个特征值, f为小值数;
在原图像中选取一个适当的窗口, 将所述窗口中兴趣值最大的像元保留, 将所述窗 口中其他像元删除, 移动所述窗口对整幅原图像进行筛选, 并根据预先设置的阈值将兴 趣值最大的若千个点选取为局部极值点, 并釆用边界模板将匹配作用低的边界角点排 除;
釆用二次多项式∞2 + + cx_y + A + + / = R(x, y)进行角点的亚像素定位。
6、如权利要求 5所述的方法, 其特征在于, 所述利用相似测度归一化相互关 NCC, 通过双向最大相关系数匹配方法提取初始特征点对包括:
根据 一个相似测度 NCC,
c _
~
Figure imgf000023_0001
公式 2, 其中, Zl2是两幅图像的灰度, η χ η是窗口的大小, 设第一幅图像中的角点为 di、 i=l...m, 第二幅图像中的角点为 dj、 j=l…!, 则(«)和 分别为两幅图中第 i 个和第 j 个待匹配的特征点; T(u,v 是角点窗口 区域的平均灰度值:
I (M,V) =」
(2n + l)(2n + l) 窗 口 区 域 的 标
Figure imgf000023_0002
以图像 Ζι中的任意一个角点为中心选取一个 ηχ η的相关窗口, 在^中以与 角点具有相同坐标的像素点为中心选取一个大小为 dl X dh的矩形搜索区域,然后对 的角点与^中搜索窗口区域内每一个角点计算相关系数 ' , 将相关系数最大的角点作 为 Zl给定角点的匹配点, 获取一组匹配点集; 给定图像 2中的任意一个角点, 搜索图像 Zl中对应的窗口区域内与之相关系数最大 的角点作为 2给定角点的匹配点, 获取另一组匹配点集;
在得到的两组匹配点集中搜索相同的匹配角点对, 确认该角点对是相互匹配对应 的, 完成角点的初始匹配。
7、 如权利要求 6所述的方法, 其特征在于, 在根据公式 2建立一个相似测度 NCC 之前, 所述方法还包括:
釆用 7 x7的中值滤波器将所述图像进行平滑, 并将原图像与经过滤波的图像相减 的结果作为操作对象。
8、 如权利要求 4所述的方法, 其特征在于, 所述 RANSAC包括:
重复 N次随机釆样, 其中, N大于等于 1;
随机选取 4对匹配点, 线性地计算所述投影变换矩阵, 其中, 所述 4对匹配点应保 证样本中的任意三点不在同一直线上;
计算每个匹配点经过所述投影变换矩阵变换后到对应匹配点的距离;
根据内点距离小于距离阈值 t的原则计算所述投影变换矩阵的内点, 选取一个包含 内点最多的点集, 并在此内点域上重新计算所述投影变换矩阵, 其中, 所述内点为满足 估计参数的点。
9、 如权利要求 1 所述的方法, 其特征在于, 所述根据参考图像的坐标系获取多个 原始图像之间的空间变换关系选择图像合成策略, 完成图像的合成, 包括:
根据公式 3和公式 4计算两图像重叠区域中像素点的灰度值 f(x,y) ,
f(x,y) =
ΛΟ, y)
公式 3,
Figure imgf000024_0001
>d2,(x, y)e (/ 门/2)
-f2\< door, (x, y) e fx n f2)
Figure imgf000024_0002
( ) e/2 公式 4, 其中, dl、 d2为渐变因子, dl、 d2的取值范围限制在(0, 1 )之间, 并满足 dl +d2 =1的关系, fl(x,y)和 f2(x,y)分别为两图像中对应像素点的灰度值, door为预先设置的阈 值。
10、 一种全景图合成装置, 设置于移动设备照相机, 其特征在于, 包括: 图像获取模块, 用于获取同一场景的多个原始图像;
图像预处理模块, 用于对所述多个原始图像进行折叠变化和坐标变换, 确定所述多 个原始图像的重叠区域;
图像配准模块, 用于建立所述多个原始图像的数学模型, 将所述多个原始图像的所 述重叠区域对准, 并将所述多个原始图像转换到参考图像的坐标系下;
图像合成模块, 用于根据所述参考图像的坐标系获取所述多个原始图像之间的空间 变换关系, 选择图像合成策略, 完成图像的合成。
11、 如权利要求 10所述的装置, 其特征在于, 所述图像预处理模块具体用于: 对所述多个原始图像进行图像处理的基本操作 , 建立图像的匹配模板 , 对图像进行 预定变换、 以及提取图像的特征点集合, 确定所述多个原始图像的重叠区域。
12、 如权利要求 10所述的装置, 其特征在于, 所述图像配准模块具体包括: 建立子模块, 用于获取所述多个原始图像中所述匹配模板或所述特征点集合在所述 参考图像中对应的位置, 根据所述位置计算所述数学模型中的各参量值, 建立所述多个 原始图像的数学模型;
第一提取子模块, 用于通过特定方式提取所述多个原始图像的特征点;
第二提取子模块, 用于利用 NCC, 通过双向最大相关系数匹配方法提取初始特征 点对;
获取子模块, 用于通过 RANS AC随机抽样一致性剔除伪特征点对, 获取精确匹配 的特征点对;
转换子模块, 用于根据投影变换矩阵对所述多个原始图像进行逆向映射变换, 将所 述多个原始图像转换到所述参考图像的坐标系下, 并根据所述精确匹配的特征点对进行 图像的配准。
13、 如权利要求 12所述的装置, 其特征在于, 所述特征点为角点, 所述特定方式 为角点检测算法。
14、 如权利要求 13所述的装置, 其特征在于, 所述第一提取子模块具体用于: 对所述多个原始图像中每个原图像中的每一点计算该点在横向和纵向的一阶导数, 并计算横向一阶导数和纵向一阶导数的乘积, 获取与每个原图像对应的 3幅新的图像, 利用 3 x 3卷积核与所述原图像进行卷积,获取所述原图像每一点的偏导数, 并对所述 3 幅新的图像进行高斯滤波;
根据角点响应函数式即公式 5计算所述原图像上对应的每个像素的 R值,
R= Det(M) 公式 5,
Trace(M) + £
其中,
Figure imgf000026_0001
M是 2 x 2的对称矩阵, 和 为!^!的 2个特征值, f为小值数;
在原图像中选取一个适当的窗口, 将所述窗口中兴趣值最大的像元保留, 将所述窗 口中其他像元删除, 移动所述窗口对整幅原图像进行筛选, 并根据预先设置的阈值将兴 趣值最大的若千个点选取为局部极值点, 并釆用边界模板将匹配作用低的边界角点排 除;
釆用二次多项式∞2 + + cx_y + A + + / = R(x, y)进行角点的亚像素定位。
15、 如权利要求 14所述的装置, 其特征在于, 所述第二提取子模块具体用于: 根据公式 6建立一个相似测度 NCC,
c _
i] ~ n
Figure imgf000026_0002
公式 6, 其中, Zl2是两幅图像的灰度, η χ η是窗口的大小, 设第一幅图像中的角点为 di、 i=l...m, 第二幅图像中的角点为 dj、 j=l…!, 则(«)和 分别为两幅图中第 i 个和第 j 个待匹配的特征点; T(u,v 是角点窗口 区域的平均灰度值:
― ^ ^I(u + i,v + j)
I (u,v):
(2n + i)(2n + i) , 窗 口 区 域 的 标
∑∑/2(Μ + ί, + ;)
σ- (M,V)
(2n + l)(2n + l) 以图像 中的任意一个角点为中心选取一个 ηχ η的相关窗口, 在^中以与 中的 角点具有相同坐标的像素点为中心选取一个大小为 dl X dh的矩形搜索区域,然后对 Ζι中 的角点与 2中搜索窗口区域内每一个角点计算相关系数 , 将相关系数最大的角点作 为 Zl给定角点的匹配点, 获取一组匹配点集; 给定图像 2中的任意一个角点, 搜索图像 中对应的窗口区域内与之相关系数最大 的角点作为 2给定角点的匹配点, 获取另一组匹配点集;
在得到的两组匹配点集中搜索相同的匹配角点对, 确认该角点对是相互匹配对应 的, 完成角点的初始匹配。
16、 如权利要求 12所述的装置, 其特征在于, 所述获取子模块具体用于: 重复 N次随机釆样, N大于等于 1 ;
随机选取 4对匹配点, 线性地计算所述投影变换矩阵, 其中, 所述 4对匹配点应保 证样本中的任意三点不在同一直线上;
计算每个匹配点经过所述投影变换矩阵变换后到对应匹配点的距离;
根据内点距离小于距离阈值 t的原则计算所述投影变换矩阵的内点, 选取一个包含 内点最多的点集, 并在此内点域上重新计算所述投影变换矩阵, 其中, 所述内点为满足 估计参数的点。
17、 如权利要求 10所述的装置, 其特征在于, 所述图像合成模块具体用于: 根据公式 7和公式 8计算两图像重叠区域中像素点的灰度值 f (x,y) ,
(x, y) f(x, y) =
ΛΟ, y)
公式 7 ,
Figure imgf000027_0001
^ y^ f^ 公式 8 , 其中, dl、 d2为渐变因子, dl、 d2的取值范围限制在(0, 1 )之间, 并满足 dl +d2 =1的关系, fl(x,y)和 f2(x,y)分别为两图像中对应像素点的灰度值, door为预先设置的阈
PCT/CN2011/072820 2010-11-02 2011-04-14 全景图合成方法及装置 WO2012058902A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP11837430.5A EP2637138A4 (en) 2010-11-02 2011-04-14 METHOD AND APPARATUS FOR COMBINING A PANORAMIC IMAGE
US13/882,273 US9224189B2 (en) 2010-11-02 2011-04-14 Method and apparatus for combining panoramic image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2010105280528A CN101984463A (zh) 2010-11-02 2010-11-02 全景图合成方法及装置
CN201010528052.8 2010-11-02

Publications (1)

Publication Number Publication Date
WO2012058902A1 true WO2012058902A1 (zh) 2012-05-10

Family

ID=43641633

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2011/072820 WO2012058902A1 (zh) 2010-11-02 2011-04-14 全景图合成方法及装置

Country Status (4)

Country Link
US (1) US9224189B2 (zh)
EP (1) EP2637138A4 (zh)
CN (1) CN101984463A (zh)
WO (1) WO2012058902A1 (zh)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106530214A (zh) * 2016-10-21 2017-03-22 微景天下(北京)科技有限公司 图像拼接系统和图像拼接方法
CN109003331A (zh) * 2018-06-13 2018-12-14 东莞时谛智能科技有限公司 一种图像重构方法
CN109285110A (zh) * 2018-09-13 2019-01-29 武汉大学 基于鲁棒匹配与变换的红外可见光图像配准方法及系统
CN109784353A (zh) * 2017-11-14 2019-05-21 北京三星通信技术研究有限公司 一种无向图匹配的方法、设备和存储介质
CN109934860A (zh) * 2019-03-21 2019-06-25 大连海事大学 一种基于sift-flann与误匹配点剔除的图像配准方法
CN109961399A (zh) * 2019-03-15 2019-07-02 西安电子科技大学 基于图像距离变换的最佳缝合线搜寻方法
CN110111248A (zh) * 2019-03-15 2019-08-09 西安电子科技大学 一种基于特征点的图像拼接方法、虚拟现实系统、照相机
CN110163173A (zh) * 2019-05-27 2019-08-23 大连海事大学 一种基于加权局部结构的脚印表达方法
CN110232598A (zh) * 2019-06-17 2019-09-13 河南蜗跑电子科技有限公司 一种基于运动app系统的用户定位卡券投放和拾取系统
CN110533652A (zh) * 2019-08-29 2019-12-03 长安大学 基于旋转不变lbp-surf特征相似度的图像拼接评价方法
CN110533765A (zh) * 2019-07-30 2019-12-03 西安理工大学 一种多次单应诱导的多平面结构物体的三维重建方法
CN110599478A (zh) * 2019-09-16 2019-12-20 中山大学 一种图像区域复制粘贴篡改检测方法
CN110689485A (zh) * 2019-10-14 2020-01-14 中国空气动力研究与发展中心超高速空气动力研究所 一种应用于大型压力容器红外无损检测的sift图像拼接方法
CN110704563A (zh) * 2019-09-27 2020-01-17 Oppo广东移动通信有限公司 地图融合方法及装置、设备、存储介质
CN110717936A (zh) * 2019-10-15 2020-01-21 哈尔滨工业大学 一种基于相机姿态估计的图像拼接方法
CN111144478A (zh) * 2019-12-25 2020-05-12 电子科技大学 一种穿帮镜头的自动检测方法
CN111311657A (zh) * 2020-03-12 2020-06-19 广东电网有限责任公司广州供电局 一种基于改进角点主方向分配的红外图像同源配准方法
CN111583110A (zh) * 2020-04-24 2020-08-25 华南理工大学 一种航拍图像的拼接方法
CN111798501A (zh) * 2020-07-02 2020-10-20 中航华东光电有限公司 融入颜色直方图与余弦相似性的优化图像配准方法
CN111833281A (zh) * 2020-06-08 2020-10-27 上海宇航系统工程研究所 面向可重复使用火箭回收的多视觉敏感器数据融合方法
CN112734816A (zh) * 2021-01-13 2021-04-30 西安电子科技大学 基于CSS-Delaunay的异源图像配准方法
CN112964189A (zh) * 2021-02-25 2021-06-15 西安理工大学 一种针对大视场平面内准静态受力变形的测量方法
CN114820737A (zh) * 2022-05-18 2022-07-29 浙江圣海亚诺信息技术有限责任公司 一种基于结构特征的遥感图像配准方法

Families Citing this family (146)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101984463A (zh) 2010-11-02 2011-03-09 中兴通讯股份有限公司 全景图合成方法及装置
US9147260B2 (en) * 2010-12-20 2015-09-29 International Business Machines Corporation Detection and tracking of moving objects
JP6244299B2 (ja) * 2011-05-17 2017-12-06 ベルス・メステヒニーク・ゲーエムベーハー 画像を生成し評価するための方法
EP2715449B1 (en) * 2011-05-31 2016-11-09 Nokia Technologies Oy Methods, apparatuses and computer program products for generating panoramic images using depth map data
JP5754312B2 (ja) * 2011-09-08 2015-07-29 カシオ計算機株式会社 画像処理装置及び画像処理方法、並びにプログラム
CN102547295B (zh) * 2012-02-22 2014-07-30 上海大学 一种图像数据无损压缩的编码方法
JP5970970B2 (ja) * 2012-06-13 2016-08-17 富士通株式会社 画像処理装置、方法及びプログラム
WO2014015889A1 (en) 2012-07-23 2014-01-30 Metaio Gmbh Method of providing image feature descriptors
CN102903085B (zh) * 2012-09-25 2015-09-09 福州大学 基于角点匹配的快速图像拼接方法
CN104272344B (zh) * 2012-10-24 2017-07-14 株式会社摩如富 图像处理装置以及图像处理方法
CN103795910B (zh) * 2012-10-30 2017-11-03 联想(北京)有限公司 一种采集图像的方法及装置
EP2993884B1 (en) * 2013-04-30 2021-07-07 Sony Corporation Image processing device, image processing method and program
CN104166972A (zh) * 2013-05-17 2014-11-26 中兴通讯股份有限公司 一种终端及其实现图像处理的方法
CN104168414A (zh) * 2013-05-17 2014-11-26 光道视觉科技股份有限公司 拍摄并拼接物件影像的方法
US9491360B2 (en) 2013-06-06 2016-11-08 Apple Inc. Reference frame selection for still image stabilization
US9384552B2 (en) * 2013-06-06 2016-07-05 Apple Inc. Image registration methods for still image stabilization
CN103390275B (zh) * 2013-07-19 2016-03-30 香港应用科技研究院有限公司 动态图像拼接的方法
CN103411587B (zh) * 2013-08-14 2015-08-19 史云 定位定姿方法及系统
CN103473565B (zh) * 2013-08-23 2017-04-26 华为技术有限公司 一种图像匹配方法和装置
US20150071547A1 (en) 2013-09-09 2015-03-12 Apple Inc. Automated Selection Of Keeper Images From A Burst Photo Captured Set
US10198533B2 (en) * 2013-10-22 2019-02-05 Hexagon Technology Center Gmbh Registration of multiple laser scans
CN103679636B (zh) * 2013-12-23 2016-08-31 江苏物联网研究发展中心 基于点、线双重特征的快速图像拼接方法
CN103745449B (zh) * 2013-12-24 2017-01-18 南京理工大学 一种搜跟系统中航拍视频的快速自动拼接技术
CN104881860B (zh) * 2014-02-28 2019-01-08 国际商业机器公司 基于照片进行定位的方法和装置
CN103942800B (zh) * 2014-04-28 2017-05-24 北京智谷睿拓技术服务有限公司 图像处理方法及图像处理装置
CN104125372B (zh) * 2014-07-29 2017-05-10 北京机械设备研究所 一种目标光电搜索探测方法
US10217185B1 (en) * 2014-08-08 2019-02-26 Amazon Technologies, Inc. Customizing client experiences within a media universe
US10332311B2 (en) * 2014-09-29 2019-06-25 Amazon Technologies, Inc. Virtual world generation engine
CN105678719A (zh) * 2014-11-20 2016-06-15 深圳英飞拓科技股份有限公司 一种全景拼接接缝处平滑方法及装置
CN105678720A (zh) * 2014-11-20 2016-06-15 深圳英飞拓科技股份有限公司 一种全景拼接判断图像匹配方法及装置
CN105608667A (zh) * 2014-11-20 2016-05-25 深圳英飞拓科技股份有限公司 一种全景拼接的方法及装置
CN105678721A (zh) * 2014-11-20 2016-06-15 深圳英飞拓科技股份有限公司 一种全景拼接图像接缝处平滑的方法及装置
CN104717465B (zh) * 2014-12-23 2023-10-03 北京亿羽舜海科技有限公司 多个ip摄像头的广角视频监控设备及视频监控方法
TWI552600B (zh) * 2014-12-25 2016-10-01 晶睿通訊股份有限公司 用於接圖的影像校正方法及具有影像校正功能的相關攝影機與影像處理系統
CN104574339A (zh) * 2015-02-09 2015-04-29 上海安威士科技股份有限公司 一种用于视频监控的多尺度柱面投影全景图像生成方法
CN104700359A (zh) * 2015-03-20 2015-06-10 南京大学 像平面不同极轴方向图像序列进行超分辨率重建的方法
CN104864966A (zh) * 2015-04-03 2015-08-26 燕山大学 一种显微热成像方法
CN104748696B (zh) * 2015-04-13 2017-10-20 西安交通大学 一种大倾角机翼全场变形测量方法
CN105046647B (zh) * 2015-06-19 2017-12-05 江苏新通达电子科技股份有限公司 全液晶仪表360°全景车用监控系统及其工作方法
CN105139445B (zh) * 2015-08-03 2018-02-13 百度在线网络技术(北京)有限公司 场景重建方法及装置
CN105205781B (zh) * 2015-08-24 2018-02-02 电子科技大学 输电线路航拍图像拼接方法
US9846808B2 (en) * 2015-12-31 2017-12-19 Adaptive Computation, Llc Image integration search based on human visual pathway model
CN105719239A (zh) * 2016-01-21 2016-06-29 科盾科技股份有限公司 一种用于图像拼接的方法及装置
CN105681719A (zh) * 2016-02-17 2016-06-15 北京金迈捷科技有限公司 一种利用时域数据融合技术获取图像和视频的方法
CN107094230A (zh) * 2016-02-17 2017-08-25 北京金迈捷科技有限公司 一种利用多空域数据融合技术获取图像和视频的方法
GB2551426B (en) * 2016-04-18 2021-12-29 Avago Tech Int Sales Pte Lid Hardware optimisation for generating 360° images
CN105931185A (zh) * 2016-04-20 2016-09-07 中国矿业大学 一种多视角图像自动拼接方法
CN105957009B (zh) * 2016-05-06 2019-05-07 安徽伟合电子科技有限公司 一种基于插值过渡的图像拼接方法
CN105976325A (zh) * 2016-06-29 2016-09-28 上海小蚁科技有限公司 用于调整多个图像的明亮度的方法
US10580135B2 (en) * 2016-07-14 2020-03-03 Shanghai United Imaging Healthcare Co., Ltd. System and method for splicing images
CN107146195B (zh) * 2016-07-27 2021-05-04 深圳市量子视觉科技有限公司 球面图像拼接方法和装置
CN106339753A (zh) * 2016-08-17 2017-01-18 中国科学技术大学 一种有效提升卷积神经网络稳健性的方法
US10085006B2 (en) * 2016-09-08 2018-09-25 Samsung Electronics Co., Ltd. Three hundred sixty degree video stitching
CN107005703A (zh) * 2016-09-09 2017-08-01 深圳市大疆创新科技有限公司 图像编码方法及系统
CN107920252B (zh) * 2016-10-11 2021-11-12 阿里巴巴集团控股有限公司 一种全景视频数据处理方法、装置及系统
CN106504194B (zh) * 2016-11-03 2019-06-21 重庆邮电大学 一种基于最佳拼接平面和局部特征的图像拼接方法
CN106770319B (zh) * 2016-12-08 2019-10-11 刘泉 一种基于表面反射和成像特性的桔皮效应检测方法和装置
CN106803073B (zh) * 2017-01-10 2020-05-05 江苏信息职业技术学院 基于立体视觉目标的辅助驾驶系统及方法
CN107067368B (zh) * 2017-01-20 2019-11-26 武汉大学 基于影像变形的街景影像拼接方法及系统
CN108496357B (zh) * 2017-04-11 2020-11-24 深圳市柔宇科技有限公司 图片处理方法及装置
CN107240070A (zh) * 2017-06-08 2017-10-10 广东容祺智能科技有限公司 一种基于应急处理的无人机图像拼接系统及方法
CN107087114B (zh) * 2017-06-29 2020-08-18 江西裕丰智能农业科技有限公司 一种拍摄的方法及装置
CN107341839A (zh) * 2017-07-07 2017-11-10 成都东软学院 一种证件图像处理方法、装置及设备
CN109427040B (zh) * 2017-08-22 2023-10-10 富联国基(上海)电子有限公司 图像处理装置及方法
CN107705246B (zh) * 2017-10-16 2019-08-16 苏州微景医学科技有限公司 图像配准方法和图像拼接方法及装置
CN108230246A (zh) * 2017-12-28 2018-06-29 江苏集萃智能制造技术研究所有限公司 一种飞机蒙皮检测图像的拼接方法
CN108305218B (zh) * 2017-12-29 2022-09-06 浙江水科文化集团有限公司 全景图像处理方法、终端及计算机可读存储介质
CN109995993A (zh) * 2018-01-02 2019-07-09 广州亿航智能技术有限公司 飞行器及其拍摄控制方法、装置及终端系统
CN110012209B (zh) * 2018-01-05 2020-08-14 Oppo广东移动通信有限公司 全景图像生成方法、装置、存储介质及电子设备
CN108460724B (zh) * 2018-02-05 2021-10-22 湖北工业大学 基于马氏距离判别的自适应图像融合方法和系统
CN108509870B (zh) * 2018-03-14 2019-07-12 安徽工大信息技术有限公司 一种基于图像匹配的中华绒螯蟹唯一性识别方法
CN108804499B (zh) * 2018-04-03 2022-04-29 南昌奇眸科技有限公司 一种商标图像检索方法
CN108845998B (zh) * 2018-04-03 2022-04-29 南昌奇眸科技有限公司 一种商标图像检索匹配方法
CN108805799B (zh) * 2018-04-20 2021-04-23 平安科技(深圳)有限公司 全景图像合成装置、方法及计算机可读存储介质
US10587821B2 (en) * 2018-05-17 2020-03-10 Lockheed Martin Corporation High speed image registration system and methods of use
CN108921776A (zh) * 2018-05-31 2018-11-30 深圳市易飞方达科技有限公司 一种基于无人机的图像拼接方法及装置
CN108846861B (zh) * 2018-06-12 2020-12-29 广州视源电子科技股份有限公司 图像单应矩阵计算方法、装置、移动终端及存储介质
CN109146778A (zh) * 2018-07-02 2019-01-04 广西电网有限责任公司北海供电局 用于工件尺寸测量的图像拼接方法
CN109064397B (zh) * 2018-07-04 2023-08-01 广州希脉创新科技有限公司 一种基于摄像耳机的图像拼接方法及系统
CN108833874B (zh) * 2018-07-04 2020-11-03 长安大学 一种用于行车记录仪的全景图像色彩校正方法
CN110866863A (zh) * 2018-08-27 2020-03-06 天津理工大学 汽车a柱透视算法
CN109348140B (zh) * 2018-10-12 2021-01-15 西安理工大学 一种监控场景下实时视频的拼接方法
CN109376744A (zh) * 2018-10-17 2019-02-22 中国矿业大学 一种surf和orb相结合的图像特征匹配方法及装置
CN113272855A (zh) * 2018-11-06 2021-08-17 菲力尔商业系统公司 用于重叠多图像应用的响应归一化
CN109598675B (zh) * 2018-11-13 2023-03-10 北京交通大学 多重复纹理图像的拼接方法
CN109767388B (zh) * 2018-12-28 2023-03-24 西安电子科技大学 基于超像素提升图像拼接质量的方法、移动终端、相机
CN109788195B (zh) * 2019-01-04 2021-04-16 Oppo广东移动通信有限公司 电子设备和移动平台
CN109660731B (zh) * 2019-01-04 2021-04-23 Oppo广东移动通信有限公司 电子设备和移动平台
CN109660733B (zh) * 2019-01-04 2021-04-16 Oppo广东移动通信有限公司 电子设备和移动平台
CN109587304B (zh) * 2019-01-04 2021-04-16 Oppo广东移动通信有限公司 电子设备和移动平台
CN109618108B (zh) * 2019-01-07 2021-04-16 Oppo广东移动通信有限公司 电子设备和移动平台
CN109829502B (zh) * 2019-02-01 2023-02-07 辽宁工程技术大学 一种面向重复纹理及非刚性形变的像对高效稠密匹配方法
CN109934765B (zh) * 2019-03-05 2023-04-14 北京环境特性研究所 高速相机全景图像拼接方法
CN111951201B (zh) * 2019-05-16 2024-01-23 杭州海康威视数字技术股份有限公司 一种无人机航拍图像拼接方法、装置和存储介质
CN110264395B (zh) * 2019-05-20 2023-11-28 深圳市森国科科技股份有限公司 一种车载单目全景系统的镜头标定方法及相关装置
CN110188815B (zh) * 2019-05-24 2023-09-01 广州市百果园信息技术有限公司 一种特征点采样方法、装置、设备及存储介质
CN110599398A (zh) * 2019-06-26 2019-12-20 江苏理工学院 一种基于小波技术的在线图像拼接融合方法
CN110458873B (zh) * 2019-07-10 2023-07-04 天津大学 一种基于局部不变特征的多视角电力表计图像配准方法
CN110458757B (zh) * 2019-07-15 2023-03-31 中国计量大学 一种阈值自适应的特征点匹配图像拼接方法
CN110390649B (zh) * 2019-07-16 2023-03-24 西安石油大学 一种用于油气管道焊缝图像降噪的方法
CN110267101B (zh) * 2019-07-19 2021-11-09 西安因诺航空科技有限公司 一种基于快速三维拼图的无人机航拍视频自动抽帧方法
CN110430411B (zh) * 2019-08-08 2021-05-25 青岛一舍科技有限公司 一种全景视频的显示方法及装置
CN110561423B (zh) * 2019-08-16 2021-05-07 深圳优地科技有限公司 位姿变换的方法、机器人及存储介质
CN110599404A (zh) * 2019-09-24 2019-12-20 陕西晟思智能测控有限公司 一种电路板显微图像拼接方法、装置、信息数据处理终端
CN110941989A (zh) * 2019-10-18 2020-03-31 北京达佳互联信息技术有限公司 图像校验、视频校验方法、装置、设备及存储介质
CN110889432B (zh) * 2019-10-29 2022-07-29 北京迈格威科技有限公司 特征点匹配方法、装置、计算机设备和存储介质
CN112784851A (zh) * 2019-11-11 2021-05-11 珠海格力电器股份有限公司 阈值选取电路及方法、角点检测电路及方法
IL271518B2 (en) * 2019-12-17 2023-04-01 Elta Systems Ltd Radiometric corrections in the Mozika image
CN111091590B (zh) * 2019-12-18 2024-04-23 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN111222544B (zh) * 2019-12-22 2023-05-02 同济大学 一种卫星颤振对相机成像影响的地面模拟测试系统
CN111144349B (zh) * 2019-12-30 2023-02-24 中国电子科技集团公司信息科学研究院 一种室内视觉重定位方法及系统
CN111340833B (zh) * 2020-02-20 2023-05-09 西安汇智信息科技有限公司 最小二乘去干扰随机Hough变换的输电线提取方法
CN111383205B (zh) * 2020-03-11 2023-03-24 西安应用光学研究所 一种基于特征点和三维模型的图像融合定位方法
CN111428624B (zh) * 2020-03-20 2023-04-14 上海航天测控通信研究所 一种光学遥感图像在轨舰船目标检测方法
SG10202003292XA (en) * 2020-04-09 2021-11-29 Sensetime Int Pte Ltd Matching method and apparatus, electronic device, computer-readable storage medium, and computer program
CN111398295B (zh) * 2020-04-24 2021-09-14 上海御微半导体技术有限公司 一种缺陷检测装置及其方法
CN111583114B (zh) * 2020-04-30 2023-02-24 安徽工业大学 一种管道螺纹自动测量装置及测量方法
CN113689374B (zh) * 2020-05-18 2023-10-27 浙江大学 一种植物叶片表面粗糙度确定方法及系统
CN111709877B (zh) * 2020-05-22 2023-05-02 浙江四点灵机器人股份有限公司 一种针对工业检测的图像融合方法
CN111724425B (zh) * 2020-05-28 2023-11-10 交通运输部东海航海保障中心上海航标处 航标图拼接方法、装置及终端设备
CN111768447B (zh) * 2020-07-01 2024-03-01 合肥哈工慧拣智能科技有限公司 一种基于模板匹配的单目相机物体位姿估计方法及系统
CN112001246A (zh) * 2020-07-20 2020-11-27 中国南方电网有限责任公司超高压输电公司广州局 一种基于奇异值分解的局部放电类型识别方法及装置
TWI760813B (zh) 2020-08-10 2022-04-11 國立臺灣科技大學 地震監測系統及地震監測方法
CN112258437A (zh) * 2020-10-22 2021-01-22 广东电网有限责任公司 一种投影图像融合方法、装置、设备和存储介质
CN112434703A (zh) * 2020-10-25 2021-03-02 中国航空工业集团公司洛阳电光设备研究所 一种基于改进Gauss模型的实时Harris角点提取方法
CN112381711B (zh) * 2020-10-27 2022-07-19 深圳大学 光场图像重建模型训练及快速超分辨率重建方法
CN112184703B (zh) * 2020-10-27 2023-08-01 广东技术师范大学 基于时空回溯的玉米穗期无人机图像对齐方法与系统
CN112308987B (zh) * 2020-11-03 2024-02-02 豪威科技(武汉)有限公司 车载图像拼接方法、系统以及装置
CN112258395A (zh) * 2020-11-12 2021-01-22 珠海大横琴科技发展有限公司 一种无人机拍摄的影像拼接方法及装置
CN113034365B (zh) * 2021-03-19 2023-09-22 西安电子科技大学 一种基于超像素的多图拼接方法及系统
CN112837225B (zh) * 2021-04-15 2024-01-23 浙江卡易智慧医疗科技有限公司 一种立位全脊柱图像自动无缝拼接的方法及装置
CN113050264A (zh) * 2021-04-23 2021-06-29 南京甬宁科学仪器有限公司 一种显微镜的物镜自动识别系统
CN113313659B (zh) * 2021-04-25 2024-01-26 中国人民解放军火箭军工程大学 一种多机协同约束下高精度图像拼接方法
CN113643280B (zh) * 2021-08-30 2023-09-22 燕山大学 一种基于计算机视觉的板材分拣系统及方法
CN114399422B (zh) * 2021-12-02 2023-08-08 西安电子科技大学 一种基于局部信息和全局信息的遥感图像配准方法
CN114399423B (zh) * 2021-12-08 2024-03-19 西安电子科技大学 图像内容移除方法、系统、介质、设备及数据处理终端
CN114240758B (zh) * 2021-12-24 2022-08-05 柳州市侗天湖农业生态旅游投资有限责任公司 一种以四边形地块为参照物的山区茶园低空图像拼接方法
CN114463521B (zh) * 2022-01-07 2024-01-30 武汉大学 一种面向空地影像数据融合的建筑目标点云快速生成方法
CN114694063B (zh) * 2022-03-22 2024-04-02 西安交通大学 针对视频流特征点实时提取与选择的硬件实现方法及系统
CN114821114B (zh) * 2022-03-28 2024-04-30 南京业恒达智能系统有限公司 一种基于视觉系统的坡口切割机器人图像处理方法
CN114821467B (zh) * 2022-04-08 2023-06-20 苏州大学 基于高低空信息融合的人群计数方法和装置、存储介质
CN115661368B (zh) * 2022-12-14 2023-04-11 海纳云物联科技有限公司 一种图像匹配方法、装置、服务器及存储介质
CN115984335B (zh) * 2023-03-20 2023-06-23 华南农业大学 基于图像处理的获取雾滴特征参数方法
CN116170693B (zh) * 2023-04-25 2023-07-21 山西乐宸科技有限公司 一种安防监控系统控制方法、装置、电子设备及存储介质
CN116309562B (zh) * 2023-05-17 2023-08-18 江西萤火虫微电子科技有限公司 一种板卡缺陷识别方法及系统
CN116434072B (zh) * 2023-06-12 2023-08-18 山东省国土空间生态修复中心(山东省地质灾害防治技术指导中心、山东省土地储备中心) 基于多源数据的地质灾害早期识别方法、装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101276465A (zh) * 2008-04-17 2008-10-01 上海交通大学 广角图像自动拼接方法
CN101556692A (zh) * 2008-04-09 2009-10-14 西安盛泽电子有限公司 基于特征点邻域伪Zernike矩的图像拼接方法
CN101984463A (zh) * 2010-11-02 2011-03-09 中兴通讯股份有限公司 全景图合成方法及装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5982951A (en) * 1996-05-28 1999-11-09 Canon Kabushiki Kaisha Apparatus and method for combining a plurality of images
US6434265B1 (en) * 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
US6798923B1 (en) * 2000-02-04 2004-09-28 Industrial Technology Research Institute Apparatus and method for providing panoramic images
US7010152B2 (en) * 2002-01-22 2006-03-07 Canon Kabushiki Kaisha Radiographic image composition and use
US20050063608A1 (en) * 2003-09-24 2005-03-24 Ian Clarke System and method for creating a panorama image from a plurality of source images
JP2005141527A (ja) * 2003-11-07 2005-06-02 Sony Corp 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
US7813589B2 (en) * 2004-04-01 2010-10-12 Hewlett-Packard Development Company, L.P. System and method for blending images into a single image
WO2006131967A1 (ja) * 2005-06-08 2006-12-14 Fujitsu Limited 画像処理装置
CN100485720C (zh) * 2006-10-13 2009-05-06 浙江师范大学 一种基于序列静态图像的360°环视全景生成方法
JP2009134509A (ja) * 2007-11-30 2009-06-18 Hitachi Ltd モザイク画像生成装置及びモザイク画像生成方法
CN101394573B (zh) * 2008-10-30 2010-06-16 清华大学 一种基于特征匹配的全景图生成方法及系统
WO2010075726A1 (zh) * 2008-12-30 2010-07-08 华为终端有限公司 立体全景视频流生成方法、设备及视频会议方法和设备
RU2421814C2 (ru) * 2009-02-20 2011-06-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ формирования составного изображения
CN101859433B (zh) * 2009-04-10 2013-09-25 日电(中国)有限公司 图像拼接设备和方法
CN101951487B (zh) * 2010-08-19 2012-06-27 深圳大学 一种全景图像融合方法、系统及图像处理设备
CN102201115B (zh) * 2011-04-07 2013-12-11 湖南天幕智能科技有限公司 无人机航拍视频实时全景图拼接方法
CN102402855A (zh) * 2011-08-29 2012-04-04 深圳市蓝盾科技有限公司 用于智能交通的双摄像机实时全景视频融合方法及系统
KR101697512B1 (ko) * 2011-12-15 2017-01-19 한국전자통신연구원 영상 정합 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556692A (zh) * 2008-04-09 2009-10-14 西安盛泽电子有限公司 基于特征点邻域伪Zernike矩的图像拼接方法
CN101276465A (zh) * 2008-04-17 2008-10-01 上海交通大学 广角图像自动拼接方法
CN101984463A (zh) * 2010-11-02 2011-03-09 中兴通讯股份有限公司 全景图合成方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2637138A4 *

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106530214B (zh) * 2016-10-21 2023-11-17 微景天下(北京)科技有限公司 图像拼接系统和图像拼接方法
CN106530214A (zh) * 2016-10-21 2017-03-22 微景天下(北京)科技有限公司 图像拼接系统和图像拼接方法
CN109784353A (zh) * 2017-11-14 2019-05-21 北京三星通信技术研究有限公司 一种无向图匹配的方法、设备和存储介质
CN109003331A (zh) * 2018-06-13 2018-12-14 东莞时谛智能科技有限公司 一种图像重构方法
CN109285110A (zh) * 2018-09-13 2019-01-29 武汉大学 基于鲁棒匹配与变换的红外可见光图像配准方法及系统
CN109961399B (zh) * 2019-03-15 2022-12-06 西安电子科技大学 基于图像距离变换的最佳缝合线搜寻方法
CN109961399A (zh) * 2019-03-15 2019-07-02 西安电子科技大学 基于图像距离变换的最佳缝合线搜寻方法
CN110111248A (zh) * 2019-03-15 2019-08-09 西安电子科技大学 一种基于特征点的图像拼接方法、虚拟现实系统、照相机
CN110111248B (zh) * 2019-03-15 2023-03-24 西安电子科技大学 一种基于特征点的图像拼接方法、虚拟现实系统、照相机
CN109934860A (zh) * 2019-03-21 2019-06-25 大连海事大学 一种基于sift-flann与误匹配点剔除的图像配准方法
CN109934860B (zh) * 2019-03-21 2022-10-18 大连海事大学 一种基于sift-flann与误匹配点剔除的图像配准方法
CN110163173A (zh) * 2019-05-27 2019-08-23 大连海事大学 一种基于加权局部结构的脚印表达方法
CN110163173B (zh) * 2019-05-27 2022-10-25 大连海事大学 一种基于加权局部结构的脚印表达方法
CN110232598A (zh) * 2019-06-17 2019-09-13 河南蜗跑电子科技有限公司 一种基于运动app系统的用户定位卡券投放和拾取系统
CN110533765A (zh) * 2019-07-30 2019-12-03 西安理工大学 一种多次单应诱导的多平面结构物体的三维重建方法
CN110533765B (zh) * 2019-07-30 2022-11-25 西安理工大学 一种多次单应诱导的多平面结构物体的三维重建方法
CN110533652B (zh) * 2019-08-29 2022-12-06 西安汇智信息科技有限公司 基于旋转不变lbp-surf特征相似度的图像拼接评价方法
CN110533652A (zh) * 2019-08-29 2019-12-03 长安大学 基于旋转不变lbp-surf特征相似度的图像拼接评价方法
CN110599478B (zh) * 2019-09-16 2023-02-03 中山大学 一种图像区域复制粘贴篡改检测方法
CN110599478A (zh) * 2019-09-16 2019-12-20 中山大学 一种图像区域复制粘贴篡改检测方法
CN110704563A (zh) * 2019-09-27 2020-01-17 Oppo广东移动通信有限公司 地图融合方法及装置、设备、存储介质
CN110704563B (zh) * 2019-09-27 2022-06-28 Oppo广东移动通信有限公司 地图融合方法及装置、设备、存储介质
CN110689485A (zh) * 2019-10-14 2020-01-14 中国空气动力研究与发展中心超高速空气动力研究所 一种应用于大型压力容器红外无损检测的sift图像拼接方法
CN110689485B (zh) * 2019-10-14 2022-11-04 中国空气动力研究与发展中心超高速空气动力研究所 一种应用于大型压力容器红外无损检测的sift图像拼接方法
CN110717936B (zh) * 2019-10-15 2023-04-28 哈尔滨工业大学 一种基于相机姿态估计的图像拼接方法
CN110717936A (zh) * 2019-10-15 2020-01-21 哈尔滨工业大学 一种基于相机姿态估计的图像拼接方法
CN111144478A (zh) * 2019-12-25 2020-05-12 电子科技大学 一种穿帮镜头的自动检测方法
CN111144478B (zh) * 2019-12-25 2022-06-14 电子科技大学 一种穿帮镜头的自动检测方法
CN111311657B (zh) * 2020-03-12 2023-04-25 广东电网有限责任公司广州供电局 一种基于改进角点主方向分配的红外图像同源配准方法
CN111311657A (zh) * 2020-03-12 2020-06-19 广东电网有限责任公司广州供电局 一种基于改进角点主方向分配的红外图像同源配准方法
CN111583110A (zh) * 2020-04-24 2020-08-25 华南理工大学 一种航拍图像的拼接方法
CN111583110B (zh) * 2020-04-24 2023-05-23 华南理工大学 一种航拍图像的拼接方法
CN111833281A (zh) * 2020-06-08 2020-10-27 上海宇航系统工程研究所 面向可重复使用火箭回收的多视觉敏感器数据融合方法
CN111833281B (zh) * 2020-06-08 2024-04-09 上海宇航系统工程研究所 面向可重复使用火箭回收的多视觉敏感器数据融合方法
CN111798501B (zh) * 2020-07-02 2023-11-24 中航华东光电有限公司 融入颜色直方图与余弦相似性的优化图像配准方法
CN111798501A (zh) * 2020-07-02 2020-10-20 中航华东光电有限公司 融入颜色直方图与余弦相似性的优化图像配准方法
CN112734816A (zh) * 2021-01-13 2021-04-30 西安电子科技大学 基于CSS-Delaunay的异源图像配准方法
CN112734816B (zh) * 2021-01-13 2023-09-05 西安电子科技大学 基于CSS-Delaunay的异源图像配准方法
CN112964189B (zh) * 2021-02-25 2023-06-30 西安理工大学 一种针对大视场平面内准静态受力变形的测量方法
CN112964189A (zh) * 2021-02-25 2021-06-15 西安理工大学 一种针对大视场平面内准静态受力变形的测量方法
CN114820737A (zh) * 2022-05-18 2022-07-29 浙江圣海亚诺信息技术有限责任公司 一种基于结构特征的遥感图像配准方法
CN114820737B (zh) * 2022-05-18 2024-05-07 浙江圣海亚诺信息技术有限责任公司 一种基于结构特征的遥感图像配准方法

Also Published As

Publication number Publication date
US9224189B2 (en) 2015-12-29
CN101984463A (zh) 2011-03-09
EP2637138A1 (en) 2013-09-11
EP2637138A4 (en) 2014-05-28
US20130208997A1 (en) 2013-08-15

Similar Documents

Publication Publication Date Title
WO2012058902A1 (zh) 全景图合成方法及装置
WO2021115071A1 (zh) 单目内窥镜图像的三维重建方法、装置及终端设备
WO2014183385A1 (zh) 一种终端及其实现图像处理的方法
JP6336638B2 (ja) 信号間の変換を推定するための信号処理装置及び方法
US8493459B2 (en) Registration of distorted images
US8493460B2 (en) Registration of differently scaled images
US11568516B2 (en) Depth-based image stitching for handling parallax
JP5294343B2 (ja) 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置
Hedborg et al. Structure and motion estimation from rolling shutter video
WO2012068902A1 (zh) 提高文本图像清晰度的方法及系统
RU2631765C1 (ru) Способ и система исправления перспективных искажений в изображениях, занимающих двухстраничный разворот
JP2007041752A (ja) 画像処理装置
US20150170405A1 (en) High resolution free-view interpolation of planar structure
JP5210198B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム
JP2015148532A (ja) 距離計測装置、撮像装置、距離計測方法、およびプログラム
US11803978B2 (en) Generating composite image from multiple images captured for subject
CN111861888A (zh) 图像处理方法、装置、电子设备及存储介质
TWI496115B (zh) 移動攝影機之畫面穩定方法
WO2008102898A1 (ja) 画質改善処理装置、画質改善処理方法及び画質改善処理プログラム
CN111260574B (zh) 一种印章照片矫正的方法、终端及计算机可读存储介质
KR102135961B1 (ko) 영상 처리 장치 및 영상 처리 방법
JP2008287338A (ja) 画像処理装置
Tang et al. A rectification algorithm for distorted images from cone surface
CN107481275A (zh) 一种基于参考图像补偿的两步图像配准方法
EP4147193B1 (en) Acquiring a digital image of an image content

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11837430

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13882273

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011837430

Country of ref document: EP