WO2017006852A1 - 画像照合装置、画像照合方法、及びプログラム - Google Patents

画像照合装置、画像照合方法、及びプログラム Download PDF

Info

Publication number
WO2017006852A1
WO2017006852A1 PCT/JP2016/069609 JP2016069609W WO2017006852A1 WO 2017006852 A1 WO2017006852 A1 WO 2017006852A1 JP 2016069609 W JP2016069609 W JP 2016069609W WO 2017006852 A1 WO2017006852 A1 WO 2017006852A1
Authority
WO
WIPO (PCT)
Prior art keywords
pair
points
provisional
image
point
Prior art date
Application number
PCT/JP2016/069609
Other languages
English (en)
French (fr)
Inventor
小萌 武
柏野 邦夫
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to EP16821321.3A priority Critical patent/EP3301641B1/en
Priority to JP2017527421A priority patent/JP6435048B2/ja
Priority to US15/741,694 priority patent/US10572766B2/en
Publication of WO2017006852A1 publication Critical patent/WO2017006852A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space

Definitions

  • the present invention relates to an image matching device, an image matching method, and a program, and more particularly, to an image matching device, an image matching method, and a program for obtaining similarity between images.
  • the image matching based on the local feature amount calculates a local feature amount from a large number of feature points extracted from two input images, compares the feature point of the first image with the feature point of the second image, and determines the local feature amount. This is a technique for determining whether or not the degree of similarity is high.
  • the image collation makes it possible to realize the same image search, similar image search, or image recognition.
  • a pair of the first image and a second image obtained by copying an object different from the object shown in the first image is referred to as an unrelated image.
  • a pair of the first image and the second image obtained by copying the same object as the object shown in the first image is referred to as a related image.
  • two unrelated images include a repetitive pattern such as a checkered pattern or a fine texture in both images, there are many feature points that mistakenly match between the images. For this reason, unrelated images are often mistaken as related images.
  • the spatial relationship is a proximity relationship or a relative positional relationship between feature points.
  • a pair of feature points having a high local feature amount similarity between two images is referred to as a provisional corresponding point.
  • the geometric transformation is a linear transformation parameter, a displacement vector, or the like calculated from the geometric characteristics of the two feature points constituting the provisional corresponding point.
  • the temporary corresponding points those satisfying the constraints such as the spatial relationship and the geometric transformation are referred to as positive corresponding points.
  • the image matching apparatus disclosed in Non-Patent Documents 1 and 2 is a process for searching for a neighborhood in the position coordinate space of a feature point in an input image, and a process for calculating a relative position vector from a pair of feature points that are neighbors. And the process of quantizing the relative position vector, the process of quantizing the local feature quantity of the feature point, the process of creating the transposed index based on the result of the quantization, and identifying the pair of positive corresponding points by the transposed index And processing for calculating the similarity between images based on a pair of positive corresponding points.
  • the image collation apparatus disclosed in Non-Patent Document 3 includes a process for calculating a geometric transformation parameter representing enlargement / reduction, rotation, and displacement from a provisional corresponding point between input images, a process for quantizing the geometric transformation parameter, The process includes a process for creating a voting histogram based on the result of the conversion, and a process for calculating the similarity between images based on the voting histogram.
  • the image collation devices disclosed in Non-Patent Documents 1 and 2 focus on feature point pairs in the input image, and include two types of spaces, “proximity relationship consistency” and “relative positional relationship consistency”. Identify pairs of positive corresponding points using relationship constraints.
  • the image collation apparatus disclosed in Non-Patent Document 3 pays attention to provisional corresponding points between input images, and “enlargement / reduction magnification consistency”, “rotation angle consistency”, “displacement vector consistency”, The provisional corresponding points that are erroneously matched are removed using a total of three types of geometric transformation constraints. In the following, spatial constraints and geometric transformation constraints are collectively referred to as spatial constraints.
  • the first problem to be solved by the present invention is how to improve the discriminating power to a provisional corresponding point that is erroneously matched while avoiding an omission of searching for a corresponding point.
  • the image matching apparatus disclosed in Non-Patent Documents 1 and 2 pays attention to a feature point pair in the input image before extracting provisional corresponding points, and calculates a spatially related feature amount from the pair. .
  • the provisional corresponding points have not yet been extracted, so that it is impossible to calculate the geometric transformation parameters. It is therefore impossible to add geometric transformation constraints to this technique.
  • the image matching device disclosed in Non-Patent Document 3 calculates a geometric transformation parameter by focusing on the temporary corresponding points between the input images after extracting the temporary corresponding points.
  • each single provisional corresponding point is voted for a parameter section corresponding to the geometric transformation parameter to create a voting histogram.
  • This voting can be made only for each single provisional corresponding point, whereas the spatial feature quantity cannot be calculated unless there are at least two corresponding points. Therefore, it is impossible to add spatial constraints to this technology.
  • Non-Patent Documents 1 and 2 that uses spatial relation constraints calculates the feature amount and creates an index for a pair of feature points in the input image, and therefore uses the memory required for image matching.
  • the amount and the size of the search space are proportional to the number of feature point pairs. For example, if there are 1000 images in the database, the memory usage is about 8 GB, and if there are 1 million images, it is about 8 TB.
  • the second problem to be solved by the present invention is how to reduce the memory usage and the search space (search time) without sacrificing the accuracy of the search.
  • the present invention has been made in order to solve the above-described problem, and even when the number of coincidence of feature points between unrelated images is high and the geometric transformation between related images is large, the images are collated accurately and at high speed.
  • An object of the present invention is to provide an image collation apparatus, method, and program.
  • a provisional corresponding point extracting unit that extracts a plurality of provisional corresponding points that are pairs of feature points corresponding between pairs of input images, and the temporary corresponding point extracting unit that is extracted by the provisional corresponding point extracting unit For each of the pair of provisional correspondence points, which are combinations of provisional correspondence points, the constraint condition regarding the consistency of the enlargement / reduction ratio and the constraint condition regarding the consistency of the rotation angle based on the comparison or difference of the geometric transformation parameters of the provisional correspondence points And a space verification unit that evaluates the similarity between the pair of input images based on all of the constraints regarding the consistency of the relative positional relationship.
  • the feature points in the vicinity of k of each of the feature points in the pair of provisional corresponding points from each of the pair of provisional corresponding points are extracted.
  • the spatial verification unit is configured to extract the provisional correspondence that is the neighborhood extracted by the K-neighbor search unit. The similarity between the input image pairs is evaluated based on all of the constraints for each of the point pairs.
  • the constraint condition regarding the consistency of the enlargement / reduction ratio is a first and second pair that forms a pair of the provisional corresponding points.
  • the scale of the feature point in the image is larger or smaller than the scale of the feature point of either the first or second provisional corresponding point, or the first point corresponding to the first provisional correspondence point.
  • the scale of the feature points of either the first or second input image is It is greater in.
  • the constraint condition regarding the consistency of the rotation angle is a first pair of the provisional corresponding points.
  • the first and second input images that form a pair of the feature point and the input image at the second provisional corresponding point, and the characteristic angle of the first provisional correspondence point in the first input image and the first
  • a first rotation angle that is a difference from a characteristic angle of the first provisional corresponding point in the second input image, a characteristic angle of the second provisional corresponding point in the first input image, and the second input.
  • the absolute value of the difference from the second rotation angle that is the difference from the characteristic angle of the second provisional corresponding point in the image is smaller than a predetermined first threshold value.
  • the constraint condition regarding the consistency of the relative positional relationship is a pair of the provisional corresponding points.
  • the feature points of the first provisional corresponding points in the first input image with respect to the first and second input images forming a pair of the input points and the feature points of the first and second provisional corresponding points, respectively.
  • the maximum value of the length of the difference vector which is the difference between the provisional corresponding point and the second relative position vector indicating the difference in position from the feature point, is smaller than a predetermined second threshold; Convert the second relative position vector to polar coordinates
  • Each of the radius vectors is greater than a predetermined third threshold, and the absolute value of the difference between the declination angles obtained by converting the first and second relative position vectors into polar coordinates is predetermined. It is smaller than the threshold value of 4.
  • the spatial verification unit includes a restriction condition regarding the consistency of the enlargement / reduction ratio, the rotation angle The degree of similarity between the pair of input images is evaluated based on the pair of provisional corresponding points satisfying all of the constraint condition regarding consistency and the constraint condition regarding consistency of the relative positional relationship.
  • an image matching method in an image matching apparatus including a provisional corresponding point extraction unit and a space verification unit, wherein the provisional corresponding point extraction unit corresponds between input image pairs.
  • a plurality of provisional corresponding points that are pairs of the provisional correspondence points, and for each of the pair of provisional correspondence points that are combinations of the provisional correspondence points extracted by the provisional corresponding point extraction unit by the space verification unit, the provisional correspondence points Based on the comparison or difference of the geometric transformation parameters of the points, the constraint on the consistency of the enlargement / reduction ratio, the constraint on the consistency of the rotation angle, and the constraint on the consistency of the relative positional relationship are used.
  • the image matching device further includes a K neighborhood search unit, and each of the pair of provisional corresponding points by the K neighborhood search unit. From the pair of provisional corresponding points, the pair of provisional corresponding points that are neighbors is extracted based on the set of feature points in the vicinity of k of the feature points in the pair of provisional corresponding points. The degree of similarity between the pair of input images is evaluated based on all of the constraint conditions for each of the pair of provisional corresponding points that are extracted by the unit.
  • the constraint condition relating to the consistency of the enlargement / reduction ratio is a first and a second that form a pair of the provisional corresponding points.
  • the scale of the feature point in the image is larger or smaller than the scale of the feature point of either the first or second provisional corresponding point, or the first point corresponding to the first provisional correspondence point.
  • the scale of the feature points of either the first or second input image is It is greater in.
  • the constraint condition regarding the consistency of the rotation angle is a first pair of the provisional corresponding points.
  • the first and second input images that form a pair of the feature point and the input image at the second provisional corresponding point, and the characteristic angle of the first provisional correspondence point in the first input image and the first
  • a first rotation angle that is a difference from a characteristic angle of the first provisional corresponding point in the second input image, a characteristic angle of the second provisional corresponding point in the first input image, and the second input.
  • the absolute value of the difference from the second rotation angle that is the difference from the characteristic angle of the second provisional corresponding point in the image is smaller than a predetermined first threshold value.
  • An eleventh embodiment of the present invention is the image collating method according to any one of the seventh to tenth embodiments, wherein the constraint condition regarding the consistency of the relative positional relationship is a pair of the provisional corresponding points.
  • the feature points of the first provisional corresponding points in the first input image with respect to the first and second input images forming a pair of the input points and the feature points of the first and second provisional corresponding points, respectively.
  • the maximum value of the length of the difference vector which is the difference between the provisional corresponding point and the second relative position vector indicating the difference in position from the feature point, is smaller than a predetermined second threshold; Convert second relative position vector to polar coordinates And the absolute value of the difference between the declinations obtained by converting the first and second relative position vectors into polar coordinates is determined in advance. Less than the fourth threshold.
  • the spatial verification unit includes a constraint condition regarding the consistency of the enlargement / reduction ratio, the rotation angle The degree of similarity between the pair of input images is evaluated based on the pair of provisional corresponding points satisfying all of the constraint condition regarding consistency and the constraint condition regarding consistency of the relative positional relationship.
  • the program according to the present invention is a program for causing a computer to function as each unit constituting the image collating apparatus according to any one of the first to sixth embodiments.
  • the constraint condition regarding the consistency of the enlargement / reduction ratio based on the comparison or difference of the geometric conversion parameters of the provisional corresponding points Judgment is made whether or not all the constraint conditions regarding the consistency of the rotation angle and the constraint conditions regarding the consistency of the relative positional relationship are satisfied, and the number of pairs of provisional corresponding points determined to satisfy all the constraint conditions is input.
  • provisional corresponding points are first extracted from the feature points of the input image. After that, paying attention to the pair of provisional corresponding points, all the constraint conditions consisting of three types of spatial constraints, “enlargement / reduction ratio consistency”, “rotation angle consistency”, “relative positional relationship consistency” A pair of provisional corresponding points between images that is satisfied is determined as a pair of positive corresponding points. Also, in order to use geometric transformation constraints, instead of voting processing (Hough transformation) depending on each single provisional correspondence point, focus on a pair of provisional correspondence points, and based on a difference or comparison of geometric transformation parameters. Design constraints.
  • a pair of provisional corresponding points that are adjacent to each other is searched using the k feature points closest to the position coordinate space from the feature points.
  • a pair of provisional corresponding points satisfying the constraint condition is determined as a pair of positive corresponding points.
  • provisional corresponding points are identified first based on "similarity of local feature quantities”. Next, it is verified whether a pair of provisional corresponding points satisfies the condition of the space constraint.
  • the provisional corresponding points when extracting the provisional corresponding points, it is only necessary to incorporate the feature point data into the transposed index, and it is not necessary to incorporate the feature point pair data into the index. Since the number of feature points is much smaller than that of feature point pairs, the memory usage required for image matching is reduced. On the other hand, instead of targeting all provisional corresponding point pairs, only the provisional corresponding point pairs that are neighboring in the position coordinate space are targeted, thereby reducing the number of times of space constraint condition verification. The search space is reduced, the time required for the search is shortened, and the second problem is solved.
  • an image collation apparatus 100 includes a CPU, a RAM, and a ROM that stores a program for executing an image collation processing routine to be described later and various data. Can be configured with a computer.
  • the image collating apparatus 100 includes an input unit 10, a calculation unit 20, and an output unit 50 as shown in FIG.
  • the computing unit 20 uses a provisional corresponding point extraction unit 22 that extracts provisional corresponding points from a pair of input images, and k corresponding points of feature points in the position coordinate space with respect to the provisional corresponding points, and provisional corresponding points that are adjacent to each other.
  • the K neighborhood searching unit 24 that searches for a pair and a space verification unit 26 that identifies a pair of positive corresponding points from a pair of provisional corresponding points that are adjacent to each other.
  • the image matching apparatus 100 receives two input images and outputs the number of pairs of positive corresponding points as the similarity between the images.
  • FIG. 2 is a block diagram illustrating an example of the configuration of the provisional corresponding point extraction unit 22.
  • the provisional corresponding point extraction unit 22 extracts feature points from the input image, calculates feature point sets 30 and 32, and a local feature amount calculation unit 34 calculates a local feature amount set from the feature point set.
  • 36 vector quantization units 38 and 40 for quantizing a local feature set into a set of visual words based on a visual word dictionary created in advance, and a set of visual words obtained from two input images
  • a visual word search unit 42 that searches for a pair of feature points in which the same visual word is designated as a provisional corresponding point set.
  • the provisional corresponding point extraction unit 22 receives two input images and a visual word dictionary created in advance, and outputs a set of provisional corresponding points.
  • Feature point extraction unit 30 extracts feature points from the first image of the pair of input images and outputs a set of feature points.
  • “Hessian”, “Affine”, “Region”, and “Detector” disclosed in Non-Patent Document 4 are used.
  • Non-Patent Document 4 Krystian Mikolajczyk and Cordelia Schmid. Scale & affine invariant interest point detectors. International Journal of Computer Vision, Vol. 60, No. 1, pp. 63-86, 2004.
  • the feature point extraction unit 30 receives the first image of the input image pair as an input and outputs a set of feature points.
  • Each feature point is expressed as a scale, a characteristic angle, and two-dimensional position coordinates.
  • the scale is ⁇ (p)
  • the characteristic angle is ⁇ (p)
  • the feature point extraction unit 32 receives the second image of the pair of input images, extracts the feature points, and outputs a set of feature points in the same manner as the feature point extraction unit 30.
  • the local feature amount calculation unit 34 receives the set of feature points output from the feature point extraction unit 30, calculates the local feature amount from each feature point included in the set of feature points, and outputs the set of local feature amounts To do.
  • the local feature amount is calculated using “Scale-Invariant” Feature “Transform” (SIFT) disclosed in Non-Patent Document 5.
  • SIFT Scale-Invariant Feature “Transform”
  • Each local feature is expressed as a 128-dimensional vector.
  • Non-Patent Document 5 David G. Lowe. Distinctive image features from scale invariant keypoints. International Journal of Computer Vision, Vol. 60, No. 2, pp. 91-110, 2004.
  • the local feature amount calculation unit 36 receives the set of feature points output by the feature point extraction unit 32 and outputs a set of local feature amounts in the same manner as the local feature amount calculation unit 34.
  • the vector quantization unit 38 quantizes each local feature amount included in the set of local feature values output by the local feature value calculation unit 34 into a visual word based on a visual word dictionary created in advance.
  • the visual word dictionary is an array (set) that stores cluster IDs (visual words) and average vectors obtained by clustering local feature amounts calculated from a large number of images.
  • a method for creating a visual word dictionary about 5,000 images are prepared in advance, and local feature amounts calculated from the images are clustered by an approximate k-average method (see Non-Patent Document 6).
  • Non-patent literature 6 James Philbin, Ondrej Chum, Michael Isard, Josef Sivic, and AndrewvicZisserman. Object retrieval with large vocabularies and fast spatial matching. In CVPR, 2007.
  • the vector quantization unit 38 receives the set of local feature values output from the local feature value calculation unit 34 and the visual word dictionary, and calculates the local features calculated from the first image of the pair of input images. The quantity is compared with the average vector of the clusters in the visual word dictionary, the ID of the cluster with the shortest Euclidean distance between the vectors is designated as a corresponding feature point as a visual word, and a set of visual words is output.
  • the approximate nearest neighbor search method “Randomized” KD-tree ”disclosed in Non-Patent Document 7 is used as a method for searching for the ID of the cluster having the shortest Euclidean distance.
  • Non-Patent Document 7 Marius Muja and David G. Lowe. Fast approximate nearest neighbors with automatic algorithm configuration. In VISAPP, pp. 331-340, 2009.
  • Each visual word is represented as an integer. Specifically, at each feature point p ⁇ P, the designated visual word is represented by u (p).
  • the vector quantization unit 40 receives the set of local feature values output from the local feature value calculation unit 36 and the visual word dictionary, and outputs a set of visual words in the same manner as the vector quantization unit 38.
  • the visual word search unit 42 inputs a set of visual words obtained from two input images, and a pair of feature points in which the same visual word is designated from the set of visual words obtained from the two input images. Search for (provisional corresponding points) and output a set of provisional corresponding points.
  • provisional corresponding points In this embodiment, assuming a large-scale image database search, a transposed index is created, and a search method based on it is used.
  • Each provisional corresponding point is represented as one visual word, a scale and characteristic angle of two feature points constituting the provisional corresponding point, and a two-dimensional position coordinate.
  • a set of feature points extracted from two input images is represented by P and Q
  • a set of provisional corresponding points is represented by C
  • C ⁇ P ⁇ Q is obtained by equation (1).
  • P ⁇ Q is a Cartesian product set of P and Q.
  • the K neighborhood search unit 24 receives a set of provisional corresponding points as an input, searches for a provisional correspondence point pair of neighboring correspondence points using k neighborhoods of feature points in the position coordinate space, Output a set of pairs of provisional corresponding points.
  • the approximate nearest neighbor search method Randomized KD-tree disclosed in Non-Patent Document 7 is used.
  • the pair of temporary corresponding points is (ca; cb)
  • the set of k points near the feature points is N k ( ).
  • the spatial constraint h N of “proximity relationship consistency” is expressed as Expression (3). [•] is Iverson's notation, which is 1 if the condition in square brackets is true and 0 if false. “ ⁇ ” represents a logical product.
  • a set G N ⁇ C 2 of pairs of provisional corresponding points that are adjacent to each other is obtained by Expression (4).
  • C 2 C ⁇ C is a Cartesian product set of C and C.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the space verification unit 26.
  • the space verification unit 26 includes an enlargement / reduction magnification verification unit 44, a rotation angle verification unit 46, and a relative positional relationship verification unit 48. The order of the verification units can be arbitrarily changed.
  • the space verification unit 26 receives as input a set of provisional corresponding point pairs that are output from the K neighborhood searching unit 24 and uses the number of pairs of positive corresponding points as a similarity between two input images. Output.
  • the enlargement / reduction ratio verification unit 44 verifies whether or not the pair of provisional corresponding points satisfies the space constraint condition of “consistency of enlargement / reduction ratio” based on the comparison of the geometric conversion parameters of the provisional corresponding points. In the present embodiment, it is verified whether or not the scale relationship of the feature points in the input image is equal in the pair of provisional corresponding points, and whether the scale relationship of the feature points between the input images is equal. To do. Specifically, the constraint condition h ′ ⁇ based on the magnitude relationship of the scales of the feature points in the input image is Equation (5), and the constraint condition h ′′ ⁇ based on the magnitude relationship of the scale of the feature points between the input images is 6).
  • the rotation angle verification unit 46 verifies whether or not the pair of provisional corresponding points satisfies the space constraint condition of “rotation angle consistency” based on the difference between the geometric conversion parameters of the provisional corresponding points.
  • the provisional in the corresponding point pairs the absolute value of the difference of the rotation angle calculated from the provisional corresponding point of two points to verify the threshold epsilon theta is less than or not, which is set in advance.
  • the relative positional relationship verification unit 48 verifies whether or not the pair of provisional corresponding points satisfies the spatial constraint condition of “consistency of relative positional relationships” based on the comparison or difference of the geometric transformation parameters of the provisional corresponding points.
  • a combination of a total of two types of constraint conditions including a first constraint condition and a second constraint condition described later is used as a spatial constraint of “relative positional relationship consistency” in the provisional corresponding point pair.
  • a relative position vector between feature points in two input images is calculated, and whether or not the maximum value of the difference vector length of the relative position vector is smaller than a preset threshold value ⁇ v. Verify that.
  • the feature point p a and p b of two points in the input image, the relative position vector from p a to p b is calculated by equation (9).
  • M (p) is a matrix representing the geometric characteristic of the feature point p, and is calculated by the equation (10).
  • the first constraint condition h ′ v is expressed as Expression (11).
  • 2 represents the Euclidean norm.
  • the relative position vector is converted into polar coordinates (radial radius and declination), and it is verified whether or not the magnitude relationship between the radial radius and the preset threshold value is equal. absolute value is verified whether the threshold epsilon alpha smaller than or not set in advance.
  • the radius vector of the relative position vector v is represented by ⁇ and the declination angle is represented by ⁇ .
  • the second constraint condition h ′′ v is expressed as Expression (12).
  • the space verification unit 26 receives a set of provisional corresponding point pairs that are output from the K-neighbor search unit 24 and inputs the number of pairs of positive corresponding points as two input images. Output as the similarity between.
  • a set ⁇ circumflex over (G) ⁇ of pairs of positive corresponding points is obtained by Expression (14).
  • the number of pairs of positive corresponding points is obtained by the number of elements of ⁇ G
  • step S100 a set of feature points of the first image of the input image pair is extracted.
  • step S102 a local feature amount is extracted for each feature point included in the set of feature points of the first image extracted in step S100, and a set of local feature amounts is output.
  • step S104 the set of feature points of the first image is quantized into a visual word for the set of feature points of the first image based on the visual word dictionary and the local feature values of the feature points extracted in step S102. .
  • step S106 a set of feature points of the second image in the input image pair is extracted.
  • step S108 a local feature amount is extracted for each feature point included in the set of feature points of the second image extracted in step S106, and a set of local feature amounts is output.
  • step S110 based on the visual word dictionary and the local feature amount of each feature point extracted in step S108, the set of local feature amounts is quantized into a visual word for the set of feature points of the second image. .
  • step S112 the visual word for each feature point included in the set of feature points of the first image obtained in step S104 and the set of feature points of the second image obtained in step S110.
  • a set of provisional corresponding points is extracted based on the visual word for each feature point included in.
  • step S114 based on the set of k neighborhoods obtained for each feature point from the set of provisional corresponding points extracted in step S112, a set of pairs of provisional correspondence points that are neighbors according to the above equation (3). To extract.
  • step S116 a provisional corresponding point pair is selected from the set of provisional corresponding point pairs extracted in step S114.
  • step S118 the provisional corresponding point pair selected in step S116 satisfies all of the constraint condition regarding the consistency of the enlargement / reduction ratio, the constraint condition regarding the consistency of the rotation angle, and the constraint condition regarding the consistency of the relative positional relationship. And whether it is a pair of correct corresponding points or a pair of erroneous corresponding points is determined.
  • step S120 it is determined whether or not the processing in step S118 has been executed for all provisional corresponding point pairs included in the set of provisional corresponding point pairs that are adjacent to each other. If there is a provisional corresponding point pair that has not executed the process of step S118, the process returns to step S116, and the provisional corresponding point pair is selected. On the other hand, when the process of step S118 is executed for all the temporary corresponding point pairs included in the set of temporary corresponding point pairs that are adjacent to each other, the number of pairs of the positive corresponding points is input in step S112. The similarity between the image pairs is output by the output unit 50, and the image matching processing routine ends.
  • step S118 is realized by the processing routine shown in FIG.
  • step S130 it is determined whether or not the provisional corresponding point pair selected in step S116 satisfies the constraint condition regarding the consistency of the enlargement / reduction ratio according to the equation (7). If the constraint condition regarding the consistency of the enlargement / reduction ratio is satisfied, the process proceeds to step S132. On the other hand, when the constraint condition regarding the consistency of the enlargement / reduction ratio is not satisfied, the process proceeds to step S138, and it is determined that the pair is an erroneous correspondence point.
  • Step S132 it is determined whether or not the provisional corresponding point pair selected in Step S116 satisfies the constraint condition regarding the consistency of the rotation angle according to the above equation (8).
  • the process proceeds to step S134.
  • the process proceeds to step S138, and it is determined that the pair of miscorresponding points.
  • step S134 it is determined whether or not the provisional corresponding point pair selected in step S116 satisfies the constraint condition regarding the consistency of the relative positional relationship according to the above equation (13).
  • the process proceeds to step S136, and it is determined that the pair is a positive corresponding point.
  • the process proceeds to step S138, and it is determined that the pair of miscorresponding points.
  • the image collating device According to the image collating device according to the embodiment of the present invention, even when the number of feature points matching between unrelated images is high and the geometric transformation between related images is large, the image can be accurately and quickly. Can be verified.
  • image matching is performed by first identifying provisional corresponding points based on "similarity of local features" and then verifying whether only the provisional corresponding point pairs satisfy the spatial constraints. In this case, the amount of memory required for this can be suppressed to a lower level.
  • search space can be made smaller.
  • a set of pairs of temporary corresponding points that are adjacent to each other is extracted, and it is determined whether or not all the constraint conditions are satisfied for each pair of temporary corresponding points that are adjacent to each other.
  • the present invention is not limited to this. Instead of extracting a set of provisional corresponding point pairs that are adjacent to each other, it may be determined whether or not all the constraint conditions are satisfied for each of all the provisional corresponding point pairs.
  • the present invention can also be applied to applications where it is indispensable to collate images accurately and quickly even when the number of matching feature points between unrelated images is high and the geometric transformation between related images is large.

Abstract

画像照合装置は、入力画像のペア間において対応する特徴点のペアである複数の暫定対応点を抽出する暫定対応点抽出部と、暫定対応点抽出部によって抽出された暫定対応点の組み合わせである暫定対応点のペアの各々について、暫定対応点の幾何変換パラメータの比較又は差分に基づく、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てに基づいて入力画像のペア間の類似度を評価する空間検証部と、を含む。

Description

画像照合装置、画像照合方法、及びプログラム
 本発明は、画像照合装置、画像照合方法、及びプログラムに係り、特に、画像間の類似度を求めるための画像照合装置、画像照合方法、及びプログラムに関する。
 本願は、2015年7月6日に、日本に出願された特願2015-135297号に基づき優先権を主張し、その内容をここに援用する。
 局所特徴量に基づく画像照合は、2枚の入力画像から抽出した多数の特徴点から局所特徴量を算出し、第1画像の特徴点と第2画像の特徴点とを比較し、局所特徴量の類似度が高いか否かを判定する技術である。画像照合によって、同一画像検索や類似画像検索、又は画像認識等の課題が実現可能となる。以下、第1画像と、第1画像に写っている物体と異なる物体を写した第2画像のペアを、非関連画像と呼ぶ。第1画像と、第1画像に写っている物体と同一の物体を写した第2画像のペアを、関連画像と呼ぶ。既存技術では、2枚の非関連画像に対して、市松模様のような繰り返しパターンや肌理の細かい模様等が両方の画像に含まれる場合、画像の間で誤って合致する特徴点が多く存在するため、非関連画像が関連画像であると誤認されることが多い。
 前記問題の影響を抑えるために、空間関係や幾何変換等の整合性を考慮した画像照合装置が発明されている。空間関係とは、特徴点の間の近接関係や相対位置関係等のことである。以下、2枚の画像の間において、局所特徴量の類似度が高い特徴点のペアを、暫定対応点と呼ぶ。幾何変換とは、暫定対応点を構成した2点の特徴点の幾何特性から算出した線形変換パラメータや変位ベクトル等のことである。以下、暫定対応点のうち、空間関係や幾何変換等の制約条件を満たすものを、正対応点と呼ぶ。
 非特許文献1、2に開示されている画像照合装置は、入力画像内の特徴点の位置座標空間における近傍を探索する処理と、近傍同士となる特徴点のペアから相対位置ベクトルを算出する処理と、相対位置ベクトルを量子化する処理と、特徴点の局所特徴量を量子化する処理と、量子化の結果に基づいて転置インデックスを作成する処理と、転置インデックスによって正対応点のペアを同定する処理と、正対応点のペアに基づいて画像間の類似度を算出する処理によって構成される。非特許文献3に開示されている画像照合装置は、入力画像間の暫定対応点から拡大縮小、回転、変位を表す幾何変換パラメータを算出する処理と、幾何変換パラメータを量子化する処理と、量子化の結果に基づいて投票ヒストグラムを作成する処理と、投票ヒストグラムに基づいて画像間の類似度を算出する処理によって構成されている。
Zhen Liu, Houqiang Li, Wengang Zhou, and Qi Tian. Embedding spatial context information into inverted file for large-scale image retrieval. In ACM Multimedia, pp.199-208, 2012. Xiaomeng Wu and Kunio Kashino. Image retrieval based on anisotropic scaling and shearing invariant geometric coherence. In ICPR, pp. 3951-3956, 2014. Yannis S. Avrithis and Giorgos Tolias. Hough pyramid matching: Speeded-up geometry re-ranking for large scale image retrieval. International Journal of Computer Vision, Vol. 107, No. 1, pp. 1-19, 2014.
 非特許文献1、2に開示されている画像照合装置は、入力画像内の特徴点のペアに着目し、「近接関係の整合性」と「相対位置関係の整合性」、計2種類の空間関係の制約を用いて正対応点のペアを同定する。非特許文献3に開示されている画像照合装置は、入力画像間の暫定対応点に着目し、「拡大縮小倍率の整合性」、「回転角度の整合性」、「変位ベクトルの整合性」、計3種類の幾何変換の制約を用いて誤って合致した暫定対応点を除去する。以下、空間関係の制約と幾何変換の制約を総じて空間制約と呼ぶ。前記既存技術では、正対応点の同定に用いる空間制約の数と種類が限られているため、誤って合致した暫定対応点への識別力が不充分な場合が多い。量子化の解像度を上げるなど、空間制約の強度を強制的に高める方法が考えられるが、正対応点の探索漏れや過剰除去等が生じる。正対応点の探索漏れ等を回避しつつ、誤って合致した暫定対応点への識別力をいかに高められるかが、本発明で解決する第1の課題である。
 空間関係の制約と幾何変換の制約を結合すれば、前記課題を解決できるが、既存技術では、両方を組み合わせるのが困難である。例えば、非特許文献1、2に開示されている画像照合装置は、暫定対応点を抽出する前に、入力画像内の特徴点のペアに着目し、そのペアから空間関係の特徴量を算出する。この技術を利用する段階では、暫定対応点がまだ抽出されていないため、幾何変換パラメータの算出が不可能である。従って、この技術に幾何変換の制約を加えることが不可能である。一方、非特許文献3に開示されている画像照合装置は、暫定対応点を抽出した後に、入力画像間の暫定対応点に着目し、幾何変換パラメータを算出する。その後、各単一の暫定対応点を、その幾何変換パラメータに相当するパラメータ区間に投票し、投票ヒストグラムを作成する。この投票は、各単一の暫定対応点でなければできないのに対して、空間関係の特徴量の算出は、少なくとも二つの対応点がなければできない。従って、この技術に空間関係の制約を加えることが不可能である。
 空間関係の制約を用いる画像照合装置(非特許文献1、2)は、入力画像内の特徴点のペアを対象に特徴量算出とインデックス作成を行うため、画像照合の際に必要となるメモリ使用量と探索空間の大きさ(探索の所要時間の長さ)が特徴点のペアの数に比例する。例えば、千枚の画像がデータベースにある場合、メモリ使用量が約8GBであり、百万枚の画像の場合、約8TBとなる。探索の正確性を犠牲にせず、メモリ使用量と探索空間(探索の所要時間)をいかに抑制できるかが、本発明で解決する第2の課題である。
 本発明は、上記課題を解決するために成されたものであり、非関連画像間の特徴点の合致数が高く、関連画像間の幾何変換が大きい場合でも、正確且つ高速に画像を照合することができる画像照合装置、方法、及びプログラムを提供することを目的とする。
 本発明の第1の実施態様は、入力画像のペア間において対応する特徴点のペアである複数の暫定対応点を抽出する暫定対応点抽出部と、前記暫定対応点抽出部によって抽出された前記暫定対応点の組み合わせである前記暫定対応点のペアの各々について、前記暫定対応点の幾何変換パラメータの比較又は差分に基づく、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する空間検証部と、を含む画像照合装置である。
 本発明の第2の実施態様は、上記第1の実施態様の画像照合装置において、前記暫定対応点のペアの各々から、前記暫定対応点のペアにおける前記特徴点それぞれのk近傍の前記特徴点の集合に基づいて、近傍同士となる前記暫定対応点のペアを抽出するK近傍探索部を更に含み、前記空間検証部は、前記K近傍探索部によって抽出された、近傍同士となる前記暫定対応点のペアの各々に対する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する。
 本発明の第3の実施態様は、上記第1又は第2の実施態様の画像照合装置において、前記拡大縮小倍率の整合性に関する制約条件は、前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、前記第1の入力画像内における前記特徴点のスケールの大小関係と、前記第2の入力画像内における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の暫定対応点のいずれか一方の前記特徴点のスケールがともに大きいか、又は、前記第1の暫定対応点における前記特徴点のスケールの大小関係と、前記第2の暫定対応点における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の入力画像のいずれか一方の前記特徴点のスケールがともに大きいことである。
 本発明の第4の実施態様は、上記第1から第3の実施態様のいずれか一つの画像照合装置において、前記回転角度の整合性に関する制約条件は、前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、前記第1の入力画像における前記第1の暫定対応点の特性角と前記第2の入力画像における前記第1の暫定対応点の特性角との差である第1の回転角度と、前記第1の入力画像における前記第2の暫定対応点の特性角と前記第2の入力画像における前記第2の暫定対応点の特性角との差である第2の回転角度との差分の絶対値が予め定められた第1の閾値より小さいことである。
 本発明の第5の実施態様は、上記第1から第4の実施態様のいずれか一つの画像照合装置において、前記相対位置関係の整合性に関する制約条件は、前記暫定対応点のペアをなす第1及び第2の暫定対応点それぞれの前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、前記第1の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第1の相対位置ベクトルと、前記第2の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第2の相対位置ベクトルとの差分である差分ベクトルの長さの最大値が予め定められた第2の閾値より小さいこと、前記第1及び第2の相対位置ベクトルを極座標に変換して得られる動径それぞれが予め定められた第3の閾値より大きいこと、及び、前記第1及び第2の相対位置ベクトルを極座標に変換して得られる偏角の差分の絶対値が予め定められた第4の閾値より小さいこと、である。
 本発明の第6の実施態様は、上記第1から第5の実施態様のいずれか一つの画像照合装置において、前記空間検証部は、前記拡大縮小倍率の整合性に関する制約条件、前記回転角度の整合性に関する制約条件、及び前記相対位置関係の整合性に関する制約条件の全てを満たす前記暫定対応点のペアに基づいて、前記入力画像のペア間の類似度を評価する。
 本発明の第7の実施態様は、暫定対応点抽出部及び空間検証部を含む画像照合装置における画像照合方法であって、前記暫定対応点抽出部によって、入力画像のペア間において対応する特徴点のペアである複数の暫定対応点を抽出し、前記空間検証部によって、前記暫定対応点抽出部によって抽出された前記暫定対応点の組み合わせである前記暫定対応点のペアの各々について、前記暫定対応点の幾何変換パラメータの比較又は差分に基づく、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する、画像照合方法である。
 本発明の第8の実施態様は、上記第7の実施態様の画像照合方法において、前記画像照合装置は更にK近傍探索部を含み、前記K近傍探索部によって、前記暫定対応点のペアの各々から、前記暫定対応点のペアにおける前記特徴点それぞれのk近傍の前記特徴点の集合に基づいて、近傍同士となる前記暫定対応点のペアを抽出し、前記空間検証部は、前記K近傍探索部によって抽出された、近傍同士となる前記暫定対応点のペアの各々に対する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する。
 本発明の第9の実施態様は、上記第7又は第8の実施態様の画像照合方法において、前記拡大縮小倍率の整合性に関する制約条件は、前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、前記第1の入力画像内における前記特徴点のスケールの大小関係と、前記第2の入力画像内における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の暫定対応点のいずれか一方の前記特徴点のスケールがともに大きいか、又は、前記第1の暫定対応点における前記特徴点のスケールの大小関係と、前記第2の暫定対応点における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の入力画像のいずれか一方の前記特徴点のスケールがともに大きいことである。
 本発明の第10の実施態様は、上記第7から第9の実施態様のいずれか一つの画像照合方法において、前記回転角度の整合性に関する制約条件は、前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、前記第1の入力画像における前記第1の暫定対応点の特性角と前記第2の入力画像における前記第1の暫定対応点の特性角との差である第1の回転角度と、前記第1の入力画像における前記第2の暫定対応点の特性角と前記第2の入力画像における前記第2の暫定対応点の特性角との差である第2の回転角度との差分の絶対値が予め定められた第1の閾値より小さいことである。
 本発明の第11の実施態様は、上記第7から第10の実施態様のいずれか一つの画像照合方法において、前記相対位置関係の整合性に関する制約条件は、前記暫定対応点のペアをなす第1及び第2の暫定対応点それぞれの前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、前記第1の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第1の相対位置ベクトルと、前記第2の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第2の相対位置ベクトルとの差分である差分ベクトルの長さの最大値が予め定められた第2の閾値より小さいこと、前記第1及び第2の相対位置ベクトルを極座標に変換して得られる動径それぞれが予め定められた第3の閾値より大きいこと、及び、前記第1及び第2の相対位置ベクトルを極座標に変換して得られる偏角の差分の絶対値が予め定められた第4の閾値より小さいこと、である。
 本発明の第12の実施態様は、上記第7から第11の実施態様のいずれか一つの画像照合方法において、前記空間検証部は、前記拡大縮小倍率の整合性に関する制約条件、前記回転角度の整合性に関する制約条件、及び前記相対位置関係の整合性に関する制約条件の全てを満たす前記暫定対応点のペアに基づいて、前記入力画像のペア間の類似度を評価する。
 本発明に係るプログラムは、コンピュータを、上記第1から第6の実施態様のいずれか一つの画像照合装置を構成する各部として機能させるためのプログラムである。
 本発明の画像照合装置、画像照合方法、及びプログラムによれば、暫定対応点のペアの各々について、暫定対応点の幾何変換パラメータの比較又は差分に基づく、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てを満たすか否かを判定し、全ての制約条件を満たすと判定された暫定対応点のペアの数を、入力画像のペア間の類似度として出力することにより、非関連画像間の特徴点の合致数が高く、関連画像間の幾何変換が大きい場合でも、正確且つ高速に画像を照合することができる、という効果が得られる。
本発明の実施の形態に係る画像照合装置の構成を示すブロック図である。 本発明の実施の形態に係る画像照合装置の暫定対応点抽出部の構成を示すブロック図である。 本発明の実施の形態に係る画像照合装置の空間検証部の構成を示すブロック図である。 本発明の実施の形態に係る画像照合装置における画像照合処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る画像照合装置における空間制約を検証する処理の流れを示すフローチャートである。
 以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態の概要>
 「局所特徴量の類似性」を使用し、入力画像の特徴点から先に暫定対応点を抽出する。その後、暫定対応点のペアに着目し、「拡大縮小倍率の整合性」、「回転角度の整合性」、「相対位置関係の整合性」、計3種類の空間制約からなる全ての制約条件を満たす、画像間の暫定対応点のペアを、正対応点のペアと判定する。また、幾何変換の制約を用いるには、各単一の暫定対応点に依存する投票の処理(ハフ変換)ではなく、暫定対応点のペアに着目し、幾何変換パラメータの差分又は比較に基づいて制約条件を設計する。このように、先に暫定対応点を抽出し、その後、暫定対応点のペアに着目することによって、空間関係の制約と幾何変換の制約を組み合わせることが可能となる。空間関係の制約と幾何変換の制約を結合することで、空間制約の数と種類を増やし、上記第1の課題を解決する。
 また、入力画像間の暫定対応点に対して、特徴点から位置座標空間において最も近いk個の特徴点を用いて、近傍同士となる暫定対応点のペアを探し出す。空間制約の条件を満たすか否かを検証する際に、全ての暫定対応点のペアを対象にするのではなく、近傍同士となる暫定対応点のペアのみに対して、空間制約を用いて、制約条件を満たす暫定対応点のペアを正対応点のペアと判定する。上記の非特許文献1、2に開示されている画像照合装置のように特徴点のペアを対象にするのではなく、「局所特徴量の類似性」に基づいて暫定対応点を先に同定し、次に暫定対応点のペアを対象に空間制約の条件を満たすか否かを検証する。
 また、暫定対応点を抽出する際に、特徴点のデータを転置インデックスに組み込むだけで良く、特徴点のペアのデータをインデックスに組み込む必要がなくなる。特徴点のペアに比べて、特徴点の数がはるかに少ないため、画像照合の際に必要となるメモリ使用量が小さくなる。一方、全ての暫定対応点のペアを対象にするのではなく、位置座標空間において近傍同士となる暫定対応点のペアのみを対象にすることによって、空間制約の条件検証の回数を低く抑制すると共に、探索空間を小さく、探索の所要時間を短くし、上記第2の課題を解決する。
<本発明の実施の形態に係る画像照合装置の構成>
 次に、本発明の実施の形態に係る画像照合装置の構成について説明する。図1に示すように、本発明の実施の形態に係る画像照合装置100は、CPUと、RAMと、後述する画像照合処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この画像照合装置100は、機能的には図1に示すように、入力部10と、演算部20と、出力部50とを備えている。
 演算部20は、入力画像のペアから暫定対応点を抽出する暫定対応点抽出部22と、暫定対応点に対して位置座標空間における特徴点のk近傍を用いて、近傍同士となる暫定対応点のペアを探索するK近傍探索部24と、近傍同士となる暫定対応点のペアから正対応点のペアを同定する空間検証部26とを含んで構成されている。本発明の実施形態による画像照合装置100は、2枚の入力画像を入力とし、正対応点のペアの数を画像間の類似度として出力する。
<暫定対応点抽出部>
 図2は、暫定対応点抽出部22の構成の一例を示すブロック図である。暫定対応点抽出部22は、入力画像から特徴点を抽出し、特徴点の集合を算出する特徴点抽出部30、32と、特徴点集合から局所特徴量集合を算出する局所特徴量算出部34、36と、事前に作成したビジュアルワード辞書に基づいて局所特徴量集合をビジュアルワードの集合に量子化するベクトル量子化部38、40と、2枚の入力画像から得られたビジュアルワードの集合から同一のビジュアルワードが指定された特徴点のペアを暫定対応点集合として探索するビジュアルワード探索部42とを含んで構成される。暫定対応点抽出部22は、2枚の入力画像と事前に作成したビジュアルワード辞書を入力とし、暫定対応点の集合を出力する。
 特徴点抽出部30は、入力画像のペアのうちの第1画像から特徴点を抽出し特徴点の集合を出力する。本実施形態では、非特許文献4に開示されている Hessian Affine Region Detector を用いる。
[非特許文献4]:Krystian Mikolajczyk and Cordelia Schmid. Scale & affine invariant interest point detectors. International Journal of Computer Vision, Vol. 60, No. 1, pp. 63-86, 2004.
 具体的には、特徴点抽出部30は、入力画像のペアのうちの第1画像を入力とし、特徴点の集合を出力する。各特徴点は、スケール(Scale)と特性角(Characteristic Angle)及び2次元の位置座標として表される。本実施の形態では、入力画像から抽出した特徴点の集合Pにある各特徴点p∈Pにおいて、スケールをσ(p)で、特性角をθ(p)で、2次元の位置座標をt(p)=[x(p) y(p)]で表す。
 特徴点抽出部32は、入力画像のペアのうちの第2画像を入力とし、特徴点抽出部30と同様に、特徴点を抽出し、特徴点の集合を出力する。
 局所特徴量算出部34は、特徴点抽出部30から出力された特徴点の集合を入力とし、特徴点の集合に含まれる各特徴点から局所特徴量を算出し、局所特徴量の集合を出力する。本実施形態では、非特許文献5に開示されている Scale-Invariant Feature Transform (SIFT)を用いて局所特徴量を算出する。各局所特徴量は、128次元のベクトルとして表される。
[非特許文献5]:David G. Lowe. Distinctive image features from scale invariant keypoints. International Journal of Computer Vision, Vol. 60, No. 2, pp. 91-110, 2004.
 局所特徴量算出部36は、特徴点抽出部32によって出力された特徴点の集合を入力とし、局所特徴量算出部34と同様に、局所特徴量の集合を出力する。
 ベクトル量子化部38は、事前に作成したビジュアルワード辞書に基づいて、局所特徴量算出部34によって出力された局所特徴量の集合に含まれる各局所特徴量をビジュアルワードに量子化する。ビジュアルワード辞書とは、多数の画像から算出した局所特徴量をクラスタリングして得られた、クラスタのID(ビジュアルワード)と平均ベクトルを格納する配列(集合)である。本実施形態では、ビジュアルワード辞書を作成する方法として、事前に約5千枚の画像を用意し、画像から算出した局所特徴量を近似k平均法(非特許文献6を参照)によってクラスタリングする。
[非特許文献6]:James Philbin, Ondrej Chum, Michael Isard, Josef Sivic, and Andrew Zisserman. Object retrieval with large vocabularies and fast spatial matching. In CVPR, 2007.
 具体的には、ベクトル量子化部38は、局所特徴量算出部34によって出力された局所特徴量の集合とビジュアルワード辞書を入力とし、入力画像のペアのうちの第1画像から算出した局所特徴量とビジュアルワード辞書にあるクラスタの平均ベクトルとを比較し、ベクトル間のユークリッド距離が最短のクラスタのIDをビジュアルワードとして該当する特徴点に指定し、ビジュアルワードの集合を出力する。
 本実施形態では、ユークリッド距離が最短のクラスタのIDを探索する方法として、非特許文献7に開示されている近似最近傍探索法 Randomized KD-tree を用いる。
[非特許文献7]:Marius Muja and David G. Lowe. Fast approximate nearest neighbors with automatic algorithm configuration. In VISAPP, pp. 331-340, 2009.
 各ビジュアルワードは、整数として表される。具体的に、各特徴点p∈Pにおいて、指定されたビジュアルワードをu(p)で表す。
 ベクトル量子化部40は、局所特徴量算出部36によって出力された局所特徴量の集合とビジュアルワード辞書を入力とし、ベクトル量子化部38と同様に、ビジュアルワードの集合を出力する。
 ビジュアルワード探索部42は、2枚の入力画像から得られたビジュアルワードの集合を入力とし、2枚の入力画像から得られたビジュアルワードの集合から同一のビジュアルワードが指定された特徴点のペア(暫定対応点)を探索し、暫定対応点の集合を出力する。本実施形態では、大規模画像データベース検索を想定し、転置インデックスを作成し、それに基づく探索方法を用いる。各暫定対応点は、1個のビジュアルワードと、暫定対応点を構成した2点の特徴点のスケールと特性角及び2次元の位置座標として表される。具体的に、2枚の入力画像から抽出した特徴点の集合をPとQで、暫定対応点の集合をCで、各暫定対応点c∈Cをc=(p;q)で表す。C⊆P×Qは、式(1)によって得られる。P×Qは、PとQの直積集合である。
Figure JPOXMLDOC01-appb-M000001
 各暫定対応点c∈Cは、式(2)として表される。
Figure JPOXMLDOC01-appb-M000002
<K近傍探索部>
 K近傍探索部24は、暫定対応点の集合を入力とし、暫定対応点に対して、位置座標空間における特徴点のk近傍を用いて、近傍同士となる暫定対応点のペアを探索し、近傍同士となる暫定対応点のペアの集合を出力する。本実施形態では、上記非特許文献7に開示されている近似最近傍探索法 Randomized KD-tree を用いる。具体的に、暫定対応点のペアを(ca;cb)で、暫定対応点をca=(pa;qa)とcb=(pb;qb)で、特徴点のk近傍の集合をN(・)で表す。「近接関係の整合性」の空間制約hは、式(3)として表される。[・]は、アイバーソンの記法で、角括弧中の条件が真ならば1で偽ならば0である。「∧」は、論理積を表す。
Figure JPOXMLDOC01-appb-M000003
 近傍同士となる暫定対応点のペアの集合G⊆Cは、式(4)によって得られる。C=C×Cは、CとCの直積集合である。
Figure JPOXMLDOC01-appb-M000004
<空間検証部>
 図3は、空間検証部26の構成の一例を示すブロック図である。空間検証部26は、拡大縮小倍率検証部44、回転角度検証部46、及び相対位置関係検証部48を含んで構成されている。検証部の順序は、任意に変更できる。空間検証部26は、K近傍探索部24によって出力された、近傍同士となる暫定対応点のペアの集合を入力とし、正対応点のペアの数を2枚の入力画像の間の類似度として出力する。
 拡大縮小倍率検証部44は、暫定対応点のペアが、暫定対応点の幾何変換パラメータの比較に基づく、「拡大縮小倍率の整合性」の空間制約の条件を満たすか否かを検証する。本実施形態では、暫定対応点のペアにおいて、入力画像内の特徴点のスケールの大小関係が等しいか否かを検証し、入力画像間の特徴点のスケールの大小関係が等しいか否かを検証する。具体的に、入力画像内の特徴点のスケールの大小関係に基づく制約条件h’σは式(5)で、入力画像間の特徴点のスケールの大小関係に基づく制約条件h”σは式(6)で表す。
Figure JPOXMLDOC01-appb-M000005
 「拡大縮小倍率の整合性」の空間制約hσは、式(7)として表される。暫定対応点のペア(ca;cb)において、hσ(ca;cb)=1の場合に真と判定し、hσ(ca;cb)=0の場合に偽と判定する。「∨」は、論理和を表す。
Figure JPOXMLDOC01-appb-M000006
 回転角度検証部46は、暫定対応点のペアが、暫定対応点の幾何変換パラメータの差分に基づく「回転角度の整合性」の空間制約の条件を満たすか否かを検証する。本実施形態では、暫定対応点のペアにおいて、2点の暫定対応点から算出される回転角度の差分の絶対値が事前に設定した閾値εθより小さいか否かを検証する。具体的に、暫定対応点の回転角度をθ(c)=θ(p)-θ(q)で算出する。「回転角度の整合性」の空間制約hθは、式(8)として表される。暫定対応点のペア(ca;cb)において、hθ(ca;cb)=1の場合に真と判定し、hθ(ca;cb)=0の場合に偽と判定する。
Figure JPOXMLDOC01-appb-M000007
 相対位置関係検証部48は、暫定対応点のペアが、暫定対応点の幾何変換パラメータの比較又は差分に基づく「相対位置関係の整合性」の空間制約の条件を満たすか否かを検証する。本実施形態では、暫定対応点のペアにおいて、後述する第1制約条件及び第2制約条件からなる計2種類の制約条件の組み合わせを「相対位置関係の整合性」の空間制約として用いる。第1制約条件の検証では、2枚の入力画像内における特徴点間の相対位置ベクトルを算出し、相対位置ベクトルの差分ベクトルの長さの最大値が事前に設定した閾値εより小さいか否かを検証する。具体的に、入力画像にある2点の特徴点pとpにおいて、pからpへ向かう相対位置ベクトルは、式(9)で算出する。
Figure JPOXMLDOC01-appb-M000008
 M(p)は、特徴点pの幾何特性を表す行列で、式(10)で算出する。
Figure JPOXMLDOC01-appb-M000009
 第1制約条件h’は、式(11)として表される。||・||は、ユークリッドノルムを表す。
Figure JPOXMLDOC01-appb-M000010
 第2制約条件の検証では、相対位置ベクトルを極座標(動径と偏角)に変換し、動径と事前に設定した閾値との大小関係が等しいか否かを検証し、偏角の差分の絶対値が事前に設定した閾値εαより小さいか否かを検証する。具体的に、相対位置ベクトルvの動径をρで、偏角をαで表す。第2制約条件h”は、式(12)として表される。
Figure JPOXMLDOC01-appb-M000011
 「相対位置関係の整合性」の空間制約hは、式(13)として表される。暫定対応点のペア(ca;cb)において、h(ca;cb)=1の場合に真と判定し、h(ca;cb)=0の場合に偽と判定する。
Figure JPOXMLDOC01-appb-M000012
 上述したように、空間検証部26は、K近傍探索部24によって出力された、近傍同士となる暫定対応点のペアの集合を入力とし、正対応点のペアの数を2枚の入力画像の間の類似度として出力する。本実施形態では、正対応点のペアの同定に用いる空間制約の集合をH={hσ,hθ,h}で表す。正対応点のペアの集合^Gは、式(14)によって得られる。
Figure JPOXMLDOC01-appb-M000013
 正対応点のペアの数は、^Gの要素の個数|^G|によって得られ、出力部50により出力される。
<本発明の実施の形態に係る画像照合装置の作用>
 次に、本発明の実施の形態に係る画像照合装置100の作用について説明する。入力部10によって、入力画像のペア、及びビジュアルワード辞書を受け付けると、画像照合装置100は、図4に示す画像照合処理ルーチンを実行する。
 まず、ステップS100では、入力画像のペアのうちの第1画像の特徴点の集合を抽出する。ステップS102では、上記ステップS100で抽出された第1画像の特徴点の集合に含まれる各特徴点について局所特徴量を抽出し、局所特徴量の集合を出力する。
 ステップS104では、ビジュアルワード辞書と、上記ステップS102で抽出された各特徴点の局所特徴量とに基づいて、第1画像の特徴点の集合について、局所特徴量の集合をビジュアルワードに量子化する。
 そして、ステップS106では、入力画像のペアのうちの第2画像の特徴点の集合を抽出する。ステップS108では、上記ステップS106で抽出された第2画像の特徴点の集合に含まれる各特徴点について局所特徴量を抽出し、局所特徴量の集合を出力する。
 ステップS110では、ビジュアルワード辞書と、上記ステップS108で抽出された各特徴点の局所特徴量とに基づいて、第2画像の特徴点の集合について、局所特徴量の集合をビジュアルワードに量子化する。
 次のステップS112では、上記ステップS104で得られた、第1画像の特徴点の集合に含まれる各特徴点についてのビジュアルワードと、上記ステップS110で得られた、第2画像の特徴点の集合に含まれる各特徴点についてのビジュアルワードとに基づいて、暫定対応点の集合を抽出する。
 ステップS114では、上記ステップS112で抽出された暫定対応点の集合から、各特徴点について求められるk近傍の集合に基づいて、上記式(3)に従って、近傍同士となる暫定対応点のペアの集合を抽出する。
 ステップS116では、上記ステップS114で抽出された、近傍同士となる暫定対応点のペアの集合から、暫定対応点ペアを選択する。
 ステップS118では、上記ステップS116で選択された暫定対応点ペアについて、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てを満たすか否かを判定し、正対応点のペアであるか誤対応点のペアであるかを判定する。
 そして、ステップS120では、近傍同士となる暫定対応点のペアの集合に含まれる、全ての暫定対応点ペアについて、上記ステップS118の処理を実行したか否かを判定する。上記ステップS118の処理を実行していない暫定対応点ペアが存在する場合には、上記ステップS116へ戻り、当該暫定対応点ペアを選択する。一方、近傍同士となる暫定対応点のペアの集合に含まれる、全ての暫定対応点ペアについて、上記ステップS118の処理を実行した場合には、ステップS112において、正対応点のペアの数を入力画像のペア間の類似度として出力部50により出力し、画像照合処理ルーチンを終了する。
 上記ステップS118は、図5に示す処理ルーチンによって実現される。
 ステップS130では、上記ステップS116で選択された暫定対応点ペアについて、上記式(7)に従って、拡大縮小倍率の整合性に関する制約条件を満たすか否かを判定する。拡大縮小倍率の整合性に関する制約条件を満たす場合には、ステップS132へ移行する。一方、拡大縮小倍率の整合性に関する制約条件を満たさない場合には、ステップS138へ移行し、誤対応点のペアであると判断する。
 ステップS132では、上記ステップS116で選択された暫定対応点ペアについて、上記式(8)に従って、回転角度の整合性に関する制約条件を満たすか否かを判定する。回転角度の整合性に関する制約条件を満たす場合には、ステップS134へ移行する。一方、回転角度の整合性に関する制約条件を満たさない場合には、ステップS138へ移行し、誤対応点のペアであると判断する。
 ステップS134では、上記ステップS116で選択された暫定対応点ペアについて、上記式(13)に従って、相対位置関係の整合性に関する制約条件を満たすか否かを判定する。相対位置関係の整合性に関する制約条件を満たす場合には、ステップS136へ移行し、正対応点のペアであると判断する。一方、相対位置関係の整合性に関する制約条件を満たさない場合には、ステップS138へ移行し、誤対応点のペアであると判断する。
 以上説明したように、本発明に実施の形態に係る画像照合装置によれば、非関連画像間の特徴点の合致数が高く、関連画像間の幾何変換が大きい場合でも、正確且つ高速に画像を照合することができる。
 また、空間関係の制約と幾何変換の制約を結合し、正対応点のペアの同定に用いる空間制約の数と種類を増やすことによって、正対応点の探索漏れや過剰除去等を回避しつつ、誤合致した暫定対応点を除去することで画像間の識別力を高めることが可能となる。
 また、「局所特徴量の類似性」に基づいて暫定対応点を先に同定し、次に暫定対応点のペアのみを対象に空間制約の条件を満たすか否かを検証することによって、画像照合の際に必要となるメモリ使用量をより低く抑制可能である。
 また、位置座標空間において近傍同士となる暫定対応点のペアのみを対象にすることで、空間制約の条件検証の回数をより低く(探索空間をより小さく)抑制可能である。
 なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
 例えば、上述した実施の形態では、近傍同士となる暫定対応点のペアの集合を抽出して、近傍同士となる暫定対応点のペアの各々について、全ての制約条件を満たすか否かを判定する場合を例に説明したが、これに限定されるものではない。近傍同士となる暫定対応点のペアの集合を抽出せずに、全ての暫定対応点のペアの各々について、全ての制約条件を満たすか否かを判定するようにしてもよい。
 本発明は、非関連画像間の特徴点の合致数が高く、関連画像間の幾何変換が大きい場合でも、正確且つ高速に画像を照合することが不可欠な用途にも適用できる。
10 入力部
20 演算部
22 暫定対応点抽出部
24 近傍探索部
26 空間検証部
30、32 特徴点抽出部
34、36 局所特徴量算出部
38、40 ベクトル量子化部
42 ビジュアルワード探索部
44 拡大縮小倍率検証部
46 回転角度検証部
48 相対位置関係検証部
50 出力部
100 画像照合装置

Claims (13)

  1.  入力画像のペア間において対応する特徴点のペアである複数の暫定対応点を抽出する暫定対応点抽出部と、
     前記暫定対応点抽出部によって抽出された前記暫定対応点の組み合わせである前記暫定対応点のペアの各々について、前記暫定対応点の幾何変換パラメータの比較又は差分に基づく、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する空間検証部と、
     を含む画像照合装置。
  2.  前記暫定対応点のペアの各々から、前記暫定対応点のペアにおける前記特徴点それぞれのk近傍の前記特徴点の集合に基づいて、近傍同士となる前記暫定対応点のペアを抽出するK近傍探索部を更に含み、
     前記空間検証部は、前記K近傍探索部によって抽出された、近傍同士となる前記暫定対応点のペアの各々に対する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する、
     請求項1記載の画像照合装置。
  3.  前記拡大縮小倍率の整合性に関する制約条件は、
     前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、
     前記第1の入力画像内における前記特徴点のスケールの大小関係と、前記第2の入力画像内における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の暫定対応点のいずれか一方の前記特徴点のスケールがともに大きいか、又は、
     前記第1の暫定対応点における前記特徴点のスケールの大小関係と、前記第2の暫定対応点における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の入力画像のいずれか一方の前記特徴点のスケールがともに大きいことである、
     請求項1記載の画像照合装置。
  4.  前記回転角度の整合性に関する制約条件は、
     前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、
     前記第1の入力画像における前記第1の暫定対応点の特性角と前記第2の入力画像における前記第1の暫定対応点の特性角との差である第1の回転角度と、前記第1の入力画像における前記第2の暫定対応点の特性角と前記第2の入力画像における前記第2の暫定対応点の特性角との差である第2の回転角度との差分の絶対値が予め定められた第1の閾値より小さいことである、
     請求項1記載の画像照合装置。
  5.  前記相対位置関係の整合性に関する制約条件は、
     前記暫定対応点のペアをなす第1及び第2の暫定対応点それぞれの前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、
     前記第1の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第1の相対位置ベクトルと、前記第2の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第2の相対位置ベクトルとの差分である差分ベクトルの長さの最大値が予め定められた第2の閾値より小さいこと、
     前記第1及び第2の相対位置ベクトルを極座標に変換して得られる動径それぞれが予め定められた第3の閾値より大きいこと、及び、
     前記第1及び第2の相対位置ベクトルを極座標に変換して得られる偏角の差分の絶対値が予め定められた第4の閾値より小さいこと、である、
     請求項1に記載の画像照合装置。
  6.  前記空間検証部は、前記拡大縮小倍率の整合性に関する制約条件、前記回転角度の整合性に関する制約条件、及び前記相対位置関係の整合性に関する制約条件の全てを満たす前記暫定対応点のペアに基づいて、前記入力画像のペア間の類似度を評価する、
     請求項1記載の画像照合装置。
  7.  暫定対応点抽出部及び空間検証部を含む画像照合装置における画像照合方法であって、
     前記暫定対応点抽出部によって、入力画像のペア間において対応する特徴点のペアである複数の暫定対応点を抽出し、
     前記空間検証部によって、前記暫定対応点抽出部によって抽出された前記暫定対応点の組み合わせである前記暫定対応点のペアの各々について、前記暫定対応点の幾何変換パラメータの比較又は差分に基づく、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する、
     画像照合方法。
  8.  前記画像照合装置は更にK近傍探索部を含み、
     前記K近傍探索部によって、前記暫定対応点のペアの各々から、前記暫定対応点のペアにおける前記特徴点それぞれのk近傍の前記特徴点の集合に基づいて、近傍同士となる前記暫定対応点のペアを抽出し、
     前記空間検証部は、前記K近傍探索部によって抽出された、近傍同士となる前記暫定対応点のペアの各々に対する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する、
     請求項7記載の画像照合方法。
  9.  前記拡大縮小倍率の整合性に関する制約条件は、
     前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、
     前記第1の入力画像内における前記特徴点のスケールの大小関係と、前記第2の入力画像内における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の暫定対応点のいずれか一方の前記特徴点のスケールがともに大きいか、又は、
     前記第1の暫定対応点における前記特徴点のスケールの大小関係と、前記第2の暫定対応点における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の入力画像のいずれか一方の前記特徴点のスケールがともに大きいことである、
     請求項7記載の画像照合方法。
  10.  前記回転角度の整合性に関する制約条件は、
     前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、
     前記第1の入力画像における前記第1の暫定対応点の特性角と前記第2の入力画像における前記第1の暫定対応点の特性角との差である第1の回転角度と、前記第1の入力画像における前記第2の暫定対応点の特性角と前記第2の入力画像における前記第2の暫定対応点の特性角との差である第2の回転角度との差分の絶対値が予め定められた第1の閾値より小さいことである、
     請求項7記載の画像照合方法。
  11.  前記相対位置関係の整合性に関する制約条件は、
     前記暫定対応点のペアをなす第1及び第2の暫定対応点それぞれの前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、
     前記第1の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第1の相対位置ベクトルと、前記第2の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第2の相対位置ベクトルとの差分である差分ベクトルの長さの最大値が予め定められた第2の閾値より小さいこと、
     前記第1及び第2の相対位置ベクトルを極座標に変換して得られる動径それぞれが予め定められた第3の閾値より大きいこと、及び、
     前記第1及び第2の相対位置ベクトルを極座標に変換して得られる偏角の差分の絶対値が予め定められた第4の閾値より小さいこと、である、
     請求項7記載の画像照合方法。
  12.  前記空間検証部は、前記拡大縮小倍率の整合性に関する制約条件、前記回転角度の整合性に関する制約条件、及び前記相対位置関係の整合性に関する制約条件の全てを満たす前記暫定対応点のペアに基づいて、前記入力画像のペア間の類似度を評価する、
     請求項7記載の画像照合方法。
  13.  コンピュータを、請求項1記載の画像照合装置を構成する各部として機能させるためのプログラム。
PCT/JP2016/069609 2015-07-06 2016-07-01 画像照合装置、画像照合方法、及びプログラム WO2017006852A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP16821321.3A EP3301641B1 (en) 2015-07-06 2016-07-01 Image collation device, image collation method, and program
JP2017527421A JP6435048B2 (ja) 2015-07-06 2016-07-01 画像照合装置、画像照合方法、及びプログラム
US15/741,694 US10572766B2 (en) 2015-07-06 2016-07-01 Image collation device, image collation method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-135297 2015-07-06
JP2015135297 2015-07-06

Publications (1)

Publication Number Publication Date
WO2017006852A1 true WO2017006852A1 (ja) 2017-01-12

Family

ID=57685519

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/069609 WO2017006852A1 (ja) 2015-07-06 2016-07-01 画像照合装置、画像照合方法、及びプログラム

Country Status (4)

Country Link
US (1) US10572766B2 (ja)
EP (1) EP3301641B1 (ja)
JP (1) JP6435048B2 (ja)
WO (1) WO2017006852A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019215609A (ja) * 2018-06-11 2019-12-19 日本電信電話株式会社 物体検出装置、方法、及びプログラム
JPWO2021100209A1 (ja) * 2019-11-22 2021-05-27
JP2021174438A (ja) * 2020-04-30 2021-11-01 株式会社デンソー 個体識別システム、個体識別プログラム、及び記録媒体
JP2021174441A (ja) * 2020-04-30 2021-11-01 株式会社デンソー 個体識別システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3499455A4 (en) * 2016-08-08 2019-07-10 Panasonic Intellectual Property Management Co., Ltd. INTERCLASSE AND METHOD FOR DISPLAYING COLLATION RESULT
CN110909778B (zh) * 2019-11-12 2023-07-21 北京航空航天大学 一种基于几何一致性的图像语义特征匹配方法
KR102173244B1 (ko) * 2019-12-10 2020-11-03 (주)인펙비전 Surf 특징점 추적 기반 영상 안정화 시스템
CN112581595B (zh) * 2020-12-02 2023-12-19 中国人民解放军战略支援部队航天工程大学 一种多视角卫星影像一致性分析方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326693A (ja) * 2003-04-28 2004-11-18 Sony Corp 画像認識装置及び方法、並びにロボット装置
JP2015114819A (ja) * 2013-12-11 2015-06-22 日本電信電話株式会社 特徴選択装置、方法、及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100488685B1 (ko) * 2002-08-22 2005-05-11 한국과학기술원 자동 영상등록 및 보정을 위한 영상 처리방법
US8189925B2 (en) * 2009-06-04 2012-05-29 Microsoft Corporation Geocoding by image matching
EP2680223A1 (en) * 2011-02-23 2014-01-01 Nec Corporation Feature point matching device, feature point matching method, and non-temporary computer-readable medium having feature point matching program stored thereon
FR2972281B1 (fr) * 2011-03-02 2013-04-12 Univ Aix Marseille Procede et systeme pour estimer une similarite entre deux images binaires
US9875386B2 (en) * 2011-11-15 2018-01-23 Futurewei Technologies, Inc. System and method for randomized point set geometry verification for image identification
US20150169993A1 (en) * 2012-10-01 2015-06-18 Google Inc. Geometry-preserving visual phrases for image classification using local-descriptor-level weights
US8929602B2 (en) * 2013-01-31 2015-01-06 Seiko Epson Corporation Component based correspondence matching for reconstructing cables
US9245201B1 (en) * 2013-03-15 2016-01-26 Excelis Inc. Method and system for automatic registration of images
US9087381B2 (en) * 2013-11-13 2015-07-21 Thomas Tsao Method and apparatus for building surface representations of 3D objects from stereo images
CN105849776A (zh) * 2013-12-26 2016-08-10 日本电气株式会社 图像处理装置、主题识别方法和程序
EP3207495B1 (en) * 2014-10-13 2023-04-26 Telecom Italia S.p.A. Method and system for comparing video shots

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326693A (ja) * 2003-04-28 2004-11-18 Sony Corp 画像認識装置及び方法、並びにロボット装置
JP2015114819A (ja) * 2013-12-11 2015-06-22 日本電信電話株式会社 特徴選択装置、方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3301641A4 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019215609A (ja) * 2018-06-11 2019-12-19 日本電信電話株式会社 物体検出装置、方法、及びプログラム
WO2019239743A1 (ja) * 2018-06-11 2019-12-19 日本電信電話株式会社 物体検出装置、方法、及びプログラム
JPWO2021100209A1 (ja) * 2019-11-22 2021-05-27
WO2021100209A1 (ja) * 2019-11-22 2021-05-27 日本電信電話株式会社 画像識別装置、画像識別方法及び画像識別プログラム
JP7147996B2 (ja) 2019-11-22 2022-10-05 日本電信電話株式会社 画像識別装置、画像識別方法及び画像識別プログラム
US11830238B2 (en) 2019-11-22 2023-11-28 Nippon Telegraph And Telephone Corporation Identification device, identification method, and identification program
JP2021174438A (ja) * 2020-04-30 2021-11-01 株式会社デンソー 個体識別システム、個体識別プログラム、及び記録媒体
JP2021174441A (ja) * 2020-04-30 2021-11-01 株式会社デンソー 個体識別システム
WO2021220827A1 (ja) * 2020-04-30 2021-11-04 株式会社デンソー 個体識別システム
WO2021220829A1 (ja) * 2020-04-30 2021-11-04 株式会社デンソー 個体識別システム、個体識別プログラム、及び記録媒体
JP7377159B2 (ja) 2020-04-30 2023-11-09 株式会社デンソー 個体識別システム、個体識別プログラム、及び記録媒体
JP7377162B2 (ja) 2020-04-30 2023-11-09 株式会社デンソー 個体識別システム

Also Published As

Publication number Publication date
US20180197044A1 (en) 2018-07-12
JPWO2017006852A1 (ja) 2017-12-28
JP6435048B2 (ja) 2018-12-05
EP3301641A4 (en) 2019-01-23
EP3301641B1 (en) 2020-08-26
EP3301641A1 (en) 2018-04-04
US10572766B2 (en) 2020-02-25

Similar Documents

Publication Publication Date Title
JP6435048B2 (ja) 画像照合装置、画像照合方法、及びプログラム
US8533162B2 (en) Method for detecting object
Sattler et al. Image Retrieval for Image-Based Localization Revisited.
US20180150714A1 (en) A method and a device for extracting local features of a three-dimensional point cloud
Ganapathi et al. Geometric statistics-based descriptor for 3D ear recognition
Das et al. A robust method for detecting copy-move image forgery using stationary wavelet transform and scale invariant feature transform
Ahmad et al. Describing colors, textures and shapes for content based image retrieval-a survey
JP2007066019A (ja) 画像検索方法及び装置
JP2015007919A (ja) 異なる視点の画像間で高精度な幾何検証を実現するプログラム、装置及び方法
WO2020039260A2 (en) Systems and methods for segmentation of report corpus using visual signatures
JP5986681B2 (ja) モデルの形状記述子を生成する方法及び装置
EP2993623B1 (en) Apparatus and method for multi-object detection in a digital image
JP2009032109A (ja) 文書画像検索方法、文書画像登録方法、そのプログラムおよび装置
Jin et al. Towards fast and accurate ellipse and semi-ellipse detection
Jaafar et al. New copy-move forgery detection algorithm
JP6092012B2 (ja) 物体識別システムおよび物体識別方法
JP6322593B2 (ja) 画像照合装置、及び方法
JP4320439B2 (ja) 線図形マッチング方法
Manandhar et al. Feature repetitiveness similarity metrics in visual search
Baccour et al. A comparative study of a fuzzy similarity measure aggregated with fuzzy implications applied to shape recognition
Ikhlayel et al. Modified Multi-scale Feature Extraction for Copy-Move Forgery Detection Based on CMD-SIFT
CN106649624B (zh) 基于全局关系一致性约束的局部特征点验证方法
Devi et al. Clustering Based Feature Extraction for Image Forgery Detection
Yang et al. A Robust Scheme for 3D Point Cloud Copy Detection
JP6946959B2 (ja) 同一性判定装置、局所特徴抽出装置、方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16821321

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017527421

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2016821321

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE