JP5616310B2 - Image matching apparatus and image matching program - Google Patents
Image matching apparatus and image matching program Download PDFInfo
- Publication number
- JP5616310B2 JP5616310B2 JP2011210647A JP2011210647A JP5616310B2 JP 5616310 B2 JP5616310 B2 JP 5616310B2 JP 2011210647 A JP2011210647 A JP 2011210647A JP 2011210647 A JP2011210647 A JP 2011210647A JP 5616310 B2 JP5616310 B2 JP 5616310B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- matching
- query
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、特徴対応に基づく画像マッチングを行う画像マッチング装置及び画像マッチングプログラムに関する。 The present invention relates to an image matching apparatus and an image matching program that perform image matching based on feature correspondence.
近年、画像処理・コンピュータビジョン・パターン認識などの幅広い分野において、画像マッチングの研究が盛んに行われている。画像マッチングとは、ユーザによって入力された1枚のクエリ画像と、検索対象として1枚もしくは複数の画像を有するデータベースが存在するときに、検索対象データベース内画像群からクエリ画像と同様、もしくは類似した画像を求める技術である。画像マッチングはその閾値の設定によって、検索対象データベース内にクエリ画像と同様もしくは類似した画像が存在するか否かの判定にも利用することができる。 In recent years, research on image matching has been actively conducted in a wide range of fields such as image processing, computer vision, and pattern recognition. Image matching is the same as or similar to a query image from a group of images in the search target database when there is a single query image input by the user and a database having one or more images as search targets. This is a technique for obtaining images. Image matching can also be used to determine whether an image similar to or similar to the query image exists in the search target database by setting the threshold value.
画像マッチングのアプローチは領域ベースのものと特徴ベースのものに大別される。領域ベースのマッチング手法は、2枚の画像間の相違度および類似度に基づきマッチングを行う。具体的にはクエリ画像もしくはクエリ画像中のオブジェクト部分をテンプレート画像として、検索対象データベース内の画像に対して該テンプレート画像を少しずつずらしながら比較を行い、この処理をすべての検索対象データベース内画像に対して行うことで画像マッチングを実現する。比較の際は例えばSAD(Sum of Absolute Differences)やSSD(Sum of Squared Differences)といった手法を用いてクエリ画像と検索対象データベース内画像間の相違度が最小となる画像やその位置を求める方法、もしくはNCC(Normalized Cross Correlation)やPOC(Phase-Only Correlation)といった手法を用いてクエリ画像と検索対象データベース内画像間の類似度が最大となる画像やその位置を求める方法がある(例えば、非特許文献1参照)。 Image matching approaches are broadly divided into region-based and feature-based approaches. The region-based matching method performs matching based on the difference and similarity between two images. Specifically, the query image or the object part in the query image is used as a template image, and the template image is compared with the image in the search target database while gradually shifting, and this processing is performed on all the search target database images. By doing so, image matching is realized. At the time of comparison, for example, a method for obtaining an image or position where the difference between the query image and the image in the search target database is minimized using a technique such as SAD (Sum of Absolute Differences) or SSD (Sum of Squared Differences), or There is a method for obtaining an image having the maximum similarity between a query image and a search target database image and a position thereof using a method such as NCC (Normalized Cross Correlation) or POC (Phase-Only Correlation) (for example, non-patent literature) 1).
しかし、これらの領域ベースのアプローチは画像マッチングに要する計算時間が多くなり、また大きな画像変形に弱いといった問題がある。そこで近年、特徴ベースの画像マッチング手法が盛んに研究されている。特徴ベースのマッチングは、クエリ画像と検索対象データベース内画像において、各画像からコーナーのように画素の濃淡値の変化が大きい特徴箇所(特徴点や特徴領域)を抽出し、その周囲の局所領域に対して局所記述子(特徴量)を算出し、局所記述子同士を比較することで実現する。具体的には、クエリ画像から取得したすべての特徴箇所に対して、検索対象データベース内の画像に含まれる特徴箇所のすべてと局所記述子の比較を行い、クエリ画像の各特徴箇所の最近傍となる特徴箇所を算出し、特徴箇所を含む検索対象データベース内画像に票を投じ、投票結果の得票数が最大となる画像をクエリ画像とのマッチング結果画像として出力する(例えば、非特許文献2参照)。 However, these region-based approaches have problems such as an increase in calculation time required for image matching and weakness against large image deformation. In recent years, feature-based image matching techniques have been actively studied. In feature-based matching, feature points (feature points and feature areas) with large changes in pixel gray values, such as corners, are extracted from each image in the query image and the search target database image, and the local regions around them are extracted. On the other hand, this is realized by calculating local descriptors (features) and comparing the local descriptors. Specifically, for all feature locations acquired from the query image, the local descriptor is compared with all the feature locations included in the image in the search target database, and the nearest neighbor of each feature location in the query image Is calculated, and a vote is cast on the image in the search target database including the characteristic portion, and an image with the maximum number of votes obtained as a voting result is output as a matching result image with the query image (for example, see Non-Patent Document 2). ).
なお、特徴点や特徴領域の抽出にはHarris-Affine region、Hessian-Affine region, Differenceof Gaussians(DoG) region、Maximally Stable Extremal Regions(MSER)といった手法があり、局所記述子としてSIFT (Scale-Invariant Feature Transform)やGLOH(Gradient Location-Orientation Histogram)が提案されている。また、SIFTを改良した手法として、PCA(Principal Component Analysis)−SIFT、SURF(Supeeded-Up Robust Features)、ASIFT(Affine-SIFT)なども提案されている(非特許文献1参照)。これらの特徴ベースのマッチング手法は領域ベースのマッチング手法と比較して計算時間が少ないこと、さらに画像変形にロバストであることから大量の画像を対象としてマッチングするような応用に適した手法である。 Note that there are methods such as Harris-Affine region, Hessian-Affine region, Difference of Gaussians (DoG) region, and Maximum Stable Extremal Regions (MSER) for extracting feature points and feature regions, and SIFT (Scale-Invariant Feature) Transform) and GLOH (Gradient Location-Orientation Histogram) have been proposed. Further, as a method for improving SIFT, PCA (Principal Component Analysis) -SIFT, SURF (Supeeded-Up Robust Features), ASIFT (Affine-SIFT), and the like have been proposed (see Non-Patent Document 1). These feature-based matching methods are suitable for applications that match a large number of images because they require less computation time than region-based matching methods and are robust to image deformation.
ところで、非特許文献2に記載の方法では、照合の際、各検索対象データベース内画像中に存在する特徴箇所の中で、クエリ画像の特徴箇所に対応する特徴箇所の個数を、各検索対象データベース内画像の得票数として比較している。すなわちクエリ画像の特徴箇所と対応する特徴箇所を有する検索対象データベース内画像のすべてに対して、同等の1票が対応数分投じられている。
By the way, in the method described in Non-Patent
このため、検索対象データベース内画像において、クエリ画像との画像マッチングの結果としてふさわしい画像以外の画像が有する特徴箇所が、クエリ画像が有する特徴箇所の最近傍として算出されるという誤対応付けが発生することがある。誤対応付けは主に、クエリ画像の特徴箇所に対する正しい対応箇所が撮影角度の変化によって存在しない、他の物体等によって隠ぺいされている、撮影環境の変化によって画像特徴が異なるなどが原因となり発生する。この誤対応付けが多く発生すると、画像マッチングの結果としてふさわしい画像の得票数が少なくなり、画像マッチングが正しく行えないという問題がある。 For this reason, in the image in the search target database, an erroneous association occurs in which a feature location of an image other than an image suitable as a result of image matching with the query image is calculated as the nearest neighborhood of the feature location of the query image. Sometimes. Mismatch is mainly caused by the fact that the correct corresponding location for the feature location in the query image does not exist due to a change in the shooting angle, is hidden by another object, etc., or the image feature changes due to a change in the shooting environment. . If many mis-associations occur, the number of votes of images suitable as a result of image matching decreases, and there is a problem that image matching cannot be performed correctly.
本発明は、このような事情に鑑みてなされたもので、誤対応付けが多く発生すると、画像マッチングの結果としてふさわしい画像の得票数が少なくなり、画像マッチングが正しく行えないという問題を解決するために、特徴ベースの画像マッチングにおいて、誤対応付けの影響を減らすことができる画像マッチング装置及び画像マッチングプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and in order to solve the problem that image matching cannot be performed correctly because the number of image votes suitable as a result of image matching is reduced when a large number of mis-associations occur. Another object of the present invention is to provide an image matching apparatus and an image matching program that can reduce the influence of incorrect matching in feature-based image matching.
本発明は、クエリ画像と、検索対象データベース内に予め保存された保存画像のそれぞれから抽出した特徴箇所毎に特徴量を算出する特徴表現手段と、前記クエリ画像と、前記保存画像間において、前記特徴表現手段により算出した前記特徴量からスコアを算出し、前記クエリ画像の前記特徴箇所に対応する前記保存画像へのスコア投票結果に基づき画像マッチングを行う照合手段とを備えた画像マッチング装置であって、前記照合手段は、前記クエリ画像と前記保存画像間において前記特徴箇所の対応付けの確からしさを示すスコアを投票し、前記スコア投票結果に基づき前記画像マッチングを行って、前記クエリ画像とマッチングする前記保存画像を求めることを特徴とする。 The present invention provides a feature representation means for calculating a feature amount for each feature location extracted from each of a query image and a stored image stored in advance in the search target database, and between the query image and the stored image, An image matching apparatus comprising: a matching unit that calculates a score from the feature amount calculated by a feature expression unit, and performs image matching based on a score vote result for the stored image corresponding to the feature portion of the query image. Then, the matching unit votes a score indicating the likelihood of the association between the feature location between the query image and the stored image, performs the image matching based on the score voting result, and matches the query image. The stored image is obtained.
本発明は、前記照合手段は、前記スコア投票結果を前記検索対象データベース内の前記保存画像中の特徴箇所数で正規化した値に基づき前記画像マッチングを行うことを特徴とする。 The present invention is characterized in that the collating means performs the image matching based on a value obtained by normalizing the score voting result by the number of characteristic portions in the stored image in the search target database.
本発明は、前記特徴表現手段は、前記クエリ画像と、前記保存画像を画像サイズに応じて正規化してから、前記特徴箇所を抽出することを特徴とする。 The present invention is characterized in that the feature expression means extracts the feature location after normalizing the query image and the saved image in accordance with an image size.
本発明は、前記照合手段は、前記クエリ画像とマッチングする前記保存画像を求める際に、前記検索対象データベース内の前記保存画像に対して、前記クエリ画像の特徴箇所と対応する特徴箇所のHessian値に基づいたスコア投票を行うことにより前記画像マッチングすることを特徴とする。 In the present invention, when the matching unit obtains the stored image that matches the query image, the Hessian value of the feature location corresponding to the feature location of the query image with respect to the saved image in the search target database. The image matching is performed by performing score voting based on the above.
本発明は、前記照合手段は、前記クエリ画像とマッチングする前記保存画像を求める際に、前記検索対象データベース内の前記保存画像に対して、前記クエリ画像の特徴箇所とのベクトル間距離値に基づいたスコア投票を行うことにより前記画像マッチングすることを特徴とする。 In the present invention, when the matching unit obtains the stored image that matches the query image, the matching unit is based on the inter-vector distance value between the stored image in the search target database and the feature location of the query image. The image matching is performed by performing score voting.
本発明は、前記照合手段は、前記検索対象データベース内の前記保存画像の特徴箇所の中で、前記クエリ画像の特徴箇所との前記ベクトル間距離値が最短となる特徴箇所を含む前記保存画像に対してスコアを投票することを特徴とする。 According to the present invention, the matching unit includes the feature image of the saved image in the search target database including the feature location having the shortest inter-vector distance value from the feature location of the query image. The score is voted against.
本発明は、前記照合手段は、前記検索対象データベース内の前記保存画像の特徴箇所の中で、前記クエリ画像の特徴箇所との前記ベクトル間距離値が小さい順から所定数の特徴箇所を含む前記保存画像それぞれに対してスコアを投票することを特徴とする。 In the present invention, the matching unit includes a predetermined number of feature locations in ascending order of the inter-vector distance value from the feature location of the query image among the feature locations of the saved image in the search target database. A score is voted for each of the stored images.
本発明は、前記照合手段は、前記検索対象データベース内の前記保存画像の特徴箇所の中で、前記クエリ画像の特徴箇所との前記ベクトル間距離値が小さい順から所定の条件を満たす特徴箇所を含む前記保存画像それぞれに対してスコアを投票することを特徴とする。 According to the present invention, the matching unit includes a feature location that satisfies a predetermined condition from the feature location of the saved image in the search target database in ascending order of the inter-vector distance value from the feature location of the query image. A score is voted for each of the stored images that are included.
本発明は、コンピュータを前記の画像マッチング装置として機能させることを特徴とする。 The present invention is characterized by causing a computer to function as the image matching device.
本発明によれば、画像マッチングの精度向上を実現できるという効果が得られる。 According to the present invention, it is possible to achieve an effect of improving the accuracy of image matching.
<第1の実施形態>
以下、図面を参照して、本発明の第1の実施形態による画像マッチング装置を説明する。図1は本実施形態の構成を示すブロック図である。画像マッチング装置はコンピュータ装置によって構成する。図1において、符号1は画像マッチング処理を行う画像マッチング部である。符号2は、カメラ等で撮影して得られた2次元画像データを入力する画像入力部である。符号3は、画像マッチング処理に必要なデータを記憶する記憶部である。符号4はキーボード等から構成する入力部である。符号5は、表示装置等から構成する表示部である。
<First Embodiment>
Hereinafter, an image matching apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of this embodiment. The image matching device is configured by a computer device. In FIG. 1,
符号11は、画像入力部2を介して入力したクエリ画像と記憶部3に予め用意してある検索対象データベース内画像の特徴箇所を抽出し、特徴箇所の局所記述子を算出する特徴表現部であり、正規化処理部111と特徴抽出部112とから構成する。符号12は、特徴表現部11で算出した各特徴箇所の局所記述子を、画像入力部2によって入力された画像と記憶部3に用意されている画像の特徴箇所間で比較し、投票の上画像マッチング結果を出力する照合部であり、スコア重みづけ部121と正規化処理部122とから構成する。
次に、図2を参照して、図1に示す画像マッチング装置の処理動作を説明する。ここではクエリとして2次元画像を入力し、1枚もしくは複数の2次元画像を検索対象データベースとして予め記憶部3に記憶しておくものとして説明する。ここでは、図1に示す特徴表現部11が画像入力部2から入力したクエリ画像と、記憶部3に予め保存した検索対象データベース内画像から、特徴箇所を抽出し、この特徴箇所ごとに局所記述子を算出し保存する動作を説明する。図2は、画像入力部2から入力したクエリ画像と記憶部3に予め保存した検索対象データベース内画像から、特徴箇所を抽出し、この特徴箇所ごとに局所記述子を算出し保存する動作を示すフローチャートである。
Next, the processing operation of the image matching apparatus shown in FIG. 1 will be described with reference to FIG. Here, a description will be given assuming that a two-dimensional image is input as a query and one or a plurality of two-dimensional images are stored in advance in the storage unit 3 as a search target database. Here, a feature location is extracted from the query image input from the
まず、ユーザが入力部4を操作して、2次元画像の入力を指示すると、特徴表現部11は画像入力部2から2次元画像データを入力する(ステップS1)。入力した2次元画像データはユーザ入力のクエリ画像と記憶部3に予め保存した検索対象データベース内の画像とする。なお検索対象データベース内画像の画像サイズが異なる場合は、正規化処理部111が画像サイズを正規化して入力する。この正規化は画像サイズによって特徴箇所検出時に検出される特徴箇所数を公平に保つ意味を持ち、最終的に特徴箇所の対応付けを行う際、この対応付けの確からしさを向上させる効果がある。
First, when the user operates the input unit 4 to instruct input of a two-dimensional image, the
次に、特徴抽出部112は入力した画像から特徴箇所を抽出し(ステップS2)、抽出したすべての特徴箇所で局所記述子を算出する(ステップS3)。なお特徴抽出処理は例えば非特許文献1に記載の方法であるHarris-Affine region、Hessian-Affine region、Difference of Gaussians(DOG)やMaximally Stable Extremal Regions(MSER)等の方法を用いて実行する。また局所記述子は例えば非特許文献1に記載の方法であるSIFT、GLOH、PCA−SIFT、SURFやASIFT等の方法を用いて実行する。特徴抽出部112は、入力したすべての2次元画像データに対して特徴箇所抽出処理および局所記述子算出処理を行う。最後に2次元画像データの画像ファイル名と、各々の画像から得られた特徴箇所の局所記述子を関連付けて特徴データとして記憶部3に保存する(ステップS4)。
Next, the
次に、図3を参照して図1に示す照合部12が、特徴表現部11が記憶部3に保存した特徴データをもとに、クエリ画像と検索対象データベース内画像間において特徴箇所の局所記述子の比較を行い、画像マッチング結果を出力する動作を説明する。図3は、クエリ画像内の特徴箇所の局所記述子を、検索対象データベース内画像中の特徴箇所の局所記述子と比較し、最近傍となる特徴箇所を有する検索対象データベース内画像に投票を行い、クエリ画像の特徴箇所の最近傍となる特徴箇所を多く有する検索対象データベース内画像を特定し、この画像や各検索対象データベース内画像の投票結果ランキングを画像マッチング結果として出力する動作を示すフローチャートである。
Next, referring to FIG. 3, the collation unit 12 shown in FIG. 1 uses the feature data stored in the storage unit 3 by the
まず、照合部12は記憶部3からクエリ画像と検索対象データベース内画像の各々から抽出した特徴箇所の局所記述子が保存されている特徴データを読み出す(ステップS11)。そして、照合部12は読み出した特徴データのうち、クエリ画像の局所記述子群と検索対象データベース内画像の局所記述子群とを比較する。比較処理ではまずクエリ画像の特徴箇所の局所記述子をベクトル表現し、クエリ特徴ベクトルとする。この処理をクエリ画像の特徴箇所すべてに対して実施し、クエリ特徴ベクトル群を算出する。同じように検索対象データベース内画像のすべての特徴箇所の局所記述子をベクトル表現し、検索対象特徴ベクトル群を算出する。 First, the collation unit 12 reads out the feature data in which the local descriptor of the feature location extracted from each of the query image and the search target database image is stored from the storage unit 3 (step S11). And the collation part 12 compares the local descriptor group of a query image with the local descriptor group of the image in a search object database among the read feature data. In the comparison process, first, the local descriptor of the feature portion of the query image is expressed as a vector to obtain a query feature vector. This process is performed for all the feature portions of the query image, and a query feature vector group is calculated. Similarly, the local descriptors of all feature locations of the image in the search target database are expressed as vectors, and a search target feature vector group is calculated.
次に、クエリ画像のm番目の特徴箇所の特徴ベクトルに対して、検索対象特徴ベクトル群の各々のベクトルとのベクトル間距離を計算し(ステップS12)、このベクトル間距離が最も小さくなる検索対象特徴ベクトルを探索し、この検索対象特徴ベクトルを有する検索対象データベース内画像に対して投票を行う(ステップS13)。なお、ベクトル間距離は、特徴箇所の類似度の確からしさを表し、対象となる2つのn次ベクトルx=(x1,x2,...,xn)T、y=(y1,y2,...,yn)Tのユークリッド距離dEmを求める(1)式によって求めることができる。 Next, an inter-vector distance with each vector of the search target feature vector group is calculated with respect to the feature vector of the m-th feature location of the query image (step S12), and the search target with the smallest inter-vector distance is calculated. A feature vector is searched, and a vote is performed for the image in the search target database having the search target feature vector (step S13). The inter-vector distance represents the likelihood of the similarity of the feature portion, and the two target n-order vectors x = (x 1 , x 2 ,..., X n ) T , y = (y 1 , y 2 ,..., y n ) The Euclidean distance d Em of T can be obtained by equation (1).
なお、ベクトル間距離の算出方法は、マンハッタン距離など他の公知の方法を用いてもよい。投票時は、特徴箇所の対応付けの確からしさの指標として、スコア重みづけ部121が、上記で求めたベクトル間距離や特徴表現部で算出した特徴箇所の特徴強度(Hessian値)等の値を用いて、スコア値を算出してもよい。この確からしさはベクトル間距離に反比例し、Hessian値に比例する。例えばクエリ画像中のm番目の特徴箇所において、(2)式のようにベクトル間距離値とoffset値を加算した値の逆数をスコア値Smとして投票する。また、このoffset値は、ベクトル間距離値が0のときに逆数が存在しないために設定する調整値であるため、投票に影響を与えない程度に小さい数値を設定するのが良い。例えば0.0001を設定する。Hessian値を指標とする場合は、対応する検索対象データベース内画像中の特徴箇所のHessian値そのものをスコア値としてもよい。この処理をすべてのクエリ画像の特徴箇所に対して実施する。
最後に開票処理として、正規化処理部122が、すべての検索対象データベース内画像において合計スコア値を各画像の有する特徴箇所合計数に応じて正規化する。この正規化は各検索対象データベース内画像における特徴箇所のうち、どれだけ多くの特徴箇所がクエリ画像の特徴箇所と対応づいているかを求めるもので、最終的に特徴箇所の対応付けを行う際にこの対応付けの確からしさを向上させる効果がある。続いて合計スコア値が最大となる画像を求め、もしくは合計スコア値によってランキング化し、マッチング結果として出力する(ステップS14)。
Finally, as the vote counting process, the
以上説明したように照合時に、クエリ画像と検索対象データベース内画像群の特徴箇所の対応付けの後、対応付けの確からしさを重みとした投票を実施することにより、投票時に重みづけを行わない従来手法と比較し、誤対応が発生した際の影響を削減することが可能となる。 As described above, at the time of matching, after matching the query image and the feature portion of the image group in the search target database, the weighting at the time of voting is performed by performing voting with the probability of matching as a weight. Compared with the method, it is possible to reduce the influence when a mishandling occurs.
<第2の実施形態>
次に、図4を参照して、本発明の第2の実施形態による画像マッチング装置を説明する。第1の実施形態では照合時の投票処理において、検索対象特徴ベクトルの中からクエリ画像の各特徴ベクトルに対する最近傍の特徴箇所を求め、対応するベクトル間のベクトル間距離値からスコア値を算出し投票を行った。第2の実施形態以降では、投票処理においてクエリ画像の各特徴ベクトルに対して、最近傍のみならず第2近傍以降のベクトル間距離情報を用いることで、類似する複数画像を求めることができ、精度を向上させることができる画像マッチング装置について説明する。
<Second Embodiment>
Next, an image matching device according to a second embodiment of the present invention will be described with reference to FIG. In the first embodiment, in the voting process at the time of matching, the nearest feature point for each feature vector of the query image is obtained from the search target feature vectors, and the score value is calculated from the inter-vector distance value between the corresponding vectors. Voted. In the second embodiment or later, for each feature vector of the query image in the voting process, it is possible to obtain a plurality of similar images by using not only the nearest neighbor but also vector distance information after the second neighborhood, An image matching apparatus capable of improving accuracy will be described.
まず、特徴データを読み出した(ステップS21)後の照合時の投票処理において、クエリ画像の特徴箇所の特徴ベクトルに対して検索対象特徴ベクトル群の各々のベクトルとベクトル間距離を計算し(ステップS22)、このベクトル間距離が小さい順に検索対象特徴ベクトルのランキングを生成する。次にこのランキングにおいて、予め設定した投票対象数K番目までに該当する検索対象特徴ベクトルを有する検索対象データベース内画像に対して投票を行う(ステップS23)。投票対象数Kは例えば5を設定するとクエリ画像の各特徴箇所に対して、検索対象データベース内画像の特徴箇所の中で、最近傍から第5近傍となる特徴箇所にそれぞれ投票を行う。投票時はクエリ画像中のm番目の特徴箇所における第k近傍(1≦k≦5)におけるベクトル間距離をdEmkとすると、スコア値Smkを(3)式のように前記ベクトル間距離値とoffset値を加算した値の逆数として算出し、該当する検索対象データベース内画像にそれぞれ投票する。なお、第2の実施形態においても、特徴箇所の対応付けの確からしさの指標として、スコア重みづけ部121が、上記で求めたベクトル間距離や特徴表現部で算出した特徴箇所の特徴強度(Hessian値)等の値を用いて、スコア値を算出してもよい。この投票処理をすべてのクエリ画像の特徴箇所に対して実施する。
最後に開票処理として、正規化処理部122が、すべての検索対象データベース内画像において合計スコア値を各画像の有する特徴箇所合計数に応じて正規化する。そのあと合計スコア値が最大となる画像を求め、もしくは合計スコア値によってランキング化し、マッチング結果として出力する(ステップS24)。
Finally, as the vote counting process, the
以上説明したように照合時に、クエリ画像の特徴箇所に対応する検索対象データベース内画像群の特徴箇所をK近傍まで対応付けした後、クエリ画像の各々の特徴箇所に対してベクトル間距離値を重みとした投票をK近傍まで実施することにより、第1の実施形態と比較し精度向上が実現できる。特に検索対象データベース中にクエリ画像の特徴箇所と類似する特徴箇所を多く含むときに、ベクトル間距離に有意差の無い近傍間において、重みづけに差がでないような投票スコア付けをすることができ精度の向上が可能となる。 As described above, at the time of matching, after associating the feature location of the image group in the search target database corresponding to the feature location of the query image up to the vicinity of K, the inter-vector distance value is weighted for each feature location of the query image. By implementing up to the vicinity of K, the accuracy can be improved as compared with the first embodiment. In particular, when the search target database contains many feature parts similar to the feature parts of the query image, voting scores can be given so that there is no difference in weighting between the neighborhoods where there is no significant difference between vectors. The accuracy can be improved.
<第3の実施形態>
次に、図5を参照して、本発明の第3の実施形態による画像マッチング装置を説明する。第2の実施形態では投票対象となる近傍数Kを事前に指定し投票を実施した。第3の実施形態では近傍間の投票スコアに有意差が発生した時点で自動的に投票を打ち切ることで、高速かつ高精度な画像マッチングを実現する画像マッチング装置について説明する。
<Third Embodiment>
Next, an image matching apparatus according to a third embodiment of the present invention will be described with reference to FIG. In the second embodiment, the number of neighbors K to be voted for is designated in advance and voted. In the third embodiment, an image matching apparatus that realizes high-speed and high-accuracy image matching by automatically quitting voting when a significant difference occurs in voting scores between neighbors will be described.
まず、特徴データを読み出した(ステップS31)後の照合時の投票処理において、クエリ画像のm番目の特徴箇所の特徴ベクトルに対して検索対象特徴ベクトル群の各々のベクトルとベクトル間距離を計算し(ステップS32)、このベクトル間距離が小さい順に検索対象データベース内画像のランキングを生成する。次に投票処理を行うが、予め設定した閾値係数をRとしたとき、l近傍の投票を判別式である(4)式を満たすか満たさないか(ステップS33)によって投票処理の実施の有無を決定する。Rは例えば0.5に設定する。なお、Rの値は大きければ大きいほど投票対象数が少なくなり、小さければ小さいほど投票対象数が多くなる。この判別式を満たさない(=0)場合は投票処理を実施し、次の近傍である(l+1)近傍における判別式にかける。判別式を満たしたら投票処理を行わず、クエリ画像の(m+1)番目の特徴箇所の特徴ベクトルに対する処理に移る。
このようにしてクエリ画像の特徴箇所ごとに投票対象数を変更しながら、クエリ画像のすべての特徴箇所に対応する検索対象データベース内画像に投票を実施する(ステップS34)。各投票スコアの算出方法は実施形態2と同様である。 In this way, while changing the number of votes for each feature location of the query image, voting is performed on the images in the search target database corresponding to all the feature locations of the query image (step S34). The calculation method of each vote score is the same as that of the second embodiment.
最後に第2の実施形態と同様に開票処理として、正規化処理部122が、すべての検索対象データベース内画像において合計スコア値を各画像の有する特徴箇所合計数に応じて正規化する。そのあと合計スコア値が最大となる画像を求め、もしくは合計スコア値によってランキング化し、マッチング結果として出力する(ステップS35)。
Finally, as in the case of the second embodiment, as a vote counting process, the
このように、照合時において、クエリ画像と検索対象データベース内画像群の特徴箇所の対応付けの後、各々のベクトル間距離を重みとした投票を複数候補に対して実施することにより、第1の実施形態と比較し、特に検索対象データベース中にクエリ画像の特徴箇所と類似する特徴箇所を多く含むときに、有意差の無い近傍間で重みづけに差がでないような投票スコア付けすることができ精度の向上が可能となる。さらに投票対象数を固定せずクエリ画像の特徴箇所ごとに近傍間の差を確認しながら投票対票数を自動的に割り当てて実施するため、無駄な投票を防ぐことができ、第2の実施形態と比較し、高速かつ高精度な画像マッチングを実現できる。 As described above, at the time of matching, after associating the query image with the feature portion of the image group in the search target database, the voting is performed on a plurality of candidates by using the distances between the vectors as the weights. Compared with the embodiment, especially when the search target database includes many feature parts similar to the feature parts of the query image, it is possible to make a voting score so that there is no difference in weighting between the neighborhoods having no significant difference. The accuracy can be improved. Furthermore, since the number of votes to be voted is automatically assigned and executed while confirming the difference between the neighborhoods for each feature portion of the query image without fixing the number of votes, the second embodiment can prevent useless votes. Compared with, high-speed and high-precision image matching can be realized.
なお、すべての実施形態において、図1の特徴表現部における画像サイズに応じた正規化、および照合部における各検索対象データベース内画像の合計スコア値の特徴箇所数に応じた正規化は各々実施しても実施しなくてもよい。 In all of the embodiments, normalization according to the image size in the feature representation unit in FIG. 1 and normalization according to the number of feature locations of the total score value of each search target database image in the matching unit are performed. However, it is not necessary to carry out.
以上説明したように、画像マッチング時に投票スコア値に重みづけを行い、この投票スコア値の確からしさを向上させるために、特徴表現部11において画像サイズに応じた正規化処理を行った後に特徴抽出を行うようにした。また照合部12において重みづけをした対応付けの後に合計スコア値を各検索対象データベース内画像群の特徴箇所数に応じて正規化するようにした。これにより、画像マッチングの精度向上を実現することができる。
As described above, the voting score value is weighted at the time of image matching, and in order to improve the certainty of the voting score value, the
なお、図1における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像マッチング処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute image matching processing. You may go. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
以上、本発明を実施形態例に基づき具体的に説明したが、上記実施の形態の説明は、本発明を説明するためのものであって、特許請求の範囲に記載の発明を限定し、或いは範囲を減縮する様に解すべきではない。また、本発明の各部の構成は、上記実施の形態に限らず、特許請求の範囲に記載の技術的範囲内で種々の変形が可能であることは勿論である。 Although the present invention has been specifically described above based on the embodiments, the description of the above embodiments is for explaining the present invention, and limits the invention described in the claims, or It should not be construed as reducing the scope. Further, the configuration of each part of the present invention is not limited to the above-described embodiment, and various modifications can be made within the technical scope described in the claims.
誤対応付けが多く発生すると、画像マッチングの結果としてふさわしい画像の得票数が少なくなり、画像マッチングが正しく行えないという問題を解決するために、特徴ベースの画像マッチングにおいて、誤対応付けの影響を減らすことが不可欠な用途に適用できる。 In order to solve the problem that image matching cannot be performed correctly due to a decrease in the number of votes of images suitable as a result of image matching when a large number of misassociations occur, the influence of misassociation is reduced in feature-based image matching. Can be applied to indispensable uses.
1・・・画像マッチング部、11・・・特徴表現部、111・・・正規化処理部、112・・・特徴抽出部、12・・・照合部、121・・・スコア重みづけ部、122・・・正規化処理部、2・・・画像入力部、3・・・記憶部、4・・・入力部、5・・・表示部
DESCRIPTION OF
Claims (6)
前記クエリ画像と、前記保存画像間において、前記特徴表現手段により算出した前記特徴量からスコアを算出し、前記クエリ画像の前記特徴箇所に対応する前記保存画像へのスコア投票結果に基づき画像マッチングを行う照合手段とを備えた画像マッチング装置であって、
前記照合手段は、
前記クエリ画像の特徴箇所の特徴量から生成されるベクトルと前記保存画像の特徴箇所の特徴量から生成されるベクトルとのベクトル間距離を算出し、前記ベクトル間距離の昇順に並べた前記クエリ画像の特徴箇所毎の前記保存画像のリストを生成し、
前記クエリ画像の特徴箇所の特徴量から生成されるベクトルと前記リスト中i(iは自然数)番目の保存画像の特徴箇所の特徴量から生成されるベクトルとのベクトル間距離と、前記クエリ画像の特徴箇所の特徴量から生成されるベクトルと前記リスト中(i+1)番目の保存画像の特徴箇所の特徴量から生成されるベクトルとのベクトル間距離とに有意な差が発生する最小のi番目までの保存画像を特定し、
前記クエリ画像の特徴箇所毎に特定された最小のi番目までの保存画像に対して、クエリ画像の特徴箇所と保存画像の特徴箇所との対応づけの確からしさを示すスコアを投票し、前記スコア投票結果に基づき前記画像マッチングを行って、前記クエリ画像とマッチングする前記保存画像を求めることを特徴とする画像マッチング装置。 A feature representation means for calculating a feature amount for each feature location extracted from each of a query image and a stored image stored in advance in the search target database;
A score is calculated from the feature amount calculated by the feature expression means between the query image and the saved image, and image matching is performed based on a score vote result for the saved image corresponding to the feature location of the query image. An image matching device comprising a matching means for performing,
The verification means includes
The query image calculated by calculating the inter-vector distance between the vector generated from the feature quantity of the feature location of the query image and the vector generated from the feature quantity of the feature location of the stored image, and arranged in ascending order of the inter-vector distance. A list of the stored images for each feature point of
The inter-vector distance between the vector generated from the feature quantity of the feature location of the query image and the vector generated from the feature quantity of the feature location of the i-th stored image in the list (i is a natural number), and the query image Up to the smallest i-th occurrence of a significant difference between the vector generated from the feature quantity of the feature location and the vector distance between the vector generated from the feature quantity of the feature location of the (i + 1) -th stored image in the list Identify saved images of
Vote for a score indicating the probability of correspondence between the feature location of the query image and the feature location of the saved image with respect to the smallest i-th saved image specified for each feature location of the query image, and the score An image matching apparatus that performs the image matching based on a voting result to obtain the stored image that matches the query image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011210647A JP5616310B2 (en) | 2011-09-27 | 2011-09-27 | Image matching apparatus and image matching program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011210647A JP5616310B2 (en) | 2011-09-27 | 2011-09-27 | Image matching apparatus and image matching program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013073333A JP2013073333A (en) | 2013-04-22 |
JP5616310B2 true JP5616310B2 (en) | 2014-10-29 |
Family
ID=48477815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011210647A Expired - Fee Related JP5616310B2 (en) | 2011-09-27 | 2011-09-27 | Image matching apparatus and image matching program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5616310B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6188147B2 (en) * | 2013-10-15 | 2017-08-30 | 国立大学法人広島大学 | Recognition system |
JP6431302B2 (en) * | 2014-06-30 | 2018-11-28 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
CN106709502B (en) * | 2016-11-18 | 2023-06-20 | 深圳信息职业技术学院 | Multi-feature fusion recognition method based on voting method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4384366B2 (en) * | 2001-01-12 | 2009-12-16 | 富士通株式会社 | Image collation processing system and image collation method |
JP5239921B2 (en) * | 2009-02-10 | 2013-07-17 | 公立大学法人大阪府立大学 | Line image original search method |
-
2011
- 2011-09-27 JP JP2011210647A patent/JP5616310B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013073333A (en) | 2013-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11908239B2 (en) | Image recognition network model training method, image recognition method and apparatus | |
US11816888B2 (en) | Accurate tag relevance prediction for image search | |
JP6144839B2 (en) | Method and system for retrieving images | |
US8533162B2 (en) | Method for detecting object | |
US8805117B2 (en) | Methods for improving image search in large-scale databases | |
US9984280B2 (en) | Object recognition system using left and right images and method | |
US11132392B2 (en) | Image retrieval method, image retrieval apparatus, image retrieval device and medium | |
US20120301014A1 (en) | Learning to rank local interest points | |
US9064171B2 (en) | Detection device and method for transition area in space | |
JP5818327B2 (en) | Method and apparatus for creating image database for 3D object recognition | |
JP2018205937A (en) | Image retrieval device and program | |
JP5563494B2 (en) | Corresponding reference image search device and method, content superimposing device, system and method, and computer program | |
CN106682700B (en) | Block rapid matching method based on key point description operator | |
JP6211407B2 (en) | Image search system, image search device, search server device, image search method, and image search program | |
JP5616310B2 (en) | Image matching apparatus and image matching program | |
JP2014102746A (en) | Subject recognition device and subject recognition program | |
JP2019028700A (en) | Verification device, method, and program | |
JP6017277B2 (en) | Program, apparatus and method for calculating similarity between contents represented by set of feature vectors | |
JP5520353B2 (en) | BoF expression generation device and BoF expression generation method | |
JP2014225168A (en) | Program, device, and method for calculating similarity between images represented by feature point set | |
CN111401252B (en) | Book spine matching method and equipment of book checking system based on vision | |
Huo et al. | Person re-identification based on multi-directional saliency metric learning | |
US9189693B2 (en) | Information processing apparatus and information processing method | |
KR102473724B1 (en) | Image registration method and apparatus using siamese random forest | |
JP5723301B2 (en) | Subject recognition device and subject recognition program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20130606 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130731 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130801 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140402 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140909 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5616310 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |