JP5616310B2 - Image matching apparatus and image matching program - Google Patents

Image matching apparatus and image matching program Download PDF

Info

Publication number
JP5616310B2
JP5616310B2 JP2011210647A JP2011210647A JP5616310B2 JP 5616310 B2 JP5616310 B2 JP 5616310B2 JP 2011210647 A JP2011210647 A JP 2011210647A JP 2011210647 A JP2011210647 A JP 2011210647A JP 5616310 B2 JP5616310 B2 JP 5616310B2
Authority
JP
Japan
Prior art keywords
image
feature
matching
query
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011210647A
Other languages
Japanese (ja)
Other versions
JP2013073333A (en
Inventor
浩子 藪下
浩子 藪下
島村 潤
潤 島村
森本 正志
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011210647A priority Critical patent/JP5616310B2/en
Publication of JP2013073333A publication Critical patent/JP2013073333A/en
Application granted granted Critical
Publication of JP5616310B2 publication Critical patent/JP5616310B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、特徴対応に基づく画像マッチングを行う画像マッチング装置及び画像マッチングプログラムに関する。   The present invention relates to an image matching apparatus and an image matching program that perform image matching based on feature correspondence.

近年、画像処理・コンピュータビジョン・パターン認識などの幅広い分野において、画像マッチングの研究が盛んに行われている。画像マッチングとは、ユーザによって入力された1枚のクエリ画像と、検索対象として1枚もしくは複数の画像を有するデータベースが存在するときに、検索対象データベース内画像群からクエリ画像と同様、もしくは類似した画像を求める技術である。画像マッチングはその閾値の設定によって、検索対象データベース内にクエリ画像と同様もしくは類似した画像が存在するか否かの判定にも利用することができる。   In recent years, research on image matching has been actively conducted in a wide range of fields such as image processing, computer vision, and pattern recognition. Image matching is the same as or similar to a query image from a group of images in the search target database when there is a single query image input by the user and a database having one or more images as search targets. This is a technique for obtaining images. Image matching can also be used to determine whether an image similar to or similar to the query image exists in the search target database by setting the threshold value.

画像マッチングのアプローチは領域ベースのものと特徴ベースのものに大別される。領域ベースのマッチング手法は、2枚の画像間の相違度および類似度に基づきマッチングを行う。具体的にはクエリ画像もしくはクエリ画像中のオブジェクト部分をテンプレート画像として、検索対象データベース内の画像に対して該テンプレート画像を少しずつずらしながら比較を行い、この処理をすべての検索対象データベース内画像に対して行うことで画像マッチングを実現する。比較の際は例えばSAD(Sum of Absolute Differences)やSSD(Sum of Squared Differences)といった手法を用いてクエリ画像と検索対象データベース内画像間の相違度が最小となる画像やその位置を求める方法、もしくはNCC(Normalized Cross Correlation)やPOC(Phase-Only Correlation)といった手法を用いてクエリ画像と検索対象データベース内画像間の類似度が最大となる画像やその位置を求める方法がある(例えば、非特許文献1参照)。   Image matching approaches are broadly divided into region-based and feature-based approaches. The region-based matching method performs matching based on the difference and similarity between two images. Specifically, the query image or the object part in the query image is used as a template image, and the template image is compared with the image in the search target database while gradually shifting, and this processing is performed on all the search target database images. By doing so, image matching is realized. At the time of comparison, for example, a method for obtaining an image or position where the difference between the query image and the image in the search target database is minimized using a technique such as SAD (Sum of Absolute Differences) or SSD (Sum of Squared Differences), or There is a method for obtaining an image having the maximum similarity between a query image and a search target database image and a position thereof using a method such as NCC (Normalized Cross Correlation) or POC (Phase-Only Correlation) (for example, non-patent literature) 1).

しかし、これらの領域ベースのアプローチは画像マッチングに要する計算時間が多くなり、また大きな画像変形に弱いといった問題がある。そこで近年、特徴ベースの画像マッチング手法が盛んに研究されている。特徴ベースのマッチングは、クエリ画像と検索対象データベース内画像において、各画像からコーナーのように画素の濃淡値の変化が大きい特徴箇所(特徴点や特徴領域)を抽出し、その周囲の局所領域に対して局所記述子(特徴量)を算出し、局所記述子同士を比較することで実現する。具体的には、クエリ画像から取得したすべての特徴箇所に対して、検索対象データベース内の画像に含まれる特徴箇所のすべてと局所記述子の比較を行い、クエリ画像の各特徴箇所の最近傍となる特徴箇所を算出し、特徴箇所を含む検索対象データベース内画像に票を投じ、投票結果の得票数が最大となる画像をクエリ画像とのマッチング結果画像として出力する(例えば、非特許文献2参照)。   However, these region-based approaches have problems such as an increase in calculation time required for image matching and weakness against large image deformation. In recent years, feature-based image matching techniques have been actively studied. In feature-based matching, feature points (feature points and feature areas) with large changes in pixel gray values, such as corners, are extracted from each image in the query image and the search target database image, and the local regions around them are extracted. On the other hand, this is realized by calculating local descriptors (features) and comparing the local descriptors. Specifically, for all feature locations acquired from the query image, the local descriptor is compared with all the feature locations included in the image in the search target database, and the nearest neighbor of each feature location in the query image Is calculated, and a vote is cast on the image in the search target database including the characteristic portion, and an image with the maximum number of votes obtained as a voting result is output as a matching result image with the query image (for example, see Non-Patent Document 2). ).

なお、特徴点や特徴領域の抽出にはHarris-Affine region、Hessian-Affine region, Differenceof Gaussians(DoG) region、Maximally Stable Extremal Regions(MSER)といった手法があり、局所記述子としてSIFT (Scale-Invariant Feature Transform)やGLOH(Gradient Location-Orientation Histogram)が提案されている。また、SIFTを改良した手法として、PCA(Principal Component Analysis)−SIFT、SURF(Supeeded-Up Robust Features)、ASIFT(Affine-SIFT)なども提案されている(非特許文献1参照)。これらの特徴ベースのマッチング手法は領域ベースのマッチング手法と比較して計算時間が少ないこと、さらに画像変形にロバストであることから大量の画像を対象としてマッチングするような応用に適した手法である。   Note that there are methods such as Harris-Affine region, Hessian-Affine region, Difference of Gaussians (DoG) region, and Maximum Stable Extremal Regions (MSER) for extracting feature points and feature regions, and SIFT (Scale-Invariant Feature) Transform) and GLOH (Gradient Location-Orientation Histogram) have been proposed. Further, as a method for improving SIFT, PCA (Principal Component Analysis) -SIFT, SURF (Supeeded-Up Robust Features), ASIFT (Affine-SIFT), and the like have been proposed (see Non-Patent Document 1). These feature-based matching methods are suitable for applications that match a large number of images because they require less computation time than region-based matching methods and are robust to image deformation.

伊藤康一,高橋徹,青木孝文,“高精度な画像マッチング手法の検討”,第25回信号処理シンポジウム,No.C5−1,pp.547−552,2010.Koichi Ito, Toru Takahashi, Takafumi Aoki, “Examination of high-precision image matching method”, 25th Signal Processing Symposium, No. C5-1, pp. 547-552, 2010. 本道貴行,黄瀬浩一,“大規模画像認識のための局所特徴量の性能比較”,画像の認識・理解シンポジウム(MIRU2008)論文集,IS5−6,pp.550−555,2008.Takayuki Hondo and Koichi Kise, “Performance comparison of local features for large-scale image recognition”, Image Recognition and Understanding Symposium (MIRU2008) Proceedings, IS5-6, pp. 550-555, 2008.

ところで、非特許文献2に記載の方法では、照合の際、各検索対象データベース内画像中に存在する特徴箇所の中で、クエリ画像の特徴箇所に対応する特徴箇所の個数を、各検索対象データベース内画像の得票数として比較している。すなわちクエリ画像の特徴箇所と対応する特徴箇所を有する検索対象データベース内画像のすべてに対して、同等の1票が対応数分投じられている。   By the way, in the method described in Non-Patent Document 2, at the time of collation, the number of feature locations corresponding to the feature locations of the query image among the feature locations existing in the images in each search target database is calculated. The number of votes for the inner image is compared. That is, one equivalent vote is cast for all the images in the search target database that have feature locations corresponding to the feature locations of the query image.

このため、検索対象データベース内画像において、クエリ画像との画像マッチングの結果としてふさわしい画像以外の画像が有する特徴箇所が、クエリ画像が有する特徴箇所の最近傍として算出されるという誤対応付けが発生することがある。誤対応付けは主に、クエリ画像の特徴箇所に対する正しい対応箇所が撮影角度の変化によって存在しない、他の物体等によって隠ぺいされている、撮影環境の変化によって画像特徴が異なるなどが原因となり発生する。この誤対応付けが多く発生すると、画像マッチングの結果としてふさわしい画像の得票数が少なくなり、画像マッチングが正しく行えないという問題がある。   For this reason, in the image in the search target database, an erroneous association occurs in which a feature location of an image other than an image suitable as a result of image matching with the query image is calculated as the nearest neighborhood of the feature location of the query image. Sometimes. Mismatch is mainly caused by the fact that the correct corresponding location for the feature location in the query image does not exist due to a change in the shooting angle, is hidden by another object, etc., or the image feature changes due to a change in the shooting environment. . If many mis-associations occur, the number of votes of images suitable as a result of image matching decreases, and there is a problem that image matching cannot be performed correctly.

本発明は、このような事情に鑑みてなされたもので、誤対応付けが多く発生すると、画像マッチングの結果としてふさわしい画像の得票数が少なくなり、画像マッチングが正しく行えないという問題を解決するために、特徴ベースの画像マッチングにおいて、誤対応付けの影響を減らすことができる画像マッチング装置及び画像マッチングプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and in order to solve the problem that image matching cannot be performed correctly because the number of image votes suitable as a result of image matching is reduced when a large number of mis-associations occur. Another object of the present invention is to provide an image matching apparatus and an image matching program that can reduce the influence of incorrect matching in feature-based image matching.

本発明は、クエリ画像と、検索対象データベース内に予め保存された保存画像のそれぞれから抽出した特徴箇所毎に特徴量を算出する特徴表現手段と、前記クエリ画像と、前記保存画像間において、前記特徴表現手段により算出した前記特徴量からスコアを算出し、前記クエリ画像の前記特徴箇所に対応する前記保存画像へのスコア投票結果に基づき画像マッチングを行う照合手段とを備えた画像マッチング装置であって、前記照合手段は、前記クエリ画像と前記保存画像間において前記特徴箇所の対応付けの確からしさを示すスコアを投票し、前記スコア投票結果に基づき前記画像マッチングを行って、前記クエリ画像とマッチングする前記保存画像を求めることを特徴とする。   The present invention provides a feature representation means for calculating a feature amount for each feature location extracted from each of a query image and a stored image stored in advance in the search target database, and between the query image and the stored image, An image matching apparatus comprising: a matching unit that calculates a score from the feature amount calculated by a feature expression unit, and performs image matching based on a score vote result for the stored image corresponding to the feature portion of the query image. Then, the matching unit votes a score indicating the likelihood of the association between the feature location between the query image and the stored image, performs the image matching based on the score voting result, and matches the query image. The stored image is obtained.

本発明は、前記照合手段は、前記スコア投票結果を前記検索対象データベース内の前記保存画像中の特徴箇所数で正規化した値に基づき前記画像マッチングを行うことを特徴とする。   The present invention is characterized in that the collating means performs the image matching based on a value obtained by normalizing the score voting result by the number of characteristic portions in the stored image in the search target database.

本発明は、前記特徴表現手段は、前記クエリ画像と、前記保存画像を画像サイズに応じて正規化してから、前記特徴箇所を抽出することを特徴とする。   The present invention is characterized in that the feature expression means extracts the feature location after normalizing the query image and the saved image in accordance with an image size.

本発明は、前記照合手段は、前記クエリ画像とマッチングする前記保存画像を求める際に、前記検索対象データベース内の前記保存画像に対して、前記クエリ画像の特徴箇所と対応する特徴箇所のHessian値に基づいたスコア投票を行うことにより前記画像マッチングすることを特徴とする。   In the present invention, when the matching unit obtains the stored image that matches the query image, the Hessian value of the feature location corresponding to the feature location of the query image with respect to the saved image in the search target database. The image matching is performed by performing score voting based on the above.

本発明は、前記照合手段は、前記クエリ画像とマッチングする前記保存画像を求める際に、前記検索対象データベース内の前記保存画像に対して、前記クエリ画像の特徴箇所とのベクトル間距離値に基づいたスコア投票を行うことにより前記画像マッチングすることを特徴とする。   In the present invention, when the matching unit obtains the stored image that matches the query image, the matching unit is based on the inter-vector distance value between the stored image in the search target database and the feature location of the query image. The image matching is performed by performing score voting.

本発明は、前記照合手段は、前記検索対象データベース内の前記保存画像の特徴箇所の中で、前記クエリ画像の特徴箇所との前記ベクトル間距離値が最短となる特徴箇所を含む前記保存画像に対してスコアを投票することを特徴とする。   According to the present invention, the matching unit includes the feature image of the saved image in the search target database including the feature location having the shortest inter-vector distance value from the feature location of the query image. The score is voted against.

本発明は、前記照合手段は、前記検索対象データベース内の前記保存画像の特徴箇所の中で、前記クエリ画像の特徴箇所との前記ベクトル間距離値が小さい順から所定数の特徴箇所を含む前記保存画像それぞれに対してスコアを投票することを特徴とする。   In the present invention, the matching unit includes a predetermined number of feature locations in ascending order of the inter-vector distance value from the feature location of the query image among the feature locations of the saved image in the search target database. A score is voted for each of the stored images.

本発明は、前記照合手段は、前記検索対象データベース内の前記保存画像の特徴箇所の中で、前記クエリ画像の特徴箇所との前記ベクトル間距離値が小さい順から所定の条件を満たす特徴箇所を含む前記保存画像それぞれに対してスコアを投票することを特徴とする。   According to the present invention, the matching unit includes a feature location that satisfies a predetermined condition from the feature location of the saved image in the search target database in ascending order of the inter-vector distance value from the feature location of the query image. A score is voted for each of the stored images that are included.

本発明は、コンピュータを前記の画像マッチング装置として機能させることを特徴とする。   The present invention is characterized by causing a computer to function as the image matching device.

本発明によれば、画像マッチングの精度向上を実現できるという効果が得られる。   According to the present invention, it is possible to achieve an effect of improving the accuracy of image matching.

本発明の第1の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of the 1st Embodiment of this invention. 図1に示す特徴表現部11の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the characteristic expression part 11 shown in FIG. 本発明の第1の実施形態における図1に示す照合部12の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the collation part 12 shown in FIG. 1 in the 1st Embodiment of this invention. 本発明の第2の実施形態における図1に示す照合部12の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the collation part 12 shown in FIG. 1 in the 2nd Embodiment of this invention. 本発明の第3の実施形態における図1に示す照合部12の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the collation part 12 shown in FIG. 1 in the 3rd Embodiment of this invention.

<第1の実施形態>
以下、図面を参照して、本発明の第1の実施形態による画像マッチング装置を説明する。図1は本実施形態の構成を示すブロック図である。画像マッチング装置はコンピュータ装置によって構成する。図1において、符号1は画像マッチング処理を行う画像マッチング部である。符号2は、カメラ等で撮影して得られた2次元画像データを入力する画像入力部である。符号3は、画像マッチング処理に必要なデータを記憶する記憶部である。符号4はキーボード等から構成する入力部である。符号5は、表示装置等から構成する表示部である。
<First Embodiment>
Hereinafter, an image matching apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of this embodiment. The image matching device is configured by a computer device. In FIG. 1, reference numeral 1 denotes an image matching unit that performs image matching processing. Reference numeral 2 denotes an image input unit for inputting two-dimensional image data obtained by photographing with a camera or the like. Reference numeral 3 denotes a storage unit that stores data necessary for image matching processing. Reference numeral 4 denotes an input unit composed of a keyboard or the like. Reference numeral 5 denotes a display unit composed of a display device or the like.

符号11は、画像入力部2を介して入力したクエリ画像と記憶部3に予め用意してある検索対象データベース内画像の特徴箇所を抽出し、特徴箇所の局所記述子を算出する特徴表現部であり、正規化処理部111と特徴抽出部112とから構成する。符号12は、特徴表現部11で算出した各特徴箇所の局所記述子を、画像入力部2によって入力された画像と記憶部3に用意されている画像の特徴箇所間で比較し、投票の上画像マッチング結果を出力する照合部であり、スコア重みづけ部121と正規化処理部122とから構成する。   Reference numeral 11 denotes a feature expression unit that extracts a query image input via the image input unit 2 and a feature location of a search target database image prepared in advance in the storage unit 3 and calculates a local descriptor of the feature location. The normalization processing unit 111 and the feature extraction unit 112 are included. Reference numeral 12 denotes a local descriptor of each feature location calculated by the feature representation unit 11 between the feature location of the image input by the image input unit 2 and the image prepared in the storage unit 3, The collation unit outputs an image matching result, and includes a score weighting unit 121 and a normalization processing unit 122.

次に、図2を参照して、図1に示す画像マッチング装置の処理動作を説明する。ここではクエリとして2次元画像を入力し、1枚もしくは複数の2次元画像を検索対象データベースとして予め記憶部3に記憶しておくものとして説明する。ここでは、図1に示す特徴表現部11が画像入力部2から入力したクエリ画像と、記憶部3に予め保存した検索対象データベース内画像から、特徴箇所を抽出し、この特徴箇所ごとに局所記述子を算出し保存する動作を説明する。図2は、画像入力部2から入力したクエリ画像と記憶部3に予め保存した検索対象データベース内画像から、特徴箇所を抽出し、この特徴箇所ごとに局所記述子を算出し保存する動作を示すフローチャートである。   Next, the processing operation of the image matching apparatus shown in FIG. 1 will be described with reference to FIG. Here, a description will be given assuming that a two-dimensional image is input as a query and one or a plurality of two-dimensional images are stored in advance in the storage unit 3 as a search target database. Here, a feature location is extracted from the query image input from the image input unit 2 by the feature expression unit 11 shown in FIG. 1 and the image in the search target database stored in advance in the storage unit 3, and local description is performed for each feature location. The operation of calculating and saving children will be described. FIG. 2 shows an operation of extracting a feature location from a query image input from the image input unit 2 and a search target database image stored in advance in the storage unit 3, and calculating and storing a local descriptor for each feature location. It is a flowchart.

まず、ユーザが入力部4を操作して、2次元画像の入力を指示すると、特徴表現部11は画像入力部2から2次元画像データを入力する(ステップS1)。入力した2次元画像データはユーザ入力のクエリ画像と記憶部3に予め保存した検索対象データベース内の画像とする。なお検索対象データベース内画像の画像サイズが異なる場合は、正規化処理部111が画像サイズを正規化して入力する。この正規化は画像サイズによって特徴箇所検出時に検出される特徴箇所数を公平に保つ意味を持ち、最終的に特徴箇所の対応付けを行う際、この対応付けの確からしさを向上させる効果がある。   First, when the user operates the input unit 4 to instruct input of a two-dimensional image, the feature expression unit 11 inputs two-dimensional image data from the image input unit 2 (step S1). The input two-dimensional image data is a user input query image and an image in a search target database stored in the storage unit 3 in advance. If the image sizes in the search target database are different, the normalization processing unit 111 normalizes and inputs the image size. This normalization has the meaning of keeping the number of feature locations detected at the time of feature location detection fair according to the image size, and has the effect of improving the probability of this association when finally associating feature locations.

次に、特徴抽出部112は入力した画像から特徴箇所を抽出し(ステップS2)、抽出したすべての特徴箇所で局所記述子を算出する(ステップS3)。なお特徴抽出処理は例えば非特許文献1に記載の方法であるHarris-Affine region、Hessian-Affine region、Difference of Gaussians(DOG)やMaximally Stable Extremal Regions(MSER)等の方法を用いて実行する。また局所記述子は例えば非特許文献1に記載の方法であるSIFT、GLOH、PCA−SIFT、SURFやASIFT等の方法を用いて実行する。特徴抽出部112は、入力したすべての2次元画像データに対して特徴箇所抽出処理および局所記述子算出処理を行う。最後に2次元画像データの画像ファイル名と、各々の画像から得られた特徴箇所の局所記述子を関連付けて特徴データとして記憶部3に保存する(ステップS4)。   Next, the feature extraction unit 112 extracts feature locations from the input image (step S2), and calculates local descriptors at all the extracted feature locations (step S3). Note that the feature extraction processing is executed using a method such as Harris-Affine region, Hessian-Affine region, Difference of Gaussians (DOG), or Maximum Stable Extremal Regions (MSER) described in Non-Patent Document 1. The local descriptor is executed by using a method such as SIFT, GLOH, PCA-SIFT, SURF, or ASIFT described in Non-Patent Document 1, for example. The feature extraction unit 112 performs feature location extraction processing and local descriptor calculation processing on all input two-dimensional image data. Finally, the image file name of the two-dimensional image data and the local descriptor of the feature location obtained from each image are associated and stored in the storage unit 3 as feature data (step S4).

次に、図3を参照して図1に示す照合部12が、特徴表現部11が記憶部3に保存した特徴データをもとに、クエリ画像と検索対象データベース内画像間において特徴箇所の局所記述子の比較を行い、画像マッチング結果を出力する動作を説明する。図3は、クエリ画像内の特徴箇所の局所記述子を、検索対象データベース内画像中の特徴箇所の局所記述子と比較し、最近傍となる特徴箇所を有する検索対象データベース内画像に投票を行い、クエリ画像の特徴箇所の最近傍となる特徴箇所を多く有する検索対象データベース内画像を特定し、この画像や各検索対象データベース内画像の投票結果ランキングを画像マッチング結果として出力する動作を示すフローチャートである。   Next, referring to FIG. 3, the collation unit 12 shown in FIG. 1 uses the feature data stored in the storage unit 3 by the feature expression unit 11 to localize feature points between the query image and the search target database image. An operation of comparing descriptors and outputting an image matching result will be described. FIG. 3 compares the local descriptor of the feature location in the query image with the local descriptor of the feature location in the search target database image, and votes on the search target database image having the closest feature location. FIG. 5 is a flowchart showing an operation of specifying an image in the search target database having many feature locations that are closest to the feature location of the query image, and outputting the voting result ranking of this image and each search target database image as an image matching result. is there.

まず、照合部12は記憶部3からクエリ画像と検索対象データベース内画像の各々から抽出した特徴箇所の局所記述子が保存されている特徴データを読み出す(ステップS11)。そして、照合部12は読み出した特徴データのうち、クエリ画像の局所記述子群と検索対象データベース内画像の局所記述子群とを比較する。比較処理ではまずクエリ画像の特徴箇所の局所記述子をベクトル表現し、クエリ特徴ベクトルとする。この処理をクエリ画像の特徴箇所すべてに対して実施し、クエリ特徴ベクトル群を算出する。同じように検索対象データベース内画像のすべての特徴箇所の局所記述子をベクトル表現し、検索対象特徴ベクトル群を算出する。   First, the collation unit 12 reads out the feature data in which the local descriptor of the feature location extracted from each of the query image and the search target database image is stored from the storage unit 3 (step S11). And the collation part 12 compares the local descriptor group of a query image with the local descriptor group of the image in a search object database among the read feature data. In the comparison process, first, the local descriptor of the feature portion of the query image is expressed as a vector to obtain a query feature vector. This process is performed for all the feature portions of the query image, and a query feature vector group is calculated. Similarly, the local descriptors of all feature locations of the image in the search target database are expressed as vectors, and a search target feature vector group is calculated.

次に、クエリ画像のm番目の特徴箇所の特徴ベクトルに対して、検索対象特徴ベクトル群の各々のベクトルとのベクトル間距離を計算し(ステップS12)、このベクトル間距離が最も小さくなる検索対象特徴ベクトルを探索し、この検索対象特徴ベクトルを有する検索対象データベース内画像に対して投票を行う(ステップS13)。なお、ベクトル間距離は、特徴箇所の類似度の確からしさを表し、対象となる2つのn次ベクトルx=(x,x,...,x、y=(y,y,...,yのユークリッド距離dEmを求める(1)式によって求めることができる。 Next, an inter-vector distance with each vector of the search target feature vector group is calculated with respect to the feature vector of the m-th feature location of the query image (step S12), and the search target with the smallest inter-vector distance is calculated. A feature vector is searched, and a vote is performed for the image in the search target database having the search target feature vector (step S13). The inter-vector distance represents the likelihood of the similarity of the feature portion, and the two target n-order vectors x = (x 1 , x 2 ,..., X n ) T , y = (y 1 , y 2 ,..., y n ) The Euclidean distance d Em of T can be obtained by equation (1).

なお、ベクトル間距離の算出方法は、マンハッタン距離など他の公知の方法を用いてもよい。投票時は、特徴箇所の対応付けの確からしさの指標として、スコア重みづけ部121が、上記で求めたベクトル間距離や特徴表現部で算出した特徴箇所の特徴強度(Hessian値)等の値を用いて、スコア値を算出してもよい。この確からしさはベクトル間距離に反比例し、Hessian値に比例する。例えばクエリ画像中のm番目の特徴箇所において、(2)式のようにベクトル間距離値とoffset値を加算した値の逆数をスコア値Sとして投票する。また、このoffset値は、ベクトル間距離値が0のときに逆数が存在しないために設定する調整値であるため、投票に影響を与えない程度に小さい数値を設定するのが良い。例えば0.0001を設定する。Hessian値を指標とする場合は、対応する検索対象データベース内画像中の特徴箇所のHessian値そのものをスコア値としてもよい。この処理をすべてのクエリ画像の特徴箇所に対して実施する。

Figure 0005616310
As a method for calculating the inter-vector distance, other known methods such as Manhattan distance may be used. At the time of voting, the score weighting unit 121 uses values such as the inter-vector distance obtained above and the feature strength (Hessian value) of the feature location calculated by the feature expression unit as an index of the probability of the feature location association. It may be used to calculate the score value. This certainty is inversely proportional to the distance between vectors and proportional to the Hessian value. For example, at the m-th feature location in the query image, the reciprocal of the value obtained by adding the inter-vector distance value and the offset value as in equation (2) is voted as the score value S m . The offset value is an adjustment value that is set because there is no reciprocal when the inter-vector distance value is 0. Therefore, it is preferable to set a small value that does not affect voting. For example, 0.0001 is set. When the Hessian value is used as an index, the Hessian value itself of the characteristic portion in the corresponding image in the search target database may be used as the score value. This process is performed on the characteristic portions of all query images.
Figure 0005616310

最後に開票処理として、正規化処理部122が、すべての検索対象データベース内画像において合計スコア値を各画像の有する特徴箇所合計数に応じて正規化する。この正規化は各検索対象データベース内画像における特徴箇所のうち、どれだけ多くの特徴箇所がクエリ画像の特徴箇所と対応づいているかを求めるもので、最終的に特徴箇所の対応付けを行う際にこの対応付けの確からしさを向上させる効果がある。続いて合計スコア値が最大となる画像を求め、もしくは合計スコア値によってランキング化し、マッチング結果として出力する(ステップS14)。   Finally, as the vote counting process, the normalization processing unit 122 normalizes the total score value in all the search target database images according to the total number of feature locations of each image. This normalization is to find out how many feature locations in the image in each search target database correspond to the feature locations in the query image. There is an effect of improving the certainty of this association. Subsequently, an image having the maximum total score value is obtained or ranked by the total score value and output as a matching result (step S14).

以上説明したように照合時に、クエリ画像と検索対象データベース内画像群の特徴箇所の対応付けの後、対応付けの確からしさを重みとした投票を実施することにより、投票時に重みづけを行わない従来手法と比較し、誤対応が発生した際の影響を削減することが可能となる。   As described above, at the time of matching, after matching the query image and the feature portion of the image group in the search target database, the weighting at the time of voting is performed by performing voting with the probability of matching as a weight. Compared with the method, it is possible to reduce the influence when a mishandling occurs.

<第2の実施形態>
次に、図4を参照して、本発明の第2の実施形態による画像マッチング装置を説明する。第1の実施形態では照合時の投票処理において、検索対象特徴ベクトルの中からクエリ画像の各特徴ベクトルに対する最近傍の特徴箇所を求め、対応するベクトル間のベクトル間距離値からスコア値を算出し投票を行った。第2の実施形態以降では、投票処理においてクエリ画像の各特徴ベクトルに対して、最近傍のみならず第2近傍以降のベクトル間距離情報を用いることで、類似する複数画像を求めることができ、精度を向上させることができる画像マッチング装置について説明する。
<Second Embodiment>
Next, an image matching device according to a second embodiment of the present invention will be described with reference to FIG. In the first embodiment, in the voting process at the time of matching, the nearest feature point for each feature vector of the query image is obtained from the search target feature vectors, and the score value is calculated from the inter-vector distance value between the corresponding vectors. Voted. In the second embodiment or later, for each feature vector of the query image in the voting process, it is possible to obtain a plurality of similar images by using not only the nearest neighbor but also vector distance information after the second neighborhood, An image matching apparatus capable of improving accuracy will be described.

まず、特徴データを読み出した(ステップS21)後の照合時の投票処理において、クエリ画像の特徴箇所の特徴ベクトルに対して検索対象特徴ベクトル群の各々のベクトルとベクトル間距離を計算し(ステップS22)、このベクトル間距離が小さい順に検索対象特徴ベクトルのランキングを生成する。次にこのランキングにおいて、予め設定した投票対象数K番目までに該当する検索対象特徴ベクトルを有する検索対象データベース内画像に対して投票を行う(ステップS23)。投票対象数Kは例えば5を設定するとクエリ画像の各特徴箇所に対して、検索対象データベース内画像の特徴箇所の中で、最近傍から第5近傍となる特徴箇所にそれぞれ投票を行う。投票時はクエリ画像中のm番目の特徴箇所における第k近傍(1≦k≦5)におけるベクトル間距離をdEmkとすると、スコア値Smkを(3)式のように前記ベクトル間距離値とoffset値を加算した値の逆数として算出し、該当する検索対象データベース内画像にそれぞれ投票する。なお、第2の実施形態においても、特徴箇所の対応付けの確からしさの指標として、スコア重みづけ部121が、上記で求めたベクトル間距離や特徴表現部で算出した特徴箇所の特徴強度(Hessian値)等の値を用いて、スコア値を算出してもよい。この投票処理をすべてのクエリ画像の特徴箇所に対して実施する。

Figure 0005616310
First, in the voting process at the time of matching after the feature data is read (step S21), each vector of the search target feature vector group and the distance between the vectors are calculated with respect to the feature vector of the feature portion of the query image (step S22). ), The ranking of search target feature vectors is generated in ascending order of the distance between the vectors. Next, in this ranking, voting is performed on images in the search target database having search target feature vectors corresponding to the preset number K of voting targets (step S23). For example, when the number of votes K is set to 5, for each feature location of the query image, a vote is given to the feature location from the nearest neighbor to the fifth neighborhood among the feature locations of the image in the search subject database. At the time of voting, if the distance between vectors in the k-th neighborhood (1 ≦ k ≦ 5) in the m-th feature location in the query image is d Emk , the score value S mk is the distance value between vectors as shown in equation (3). Are calculated as the reciprocal of the value obtained by adding the offset value and the offset value, and each of the images in the search target database is voted. Also in the second embodiment, the score weighting unit 121 uses the distance between vectors calculated above and the feature strength of the feature location calculated by the feature representation unit (Hessian) as an index of the probability of the feature location association. The score value may be calculated using a value such as (value). This voting process is performed on the characteristic portions of all the query images.
Figure 0005616310

最後に開票処理として、正規化処理部122が、すべての検索対象データベース内画像において合計スコア値を各画像の有する特徴箇所合計数に応じて正規化する。そのあと合計スコア値が最大となる画像を求め、もしくは合計スコア値によってランキング化し、マッチング結果として出力する(ステップS24)。   Finally, as the vote counting process, the normalization processing unit 122 normalizes the total score value in all the search target database images according to the total number of feature locations of each image. Thereafter, an image having the maximum total score value is obtained or ranked by the total score value and output as a matching result (step S24).

以上説明したように照合時に、クエリ画像の特徴箇所に対応する検索対象データベース内画像群の特徴箇所をK近傍まで対応付けした後、クエリ画像の各々の特徴箇所に対してベクトル間距離値を重みとした投票をK近傍まで実施することにより、第1の実施形態と比較し精度向上が実現できる。特に検索対象データベース中にクエリ画像の特徴箇所と類似する特徴箇所を多く含むときに、ベクトル間距離に有意差の無い近傍間において、重みづけに差がでないような投票スコア付けをすることができ精度の向上が可能となる。   As described above, at the time of matching, after associating the feature location of the image group in the search target database corresponding to the feature location of the query image up to the vicinity of K, the inter-vector distance value is weighted for each feature location of the query image. By implementing up to the vicinity of K, the accuracy can be improved as compared with the first embodiment. In particular, when the search target database contains many feature parts similar to the feature parts of the query image, voting scores can be given so that there is no difference in weighting between the neighborhoods where there is no significant difference between vectors. The accuracy can be improved.

<第3の実施形態>
次に、図5を参照して、本発明の第3の実施形態による画像マッチング装置を説明する。第2の実施形態では投票対象となる近傍数Kを事前に指定し投票を実施した。第3の実施形態では近傍間の投票スコアに有意差が発生した時点で自動的に投票を打ち切ることで、高速かつ高精度な画像マッチングを実現する画像マッチング装置について説明する。
<Third Embodiment>
Next, an image matching apparatus according to a third embodiment of the present invention will be described with reference to FIG. In the second embodiment, the number of neighbors K to be voted for is designated in advance and voted. In the third embodiment, an image matching apparatus that realizes high-speed and high-accuracy image matching by automatically quitting voting when a significant difference occurs in voting scores between neighbors will be described.

まず、特徴データを読み出した(ステップS31)後の照合時の投票処理において、クエリ画像のm番目の特徴箇所の特徴ベクトルに対して検索対象特徴ベクトル群の各々のベクトルとベクトル間距離を計算し(ステップS32)、このベクトル間距離が小さい順に検索対象データベース内画像のランキングを生成する。次に投票処理を行うが、予め設定した閾値係数をRとしたとき、l近傍の投票を判別式である(4)式を満たすか満たさないか(ステップS33)によって投票処理の実施の有無を決定する。Rは例えば0.5に設定する。なお、Rの値は大きければ大きいほど投票対象数が少なくなり、小さければ小さいほど投票対象数が多くなる。この判別式を満たさない(=0)場合は投票処理を実施し、次の近傍である(l+1)近傍における判別式にかける。判別式を満たしたら投票処理を行わず、クエリ画像の(m+1)番目の特徴箇所の特徴ベクトルに対する処理に移る。

Figure 0005616310
First, in the voting process at the time of matching after the feature data is read (step S31), each vector of the search target feature vector group and the inter-vector distance are calculated with respect to the feature vector of the mth feature location of the query image. (Step S32), rankings of images in the search target database are generated in ascending order of the vector distance. Next, the voting process is performed. When the threshold coefficient set in advance is R, whether or not the voting process is performed depends on whether or not the voting in the vicinity of l satisfies the expression (4) as a discriminant (step S33). decide. For example, R is set to 0.5. Note that the larger the value of R, the smaller the number of voting objects, and the smaller the value of R, the larger the number of voting objects. If this discriminant is not satisfied (= 0), a voting process is performed, and the discriminant in the neighborhood of (l + 1), which is the next neighborhood, is applied. If the discriminant is satisfied, the voting process is not performed, and the process proceeds to the process for the feature vector of the (m + 1) th feature location of the query image.
Figure 0005616310

このようにしてクエリ画像の特徴箇所ごとに投票対象数を変更しながら、クエリ画像のすべての特徴箇所に対応する検索対象データベース内画像に投票を実施する(ステップS34)。各投票スコアの算出方法は実施形態2と同様である。   In this way, while changing the number of votes for each feature location of the query image, voting is performed on the images in the search target database corresponding to all the feature locations of the query image (step S34). The calculation method of each vote score is the same as that of the second embodiment.

最後に第2の実施形態と同様に開票処理として、正規化処理部122が、すべての検索対象データベース内画像において合計スコア値を各画像の有する特徴箇所合計数に応じて正規化する。そのあと合計スコア値が最大となる画像を求め、もしくは合計スコア値によってランキング化し、マッチング結果として出力する(ステップS35)。   Finally, as in the case of the second embodiment, as a vote counting process, the normalization processing unit 122 normalizes the total score value of all the images in the search target database according to the total number of feature locations of each image. Thereafter, an image having the maximum total score value is obtained or ranked by the total score value and output as a matching result (step S35).

このように、照合時において、クエリ画像と検索対象データベース内画像群の特徴箇所の対応付けの後、各々のベクトル間距離を重みとした投票を複数候補に対して実施することにより、第1の実施形態と比較し、特に検索対象データベース中にクエリ画像の特徴箇所と類似する特徴箇所を多く含むときに、有意差の無い近傍間で重みづけに差がでないような投票スコア付けすることができ精度の向上が可能となる。さらに投票対象数を固定せずクエリ画像の特徴箇所ごとに近傍間の差を確認しながら投票対票数を自動的に割り当てて実施するため、無駄な投票を防ぐことができ、第2の実施形態と比較し、高速かつ高精度な画像マッチングを実現できる。   As described above, at the time of matching, after associating the query image with the feature portion of the image group in the search target database, the voting is performed on a plurality of candidates by using the distances between the vectors as the weights. Compared with the embodiment, especially when the search target database includes many feature parts similar to the feature parts of the query image, it is possible to make a voting score so that there is no difference in weighting between the neighborhoods having no significant difference. The accuracy can be improved. Furthermore, since the number of votes to be voted is automatically assigned and executed while confirming the difference between the neighborhoods for each feature portion of the query image without fixing the number of votes, the second embodiment can prevent useless votes. Compared with, high-speed and high-precision image matching can be realized.

なお、すべての実施形態において、図1の特徴表現部における画像サイズに応じた正規化、および照合部における各検索対象データベース内画像の合計スコア値の特徴箇所数に応じた正規化は各々実施しても実施しなくてもよい。   In all of the embodiments, normalization according to the image size in the feature representation unit in FIG. 1 and normalization according to the number of feature locations of the total score value of each search target database image in the matching unit are performed. However, it is not necessary to carry out.

以上説明したように、画像マッチング時に投票スコア値に重みづけを行い、この投票スコア値の確からしさを向上させるために、特徴表現部11において画像サイズに応じた正規化処理を行った後に特徴抽出を行うようにした。また照合部12において重みづけをした対応付けの後に合計スコア値を各検索対象データベース内画像群の特徴箇所数に応じて正規化するようにした。これにより、画像マッチングの精度向上を実現することができる。   As described above, the voting score value is weighted at the time of image matching, and in order to improve the certainty of the voting score value, the feature extraction unit 11 performs the normalization process according to the image size and performs feature extraction. To do. In addition, the total score value is normalized according to the number of feature portions of each image group in the search target database after the weighting in the matching unit 12. As a result, the accuracy of image matching can be improved.

なお、図1における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像マッチング処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute image matching processing. You may go. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

以上、本発明を実施形態例に基づき具体的に説明したが、上記実施の形態の説明は、本発明を説明するためのものであって、特許請求の範囲に記載の発明を限定し、或いは範囲を減縮する様に解すべきではない。また、本発明の各部の構成は、上記実施の形態に限らず、特許請求の範囲に記載の技術的範囲内で種々の変形が可能であることは勿論である。   Although the present invention has been specifically described above based on the embodiments, the description of the above embodiments is for explaining the present invention, and limits the invention described in the claims, or It should not be construed as reducing the scope. Further, the configuration of each part of the present invention is not limited to the above-described embodiment, and various modifications can be made within the technical scope described in the claims.

誤対応付けが多く発生すると、画像マッチングの結果としてふさわしい画像の得票数が少なくなり、画像マッチングが正しく行えないという問題を解決するために、特徴ベースの画像マッチングにおいて、誤対応付けの影響を減らすことが不可欠な用途に適用できる。   In order to solve the problem that image matching cannot be performed correctly due to a decrease in the number of votes of images suitable as a result of image matching when a large number of misassociations occur, the influence of misassociation is reduced in feature-based image matching. Can be applied to indispensable uses.

1・・・画像マッチング部、11・・・特徴表現部、111・・・正規化処理部、112・・・特徴抽出部、12・・・照合部、121・・・スコア重みづけ部、122・・・正規化処理部、2・・・画像入力部、3・・・記憶部、4・・・入力部、5・・・表示部   DESCRIPTION OF SYMBOLS 1 ... Image matching part, 11 ... Feature expression part, 111 ... Normalization process part, 112 ... Feature extraction part, 12 ... Collation part, 121 ... Score weighting part, 122 ... Normalization processing unit, 2 ... Image input unit, 3 ... Storage unit, 4 ... Input unit, 5 ... Display unit

Claims (6)

クエリ画像と、検索対象データベース内に予め保存された保存画像のそれぞれから抽出した特徴箇所毎に特徴量を算出する特徴表現手段と、
前記クエリ画像と、前記保存画像間において、前記特徴表現手段により算出した前記特徴量からスコアを算出し、前記クエリ画像の前記特徴箇所に対応する前記保存画像へのスコア投票結果に基づき画像マッチングを行う照合手段とを備えた画像マッチング装置であって、
前記照合手段は、
前記クエリ画像の特徴箇所の特徴量から生成されるベクトルと前記保存画像の特徴箇所の特徴量から生成されるベクトルとのベクトル間距離を算出し、前記ベクトル間距離の昇順に並べた前記クエリ画像の特徴箇所毎の前記保存画像のリストを生成し、
前記クエリ画像の特徴箇所の特徴量から生成されるベクトルと前記リスト中i(iは自然数)番目の保存画像の特徴箇所の特徴量から生成されるベクトルとのベクトル間距離と、前記クエリ画像の特徴箇所の特徴量から生成されるベクトルと前記リスト中(i+1)番目の保存画像の特徴箇所の特徴量から生成されるベクトルとのベクトル間距離とに有意な差が発生する最小のi番目までの保存画像を特定し、
前記クエリ画像の特徴箇所毎に特定された最小のi番目までの保存画像に対して、クエリ画像の特徴箇所と保存画像の特徴箇所との対応づけの確からしさを示すスコアを投票し、前記スコア投票結果に基づき前記画像マッチングを行って、前記クエリ画像とマッチングする前記保存画像を求めることを特徴とする画像マッチング装置。
A feature representation means for calculating a feature amount for each feature location extracted from each of a query image and a stored image stored in advance in the search target database;
A score is calculated from the feature amount calculated by the feature expression means between the query image and the saved image, and image matching is performed based on a score vote result for the saved image corresponding to the feature location of the query image. An image matching device comprising a matching means for performing,
The verification means includes
The query image calculated by calculating the inter-vector distance between the vector generated from the feature quantity of the feature location of the query image and the vector generated from the feature quantity of the feature location of the stored image, and arranged in ascending order of the inter-vector distance. A list of the stored images for each feature point of
The inter-vector distance between the vector generated from the feature quantity of the feature location of the query image and the vector generated from the feature quantity of the feature location of the i-th stored image in the list (i is a natural number), and the query image Up to the smallest i-th occurrence of a significant difference between the vector generated from the feature quantity of the feature location and the vector distance between the vector generated from the feature quantity of the feature location of the (i + 1) -th stored image in the list Identify saved images of
Vote for a score indicating the probability of correspondence between the feature location of the query image and the feature location of the saved image with respect to the smallest i-th saved image specified for each feature location of the query image, and the score An image matching apparatus that performs the image matching based on a voting result to obtain the stored image that matches the query image.
前記照合手段は、前記スコア投票結果を前記検索対象データベース内の前記保存画像中の特徴箇所数で正規化した値に基づき前記画像マッチングを行うことを特徴とする請求項1に記載の画像マッチング装置。   The image matching apparatus according to claim 1, wherein the matching unit performs the image matching based on a value obtained by normalizing the score voting result by the number of feature locations in the stored image in the search target database. . 前記特徴表現手段は、前記クエリ画像と、前記保存画像を画像サイズに応じて正規化してから、前記特徴箇所を抽出することを特徴とする請求項1または2に記載の画像マッチング装置。   The image matching apparatus according to claim 1, wherein the feature expression unit extracts the feature portion after normalizing the query image and the saved image according to an image size. 前記照合手段で用いる対応づけの確からしさを示すスコアは、前記検索対象データベース内の前記保存画像に対して、前記クエリ画像の特徴箇所と対応する特徴箇所のHessian値に基づいたスコアであることを特徴とする請求項1から3のいずれか1項に記載の画像マッチング装置。 Said score indicating the likelihood of association used in collating means, with respect to the stored image of the search target database is a score based on the Hessian value of feature points corresponding to the feature points of the query image image matching device according to any one of claims 1, wherein 3. 前記照合手段で用いる対応づけの確からしさを示すスコアは、前記クエリ画像の特徴箇所の特徴量から生成されるベクトルと前記保存画像の特徴箇所の特徴量から生成されるベクトルとのベクトル間距離に基づいたスコアであることを特徴とする請求項1から3のいずれか1項に記載の画像マッチング装置。 The score indicating the probability of correspondence used in the matching unit is the distance between vectors between a vector generated from the feature quantity of the feature location of the query image and a vector generated from the feature quantity of the feature location of the saved image. image matching device according to any one of claims 1 to 3, characterized in that the score based. コンピュータを請求項1〜5のいずれか1項に記載の画像マッチング装置として機能させるための画像マッチングプログラム。 Image matching program for functioning as an image matching device according to the computer in any one of claims 1-5.
JP2011210647A 2011-09-27 2011-09-27 Image matching apparatus and image matching program Expired - Fee Related JP5616310B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011210647A JP5616310B2 (en) 2011-09-27 2011-09-27 Image matching apparatus and image matching program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011210647A JP5616310B2 (en) 2011-09-27 2011-09-27 Image matching apparatus and image matching program

Publications (2)

Publication Number Publication Date
JP2013073333A JP2013073333A (en) 2013-04-22
JP5616310B2 true JP5616310B2 (en) 2014-10-29

Family

ID=48477815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011210647A Expired - Fee Related JP5616310B2 (en) 2011-09-27 2011-09-27 Image matching apparatus and image matching program

Country Status (1)

Country Link
JP (1) JP5616310B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6188147B2 (en) * 2013-10-15 2017-08-30 国立大学法人広島大学 Recognition system
JP6431302B2 (en) * 2014-06-30 2018-11-28 キヤノン株式会社 Image processing apparatus, image processing method, and program
CN106709502B (en) * 2016-11-18 2023-06-20 深圳信息职业技术学院 Multi-feature fusion recognition method based on voting method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4384366B2 (en) * 2001-01-12 2009-12-16 富士通株式会社 Image collation processing system and image collation method
JP5239921B2 (en) * 2009-02-10 2013-07-17 公立大学法人大阪府立大学 Line image original search method

Also Published As

Publication number Publication date
JP2013073333A (en) 2013-04-22

Similar Documents

Publication Publication Date Title
US11816888B2 (en) Accurate tag relevance prediction for image search
US11908239B2 (en) Image recognition network model training method, image recognition method and apparatus
US9754151B2 (en) Derived virtual quality parameters for fingerprint matching
JP6144839B2 (en) Method and system for retrieving images
US8533162B2 (en) Method for detecting object
US8805117B2 (en) Methods for improving image search in large-scale databases
US20120301014A1 (en) Learning to rank local interest points
JP5818327B2 (en) Method and apparatus for creating image database for 3D object recognition
JP5563494B2 (en) Corresponding reference image search device and method, content superimposing device, system and method, and computer program
US20110134221A1 (en) Object recognition system using left and right images and method
JP6211407B2 (en) Image search system, image search device, search server device, image search method, and image search program
CN106682700B (en) Block rapid matching method based on key point description operator
US11132392B2 (en) Image retrieval method, image retrieval apparatus, image retrieval device and medium
JP5616310B2 (en) Image matching apparatus and image matching program
JP2014102746A (en) Subject recognition device and subject recognition program
JP6017277B2 (en) Program, apparatus and method for calculating similarity between contents represented by set of feature vectors
US20150254527A1 (en) Methods for 3d object recognition and registration
JP2014048989A (en) Bof expression generation device and bof expression generation method
US9189693B2 (en) Information processing apparatus and information processing method
JP2014225168A (en) Program, device, and method for calculating similarity between images represented by feature point set
JP5723301B2 (en) Subject recognition device and subject recognition program
CN114519729A (en) Image registration quality evaluation model training method and device and computer equipment
US10546179B2 (en) Distorted fingerprint matching using pose and minutia grouping
CN111401252B (en) Book spine matching method and equipment of book checking system based on vision
KR102473724B1 (en) Image registration method and apparatus using siamese random forest

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130731

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140911

R150 Certificate of patent or registration of utility model

Ref document number: 5616310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees